AI
Business

AI, zegen of vloek?

27.03.2024
door Lieven Desmet

We mogen de kansen van generatieve AI-systemen – zoals ChatGPT – niet miskennen. Maar er is ook een schaduwzijde, zoals jobverlies. En dan hebben we het nog niet gehad over het eigendomsrecht, transparantie in het creatieproces, of duurzaamheid.

Zowat iedereen heeft een mening over artificiële intelligentie, en die lopen uiteen van doemdenken tot vooruitgangsoptimisme. Voor de een is een AI-systeem als ChatGPT een ethisch onverantwoord experiment, voor de ander wegen de opportuniteiten van AI door. “Met AI doen we gewoon beter werk met minder kosten”, oordeelt David Martens. Martens is verbonden aan de Universiteit Antwerpen als Specialist Datamining en Responsible AI (Faculteit Bedrijfswetenschappen en Economie). “Als universiteit moeten we AI volledig omarmen. Het is onder meer onze rol om ervoor te zorgen dat de economie en maatschappij beter worden door deze technologie, en het is onze plicht om de huidige studenten in het verantwoord gebruik ervan op te leiden.”

Toch zijn er veel vragen. Wat zijn de aannames bij ChatGPT? Welke bronnen worden gebruikt? Wie kan het eigenaarschap claimen in het creatieproces? En hoever kunnen we gaan in het antropomorfiseren van AI: de technologie menselijke eigenschappen toedichten. Zo is er al een AI-implementatie in Snapchat voor jongeren. Er wordt stelselmatig nadruk gelegd op scenario’s waarin AI-technologie de mens voorbijstreeft. Daardoor zouden we de controle verliezen en er levensgevaarlijke scenario’s ontstaan.

Het is onder meer onze rol om ervoor te zorgen dat de economie en maatschappij beter worden door deze technologie.

Omarmen maar kritisch reflecteren

David Martens is heus niet blind voor de mogelijke gevaren, hij schreef er zelfs een boek over. ‘Data Science Ethics: Concepts, Techniques, and Cautionary Tales’, uitgegeven in 2022 bij Oxford University Press, wordt inmiddels als standaard gebruikt bij verscheidene universiteiten. “We moeten weten welke beveiligingen het systeem kent, hoe de modellen getraind worden en wie er allemaal toegang tot de data en de modellen heeft. Het is tevens onbegrijpelijk dat er AI-experimenten op kinderen uitgevoerd worden. Dat is onaanvaardbaar en daar moeten we een duidelijk standpunt over innemen. Maar het omarmen van AI en een kritische reflectie erop kunnen voor mij perfect samengaan.”

In de Europese AI-wetgeving staat dat de OpenAI-platformen moeten aangeven waar hun ‘copyrighted data’ vandaan komen. Martens legt uit: “Nog een van de risico’s is de kans op ‘biases’. Als een algoritme getraind wordt met niet-representatieve informatie, dan zal de ongelijkheid tussen bevolkingsgroepen toenemen. En een erg groot risico is de zogenaamde ‘concentration of power’. Nu leiden een aantal grote Amerikaanse techspelers zoals OpenAI, Microsoft, Meta en Google de discussies over dit thema en hebben we er zelf geen controle over. Daarom is het des te belangrijker dat Europa krijtlijnen uitzet die moeten gevolgd worden”, benadrukt hij.

FDA-model

Maar ook in de thuisbasis van die dominante techspelers gaan er stemmen op tot het reguleren van AI-onderzoeken. De discussie over de gevaren van artificiële intelligentie wordt nu te vaak gekaapt door de ontwikkelaars van deze technologie en bedrijven die daarvan financieel profiteren. Een idee dat aan kracht wint is het bouwen van een nieuwe regelgevende instantie die zich toelegt op AI-governance. Zo wordt door het AI Now Institute, een Amerikaans onderzoeksinstituut voor de maatschappelijke implicaties van kunstmatige intelligentie, het model van de FDA naar voor geschoven.

De Food and Drug Administration (FDA) is de regelgevende instantie die verantwoordelijk is voor het waarborgen van de veiligheid van de voedsel-, biologische en medische producten. “AI Now onderzoekt hoe we via zo’n model duidelijke beleidsrichtlijnen kunnen ontwikkelen om het reguleren van AI robuuster te maken”, zegt Sarah Myers West, directeur van AI Now Institute. “Het leggen van een sterke basis zal de sleutel zijn tot onafhankelijk bestuur.” ChatGPT en andere generatieve AI-systemen zijn zo complex dat niemand meer begrijpt hoe ze werken en hoe fouten ontstaan. “Gezien het groeiende momentum is dit een kans om lessen te trekken uit regelgevend bestuur”, klinkt het bij Sarah Myers West, die onder meer adviseur is van het Witte Huis, de Europese Commissie, en lid is van de AI Futures Working Group van de OESO.

Vorig artikel
Volgend artikel