Ethische dilemma’s in tijden van AI
Op dinsdag 20 juni sloot ik aan bij de pitstop kennissessie op de HAN over Ethische dilemma’s in tijden van AI. In de lezing nam digitaal strateeg Marco Derksen ons mee in de opkomst van generatieve kunstmatige intelligentie en in de ethische aspecten van ChatGPT en soortgelijke AI-tools. In het onderwijs zijn we zoekende naar een verstandige omgang met AI. We kiezen bij het inzetten van generatieve AI-tools zoals ChatGPT bij de HAN voor een behoudende, informerende en onderwijskundige aanpak en zoeken daarnaast ruimte om gecontroleerd te experimenteren. Ik schreef in mijn vorige blog Technologie, Filosofie en wereldburgerschap al over het belang van ethiek bij het maken van de juiste keuzes. Marco stond deze middag in zijn lezing specifiek stil bij de ethische dilemma’s, omdat zoals hij zelf zegt in zijn blog “juist de genuanceerde discussie over deze ethische dilemma’s lijkt ondergesneeuwd te worden door enerzijdse de stortvloed aan nieuwe mogelijkheden van AI en anderzijds de waarschuwingen voor existentiele risico’s van AI. Voor mij reden om in mijn bijdrage aan de HAN Pitstop aandacht te vragen voor de ethische dilemma’s in tijden van AI.”
Begin jaren 90 studeerde ik bedrijfskundige informatica en hoorde ik voor het eerst over kennis- en expertsystemen. Ik vond dit in die tijd een ingewikkeld concept. De toenmalige expertsystemen waren gebaseerd op de cognitiewetenschap uit de jaren zeventig, oftewel volgens het universele redeneermechanisme van IF-THEN-ELSE. Wat hierin miste was dat een echte expert blijft leren door interactie met zijn omgeving en deze expertsystemen waren zo niet ontworpen. De systemen moesten verbeterd worden door de kennis van het expertsysteem continu aan te passen aan de ervaring van het systeem (hier wordt parameters en kansen toegevoegd, waardoor je onderscheid krijgt in relevantie) en het voeden (trainen) van het systeem met casuistiek uit de praktijk.
Marco Derksen betoogt dat AI de systeemtechnologie is die onze samenleving (net als de stoommachine, de verbrandingsmotor en de computer) fundamenteel gaat veranderen. We spreken hier over de digitale transformatie van de samenleving: hierin is AI de systeem technologie die zorgt voor verandering (andere wetten, andere vaardigheden studenten etc). En bij veranderingen hoort weerstand en verzet. Dit zien we ook in de gesprekken over de inzet van AI in het onderwijs. Ik bedacht me laatst dat de lockdowns van twee jaar geleden misschien wel de generale repetitie zijn geweest voor de komst van generatieve AI zoals ChatGPT. Doordat onze studenten niet naar school konden komen vanwege de lockdown moesten we onderwijs en toetsing online organiseren. Waar een aantal opleidingen worstelden met deze aanpassingen, met name bij de toetsing, zag ik ook opleidingen waar de aanpassing redelijk soepel ging. Deze opleidingen bleken al langer met vormen van toetsen te werken die ook in een lockdown setting en op afstand heel goed werkten: meer formatief handelen en evalueren en meer focus op het proces dan op het eindresultaat (en het inzetten van vormen van feedback). Ik verwacht dat dit dezelfde opleidingen zijn die niet in paniek raken van de komst van ChatGPT.
Terug naar de jaren ’90 en de lezing van Marco: Begin jaren 90 ontstonden de neurale netwerken. De grote doorbraak in deze ontwikkeling is dat deze neurale netwerken groeiden door steeds meer data te gebruiken om de systemen te trainen. Een voorbeeld is het large language model (LLM). De trainingsdata gaan in de neuraal netwerken en de machine zoekt naar relaties tussen woorden. In de afgelopen 10 jaar zijn de foundation modellen steeds groter geworden. Doordat deze systemen steeds groter worden ontstaan zogenaamde emergente eigenschappen. De machine gaat dingen doen waar de machine niet op getraind is en is daarmee niet meer voorspelbaar. Dit is een leuk artikel over emergentie ofwel ‘meer is anders’.
In de rest van de lezing staat Marco stil bij een aantal ethische dilemma’s in relatie tot AI. Ik licht er een paar uit.
- De data: AI wordt getraind met data die beschikbaar zijn op het Internet. Hier zitten een aantal interessante aspecten aan, om te beginnen dat we niet weten waar deze data vandaan komen (veel komt uit Amerika met bijbehorende waarden en normen, die zorgt voor ‘bias’) en wie eigenaar is (hoe zit het met auteursrechten). Hierbij hoort ook de zogenaamde ‘dead internet theory’: 90% content op internet door ai gegenereerd en daarmee wordt AI dan weergetraind etc. Zo bewegen we ons langzaam naar het gemiddelde en is er weinig ruimte voor creativiteit en vernieuwing.
- Kosten: het trainen van ChatGPT kost heel veel geld, per dag 700000 dollar (chips, machines en energie), wat is de meerwaarde?
- Impact op beroepen: Wat doet AI met toekomst van werk? Er komen steeds meer ‘copilots’ gebaseerd op AI die mensen ondersteunen bij het gebruik van ICT-tools, maar bv. ook coding assistants voor programmeurs. De verwachting lijkt dat er weliswaar banen zullen verdwijnen, maar dat er ook weer nieuwe ontstaan, zoals bv. clickworkers (het is niet AI die banen vervangt maar het is de mens die AI gebruikt die zorgt dat banen veranderen). Dit stelt wel eisen aan de wendbaarheid van mensen (en dus aan onze studenten).
- Wie bepaalt?: de grote vraag is wie stuurt op de ontwikkeling van AI. Nu zijn dat blijkbaar 9 bedrijven (zie plaatje). Het wordt tijd dat we zelf digitaal wakker worden.
- De prijs van AI: AI heeft een prijs, het levert veel op, maar niet voor iedereen. En dat terwijl we AI ook heel goed in zouden kunnen zetten voor het verbeteren van de toegankelijkheid van onderwijs, zoals de Khan academy doet met Khanmigo: ‘Khan Academy’s AI-powered guide. Tutor for learners. Assistant for teachers‘.
Wet- en regelgeving kan ons helpen bij deze ethische dilemma’s. De AI wet komt eind van het jaar en er komt ook een Digital Act aan. Europa loopt hierin voorop ten opzichte van Amerika en China en zou weleens bepalend kunnen worden. In de wetgeving zullen bv. een aantal AI toepassingen niet toegestaan worden (unacceptable, zoals gezichtsherkenning in het openbare domein).
En ondertussen is de vraag hoe we met deze nieuwe technologie omgaan en hoe we ervoor kunnen zorgen dat we transformeren naar een mensgerichte AI-toekomst. Marco verwijst o.a. naar de methodiek van begeleidingsethiek.nl die helpt bij het voeren van het juiste gesprek. Ook het onderwijs heeft hier een belangrijke rol in. We moeten het gebruik van AI niet verbieden, maar beginnen met ethische vraagstukken en het bewustzijn in onderwijs brengen.
AI, ChatGPT en aanverwante AI-tools zijn onderdeel van onze samenleving en zullen de komende tijd alleen maar groeien in omvang en potentie. Het verbieden van deze tools in het onderwijs is onverstandig (en ook niet realistisch). Het is de taak van het onderwijs om onze studenten vertrouwd te maken met wat er nu op digitaal en technologisch gebied voor handen is en nieuwsgierig te maken naar toekomstige ontwikkelingen en mogelijkheden zodat zij een bijdrage kunnen leveren aan het benutten van kansen en tevens doorzien welke risico’s, bijvoorbeeld op het gebied van wet- en regelgeving of ethische dilemma’s, er zijn. Vanuit de HAN willen we onze docenten in staat stellen om AI op een doordachte manier in het onderwijs in te zetten, zodat onze studenten zich kunnen ontwikkelen tot digi- en datavaardige professionals.
Een gedachte hierover … Vanuit de basis van systeemdenken en evolutietheorie zie ik de beste toekomst wanneer wij leren om constructief met deze krachtbron leren interacteren. Enerzijds doordat de systemen een goed basisniveau hebben, anderzijds doordat we leren omgaan met de eigenaardigheden die ongetwijfeld aan het licht zullen komen. Een belangrijk element in de ontwikkeling is dat we ontwikkelaars van deze systemen bevragen hoe zij terugkoppeling vanuit de gebruikers en omgeving in deze systemen inregelen, dat is een belangrijke voorwaarde om een wederzijds constructieve relatie op te kunnen bouwen en (samen) te leren. Als dat goed georganiseerd is, dan zullen er wel fouten en problemen ontstaan, net als met elke technologie die ontwikkeld werd, maar voorkomen we de creatie van een niet te stoppen projectiel dat haar fouten keer op keer herhaalt en dan dus bestreden moet worden.
Hallo Bastiaan, dank voor je reactie. Ik denk ook dat dit een manier is om te voorkomen dat we een niet te stoppen projectiel creeeren. In mijn blog over technologie, filosofie en burgerschap gaat het ook over de vraag wanneer je deze kritische (oa. ethische) interactie toe laat in je proces. Als je kiest voor eerst nadenken en dan pas doen, loop je het risico dat je geen nieuwe dingen meer ontwikkeld en als je wacht tot het klaar is ben je mogelijk te laat. De uitdaging is om de interactie vanaf de start, tijdens en na het ontwikkel/ontwerpproces te organiseren denk ik. Mooie uitdaging om ook zo mee te nemen in ons onderwijs. Groet, Esther
Hallo Esther,
Eerst nadenken en dan doen schept inderdaad het risico dat je geen nieuwe dingen meer ontwikkelt. De lijn van vooruitgang is in die zin dun en de uitdaging voor onderwijs om studenten die lijn te leren is groot.