RONDE TAFEL SPELREGELS HAN AI-BELEID
Geschreven door Jochem ten Böhmer:
In november zijn in Arnhem, Nijmegen en online rondetafelbijeenkomsten georganiseerd rondom de verdieping van de helft van de spelregels van het Integraal AI-kader HAN: een richtinggevend document dat helpt om kunstmatige intelligentie op een verantwoorde manier toe te passen binnen onderwijs, onderzoek en bedrijfsvoering. Daarin zijn o.a. 10 spelregels opgenomen voor medewerkers en studenten over het gebruik van AI binnen de HAN.
Spelregels geven duidelijkheid, maar je moet ze wel samen overeenkomen. Vanuit koersbeeld Digi- en Datavaardigheid en OOK (Onderwijs, Onderzoek en Kwaliteitszorg) wordt gevraagd aan iedereen om mee te denken hoe de spelregels invulling te geven. Het maakt niet uit of je al veel of geen ervaring hebt met AI om hierover mee te kunnen praten.
Wil je nog input leveren en kon je niet aansluiten? Doe dat uiterlijk 9 januari 2026 via dit formulier.
Spelregel 6 t/m 10 vormen het meest “grijze gebied” binnen het beleid: ze zijn minder zwart-wit dan de eerste vijf spelregels, en vragen daardoor nadrukkelijk om duiding, interpretatie en gezamenlijke afwegingen. Ze raken direct aan ethiek, verantwoordelijkheid, menselijk handelen en professionele normen. Precies om die reden is expertise vanuit de hele organisatie noodzakelijk.
Tijdens de bijeenkomsten is steeds gewerkt met dezelfde opzet: eerst gezamenlijk verhelderen wat er precies onder elke spelregel wordt verstaan, vervolgens verzamelen van praktijkvoorbeelden en uitdagingen, en tot slot bepalen hoe deze spelregels concreet kunnen worden toegepast binnen onderwijs, onderzoek en bedrijfsvoering. Uit alle sessies kwam naar voren dat medewerkers en studenten gebruikerservaringen hebben met AI – positief en kritisch – maar moeite hebben met het vertalen van abstracte principes naar werkbare richtlijnen.

Spelregel 6: Neem de verantwoordelijkheid voor de invoer van gegevens in AI-systemen en de door AI gegenereerde uitkomsten.
Deelnemers benadrukten dat verantwoordelijkheid begint bij basale datakwaliteit, maar ook bij inzicht in hoe AI-systemen werken. Veel bijdragen gingen over het “human-in-the-lead”-principe: AI kan ondersteunen, maar de gebruiker blijft eigenaar van de beslissing. Tegelijk bleek dat dit nog niet altijd vanzelfsprekend is, bijvoorbeeld wanneer systemen worden gebruikt zonder volledige kennis van beperkingen of risico’s. De behoefte aan duidelijke handvatten en voorbeelden werd breed gedeeld.
Spelregel 7: Gebruik AI alleen op een manier die het welzijn van medewerkers of studenten bevordert.
De gesprekken maakten duidelijk dat welzijn breed wordt geïnterpreteerd: van motivatie en succeservaringen tot mentale belasting en werkdruk. Verschillende deelnemers noemden concrete voorbeelden waarin AI cognitieve ontlasting kan bieden of studenten kan helpen bij zelfregulatie. Tegelijkertijd werd benoemd dat AI ook kan leiden tot stress, onzekerheid of afhankelijkheid. De spelregel vraagt dus om nuance en context: wat bevordert welzijn voor wie, en onder welke voorwaarden?
Spelregel 8: Gebruik AI alleen op een manier die eerlijk en inclusief is. 
Deelnemers gaven aan dat eerlijkheid en inclusie vaak worden gezien als vanzelfsprekend, maar in de praktijk ingewikkeld zijn. Er werd gewezen op risico’s zoals bias, ongelijke taalvaardigheid, betaalbaarheid van tools en digitale ongelijkheid. Tegelijk werden kansen benoemd, zoals ondersteuning voor studenten met beperkingen. De sessies maakten duidelijk dat deze spelregel zowel technische als sociale aspecten heeft, en dat inclusie alleen werkt wanneer die actief wordt georganiseerd.
Spelregel 9: Stel vragen en wees kritisch over het gebruik van AI in je werk of studie. Vertrouw niet blindelings op AI zonder menselijke controle en verantwoordelijkheid.
In alle bijeenkomsten ontstond veel discussie over wat “kritisch” precies betekent. Betekent het dat je alles moet controleren? Wanneer mag je vertrouwen op een systeem? En geldt dit even sterk voor alle onzekerheden in een AI-model? Deelnemers benoemden dat kritische houding deels afhankelijk is van rol, taak, risico en context. Er is behoefte aan voorbeelden, toetsvragen en kaders om medewerkers en studenten te helpen.
Spelregel 10: Wees open over hoe je AI gebruikt en wat de impact ervan is op je werk of studie.
Openheid werd door veel deelnemers gezien als essentieel, maar ook als lastig. Onzekerheid over wat je precies moet delen, privacyvragen, en verschillen tussen opleidingen kwamen regelmatig voorbij. Wel was de consensus dat transparantie nodig is voor kwaliteit, begrip en vertrouwen. Deelnemers benadrukten dat openheid niet alleen gaat over het eindproduct, maar ook over het proces en de keuzes die tijdens het gebruik van AI zijn gemaakt.
Belang van expertise vanuit de organisatie 
Een belangrijke rode draad in alle sessies was dat deze vijf spelregels niet alleen gaan over technologie, maar vooral over menselijk handelen, professionele normen en ethische afwegingen. Dat maakt dat expertise vanuit de hele HAN nodig is: van docenten en onderzoekers tot studentbegeleiders, beleidsmakers, ondersteunende diensten en studenten zelf. De deelnemers gaven aan dat juist de combinatie van AI-kennis en domeinspecifieke expertise nodig is om de spelregels uitvoerbaar te maken én om draagvlak te creëren.
Vervolg
De verzamelde input wordt de komende periode samengebracht tot een aangescherpte en concretere invulling van de spelregels. Deze uitwerking wordt opgenomen binnen het centrale AI-beleid en gedeeld met de organisatie.
Voor meer vragen kun je terecht bij het expertiseteam Digi- en Datavaardigheid via expertiseteam.DDV@han.nl en voor alle AI-info op de HAN AI-site.