Terug naar overzicht

Opinies

AI caramba! Dansen met de nieuwe werkelijkheid: over kwaliteitsverlies, bewustzijnsgebrek en paniek in het onderwijs

Download article

In februari 2019 werd vanwege zorgen over grootschalig nepnieuws en andere vormen van misbruik GPT-2 niet door OpenAI op de markt gebracht:[1]

Due to concerns about large language models being used to generate deceptive, biased, or abusive language at scale, we are only releasing a much smaller version of GPT 2.”[2]

 

Bijna vier jaar later werd ChatGPT bij het grote publiek geïntroduceerd, en was het systeem inmiddels zo goed geworden dat zelfs doorgewinterde AI-experts verbaasd waren.[3]  De afgelopen twee jaar is het gebruik van taalmodellen ook in het juridisch onderwijs niet onopgemerkt gebleven. Het narratief dat talloze studenten zich fluitend door hun academische loopbaan heen frauderen door het werk over te laten aan taalmodellen, en de hiermee gepaarde gevreesde erosie van zowel kritisch denkvermogen als de algehele academische integriteit en kwaliteit, overheerst menig voorpagina: van duidelijke stellingnames (‘we geven diploma’s aan chatbots’, Parool juni 2025), tot harde verwijten (‘everyone is cheating their way through college’, New York Magazine mei 2025) en beleefde verzoeken (‘leer studenten geen opstellen te schrijven met ‘hulp’ van ChatGPT, alstublieft’, De Standaard juni 2025). Ook in de wetenschap wordt de vraag naar de gevaren (en zeker ook de mogelijkheden van) AI in het onderwijs lang en breed besproken. 

 

Het is niet het doel van deze bijdrage om een zoveelste poging  te doen om deze angst (of mogelijkheid) te onderstrepen, noch er een waardeoordeel over te vellen. In plaats daarvan gaan wij in op onze persoonlijke ervaringen met het (vermeende) gebruik van taalmodellen in het onderwijs van het afgelopen academisch jaar, die, dat moet gezegd, niet erg hoopvol stemmen. Tegelijkertijd is er ruimte voor wat meer positieve noten, en sluiten we af met een  kritische vooruitblik. Na een korte beschrijving van de “eerste danspasjes” van het gebruik van AI in het (juridisch) onderwijs, identificeren wij vanuit onze ervaring een drietal problemen: het kwaliteitsprobleem, het daaraan gelieerde bewustzijnsprobleem, en tot slot, het paniekprobleem.


Eerste danspasjes

 

One, two...

 

In het voorjaar van 2023 vonden binnen onze afdeling de eerste experimenten met taalmodellen plaats. Als een soort sparringpartner werkte het vrij goed. Je kon een vraag stellen over, bijvoorbeeld, een bepaling uit de AVG en dan daarop doorvragen, waarbij de antwoorden steeds specifieker en doorgaans ook accuraat waren. Oude tentamenvragen, met een uitgebreide casus, wist het taalmodel vaak boven verwachting goed te maken. Die constatering stelde de inzet van, zeker tijdens de corona-epidemie gebruikelijke, “take-home” tentamens ter discussie. Wat volgde was een lange discussie over de inzet van AI in het onderwijs. De meningen liepen (en lopen) uiteen: van een totaal verbod om taalmodellen te gebruiken (‘Verbied AI aan de juridische faculteit’, NRC juli 2025), tot studenten leren goede prompts te formuleren en daarmee een integratie van taalmodellen in het onderwijs te bewerkstelligen.

 

Dit riep ook de meer existentiële vraag op naar wat het doel van de opleiding rechten is. Bij de opkomst van de personal computer in de jaren´90 boden juridische opleidingen veelal practica “computergebruik voor juristen” aan. Met uitzondering van de Landbouw Universiteit Wageningen had iedere universiteit ook onderzoekers in rechtsinformatica of “AI & Law”,[4]  die onderzoek deden naar de mogelijkheden van technologie binnen het recht. Na een jaar of vijf verdwenen de computervaardigheden trainingen, alsmede niet lang daarna de meeste onderzoekscentra. Hoewel er interessante rechtstheoretische vragen samenhangen met AI & Law onderzoek, is het in de kern een interdisciplinaire bezigheid waar zeker in tijden van bezuiniging geen plek voor is op een juridische faculteit.

 

De opkomst van eenvoudige “legal tech” rond een jaar of tien geleden leidde tot de vraag: Moeten we rechtenstudenten leren programmeren? Het voordeel daarvan is dat ze dan beter begrijpen wat er kan en niet kan met technologie. Het is echter lastig om een vorm van onderwijs te vinden die dat doel dient en niet vervalt tot enkel programmeer skills bijbrengen. Waar bij colleges programmeren het doel nog is het recht rond technologie beter te begrijpen, is trainen hoe taalmodellen te prompten vergelijkbaar met cursussen computergebruik voor juristen in de jaren 90. Op zich nuttig, maar ook niet direct iets wat bij een juridische opleiding past. Het raakt ook aan een fundamentele vraag: waartoe leiden we juristen op? Moeten juristen het recht vooral begrijpen, juridisch kunnen analyseren en redeneren, of is het ook noodzakelijk dat ze hun weg kunnen vinden in de praktijk van de toekomst? De subtitel "het handboek voor de jurist in de 21e eeuw" van het boek Informatietechnologie voor juristen (1999) wijst op dat laatste. Vermoedelijk leidde realiteitszin echter tot het weglaten van deze subtitel bij de tweede druk in 2002.

 

Dan het verbieden, werkt dat? Heeft het zin? Wij willen juristen afleveren die analytisch zijn en kritisch denken, iets dat (zo menen velen) lastig te bereiken is met taalmodellen. Los van deze discussie, is er in het geval van een totaal verbod het probleem van handhaving en detectie. Bij een verbod is handhaving echter cruciaal, maar voor taalmodelgebruik is dit beperkt mogelijk, ook wegens het gebrek aan betrouwbare detecteringssoftware. Een categorisch verbod lijkt (mede) daarom, op dit moment tenminste, weinig zinvol. 

Step! Tentaminering in een nieuw jasje

 

Een ding dat zeker is, is dat het onderwijs verandert en dat creativiteit en flexibiliteit daarbij geboden zijn. Een voorbeeld van hoe wij hier mee omgaan is het “teruggaan” naar toetsen op locatie en dus afstappend van de eerdergenoemde take-home tentamens. Hoewel hier de kritische vraag gesteld kan worden wat dit betekent voor het ontwikkelen van schrijf- en onderzoeksvaardigheden – iets wat absoluut niet uit het zicht moet worden verloren, al wordt de “dood van de scriptie” her en der al aangekondigd  – vermijdt dit, in ieder geval, het gebruik van taalmodellen. 

 

Ook wordt er geëxperimenteerd met nieuwe gemengde vormen van tentaminering. Zo bestond voor het vak Media- & Communicatierecht de tentaminering de afgelopen twee jaar uit twee verschillende onderdelen: het schrijven van een essay, en het schrijven van een kritische noot op een essay geproduceerd door een taalmodel over hetzelfde onderwerp. Het idee is dat dit studenten traint zowel de zwakheden, als de mogelijke kracht (zoals heldere structuur en zinsopbouw) van taalmodellen te detecteren, terwijl het tegelijkertijd ook gebruikt kan worden als vergelijkingsmateriaal tussen het AI-gegeneerde essay en het authentieke werk van de student. Hoewel studenten het doorgaans goed deden bij het kritiek leveren op het AI essay, staat die kritiek in schril contrast met – zoals wel vaker het geval is wanneer studenten, of eigenlijk mensen in het algemeen, hun eigen werk moeten bekritiseren –met een kritische blik naar het eigen werk kijken.

 

Voor andere vakken werken we met meer creatieve opdrachten, bijvoorbeeld het bijhouden van een portfolio waar gevraagd wordt om een wekelijkse kritische reflectie op de leerstof die besproken wordt tijdens colleges en werkgroepen. Hoewel uitsluiting van het gebruik van taalmodellen hier uiteraard niet mogelijk is, denk aan (her)structureren van zinnen en aantekeningen, vereist dit in ieder geval actieve participatie in het onderwijs. Het lezen van de portfolio’s was, zeker in vergelijking met ander soort opdrachten, vaak een verademing.

Dancing fool: hallucinaties, herhaling en bijzondere zinnen

 

In een bijdrage over ervaringen met het gebruik van AI in het onderwijs, misstaat het niet om toch kort de aandacht te richten op het “waarom” achter de voorgenoemde maatregelen. Hier onderscheiden wij – kortgezegd – twee samenhangende problemen, namelijk het kwaliteitsprobleem en het bewustzijnsprobleem. 

 

Ter illustratie nemen wij het vak E-Commerce Law, waarin studenten de opdracht kregen een kort essay te schrijven over een actueel nieuwsitem dat relevant is voor het vak, bezien in het licht van de tijdens de colleges behandelde stof. Zeker een derde van de ruim honderdvijftig studenten die het vak volgden, kwamen met een onmiskenbare taalmodel tekst, die veelal vermakelijke hallucinaties bevatten. Zo zou een hoofdstuk van Lodder door onze Deense collega Savin geschreven zijn, en andersom – of zou een van de docenten een (niet-bestaand) artikel in de tweede editie van The E-Commerce Law Journal 2025 hebben geschreven, nog voor de eerste maand van dit jaar voorbij was; en werd onze collega Eline Leijten verrast met haar bijdrage aan het Draghi raport. Hoewel dit soort slordigheidsfouten het voor ons gemakkelijk(er) maakt studenten aan te spreken op hun (ongeoorloofde) gebruik van taalmodellen, is dit lastiger wanneer het vermoeden voortkomt uit extreem generieke teksten en vaak moeilijk te volgen zinnen. Met het oog op de eindopdracht deden we de volgende mededeling aan studenten:

 

Unfortunately, it has come to our attention that many students have used a language model (e.g. ChatGPT) to create their paper, it is mostly easily recognizable when this is used in your texts. Remember that although the use of language models is not prohibited by the VU, your work should be the result of your own thinking and writing.”

 

Het moet worden gezegd, de eindopdracht was aanmerkelijk beter, maar genoeg studenten kunnen de verleiding van het taalmodel toch niet weerstaan. Een voor ons onbekende ‘professor Muller’ werd aangehaald als een van de docenten van het vak, en er was zelfs een student die in het kader van de opdracht met een groepje studenten een bedrijf zou hebben bezocht om vragen te stellen over bepaalde wetgevingsinitiatieven van de EU. Bij de zitting van de examencommissie verklaarde hij op de vraag welk bedrijf ze bezocht hadden, dat hij “een vriend die bij een Chinees bedrijf werkte” de vraag had gesteld. Deze student ontving van de examencommissie een mooi afgeronde 0,0.

 

Naast de (over)duidelijke problemen van de vaak belabberde kwaliteit die voortkomt uit door taalmodellen gegenereerde academische teksten, kaarten de bovengenoemde voorbeelden een wellicht nog schrijnender probleem aan. Het ontbreekt studenten vaak aan een gezonde mate van kritische reflectie – soms zelfs zodanig dat een ‘verklaring omtrent eigen werk’ wordt opgenomen in een tekst die uitpuilt van hallucinaties, foutieve vermeldingen en moeilijk te volgen zinnen. Dit roept tevens kritische vragen op over hoe studenten naar het universiteitswezen zelf kijken. Dit bewustzijnsprobleem met betrekking tot zowel de kwaliteit van het aangeleverde werk, als de diepere problematiek die komt kijken bij een toenemende afhankelijkheid van taalmodellen bij het produceren van geschreven teksten, is wellicht nog problematischer dan de matige kwaliteit zelf. Als studenten zelf niet meer kunnen inzien dat de teksten die zij met behulp met taalmodellen genereren vaak gebrekkig en onsamenhangend zijn, en zelfs onjuiste mededelingen bevatten, hebben we de poppen echt aan het dansen.

Panic! At the university

 

Voordat we afsluiten, dient het volgende nog gezegd te worden. Hoewel de zorgen over de laksheid waarmee sommige studenten (schijnbaar) schaamteloos taalmodellen gebruiken en dit doen voorkomen als hun eigen werk veelal terecht zijn, willen wij graag  een nuance inbrengen in dit overheersende panieknarratief. Het idee dat studenten in het algemeen ‘lui’ zijn is stigmatiserend, en (vaak) simpelweg onjuist. Zesjesstudenten zijn er sinds het begin der tijden, net als excellerende harde werkers. Om te denken dat die eerste, hakken-over-de-sloot-groep nu met behulp van taalmodellen de wereldleiders van de toekomst vormen, is ongeveer net zo willekeurig als een door ChatGPT gegenereerde voetnoot. Evenmin is het vanzelfsprekend dat studenten die daadwerkelijke belangstelling hebben voor hun vak en daarvoor met liefde in de boeken duiken – want ja, die bestaan ook nog – voortaan massaal afhaken en hun intellectuele nieuwsgierigheid laten varen. Bij de opkomst van Google klonken er ook alarmerende geluiden. We hoeven niks meer te leren, ze kunnen het toch zo vinden. Die superieure zoekmachines zijn uiteindelijk niet de doodsteek voor het onderwijs gebleken.

 

Is er een probleem? Natuurlijk. Is dit probleem werkelijk zo onoverkoombaar als soms gepresenteerd wordt? Twijfelachtig. 

 

Zoals eerder besproken zijn er genoeg manieren om studenten te onderwijzen zonder dat daar ook maar een keer een taalmodel aan te pas hoeft te komen (als we dat zouden willen). Dit vereist echter moeite, creativiteit, en flexibiliteit. Die paar schrijfopdrachten? Wellicht dat sommige studenten taalmodellen zullen (blijven) gebruiken. Dat betekent echter niet dat de hartchirurgen, waterwerktuigbouwers, of advocaten van de toekomst niet meer in staat zullen zijn een normale zin te formuleren, of geheel niet meer beschikken over kritisch denkvermogen. Wat in dit alles natuurlijk essentieel is, is dat studenten zich bewuster worden van wat wij typeren als een zorgelijk bewustzijnsprobleem. Het feit dat studenten lege, repetitieve teksten inleveren, vaak met merkwaardige of ontbrekende bronvermeldingen, is niet alleen frustrerend voor de docent, maar draagt ook nauwelijks bij aan de ontwikkeling van de student – hooguit in negatieve zin, namelijk afstomping.

 

In plaats van ons allen druk te maken over of een student al dan niet een paragraaf heeft laten verbeteren door een taalmodel, zouden we ons misschien moeten richten op wat er onder die paniek schuilgaat: wellicht, een angst van universiteiten om ontmaskerd te worden als ‘leerfabrieken’, in plaats van instanties die inspireren tot creatief nadenken en dynamische gespreksvoering. Er komt (immers) veel meer kijken bij het vormen van een “waardevolle” professional. ‘Book smart’ is slechts één aspect; waarden als intrinsieke motivatie en sociale vaardigheden beslaan een aanzienlijk groter deel, en juist daarin schuilt de kern van het leerproces, waar AI bij lange na nog niet aan kan tippen. We moeten ons minder zorgen maken over wat “de jeugd” leert – dat is al lang niet meer hetzelfde als een gedroomd gouden tijdperk wat misschien wel nooit echt heeft bestaan. Laten we in plaats daarvan focussen op hoe nu verder, en als universiteiten onszelf de kritische vraag stellen: waar zijn wij voor? Het ballet is nog maar net begonnen, we hebben ruim de tijd ons te herpositioneren voordat de coda aanvangt.



 

* Jessie & Arno, beiden gespecialiseerd op het snijvlak van technologie en recht, doceren aan de Vrije Universiteit van Amsterdam en maken deel uit van ALTI – Amsterdam Law & Technology Institute.

[1] J. Vincent, OpenAI unveils multitalented AI that writes, translates, and slanders | The Verge, 14 februari 2019. 

[3] A.R. Lodder, The future of AI (and us) - ALTI Amsterdam, 6 december 2022.

[4] VU (Oskamp e.a.), UvA (Breuker e.a.), Leiden (Schmidt e.a.), Delft (Tan e.a.), Rotterdam (De Mulder e.a.), Tilburg (Voermans e.a.), Eindhoven (Smits e.a.), Maastricht (Hage e.a.), Nijmegen (Gruetters e.a.), Twente (Leenes e.a.), Utrecht (Koers e.a.), Groningen (De Vey Mestdagh e.a.).

Auteur(s)

Jessie Levano

Docent aan de Vrije Universiteit Amsterdam op het gebied van technologie en recht, en onderdeel van ALTI (Amsterdam Law & Technology Institute).

Arno R. Lodder

Hoogleraar Internet Governance and Regulation aan de Vrije Universiteit Amsterdam (Amsterdam Law & Technology Institute). Zijn onderzoek en onderwijs richten zich op recht en internet, waaronder aansprakelijkheid, privacy, vrijheid van meningsuiting, cybercrime en big data. Hij publiceerde meer dan 30 boeken, waaronder Cyberlaw in the Netherlands en EU Regulation of E-commerce.

AI-forum 2025/2