Artikelen
De verboden metafoor: AI en antropomorf taalgebruik
Michiel A. Smit
Inleiding
Op het snijvlak van auteursrecht & AI is regelmatig (felle) kritiek te lezen op ‘antropomorfiserend’ taalgebruik. Wanneer we als juristen schrijven over AI is het volgens velen onwenselijk dat daarbij ‘mensachtige’ termen worden gebruikt zoals leren, herinneren en autonomie.[1] Deze woorden zouden AI immers te veel menselijke eigenschappen toedichten. In plaats daarvan is er een gewoonte ontstaan waarbij (schijnbaar) minder menselijke termen worden gebruikt zoals genereren, memoriseren en trainen. Dit weerspiegelt de buitenlandse literatuur waarin eveneens volop kritiek is op antropoïde termen en vergelijkingen:[2] we zouden zowaar kunnen spreken van een verboden metafoor.[3] In dit artikel wordt desalniettemin betoogd dat het volledig uitbannen van antropoïde metaforen en termen niet goed mogelijk en bovendien onwenselijk is.
Kritiek op deze vorm van taalgebruik was bijvoorbeeld te lezen in een recente Linkedin-post van Arnoud Engelfriet:
‘Kunnen we alsjeblieft ophouden de computer te antropomorfiseren? AI “leert” niet. AI “begrijpt” niets. AI “denkt” niet. Niet omdat dat zielig is voor de computer. Maar omdat het funest is voor mijn bloeddruk én voor het juridisch debat. AI is Excel on steroids. Alleen klinkt dat minder sexy dan “het is net een kind dat leert lezen”, dus gooien we er metaforen tegenaan. En die worden dan het vertrekpunt voor juridische standpunten. Maar als we één ding zouden moeten doen in #internetrecht, dan is het dit: begin bij wat het systeem werkelijk doet.’[4]
Met de metafoor dat AI net een kind is dat leert lezen, verwijst Engelfriet vermoedelijk naar de recente uitspraak van een rechtbank in Noord-Californië, waarbij de rechter het trainen van een AI-model als fair use kwalificeerde omdat dit eerder vergelijkbaar was met een kinderlijk leerproces dan dat er sprake was van concurrentie in auteursrechtelijke zin.[5] De metafoor deed veel stof opwaaien in auteursrechtelijke contreien en werd overigens diezelfde week al gerelativeerd door een andere Amerikaanse uitspraak over hetzelfde onderwerp.[6]
Engelfriet heeft natuurlijk gelijk dat dergelijke antropoïde metaforen – en metaforen als zodanig – op zichzelf geen goede basis zijn voor een analyse of discussie. Ook klopt het dat het uiteindelijk om de wettelijke termen gaat zoals een ‘werk’, ‘verveelvoudigen’ en ‘tekst- en datamining’. Of en wanneer daar in de context van AI sprake van is, is echter een lopende discussie en bij het analyseren van deze vraagstukken kunnen mensenmetaforen wel degelijk een nuttige aanvulling zijn. Vooral als degene die de metafoor maakt voldoende basiskennis heeft van het onderliggende AI-proces. De breder gedeelde aversie tegen niet alleen metaforen maar antropoïde taal als zodanig roept bovendien de vraag op welke termen we dan wel mogen gebruiken?
Alternatieve terminologie: een mensenvrij AI-jargon?
Mogen we bijvoorbeeld wel 'trainen' zeggen in plaats van leren of doet dat nog te veel denken aan mensen die immers ook kunnen trainen? Moeten we spreken van 'africhten', daarbij denken we in Nederland immers meer aan dieren dan aan mensen. Is dat dan beter? In het Afrikaans gebruiken ze het overigens wel gewoon weer voor mensen (so kan jy ‘n rugby afrigter wees).
Moeten we genereren zeggen in plaats van scheppen? Ook al betekent genereren exact hetzelfde als scheppen en creëren: denk aan Genesis?
Automatisch in plaats van autonoom? Al betekent automatisch volgens de Van Dale ‘werkend zonder ingrijpen van de mens’? En mag onafhankelijk wel, al betekent dit in wezen hetzelfde als autonoom?
Regurgiteren in plaats van herinneren? Al is ook dit woord een medisch term die een (onsmakelijk) menselijk proces beschrijft: een passieve vorm van braken, zo leert ChatGPT mij. Memoriseren in plaats van heugen? Enzovoorts.
Welke term je ook kiest: er is altijd kritiek op mogelijk. En een woord als 'regurgiteren' is eerlijkgezegd weer niet goed voor de bloeddruk van degene die de Nederlandse taal liefheeft. Datzelfde geldt voor termen als ‘memoriseren’ die we kennelijk minder confronterend vinden dan de meer Nederlandse synoniemen. De afkeer van antropoïde taal is wellicht ook verklaarbaar door de angst voor deze nieuwe technologieën en de overtuiging dat synthetische creativiteit niet gelijk mag worden gesteld met echte menselijke creativiteit. Het – ook voor mij enigszins invoelbare - sentiment dat auteursrechtelijk (half)heilige termen zoals scheppen, creativiteit en oorspronkelijkheid voor mensen moeten worden voorbehouden.
De door Engelfriet – en vele anderen[7] – gehekelde vergelijking tussen lerende AI en een lerend kind is vooral een prikkelende metafoor en in die opzet lijkt het zeker geslaagd. Natuurlijk is het niet precies hetzelfde, maar het kan wel degelijk leerzaam zijn om de vergelijking desalniettemin te maken. Ook mensen zijn immers volledig afhankelijk van hun trainingsdata: zonder goede trainingsdata in met name de jeugd zal iemand niet kunnen leren schrijven of spreken. Ook de wijze van uiten wordt natuurlijk beïnvloed door onze trainingsdata in het verleden. Wie zijn hele jeugd lang louter Drs. P hoort, zal significant andere output genereren dan degene die alleen Lil Kleine heeft geluisterd (dat is een metafoor en geen waardeoordeel).
De leermetafoor illustreert ook hoe inefficiënt de huidige AI-modellen leren. Onze menselijke neurale netwerken hebben beduidend minder data nodig om iets te leren dan AI-netwerken, en zijn dus ook duurzamer dan de bestaande energieslurpende AI-modellen.[8] Dat is een van de redenen waarom er in de neurotechnologie onderzoek wordt gedaan naar Organoid Intelligence (OI): computers met uit menselijke stamcellen gekweekte mini-breinen in plaats van siliconen chips. Dit is overigens geen science fiction: dergelijke biocomputers leven op dit moment al.[9]
Als het op de een of andere manier toch zou lukken om speciaal voor GenAI een puur werktuiglijke woordenschat te ontwikkelen – geheel van menselijke smetten vrij – is het zeer de vraag hoe lang dat jargon houdbaar is, gelet op de reeds begonnen versmelting van mens, computer en AI. Welke taal moeten we bezigen als een mens dankzij een AI-breinimplantaat een tekst schrijft: is dat genereren of scheppen?[10] Als een AI-model daarvoor wordt getraind op menselijke breindata,[11] mag het dan wel leren heten? En wat is het antwoord als we in deze vragen de AI vervangen door OI, of een combinatie van de twee?[12] Misschien slingert de kunstmatige AI-terminologie wel als een boemerang terug zodat we het menselijke brein uiteindelijk in vergelijkbare termen bestuderen. En misschien stellen neurotechnologische ontwikkelingen de menselijke uniciteit en de navenante ‘antromonopolisering’[13] van taalkundige termen zoals scheppen en autonomie wel ter discussie. De tijd zal het leren.
Memoriseren en de tekortkoming van de leermetafoor
Dan tot slot de tekortkoming van de leermetafoor in het geval van modelmatige herinnering ehh memorisering. Het model slikt dan specifieke integrale trainingsdata[14] (concrete werken) in bij het trainingsproces waardoor het getrainde model bij de juiste prompt het werk kan reconstrueren als output en deze dus in de oorspronkelijke vorm ophoest (‘regurgitatie’).[15]
Het feit dat we in het model niet precies een verveelvoudiging kunnen aanwijzen en dat het werk ‘slechts’ op een gecomprimeerde, gefragmenteerde, statistische, vectoriële of op andere onbegrijpelijke wijze is opgeslagen - in de zogeheten 'weights' (getrainde parameters) - is helemaal niet van belang zolang het er in de output maar uitkomt.[16] En zolang er een causale relatie bestaat tussen die output en de trainingsdata (het dus geen onafhankelijke dubbelschepping is).[17] Als ik enkel de naam 'Hergé' in Sora als tekstprompt invoer; en daar komen vervolgens plaatjes van precies Kuifje uit (en dat doet het).[18] Dan zit er een verveelvoudiging van het figuur Kuifje in het onderliggende model.[19] Zolang de prompteur of een derde geen plaatje van hem hebben geüpload als beeldprompt, is dat de enige logische uitleg.[20]
Hierbij zij de lezer ook herinnerd aan art. 14 Aw: dat er een platenspeler nodig is om het werk in een vinylplaat waar te nemen, en in recentere zin aan Brein/NSE[21]: de gefragmenteerde alfanumerieke vertegenwoordiging van een werk is ook een verveelvoudiging.[22] Dat een hulpmiddel is vereist om het werk waarneembaar te maken, doet niet af aan het feit dat er een verveelvoudiging is. Hetgeen natuurlijk ook geldt voor de werken die we via computers waarnemen (en die ook als numerieke en veelal gecomprimeerde afgeleiden zijn verveelvoudigd).[23]
En zo komen we aan bij de tekortkoming van de leermetafoor: wanneer dergelijke memorisering (verveelvoudiging in het model) wel plaatsvindt dankzij het leerproces, en het AI-systeem en interface verhindert de extractie (verveelvoudiging en openbaarmaking in output) hiervan niet. Dan houdt de vergelijking met de lerende mens naar mijn inzicht op.[24] Eén ieder die het AI- systeem gebruikt kan dan immers – met de juiste prompt, zoals de enkele naam van een tekenaar – het werk onttrekken uit het model, en dat op massale schaal.[25] Wellicht zitten in het menselijk brein ook werken opgeslagen in ‘gewichten’, maar deze kunnen niet zomaar door Jan en alleman massaal worden gedownload, geëxtraheerd en geconsumeerd.[26]
Engelfriet stelt dat het trainen van AI-modellen niet vergelijkbaar is met eerdere traditionele vormen van ‘opzettelijk dupliceren’ die erop waren gericht om ‘marktaandeel’ van de maker ‘af te snoepen’.[27] Hij doelt dan waarschijnlijk niet op die situaties van memoriseren/regurgiteren omdat hij dat in zijn post nadrukkelijk niet behandelt. Hier bespreek ik dit wel, want als dit wel gebeurt kan de normale exploitatie van het werk volgens mij wel degelijk worden bedreigd. Het eventuele gebrek aan opzet – wat mij overigens betwistbaar lijkt – is tot slot niet relevant voor de vraag of sprake is van auteursrechtinbreuk.
Slot
Dat antropoïde (of andersoortige) metaforen op zichzelf geen goed fundament zijn voor een analyse moge duidelijk zijn. Dat een goed begrip van de onderliggende technologie bijdraagt aan een vruchtbare analyse staat wat mij betreft ook buiten kijf en Engelfriets technisch onderlegde bijdragen zijn in dit opzicht van grote waarde. Dat alles wil echter niet zeggen dat mensachtige metaforen geen nut kunnen hebben. Hoewel elke metafoor naar zijn aard onvolledig is – zo ook de mijne én die van Engelfriet[28] - kan deze in de juiste context wel degelijk leerzaam en doeltreffend zijn. Ook in de discussies over AI en auteursrecht. Dat daarnaast zelfs antropoïde termen moeten worden uitgebannen uit het auteursrechtelijke AI-debat – zoals velen lijken te menen - lijkt mij bovendien onmogelijk én onwenselijk. Taalvrijheid leidt tot vrijheid van denken en biedt zodoende ruimte voor verschillende zienswijzen. Gelet op de vele onbeantwoorde vragen rond AI en auteursrecht en de maatschappelijke implicaties hiervan is dat alleen een zegen.
* Mr. drs. M.A. Smit is promovendus bij de sectie IE aan de Universiteit Leiden. Voor het commentaar op een eerdere versie is de auteur dank verschuldigd aan prof. mr. D.J.G. Visser.
[1] Verschillende redacties hebben mij bijvoorbeeld laten weten dat zij liever niet hebben dat ik het woord ‘autonoom’ gebruik in relatie tot generatieve AI, dit woord zou het AI-systeem kennelijk te veel menselijke eigenschappen toedichten. Met dat woord suggereer ik overigens nadrukkelijk niet dat GenAI zelf kan denken of bewustzijn heeft, maar maak ik louter het punt dat de ‘creatieve’ vormgeving veelal niet het resultaat is van de mens maar van het GAI-systeem, althans de algoritmen daarin. Een eenmaal getraind model kan op het niveau van de vormgeving autonoom opereren in tegenstelling tot niet of laagautonome instrumenten zoals een kwast of een (ouderwets) digitaal tekenprogramma. Dat is nu juist het kenmerkende aan generatieve AI. Zie: Smit, Prompteursrecht, AA 2025.
[2] Bijvoorbeeld: K. Militsyna, ‘Human Creative Contribution to AI-Based Output – One Just Can(’t) Get Enough’, GRUR International, 2023/10, p. 940– 941; Watson, D. The Rhetoric and Reality of Anthropomorphism in Artificial Intelligence. Minds & Machines 29, 417–440 (2019). https://doi.org/10.1007/s11023-019-09506-6.
[3] De term ‘verboden metafoor’ trof ik 10 jaar geleden voor het eerst aan in een artikel van Egbert Dommering. Dommering gebruikte de term ‘de verboden metafoor’ in een veel serieuzere context namelijk naar aanleiding van de vervolging van schrijver Graa Boomsma voor smaad in de jaren 1990. Aanleiding was een vergelijking die Boomsma maakte van Nederlandse soldaten in Nederlands-Indië met ‘SS-ers’. E.J. Dommering, “De Nederlandse publieke discussie en de politionele akties in Indonesië,” NJB 69:9 (1994), 277-290, aldaar 277.
[4] Arnoud Engelfriet op Linkedin, 27 juni 2025. (https://www.linkedin.com/posts/arnoudengelfriet_internetrecht-tdm- ai-activity-7343910962938228736-_TYW?utm_source=share&utm_medium=member_desktop&rcm=ACoAAEVaAsMBO24gpjHXdRoEgdsjMlSzS1 Dmi9w).
[5] Dirk Visser, ‘Trainen van AI is ‘fair use’’ Mr. (https://www.mr-online.nl/trainen-van-ai-is-fair-use/.)
[6] Dirk Visser, ‘Trainen van AI is géén fair use’, (Mr. https://www.mr-online.nl/trainen-van-ai-is-geen-fair-use/)
[7] Zo blijkt bijvoorbeeld uit de vele reacties op Linkedin.
[8] ‘Powering up the next generation of biocomputers with brain organoids’, Frontiers 2023 (https://www.frontiersin.org/journals/science/article-hubs/organoid-intelligence-a-new-biocomputing- frontier/explainer?utm_source=chatgpt.com.).
[9] ‘Powering up the next generation of biocomputers with brain organoids’, Frontiers 2023 (https://www.frontiersin.org/journals/science/article-hubs/organoid-intelligence-a-new-biocomputing- frontier/explainer?utm_source=chatgpt.com.); M. Jimenez, ‘Ik en mijn organoïde: een stap dichter bij behandelingen op maat’, UU (https://www.uu.nl/organisatie/verdieping/ik-en-mijn-organoide-een-stap-dichter-bij-behandelingen- op-maat/).
[10] J. Levý e.a., ‘Brain-to-Text Decoding: A Non-invasive Approach via Typing’, Arxiv 2025. (https://arxiv.org/abs/2502.17480); M. Nadaff, ‘Brain implant translates thoughts to speech in an instant’, Nature (31 maart 2025) (https://www.nature.com/articles/d41586-025-01001-6); F.R. Willet e.a., ‘High-performance brain-to- text communication via handwriting.’ Nature 2021 (593), p. 249-254. doi:10.1038/s41586-021-03506-2.
[11] Breindata die is afgeleid uit EEG-signalen of fMRI-scans.
[12] Deze laatste vraag is een hypothetische, OI kan bij mijn weten nog geen output genereren en staat nog in de kinderschoenen. Wel wordt al geëxperimenteerd met OI/AI combinaties en de implementatie daarvan in een brain computer interface.
[13] Een voor de gelegenheid bedachte term waarmee ik doel op de (on)bewuste aanname dat een bepaalde term voor mensen is voorbehouden. Het antropomorfiseringsverwijt impliceert immers dat het bewuste woord – dat de computer kennelijk vermenselijkt - een uitsluitend menselijke betekenis heeft.
[14] In een statistische gecomprimeerde vorm die evenwel de syntaxis/expressie d.w.z. beschermde vorm kan bevatten; zie hierover de volgende alinea.
[15] Hoe vaak dit precies gebeurt is niet duidelijk, maar dat het gebeurt is onomstreden.
[16] Zie hierover met name A. Cooper & J. Grimmelman, ‘The Files are in the Computer: On Copyright, Memorization, and Generative AI’, ArXiv 2024 (https://arxiv.org/abs/2404.12590v6). En voor een genuanceerd overzicht het US Copyright Office, Part 3: Generative AI Training (pre-publication version 2025), p. 28-29.
[17] Dat de overeenstemming dus niet op puur toeval berust. Immers beschermt het auteursrecht alleen tegen ontlening. Zie hierover: Andreas Sesing-Wagenpfeil, ‘Trainierte KI-modelle als Vervielfältigungsstücke im Sinne des Urheberrechts‘, p. 237-239.
[18] Als ik ‘Uderzo’ invoer als enige tekstprompt, krijg ik van Sora keer op keer een perfecte Asterix en Obelix. Ook dat kan niet op toeval berusten.
[19] Dit is wellicht geen exacte reproductie, maar wel degelijk een verveelvoudiging.
[20] N. Carlini, ‘What my privacy papers (don't) have to say about copyright and generative AI’, 2025 (https://nicholas.carlini.com/writing/2025/privacy-copyright-and-generative-models.html); Cooper en Grimmelman 2024, p. 25-27. De auteursrechtelijk beschermde trekken moeten immers ergens vandaan komen.
[21] Rb. Amsterdam ECLI:NL:RBAMS:2011:BU6271 (Brein/NSE), ro 4.3.
[22] Zie ook: Sesing-Wagenpfeil, p. 239-240.
[23] A. Cooper & J. Grimmelman, ‘The Files are in the Computer: On Copyright, Memorization, and Generative AI’, ArXiv 2024 (https://arxiv.org/abs/2404.12590v6), p. 36-38; Dornis en Stober, ‘Urheberrecht und Training generativer KI-Modelle’, p. 52-53.
[24] Ook indien in de output géén verveelvoudigingen (regurgitatie) worden gegenereerd zijn er overigens goede argumenten denkbaar dat rechthebbenden gecompenseerd dienen te worden voor de training van het model. Hier bespreek ik dit verder niet maar verwijs ik naar de Amerikaanse uitspraak, besproken door Visser in: Dirk Visser, ‘Trainen van AI is géén fair use’, (Mr. https://www.mr-online.nl/trainen-van-ai-is-geen-fair-use/).
[25] Daar kan tegenin worden gebracht dat dezelfde prompt niet altijd hetzelfde resultaat oplevert dankzij het stochastische AI-model. Dit acht ik echter niet overtuigend. Stel dat de naam ‘Uderzo’ in 20% van de gevallen tot een verveelvoudiging leidt in de output. De overige niet-inbreukmakende 80% ‘heelt’ deze inbreuk dan niet. Het kan natuurlijk wel relevant zijn voor de vaststelling van een schadevergoeding. De variatie in de output staat bovendien los van de verveelvoudiging in het model zelf. Coper & Grimmelman 2025, p. 43-44 & 51.
[26] Sommige modellen zoals Stable Diffusion worden open source aangeboden en kunnen dus – inclusief de getrainde gewichten en de daarin mogelijk aanwezige verveelvoudigingen in statistische vorm – door iedereen worden gedownload. Andere modellen zijn alleen indirect toegankelijk via door de aanbieder aangeboden AI- systemen: ook dan blijft echter massale extractie mogelijk, indien er geen sprake is van effectieve maatregelen.
[27] In de eerder genoemde Linkedin-post.
[28] ‘AI is Excel on steroids’. Het doel van Engelfriets metafoor lijkt om te benadrukken AI niet kan voelen, denken etc. Dat het slechts voorspelt en berekent op basis van patronen. En we het dus geen menselijke eigenschappen moeten toedichten. Wat dat betreft is de metafoor geslaagd. De metafoor is echter niet volledig: hij is immers inaccuraat als het gaat om generatieve AI. GenAI moet getraind zijn op datasets met menselijke werken, maakt gebruik van een neuraal netwerk, heeft als doel om nieuwe content te genereren met een zeer hoge informatiedichtheid van hetzelfde type als de trainingsdata en het gaat hier ook nog eens om een in essentie stochastisch proces. Daarmee is het in de kern wezenlijk anders dan Excel, zelfs al zit die aan de steroïden.
Auteur(s)
Michiel Smit is sinds september 2023 als promovendus verbonden aan de sectie Intellectueel Eigendomsrecht van Universiteit Leiden. Zijn promotieonderzoek concentreert zich op het auteursrechtelijke bewerkingsrecht en de omzomende rechtsinstituten zoals het bewerkingswerk en de bewerkingsbeperking (parodie).
AI-forum 2025/2
AI Verordening: Hoe verzeker je AI-geletterdheid binnen je organisatie?
Sinds 2 februari 2025 zijn aanbieders en gebruiksverantwoordelijken van AI-systemen verplicht om voldoende AI-geletterdheid te verzekeren van hun personeel en andere personen die namens hen AI-systemen gebruiken. Als onderdeel van de eerste ree...
Aansprakelijkheid in het AI-tijdperk: is de kwalitatieve aansprakelijkheid voor gebrekkige roerende zaken toe aan een update?
§ 1. Inleiding
Artificial intelligence (hierna: ‘AI’) speelt een steeds grotere rol in onze samenleving. Zo is AI bezig met een flinke opmars in onder andere de financiële sector, in bestuursrechtelijke besluitvormingsprocessen en bij de opkomst ...
Wat de transparantieplicht in de AI-verordening betekent voor de journalistiek
Inleiding
Recent publiceerde het NRC een artikel over de AI-worsteling van de journalistiek.[1] Daarin werd besproken hoe vier grote Vlaamse tijdschriften artikelen hadden laten genereren door AI zonder dit te melden aan de lezers. Zo werden mee...
In hoeverre moet generatieve stijlnabootsing worden afgeremd met “guardrails”?
De opkomst van generatieve AI heeft een breed spectrum aan creatieve toepassingen mogelijk gemaakt. Of het nu gaat om tekst, beeld, video of muziek: de modellen worden steeds krachtiger. Tegelijkertijd staat de juridische toetsing aan bijvoorbeeld...
AI in kinderspeelgoed: Mattel en OpenAI kondigen nieuwe samenwerking aan
Mattel en OpenAI hebben een strategische samenwerking aangekondigd om AI te integreren in speelgoed voor kinderen. Het nieuws roept belangrijke juridische en maatschappelijke vragen op. In dit artikel bespreken we de aankondiging, de eerste reacti...
OpenAI wijzigt koers: non-profit behoudt controle
OpenAI heeft aangekondigd de plannen voor de overgang naar een winstgericht bedrijfsmodel deels terug te draaien. Het bedrijf is van plan zijn for-profit tak om te zetten in een public benefit corporation (PBC), maar de volledige zeggenschap blijf...
AI in oorlogsvoering: strategische innovaties en juridische uitdagingen
Kunstmatige intelligentie (AI) speelt een steeds grotere rol in moderne oorlogsvoering. Wat begon als een ondersteunend hulpmiddel in beeldherkenning en dataverwerking, ontwikkelt zich razendsnel tot een beslissende factor in zowel militaire op...
The Dutch and Danish proposals for legislation on deepfakes
This article contains a summary and a brief comparison of the Dutch and Danish proposals for legislation relating to deepfakes.
The Dutch proposal is an initiative of member of parliament ms. Rosemarijn Dral, based on an article published in O...
Generatieve AI-training is fair use, oordeelt de Amerikaanse rechter
Voor het eerst heeft een Amerikaanse rechter geoordeeld dat het trainen van een generatief AI-model met auteursrechtelijk beschermd materiaal onder fair use valt. De uitspraak komt in de zaak Bartz v. Anthropic, waarin drie auteurs AI-bedrijf Anth...