Blog
Meta gaat Europese gebruikersdata gebruiken voor AI-training
Redactie
Meta heeft aangekondigd dat zij openbare data van volwassen gebruikers in de EU wil inzetten om haar AI-systemen te verbeteren. Het gaat om publieke posts en reacties op platforms als Facebook en Instagram, en ook om vragen die gebruikers stellen aan Meta AI, de virtuele chatbot van het bedrijf. Volgens Meta is het doel om AI te maken die beter past bij Europese talen, culturen en gebruiken. Ondanks deze uitleg zijn er zorgen over privacy en eigendomsrechten.
Wat Meta van plan is
Volgens Meta is het noodzakelijk om Europese data te gebruiken voor het bouwen van AI-systemen die niet alleen bruikbaar zijn in Europa, maar die ook zijn gevormd door Europese input. Tot nu toe zijn veel AI-modellen vooral getraind op Engelstalige data uit de Verenigde Staten, waardoor ze minder goed inspelen op lokale taalnuances, culturele verschillen en typische vormen van communicatie binnen de verschillende EU-landen. Door gebruik te maken van materiaal dat volwassenen in de EU publiekelijk delen op platforms als Facebook en Instagram, wil het bedrijf haar systemen beter afstemmen op de Europese context.
Gebruikers ontvangen hierover meldingen in de relevante apps en per mail, met uitleg en een link naar een bezwaarformulier. Meta benadrukt dat privéberichten en gegevens van minderjarigen niet worden gebruikt. Alleen bewust openbaar gedeelde inhoud komt in aanmerking. Volgens Meta is dit soort datagebruik gangbaar in de sector, maar wil het bedrijf zich onderscheiden door transparanter te zijn dan andere techreuzen. Daarbij verwijst het naar een positief advies van de European Data Protection Board, die eind 2024 oordeelde dat Meta’s aanpak aan de Europese regels voldoet.
Zorgen over privacy en transparantie
Toch zijn er belangrijke vragen. Wat precies onder “publiek” valt, is niet altijd duidelijk. Veel mensen delen persoonlijke verhalen of creatieve inhoud omdat ze denken dat alleen hun volgers het zien. Dat die informatie ineens wordt gebruikt om commerciële AI te trainen, kan voor veel gebruikers een grens overschrijden. Meta werkt met een opt-out systeem, waarbij gebruikers actief bezwaar moeten maken om AI-training op basis van hun data te voorkomen. Maar veel mensen zullen de melding niet opmerken of niet goed begrijpen. Daardoor wordt hun data mogelijk gebruikt zonder dat ze echt toestemming hebben gegeven. De AP roept Nederlanders op om het bezwaarformulier goed te bestuderen. Zij benadrukt dat eventueel bezwaar nú moet worden aangetekend, omdat de data waarop AI eenmaal is getraind niet zomaar meer verwijderd kan worden.
Naast de zorgen over privacy is er ook bezorgdheid over de kwaliteit van de data die Meta wil gaan gebruiken. Sociale media staan erom bekend dat ze in de maatschappij levende vooroordelen kunnen versterken, zoals racisme en homofobie. AI die op zulke data wordt getraind, kan dergelijke patronen overnemen en versterken, wat vooral ten nadele komt van minderheidsgroepen. Vooralsnog is het onduidelijk hoe Meta de gebruikte data precies selecteert.
Tot slot zijn er vragen over auteursrechten. Openbare posts bevatten vaak originele teksten of foto’s van de gebruiker. Als AI daarmee wordt getraind, en later vergelijkbare content genereert, kan dat op gespannen voet staan met het auteursrecht op het trainingsmateriaal. Momenteel lopen er tal van Amerikaanse rechtszaken die moeten uitwijzen of AI-training met behulp van auteursrechtelijk beschermd materiaal is toegestaan en zo ja, onder welke voorwaarden. Naar geldend EU-recht is dergelijke training wel toegestaan, tenzij de rechthebbende uitdrukkelijk bezwaar maakt (art. 4 lid 3 DSM-richtlijn). Dat stemt in beginsel overeen met de aanpak van Meta, waarbij gebruikers van tevoren de gelegenheid krijgen om uitdrukkelijk bezwaar te maken. Van belang is hierbij wel dat Meta de gebruikers in kwestie voldoende moet hebben geïnformeerd.
Meta’s nieuwe AI
Wat voor modellen en systemen Meta precies met de gebruikersdata wil ontwikkelen is nog niet bekend. Wel kondigde Meta dezelfde week aan dat zij werkt aan 5 nieuwe AI-toepassingen. Deze komen uit de onderzoekstak van het bedrijf, FAIR. Ze laten zien hoe breed Meta inzet op AI. Zo is er de Perception Encoder, die beeld en video beter moet laten begrijpen door AI. Dan is er de Perception Language Model, een open model dat beeld en taal combineert en AI moet helpen bij het begrijpen van video’s en bijschriften.
Ook werkt Meta aan Meta Locate 3D, een systeem dat robots laat zien waar objecten staan in een ruimte, op basis van een tekstcommando. Daarnaast is er een nieuw taalmodel dat werkt op byte-niveau in plaats van woorden, wat efficiënter en stabieler zou zijn. En tot slot is er de Collaborative Reasoner, die AI leert samenwerken met mensen of andere AI’s. Hierbij gaat het niet alleen om kennis, maar ook om sociale vaardigheden zoals luisteren, overleggen en het geven van feedback.
Afsluitend
De plannen van Meta maken duidelijk hoe waardevol gebruikersdata is geworden in de ontwikkeling van AI. Tegelijk wordt ook steeds zichtbaarder waar de risico’s liggen. Om gebruikers te beschermen én ruimte te laten voor technologische vooruitgang is duidelijke wetgeving onmisbaar. De Europese Unie heeft hierin al belangrijke stappen gezet, in tegenstelling tot bijvoorbeeld de Verenigde Staten waar veel onduidelijkheid heerst. Maar de snelle ontwikkeling van AI vraagt om verdere verduidelijking. Denk bijvoorbeeld aan de mate van transparantie die Meta moet verlenen aan haar gebruikers over het gebruik van hun data voor de ontwikkeling van AI. Volstaat Meta’s huidige aanpak of kan het beter? Alleen met duidelijke regels kunnen we zorgen dat nieuwe technologie ook echt in dienst staat van de samenleving.
AI-forum 2025/2
De inzet van generatieve AI door rechters: een bedreiging voor artikel 6 EVRM?
1 Inleiding
Artificiële Intelligentie (AI) wordt tegenwoordig in toenemende mate ingezet binnen diverse domeinen van de samenleving. Ook binnen de rechtspraak heeft AI, en in het bijzonder Generatieve AI (GenAI), wereldwijd haar intrede gedaan. G...
2024 EU AI-verordening: een gedetailleerde analyse
De AI-verordening is een belangrijk regelgevingskader dat gericht is op het harmoniseren van de ontwikkeling, de toepassing en het gebruik van AI binnen de EU. Deze uitgebreide regelgeving, die op 1 augustus 2024 van kracht is geworden, is bedoeld...
Meta’s AI-app leidt tot onbedoelde publicatie van privégesprekken
De nieuwe standalone AI-app van Meta heeft veel stof doen opwaaien. Gebruikers van de app deelden onbedoeld persoonlijke gesprekken met de chatbot op een openbare feed. De situatie heeft vragen opgeroepen over Meta’s interface en de bescherming va...
AI Verordening: Hoe verzeker je AI-geletterdheid binnen je organisatie?
Sinds 2 februari 2025 zijn aanbieders en gebruiksverantwoordelijken van AI-systemen verplicht om voldoende AI-geletterdheid te verzekeren van hun personeel en andere personen die namens hen AI-systemen gebruiken. Als onderdeel van de eerste ree...
Anthropic mag de ontwikkeling van Claude AI doorzetten, ondanks zorgen auteursrecht
Van de 39 Amerikaanse auteursrechtzaken op het gebied van AI-ontwikkeling, zijn er twee gericht tegen ontwikkelaar Anthropic. Anthropic is het bedrijf achter Claude AI, een chatbot van vergelijkbare aard en kwaliteit als ChatGPT. Claude is deels g...
Eerste rechtspraak over AI-hallucinaties; OpenAI niet aansprakelijk
In mei 2023 spande de Amerikaanse radiopresentator Mark Walters een rechtszaak aan tegen OpenAI. Aanleiding was een foutief antwoord van ChatGPT, waarin Walters onterecht werd beschuldigd van verduistering. De rechter oordeelde afgelopen week dat ...
GPT-4o en het Ghibli Effect: de genadeslag voor ontwerpers en rechthebbenden?
Afgelopen week stond social media vol met afbeeldingen in de kenmerkende stijl van de Japanse animatiestudio Ghibli. Dit was het gevolg van de release van OpenAI's nieuwe afbeeldingsgenerator, die onderdeel uitmaakt van de reeds bestaande chatbot ...
Nepjurisprudentie: hoe AI de rechtspraak kan beïnvloeden zonder dat iemand het doorheeft
Een Amerikaanse advocaat citeerde vier niet-bestaande uitspraken in een verzoekschrift. Ze bleken afkomstig uit ChatGPT. De rechter ontdekte het, legde een boete op en verplichtte de betrokken advocaat tot het volgen van training voor het (ethisch...
Wie is aansprakelijk als een auto zelf rijdt? Van menselijke schuld naar systeemfouten
Inleiding
De opmars van AI, ooit alleen een abstract idee, is vandaag onmiskenbaar verweven met ons dagelijks leven. De impact ervan laat zich duidelijk voelen in de wereld van zelfrijdende auto's. Autonome voertuigen opereren niet langer uitslui...
AI en de rechter, of de technificatie van de rechtspraak
Inleiding
Volgens de onlangs verschenen officiële Rechtspraakstrategie voor Artificiële Intelligentie is AI een omnipresent systeemtechnologie waar ‘de rechtspraak zich hoe dan ook toe zal moeten verhouden.’ Opvallend genoeg verscheen dit bericht...
