Blog
Amerikaans wetsvoorstel verbiedt niet-federale AI-wetgeving voor 10 jaar
Redactie
In het Huis van Afgevaardigden (de Amerikaanse tegenhanger van de Tweede Kamer) is een wetsvoorstel ingediend dat staten en andere niet-federale overheden de komende tien jaar verbiedt om eigen regels op te stellen voor kunstmatige intelligentie. Dit terwijl AI zich razendsnel ontwikkelt en steeds vaker wordt ingezet bij gevoelige maatschappelijke beslissingen. Het voorstel leidt tot felle kritiek van academici, belangenorganisaties en vakbonden. In deze blog bespreken we eerst wat er precies in het voorstel staat en hoe daarop wordt gereageerd. Vervolgens gaan we in op de mogelijke gevolgen voor de Amerikaanse rechtsstaat. Tot slot plaatsen we deze ontwikkeling in internationaal perspectief.
Wat houdt het wetsvoorstel in?
Het voorstel stamt uit het belasting- en bezuinigingspakket van president Trump, waarin een bepaling is opgenomen die staten verbiedt om gedurende tien jaar eigen wetten te maken over AI-modellen, -systemen of geautomatiseerde besluitvorming. Het voorstel is inmiddels goedgekeurd door de begrotingscommissie van het Huis, maar moet nog door het volledige Congres.
De weerstand is groot. In een gezamenlijke brief aan het Congres uitten 141 organisaties hun zorgen. Ondertekenaars zijn onder andere universiteiten als Essex, belangenorganisaties als het Economic Policy Institute, en werknemerscoalities van Amazon en Google. Zij waarschuwen dat bedrijven door deze wetgeving schadelijke algoritmes kunnen inzetten zonder politieke of juridische verantwoording. Zelfs bij opzettelijke schade zou er geen mogelijkheid zijn om in te grijpen. De federale regels bieden weinig tegenwicht. Kort na zijn aantreden draaide Trump een uitvoeringsbesluit van Biden terug dat voorzag in AI-veiligheidsmaatregelen. Ook versoepelde hij recent exportbeperkingen op AI-chips. De regering richt zich nadrukkelijk op het behouden van een mondiale voorsprong in AI-technologie, en vreest dat regulering deze groei zal afremmen.
Wat zijn de implicaties van het voorstel?
Als het wetsvoorstel wordt aangenomen, betekent dat een decennium lang stilstand in de regulering van AI op staatsniveau. Afhankelijk van de federale wetgeving, zou dat grote gevolgen kunnen hebben. AI-systemen bepalen bijvoorbeeld steeds vaker of iemand een lening krijgt, wordt aangenomen voor een baan, of in aanmerking komt voor medische zorg of politietoezicht. Zonder juridische kaders kunnen bedrijven zulke systemen inzetten zonder transparantie, zonder aansprakelijkheid, en zonder externe controle.
De vrees is dat dit zal leiden tot een situatie waarin Big Tech de maatschappelijke spelregels bepaalt. De vergelijking met een ‘dystopie’ komt niet uit activistische hoek, maar wordt gevoed door signalen vanuit de industrie zelf. OpenAI-CEO Sam Altman, een voorstander van AI-innovatie, verklaarde in 2023 in de Senaat dat overheidsinterventie “cruciaal” is om risico’s te beperken. Volgens Altman is een risicogebaseerde aanpak nodig, met duidelijke regels en juridische helderheid. Ook hij onderkent dat AI zonder regels gevaarlijk terrein is.
Juist nu de technologie zich exponentieel ontwikkelt, is de afwezigheid van toezicht problematisch. De afgelopen jaren zagen we de opkomst van generatieve AI, autonome besluitvormingssystemen en deepfake-technologieën die zich moeilijk laten terugdraaien als ze eenmaal zijn verspreid. De maatschappelijke schade kan groot zijn, zeker wanneer beslissingen niet uitlegbaar of controleerbaar zijn. Een verbod op staatsregulering zet de deur wijd open voor dergelijke ontwikkelingen.
Daarbij zou bestaande AI-wetgeving op staatsniveau buiten werking worden gesteld. Colorado verplicht bedrijven nu al om consumenten te beschermen tegen algoritmische discriminatie en openheid te geven over AI-gebruik. In New Jersey gelden straf- en civielrechtelijke sancties voor het verspreiden van misleidende deepfakes. Ook Ohio en andere staten werken aan wetten over verkiezingsmanipulatie, identiteitsfraude en gemanipuleerde content. Al deze initiatieven zouden onder het federale verbod komen te vervallen.
Tot slot
In plaats van een federale minimumnorm voor AI-wetgeving kiest de Amerikaanse politiek voor verregaande deregulering. Hoewel de industrie daar ongetwijfeld van zal profiteren, worden burgers tien jaar lang blootgesteld aan risicovolle technologie zonder wettelijke bescherming. Of het voorstel daadwerkelijk wet wordt, is nog onzeker: het moet nog meerdere stemmingen doorstaan in zowel het Huis van Afgevaardigden als de Senaat.
De Verenigde Staten lijken een koers in te slaan die haaks staat op de aanpak in Europa. Binnen de EU is gekozen voor een uitgebreid juridisch kader (de AI-verordening), waarin innovatie wordt gecombineerd met ethiek, transparantie en risicobeheersing. Ondanks bestaande zorgen en onduidelijkheden biedt dit ten minste een mate van bescherming. De Amerikaanse regering kan zich afvragen of een volledig vrije ontwikkeling van AI het echt waard is, als dat ten koste gaat van publieke waarden, rechtsbescherming en democratische controle; principes die de VS ooit zo hebben gekenmerkt.
AI-forum 2025/2
Creatieve sector verontwaardigd over nieuwe Gedragscode AI-verordening
Het Europese AI-bureau heeft recent de derde en laatste conceptversie gepubliceerd van de Gedragscode voor aanbieders van generatieve AI, als aanvulling op de AI-verordening. Makers, uitvoerende kunstenaars en rechthebbenden reageren hierop veront...
Britse denktank wil commerciële AI-training in Engeland legaliseren
2 maanden terug bespraken we hoe de Britse overheid een auteursrechtelijke hervorming overweegt op basis waarvan bedrijven voor commerciële doeleinden mogen tekst- en dataminen, tenzij rechthebbenden zich daar uitdrukkelijk tegen verzetten. Oftewe...
Generatieve AI en auteursrecht: Europese koerswijziging op komst? Het parlementaire rapport in een notendop
De explosieve opkomst van generatieve AI heeft veel vragen opgeroepen binnen het auteursrecht. Terwijl ontwikkelaars van grote taal- en beeldmodellen hun systemen trainen op miljoenen beschermde werken, worstelen rechthebbenden met onduidelijke re...
Hoe GPT-NL en Nextcloud de afhankelijkheid van Big Tech helpen terugdringen
In een wereld waarin taalmodellen als ChatGPT razendsnel terrein winnen, groeit ook het besef van afhankelijkheid. De meeste krachtige AI-systemen worden gebouwd en beheerd door een handvol grote Amerikaanse technologiebedrijven, die beperkte tran...
US Copyright Office over AI-training, auteursrecht en fair use (uitgebreide analyse)
Begin mei publiceerde het Amerikaanse Copyright Office (UCO) het derde en laatste rapport in haar reeks over AI en auteursrecht. Het rapport werpt een diepgravende blik op de juridische status van AI-training onder het Amerikaanse auteursrecht, me...
AI-training is geen fair use, concludeert een groep Amerikaanse hoogleraren
Een groep toonaangevende Amerikaanse hoogleraren auteursrecht heeft zich uitgesproken tegen Meta’s beroep op fair use voor het trainen van generatieve AI-modellen. In een stevig beargumenteerde amicus brief stellen de experts dat het gebruik van a...
Britannica en Merriam-Webster beschuldigen Perplexity AI van auteursrecht én merkinbreuk
Op 10 september 2025 heeft Britannica Group, het moederbedrijf van de 250 jaar oude Encyclopædia Britannica en het bijna net zo oude woordenboekmerk Merriam-Webster, een klacht ingediend bij de federale rechtbank in New York tegen Perplexity AI. D...
Eerste rechtspraak over AI-hallucinaties; OpenAI niet aansprakelijk
In mei 2023 spande de Amerikaanse radiopresentator Mark Walters een rechtszaak aan tegen OpenAI. Aanleiding was een foutief antwoord van ChatGPT, waarin Walters onterecht werd beschuldigd van verduistering. De rechter oordeelde afgelopen week dat ...
