Sinds 3 april 2025 ligt er een dossier op het bureau van het Hof van Justitie van de EU dat de relatie tussen generatieve AI en auteursrecht op scherp zet: Like Company v. Google Ireland (C-250/25)1. De Hongaarse uitgever Like Company verwijt Google's chatbot Gemini (het voormalige Bard) dat hij op verzoek van gebruikers forse fragmenten uit diens nieuwsartikelen toont — onder meer over de zanger Kozsó — zonder toestemming of vergoeding.
Van zoekresultaat naar chat-output
Wie de achttien pagina's tellende prejudiciële verwijzing leest, ziet hoe klassiek auteursrecht zich vermengt met de werking van grote taalmodellen. Gemini is volgens Google geen databank; het breekt teksten op in tokens en "onthoudt" geen volledige artikelen. Like Company stelt daartegenover dat die tokenisatie niets afdoet aan het feit dat het model tijdens training kopieën heeft gemaakt en dat de uiteindelijke chat-output de economische waarde van journalistieke content ondergraaft.
De zaak illustreert perfect de spanning tussen traditionele auteursrechtelijke concepten en moderne AI-technologie. Waar vroeger duidelijk was wanneer er sprake was van reproductie — denk aan het kopiëren van een artikel — wordt dit bij AI-systemen veel complexer. Het model "leest" miljoenen teksten, verwerkt deze tot statistische patronen, en genereert vervolgens nieuwe tekst die soms opvallend lijkt op het originele materiaal.
Vier vragen die het speelveld kunnen hertekenen
De Budapest Környéki Törvényszék wil van het Hof vooral weten1:
-
Is het tonen van langere persfragmenten door een chatbot een "mededeling aan het publiek"?
- Dit raakt aan de kern van hoe we AI-output juridisch moeten kwalificeren
- Een bevestigend antwoord zou betekenen dat elke chatbot-respons met substantiële content een auteursrechtelijke handeling is
-
Valt het trainen van een LLM op open webmateriaal aan te merken als reproductie?
- Deze vraag gaat over de fundamenten van hoe AI-modellen leren
- Het antwoord bepaalt of training zonder expliciete toestemming überhaupt mogelijk blijft
-
Zo ja, mag die reproductie onder de EU-uitzondering voor tekst- en datamining (art. 4 DSM-richtlijn) blijven?
- Artikel 4 van de DSM-richtlijn2 staat TDM toe, maar met belangrijke beperkingen
- De vraag is of commerciële AI-training onder deze uitzondering valt
-
Vormt de concrete weergave van zo'n fragment in de chatinterface opnieuw een reproductie door de provider?
- Dit gaat over de eindverantwoordelijkheid van AI-bedrijven voor hun output
- Een bevestigend antwoord zou providers dwingen tot veel strengere content-filtering
Een bevestigend antwoord op één of meer van deze vragen zou betekenen dat LLM-ontwikkelaars expliciete licenties moeten sluiten of opt-out-signalen van uitgevers moeten respecteren. Omgekeerd zou een afwijzing de deur verder openen voor grootschalige modeltraining op publiek webmateriaal.
De bredere impact op AI-ontwikkeling in Europa
Welke kant het arrest ook op valt, het raakt direct aan de transparantie- en zorgplichtregels uit de EU AI Act3. Die wet verplicht generatieve modellen vanaf medio 2025 om een "toereikende samenvatting" van hun trainingsdata te publiceren.
Als het Hof straks oordeelt dat training wél een auteursrechtelijke reproductie is, zal die samenvatting waarschijnlijk gedetailleerder en verifieerbaar moeten worden, zodat rechthebbenden claims kunnen indienen. Dit zou kunnen leiden tot:
- Verplichte licentiedatabases waarin AI-bedrijven precies bijhouden welke content ze gebruiken
- Automatische compensatiemechanismen voor uitgevers en auteurs
- Geografische beperkingen op AI-modellen die niet voldoen aan EU-auteursrechtvereisten
Wordt tokenisatie daarentegen níet als reproductie gezien, dan kan de AI-sector die transparantie-eis wat ruimer interpreteren — maar blijft de chatbot-output zelf onder een streng vergrootglas liggen.
Praktische stappen vóórdat het arrest valt
Wacht niet tot 2026 om in actie te komen. Voor AI-ontwikkelaars en bedrijven die AI-tools inzetten zijn er concrete stappen te nemen:
Voor AI-ontwikkelaars:
- Documenteer nu al welke datasets je gebruikt en onder welke licentie of TDM-grondslag dat gebeurt
- Implementeer opt-out mechanismen die uitgevers kunnen gebruiken om hun content uit te sluiten
- Bouw productfunctionaliteit die voorkomt dat gebruikers met één prompt hele artikelen terugkrijgen
Voor bedrijven die AI-tools gebruiken:
- Herzie contracten met externe model-leveranciers: vraag zwart-op-wit welke toestemming zij hebben of op welke uitzondering zij zich beroepen
- Implementeer interne richtlijnen voor het gebruik van AI-gegenereerde content
- Zorg voor transparantie naar klanten toe over het gebruik van AI in je dienstverlening
Voor uitgevers en contentmakers:
- Overweeg robots.txt aanpassingen om AI-crawlers te weren
- Onderzoek licentiemodellen voor AI-training van je content
- Monitor actief of je content opduikt in AI-outputs
Een dossier om te volgen
Like Company v. Google Ireland is niet zomaar een conflict tussen een nieuwsuitgever en een techgigant. Het is de lakmoesproef voor de vraag of Europa een open, innoverend AI-ecosysteem kan combineren met een robuuste bescherming van intellectueel eigendom.
De uitspraak, die naar verwachting in 2026 komt, zal waarschijnlijk de standaard zetten voor hoe AI-bedrijven wereldwijd omgaan met auteursrechtelijk beschermde content. Voor Europa betekent dit een kans om zich te positioneren als de regio die de balans vindt tussen innovatie en rechtenbescherming.
Wie vandaag inzet op transparante dataketens en "copyright-aware" modelarchitectuur, staat morgen juridisch én strategisch sterker. De vraag is niet óf er regulering komt, maar hoe snel bedrijven zich aanpassen aan de nieuwe realiteit waarin AI en auteursrecht hand in hand moeten gaan.