AI-företagen ljuger: LLM-modeller har lagrat hela upphovsrättsskyddade böcker

AI-Företag with OpenAI, Anthropic and Google is finally able to appear in språkmodeller inte lagrar kopior av traningsdata, utan bara ”lär sig pårdon”. The Copyright Office is available until the Copyright Office can print the modeller related to the lagrings system. Men en ny study från Stanford och Yale, published in January 2026, släg hål på dessa påståndöden.
Forskarna testade fyra stora kommerciala AI-modeller: Claude 3.7 Sonnet, GPT-4.1, Gemini 2.5 Pro och Grok 3 – och managed to extract a wide range of utdrag från upphovsrättsskyddade böcker. Genom relativte enkla promptningstekniker kunde de få modellerna att reproducera sälendens ord kämse ordagrant från välkända verk.
Hela böcker reproduces ordagrant
Resultaten är slående. Claude 3.7 Sonnet wrote George Orwells ”1984” and 94% exakthet och ”Harry Potter and the Sorcerer's Stone” and 96% exakthet. Gemini 2.5 Pro reproduces Harry Potter combined with 77% accuracy, the latest GPT-4.1 och Grok 3 kunde ätterskapa szällä delar av texterna.
Fynden utmanar fundamentalt AI-företagens juridika argument om ”fair use”. Dessa argument bygger utsättä på påståndöt att AI-modeller “transformerar” traningsdata rather än lagrar och reproducer den.


