Tiden har jo mange diskussioner om det AI-genererede – men også i høj grad om de data, der ligger til grund for AI-genereret grafik, video og tekst.
Neil Clarke har skrevet en artikel med værktøjer til at blokere robot-høsten.
Han bringer eksempler på:
- robots.txt
- Firewalling / CDN, hvis man har sine data indhegnet på den måde
- Opsætning i .htaccess med mod_rewrite
- ai.txt – en AI-orienteret pendant til robots.txt fra Spawning
Under almindelige omstændigheder burde robots.txt kunne gøre det, men hvis forventningen i forvejen er, at virksomhederne ignorerer ophavsret, så er de tekniske blødere blokeringer, som dybest set er afhængige af, at virksomheden respekterer indstillingen, og de odds er måske spinkle.
Jeremy Keith skriver i sin artikel Permission fra juli, at Google med AI-høsten har suspenderet nettets sociale kontrakt, og det er en god måde at se det på.
Så det er en fornuftig måde at opsætte nogle afgrænsninger på. Bare fordi folk ikke har ret til at gå ind i huset, giver det stadig god mening at sætte en lås på døren.