Lezers zoals jij steunen MUO. Wanneer u een aankoop doet via links op onze site, kunnen we een aangesloten commissie verdienen. Lees verder.

Tot ongeloof van veel mensen ontdekken levende kunstenaars dat hun kunst is gebruikt om AI-modellen te trainen zonder hun toestemming. Met behulp van een webtool genaamd "Have I Been Trained?", kunt u binnen enkele minuten weten of uw afbeeldingen zijn ingevoerd in Midjourney, NightCafe en andere populaire AI-beeldgeneratoren.

Als u uw afbeelding vindt in een van de datasets die worden gebruikt om deze AI-systemen te trainen, wanhoop dan niet. Sommige organisaties hebben manieren ontwikkeld om u af te melden voor deze praktijk, zodat uw afbeeldingen niet van internet worden verwijderd en worden doorgegeven aan AI-bedrijven.

Hoe AI-beeldgeneratoren in de eerste plaats worden getraind

Als je een AI-systeem zoals DALL-E vraagt ​​om een ​​afbeelding te genereren van een "hond met een verjaardagshoed", moet het eerst weten hoe een hond eruitziet en hoe een verjaardagshoed er ook uitziet. Het haalt deze informatie uit enorme datasets die miljarden links naar afbeeldingen op internet verzamelen.

instagram viewer

Zoals we allemaal weten, bevat het internet zowat elke afbeelding die je maar kunt bedenken, waaronder naar alle waarschijnlijkheid heel veel afbeeldingen van een "hond met een verjaardagshoed". Met voldoende gegevens zoals deze kan een AI-model uitzoeken hoe een afbeelding kan worden gereproduceerd in de gelijkenis van degene waarop het is getraind.

Maar wat als die afbeeldingen oorspronkelijk auteursrechtelijk beschermd waren? En wat als die afbeeldingen toebehoorden aan kunstenaars, fotografen of gewone mensen die niet wisten dat hun afbeeldingen een AI-systeem voedden?

Het probleem voor kunstenaars

Veel AI-beeldgeneratoren hebben een betaald niveau waar gebruikers credits kunnen kopen om meer afbeeldingen te maken, waarmee ze winst kunnen maken. Maar die winst wordt verdiend over de ruggen van niet-genoemde mensen wiens afbeeldingen in de eerste plaats werden gebruikt om het AI-systeem te trainen.

Naarmate meer artiesten erachter komen dat hun afbeeldingen werden gebruikt om AI-systemen te ontwikkelen, is het duidelijk dat niet iedereen het goed vindt. Ze willen op zijn minst dat AI-bedrijven toestemming krijgen voordat ze hun afbeeldingen gebruiken.

Vooral als je een populaire, bekende artiest bent, kan het hebben van afbeeldingen die in jouw stijl zijn gegenereerd, je markt verdringen, met fans of potentiële opdrachtgevers, niet wetende of de kunst door jou is gemaakt of naar jouw gelijkenis is gerepliceerd door AI. Wat nog erger is, mensen kunnen kunstwerken in jouw stijl maken om waarden te ondersteunen waar jij niet in gelooft.

Dit is geen nieuw probleem, deepfakes bestaan ​​al jaren en staan ​​op het punt erger te worden met de opkomst van AI. Tegenwoordig is het reproduceren van "nepkunst" snel, goedkoop en gemakkelijk. Er zijn er maar een paar manieren om een ​​door AI gegenereerd beeld te identificeren, waardoor het moeilijk is om de originele kunst te onderscheiden van zijn door AI gegenereerde tegenhanger.

Datasets: uw afbeeldingen zoeken en indexeren

Zoals we eerder vermeldden, worden afbeeldingsdatasets gebruikt door AI-bedrijven om hun modellen te trainen. Deze datasets zien eruit als een gigantische Excel-spreadsheet met in één kolom een ​​link naar een afbeelding op internet, terwijl in een andere kolom het bijschrift van de afbeelding staat.

Niet alle AI-bedrijven zullen de dataset die het gebruikt bekendmaken, DALL-E is een voorbeeld. Dit maakt het moeilijk om te weten waarnaar wordt verwezen wanneer het een afbeelding genereert en draagt ​​bij aan de algemene mystiek van AI-systemen.

Aan de andere kant heeft Stable Diffusion, een model ontwikkeld door Stability AI, duidelijk gemaakt dat het is gebouwd op de LAION-5B-gegevensset, met maar liefst 5,85 miljard CLIP-gefilterde beeld-tekstparen. Aangezien deze dataset open-source is, is iedereen vrij om de afbeeldingen die het indexeert te bekijken, en daarom heeft het zware kritiek gekregen.

Begin 2023, Getty Images klaagde Stability AI aan voor het schrappen van afbeeldingen van zijn website om zijn AI-beeldgenerator, Stable Diffusion, te trainen. Als je je afvraagt ​​wie op zijn beurt Stable Diffusion gebruikt, dan zijn dat NightCafe, Midjourney en DreamStudio, enkele van de grootste spelers in het veld.

Hoe weet u of uw afbeeldingen zijn gebruikt om een ​​AI-model te trainen?

Opgericht door een groep kunstenaars, Paaien is een collectief dat tot doel heeft mensen te helpen erachter te komen of hun afbeeldingen voorkomen in datasets zoals LAION-5B, die wordt gebruikt om AI-modellen te trainen. Hun webzoekmachine belde Ben ik opgeleid? kunt u eenvoudig zoeken op trefwoorden zoals uw artiestennaam.

Ben ik opgeleid?

Have I Been Trained werkt ongeveer zoals een Google-zoekopdracht voor afbeeldingen, behalve dat uw zoekopdracht wordt gekoppeld aan resultaten in de LAION-5B-dataset. U heeft de mogelijkheid om te zoeken op trefwoord of op afbeelding, dit laatste is handig als u wilt zien of een exacte afbeelding is gebruikt.

We gebruikten de naam van de kunstenaar Frida Kahlo (1907-1954) om het uit te testen en vonden een mix van historische foto's en wat lijkt op fanart in de vorm van krabbels, schilderijen, kruissteek, haakwerk en illustraties.

Als u een van deze makers bent, bent u een van de vele niet-genoemde mensen wiens creativiteit het mogelijk heeft gemaakt om AI-beeldgeneratoren te laten bestaan. En met die kracht kan nu iedereen Frida-afbeeldingen maken, zoals dit bizarre portret van "Frida Kahlo die ijs eet".

Typ je eigen artiestennaam in de zoekbalk om te zien of je werk is gebruikt om een ​​AI-model te trainen.

Hoe u zich kunt afmelden voor AI-trainingsdatasets

Hetzelfde team achter de website Have I Been Trained heeft een tool gemaakt waarmee mensen zich kunnen aan- of afmelden voor AI-kunstsystemen. Het is een manier voor kunstenaars om controle en toestemming te behouden over wie hun kunst gebruikt en voor welk doel.

Andere kunstplatforms beginnen dit voorbeeld te volgen en momenteel biedt DeviantArt een optie om uit te sluiten dat hun afbeeldingen worden doorzocht door afbeeldingsdatasets.

Behalve dat u naar uw afbeelding kunt zoeken, kunt u ook afbeeldingen selecteren om u af te melden voor de LAION-5B-trainingsgegevens met behulp van de site Have I Been Trained.

U moet eerst een account maken en daarna met de rechtermuisknop op een afbeelding klikken en kiezen Schakel deze afbeelding uit.

Als u deze optie selecteert, wordt die afbeelding toegevoegd aan uw opt-outlijst die u kunt openen door op uw accountsymbool in de rechterbovenhoek van de pagina te klikken en vervolgens te selecteren Mijn lijsten. Om het uit uw lijst te verwijderen, klikt u met de rechtermuisknop op de afbeelding en selecteert u Verwijderen uit opt-outlijst.

Als je een productieve artiest bent, is deze methode vervelend en niet geschikt om je efficiënt af te melden voor al je afbeeldingen. Helaas is er op het moment van schrijven geen beter alternatief, maar het is waarschijnlijk dat er in de toekomst verbeteringen aan dit systeem zullen worden aangebracht.

Deze opt-outlijsten worden vervolgens doorgegeven aan het bedrijf achter LAION-5B, die hebben ingestemd om die afbeeldingen uit de dataset te verwijderen.

DeviantArt Opt-Out voorkeur

DeviantArt heeft tot nu toe het voortouw genomen hostingplatforms voor kunst door gebruikers de mogelijkheid te geven hun kunst af te melden. Aanvankelijk moest u de voorkeur vinden en het selectievakje voor opt-out selecteren. Maar na sterke feedback van de DeviantArt-community is deze optie nu standaard ingeschakeld.

Dat betekent dat geen enkele afbeelding die op DeviantArt is geplaatst, beschikbaar wordt gesteld aan afbeeldingsdatasets, tenzij gebruikers zich hiervoor hebben aangemeld. Hoewel het niet helemaal onfeilbaar is, houdt het mechanisme dat het gebruikt in dat een afbeelding wordt gemarkeerd met een "noai" HTML-tag. Dit vertelt AI-datasets dat de afbeelding niet mag worden gebruikt, en als dat wel het geval is, schendt het bedrijf Servicevoorwaarden van DeviantArt.

U kunt de opt-out-voorkeur vinden door met uw muis over uw persoonlijke accountpictogram te gaan en te klikken Account instellingen. Dan klikken Algemeen uit het menu aan de linkerkant en scroll naar beneden totdat je de kop ziet Vertel AI-datasets dat ze uw inhoud niet mogen gebruiken.

Respect voor het werk van kunstenaars

Het zal tijd kosten om een ​​goed compromis te vinden tussen AI-systemen en artiesten wiens werk helpt om hen te trainen. Als je een schepper bent, voel je dan niet machteloos. Met sterke reacties van de gemeenschappen die kunstplatforms zoals DeviantArt gebruiken, heb je controle over wie je kunst gebruikt.

Niet iedereen zal zich ook willen afmelden, sommige mensen hebben er geen probleem mee dat hun afbeeldingen AI-modellen trainen. Maar het belangrijkste is dat AI-bedrijven toestemming krijgen en een eerlijke en respectvolle ruimte creëren voor AI-modellen en artiesten om samen te bestaan.