Caribe Magazine

Carib Magazine is de toonaangevende aanbieder van kwalitatief Nederlands nieuws in het Engels voor een internationaal publiek.

Kunstenaars ‘vergiftigen’ hun werken om zichzelf te beschermen tegen de kunstmatige intelligentie die ze plundert

Kunstenaars ‘vergiftigen’ hun werken om zichzelf te beschermen tegen de kunstmatige intelligentie die ze plundert

Glaze, ontwikkeld door de Universiteit van Chicago, voegt tags toe aan hun werken die de AI in verwarring brengen wanneer deze de werken van kunstenaars hergebruikt.

Geconfronteerd met de ongebreidelde data-exploitatie door sommige AI-ontwikkelaars, vangen kunstenaars hun creaties opzettelijk op om ze onbruikbaar te maken, met de hulp van universitaire onderzoekers. Paloma McLean is een Amerikaanse schilder. Veel creatieve AI-programma's maken het al mogelijk om afbeeldingen te maken die zijn geïnspireerd op de stijl van een persoon, ook al heeft de kunstenaar nooit toestemming gegeven en zal hij er financieel niet van profiteren. “Het stoorde mij», legt de ontwerper uit Houston (Texas) uit. “Ik ben geen beroemde kunstenaar, maar ik voelde me niet op mijn gemak bij het idee om mijn werk voor leiderschap te gebruiken» Model voor kunstmatige intelligentie. Om dit te verhelpen runt ze haar bedrijf via Glaze, een programma dat pixels aan haar illustraties toevoegt, onzichtbaar voor het menselijk oog, om het werk van de kunstmatige intelligentie te verstoren.

Na deze verwerking worden de gemaakte beelden wazig en worden de gezichten wazig, zonder vergelijking met de originelen. “We proberen technologische hulpmiddelen te bieden om menselijke makers te beschermen tegen misbruik van generatieve AI-modellen“, legt Ben Zhao uit, een onderzoeker aan de Universiteit van Chicago, die zijn team heeft opgericht Glazuur.

“een gevaarlijk probleem”

Deze hoogleraar computerwetenschappen werd in november 2022 gewaarschuwd en ontwikkelde de software in slechts vier maanden, waarbij hij gebruik maakte van eerder werk gericht op het uitschakelen van gezichtsherkenning. “We werkten op volle snelheid, omdat we wisten dat het probleem ernstig waszegt Ben Zhao. Veel mensen hadden er last van.»

READ  Emma Watson heeft haar Instagram-account gehackt door deze actiegroep

Generatieve AI-giganten hebben overeenkomsten gesloten om de rechten op het gebruik van bepaalde inhoud veilig te stellen, maar de overgrote meerderheid van de gegevens, afbeeldingen, tekst of geluiden die worden gebruikt om modellen te ontwikkelen, zijn gemaakt zonder expliciete toestemming. Sinds de lancering is Glaze meer dan 1,6 miljoen keer gedownload, volgens de onderzoeker wiens eenheid zich voorbereidt op de lancering van een nieuw programma genaamd Nightshade.

Het richt zich op eenvoudige taalvragen (prompts) die door een gebruiker van een generatief AI-model worden verzonden om een ​​nieuw beeld te verkrijgen. Het heeft tot doel het algoritme te laten ontsporen, dat dan bijvoorbeeld een afbeelding van een kat laat zien wanneer er om een ​​hond wordt gevraagd.

Een ander initiatief, startup Spawning, heeft Kudurru ontwikkeld, een software die mob-pogingen op fotoplatforms detecteert. De kunstenaar heeft dan de mogelijkheid om de toegang tot zijn werk te blokkeren of een ander beeld op te sturen dan het gevraagde.Wat neerkomt op vergiftiging» Het AI-model is in ontwikkeling en heeft invloed op de betrouwbaarheid ervan, beschrijft Jordan Mayer, medeoprichter van Spawning. Er zijn al meer dan duizend websites geïntegreerd in het Kudurru-netwerk.

De broederij is ook opgericht, ben ik opgeleid? (haveibeentrained.com), een site die bijhoudt of afbeeldingen in een AI-model zijn ingevoerd en de eigenaar de mogelijkheid geeft om ze in de toekomst te beschermen tegen ongeoorloofd gebruik. Naast het beeld waren onderzoekers van de Washington University in St. Louis (Missouri) geïnteresseerd in het geluid en ontwikkelden ze AntiFake.

Het doel is dat mensen hun inhoud kunnen beschermen, of het nu gaat om individuele artiesten of bedrijven met een aanzienlijke hoeveelheid intellectueel eigendom “,

Bin Zhao, een onderzoeker aan de Universiteit van Chicago

Deze software verrijkt een audiobestand met extra geluiden die niet waarneembaar zijn voor het menselijk oor, waardoor betrouwbare imitatie van de menselijke stem onmogelijk wordt, legt Chi Yuanyu, de promovendus achter het project, uit. Het programma is met name bedoeld om te voorkomen dat “Diepe vervalsingen», zeer realistische fotomontages of video's die het uiterlijk van iemand, vaak een beroemd persoon, gebruiken om hem iets te laten doen of zeggen.

READ  Rune. Bijna 500 anti-maskers verzamelden zich in Lyon, Begaard, Lynn en Chalinson voor de bijeenkomst

Het team, onder leiding van professor Ning Zhang, werd onlangs benaderd door producenten van een succesvolle podcast die het wilden beschermen tegen verduistering, aldus Ziyuan Yu. Hoewel het momenteel alleen voor gesproken taal wordt gebruikt, kan AntiFake ook de stemmen van zangers beschermen, meent de onderzoeker, wiens software gratis toegankelijk is.

De eenheid van Ben Zhao werd benaderd door “Veel bedrijven willen Nightshade gebruiken om hun afbeeldingen en intellectuele eigendom te behouden», aldus de academicus in Chicago. Hij is er niet eens tegen dat grote bedrijven zijn software gebruiken.

Het doel is dat mensen hun inhoud kunnen beschermen, of het nu gaat om individuele artiesten of bedrijven met een aanzienlijke hoeveelheid intellectueel eigendom“In het geval van het leggen van eieren gaat het niet alleen om het belemmeren, maar ook om het leggen van eieren”, zegt Ben Zhao.Mensen toestaan ​​zichzelf te organiseren om hun gegevens tegen betaling te verkopen», specificeert Jordan Mayer, die de lancering van het platform begin 2024 aankondigt.beste oplossingVolgens hem,Het zal een wereld zijn waarin alle gegevens die voor AI worden gebruikt, onderworpen zijn aan goedkeuring en betaling. We hopen ontwikkelaars in deze richting te duwen.»