Kunstmatige intelligentie maakt gebruik van allerlei materiaal om ‘imtelligent’ te kunnen worden. Dat verstoort nogal eens de rechten van de auteur van dat materiaal. Nu schijnen onderzoekers van de universiteit van Chicago daar iets op gevonden te hebben: Nightshade. Nachtschade vergiftigt de plaatjes zodat een kat een hond wordt enzovoort en het ki-systeem zo ‘vergiftigt’. Het is bedoeld voor auteursrechtenhouders die zich tekortgedaan voelen, maar wat als Nachtschade elders terechtkomt?
Datavergiftiging manipuleert leermateriaal voor ki-systemen om ze van de kook te brengen. Met Nightshade lijken de plaatjes op wat ze voorstellen met bijbehorende teksten, maar die door het ki-systeem anders worden gelezen. Je zou al succes hebben met al tientallen vergiftigde plaatjes. Nightshade kan de algemene kenmerken van een generatief tekst-naar-beeldmodel destabiliseren, waardoor het vermogen om betekenisvolle afbeeldingen te genereren effectief wordt verminkt, zo heet dat dan.
Je kunt natuurlijk een rechtszaak aanspannen, maar hoe ontdek je op de eerste plaats dat jouw geestelijke (en juridische) eigendom ook echt is gebruikt? Om je plaatjes een gifdosis een te geven moet je die nu naar Project Glaze sturen. Daar worden die vergiftigd.
Als een ki-systeem ermee aan de haal gaat dan komt dat gif in het ki-model terecht. Uiteindelijk zou Nightshade ook beschikbaar komen voor belanghebbenden, maar je vraagt je natuurlijk af wat dat met deze tak van sport (=ki) zal doen. In ieder geval lijkt er nu een tegengif voor ki-systemen is gekomen. Ki-bedrijven zijn aan zet (en zullen hier vast wel wat op vinden.
Bron: der Spiegel