Zelfs ki kent vooroordelen

Kunstmatige intelligentie is niet waardenvrij

Ki is niet ‘waardenvrij’ (afb: Science)

Een van de voordelen van kunstmatige intelligentie zou zijn dat die geen menselijke zwakheden vertoont zoals irrationaliteit en vooroordelen. Nou, als je dat denkt, heb je het goed mis. Ki heeft daar ook last van, vooral als ze van ons mensen leert. Als algoritmes de betekenis van woorden proberen te achterhalen door lappen door de mens geschreven teksten te verteren, dan ontwikkelen ze stereotypen die erg op de menselijke vooroordelen lijken. “Denk niet dat ai de goede fee is”, zegt onderzoekster Joanna Bryson van de universiteit van Bath (Eng) en de Amerikaanse Princeton-universiteit. “Ki weerspiegelt onze bestaande cultuur.“ 

Het onderzoek vond zijn oorsprong in een hulpmiddel voor psychologen: de de impliciete associatietest (IAT). Daarin flitst een woord over het scherm en de snelheid waarmee de proefpersonen daarop reageren zou duiden op onderbewuste associaties. Zo reageren zowel zwarte als witte Amerikanen sneller om namen als Brad en Courtney te verbinden met gelukkig en zonsopgang en namen als Leroy en Latisha met haat en overgeven (kennelijk rasgebonden namen).

Woordinbedding

Om te kijken of machines daar ook last van hebben ontwikkelden Bryson en haar medewerkers een woordinbeddingsassociatietest. Ze begonnen met een stel ‘woordinbeddingen’ , in feite de computerdefinitie van een woord, gebaseerd op de context waarin woorden gebruikt worden. Zo hebben woorden als ijs en stoom dezelfde ‘inbedding’, aangezien die vaak gezien worden in de buurt van water en zelden in de buurt van, ik zeg maar wat, voetbal.  Voor een computer wordt die inbedding weergegeven door een reeks getallen, waar mensen niet veel mee kunnen. Onderzoekers van de Stanforduniversiteit hebben onlangs dergelijke inbeddingen gegenereerd door honderden miljarden woorden op internet te analyseren.

In plaats van het meten van de reactietijd, zoals in de menselijke associatietest, wordt in de computerassociatietest de overeenkomst tussen die getallenreeksen berekend. Het rekenwerk werd gedaan door het aan de Stanforduniversiteit ontwikkelde programma GloVe. Uit de berekeningen van GloVe destilleerden de onderzoekers dat namen als Brett en Allison vaker werden geassocieerd (ingebed) met positieve begrippen en niet-Engelse namen als Alonzo en Shaniqua met negatieve termen als kanker of falen. Je zou kunnen zeggen dat die ‘vooroordelen’ voorgekookt waren door de menselijke teksten.
Amerikanen associëren gemiddeld woorden als mannen vaker met werk, wiskunde of wetenschap en vrouwen met gezin en kunst. Die verbanden werden ook teruggevonden in de computerassociatietest. De computer ‘vond’ bloemen ook plezieriger dan insecten en muziekinstrumenten leuker dan wapens en jongeren leuker dan ouderen.

Feitelijk

Vervolgens ontwikkelden een ‘feitelijke’ variant van de computerassociatietest.  Daarin wordt bepaald hoe sterk de associatie tussen woorden is. Vervolgens wordt die berekende sterkte vergeleken met de feiten des levens. Eerst werd, bijvoorbeeld, de relatie tussen woorden als bibliothecaris en mondhygiënist en vrouw(elijk) bekeken. Vervolgens werd de uitkomst vergeleken met het werkelijke aandeel dat vrouwen in die beroepen hebben. Het bleek dat de overeenkomsten vrij groot waren. (Op dit punt ga ik twijfelen aan het woord vooroordeel voor het Engelse bias. Als de associatie(kracht) gesteund wordt door de feiten spreken we dan over een vooroordeel?) Op die manier zijn allerlei associaties te achterhalen van de simpele genoegens over bloemen tot de raciale en geslachtsvooroordelen en zelfs over het arbeidspotentiaal.

“Het is mooi dat een algoritme dat ontdekt” zegt Tolga Bolukbasi van de universiteit van Boston, die soortgelijk onderzoek uitvoert met overeenkomstige resultaten. “Als je deze inbeddingen oefent, dan specificeer je ze niet.” Minder mooi is hoe die vooroordelen kunnen worden misbruikt, bijvoorbeeld voor kredietverstrekking. Bolukbasi probeert die vooroordelen uit die inbeddingen te halen door ongewenste associaties te verwijderen.

Bryson ziet het anders. In plaats van de inbeddingen te ontdoen van vooroordelen, waarmee je informatie weggooit, geeft ze de voorkeur aan een extra laag voor menselijke of informatische beoordeling of en zo ja hoe te handelen. Een programmeur is in 77% van de gevallen een man en zal dat vak vaak als mannelijk gezien worden. Helpt meer vrouwen inhuren? Ze heeft ontdekt dat ook Google niet vrij is van vooroordelen. Zo heb je in het Turks een onzijdige derde persoonsvorm: o. ‘O bir doktor en ‘o bir hemşire’ (zowel gebruikt voor verpleegster als verpleger) wordt door Google Translate vertaalt met ‘hij is een arts’ en ‘zij is een verpleegster’.

Bron: Science, Science Daily

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.