Het onderzoek vond zijn oorsprong in een hulpmiddel voor psychologen: de de impliciete associatietest (IAT). Daarin flitst een woord over het scherm en de snelheid waarmee de proefpersonen daarop reageren zou duiden op onderbewuste associaties. Zo reageren zowel zwarte als witte Amerikanen sneller om namen als Brad en Courtney te verbinden met gelukkig en zonsopgang en namen als Leroy en Latisha met haat en overgeven (kennelijk rasgebonden namen).
Woordinbedding
Om te kijken of machines daar ook last van hebben ontwikkelden Bryson en haar medewerkers een woordinbeddingsassociatietest. Ze begonnen met een stel ‘woordinbeddingen’ , in feite de computerdefinitie van een woord, gebaseerd op de context waarin woorden gebruikt worden. Zo hebben woorden als ijs en stoom dezelfde ‘inbedding’, aangezien die vaak gezien worden in de buurt van water en zelden in de buurt van, ik zeg maar wat, voetbal. Voor een computer wordt die inbedding weergegeven door een reeks getallen, waar mensen niet veel mee kunnen. Onderzoekers van de Stanforduniversiteit hebben onlangs dergelijke inbeddingen gegenereerd door honderden miljarden woorden op internet te analyseren.
In plaats van het meten van de reactietijd, zoals in de menselijke associatietest, wordt in de computerassociatietest de overeenkomst tussen die getallenreeksen berekend. Het rekenwerk werd gedaan door het aan de Stanforduniversiteit ontwikkelde programma GloVe. Uit de berekeningen van GloVe destilleerden de onderzoekers dat namen als Brett en Allison vaker werden geassocieerd (ingebed) met positieve begrippen en niet-Engelse namen als Alonzo en Shaniqua met negatieve termen als kanker of falen. Je zou kunnen zeggen dat die ‘vooroordelen’ voorgekookt waren door de menselijke teksten.
Amerikanen associëren gemiddeld woorden als mannen vaker met werk, wiskunde of wetenschap en vrouwen met gezin en kunst. Die verbanden werden ook teruggevonden in de computerassociatietest. De computer ‘vond’ bloemen ook plezieriger dan insecten en muziekinstrumenten leuker dan wapens en jongeren leuker dan ouderen.
Feitelijk
Vervolgens ontwikkelden een ‘feitelijke’ variant van de computerassociatietest. Daarin wordt bepaald hoe sterk de associatie tussen woorden is. Vervolgens wordt die berekende sterkte vergeleken met de feiten des levens. Eerst werd, bijvoorbeeld, de relatie tussen woorden als bibliothecaris en mondhygiënist en vrouw(elijk) bekeken. Vervolgens werd de uitkomst vergeleken met het werkelijke aandeel dat vrouwen in die beroepen hebben. Het bleek dat de overeenkomsten vrij groot waren. (Op dit punt ga ik twijfelen aan het woord vooroordeel voor het Engelse bias. Als de associatie(kracht) gesteund wordt door de feiten spreken we dan over een vooroordeel?) Op die manier zijn allerlei associaties te achterhalen van de simpele genoegens over bloemen tot de raciale en geslachtsvooroordelen en zelfs over het arbeidspotentiaal.
“Het is mooi dat een algoritme dat ontdekt” zegt Tolga Bolukbasi van de universiteit van Boston, die soortgelijk onderzoek uitvoert met overeenkomstige resultaten. “Als je deze inbeddingen oefent, dan specificeer je ze niet.” Minder mooi is hoe die vooroordelen kunnen worden misbruikt, bijvoorbeeld voor kredietverstrekking. Bolukbasi probeert die vooroordelen uit die inbeddingen te halen door ongewenste associaties te verwijderen.
Bryson ziet het anders. In plaats van de inbeddingen te ontdoen van vooroordelen, waarmee je informatie weggooit, geeft ze de voorkeur aan een extra laag voor menselijke of informatische beoordeling of en zo ja hoe te handelen. Een programmeur is in 77% van de gevallen een man en zal dat vak vaak als mannelijk gezien worden. Helpt meer vrouwen inhuren? Ze heeft ontdekt dat ook Google niet vrij is van vooroordelen. Zo heb je in het Turks een onzijdige derde persoonsvorm: o. ‘O bir doktor en ‘o bir hemşire’ (zowel gebruikt voor verpleegster als verpleger) wordt door Google Translate vertaalt met ‘hij is een arts’ en ‘zij is een verpleegster’.
Bron: Science, Science Daily