Overal wordt tegenwoordig kunstmatige intelligentie bij gesleept. Vaak wordt die techniek gepresenteerd als een volmaakt objectieve vorm van intelligentie, maar dat is allesbehalve waar. Ki doet gewoon wat de makers willen. Zou blijken ki-algoritmes zich te kunnen ontpoppen als ‘racisten’. We moeten ervoor zorgen dat ki onze ‘dienaar’ blijft. Onderzoeker Stuart Russell heeft wel ideeën hoe…
YouTube wilde kijkers langer binden en gebruikte daarvoor een ki-algoritme dat aanbevelingen voor kijkers gaf. Nu twee jaar later blijkt dat niet echt een doorslaand succes. Mensen werd naar steeds extremere filmpjes verwezen. Als je beelden van de presidentscampagne van Trump had bekeken kon je aanbevelingen krijgen van ranzige preken van jodenmoordontkenners of racisten. Bekeek je video’s van hardlopers dan werd je voorgesteld filmpjes te bekijken van ultralopen. Het leek wel of het algoritme er op uit was je te radicaliseren en te polariseren. Ki-onderzoeker Dylan Hadfield-Menell van de universiteit van Californië in Berkeley zal dat niet gauw als een goed voorbeeld noemen van wat ki vermag.
Het was waarschijnlijk niet de opzet van de makers van dat algoritme om de wereld te radicaliseren, maar programmeurs kunnen ook niet overal aan denken. “De manier waarop we nu ki maken legt een zware last bij de makers om de gevolgen van hun prikkels te doorgronden. Een van de dingen die we leren is dat programmeurs fouten maken (!?; as).”
Het probleem is dat de ontwerpers vaak niet weten waar het algoritme voor moet dienen. Als aan het publiek gevraagd wordt waar een zelfrijdende auto aan moet voldoen, dan zeggen mensen al gauw dat die veilig moet zijn, maar er zijn natuurlijk veel meer zaken die de mensen belangrijk vinden. Superveilige zelfbewegers zullen niet erg hard rijden en vaak stoppen. Als de ontwerpers van de algoritmes voor zelfrijdende auto’s moeten maken dan zullen ze rekening moeten houden met allerlei doelen en voorkeuren. Die kunnen met elkaar in tegenspraak zijn, maar de lijst is hoogstwaarschijnlijk ook nog eens incompleet.
Sommige onderzoekers zijn bezig een hele nieuwe manier van programmeren te ontwikkelen. Die ideeën komen onder meer uit de koker van Stuart Russell, een informatica-onderzoeker in Berkely. Hij deed in de jaren 80 en 90 onderzoek naar rationaliteit, besluitvorming en zelflering. De afgelopen vijf jaar heeft hij vooral gehamerd op het ‘afstemmingsprobleem’ van ki en de problemen die daar weer uit voortkomen.
Uiterst beperkt
Volgens Russell is de huidige ki uiterst beperkt. Die kan hooguit uitblinken in een heel specifieke taak, zoals het verslaan van schaak- en go-kampioenen, maar vraag niet aan een ki-systeem om een beloningsfunctie te optimaliseren. Het is niet mogelijk om alle (sub)doelen, voorbehouden en uitzonderingen juist te wegen of zelfs maar te weten welke de juiste zijn. Om doelen aan ‘vrijzwevende’ autonome systemen te geven wordt steeds linker, zeker nu die systemen steeds ‘intelligenter’ worden. Robots zullen keihard naar hun beloning streven en zullen ons ervan proberen te weerhouden ze uit te schakelen.
In plaats van het nastreven van doelen zouden ki-systemen moeten streven naar de bevrediging van menselijke voorkeuren en behoeftes, is Russells credo. Onzekerheid over de voorkeuren van de mens en dus de noodzaak onze (bege)leiding te zoeken zou ki veilig houden. In zijn jongste boek Human Compatible legt Russell zijn ideeën uit aan de hand van drie principes voor behulpzame machines, die een beetje lijken op de wetten van sf-schrijver Isaac Asimov uit 1942 maar dan wat minder naïef:
- Het enige doel van een machine is het maximaliseren van de voorkeuren van mensen.
- De machine is onzeker over welke die voorkeuren zijn.
- De bron van informatie over die voorkeuren is menselijk gedrag.
De laatste jaren hebben Russell in Berkeley en medestanders nieuwe manieren ontwikkeld om ki vast te pinnen op de menselijk wensen zonder die ooit te hoeven specificeren. Robots wordt geleerd hoe ze achter wensen kunnen komen zonder dat mensen die hebben uitgesproken en misschien zelfs niet eens weten wat ze willen. De resultaten zouden er op wijzen dat ‘slimme’ systemen verbazingwekkend goed zijn in het doorgronden van onze wensen. Of Russells benadering van ki een succes wordt moet nog worden bewezen.
Ki-systemen zouden zich niet bezig moeten houden met het vergroten van de kijktijd van YouTubers of het maken van papierklemmen, maar ki zou zich bezig moeten houden met het verbeteren van onze levens. De vraag is dan natuurlijk wat is beter? Vervolgens kun je ook afvragen hoe je andere ki-ontwerpers zover kan krijgen je principes te volgen. Het lijkt niet waarschijnlijk dat die allemaal Russells beginselen zullen omarmen. Bovendien is het niet denkbeeldig dat Russells visie ook maar een visie is. Een ding in glashelder: we moeten dat beest in de doos houden en niet zijn eigen gang laten gaan.
Bron: Quanta Magazine