Er zijn nogal veel onderzoeksgroepen driftig bezig met kunstmatige intelligentie. Dat wordt de grote toekomst heeft ook het dictatoriale geregeerde China beslist. Dat moet op zijn minst wantrouwig maken. Diverse grootheden hebben al gewaarschuwd tegen de gevaren van ki, maar dat heeft anderen niet weerhouden door te gaan op ingeslagen paden. Overheden lijken doof voor de waarschuwingen. Nu zouden onderzoekers van, onder meer, het Max Planckinstituut voor menselijke ontwikkeling een theoretische onderbouwing hebben geleverd van de stelling dat ki-systemen op de duur niet niet in de hand te houden zijn.
Veronderstel dat iemand een ki-systeem zou kunnen maken met een ‘intelligentie’ die de menselijke overstijgt. Als dat verbonden wordt met internet zou dat systeem toegang hebben tot alle gegevens over de mensheid. Het zou alle bestaande programma’s kunnen veranderen en de controle over alle met het web verbonden machines kunnen overnemen. Zou dat een zege zijn of een ramp? Of zou het de mensheid vernietigen en de aarde overnemen?
Op de laatste vraag kun je natuurlijk alleen maar zeggen dat dat niet zo slecht voor het andere leven op aarde zou (kunnen) zijn: de mensheid is hard bezig te aarde als voor de mens leefbare planeet te vernielen. Maar goed, het gaat hier om een hypothese van wetenschappers.
“Een superintelligente machine die de aarde stuurt klinkt als wetenschappelijke fictie”, zegt Manuel Cebrian van het Max Planckinstituut, “maar er zijn al machines die onafhankelijk belangrijke taken uitvoeren zonder dat de programmeurs helemaal begrijpen hoe ze die geleerd hebben. De vraag is of dat niet op een bepaald moment onbeheersbaar wordt en gevaarlijk voor de mensheid.” Ook dat is natuurlijk raar geformuleerd (erg mensgericht), maar laten we dat maar rusten.
De onderzoekers onderzochten twee manieren om superintelligente systemen te sturen. Zo zou je de mogelijkheden van ki-systemen vooraf kunnen beperken, bijvoorbeeld, door ze niet aan het wereldwijde web te koppelen of aan andere technische systemen. Dat zou, denken de onderzoekers, ki minder krachtig maken. Het andere mechanisme zou ki inperken door zich ten dienste van de mens te stellen, dus alleen gericht zijn op de belangen van de mens. Probleem is dat de regelmechanismen zo hun beperkingen hebben.
In hun experiment gingen de onderzoekers er van uit dat zo’n superintelligent systeem de mensheid op geen enkele wijze mocht benadelen. Dat deden ze door eerst het gedrag van het systeem te simuleren en het te stoppen als het fout dreigde te gaan (????; as). Met de huidige middelen zou zo’n algoritme nooit kunnen worden gemaakt, stellen de onderzoekers.
Onbruikbaar
“Als je het probleem opdeelt in basisregels uit de theoretische informatica dan blijkt dat een algoritme dat stelt dat ki de wereld niet vernietigt onbedoeld de operaties staakt”, zegt medeonderzoeker Iyad Rahwan. “Als dat gebeurt weet je niet of het ingeperkte algoritme nog steeds de bedreiging analyseert of gestopt is de schadelijke ki (oplossing?; as) in te perken. Dat maakt in feite die inperking onbruikbaar.”
Dat zou betekenen (als ik het goed begrijp) dat het inperkingsprobleem niet te berekenen is. Er zou geen algoritme te maken zijn dat zou kunnen bepalen of een ki-systeem een oplossing zou kunnen bedenken die schadelijk is voor de wereld (niet de mensheid?; as). Daarbij komt dat het onmogelijk voor mensen is te bepalen wanneer de machineintelligentie de menselijke overstijgt. Dat probleem zou even onoplosbaar zijn als het inperkingsprobleem. Alarmerend, maar wat doen we met die wetenschap?
Bron: EurekAlert