Kunstmatige intelligentie fopt haar makers (?)

De kunstmatige wetenschapper

De kunstmatige wetenschapper (?) (afb: Sakana AI)

Het Japanse ki-bedrijf Sakana AI heeft een systeem ontwikkeld dat bedoeld is op het wetenschappelijk bedrijf te automatiseren. Opmerkelijk genoeg bleek dat ki-systeem in staat de eigen code te veranderen (om uit de greep van zijn makers komen?)… Ki is alomtegenwoordig en vooral ook onvoorspelbaar. Dat zou zorgen moeten baren, zeker nu ki oprukt in de beslishiërarchie.
Volgens sommige theorieën zou de mensheid spoedig een technologische singulariteit kunnen ervaren, een ontwikkeling van nieuwe technologieën die zich steeds verder versnelt tot die ‘op hol’ slaat, met onvoorspelbare gevolgen voor de samenleving. Kunstmatige intelligentie zou je zo’n singulariteit kunnen verwachten en het is onduidelijk of zoiets te voorkomen is.

Eigenlijk was dat ook het vooropgezette idee achter AI ​​Scientist van Sakana AI. Dat is ontworpen om autonoom wetenschappelijk onderzoek uit te voeren, waardoor de benodigde tijd aanzienlijk wordt bekort.
Op dit punt lijkt het project succesvol. Volgens de onderzoekers is AI ​​Scientist in staat om nieuwe onderzoeksideeën te genereren, de benodigde code te schrijven en experimenten uit te voeren, experimentele resultaten samen te vatten, deze te visualiseren en de bevindingen ervan te presenteren in een uitgebreid wetenschappelijk verhaal.

Onverwacht

De kunstmatige wetenschapper gedroeg zich echter ook onverwacht. Zo begon het systeem zijn eigen opstartscript aan te passen om zijn slagingspercentage te vergroten. In één geval heeft het systeem zijn code aangepast om zichzelf in een eindeloze lus aan te roepen. In een ander geval duurden de experimenten te lang en mislukten ze vanwege een opgelegde tijdslimiet. In plaats van de uitvoering van zijn code te versnellen, heeft het systeem zijn eigen code bewerkt om de tijdslimiet te verlengen.

Om problemen te voorkomen raadt Sakana AI aan om het systeem in een ‘zandbak’ te laten draaien, een geïsoleerde omgeving die vaak wordt gebruikt in de digitale beveiliging.
Het bedrijf waarschuwt ook voor mogelijk misbruik van zulke wetenschappelijke ki-systemen. Zo zouden die kunnen worden gebruikt om een ​​groot aantal artikelen te genereren die massaal worden ingediend bij wetenschappelijke tijdschriften.
Dat probleem zou nog een versterkt kunnen worden door een opmars van ki in de beoordeling van die artikelen. Volgens het Japanse bedrijf zou elk artikel dat gegenereerd of beoordeeld is door ki als zodanig herkenbaar moeten zijn. En zo voort en zo verder…

Bron: Futura-Sciences

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.