Grote taalmodellen zouden steeds onbetrouwbaarder worden

Llama 3.1 van Meta

Logo van Llama 3.1 van Meta (moeder van, onder meer, Facebook) (afb: Meta)

Kunstmatige intelligentie is een problematisch thema. Eerder onderzoek had al aannemelijk gemaakt dat door toenemend gebruik, ki-systemen die hun ‘wijsheid’ van internet halen steeds vaker de fout in gaan. Nu stelt José Hernández Orallo van het ki-instituut VRAIN in Valencia dat grote taalmodellen zoals ChatGPT van OpenAI steeds onbetrouwbaarder worden. Zo zouden ze, bijvoorbeeld, ingewikkelde wiskundige vraagstukken kunnen oplossen maar struikelen over een simpele optelling. De hele ki-opzet lijkt op de schop te moeten. Lees verder

Ki-makers wil eigen product ‘keuren’

Kunstmatige intelligentie heeft de laatste tijd nogal wat teweeggebracht en niet alleen positieve dingen. Volgens sommigen zou ki zelfs bedreigend zijn voor het voortbestaan van de mensheid. Allerlei overheden, zoals de EU, hebben al aangekondigd ki aan regels te binden en nu hebben de ki-bedrijven Google, Microsoft, Anthropic en OpenAI een Frontier Model Forum opgericht dat de ki(-ontwikkelingen) zou moeten reguleren. Dat lijkt een vlucht vooruit, maar ook op de slager die zijn eigen vlees gaat keuren. Lees verder

E-krakers proberen kletsbot ChatGPT officieel te ‘betrappen’

ChatGPTToen die kletsbot door maker OpenAI werd gepresenteerd probeerden veel e-krakers die bot al uit om die te testen op beveiligingsgaten of op onbehoorlijk gedrag (of eigenlijk taalgebruik). Nu hebben ook de makers, techbedrijven en zelfs het Witte Huis e-krakers aangespoord om de kletsbot ‘onder vuur’ te nemen om zo de grenzen en beperkingen van die technologie te vinden. Lees verder

‘Geestelijke vader’ ki vindt die technologie bedreigend

Geoffrey Hinton

Geoffrey Hinton:…spijtoptant… (afb: WIkiMedia Commons)


Geoffrey Hinton, die alom wordt omschreven als ‘geestelijke vader’ van de kunstmatige intelligentie (maar waar ik nog niet eerder van gehoord had en ook de Nederlandse Wikipedia kent hem niet; as), en inmiddels al 75 jaar heeft zijn baan bij Google opgezegd en zegt spijt te hebben van zijn bijdrage aan die volgens hem riskante technologie. Lees verder

ChatGPT haalt wetenschappers links (en rechts) in

ChatGPT

ChatGPT schijnt het druk te hebben (afb: blog ChatGPT)

Er is veel te doen om de ki-bot ChatGPT (en ik=as doe vrolijk mee), maar het persbericht bij Science Daily van het MIT deed me beide wenkbrauwen ernstig fronsen. Onderzoek zou hebben uitgewezen dat ’taalmodellen’ als ChatGPT een nieuwe taak leren op basis van maar een paar voorbeelden, meldt dat persbericht. Huh? Hebben de programmeurs bij OpenAI dat niet vooraf bedacht toen ze dat algoritme ‘bekokstoofden’ en is dit (toevallige) bijvangst (of meerwaarde)? Of weten de onderzoekers niet wat de makers van OpenAI voor ogen stond toen ze dat algoritme schreven?
Hoe dan ook: ze (dat zijn de MIT-onderzoekers) ontdekten dat deze ’taalmodellen’ zelf kleinere lineaire modellen schrijven in hun ‘verborgen lagen’, waardoor de ki-bot makkelijk nieuwe taken aan kan.
Lees verder

Bing krijgt hulp van ki-kind ChatGPT (?)

BingMicrosoft wil het ki-product ChatGPT toevoegen aan zijn zoekmachine Bing. Dat ki-kind heeft nogal wat opzien gebaard door zijn kunstmatig intelligente brein in te zetten voor het maken van nogal broddelige code, maar de Amerikaanse onderneming ziet vooral de goede kant van deze hersenloze intelligentie, kennelijk. Lees verder

Hoe gevaarlijk, onvoorspelbaar of nuttig zijn zelflerende systemen?

Code van ChatGTP

Deal van het examenantwoord van ChatGPT (afb: schermafdruk van github.com)

Je hoeft geen expert te zijn op welk terrein dan ook om te voorspellen dat kunstmatige intelligentie op een dag het veel beter zal doen dan de mens. En dan? We hoeven dan niet meer naar school, maar hoe houden we die systemen in de greep? Het nieuwste ki-product is ChatGPT van OpenAI dat bedoeld was om het menselijke bewustzijn na te bootsen/te repliceren, maar uiteindelijk allerlei opmerkelijke en verwerpelijke zaken voor elkaar krijgt zoals programmeren.
Lees verder