
Het is, ook voor deskundigen, vaak onduidelijk is ki tot zijn uitkomsten komt (afb: univ. van Surrey)
Vrijwel de hele (‘ontwikkelde’) wereld jaagt achter kunstmatige intelligentie aan, zonder echt goed te weten wat daar de gevolgen van zijn. Ki wordt druk gebruikt ook in de wetenschappelij-ke wereld, maar aan ki kleven grote nadelen. De allermeeste ki-algoritmes zijn onnavolgbaar. Er is niet of nauwelijks te achterhalen hoe die systemen tot hun conclusies of ‘beslissingen’ komen. Ki vreet waanzinnig veel energie en kan een destructieve invloed hebben op het leven van zoogdier mens. Eens te meer klinkt een pleidooi uit de wetenschap voor meer helderheid in het ‘denkproces’ van ki-systemen.
Met mensen is het vaak al moeilijk te achterhalen hoe we tot beslissingen og handelingen komen, maar die onhelderheid wil je natuurlijk niet hebben kin technieken die de mens gebruikt en zeker niet als die een (steeds grotere) plaats innemen in de besluitvorming in de wereld van de mensen, van overheid via gezondheidszorg tot banken en verzekeringsmaatschappijen. Het is nogal schokkend dat steeds meer mensen, ook wetenschappers, zich met hun ziel en zaligheid overgeven aan voortbrengselen van de ki.
De onderzoekers beschrijven gevallen waarin ki-systemen er niet in slaagden hun beslissingen adequaat uit te leggen, waardoor gebruikers in de war raakten en kwetsbaar werden. Met gevallen van verkeerde diagnoses in de gezondheidszorg en foutieve fraudemeldingen in de banksector is de kans op schade aanzienlijk. Zo zijn fraudegegevens inherent onevenwichtig. Slechts 0,01% van alle transacties zou frauduleus zijn. Verkeerde beslissingen kunnen grote ook financiële schade veroorzaken.
Het is misschien geruststellend voor mensen om te weten dat de meeste transacties echt zijn, maar de disbalans vormt een probleem voor ki om fraudepatronen te leren herkennen. Toch kunnen ki-algoritmen een frauduleuze transactie met grote precisie aanwijzen, schrijven de onderzoekers, zonder dat duidelijk wordt waarop dat gebaseerd is.
“We mogen niet vergeten dat achter de oplossing van elk algoritme echte mensen zitten wier levens worden beïnvloed door de vastgestelde beslissingen” zegt Wolfgang Garn van de universiteit van Surrey. “Ons doel is om ki-systemen te maken die niet alleen intelligent zijn, maar ook begrijpelijke uitleg bieden aan mensen, de gebruikers van technologie.”
De studie stelt een uitgebreid raamwerk voor dat bekend staat als SAGE (een Engelse afko voor instellingen, gebruikers, doelen en ethiek) om deze kritieke kwesties aan te pakken. SAGE is ontworpen om ervoor te zorgen dat ki-uitleg niet alleen begrijpelijk is, maar ook contextueel relevant voor de eindgebruikers. Door zich te richten op de specifieke behoeften en achtergronden van het beoogde publiek, wil het SAGE-raamwerk de kloof overbruggen tussen complexe ki-besluitvormingsprocessen en de menselijke operators die ervan afhankelijk zijn.
In combinatie met dit raamwerk maakt het onderzoek gebruik van scenarioontwerptechnieken (SBD), die diep ingaan op reële scenario’s om erachter te komen wat gebruikers echt nodig hebben van de ki-uitleg. Deze methode moedigt onderzoekers en ontwikkelaars aan om in de schoenen van de eindgebruikers te stappen, zodat ki-systemen worden ontworpen met de gebruiker is richtpunt.
Tekortkomingen
Garner: “Ook bestaande ki-modellen hebben tekortkomingen. Die hebben vaak niet de contextuele kennis die nodig is om zinvolle uitleg te geven. Door deze hiaten te identificeren en aan te pakken, pleit ons artikel voor een evolutie in ki-ontwikkeling die prioriteit geeft aan gebruikersgerichte ontwerpprincipes.”
“Het roept ki-ontwikkelaars op om actief samen te werken met specialisten uit de industrie en eindgebruikers om zo een omgeving te bevorderen waarin inzichten van verschillende belanghebbenden de toekomst van ki kunnen vormgeven.”
“Het pad naar een veiliger en betrouwbaardere ki begint met een opdracht de technologie die we creëren en de invloed die deze heeft op ons leven te begrijpen.”
Bron: Science Daily