Het lijkt er op op dat ‘Europa’ (de EU) steeds slappere knieën krijgt. Daar was een Groen Akkoord dat de EU tot voorhoede moest omvormen in de strijd tegen de klimaatontwrichting. Gaandeweg worden van die plannen steeds meer stukjes afgeknabbeld of weggebroken. De Natuurherstelwet werd in uiterst verwaterde vorm aangenomen en het verdachte bestrijdingsmiddel glyfosaat werd voor nog eens tien jaar toegelaten. Nu lijkt ook de stoere houding van de EU tegenover de techbedrijven die gokken op kunstmatige intelligentie in rap tempo te verkrummelen.
De Europese ki-verordening zou richtinggevend moeten worden voor de wereld op het gebied van regelgeving, maar met een voortschrijdende ontwikkeling van ki lijkt de regelgeving in een moeras terecht te zijn gekomen van besluiteloosheid en verwarring.
De hele wereld ziet de noodzaak in om paal en perk te stellen aan die voorthollende ontwikkeling, die nogal wat nare ‘rafelrandjes’ heeft (al was het alleen maar de geheimzinnigheid en ondoorzichtheid waarmee die is verbonden). Risih Sunak was beretrots toen hij onlangs landen bij elkaar had gezet om over regulering van ki te praten, maar veel meer dan dat die landen verder zullen gaan met elkaar te ontmoeten is die bijeenkomst niet gekomen.
Als de onderhandelingen over de verordening deze week niet succesvol worden afgesloten, dan zullen die pas volgend jaar weer worden voortgezet. Met de EU-verkiezingen in juni in het vooruitzicht zou dat dan extra vertraging inhouden van het voorwerk en wat gebeurt er als er in Brussel een nieuwe ploeg (parlement en Europese Commissie) aantreedt?
Grote taalmodellen
Een van de belangrijkste knelpunten wordt gevormd door de grote taalmodellen, de systemen die ten grondslag liggen aan ki-diensten voor algemeen gebruik, zoals ChatGPT van OpenAI en de Bard-chatbot van Google. Daarnaast zijn er ook andere lastige thema’s zoals het algemene verbod op gebruik van gezichtsherkenning door de politie. Sommige ‘volgers’ houden het zelfs voor mogelijk dat de onderhandelaars er uiteindelijk niet uit komen.
De ki-verordening was bedoeld om EU-burgers tegen gevaren van het gebruik van ki te beschermen. Daarbij hanteerden de bedenkers oorspronkelijk vier risicoklassen (van gering tot onaanvaardbaar). Die indeling zou door de grote taalmodellen, die zich ‘breder’ gemaakt hebben, achterhaald zijn. Onderzoekers waarschuwen dat die algemene ki-producten, die door een handjevol grote techbedrijven worden ontwikkeld, meer desinformatie en webaanvallen en andere kwalijke zaken kunnen veroorzaken.
Frankrijk, Duitsland en Italië lijken eigenlijk meer te voelen voor zelfregulering (door de ki-ontwikkelaars) om hun eigen ki-spruiten (zoals Mistral AI en Aleph Alpha) te beschermen, maar daar schiet de wereld weinig mee op. Europarlementariër Brando Benifei, een van de onderhandelaars is echter optimistisch dat ze er wel uit zullen komen met de lidstaten.
Bron: ABC News