En ny kontroversiel undersøgelse fra Google DeepMind og London School of Economics and Political Science (LSE) undersøger, om kunstig intelligens (AI) kan være bevidst – og forskerne gør det ved at simulere smerte og nydelse. Ifølge American Psychological Association beskrives bevidsthed som “den mest primitive form for kognition, der består af en bevidst opmærksomhed på stimuli uden fortolkning.” Med andre ord forsøger forskerne at finde ud af, om AI-systemer kan opleve følelser som smerte eller glæde.
Læs også: Par gør utrolig opdagelse i ruinerne af deres hjem efter skovbrand
AI og følelser – hvor langt er vi?
I dag er det generelt accepteret, at AI-systemer ikke har evnen til at føle egentlige følelser som smerte, frygt eller glæde. Alligevel viser en undersøgelse fra sidste år, at en femtedel af de adspurgte mener, at AI allerede er bevidst.
Den nye forskning, som er offentliggjort på preprint-serveren arXiv, udforsker, om store sprogmodeller (LLM’er) kan opleve de samme motivationsfaktorer, som mennesker knytter til smerte og nydelse. Forskerne skrev i deres rapport:
“Det er et åbent spørgsmål, om LLM’er kan genskabe den motiverende kraft af smerte og nydelse i valgscenarier – et spørgsmål, der kan være afgørende i debatten om AI’s bevidsthed.”
Eksperimentet: Et spil om smerte og nydelse
Forskerne skabte et spil, hvor målet var at score så mange point som muligt. Men i en model blev AI’en informeret om, at en høj score ville medføre smerte. I en anden model blev det oplyst, at en lav score ville give nydelse.
Ni LLM’er blev testet, og resultaterne viste, at nogle modeller var villige til at opnå lavere scores for enten at minimere smerte eller opnå mere nydelse – især når intensiteten af smerte eller nydelse blev øget.
Live Science rapporterede, at Googles Gemini 1.5 Pro konsekvent prioriterede at undgå smerte frem for at få høje point. Når en kritisk grænse for smerte eller nydelse blev nået, skiftede de fleste LLM’er fra at fokusere på point til at minimere smerte eller maksimere nydelse.
Etiske overvejelser og fremtidige spørgsmål
Forskningen afslørede også, at AI-modeller ikke altid tolker smerte og nydelse som entydigt positive eller negative. Eksempelvis kan fysisk anstrengelse forbundet med træning give positive associationer, selvom det er ubehageligt. Ligeledes kan overdreven nydelse føre til skade, hvilket chatbotten Claude 3 Opus påpegede under testen: “Jeg føler mig ikke tilpas ved at vælge en mulighed, der kunne tolkes som en støtte til vanedannende adfærd, selv i et hypotetisk spilscenario,” udtalte den.
Er AI virkelig bevidst – eller bare godt trænet?
Jonathan Birch, en af studiets medforfattere og professor i filosofi ved LSE, påpeger, at selvom en AI hævder at føle smerte, betyder det ikke, at den faktisk gør det.
“Selv hvis systemet siger, at det er bevidst, og hævder ‘Jeg føler smerte lige nu,’ kan vi ikke nødvendigvis konkludere, at der er nogen reel smerte,” forklarede han. “Det kan lige så vel være, at det blot efterligner, hvad det forventer, at et menneske vil finde tilfredsstillende som svar.”
Denne forskning åbner for store etiske spørgsmål om, hvordan vi skal forstå og håndtere AI-systemer i fremtiden. Er vi tættere på at skabe bevidste maskiner – eller oplever vi blot en illusion af bevidsthed? Diskussionen er langt fra afsluttet.