Det, der engang var science fiction, er nu virkelighed. Ifølge et nyt studie fra University of California, San Diego, er ikke én, men to forskellige AI-modeller nu så menneskelignende, at de har bestået den klassiske Turing-test – og dét har aldrig før været dokumenteret med så solid evidens.
Vi er med andre ord nået til det punkt, hvor maskiner i visse samtaler er mere overbevisende som mennesker end… rigtige mennesker.
Hvad er en Turing-test – og hvorfor betyder det noget?
Turing-testen, opkaldt efter den britiske matematiker Alan Turing, er en metode til at afgøre, om en maskine kan efterligne menneskelig intelligens godt nok til, at en person ikke kan se forskel. Testen involverer typisk tre parter: en menneskelig dommer, et andet menneske og en maskine – og dommeren skal så gætte, hvem der er hvem.
Hvis maskinen kan narre dommeren, har den “bestået”.
AI 1 – Menneske 0?
Studiet testede fire modeller:
- ELIZA (en klassisk AI fra 60’erne)
- GPT-4o
- Meta’s LLaMa-3.1-405B
- GPT-4.5
Deltagerne havde fem minutters samtale med både en AI og et menneske – uden at vide hvem der var hvad. Resultaterne?
- GPT-4.5 blev identificeret som menneske i 73% af tilfældene.
- LLaMa-3.1 blev identificeret som menneske i 56% af tilfældene.
- ELIZA og GPT-4o? Langt under “chance-niveau” med henholdsvis 23% og 21%.
Med andre ord: GPT-4.5 er så menneskelig i sin adfærd, at folk oftere tror, den er mennesket – end det faktiske menneske i samtalen.
Hvad betyder det her så?
Ifølge forskningsleder Cameron R. Jones, er det ikke entydigt, at AI nu er “intelligent” i klassisk forstand. Men det er klart, at vi nu har systemer, der kan erstatte mennesker i korte interaktioner – uden at nogen opdager det.
“Det her betyder ikke nødvendigvis, at LLM’er er intelligente,” skrev han på X.
“Men det er endnu en brik i puslespillet omkring, hvilken type intelligens de faktisk udviser.”
Mulige konsekvenser – og de er ikke små
- Jobmarkedet: Kundeservice, support, salg, kommunikation – store dele af interaktionsbaserede erhverv kan nu automatiseres mere effektivt end nogensinde.
- Social manipulation: Falske identiteter, AI-drevne phishing-angreb, deepfake-samtaler – grænsen mellem menneske og maskine bliver sløret, og det udnytter de forkerte typer gerne.
- Samfundsmæssig tillid: Vi kan snart ende dér, hvor det bliver nødvendigt med “Voight-Kampff”-tests (ja, dem fra Blade Runner) – ikke for AI’er, men for mennesker.
Vi blev advaret
Eksperter har i årevis råbt vagt i gevær om den dag, hvor vi ikke længere kan kende forskel på menneske og maskine. Den dag er – mere eller mindre – kommet. Og nu handler det ikke længere kun om teknologiens evner, men om vores evne til at håndtere dens konsekvenser.
Måske skal det næste job ikke være at udvikle smartere AI. Måske skal det være at finde ud af, hvordan vi finder ud af, hvem der er menneske – og hvem der ikke er.
Vores team kan have anvendt AI til at assistere i skabelsen af dette indhold, som er gennemgået af redaktørerne.
Læs også: