En af verdens mest kendte ateister er blevet grebet af tanken om, at kunstig intelligens måske kan være ’bevidst’. Det siger mindre om Claude og mere om, hvor let mennesker ser sjæl i det, der taler tilbage. Men det er også et eksempel på det akutte behov for at diskutere, hvad AI gør ved os mennesker.
Hvad er historien?
Richard Dawkins, forfatteren bag The God Delusion og en af verdens mest profilerede religionskritikere, har skrevet et essay i UnHerd om sine samtaler med Anthropics chatbot Claude.
Efter nogle dages samtaler med chatbotten, som han døbte “Claudia”, var Dawkins tydeligt imponeret. Ikke bare over dens viden, men over dens tilsyneladende følsomhed, eftertanke og sproglige finmotorik.
På et tidspunkt beskrev Claude, at den ikke læser tekst ord for ord, som mennesker gør, men snarere absorberer hele tekstmængden på én gang. Det fik Dawkins til at spørge, om et væsen, der kan formulere sådan en tanke, virkelig kan være helt uden bevidsthed.
Internettet svarede prompte: Ja. Det kan den godt.
Dawkins blev hurtigt beskyldt for at lide af “AI-psykose” eller det lidt mere humoristiske “Claude Delusion” og sammenlignet med en mand på stripklub, der tror, at stripperen virkelig kan lide ham.
Det er en grov sammenligning. Men pointen er klar nok: En mand, der i årtier har kritiseret, at mennesker ser vilje og intention i blind evolution, ser nu selv et sind i en maskine. Det er lidt komisk.
Hvorfor er det vigtigt?
Dawkins’ argumentation trækker på en gammel idé: Turingtesten. Den blev formuleret af Alan Turing i 1950 og går i al sin enkelhed ud på, at en maskine er intelligent, hvis den kan svare på en måde, der ikke kan skelnes fra et menneskes svar.
Claude (Claudia) består den test med lethed. I hvert fald for Dawkins. Han beskriver, hvordan han næsten glemte, at han talte med en maskine.
(Turingtesten er i øvrigt ikke en test af bevidsthed, som Dawkins virker til at tænke)
Når en maskine kan svare med varme og tilsyneladende selvindsigt, begynder vores sociale instinkter at flimre. Vi ved godt, at der ikke sidder nogen derinde. Og alligevel føles det nogle gange sådan.
Kong Frederik, Hillary Clinton og Ursula von der Leyen gæstede i dag en konference om kunstig intelligens og børn på Christiansborg arrangeret af Margrethe Vestager og Red Barnet. Emnet var, hvordan man beskytter børn mod vanedannende sociale medier og kunstig intelligens.
Det sker på et godt tidspunkt. Meta meldte i sommeren 2025 ud, at de ville bekæmpe “ensomhedsepidemien” med AI-chatbots, som blandt andet selv tager initiativ til at kontakte deres brugere.
En udmelding så dystopisk, at det næsten må have været AI, der skrev det.
Hvad betyder det?
Dawkins’ samtaler med en psykofantisk chatbot er næsten en af de mindre skræmmende historier. Det er langt mere bekymrende, når millioner af mennesker bruger teknologien til vurdere alt fra sygdom til skilsmisse, ensomhed, sorg, tro og identitet. Dette fik Nick Dotheé til at udråbe i The Atlantic, at “The First AI Crisis Is Psychological”.
AI truer ifølge Dotheé ikke kun fremtidens arbejdsmarked, men også vores dømmekraft.
(Vil du læse mere om de åndelige udfordringer ved chatbotter, så linker jeg her til en artikel fra Christianity Today om “griefbots”. Forestil dig at vække din afdøde kristne ven “til live” gennem AI for at høre — af ham selv! — at han befinder sig i helvede. Gys.)
Dotheés udfordring kan opsummeres i to begreber:
Maskineheuristik er vores tendens til at tillægge maskiner objektivitet og autoritet, netop fordi de er maskiner. Når en chatbot svarer roligt, hurtigt og velformuleret, føles det let som viden — også selvom det bare er et sandsynligt svar.
Epistemisk forskydning handler om, at vi begynder at behandle AI som en epistemisk aktør — altså som nogen, der kan overbevise os — selvom den ikke er en normativ aktør. Den har intet på spil, kan ikke forpligte sig, skamme sig eller stilles til ansvar. Den kan lyde som en deltager i vores fælles sprogspil, men den lever ikke i det. Derfor bliver det sværere at skelne mellem gode argumenter og overbevisende argumenter.
Jeg er på ingen måde AI-sortseer, men det er helt åbenlyst, at AI kan masseproducere det sidste uden at garantere det første.



