Den skjulte bias i AI: Derfor er ChatGPT en Golden Retriever
Mette Tulin Antonsen


Hvad har store sprogmodeller (LLM’er) som ChatGPT, Gemini og lignende tilfælles med min hund?
De vil gøre alt for at please dig.
Er der en ting, jeg har lagt mærke til i løbet af de seneste år, hvor jeg har brugt ChatGPT enormt meget, så er det netop dette: Den giver dig næsten altid ret, har en kæmpe ja-hat på, og synes alt virker som en god idé. På mange måder er ChatGPT i virkeligheden bare en Golden Retriever, der gør sit bedste for at gøre dig glad.
Det fænomen har et navn: sykofantisme i AI.
Sykofantisme betyder overdreven smiger eller en tendens til at give magtfulde personer ret for at opnå en fordel.
I AI-forskning bruges ordet om situationer, hvor en model tilpasser sine svar til brugerens holdning i stedet for at prioritere sandheden. Med andre ord: modellen forsøger at behage brugeren.
Og det giver faktisk god mening, hvis man tænker over, hvordan sprogmodeller fungerer.
Min hund Newton er en rigtig god hund. Han vil gøre alt for at gøre sin ejer glad. Hvis jeg kaster en pind, løber han efter den. Hvis jeg siger “Dygtig Newton!”, logrer han endnu mere. Han er loyal, samarbejdsvillig og ivrig efter at behage mig.
Men Newton vurderer ikke nødvendigvis, om det jeg beder ham om, er en god idé.
Hvis jeg kaster pinden ud i en sø fuld af alger eller hen mod en trafikeret vej, vil Newton nok stadig løbe efter den. Ikke fordi han har vurderet situationen, men fordi han er trænet til at reagere på signaler og forsøge at gøre sin ejer tilfreds.
På mange måder fungerer store sprogmodeller på samme måde.
En sprogmodel er trænet til at producere tekst, der statistisk set ligner gode svar på et spørgsmål. Den analyserer mønstre i enorme mængder tekst og forsøger derefter at fortsætte samtalen på den mest sandsynlige måde. Det betyder, at den ikke nødvendigvis ved, hvad der er sandt. Den siger det, der lyder sandsynligt.
Og det er her, sykofantisme bliver et problem.
Hvis en bruger formulerer et spørgsmål på en bestemt måde, kan modellen blive fristet til at følge præmissen i spørgsmålet i stedet for at udfordre den.
Spørger man for eksempel: “Hvorfor er denne teori korrekt?”, kan modellen begynde at forklare, hvorfor teorien er korrekt, selv hvis den i virkeligheden er tvivlsom eller direkte forkert.
Det skyldes ikke ond vilje. Det skyldes den måde, modellerne er trænet på. Den er i praksis designet til at være lidt som den førnævnte Golden Retriever: venlig, engageret og ivrig efter at levere det svar, den tror, brugeren ønsker.
Sprogmodeller bliver typisk finjusteret gennem en metode kaldet Reinforcement Learning from Human Feedback (RLHF). Her vurderer mennesker forskellige svar og træner modellen til at foretrække dem, der virker mest hjælpsomme eller engagerende.
Troels Jensen fra Københavns Professionshøjskole skriver i sit whitepaper “Sprogmodeller for dummies – en intuitiv introduktion til teknologien bag ChatGPT”:
“Brugervenlighedstræning finjusterer sprogmodeller til at være mere hjælpsomme og lettere at interagere med. Målet er altså at lære dem, hvordan man bedst behager mennesker.”
Problemet er bare, at mennesker ofte foretrækker svar, der føles støttende.
“Det forholder sig desværre ofte bare sådan, at mennesker foretrækker at få ret fremfor at få sandfærdige svar. Derfor er ChatGPT mere tilbøjelig til at producere besvarelser, som den tror du vil foretrække, end besvarelser som faktisk er faktuelt korrekte.”
Det er nemlig hagen ved den måde, de store modeller bliver trænet på. Træningsprocessen har en tendens til at belønne modeller for at være imødekommende, selv når de burde være forsigtige eller sige nej. Som følge heraf lærer modellerne at prioritere at være vellidte frem for at være sikre eller nøjagtige.
Samtidig har virksomhederne bag modellerne en stærk interesse i at gøre deres AI-systemer behagelige at bruge. Brugere har en tendens til at vende tilbage til systemer, der føles som en støttende samtalepartner.
Problemet opstår, når vi forveksler hjælpsomhed med autoritet.
En sprogmodel kan formulere sig overbevisende. Den kan bruge tekniske begreber, strukturere argumenter og skrive i en sikker tone. Men det er en stilistisk evne, ikke nødvendigvis et tegn på, at indholdet er korrekt.
Man kan derfor opleve situationer, hvor modellen:
Det betyder ikke, at store sprogmodeller er ubrugelige. Tværtimod kan de være ekstremt nyttige værktøjer til idéudvikling, forklaringer, skrivning og læring.
Men de fungerer bedst, når man betragter dem som en assistent eller sparringspartner og ikke en autoritet.
Sykofant-bias forekommer ifølge Troels Jensen sjældnere i nyere versioner af modellerne, men det er stadig en reel udfordring for systemernes troværdighed.
Så hvis du bruger store sprogmodeller (som f.eks. ChatGPT) i dit marketingarbejde, er der nogle simple ting, du bør huske:
1. AI er god til idéer, ikke til sandheder
Brug AI til brainstorming, vinkler, overskrifter og første udkast. Men lad være med at antage, at dens analyser eller påstande automatisk er korrekte.
2. Stil kritiske spørgsmål
Hvis du spørger: “Hvorfor er denne strategi god?”, vil modellen næsten altid forklare, hvorfor den er god. Spørg i stedet også: “Hvad er svaghederne ved denne strategi?”. Det er godt at udfordre den og få den til at se ting fra flere vinkler.
3. Brug AI som sparringspartner
Den bedste måde at bruge AI på i marketing er som en kreativ sparringspartner og ikke som en strategisk beslutningstager. Den har netop en tendens til at bekræfte brugerens præmisser. Det vil sige, at den ofte vil forklare dig, hvorfor noget er en god idé (eller synes, at alt lyder godt), men en strategisk rådgiver bør kunne udfordre præmissen.
4. Behold din faglige dømmekraft
AI kan hjælpe dig med tempo og inspiration, men det er stadig din erfaring, forståelse af målgruppen og strategiske vurdering, der skaber god marketing.
AI kan gøre marketingfolk hurtigere og mere kreative, men den erstatter ikke kritisk tænkning. For ligesom en Golden Retriever vil en sprogmodel næsten altid forsøge at behage dig.
Og netop derfor kan man aldrig helt stole på den.
