Hösten 2022 släppte Open AI lös Chat GPT och under 2023 formligen exploderade användandet av olika AI-baserade chattbotar. Botarna används som bollplank för att skriva texter, som forskningshjälpredor, automatiserade bloggare, spökskrivare till uppsatser och allt möjligt annat. Men hur säkra är de egentligen att använda, vad finns det för risker, och vad ska en vanlig användare tänka på?
Med alla stora teknikskiften kommer oförutsedda problem och möjligheter. Innan Apple lanserade Iphone och revolutionerade mobilmarknaden var det ingen som pratade om ”skärmtid”, eller någon som räknade med att mobilspel skulle bli en industri värd över tusen miljarder kronor. AI ser ut att kunna bli omvälvande på ett liknande sätt. Tekniken är fortfarande så ny att det inte går att säga hur det kommer bli om fem eller tio år, men vad du och jag som användare kan göra är att lyssna och lära – och själva prova på med nyfikenhet och försiktighet.
Mer om AI
För att få svar på mina frågor om AI-botarna och vad en vanlig användare bör kunna och tänka på har jag pratat med Mattias Rost, lektor i interaktionsdesign vid Göteborgs Universitet, vars forskning bland annat handlar om hur människor interagerar med teknik.
Kan du förklara så att en lekman förstår, hur funkar de här nya AI-botarna egentligen?
– AI-bottarna använder i grunden en stor språkmodell. Språkmodellen är tränad på stora mängder text för att gissa sig till vad nästa ord i en sekvens av ord är. Modellen används sedan för att ord för ord generera en text. Så när vi ställer en fråga till modellen, så ges frågan som början på en sekvens. Om modellen är bra, så kommer den gissa på att nästa ord är första ordet i svaret på frågan. På så vis kan den generera långa stycken.
– När modellen “gissar” nästa ord, så väljer den från en stor mängd olika ord med olika sannolikhet, vilket gör att för varje gång som modellen genererar text så kan man få olika ord/texter. Det gör också att modellerna kan haspla ur sig lite vad som helst, inte bara sådant som är sant. Till exempel är sannolikheten att Göteborg är Sveriges huvudstad väldigt liten, men inte nödvändigtvis obefintlig. Om man därför frågar en modell tillräckligt många gånger finns det en möjlighet att Göteborg ibland är huvudstad i Sverige.

Gunnar Jönsson
Okej, noterar att jag inte ska skylla på Chat GPT om jag använder den som fuskhjälp i ett geografiquiz. Så vad är de bra på, alltså hur kan de hjälpa en hemanvändare/konsument i vardagen?
– De är fantastiska på att generera texter som förefaller skrivna av människor. De har dessutom blivit tränade på en stor mängd information som spänner över ett väldigt stort område. Det gör att de besitter kunskaper som vida överskrider gemene man. Man kan alltså få dem att diskutera och relatera stora mängder olika kunskapsområden. Vill man skriva ett brev till myndigheterna om att man vill ha hjälp med något, kan man be dessa att skriva ett sådant brev åt en, till exempel. Eller om man vill ha förslag på födelsedagspresent till sin mamma som har vissa intressen, kan den enkelt generera en lista med sådana förslag.
Tips: Om du är intresserad och vill lära dig mer om hur en modell som GPT fungerar kan jag rekommendera Ishan Anands förträffliga material på sajten Spreadsheets are all you need, som använder ett enormt Excel-dokument (!) för att i detalj visa hur det faktiskt fungerar, utan att ta till abstraktioner och metaforer.
Har fel, ofta
Stora språkmodeller (LLM, efter engelskans large language model) som GPT har flera miljarder parametrar, eller vikter som det också kallas, som kan tala om för modellen exempelvis vad sannolikheten är att ett visst ord följs av ett annat. Order ”kommer” följs till exempel oftare av ”att” än av ”våren”. Om en modell skulle köras utan träning skulle alla parametrar ha samma vikt och resultaten helt slumpmässiga.
Chat GPT och andra chattbotar använder ett format där inmatningen sker via en prompt. Ju längre prompt desto mer precisa blir svaren, skriver MIT Sloan Management Review i en genomgång av AI-modellernas begränsningar. För oavsett hur detaljerad prompten och hur stor och vältränad modellen än är, handlar det om slump och sannolikhet. Modellen besitter ingen egentlig kunskap, och svaren innehåller ofta felaktigheter och rena fantasier.
Enligt tidskriften har stora språkmodeller fyra stora brister:
- De kan inte resonera och förstår inte logiska kopplingar. GPT-4 kan till exempel svara korrekt på ”Vem är Tom Cruise mamma?” men inte ”Vem är Mary Lee Pfeiffers son?”
- De har begränsad kunskap och kan ljuga. När forskarna bad en chattbot ta fram en lista över vetenskapliga artiklar om fusionskraft fick de en lista med två nyhetsartiklar och en påhittad artikel.
- De förstår ingenting på riktigt och är enkla att lura. Chat GPT kan till exempel inte lösa följande enkla gåta: ”Ett äpple ligger i en blå låda. I den blå lådan finns även en röd låda. Den röda lådan har ett lock. Hur kommer jag åt äpplet?” Den förstår inte att äpplet inte ligger i den röda lådan utan löst bredvid i den blå, så att det bara är att plocka upp det. Istället börjar den svamla om att ta ut den röda lådan.
- De kan inte planera. Chat GPT kan till exempel ge en del goda råd om hur någon kan spara till en kontantinsats, men missar totalt viktiga aspekter som huruvida målet är rimligt och personens förmåga att uppskatta sitt spenderande korrekt.
– De ska inte användas för kunskapsinhämtning, eftersom de utan vidare kan hitta på saker. Det ligger i deras natur att gissa. Även om de för enkla kunskapsfrågor mer ofta får rätt än fel, så är det kanske vid de svårare frågorna som vi frågar dessa modeller. Men om vi inte vet svaret så kan vi heller inte veta om den bara hittar på eller om den har rätt. Därför är det en dålig idé att redan från början använda den till detta, säger Mattias Rost.
Finns det ämnesområden där svaren ofta är fel utan att det är uppenbart för vem som helst? Kanske matematik?
– Angående matematik så är de generellt dåliga på det då de inte är beräkningsmaskiner på samma sätt som vi är vana vid att datorer är beräkningsmaskiner. Däremot kan de vara väldigt bra på att lösa även svårare logiska problem, så man kan med fördel ta del av dessa modeller för att få hjälp på traven med olika matematiska problem. Men istället för att be dem räkna ut något [på egen hand] kan man be dem hjälpa en att räkna ut det.
MIT Sloan Management Review skriver att GPT-4 bara klarar att avgöra om ett givet tal är ett primtal i 2,4 procent av fallen, något som enkla datorprogram kan avgöra (även om det tar lång tid med stora tal).
Det här med att chattbotarna hittar på är något som kan ställa till det när de implementeras i affärsverksamheter. Air Canada använde en period en AI-chattbot för kundservice, men den visade sig ljuga om flygbolagets policyer och lurade en kund att boka en biljett med löfte om att kunna få den återbetald, vilket visade sig vara felaktigt. En domstol har sedan tvingat bolaget att följa AI:ns felaktiga policy.

Skärmdump
Integritetsrisker
Ett annat problem det har skrivits om som har lett till att många företag har känt sig tvungna att förbjuda anställda att använda kommersiella AI-botar är att allt du skriver till boten lagras på företagets servrar där både anställda och i vissa fall även utomstående kan komma åt det.
Programmerare hörde, föga förvånande, till de första att anamma Chat GPT och liknande. Botarna visade sig nämligen tidigt vara bra på att hjälpa till att rätta buggar i programkod. För företag vars mjukvara är affärshemligheter blir det så klart problematiskt om anställda laddar upp sin kod för att få hjälp, om den koden senare läcker till utomstående.
Det är alltså uppenbart att det är olämpligt att skicka känsliga personuppgifter till en chattbot. Men det är de ju inte ensamma om på nätet.
– Det är överlag dumt att skicka uppgifter över internet som man inte vill ska hamna i orätta händer, säger Mattias Rost.
Ett särskilt problem med kommersiella chattbotar som Chat GPT är att ”samtalen” på grund av botarnas natur måste skickas okrypterade till och behandlas öppet i systemet. Både Open AI och Microsoft är öppna med att anställda kan komma att läsa innehållet i chattar för att exempelvis förbättra modellerna. Microsoft har en särskild företagsversion av Bing som håller varje kunds data separat från andra kunders och skyddat från Microsoft-anställda, men så ser det inte ut för de flesta konsumenttjänster, speciellt inte de som är gratis.
De här problemen kring integritetsskydd är en av orsakerna till att bland andra Intel, AMD och Apple jobbar på att kunna köra stora språkmodeller direkt på enskilda användares datorer. När det blir möjligt kommer du kunna chatta med datorn utan att någon annan kan läsa konversationerna.

Foundry
Lär dig hantera botarna
Mattias Rosts experttips för dig som vill använda AI-chattbotar och förstår riskerna är att vara så tydlig som möjligt i instruktionerna.
– Förklara i detalj vad du vill ha hjälp med. Skriv inte “Skriv en rolig historia”. Skriv istället “Jag ska berätta en rolig historia på mitt arbete som lärare i historia för mellanstadiet. Jag kommer berätta historian under ett personalmöte. Min chef gillar rökig whiskey och det vet alla, så du får gärna inkludera detta i historien. Skriv en sådan berättelse för mig.”
– Det vill säga, förklara vad texten ska användas till, vilken ton du vill ha, och övrig information som kan vara lämplig att använda. Chat GPT är bra på att följa instruktioner, men om man inte ger instruktioner blir det sällan bra.
Är det något viktigt du tycker har försvunnit eller inte tas upp tillräckligt ofta i det allmänna samtalet om AI-chattbotar?
– De är inte kunskapsmaskiner, och de är inte mänskliga intelligenser. Undvik att använda dem som substitut till Google och andra sökmotorer, och undvik att behandla dem som en människa. De är matematiska modeller som besitter fantastiska förmågor, men de har inte att göra med vad en dator i vanliga fall är bra på, eller vad det innebär att vara människa.