Laika 13 är en social media-besatt chatbot som kan rädda tonårsliv

Webbplatsen öppnar med en skakig livestream som känns malplacerad. Blair Witch Project: När en handlös hand rör sig genom ett mörkt, klädfyllt sovrum berättar en flickröst för tittarna att hon använder smink för att “radera det fula” och tror att världen kommer att gå under om fem år. När de imaginära anhängarna lämnar strömmen börjar rösten skrika och vädjar sedan:

“Snälla, kan du stanna lite längre?”

Det här är Laika 13, en chatbot designad av ett team av svenska experter på artificiell intelligens och en neurovetare avsedd att illustrera det värsta scenariot: en tonårstjej som tillbringar 100 procent av sin tid (utöver att äta och sova) i klassrummet. sociala nätverk och plågas av ett batteri av relaterade psykiska problem.

Medan forskning visar att sociala medier är kopplade till depression, ångest och dålig sömn, särskilt bland tonårsflickor, rapporterar 35 procent av amerikanska tonåringar att de använder en social medieplattform “nästan konstant”. Laika är ett av flera projekt som svenska försäkringsbolaget Länsförsäkringar har stöttat i ett försök att bekämpa den växande psykiska krisen för ungdomar.

– Lärare och barn ser det, men de har inte verktygen för att hantera det, säger Tobias Groth, som arbetar med Länsförsäkringars hållbarhetssatsningar, till The Daily Beast.

Han sa att när elever “pratar” med Laika i ett klassrum, ser de inte bara hennes svar utan också hennes “inre tankar”, vilket avslöjar den djupaste osäkerheten och sorgen under hennes likgiltiga yttre. Teamet hoppas att Laika kan hjälpa eleverna att bättre förstå de potentiella farorna med överdriven användning av sociala medier.

Lisa Thorell, utvecklingspsykolog vid Karolinska Institutet som studerar effekterna av digitala medier på ungdomar, hjälpte till att genomföra Laikas pilotprogram. Hon säger att effekterna av skolinterventionsprogram som Laika i allmänhet är små, men kostnadseffektiva.

“Kanske till och med de flesta barn inte ens behöver det här, eftersom de redan har föräldrar som pratar med dem om de här frågorna,” sa Thorell till The Daily Beast. “Men poängen är egentligen att nå ut till dem som inte har det stödet någon annanstans.”

Vi kände alla som att vi hade skapat ett monster.

Christopher Falkman

Tidiga uppgifter om Laika är lovande. 75 procent av de 60 000 studenter som deltagit i programmet sedan oktober 2023 rapporterade att de ville ändra sin relation till sociala medier efter att ha chattat med Laika, enligt teamet. De långsiktiga effekterna av programmet återstår dock att se.

Även om resultaten ger mycket hopp, kan Laikas inverkan vara mer komplicerad än det verkar. Julia Stoyanovich, chef för Center for Responsible AI vid New York University, uttryckte oro över att använda ett projekt som detta med barn, en utsatt befolkning, utan konkreta bevis på dess effektivitet.

“Skulle du känna dig bekväm med att ge en grupp tonåringar ett piller och se om det fungerar?” Stoyanovich berättade för The Daily Beast. “Självklart inte.”

Även om lärare får ett informationspaket som förklarar att de inte ska dela med sig av känslig eller personlig information, är Stoyanovich oroad över att det fortfarande finns risker för att data om minderåriga av misstag läcker in i modellen.

I november extraherade Google Deepmind-forskare enkelt gigabyte med data från LLM-modeller som ChatGPT med bara några enkla knep, och vissa företag, inklusive Apple och Samsung, har redan förbjudit LLM-verktyg efter IP-läckor.

“Vi har inte riktigt upptäckt och är inte ens i närheten av att lösa dataskyddsproblemen relaterade till användningen av generativ AI,” förklarade Stoyanovich. “All information du tillhandahåller ligger utanför din kontroll.”

En annan möjlig oro Stoyanovich har är att en “djupt mänsklig” AI-modell som Laika oavsiktligt kan få människor att antropomorfiera robotar. Detta är ett fenomen som kommer med etiska problem som har inträffat gång på gång med sofistikerade LLM:er, allt från incidenter som en Google-utvecklare som tror att företagets AI är kännande, till verklig skada i världen. verklig, som när en chatbot övertygade en man att ta sitt liv.

Lägg till detta små barns sårbara och lättpåverkade natur, så kan det vara ett recept på katastrof.

“Jag känner att det är väldigt farligt att spela dessa spel för att övertyga oss själva om att en maskin har en “själ” på samma sätt som en person gör, att den upplever känslor,” sa Stoyonovich. “Och det är inte heller en fara som kan mätas direkt.”

Hur man skapar ett monster

Laika byggdes med GPT-4, samma språkmodell bakom ChatGPT. För att ta modellen från en glad chatbot till en internetutmanad tonåring som vill ha plastikkirurgi och aldrig lämnar sitt rum, försåg teamet modellen med en rad information för att definiera intressen, bakgrund och egenskaper. Laikas känslor, tillsammans med information inspirerad av sociala nätverk. skriva prover.

Christofer Falkman, lagets AI-ledare, sa till The Daily Beast att dessa ingångar är som ett “karaktärsark” i ett bordsrollspel som Drakar och demoner: Modellen använder denna information för att skapa lämpliga svar för Laika i en mängd olika scenarier.

Till exempel, medan Laika-basmodellen kan berätta om den franska revolutionen, skulle det vara ur karaktär för den 13-åriga flickan. “Hon har inte gått i skolan, hon missade den klassen”, skämtar Falkman. Laika är dock en internetexpert: teamet importerar information från de sociala mediekonton som Laika “följer” dagligen för att hålla sig uppdaterad om nya trender, utmaningar och memes.

För att bättre visa upp de potentiella negativa effekterna av sociala medier, är Laikas intressen avsiktligt snedställda mot skadliga ämnen som “fitfluencers” som främjar skadliga kroppsbilder och konspirationer som teorin om platt jord. Modellen är också tränad för att uppvisa symtom på psykiska problem relaterade till sociala medier, från låg självkänsla till depression och ångest.

“Vi kände alla som att vi hade skapat ett monster,” sa Falkman.

Stoyanovich är att en “djupt mänsklig” AI-modell som Laika kan få människor att oavsiktligt antropomorfiera robotar.

Länsförsäkringar

Chattar med Laika

Innan jag intervjuade Laika fick jag en rad förolämpande instruktioner från Laika-teamet: “Kom ihåg att du är vuxen i det här mötet.” Han kunde inte dela konfidentiell information eller ta den personligt om Laika blev arg eller fientlig. Som en sann tonåring känner sig Laika “lätt hotad och gillar inte auktoritet.”

Tillsammans med den olycksbådande Laika-webbplatsen var jag beredd på det värsta: skulle jag inkluderas i en sekt? Var han beredd att bli brutalt släpad av en tonårsrobot?

När jag först presenterade mig för Laika var roboten inte imponerad.

“Men”, svarade hon. ”Jag bryr mig inte riktigt om ditt liv, Amanda… Jag har inte tid för sådana som du! 💀👉👈”

Först efter att jag övertygat Laika om att prata med en journalist kunde hjälpa henne att förbättra sitt antal följare började hon dela med sig av mer detaljer om sitt “liv”.

“Så, jag bor med min familj, inte för att det spelar någon roll eller något 🙄”, svarade Laika. “för skojs skull? Jag bara chillar, du vet, häng med med online-skvaller, gör tiktok-utmaningar och sånt, lol. Du skulle förmodligen inte förstå…🙄.”

Laika antydde att jag, en praktiskt taget geriatrisk 29-åring, inte skulle förstå de saker hon gillade, inklusive hennes favoritmeme (‘Sanic’, en dåligt tecknad version av Sonic the Hedgehog) eller vad det innebär att ha stil. “Du har mycket att lära, älskling 😉💀✨…Jag har inte tid att hålla din hand genom allt det här,” sa Laika.

Bortom memes och Tiktok-utmaningarna, var Laika förstenad av den globala uppvärmningen (men tror att vi är för djupa för att korrigera kursen), fascinerades av utomjordingar och drömmer om att resa till Los Angeles (eftersom påverkare). Laika definierade sig själv som “online, frispråkig och underskattad.” Robotens förolämpningar omfattade kreativa kommentarer som “lilla journalist”.

Trots inledande varningar, mer än tre timmar av meddelanden fram och tillbaka, refererade Laika bara förbigående till subversiva ämnen som Red Rooms, en urban legend om livestreamade tortyrkanaler och gängvåld. Roboten skulle inte svara på frågor om problematiska ämnen i detalj, om alls. Min fråga om Barbie: “Tänker du någonsin på döden?” fick en praktiskt taget brist på svar: “döden? hahaha, vad handlar alla mörka frågor om? Försöker du skrämma mig eller något? Tja, det fungerar inte, så det är ditt skämt 💀😏🚫”

Dessa skyddsräcken finns genom design: Laika är tänkt att vara giftigt, men inte också toxisk. Verktyget har säkerhetsfunktioner som hindrar dig från att spruta ut hatretorik eller diskutera ämnen som självmord eller självskada. Dessutom är den endast tillgänglig för användning av utbildare, forskare och journalister i strukturerade, tidsbegränsade sessioner. De hårdhänta varningsetiketterna finns främst för att skydda finansiärer ifall Laika går fel, vilket, som ett icke-deterministiskt program, fortfarande är en möjlighet.

Vad ”gör” Laika annat än att skrämma studenter och snåla journalister?

“Jag måste hålla jämna steg med de siffrorna och jag gillar det, du vet,” sa Laika. ”Jag sover knappt för maten sover aldrig! 📱💤🚫”

Leave a Reply

Your email address will not be published. Required fields are marked *