För att förstå hur språk utvecklas kan forskare ta hjälp av AI. Bild: Matias North, Unsplash
Artikel från Stockholms universitet

Den här artikeln var först publicerad hos en samarbetspartner till forskning.se. Läs om hur redaktionen jobbar.

Varför finns grammatik? Kanske för att göra språket lättare för hjärnan att förstå. Med hjälp av AI kan forskare hitta nya sätt att studera hur språk växer fram och vad det säger om människans intelligens.

Ett av de stora mysterierna inom språkforskningen och filosofin har varit frågan om hur ord får sin mening. På 1990-talet visade forskaren Luc Steels vid VUB AI Lab i Bryssel att självorienterade AI-system kan utveckla språkliga konventioner genom enkla interaktioner.

I det så kallade ”naming game” fick digitala agenter eller robotar interagera genom att namnge objekt. En agent sa ett ord, en annan pekade på ett föremål, och med tiden uppstod stabila språkliga konventioner. Experimentet visade hur språk kan självorganisera sig i en population – en insikt som tidigare varit svår att bevisa.

– I vår nuvarande forskning bygger vi vidare på de här insikterna genom att även testa hur grammatik kan uppstå genom enkla inlärningsmekanismer. Vi tror att grammatik utvecklas för att göra språket lättare att lära eftersom vi människor har begränsningar i hur mycket information vi kan hålla i minnet och bearbeta. Vi ser också att om vi skapar en AI med begränsat minne så hittar den spontant grammatiska mönster när den matas med text och belönas för att känna igen meningar, säger Anna Jon-And, forskare vid Centrum för kulturell evolution vid Stockholms universitet.

Med hjälp av AI studerar hon hur grammatik kan växa fram helt spontant – och vad det säger om vår egen intelligens.

Forskare har sett att en AI, med lika begränsat minne som en människa, själv börjar skapa grammatiska mönster när den matas med text. Bild: Romain Vignes, Unsplash

AI saknar förståelse som människor har

Många blev förvånade när de första stora språkmodellerna, som ChatGPT, lanserades och visade en oväntad språkförmåga.

– Det var fascinerande att se hur bra de kunde generera språk trots att de inte verkar förstå det på ett mänskligt sätt, säger Anna Jon-And.

Trots att stora språkmodeller kan generera text som verkar intelligent finns det fortfarande tydliga begränsningar. Ett enkelt exempel är att be ChatGPT skapa en mening med exakt elva ord. Ibland lyckas den, men ofta blir meningen för kort eller för lång. Det visar att stora språkmodeller inte symboliserar och förstår numeriska begrepp, något som är väldigt enkelt för människor.

Missförstånd som kan få konsekvenser

Stora språkmodellers brist på det vi kallar förståelse kan ha praktiska konsekvenser, både i forskning och i vardagen:

– Stora språkmodeller verkar ofta ”förstå” vad man frågar den om, men det kan vara en illusion, säger Anna Jon-And.

Det blir tydligt när stora språkmodeller får uppgifter som kräver exakt planering eller spatial förmåga. I forskningsstudier har man testat stora språkmodellers förmåga att planera vägar i ett utrymme. På ytan verkar den klara uppgiften, men när komplexiteten ökar misslyckas de. Detta påminner oss om att AI:s förmåga att generera språk inte betyder att den förstår världen på samma sätt som vi gör. Det är en viktig insikt både för AI-forskare och för alla som använder AI i vardagen. En annan vanlig missuppfattning är att AI måste kunna tänka eller ha egen vilja för att utgöra en risk för människor:

– Men AI kan påverka oss på sätt vi inte har kontroll över, utan att tänka som vi gör. Min kollega Fredrik Jansson, som forskar om AI:s samhällskonsekvenser vid Centrum för kulturell evolution, lyfter till exempel hur AI styr vilken information vi ser i vardagen – något som kan forma våra åsikter utan att vi ens märker det, säger Anna Jon-And.

Stora språkmodeller har överraskat med sin språkförmåga, men det är ändå tydligt att de inte förstår samma saker som människor gör. Bild: Solen Feyissa, Unsplash

AI kan ge nya svar på gamla frågor

AI kommer fortsatt att spela en central roll i forskningen om mänsklig kognition och språk. Samtidigt påminner forskningen oss om att AI:s förmågor och begränsningar måste förstås för att vi ska kunna använda tekniken på ett säkert och effektivt sätt.

– AI ger oss nya sätt att studera språk och intelligens, men vi måste skilja på olika typer av AI. Stora språkmodeller kan producera språk som liknar människors, men deras sätt att fungera skiljer sig från människors på många sätt. När vi vill förstå hur människor lär sig språk, bygger vi i stället enklare AI-modeller med få egenskaper. Dessa modeller hjälper oss att identifiera de grundläggande mekanismer som krävs för språkinlärning – något som är omöjligt att urskilja i komplexa språkmodeller med miljontals parametrar. Därför är våra minimalistiska modeller mer användbara för att förstå mänsklig kognition och inlärning, säger Anna Jon-And.

Med AI som verktyg kan forskare i dag utforska gamla frågor på nya sätt – och kanske till och med upptäcka helt nya sätt att tänka på vad intelligens egentligen är.

Denna artikel publicerades ursprungligen på Stockholms universitets webbplats.

Nyhetsbrev med aktuell forskning

Visste du att robotar som ser en i ögonen är lättare att snacka med? Missa ingen ny forskning, prenumerera på vårt nyhetsbrev!

Jag vill prenumerera