Den här roboten förutsäger när du kommer att le och ler sedan tillbaka i precis rätt ögonblick

Komediklubbar är mina favorithelger. Ta några vänner, ta några drinkar, och när vi alla får ett skämt, finns det ett magiskt ögonblick när våra ögon möts och vi delar ett fräckt leende.

Att le kan göra främlingar till kära vänner. Det sporrar söta Hollywood-intriger, lagar trasiga relationer och är oupplösligt kopplad till varma, luddiga känslor av glädje.

Åtminstone för folket. För robotar faller deras försök till äkta leenden ofta ner i den kusliga dalen: tillräckligt nära för att likna en människa, men orsakar en touch av oro. Logiskt sett vet du vad de försöker göra. Men din intuition säger dig att något inte står rätt till.

Kanske beror det på vädret. Robotarna är tränade att imitera ansiktsuttrycket av ett leende. Men de vet inte när de ska visa ett leende. När människor ansluter ler vi faktiskt tillsammans utan någon medveten planering. Robotar tar tid att analysera en persons ansiktsuttryck och återskapa ett leende. För en människa får till och med millisekunders fördröjning hårstråna på baksidan av din nacke att resa sig; som i en skräckfilm känns något manipulativt och fel.

Förra veckan visade ett team från Columbia University upp en algoritm som lär robotar att dela ett leende med sina mänskliga operatörer. AI:n analyserar små ansiktsförändringar för att förutsäga operatörernas uttryck cirka 800 millisekunder innan de inträffar, tillräckligt med tid för roboten att le tillbaka.

Teamet tränade ett smidigt robotiskt mänskligt ansikte vid namn Emo för att förutse och matcha uttrycken hos dess mänskliga följeslagare. Med ett blåtonat silikonansikte ser Emo ut som en sci-fi-aliien från 1960. Men han log lätt tillsammans med sin mänskliga följeslagare på samma “emotionella” våglängd.

Humanoida robotar är ofta klumpiga och uppstyltade när de kommunicerar med människor, skrev Dr Rachael Jack från University of Glasgow, som inte var inblandad i studien. ChatGPT och andra fantastiska språkliga algoritmer kan redan få AI-tal att låta mänskligt, men icke-verbal kommunikation är svår att replikera.

Att programmera sociala färdigheter (åtminstone för ansiktsuttryck) i fysiska robotar är ett första steg mot att hjälpa “sociala robotar att gå med i den mänskliga sociala världen”, skrev han.

Under motorhuven

Från robotaxis till roboservrar som ger dig mat och dryck, autonoma robotar kommer allt mer in i våra liv.

I London, New York, München och Seoul strövar autonoma robotar omkring på kaotiska flygplatser och erbjuder kundhjälp: checkar in, hittar en boardinggate eller hämtar borttappat bagage. I Singapore strövar flera två meter höga robotar med 360 graders syn runt en flygplats och pekar ut potentiella säkerhetsproblem. Under pandemin tvingade robothundar till social distansering.

Men robotar kan göra mer. För farliga jobb, som att röja resterna av förstörda hem eller broar, kan de vara banbrytande för räddningsinsatser och öka säkerheten för de första räddningspersonalen. Med en alltmer åldrande världsbefolkning skulle de kunna hjälpa sjuksköterskor att ge stöd till äldre människor.

Dagens humanoida robotar är tecknat bedårande. Men huvudingrediensen för att robotar ska komma in i vår värld är förtroende. När forskare bygger robotar med allt mer mänskliga ansikten vill vi att deras uttryck ska matcha våra förväntningar. Det handlar inte bara om att imitera ett ansiktsuttryck. Ett äkta, delat “ja, jag vet”-leende över ett skrämmande skämt bildar ett band.

Icke-verbal kommunikation (uttryck, handgester, kroppsställningar) är verktyg vi använder för att uttrycka oss själva. Med ChatGPT och annan generativ AI kan maskiner nu “kommunicera via video och verbalt”, berättade studieförfattaren Dr. Hod Lipson Vetenskap.

Men när det kommer till den verkliga världen, där en blick, en blinkning och ett leende kan göra hela skillnaden, är det “en kanal som saknas just nu”, sa Lipson. “Att le vid fel tidpunkt kan vara kontraproduktivt. [If even a few milliseconds too late]kanske känns det som att du tjatar.”

Säg omelett

För att få robotar att utföra icke-verbala handlingar fokuserade teamet på en aspekt: ​​ett gemensamt leende. Tidigare studier har förprogrammerat robotar för att imitera ett leende. Men eftersom de inte är spontana orsakar de en liten men märkbar fördröjning och får leendet att se falskt ut.

“Det finns många saker som går in i icke-verbal kommunikation” som är svåra att kvantifiera, sa Lipson. “Anledningen till att vi måste säga “ost” när vi tar ett foto är för att det är ganska svårt att le när man frågar.”

Den nya studien fokuserade på tid.

Teamet designade en algoritm som förutser en persons leende och får ett mänskligt animatroniskt ansikte att le samtidigt. Kallas Emo, robotansiktet har 26 växlar (tänk konstgjorda muskler) insvept i en stretchig silikon “hud”. Varje kugghjul är fäst vid det huvudsakliga robotskelettet med magneter för att flytta ögonbrynen, ögonen, munnen och halsen. Emos ögon har inbyggda kameror för att registrera hans omgivning och övervaka ögonglobens rörelser och blinkande.

På egen hand kan Emo spåra dina egna ansiktsuttryck. Målet med den nya studien var att hjälpa dig tolka andras känslor. Teamet använde ett trick som alla introverta tonåringar kanske känner till: De bad Emo att titta i spegeln för att lära sig att kontrollera sina växlar och forma ett perfekt ansiktsuttryck, som ett leende. Roboten lärde sig gradvis att matcha sina uttryck med motoriska kommandon, till exempel “höj kinderna”. Teamet tog sedan bort all programmering som kunde sträcka ut ansiktet för mycket och skada robotens silikonhud.

“Resultat…[making] ett robotansikte som kan le var otroligt utmanande ur mekanisk synvinkel. “Det är svårare än att göra en robothand,” sa Lipson. ”Vi är väldigt bra på att upptäcka oäkta leenden. Så vi är väldigt känsliga för det.”

För att motverka den kusliga dalen tränade teamet Emo att förutsäga ansiktsrörelser med hjälp av videor av människor som skrattar, förvånade, rynkar pannan, gråter och gör andra uttryck. Känslor är universella: när du ler kröker din muns hörn till en halvmåne. När du gråter rynkas dina ögonbryn.

AI:n analyserade ansiktsrörelserna för varje scen ruta för ruta. Genom att mäta avstånden mellan ögonen, munnen och andra “ansiktsmärken” hittade han kontrollanta tecken som motsvarar en viss känsla; Till exempel antyder en uppåtgående rörelse i mungipan en antydan till ett leende, medan en nedåtgående rörelse kan orsaka en rynka pannan.

När den väl tränats tog AI mindre än en sekund att känna igen dessa ansiktslandmärken. Genom att aktivera Emo kunde robotens ansikte förutse ett leende baserat på mänskliga interaktioner inom en sekund, så den skulle le med sin deltagare.

För att vara tydlig, AI “känns” inte. Han beter sig snarare som en människa när han skrattar åt en rolig komiker med ett till synes äkta leende.

Ansiktsuttryck är inte de enda signalerna vi lägger märke till när vi interagerar med människor. Subtila huvudrörelser, nickningar, höjda ögonbryn eller handgester lämnar ett avtryck. Oavsett kultur är “ums”, “ahhs” och “likes” (eller deras motsvarigheter) integrerade i vardagliga interaktioner. För nu är Emo som en bebis som lärde sig att le. Han förstår fortfarande inte andra sammanhang.

“Det finns mycket kvar att göra,” sa Lipson. Vi skrapar bara på ytan av icke-verbal kommunikation för AI. Men “om du tycker att interaktion med ChatGPT är intressant, vänta tills dessa saker blir fysiska och alla spel är avstängda.”

Bildkredit: Yuhang Hu, Columbia Engineering via YouTube

Leave a Reply

Your email address will not be published. Required fields are marked *