Robotspecialister från Cambridge University håller på att skapa en robot som kan simulera mänskliga känslor.
Roboten fick namnet Charles. Arbetet med maskinen har pågått i över tre år och dess chef, professor Peter Robinson, anser att hans team har gjort stora framsteg på området för igenkänning och imitation av mänskliga ansiktsuttryck under dessa år.
Personalen vid avdelningen för datavetenskap och teknik undersöker seriöst olika sätt och metoder för att människor och maskiner ska kunna interagera. De tror att känslor hos en robot i mänsklig kommunikation kan ta robotiken till en helt ny nivå.
24 motorer inställda för att arbeta med Charles muskler. Den vet hur man rynkar pannan, rör käken och kontrollerar munnen. Datorn signalerar en viss känsla till roboten, baserat på data från en videokamera. Det tar i genomsnitt 3 sekunder att samla in och överföra information.
Även om robotens författare har gjort stora framsteg i utvecklingen av roboten kan motorerna fortfarande inte konkurrera med mänskliga muskler. Hans ansiktsuttryck är inte naturligt, och människor som har kunnat prata med honom kommenterar hans märkliga grimaser. Detta innebär att de flesta av oss på en undermedveten nivå kan ”läsa” personen i ansiktet för att avgöra om hans uttalanden är uppriktiga eller falska.
Forskarna planerar att fortsätta att arbeta på sin uppfinning för att förbättra dess imitation och göra den så nära en riktig människa som möjligt.
på marknaden och jag undrar hur den kan uppnå en sådan avancerad funktion. Är det genom avancerad programmering eller använder den någon form av sensorer? Skulle jag kunna få mer information om hur denna robot fungerar och om det är möjligt att köpa den? Tack på förhand!
Vad är syftet med en robot som kan visa känslor? Är det för att öka människors samhörighet med robotar eller för att undersöka hur känslor kan påverka interaktionen mellan människa och maskin? Hur kan denna teknologi användas i framtiden?