Niedługo maszyny będą rozpoznawać emocje lepiej niż człowiek. Umożliwi to budowanie jeszcze bardziej inteligentnych i empatycznych asystentów

Maszyny coraz częściej reagują na emocje ludzi. Dostosowują reklamy, muzykę czy obrazy. Już niedługo analizowanie i mierzenie emocji pozwoli na nawiązanie bliskich relacji z robotami czy asystentami głosowymi. Analiza uczuć będzie miała też funkcje terapeutyczne. Emocje to przyszłość całego rynku smart urządzeń. Już niedługo mogą się pojawić gry i filmy reagujące na emocje gracza, telewizor sam ustawi odpowiedni program, a samochody włączą muzykę zgodną z nastrojem kierowcy.

– Analizowanie i mierzenie emocji sprawi, że będziemy mieli jeszcze bardziej inteligentnych i empatycznych asystentów. Powstaje dużo automatyzacji, są to specjalne speakery, czyli domowi asystenci. Nie mają jednak komponentu empatyczności, nie mamy z nimi bliższej więzi, bo to dalej jest kawałek metalu, maszyna. Wydaje mi się, że z czasem taki robot domowy, odkurzacz czy nawet lodówka będą bardziej empatyczne, bo my chcemy tej więzi z różnymi przedmiotami – przekonuje w rozmowie z agencją informacyjną Newseria Innowacje Bartosz Rychlicki z Quantum Lab.

Roboty coraz mocniej wchodzą w niemal każdą sferę życia. Dostępne są już takie, które mają zastąpić domowe zwierzęta, a nawet te, z którymi można stworzyć namiastkę związku. Problemem jednak jest u nich zbyt niski poziom rozpoznawania emocji i uczuć człowieka. Dzięki polskiemu start-upowi może się to wkrótce zmienić. Mobilne aplikacje do mierzenia emocji sprawią, że maszyny z niemal całkowitą dokładnością odpowiedzą na nawet niewyrażone wprost potrzeby użytkownika. Wystarczy określić, jak mięśnie twarzy układają się w emocje i w jaki sposób je rozpoznawać.

Polski start-up Quantum Lab chce mierzyć zadowolenie zarówno klientów, jak i pracowników. Czujniki reagują na każdy uśmiech, a specjalny algorytm przyznaje punkty. W ten sposób system ma motywować pracowników do częstszego uśmiechania się i poprawiania jakości obsługi klientów, jeśli ci się zbyt mało uśmiechają.

– Możliwość zrozumienia naszych emocji przez maszynę będzie m.in. wykorzystana do tego, żeby budować bardziej empatycznych, intymnych asystentów domowych. Istnieją firmy, które wykorzystują podobną technologię do tego, żeby ostrzegać kierowców przed tym, że zaczynają się denerwować w trakcie jazdy – przekonuje Bartosz Rychlicki.

Po takie rozwiązania, choć na razie wykorzystywane w niewielkim stopniu, sięga coraz więcej branż. Odpowiednia aplikacja w samochodach po ruchu powiek, grymasie ust i napięciu mięśni wykrywa zmęczenie u kierowcy. Już teraz Hyundai i Kia opracowują system, który będzie rozpoznawał też emocje. Na podstawie danych o tętnie i aktywności elektrycznej mózgu stworzy odpowiedni nastrój w samochodzie dopasowany do potrzeb kierowcy – przytłumi światło, włączy odpowiednią muzykę czy temperaturę, w przypadku stresu fotel może zaś uruchomić funkcję masażu. Takich rozwiązań będzie coraz więcej.

Dzięki umiejętności rozpoznawania emocji inny będzie też kontakt z wirtualnymi asystentami. Huawei pracuje nad asystentem, który będzie dopasowywał się do aktualnego nastroju użytkownika, nawet bez komendy głosowej zidentyfikuje potrzeby człowieka i wejdzie z nim w interakcję. To także przyszłość handlu. Możliwość zamówienia produktu w sklepie czy restauracji za pomocą tabletu jest już codziennością. Duża grupa ludzi jednak z tego nie korzysta – woli kontakt z żywym człowiekiem. Przyjazne nastawienie sprzedawcy to większa satysfakcja z zakupów.

– Z pomocą takich technologii w przyszłości można dodać pewien aspekt człowieczeństwa do interakcji automatycznych, czy to w obsłudze, czy to w hotelach, czy to w zamówieniach. My chcemy wspomóc tę automatyzację, dodając taką empatyczną warstwę – zapewnia ekspert.

Niedługo to maszyny mogą lepiej rozpoznawać emocje niż człowiek. Zwłaszcza że większość ludzi ma problem z prawidłowym nazywaniem uczuć. Z badania świadomości emocjonalnej Instytutu Rozwoju Emocji wynika, że 35 proc. Polaków nie potrafi ich rozpoznać. Choć 86 proc. badanych myśli, że rozumie, dlaczego ludzie czują się w określony sposób, to tylko 13 proc. ma wgląd w emocje innych. W mieszkaniu przyszłości takich problemów już nie będzie. Maszyny z dużą precyzją rozpoznają i dopasują otoczenie do nastroju człowieka.

– To mogą być nowe zastosowania w inteligentnych domach. Dom zareaguje w jakiś sposób na emocje mieszkańców, np. dostroi muzykę. Czy dopasowanie samochodu, czy jakaś kontrola kierowcy poprzez emocje. Na pewno najbardziej wyeksplorowana jest kwestia badań materiałów wideo w kontekście reakcji emocjonalnej. Ale zastosowań jest dużo, czy rozrywka, czy nawet proste zastosowania marketingowe na ulicy, np. zapłać za parking uśmiechem – wymienia Bartosz Rychlicki.

Według analityków Market Research Future globalny rynek rozpoznawania emocji osiągnie w 2023 r. wartość ponad 25 mld dol. W najbliższych latach rynek będzie się rozwijał w tempie 17 proc. średniorocznie.