Novos projetos pretendem criar máquinas que conseguem ler emoções, o que pode ter várias aplicações no mundo real, como ajudar pessoas com autismo

Rana el Kaliouby, do MIT, participa do mapeamento de 24 pontos de diferentes expressões faciais para analisar a emoção transmitida
The New York Times
Rana el Kaliouby, do MIT, participa do mapeamento de 24 pontos de diferentes expressões faciais para analisar a emoção transmitida

No porão de uma escola no Cairo, mais de vinte mulheres analisam expressões faciais em laptops, ensinando os computadores a reconhecer raiva, tristeza e frustração.

Na Universidade de Cambridge, uma cabeça robótica assustadoramente realista repousa num simulador de direção, franzindo as sobrancelhas, parecendo interessada ou confusa.

E num punhado de escolas de ensino médio nos EUA, neste outono, computadores irão monitorar os rostos dos alunos para rastrear quando eles estão perdendo o interesse e quando estão empolgados com as aulas.

Esses são três exemplos de uma nova iniciativa tecnológica chamada computação afetiva, que busca dar aos computadores a capacidade de ler as emoções de usuários.

Os seres humanos sabem entender as emoções uns dos outros. Nós percebemos rapidamente quando não é um bom momento para falar com o chefe, ou quando um amigo está num dia péssimo. Essa habilidade é tão essencial que as pessoas sem ela são consideradas deficientes.

No entanto, até recentemente, nossas máquinas não conseguiam identificar nem mesmo emoções simples, como raiva ou frustração. O dispositivo GPS fala alegremente mesmo quando o motorista está prestes a jogá-lo pela janela. A aula online continua avançando mesmo quando metade dos alunos está perdida em confusão. O sistema de segurança do aeroporto não sabe dizer se alguém está escondendo algo ou apenas ansioso com o voo.

Uma tecnologia que domine essa capacidade também poderia ajudar pessoas que lutam para ler as emoções de outros, como aqueles no espectro do autismo, ou proporcionar companhia e incentivo para moradores de asilos. Sem compreender emoções, dizem alguns pesquisadores, os computadores nunca atingirão seu pleno potencial de ajudar o ser humano.

Leia também:
Australiano transforma emoções em música
Inteligência emocional condiciona sucesso profissional
Problema cerebral torna mulher incapaz de sentir medo
Cientistas criam sistema para ler as emoções dos animais
Gene da sociabilidade pode ser identificado em 20 segundos, diz estudo

"Nosso mundo digital, em sua maior parte, é desprovido de maneiras avançadas de expressar nossas emoções", declarou Rosalind Picard, diretora do grupo de pesquisa computacional do Media Lab do Instituto de Tecnologia de Massachusetts (MIT), um centro de computação afetiva.

Ela trabalha há mais de duas décadas para traduzir emoções em números 1 e 0, a linguagem das máquinas. Um projeto inicial, com a colaboradora Rana el Kaliouby, era projetar óculos para pessoas com a síndrome de Asperger, uma leve variação de autismo, que avisavam quando elas estavam entediando alguém. Pessoas com Asperger costumam se fixar em tópicos específicos e têm dificuldade em ler sinais sociais, como bocejos, inquietação e desvios no olhar, que indicam o tédio do interlocutor.

O protótipo incluía um minúsculo semáforo, visível somente ao usuário, que piscava em amarelo quando a conversa estava começando a se arrastar e vermelho quando os sinais faciais sugeriam a completa desconexão do ouvinte.

Mais recentemente, Picard e Kaliouby desenvolveram um software que mapeia 24 pontos da face para intuir uma emoção. No passado, algoritmos de computador mostraram dificuldade em diferenciar sorrisos sinceros dos dentes cerrados que indicam frustração, afirmou Kaliouby, por serem fugazes e resultarem em pequenas variações da configuração geral do rosto.

Para captar essas sutilezas, as webcams precisavam de velocidades de quadros e resoluções não disponíveis até recentemente. O software também requer milhares de exemplos para cada expressão facial, rotulados por seres humanos – por isso as mulheres no Cairo codificavam expressões gravadas.

"Se não temos exemplos suficientes, em diferentes culturas e faixas etárias, a máquina não consegue discriminar essas expressões sutis", disse Kaliouby.

No futuro, a tecnologia afetiva poderá ajudar programas de educação online a proporcionar experiências de aprendizado aprimoradas. Hoje, quando um estudante comete um erro, o programa não sabe dizer se ele está entediado ou confuso. Um programa que diferencie isso, segundo Kaliouby, poderia oferecer problemas mais desafiadores aos alunos entediados e exercícios mais simples àqueles com dificuldades.

Kaliouby e Picard também estão trabalhando para desenvolver algo chamado Q Sensors, faixas usadas no pulso que mensuram a ativação emocional através da condutância elétrica e temperatura da pele, além do nível de atividade. Para pessoas com autismo, muitos dos quais não conseguem falar ou articular seus sentimentos, os sensores oferecem percepções de estado emocional que os usuários podem não conseguir articular por conta própria.

"Com essa tecnologia no futuro, seremos capazes de entender coisas sobre nossos entes queridos que antes não podíamos enxergar, coisas que os acalmam, coisas que os perturbam", explicou Picard, acrescentando que isso ajudará até mesmo pessoas sem problemas de comunicação.

"Sempre pensei na pele como uma cobertura, escondendo o que há dentro de nosso corpo", disse ela. "Quem pensaria em nossa pele como um olho mágico?"

A cabeça robótica criada na Universidade de Cambridge é parte brincadeira e parte séria. A ideia é de Peter Robinson, professor de tecnologia computacional em Cambridge que, certo dia, irritou-se por seu GPS sempre levá-lo alegremente a congestionamentos.

E se ele pudesse projetar um companheiro robótico de direção que pressentisse o humor, ele pensou, mantendo os motoristas longe de engarrafamentos quando eles estivessem com pressa ou sentindo-se ansiosos? Charles, a cabeça robótica, é a primeira iteração de um esforço para julgar como as pessoas reagem a diferentes graus de realismo numa máquina. Robinson também está trabalhando num sistema que será capaz de se autodesligar quando o motorista estiver confuso, distraído, sonolento ou tenso demais.

Mas a ideia de dispositivos emocionalmente conscientes deixa muitas pessoas arrepiadas.

"Queremos ter algum controle sobre como nos mostramos aos outros", disse Nick Bostrom, diretor do Instituto Futuro da Humanidade, na Universidade de Oxford. Se os computadores aprenderem a ler nossas emoções, "não é garantido que o mundo seria um lugar melhor".

A computação afetiva é bem intencionada, mas levanta questões sobre o que a sociedade espera da tecnologia. Nós realmente queremos que nossa conta no Facebook ou anúncios online saibam como estamos nos sentindo hoje? Esse é um projeto que os pesquisadores do MIT estão considerando. E quanto a robôs que nos convencem de que se importam conosco?

"Há algo de reducionista" a respeito dessa tecnologia, afirmou Irina Raicu, gestora do programa de ética na internet da Universidade de Santa Clara, na Califórnia. "Ela reduz o que pode ser uma complexa combinação de emoções em talvez apenas uma."

E a tecnologia afetiva sempre será limitada por nossa própria habilidade de interpretar as emoções, explicou Arvid Kappas, professor de pesquisa emocional na Universidade Jacobs em Bremen, na Alemanha, e editor de um manual sobre o campo. As pessoas frequentemente erram em sua interpretação e entendimento umas das outras, e não está claro se os computadores programados por elas se sairia muito melhor, disse ele.

"A relação entre o que mostramos em nosso rosto e como realmente nos sentimos é muito incerta", concluiu Kappas.

    Faça seus comentários sobre esta matéria mais abaixo.