segunda-feira, 29 de julho de 2013

Brasileiros desenvolvem robôs que entendem emoções

Pesquisadores da Escola Politécnica da USP estão se preparando para participar de um esforço mundial de criar uma nova geração de máquinas capazes de auxiliar os seres humanos em suas tarefas diárias.
Na área emergente da "Computação Afetiva", o objetivo é criar robôs ou agentes de software que possam se lembrar dos aniversários ou mesmo de fazer uma ligação importante, indo além dos assistentes de voz que já existem para celulares e computadores.
O primeiro desafio a ser enfrentado pela equipe será desenvolver um algoritmo capaz de reconhecer a emoção de seres humanos em diferentes meios, como vídeo, áudio e até redes sociais.
Para se ter ideia do tamanho do problema, um estudo recente mostrou que a frase "Eu sou um homem", pode ter 140 significados diferentes, dependendo do contexto, momento e entonação - e este é apenas um dos muitos exemplos.
Inclusão do português
Os professores Fábio Gagliardi Cozman e Marcos Pereira Barretto querem ser um dos pilares do grupo brasileiro que participará no esforço mundial para criar robôs capazes de compreender os humanos e agir de acordo com essa compreensão.
"Não queremos criar extraterrestres ou seres que vão dominar o mundo", brinca Barretto. "Assim como o carro nos ajuda na locomoção e uma máquina de café na preparação de uma bebida saborosa, a ideia é desenvolver seres que possam ser significativamente úteis aos humanos."
Mesmo estando relativamente fora do circuito principal de tecnologia robótica, os pesquisadores acreditam que o Brasil oferece muito espaço para a execução de um projeto científico tão ambicioso.
"A maior parte do trabalho já desenvolvido na área de Computação Afetiva serve para a língua inglesa", explica Barretto. "O trabalho da Poli, e de outros centros de pesquisa brasileiros, concentra-se no português do Brasil e constrói, tijolo por tijolo, as bases para que no futuro, quando a tecnologia alcançar maturidade necessária, nossa língua não fique de fora."
Linguagem das emoções
Já existem dispositivos que analisam no ato qual emoção caracteriza melhor um rosto numa foto. Contudo, essa técnica está longe de ser a ideal.
"A análise de fotos por vezes engana o observador, pois o algoritmo poderia identificar raiva, quando na verdade o fotografado estaria pronunciando uma vogal fechada", afirma Barretto.
O desafio então é ter os mesmos resultados dos algoritmos instantâneos, mas com imagens em movimento, que se aproximam das situações reais.
Os primeiros passos estão sendo dados pelos pesquisadores Diego Cueva e Rafael Gonçalves, membros da equipe.
Gonçalves desenvolveu um programa que percorre trechos de 5 segundos de vídeo e identifica as alterações na musculatura da face que caracterizam sentimentos de alegria ou medo, por exemplo.
De acordo com resultados preliminares, o trabalho consegue identificar quatro tipos de emoção em seres humanos - alegria, tristeza, raiva e medo - com 90% de acerto.
Cueva analisou a conotação que as palavras têm nos diálogos. Pegando trechos de áudio, o engenheiro comparou os dados de um algoritmo de reconhecimento de emoção de voz com informações publicadas no Twitter - "viagem", por exemplo, possui uma conotação mais positiva, enquanto "morte" é mais associada a coisas negativas.
Realismo
Apesar de promissores, os trabalhos desenvolvidos na Poli representam passos iniciais de uma área que tem muito a crescer.
E os pesquisadores brasileiros não entram na tendência ufanista que é muito comum de se ver na área: "Não tenho expectativa de ver esses robôs funcionando no meu tempo de vida", confessa Barretto.
"Simular o comportamento humano, mesmo em situações ridiculamente simples é estupidamente difícil", reconhece ele.
Ainda assim, os pesquisadores seguem confiantes: "Ainda estamos longe do objetivo principal, mas a cada dia descobrimos uma coisa nova," conclui Barretto.

Nenhum comentário: