A Inteligência Artificial Nunca Entenderá Emoções Humanas?

Como você se sentiria em relação à terapia de um robô? Máquinas emocionalmente inteligentes podem não estar tão distantes quanto parece. Nas últimas décadas, a inteligência artificial (IA) tem se tornado cada vez melhor na leitura de reações emocionais em humanos.

Mas ler não é o mesmo que entender. Se a IA não pode experimentar as emoções, será que elas podem verdadeiramente nos entender? E, se não, existe o risco de atribuir propriedades de robôs que eles não possuem?

A geração mais recente de IAs surgiu graças a um aumento nos dados disponíveis para os computadores aprenderem, bem como ao seu poder de processamento aprimorado. Essas máquinas são cada vez mais competitivas em tarefas que sempre foram percebidas como humanas.

AI pode agora, entre outras coisas, reconhecer rostos, transformar desenhos de rosto em fotos, reconhecer discurso e jogar Ir.

Identificando criminosos

Recentemente, pesquisadores desenvolveram uma IA que é capaz de dizer se uma pessoa é um criminoso apenas observando suas características faciais. O sistema foi avaliado usando um banco de dados de fotos de identificação chinesas e os resultados são de cair o queixo. A AI categorizou erroneamente inocentes como criminosos em apenas cerca de 6% dos casos, enquanto conseguiu identificar com sucesso cerca de 83% dos criminosos. Isso leva a uma incrível precisão geral de quase 90%.

O sistema é baseado em uma abordagem chamada "aprendizagem profunda", que tem obtido sucesso em tarefas perceptivas, como o reconhecimento facial. Aqui, o aprendizado profundo combinado com um "modelo de rotação de face" permite que o AI verifique se duas fotos faciais representam o mesmo indivíduo, mesmo que a iluminação ou o ângulo mude entre as fotos.


innerself assinar gráfico


Aprendizado profundo constrói uma "rede neural", vagamente modelada no cérebro humano. Este é composto por centenas de milhares de neurônios organizados em diferentes camadas. Cada camada transforma a entrada, por exemplo, uma imagem facial, em um nível mais alto de abstração, como um conjunto de arestas em determinadas orientações e locais. Isso enfatiza automaticamente os recursos mais relevantes para a execução de uma determinada tarefa.

Dado o sucesso da aprendizagem profunda, não é surpreendente que redes neurais artificiais possam distinguir criminosos de não-criminosos - se realmente existem características faciais que podem discriminar entre elas. A pesquisa sugere que existem três. Um é o ângulo entre a ponta do nariz e os cantos da boca, que foi em média 19.6% menor para os criminosos. A curvatura do lábio superior também foi em média 23.4% maior para criminosos, enquanto a distância entre os cantos internos dos olhos foi em média 5.6% mais estreito.

À primeira vista, esta análise parece sugerir que vistas desatualizadas que os criminosos podem ser identificados por atributos físicos não são totalmente errados. No entanto, pode não ser a história completa. É interessante que duas das características mais relevantes estejam relacionadas aos lábios, que são nossas características faciais mais expressivas. As fotos de identificação, como as usadas no estudo, precisam ter expressão facial neutra, mas pode ser que a IA tenha encontrado emoções ocultas nessas fotos. Estes podem ser tão pequenos que os humanos poderiam ter lutado para notá-los.

É difícil resistir à tentação de ver as fotos mostradas no artigo, que ainda não foram revisadas. De fato, um olhar cuidadoso revela um leve sorriso nas fotos de não-criminosos - Veja por si mesmo. Mas apenas algumas fotos de amostra estão disponíveis, portanto não podemos generalizar nossas conclusões para o banco de dados inteiro.

O poder da computação afetiva

Esta não seria a primeira vez que um computador seria capaz de reconhecer as emoções humanas. O chamado campo de “computação afetiva”Existe há vários anos. Argumenta-se que, se quisermos viver confortavelmente e interagir com robôs, essas máquinas devem ser capazes de entender e reagir apropriadamente às emoções humanas. Há muito trabalho na área e as possibilidades são vastas.

Por exemplo, os pesquisadores usaram a análise facial para estudantes em dificuldades em sessões de tutoria por computador. A IA foi treinada para reconhecer diferentes níveis de envolvimento e frustração, de modo que o sistema pudesse saber quando os alunos estavam achando o trabalho muito fácil ou muito difícil. Essa tecnologia pode ser útil para melhorar a experiência de aprendizado em plataformas on-line.

AI também tem sido usado para detectar emoções com base no som da nossa voz por uma empresa chamada Além do verbal. Eles produziram softwares que analisam a modulação de voz e buscam padrões específicos na maneira como as pessoas falam. A empresa afirma ser capaz de identificar corretamente emoções com precisão de 80%. No futuro, esse tipo de tecnologia pode, por exemplo, ajudar indivíduos autistas a identificar emoções.

A Sony está até tentando desenvolver um robô capaz de formar laços emocionais com pessoas. Não há muita informação sobre como eles pretendem alcançar isso, ou o que exatamente o robô fará. No entanto, eles mencionam que eles procuram “integrar hardware e serviços para fornecer experiências emocionalmente atraentes".

Uma IA emocionalmente inteligente tem vários benefícios em potencial, seja para dar a alguém um companheiro ou para nos ajudar a realizar certas tarefas - variando de interrogatório criminal a terapia da fala.

Mas também existem problemas e riscos éticos envolvidos. É certo deixar um paciente com demência confiar em um companheiro de IA e acreditar que ele tem uma vida emocional quando não o faz? E você pode condenar uma pessoa com base em uma IA que as classifique como culpadas? Claramente não. Em vez disso, uma vez que um sistema como este é melhorado e totalmente avaliado, um uso menos prejudicial e potencialmente útil pode ser o de desencadear mais checagens em indivíduos considerados “suspeitos” pela IA.

Então, o que devemos esperar da IA ​​daqui para frente? Tópicos subjetivos como emoções e sentimento ainda são difíceis de aprender, em parte porque a IA pode não ter acesso a dados suficientes para analisá-los objetivamente. Por exemplo, poderia a AI entender o sarcasmo? Uma sentença dada pode ser sarcástica quando falada em um contexto, mas não em outro.

No entanto, a quantidade de dados e poder de processamento continua a crescer. Assim, com algumas exceções, a IA pode ser capaz de combinar seres humanos no reconhecimento de diferentes tipos de emoções nas próximas décadas. Mas se uma IA pode experimentar emoções é um assunto controverso. Mesmo se eles pudessem, certamente haveria emoções que eles nunca poderiam experimentar - tornando difícil entendê-los verdadeiramente.

A Conversação

Sobre o autor

Leandro Minku, professor de ciência da computação, Universidade de Leicester

Este artigo foi originalmente publicado em A Conversação. Leia o artigo original.

Livros relacionados:

at InnerSelf Market e Amazon