teste de turing e ai 10 17

Pexels/Google Deepmind, CC BY-SA

Em 1950, o cientista da computação britânico Alan Turing propôs um método experimental para responder à pergunta: as máquinas podem pensar? Ele sugeriu que se um ser humano não conseguisse dizer se estava falando com uma máquina artificialmente inteligente (IA) ou com outro ser humano após cinco minutos de questionamento, isso demonstraria que a IA tem inteligência semelhante à humana.

Embora os sistemas de IA tenham permanecido longe de passar no teste de Turing durante sua vida, ele especulou que

“[...] dentro de cerca de cinquenta anos será possível programar computadores [...] para fazê-los jogar tão bem o jogo da imitação que um interrogador médio não terá mais de 70% de chance de fazer a identificação correta após cinco minutos de questionando.

Hoje, mais de 70 anos após a proposta de Turing, nenhuma IA conseguiu passar com sucesso no teste cumprindo as condições específicas que ele descreveu. No entanto, como algumas manchetes refletir, alguns sistemas chegaram bem perto.

Uma experiência recente testou três grandes modelos de linguagem, incluindo GPT-4 (a tecnologia de IA por trás do ChatGPT). Os participantes passaram dois minutos conversando com outra pessoa ou com um sistema de IA. A IA foi solicitada a cometer pequenos erros ortográficos – e desistir se o testador se tornasse muito agressivo.


innerself assinar gráfico


Com essa sugestão, a IA fez um bom trabalho enganando os testadores. Quando emparelhados com um bot de IA, os testadores só conseguiram adivinhar corretamente se estavam falando com um sistema de IA 60% do tempo.

Dado o rápido progresso alcançado na concepção de sistemas de processamento de linguagem natural, poderemos ver a IA passar no teste original de Turing nos próximos anos.

Mas será que imitar os humanos é realmente um teste eficaz de inteligência? E se não, quais são alguns parâmetros de referência alternativos que podemos usar para medir as capacidades da IA?

Limitações do teste de Turing

Embora um sistema que passe no teste de Turing nos dê alguns evidência de que é inteligente, este teste não é um teste decisivo de inteligência. Um problema é que pode produzir “falsos negativos”.

Os grandes modelos de linguagem de hoje são muitas vezes concebidos para declarar imediatamente que não são humanos. Por exemplo, quando você faz uma pergunta ao ChatGPT, sua resposta geralmente é precedida pela frase “como um modelo de linguagem de IA”. Mesmo que os sistemas de IA tenham a capacidade subjacente de passar no teste de Turing, este tipo de programação substituiria essa capacidade.

O teste também arrisca certos tipos de “falsos positivos”. Como o filósofo Ned Block apontou em um artigo de 1981, um sistema poderia passar no teste de Turing simplesmente sendo codificado com uma resposta semelhante à humana para qualquer entrada possível.

Além disso, o teste de Turing concentra-se na cognição humana em particular. Se a cognição da IA ​​diferir da cognição humana, um interrogador especialista será capaz de encontrar alguma tarefa em que a IA e os humanos diferem em desempenho.

Sobre este problema, Turing escreveu:

Esta objecção é muito forte, mas pelo menos podemos dizer que se, apesar disso, for possível construir uma máquina para jogar o jogo da imitação de forma satisfatória, não precisamos de nos preocupar com esta objecção.

Em outras palavras, embora passar no teste de Turing seja uma boa evidência de que um sistema é inteligente, falhar não é uma boa evidência de que um sistema é inteligente. não inteligente.

Além disso, o teste não é uma boa medida para saber se as IAs estão conscientes, se podem sentir dor e prazer, ou se têm significado moral. De acordo com muitos cientistas cognitivos, a consciência envolve um conjunto específico de habilidades mentais, incluindo uma memória de trabalho, pensamentos de ordem superior e a capacidade de perceber o ambiente e modelar como o corpo se move em torno dele.

O teste de Turing não responde à questão de saber se os sistemas de IA tem essas habilidades.

Capacidades crescentes da IA

O teste de Turing é baseado em uma certa lógica. Isto é: os humanos são inteligentes, então qualquer coisa que possa efetivamente imitar os humanos provavelmente será inteligente.

Mas esta ideia não nos diz nada sobre a natureza da inteligência. Uma maneira diferente de medir a inteligência da IA ​​envolve pensar de forma mais crítica sobre o que é inteligência.

Atualmente não existe um teste único que possa medir com autoridade a inteligência artificial ou humana.

No nível mais amplo, podemos pensar na inteligência como o habilidade para atingir uma série de objetivos em diferentes ambientes. Sistemas mais inteligentes são aqueles que podem atingir uma gama mais ampla de objetivos em uma gama mais ampla de ambientes.

Como tal, a melhor forma de acompanhar os avanços na concepção de sistemas de IA de uso geral é avaliar o seu desempenho numa variedade de tarefas. Os pesquisadores de aprendizado de máquina desenvolveram uma série de benchmarks que fazem isso.

Por exemplo, GPT-4 foi capaz de responder corretamente 86% das perguntas em compreensão massiva de linguagem multitarefa – uma referência que mede o desempenho em testes de múltipla escolha em uma variedade de disciplinas acadêmicas de nível universitário.

Também marcou favoravelmente em Banco de Agente, uma ferramenta que pode medir a capacidade de um modelo de linguagem grande de se comportar como um agente, por exemplo, navegando na web, comprando produtos online e competindo em jogos.

O teste de Turing ainda é relevante?

O teste de Turing é uma medida de imitação – da capacidade da IA ​​de simular o comportamento humano. Grandes modelos de linguagem são imitadores especializados, o que agora se reflete no seu potencial para passar no teste de Turing. Mas inteligência não é o mesmo que imitação.

Existem tantos tipos de inteligência quantos objetivos a alcançar. A melhor maneira de compreender a inteligência da IA ​​é monitorizar o seu progresso no desenvolvimento de uma série de capacidades importantes.

Ao mesmo tempo, é importante não ficarmos “mudando os postes” quando se trata de saber se a IA é inteligente. Dado que as capacidades da IA ​​estão a melhorar rapidamente, os críticos da ideia de inteligência da IA ​​estão constantemente a encontrar novas tarefas que os sistemas de IA podem ter dificuldade em completar – apenas para descobrirem que já saltaram. mais um obstáculo.

Neste cenário, a questão relevante não é se os sistemas de IA são inteligentes – mas, mais precisamente, o que tipos de inteligência que possam ter.A Conversação

Simon Goldstein, Professor Associado, Instituto de Filosofia Dianoia, Universidade Católica Australiana, Universidade Católica Australiana e Cameron Domenico Kirk-Giannini, Professor Assistente de Filosofia, Rutgers University

Este artigo foi republicado a partir de A Conversação sob uma licença Creative Commons. Leia o artigo original.