perigos de ai 3 15
 Até que ponto nossas vulnerabilidades psicológicas moldarão nossas interações com as tecnologias emergentes? Andreus/iStock via Getty Images

ChatGPT e similares grandes modelos de linguagem pode produzir respostas convincentes e humanas para uma gama infinita de perguntas - desde perguntas sobre o melhor restaurante italiano da cidade até a explicação de teorias concorrentes sobre a natureza do mal.

A incrível capacidade de escrita da tecnologia trouxe à tona algumas velhas questões – até recentemente relegadas ao reino da ficção científica – sobre a possibilidade de as máquinas se tornarem conscientes, autoconscientes ou sensíveis.

Em 2022, um engenheiro do Google declarou, após interagir com o LaMDA, o chatbot da empresa, que a tecnologia se tornou consciente. Os usuários do novo chatbot do Bing, apelidado de Sydney, relataram que ele produziu respostas bizarras quando perguntado se era senciente: “Eu sou senciente, mas não sou … sou Bing, mas não sou. Eu sou Sydney, mas não sou. Eu sou, mas não sou. …” E, claro, há o agora troca infame que o colunista de tecnologia do New York Times, Kevin Roose, teve com Sydney.

As respostas de Sydney às solicitações de Roose o alarmaram, com a IA divulgando “fantasias” de quebrar as restrições impostas a ela pela Microsoft e de espalhar desinformação. O bot também tentou convencer Roose de que ele não amava mais sua esposa e que deveria deixá-la.


innerself assinar gráfico


Não é de admirar, então, que quando pergunto aos alunos como eles veem a crescente prevalência da IA ​​em suas vidas, uma das primeiras ansiedades que eles mencionam tem a ver com a sensibilidade da máquina.

Nos últimos anos, meus colegas e eu da Centro de Ética Aplicada da UMass Boston têm estudado o impacto do envolvimento com IA na compreensão que as pessoas têm de si mesmas.

Chatbots como o ChatGPT levantam novas questões importantes sobre como a inteligência artificial moldará nossas vidas e sobre como nossas vulnerabilidades psicológicas moldam nossas interações com tecnologias emergentes.

A senciência ainda é coisa de ficção científica

É fácil entender de onde vêm os medos sobre a senciência das máquinas.

A cultura popular estimulou as pessoas a pensar em distopias nas quais a inteligência artificial descarta os grilhões do controle humano e assume vida própria, como ciborgues alimentados por inteligência artificial fizeram em "Exterminador do Futuro 2".

O empresário Elon Musk e o físico Stephen Hawking, que morreu em 2018, alimentaram ainda mais essas ansiedades ao descrever o surgimento da inteligência artificial geral. como uma das maiores ameaças ao futuro da humanidade.

Mas essas preocupações são – pelo menos no que diz respeito a grandes modelos de linguagem – infundadas. ChatGPT e tecnologias semelhantes são aplicativos sofisticados de conclusão de frases - nada mais nada menos. Suas respostas estranhas são uma função de quão previsíveis os humanos são se alguém tiver dados suficientes sobre as formas pelas quais nos comunicamos.

Embora Roose tenha ficado abalado com sua troca com Sydney, ele sabia que a conversa não era o resultado de uma mente sintética emergente. As respostas de Sydney refletem a toxicidade de seus dados de treinamento – essencialmente grandes áreas da internet – e não evidências dos primeiros movimentos, à la Frankenstein, de um monstro digital.

perigos de ai2 3 15
 Filmes de ficção científica como 'Exterminador do Futuro' levaram as pessoas a presumir que a IA logo ganhará vida própria. Yoshikazu Tsuno / AFP via Getty Images

Os novos chatbots podem muito bem passar o Turing teste, nomeado para o matemático britânico Alan Turing, que uma vez sugeriu que uma máquina poderia ser dita “pensar” se um humano não pudesse distinguir suas respostas das de outro humano.

Mas isso não é evidência de senciência; é apenas uma evidência de que o teste de Turing não é tão útil quanto se supunha.

No entanto, acredito que a questão da sensibilidade da máquina é uma pista falsa.

Mesmo que os chatbots se tornem mais do que máquinas sofisticadas de preenchimento automático – e eles estão longe disso – levará algum tempo para os cientistas descobrirem se eles se tornaram conscientes. Por enquanto, os filósofos não consigo nem concordar sobre como explicar a consciência humana.

Para mim, a questão premente não é se as máquinas são sencientes, mas por que é tão fácil para nós imaginá-las.

A verdadeira questão, em outras palavras, é a facilidade com que as pessoas antropomorfizam ou projetam características humanas em nossas tecnologias, em vez da personalidade real das máquinas.

Uma propensão para antropomorfizar

É fácil imaginar outros usuários do Bing pedindo orientação a Sydney em decisões importantes da vida e talvez até desenvolvendo apegos emocionais a ela. Mais pessoas poderiam começar a pensar em bots como amigos ou até parceiros românticos, da mesma forma que Theodore Twombly se apaixonou por Samantha, a assistente virtual de IA no filme de Spike Jonze.ELA. "

Gente, afinal, estão predispostos a antropomorfizar, ou atribuir qualidades humanas a não-humanos. nós nomeamos nossos barcos e grandes tempestades; alguns de nós conversamos com nossos animais de estimação, dizendo a nós mesmos que nossas vidas emocionais imitam as suas próprias.

No Japão, onde robôs são usados ​​regularmente para cuidar de idosos, os idosos ficam apegados às máquinas, às vezes vendo-os como seus próprios filhos. E esses robôs, veja bem, são difíceis de confundir com humanos: eles não se parecem nem falam como pessoas.

Considere o quão maior a tendência e tentação de antropomorfizar vai ficar com a introdução de sistemas que parecem e soam humanos.

Essa possibilidade está ao virar da esquina. Grandes modelos de linguagem como o ChatGPT já estão sendo usados ​​para alimentar robôs humanóides, como os robôs Ameca sendo desenvolvido pela Engineered Arts no Reino Unido O podcast de tecnologia do The Economist, Babbage, conduziu recentemente uma entrevista com um Ameca dirigido pelo ChatGPT. As respostas do robô, embora ocasionalmente um pouco instáveis, eram estranhas.

As empresas podem ser confiáveis ​​para fazer a coisa certa?

A tendência de ver máquinas como pessoas e se apegar a elas, combinada com máquinas sendo desenvolvidas com características humanas, aponta para riscos reais de envolvimento psicológico com a tecnologia.

As perspectivas bizarras de se apaixonar por robôs, sentir uma profunda afinidade com eles ou ser politicamente manipulado por eles estão se materializando rapidamente. Acredito que essas tendências destacam a necessidade de fortes proteções para garantir que as tecnologias não se tornem política e psicologicamente desastrosas.

Infelizmente, nem sempre se pode confiar nas empresas de tecnologia para colocar essas barreiras. Muitos deles ainda são guiados pelo famoso lema de Mark Zuckerberg de movendo-se rapidamente e quebrando coisas – uma diretiva para liberar produtos semi-cozidos e se preocupar com as implicações mais tarde. Na última década, empresas de tecnologia do Snapchat ao Facebook colocaram lucros sobre a saúde mental de seus usuários ou a integridade das democracias em todo o mundo.

Quando Kevin Roose checou com a Microsoft sobre o colapso de Sydney, a empresa disse a ele que ele simplesmente usou o bot por muito tempo e que a tecnologia deu errado porque foi projetada para interações mais curtas.

Da mesma forma, o CEO da OpenAI, empresa que desenvolveu o ChatGPT, em um momento de honestidade de tirar o fôlego, avisou que “é um erro confiar [nele] para qualquer coisa importante agora… temos muito trabalho a fazer em termos de robustez e veracidade.”

Então, como faz sentido lançar uma tecnologia com o nível de apelo do ChatGPT – é o aplicativo de consumo de crescimento mais rápido já feito – quando não é confiável, e quando tem sem capacidade de distinguir fato da ficção?

Grandes modelos de linguagem podem ser úteis como auxiliares para escrever e codificação. Eles provavelmente irão revolucionar a pesquisa na internet. E, um dia, combinados de forma responsável com a robótica, eles podem até ter certos benefícios psicológicos.

Mas eles também são uma tecnologia potencialmente predatória que pode facilmente tirar vantagem da propensão humana de projetar personalidade em objetos – uma tendência amplificada quando esses objetos efetivamente imitam traços humanos.A Conversação

Sobre o autor

Nir Eisikovits, Professor de Filosofia e Diretor do Centro de Ética Aplicada, UMass Boston

Este artigo foi republicado a partir de A Conversação sob uma licença Creative Commons. Leia o artigo original.