perigo de ai 7 11
Não é provável que a IA escravize a humanidade, mas pode assumir muitos aspectos de nossas vidas. elenabs / iStock via Getty Images

A ascensão do ChatGPT e de sistemas de inteligência artificial semelhantes foi acompanhada por um forte aumento da ansiedade sobre IA. Nos últimos meses, executivos e pesquisadores de segurança de IA vêm oferecendo previsões, apelidadas de “P(desgraça)”, sobre a probabilidade de a IA provocar uma catástrofe em larga escala.

As preocupações atingiram o pico em maio de 2023, quando a organização sem fins lucrativos de pesquisa e defesa Center for AI Safety divulgou uma declaração de uma frase: “Mitigar o risco de extinção da IA ​​deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear.” A declaração foi assinada por muitos atores importantes no campo, incluindo os líderes da OpenAI, Google e Anthropic, bem como dois dos chamados “padrinhos” da IA: Geoffrey Hinton e Yoshua Bengio.

Você pode perguntar como esses medos existenciais devem funcionar. Um cenário famoso é o “maximizador de clipe de papel” experimento de pensamento articulado pelo filósofo de Oxford Nick Bostrom. A ideia é que um sistema de IA encarregado de produzir o maior número possível de clipes de papel pode percorrer distâncias extraordinárias para encontrar matérias-primas, como destruir fábricas e causar acidentes de carro.

A variação menos intensiva em recursos tem uma IA encarregada de obter uma reserva para um restaurante popular, desligando redes de celular e semáforos para evitar que outros clientes consigam uma mesa.


innerself assinar gráfico


Material de escritório ou jantar, a ideia básica é a mesma: a IA está rapidamente se tornando uma inteligência alienígena, boa em atingir objetivos, mas perigosa porque não se alinha necessariamente com os valores morais de seus criadores. E, em sua versão mais extrema, esse argumento se transforma em ansiedades explícitas sobre IAs escravizar ou destruir a raça humana.

Uma IA para fazer clipes de papel corre solta é uma variante do cenário de apocalipse da IA.

 

Dano real

Nos últimos anos, meus colegas e eu da Centro de Ética Aplicada da UMass Boston tenho estudado o impacto do envolvimento com a IA na compreensão que as pessoas têm de si mesmas e acredito que essas ansiedades catastróficas são exagerado e mal direcionado.

Sim, a capacidade da IA ​​de criar vídeo e áudio deep-fake convincentes é assustadora e pode ser abusada por pessoas com más intenções. Na verdade, isso já está acontecendo: agentes russos provavelmente tentaram embaraçar o crítico do Kremlin Bill Browder ao enredá-lo em uma conversa com um avatar do ex-presidente ucraniano Petro Poroshenko. Os cibercriminosos têm usado a clonagem de voz de IA para uma variedade de crimes - desde assaltos de alta tecnologia para golpes comuns.

Sistemas de tomada de decisão de IA que oferecer aprovação de empréstimo e recomendações de contratação carregam o risco de viés algorítmico, uma vez que os dados de treinamento e os modelos de decisão em que são executados refletem preconceitos sociais de longa data.

Esses são grandes problemas e requerem a atenção dos formuladores de políticas. Mas eles já existem há algum tempo e dificilmente são cataclísmicos.

Não na mesma liga

A declaração do Center for AI Safety agrupou a IA com pandemias e armas nucleares como um grande risco para a civilização. Há problemas com essa comparação. A COVID-19 resultou em quase 7 milhões de mortes em todo o mundo, trouxe um crise maciça e contínua de saúde mental e criado desafios econômicos, incluindo escassez crônica da cadeia de suprimentos e inflação descontrolada.

Armas nucleares provavelmente mataram mais do que as pessoas 200,000 em Hiroshima e Nagasaki em 1945, custou muito mais vidas de câncer nos anos seguintes, gerou décadas de profunda ansiedade durante a Guerra Fria e levou o mundo à beira da aniquilação durante a crise dos mísseis cubanos em 1962. Eles também mudou os cálculos dos dirigentes nacionais sobre como responder à agressão internacional, como ocorre atualmente com a invasão da Ucrânia pela Rússia.

A IA simplesmente não está nem perto de ganhar a capacidade de causar esse tipo de dano. O cenário do clipe de papel e outros semelhantes são ficção científica. Os aplicativos de IA existentes executam tarefas específicas em vez de fazer julgamentos amplos. A tecnologia é longe de poder decidir e depois planejar os objetivos e objetivos subordinados necessários para interromper o tráfego a fim de conseguir um lugar em um restaurante ou explodir uma fábrica de automóveis para satisfazer sua coceira por clipes de papel.

A tecnologia não apenas carece da complicada capacidade de julgamento multicamada envolvida nesses cenários, como também não tem acesso autônomo a partes suficientes de nossa infraestrutura crítica para começar a causar esse tipo de dano.

O que significa ser humano

Na verdade, existe um perigo existencial inerente ao uso da IA, mas esse risco é existencial no sentido filosófico e não apocalíptico. A IA em sua forma atual pode alterar a maneira como as pessoas se veem. Pode degradar habilidades e experiências que as pessoas consideram essenciais para o ser humano.

Por exemplo, os humanos são criaturas que fazem julgamentos. As pessoas ponderam racionalmente os detalhes e fazem julgamentos diários no trabalho e durante o tempo de lazer sobre quem contratar, quem deve obter um empréstimo, o que assistir e assim por diante. Mas cada vez mais desses julgamentos são sendo automatizado e distribuído para algoritmos. Quando isso acontecer, o mundo não vai acabar. Mas as pessoas gradualmente perderão a capacidade de fazer esses julgamentos por si mesmas. Quanto menos deles as pessoas fizerem, pior elas provavelmente se tornarão em fazê-los.

Ou considere o papel do acaso na vida das pessoas. Os seres humanos valorizam encontros fortuitos: encontrar um lugar, pessoa ou atividade por acidente, ser atraído para ele e apreciar retrospectivamente o papel que o acidente desempenhou nessas descobertas significativas. Mas o papel dos mecanismos de recomendação algorítmica é reduzir esse tipo de serendipidade e substituí-lo por planejamento e previsão.

Finalmente, considere os recursos de escrita do ChatGPT. A tecnologia está eliminando o papel das tarefas de redação no ensino superior. Se isso acontecer, os educadores perderão uma ferramenta fundamental para ensinar os alunos como pensar criticamente.

Não morto, mas diminuído

Então, não, a IA não vai explodir o mundo. Mas a adoção cada vez mais acrítica dela, em uma variedade de contextos estreitos, significa a erosão gradual de algumas das habilidades humanas mais importantes. Os algoritmos já estão minando a capacidade das pessoas de fazer julgamentos, desfrutar de encontros fortuitos e aprimorar o pensamento crítico.

A espécie humana sobreviverá a tais perdas. Mas nosso modo de existir será empobrecido no processo. As ansiedades fantásticas em torno do próximo cataclismo de IA, singularidade, Skynet, ou como você possa imaginar, obscurecem esses custos mais sutis. Lembre-se das famosas linhas finais de TS Eliot de “Os Homens Vazios”: “É assim que o mundo acaba”, escreveu ele, “não com um estrondo, mas com um gemido”.A Conversação

Sobre o autor

Nir Eisikovits, Professor de Filosofia e Diretor do Centro de Ética Aplicada, UMass Boston

Este artigo foi republicado a partir de A Conversação sob uma licença Creative Commons. Leia o artigo original.