chatGPT
Um grupo de proeminentes cientistas da computação e outros notáveis ​​da indústria de tecnologia está pedindo uma pausa de seis meses na tecnologia de inteligência artificial. (ShutterStock)

Uma carta aberta recente de cientistas da computação e líderes da indústria de tecnologia pedindo uma proibição de seis meses no desenvolvimento de inteligência artificial tem recebeu ampla atenção online. Até o ministro da Inovação do Canadá, François-Philippe Champagne respondeu à carta no Twitter.

A carta, publicada pelo Future of Life Institute, sem fins lucrativos, pede a todos os laboratórios de IA que parem de treinar sistemas de IA mais poderosos que o GPT-4, o modelo por trás do ChatGPT. A carta argumenta que a IA está “presa em uma corrida fora de controle para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável”.

A carta assume que a IA está se tornando, ou pode se tornar, “mentes digitais poderosas” – um interpretação de longo prazo do desenvolvimento da IA que ignora debates importantes sobre IA hoje em vez de preocupações futuras.

Longtermismo e IA

Longtermismo é o crença de que a inteligência artificial representa riscos existenciais ou de longo prazo para o futuro da humanidade, tornando-se uma superinteligência fora de controle.


innerself assinar gráfico


Preocupações com IAs superinteligentes geralmente são assunto de ficção científica. fantasias de IA são um dos muitos medos no Vale do Silício que pode levar a profecias sombrias. Mas como o Meme Tormento Nexus, essas preocupações se traduzem em grandes investimentos e não em cautela. A maioria das grandes empresas de tecnologia cortar suas equipes de IA responsáveis.

O ChatGPT obviamente não é um caminho para a superinteligência. A carta aberta vê a tecnologia de linguagem de IA como o ChatGPT como um avanço cognitivo – algo que permite que uma IA compita com humanos em tarefas gerais. Mas isso é apenas uma opinião.

Existem muitos outros que veem o ChatGPT, seu modelo GPT-4 e outros modelos de aprendizado de idiomas como “papagaios estocásticos” que apenas repetem o que aprenderam online para que aparecer inteligente para os humanos.

Pontos cegos da superinteligência

O longo prazo tem implicações políticas diretas que priorizam a superinteligência sobre assuntos mais urgentes, como Desequilíbrios de poder da IA. Alguns defensores do longtermismo até consideram a regulamentação para interromper a superinteligência mais urgente do que abordar a emergência climática.

As implicações da política de IA são imediatas, não muito distantes. Como o GPT-4 é treinado em toda a Internet e tem fins expressamente comerciais, levanta questões sobre negociação justa e uso justo.

Ainda não sabemos se textos e imagens gerados por IA são protegidos por direitos autorais em primeiro lugar, uma vez que máquinas e animais não pode ter direitos autorais.

E quando se trata de questões de privacidade, a abordagem do ChatGPT é difícil de distinguir de outro aplicativo de IA, IA de visualização clara. Ambos os modelos de IA foram treinados usando grandes quantidades de informações pessoais coletadas na Internet aberta. A autoridade de proteção de dados da Itália acaba de banir o ChatGPT por questões de privacidade.

Esses riscos imediatos não são mencionados na carta aberta, que oscila entre a filosofia selvagem e as soluções técnicas, ignorando as questões que estão bem na nossa frente.

Abafando o pragmatismo

A carta segue uma velha dinâmica que meu co-autor e eu identificamos em um próximo capítulo revisado por pares sobre governança de IA. Há uma tendência de ver a IA como um risco existencial ou algo mundano e técnico.

A tensão entre esses dois extremos está exposta na carta aberta. A carta começa afirmando que “IA avançada pode representar uma mudança profunda na história da vida na Terra” antes de pedir “financiamento público robusto para pesquisa técnica de segurança em IA”. O último sugere que os danos sociais da IA ​​são meramente projetos técnicos a serem resolvidos.

O foco nesses dois extremos afasta vozes importantes que tentam discutir pragmaticamente os riscos imediatos da IA ​​mencionados acima, bem como questões trabalhistas e muito mais.

A atenção dada à carta aberta é especialmente problemática no Canadá porque duas outras cartas, escritas por Artistas e organizações de liberdades civis, não receberam a mesma atenção. Essas cartas pedem reformas e uma abordagem mais robusta da governança da IA ​​para proteger aqueles que são afetados por ela.

Uma distração desnecessária em relação à legislação de IA

As respostas do governo à carta aberta enfatizaram que o Canadá possui legislação - a Lei de Inteligência Artificial e Dados (AIDA). Os riscos de longo prazo da IA ​​estão sendo usados ​​para acelerar a legislação agora, como a AIDA.

AIDA é um passo importante em direção a um regime adequado de governança de IA, mas precisa melhor consultar as pessoas afetadas pela IA antes de ser implementado. Não pode ser apressado para responder aos medos percebidos a longo prazo.

Os apelos da carta para apressar a legislação de IA podem acabar beneficiando as mesmas poucas empresas que conduzem a pesquisa de IA hoje. Sem tempo para consultar, aumentar a alfabetização do público e ouvir aqueles que estão sendo afetados pela IA, a AIDA corre o risco de passar a responsabilidade e a auditoria da IA ​​para instituições já bem posicionadas para se beneficiar da tecnologia, criando um mercado para uma nova indústria de auditoria de IA.

O destino da humanidade pode não estar em jogo, mas a boa governança da IA ​​certamente está.A Conversação

Sobre o autor

Fenwick McKelvey, Professor Associado em Política de Tecnologia da Informação e Comunicação, Concordia University

Este artigo foi republicado a partir de A Conversação sob uma licença Creative Commons. Leia o artigo original.