Um grupo de proeminentes cientistas da computação e outros notáveis da indústria de tecnologia está pedindo uma pausa de seis meses na tecnologia de inteligência artificial. (ShutterStock)
Uma carta aberta recente de cientistas da computação e líderes da indústria de tecnologia pedindo uma proibição de seis meses no desenvolvimento de inteligência artificial tem recebeu ampla atenção online. Até o ministro da Inovação do Canadá, François-Philippe Champagne respondeu à carta no Twitter.
A carta, publicada pelo Future of Life Institute, sem fins lucrativos, pede a todos os laboratórios de IA que parem de treinar sistemas de IA mais poderosos que o GPT-4, o modelo por trás do ChatGPT. A carta argumenta que a IA está “presa em uma corrida fora de controle para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável”.
A carta assume que a IA está se tornando, ou pode se tornar, “mentes digitais poderosas” – um interpretação de longo prazo do desenvolvimento da IA que ignora debates importantes sobre IA hoje em vez de preocupações futuras.
Longtermismo e IA
Preocupações com IAs superinteligentes geralmente são assunto de ficção científica. fantasias de IA são um dos muitos medos no Vale do Silício que pode levar a profecias sombrias. Mas como o Meme Tormento Nexus, essas preocupações se traduzem em grandes investimentos e não em cautela. A maioria das grandes empresas de tecnologia cortar suas equipes de IA responsáveis.
O ChatGPT obviamente não é um caminho para a superinteligência. A carta aberta vê a tecnologia de linguagem de IA como o ChatGPT como um avanço cognitivo – algo que permite que uma IA compita com humanos em tarefas gerais. Mas isso é apenas uma opinião.
Existem muitos outros que veem o ChatGPT, seu modelo GPT-4 e outros modelos de aprendizado de idiomas como “papagaios estocásticos” que apenas repetem o que aprenderam online para que aparecer inteligente para os humanos.
Pontos cegos da superinteligência
O longo prazo tem implicações políticas diretas que priorizam a superinteligência sobre assuntos mais urgentes, como Desequilíbrios de poder da IA. Alguns defensores do longtermismo até consideram a regulamentação para interromper a superinteligência mais urgente do que abordar a emergência climática.
As implicações da política de IA são imediatas, não muito distantes. Como o GPT-4 é treinado em toda a Internet e tem fins expressamente comerciais, levanta questões sobre negociação justa e uso justo.
Ainda não sabemos se textos e imagens gerados por IA são protegidos por direitos autorais em primeiro lugar, uma vez que máquinas e animais não pode ter direitos autorais.
E quando se trata de questões de privacidade, a abordagem do ChatGPT é difícil de distinguir de outro aplicativo de IA, IA de visualização clara. Ambos os modelos de IA foram treinados usando grandes quantidades de informações pessoais coletadas na Internet aberta. A autoridade de proteção de dados da Itália acaba de banir o ChatGPT por questões de privacidade.
Esses riscos imediatos não são mencionados na carta aberta, que oscila entre a filosofia selvagem e as soluções técnicas, ignorando as questões que estão bem na nossa frente.
Abafando o pragmatismo
A carta segue uma velha dinâmica que meu co-autor e eu identificamos em um próximo capítulo revisado por pares sobre governança de IA. Há uma tendência de ver a IA como um risco existencial ou algo mundano e técnico.
A tensão entre esses dois extremos está exposta na carta aberta. A carta começa afirmando que “IA avançada pode representar uma mudança profunda na história da vida na Terra” antes de pedir “financiamento público robusto para pesquisa técnica de segurança em IA”. O último sugere que os danos sociais da IA são meramente projetos técnicos a serem resolvidos.
O foco nesses dois extremos afasta vozes importantes que tentam discutir pragmaticamente os riscos imediatos da IA mencionados acima, bem como questões trabalhistas e muito mais.
A atenção dada à carta aberta é especialmente problemática no Canadá porque duas outras cartas, escritas por Artistas e organizações de liberdades civis, não receberam a mesma atenção. Essas cartas pedem reformas e uma abordagem mais robusta da governança da IA para proteger aqueles que são afetados por ela.
Uma distração desnecessária em relação à legislação de IA
As respostas do governo à carta aberta enfatizaram que o Canadá possui legislação - a Lei de Inteligência Artificial e Dados (AIDA). Os riscos de longo prazo da IA estão sendo usados para acelerar a legislação agora, como a AIDA.
AIDA é um passo importante em direção a um regime adequado de governança de IA, mas precisa melhor consultar as pessoas afetadas pela IA antes de ser implementado. Não pode ser apressado para responder aos medos percebidos a longo prazo.
Os apelos da carta para apressar a legislação de IA podem acabar beneficiando as mesmas poucas empresas que conduzem a pesquisa de IA hoje. Sem tempo para consultar, aumentar a alfabetização do público e ouvir aqueles que estão sendo afetados pela IA, a AIDA corre o risco de passar a responsabilidade e a auditoria da IA para instituições já bem posicionadas para se beneficiar da tecnologia, criando um mercado para uma nova indústria de auditoria de IA.
O destino da humanidade pode não estar em jogo, mas a boa governança da IA certamente está.
Sobre o autor
Fenwick McKelvey, Professor Associado em Política de Tecnologia da Informação e Comunicação, Concordia University
Este artigo foi republicado a partir de A Conversação sob uma licença Creative Commons. Leia o artigo original.