Inteligência Artificial Agora Pode Emular Comportamentos Humanos E Logo Será Perigosamente BomEsse rosto é apenas um conjunto de bits de computador? PHOTOCREO Michal Bednarek / Shutterstock.com

Quando os sistemas de inteligência artificial começam a ser criativos, eles podem criar grandes coisas - e assustadoras. Tomemos, por exemplo, um programa de IA que permita usuários da web compõem música juntamente com um virtual Johann Sebastian Bach inserindo notas em um programa que gera harmonias semelhantes a Bach para combiná-las.

Executado pelo Google, a aplicação desenhou ótimo louvor por ser inovador e divertido de se brincar. Também atraiu críticae levantou preocupações sobre os perigos da IA.

Meu estudo de como tecnologias emergentes afetam a vida das pessoas me ensinou que os problemas vão além da preocupação assumidamente grande sobre se algoritmos pode realmente criar musica ou arte em geral. Algumas queixas pareciam pequenas, mas na verdade não eram, como observações que a IA do Google era quebrando regras básicas de composição musical.

Na verdade, os esforços para que os computadores imitem o comportamento de pessoas reais podem ser confusos e potencialmente prejudiciais.


innerself assinar gráfico


Tecnologias de representação

O programa do Google analisou as notas no 306 dos trabalhos musicais de Bach, encontrando relações entre a melodia e as notas que proporcionavam a harmonia. Como Bach seguia regras estritas de composição, o programa estava efetivamente aprendendo essas regras, de modo que poderia aplicá-las quando os usuários fornecessem suas próprias anotações.

 A equipe do Google Doodle explica o programa de Bach.

{youtube}XBfYPp6KF2g{/youtube}

O aplicativo Bach em si é novo, mas a tecnologia subjacente não é. Algoritmos treinados para reconhecer padrões e fazer decisões probabilísticas existem há muito tempo. Alguns desses algoritmos são tão complexos que as pessoas nem sempre entendo como eles tomam decisões ou produzem um resultado particular.

Sistemas de inteligência artificial não são perfeitos - muitos deles dependem de dados que não são representativos de toda a população, ou que são influenciado por vieses humanos. Não está totalmente claro quem pode ser legalmente responsável quando um sistema AI comete um erro ou causa um problema.

Agora, porém, as tecnologias de inteligência artificial estão se tornando avançadas o suficiente para aproximar o estilo de escrita ou fala dos indivíduos e até mesmo as expressões faciais. Isso nem sempre é ruim: uma IA razoavelmente simples deu a Stephen Hawking Capacidade de comunicar mais eficientemente com os outros, prevendo as palavras que ele usaria mais.

Programas mais complexos que imitam vozes humanas ajudar pessoas com deficiências - mas também pode ser usado para enganar os ouvintes. Por exemplo, os fabricantes de Lyrebird, um programa de imitação de voz, lançou um conversa simulada entre Barack Obama, Donald Trump e Hillary Clinton. Pode parecer real, mas essa troca nunca aconteceu.

De bom a ruim

Em fevereiro, a 2019, empresa sem fins lucrativos OpenAI, criou um programa que gera texto virtualmente indistinguível do texto escrito por pessoas. Pode “escrever” um discurso no estilo de John F. Kennedy, JRR Tolkien em “O Senhor dos AnéisOu um aluno escrevendo uma tarefa escolar sobre a Guerra Civil dos EUA.

O texto gerado pelo software da OpenAI é tão crível que a empresa escolheu não liberar o programa em si.

Tecnologias semelhantes podem simular fotos e vídeos. No início da 2018, por exemplo, o ator e cineasta Jordan Peele criou um vídeo que parecia mostrar o ex-presidente dos EUA, Barack Obama, dizendo: coisas que Obama nunca realmente disse para alertar o público sobre os perigos colocados por essas tecnologias.

Cuidado com os vídeos em que você acredita.

{youtube}cQ54GDm1eL0{/youtube}

No início do 2019, um foto nua falsa da Rep. EUA Alexandria Ocasio-Cortez circulou online. Vídeos fabricados, muitas vezes chamado de “deepfakes"Espera-se que sejam cada vez mais usava em campanhas eleitorais.

Membros do Congresso começou a olhar para esta questão à frente da eleição 2020. O Departamento de Defesa dos EUA está ensinando o público como identificar vídeos manipulados e áudio. Organizações de notícias como Reuters estão começando a treinar jornalistas para identificar deepfakes.

Mas, na minha opinião, uma preocupação ainda maior permanece: os usuários podem não ser capazes de aprender rápido o suficiente para distinguir conteúdo falso à medida que a tecnologia AI se torna mais sofisticada. Por exemplo, à medida que o público começa a tomar conhecimento das profundezas, a IA já está sendo usada para enganos ainda mais avançados. Existem agora programas que podem gerar rostos falsos e impressões digitais falsas, criando efetivamente as informações necessárias para fabricar uma pessoa inteira - pelo menos em registros corporativos ou governamentais.

Máquinas continuam aprendendo

No momento, há erros potenciais suficientes nessas tecnologias para dar às pessoas uma chance de detectar fabricações digitais. Compositor de Bach do Google cometeu alguns erros um especialista poderia detectar. Por exemplo, quando eu tentei, o programa me permitiu entrar quintas paralelas, um intervalo musical que Bach cuidadosamente evitado. O aplicativo também quebrou regras musicais de contraponto através da harmonização de melodias na tecla errada. Da mesma forma, o programa de geração de texto do OpenAI ocasionalmente escrevia frases como “incêndios acontecendo debaixo de água”Isso não fazia sentido em seus contextos.

Conforme os desenvolvedores trabalham em suas criações, esses erros se tornarão mais raros. Efetivamente, as tecnologias AI irão evoluir e aprender. O desempenho melhorado tem o potencial de trazer muitos benefícios sociais - incluindo melhores cuidados de saúde, pois os programas de IA ajudam democratizar a prática da medicina.

Dar a pesquisadores e empresas liberdade para explorar, a fim de buscar essas conquistas positivas dos sistemas de IA, significa abrir o risco de desenvolver formas mais avançadas de criar decepções e outros problemas sociais. A severa limitação da pesquisa da IA ​​poderia conter esse progresso. Mas dando tecnologias benéficas espaço para crescer não tem custo pequeno - e o potencial para uso indevido, seja para fazer músicas imprecisas como “Bach” ou para enganar milhões, provavelmente crescerá de maneiras que as pessoas ainda não podem prever.A Conversação

Sobre o autor

Ana Santos Rutschman, Professora Assistente de Direito, Universidade de Saint Louis

Este artigo foi republicado a partir de A Conversação sob uma licença Creative Commons. Leia o artigo original.

Livros relacionados

at InnerSelf Market e Amazon