confiando em ai 7 20
 Os chatbots de IA estão se tornando mais poderosos, mas como você sabe se eles estão trabalhando em seu melhor interesse? 

Se você perguntar ao Alexa, o sistema de assistente de voz AI da Amazon, se a Amazon é um monopólio, ele responde por dizendo que não sabe. Não é preciso muito para fazê-lo criticar os outros gigantes da tecnologia, mas não fala sobre os delitos de sua própria controladora corporativa.

Quando o Alexa responde dessa maneira, é óbvio que está colocando os interesses de seu desenvolvedor à frente dos seus. Normalmente, porém, não é tão óbvio a quem um sistema de IA está servindo. Para evitar serem exploradas por esses sistemas, as pessoas precisarão aprender a abordar a IA com ceticismo. Isso significa construir deliberadamente a entrada que você fornece e pensar criticamente sobre sua saída.

Novas gerações de modelos de IA, com suas respostas mais sofisticadas e menos rotineiras, estão tornando mais difícil dizer quem se beneficia quando eles falam. O fato de as empresas de Internet manipularem o que você vê para servir a seus próprios interesses não é novidade. Os resultados de pesquisa do Google e seu feed do Facebook são preenchido com entradas pagas. Facebook, TikTok e outros manipulam seus feeds para maximizar o tempo que você gasta na plataforma, o que significa mais visualizações de anúncios, em detrimento do seu bem-estar.

O que distingue os sistemas de IA desses outros serviços da Internet é o quão interativos eles são e como essas interações se tornarão cada vez mais como relacionamentos. Não é preciso muita extrapolação das tecnologias atuais para imaginar IAs que planejem viagens para você, negociem em seu nome ou atuem como terapeutas e coaches de vida.


innerself assinar gráfico


Eles provavelmente estarão com você 24 horas por dia, 7 dias por semana, conhecerão você intimamente e serão capazes de antecipar suas necessidades. Esse tipo de interface de conversação para a vasta rede de serviços e recursos na web está dentro das capacidades de AIs generativas existentes, como o ChatGPT. Eles estão a caminho de se tornar assistentes digitais personalizados.

Como um especialista em segurança e cientista de dados, acreditamos que as pessoas que passam a confiar nessas IAs terão que confiar nelas implicitamente para navegar na vida diária. Isso significa que eles precisarão ter certeza de que os AIs não estão trabalhando secretamente para outra pessoa. Na Internet, dispositivos e serviços que parecem funcionar para você, secretamente funcionam contra você. TVs inteligentes espionar você. aplicativos de telefone coletar e vender seus dados. Muitos aplicativos e sites manipulá-lo através de padrões escuros, elementos de design que deliberadamente enganar, coagir ou enganar os visitantes do site. Isto é capitalismo de vigilância, e a IA está se preparando para fazer parte disso. A IA está desempenhando um papel no capitalismo de vigilância, que se resume a espioná-lo para ganhar dinheiro com você.

No escuro

Muito possivelmente, poderia ser muito pior com a IA. Para que esse assistente digital de IA seja realmente útil, ele precisará realmente conhecê-lo. Melhor do que o seu telefone conhece você. Melhor do que a pesquisa do Google conhece você. Melhor, talvez, do que seus amigos íntimos, parceiros íntimos e terapeuta o conheçam.

Você não tem motivos para confiar nas principais ferramentas de IA generativas de hoje. Deixe de lado o alucinações, os “fatos” inventados que o GPT e outros grandes modelos de linguagem produzem. Esperamos que eles sejam amplamente limpos à medida que a tecnologia melhorar nos próximos anos.

Mas você não sabe como os AIs são configurados: como foram treinados, quais informações receberam e quais instruções receberam ordens para seguir. Por exemplo, pesquisadores descobriu as regras secretas que regem o comportamento do chatbot do Microsoft Bing. Eles são amplamente benignos, mas podem mudar a qualquer momento.

Fazendo dinheiro

Muitas dessas IAs são criadas e treinadas com custos enormes por alguns dos maiores monopólios de tecnologia. Eles estão sendo oferecidos às pessoas para uso gratuito ou a um custo muito baixo. Essas empresas precisarão monetizá-los de alguma forma. E, como no resto da internet, isso provavelmente inclui vigilância e manipulação.

Imagine pedir ao seu chatbot para planejar suas próximas férias. Ela escolheu uma determinada companhia aérea, rede hoteleira ou restaurante porque era o melhor para você ou porque seu fabricante recebeu uma comissão dos negócios? Assim como os resultados pagos na pesquisa do Google, os anúncios de feed de notícias no Facebook e as colocações pagas nas consultas da Amazon, essas influências pagas provavelmente se tornarão mais sub-reptícias com o tempo.

Se você está pedindo informações políticas ao seu chatbot, os resultados são distorcidos pela política da corporação proprietária do chatbot? Ou o candidato que pagou mais dinheiro? Ou até mesmo as visualizações demográficas das pessoas cujos dados foram usados ​​no treinamento do modelo? Seu agente de IA é secretamente um agente duplo? No momento, não há como saber.

Confiável por lei

Acreditamos que as pessoas devem esperar mais da tecnologia e que as empresas de tecnologia e IAs podem se tornar mais confiáveis. A proposta da União Europeia Lei de IA toma algumas medidas importantes, exigindo transparência sobre os dados usados ​​para treinar modelos de IA, mitigação de possíveis vieses, divulgação de riscos previsíveis e relatórios sobre testes padrão do setor. A União Europeia está avançando com a regulamentação da IA.

A maioria das IAs existentes não cumprir com este mandato europeu emergente e, apesar estímulo recente do líder da maioria no Senado, Chuck Schumer, os EUA estão muito atrasados ​​em relação a essa regulamentação.

As IAs do futuro devem ser confiáveis. A menos e até que o governo forneça proteções robustas ao consumidor para produtos de IA, as pessoas estarão por conta própria para adivinhar os riscos e vieses potenciais da IA ​​e mitigar seus piores efeitos nas experiências das pessoas com eles.

Então, quando você receber uma recomendação de viagem ou informação política de uma ferramenta de IA, aborde-a com o mesmo olhar cético que faria com um anúncio de outdoor ou um voluntário de campanha. Apesar de toda a sua magia tecnológica, a ferramenta AI pode ser pouco mais do que a mesma.A Conversação

Sobre o autor

Bruce Schneier, Professor Adjunto em Políticas Públicas, Harvard Kennedy School e Nathan Sanders, Afiliado, Berkman Klein Center for Internet & Society, Universidade de Harvard

Este artigo foi republicado a partir de A Conversação sob uma licença Creative Commons. Leia o artigo original.