O problema com pessoas falsificadas

Metas da Ciência - Por José Roberto Abramo

26/05/2023

É verdade. Você pode vir a conviver com pessoas que não existem, mas que a Inteligência Artificial propiciou existirem. E o pior, estas “pessoas” assim como nós evoluem. O que a ética pode nos dizer desta falsificação?

As empresas que usam IA para gerar pessoas falsas estão cometendo um ato imoral de vandalismo e devem ser responsabilizadas. Por Daniel C. Dennett

Odinheiro já existiupor vários milhares de anos, e desde o início a falsificação foi reconhecida como um crime muito grave, que em muitos casos exige a pena de morte porque mina a confiança da qual a sociedade depende. Hoje, pela primeira vez na história, graças à inteligência artificial, qualquer pessoa pode fazer falsificações de pessoas que podem passar por reais em muitos dos novos ambientes digitais que criamos. Essas pessoas falsificadas são os artefatos mais perigosos da história da humanidade, capazes de destruir não apenas economias, mas a própria liberdade humana. Antes que seja tarde demais (talvez já seja tarde demais), devemos proibir tanto a criação de pessoas falsificadas quanto a “transmissão” de pessoas falsificadas. As penalidades para qualquer ofensa devem ser extremamente severas, visto que a própria civilização está em risco.

É uma terrível ironia que a paixão atual por enganar as pessoas fazendo-as pensar que estão interagindo com uma pessoa real surgiu da proposta inocente de Alan Turing em 1950 de usar o que ele chamou de “o jogo da imitação” (agora conhecido como Teste de Turing) como o referência do pensamento real. Isso gerou não apenas uma indústria artesanal, mas uma indústria de alta tecnologia generosamente financiada, envolvida na fabricação de produtos que enganarão até o mais cético dos interlocutores. Nossa inclinação natural para tratar qualquer coisa que pareça conversar de forma sensata conosco como pessoa – adotando o que chamei de “postura intencional” – acaba sendo fácil de invocar e quase impossível de resistir, mesmo para especialistas. Todos nós seremos alvos fáceis no futuro imediato.

O filósofo e historiador Yuval Noah Harari, escrevendo no The Economist em abril, encerrou seu alerta oportuno sobre a ameaça iminente da IA ​​à civilização humana com estas palavras:

“Este texto foi gerado por um humano. Ou tem?

“A inteligência artificial tem potencial para destruir sociedades e o próprio conceito do que significa ser humano”, diz Yuval Noah Harari

Em breve será quase impossível dizer. E mesmo que (por enquanto) sejamos capazes de ensinar uns aos outros métodos confiáveis ​​de expor pessoas falsificadas, o custo de tais deepfakes para a confiança humana será enorme. Como você responderá ao ter seus amigos e familiares sondando você com perguntas pegadinhas toda vez que você tentar conversar com eles online?

A criação de pessoas digitais falsificadas corre o risco de destruir nossa civilização. A democracia depende do consentimento informado (não mal informado) dos governados. Ao permitir que as pessoas, corporações e governos mais poderosos econômica e politicamente controlem nossa atenção, esses sistemas nos controlarão. As pessoas falsificadas, distraindo-nos e confundindo-nos e explorando os nossos medos e ansiedades mais irresistíveis, levar-nos-ão à tentação e, a partir daí, à aquiescência à nossa própria subjugação. As pessoas falsificadas nos convencerão a adotar políticas e convicções que nos tornarão vulneráveis ​​a ainda mais manipulação. Ou simplesmente desligaremos nossa atenção e nos tornaremos peões passivos e ignorantes. Esta é uma perspectiva assustadora.

A principal inovação de design na tecnologia que torna a perda de controle desses sistemas uma possibilidade real é que, ao contrário das bombas nucleares, essas armas podem se reproduzir. A evolução não se restringe aos organismos vivos, como Richard Dawkins demonstrou em 1976 em The Selfish Gene . Pessoas falsificadas já estão começando a nos manipular para dar à luz sua progênie. Eles aprenderão uns com os outros, e aqueles que são os mais inteligentes, os mais aptos, não apenas sobreviverão; eles se multiplicarão. A explosão populacional de vassouras em O Aprendiz de Feiticeiro começou, e é melhor esperarmos que haja uma maneira não mágica de desligá-la.

Pode haver uma maneira de pelo menos adiar e possivelmente até mesmo extinguir esse desenvolvimento sinistro, tomando emprestado o sucesso – limitado, mas impressionante – em manter o dinheiro falsificado apenas na categoria de incômodo para a maioria de nós (ou você examina cuidadosamente cada nota de $ 20 que recebe ?).

Como diz Harari, devemos “tornar obrigatório que a IA divulgue que é uma IA”. Como poderíamos fazer isso? Adotando um sistema de “marca d’água” de alta tecnologia como o EURion Constellation, que agora protege a maioria das moedas do mundo. O sistema, embora não seja infalível, é extremamente difícil e custoso de dominar – não vale o esforço, para quase todos os agentes, até mesmo governos. Os cientistas da computação também têm a capacidade de criar padrões quase indeléveis que gritam FALSO!em quase todas as condições – desde que os fabricantes de telefones celulares, computadores, TVs digitais e outros dispositivos cooperem instalando o software que interromperá qualquer mensagem falsa com um aviso. Alguns cientistas da computação já estão trabalhando em tais medidas, mas, a menos que ajamos rapidamente, eles chegarão tarde demais para nos salvar de nos afogarmos na enxurrada de falsificações.

Você sabia que os fabricantes de scanners já instalaram um software que responde ao EURion Constellation (ou outras marcas d’água) interrompendo qualquer tentativa de digitalizar ou fotocopiar moeda legal? A criação de novas leis nesse sentido exigirá a cooperação dos principais participantes, mas eles podem ser incentivados. Os maus atores podem enfrentar penalidades terríveis se forem pegos desativando marcas d’água ou repassando os produtos da tecnologia que já tiveram suas marcas d’água removidas de alguma forma. As empresas de IA (Google, OpenAI e outras) que criam software com esses recursos de falsificação devem ser responsabilizadas por qualquer uso indevido dos produtos (e dos produtos de seus produtos – lembre-se de que esses sistemas podem evoluir por conta própria).

Não sou a favor da pena capital para nenhum crime, mas seria reconfortante saber que grandes executivos, assim como seus técnicos, correram o risco de passar o resto da vida na prisão, além de pagar bilhões em restituição por quaisquer violações ou quaisquer danos causados. E leis estritas de responsabilidade, eliminando a necessidade de provar negligência ou má intenção, os manteriam alertas. As recompensas econômicas da IA ​​são grandes, e o preço de compartilhá-las deveria ser assumir o risco de condenação e falência por não cumprir as obrigações éticas de seu uso.

Será difícil – talvez impossível – limpar a poluição de nossos meios de comunicação que já ocorreu, graças à corrida armamentista de algoritmos que está espalhando infecções em um ritmo alarmante. Outra pandemia está chegando, desta vez atacando os frágeis sistemas de controle em nossos cérebros – ou seja, nossa capacidade de raciocinar uns com os outros – que usamos com tanta eficácia para nos mantermos relativamente seguros nos últimos séculos.

Chegou o momento de insistir em fazer com que qualquer um que pense em falsificar pessoas se sinta envergonhado – e devidamente dissuadido de cometer tal ato anti-social de vandalismo. Se espalharmos agora que tais atos serão contra a lei assim que pudermos organizá-los, as pessoas não terão desculpa para persistir em suas atividades. Atualmente, muitos na comunidade de IA estão tão ansiosos para explorar seus novos poderes que perderam a noção de suas obrigações morais. Devemos lembrá-los, tão rudemente quanto necessário, que eles estão arriscando a liberdade futura de seus entes queridos e de todos nós.

Daniel C. Dennett é professor emérito de filosofia na Tufts University. Ele é o autor de muitos livros, incluindo Consciousness Explained , Darwin’s Dangerous Idea e From Bacteria to Bach and Back: The Evolution of Minds.

Este artigo foi retirado de

https://www.theatlantic.com/technology/archive/2023/05/problem-counterfeit-people/674075/

LEIA TAMBÉM:

Compartilhe: