iconfinder_vector_65_12_473798

Filie-se!

Junte-se ao Conselho Internacional de Psicanálise!

iconfinder_vector_65_02_473778

Associados

Clique aqui para conferir todos os nossos Associados.

iconfinder_vector_65_09_473792

Entidades Associadas

Descubra as entidades que usufruem do nosso suporte.

mundo

Associados Internacionais

Contamos com representantes do CONIPSI fora do Brasil também!

Trechos extraídos ou texto replicado na íntegra do site: .
Autoria do texto: .
Data de Publicação: .
Leia a matéria na íntegra clicando aqui.
Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp
Share on telegram
Share on email

Por Bruce Schneier.

Pessoas Artificiais e Discurso Público [01.13.2020]

A temporada de campanha presidencial [nos EUA] está oficialmente, oficialmente, sob sobre nós agora, o que significa que é hora de enfrentar as formas estranhas e insidiosas pelas quais a tecnologia está deformando a política. Uma das maiores ameaças no horizonte: pessoas artificiais estão chegando, e estão prontas para assumir o debate político. O risco decorre de dois tópicos separados que se juntam: geração de texto induzida por inteligência artificial e chatbots de mídias sociais. Essas “pessoas” geradas por computador excluirão as discussões humanas reais da Internet.

O software de geração de texto já é bom o suficiente para enganar a maioria das pessoas, a maior parte do tempo. Está escrevendo notícias, particularmente em esportes e finanças. Está falando com clientes em Web site de comerciantes. Está escrevendo editoriais convincentes em tópicos nas notícias (embora haja limitações). E ele está sendo usado para vitaminar jornalismo de 5º categoria” – sites que intentam parecer como canais de notícias legítimos, mas que, em vez disso, publicam propaganda.

Há um registro de conteúdo algorítmico fingindo ser de indivíduos, também. Em 2017, a Comissão Federal das Comunicações dispunha de um período de comentário público online para os seus planos de revogação da neutralidade da rede. Foram recebidos espantosos 22 milhões de comentários. Muitos deles — talvez metade — eram falsos, usavam identidades roubadas. Esses comentários também eram rudimentares; 1,3 milhões foram gerados a partir do mesmo modelo, com algumas palavras alteradas para torná-los únicos. Eles não resistiram nem a um escrutínio superficial.

Esses esforços só ficarão mais sofisticados. Em uma experiência recente, o sênior Max Weiss, de Harvard, usou um programa de geração de texto para criar 1.000 comentários em resposta a um chamado do governo em uma questão do Medicaid. Estes comentários eram todos únicos, e soavam como pessoas reais que advogam para uma posição política específica. Eles enganaram os administradores do Medicaid.gov, que os aceitaram como sendo preocupações genuínas de seres humanos reais. Sendo isso uma pesquisa, Weiss identificou, posteriormente, os comentários e pediu para que eles fossem removidos, de modo que nenhum debate de política real fosse injustamente tendenciosa. O próximo grupo a tentar isto não será tão honroso.

Há anos que os chatbots distorcem as discussões nas redes sociais. Cerca de um quinto de todos os tweets sobre a eleição presidencial de 2016 foram publicados por bots, de acordo com uma estimativa, assim como cerca de um terço de todos os tweets sobre o voto do Brexit daquele ano. Um relatório do Instituto de Internet de Oxford, do ano passado, encontrou evidências de bots sendo usados para espalhar propaganda em 50 países. Eles tendem a ser programas simples, repetindo slogans irracionalmente: um quarto de milhão de tuítes pró-saudita “Todos nós temos confiança em Mohammed bin Salman”  após o assassinato, em 201,8 de Jamal Khashoggi, por exemplo. Detectar muitos bots com alguns seguidores cada um é mais difícil do que detectar alguns bots com muitos seguidores. E medir a eficácia desses bots é difícil. As melhores análises indicam que eles não afetaram a eleição presidencial dos EUA, em 2016. O mais provável, distorcem o sentido do pessoa do sentimento público e sua fé no debate político razoável. Estamos todos no meio de uma nova experiência social.

Ao longo dos anos, bots algorítmicos evoluíram para ter personas. Eles têm nomes falsos, falsas biografias, e fotos falsas — às vezes gerados por IA. Em vez de vomitarem propaganda interminavelmente, postam apenas ocasionalmente. Os pesquisadores podem detectar que estes são bots e não pessoas, com base em seus padrões de postagem, mas a tecnologia de bot está ficando melhor o tempo todo, superando tentativas de rastreamento. Grupos futuros não serão tão facilmente identificados. Eles vão se integrar melhor em grupos sociais humanos. Sua propaganda será sutil, e entrelaçada com tuítes sobre tópicos relevantes para esses grupos.

Combine essas duas tendências e você tem a receita para um bate-papo não-humano sobrecarregar o discurso político real.  

Logo, as pessoas dirigidas por IA poderão escrever cartas personalizadas aos jornais e às autoridades eleitas, enviar comentários individuais aos processos de regulamentação pública, e debater inteligentemente questões políticas nas mídias sociais. Eles serão capazes de comentar em posts de mídia social, sites de notícias, e em outros lugares, criando personas persistentes que parecem reais, mesmo para alguém que os esmiúce. Eles serão capazes de posar como indivíduos em mídias sociais e enviar textos personalizados. Eles serão replicados aos milhões e envolver-se-ão nas questões o tempo todo, enviando bilhões de mensagens, longas e curtas. Colocando tudo isso junto, eles serão capazes de abafar qualquer debate real na Internet. Não apenas nas redes sociais, mas em todos os lugares onde haja comentários.

Talvez estes bots do persona venham a ser controlados por atores estrangeiros. Talvez venham a ser grupos políticos domésticos. Talvez eles mesmos sejam os candidatos. O mais provável é que sejam todos. A lição mais importante da eleição de 2016, sobre desinformação, não é que a desinformação ocorreu; é como foi barato e fácil desinformar as pessoas. As melhorias tecnológicas futuras farão com que tudo seja ainda mais acessível.

Nosso futuro consistirá em debate político tempestuosos, principalmente de bots discutindo com outros bots. Não é isso que pensamos quando louvamos o mercado de ideias, ou qualquer processo político democrático. Democracia requer duas coisas para funcionar corretamente: informação e agência. Personas artificiais podem matar de fome de ambos, as pessoas.

Soluções são difíceis de se imaginar. Podemos regular o uso de bots — uma proposta de lei da Califórnia exigiria que os bots se identificassem — mas isso só é eficaz contra campanhas de influência legítimas, como a publicidade. As operações de influência sub-reptícias serão muito mais difíceis de se detectar. A defesa mais óbvia é desenvolver e padronizar melhores métodos de autenticação. Se as redes sociais verificam que uma pessoa real está por trás de cada conta, então é melhor eliminar as personas falsas. Mas contas falsas já são criadas regularmente por pessoas reais sem o seu conhecimento ou consentimento, e o discurso anônimo é essencial para um debate político robusto, especialmente quando os oradores são de comunidades desfavorecidas ou marginalizadas. Nós não temos um sistema de autenticação que proteja tanto a privacidade quanto o sistema para os bilhões de usuários.

 Podemos esperar que a nossa capacidade de identificar pessoas artificiais acompanhe a nossa capacidade de as disfarçar. Se a corrida entre armas falsas e detectores falsos for um guia, também será difícil. As tecnologias da ofuscação parecem sempre um passo à frente das tecnologias de detecção. E as pessoas artificiais serão projetadas para agir exatamente como pessoas reais.

No final, qualquer solução tem que ser não técnica. Temos que reconhecer as limitações da conversação política online, e, novamente, priorizar as interações cara-a-cara. Elas são mais difíceis de se automatizar, e sabemos que as pessoas com quem estamos conversando são pessoas reais. Isso seria uma mudança cultural longe da internet e do texto, afastando-se das mídias sociais e de comentar tópicos. Hoje isso parece uma solução completamente irrealista.

Os esforços de desinformação são, hoje, comuns em todo o mundo, realizados em mais de 70 países. Esta é a maneira normal de forçar propaganda em países com tendências autoritárias, e está se tornando a forma de conduzir uma campanha política, quer para um candidato, quer para um problema.

Personas artificiais são o futuro da propaganda. E, embora possam não ser eficazes em predispor o debate para um lado ou outro, facilmente abafam o debate completamente. Não sabemos o efeito desse barulho na democracia, só sabemos que será pernicioso, e que é inevitável.

star-line-clipart-22
Editorial

Colunista do Conselho Internacional de Psicanálise.

Foto de Asher Legg, via Unsplash.
Psicanálise
Editorial

O Perigo dos Intelectuais.

Em 1951, um livro escrito por um estivador sem instrução, Eric Hoffer, previu as forças que dariam origem à política radical à esquerda, ao populismo

Leia Mais »

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *