A Inteligência Artificial Manipula o que você Pensa

Justin Lane é um especialista em inteligência artificial (IA) formado pela Universidade de Oxford e empresário[…]. Sua pesquisa abrange o campo da cognição – tanto humana quanto artificial – bem como religião e conflito.

Isso o levou a um fascinante trabalho de campo na Irlanda do Norte, onde estudou de perto os extremistas do Exército Republicano Irlandês e da Associação de Defesa do Ulster. No final das contas, ele aplicou sua pesquisa em ciências humanas à programação de IA e simulações de computador baseadas em agentes.

[…]

Lane está mais otimista. Ele me garante que o mundo da tecnologia é apenas uma série de ferramentas complexas. O segredo é saber como usá-los corretamente. […]

Esta entrevista é editada para conteúdo e clareza.

JOE ALLEN: De sua perspectiva como analista de rede, como são as massas sujas do ponto de vista de Deus? Estou sendo paranóico ou eles querem nos pegar?

JUSTIN LANE: Empresas como Google, Facebook ou Twitter – ou empresas de análise como a minha – agregam grandes quantidades de dados sobre os usuários. Isso é o que a maioria das pessoas chama atualmente de “Big Data”.

O que a maioria das empresas está fazendo é observar os dados em massa, ver quais são os padrões. Normalmente, o conteúdo específico do que é postado não é do interesse da empresa, do cientista de dados ou de seus algoritmos. Eles são apenas sistemas de engenharia que podem aprender esses padrões para que possam rastrear e aumentar o envolvimento de usuários individuais.

No entanto, em um banco de dados em algum lugar, esses dados existem na granularidade individual. Talvez seja no Twitter, ou um banco de dados corporativo, ou um banco de dados de inteligência em algum lugar. Essas informações pessoais podem ser usadas para fins nefastos. Existem implicações éticas óbvias.

Considere o uso da inteligência na China, onde se você disser algo ruim sobre o regime, sua pontuação de crédito social cai. Eles não estão olhando necessariamente de forma agregada, eles estão dizendo: “Não, você, neste dia, disse algo crítico ao governo e agora você não pode comprar uma passagem de trem”.

Eu diria que o que a China está fazendo atualmente é o que mais se aproxima do tipo de paisagem infernal distópica de que todos temos medo, enquanto a maioria das empresas americanas está mais interessada no fato de serem pagos por clique. Essa é uma diferença crítica, eu acho.

JA: Esse vasto mapa da opinião pública não poderia ser usado para manipulação – além da coleta de dados da campanha de Barack Obama ou do “ caso ” Cambridge Analytica de Donald Trump ?

JL: A possibilidade de manipular a opinião pública é enorme. O usuário médio está sendo manipulado ativamente e passivamente.

Eles estão sendo ativamente manipulados no sentido de que qualquer um que já ligou uma TV ou um rádio foi manipulado. O marketing existe para nos manipular, garantindo que, no momento em que precisarmos de algo, precisaremos de uma marca específica. Essa é a genialidade da publicidade. É simplesmente escalonável a um nível que nunca imaginamos com os dados que a mídia social possui e o número de pessoas engajadas em uma única plataforma.

Ao mesmo tempo, há também a manipulação passiva, que tem a ver com o que uma empresa permite em seu site – como estão produzindo e alterando, algoritmicamente, as informações que vemos.

Do ponto de vista psicológico, sabemos que quanto mais você for capaz de recitar informações, maior será a probabilidade de se lembrar delas. Chamamos isso de “aprendizado”. Então, quando uma empresa de mídia social decide que vai censurar um certo tipo de informação, ela decide que não vai permitir que seus usuários aprendam sobre isso tão prontamente.

Até certo ponto, isso existe de maneiras que eu acho que podem ser eticamente imperativas, onde existem certas circunstâncias, como danos a crianças ou pessoas indefesas sendo atacadas. Mas editar as opiniões dos usuários é uma área cinzenta. Quem você está protegendo retirando certo discurso político? Quem você está protegendo com a prática de shadowbanning?

Nessa medida, estamos sendo obviamente manipulados. Se isso é bom ou ruim depende muito do lado do espectro político em que você está, porque parece acontecer mais com vozes conservadoras do que com vozes liberais. Você vê isso muito na diferença entre “O que é discurso de ódio?” e “O que é discurso que você odeia?”

JA: Os policiais de IA estão policiando nossa fala nessas plataformas?

JL: Sim, definitivamente. O Facebook relata que bem mais de 90% das sinalizações iniciais de conteúdo ofensivo são feitas por algoritmos, por meio de sistemas de inteligência artificial. Isso é revisado posteriormente por revisores humanos. E eles estão, na verdade, autotreinando a IA com base no conteúdo sinalizado.

Isso é apenas especulação, mas se os conservadores estão sendo censurados mais do que os liberais, pode ser porque certas predisposições políticas têm maior probabilidade de serem ofendidas. Portanto, o preconceito na censura, que vemos atualmente nas mídias sociais, pode não estar inteiramente relacionado aos preconceitos políticos dos proprietários de empresas de tecnologia, revisores de censura ou cientistas de dados que projetam os algoritmos.

Como o Facebook usa dezenas de milhões de relatórios de usuários que sinalizam conteúdo que os ofende para treinar seus algoritmos, parte do viés político do sistema provavelmente reflete as vozes mais altas na sala. Se os conservadores não se engajarem ativamente na sinalização de conteúdo, eles não colocarão seus pontos de dados no banco de dados e suas opiniões não serão refletidas por esses algoritmos.

[Um sorriso malicioso se espalha pelo rosto de Lane.]

Uma coisa que os conservadores podem fazer – isso seria muito interessante ver até que ponto isso funciona no Facebook – é quando eles vêem algo que sabem que seria sinalizado se a situação fosse revertida, basta sinalizar como ofensivo. É bem possível que os algoritmos dos sites de mídia social aprendam que o discurso esquerdista é ofensivo e mudem a forma como as coisas são sinalizadas. Seria um experimento social interessante.

JA: Como alguém criado em um ambiente conservador, como tem sido sua experiência acadêmica?

JL: Depois da minha graduação, fui para a Europa porque era o único lugar onde poderia estudar modelagem computacional do comportamento humano da maneira que eu queria. Fui primeiro a Belfast, onde a natureza humana e as crenças culturais têm uma longa e cansativa história de violência.

Isso é no Reino Unido, onde não se pode possuir armas ner possuídas. No entanto, houve milhares de pessoas mortas por armas e bombas durante os Troubles. Isso reafirmou minha crença recém-descoberta de que a natureza humana é muito mais importante do que qualquer lei criada pelo homem.

Então cheguei a Oxford, onde estava basicamente abrangendo dois mundos. Por um lado, eu era um membro ativo da Sociedade Hayek, que é uma sociedade econômica libertária, e eles realizavam eventos conjuntos com todos os tipos de pessoas. Palestrantes convidados falaram criticamente sobre questões de economia, liberdade e moralidade.

Por outro lado, minha experiência com a cultura mais ampla do campus é que você só pode participar de um debate enquanto fizer parte de um coro de pessoas que concordam.

Este é um grande problema nas universidades da Ivy League. A Brown University rastreou quantos palestrantes conservadores aparecem no campus – algo como mais de 90% de todos os palestrantes são liberais ou esquerdistas nos campi universitários dos Estados Unidos. Isso faz parte da mesma câmara de eco que existe até mesmo em Oxford, embora sejam muito melhores do que outras universidades. A Universidade de Chicago também ainda é um bastião da liberdade de expressão.

Quando terminei minha pesquisa em Oxford, fiz pós-doutorado na Boston University, e foi um choque e um despertar para o quão ruim o sistema universitário americano se tornou uma instituição educacional. Não é que eles não promovam o pensamento crítico, eles apenas promovem respostas regurgitadas.

Se a sua conclusão não for a dos teóricos críticos – pessoas que são basicamente neomarxistas, pesquisadores da interseccionalidade – então você não está convidado a expressar sua opinião. E se o fizer, corre o risco de ser cancelado. Isso levou a uma forma de autoritarismo e extremismo que considero muito prejudicial à saúde.

O professor Ibram X. Kendi, da Boston University [ fundador do novo Center for Antiracist Research], fez comentários que podem ser interpretados como racistas e transfóbicos. No entanto, ele é anunciado pela universidade. Mas a universidade não vai defender os republicanos do campus que questionam Kendi quando estão sendo atacados por organizações estudantis de esquerda. Infelizmente, esse padrão parece estar crescendo nos Estados Unidos.

Joe Allen é um companheiro primata que se pergunta por que descemos das árvores. Por anos, ele trabalhou como armador em várias turnês de concertos. Entre os shows, ele estudou religião e ciências na UTK e na Boston University. Encontre-o em www.joebot.xyz ou @EvoPsychosis .