Vencendo o Jogo da Imitação

Um dos objetivos da pesquisa em Inteligência Artificial (IA) é o desenvolvimento da IA forte (strong AI), também chamada de AGI (Inteligência Artificial Generalista), um sistema flexível, capaz de aprender a resolver qualquer tarefa.

É intuitivo. Os únicos sistemas que conhecemos como capazes de aprender somos nós mesmos. O ser humano é a única coisa capaz de dominar uma linguagem e desenvolver modelos formais do mundo ao seu redor. Uma IA forte seria um cérebro eletrônico, uma cópia de nós mesmos, e um primeiro passo seria desenvolver soluções especializadas para pequenos problemas, como o jogo de xadrez.

Apesar de ainda estamos muito longe das AGIs, a IAjá é usada em diversas aplicações. O autocompletar do celular, impressão 3D, video-games, animações e até as buscas na internet usam sistemas capazes de aprender, algoritmos que mudam e se complexificam com o tempo.

Em 1950, Alan Turing propôs no artigo “Computing Machinery and Intelligence” o “jogo da imitação” (também chamado de Teste de Turing). Para Turing, como não temos um modelo completo de como uma inteligência funciona, não é possível avaliar se uma máquina é realmente capaz de pensar. A questão para avaliar uma IA, então, não poderia ser se a máquina realmente entendesse o mundo ao seu redor, pois ela simplesmente poderia aprender apenas a responder os testes que propomos para ela, sem ter uma inteligência de verdade. Precisaríamos de um artifício, de uma situação na qual pudéssemos comparar a capacidade de uma pessoa e de uma máquina aprenderem sobre uma tarefa. A solução? Fazê-la imitar um ser humano.

O jogo é simples, um entrevistador conduz uma entrevista simultânea com duas pessoas, mas uma delas é um computador tentando se passar por um ser humano. Assim, ele ganharia o jogo se o entrevistador não conseguisse diferenciá-lo do outro entrevistado, enquanto os seres humanos deveriam colaborar para tentar fazê-lo se revelar. As pessoas poderiam, por exemplo, pedir para que um cálculo fosse feito de cabeça, já que o computador poderia fazer um cálculo exato, enquanto e o ser humano traria arredondamentos. Seria possível o computador simular erros e trejeitos que confundissem o entrevistador? Seria possível ele improvisar e mentir?

Nos primórdios da computação, se imaginava que o ser humano era a medida de inteligência. Enganá-lo, então, deveria ser uma das coisas mais difíceis de se fazer.

O Teste de Voight-Kampf

É a primeira cena do filme Blade Runner. Uma sala de arquitetura labiríntica é iluminada por uma luz azul. Mesas e computadores indicam que estamos em um escritório futurista, mas um ventilador de teto e uma densa névoa que preenche a sala destoam. Um homem convida outro para sentar à mesa, é uma entrevista para uma vaga de trabalho. Antes da conversa começar, o entrevistador liga um aparelho arcano, um braço mecânico se estende, na sua ponta uma câmera, uma lente iluminada que foca as pupilas do entrevistado como uma macabra lente vermelha. Um fole bombeia, a máquina respira, as perguntas começam.

O teste de Voight-Kampf no filme Blade Runner

“Você está num deserto, caminhando pela areia, quando você encontra uma tartaruga se arrastando na areia. Você se abaixa e a vira. A tartaruga está de costas, sua barriga cozinha no Sol forte, chutando desesperadamente para se virar, mas não ela consegue. Não sem a sua ajuda. Mas você não vai ajudá-la. Por que você não vai ajudá-la?”

O teste de Voight-Kampf foi descrito por Philip K. Dick no livro “Com o que sonham as Ovelhas Elétricas?”, e adaptado para o cinema em Blade Runner, era uma versão do Jogo da Imitação, usado para verificar se alguém é uma pessoa de verdade ou um androide replicante. Segundo a história, replicantes imitam com perfeição os seres humanos, possuindo a mesma estrutura física, mas são mais fortes, mais rápidos e mais inteligentes. Só que eles são criados em tanques de crescimento rápido e, por possuírem poucas memórias, suas reações emocionais traem a sua natureza. Eles não são tão sensíveis à crueldade quanto nós, suas reações ao estresse são diferentes, e eles não entendem a crueldade. Ao invés de expressar preocupação quanto ao sofrimento da tartaruga, um replicante simplesmente ficaria confuso com a situação.

Turing imaginava que, mesmo que não haja um limite para o poder de trabalho dos computadores (que, em teoria, podem trabalhar com infinitos números), a inteligência humana precisaria de influências “colaterais”. O princípio da dor e do prazer, o instinto, a memória, haveria algum princípio que precisaríamos programar nas máquinas para que elas pudessem aprender de forma autônoma, como nós. Computadores são ferramentas bastante simples, capazes apenas de executar um programa, seguir um conjunto de instruções criado pelo seu programador. Em teoria, eles são muito mais potentes do que as pessoas, pois podem realizar bilhões de operações por segundo sobe conjuntos de dados gigantescos, mas nós não sabemos, mesmo, até que ponto nossos programas são capazes de compreender tudo o que acontece ao nosso redor (problemas como a relação P e NP, ou o teorema da incompletude de Gödel fundamentam estas dúvidas). Esta seria uma fronteira entre o artificial e o natural, um desconhecido que é ilustrado pelo teste de Voight-Kampf.

Dessa forma, um cérebro eletrônico talvez possa simular o nosso, mas haveriam fronteiras claras. Ele seria incapaz de sentir emoções, ele seria uma inteligência puramente verbal e literal, seria dotado de uma frieza mecânica, ou de um tique nervoso. A natureza da máquina sobreporia a programação humana que nós lhe damos. Talvez ela fosse desprovida de emoções, ou incapaz de inovação, ela não poderia criar.

Há modelos de inteligências artificiais como sistemas especialistas, sistemas de descoberta de conhecimento, data mining e redes neurais, todos são formas artificiais de raciocínio que geram resultados muito interessantes, mas não se parecem em nada com pessoas.

A ficção científica está repleta de mentes artificiais e alienígenas. O Data, de Jornada nas Estrelas, era um androide curioso, mas incapaz de sentir emoções complexas. O Bishop, do filme Aliens, o Resgate, se comportava sempre de uma forma submissa às pessoas, possuindo regras complexas que sempre deveria obedecer. O Exterminador do Futuro era uma máquina de extermínio que “vestia” uma pessoa, tinha um frio esqueleto metálico movendo um corpo de carne. Mas a fronteira entre humanos e máquinas se baseia em um princípio que coloca todos seres humanos como iguais, seres pensantes capazes de se reconhecer. Sozinha no plano da racionalidade, a humanidade olha para os animais e sabe que eles não tem alma porque não conseguem pensar como nós. Sendo fundamentalmente diferente, nós reconhecemos os iguais. Nossa inteligência é a única capaz de ver a realidade em si, o único espelho do mundo. Naturalmente, a mente sempre seria capaz de se reconhecer.

Os robôs conversadores

Em 1966, provavelmente enquanto Philip K. Dick escrevia seu livro, alguns estudantes do MIT usavam o gigantesco computador IBM 7094 da universidade para interagi com um pequeníssimo programa (para os nossos padrões de hoje). A ELIZA era uma simulação de uma psicoterapeuta, para interagir com ela, ela fazia perguntas que você respondia no terminal. Baseando-se nas suas respostas, ela continuava a conversa. Algumas de suas frases incluíam:

“Falem-me mais sobre isso.”

“O que você pensa sobre <assunto>.”

“Você está muito negativo sobre isso.”

Joseph Weizenbaum, um professor do MIT, escreveu a ELIZA para aplicar os conceitos que estudava de expressões regulares e também mostrar o quão simples poderia ser construir uma interface entre homens e máquinas (você pode testar o programa aqui). Mas a longevidade da ELIZA mostra um experimento muito além do seu pressuposto, muitos alunos achavam que a conversa com o sistema era reconfortante, gostaram da experiência. Weizenbaum, já sem muita criatividade, chamou essa sensação de Efeito ELIZA.

O ELIZA em Python possui menos de 300 linhas de código, incluindo o parser para análise do que é digitado. Ele faz uma análise muito simples das frases que lhe são ditas, e suas respostas são um tanto aleatórias. Mesmo assim, esse programa bastante simples continua a surpreender estudantes de computação e psicologia pela sua capacidade de produzir empatia. A mente pode se reconhecer, mas será que é necessário que ela se reconheça para que trate o outro com empatia?

Ao contrário dos chatbots, os andróides ainda nos causam um profundo desconforto. A Eva é um rosto robô que simula expressões faciais (fonte: wikimedia).

Os Tuítes e as Infodemias

Os cucos são uma espécie bastante popular de pássaros que esconde uma história de terror: Eles são pássaros parasitários, que colocam seus ovos no ninho de outras aves. Seus filhotes, muito maiores do que os de suas vítimas, empurram seus “irmãos” para fora do ninho. O mais estranhos é que os pais adotivos continuam a alimentar o cuco. Não sei o porquê, talvez o instinto familiar é mais forte, ou se eles simplesmente não conseguem reconhecer que o bebê gigante não é seu.

Um pássaro cuco. Fonte: Wikimedia.

Quase cinquenta anos se passariam desde que o “efeito ELIZA” foi observado pela primeira vez, quando, na década de 2010, um movimento chamado “Primavera Árabe” começava a desafiar cientistas sociais e teóricos políticos. Mohamed Bouazizi era um comerciante ambulante da cidade de Ben Arous, na Tunísia, até que teve os seus bens confiscados pela polícia. Ele resolveu ir à prefeitura reclamar, e, quando não foi atendido, ateou fogo a si mesmo. Os vídeos rapidamente circularam, despertando o clamor popular. Em apenas quatro semanas de protestos o governo caiu,e isso despertou uma série de protestos pelo Oriente Médio. Como uma cidade com menos de cem mil habitantes seria o berço de um movimento que se espalharia por uma dúzia de outros países? A única coisa clara era uma nova tecnologia nascente no cerne dos protestos: as redes sociais.

A Primavera Árabe abriu a década na qual as redes sociais se tornaram centrais nas nossas vidas políticas. Em 2014, o Facebook implementou uma notificação de “votei”, que permitia uma pessoa dizer que participou das eleições, já que nos EUA não é obrigatório votar. Segundo Zuckberg, isso incentivaria as pessoas a votar, aumentaria a participação democrática. Era um vislumbre de como a internet se tornaria o centro da nossa vida política. As pessoas estavam usando as redes para se comunicar mais, trocando informações em um nível nunca visto.

Em 2016, a campanha pelo Brexit trouxe à tona um lado inesperado na política das redes sociais. Sistemas de profiling em larga escala, conduzidos por empresas como a Cambridge Analytica e AggregateIQ, foram essenciais no “marketing de precisão” que conseguiu trazer 3 milhões de novos eleitores para o referendo (se compararmos os eleitores que participaram do referendo com os da eleição de 2014). O “algoritmo” parecia domar a potencialidade explosiva das redes sociais, as massas novamente se mostravam influenciáveis, e um novo termo surgia: fake news disparadas por targeted marketing. Notícias falsas como propaganda direcionada, elas falam exatamente o que você quer ouvir; aquilo que vai te causar uma forte reação. Estas notícias eram criadas por grupos de marketing, pessoas treinadas em buscar formas de afetar tanto a mente, quanto o coração do público.

Nas eleições de 2018, os grupos de whatsapp tomaram a proeminência dessas redes de targeted marketing. O sistema começava, pelo menos no Brasil, a caminhar por suas próprias pernas, e qualquer ponto de vista pode ser sustentado na torrente informacional.. Mensagens das mais bizarras espalham o pânico e a desinformação, formando poderosos blocos políticos. Quanto mais visceral, maior o alcance. Isso não é de se surpreender, vendo a visibilidade que grupos anti-vacinas e terraplanistas ganharam. As pessoas se tornando tão seletivas com as notícias que leem que alguns chegaram a teorizar que vivemos em uma era da pós-verdade, onde há tanta informação que fica difícil, senão quase impossível, termos um entendimento comum do que existe e o que não existe. Enquanto escrevo este texto, um grande pânico se espalha sobre o vírus nCov-19 que se alastra pela China, tão grande que a Organização Mundial de Saúde já a chama de “infodemia”.

E um dos agentes principais dessa era são os bots, aqueles nossos contatos nas redes sociais que espalham as suas mensagens, seja repassando-as, seja ativamente invadindo outros espaços, como caixas de comentários. Essa segunda geração dos chatbots são programas que habitam as redes sociais, interagindo com as pessoas para oferecer informações e serviços, enquanto coletam dados dos usuários. Se você controla uma rede de bots, tem acesso a todas as pessoas indiretamente conectados à eles. Mas nem todos os bots são programas, muitos são pessoas que divulgam notícias ou desinformação, fazem ativismo e até atacam outros, voluntariamente, ou como um trabalho (content farms e click farms são apenas alguns exemplos de negócios construídos sobre esta lógica).

Sejam programas avançados ou simplesmente trabalhadores ou pessoas muito engajadas, os bots se tornaram uma parte essencial da vida política da rede, são o centro da viralidade. Isso se tornou um problema, já que a tecnologia-chave desse imenso sistema social da internet é a medida da relevância do conteúdo. Palavras são pesadas pelo quanto elas são usadas, pelo quão único e importante é o seu significado, e pelo quanto elas estão sendo citadas no momento pelos usuários. Bots podem alterar a relevância de uma mensagem, que complementa a sua viralidade. A chave não é o conhecimento, mas a emoção. Se as mensagens dizem o que queremos ouvir, se elas reforçam nossas ideias, se elas parecem nos ameaçar, nós as repassamos ou reagimos a ela (algo equivalente a repassá-la). Nós simplesmente não temos tempo ou interesse em checar as fontes de tudo que recebemos, ainda mais se a mensagem nos parece algo urgente. E assim como as vítimas dos cucos, quando recebemos a informação que nos agrada, cuidamos dela com muito esmero. Todos nós temos uma reputação a zelar, e nossas opiniões, mesmo que não tenham lá muito fundamento, não podem ser publicamente ridicularizadas.

Neste mundo de bots, pessoas e programas são indistinguíveis, e suas redes organizam, informalmente, grupos e subculturas. Turing esperava que os computadores poderiam se passar por seres humanos, mas precisariam de uma grande habilidade para nos enganar. A verdade é que muitas vezes nós queremos ser enganados. Parece que o jogo da imitação foi solucionado.

Fake News e a ascensão das Teorias da Conspiração

– “É chamada Síndrome de Vênus, um cenário de fuga planetária do aquecimento global que está causando a sexta extinção. Os ricos se prepararam para sair do planeta, para ir para o espaço. Por isso, o armam contra os pobres. As massas miseráveis da humanidade que não forem exterminadas pelas elites fascistas ultra-violentas terão que ser impedidas de fugir do planeta. Claro, se você acreditar nesse tipo de coisa.”

Arquivos X é uma série de 1993 sobre dois agentes do FBI que investigavam casos relacionados ao paranormal. Suas histórias eram baseadas numa verdadeira mitologia com os extraterrestres na área 51, sociedades secretas como o Majestic 12, experiências genéticas no exército, raios de controle da mente e até os jacarés no esgoto, sempre apresentados pelas lentes da credulidade do agente Fox Mulder e do ceticismo da agente Dana Scully.

Após nove anos, o seriado mudou bastante. Parte das teorias se revelaram verdades, e os agentesencontraram monstros, organizações secretas que comandam o mundo e foram até abduzidos por alienígenas.

Na décima temporada de Arquivos X, lançada depois de um hiato de quinze anos, Mulder encontra uma espaçonave alienígena que funciona com energia limpa e é capaz de manipular a gravidade. Ele não tem dúvidas, o seu cenário da Síndrome de Vênus era a explicação perfeita do porquê a nave ser um segredo do governo.

Fonte: https://commons.wikimedia.org/wiki/File:I_want_to_believe.svg

Nunca gostei muito da série, sempre achei meio episódica e confusa para um telespectador casual, mas essa cena acabou me marcando. Era no final de 2016, um ano especialmente complicado na política, e dois casos estavam na minha cabeça.

O primeiro era a ressurgência do Terraplanismo, a ideia de que a Terra é plana. Grupos terraplanistas sempre existiram, mas ganharam notoriedade por causa de uma sequência desconcertante de tretas nas redes sociais que culminaram com o físico Neil DeGrasse Tyson fazendo uma apresentação desconcertante de hip-hop para mostrar para o rapper B.O.B. os argumentos e provas científicas do porquê a Terra ser redonda. B.O.B. não foi convencido, e continua tentando juntar dinheiro ao redor do terraplanismo.

O segundo era o escândalo do Pizzagate.

Após o hacking dos e-mails do líder da campanha presidencial de Hillary Clinton no WikiLeaks, um troll da internet montou uma história que havia um código escondido nos textos indicando um grupo de satanistas traficantes de crianças na cúpula do partido democrata. Isso foi divulgado pelas redes sociais, onde cresceu e ganhou tração, até chegar nos sites de mídia fake news sensacionalistas, que publicam indiscriminadamente notícias falsas de acordo com seus objetivos políticos. Agora a história dizia que o grupo se reunia em uma pizzaria na cidade de Washington.

Passou-se um mês e, em dezembro de 2016, um homem de 28 anos atirou contra o restaurante. Ele tinha cruzado vindo de um outro estado, com um fuzil embaixo do braço, para “investigar o caso”, e até tinha tentado recrutar outras pessoas para o ataque. O incidente terminou, felizmente, sem nenhuma vítima.

O escândalo ficou famoso como um marco para as fake news e apareceu em vários jornais mainstream, era uma espécie de campanha de conscientização. Foi, na verdade, mais uma tomada de consciência geral sobre o fenômeno, as fake news chegaram para ficar.

Os dois casos dariam bons episódios Arquivos X, mas foram reais. Assim como na série, os teóricos da conspiração deixaram de ser aqueles tiozinhos extravagantes, isolados, cheios de manias e com seus chapéus de folhas de alumínio, para se tornaram líderes de grandes movimentos, suas ideias se espalham, atraem seguidores. Hoje eles organizam movimentos que conseguem mobilizar milhares, ou milhões de pessoas.

Como chegamos aqui? Em pleno século XXI, com um sistema aberto de comunicação global, onde a informação está amplamente disponível para ser checada, o resultado não deveria ser uma cultura mais próxima da realidade?

Na verdade essa era a ideia do teórico de mídia Pierre Lévy. Para ele, a internet da década de 90 era um reino de oportunidades. Iniciava uma nova era nas comunicações humanas, uma onde a da granularidade reinaria, onde as mensagens se fragmentariam e se desprenderiam de seu contexto um grande ciberespaço infinito, onde diferentes pontos de vista conviveriam sem a possibilidade de se totalizarem (de tentarem apagar os outros). O ciberespaço exprimiria a diversidade humana. Não haveria um domínio, mas uma realidade a ser encontrada. Era uma totalidade não totalizante.

Some isso ao desenvolvimento científico, o acúmulo de conhecimento gerado nas academias e validado pelo método empírico. Era uma utopia, um mundo onde o conhecimento poderia se sobrepor à realidade, aumentando-a, transmutando-a. Talvez, foi por isso que o agente Mulder exclamou, quando encontrou seus antigos casos arquivados no início da décima temporada:

– “Scully, desde que fomos embora, a maior parte do inexplicável foi explicado!”

Não haveria mais espaço para a mentira, porque a verdade estaria lá fora.

Mas as coisas não ficaram desse jeito. A terra plana está aí para provar, não mais como uma hipótese a ser investigado, mas como uma insistência quase fanática de um grupo de pessoas indispostos a mudar de opinião.

Lévy acertou em cheio sobre como a informação se transformaria, mas errou feio sobre como nós nos apropriaríamos dela. O ser humano não é racional, é afetivo, mistura sentimentos ao pensamento, tem reações instintivas e viscerais e, até certo ponto, é computacional. Pensar dá trabalho, comunicar-se dá trabalho, seguimos a lei do menor esforço. A hiperconetividade dá origem a um novo tipo de informação, a microinformação.

Se a escrita, o correio e a imprensa permitiram transitar grandes volumes de informações, a internet traz uma nova característica. A questão agora não é mais como mover um caminhão carregado de palavras por grandes distâncias, podemos fazer isso com apenas um clique no mouse. O limite agora se encontra não na produção, mas na recepção. A questão agora é como alcançar o grande público, e a melhor forma parece ser comprimir a maior quantidade de informação na menor mensagem possível.

Veja o exemplo dos memes, fotos com pequenos textos que construídas passar rapidamente informação e nos provocar reações. Você coloca o Chapolin Colorado com uma cara de esperto e um texto lacrador, e você tem um pequeno vírus político que se espalhará rapidamente pela rede. esses snippets multimídia se adaptam a diferentes contextos e mantém uma mensagem bem resiliente, muitas vezes se relacionando com alguma coisa que está acontecendo ou que ainda está na memória do povo. E, essa é uma mídia surpreendente que consegue usar, em igual escala, os recursos retóricos do Logos, Pathos e o Ethos (razão, emoção e autoridade, como discutimos aqui).

Isso não é uma crítica à microinformação. Ela tem sua potencialidade e as suas virtudes. Um exemplo que me vem são os vídeos do three minute philosophy. Neles, o autor passava rapidamente uma ideia da filosofia em apenas três minutos, com muito humor, uma narração frenética e alguns desenhos do Paint. Você pode aprender muita coisa, desde os princípios do racionalismo cartesiano à moralidade deontológica de Kant. Claro, nada muito profundo, mas uma excelente introdução que já te permite aplicar os conceitos com segurança, de uma maneira mais clara que lendo os textos longos e confusos onde eles foram criados.

A grande questão da microinformação é a viralidade. Ela não se importa em trazer uma informação para todos os que a lerem, mas em provocá-los. Quanto mais potente ela for, mais impactante será para quem lê-la, e vai se mover com uma maior velocidade. Afinal, para uma pessoa clicar ou compartilhar alguma informação, tanto faz o que ela lhe provoca. É mais um reino de calls to action, de marketing direcionado, e de sobreposição de paradigmas e militância virtual, muito mais do que um de diálogo e entendimento.

E o que isso tem a ver com as teorias da conspiração do nosso amigo Fox Mulder?

[Informação, Conhecimento, Teoria da Conspiração. Tirinha encontrada no imgur, adaptada de um trabalho de Hugh Macleod.

Conhecimento é narrativa. É juntar um conjunto de elementos, princípios, fatos, elencar causas, consequências, fenômenos. E num mundo onde a informação é abundante e fragmentada, fica fácil cair em algumas armadilhas cognitivas, principalmente no viés de confirmação (confirmation bias).

Convenhamos, é muito bom estar certo.

Só que quando ficamos imersos em um mundo de informações e microinformações provocantes, as narrativas tomam uma vida própria. O que acontece quando elas começam a absorver pedaços desconexos da realidade, desordenados no tempo e no espaço? O que acontece quando você pode encontrar informações para praticamente tudo o que você desconfia? E o que acontece quando essas informações são entregues a você, por um algoritmo que te conhece profundamente?

Você começa a se organizar com pessoas que pensam igual.

Teorias da conspiração são pseudoteoria que envolvem projetar forças e planos ocultos, uma ordem ou organização maléfica, que estaria por trás de vários acontecimentos, muitas vezes não relacionados. E vou dizer que elas me lembram um pouco o nosso conhecimento em rede. É uma pergunta constante “como posso relacionar isso com o que já sei?”

Tive uma conversa com um paranoico (delírio de perseguição). Ele tinha certeza que carros que passavam na rua estavam lhe vigiando. Isso tudo porque o governo queria monitorá-lo e torturá-lo, impedi-lo de fazer sucesso e trabalhar. Tudo por uma questão de estratégia norte-americana de nos manter sob seu domínio, ele dizia. Essas afirmações eram a história que ele usava para ordenar seus sentimentos aterradores, invariavelmente o colocavam no centro do mundo.

O pior é que uma teoria da conspiração é resistente a fatos e provas. Ela incorpora tudo, sem se alterar. Acho que porque ela tem uma constante, a identidade do “teorista”.

Não estou querendo dizer que estamos todos ficando paranoicos, as conspirações e a paranoia são apenas um possível lado mais extremado do efeito que estamos passando.

O que quero dizer é que a rede pode ser uma totalidade não totalizante, como sugere Lévy, mas talvez nós, pessoas, sejamos agentes totalizantes. Uma boa parte de nossas opiniões são como teorias da conspiração. Há certos aspectos nossos que são muito resistentes à empiria. E isso é necessário, pois esses aspectos são nossa personalidade, alguma coisa que não deveria ser destruída com as experiências. Em um mundo onde a informação cada vez mais usa nossas reações mais primordiais para ser transmitida, talvez nós nos fiquemos mais próximos de nossas totalidades mentais do que da realidade.

Fake News, gíria moderna que usamos para nos referir a uma infinidade de problemas e questões trazidas pela mídia em rede e os seus efeitos de propaganda e desinformação, sedimentada como a produção e a divulgação de notícias falsas por “pessoas comuns” (não por grandes veículos).

Este é um termo guarda-chuva, é um meme, uma chamada, uma notícia inteira, um documentário. Tudo com um grande compromisso: passar uma informação com um viés específico, que costura eventos (reais ou completamente imaginários) para traçar uma narrativa que nos provoca.

Visitei alguns portais de fake news de esquerda e direita. É quase um modus-operandi. A chamada é sensacionalista, sempre se vinculando com algum escândalo, o portal tem um viés político descarado, são publicadas apenas notícias que servem a uma agenda. O conteúdo é, em maior parte, comentário sobre a situação, com poucas referências aos fatos do incidente reportado. A informação falsa é seguida de um comentarista gritando, por uma hora, sobre como o mundo está ruim, como o estado está falido, como há uma conspiração, como há um inimigo. Parece um pouco a ideia de pregação, de culto, um relembrar, um professar constante, uma afirmação de certezas. Talvez mais como os “dois minutos de ódio” em 1984, você exercita suas crenças, relembra-as e tem uma recompensa cerebral por fazê-lo. Talvez tenha a ver com a natureza da mentira, você tem que tornar difícil para que as pessoas consigam encontrar o que é falso.

Mas as fake news não vivem apenas numa esfera midiática e ideológica. Elas tem um fim primário, que é causar uma reação nas pessoas que as leem. Movimentar as pessoas. Elas instrumentalizam as teorias da conspiração pois mesmo quando se referem a fatos reais os recobrem com uma certeza e um posicionamento. Elas organizam ao afirmar “isso aqui aconteceu por causa daquilo que nós já sabemos”. É o primeiro passo para o totalitarismo, a união das pessoas ao redor de um modo de pensar único.

Isso não é incidental, e você não precisa ir para os cantos mais obscuros da internet para ver pessoas empregando essas técnicas. Dá até pra pensar que nossa sociedade foi abduzida por forças sombrias, mas, na verdade, o conhecimento tem uma utilidade política. Think-tanks, instituições de propaganda e marketing… Estas técnicas que, apontam, causaram a eleição de Trump e o Brexit em 2016. Se lembra do escândalo da Cambridge Analytica? Vai sair um filme, e se o trailer não mentiu muito, essa será a sua argumentação.

Fake News nos permitem olhar de uma maneira diferente para a “mídia tradicional”. É como as linhas editoriais dos jornais, mas ainda mais comprometida com uma agenda.

É comum os jornalistas empregarem o termo Fact Checking, a checagem de fatos, tomando para si, o papel de dizer o que existe e o que é falso. Esse é um trabalho essencial hoje, em que um corajoso profissional desbrava uma longa cadeia de informações e desinformações, criando uma genealogia da mentira, mostrando, de uma vez por todas, o que é verdade e o que é mentira.

Mas é engraçado como o próprio Fact Checking não escapa dos mecanismos que alimentam as fake news. O sensacionalismo, por exemplo, uma vez li uma chamada mais ou menos assim “Candidato erra número sobre não sei o quê”, daí na matéria estava escrito “disse que era 20%, mas na verdade é 16,75%”. Parece um grido de “rá! ele estava errado, nós temos a verdade!”. Talvez a estrutura incentiva à prática.

A “mídia tradicional” sempre trabalhou muito com uma ideia de ser dono da verdade. E os jornalistas e os próprios veículos fazem leituras enviesadas. Compare diferentes manchetes de uma mesma notícia em jornais diferentes. Você verá, consistentemente, as linhas editoriais, que traduzem as notícias em uma narrativa. Só que há grupos que mantém seus “editoriais” e sua própria produção de fake news.

Hoje, a informação não mais liberta, ela está mais para um psicotrópico que consumimos para nos manter em um determinado estado de espírito, do que numa ferramenta para construir novos conhecimentos e visões de mundo.

Ideias complexas requerem empiria e diálogo. Raciocinar, aprender sobre o mundo ao nosso redor e suas leis mais abstratas, tem um custo computacional grande. Seguimos a lei do menor esforço. E, com isso, criamos toda uma dinâmica explosiva na rede. Muitas vezes que lemos é acomodado ao que já sabemos, como numa teoria da conspiração.

O que faltou para Lévy foi imaginar como nós nos comportaríamos diante de um mundo onde a informação foi trivializada. Na verdade não foi só para ele, ninguém sabe muito bem como fazer para evitar que a ficção nos mova mais que a realidade.

Bibliografia recomendada:

1984, livro de George Orwell publicado em 1949. Clássico da ficção científica sobre uma ditadura distópica de Oceania, que mantém um apertado controle sobre a história e a própria língua do povo. O livro foi escrito com suas reflexões sobre os grandes movimentos totalitários do século XX.

Cibercultura, livro de Piérre Lévy de 1997 no qual ele cria suas previsões sobre como seria a nova cultura do ciberespaço. Bem interessante, principalmente para nós que vivemos nesse mundo.

HyperNormalisantion. Um documentário da BBC de 2016, produzido por Adam Curtis sobre a mídia moderna e seu uso na política.

The Fringe Insurgency, Connectivity, Convergence and Mainstreaming of the Extreme Right. White paper de 2017 publicado pelo Institute for Strategic Dialogue analisando uma sociologia das comunidades virtuais.