quarta-feira, 18 de janeiro de 2017

A INTELIGÊNCIA ARTIFICIAL NO DOCUMENTÁRIO HYPERNORMALISATION


Inteligência Artificial como espelho individualista em 'HyperNormalisation'

Por Wilson Ferreira

Em postagem anterior - AQUI - discutíamos o novo documentário do britânico Adam Curtis, HyperNormalisation (2016), transmitido em nove episódios pela BBC - clique aqui. O  documentário discute como a crescente aversão não só à Política, mas à própria complexidade dos problemas reais fez nos últimos 40 anos os indivíduos se retraírem no ciberespaço, Internet, redes sociais como uma bolha ou espelho de si mesmos.

Mais além, como financistas, utopistas tecnológicos e políticos criaram, através da mídia e gestão da percepção, uma versão simplificada do mundo real: a “HiperNormalização”. E o que é pior, de como os próprias lideranças políticas acabaram acreditando nessa narrativa ficcional (muitas vezes inspirada em roteiros de filmes hollywoodianos), tornando tênues as fronteiras entre realidade e ficção. Uma versão não só simplificada do mundo, como também conciliadora – enquanto as pessoas têm corações e mentes capturadas por essas narrativas: grandes corporações e o mundo das finanças continuam gerindo tranquilamente o equilíbrio sistêmico do “deserto do real”.

Dando continuidade a essa discussão, nessa postagem vamos discutir como o documentário HyperNormalisation aborda o ciberespaço e Internet como partes decisivas nesse movimento generalizado de abandono do mundo real.


Maçãs e gestão de riscos


Esse abandono foi impulsionado pelo desejo por estabilidade e segurança. O documentário relata o exemplo do computador Alladin, da empresa de gestão de riscos BlackRock, na pequena cidade chamada East Wenatchee, no Estado de Washington. Entre pomares, Larry Fink construiu no final dos anos 1990 uma empresa de gestão de riscos baseada em um gigantesco computador, o Alladin, alojado em uma série de grandes galpões usados para armazenar maçãs.

O objetivo era o computador prever com certeza o risco de qualquer negócio ou investimento, monitorando todos os tipos de eventos mundiais e comparando-os com dados dos últimos 50 anos. Em seguida o computador detecta possíveis desastres no futuro.

Os algoritmos do software do BlackRock são tão bem sucedidos (manipula 7% dos ativos financeiros mundiais) que atualmente o Federal Reserve estuda se Alladin não deve ser promovido à condição de “SIFI” (Instituição Financeira Sistemicamente Importante) sob direta supervisão governamental.

Adam Curtis cita esse exemplo de como o conceito de Inteligência Artificial desenvolvido nos anos 1960-70 transformou-se no desenvolvimento de algoritmos capazes de transformar Big Data das redes que estabilizam tanto o “deserto do real” da economia quanto o ego dos indivíduos que abandonaram esse “deserto” e se protegeram no ciberespaço. Uma espécie de Prozac informático.

HyperNormalisation mostra como nos anos 1960 havia um otimismo generalizado entre utopistas tecnológicos de que os computadores um dia poderiam pensar como seres humanos. Passaram anos tentando programar as regras que comandam o pensamento humano. Mas sem sucesso.


A “psicoterapeuta” Eliza


Até que um dia, nos anos 1980, um cientista da computação do MIT chamado Joseph Wisembaum ficou tão desiludido que resolveu fazer uma paródia desse fracasso dizendo para todos que tinha feito um computador terapeuta: simplesmente as pessoas poderiam digitar os seus problemas que o programa chamado Eliza daria as respostas para o “paciente”. Uma brincadeira que, sem querer, fez Wisembaum tropeçar no paradigma que reformularia todo o conceito de Inteligência Artificial e abriria o campo dos algoritmos que governam as redes sociais e mecanismos de busca na Internet.

O “paciente” sentava na frente da tela e digitava o que estava sentindo. Eliza simplesmente repetia a última coisa que o usuário havia dito, reformulando sob a forma de pergunta. Wisembaum descobriu que todos os que usavam o Eliza ficavam absorvidos pelo programa: sentavam horas dizendo para a máquina seus sentimentos mais íntimos e incríveis detalhes da vida pessoal.

“O computador não te olha feio, não se irrita e nem tenta transar com você!”, confessou uma usuária. Para Curtis, o que o Eliza exprimiu foi a era do individualismo, que faz as pessoas se sentirem seguras ao verem sua personalidade refletida, como um espelho.

O que lembra um outro episódio, dessa vez na Universidade de Stanford: o desenvolvimento das técnicas de pesquisa em Marketing dos Valores e Estilo de Vida (VALS) no anos 1980, no qual foram enviados formulários de perguntas para consumidores via correio. O retorno foi surpreendente (86%). As pessoas perguntavam: “vocês têm outros questionários para eu preencher?”. As pessoas simplesmente adoraram falar de si mesmas, confessando seus desejos, incertezas, pensamentos e motivações.


Novo conceito de Inteligência Artificial


Hoje a Internet e redes sociais são desdobramentos em escala gigantesca do insight possibilitado pelo programa “Eliza”. É o novo conceito de Inteligência Artificial: os agentes inteligentes – algoritmos de grandes corporações que monitoram o Big Data para criar correlações e padrões para prever o que as pessoas irão querer no futuro.

Uma bolha que nos protege diante da complexidade do mundo real, ao mesmo tempo em que somos vigiados. Mas não é apenas uma questão de invasão de privacidade. Trata-se da própria redefinição do conceito de “Inteligência” como uma espécie de auto-abdicação humana.

O documentário cita Jaron Lanier, cientista do Vale do Silício e criador do conceito de “realidade virtual”, e seu alerta sobre a inteligência das redes e aplicativos: através dos olhos dos “agentes inteligentes” somos uma versão de Inteligência caricatural de racionalidade.

Para Lanier, noções como “inteligência coletiva”, “nuvem”, “algoritmo” ou qualquer outro objeto cibernético são aceitas como uma “superinteligência” por que reduzimos os nossos padrões e expectativas sobre a inteligência. As pessoas se degradariam o tempo todo para fazerem os aplicativos parecerem espertos. Por exemplo, a ideia de amizade em redes de relacionamento é reduzida. Uma pessoa se orgulha em dizer que possui milhares de amigos no Facebook. Essa afirmação só poderia ser verdadeira se a ideia de amizade for reduzida. Ignora-se que a verdadeira amizade deve se expor à estranheza inesperada do outro.

Além de simplificarmos a noção de inteligência, simplificamos a realidade ao nos fecharmos em bolhas criadas por algoritmos que supostamente antecipam nossas escolhas. Um modelo de “agente racional” deteriorado pois parte do princípio de que apenas agimos para obter o que queremos, e nada mais.


Para quem trabalhamos na Internet?


E Lanier acrescenta: “nunca está claro para quem trabalhamos, se para nós ou para outra pessoa”. Espontaneamente enviamos para as redes milhares de vídeos, imagens e relatos diários de nossos desejos e motivações. Acreditamos que tudo é apenas uma “nuvem” abstrata, mas que tem aspectos bem reais: enviamos dados para (que) nosso comportamento social, de consumo e mesmo político seja previsto por aquelas corporações e sistemas financeiros que estão lá, tranquilas no “deserto do real” gerindo o equilíbrio planetário.

O homem por trás de tudo isso foi um cientista chamado Judea Pearl. Segundo Adam Curtis, é o pioneiro do conceito moderno de Inteligência Artificial. Seu feito foi utilizar as chamadas “Redes Bayesianas” de opinião, redes causais de gráficos de dependência probabilística. Metodologia padrão de construção dos sistemas é o modelo algorítmico dos conhecimentos extraídos das redes digitais pelas grandes corporações para prever comportamentos e tendências sociais e políticas.

Isso fica claro com o depoimento de um engenheiro do Google dado ao historiador George Dyson:
“Nós não estamos escaneando livros para serem lidos por pessoas. Estamos fazendo isso para serem lidos por uma Inteligência Artificial. Enquanto acompanhamos o Google escaneando livros, uma visão tecnocêntrica incentiva programas a tratarem livros como combustível para um imenso moinho, trechos descontextualizados para um grande banco de dados, ao invés de expressões distintas de escritores individuais.” (Lanier, Jaron. “The First Church of Robotics”, New York Times, 09/08/2010).
Porém, esse mundo abstrato começou a ser invadido por aspectos do mundo real. Por uma estranha e terrível ironia, o primeiro vídeo de decapitação terrorista publicado on line foi do próprio filho de Judea Pearl, Daniel Pearl. Ele era jornalista do Washington Post e tinha sido sequestrado por extremistas islâmicos no Paquistão. Registraram o que seria sua confissão, antes de ser decapitado diante da web cam.

(Clique AQUI para ver o vídeo disponibilizado ao final do post Cinegnose).

Nenhum comentário: