Páginas

sábado, 30 de julho de 2011

A Personalização da Esfera Pública e a Bolha de Filtros


A Personalização da Esfera Pública e a Bolha de Filtros

E-mail Imprimir PDF
Vista como uma fonte diversificada, plural e aberta de informações sob os mais diversos pontos de vista, a internet nos remete a uma imagem de uma enorme biblioteca, com serviços como Google propiciando um mapa universal. Presumimos que a internet seja um grande instrumento para nos conectar e nos aproximar, e para ajudar a criar um mundo melhor, verdadeiramente mais plural e mais democrático. Não obstante, alguns indícios nos levam a suspeitar de que no momento a realidade pode ser bem diferente. Os anúncios que nos são exibidos, assim como os resultados de busca que obtemos na internet, e até mesmo as notícias veiculadas nos portais de grandes conglomerados jornalísticos e agregadores de notícias estão cada vez mais baseados em critérios automatizados de seleção: os chamados algoritmos de classificação estão personalizando o que chega até cada um de nós, e o mais grave é que não conhecemos e nem sequer somos alertados sobre os critérios adotados. É como se estivéssemos vivendo numa bolha de informações que proíbe a entrada de visões e perspectivas que divergem das nossas.
A personalização é viável devido sobretudo às tecnologias de rastreamento da navegação na rede. O fato é que, para melhorar a relevância dos anúncios e garantir uma melhor experiência online ao usuário, anunciantes e empresas de serviços na internet, aí incluídos busca, redes sociais, e-mail e comércio eletrônico, todos fazem uso de tecnologias de rastreamento das atividades do usuário por meio da gravação de pequenos arquivos conhecidos como “cookies” no sistema de arquivos do usuário. A partir dos dados gravados nos cookies é possível construir um perfil “comportamental” e demográfico do usuário, e daí personalizar sua experiência online.
O fenômeno da personalização da esfera pública já havia sido analisado por Cass Sunstein, influente jurista americano e hoje administrador do “Office of Information and Regulatory Affairs” do governo Obama, em seu livro “Republic.com” (Princeton Univ Press, 2002). Argumentando que a democracia depende de experiências compartilhadas e requer que os cidadãos sejam expostos a tópicos e idéias que não teriam escolhido antecipadamente, Sustein járevelava preocupação com os possíveis efeitos negativos trazidos pela internet com a facilidade de personalização do noticiário e a criação do que ele chamou de “Daily Me” (“Diário Eu”): “no ciberespaço, já temos a capacidade de filtrar tudo exceto o que desejamos ver, ouvir e ler”. Numa espécie de segunda edição reformulada sob a ótica da chamada “internet interativa”, Sustein em “Republic.com 2.0” (Princeton Univ Press, 2009)defende que, ao gravitar apenas em torno de blogs, podcasts e outras mídias sociais que reforçam suas próprias visões, o cidadão vai se privando de entrar em contato com perspectivas diferentes, e o sentido de “empoderamento” pessoal posteriormente associado a “liberdade” acaba alimentando o efeito “câmara de eco”, que substitui um sentido de unidade democrática com polarização acelerada. E essa tendência de se isolar em “casulos de informações” pode representar um dos efeitos mais perniciosos da internet sobre a esfera pública, argumenta Sunstein.
Se há alguma legitimidade na preocupação de Sustein como excesso de personalização que os próprios cidadãos estariam promovendo através do uso da tecnologia, imagine o cenário em que a personalização é feita por máquinas, algoritmos. Eli Pariser, ativista e coordenador da organização não-governamental  americana de cunho político MoveOn.org, em palestra no portal TED.com intitulada “Beware online ‘filterbubbles’” (Março 2011) chama a atenção para o fato de que, à medida que as empresas da web buscam incessantemente adaptar seus serviços (aí incluídos noticiários e engenhos de busca) às preferências pessoais de cada um dos seus clientes, surge um perigoso efeito colateral: o cidadão se vê preso numa “bolha de filtros” e não é exposto a informações que poderiam questionar ou ampliar sua própria visão de mundo. E o resultado é que “os filtros de personalização servem a um tipo de autopropaganda invisível, nos doutrinando com nossas próprias idéias, amplificando nossos desejos por coisas que nos são familiares e nos deixando cegos aos perigos à espreita no território negro do desconhecido.”
Como resultado de suas reflexões sobre as implicações sociais dessa bolha de filtros,Pariser, em seu livro “The Filter Bubble: What the Internet Is Hiding from You” (The Penguin Press HC, Maio 2011), chama a atenção para o fato de que, diferentemente do que se presume,os resultadosde uma busca no engenho da Google não são os mesmos para todos os usuários, nem idênticos para o mesmo usuário em momentos distintos. Desde Dezembro de 2009 que o algoritmo da Google de ordenação dos resultados usa diversas variáveis (vide o post “Personalized Search for everyone” publicado no “The Official Google Blog” em 04/12/2009), mais de 50 segundo fontes seguras, que envolvem desde o tipo de computador que está sendo usado, a história de navegação associada àquele usuário, até o tipo de navegador através do qual a busca foi solicitada, incluindo o local associado ao endereço de IP da máquina do usuário. Assim, uma busca sobre “células tronco”, por exemplo, poderia produzir resultados completamente diferentes  dependendo da posição de quem fez a busca, se entusiasta ou ativista contrário.Igualmente, uma busca por “prova das mudanças climáticas”pode levar a resultados bem distintos para um ambientalista, por um lado, e para um executivo de uma empresa de produção de energia considerada poluente, por outro lado.
Isso não ocorre apenas nos engenhos de busca. Nas redes sociais a personalização é ingrediente fundamental na fidelização do cliente. Alguém que tem centenas de amigos no Facebook, por exemplo, vai ver as notícias de mural provenientes apenas dos mais chegados, pois o algoritmo por trás do serviço da Facebook se baseia nas interações, nos cliques e nas declarações de “curtir” realizadas pelo usuário para ser capaz de fazer uma previsão do que, e de quem, mais lhe interessa. Algo semelhante faz o Yahoo! News para descobrir qual notícia mais interessa ao usuário com aquele perfil, a Netflix para conseguir recomendar o filme que mais se encaixa nos gostos do cliente com aquele histórico, a Amazon para adivinhar o livro ou produto que interessaria a alguém com perfil semelhante, a Zappos para encontrar que tipo de sapato está dentro das preferências, etc. Dizendo-se preocupado em “garantir que esses algoritmos carreguem um sentido de vida pública, um sentido de responsabilidade cívica,” Pariser clama por um ativismo cibernético que busque forçar essas empresas a cumprir o que muitas delas declaram como slogan de missão e de boas intenções (“Do no evil”, isto é, “Não seja do mal”, é o motto da Google). Lembrando a máxima de Melvin Kranzberg (1917–1995), um dos fundadores da Society for theHistoryof Technology, de que “tecnologia não é do bem nem é do mal, nem é neutra”, parece imperioso fazer o possível, seja por regulação governamental ou por pressão ativista não-governamental, que os melhores valores de uma sociedade aberta e democrática sejam refletidos no desenho da tecnologia.
Dizendo-se esperançoso de que a internet ainda venha a cumprir a promessa da interconexão global da humanidade, Pariser reconhece que, embora se revelando perfeita no apoio à formação de grupos de pessoas com interesses comuns, será preciso muito ativismo para garantir que a internet seja de fato berço do verdadeiro espírito democrático de tolerância e convivência plural. Como diz Evgeny Morozov em sua resenha do livro de Pariser (“YourOwnFacts”, New York Times, 10/06/2011), além do alerta para os perigos do excesso de personalização, “The Filter Bubble” merece aplausos pela advertência para o crescente poder dos intermediários da informação cujas regras, protocolos e motivações nem sempre são visíveis.
Ruy José Guerra Barretto de Queiroz, Professor Associado, Centro de Informática da UFPE

Nenhum comentário: