Como a restrição no acesso aos dados das big techs tem efeitos negativos na sociedade?
A restrição no acesso aos dados das big techs prejudica a produção de pesquisas sobre como essas empresas impactam a sociedade


Como a restrição no acesso aos dados das big techs, campanhas contra checagem de fatos e moderação de conteúdos e riscos à democracia se relacionam?
Apesar de esses aspectos parecerem ser abstratos no primeiro momento, pode-se dizer que eles fazem parte de um mosaico maior. Nesse sentido, tais tópicos refletem a guinada da atuação de gigantes tecnológicas em apoio a projetos de aspiração autocrática para, entre outros motivos, combater medidas governamentais que possam culminar em regulação do modo como atuam.
Uma das faces mais visíveis na mudança da abordagem das big techs diz respeito à moderação de conteúdo. Logo, é paradigmático o levantamento da Universidade da Califórnia em Berkeley (EUA) segundo o qual o antigo Twitter registrou, entre outubro de 2022 e maio de 2023, aumento de 50% em comentários com discurso de ódio.
Além disso, em janeiro de 2025, Mark Zuckerberg, fundador da Meta, empresa que detém os direitos de Facebook, Instagram e WhatsApp, fez pronunciamento para anunciar as mudanças nas diretrizes da empresa. Além de apontar um suposto viés da equipe de moderação e declarar que esse núcleo não estaria mais baseado na Califórnia, ao ser transferido para o Texas, estado sob veemente influência do Partido Republicano, o empresário destacou o fim do programa de checagem de fatos nos EUA.
Por que isso é problemático?
Ao dar a entender que profissionais de checagem de fatos determinam o que é ou não verdade, Zuckerberg induziu a uma confusão conceitual sobre checagem de fatos e moderação de conteúdo. Esses dois processos, vale dizer, não são a mesma coisa. Contudo, vale destacar que a checagem de fatos é, segundo a agência Aos Fatos, “um método jornalístico por meio do qual é possível certificar se a informação apurada foi obtida por meio de fontes confiáveis e, então, avaliar se é verdadeira ou falsa, se é sustentável ou não.”
Ainda, todas as agências desse segmento devem seguir o código de boas práticas da International Fact-Checking Network (IFCN), organização que regula o trabalho de iniciativas com esse perfil. Um dos aspectos é o fato de que profissionais em checagem de fatos não podem ter filiação partidária. Além disso, é necessário haver transparência nos métodos e fontes usadas para checar se uma informação é verdadeira ou falsa.
Desse modo, sob a justificativa de defesa da liberdade de expressão irrestrita, há o iminente risco de aumento significativo de veiculação de conteúdos falsos e de discurso de ódio. Isso sem contar que tais medidas estão na contramão do que se recomenda para combater a disseminação de mentiras online.
Para além do óbvio
Contudo, se medidas como esta chamam a atenção ao lado de ações como o fim de programas de diversidade, equidade e inclusão e do lobby para não haver regulação das respectivas atividades, outro ponto referente nesse contexto ganha importância mesmo sendo eclipsado. Trata-se da restrição no acesso aos dados das big techs.
“Por um lado, as big techs fazem o afrouxamento dos termos de uso, mudam o modo como pensam em moderação de conteúdo e passam a se desfazer de políticas de diversidade, equidade e inclusão. Por outro, elas tiram o acesso aos dados para fazer pesquisa e fecham as APIs, que são os espaços em que entrávamos para fazer coleta de dados de cada uma das plataformas”, comenta a antropóloga e doutora em Ciências Sociais Fernanda K. Martins.
Esse aspecto tem, então, reflexo em aspectos que reverberam de modo definitivo no tecido social. “Ao mesmo tempo em que mudam as regras do que se compreende como discurso de ódio ou violência de gênero, ou a importância que temas como esses têm, não acessamos os dados para conseguir fazer as perguntas certas e achar as respostas”, reforça.
+ Leia a entrevista com Fernanda K. Martins
Do conceito à prática
Um exemplo da importância da pesquisa sobre a atuação as redes sociais a partir de dados disponíveis passam, então, pelo escândalo envolvendo a empresa Cambridge Analytica, no qual dados de pessoas usuárias do Facebook foram usados para planos de manipulação política, como o Brexit e a primeira eleição de Donald Trump à presidência dos EUA, em 2016. Outro caso de grande repercussão diz respeito à veiculação de série de documentos segundos os quais a empresa tinha ciência dos impactos negativos e viciantes de suas redes sociais sobre a saúde mental de jovens, mas ter optado por prosseguir com tais práticas.
Assim sendo, a restrição no acesso aos dados das big techs tem grande impacto – de modo negativo – na produção de pesquisas acadêmicas. Um ponto emblemático no modo como a atuação das big techs impacta no acesso ao conhecimento científico passa pelo fim do CrowdTangle, ferramenta da Meta de transparência e investigação de problemas e vieses referentes à própria rede. Desse modo, uma das consequências de medidas com esse teor é o apagão de dados e a existência de deserto de informações fundamentais para a realização de estudos.
“Como conseguiremos demonstrar os impactos que essa postura de Zuckerberg tem, por exemplo, diante de pessoas usuárias se não tivermos acesso aos dados para podermos fazer pesquisa? Estamos caminhando para um cenário cada vez mais tenebroso quanto ao que está acontecendo e quais respostas conseguimos oferecer socialmente para enfrentar esse tipo de problema”, ressalta Fernanda K. Martins.
Caminhos possíveis
Os caminhos para superar a restrição no acesso aos dados das big techs passam, inquestionavelmente, pela mobilização entre OSCs e o poder público. Para além dessa lógica, a articulação com esse propósito requer atuação em escala global.
“Considero difícil conseguirmos encontrar formas de ir contra o que está acontecendo com essas plataformas, no cenário atual, se nos isolarmos em bolhas no sentido de não encararmos esse problema como global. Isso atingirá especificamente o Sul Global de forma diferente em relação ao que acontecerá com outros países que têm outras ferramentas, as quais não temos, para pressionar essas empresas”, descreve Fernanda K. Martins. Não vejo resposta possível a não ser que organizações cada vez mais fortes em termos de junções entre sociedade civil, governo e academia busquem essas respostas em conjunto, inclusive, com outros países.”
Nesse sentido, colocar em prática o advocacy para pressionar pela regulação das gigantes tecnológicas depende da realização de pesquisas para comprovar as evidências identificadas. Para tanto, é necessário haver financiamento para que tais estudos tenham efetividade e precisão.
“A realização de pesquisas requer conhecimento, inclusive técnico, e compreensão de que falar sobre tecnologia não é só algo para engenheiros e cientistas de dados: é algo que a sociedade deve pegar para si. E quem pesquisa em ciências humanas, por exemplo, precisa encarar que conseguem, podem e devem fazer pesquisa sobre esses temas”, finaliza a antropóloga e doutora em Ciências Sociais.
Texto: Amauri Eugênio Jr.