top of page
HOME3.png
Buscar
Foto do escritorProf. Raphael Chaia

Discriminação Algorítmica e Telecidadania

Uma questão que interfere diretamente no exercício da liberdade de expressão de forma velada é o emprego de algoritmos de moderação por empresas de tecnologia em suas plataformas. É sabido que a moderação manual em algumas delas é humanamente impossível – a título de comparação, o YouTube, principal rede social de vídeos online da atualidade, possuía em 2021 mais de 2,3 bilhões de usuários ativos, com mais de 1 bilhão de horas de vídeos visualizados diariamente. A cada minuto, 400 horas de vídeo são, em média, enviadas para o YouTube, segundo dados da própria plataforma, o que pode chegar a 1,9 bilhão de horas ao final de um dia. Não é de se duvidar que a maior parte desses vídeos violem de alguma forma as diretrizes da plataforma ou ainda conteúdos protegidos por direitos autorais, por exemplo. Diante desse cenário, automatizar a moderação com o uso de algoritmos é a solução mais razoável, do ponto de vista do modelo de negócios da empresa.


Essa moderação por meio de algoritmos treinados para a automação da análise dos conteúdos publicados por usuários ocorre muitas vezes de forma desapercebida, afinal, uma inteligência artificial é capaz de analisar uma quantidade muito superior de informações que uma pessoa, com muito mais celeridade e assertividade. Porém, os algoritmos que servem de base para tais I.A.s precisam ser programados e treinados por meio de bases de dados já existentes, e não raramente acabam sendo conspurcados pelo signo do enviesamento ou da discriminação, seja por quem os programa diretamente, seja pela programação “aprendida” pelo uso das pessoas que utilizam a plataforma (machine learning), seja ainda pelos dados usados na alimentação do algoritmo. De qualquer forma, algoritmos discriminatórios vêm se tornando uma constante em muitas plataformas sociais, criando tratamentos diferenciados entre usuários que praticam condutas similares, mas direcionadas a objetivos distintos.


Algoritmos estão presentes em nossa vida de diversas formas, e nos hábitos do nosso dia a dia. Nossos dados estruturados e não-estruturados são coletados por meio de big data , formando um perfil que poderá ser usado para direcionamento de publicidade personalizada, e em casos mais específicos, até mesmo conteúdos específicos, antecipando-se a supostas necessidades que eventualmente sinalizamos em nosso uso dentro de plataformas sociais. Cathy O’Neil (2021), autora da obra “Algoritmos de Destruição em Massa”, traz às pessoas exemplos práticos e reais de como os algoritmos podem prejudicar, desmerecer ou até mesmo cometer injustiças com as pessoas, além de gerar cada vez mais polarização.


Uma forma simples de exemplificar a possibilidade de enviesamento pode ser observada a partir da base de dados, e o viés de a quem aquela base pertence. Imagine uma situação em que a maioria dos dados que possuímos sobre diferentes assuntos são de homens brancos: certamente o sistema discriminará aqueles que não possuem histórico registrado por meio de dados inseridos nesse sistema. Contextualizemos o presente exemplo com os dados obtidos dentro do sistema bancário, e que usa a base de adimplemento dos seus usuários como critério para a aprovação de empréstimos. Quem não está no sistema financeiro formal (aqueles que não possuem contas em um banco, e portanto, nenhum histórico de adimplemento), o algoritmo não vai conseguir elaborar um score favorável para a pessoa, pelo simples fato de que a IA não sabe qual o comportamento daquele indivíduo com relação ao pagamento das contas em dia (ainda que ele seja, de fato, alguém adimplente).


Agora, observemos como isso pode afetar na liberdade de expressão e pensamento dos usuários dentro de uma plataforma de aplicações: algoritmos podem ser programados de acordo com as bases de dados alimentadas, mas também podem ser programados com base em palavras-chave registradas por seu responsável, ou ainda, refletirem de forma indireta a vontade de seu programador, de forma a criar discriminações contra usuários em razão de suas posições religiosas, políticas, filosóficas etc. – muitas vezes rotulando tais manifestações como “desinformação”, “discurso de ódio”, e toda aquela gama de expressões sem um conceito objetivamente definido pela moderação do serviço que as aplica.


Um exemplo simples poderia ser observado durante o período da pandemia do COVID-19, iniciado em março de 2020: por conta da defesa acalorada de alguns setores da sociedade com relação a alguns medicamentos que supostamente poderiam ser usados naquilo que chamavam de “tratamento precoce” – contrariando a então orientação oficial de que se deveria procurar um hospital apenas nos casos de falta de ar –, a expressão acabou sendo programada por vários provedores de aplicação como um gatilho para disparos de alertas contra desinformação. Porém, os algoritmos não eram capazes de avaliar o contexto em que a expressão era posta, então, se qualquer referência a “tratamento precoce” fosse feita em uma postagem (mesmo que fosse um tratamento para gravidez, ou ainda um tratamento para perda de peso, ou um pré-operatório, por exemplo, sem nenhuma relação com o coronavírus), as plataformas sociais passariam a exibir em sua postagem um selo de desinformação, orientando os usuários a visitar o site do Ministério da Saúde.


Algo similar pôde ser verificado com a expressão “2022”, em razão das eleições presidenciais no Brasil no referido ano: postagens de Feliz Ano Novo, desejando um “ótimo 2022” eram suficientes para disparada de mensagens acerca de informações sobre as eleições no site do Tribunal Superior Eleitoral. Ou seja, algoritmos programados por meio de palavras-chave ainda pecam pela falta de análise de contexto, criando precedentes para bloqueios e suspensões de usuários que não violam nenhuma das regras da plataforma. Não é por acaso que nos anos de 2021 e 2022, multiplicaram-se as ações judiciais de dano moral e recuperação de contas contra provedores de aplicação, em razão de suspensões indevidas.


Mais grave que o enviesamento por meio de palavras-chave é o enviesamento ideológico representando de forma indireta a vontade de seu programador: num ambiente polarizado, em que opiniões acabam se tornando pretextos para discussões mais hostis, nota-se curiosamente uma postura das empresas de tecnologia e até mesmo de agências de checagem de fatos no sentido de moderar apenas um dos lados do discurso, deixando outro completamente livre para manifestação plena de seu pensamento, alimentando uma máxima de que pouco importa o que se diz, mas quem diz. As empresas de tecnologia, como analisamos no tópico anterior, negam essa postura enviesada, garantindo um espaço livre para os pensamentos mais divergentes. Ainda que pouco provável, tal hipótese não é impossível de ser verificada. Entre as soluções cabíveis, está a judicialização para fins de revisão manual das decisões tomadas pelos algoritmos, uma vez que, como já fora explicado, uma decisão que exclua conteúdos ou contas de usuários do espaço digital, sem a necessidade de uma ordem judicial, precisam ser fundadas nas regras da própria plataforma, indicando obrigatoriamente o conteúdo infringente publicado pelo usuário, bem como a regra que fora violada pela referida postagem.


Outra solução cabível diz respeito ao que chamamos de transparência algorítmica. A transparência nos algoritmos utilizados em inteligência artificial tem como objetivo permitir uma melhor compreensão sobre o que se passa internamente dentro dos programas que são executados em sistemas computacionais, e que, muitas vezes, são mantidos inacessíveis para os usuários. A incerteza acerca do comportamento de determinados algoritmos representa a base para a discussão no que tange à moralidade e à ética nas ações tomadas por aquele algoritmo. Quando as decisões automatizadas prejudicam um usuário, por exemplo, discriminando-o em detrimento de outro, em razão de um enviesamento, isso ocorrerá exatamente porque aquele sistema foi programado para agir daquela maneira. Quanto maior for a transparência, mais simples é prever o comportamento negativo, e mais fácil é realizar o ajuste necessário para corrigir eventuais novos comportamentos ilegais ou antiéticos.


O fato é que o volume de conteúdo produzido por usuários, como reflexo da natureza participativa da rede, demanda uma automação da moderação para coibir eventuais abusos ao exercício da liberdade de expressão. O que não se pode permitir é que essas ferramentas discriminem seus usuários por suas opiniões, crenças, ideias e manifestações: o debate se torna silente, sob o controle de corporações que demonstram, infelizmente, pouco compromisso com a verdade ou com uma internet livre.


Posts recentes

Ver tudo

Comments


bottom of page