CIÊNCIA & TECNOLOGIA
Intermediários na internet: direitos humanos e responsabilidade online
Regulação mal concebida pode levar a comportamentos indesejados por parte dos players
A questão da responsabilidade de intermediários na internet, especialmente em relação às plataformas online, tem ganhado relevância crescente no cenário jurídico. No Brasil, o Marco Civil da Internet (Lei 12.965, de 23 de abril de 2014) estabelece parâmetros para essa responsabilidade em seu artigo 19, o qual vem tendo sua constitucionalidade questionada perante o Supremo Tribunal Federal. À medida que a produção de conteúdo nas redes sociais cresce exponencialmente, o debate sobre a responsabilidade das plataformas de internet se torna central para garantir direitos fundamentais, como a liberdade de expressão. Nesse contexto, a ascensão dos influenciadores digitais e a crescente participação de figuras políticas nas redes sociais complexificam ainda mais a discussão sobre a responsabilidade online.
No âmbito dos direitos humanos, a ampliação do escopo de responsabilidade dos intermediários ganhou notoriedade em 2015, com o caso Delfi AS v. Estônia da Corte Europeia de Direitos Humanos (CEDH). Esse debate foi reacendido em 2023, com o julgamento do caso Sanchez v. França pela mesma corte, que apresentou novas nuances a respeito da imputação de responsabilidade aos intermediários de internet, e iniciou o debate a respeito da responsabilização dos próprios usuários por conteúdo de terceiros.
No caso emblemático, a plataforma de notícias online estoniana, Delfi AS, enfrentou sanções judiciais devido a comentários ofensivos feitos por terceiros (usuários) em suas matérias. Os comentários não foram deletados proativamente pela plataforma, que foi então processada. Apesar da posterior remoção do conteúdo, a plataforma Delfi AS foi condenada pelo judiciário estoniano a indenizar a vítima das ofensas. A Corte Europeia decidiu, então, que a condenação da plataforma não violava a liberdade de expressão, reforçando a responsabilidade da plataforma pelo monitoramento de conteúdo publicado por terceiros.
Recentemente, com a decisão no caso Sanchez v. França, a CEDH deu mais um passo em relação à responsabilização de intermediários pelo conteúdo produzido por terceiros, estendendo essa responsabilidade aos próprios usuários das redes sociais. No caso, Julien Sanchez, um político local (local councillor) na época dos fatos, foi condenado criminalmente pelo judiciário francês por não remover proativamente comentários de terceiros em sua página do Facebook. Sanchez alegou à Corte Europeia ter tido seu direito à liberdade de expressão violado ao ser condenado criminalmente por incitação de ódio ou violência em razão de não deletar proativamente comentários de terceiros em sua página do Facebook.
A CEDH justificou a restrição penal à liberdade de expressão de Sanchez devido ao contexto político-eleitoral das publicações, sua posição de destaque, e sua inércia ao não remover os comentários discriminatórios contra muçulmanos de seu perfil. A decisão da CEDH coloca a responsabilidade pessoal de Sanchez separadamente da da rede social, impondo ao usuário a tarefa de avaliar a adequação dos comentários e decidir sobre sua remoção.
Conforme a decisão da CEDH, os donos dos perfis – principalmente aqueles tidos como influencers ou personalidades públicas – teriam o dever de proativamente agir contra comentários que ultrapassem os limites da liberdade de expressão. Isso pode envolver a exclusão de comentários, a modificação da configuração de privacidade do perfil ou outras ações para evitar a repetição de comentários inadequados ou, em certo casos, potencialmente criminosos. Esse novo entendimento da CEDH, portanto, passa a impor a obrigação de gerenciar e deletar comentários, deixando ao usuário a responsabilidade de avaliar o conteúdo de terceiros, sob risco de lhe ser atribuída responsabilidade.
No entanto, a controvérsia sobre a responsabilidade das plataformas digitais torna-se ainda mais complexa ao estender essa responsabilidade também aos próprios usuários. No debate sobre a responsabilidade das plataformas, uma questão central é a dificuldade em determinar a legalidade de certos tipos de discurso.
Enquanto alguns discursos são claramente legais ou ilegais, há uma parcela significativa de discursos para os quais essa distinção não é tão clara. Portanto, já se discute a dificuldade de colocar a responsabilidade dessa decisão sobre as plataformas digitais, bem como os limites e orientações legais necessárias para uma atuação conjunta eficiente. Com mais forte razão, deixar para os usuários a responsabilidade de decidir o que constitui uma expressão legítima na internet (por maiores que sejam suas plataformas pessoais) pode causar prejuízos à liberdade de expressão.
Discursos de ódio e outras formas de discurso proibidas por lei não possuem uma definição universal e, não raras vezes, possuem elementos contextuais relevantes. Assim, a própria avaliação do discurso por parte de usuários (ou plataformas digitais) é complicada. Como elemento adicional de dificuldade, ao atribuir aos usuários (ou à plataforma) a responsabilidade pela avaliação do discurso, incorrer em erro poderia resultar em responsabilização para aquele agente.
Essa abordagem também abre portas para abusos por parte de agentes mal-intencionados, como ataques digitais durante períodos eleitorais. Se a responsabilidade de monitoramento de conteúdo recair sobre o indivíduo, é possível que perfis de figuras políticas sejam alvos de comentários contendo discurso de ódio, com a intenção de provocar sanções àquelas pessoas. Ataques similares já ocorreram por meio de interação inorgânica (bots) em perfis de terceiros.
Dado que, como regra geral, o uso de bots é desencorajado (ou mesmo proibido) por mídias sociais, é possível usá-los para criar interações inorgânicas nos perfis de adversários com o intuito de que estes venham a ser sancionados. Esses riscos podem levar a diferentes reações, algumas das quais extremas, como a desativação de comentários de terceiros para evitar que o conteúdo de outros usuários sejam associados a um determinado perfil, especialmente durante debates acalorados, como em eleições.
Não se nega a necessidade de regular o discurso online, nem a necessidade de sancionar responsáveis por abusos à liberdade de expressão. Contudo, uma regulação mal concebida pode levar a comportamentos indesejados por parte dos players do mundo online como, por exemplo, monitoramento de discurso, remoção de comentários, ou a restrição aos espaços de discussão. Dúvidas e desafios já existem quanto à possibilidade e à adequação de empresas de tecnologia regularem conteúdos como discurso de ódio, fake news, e outros. Expandir essa responsabilidade para indivíduos (independentemente do tamanho de suas plataformas pessoais) pode prejudicar a liberdade de expressão na tentativa de regulá-la.