Washington
CNN
—
Uma ampla gama de empresas, usuários da Internet, acadêmicos e até especialistas em direitos humanos defenderam o escudo de responsabilidade da Big Tech na quinta-feira em um caso crucial da Suprema Corte sobre algoritmos do YouTube, com alguns argumentando que excluir os mecanismos de recomendação baseados em IA das proteções legais federais causaria mudanças radicais nos a internet aberta.
O grupo diversificado que pesava no Tribunal variava de grandes empresas de tecnologia, como Meta, Twitter e Microsoft, a alguns dos críticos mais vocais da Big Tech, incluindo Yelp e Electronic Frontier Foundation. Até o Reddit e uma coleção de moderadores voluntários do Reddit se envolveram.
Em documentos de amigos do tribunal, as empresas, organizações e indivíduos disseram que a lei federal cujo escopo o Tribunal poderia restringir no caso – a Seção 230 da Lei de Decência nas Comunicações – é vital para a função básica da web. A seção 230 foi usada para proteger todos os sites, não apenas as plataformas de mídia social, de ações judiciais sobre conteúdo de terceiros.
A questão central do caso, Gonzalez v. Google, é se o Google pode ser processado por recomendar conteúdo pró-ISIS aos usuários por meio de seu algoritmo do YouTube; a empresa argumentou que a Seção 230 impede tal litígio. Mas os demandantes do caso, os membros da família de uma pessoa morta em um ataque do ISIS em 2015 em Paris, argumentaram que o algoritmo de recomendação do YouTube pode ser responsabilizado sob a lei antiterrorismo dos EUA.
Em seu arquivamento, o Reddit e os moderadores do Reddit argumentou que uma decisão que permita litígios contra algoritmos da indústria de tecnologia pode levar a ações judiciais futuras contra formas de recomendação não algorítmicas e ações potencialmente direcionadas contra usuários individuais da Internet.
“Toda a plataforma Reddit é construída em torno de usuários ‘recomendando’ conteúdo para o benefício de outras pessoas, realizando ações como votação positiva e fixação de conteúdo”, dizia o documento. “Não deve haver dúvidas sobre as consequências da reivindicação dos peticionários neste caso: sua teoria expandiria drasticamente o potencial dos usuários da Internet de serem processados por suas interações online.”
O Yelp, um antagonista de longa data do Google, argumentou que seu negócio depende de fornecer avaliações relevantes e não fraudulentas a seus usuários, e que uma decisão que crie responsabilidade por algoritmos de recomendação poderia interromper as funções principais do Yelp, forçando-o efetivamente a parar de selecionar todas as avaliações, mesmo aqueles que podem ser manipuladores ou falsos.
“Se o Yelp não pudesse analisar e recomendar avaliações sem enfrentar responsabilidades, os custos de envio de avaliações fraudulentas desapareceriam”, Yelp escrevi. “Se o Yelp tivesse que exibir todas as avaliações enviadas… os proprietários de empresas poderiam enviar centenas de avaliações positivas para seus próprios negócios com pouco esforço ou risco de penalidade.”
A seção 230 garante que as plataformas possam moderar o conteúdo para apresentar os dados mais relevantes aos usuários a partir das enormes quantidades de informações que são adicionadas à Internet todos os dias, argumentou o Twitter.
“Um usuário médio levaria aproximadamente 181 milhões de anos para baixar todos os dados da web hoje”, disse a empresa. escrevi.
Se a Suprema Corte avançasse com uma nova interpretação da Seção 230 que protegesse o direito das plataformas de remover conteúdo, mas excluísse as proteções de seu direito de recomendar conteúdo, abriria novas questões sobre o que significa recomendar algo online, argumentou Meta. em seu depósito.
“Se a simples exibição de conteúdo de terceiros no feed de um usuário se qualifica como ‘recomendá-lo’, muitos serviços enfrentarão responsabilidade potencial por praticamente todo o conteúdo de terceiros que hospedam”, escreveu Meta, “porque quase todas as decisões sobre como classificar , escolher, organizar e exibir conteúdo de terceiros pode ser interpretado como ‘recomendando’ esse conteúdo.”
Uma decisão judicial de que as plataformas de tecnologia podem ser processadas por seus algoritmos de recomendação colocaria em risco o GitHub, o vasto repositório de código online usado por milhões de programadores, disse a Microsoft.
“O feed usa algoritmos para recomendar software aos usuários com base em projetos nos quais eles trabalharam ou demonstraram interesse anteriormente”, disse a Microsoft. escrevi. Acrescentou que, para “uma plataforma com 94 milhões de desenvolvedores, as consequências [of limiting Section 230] são potencialmente devastadores para a infraestrutura digital do mundo.”
O mecanismo de busca da Microsoft, Bing, e sua rede social, LinkedIn, também desfrutam de proteções algorítmicas sob a Seção 230, disse a empresa.
De acordo com o Stern Center for Business and Human Rights da Universidade de Nova York, é virtualmente impossível projetar uma regra que destaque a recomendação algorítmica como uma categoria significativa de responsabilidade e pode até “resultar na perda ou obscurecimento de uma quantidade enorme de informações valiosas ”, particularmente o discurso pertencente a grupos marginalizados ou minoritários.
“Os sites usam ‘recomendações direcionadas’ porque essas recomendações tornam suas plataformas utilizáveis e úteis”, o documento da NYU disse. “Sem um escudo de responsabilidade para recomendações, as plataformas removerão grandes categorias de conteúdo de terceiros, removerão todo o conteúdo de terceiros ou abandonarão seus esforços para tornar acessível a grande quantidade de conteúdo do usuário em suas plataformas. Em qualquer uma dessas situações, a valiosa liberdade de expressão desaparecerá – seja porque foi removida ou porque está escondida em meio a um despejo de informações mal gerenciado”.