CNN
—
Um dia depois que os juízes da Suprema Corte debateram se o Google e sua subsidiária YouTube deveriam ser responsabilizados pela forma como seu algoritmo organiza o conteúdo do ISIS, o Tribunal deve abordar questões sobre a exposição legal das plataformas de tecnologia ao conteúdo do usuário em um caso do Twitter.
Na quarta-feira, o Tribunal ouvirá Twitter v. Taamneh, que decidirá se as empresas de mídia social podem ser processadas por ajudar e incitar um ato específico de terrorismo internacional quando as plataformas hospedam conteúdo do usuário que expressa apoio geral ao grupo por trás da violência sem referindo-se ao ato terrorista específico em questão.
Os autores do caso – a família de Nawras Alassaf, que foi morto em um ataque do ISIS em Istambul em 2017 – alegaram que as empresas de mídia social, incluindo o Twitter, ajudaram conscientemente o ISIS a violar uma lei antiterrorismo dos EUA, permitindo que parte do conteúdo do grupo persistir em suas plataformas, apesar das políticas destinadas a limitar esse tipo de conteúdo.
O Twitter disse que só porque o ISIS usou a plataforma da empresa para se promover não constitui uma assistência “conhecida” do Twitter ao grupo terrorista e que, em qualquer caso, a empresa não pode ser responsabilizada pela lei antiterror porque o conteúdo em questão no o caso não era específico do ataque que matou Alassaf. A administração Biden, em seu resumo, concordou com essa visão.
Os casos do Twitter e do Google, observados de perto, representam riscos significativos para a Internet em geral. Uma expansão do risco legal de aplicativos e sites para hospedagem ou promoção de conteúdo pode levar a grandes mudanças em sites como Facebook, Wikipedia e YouTube, para citar alguns.
No centro da batalha legal está a Seção 230 da Lei de Decência nas Comunicações, uma lei federal de quase 30 anos que os tribunais disseram repetidamente que fornece ampla proteção às plataformas de tecnologia, mas que desde então está sob escrutínio junto com críticas crescentes ao conteúdo da Big Tech. decisões de moderação.
O Twitter havia argumentado anteriormente que estava imune ao processo graças à Seção 230.
Outras plataformas de tecnologia, como Meta e Google, argumentaram no caso do Twitter que, se o Tribunal considerar que as empresas de tecnologia não podem ser processadas sob a lei antiterrorismo dos EUA, pelo menos nessas circunstâncias, isso evitaria um debate sobre a Seção 230 em ambos os casos, porque as reivindicações em questão seriam descartadas.
Na terça-feira, o Tribunal ouviu argumentos orais para um caso conhecido como Gonzalez v. Google, que se concentra em saber se a gigante da tecnologia pode ser processada por causa da promoção algorítmica de vídeos terroristas de sua subsidiária YouTube em sua plataforma.
De acordo com os demandantes do caso – a família de Nohemi Gonzalez, que foi morto em um ataque do ISIS em Paris em 2015 – as recomendações direcionadas do YouTube violaram uma lei antiterrorismo dos EUA ao ajudar a radicalizar os espectadores e promover a visão de mundo do ISIS. A alegação visa esculpir recomendações de conteúdo para que não recebam proteções sob a Seção 230
No entanto, os juízes da Suprema Corte pareciam amplamente preocupados na terça-feira com as possíveis consequências não intencionais de permitir que sites fossem processados por suas recomendações automáticas de conteúdo do usuário. Uma grande preocupação dos juízes parece ser a onda de processos que podem acontecer se o tribunal decidir contra o Google.
“Os processos serão ininterruptos”, disse o juiz Brett Kavanaugh a certa altura. A juíza Elena Kagan ecoou a preocupação: “Você está criando um mundo de ações judiciais”.