Os advogados de privacidade e direitos digitais estão levantando alarmes sobre uma lei que muitos esperariam que eles torça: uma repressão federal ao pornô de vingança e a DeepFakes de DeepFakes gerados pela IA.
O recém-assinado Act It Down torna ilegal publicar imagens explícitas não consensuais-reais ou geradas pela IA-e fornece plataformas apenas 48 horas para atender ao pedido ou responsabilidade de que a queda de uma vítima. Embora amplamente elogiados como uma vitória de longa data para as vítimas, os especialistas também alertaram sua linguagem vaga, os padrões negativos para verificar reivindicações e a janela de conformidade apertada pode abrir caminho para ultrapassar, censura de conteúdo legítimo e até vigilância.
“A moderação do conteúdo em escala é amplamente problemática e sempre acaba com o discurso importante e necessário sendo censurado”, disse a Índia McKinney, diretora de assuntos federais da Electronic Frontier Foundation, uma organização de direitos digitais, à TechCrunch.
As plataformas on -line têm um ano para estabelecer um processo para remover imagens íntimas não consensuais (NCII). Embora a lei exija que os pedidos de remoção vêm de vítimas ou de seus representantes, ela só pede uma assinatura física ou eletrônica – nenhuma identificação com foto ou outra forma de verificação é necessária. Isso provavelmente pretende reduzir as barreiras para as vítimas, mas pode criar uma oportunidade de abuso.
“Eu realmente quero estar errado sobre isso, mas acho que haverá mais pedidos para derrubar imagens que representam pessoas queer e trans nos relacionamentos, e ainda mais do que isso, acho que será pornô consensual”, disse McKinney.
O senador Marsha Blackburn (R-TN), co-patrocinador da Lei de Take It Down, também patrocinou a Lei de Segurança Online infantil que coloca o ônus nas plataformas para proteger as crianças de conteúdo prejudicial on-line. Blackburn disse que acredita Conteúdo relacionado às pessoas transgêneros é prejudicial para as crianças. Da mesma forma, a Fundação Heritage – o think tank conservador por trás do Projeto 2025 – também tem disse que “manter o conteúdo trans afastado das crianças está protegendo as crianças”.
Devido à responsabilidade que as plataformas enfrentam se não derrubarem uma imagem dentro de 48 horas após o recebimento de uma solicitação: “O padrão será que eles apenas a derrubam sem fazer qualquer investigação para ver se isso é realmente NCII ou se é outro tipo de discurso protegido, ou se é relevante para a pessoa que está fazendo o pedido”, disse McKinney.
O Snapchat e a Meta disseram que apoiam a lei, mas nenhum deles respondeu aos pedidos da TechCrunch para obter mais informações sobre como verificarão se a pessoa que solicita uma queda é uma vítima.
Mastodon, uma plataforma descentralizada que hospeda seu próprio servidor principal que outros podem participar, disse ao TechCrunch que se inclinaria para a remoção se fosse muito difícil verificar a vítima.
Mastodon e outras plataformas descentralizadas, como Bluesky ou Pixelded, podem ser especialmente vulneráveis ao efeito assustador da regra de remoção de 48 horas. Essas redes dependem de servidores operados independentemente, geralmente executados por organizações sem fins lucrativos ou indivíduos. De acordo com a lei, a FTC pode tratar qualquer plataforma que “não cumpra razoavelmente” as demandas de quedas como cometer um “ato ou prática injusta ou enganosa” – mesmo que o host não seja uma entidade comercial.
“Isso é perturbador de cara, mas é particularmente em um momento em que a cadeira da FTC tomou sem precedentes Passos para politizar a agência e prometeu explicitamente usar o poder da agência para punir plataformas e serviços em um ideológicoem oposição ao princípio, base ”, a Iniciativa de Direitos Civis Cibernéticos, uma organização sem fins lucrativos dedicada a acabar com a pornografia de vingança, disse em um declaração.
Monitoramento proativo
McKinney prevê que as plataformas começarão a moderar o conteúdo antes de serem divulgadas, para que tenham menos postagens problemáticas a serem derrubadas no futuro.
As plataformas já estão usando a IA para monitorar conteúdo prejudicial.
Kevin Guo, CEO e co-fundador da Startup de detecção de conteúdo gerada pela IA Hive, disse que sua empresa trabalha com plataformas on-line para detectar os deepfakes e material de abuso sexual infantil (CSAM). Alguns dos clientes da Hive incluem Reddit, Gifhy, Vevo, Bluesky e Bereal.
“Na verdade, éramos uma das empresas de tecnologia que endossaram essa conta”, disse Guo à TechCrunch. “Isso ajudará a resolver alguns problemas muito importantes e obrigar essas plataformas a adotar soluções de maneira mais proativa”.
O modelo do Hive é um software como serviço, portanto a startup não controla como as plataformas usam seu produto para sinalizar ou remover o conteúdo. Mas a Guo disse que muitos clientes inserem a API da Hive no ponto de upload para monitorar antes que qualquer coisa seja enviada à comunidade.
Um porta -voz do Reddit disse ao TechCrunch que a plataforma usa “ferramentas internas sofisticadas, processos e equipes para abordar e remover” o NCII. O Reddit também faz parceria com a organização sem fins lucrativos SWGFL para implantar sua ferramenta StopNCII, que digitaliza o tráfego ao vivo em busca de partidas em relação a um banco de dados de NCII conhecido e remove correspondências precisas. A empresa não compartilhou como garantiria que a pessoa que solicite a queda é a vítima.
McKinney adverte que esse tipo de monitoramento pode se estender em mensagens criptografadas no futuro. Embora a lei se concentre na disseminação pública ou semi-pública, ela também exige que as plataformas “removam e faça esforços razoáveis para impedir o recarregamento” de imagens íntimas não consensuais. Ela argumenta que isso pode incentivar a digitalização proativa de todo o conteúdo, mesmo em espaços criptografados. A lei não inclui nenhum serviço de mensagens criptografadas de ponta a ponta como WhatsApp, Signal ou IMessage.
Meta, Signal e Apple não responderam ao pedido da TechCrunch para obter mais informações sobre seus planos de mensagens criptografadas.
Implicações mais amplas de liberdade de expressão
Em 4 de março, Trump entregou um discurso conjunto ao Congresso, no qual ele elogiou o ato de Take It Down e disse que esperava assinar -o em lei.
“E eu vou usar essa conta para mim também, se você não se importar”, acrescentou. “Não há ninguém que seja tratado pior do que eu online.”
Enquanto a platéia ria do comentário, nem todo mundo tomou uma piada. Trump não tem vergonha de suprimir ou retaliar contra o discurso desfavorável, seja rotulando os principais meios de comunicação “inimigos do povo” Exceto a Associated Press do Salão Oval, apesar de uma ordem judicial, ou puxando financiamento de NPR e PBS.
Na quinta -feira, o governo Trump Universidade de Harvard barrada Desde a aceitação de admissões de estudantes estrangeiros, escalar um conflito que começou depois que Harvard se recusou a aderir às demandas de Trump de que ele faça alterações em seu currículo e elimine o conteúdo relacionado à DEI, entre outras coisas. Em retaliação, Trump congelou o financiamento federal a Harvard e ameaçou revogar o status de isenção de impostos da universidade.
“Em um momento em que já estamos vendo os conselhos escolares tentarem proibir livros e estamos vendo certos políticos serem muito explicitamente sobre os tipos de conteúdo que eles nunca querem que as pessoas vejam, seja a teoria da raça crítica ou informações sobre aborto ou informações sobre mudanças climáticas … é profundamente desconfortável para a moda, com esse trabalho passado, para ver os membros da moderação para os membros de ambos os partidos.