Fechar menu
Brasil Eleve

    Assine para atualizações

    Receba as últimas notícias do Brasil Eleve

    O que há de novo

    Impasse entre governo e Legislativo apontam para colapso fiscal

    junho 12, 2025

    “país não pode abrir mão”

    junho 12, 2025

    Governo publica MP com aumento de impostos e decreto do IOF

    junho 11, 2025
    Facebook X (Twitter) Instagram
    Facebook X (Twitter) Instagram YouTube
    Brasil Eleve
    Anunciar
    • Início
    • Últimas notícias
    • Economia
    • Educação
    • Esportes
    • Internacional
    • Política
    • Contato
      • Política de Privacidade
      • Termos de Uso
    Brasil Eleve
    Home » Apple é processada por vítima de abuso sexual infantil – 09/12/2024 – Tec
    Tecnologia

    Apple é processada por vítima de abuso sexual infantil – 09/12/2024 – Tec

    Brasil ElevePor Brasil Elevedezembro 9, 2024Nenhum comentário9 minutos de leitura
    Compartilhar
    Whatsapp Facebook Twitter LinkedIn Pinterest E-mail Link de cópia


    O abuso começou quando ela ainda era um bebê. Um parente a molestou, tirou fotografias e enviou online as imagens para outras pessoas. Ele permitiu que outro homem passasse tempo com ela, multiplicando o abuso.

    Quase todos os dias, a mulher, agora com 27 anos e que mora na região Nordeste dos EUA, volta a ser lembrada desse abuso ao ser alertada pelas autoridades de que alguém foi acusado de possuir essas imagens.

    Uma dessas notificações, que ela recebeu no final de 2021, dizia que as fotografias haviam sido encontradas no MacBook de um homem em Vermont. Posteriormente, o advogado da vítima confirmou com as autoridades que as imagens também haviam sido armazenadas no iCloud da Apple.

    O aviso chegou meses depois de a Apple ter revelado uma ferramenta que permitia escanear imagens ilegais de abuso sexual. Mas rapidamente abandonou esse recurso após ser criticada por especialistas em cibersegurança, que disseram que poderia abrir caminho para outros pedidos de vigilância governamental.

    Agora, a mulher, usando um pseudônimo, está processando a Apple afirmando que a empresa quebrou sua promessa de proteger vítimas como ela. Segundo o processo, a big tech deixou de usar as ferramentas que criou para identificar, remover e relatar imagens de seu abuso, permitindo que esse material proliferasse, forçando as vítimas de abuso sexual infantil a reviver o trauma que moldou suas vidas.

    A ação judicial foi apresentada no sábado (7) no Tribunal Distrital dos EUA no Norte da Califórnia. Afirma que as falhas da Apple significam que ela tem vendido produtos defeituosos que prejudicaram clientes que foram vítimas de abuso sexual infantil, porque brevemente introduziu “um serviço amplamente divulgado para proteger crianças”, mas “falhou em implementá-los ou tomar quaisquer medidas para detectar e limitar” o material de abuso sexual infantil.

    O processo busca mudar as práticas da Apple e compensar um grupo que pode chegar a 2.680 vítimas que são elegíveis para fazer parte do caso, disse James Marsh, um dos advogados envolvidos.

    Por lei, as vítimas de abuso sexual infantil têm direito a um mínimo de US$ 150 mil (R$ 907,66 mil) em danos, o que significa que o valor total pode ultrapassar US$ 1,2 bilhão (R$ 7,26 bilhões) se um júri considerar a Apple culpada.

    “NÃO É SÓ VOCÊ”

    O New York Times concedeu anonimato à mulher de 27 anos que está processando a Apple para que ela pudesse contar sua história. Ela falou anonimamente porque as pessoas são conhecidas por procurar vítimas e buscar seu material de abuso sexual infantil na internet.

    O abuso que ela sofreu começou pouco depois de ela nascer. Um adulto da família realizava atos sexuais com ela e os fotografava. Ele foi preso após entrar em uma sala de bate-papo e oferecer uma troca de fotos da menina com outros homens. Ele foi preso e considerado culpado de vários crimes.

    O que ela conseguia lembrar do abuso vinha em fragmentos. Uma noite, enquanto sua mãe assistia a um episódio da série “Law & Order: Special Victims Unit” sobre abuso sexual infantil, a história parecia estranhamente familiar. Ela gritou e assustou sua mãe, que percebeu que ela pensava que o episódio era sobre ela.

    “Não é só você”, ouviu da mãe. “Há milhares de outras crianças.”

    À medida que suas imagens eram encontradas online, as autoridades notificavam sua mãe. Elas comumente receberam dezenas de notificações diariamente por mais de uma década. O que mais a incomodava era saber que pedófilos compartilhavam algumas de suas fotos com crianças para normalizar o abuso, um processo chamado “grooming”.

    “Era difícil acreditar que havia tantos por aí”, disse a vítima. “Eles não paravam”.

    A internet potencializou a disseminação de material de abuso sexual infantil. Imagens físicas que antes eram difíceis de encontrar e compartilhar tornaram-se fotos e vídeos digitais que poderiam ser armazenados em computadores e servidores e compartilhados facilmente.

    SISTEMA CRIADO PARA CONTER PROPAGAÇÃO

    Em 2009, a Microsoft trabalhou com Hany Farid, atual professor na Universidade de Berkeley, na Califórnia, para criar um sistema de software para reconhecer fotos, mesmo alteradas, e compará-las com um banco de dados de imagens ilegais conhecidas. O sistema, chamado PhotoDNA, foi adotado por várias empresas de tecnologia, incluindo Google e Facebook.

    A Apple recusou-se a usar o PhotoDNA ou fazer escaneamento em larga escala como seus pares. A indústria de tecnologia relatou 36 milhões de relatórios de fotos e vídeos ao Centro Nacional para Crianças Desaparecidas e Exploradas, o centro federal para material suspeito de abuso sexual. Google e Facebook apresentaram mais de 1 milhão de relatórios cada, enquanto a Apple fez apenas 267.

    Em 2019, uma investigação do New York Times expôs que as empresas de tecnologia falharam em conter o material abusivo. Um gráfico de barras publicado pelo jornal detalhando as práticas de relatórios das empresas públicas levou Eric Friedman, um executivo da Apple responsável pela proteção contra fraudes, a enviar uma mensagem a um colega sênior dizendo que achava que a empresa poderia estar subnotificando material de abuso sexual infantil.

    “Somos a maior plataforma para distribuição de pornografia infantil”, avaliou Friedman na troca de mensagens em 2020. Ele disse que isso era causado pela Apple dar prioridade à privacidade sobre confiança e segurança.

    Um ano depois, a Apple anunciou um sistema para escanear abuso sexual infantil. Disse que seus iPhones armazenariam um banco de dados de assinaturas digitais distintas, conhecidas como hashes, associadas a material de abuso sexual infantil identificado por grupos como o Centro Nacional para Crianças Desaparecidas e Exploradas.

    A companhia disse que compararia essas assinaturas digitais com fotos no serviço de armazenamento iCloud de um usuário. A técnica, que chamou de NeuralHash, sinalizaria correspondências e as encaminharia para o centro federal de material suspeito de abuso sexual.

    Folha Mercado

    Receba no seu email o que de mais importante acontece na economia; aberta para não assinantes.

    Mas depois que especialistas em cibersegurança alertaram que isso criaria uma abertura para iPhones que poderia dar acesso a governos, a empresa abandonou seu plano. Disse que era quase impossível escanear fotos do iCloud sem “comprometer a segurança e a privacidade de nossos usuários.”

    No início deste ano, Sarah Gardner, fundadora de um grupo de defesa infantil chamado Heat Initiative, começou a procurar escritórios de advocacia com experiência em representar vítimas de abuso sexual infantil.

    Em março, a equipe do grupo de defesa perguntou ao Marsh Law, um escritório de 17 anos que se concentra em representar vítimas de abuso sexual infantil, se poderia entrar com um processo contra a Apple. O Heat ofereceu-se para fornecer US$ 75 mil para apoiar o que poderia ser uma ação de litígio caro. Foi uma estratégia emprestada de outras campanhas de defesa contra empresas.

    Margaret Mabie, sócia do Marsh Law, assumiu o caso. O escritório representou milhares de vítimas de abuso sexual infantil.

    Mabie vasculhou relatórios das autoridades e outros documentos para encontrar casos relacionados às imagens de seus clientes e aos produtos da Apple, eventualmente construindo uma lista de mais de 80 exemplos, incluindo a de um homem da Bay Area que as autoridades encontraram com mais de 2.000 imagens e vídeos ilegais no iCloud.

    FALSAS ESPERANÇAS ÀS VÍTIMAS

    A mulher de 27 anos ouvida pela reportagem é representada pelo Marsh e concordou em processar a Apple porque acredita que a Apple deu falsas esperanças às vítimas de abuso sexual infantil ao introduzir e abandonar seu sistema NeuralHash. Usuária de iPhone, ela afirmou que a empresa escolheu privacidade e lucro em vez de pessoas.

    O processo é o segundo do tipo contra a Apple, mas seu escopo e impacto financeiro potencial poderiam forçar a empresa a um processo de litígio de anos sobre uma questão que tentou deixar para trás. E aponta para a crescente preocupação de que a privacidade do iCloud da Apple permite que material ilegal circule sem ser tão facilmente detectado como seria em serviços de mídia social como o Facebook.

    Por anos, a Apple relatou menos material abusivo do que seus pares, capturando e relatando uma pequena fração do que é encontrado pelo Google e Facebook. Defendeu sua prática dizendo que está protegendo a privacidade do usuário, mas grupos de segurança infantil a criticaram por não fazer mais para parar a disseminação desse material.

    O caso é o exemplo mais recente de uma estratégia legal emergente contra empresas de tecnologia. Por décadas, a Seção 230 da Lei de Decência nas Comunicações protegeu as big techs de responsabilidade legal pelo que os usuários postam em suas plataformas. Mas decisões recentes do Tribunal de Apelações dos EUA determinaram que essas proteções podem ser aplicadas apenas à moderação de conteúdo e não fornecem proteção de responsabilidade abrangente.

    As decisões aumentaram a esperança entre os advogados dos autores dos processos de que as empresas de tecnologia poderiam ser desafiadas no tribunal. Em agosto, uma menina de 9 anos processou a Apple na Carolina do Norte depois que estranhos enviaram vídeos de abuso sexual infantil através de links do iCloud e a encorajaram a filmar e encaminhar seus próprios vídeos nus.

    A Apple entrou com uma moção para rejeitar o caso da Carolina do Norte, dizendo que a Seção 230 a protege de responsabilidade pelo material postado no iCloud por outra pessoa. Também argumentou que o iCloud não poderia ser sujeito a uma reclamação de responsabilidade do produto porque não era um produto, como um pneu defeituoso.

    “O material de abuso sexual infantil é abominável e estamos comprometidos em combater as maneiras como os predadores colocam as crianças em risco. Estamos urgentemente e ativamente inovando para combater esses crimes sem comprometer a segurança e a privacidade de todos os nossos usuários”, disse o porta-voz da Apple, Fred Sainz.

    O porta-voz elencou ferramentas de segurança que a empresa introduziu para conter a disseminação de imagens ilegais recém-criadas, incluindo recursos em seu aplicativo de mensagens que alertam crianças sobre conteúdo de nudez e permitem que as pessoas relatem material prejudicial à Apple.

    Riana Pfefferkorn, advogada e pesquisadora de políticas no Instituto de Inteligência Artificial Centrada no Humano de Stanford, afirmou que há obstáculos significativos para qualquer processo sobre as políticas da Apple em relação ao material de abuso sexual infantil.

    Ela reiterou que uma vitória para os demandantes poderia sair pela culatra porque poderia levantar questões sobre se o governo está forçando a Apple a escanear material ilegal em violação da Quarta Emenda da Constituição dos EUA.



    Source link

    Compartilhar. Facebook Twitter Pinterest LinkedIn Tumblr E-mail Link de cópia

    Related Posts

    Inteligência artificial: O chatbot que só bajula – 13/06/2025 – Tec

    junho 13, 2025

    Meta aposta no ingrediente secreto da IA: cérebros humanos – 12/06/2025 – Tec

    junho 12, 2025

    Como o processo da Disney sobre IA pode revolucionar arte – 12/06/2025 – Tec

    junho 12, 2025

    IA: Disney e Universal processam empresa Midjourney – 11/06/2025 – Tec

    junho 11, 2025

    Esta startup de IA quer roubar seu emprego – 11/06/2025 – Tec

    junho 11, 2025

    Conta de luz afasta supercomputador de Petrópolis – 11/06/2025 – Tec

    junho 11, 2025

    Assine para atualizações

    Receba as últimas notícias criativas sobre arte e design.

    Últimas postagens
    Manter contato
    • Facebook
    • Twitter
    • Pinterest
    • Instagram
    • YouTube
    • Vimeo
    Não perca

    Nobéis assinam carta em defesa da liberdade acadêmica – 13/06/2025 – Ciência

    junho 13, 2025

    Mais de 400 pessoas de dezenas de nacionalidades assinam uma carta aberta em defesa das…

    É possível editar um gene sob medida? – 13/06/2025 – Ciência Fundamental

    junho 13, 2025

    Relatório do Senado aponta falhas em programa de Lula – 13/06/2025 – Painel

    junho 13, 2025

    Recent Posts

    • Nobéis assinam carta em defesa da liberdade acadêmica – 13/06/2025 – Ciência
    • É possível editar um gene sob medida? – 13/06/2025 – Ciência Fundamental
    • Relatório do Senado aponta falhas em programa de Lula – 13/06/2025 – Painel
    • James Webb detecta planetas jovens em diferentes estágios – 13/06/2025 – Ciência
    • CPM 22, Marcelo Falcão e Nany People são atrações do fim de semana na região; confira a agenda cultural

    Recent Comments

    Nenhum comentário para mostrar.
    junho 2025
    D S T Q Q S S
    1234567
    891011121314
    15161718192021
    22232425262728
    2930  
    « maio    
    Sobre nós
    Sobre nós

    Brasil Eleve - Informação de Crescimento um portal de notícias sobre economia, empreendedorismo e desenvolvimento pessoal.

    Envie-nos um e-mail: contato@brasileleve.com

    Facebook Instagram Pinterest YouTube
    Nossas escolhas

    Copa do Mundo de Clubes: PSG e Manchester City favoritos – 12/06/2025 – Esporte

    junho 12, 2025

    O amor está no cascalho – 12/06/2025 – No Corre

    junho 12, 2025

    Bobadilla é indiciado sob suspeita de injúria racial – 12/06/2025 – Esporte

    junho 12, 2025
    Mais popular

    Três pontos para entender o novo capítulo do conflito Israel x Irã

    junho 13, 2025

    Chefe da Guarda Revolucionária do Irã é eliminado por Israel

    junho 13, 2025

    Israel realiza ataque “preventivo” contra o Irã e declara emergência

    junho 12, 2025
    Copyright © 2024. Todos os Direitos Reservados por bomscript.com.br
    • Início
    • Contato

    Type above and press Enter to search. Press Esc to cancel.