Família processa Roblox e Discord após o suicídio de jovem de 13 anos.

Recentemente, uma nova ação judicial foi apresentada no Tribunal Distrital dos Estados Unidos para o Distrito Leste de Kentucky, na Divisão de Covington. A ação alega que as plataformas Roblox e Discord falharam em proteger uma adolescente de 13 anos, chamada Audree Heine, que infelizmente morreu por suicídio.

O processo foi iniciado pela mãe de Audree, Jaimee Seitz, acusando ambas as empresas de permitirem comunidades online que expõem crianças a conteúdos violentos e predatórios.

De acordo com a denúncia, Audree foi influenciada por uma “comunidade online que glorifica a violência e imita atiradores em massa”, a qual teria prosperado “graças à conduta ilícita dos réus”. Essa comunidade é identificada como a True Crime Community (TCC), descrita como um espaço que “idolatra atiradores em massa e promove ideologias extremistas e violentas”.

Segundo o processo, o grupo idolatra os autores do massacre de Columbine, em 1999, retratando-os como “párias incompreendidos” e encorajando comportamentos autodestrutivos e violentos.

A ação aponta o Roblox como um “local-chave” para a disseminação desse tipo de conteúdo, incluindo jogos que recriam tiroteios em massa, e menciona o Discord como uma plataforma utilizada para compartilhar instruções sobre simuladores de ataques em escolas e avatares que imitam a aparência de atiradores conhecidos.

“Por meio de suas declarações enganosas sobre segurança, os réus promovem seus aplicativos como adequados para crianças”, diz a petição. “Na verdade, e como os réus já sabem, o design de seus aplicativos torna as crianças alvos fáceis para comportamentos predatórios”.

O testemunho alega que adultos mal-intencionados usam as plataformas para aliciar crianças vulneráveis para exploração sexual ou violenta. O processo critica também a falta de sistemas adequados de verificação de idade e a ausência de mecanismos eficazes de segurança para os menores.

A mãe da vítima é representada pelo escritório Anapol Weiss, de Filadélfia, que já processou a Roblox 11 vezes anteriormente por suposta negligência na proteção de crianças.

“Não é uma questão de uma pequena falha de segurança, mas sim de uma empresa que fornece ferramentas poderosas para pedófilos atacarem crianças inocentes”, afirmou Alexandra Walsh, sócia do escritório. “O trauma resultante é devastador, desde o aliciamento até a exploração e o abuso. Neste caso, uma criança perdeu a vida. Isso precisa acabar”, acrescentou, conforme informações do portal The Christian Post.

Esta é a 12ª ação do escritório contra plataformas de jogos online por alegada falha na proteção de menores. A Anapol Weiss afirma que essas ações evidenciam um “padrão de descaso corporativo em relação à segurança infantil”.

Críticas às plataformas

O Discord tem enfrentado críticas por sua aparente ineficácia na proteção de crianças. O Centro Nacional de Exploração Sexual (NCOSE) inclui o aplicativo na lista “Dirty Dozen” por quatro anos consecutivos, que reúne empresas consideradas negligentes na prevenção da exploração sexual.

Em comunicado de março de 2024, a NCOSE afirmou que as medidas de segurança anunciadas pela plataforma “são meramente formais” e que “adultos e menores ainda compartilham as mesmas configurações padrão para conteúdo explícito”, permitindo acesso a pornografia e material sexual em servidores públicos e mensagens privadas.

Em novembro de 2023, a Roblox Corporation anunciou novas políticas de segurança infantil, como controle parental remoto, limites diários de uso, restrições de comunicação para menores de 13 anos e bloqueio de conteúdo gráfico. “Desde o dia do lançamento, temos uma crescente população de usuários jovens e queremos ajudá-los a permanecer seguros no Roblox. Levamos a segurança muito a sério”, declarou a empresa.

A Roblox frisou que seu intuito é “tornar a plataforma online o mais segura e civilizada possível, porque é o correto para as crianças, seus pais e responsáveis, nossos investidores e nossa empresa”.

Latest articles

Related articles