17 de Fevereiro de 2024
Quais as políticas das redes sociais para crianças e adolescentes?
[0] Comentários | Deixe seu comentário.Foto: Red Kramynina/Adobestock
Nessa quarta-feira, 14, o prefeito de Nova York afirmou ter dado entrada em um processo contra empresas detentoras de redes sociais, como Meta, Alphabet e ByteDance, do TikTok. Ele alega que as empresas alimentam uma crise de saúde mental entre crianças e jovens ao gerar vício nas plataforma e demais questões.
A discussão sobre o tópico, entretanto, não é recente. Nas últimas semanas, altos executivos de big techs têm participado de audiências nos Estados Unidos sobre a segurança infantil on-line. Estiveram presentes representantes de empresas como TikTok, Discord, Snap, Meta, com Mark Zuckerberg, e do X, com a atual CEO, Linda Yaccarino. Representantes do YouTube não estiveram presentes.
O Comitê Judiciário do Senado norte-americano tem questionado as gigantes da tecnologia sobre supostas brechas de segurança de crianças e jovens em suas plataformas. Entre as alegações, está o fato de que as redes sociais têm contribuído para um impacto negativo sobre a saúde mental infanto-juvenil, inclusive tendo mortes relacionadas às mídias através de drogas, assédio de diversos tipos, entre outros.
O CEO da Meta chegou a realizar uma retratação pública. Ele dirigiu-se às famílias das vítimas presentes com um pedido de desculpas. Ainda, apontou que continuarão se esforçando em toda a indústria para garantir que outras pessoas não passem pelo mesmo. Durante a audiência, executivos comprometeram-se com a colaboração na aprovação de novas leis de segurança on-line, sobretudo no que diz respeito à exploração sexual infantil no ambiente digital.
Confira abaixo algumas das principais questões envolvendo as principais plataformas em questão, bem como seus esforços para garantir a segurança infantil em suas plataformas.
Meta
Ainda em 2023, a empresa de Mark Zuckerberg foi processada pela Califórnia e outros estados norte-americanos por alegações de que suas plataformas de mídia social Instagram e Facebook exploram jovens para obter lucro e fornecem a eles conteúdo prejudicial. Além disso, uma senadora republicana do Tennessee apontou, durante audiência recente, que documentos internos da Meta sugerem que o valor vitalício de um adolescente seja de US$ 270.
Em seu blog, a Meta aponta que trabalha com base em uma abordagem tripla para proteger os jovens. Ela consiste na prevenção de danos com políticas de tolerância zero e outras ferramentas; na facilitação de denúncias de danos e reposta de ação; e na colaboração com especialistas e parceiros do setor para atualização de soluções de segurança.
A big tech implantou no Facebook em 2015 os alertas Amber para crianças desaparecidas e testa o recurso para o Instagram. Ademais, intervém para que adultos potencialmente suspeitos não se conectem com crianças ao não recomendar suas contas, bloquear comentários e ao retirar a opção de envio de solicitação de amizade.
Ao lado do National Center for Missing & Exploited Children (NCMEC), a Meta colaborou para a criação do portal Take it Down. A plataforma fornece uma impressão digital exclusiva para detectar, monitorar e excluir imagens e vídeos de nudez de menores de 18 anos. Ademais, conta com campanhas para que as pessoas não compartilhem fotos que contribuam ou incentivem a exploração infantil. Atualmente, a Meta conta com 40 mil colaboradores voltados para a moderação de conteúdo.
No que diz respeito ao controle parental, os recursos recentes da companhia incluem o gerenciamento de tempo que as crianças e jovens passam em seus apps, bem como um Modo Silencioso a nível global que incentiva a definição de um tempo limite no Facebook.
Há ainda uma nova ferramenta para o Messenger. Este último permite que os pais possam ver como os adolescentes passam o tempo e com quem interagem no Messenger. Novas soluções também limitam interações indesejadas na DM do Instagram.
X (ex-Twitter)
A moderação de conteúdo é um dos principais tópicos envolvendo o X (antigo Twitter) após a aquisição por Elon Musk em outubro de 2022. Desde a compra, o bilionário diminuiu cerca de 80% de seu pessoal – entre eles sua principal executiva de segurança, Ella Irwin. A falta de moderação, inclusive, afastou diversos anunciantes da plataforma.
Em junho do ano passado, Linda Yaccarino foi nomeada como nova CEO da plataforma. Ela esteve presente na audiência que reuniu diversos executivos de big techs e comprometeu-se em ser parte da solução: “X é uma empresa totalmente nova e uma plataforma indispensável para o mundo e a democracia. Você tem meu compromisso de que x fará parte da solução”, endossou em postagem no blog, bem como afirmou apoiar a Lei Stop CSAM.
Em carta, a CEO reconheceu que as táticas dos infratores devem evoluir e se sofisticar com a IA. Recentemente, X informou a inauguração de um Centro de Confiança e Segurança em Austin, no Texas, a fim de recrutar agentes internos e acelerar o impacto. De acordo com Linda, a empresa conta com 2.300 membros de moderação de conteúdo e, desde abril, afirma ter aumentado treinamento sobre ferramentas e políticas de denúncia do NCMEC.
Atualmente, usuários entre 13 e 17 anos representam menos de 1% dos usuários diários da rede social. No ano passado, o X informou ter suspendido 12,4 milhões de contas que violavam as políticas acerca da temática. Em dezembro, lançou o Safer, solução que permite que plataformas identifiquem, removam e denunciem material de abuso sexual infantil em larga escala, bem como tem código de algoritmo aberto.
TikTok
Em suas políticas, o TikTok aponta que conta com mais de mil profissionais voltados para a segurança na plataforma. Sobre abuso sexual infantil on-line, a plataforma utiliza tecnologias como PhotoDNA da Microsoft, a API Content Safety do Google e o CSAI Match do YouTube, que identificam materiais relacionados. A companhia compromete-se com a moderação e remoção dos conteúdos por violação às Diretrizes de Comunidade.
Nos Estados Unidos, usuários com menos de treze anos são direcionados ao TikTok for Younger Users, que oferece uma curadoria com salvaguardas adicionais e proteções de privacidade moldadas ao público. A conta, privada por padrão, tem tempo de tela de 60 minutos e não envia notificações por push a partir de 21h para menores de 16 anos e das 22h para aqueles entre 16 e 17. Os adolescentes não podem realizar transações financeiras no app ou promover lives.
Para os mais jovens, entre 13 e 15 anos, não é permitido o envio de mensagens diretas, realizar downloads de vídeos ou duetos. O TokTok também não exibe vídeos no feed Para Você, alimentado pelo seu algoritmo de recomendação.
Discord
O Discord, não permitido para menores de 13 anos, diz banir de forma permanente usuários que postam conteúdos de abuso sexual infantil ou que façam alusão, seja em texto ou mídia. A plataforma também afirma em seu blog “analisar comportamentos exibidos fora da plataforma ao revisar o conteúdo no âmbito desta política devido à natureza altamente prejudicial da infração”.
Em 2023, o Discord apresentou o recurso Central Familiar para Pais e Guardiões. Ele permite que pais e responsáveis acompanhem a atividade dos adolescentes com menos de 18 anos na plataforma. A empresa disse que o recurso auxilia na promoção de um diálogo produtivo sobre hábitos de internet mais seguros e criar maneiras mutuamente benéficas para pais e adolescentes se conectarem sobre experiências online.
Entre as informações exibidas estão os amigos adicionados recentemente pelo usuário, para quais usuários foram feitas mensagens ou chamadas de vídeo, bem como nomes de exibição, avatares e os horários. Também são disponibilizados nomes e ícones de servidores recentes ou antigos, e contagens de membros. O responsável também recebe atualizações semanais por e-mail, com um resumo das atividades do jovem na rede social.
Fonte: Meio e Mensagem, disponível em: https://www.meioemensagem.com.br/midia/redes-sociais-criancas-adolescentes