sábado, 20 setembro, 2025
  • Sobre Nós
  • Anuncie aqui e conecte-se com o seu público ideal!
  • Fale Conosco
Matéria Prima Comunica
  • Início
  • Notícias
    • Economia
    • Brasil
    • Esporte
    • Mundo
    • Pessoas
    • Turismo
    • Obras
    • Pesca
    • Cidadania
    • Cultura
    • Educação
  • Oportunidade
    • Emprego
    • Cursos
    • Concursos
  • Vida & Lazer
    • Eventos
    • Viagens
    • Saúde
  • Opinião
  • Colunistas
  • Alfredo Chaves
  • Anchieta
  • Cachoeiro de Itpemirim
  • Guarapari
  • Iconha
  • Itapemirim
  • Marataízes
  • Piúma
  • Presidente Kennedy
  • Rio Novo do Sul
  • Vila Velha
  • Vitória
Nenhum Resultado
View All Result
  • Início
  • Notícias
    • Economia
    • Brasil
    • Esporte
    • Mundo
    • Pessoas
    • Turismo
    • Obras
    • Pesca
    • Cidadania
    • Cultura
    • Educação
  • Oportunidade
    • Emprego
    • Cursos
    • Concursos
  • Vida & Lazer
    • Eventos
    • Viagens
    • Saúde
  • Opinião
  • Colunistas
  • Alfredo Chaves
  • Anchieta
  • Cachoeiro de Itpemirim
  • Guarapari
  • Iconha
  • Itapemirim
  • Marataízes
  • Piúma
  • Presidente Kennedy
  • Rio Novo do Sul
  • Vila Velha
  • Vitória
Nenhum Resultado
View All Result
Matéria Prima Comunica
Nenhum Resultado
View All Result
Home Justiça

Tecnologia: IA está complicando o problema da segurança infantil on-line

por Redação
2 de fevereiro de 2024
em Justiça, Política, Segurança, Tecnologia
Reading Time: 10 mins read
A A
Tecnologia: IA está complicando o problema da segurança infantil on-line

CEOs de tecnologia são questionados sobre a segurança infantil on-line. Foto: Getty Images

CompartilharTwittarCompartilhar

Os CEOs de cinco empresas de mídia social, incluindo Meta, TikTok e X (antigo Twitter), foram interrogados por senadores americanos, na quarta-feira (31), sobre como estão prevenindo a exploração sexual infantil online.

O Comitê Judiciário do Senado convocou a reunião para responsabilizar os CEO pelo que consideraram ser um fracasso na prevenção do abuso de menores e perguntar se apoiariam as leis que os membros do Comitê propuseram para resolver o problema.

É um problema que está piorando, de acordo com o Centro Nacional para Crianças Desaparecidas e Exploradas, que afirma que os relatos de material de abuso sexual infantil (CSAM) atingiram um recorde no ano passado, de mais de 36 milhões. O Centro Nacional para Crianças Desaparecidas e Exploradas CyberTipline, um sistema centralizado nos EUA para denúncias de CSAM online, foi alertado sobre mais de 88 milhões de ficheiros em 2022, com quase 90% das denúncias provenientes de fora do país.

Mark Zuckerberg da Meta, Shou Chew do TikTok e Linda Yaccarino do X apareceram ao lado de Jason Spiegel do Snap e Jason Citron do Discord para responder a perguntas do Comitê Judiciário do Senado. Embora Zuckerberg e Chew tenham aparecido voluntariamente, o Comitê teve que entregar intimações a Spiegel, Citron e Yaccarino .

O senador Richard Durbin, democrata de Illinois e presidente do Comitê, abriu a audiência com um vídeo que mostra vítimas de exploração sexual infantil online, incluindo famílias de crianças que morreram por suicídio após serem alvo de predadores online.

O senador Lindsey Graham, um republicano da Carolina do Sul e membro do ranking, contou aos participantes sobre Gavin Guffey , o filho de 17 anos do deputado estadual da Carolina do Sul, Brandon Guffey, que morreu por suicídio depois de ser extorquido sexualmente no Instagram. “Vocês têm sangue nas mãos”, disse Graham aos CEOs, destacando Zuckerberg em particular.

Muitos dos legisladores reunidos expressaram a sua frustração com o que consideraram serem esforços insuficientes empreendidos pelas empresas de redes sociais para resolver o problema e afirmaram a sua própria vontade de agir.

No ano passado, além de realizar uma série de audiências, o Comitê Judiciário  apresentou uma série de projetos de lei destinados a proteger as crianças online no plenário do Senado, incluindo a Lei EARN IT, que removeria a imunidade das empresas de tecnologia de ações civis e criminais. responsabilidade sob leis materiais de abuso sexual infantil.

Nos seus testemunhos, todos os CEO expuseram as medidas que estavam tomando para prevenir danos online contra as crianças. No entanto, quando pressionados sobre se apoiariam os projetos de lei apresentados pelo Comitê Judiciário, muitos hesitaram.

A certa altura, o senador Josh Hawley, um republicano do Missouri, perguntou a Zuckerberg se ele gostaria de pedir desculpas aos pais de crianças afetadas pelo CSAM online que estiveram presentes na audiência. “Sinto muito por tudo que vocês passaram”, disse Zuckerberg. “É terrível. Ninguém deveria passar pelas coisas que suas famílias sofreram”.

Em diversas ocasiões, os CEOs destacaram o uso de inteligência artificial pelas suas empresas para resolver a questão do CSAM online. Em seu depoimento, Citron destacou a aquisição da Sentropy pela Discord, empresa que desenvolveu soluções de moderação de conteúdo baseadas em IA. Zuckerberg disse que 99% do conteúdo que o Meta remove é detectado automaticamente por ferramentas de IA. No entanto, os legisladores e os chefes da tecnologia não discutiram o papel que a IA está tendo na proliferação do CSAM.

Imagens de abuso infantil geradas por IA

O advento da inteligência artificial generativa está aumentando as preocupações sobre os danos causados ​​às crianças online. As autoridades em todo o mundo têm lutado para lidar com uma série de casos que envolvem material de abuso sexual infantil gerado por IA – um fenômeno sem precedentes perante muitos tribunais. 

Em 10 de janeiro , a atriz da Marvel, Xochitl Gomez, de 17 anos, que interpretou a super-heroína adolescente America Chavez no filme de 2022 Doutor Estranho no Multiverso da Loucura , falou sobre como foi difícil limpar X de imagens pornográficas dela geradas por IA. 

Falando em um podcast com o ator Taylor Lautner e sua esposa, Gomez disse que sua mãe e sua equipe têm tentado – sem sucesso – remover as imagens. “Ela recebia e-mails e mais e-mails, mas tipo, houve muitos e ela lidou com tudo”, diz ela. “Para mim, não era algo incompreensível, mas apenas algo como: ‘Por que é tão difícil de derrubar?’”

As autoridades enfrentam a complicada tarefa de impedir a propagação de CSAM gerados por IA à medida que a tecnologia evolui a um ritmo rápido e a facilidade de acesso a ferramentas como as chamadas aplicações nudify aumenta, mesmo entre as próprias crianças.

À medida que os modelos de IA melhoram e se tornam mais acessíveis, também se tornarão mais difíceis de policiar caso sejam utilizados para fins ilegais, como a criação de CSAM, de acordo com Dan Sexton, diretor de tecnologia da Internet Watch Foundation (IWF), sediada no Reino Unido.

Ele diz que o mundo precisa chegar a um acordo sobre uma solução rapidamente: “Quanto mais esperarmos para encontrar uma solução para cada um desses possíveis problemas que podem acontecer amanhã, maior será a chance de que isso já tenha acontecido e então estaremos perseguindo, e você está tentando desfazer, danos que já aconteceram”.

Um problema crescente

Na maior parte, a criação de qualquer tipo de CSAM já é amplamente criminalizada, incluindo o uso de IA. No seu último relatório, o Centro Internacional para Crianças Desaparecidas e Exploradas concluiu que 182 dos 196 países têm legislação que aborda especificamente o CSAM ou é suficiente para combatê-lo.

Por exemplo, a lei federal dos EUA define CSAM como qualquer representação visual de conduta sexualmente explícita envolvendo um menor – o que pode incluir “imagens digitais ou geradas por computador indistinguíveis de um menor real”, bem como “imagens criadas, adaptadas ou modificadas, mas que parecem retratam um menor real e identificável”. Na Irlanda, a lei é muito mais rigorosa: o CSAM é ilegal, simulado ou não .

Alguns infratores já foram condenados sob tais leis. Em setembro, um tribunal sul-coreano condenou um homem de 40 anos a 2,5 anos de prisão por usar IA para ilustrar centenas de imagens pornográficas realistas de crianças. Em abril passado, um juiz de Quebec condenou um homem de 61 anos a três anos de prisão por usar tecnologia deepfake para criar vídeos sintéticos de abuso sexual infantil. No mesmo mês, em Nova Iorque , um homem de 22 anos foi condenado a seis meses de prisão e 10 anos de liberdade condicional como agressor sexual depois de se declarar culpado de diversas acusações relacionadas com a geração e divulgação de imagens sexualmente explícitas de mais de uma dúzia de mulheres menores de idade.

Mas a resolução destes casos nem sempre é simples. A Espanha foi abalada por um caso de mais de 20 meninas com idades entre 11 e 17 anos que tiveram nus gerados por IA circulando online em setembro. Mas demorou algum tempo até que as autoridades responsáveis ​​pela aplicação da lei determinassem a responsabilidade criminal dos alegados culpados, que também se acredita serem menores.

Manuel Cancio, professor de direito penal na Universidade Autônoma de Madrid, disse que “se fosse um caso claro onde todos saberiam onde localizá-lo em qual seção do código penal [espanhol], então as acusações teriam sido feitas já em frente”. David Wright, diretor do Centro de Segurança na Internet do Reino Unido, também disse que a organização de proteção infantil também recebeu relatos de crianças em idade escolar criando e divulgando imagens nuas geradas por IA de seus colegas.

A tecnologia de IA hoje pode usar a imagem de qualquer criança desavisada ou criar uma imagem que não seja baseada em uma criança real, para gerar material de abuso sexual em apenas alguns cliques, embora muitos dos desenvolvedores não permitam o uso de tal material.

O Observatório da Internet de Stanford descobriu que alguns modelos de IA foram treinados em conjuntos de dados que continham pelo menos 3 mil imagens de CSAM conhecidos – provenientes de plataformas convencionais como X e Reddit – embora as suas políticas proíbam a publicação de tal conteúdo. Sexton diz que a IWF também recebeu relatos de imagens de crianças vítimas anteriores sendo reutilizadas para criar mais CSAM delas.

A X não respondeu aos pedidos de comentários, enquanto um porta-voz do Reddit disse em comunicado que a plataforma usa ferramentas automatizadas e inteligência humana para detectar e prevenir a propagação de CSAM, e denuncia usuários que distribuem tal material. “Mantemos ativamente políticas e procedimentos que não apenas seguem a lei, mas vão além dela”, disse o porta-voz, acrescentando que os modelos referenciados no relatório tinham dados de treinamento coletados por raspadores de terceiros não autorizados, o que significa que esses dados foram obtidos sem o consentimento do Reddit e não obedecem aos padrões de segurança da empresa.

David Thiel, tecnólogo chefe do Stanford Internet Observatory, diz que o CSAM gerado por IA ultrapassou as soluções usadas para rastrear e remover o conteúdo. “É apenas um fluxo constante de novo material, em vez desta recirculação de material conhecido, o que torna a parte visual da impressão digital realmente difícil”, disse Thiel.

Como impedir a propagação do AI CSAM?

Os desenvolvedores de modelos de IA dizem que suas ferramentas possuem proteções específicas que proíbem seu abuso. OpenAI proíbe o uso de seu gerador de imagens DALL-E para imagens sexuais, enquanto Midjourney exige que o conteúdo seja PG-13. Stability AI atualizou seu software para dificultar a criação de conteúdo adulto. Mas de acordo com a organização de segurança na Internet ActiveFence, alguns usuários encontraram maneiras de desbloquear esses modelos. A liderança da OpenAI apelou aos decisores políticos para intervirem e definirem parâmetros sobre a utilização de modelos de IA.

Eliminar todo o material de abuso existente na Internet exigiria muito poder computacional e tempo, por isso as empresas de tecnologia e organizações anti tráfico sexual como a Thorn desenvolveram tecnologias de aprendizagem automática que detectam, removem e denunciam CSAM. Uma tecnologia usada é chamada de correspondência de hash: um processo que permite que as plataformas marquem arquivos visualmente semelhantes. Outra é o uso de classificadores, ferramentas de aprendizado de máquina que indicam a probabilidade de o conteúdo ser CSAM.

Outra solução em estudo é limitar o acesso à tecnologia. Os defensores dos modelos de IA de código aberto argumentam que o código aberto promove a colaboração entre os utilizadores, promove a transparência ao renunciar ao controle das empresas que os administram e também democratiza o acesso.

Sexton diz que embora o acesso para todos possa parecer favorável em princípio, existem riscos. “Na realidade, o efeito que vemos em colocar uma tecnologia realmente poderosa como esta nas mãos de todos significa que a colocamos nas mãos de agressores sexuais de crianças, que a colocamos nas mãos de pedófilos, perpetradores e do crime organizado. E eles criarão e estão criando conteúdo prejudicial a partir disso”.

Rebecca Portnoff, chefe de ciência de dados da Thorn, no entanto, diz que o debate sobre o acesso criou um falso binário entre modelos de código aberto e fechados, e ela sugere que a maior oportunidade para impedir a disseminação do CSAM gerado por IA está com os desenvolvedores. Ela diz que os desenvolvedores devem se concentrar na criação de modelos de “segurança desde o projeto” para mitigar os danos às crianças, em vez de ter medidas de prevenção que tomem uma resposta reativa às ameaças existentes.

Portnoff enfatiza que o tempo é essencial. “Não vai desacelerar”, diz ela. “Isso me leva de volta ao conceito de usar todas as ferramentas que temos em mãos para lidar com isso de maneira adequada. E essas ferramentas incluem aquelas que realmente construímos, incluem a colaboração com órgãos reguladores e incluem a colaboração com empresas de tecnologia”.

 

 

Fonte: Time

Tags: #IA#mundo#Pedofilia#SegurançaInfantil#tecnologia

VEJA TAMBÉM

Alfredo Chaves: Prefeitura recebe kit de segurança e reforça políticas públicas de enfrentamento à violência contra a mulher
Alfredo Chaves

Alfredo Chaves: Prefeitura recebe kit de segurança e reforça políticas públicas de enfrentamento à violência contra a mulher

EUA: Senadores americanos apresentam projeto para cancelar tarifas contra Brasil
Brasil

EUA: Senadores americanos apresentam projeto para cancelar tarifas contra Brasil

Justiça: STF nega direito de mulheres trans e travestis decidirem onde vão cumprir pena
Brasil

Decisão: STF valida alta programada e fim automático de auxílio-doença do INSS

Comente este post

Montelar
Batelão

Categorias

  • Agricultura
  • Alfredo Chaves
  • Anchieta
  • Assistência Social
  • Bem-estar
  • Brasil
  • Cachoeiro de Itpemirim
  • Cariacica
  • Cidadania
  • Ciências
  • Comportamento
  • Concursos
  • Conflito
  • Cultura
  • Curiosidade
  • Cursos
  • Desenvolvimento
  • Destaques
  • Dica
  • Domingos Martins
  • Economia
  • Educação
  • Empreendedorismo
  • Emprego
  • Especial
  • Espírito Santo
  • Esporte
  • Eventos
  • Gastronomia
  • Guarapari
  • Iconha
  • Itapemirim
  • Justiça
  • Marataízes
  • Meio Ambiente
  • Mundo
  • Obras
  • Opinião
  • Pesca
  • Pesquisa
  • Pessoas
  • Pets
  • Piúma
  • Polícia
  • Política
  • Presidente Kennedy
  • Regional
  • Rio Novo do Sul
  • Saúde
  • Segurança
  • Sem categoria
  • Serra
  • Tecnologia
  • Turismo
  • Viagens
  • Viana
  • Vila Velha
  • Vitória

Siga-nos

  • Sobre Nós
  • Anuncie aqui e conecte-se com o seu público ideal!
  • Fale Conosco

© 2022 - Desenvolvido por Webmundo Soluções Interativas

Nenhum Resultado
View All Result
  • Início
  • Notícias
    • Economia
    • Brasil
    • Esporte
    • Mundo
    • Pessoas
    • Turismo
    • Obras
    • Pesca
    • Cidadania
    • Cultura
    • Educação
  • Oportunidade
    • Emprego
    • Cursos
    • Concursos
  • Vida & Lazer
    • Eventos
    • Viagens
    • Saúde
  • Opinião
  • Colunistas

© 2022 - Desenvolvido por Webmundo Soluções Interativas