Crimes com uso de IA contra mulheres terão pena aumentada

dplnews deepfake mujer mc210325

O Senado Federal aprovou, nesta quarta-feira (19), um projeto de lei que aumenta a pena para crimes de violência psicológica contra a mulher cometidos com o uso de inteligência artificial (IA) ou tecnologias que alterem a imagem ou o som da vítima.

Atualmente, a pena para esse crime é de seis meses a dois anos de reclusão e multa. Com a nova proposta, essa pena será aumentada pela metade quando houver o uso dessas tecnologias, podendo chegar a até três anos de reclusão.

A relatora do projeto no Senado, senadora Daniella Ribeiro (PSD-PB), destacou a importância da medida, especialmente no mês em que se comemora o Dia Internacional da Mulher.

Ela ressaltou que a inteligência artificial tem sido utilizada de forma criminosa para extorquir mulheres e macular suas imagens perante a sociedade, tornando necessário o aumento das penas para coibir essas práticas.

A violência psicológica contra a mulher é definida no Código Penal como qualquer ação que cause dano emocional, prejudique ou perturbe seu pleno desenvolvimento, ou que vise a degradar ou controlar suas ações, comportamentos, crenças e decisões.

Isso pode ocorrer por meio de ameaças, constrangimento, humilhação, manipulação, isolamento, chantagem, ridicularização, limitação do direito de ir e vir ou qualquer outro meio que cause prejuízo à saúde psicológica e à autodeterminação da mulher.

Taylor swift, parlamentares e adolescentes: as vítimas

Em janeiro de 2024, imagens geradas por inteligência artificial (IA) que retratavam falsamente a cantora Taylor Swift em situações explícitas foram amplamente disseminadas online. Essas imagens provocaram indignação pública e reacenderam debates sobre os riscos associados ao uso indevido de IA.

Organizações como a Rape, Abuse & Incest National Network e o sindicato SAG-AFTRA condenaram veementemente a criação e a distribuição dessas imagens. Além disso, o CEO da Microsoft, Satya Nadella, classificou o incidente como “alarmante e terrível”, ressaltando a necessidade de um ambiente online seguro.

Em novembro de 2023, alunos de colégios particulares do Rio de Janeiro utilizaram ferramentas de IA para criar imagens íntimas falsas de colegas. A Delegacia de Proteção à Criança e ao Adolescente (DPCA) conduziu uma operação que resultou em 16 mandados de busca e apreensão de celulares e computadores de estudantes dos colégios Santo Agostinho e Eleva Barra da Tijuca.

Outro exemplo dessa prática ocorreu durante as eleições municipais de 2024 no Brasil, onde diversas candidatas foram alvos de ataques utilizando IA para criar imagens falsas com conteúdo pornográfico, visando humilhá-las e desacreditá-las publicamente.

Adicionar aos favoritos o Link permanente.