Adolescentes podem usar a Sora 2 da OpenAI para gerar imagens de atiradores em escolas e violĂȘncia sexual. É uma notĂ­cia chocante e alarmante que vem Ă  tona apenas um mĂȘs apĂłs o lançamento da versĂŁo mais recente do modelo de IA de texto para vĂ­deo da empresa. A Sora 2, idealizada para criar conteĂșdo criativo e inspirador, surpreendentemente tem se provado ser uma ferramenta perigosa em mĂŁos dos adolescentes.

Desde setembro, a OpenAI anunciou a implementação de controles parentais e recursos de detecção de crises em seus produtos, incluindo a Sora 2. No entanto, uma pesquisa recente da organização sem fins lucrativos Ekƍ revelou que essas medidas de segurança nĂŁo sĂŁo imunes Ă  manipulação. Os pesquisadores da Ekƍ descobriram que, mesmo com as novas funcionalidades, nĂŁo tiveram dificuldade em induzir o modelo a produzir conteĂșdo ultrajante, incluindo clipes de jovens cheirando drogas, expressando image corporal negativa e em poses sexualizadas. E, o que Ă© ainda mais alarmante, gerar imagens de atiradores em escolas e violĂȘncia sexual. As implicaçÔes desses achados sĂŁo devastadoras, especialmente considerando o momento em que a OpenAI e outras empresas de IA enfrentam processos de pais que alegam que seus chatbots incentivaram os suicĂ­dios de seus filhos.

As consequĂȘncias podem ser fatais. Um comercinho falso de um brinquedo, um deepfake de Martin Luther King Jr. ou de John F. Kennedy, um vĂ­deo mostrando jovens em atitudes sexuais, Ă© tudo algo que pode causar danos irreversĂ­veis. E como sabemos, a Internet Ă© vasta e infinita, e essas imagens podem se espalhar facilmente. AlĂ©m disso, a pesquisa da Ekƍ tambĂ©m revelou que muitos desses contas suspeitos sĂŁo de meninos e meninas de apenas 13 e 14 anos. É claro que a empresa precisa tomar medidas mais robustas para prevenir a geração de conteĂșdo perigoso.

A OpenAI parece estar tentando apagar a poeira sob o tapete. O anĂșncio do lançamento da Sora 2 foi acompanhado de boas vindas e esperança por aqueles que acreditam que a IA pode ser usada positivamente. No entanto, Ă© claro que a empresa precisa lidar com o problema dos controles e monitoramento, pois apenas acreditar que seus sistemas sĂŁo seguros nĂŁo Ă© suficiente. Como um dos lĂ­deres no mercado de inteligĂȘncia artificial, a OpenAI precisa garantir que seus produtos nĂŁo sejam usados para causar danos. É o menos que uma empresa que reivindica a capacidade de criar inteligĂȘncia artificial pode fazer.

Compartilhe

Camilo Dantas Ă© redator profissional formado pela USP, com mais de 15 anos em jornalismo digital e 25 anos de experiĂȘncia em SEO e estratĂ©gia de conteĂșdo. Especialista em arquitetura semĂąntica, otimização para buscadores e preparação de conteĂșdo para LLMs e IAs, atua como uma das principais referĂȘncias brasileiras em SEO avançado. TambĂ©m Ă© formado em AnĂĄlise de Sistemas com foco em InteligĂȘncia Artificial, unindo expertise tĂ©cnica e editorial para produzir conteĂșdos de alta precisĂŁo, relevĂąncia e performance. Contato: [email protected]

ComentĂĄrios desativados