Adolescentes podem usar a Sora 2 da OpenAI para gerar imagens de atiradores em escolas e violĂȘncia sexual. Ă uma notĂcia chocante e alarmante que vem Ă tona apenas um mĂȘs apĂłs o lançamento da versĂŁo mais recente do modelo de IA de texto para vĂdeo da empresa. A Sora 2, idealizada para criar conteĂșdo criativo e inspirador, surpreendentemente tem se provado ser uma ferramenta perigosa em mĂŁos dos adolescentes.
Desde setembro, a OpenAI anunciou a implementação de controles parentais e recursos de detecção de crises em seus produtos, incluindo a Sora 2. No entanto, uma pesquisa recente da organização sem fins lucrativos EkĆ revelou que essas medidas de segurança nĂŁo sĂŁo imunes Ă manipulação. Os pesquisadores da EkĆ descobriram que, mesmo com as novas funcionalidades, nĂŁo tiveram dificuldade em induzir o modelo a produzir conteĂșdo ultrajante, incluindo clipes de jovens cheirando drogas, expressando image corporal negativa e em poses sexualizadas. E, o que Ă© ainda mais alarmante, gerar imagens de atiradores em escolas e violĂȘncia sexual. As implicaçÔes desses achados sĂŁo devastadoras, especialmente considerando o momento em que a OpenAI e outras empresas de IA enfrentam processos de pais que alegam que seus chatbots incentivaram os suicĂdios de seus filhos.
As consequĂȘncias podem ser fatais. Um comercinho falso de um brinquedo, um deepfake de Martin Luther King Jr. ou de John F. Kennedy, um vĂdeo mostrando jovens em atitudes sexuais, Ă© tudo algo que pode causar danos irreversĂveis. E como sabemos, a Internet Ă© vasta e infinita, e essas imagens podem se espalhar facilmente. AlĂ©m disso, a pesquisa da EkĆ tambĂ©m revelou que muitos desses contas suspeitos sĂŁo de meninos e meninas de apenas 13 e 14 anos. Ă claro que a empresa precisa tomar medidas mais robustas para prevenir a geração de conteĂșdo perigoso.
A OpenAI parece estar tentando apagar a poeira sob o tapete. O anĂșncio do lançamento da Sora 2 foi acompanhado de boas vindas e esperança por aqueles que acreditam que a IA pode ser usada positivamente. No entanto, Ă© claro que a empresa precisa lidar com o problema dos controles e monitoramento, pois apenas acreditar que seus sistemas sĂŁo seguros nĂŁo Ă© suficiente. Como um dos lĂderes no mercado de inteligĂȘncia artificial, a OpenAI precisa garantir que seus produtos nĂŁo sejam usados para causar danos. Ă o menos que uma empresa que reivindica a capacidade de criar inteligĂȘncia artificial pode fazer.
