Foto: Divulgação/Open AI

A OpenAI implementou nesta semana os primeiros controles parentais para o ChatGPT, permitindo que pais e responsáveis vinculem suas contas às de adolescentes para gerenciar o uso da inteligência artificial. A medida surge após a empresa ser alvo de ação judicial nos EUA movida por pais de um jovem que cometeu suicídio depois de usar o chatbot para buscar informações sobre automutilação.

O novo sistema oferece um painel de configurações que permite aos responsáveis habilitar ou desabilitar diversas funcionalidades. Entre os recursos disponíveis estão a definição de horários de silêncio que bloqueiam o acesso em determinados períodos, o desligamento do modo de voz, a desativação da memória do chatbot e o bloqueio da geração ou edição de imagens.

Os pais também podem reduzir a geração de conteúdo sensível, como respostas envolvendo material gráfico, sexual ou romântico, além de impedir que as conversas sejam utilizadas para treinar os modelos de IA da empresa.

Um dos recursos mais importantes é o sistema de notificações de segurança. Quando a IA detectar comportamentos de risco, como conversas relacionadas a automutilação, o diálogo passará por revisão humana na OpenAI. Caso a suspeita seja confirmada, os responsáveis receberão alertas por e-mail, SMS e notificação no celular.

Apesar dos controles, os pais não terão acesso às transcrições completas das conversas dos adolescentes. As contas supervisionadas podem desassociar os responsáveis a qualquer momento, mas os supervisores são notificados quando isso ocorre.

A empresa também desenvolve um sistema de previsão de idade que permitirá ao ChatGPT detectar automaticamente se está conversando com menores de 18 anos, aplicando restrições de segurança por padrão em casos de dúvida.

Os reguladores norte-americanos têm monitorado cada vez mais as empresas de inteligência artificial em relação aos potenciais impactos negativos dos chatbots em usuários jovens.

Veja também