A OpenAI anunciou a formação de um Comitê de Segurança e Proteção, liderado por membros do conselho de administração, incluindo o CEO Sam Altman. O comitê será encarregado de fazer recomendações críticas sobre segurança e proteção para projetos e operações da OpenAI, bem como de avaliar e desenvolver processos de salvaguarda nos próximos 90 dias.
Essa iniciativa surge em meio a controvérsias, incluindo a saída dos cientistas-chefes Ilya Sutskever e Jan Leike, responsáveis por garantir que o desenvolvimento da IA seguisse as diretrizes da empresa. Críticas à gestão de Altman também foram levantadas, com ex-membros da empresa expressando preocupações sobre a aceleração de projetos de IA sem medidas eficazes de segurança.
O Comitê de Segurança e Proteção será composto por membros do conselho de administração, incluindo Altman, e especialistas técnicos e políticos internos. Especialistas externos, como Rob Joyce e John Carlin, também serão consultados. Ao mesmo tempo, a OpenAI confirmou que começou a treinar seu próximo modelo de IA, visando alcançar níveis avançados de capacidade em direção à Inteligência Artificial Geral (AGI). O GPT-4o, um motor de IA capaz de interagir em tempo real com usuários através de texto, áudio, imagem e vídeo, foi lançado este mês e incorporado ao ChatGPT.
Fonte: https://telesintese.com.br/openai-cria-comite-de-seguranca-e-comeca-a-treinar-novo-modelo-de-ia/