
OpenAI publica carta onde afirma compromisso para criar uma IA segura
A OpenAI, respondendo a perguntas de legisladores dos Estados Unidos, disse estar dedicada a prometer que suas poderosas ferramentas de IA não causem danos, e que os funcionários têm meios de levantar preocupações sobre práticas de segurança.
A startup buscou tranquilizar os legisladores sobre seu compromisso com a segurança depois cinco senadores levantarem questões sobre as políticas da OpenAI em uma epístola endereçada ao CEO, Sam Altman.
“Nossa missão é prometer que a perceptibilidade sintético beneficie toda a humanidade, e estamos dedicados a implementar protocolos de segurança rigorosos em cada estágio do nosso processo,” disse o Chief Strategy Officer, diretor de estratégia, Jason Kwon, na quarta-feira, 31, em uma epístola aos legisladores.
Especificamente, a OpenAI afirmou que continuará a satisfazer sua promessa de alocar 20% de seus recursos de computação para pesquisas relacionadas à segurança ao longo de vários anos. Na epístola, a empresa também se comprometeu a não impor acordos de não maledicência para funcionários atuais e antigos, exceto em casos específicos de um combinação reciprocamente de não maledicência.
Os antigos limites da OpenAI para funcionários que deixaram a empresa foram criticados por serem excepcionalmente restritivos. Desde logo, a OpenAI afirmou ter mudado suas políticas.
Altman posteriormente elaborou sua estratégia nas redes sociais.
“Nossa equipe tem trabalhado com o Instituto de Segurança de IA dos EUA em um combinação onde forneceremos entrada antecipado ao nosso próximo padrão base para que possamos trabalhar juntos para seguir na ciência das avaliações de IA,” escreveu ele na X.
Geração de um comitê de segurança
Kwon, em sua epístola, também citou a recente geração de um comitê de segurança e proteção, que está atualmente revisando os processos e políticas da OpenAI.
Nos últimos meses, a OpenAI enfrentou uma série de controvérsias em torno de seu compromisso com a segurança e a capacidade dos funcionários de falar sobre o objecto.
Vários membros-chave de suas equipes relacionadas à segurança, incluindo o ex-cofundador e cientista-chefe Ilya Sutskever, renunciaram, junto com outro líder da equipe da empresa dedicada a julgar riscos de segurança a longo prazo, Jan Leike, que compartilhou publicamente preocupações de que a empresa estava priorizando o desenvolvimento de produtos em detrimento da segurança.