Helen Toner, ex-membro do conselho da OpenAI: Sam Altman estava mentindo
[ad_1]
Helen Toner, ex-membro do conselho da OpenAI, revelou que o conselho não tinha conhecimento do lançamento do ChatGPT até que foi anunciado publicamente no Twitter. Toner revelou isso durante uma entrevista no TED AI Show com Bilawal Sidhu.
Durante o podcast, Toner forneceu seu relato mais detalhado até o momento sobre as circunstâncias que levaram à remoção de Altman em novembro do ano anterior. Ela explicou que a decisão foi influenciada por uma série de eventos não divulgados que levantaram preocupações entre os membros do conselho.
❗EXCLUSIVO: “Aprendemos sobre o ChatGPT no Twitter.”
O que REALMENTE aconteceu na OpenAI? A ex-membro do conselho Helen Toner a quebrou? silêncio com novos detalhes chocantes sobre a demissão de Sam Altman Ouça a história exclusiva e não contada no TED AI Show
Aqui está apenas uma prévia: foto.twitter.com/7hXHcZTP9e
— Bilawal Sidhu (@bilawalsidhu) 28 de maio de 2024
Toner deu uma palestra no TED há algumas semanas, na qual compartilhou sua visão sobre como a IA deveria ser governada, sem compartilhar quaisquer detalhes sobre a turbulência em A OpenAI ou seu papel em tudo isso muda com a entrevista, pois Toner ataca Sam Altman diretamente e o acusa de mentir e esconder detalhes importantes do conselho da OpenAI.
(conteúdo incorporado)
Turbulência na liderança da OpenAI e reação negativa dos funcionários
Após o lançamento do ChatGPT, a OpenAI passou por uma considerável agitação interna. Um ano depois, o CEO Sam Altman foi inesperadamente destituído de seu cargo pelo conselho e substituído pela CTO Mira Murati. No entanto, Altman foi reintegrado em poucos dias, após forte apoio do CEO da Microsoft, Satya Nadella. Esta reintegração levou à saída de Toner e de outros membros do conselho.
Após a demissão abrupta de Altman, os funcionários reagiram fortemente, muitos dos quais ameaçaram demitir-se. Essa pressão interna levou à reintegração de Altman e à subsequente saída de Toner e de outros membros do conselho, destacando as profundas divisões dentro da organização.
O conselho da OpenAI foi projetado para priorizar o bem-estar público em detrimento do lucro, operando como uma organização sem fins lucrativos. entidade. Apesar desta missão, o conselho não foi informado sobre desenvolvimentos significativos, como o lançamento do ChatGPT em novembro de 2022.
Críticas internas e saídas
Outras questões-chave números também criticaram a direção da empresa. O cofundador Ilya Sutskever e o pesquisador de segurança Jan Leike deixaram a OpenAI, expressando preocupações com a decisão da empresa de interromper o trabalho de superalinhamento. Esta pesquisa garante que os sistemas de IA estejam alinhados com os valores e intenções humanas.
Conforme anunciado ontem, Leike liderará uma nova equipe de “superalinhamento” na Anthropic. Leike anunciou por meio de uma postagem no X que sua nova equipe na Anthropic se concentrará em várias facetas da segurança e proteção da IA. As principais áreas de foco incluirão supervisão escalonável, generalização fraca a forte e pesquisa de alinhamento automatizada.
A OpenAI estabeleceu um Comitê de Segurança e Proteção em resposta a questões internas e externas. críticas externas. Este novo órgão tem como objetivo examinar os procedimentos de segurança da empresa relacionados ao desenvolvimento de produtos, garantindo que as operações estejam alinhadas com sua missão fundamental de bem público. O comitê inclui o CEO da OpenAI, Sam Altman, os membros do conselho Bret Taylor, Adam D’Angelo e Nicole. Seligman, junto com o cientista-chefe Jakub Pachocki e o chefe de segurança Matt Knight.
[ad_2]
Comentários 0