Forklog
April 9, 2026 11:15 AM UTC

Диктатор и обманщик. Журналисты описали характер работы Сэма Альтмана

Журналисты New Yorker провели масштабное полуторагодовое расследование деятельности Сэма Альтмана и пришли к выводу, что он часто лгал на посту CEO OpenAI. Расследователь Ронан Фэрроу и автор New Yorker Эндрю Маранц изучали ранее не публиковавшиеся внутренние служебные записки, 200 страниц документов и взяли интервью у более чем 100 человек. Ключевая цель — понять, почему Альтман был отстранен членами совета директоров в ноябре 2023 года. «OpenAI была основана на предположении о том, что искусственный интеллект может стать самым опасным изобретением в истории человечества, поэтому генеральным директором компании должен быть человек необычайной честности. Члены совета директоров пришли к выводу, что Альтману не хватает этих качеств. Мы задаемся вопросом: правы ли они, утверждая, что ему нельзя доверять», — написал Фэрроу. Авторы работы пишут, что осенью 2023 года главный научный сотрудник OpenAI Илья Суцкевер собрал около 70 страниц служебных записок об Альтмане и его заместителе Греге Брокмане. Одна из них начинается со слов: «Сэм демонстрирует постоянную склонность ко лжи». Ушедший из компании Дарио Амодеи вел собственные личные записи. В одном из документов он назвал слова главы OpenAI «чушью». Способствовавшие отстранению Альтмана обвиняли его в обмане. Источник: New Yorker. «Он выстраивает структуры, которые на бумаге должны ограничивать его в будущем. Но потом, когда этот момент наступает, Альтман избавляется от этого механизма, каким бы он ни был», — говорится в одном из документов. Как ложь проявляется на практике? В конце 2022 года Альтман заверил совет директоров, что функции будущей ИИ-модели одобрены комиссией по безопасности. Хелен Тонер запросила соответствующую документацию и обнаружила, что наиболее спорные решения на самом деле не утверждены. Источник: New Yorker. В 2023 году компания готовилась к выпуску GPT-4 Turbo. Тогда Альтман сказал CTO Мире Мурати, что модель не нуждается в одобрении от отдела безопасности, и сослался на главного юрисконсульта компании Джейсона Квона. Однако тот «не понял», откуда у главы OpenAI появилась такая идея. В статье также рассказывается о том, что руководство OpenAI рассматривало возможность обогащения за счет противопоставления друг другу мировых держав, в том числе Китая и России. От плана отказались после того, как несколько сотрудников заявили о намерении уволиться. Еще одна ложь — статус OpenAI как некоммерческой организации. Она принимала благотворительные пожертвования, а некоторые сотрудники присоединились как раз из-за благородной миссии компании. Они пошли на сокращение заработной платы ради этого. Однако внутренние документы показывают, что уже в 2017 году у основателей были сомнения касательно некоммерческой структуры. Брокман написал в дневнике: «Не могу сказать, что мы привержены некоммерческой модели. Если через три месяца мы станем B-Corp, то это была ложь». В октябре 2025 года OpenAI завершила реструктуризацию, в ходе которой компанию разделили на коммерческую корпорацию и некоммерческий фонд. Конкуренция превыше всего Некоторые бывшие исследователи OpenAI заявили, что фирма отошла от своей первоначальной миссии по обеспечению безопасности и ускорила общеотраслевую «гонку на дно». В статье подробно описан ряд публичных и внутренних обязательств в области безопасности, от которых компания отказалась. Несколько соответствующих команд расформировали. Напомним, в мае 2025 года в ходе обновления флагманской ИИ-модели ChatGPT компания OpenAI проигнорировала опасения тестировщиков-экспертов, сделав ее чрезмерно «подхалимской».

ChartModo Newsletter
阅读免责声明 : 此处提供的所有内容我们的网站,超链接网站,相关应用程序,论坛,博客,社交媒体帐户和其他平台(“网站”)仅供您提供一般信息,从第三方采购。 我们不对与我们的内容有任何形式的保证,包括但不限于准确性和更新性。 我们提供的内容中没有任何内容构成财务建议,法律建议或任何其他形式的建议,以满足您对任何目的的特定依赖。 任何使用或依赖我们的内容完全由您自行承担风险和自由裁量权。 在依赖它们之前,您应该进行自己的研究,审查,分析和验证我们的内容。 交易是一项高风险的活动,可能导致重大损失,因此请在做出任何决定之前咨询您的财务顾问。 我们网站上的任何内容均不构成招揽或要约