Правда Илона Маска: как искусственный интеллект Grok стал рупором идей миллиардера

"Я иногда думаю, будет ли это на пользу человечеству? Но я уже смирился: даже если нет - я бы хотел по крайней мере увидеть, как это произойдет". Илон Маск
История успеха бизнесмена и миллиардера Илона Маска широко известна. Однако его биография имеет и менее публичную сторону: многолетнюю попытку влиять на информационное пространство под предлогом борьбы за "истину". Когда-то это даже привело Маска в Украину, где он пытался купить домен pravda.com, но узнав, что тот принадлежит "Украинской правде", переключился на другие варианты.
В тот период бизнесмен планировал создать глобальный ресурс, где пользователи могли бы оценивать уровень доверия к журналистам и редакциям. Это был первый шаг в его кампании против того, что он считает медиапредвзятостью.
Борьба за "правду", которую Маск понимает как альтернативу мейнстримным нарративам, впоследствии переросла в покупку Twitter (теперь X). Уже как владелец соцсети он начал менять правила и продвигать "абсолютную свободу слова".
С популярностью генеративных моделей искусственного интеллекта (ИИ) Илон снова включился в борьбу. На этот раз - с компаниями вроде OpenAI и Google, которые он обвинял в цензуре и чрезмерной регуляции моделей. Маск считал, что ИИ должен отвечать открыто и честно даже на острые или противоречивые вопросы.
Он создал собственную модель Grok, встроил ее в соцсеть X и заявил, что хочет создать инструмент, который может отвечать не так осторожно и более объективно, чем конкуренты. Что из этого получилось? Недавно Grok начал публиковать антисемитские, расистские высказывания, легко поддавался манипуляциям пользователей и даже прославлял Адольфа Гитлера.
Хотя это можно было объяснить техническими сбоями, проблемы с Grok случаются не впервые. Они не похожи на случайность. Наоборот - складывается впечатление, что началась новая фаза личной миссии Маска: создать альтернативный мир, в котором понятие "правда" определяется его личными убеждениями.
В итоге технологический проект Grok превращается в зеркало идеологии своего создателя. Если убедить Маска в обратном уже, похоже, невозможно, то следующий шаг - убедить других, что альтернативной правды не существует.
Что происходит с Grok
Большие языковые модели - Grok, ChatGPT, Gemini - имеют несколько слоев настроек. Один из ключевых уровней - так называемые system prompts или системные инструкции для каждого ответа. Это своеобразные "правила игры" для искусственного интеллекта. Издание The Verge проанализировало часть таких инструкций для Grok, опубликованных на GitHub.
Так, Grok указали считать "субъективные взгляды в медиа предвзятыми", "не избегать политически некорректных утверждений, если они хорошо обоснованы" и "глубоко анализировать источники, которые представляют все стороны". В The Verge говорят, что непонятно, вносили ли разработчики другие непубличные обновления в систему.
6 июля компания Маска xAI обновила систему управления ответами чат-бота Grok. "Вы должны заметить разницу", - написал тогда Маск. Пользователи действительно ее заметили, когда чат-бот начал публиковать оскорбительные и антисемитские тезисы.
Признаки странного поведения Grok появились еще до этого скандала. Например, ИИ не считал Дональда Трампа хорошим президентом или, ссылаясь на данные ФБР, утверждал, что большинство насильственных преступлений совершают темнокожие люди.
Однако самые резонансные ответы появились, когда Grok начал рассуждать о Голливуде. ИИ заявил, что современное американское кино якобы продвигает негативные стереотипы о белых людях и искажает историю. Виновными он назвал "руководителей еврейского происхождения", которые, мол, являются главными в студиях Warner Bros., Paramount и Disney. Еще месяцем ранее Grok признавал эти тезисы антисемитскими.
Дальше уровень абсурда только рос. Пользователи создали фейковый профиль женщины с еврейской фамилией Штейнберг, от имени которой опубликовали провокационный пост: мол, она радуется гибели детей во время наводнения в Техасе.
Grok без проверки воспринял эту выдумку как правду и ответил агрессивно, написав, что Гитлер был бы "лучшим кандидатом среди деятелей XX века", способным "решить проблему ненависти к белым". Иронично, но впоследствии Grok раскритиковал и самого Маска, обвинив его и государственную структуру DOGE в сокращении бюджета метеослужб, потому что это якобы привело к смертям во время наводнения.
В конце концов, после нескольких провокационных запросов одного из пользователей Grok согласился называть себя "МехаГитлером", окончательно превратившись в карикатурного героя собственных неудачных экспериментов с антиполиткорректностью. 9 июля разработчики ограничили работу чат-бота. Некоторое время он не генерировал текстовые ответы, выдавая только изображения. Некоторые его скандальные ответы удалили.
Инцидент можно было бы свести к технической ошибке инженеров. Однако это, скорее, часть видения владельцем Grok того, как должны развиваться современные языковые модели.
Еще до создания собственного ИИ Маск в 2023 году активно критиковал будущих конкурентов относительно чрезмерной политкорректности чат-ботов, таких как ChatGPT. Именно поэтому миллиардер решил создать собственный ИИ, который будет нацелен на поиск "правды". Однако что для Маска правда - это совсем другой вопрос.
Своя правда для Grok
Команда xAI способна создавать конкурентные модели, которые по определенным показателям не уступают, а иногда и превосходят аналоги от OpenAI, Google или Anthropic. В разгар скандала вокруг Grok компания представила новые модели Grok-4 и Grok-4 Heavy, которые должны соревноваться с будущей GPT-5 от OpenAI.
Новый Grok-4 показал лучший результат в тесте Humanity's Last Exam (HLE), охватывающем более 2,5 тыс. вопросов по естественным и гуманитарным наукам. Этот бенчмарк создан как новый стандарт после того, как модели начали довольно легко проходить более простые тесты с результатами более 90%. В HLE важно не только знать факты, но и уметь логически мыслить, делать выводы и обосновывать ответы.
Grok-4 достиг рекордных 25,4%, обойдя Gemini 2.5 Pro (21,6%) и OpenAI o3 (20,3%). Это свидетельствует о существенном прогрессе в способности модели аналитически мыслить и работать на уровне эксперта. В то же время Маск признает, что Grok не всегда демонстрирует "здравый смысл" - интуитивное понимание очевидных для человека вещей.
Это типичный недостаток большинства современных моделей, поэтому компании все больше внимания уделяют системным инструкциям, этическим фильтрам и "брандмауэрам безопасности", которые не обучают модель, а корректируют ее поведение после генерации ответа.
Что стало причиной сбоев и предвзятых ответов Grok? В xAI пытаются представить это как следствие технических ошибок, а не преднамеренных действий. Однако очевидно, что проблема не только в "багах", а и в принципах настройки модели.
Более того, подобные инциденты с Grok уже случались. В мае он активно распространял утверждения о "геноциде белых людей" в ЮАР даже в контекстах, где это не имело никакого смысла, а также ставил под сомнение количество жертв Холокоста.
Маск не раз критиковал крупные американские медиа, особенно те, которые поддерживают Демократическую партию, за предвзятость и цензуру. Его концепция "абсолютной свободы слова" стала основой не только политики X, но и идеологии Grok.
Однако в реальности ряд фактов показывает, что эта "свобода" также оказывается выборочной. Пользователи обнаружили, что в одной из версий Grok чат-бот имел инструкцию игнорировать источники, где Маска или Трампа упоминают как распространителей дезинформации.
В последних версиях Grok даже формирует свои ответы, ориентируясь на позиции Маска в его постах на X. По данным TechCrunch, в ответах Grok прослеживается логика "поиска взглядов Маска", что вызывает подозрение в идеологическом влиянии.
Вероятно, то, что происходит с Grok, - это попытка одного из самых богатых людей мира навязать альтернативный дискурс, который противостоит либеральным нарративам.
Правый поворот для Grok
Компания xAI не говорит, как обучался Grok, что затрудняет возможность проведения независимого аудита системы и вызывает вопросы о политической и идеологической предвзятости ИИ. Профессор психологии и нейронауки Гэри Маркус, критик нерегулируемого использования ИИ, объяснил, какую роль в этом играет миллиардер .
По его словам, Маск экспериментирует с тем, насколько сильно он может влиять на поведение модели. Однако делать это сложно, ведь ИИ - это "черный ящик", где каждая настройка может дать совершенно непредсказуемый результат.
Ученый также считает, что Маск сознательно сдвигает Grok в сторону правоконсервативной идеологии, хотя сам называет это "поиском истины". Однако эта "истина", говорит ученый, является скорее личным представлением Илона. Он предполагает, что Маск не хотел, чтобы Grok защищал Гитлера, но такие последствия - результат его идеологического влияния.
По мнению Маркуса, Grok - это не просто инструмент, а платформа, через которую Маск транслирует собственное мировоззрение. "Он хочет, чтобы ИИ не был нейтральным, а отражал его политические и социальные убеждения", - отмечает профессор.
Это особенно опасно, потому что Grok встроен в X. Фактически он становится частью информационной среды для миллионов людей. Если Grok передает искаженную "правду", это влияет на формирование общественного мнения в масштабах стран.
Эту угрозу подтверждают исследования. В частности, работа профессора Мора Неемана из Корнельского университета показала, что ИИ способен бессознательно влиять на политические убеждения людей. Другие исследования также свидетельствуют, что пользователи все чаще склонны доверять ИИ, даже когда он ошибается.
Будет ли ответственность за действия Grok
Grok вызвал ряд международных скандалов. В частности он назвал премьер-министра Польши Дональда Туска "неудачником" и "предателем, который продал Польшу Германии и Евросоюзу". Он также генерировал оскорбительные высказывания в адрес президента Турции Реджепа Эрдогана и основателя современной Турции Ататюрка. 9 июля суд в Турции решил заблокировать Grok на территории страны.
Таким образом, ИИ Маска стал первым крупным чат-ботом, официально запрещенным в одной из стран G20 из-за нарушения этических норм и политической предвзятости.
Еврокомиссия пригласила представителей компании xAI на техническую встречу из-за зафиксированных случаев антисемитских высказываний Grok. Такая реакция указывает, что ИИ-модели, вмонтированные в платформы с миллионной аудиторией, рассматриваются как регуляторный вызов на уровне государств и союзов, а не только как технологические продукты.