OpenAI и исследователи из Anthropic открыто выразили серьёзную озабоченность по поводу культуры безопасности в компании xAI, принадлежащей Илону Маску. Они назвали её «безрассудной», указывая на недостаточную внимательность к вопросам надежной защиты и контроля в области искусственного интеллекта.
Исследователи подчеркивают, что современные модели ИИ обладают огромным потенциалом, но в то же время создают значительные риски, особенно если безопасности уделяется недостаточно внимания. В отличие от компаний, таких как Anthropic, которая делает упор на адаптацию алгоритмов и разработку многоуровневых систем защиты, xAI, по их мнению, не демонстрирует должного уровня ответственности. В частности, такие недостатки могут привести к распространению недостоверной информации или появлению уязвимостей, которые сложно контролировать.
Особенно тревожит публичность и быстрые темпы выпуска продуктов xAI, такие как чат-бот Grok, который уже подвергался критике за распространение конспирологических теорий и ошибочных данных. Это наглядный пример того, как пренебрежение к вопросам безопасности может повлиять на репутацию и доверие к технологии в целом.
В то время как Anthropic и OpenAI инвестируют значительные усилия в тестирование своих моделей и защиту от «джейлбрейков» — обходов систем безопасности, xAI, по мнению экспертов, все ещё не выработала столь строгих мер контроля. В итоге, это ставит под угрозу не только успех самой компании, но и безопасность пользователей и общества в эпоху быстрого развития ИИ.
В целом, критика OpenAI и Anthropic отражает более широкий запрос индустрии на ответственный подход к развитию искусственного интеллекта, где безопасность и этика становятся неотъемлемой частью технологического прогресса, а не формальностью. Игнорирование этих аспектов может привести к нежелательным последствиям и подорвать доверие к будущим инновациям в этой области.
