Один из сооснователей OpenAI, Илья Суцкевер, выступил с инициативой, призывающей лаборатории искусственного интеллекта проводить независимые тесты безопасности моделей конкурентов во избежание потенциальных рисков, связанных с развитием ИИ. Для реализации этой задачи Суцкевер создал компанию Safe Superintelligence Inc., целью которой является разработка безопасного суперинтеллекта и внедрение надежных протоколов контроля и безопасности ИИ-систем.
Илья Суцкевер давно выражает обеспокоенность быстрыми темпами развития ИИ и недостаточной готовностью механизмов безопасности поспевать за новыми технологиями, что может привести к нежелательным и опасным последствиям. Именно поэтому в новой компании Safe Superintelligence Inc., созданной совместно с бывшими коллегами из OpenAI Дэниелом Леви и Дэниелом Гроссом, делается акцент именно на безопасности и контролируемом развитии суперинтеллекта. Их миссия — построение безопасного и этически контролируемого ИИ, способного превзойти человеческий интеллект, но при этом не выйти из-под контроля.
Подход Суцкевера основан на идее, что безопасность должна идти впереди технологического прогресса, а не отставать от него. Это включает создание стандартов тестирования и мониторинга ИИ-моделей, в том числе моделей, разработанных конкурентами, с целью выявления уязвимостей и потенциальных угроз. Такие меры необходимы для предотвращения сценариев, когда ИИ может действовать непредсказуемо или использоваться во вред обществу.
Таким образом, инициатива и новые проекты бывшего сооснователя OpenAI демонстрируют важность комплексного и ответственного подхода к развитию искусственного интеллекта, где безопасность и этика стоят на первом месте, а независимая экспертиза моделей становится ключевым элементом контроля над быстрорастущей сферой ИИ.
