Илон Маск призвал приостановить крупные эксперименты с ИИ

Некоммерческая организация Future of Life Institute опубликовала открытое письмо, подписанное Илоном Маском, сооснователем Apple Стивом Возняком, одним из создателей Skype Яаном Таллинном, а также другими исследователями ИИ и руководителями крупных компаний.
В письме утверждается, что лаборатории замкнулись на «выходящей из-под контроля гонке» по разработке и применению систем машинного обучения, которые «никто — даже их создатели — не может понять, прогнозировать или уверенно контролировать». Вот что предлагают авторы:
Мы призываем все лаборатории, работающие с искусственным интеллектом, немедленно приостановить как минимум на 6 месяцев тренировку систем искусственного интеллекта мощнее GPT-4. Приостановка деятельности должна быть публичной и подтверждаемой, и участвовать в ней должны все ключевые игроки. Если в ближайшее время встать на паузу не получится, в дело должны вступить правительства стран и ввести мораторий.
Также в письме выражается неудовлетворённость позицией «выпустим как есть, починим потом» при разработке нейросетей (вспомнить хотя бы Bard от Google). Даже OpenAI уже высказывалась о потенциальной необходимости проверки безопасности ИИ в будущем. Авторы письма считают, что это будущее уже наступило.
Разработчикам ИИ и независимым экспертам стоит использовать этот перерыв, чтобы совместно разработать и внедрить единые протоколы безопасности для сложных ИИ-систем, соответствие которым будет проверяться внешними независимыми экспертами. Такие протоколы помогут убедиться, что системы достаточно безопасны для использования.
Полный текст письма можно прочитать здесь.