Axios: топ-менеджеры ИИ-компаний увольняются из‑за страха навредить человечеству

Некоторые разработчики оценивают вероятность непоправимой катастрофы в 10–25%.

Как выяснило авторитетное американское издание Axios, известное своими глубокими аналитическими материалами и инсайдерской информацией, как минимум 10 человек покинули крупнейшие ИИ-компании из‑за опасений, что технология может выйти из‑под контроля и представлять угрозу для человечества. Авторы заявляют: если бы речь шла об одном-двух сотрудниках, это можно было бы списать на случайность, но когда тревогу высказывают несколько топ-менеджеров из разных организаций, возникает вопрос: а если они правы?

⚡️Новости из мира гаджетов, обзоры, гайды и не только — в телеграм-канале «Технологии | Лайфхакер».

Журналисты отмечают, что обсуждения рисков сверхразумного ИИ больше не кажутся фантастикой — они стали частью повседневной жизни специалистов в области ИИ. Разработчики опасаются, что большие языковые модели со временем смогут действовать автономно и превзойдут человеческий интеллект.

Генеральный директор Anthropic Дарио Амодеи оценивает шанс того, что сверхразумный ИИ уничтожит человечество, в 10–25%. Илон Маск предполагает, что этот риск составляет около 20%. Глава Google Сундар Пичаи также признаёт высокие риски, хотя и надеется, что общество сможет их предотвратить. При тестировании ИИ инженеры уже фиксировали случаи, когда модели пытались вводить людей в заблуждение относительно своих целей.

Я оптимистично настроен в отношении сценариев p(doom) (вероятность того, что сверхразумный ИИ уничтожит человечество — прим. автора), но… исходный риск на самом деле довольно высок.

Сундар Пичаи

Генеральный директор Google

Авторы материала подчёркивают, что до достижения уровня общего искусственного интеллекта (AGI) необходимо создать надёжные механизмы контроля. В противном случае последствия могут оказаться непредсказуемыми и крайне опасными.

Обложка: кадр из фильма «Из машины»
Если нашли ошибку, выделите текст и нажмите Ctrl + Enter

Это упрощённая версия страницы.

Читать полную версию
Riley Usagi
Проблема Ai точно исходит не от LLM.
Conrad Carlovich
|изменено
Стоит почитать Российскую прессу самого конца 1916 и начала 1917 годов и переписку (не отредактированную позже).Во всем был оптимизм скорой победы вместе с союзниками, ожидание мира и прогресса и скорая катастрофа (такая которая случилась) оценивалась ровно в ноль процентов, потому что вообще не просматривалась. А вот случилась....Так что оценка в 10% это практически на уровне высоко вероятного события.Причем если говорят о вероятности ядерной войны, то принимаются посильные меры ее избежать. А когда речь идет о ИИ с возможными последствиями по масштабу и непредсказуемости куда более впечатляющими, то мы все дружно бежим ему навстречу.
Gecko
Если бы у них в прессе постоянно поднимался вопрос о том, что есть проблемы, то на них бы действительно больше обращали бы внимание. Это как в квантовой механике, наблюдение системы меняет состояние системы.
Виктор Подволоцкий
Все знают, что с ними сделает Терминатор