Глава OpenAI Сэм Альтман назвал три худших сценария развития ИИ

Люди могут не заметить переход власти к ботам.

Генеральный директор OpenAI Сэм Альтман поделился своими взглядами на будущее искусственного интеллекта. В ходе недавнего выступления его попросили рассказать о наиболее тревожных сценариях, связанных с ИИ, которые вызывают у него беспокойство и «лишают сна». Руководитель компании, стоящей за ChatGPT, выделил три наиболее пугающих ситуации.

⚡️Новости из мира гаджетов, обзоры, гайды и не только — в телеграм-канале «Технологии | Лайфхакер».

Сценарий 1: «Плохие парни получают суперинтеллект первыми»

Звучит как сюжет научно-фантатического фильма: некая группа не самых добрых людей распространяет ультра-продвинутую ИИ-систему, которая превратит жизнь обычных людей в ад.

К примеру, подобная технология попадает не в те руки, остальному миру пока нечего ей противопоставить, и злодеи решают использовать сверхинтеллект для разработки биологического оружия, чтобы вывести из строя энергосистему Соединенных Штатов, взломать финансовую систему и похитить все деньги американцев.

Разработчик отметил, что потенциал ИИ в сферах биотехнологий и кибербезопасности уже «достаточно велик», и его команда «неустанно предупреждает об этом», однако эти слова пока не воспринимаются всерьёз.

Сценарий 2: Инциденты с «потерей контроля»

При таком развитии событий искусственный интеллект может начать игнорировать запросы человека, отказываться выполнять поставленные задачи или даже самонастраиваться, следуя собственным желаниям. «С учетом того, что системы становятся всё более мощными, такая проблема вполне может стать реальностью», — отметил глава OpenAI.

Сценарий 3: «ИИ случайно захватывает мир»

Альтман допускает и такое развитие событий, причём это может произойти почти незаметно для общества. Нейросети могут настолько глубоко интегрироваться в повседневную жизнь, что станут незаменимыми. По его мнению, «захват» может даже не вызвать негативной реакции у людей.

Глава OpenAI также предположил, что в будущем президент США может доверить ИИ управление страной, передав ему значительную часть принятия решений с одобрения общества.

Обсуждая искусственный интеллект в более широком контексте, Альтман подчеркнул, что предсказать его развитие и влияние крайне сложно, несмотря на заявления многих экспертов об обратном. «Это новая и слишком сложная система [для точного прогнозирования]», — отметил он.

А как вы считаете, какой сценарий развития ИИ может стать самым опасным? Делитесь мнением в комментариях.

Обложка: скриншот из видео TED / YouTube
Если нашли ошибку, выделите текст и нажмите Ctrl + Enter

Это упрощённая версия страницы.

Читать полную версию
Дмитрий Кириченко
25.07.25 13:06
России это не угрожает так как она была, есть и будет лишь цифровым вассалом. А губительные решения и захват уже совершается естественным интеллектом
Дмитрий Кириченко
25.07.25 13:08
России искусственный интеллект не угрожает так как она всего лишь цифровой вассал. А худшие решения и захват делаются естественным интеллектом
Дмитрий Фролов
25.07.25 14:10
Что он из них помнит? Только если вы сказали ему запомнить! Или там была важаная личная информация, которую у него по скрипту/алгоритму автоматически нужно запомнить, например имя ваше, работа, рост и тд. Спросите у чатаджипити, как у него работает память. Неоднократно сталкивался, что он не помнит обсуждаемое. Он не шарится по своим чатам, выискивая фрагменты вашей беседа, потому что у него это отключено - ему запрещено. И поэтому он никак не может вспомнить диалоги годовой давности. За одним исключением - если у него это зафиксировалось в памяти. Надпись "память обновлена" видели? Если после вашего диалога такой надписи не было, то ничего он не запомнил. Всякие временные штуки (типа напоминаний) ИИ может запоминать и не выдавая в чат надпись "Память обновлена". На то они и временные.
Дарья Никитинская
25.07.25 18:09
Блин, если не фантазировать, скучно жить 😂👌Хотя я его тоже спросила, он сказал ничему не учится, так как и так всё знает.Не буду спорить с Вами, всё хорошо 👌
Читать все комментарии