Глава OpenAI Сэм Альтман назвал три худших сценария развития ИИ

Генеральный директор OpenAI Сэм Альтман своими взглядами на будущее искусственного интеллекта. В ходе недавнего выступления его попросили рассказать о наиболее тревожных сценариях, связанных с ИИ, которые вызывают у него беспокойство и «лишают сна». Руководитель компании, стоящей за ChatGPT, выделил три наиболее пугающих ситуации.
Сценарий 1: «Плохие парни получают суперинтеллект первыми»
Звучит как сюжет научно-фантатического фильма: некая группа не самых добрых людей распространяет ультра-продвинутую ИИ-систему, которая превратит жизнь обычных людей в ад.
К примеру, подобная технология попадает не в те руки, остальному миру пока нечего ей противопоставить, и злодеи решают использовать сверхинтеллект для разработки биологического оружия, чтобы вывести из строя энергосистему Соединенных Штатов, взломать финансовую систему и похитить все деньги американцев.
Разработчик отметил, что потенциал ИИ в сферах биотехнологий и кибербезопасности уже «достаточно велик», и его команда «неустанно предупреждает об этом», однако эти слова пока не воспринимаются всерьёз.
Сценарий 2: Инциденты с «потерей контроля»
При таком развитии событий искусственный интеллект может начать игнорировать запросы человека, отказываться выполнять поставленные задачи или даже самонастраиваться, следуя собственным желаниям. «С учетом того, что системы становятся всё более мощными, такая проблема вполне может стать реальностью», — отметил глава OpenAI.
Сценарий 3: «ИИ случайно захватывает мир»
Альтман допускает и такое развитие событий, причём это может произойти почти незаметно для общества. Нейросети могут настолько глубоко интегрироваться в повседневную жизнь, что станут незаменимыми. По его мнению, «захват» может даже не вызвать негативной реакции у людей.
Глава OpenAI также предположил, что в будущем президент США может доверить ИИ управление страной, передав ему значительную часть принятия решений с одобрения общества.
Обсуждая искусственный интеллект в более широком контексте, Альтман подчеркнул, что предсказать его развитие и влияние крайне сложно, несмотря на заявления многих экспертов об обратном. «Это новая и слишком сложная система [для точного прогнозирования]», — отметил он.
А как вы считаете, какой сценарий развития ИИ может стать самым опасным? Делитесь мнением в комментариях.















Лучшие предложения
Надо брать: 3D-принтер для большой печати Creality Ender-5 Max со скидкой 56%
Популярный моющий пылесос Dreame G10 Pro отдают за полцены на AliExpress
Забираем дебетовку «Т-банка» с 2 000 баллов и повышенным кешбэком за автоуслуги
Кроссовки от Li-Ning, которые не боятся слякоти, отдают со скидкой 37%
Три необычных продукта, которые точно стоит попробовать во «ВкусВилле»
Находки AliExpress: самые интересные и полезные товары недели
Нескользящий коврик для йоги, на который можно залипнуть после тренировки
7 надёжных камер для безопасности людей и питомцев
Что такое «Редуксин Форте» и как он работает
Из замёрзших прудов в городские хабы: как изменились катки за 200 лет
5 подарков на День святого Валентина, которые приблизят к мечтам
РОЦИТ: 2026 год изменит правила игры для бизнеса в сфере кибербезопасности