Глава OpenAI Сэм Альтман назвал три худших сценария развития ИИ

Генеральный директор OpenAI Сэм Альтман своими взглядами на будущее искусственного интеллекта. В ходе недавнего выступления его попросили рассказать о наиболее тревожных сценариях, связанных с ИИ, которые вызывают у него беспокойство и «лишают сна». Руководитель компании, стоящей за ChatGPT, выделил три наиболее пугающих ситуации.
Сценарий 1: «Плохие парни получают суперинтеллект первыми»
Звучит как сюжет научно-фантатического фильма: некая группа не самых добрых людей распространяет ультра-продвинутую ИИ-систему, которая превратит жизнь обычных людей в ад.
К примеру, подобная технология попадает не в те руки, остальному миру пока нечего ей противопоставить, и злодеи решают использовать сверхинтеллект для разработки биологического оружия, чтобы вывести из строя энергосистему Соединенных Штатов, взломать финансовую систему и похитить все деньги американцев.
Разработчик отметил, что потенциал ИИ в сферах биотехнологий и кибербезопасности уже «достаточно велик», и его команда «неустанно предупреждает об этом», однако эти слова пока не воспринимаются всерьёз.
Сценарий 2: Инциденты с «потерей контроля»
При таком развитии событий искусственный интеллект может начать игнорировать запросы человека, отказываться выполнять поставленные задачи или даже самонастраиваться, следуя собственным желаниям. «С учетом того, что системы становятся всё более мощными, такая проблема вполне может стать реальностью», — отметил глава OpenAI.
Сценарий 3: «ИИ случайно захватывает мир»
Альтман допускает и такое развитие событий, причём это может произойти почти незаметно для общества. Нейросети могут настолько глубоко интегрироваться в повседневную жизнь, что станут незаменимыми. По его мнению, «захват» может даже не вызвать негативной реакции у людей.
Глава OpenAI также предположил, что в будущем президент США может доверить ИИ управление страной, передав ему значительную часть принятия решений с одобрения общества.
Обсуждая искусственный интеллект в более широком контексте, Альтман подчеркнул, что предсказать его развитие и влияние крайне сложно, несмотря на заявления многих экспертов об обратном. «Это новая и слишком сложная система [для точного прогнозирования]», — отметил он.
А как вы считаете, какой сценарий развития ИИ может стать самым опасным? Делитесь мнением в комментариях.















Лучшие предложения
Надо брать: снегоуборщик от Electrolite со скидкой 85%
Забираем лампу для монитора от Xiaomi со скидкой 67%
Робот-пылесос, который умеет убирать носки, отдают за полцены
Надо брать: треккинговые кроссовки от Humtto со скидкой 58%
Находки AliExpress: самые интересные и полезные товары ноября
Что подарить маме на Новый год
15 адвент-календарей, которые дарят предвкушение праздника
Надо брать: мощные смарт-часы Huawei Watch GT 6 Pro
5 гаджетов, которые помогут сделать жизнь проще
РекламаОт ПМС до овуляции. Всё, что нужно знать о менструальном цикле
Главное — практика? Почему в учёбе так важно работать над реальными задачами
«Восток», «Нева» и «Дон»: 6 удобных автомаршрутов по трём трассам для знакомства с регионами