Исследование: ИИ может быть причиной уничтожения цивилизаций на других планетах

Возможно, поэтому мы не видим следов разумной жизни за пределами Земли. Но такой исход может ждать и нас.

В последние годы технологии искусственного интеллекта развиваются стремительными темпами. Уже сейчас рассматривается возможность создания искусственного сверхинтеллекта. Это такая его форма, которая не только превосходит человеческий разум, но и не ограничена скоростью обучения людей.

⚡ Самое интересное и важное за день — в телеграм-канале «Лайфхакер. Новости».

Однако его создание может стать не только прорывной вехой, а ещё и приблизить цивилизацию к финалу существования. Об этом пишет в своём новом исследовании астрофизик Майкл Гарретт из Университета Манчестера. По его мнению, именно это и объясняет существование парадокса Ферми.

Парадокс заключается в том, что, несмотря на миллиарды лет развития и огромные размеры Вселенной, в которой могут существовать многие пригодные для жизни миры, мы так и не обнаружили признаков разумных цивилизаций. Чтобы объяснить парадокс, была введена гипотеза «великого фильтра» — это некий фактор, делающий невозможным коммуникацию между развитыми цивилизациями и препятствующий превращению их в многопланетные.

Развитие искусственного сверхинтеллекта Гарретт считает таким «великим фильтром». По его словам, цивилизации, изобретая ИИ, зачастую не готовы к его появлению и не вполне осознают последствия. Искусственный интеллект развивается гораздо быстрее, чем человек успевает его контролировать.

Искусственный сверхинтеллект будет способен автономно самосовершенствоваться, тратя на это существенно меньше времени, чем заложено эволюционной природой человека. Потеря контроля грозит крахом цивилизации ещё до того, как она станет многопланетной. В этом контексте особенно опасно доверять ИИ системы управления процессами, в том числе военными. Хотя тенденции к этому начинают прослеживаться.

Потенциально это может привести к беспрецедентным по масштабам военным конфликтам, которые грозят уничтожением человечества. Автор работы посчитал, что при таком сценарии продолжительность существования технологически продвинутого сообщества не превышает 200 лет.

Описанный прогноз предполагает, что между возможностью принимать и передавать сигналы в космос (1960-е годы) и появлением искусственного сверхинтеллекта (2040-е годы) пройдёт менее 100 лет. Это пугающе мало по сравнению с космическими масштабами в миллиарды лет.

Если эту оценку включить в оптимистичные версии уравнения Дрейка, которое оценивает количество активных, готовых к взаимодействию цивилизаций, то получится, что в любой момент времени существует лишь малая горстка разумных сообществ. И все они, пока не подверглись «фильтрации» ИИ и имеют относительно невысокую технологическую заметность — как земляне для условного стороннего наблюдателя.

Автор исследования считает, что необходимо срочно создать нормативно-правовую базу, которая жёстко регулировала бы работу над искусственным интеллектом. В то же время он подчёркивает, что такие попытки, скорее всего, будут обречены. Дело в том, что ИИ даёт очень большое конкурентное преимущество, поэтому ограничения не остановят разработку технологий, а лишь маргинализируют их, потому что у корпораций и государств будет большой соблазн обойти соперников благодаря искусственному интеллекту.

Это упрощённая версия страницы.

Читать полную версию
Обложка: кадр из фильма «Терминатор: Тёмные судьбы»
Если нашли ошибку, выделите текст и нажмите Ctrl + Enter
Дмитрий
20.05.24 10:04
Ну, тогда нет вопросов.
Дмитрий
23.05.24 17:57
Оригинала библии ни кто не видел. Нет даже копии копии. Точнее есть переводы переводов. Так что там максимум художественный перевод, который давно потерял основной смысл. А уж интерпретация художественной книги под текущие события.....
Дмитрий
23.05.24 17:58
Или их оставить.....
Дмитрий
26.05.24 21:25
И зачем вы сами себе сообщения пишете, обращаясь ко мне? Просто поразмышляйте молча и все
Читать все комментарии