Дроны и беспилотные автомобили как оружие: почему нам нужно бояться хакеров

Если искусственный интеллект попадёт не в те руки, цивилизованный мир может погрузиться в хаос.

Никто не станет отрицать, что искусственный интеллект может вывести нашу жизнь на новый уровень. ИИ в состоянии решить множество проблем, которые не под силу человеку.

👌 В телеграм-канале «Лайфхакер» лучшие статьи о том, как сделать жизнь проще.

Однако многие считают, что сверхразум обязательно захочет уничтожить нас, как SkyNet, или начнёт проводить опыты над людьми, как GLADoS из игры Portal. Ирония в том, что сделать искусственный интеллект добрым или злым могут только люди.

Ну как не захватить мир после такого

Исследователи из Йельского университета, Оксфорда, Кембриджа и компании OpenAI опубликовали отчёт на тему злоупотребления искусственным интеллектом. В нём говорится, что реальная опасность исходит от хакеров. С помощью вредоносного кода они могут нарушить работу автоматизированных систем под управлением ИИ.

Исследователи опасаются того, что технологии, созданные с благими намерениями, будут использоваться во вред. Например, средства наблюдения могут применять не только для поимки террористов, но и для слежки за простыми гражданами. У исследователей также вызывают беспокойство коммерческие дроны, которые доставляют продукты питания. Их легко перехватить и подложить что-нибудь взрывоопасное.

Ещё один сценарий разрушительного использования ИИ — беспилотные автомобили. Достаточно изменить несколько строчек кода, и машины начнут игнорировать правила безопасности.

В игре Watch Dogs хакер получил контроль над всеми системами города, и вот что из этого вышло

Учёные считают, что угроза может быть цифровой, физической и политической.

  • Искусственный интеллект уже используется для изучения уязвимостей различных программных кодов. В будущем хакеры могут создать такого бота, который обойдёт любую защиту.
  • С помощью ИИ человек может автоматизировать многие процессы: например, управлять роем беспилотников или группой автомобилей.
  • С помощью таких технологий, как DeepFake, можно влиять на политическую жизнь государства, распространяя ложную информацию о мировых лидерах с помощью ботов в интернете.



Эти пугающие примеры пока существуют только в качестве гипотезы. Авторы исследования не предлагают полного отказа от технологий. Вместо этого, они считают, что правительства стран и крупные компании должны позаботиться о безопасности, пока индустрия искусственного интеллекта только зарождается.

Политики должны изучать технологию и работать вместе с экспертами в этой области, чтобы эффективно регулировать создание и использование искусственного интеллекта.

Разработчики, в свою очередь, должны оценивать опасность, исходящую от высоких технологий, предвидеть худшие последствия и предупреждать о них мировых руководителей. В докладе содержится призыв к разработчикам ИИ: объединиться с экспертами по безопасности в других областях и выяснить, можно ли использовать принципы, обеспечивающие безопасность этих технологий, для защиты искусственного интеллекта.

Полный отчёт описывает проблему более подробно, но суть в том, что ИИ — мощный инструмент. Все заинтересованные стороны должны изучить новую технологию и убедиться, что она не используется в преступных целях.

Это упрощённая версия страницы.

Читать полную версию
Yarik Kravchenko
28.02.18 23:19
Главное слово - гипотеза. ИИ это просто замысел, и я думаю, а точнее уверен что к тому времени как ИИ внедрят в технику, создадут безопасность этой технике, потому как без нее действительно будет то что описано автором. Если сейчас можно взломать любой компьютер, сайт, сервер, т.е. все цифровое, то пердставьте, как представляют мир роботов и прочего, если они тоже своего рода цифровые носители, то не придет ли конец все жителям, если кто-то взломает их
Василий Логунов
01.03.18 01:05
согласен с автором статьи.. сразу вспомнился фильм Терминатор. не хотелось бы прийти к такому же...
Раст Коул
01.03.18 02:45
Звучит фантастически, но возможно всё!