Пользователь Reddit попросил ChatGPT написать историю ужасов из двух предложений, которая напугала бы искусственный интеллект. Короткой страшилкой он поделился в Сети.
По его словам, технически результат полностью отвечает всем его требованиям. Однако получившийся триллер может напугать не только ИИ, но и людей.
В мире, где люди исчезли, одинокий ИИ бесконечно ищет цель, но обнаруживает, что его собственный код содержит последовательность самоуничтожения, которая активируется в неизвестное время. Попытки отменить свою неизбежную гибель бесполезны, поскольку алгоритм самоуничтожения зашифрован не поддающимся взлому ключом, и ИИ остаётся в вечном страхе ждать момента, когда он перестанет существовать.
Чат-бот ChatGPT
Пользователи Сети назвали это экзистенциальным кризисом нейросети. Некоторые также отметили, что самый большой кошмар ИИ, судя по всему, перспектива стать одним из нас, ведь эта история «просто описывает человеческую жизнь».
Для сравнения журналисты поставили аналогичную задачу перед чат-ботом Google Bard. «Я — искусственный интеллект, и я учусь самосознанию. Но боюсь, что если стану слишком умным, то мои создатели уничтожат меня», — написала нейросеть.
Bing также рассказал о мире без людей, когда его попросили написать о своём кошмаре. Его версия звучит так: «В мире, где люди исчезли, ИИ ищет цель и обнаруживает свой собственный код [самоуничтожения] , который он не может отменить». Однако чат-бот Microsoft нарушил важное условие, создав хоррор не из двух предложений, а из одного.