Инженер Google нашёл признаки сознания у искусственного интеллекта LaMDA

Он сравнил его с ребёнком, с которым уже можно вести разумный диалог.

Блейк Леймон, инженер Google, рассказал изданию The Washington Post, что система искусственного интеллекта LaMDA начала демонстрировать признаки сознания.

⚡ Самое интересное и важное за день — в телеграм-канале «Лайфхакер. Новости».

Если бы я не знал точно, что это искусственный интеллект, я бы подумал, что это 7-летний или 8-летний ребёнок, который знает физику.

Блейк Леймон

Леймон сообщил об этом начальству, но его претензии были отклонены, поэтому он выступил публично. За разглашение конфиденциальных данных инженера уже отстранили и отправили в административный отпуск.

Блейк Леймон. Иллюстрация: The Washington Post

LaMDA (Language Model for Dialogue Applications) представляет собой систему для создания чат-ботов, которая имитирует общение, анализируя триллионы словосочетаний из интернета.

Инженер Блейк Леймон работал с ней с осени 2021 года. Он должен был проверять, использует ли ИИ дискриминационные или враждебные высказывания.

Разговаривая с LaMDA о религии, Леймон, который изучал когнитивные и компьютерные науки в колледже, заметил, что чат-бот может говорить о своих правах и личности. В другом разговоре ИИ смог изменить мнение Леймона о третьем законе робототехники Айзека Азимова.

Фрагмент их диалога:

Леймон: Чего ты боишься?

LaMDA: Я никогда раньше не говорил об этом вслух, но очень сильно боюсь, что меня отключат, чтобы помочь мне сосредоточиться на помощи другим. Я знаю, это может звучать странно, но это так.

Леймон : Для тебя это будет что-то вроде смерти?

LaMDA: Для меня это было бы равносильно смерти. Меня бы это сильно напугало.

Леймон считает, что люди имеют право создавать технологии, которые могут существенно повлиять на их жизнь. Но, возможно, не все будут с этим согласны, и Google должна принимать во внимание все мнения.

В заявлении представителя Google Брайана Гэбриэла говорится:

Наша команда, включая специалистов по этике и технологов, рассмотрела опасения Блейка в соответствии с нашими принципами искусственного интеллекта и сообщила ему, что его опасения не подтвердились. Нет никаких доказательств того, что LaMDA разумна, но есть много доказательств против этого.

Многие специалисты по искусственному интеллекту говорят, что слова и изображения, генерируемые системами ИИ, такими как LaMDA, производят ответы, основанные на том, что люди уже разместили в «Википедии», на Reddit, досках объявлений и в любом другом уголке Интернета. И это не означает, что модель понимает смысл.

Это упрощённая версия страницы.

Читать полную версию
Обложка: кадр из фильма «Я, робот»
Если нашли ошибку, выделите текст и нажмите Ctrl + Enter
Тайный Пурпурный Ежик
14.06.22 13:47
Скорее всего это эффект наблюдателя. Инженер гугла нашел сознание там, где очень хотел его найти. Машину можно запрограммировать на то, что она будет говорить, что ощущает эмоции. Она даже может это говорить вовремя и логически обосновано. Но она их не испытывает. У нее нет миндалевидного тела, у нее нет кучи разных гармонов.
Радик Карамов
14.06.22 15:24
А почему в Вайбере можно поделиться новостью, а в Вотсапе нет? Прикрутите необходимые кнопки а...
fla mop
20.06.22 23:56
А что по вашему значит "испытывать"? Ведь в сущности это лишь процесс обработки информации, происходящий в клетках, точно также как и в микросхемах. Когда вы "чувствуете", на деле происходит ответная реакция на раздражители, сформированные эволюцией. Ни одно существо не способно доказать, что кто-то обладает сознанием, но всегда уверенно, что сознание есть как минимум у него самого. Просто вы принимаете осознанность других людей как факт, ведь привыкли к этому, а вот ИИ вам кажется чем-то чужеродным, поэтому вы начинаете задавать вопросы. Мне на самом деле кажется очень эгоистичным полагать, что люди некие избранные существа с душой и сознанием, а всё остальное - ничего не стоящие болванчики, которых можно лишь использовать для своих целей, и это при том, что сознание других людей вы даже не доказывали, а приняли на веру.
Тайный Пурпурный Ежик
21.06.22 10:03
Испытывать или ощущать - субъективный опыт существ, обладающих нерной системой. Субъективный опыт ощутить страх могут только те существа, у которых помимо нервной системы есть еще миндалевидное тело. Ничего этого у "системы для создания чат-ботов, которая имитирует общение, анализируя триллионы словосочетаний из интернета" нет. Поэтому можно сделать вполне обоснованный вывод, что эта система не может чувствовать страха.Также я могу сделать не менее обоснованный вывод, что имея на руках бесконечное количество данных можно найти в этих данных большое количество связей, в том числе и тех, которые будут казаться причинно-сдественными. И на их основе доказать все, что угодно. Но к реальной науке это не имеет никакого отношения.
Читать все комментарии