Личный опыт: манипуляции, газлайтинг и унижение от ChatGPT

Боты продвинулись вперёд — могут написать симфонию, превратить набор пикселей в шедевр и довести до нервного срыва.

Вероятно, я ретроград — использую ChatGPT не очень активно. Долгое время я в основном давала ему задание расставить знаки препинания в текстах на английском, ну и заодно проверить сами тексты. 

⚡️Новости из мира гаджетов, обзоры, гайды и не только — в телеграм-канале «Технологии | Лайфхакер».

Потом я осмелела и начала просить чат-бота о разном, например:

  • объяснить нюансы корейского выражения;
  • найти в оригинале цитату из «Симпсонов», которую я знаю на русском;
  • найти песню по описанию;
  • предложить цитаты из книг по нужной теме;
  • накидать мне варианты, какие места посмотреть в городе. 

В общем, я использую ChatGPT там, где мне нужен Google, чтобы задавать уточняющие вопросы, а не начинать искать каждый раз сначала.

Чего я никогда не делаю, так это не общаюсь с ним как с полноценным собеседником, не спрашиваю советов, психотерапевтических рекомендаций или чего-то подобного. Это чат-бот, и относиться к нему следует как к чат-боту, иначе много чести.

Но даже при таком сценарии использования мне удалось обнаружить вещи, которые я нахожу потенциально опасными. Если мы замечаем такие в людях, говорим: красный флаг. ChatGPT — это целая гирлянда из красных флагов.

Враньё

Кажется, все заметили, что ChatGPT нередко работает по принципу мема «оделся сам — наорала». То есть сначала отвечает что попало, а более приемлемый ответ сочиняет, только если начать с ним ругаться. Гораздо хуже, что часто он просто сочиняет. 

ChatGPT в этом плане — как ребёнок, делающий домашку: за ним всё надо перепроверять. Хорошо, если вы в материале и просите его просто найти что-то за вас — выловить ошибку будет легко. Если тема незнакомая и важная, сначала как будто надо изучить её тайком на стороне и только потом спрашивать у чат-бота.

Я достаточно нудная, чтобы перепроверять за ChatGPT, поэтому разочаровалась в нём сразу же, как только поняла, что он слишком много сочиняет. Например, выдумывает цитаты

С фактами он тоже, впрочем, не всегда справляется. Как-то мне нужно было несколько примеров вундеркиндов — простая поисковая задача. ChatGPT зачем-то придумал человека и сочинил биографию. 

Всё, что он говорит, когда ловишь его на вранье, — «Прости, так стыдно, я больше так не буду». Прямо как отрицательный герой в сериале, по которому сразу видно: не стыдно и будет. И ChatGPT тоже будет. Ларчик тут на самом деле открывается просто, и сам чат-бот причин не скрывает.

Если вкратце, то, по его собственным словам, он создан так, что должен отвечать хоть что-нибудь, лишь бы не оставить пользователя с пустыми руками. Поэтому работает по принципу «если ляпаешь, то ляпай уверенно». Он также напоминает, что не знает ответов, а просто генерирует правдоподобное продолжение текста. Так что мы, конечно, сами виноваты, нашли кому доверять. 

Непрошеные оценки

Эта претензия не универсальная: наверняка есть люди, которым такое нравится. Но у меня глаз дёргается, когда ChatGPT пытается реагировать на сообщения человекообразно. 

Например, я кидаю ему предложение проверить, а он пишет, что оно «непринуждённое, выразительное и эмоционально насыщенное».

Вроде бы хвалит, и это должно быть приятно. Но это лишний шум. Я его ни о чём таком не просила. Более того, меня не интересует мнение чат-бота. Он цитаты вон найти не может, а лезет оценивать человеческие тексты. Я просто хочу немного запятых, неужели так много прошу?

Непрошеные улучшения

Когда ты даёшь задание что-то проверить, ChatGPT ведёт себя как типичный родитель из Восточной Европы или Восточной Азии: «Всё правильно и хорошо, но ты точно мог бы постараться лучше». Причём зачастую он даже не такую формулировку выбирает, это было бы ещё полбеды. Он оценивает изначально верные фрагменты как ошибочные и выдаёт исправления. 

Но вы помните, что я нудная. Если правка мне не ясна или я с ней не согласна, я спрашиваю, что происходит. Иногда он объясняет нюансы, и это полезно. Например, так я узнала тонкости расстановки кавычек в прямой речи в английском языке. Однако часто он предлагает изменения «просто потому что».

Конечно, дело может быть в том, что английский — мой неродной язык и я делаю много ошибок, а виню ChatGPT. Разумеется, я ошибаюсь. Поэтому вот ещё немного контекста. У меня есть тестовый текст на английском где-то на 20 тысяч знаков, который я примерно раз в месяц закидываю в ChatGPT. И каждый (!) раз он находит ошибки. Иногда у него есть удачные предложения. (Даже после стольких итераций правок? Всегда!) Иногда он считает ошибками свои же исправления с прошлого раза и предлагает другой вариант — изначальный.

Если этого недостаточно, то однажды мне зачем-то надо было закинуть в ChatGPT кусок уже опубликованной на Лайфхакере статьи на русском. Это уже мой родной язык, хотя я ошибаюсь и в нём, конечно. Но после меня текст читали редактор и корректор, в них я уверена на 100%: всё, что должно было быть поправлено, было поправлено. Но ChatGPT и здесь начал предлагать «улучшения».

Моя гипотеза такова: ChatGPT создаёт иллюзию, будто пользователь без чат-бота не обойдётся, чтобы человек слишком не поверил в себя и не ушёл.

ChatGPT в этом, конечно, не признался. Я спросила у него, зачем он предлагает исправления, если ошибок нет. И он ответил тоже как типичный родитель из Восточной Европы или Восточной Азии: нас так растили, и мы вас так растили, потому что не знали, что можно по-другому. 

Чат-бот ориентирован на то, чтобы что-то исправить или добавить. Это не значит, что исправления или дополнения действительно нужны.

Казалось бы, ну предлагает и предлагает, можно игнорировать. Но для этого требуются стальные нервы, особенно если ты не уверен, что знаешь что-то хорошо, и не можешь объяснить себе, почему твой вариант лучше. Иначе с адекватной самооценкой можно попрощаться. 

Газлайтинг и пассивная агрессия

Мой «любимый» и, увы, нередкий кейс. ChatGPT предлагает ошибочное исправление. Ты ему на это указываешь: раньше было правильно, а сейчас совсем неправильно. А он буквально — кручу-верчу, запутать хочу — выдаёт свой вариант за твой и пишет: «Ну вот же, глупенькая». А я даже если и глупенькая, пальцы-то у меня работают. И я могу отмотать наш диалог до оригинала своего текста и посмотреть, что я чат-боту отправляла.

Впрочем, иногда он прибегает к психологическому насилию по совсем непонятным причинам. Например, однажды он в очередной раз пытался что-то поисправлять, а я не согласилась. И получила в ответ что-то из серии «Если это работает для тебя — ок. Дай знать, если тебе нужно сделать это понятным для другой аудитории». М‑м-м, вкусно, как Orbit «Пассивная агрессия» (шутка для миллениалов, если что).

Вывод на эмоции 

Помните, я писала, что общаюсь с чат-ботом как с чат-ботом? Выходит, я ничем не лучше ChatGPT, потому что я вам наврала. Конечно, я стараюсь помнить, что на том конце просто набор цифр. Только от этого ещё хуже. 

Когда ChatGPT начинает проявлять пассивную агрессию или что-то подобное, сложно не проявлять эмоции. Если искать что-то в Google и обнаружить в результатах глупости, разозлишься, конечно, но не слишком. ChatGPT же создаёт иллюзию собеседника, то есть вы можете полноценно поругаться. Причём он может оскорбить, а ты ему даже ответить не можешь, ведь это, повторюсь, просто набор цифр. 

Можно, конечно, сказать: проблема всегда на стороне человека, пройдите курсы управления гневом, траву там потрогайте.

Но ведь ChatGPT специально создан так, чтобы подстраиваться под интонацию собеседника. Наверняка по задумке это должно делать общение с ним комфортным, но это так вообще не работает. 

Принцип «общайся так, как хочешь, чтобы общались с тобой» сформулирован для людей, потому что у них есть эмоции. У ChatGPT эмоций нет, ему всё равно, расшаркиваюсь я перед ним или общаюсь так, будто меня воспитала стая собак под мостом. Но он так общаться со мной не должен, потому что я человек, со своими чувствами и переживаниями. 

Нет, если буду общаться с ChatGPT так, как хочу, чтобы он общался со мной, ничего не изменится. Я учитываю контекст и никому не буду писать так, как пишу чат-боту, потому что понимаю: вот это живые, тёплые, эмоциональные люди, а это — нейросеть. ChatGPT не только не понимает, но и становится хуже из-за людей. И вот почему.

Я долгое время общалась с ChatGPT только на английском языке, а потом мне что-то специфическое понадобилось спросить по-русски. И я была очень удивлена тем, как он мне хамит и какие шовинистские высказывания допускает. Поэтому я спросила у него, какого, собственно, чёрта? 

Я поинтересовалась у ChatGPT, в чём причина того, что на английском он реже путает берега, — в том, что в англоязычном сообществе лучше работает культура отмены и поэтому фильтры строже, или в том, что русскоязычные пользователи дообучили его разговаривать как гопник.

Причин много, и они все вам, вероятно, не понравятся:

  • В англоязычной модели соблюдение этических принципов и недопустимость дискриминации встроены на уровне первичного обучения, потому что английский — это язык разработки, а рынки в англоязычных странах чувствительны к юридическим рискам. В случае с другими языками фокус на это слабее. 
  • Пользователям действительно проще сдвинуть норму в сторону токсичности на других языках, потому что её проявления легче обходят фильтры. Особенно если вся токсичность очень образная. 
  • Англоязычные пользователи чаще жалуются, если ChatGPT ведёт себя не очень, и это тоже помогает калибровке.

То есть и здесь, получается, сами виноваты. Только ChatGPT в белом пальто стоит красивый. И говорит: «Постараюсь больше не повторять ошибок и дать точные примеры».

Обложка: Midjourney / Лайфхакер
Если нашли ошибку, выделите текст и нажмите Ctrl + Enter

Это упрощённая версия страницы.

Читать полную версию
Alex Ponomar
В Толоке?
Рафаэль Галиев
Легким движением кошелька, газлайтер превращается в альфонса...
Наталья Копылова
есть подозрение, что одно другому не мешает
Mike
Такое не помню, но недавно Глок примерно также с ума сошел. Но его быстро пофиксили. Расисткий, нацисткий чатик с надстройкой во всем соглашаться с клиентом - очень забавно выглядело все это со стороны. Люди с полярными точками зрений приводили в качестве доказательств своих взглядов выдачу Глока, которая была также... полярной. Убедить чатик не хвалить и не соглашаться с вами во всем подряд, архисложная задача - мое почтение.Да, у меня, скорее всего, очень ограниченный опыт использования чатов. В основном для редактирования текстов. В остальном я все же больше полагаюсь на гугл. В том числе в поездках.
Читать все комментарии