ChatGPT поймал «газлайтинг» TikToker в том, как писать простое слово

ChatGPT поймал «газлайтинг» TikToker в том, как писать простое слово

Как человек, который провел бесчисленные часы, взаимодействуя с моделями искусственного интеллекта как по работе, так и в личных интересах, я нашел встречу пользователя TikTok с ChatGPT довольно забавной, но немного тревожной. Было приятно видеть, что такое обычное взаимодействие стало вирусным, проливая свет на особенности и ограничения этих мощных инструментов, на которые мы так часто полагаемся.


Пользователь TikTok был озадачен, когда ChatGPT, похоже, намеренно ввел его в заблуждение относительно правильного написания простого термина.

Многие люди находят ChatGPT OpenAI невероятно полезным, хотя по поводу этого чат-бота с искусственным интеллектом было много дискуссий и разногласий.

Тем не менее, несмотря на то, что некоторые считают его заслуживающим доверия ресурсом, пользователь TikTok приобрел популярность, рассказав о трудностях, с которыми ChatGPt столкнулся при ответе на простой запрос.

В ответ на вопрос о написании слова «клубника» система ИИ правильно определила, что слово содержит всего две буквы «R» — деталь, в отношении которой эта конкретная модель ИИ весьма непреклонна.

В TikTok под именем пользователя YallWatchThis человек решил опубликовать свой чат с чат-ботом. Разговор начался, когда он усомнился в количестве букв «R» в слове «клубника». ChatGPT подтвердил, что их ровно два.

После получения исправления ChatGPT твердо подтвердил свою позицию, предположив, что YallWatchThis, возможно, рассматривал букву «R» в словах «соломинка» и «ягода» как отдельные сущности. Несмотря на то, что его попросили объяснить детали правописания, чат-бот остался непреклонен в отношении предполагаемой ошибки YallWatchThis.

Дуэт продолжал спорить и менять написание слова, но как бы YallWatchThis ни старался, ChatGPT оставался твердым (и в какой-то момент даже написал слово «соломинка» как «соломинка»). В конце концов, спустя более пяти минут YallWatchThis удалось заставить чат-бота подтвердить третью букву «r». В видео TikTok он зачитал разговор вслух.

«Это не ChatGPT, который вас газлайтингует», — прокомментировал один человек. Другой пошутил, что YallWatchThis успешно «победил ChatGPT в единоборстве».

Кроме того, другой пользователь рассказал о своем взаимодействии с чат-ботом, поделившись, как им удалось заставить его подтвердить три рупии. Интересно, что когда этот пользователь заявил, что их всего двое, чат-бот извинился и согласился на исправление.

При неожиданном повороте событий, вскоре после дебатов YallWatchThis с ChatGPT, OpenAI обнародовала планы создания новой модели искусственного интеллекта, обладающей превосходными способностями к решению проблем. К изумлению YallWatchThis, новая модель получила название Strawberry.

Смотрите также

2024-09-06 04:49