🚀 Хочешь улететь на Луну вместе с нами? Подписывайся на CryptoMoon! 💸 Новости крипты, аналитика и прогнозы, которые дадут твоему кошельку ракетный ускоритель! 📈 Нажмите здесь: 👇
CryptoMoon Telegram
Как человек, который провел бесчисленные часы, взаимодействуя с моделями искусственного интеллекта как по работе, так и в личных интересах, я нашел встречу пользователя TikTok с ChatGPT довольно забавной, но немного тревожной. Было приятно видеть, что такое обычное взаимодействие стало вирусным, проливая свет на особенности и ограничения этих мощных инструментов, на которые мы так часто полагаемся.
Пользователь TikTok был озадачен, когда ChatGPT, похоже, намеренно ввел его в заблуждение относительно правильного написания простого термина.
Многие люди находят ChatGPT OpenAI невероятно полезным, хотя по поводу этого чат-бота с искусственным интеллектом было много дискуссий и разногласий.
Тем не менее, несмотря на то, что некоторые считают его заслуживающим доверия ресурсом, пользователь TikTok приобрел популярность, рассказав о трудностях, с которыми ChatGPt столкнулся при ответе на простой запрос.
В ответ на вопрос о написании слова «клубника» система ИИ правильно определила, что слово содержит всего две буквы «R» — деталь, в отношении которой эта конкретная модель ИИ весьма непреклонна.
В TikTok под именем пользователя YallWatchThis человек решил опубликовать свой чат с чат-ботом. Разговор начался, когда он усомнился в количестве букв «R» в слове «клубника». ChatGPT подтвердил, что их ровно два.
После получения исправления ChatGPT твердо подтвердил свою позицию, предположив, что YallWatchThis, возможно, рассматривал букву «R» в словах «соломинка» и «ягода» как отдельные сущности. Несмотря на то, что его попросили объяснить детали правописания, чат-бот остался непреклонен в отношении предполагаемой ошибки YallWatchThis.
Дуэт продолжал спорить и менять написание слова, но как бы YallWatchThis ни старался, ChatGPT оставался твердым (и в какой-то момент даже написал слово «соломинка» как «соломинка»). В конце концов, спустя более пяти минут YallWatchThis удалось заставить чат-бота подтвердить третью букву «r». В видео TikTok он зачитал разговор вслух.
«Это не ChatGPT, который вас газлайтингует», — прокомментировал один человек. Другой пошутил, что YallWatchThis успешно «победил ChatGPT в единоборстве».
Кроме того, другой пользователь рассказал о своем взаимодействии с чат-ботом, поделившись, как им удалось заставить его подтвердить три рупии. Интересно, что когда этот пользователь заявил, что их всего двое, чат-бот извинился и согласился на исправление.
При неожиданном повороте событий, вскоре после дебатов YallWatchThis с ChatGPT, OpenAI обнародовала планы создания новой модели искусственного интеллекта, обладающей превосходными способностями к решению проблем. К изумлению YallWatchThis, новая модель получила название Strawberry.
Смотрите также
- Лучшие расстановки клубов EA FC 25 и собственная тактика
- Создатель игры «Кальмар» объясняет, почему он убил самого вызывающего разногласия персонажа второго сезона
- Список уровней брони Stalker 2: рейтинг лучших наборов брони
- Ной Бек опроверг слухи о его сексуальной ориентации, поскольку фанаты хотят, чтобы это прекратилось
- Объяснение концовки второго сезона игры «Кальмары»: Ги-хун умрет?
- Лучшие нападающие, которые можно купить в EA FC 25 Ultimate Team
- Модель Instagram «Килламенте» умерла в больнице, подавившись едой
- Как исправить лаги в EA FC 25 простым изменением настроек
- Почему Пак Сон Хун подвергся обстрелу? Объяснение спора об игре Squid
- Обзор GameSir G8+: универсальный мобильный чемпион
2024-09-06 04:49