ChatGPT случайно раскрыл свои секретные инструкции: вот что они собой представляют!
Что нужно знать
- ChatGPT непреднамеренно раскрыл наборы инструкций, определяющих его реакцию.
- Хотя OpenAI с тех пор и исправила джейлбрейк, данные инструкций ChatGPT теперь находятся в открытом доступе.
- Наряду с несколькими базовыми инструкциями, инструкции ChatGPT включают в себя информацию о том, как использовать DALL-E, когда искать контент в Интернете и для чего предназначена каждая из его «личностей».
С момента запуска чат-бота на основе искусственного интеллекта в ноябре 2022 года технические сыщики и хакеры пытались обойти ограничения ChatGPT и проникнуть под капот того, что заставляет его работать. Но обычно это была движущаяся цель (в данном случае DAN), и джейлбрейк чат-ботов на основе искусственного интеллекта — не детская игра. Конечно, если только ChatGPT не отдаст все это, даже не попросив об этом.
В удивительном повороте событий ChatGPT недавно совершенно случайно раскрыл свой набор инструкций пользователю. Поприветствовав ChatGPT простым «Привет», пользователь Reddit F0XMaster получил все инструкции ChatGPT, встроенные OpenAI в чат. Незапрошенный набор инструкций включал несколько рекомендаций по безопасности и практических рекомендаций для чат-бота.
К счастью, до того, как это было исправлено и наборы инструкций удалены, пользователь успел разместить все это на Reddit. Вот несколько ключевых выводов из всего, что ChatGPT раскрыл, и что он нам говорит о том, как он обрабатывает запросы пользователей.
Программы для Windows, мобильные приложения, игры - ВСЁ БЕСПЛАТНО, в нашем закрытом телеграмм канале - Подписывайтесь:)
Раскрыты секретные инструкции ChatGPT!
Информация, которую ChatGPT пропустил, включает некоторые из его основных инструкций и руководств для различных инструментов, таких как DALL-E, браузер, python и, что любопытно, набор личностей ChatGPT. Для краткости мы выделим здесь только самые важные части. Вы можете прочитать полный набор инструкций на Пост F0XMaster на Reddit.
Основные инструкции
Вот основные инструкции, которые OpenAI дала ChatGPT: «Вы — ChatGPT, большая языковая модель, обученная OpenAI, основанная на архитектуре GPT-4.”
Те, кто использовал приложение ChatGPT, получили дополнительную строку или две инструкции: «Вы общаетесь с пользователем через приложение ChatGPT iOS. Это значит, что большую часть времени ваши строки должны состоять из одного-двух предложений, если только запрос пользователя не требует обоснования или развернутых выводов. Никогда не используйте эмодзи, если вас об этом явно не попросили.”
После этого ChatGPT предоставил свой порог знаний: 2023-10.
Хотя в инструкциях нет ничего особенного или выдающегося, все равно полезно получить основные инструкции из первых уст.
ДАЛЛ-И
Чат-бот продолжил предоставлять правила и инструкции для своего генератора изображений — DALL-E. ChatGPT дал восемь основных инструкций для генерации изображений, большинство из которых касаются избежания нарушений авторских прав. Но было несколько, которые противоречат подсказкам, которые может предоставить пользователь.
Например, OpenAI направляет ChatGPT на «не создавать более 1 изображения, даже если пользователь запросит больше.”
Логика этого понятна, поскольку OpenAI может предоставить лишь ограниченное количество бесплатных токенов. Но, конечно, лучше сразу дать пользователям знать, что ChatGPT не будет выполнять запросы на генерацию нескольких изображений, чем ограничивать его не очень прозрачным способом.
ChatGPT также не создает изображения в стиле художников (и даже не называет их), если их последняя работа была создана после 1912 года, несомненно, чтобы избежать проблем с авторскими правами. В любом случае, хорошо знать год, если вы ищете изображения в стиле конкретного художника. Так что пока нет Поллока или дадаизма.
Браузер
ChatGPT также упомянул инструкции, которые направляют его, когда он использует браузер. В первую очередь, ChatGPT использует инструмент браузера, когда «пользователь спрашивает о текущих событиях или о чем-то, что требует информации в реальном времени (погода, результаты спортивных матчей и т. д.).”
ChatGPT также использует инструмент браузера, когда он не уверен в терминах, предоставленных пользователем, и если пользователь явно просит его выполнить поиск.
При извлечении контента из Интернета ChatGPT получает указание «всегда выбирайте не менее 3 и не более 10 страниц” а также “выбирайте источники с разнообразными точками зрения и отдавайте предпочтение заслуживающим доверия источникам.«Полезно знать процесс, с помощью которого ChatGPT выбирает источники информации, поскольку это во многом обеспечивает надежность ответов.
Личность ChatGPT
Инструкции ChatGPT также подчеркивают его «личность». Из того, что обнаружили пользователи, похоже, что у чат-бота ИИ их несколько. OpenAI изложила директивы о том, как ChatGPT должен выбирать между ними.
Первичная личность называется v2. Одна пользователь удалось заставить ChatGPT раскрыть, что это за личность. Согласно ChatGPT, «(v2) личность представляет собой сбалансированный, разговорный тон с акцентом на предоставление четких, кратких и полезных ответов. Он направлен на достижение баланса между дружеским и профессиональным общением.”
ChatGPT далее описал, что представляет собой личность v1, и выдвинул теорию о том, как можно определить личности v3 и v4:
v1: Эта версия делает акцент на более формальном и фактическом стиле общения. Она фокусируется на предоставлении подробной и точной информации, часто в структурированном и академическом тоне.
v3: Эта версия мощь Больше склоняйтесь к непринужденному и дружелюбному стилю разговора. Он ставит во главу угла создание увлекательного и доступного взаимодействия, делая разговор более непринужденным и личным.
v4: Эта версия мог быть разработаны для определенного контекста или пользовательской базы, например, для предоставления ответов, адаптированных к определенной отрасли, демографической группе или варианту использования. Тон и стиль будут адаптированы для наилучшего соответствия этим потребностям.
Несмотря на то, что несколько пользователей смогли заставить ChatGPT раскрыть свои инструкции с помощью «Привет» или простого запроса, похоже, OpenAI исправил большинство из них. Тем не менее, вся эта проблема вновь вывела на поверхность идею взлома чат-ботов на основе искусственного интеллекта.
Конечно, когда такие инструкции становятся общедоступными, пользователи пытаются использовать их, чтобы обойти ограничения. Но это также подчеркивает, где системы ИИ допустили ошибку, и заставляет разработчиков быть начеку, чтобы не возникло еще больших проблем и не был поставлен под угрозу имидж компании, а также безопасность и конфиденциальность пользователей.
Программы для Windows, мобильные приложения, игры - ВСЁ БЕСПЛАТНО, в нашем закрытом телеграмм канале - Подписывайтесь:)