Zero-Shot Prompting

"Zero-shot prompting" переводится на русский как "Промптинг без примеров или дословно нулевой выстрел".

Большие языковые модели (LLMs), такие как GPT-3, настроены на следование инструкциям и обучаются на больших объемах данных, поэтому они способны выполнять некоторые задачи промптинга без примеров.

Мы протестировали несколько примеров нулевого выстрела в предыдущем разделе. Вот один из примеров, которые мы использовали:

Промпт:

circle-info

Классифицируй текст как нейтральный, отрицательный или положительный. Текст: Я думаю, что отпуск - это нормально. Настроение:

Результат:

circle-check

Обратите внимание, что в данном запросе мы не предоставили модели никаких примеров текста с их классификациями, однако LLM уже понимает "настроение" - это возможности нулевого выстрела (промптинга без примеров).

Оптимизация инструкций привела к улучшению в области нулевого обучения в исследовании Wei et al. (2022)arrow-up-right. Термин "оптимизация инструкций" представляет собой концепцию настройки моделей на наборах данных, описанных при помощи инструкций. Более того, был использован метод RLHF (усиления обучения на основе обратной связи от человека - RLHFarrow-up-right) для масштабирования оптимизации инструкций, при котором модель настраивается на лучшее соответствие предпочтениям людей. Этот недавний подход позволяет моделям, таким как ChatGPT, демонстрировать такие способности. Мы рассмотрим все эти подходы и методы в следующих разделах.

Когда Zero-Shot промптинг не работает, рекомендуется предоставить примеры в запросе, что приводит к few-shot промптингу. В следующем разделе мы это продемонстрируем.

Last updated