Generated Knowledge Prompting
"Generated Knowledge Prompting" переводится дословно на русский как "Промптинг генераций знаний"
Last updated
"Generated Knowledge Prompting" переводится дословно на русский как "Промптинг генераций знаний"
Last updated
Источник изображения: Liu et al. 2022
Большие языковые модели (LLM) постоянно совершенствуются, и одной из популярных техник является возможность интегрировать знания или информацию, чтобы помочь модели делать более ответы.
С применением аналогичной концепции, можно ли также использовать метод промптинга генерации знаний перед формулированием ответов? Именно этим вопросом занимаются авторы статьи Liu et al. 2022, где предлагается генерировать знания для использования в качестве части промпта. Особенно интересно, насколько такой подход полезен для решения задач, связанных с пониманием контекста и здравого смысла.
Давайте начнем с простого промпта:
Промпт:
Результат:
Да.
Данная ошибка выявляет ограничения LLM в решении задач, требующих более глубокого понимания мира. Каким образом можно усовершенствовать ситуацию, используя технику промптинга генерации знаний?
Сначала сгенерируем несколько "знаний":
Промпт:
Знание 1:
Знание 2:
Мы используем промпты, представленные в статье Liu et al. 2022.
Следующий этап - интеграция знаний и формирование ответа. Мы изменили вопрос на формат вопроса и ответа, чтобы указать структуру ответа.
Промпт:
Ответ 1 (очень высокая уверенность):
Ответ 2 (уверенность намного ниже):
С данным примером действительно происходят интересные взаимодействия. В первом ответе модель проявила высокую уверенность, однако во втором ответе уверенность стала не такой выраженной. Вы упростили процесс для демонстрации, но при получении окончательного ответа следует учесть дополнительные детали. Более подробные сведения доступны в статье Liu et al. 2022.