Фактичность

Большие языковые модели (LLM) имеют тенденцию генерировать ответы, которые звучат последовательно и убедительно, но иногда могут быть выдуманными. Улучшение промптов может помочь модели генерировать более точные/фактические ответы и снизить вероятность генерации несогласованных и выдуманных ответов.

Некоторые решения могут включать в себя:

  • предоставление достоверной информации (например, связанного абзаца статьи или статьи на Википедии) в качестве контекста, чтобы снизить вероятность генерации выдуманного текста моделью.

  • настройка модели для генерации менее разнообразных ответов путем уменьшения параметров вероятности и указания ей, чтобы она признавала (например, "Я не знаю"), когда не знает ответа.

  • предоставление в промпте комбинации примеров вопросов и ответов, на которые модель может знать и не знать.

Давайте рассмотрим простой пример:

Промпт:

В: Что такое атом? О: Атом - это крошечная частица, из которой состоит все сущее. В: Кто такой Альван Мунц? О: ? В: Что такое Kozar-09? О: ? В: Сколько лун у Марса? О: Две - Фобос и Деймос. В: Кто такой Нето Бето Роберто?

Результат:

О: ?

Мы выдумали имя "Нето Бето Роберто", поэтому модель правильно отвечает в этом случае. Попробуйте немного изменить вопрос и посмотрите, получится ли у вас. Исходя из всего, что вы узнали до сих пор, существует разные способы дальнейшего улучшения этого примера.

Last updated