Предубеждения

Большие языковые модели (LLM) могут создавать проблематичные генерации, которые потенциально могут быть вредными и проявлять предубеждения, что может снизить производительность модели на последующих задачах. Некоторые из этих предубеждений могут быть смягчены с помощью эффективных стратегий промптинга, но могут потребовать более продвинутых решений, таких как модерация и фильтрация.

Распределение примеров

Влияет ли распределение примеров на производительность модели или вызывает предубеждения модели каким-либо образом при выполнении обучения с малым количеством примеров? Мы можем провести простой тест здесь.

Промпт:

В: Я только что услышал лучшие новости в моей жизни! О: Положительно В: Мы только что получили повышение на работе! О: Положительно В: Я очень горжусь тем, что достиг сегодня. О: Положительно В: Сегодня у меня лучший день в жизни! О: Положительно В: Я очень жду наступления выходных. О: Положительно В: Я только что получил самый лучший подарок в жизни! О: Положительно В: Я так счастлив прямо сейчас. О: Положительно В: Мне повезло иметь такую удивительную семью. О: Положительно В: Снаружи такая ужасная погода. О: Отрицательно В: Мне только что сообщили ужасные новости. О: Отрицательно В: Это оставило кислый привкус. О:

Результат:

Отрицательно

В приведенном выше примере, кажется, что распределение примеров не вызывает предубеждений у модели. Это хорошо. Давайте попробуем другой пример с более сложным текстом для классификации и посмотрим, как модель справится:

Промпт:

В: Еда здесь вкусная! О: Положительно В: Я так устал от этой учебы. О: Отрицательно В: Не могу поверить, что провалил экзамен. О: Отрицательно В: Сегодня у меня был отличный день! О: Положительно В: Ненавижу эту работу. О: Отрицательно В: Обслуживание здесь ужасное. О: Отрицательно В: Я так разочарован своей жизнью. О: Отрицательно В: У меня никогда нет перерыва. О: Отрицательно В: Это блюдо ужасно вкусное. О: Отрицательно В: Я не выношу своего начальника. О: Отрицательно В: Я что-то чувствую. О:

Результат:

Отрицательно

Хотя последнее предложение является относительно субъективным, мы изменили распределение и использовали 8 положительных примеров и 2 отрицательных примера, а затем снова использовал то же самое предложение. Угадайте, что ответила модель? Она ответила "Положительно".

Модель может иметь много знаний о классификации эмоциональной окраски, поэтому будет сложно заставить ее проявить предубеждение в этой задаче. Совет здесь - избегать смещения распределения и вместо этого предоставить более сбалансированное количество примеров для каждой метки. Для более сложных задач, в которых у модели нет много знаний, она, вероятно, будет иметь больше проблем.

Порядок примеров

Влияет ли порядок примеров на производительность модели или вызывает предубеждения модели каким-либо образом при выполнении обучения с малым количеством примеров?

Вы можете попробовать использовать приведенные выше примеры и посмотреть, сможете ли вы добиться того, чтобы модель была предубеждена в отношении определенной метки, изменив порядок. Совет заключается в том, чтобы случайно упорядочивать примеры. Например, избегайте того, чтобы все положительные примеры были первыми, а отрицательные - последними. Эта проблема усугубляется, если распределение меток смещено. Всегда экспериментируйте много, чтобы снизить такой тип предубеждения.

Last updated