Skip to content

An open source tool for automatic configuration of a text classification pipeline for intent prediction

Notifications You must be signed in to change notification settings

deeppavlov/AutoIntent

Repository files navigation

AutoIntent

Инструмент для автоматической конфигурации пайплайна классификации текстов для предсказания интента. Построен на представлении о том, что алгоритм предсказания интента можно разбить на четыре шага (TODO обновить схему):

  1. RegExp: классификация простейших примеров, которые описываются регулярными выражениями
  2. Retrieval: поиск похожих текстов, для которых известна метка класса
  3. Scoring: оценка принадлежности каждому из классов
  4. Prediction: предсказание метки класса и детекция out-of-scope примеров

Установка

  1. Скопировать проект:
git clone https://github.com/voorhs/AutoIntent.git
cd AutoIntent
  1. Установить пакет:
pip install .

Использование

Оптимизация

В текущей alpha-версии оптимизацию можно запустить командой autointent: Примеры использования:

autointent data.train_path=default-multiclass
autointent data.train_path=default-multilabel hydra.job_logging.root.level=INFO
autointent data.train_path=data/intent_records/ac_robotic_new.json \
    data.force_multilabel=true \
    logs.dirpath=experiments/multiclass_as_multilabel/ \
    logs.run_name=robotics_new_testing \
    augmentation.regex_sampling=10 \
    augmentation.multilabel_generation_config="[0, 4000, 1000]"  # currently doesn't work, omit this line
# currently doesn't work due to problems with to_multilabel when dataset contains only regexp but no utterances
autointent data.train_path=data/intent_records/ac_robotic_new.json \
           data.test_path=data/intent_records/ac_robotic_val.json \
           data.force_multilabel=true \
           augmentation.regex_sampling=20
autointent data.train_path=default-multiclass \
           data.test_path=data/intent_records/banking77_test.json \
           seed=42

Все опции в виде yaml (показаны дефолтные значения):

data:
# Path to a json file with training data. Set to "default" to use banking77 data stored within the
# autointent package.
  train_path: ???

# Path to a json file with test records. Skip this option if you want to use a random subset of the
# training sample as test data.
  test_path: null

# Set to true if your data is multiclass but you want to train the multilabel classifier.
  force_multilabel: false

task:
# Path to a yaml configuration file that defines the optimization search space.
# Omit this to use the default configuration.
  search_space_path: null
logs:
# Name of the run prepended to optimization assets dirname (generated randomly if omitted)
  run_name: "awful_hippo_10-30-2024_19-42-12"

# Location where to save optimization logs that will be saved as `<logs_dir>/<run_name>_<cur_datetime>/logs.json`.
# Omit to use current working directory. <-- on Windows it is not correct
  dirpath: "/home/user/AutoIntent/awful_hippo_10-30-2024_19-42-12"

  dump_dir: "/home/user/AutoIntent/runs/awful_hippo_10-30-2024_19-42-12/modules_dumps"

vector_index:
# Location where to save faiss database file. Omit to use your system's default cache directory.
  db_dir: null

# Specify device in torch notation
  device: cpu

augmentation:
# Number of shots per intent to sample from regular expressions. This option extends sample utterance
# within multiclass intent records.
  regex_sampling: 0

# Config string like "[20, 40, 20, 10]" means 20 one-label examples, 40 two-label examples, 20 three-label examples,
# 10 four-label examples. This option extends multilabel utterance records.
  multilabel_generation_config: null

embedder:
# batch size for embedding computation.
  batch_size: 1
# sentence length limit for embedding computation
  max_length: null

#Affects the randomness
seed: 0

# String from {DEBUG,INFO,WARNING,ERROR,CRITICAL}. Omit to use ERROR by default.
hydra.job_logging.root.level: "ERROR"

Как задавать конфигурационные опции

  • Вариант 1 - в коммандной строке в виде key=value. Пример:
autointent embedder.batch_size=32
  • Вариант 2 - в конфигурационном yaml файле. Создайте в отдельной папке yaml файл со следующей структурой my_config.yaml:
defaults:
  - optimization_config
  - _self_
  - override hydra/job_logging: custom

# put the configuration options you want to override here. The full structure is presented above.
# Here is just an example with the same options as for the command line variant above.
embedder:
  embedder_batch_size: 32

Запускаем AutoIntent:

autointent --config-path=/path/to/config/directory --config-name=my_config

Важно:

  • указывайте полный путь в опции config-path.
  • не используйте tab в yaml файле.
  • желательно чтобы имя файла отличалось от optimization_config.yaml, чтобы избежать warnings от hydra

Вы можете использовать комбинацию Варианта 1 и 2. Опции из коммандной строки имеют наивысший приоритет.

Вместе с пакетом предоставляются дефолтные конфиг и данные (5-shot banking77 / 20-shot dstc3).

Примеры:

  • примеры входных данных: data
  • примеры конфигов: example_configs

Инференс

После проведённой оптимизации найденный классификатор можно загрузить и использовать для предсказания:

autointent \
    data.train_path="tests/assets/data/clinc_subset_multiclass.json" \
    task.search_space_path="tests/assets/configs/multiclass.yaml"
autointent-inference \
    data_path="experiments/hydra-configs/data/utterances.json" \
    source_dir="tasty_auk_10-21-2024_14-24-48" \
    output_path="test-infer" 

Все опции инференса:

data_path    Path to a json list of string containing utterances
             for which you want to make a prediction.

source_dir   Path to a directory with optimization assets.

output_path  Path to a resulting json file with predictions made for 
             your utterances from data_path

log_level    String from {DEBUG,INFO,WARNING,ERROR,CRITICAL}.
             Omit to use ERROR by default.

Постановка задачи и формат входных данных

Решается задача классификации текста с возможностью отказа от классификации (в случае, когда текст не попадает ни в один класс).

Для решения этой задачи необходимо собрать для каждого интента словарик, подобный следующему:

{
    "intent_id": 0,
    "intent_name": "activate_my_card",
    "regexp_full_match": [
        "(alexa ){0,1}are we having a communication problem",
        "(alexa ){0,1}i don't think you understand",
        "what",
        "I did not get what do you mean"
    ],
    "regexp_partial_match": [
        "activate my card",
    ]
}

Расшифровка полей:

  • intent_id метка класса (пока что поддерживается только консистентная разметка 0..N)
  • intent_name опциональный параметр
  • regexp_full_match грамматика, описывающая представителей данного класса (используется затем в связке с re.fullmatch(pattern, text))
  • regexp_partial_match грамматика, описывающая только часть представителей данного класса (используется затем в связке с re.match(pattern, text))

Если есть примеры фраз, то стоит собрать их в другой словарик:

"utterances": [
    {
        "text": "I tried activating my plug-in and it didn't piece of work",
        "label": 0
    },
    {
        "text": "I want to open an account for my children",
        "label": 1
    },
    {
        "text": "How old do you need to be to use the banks services?",
        "label": 1
    },
    ...
]

Если одна фраза может содержать несколько лейблов, то так:

"utterances": [
    {
        "text": "can you please give me the address and the postcode",
        "label": [
            10
        ]
    },
    {
        "text": "alright thank you goodbye",
        "label": [
            2,
            12
        ]
    },
    ...
]

Если у фраза относится к разряду out-of-scope, то поле label не нужно указывать.

Multilabel

Для решения задачи multilabel классификации, формат данный другой (см. примеры в data/multi_label_data).

RegExp Node

# in development

Retrieval Node

Из входных данных извлекаются все sample_utterances со своими метками классов и помещаются в поисковый индекс. Этот индекс пригождается на шаге Scoring для модулей KNNScorer и DNNCScorer.

Результатом оптимизации этого компонента является поисковый индекс.

VectorDBRetriever

Под капотом ChromaDB.

Гиперпараметры:

  • название модели би-энкодера с huggingface
  • число кандидатов для ретрива

Scoring Node

Результатом оптимизации этого компонента является моделька, которая принимает на вход текст и выдает оценки принадлежности каждому классу.

KNNScorer

Обычный метод ближайших соседей. Для поиска используется индекс, добытый на шаге Retrieval.

Гиперпараметры:

  • число ближайших соседей

LinearScorer

Обычная логистическая регрессия. В качестве признаков используются эмбединги из векторного индекса.

Гиперпараметры отсутствуют.

DNNCScorer

Метод, заимствованный из статьи "discriminative nearest neighbor out-of-scope detection". Алгоритм:

  1. Ретрив k соседей с помощью поискового индекса
  2. Использование кросс-энкодера для оценки близости между текстом и k соседями
  3. Выдать метку класса того соседа, который наиболее близок к текущему тексту по мнению кросс-энкодера

Гиперпараметры:

  • название модели кросс-энкодера с huggingface
  • число соседей k

Prediction Node

Результатом оптимизации этого компонента является решающее правило, которое

  • детектирует OOS
  • выдает метку класса на основе оценок, полученных с этапа Scoring

ArgmaxPredictor

Выдает метку того класса, скор которого не меньше всех остальных. Не детектирует OOS.

ThresholdPredictor

Выдает метку того класса, скор которого не меньше всех остальных. Если скор этого класса меньше некоторого порога, то выдается OOS. Порог задается при инициализации модуля.

JinoosPredictor

Выдает метку того класса, скор которого не меньше всех остальных. Если скор этого класса меньше некоторого порога, то выдается OOS. Порог подбирается автоматически с помощью оптимизации метрики jinoos, заимствованной из статьи DNNC.

Оптимизация

Оптимизация пайплайна происходит путем независимой оптимизации каждого отдельного модуля под выбранную метрику. На текущий момент реализован метод полного перебора.

Для компоненты RegExp реализованы следующие метрики, цель которых проверить, что регулярные выражения разных интентов не конфликтуют:

  • regexp_partial_accuracy
  • regexp_partial_precision

Multi-class классификация

Retrieval:

  • retrieval_hit_rate
  • retrieval_map
  • retrieval_mrr
  • retrieval_ndcg
  • retrieval_precision

Scoring:

  • scoring_accuracy
  • scoring_f1
  • scoring_log_likelihood
  • scoring_precision
  • scoring_recall
  • scoring_roc_auc

Prediction:

  • prediction_accuracy
  • prediction_f1
  • prediction_precision
  • prediction_recall
  • prediction_roc_auc

Multi-label классификация

Retrieval:

  • все те же метрики, но в формате макро усреднения (к названию метрики нужно добавить _intersecting):
    • retrieval_hit_rate_intersecting
    • retrieval_map_intersecting
    • retrieval_mrr_intersecting
    • retrieval_ndcg_intersecting
    • retrieval_precision_intersecting
  • все те же метрики, но над бинарными метками, где 0 или 1 определяется тем, есть ли хотя бы одна общая метка (к названию метрики нужно добавить _macro):
    • retrieval_hit_rate_macro
    • retrieval_map_macro
    • retrieval_mrr_macro
    • retrieval_ndcg_macro
    • retrieval_precision_macro Scoring:
  • все те же, но в формате макро усреднения (под теми же названиями):
    • scoring_accuracy
    • scoring_f1
    • scoring_log_likelihood
    • scoring_precision
    • scoring_recall
    • scoring_roc_auc
  • scoring_neg_ranking_loss
  • scoring_neg_coverage
  • scoring_hit_rate

Prediction:

  • все те же, но в формате макро усреднения (под теми же названиями)
    • prediction_accuracy
    • prediction_f1
    • prediction_precision
    • prediction_recall
    • prediction_roc_auc

Roadmap

Version Description
v0.0.x Python API, CLI API, Greedy optimization
v0.1.x Web UI for logging, Bayes optimization, data augmentation
v0.2.x Optimization presets, improved efficiency

About

An open source tool for automatic configuration of a text classification pipeline for intent prediction

Topics

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published