Революция в оптимизаторах: DeepMind использует большие языковые модели в роли интеллектуальных оптимизаторов

Моя цель - предложение широкого ассортимента товаров и услуг на постоянно высоком качестве обслуживания по самым выгодным ценам.

В новой публикации «Large Language Models as Optimizers» (Большие языковые модели в роли оптимизаторов) команда исследователей Google DeepMind представила инновационный метод оптимизации, названный «оптимизация через промпты» (Optimization by PROmpting, OPRO). При применении этого метода в роли оптимизаторов используются большие языковые модели (Large Language Model, LLM). С его помощью можно генерировать решения, зависящие от описаний задач оптимизации, выполненных на естественном языке.

Оптимизация играет важнейшую роль в разнообразных практических задачах. Но традиционные алгоритмы оптимизации часто требуют серьёзного ручного вмешательства для того чтобы адаптировать их конкретным задачам. Их применение подразумевает необходимость борьбы с множеством мелких проблем, связанных с пространством принятия решений и с внутренними особенностями задач.

Замечательная возможность LLM — понимание текстов на естественном языке. Это открывает перспективные возможности для генерирования оптимизационных решений на основе словесных описаний задач. При применении традиционных подходов оптимизационные задачи обычно определяются формально. Для пошагового поиска оптимальных решений этих задач используют системы, написанные на каком-нибудь языке программирования. А в случае с OPRO исследователи пошли другим путём. Они руководят процессом оптимизации, давая LLM указания относительно итеративного генерирования новых решений. Поиск новых решений задач оптимизации осуществляется на основе описаний, даваемых на естественном языке, и ранее найденных решений.

Обзор фреймворка OPRO. LLM, в качестве входных данных, принимает мета-промпт. Затем модель генерирует новые решения для целевой функции, после чего новые решения и их оценки добавляются к мета-промпту, который используется при проведении следующего шага оптимизации. Мета-промпт содержит пары вида «решение-оценка», полученные в процессе оптимизации, а так же — описание задачи на естественном языке и (при оптимизации промптов) несколько эталонных примеров из задачи.
Обзор фреймворка OPRO. LLM, в качестве входных данных, принимает мета-промпт. Затем модель генерирует новые решения для целевой функции, после чего новые решения и их оценки добавляются к мета-промпту, который используется при проведении следующего шага оптимизации. Мета-промпт содержит пары вида «решение-оценка», полученные в процессе оптимизации, а так же — описание задачи на естественном языке и (при оптимизации промптов) несколько эталонных примеров из задачи.

В OPRO используются так называемые «мета-промпты». Они содержат и описание задачи оптимизации, и ранее найденные решения. Мета-промпты подаются на вход LLM, что позволяет модели генерировать решения задачи. После этого новые решения оцениваются и интегрируются в мета-промпт для использования на следующих итерациях оптимизации. Такой вот итеративный процесс оптимизации продолжается до тех пор, пока LLM не сможет предложить решения, оценка которых окажется выше оценки уже существующих решений, или до тех пор, пока не будет достигнуто максимальное количество шагов оптимизации. По сути, конечной целью этого процесса является формулирование такого промпта, который позволит решить задачу с максимальной точностью.

Ниже приведена таблица из публикации, в которой сравнивается точность испытаний на наборе данных GSM8K. Здесь, для каждой пары «система выставления очков-оптимизатор» (Scorer-Optimizer) показаны инструкции, дающие наивысшую точность. В верхней части таблицы (раздел Baselines) находятся данные, принятые за точку отсчёта. В нижней части таблицы (раздел Ours) находятся данные, полученные исследователями.

https://i0.wp.com/syncedreview.com/wp-content/uploads/2023/09/image-22.png?resize=899%2C885&ssl=1
Кривые точности оптимизации, полученные при оптимизации промптов на задачах BBH ruin_names и BBH temporal_sequences. В качестве системы выставления оценок используется text-bison, в качестве оптимизатора — PaLM 2-L-IT. Оптимизация начинается с пустой строки.
Кривые точности оптимизации, полученные при оптимизации промптов на задачах BBH ruin_names и BBH temporal_sequences. В качестве системы выставления оценок используется text-bison, в качестве оптимизатора — PaLM 2-L-IT. Оптимизация начинается с пустой строки.

В ходе этого эмпирического исследования были оценены возможности фреймворка OPRO при использовании различных LLM. Среди них — text-bison, Palm 2-L, gpt-3.5-turbo и gpt-4. При решении небольших по масштабам «задач коммивояжёра» OPRO демонстрирует эффективность, сравнимую с эвристическими алгоритмами, составленными человеком. При решении задач, входящих в бенчмарки GSM8K и BBH, результаты, полученные с помощью промптов, найденных системой, оказываются значительно лучше, чем те, что дают промпты, составленные людьми. В некоторых случаях применение «модельных» промптов даёт более чем 50% улучшение результатов.

О, а приходите к нам работать?
Источник: https://habr.com/ru/companies/wunderfund/articles/761390/


Интересные статьи

Интересные статьи

Одним из важнейших направлений работы над моделями машинного обучения является их оптимизация. Оптимизированная модель работает быстрее, требует меньше вычислительных ресурсов, и как следствие — снижа...
Разработка устройства моделирования аналогового сигнала сложной формы с построением АЧХ на базе STM32F103ZET6 Перейти к статье Всего голосов 3: ↑3 и ↓0 +3 Добавить в закладки 4
Привет, Хабр! Серная кислота почти вдвое тяжелее воды, и её водные растворы, в том числе аккумуляторный электролит, склонны к расслоению: тяжёлая кислота вытесняет лёгкую воду вверх и о...
В Asana мы используем Kubernetes для развертывания сервисов и управления ими независимо от монолитной инфраструктуры. Поначалу у нас были некоторые проблемы, и чтобы стандартизировать с...
Последние две недели я работал над сетевым движком для своей игры. До этого я вообще ничего не знал о сетевых технологиях в играх, поэтому прочитал множество статей и провёл множество экспериме...