Если вы скажете ИИ «сделать глубокий вдох», он лучше справится с математикой

Исследователи Google DeepMind разработали новый метод повышения математических способностей больших языковых моделей (LLM), таких как ChatGPT. Этот метод, получивший название Optimization by PROmpting (OPRO), использует естественный язык для управления LLM при решении задач.

Вместо того чтобы полагаться на традиционные математические оптимизаторы, OPRO использует «метапроблемы», описанные на человеческом языке, чтобы создать основу для процесса оптимизации. Затем LLM генерирует решения-кандидаты на основе описания задачи и предыдущих решений, тестируя их с помощью оценок качества.

Примечательно, что конкретные поощрительные фразы, такие как «Сделай глубокий вдох и работай над этой проблемой шаг за шагом», значительно улучшают результаты. При тестировании с помощью языковой модели Google PaLM 2 эта фраза показала наивысшую точность 80,2% при решении школьных задач по математике.

Такой подход позволяет использовать обширную языковую базу данных LLM, что дает возможность получать более полезные и точные результаты. OPRO может привести к улучшению взаимодействия людей с LLM и получения от них помощи в различных приложениях.

Источник: Ferra