← Назад к блогу

Autoresearch для всех: как запустить 100 AI-экспериментов пока вы спите

· Save Team
aiautoresearchkarpathymachine-learningexperimentsgpuprogramming

А что, если запускать 100 экспериментов по машинному обучению за ночь — на одном GPU — не написав ни строки кода?

Именно это и делает autoresearch Андрея Карпати. Выпущенный 7 марта 2026 года, этот 630-строчный Python-скрипт позволяет AI-агентам автономно модифицировать обучающий код, запускать эксперименты, оценивать результаты и продолжать улучшаться — пока вы спите.

За два дня объявление набрало миллионы просмотров. Исследователи, разработчики и компании уже запускали собственные ночные эксперименты.

Вот как это работает и почему это важно.

Основной цикл

Дизайн autoresearch элегантен в своей простоте:

  1. Читает файл program.md (ваши инструкции в Markdown)
  2. Модифицирует train.py на основе этих инструкций
  3. Обучает ровно 5 минут
  4. Измеряет результат (validation loss)
  5. Оставляет или отбрасывает — если метрика улучшилась, коммит; если нет, git reset
  6. Повторяет бесконечно

При примерно 12 экспериментах в час за ночную сессию получается около 100 экспериментов. Каждое успешное улучшение строится на предыдущем, создавая эффект накопления.

Что вам нужно

Порог входа удивительно низкий:

  • Один GPU — вся система разработана для обучения на одном GPU
  • 630 строк Python — достаточно мало, чтобы поместиться в контекстное окно любого LLM
  • API-ключ LLM — Claude, GPT или другая способная модель
  • Файл program.md — ваши инструкции в Markdown, говорящие агенту, что оптимизировать

Всё. Никакого кластера. Никакой настройки распределённого обучения. Никакой команды ML-инженеров. Один человек, один GPU, один Markdown-файл.

Реальные результаты

Карпати оставил autoresearch работать около двух дней на модели глубины 12. AI-агент автономно обнаружил около 20 улучшений:

  • Время обучения для бенчмарка GPT-2 снизилось с 2,02 часов до 1,80 часов
  • Улучшение на 11% без какого-либо вмешательства человека
  • Агент нашёл проблемы, которые люди пропустили: механизмы внимания без правильного масштабирования, отсутствующая регуляризация и неоптимальные гиперпараметры

Ключевое понимание: агент обнаружил то, чего не заметили опытные ML-исследователи. Не потому что он умнее, а потому что мог попробовать 100 вариантов там, где человек попробовал бы 5.

Почему 630 строк важны

Кодовая база намеренно крошечная. При ~630 строках весь файл train.py помещается в контекстное окно LLM. Это критическое проектное решение.

Если агент может видеть всю систему сразу, он может делать интеллектуальные модификации. Он понимает, как learning rate взаимодействует с batch size, как механизм внимания связан с выходным слоем, как одно изменение распространяется по всему конвейеру обучения.

Дайте AI-агенту 50 000-строчную кодовую базу — он будет делать локальные изменения, которые могут не иметь смысла глобально. Дайте 630 строк — он может рассуждать о всей системе.

Бюджет 5 минут

Каждый эксперимент длится ровно 5 минут. Это ограничение блестяще:

Оно делает эксперименты сопоставимыми. Если один запуск занимает 3 минуты, а другой — 20, нельзя справедливо сравнивать их результаты. Фиксированный временной бюджет означает, что каждое улучшение измеряется на равных основаниях.

Оно обеспечивает быструю итерацию. 5 минут достаточно, чтобы увидеть значимый прогресс обучения, но достаточно мало, чтобы запускать 12 экспериментов в час.

Оно предотвращает бесконтрольные расходы. Без ограничения по времени агент мог бы обучаться часами на одном перспективном изменении. Ограничение в 5 минут держит обратную связь плотной.

Git-память

Каждый эксперимент — это git-коммит. Это даёт системе память:

  • Успешные изменения коммитятся в ветку функции, выстраивая цепочку улучшений
  • Неудачные эксперименты откатываются с git reset, не оставляя следов
  • История точно показывает, что было попробовано, что сработало, а что нет

Это означает, что вы можете просматривать работу агента как серию git-коммитов. Каждое сообщение коммита объясняет, что агент изменил и почему. Это полный аудиторский след автономного исследования.

За пределами ML: паттерн, который имеет значение

Autoresearch касается обучения языковых моделей, но паттерн, который он вводит, универсален:

Человек пишет инструкции в Markdown → AI-агент выполняет автономно → Результаты измеряются и сохраняются/отбрасываются → Цикл повторяется

Этот паттерн работает для любой области, где можно:

  1. Определить чёткие цели на естественном языке
  2. Автоматически измерять успех
  3. Сохранять или отбрасывать изменения по результатам

Компании уже применяют этот паттерн за пределами ML-исследований — для оптимизации кода, маркетинговых экспериментов и разработки продукта.

Подход «Markdown-прежде всего»

В центре autoresearch — Markdown-файл. Не Python. Не YAML. Не GUI. Обычный текстовый файл, который может читать и редактировать любой.

Это важно, потому что снижает барьер для управления AI-исследованиями. Вам не нужно быть ML-инженером, чтобы написать program.md. Нужно понимать проблему, цели и ограничения. Агент берёт на себя реализацию.

Сдвиг навыков очевиден: от знания того, как писать обучающий код, к знанию того, как писать эффективные инструкции для агента.

Начало работы

Если вы хотите попробовать паттерн autoresearch (даже за пределами ML), начните с этих шагов:

  1. Определите свою метрику. Что означает «лучше» и как это измерять автоматически?
  2. Напишите свой program.md. Установите цели, ограничения и стратегию в чётком Markdown.
  3. Держите область небольшой. Как 630-строчная кодовая база autoresearch, меньшие системы дают лучшие результаты.
  4. Дайте ему работать. Суть в автономной работе. Сопротивляйтесь желанию вмешаться.
  5. Просмотрите результаты. Проверьте историю git, чтобы увидеть, что агент пробовал и что сработало.

Создание знаний для написания хороших инструкций

Качество вашего program.md зависит от ваших знаний в предметной области. Чем лучше вы понимаете пространство проблемы, тем лучше будут ваши инструкции.

Именно здесь кураторская библиотека справочных материалов в Markdown-формате становится ценной. Документация, статьи, блог-посты и примеры — всё сохранено как чистый Markdown, готовое информировать ваши инструкции агента.


Save конвертирует любую веб-страницу в чистый Markdown — создавая справочную библиотеку, необходимую для написания эффективных инструкций AI-агентам. Попробуйте Save бесплатно.