Autoresearch для всех: как запустить 100 AI-экспериментов пока вы спите
А что, если запускать 100 экспериментов по машинному обучению за ночь — на одном GPU — не написав ни строки кода?
Именно это и делает autoresearch Андрея Карпати. Выпущенный 7 марта 2026 года, этот 630-строчный Python-скрипт позволяет AI-агентам автономно модифицировать обучающий код, запускать эксперименты, оценивать результаты и продолжать улучшаться — пока вы спите.
За два дня объявление набрало миллионы просмотров. Исследователи, разработчики и компании уже запускали собственные ночные эксперименты.
Вот как это работает и почему это важно.
Основной цикл
Дизайн autoresearch элегантен в своей простоте:
- Читает файл
program.md(ваши инструкции в Markdown) - Модифицирует
train.pyна основе этих инструкций - Обучает ровно 5 минут
- Измеряет результат (validation loss)
- Оставляет или отбрасывает — если метрика улучшилась, коммит; если нет, git reset
- Повторяет бесконечно
При примерно 12 экспериментах в час за ночную сессию получается около 100 экспериментов. Каждое успешное улучшение строится на предыдущем, создавая эффект накопления.
Что вам нужно
Порог входа удивительно низкий:
- Один GPU — вся система разработана для обучения на одном GPU
- 630 строк Python — достаточно мало, чтобы поместиться в контекстное окно любого LLM
- API-ключ LLM — Claude, GPT или другая способная модель
- Файл
program.md— ваши инструкции в Markdown, говорящие агенту, что оптимизировать
Всё. Никакого кластера. Никакой настройки распределённого обучения. Никакой команды ML-инженеров. Один человек, один GPU, один Markdown-файл.
Реальные результаты
Карпати оставил autoresearch работать около двух дней на модели глубины 12. AI-агент автономно обнаружил около 20 улучшений:
- Время обучения для бенчмарка GPT-2 снизилось с 2,02 часов до 1,80 часов
- Улучшение на 11% без какого-либо вмешательства человека
- Агент нашёл проблемы, которые люди пропустили: механизмы внимания без правильного масштабирования, отсутствующая регуляризация и неоптимальные гиперпараметры
Ключевое понимание: агент обнаружил то, чего не заметили опытные ML-исследователи. Не потому что он умнее, а потому что мог попробовать 100 вариантов там, где человек попробовал бы 5.
Почему 630 строк важны
Кодовая база намеренно крошечная. При ~630 строках весь файл train.py помещается в контекстное окно LLM. Это критическое проектное решение.
Если агент может видеть всю систему сразу, он может делать интеллектуальные модификации. Он понимает, как learning rate взаимодействует с batch size, как механизм внимания связан с выходным слоем, как одно изменение распространяется по всему конвейеру обучения.
Дайте AI-агенту 50 000-строчную кодовую базу — он будет делать локальные изменения, которые могут не иметь смысла глобально. Дайте 630 строк — он может рассуждать о всей системе.
Бюджет 5 минут
Каждый эксперимент длится ровно 5 минут. Это ограничение блестяще:
Оно делает эксперименты сопоставимыми. Если один запуск занимает 3 минуты, а другой — 20, нельзя справедливо сравнивать их результаты. Фиксированный временной бюджет означает, что каждое улучшение измеряется на равных основаниях.
Оно обеспечивает быструю итерацию. 5 минут достаточно, чтобы увидеть значимый прогресс обучения, но достаточно мало, чтобы запускать 12 экспериментов в час.
Оно предотвращает бесконтрольные расходы. Без ограничения по времени агент мог бы обучаться часами на одном перспективном изменении. Ограничение в 5 минут держит обратную связь плотной.
Git-память
Каждый эксперимент — это git-коммит. Это даёт системе память:
- Успешные изменения коммитятся в ветку функции, выстраивая цепочку улучшений
- Неудачные эксперименты откатываются с
git reset, не оставляя следов - История точно показывает, что было попробовано, что сработало, а что нет
Это означает, что вы можете просматривать работу агента как серию git-коммитов. Каждое сообщение коммита объясняет, что агент изменил и почему. Это полный аудиторский след автономного исследования.
За пределами ML: паттерн, который имеет значение
Autoresearch касается обучения языковых моделей, но паттерн, который он вводит, универсален:
Человек пишет инструкции в Markdown → AI-агент выполняет автономно → Результаты измеряются и сохраняются/отбрасываются → Цикл повторяется
Этот паттерн работает для любой области, где можно:
- Определить чёткие цели на естественном языке
- Автоматически измерять успех
- Сохранять или отбрасывать изменения по результатам
Компании уже применяют этот паттерн за пределами ML-исследований — для оптимизации кода, маркетинговых экспериментов и разработки продукта.
Подход «Markdown-прежде всего»
В центре autoresearch — Markdown-файл. Не Python. Не YAML. Не GUI. Обычный текстовый файл, который может читать и редактировать любой.
Это важно, потому что снижает барьер для управления AI-исследованиями. Вам не нужно быть ML-инженером, чтобы написать program.md. Нужно понимать проблему, цели и ограничения. Агент берёт на себя реализацию.
Сдвиг навыков очевиден: от знания того, как писать обучающий код, к знанию того, как писать эффективные инструкции для агента.
Начало работы
Если вы хотите попробовать паттерн autoresearch (даже за пределами ML), начните с этих шагов:
- Определите свою метрику. Что означает «лучше» и как это измерять автоматически?
- Напишите свой program.md. Установите цели, ограничения и стратегию в чётком Markdown.
- Держите область небольшой. Как 630-строчная кодовая база autoresearch, меньшие системы дают лучшие результаты.
- Дайте ему работать. Суть в автономной работе. Сопротивляйтесь желанию вмешаться.
- Просмотрите результаты. Проверьте историю git, чтобы увидеть, что агент пробовал и что сработало.
Создание знаний для написания хороших инструкций
Качество вашего program.md зависит от ваших знаний в предметной области. Чем лучше вы понимаете пространство проблемы, тем лучше будут ваши инструкции.
Именно здесь кураторская библиотека справочных материалов в Markdown-формате становится ценной. Документация, статьи, блог-посты и примеры — всё сохранено как чистый Markdown, готовое информировать ваши инструкции агента.
Save конвертирует любую веб-страницу в чистый Markdown — создавая справочную библиотеку, необходимую для написания эффективных инструкций AI-агентам. Попробуйте Save бесплатно.