DARPA запускает MATHBAC: как новые протоколы общения AI-агентов могут ускорить научные открытия
DARPA запускает MATHBAC: как новые протоколы общения AI-агентов могут ускорить научные открытия
Новая программа нацелена на то, чтобы AI-агенты не просто «болтали» друг с другом, а обменивались знаниями так, чтобы это реально двигало науку вперед.
DARPA решила взяться за довольно скользкую, но важную задачу: улучшить взаимодействие между AI-агентами, чтобы те эффективнее работали вместе над научными открытиями. Идея не в том, чтобы заставить модели чаще обмениваться сообщениями — этого добра и так хватает, — а в том, чтобы выстроить внятную, математически обоснованную систему общения, где коллективы агентов смогут совместно формулировать более сильные гипотезы, выявлять закономерности и, возможно, приходить к новым научным выводам быстрее людей. Звучит амбициозно. Даже чересчур. Но DARPA, как водится, не про скромные цели.
Во вторник агентство объявило о запуске программы Mathematics of Boosting Agentic Communication, или MATHBAC, и одновременно опубликовало запрос предложений для исследовательских команд. Речь идет о финансировании работ в области фундаментальной математики, теории систем и теории информации — всего того, что может лечь в основу более осмысленного взаимодействия автономных систем. На первом этапе участники смогут претендовать на гранты до 2 млн долларов, а сама программа рассчитана на 34 месяца и разбита на две фазы.
Логика у DARPA, в общем, понятная. Современные AI-системы уже умеют многое, но значительная часть их успехов по-прежнему держится на эвристиках, настройках «по месту» и практиках, которые работают — пока работают. Почему именно работают, насколько это переносимо в другие домены и где пределы таких подходов, часто неясно. Та же история и с разработкой AI-агентов и автоматизацией: агентов можно заставить взаимодействовать, но без строгой модели коммуникации это сотрудничество нередко выходит шумным, хрупким и плохо масштабируемым.
Собственно, DARPA говорит об этом почти в лоб: без серьезной математической базы для понимания того, как агенты координируются, обмениваются сигналами и вырабатывают совместные решения, взаимодействие agent-to-agent останется неэффективным, непоследовательным и слабо переносимым между задачами. И вот тут начинается самое интересное.
По словам агентства, AI уже неплохо ориентируется в пространствах решений, но все еще заметно буксует там, где нужно системно исследовать пространство гипотез. А ведь именно из гипотез — не из красивых дашбордов и не из очередного «умного» резюме текста — часто и рождаются настоящие научные прорывы. MATHBAC как раз и задуман для того, чтобы ускорить появление таких гипотез за счет более качественной коммуникации между агентами.
На первом этапе программа сосредоточится на математике и проектировании протоколов общения. Но не только. DARPA отдельно подчеркивает: важно не лишь то, как агенты общаются, а еще и что именно они друг другу передают. Это, если честно, здраво. Можно построить идеальный канал связи, а по нему гонять пустоту — толку ноль.
Поэтому вторая техническая область MATHBAC посвящена содержанию коммуникации. Агентство хочет понять, способны ли группы специализированных AI-агентов извлекать из данных компактные, обобщаемые принципы — законы, корреляции, устойчивые зависимости — и складывать их в общий модуль знаний. По сути, речь идет про коллективную агентную память, где отдельные находки не теряются, а становятся частью общей базы рассуждений. Для компаний, которые строят такие решения на практике, это напрямую связано с агентной памятью и RAG: без памяти, контекста и аккуратного извлечения знаний мультиагентная система быстро начинает напоминать совещание, где все говорят, но никто ничего не запоминает.
DARPA формулирует задачу довольно смело: проверить, могут ли группы AI-агентов, обученные в конкретных научных областях, выводить общие научные принципы из наборов данных, где правило присутствует неявно. Не написано черным по белому, не лежит на поверхности — но его можно вытащить, если правильно сопоставить сигналы. Это уже не просто обмен сообщениями между ботами. Это попытка построить архитектуру, в которой коллективное рассуждение становится инструментом открытия.
В качестве показательного ориентира DARPA приводит почти вызывающий пример: сначала — повторно «открыть» периодическую таблицу на уровне Менделеева, опираясь только на данные, а затем двинуться к многомерному аналогу периодической таблицы для молекул. Ну да, планка не то что высокая — она где-то под потолком. Но именно такие задачи и позволяют понять, есть ли у подхода реальный потенциал, а не только красивая презентация.
Если сработает, эффект будет большим
DARPA прямо заявляет, что в случае успеха MATHBAC может радикально изменить подходы и к научным исследованиям, и к обучению. При этом агентство заранее отсекло проекты, которые обещают лишь небольшие, инкрементальные улучшения существующих практик. Иными словами, косметический ремонт не нужен. Нужен скачок. Желательно такой, который меняет правила игры.
На второй фазе программа пойдет еще дальше: от исследователей будут ждать создания AI-инструментов, способных поддерживать систематическую эволюцию или даже изобретение новой науки. Формулировка, конечно, громкая. Но за ней стоит вполне конкретная мысль: не просто улучшить обмен сообщениями, а выстроить условия, в которых агенты смогут развивать собственные способы кооперации, уточнять протоколы и повышать результативность в решении научных задач.
И тут всплывает еще одна важная тема — мультиагентные системы. DARPA допускает, что для координации на нужном уровне может понадобиться вообще новый доменный язык, созданный специально для общения AI-агентов. Не человеческий интерфейс, не очередная надстройка над естественным языком, а отдельный рабочий язык машинного взаимодействия. Возможно, звучит слегка диковато. А возможно, без этого и правда не обойтись.
Агентство объясняет свою позицию так: до сих пор эволюционное давление на AI-платформы в основном шло через людей, которые их проектируют, обучают и настраивают. MATHBAC же должен сместить это давление на самих агентов — на их способность сотрудничать, координироваться и вырабатывать более продуктивные формы коллективной работы. Короче говоря, DARPA хочет изучать не только протоколы, но и саму механику кооперации: как рождается полезное взаимодействие, как его измерять, как улучшать и как не превратить все это в хаос.
С практической точки зрения здесь всплывают и вопросы надежности, и вопросы контроля. Чем сложнее коммуникация между агентами, тем важнее безопасность AI-агентов, прозрачность их решений и соответствие корпоративным или регуляторным требованиям. Потому что одно дело — исследовательский эксперимент, другое — внедрение подобных схем в промышленную среду, где уже встают темы аудита, трассируемости и AI compliance и соответствия требованиям. И вот там, если честно, начинается совсем не романтика науки, а суровая инженерия.
Заявки на участие в MATHBAC DARPA принимает до 16 июня. Старт программы намечен на сентябрь, а гранты, как ожидается, получат сразу несколько команд. На дополнительные вопросы журналистов агентство на момент публикации не ответило.
Что в сухом остатке? DARPA пытается превратить общение между AI-агентами из набора полезных, но местами случайных практик в полноценную научную дисциплину. Если у них получится, это может заметно повлиять и на архитектуру AI-агентов, и на автоматизацию исследований, и на то, как в будущем будут строиться системы коллективного машинного рассуждения. Если не получится — ну, по крайней мере, станет яснее, где именно заканчиваются красивые обещания и начинается реальность. Тоже, между прочим, полезный результат.
