Проблема: В экспериментах по столкновению элементарных частиц в Большом адронном коллайдере для обеспечения качественных научных результатов требуется тонко настроенная и оркестрованная система детекторов частиц и алгоритмов для сбора информации о произошедших событиях. Выпадение любого из её звеньев способно поставить валидность полученных данных под вопрос. Эксперимент потребуется повторить, а это стоит огромных денег.
Решение: Учёные предложили новый подход к решению задачи оптимизации экспериментальной системы, основанный на применении искусственного интеллекта. Вместо независимой настройки каждого элемента установки предлагается одновременная сонастройка всех частей. Это обеспечит максимально точные и готовые к немедленному анализу данные и, как следствие, уменьшит расходы на эксперименты.
Международная коллаборация с участием ученых факультета компьютерных наук НИУ ВШЭ Алексея Болдырева, Фёдора Ратникова и Дениса Деркача предложила новый подход к проектированию детекторов для физики элементарных частиц с помощью дифференцируемого программирования и глубоких нейронных сетей. Он позволит оптимизировать производительность инструментов и повысит научную ценность результатов экспериментов. Результаты исследований опубликованы в журнале Reviews in Physics.
Современная физика элементарных частиц во многом получает новую информацию о законах природы, а также уточняет значения фундаментальных констант с помощью экспериментов на ускорителях частиц. В таких опытах частицы — протоны, электроны, ионы — разгоняют до колоссальных скоростей и энергий, а затем сталкивают между собой. Последствия этих столкновений фиксируются системой специальных детекторов, данные о них очищаются и анализируются.
Главная задача учёных-физиков на сегодня — это завершение Стандартной модели (СМ) — современной теории строения и взаимодействий элементарных частиц. А в перспективе — создание Теории всего, способной примирить Общую теорию относительности (ОТО) Альберта Эйнштейна, хорошо объясняющую поведение звёзд и галактик, структуру пространства и времени, с квантовой механикой (КМ), описывающей на микроуровне поведение субатомных элементарных частиц.
Ценность ускорителей элементарных частиц в том, что они позволяют в экспериментах повторить события ранних этапов формирования Вселенной. Так, на Большом адронном коллайдере (БАК) учёные могут наблюдать взаимодействия частиц с высокой детализацией. В будущем они помогут понять всю полноту взаимодействий материи, пространства и энергии.
Физики и специалисты в области компьютерных наук из НИУ ВШЭ больше всего работают с детекторами эксперимента Large Hadron Collider beauty experiment (LHCb) Большого адронного коллайдера, которые оптимизированы под исследования физики прелестных b-кварков. Здесь учёные исследуют физику за пределами Стандартной модели, потенциальную ступень к нахождению Теории всего.
На LHCb работают несколько типов детекторов:
Затраты на детекторную систему LHCb и эксперименты оцениваются примерно в 84 миллиона долларов.
Ресурсы исследователей ограничены. И результат эксперимента объективно определяется на уровне самого слабого и неточного элемента системы. Для каждого детектора создано отдельное программное обеспечение и алгоритмы обработки данных, поэтому важна взаимосогласованная настройка и оптимизация всех детекторов эксперимента совместно с обрабатывающими данные этих детекторов алгоритмами. Все элементы системы должны работать на одинаково высоком уровне точности и чувствительности, неточность в работе одного детектора сведёт на нет усилия по оптимизации всех остальных.
Требования к детекторам, алгоритмам, программному и аппаратному обеспечению определяются заранее, исходя из опыта и экспертизы планирующих эксперимент учёных. Затем создаются цифровые модели, имитирующие свойства отдельных детекторов, все они объединяются в общую цифровую модель эксперимента. Она позволяет оценить предполагаемую точность будущего результата для выбранных условий.
Этот подход стабильно работает, но имеет существенный недостаток: можно оценить качество результатов эксперимента для заданных конфигураций детекторов, но затруднительно выяснить, что нужно изменить в этой сложной системе, чтобы результат стал качественнее.
«Взаимодействие частиц с материей имеет принципиально вероятностный характер и подчиняется законам квантового мира. Для преодоления этих неопределенностей нам требуется большое количество повторений моделирования взаимодействий. В итоге моделирование даже одного варианта сложного детектора предполагает дорогостоящие крупномасштабные вычисления. Поэтому для нахождения характеристик оптимального детектора нам необходим другой путь», — считает Алексей Болдырев, научный сотрудник Научно-учебной лабораторией методов анализа больших данных НИУ ВШЭ, а также член коллабораций LHCb (CERN) и MODE.
В случае простого эксперимента задача оптимизации решается прямым перебором возможных физических конфигураций и алгоритмов. Для сложной установки требуется перебирать сотни вариантов, задающих различные свойства как детекторов, так и компьютерных программ, что требует слишком больших вычислительных ресурсов. Возникает необходимость в эффективной автоматизации выбора оптимальной конфигурации.
Сложность и полная взаимосвязь вычислительных алгоритмов для обработки данных дополнительно требует рассматривать систему сразу целиком. Более того, архитектура современных алгоритмов сама диктует требования к конфигурациям детекторов, поэтому старый подход, при котором программы надстраивались на уже предоптимизированные детекторы, становится неоптимальным. Требуется одновременная оптимизация алгоритмического обеспечения сбора и обработки данных экспериментов и параметров детекторов.
Коллаборация учёных MODE (Machine-learning Optimized Design of Experiments), в которую входят и исследователи из НИУ ВШЭ, предложила комплексный подход к решению задачи оптимизации системы. В его рамках учёные ищут оптимальные конфигурации каждого компонента детекторов с использованием глубоких нейронных сетей и дифференцируемого программирования, что позволяет вести одновременный учёт сразу всех параметров эксперимента. Вместо независимой сонастройки каждого элемента установки происходит одновременная согласованная оркестрация всех частей экспериментальной системы, которая обеспечивает максимально точные и готовые к немедленному анализу данные.
Новый подход позволяет получить наилучшую из возможных научную отдачу от экспериментов и, как следствие, уменьшить расходы на них.
Именно на поиск оптимального решения комплексных многомерных задач заточены алгоритмы машинного обучения. Однако для их применения требуется объединить описания свойств отдельных компонентов эксперимента в сложную, но тщательно прописанную единую систему.
Дифференцируемая модель оказалась наиболее эффективной для оптимизации многомерных сложных систем экспериментов физики элементарных частиц. В таких моделях влияние каждого из сотен параметров может быть вычислено аналитически в рамках одной подсистемы, и затем это влияние автоматически учитывается во всех остальных элементах всей системы.
Кроме того, использование нейронных сетей позволило автоматически подстроить алгоритмы обработки данных под текущие конфигурации детекторов. В результате задача комплексной оптимизации физического детектора может быть переформулирована в терминах стандартной задачи оптимизации машинного обучения.
Ученые коллаборации MODE изучили, каким образом типичные компоненты современных экспериментальных установок могут быть описаны в виде автоматически дифференцируемых моделей. Также они показали, как множества компонентов можно собрать в полную систему для всеобъемлющей оптимизации эксперимента.
«Последовательное применение предложенного подхода потребует разработки дифференцируемых реализаций стохастических моделей физической симуляции для данных эксперимента. Однако с уже разработанными компонентами подхода, например, была проанализирована зависимость точности будущих измерений от сложности нового электромагнитного калориметра, важнейшего детектора физического эксперимента LHCb. Старый калориметр уже почти выработал свой ресурс и подлежит замене в любом случае. Полученные результаты позволят выбрать оптимальную конфигурацию нового детектора по соотношению “цена — качество” будущих научных результатов», — рассказывает Фёдор Ратников, ведущий научный сотрудник Научно-учебной лабораторией методов анализа больших данных НИУ ВШЭ, член коллаборации MODE и коллаборации LHCb в CERN.
В статье учёные раскрывают пользу интеграции автоматического дифференцирования в общий подход к расчётам в экспериментах по физике элементарных частиц. Их подход учитывает, что наиболее выгодная конфигурация всей системы детекторов и алгоритмов для эксперимента отличается от простого объединения различных компонентов, проходивших независимую оптимизацию. Авторы статьи обращают внимание, что для реализации предложенного метода будет необходимо использовать облачную инфраструктуру для доступа к масштабируемым и контролируемым вычислительным ресурсам.
Развитие технологий по всему миру уже ставит многие производства и их работников в условия, сходные с работой больших научных лабораторий. Биологи и медики в фармакологических и агрокомпаниях изучают живые существа, чьё поведение определяется не только сложными геномными взаимодействиями, но и факторами внешней среды, обуславливающими диапазон генетических реакций. Производители самолётов, кораблей, бытовой электроники, роботизированных сборочных линий, городских систем очистки воды — все имеют дело со сложными техническими системами, устаревающими и выходящими из строя. И все стремятся оптимизировать режимы работы электроники и механических узлов, удешевить производство и эксплуатацию систем. Описанная в статье схема оптимизации будет полезна для любой наукоемкой индустрии, уверены научные сотрудники НИУ ВШЭ.
«Подобные подходы могут быть использованы не только для планирования физических экспериментов, они могут применяться и более широко в индустриальных приложениях. В ближайшем будущем такие методы позволят значительно сократить как стоимость оборудования, так и издержки во время работы. Развитие и трансфер данных технологий — одна из важных задач нашей команды», — комментирует Денис Деркач, заведующий Научно-учебной лабораторией методов анализа больших данных ФКН НИУ ВШЭ.
IQ