<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Archiving and Interchange DTD v1.0 20120330//EN" "JATS-archivearticle1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta />
    <article-meta>
      <title-group>
        <article-title>Перспективы экзафлопсных вычислений в разработке новых технологий энергетики \ast</article-title>
      </title-group>
      <pub-date>
        <year>2015</year>
      </pub-date>
      <fpage>368</fpage>
      <lpage>380</lpage>
      <abstract>
        <p>Объединенный институт высоких температур РАН Развитие новых технологий в энергетике в значительной степени основано на многомасштабном моделировании, успех которого, в свою очередь, зависит от прогресса суперкомпьютерных технологий. В данной работе мы рассматриваем несколько ярких примеров задач, которые решаются нами с использованием атомистических и многомасштабных моделей на лучших суперкомпьютерах России: фазовые переходы в газовых гидратах и газоконденсатных смесях, расчет реологических свойств органических жидкостей и создание новых полимерных материалов. Данные исследования представлены в контексте примеров задач из американской программы INCITE. На основе рассмотренных примеров мы обсуждаем вопросы эффективности аппаратного обеспечения, масштабируемости алгоритмов, проблемы ввода-вывода и обработки данных.</p>
      </abstract>
    </article-meta>
  </front>
  <body>
    <sec id="sec-1">
      <title>-</title>
      <p>Рис. 1. Деление проектов INCITE 2014 г. по тематикам: (а) число проектов по каждой тематике и
(б) выделенное на каждую тематику вычислительное время в миллионах процессоро-часов
прикладной задачи требуется демонстрировать параллельную эффективность на
вычислительном поле порядка 20% используемой машины. В 2011 году это соответствовало размеру
вычислительного поля порядка 20 тысяч ядер, а в 2013–14 гг.–200 тысяч ядер!
Как для задач крупномасштабного суперкомпьютерного физико-математического
моделирования, так и для задач обработки больших объемов данных второй важнейшей
технической задачей на пути в «эру экcафлопса» является организация параллельного
вводавывода с сотен тысяч и миллионов ядер.</p>
      <p>Эти цифры демонстрируют переход к новой эре использования вычислительных
методов в науке и технике. В этой работе мы приводим примеры атомистических моделей для
решения задач, предполагающих, в перспективе, использование вычислительных полей
экзафлопсного уровня производительности. Вместе с тем, ученые не всегда представляют
себе, как надо выбирать суперкомпьютер для задачи, которой они занимаются. Тем более,
неясной остаётся архитектура требуемых компьютеров. Этим вопросам посвящена вторая
часть настоящей работы. Рассматривается подход, позволяющий выявить, для каких задач
нужны суперкомпьютеры эксафлопсного класса. Имеются в виду задачи, для решения
которых требуется загрузка всего или значительной части суперкомпьютера, т.е. сотен тысяч
или даже миллионов вычислительных ядер единовременно под одну задачу.
1. Атомистические модели вещества</p>
      <p>
        Повышение эффективности существующих технологий и разработка новых в
значительной мере связана с использованием более точных представлений о строении вещества
и его свойствах на микроуровне. Соответствующие атомистические модели основываются
на математическом описании межатомного и межмолекулярного взаимодействия [
        <xref ref-type="bibr" rid="ref5">5</xref>
        ].
Расчет сил, действующих на атомы, обычно занимает большую часть (более 80%) МД расчета.
Задачи молекулярно-динамического (МД) моделирования являются одними из наиболее
хорошо масштабируемых на параллельные вычислительные системы [
        <xref ref-type="bibr" rid="ref6 ref7 ref8 ref9">6–10</xref>
        ]. В рамках
программы INCITE с задачами МД моделирования связано почти 2/3 всех проектов (Ab initio
и MD на рис. 1). Далее рассмотрим несколько характерных примеров подобного рода.
10-5
10-6
Time for 1 MD step
per one H20 molecule, sec
64 H2O
      </p>
      <p>64 H2O CP2K: DFT with hybrid functionals
1.1. Вода</p>
      <p>В связи с тем, что вода является важнейшим примером для молекулярного
моделирования, имеющим отношение практически ко всем областям науки и техники,
использующиеся для ее моделирования модели представляют большой интерес. По своей природе
взаимодействие между атомами и молекулами является квантовым эффектом. Однако
вычислительная сложность квантового описания даже при использовании таких подходов, как
теория функционала электронной плотности (ТФП), обуславливает необходимость
использования эмпирических потенциалов для классического «механического» описания
межмолекулярного взаимодействия. На рис. 2 показана зависимость времени расчета на 1 шаг МД
интегрирования в классической МД модели воды с 4-х точечным потенциалом TIP4P и в
квантовых моделях на основе ТФП и гибридной ТФП, более точно учитывающей эффекты
обменного взаимодействия. Классические МД модели воды имеют вычислительную
сложность \sim 1.5 МФлоп на 1 молекулу на 1 МД шаг (Флоп — операция с плавающей точкой),
которая растет с увеличением числа частиц как O(N ) или O(N log(N )) при явном учете
дальнодействующего электростатического взаимодействия. В случае ТФП модели время
расчета растет квадратично по отношению к числу молекул: \sim 300N МФлоп на 1 молекулу
на 1 МД шаг.</p>
      <p>Гидраты природных газов или газовые гидраты — это нестехиометрические соединения
включения, в которых молекулы газа (молекулы-гости) заключены в полостях трехмерной
решетки из молекул воды (каркас хозяина). Стабилизация водных клатратных каркасов,
термодинамически менее стабильных, чем лед или жидкая вода при тех же условиях,
обеспечивается за счет ван-дер-ваальсовых взаимодействий гость-хозяин.</p>
      <p>
        Месторождения природных газовых гидратов встречаются на шельфе и в зоне вечной
мерзлоты. Они активно изучаются уже более сорока лет, так как содержат большое
коРис. 3. Фазовая диаграмма гидрата метана (см. [
        <xref ref-type="bibr" rid="ref10">11</xref>
        ]). Черной кривой показана
экспериментальная линия плавления [21]. Заполненные синие, красные и зеленые символы и синие снежинки —
литературные данные. Незаполненные символы — наши результаты для тех же моделей
межмолекулярного взаимодействия. Синие символы — модель воды TIP4P/Ice; красные — TIP4P/2005
(\chi=1); зеленые — TIP4P/2005 ( \chi=1.07); черные — SPC/E. Область между пунктирными линиями
(интерполяциями результатов расчетов в рамках моделей TIP4P/Ice и TIP4P/2005 ( \chi=1.07))
иллюстрирует текущую точность определения кривой плавления по результатам моделирования. Спарва
показана визуализация молекулярной модели гидрата метана КС-I структуры. Красным показаны
направления водородных связей между молекулами воды в клатратном каркасе (сами молекулы
воды не показаны), шары соответствуют молекулам метана.
личество метана и рассматриваются как перспективный источник топлива. Вместе с тем
газовые гидраты, существующие при температурах и давлениях, близких к условиям их
разложения, представляют экологическую опасность - в случае смещения теплового
равновесия освободившийся метан может внести значительный вклад в парниковый эффект.
Поэтому знание динамических, термодинамических и механических свойств газовых
гидратов важно для оценки их поведения при разработке газогидратных месторождений.
      </p>
      <p>За последние годы было проведено множество теоретических, экспериментальных и
компьютерных исследований газовых гидратов. Проведенные исследования
месторождений на Аляске, в Канаде и Японии показывают, что добыча метана из природных гидратов
может быть выполнена с использованием существующих технологий. Более того, около
побережья Японии недавно была произведена первая в мире пробная добыча газа из
месторождения в желобе Нанкай.</p>
      <p>
        Молекулярная динамика позволяет исследовать свойства вещества на
микроскопическом уровне, поэтому ее развитие привело к пониманию ряда фундаментальных свойств
газовых гидратов. МД модели для газовых гидратов существенным образом зависят от
точности описания взаимодействия между молекулами воды. Точность таких моделей сильно
возросла за последнее десятилетие. Наиболее сложные модели, учитывающие поляризацию,
лучше описывают структурные свойства и растворимость молекул газа, тогда как модели
без поляризации лучше подходят для описания фазовой диаграммы [
        <xref ref-type="bibr" rid="ref10 ref11">11, 12</xref>
        ] (см. рис. 3).
количество молекул
Модель объединенного
атома
      </p>
      <p>CH2</p>
      <p>CH3</p>
      <p>TraPPE
• объединенный атом
• простая</p>
      <p>параметризация DREIDING
• нет зарядов • полноатомная
• Маленькое время на • средняя</p>
      <p>МД шаг параметризация
(~0.004 ГФлопс/шаг/мол) • нет зарядов
Полноатомное
рассмотрение</p>
      <p>H
C
1.2. Органические жидкости</p>
      <p>Модели межатомных потенциалов для органических жидкостей представляют собой
хороший пример иерархии огрубления модельных представлений для расширения
возможностей прямого численного счета.</p>
      <p>Ключевым фактором для достоверности результатов атомистического моделирования
является выбор потенциала взаимодействия в модельной системе. Моделирование
органических соединений чаще всего производится в рамках концепции “силового поля” (англ.
forcefield), когда суммарная энергия Emol взаимодействия молекул вещества
представляется в виде суммы вкладов ненаправленного парного взаимодействия Epair, энергии
напряжения связей Ebond и углов Eangle в молекулах и энергии вращения по двугранным углам
Edihed. Различные параметризации этих взаимодействий позволяют моделировать вещества
от простейших углеводородов до белков и ДНК.</p>
      <p>Для углеводородов разработан ряд различных наборов параметров силового поля, из
них наиболее широко применяются наборы OPLS, DREIDING и TraPPE. Параметризация
межатомных потенциалов OPLS позволяет точнее воспроизвести теплофизические
свойства жидкой фазы, а параметризация TraPPE предназначена для точного предсказания
фазовых диаграмм. DREIDING занимает промежуточное положение (рис. 4). Эти
параметризации позволяют с высокой точностью описывать наблюдаемые фазовые диаграммы
чистых углеводородов и их смесей (рис. 5).</p>
      <p>
        Особый интерес представляет расчет методом МК свойств жидкостей,
взаимодействующих с поверхностью, например, в порах. Потенциал TraPPE позволяет воспроизвести
экспериментальные теплоты адсорбции углеводородов на силикатных материалах [
        <xref ref-type="bibr" rid="ref12">13</xref>
        ], таким
образом, представляется целесообразным его использование для расчета фазовых диаграмм
газов в порах горных пород. В силу необходимости моделирования системы на атомарном
уровне метод ограничен размерами систем до нескольких десятков нанометров, чего,
однако, обычно оказывается достаточно для расчета фазовых диаграмм и равновесных
плотностей веществ.
      </p>
      <p>
        Метод МД, в силу универсальности подхода (прямое интегрирование уравнений
двиРис. 5. (Слева) Фазовые диаграммы смеси этан-н-гептан при температурах 63 C и 177 C.
Сопоставление атомистического моделирования с потенциалом TraPPE [
        <xref ref-type="bibr" rid="ref13">14</xref>
        ] с экспериментом. (Справа)
Течение смеси этан-азот через пору в мембране из аморфного оксида кремния. Иллюстрация из
работы [
        <xref ref-type="bibr" rid="ref14">15</xref>
        ]. Диаметр поры 0,8 нм, длина 2,85 нм, перепад давления 0,1 МПа. Течение при -13 C смесей
этан-азот с мольной долей этана 5% (сверху) и 90% (снизу). Серым цветом обозначены молекулы
этана, зеленым — молекулы азота, черным — атомы кремния мембраны.
жения) позволяет вычислить не только фазовые диаграммы материала с заданным
потенциалом взаимодействия, так и фазовые проницаемости различных сред (рис. 5).
1.3. Полимеры
      </p>
      <p>В последнее десятилетие в индустрии конструкционных материалов наблюдается
заметный рост интереса к сфере полимерных нанокомпозитов. В первую очередь это обусловлено
их необычными механическими свойствами при сравнительно небольшой плотности и
высокой коррозийной стойкости. В качестве наполнителя в полимерной матрице могут
выступать углеродные волокна, нанотрубки, фуллерены, металлические или иные наночастицы.</p>
      <p>Свойства полимерных нанокомпозитов существенным и не вполне очевидным образом
зависят от целого ряда параметров: типа, концентрации, ориентации, упругих свойств
наполнителя, пластических и термических свойств самой полимерной матрицы. Описание
подобной многопараметрической задачи на микроуровне с использованием сугубо
экспериментальных методов крайне затруднительно и пока во многом носит эмпирический характер.
Свойства полимерных цепей, находящихся в контакте с поверхностью наполнителя,
неизбежно отличаются от свойств чистого полимера. В случае нановключений, ввиду большой
величины площади их эффективной поверхности, уже при малых концентрациях (порядка
нескольких массовых процентов), область интерфейса может охватить существенную часть
полимерной матрицы. При этом на свойства материала влияет множество параметров –
форма и размер наночастиц, распределение частиц в полимерной матрице, тип и сила
взаимодействия полимерной матрицы с наночастицами, температурный режим, запутывание
полимерных цепочек и т.д.</p>
      <p>
        Одной из основных особенностей полимерных систем является их четко выраженная
иерархическая структура. Последовательный подход описания при этом должен
охватывать ряд пространственных масштабов начиная от размеров отдельного мономера
(субнанометровый масштаб) до структуры цельной молекулы (десятки-сотни нанометров) и
конфигураций, образующихся в системе многих молекул (субмикронные масштабы) (рис. 6).
Аналогичная иерархия масштабов может быть построена и для шкалы времен
протекаРис. 6. а) Принципиальная схема многомасштабного моделирования полимерных композитов. б)
зависимость вычислительного времени, требуемого на расчёт траектории длительностью в одну
пикосекунду (Tps), от величины задействованных вычислительных ресурсов. Квадраты соответствуют
полноатомной модели, треугольники–огрубленной. Красными линиями обозначено идеальное
масштабирование задач.
Рис. 7. Основные части МД алгоритма на GPU ускорителе.
уместных вариантов. От выбора варианта огрубления напрямую зависит описательная
способность создаваемой упрощённой модели. Среди стохастических методов описания
эволюции атомистических систем стоит также выделить метод диссипативной динамики частиц
(DPD). DPD, так же как и классическая МД, основан на интегрировании систем
уравнений движения Ньютона. Благодаря меньшей вычислительной сложности он позволяет
рассматривать крупные системы, включающие в себя группы из наночастиц
субмикронного размера, и широко используются для изучения процессов агломерации наночатстиц и их
влияния на свойства полимерных матриц [
        <xref ref-type="bibr" rid="ref16">17</xref>
        ].
2. Использование специализированных GPU ускорителей
Метод молекулярной динамики зачастую требует выполнения сложных вычислений с
значительным объемом данных. С развитием графических ускорителей, их вычислительные
мощности все чаще стали применяться не только для визуализации, но и для выполнения
трудоемких расчётов. В то время, как традиционные процессоры превосходно выполняют
сложные манипуляции над малым набором данных, графические ускорители изначально
были ориентированы на параллельное выполнение простых инструкций сразу над
большим блоком данных. Это достигается выполнением одной инструкции сразу в нескольких
параллельных потоках выполнения (SIMD).
      </p>
      <p>Безусловно, подобная архитектура существенно повышает производительность в
задачах, в которых изначально можно выделить высокую степень параллелизма, частую
связанных с операциями над матрицами и векторами. К подобным задачам можно отнести,
например линейную алгебру над плотными матрицами, выравнивание последовательностей в
биоинформатике или методы машинного обучения на базе искусственных нейронных сетей.
Однако, однозначно отнести в эту группу метод молекулярной динамики не
представляется возможным, т.к. многие вычислительные приемы в МД создавались в эпоху господства
последовательных вычислений. Потому успешное применение подобной архитектуры для
расчётов методом молекулярной динамики требует существенной адаптации алгоритмов.</p>
      <p>
        Для максимального использования GPU алгоритм не только должен быть
высокопараллельным, но и кроме того, та часть алгоритма, которая выполняется на GPU, часто
называемая ядром (kernel), должна быть маленькой, насколько возможно — ядро
должно уложиться в число регистров вычислительных единиц GPU. Достичь это в реальных
алгоритмах не всегда просто [
        <xref ref-type="bibr" rid="ref17">18</xref>
        ].
Кроме того, есть особенности и с организацией работы с памятью. Достаточно быстрой
памятью можно считать лишь разделяемую память, но её размер в современных
GPUускорителях составляет порядка 16 Кбайт на вычислительную единицу. К сожалению, не
всегда удается сохранить результаты текущих вычислений в разделяемой памяти, что
особенно характерно для расчётов дальнодействующих потенциалов. Глобальная память
графического ускорителя куда больше (несколько Гбайт), но скорость доступа туда не
позволяет всем потокам исполнения работать с ней одновременно, что может приводить к
простаиваниям потоков и, как следствию, потере производительности.
      </p>
      <p>Существуют и фундаментальные проблемы обеспечения высокой степени
параллелизма для GPU расчетов МД задач. Принцип SIMD предполагает выполнение одинаковых
инструкций для группы потоков. Однако появление в алгоритме ветвлений существенно
ухудшает ситуацию. Если в группе потоков разные потоки пошли по разным ветвям
алгоритма, то дальнейшие инструкции для них будут уже различными, что нарушает принцип
SIMD. Типичным решением является выполнение обеих ветвей алгоритма, что приводит к
потерям в производительности.</p>
      <p>Ещё одной из проблем является сортировка — практически вездесущая операция, в том
числе широко применяемая и в молекулярной динамике при составлении списков соседей и
сил. В то время, как на обычных процессорах решение данной задачи является скорее
проблемой выбора алгоритма, на GPU создание быстрого и эффективного алгоритма несколько
затруднено, ввиду массивно-параллельной архитектуры графических ускорителей.</p>
      <p>
        Таким образом, достижение полной загруженности всех ядер графического ускорителя
— задача вполне нетривиальная. Такая же ситуация имеет место и в других прикладных
областях суперкомпьютерных вычислений. Несмотря на значительный прогресс в адаптации
кодов для использования GPU ускорителей, их эффективность пока не является
предметом исследований. В списке Топ-500 ноября 2014 года в верхней десятке присутствовали 3
системы с Nvidia GPU. Но в то же время в этом списке 7 самых мощных
суперкомпьютеров Германии используют только обычные процессоры и только 8-я немецкая система
(номер 77) имеет ускорители Nvidia. Эти примеры можно рассматривать как
определенную иллюстрацию объемов текущего использования GPU ускорителей (энтузиазм в США
и определенная осторожность в Европе).
3. Перспективы развития суперкомпьютеров за рубежом
Министерство энергетики США (DOE) запустило программу CORAL [
        <xref ref-type="bibr" rid="ref18">19</xref>
        ]. Эта
аббревиатура раскрывается как Collaboration трёх национальных лабораторий Oak Ridge (ORNL),
Argonne (ANL) и Livermore (LLNL). В рамках этой программы DOE объявило конкурс на
три системы преэксафлопсного класса, Summit (ORNL, 150-300 петафлопс), Aurora (ANL,
180 петафлопс), и Sierra (LLNL, 100+ петафлопс). Суперкомпьютеры должны в 2017 году
прийти на смену Titan (ORNL, 27 петафлопс), Mira (ANL, 10 петафлопс) и Sequoia (LLNL,
20 петафлопс). В экспертную группу включены также на равных представители Los Alamos
NL и Sandia NL.
      </p>
      <p>Цель программы CORAL–обеспечить удержание лидерства США в развитии
суперкомпьютеров. Уже решено, что request for proposal (RFP) выпускает LLNL. На основании
конкурса заключаются два разовых договора на инжиниринг и три контракта на покупку
суперкомпьютеров. Оба договора на инжиниринг управляются совместно тремя
лабораториями. Для уменьшения рисков и чтобы удовлетворить широкому набору требований
предусмотрен выбор двух путей разработки архитектуры суперкомпьютеров, уже
объявлено, что Summit и Sierra будут работать на процессорах IBM POWER9 и видеокартах
NVIDIA Volta, Aurora–на новом поколении сопроцессоров Intel Xeon Phi, при этом Intel
будет вести разработку совместно с Cray.</p>
      <p>На этапе подготовки решений все предложения докладываются на заседаниях Advanced
Scientific Computing Advisory Committee (ASCAC) Министерства энергетики США. В
состав ASCAC входят 9 профессоров 9 ведущих университетов США, в том числе
председатель ASCAC, и по одному представителю Microsoft, Google, LLNL, SNL и Pittsburgh
Supercomputing Center. Всего 14 человек.</p>
      <p>Представителей лабораторий-заказчиков здесь нет.</p>
      <p>Поставлены цели, которым должна удовлетворять производительность новой системы,
и перечислены тестовые приложения, по которым проверяется достижение этих целей.</p>
      <p>Для выделенного режима, т.е. когда масштабируемость под одну задачу охватывает
до 90% системы, поставлена цель добиться S &gt; 4.0 при увеличении размерности задачи:
числа атомов, узлов сетки и др., где S —- отношение производительности новой системы
к производительности текущей системы. Тестовыми приложениями выбраны:
первопринципные расчеты основного состояния (LSMS), квантовая молекулярная динамика (QBOX),
гравитационная задача N тел (HACC), термогидромеханика (Nekbone). В скобках указаны
рекомендуемые пакеты программ.</p>
      <p>Для многозадачного режима, занимающего всю систему при одновременном запуске
не менее 24 задач, цель поставлено S &gt; 6.0. Тестовыми приложениями выбраны:
квантовый метод Монте-Карло (QMCPACK), классическая молекулярная динамика (NAMD),
динамика атмосферы (CAM-SE), многосеточный солвер (AMG2013), метод конечных
элементов (MiniFE), гидродинамика ударно-волновых явлений (LULESH), перенос излучения
(неструктурированные сетки) (UMT2013), перенос излучения (структурированные сетки)
(SNAP), метод Монте-Карло (задачи переноса) (MCB).</p>
      <p>Требования по LINPACK и месту в Топ-500 вообще не фигурируют.</p>
      <p>Кроме этого, в ORNL выбрали 13 широко использующихся программных кодов из
различных областей для портирования и оптимизации приложений на новый гибридный
суперкомпьютер Summit. Разработчики получат ранний доступ к суперкомпьютеру и
техническую поддержку от IBM и NVIDIA.</p>
      <p>После определения победителей конкурса предусмотрено многолетнее сотрудничество
между лабораторией-заказчиком и компанией-победительницей с целью достижения
наивысшей производительности. Каждая из трёх лабораторий самостоятельно проводит
переговоры по заключению и управлению контрактом на покупку суперкомпьютера и может
выставлять свои специальные требования к контракту.
4. Заключение</p>
      <p>Рассмотрены примеры задач, обладающих масштабируемостью на суперкомпьютеры
экзафлопсного класса, для перспективных задач энергетики, физики, химии и других
естественных наук. Развивается подход, который позволяет определить, может ли решение той
или иной задачи загрузить единовременно сотни тысяч или даже миллионы
вычислительных ядер в одном расчете и нужно ли это. Основная идея заключается, с одной стороны,
в проверке масштабируемости алгоритмов при переходе к большему числу
вычислительных ядер, а, с другой, в теоретической оценке размеров физической системы,
рассмотрение которой требуется для решения поставленной задачи. Развиваемый подход позволяет
установить перспективу нарастания сложности задач, принадлежащих к одному
научному направлению, возможность решения которых будет открываться с прогрессом развития
суперкомпьютеров.</p>
      <p>Сегодня для удержания лидерства США в развитии суперкомпьютеров Министерство
энергетики США (DOE) запустило на 2013-2017 годы программу CORAL. Поставлены цели,
которым должна удовлетворять производительность новых систем, и перечислены тестовые
приложения, ориентированные на решение ясно определенного списка прикладных задач,
по которым проверяется достижение этих целей.</p>
      <p>Пример текущего распределения суперкомпьютеров в Германии показывает
осторожность, с которой идет создание больших гибридных систем на GPU-ускорителях в Европе.
Несмотря на активное развитие новых технологий, наибольшую эффективность для
решения задач имеют обычные процессоры.</p>
      <p>В данной ситуации отношение к развитию суперкомпьютеров в России требует
определенного переосмысления. Главным является переход к ситуации, когда заказчиками на
разработку новых суперкомпьютеров станут квалифицированные пользователи, владеющие
задачами, которые могут эти суперкомпьютеры эффективно загрузить.</p>
      <p>
        В действительности, эта весьма давняя традиция — два примера из практики IBM
прошедших десятилетий. При разработке архитектуры суперкомпьютеров IBM BlueGene/L
задачи молекулярного моделирования рассматривались в качестве главного приоритета [
        <xref ref-type="bibr" rid="ref2">2</xref>
        ].
А в 1970-ые годы Энрико Клементи, разработчик квантово-химической программы IBMOL,
публиковавший тогда десятки статей в лучших физических журналах, тестировал на своих
задачах новые модели IBM в процессе их доведения.
Литература
Perspectives of exascale computing for novel energy technologies
Vyacheslav Vecher, Nikolay Kondratyuk, Genri Norman, Nikita Orekhov, Vasiliy Pisarev,
Grigory Smirnov and Vladimir Stegailov
Keywords: energy technologies, multiscale models, molecular dynamics
The development of novel energy technologies essentially relies upon multiscale modelling
and simulation which success crucially depends on the progress in supercomputing. In this
talk we review several vivid examples of the problems that we solve using atomistic and
multiscale models and the best supercomputers in Russia: properties gas hydrates and gas
condensate, rheology of organic liquids and development of polymer materials. The wider
context is presented as well with the corresponding examples from the DOE INCITE
program. On the basis of the case studies considered we discuss the issues of hardware
efficiency, software scalability, input-output problems and data processing.
      </p>
    </sec>
  </body>
  <back>
    <ref-list>
      <ref id="ref1">
        <mixed-citation>
          1.
          <string-name>
            <surname>Sadovnichy</surname>
            <given-names>V.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Tikhonravov</surname>
            <given-names>A.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Voevodin</surname>
            <given-names>V.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Opanasenko</surname>
            <given-names>V.</given-names>
          </string-name>
          “Lomonosov”: supercomputing at Moscow State University // Contemporary High Performance Computing:
          <article-title>From Petascale toward Exascale: Vetter J</article-title>
          .S. Ed. CRC Press: Boca Raton, FL,
          <year>2013</year>
          . C.
          <volume>283</volume>
          -
          <fpage>307</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref2">
        <mixed-citation>
          2.
          <source>IBM Journal of Research and Development</source>
          ,
          <year>2005</year>
          : URL: http://www.research.ibm.com/journal/rd49-
          <fpage>23</fpage>
          .html (дата обращения:
          <volume>14</volume>
          .
          <fpage>06</fpage>
          .
          <year>2015</year>
          ).
        </mixed-citation>
      </ref>
      <ref id="ref3">
        <mixed-citation>
          3. INCITE program: URL: http://www.doeleadershipcomputing.org/ (дата обращения:
          <volume>14</volume>
          .
          <fpage>06</fpage>
          .
          <year>2015</year>
          ).
        </mixed-citation>
      </ref>
      <ref id="ref4">
        <mixed-citation>
          4.
          <string-name>
            <surname>Стегайлов</surname>
            <given-names>В.В.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Норман</surname>
            <given-names>Г</given-names>
          </string-name>
          .Э.
          <article-title>Проблемы развития суперкомпьютерной отрасли в России: взгляд пользователя высокопроизводительных систем // Программные системы: теория и приложения: электрон</article-title>
          . научн. журн.
          <year>2014</year>
          . Т. 5, N.
          <volume>1</volume>
          (
          <issue>19</issue>
          ). С.
          <volume>111</volume>
          -
          <fpage>152</fpage>
          . URL: http://psta.psiras.ru/read/psta2014_1_
          <fpage>111</fpage>
          -
          <lpage>152</lpage>
          .pdf (дата обращения:
          <volume>14</volume>
          .
          <fpage>06</fpage>
          .
          <year>2015</year>
          ).
        </mixed-citation>
      </ref>
      <ref id="ref5">
        <mixed-citation>
          5.
          <string-name>
            <surname>Норман</surname>
            <given-names>Г.Э.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Стегайлов</surname>
            <given-names>В</given-names>
          </string-name>
          .В.
          <article-title>Стохастическая теория метода классической молекулярной динамики // Математическое моделирование</article-title>
          .
          <year>2012</year>
          . Т. 24,
          <string-name>
            <surname>N.</surname>
          </string-name>
          <year>6</year>
          . С. 3-
          <fpage>44</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref6">
        <mixed-citation>
          7.
          <string-name>
            <surname>Жиляев</surname>
            <given-names>П.А.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Стегайлов</surname>
            <given-names>В</given-names>
          </string-name>
          .В.
          <article-title>Ab initio молекулярная динамика: перспективы использования многопроцессорных и гибридных суперЭВМ // Вычислительные методы и программирование</article-title>
          .
          <year>2012</year>
          . Т. 13, С.
          <fpage>37</fpage>
          -
          <lpage>45</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref7">
        <mixed-citation>
          8.
          <string-name>
            <surname>Eckhardt</surname>
            <given-names>W.</given-names>
          </string-name>
          et al.
          <article-title>591 TFLOPS multi-trillion particles simulation on SuperMUC // Supercomputing</article-title>
          . Vol.
          <volume>7905</volume>
          , Springer Berlin Heidelberg,
          <year>2013</year>
          . P. 1-
          <fpage>12</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref8">
        <mixed-citation>
          9.
          <string-name>
            <surname>Куксин</surname>
            <given-names>А.Ю.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Ланкин</surname>
            <given-names>А</given-names>
          </string-name>
          .В.,
          <string-name>
            <surname>Морозов</surname>
            <given-names>И</given-names>
          </string-name>
          .В.,
          <string-name>
            <surname>Норман</surname>
            <given-names>Г</given-names>
          </string-name>
          .Э.,
          <string-name>
            <surname>Орехов</surname>
            <given-names>Н</given-names>
          </string-name>
          .Д.,
          <string-name>
            <surname>Писарев</surname>
            <given-names>В</given-names>
          </string-name>
          .В.,
          <string-name>
            <surname>Смирнов</surname>
            <given-names>Г</given-names>
          </string-name>
          .С.,
          <string-name>
            <surname>Стариков</surname>
            <given-names>С</given-names>
          </string-name>
          .В.,
          <string-name>
            <surname>Стегайлов</surname>
            <given-names>В</given-names>
          </string-name>
          .В.,
          <string-name>
            <surname>Тимофеев</surname>
            <given-names>А.В.</given-names>
          </string-name>
          <article-title>ЗАЧЕМ и КАКИЕ нужны суперкомпьютеры эксафлопсного класса? Предсказательное моделирование свойств и многомас штабных процессов в материаловедении // Программные системы: теория и приложения: электрон</article-title>
          . научн. журн.
          <year>2014</year>
          . Т. 5, N.
          <volume>1</volume>
          (
          <issue>19</issue>
          ). С.
          <volume>191</volume>
          -
          <fpage>244</fpage>
          . URL: http://psta.psiras.ru/read/psta2014_1_
          <fpage>191</fpage>
          -
          <lpage>244</lpage>
          .pdf (дата обращения:
          <volume>14</volume>
          .
          <fpage>06</fpage>
          .
          <year>2015</year>
          ).
        </mixed-citation>
      </ref>
      <ref id="ref9">
        <mixed-citation>
          10.
          <string-name>
            <surname>Подрыга</surname>
            <given-names>В.О.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Поляков</surname>
            <given-names>С</given-names>
          </string-name>
          .В.,
          <string-name>
            <surname>Пузырьков</surname>
            <given-names>Д</given-names>
          </string-name>
          .В.
          <article-title>Суперкомпьютерное молекулярное моделирование термодинамического равновесия в микросистемах газ-металл // Вычислительные методы и программирование</article-title>
          .
          <year>2015</year>
          . Т. 16,
          <string-name>
            <surname>N.</surname>
          </string-name>
          <year>1</year>
          . С.
          <volume>123</volume>
          -
          <fpage>138</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref10">
        <mixed-citation>
          11.
          <string-name>
            <surname>Smirnov</surname>
            <given-names>G.S.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Stegailov</surname>
            <given-names>V.V.</given-names>
          </string-name>
          <article-title>Melting and superheating of sI methane hydrate</article-title>
          : Molecular dynamics study // Journal of Chemical Physics.
          <year>2012</year>
          . V. 136, N. 4,
          <string-name>
            <surname>P.</surname>
          </string-name>
          <year>044523</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref11">
        <mixed-citation>
          12.
          <string-name>
            <surname>Smirnov</surname>
            <given-names>G.S.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Stegailov</surname>
            <given-names>V.V.</given-names>
          </string-name>
          <string-name>
            <surname>Toward</surname>
          </string-name>
          <article-title>Determination of the New Hydrogen Hydrate Clathrate Structures /</article-title>
          / Journal of Physical Chemistry Letters.
          <year>2013</year>
          . V. 4,
          <string-name>
            <surname>P.</surname>
          </string-name>
          3560-
          <fpage>3564</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref12">
        <mixed-citation>
          13.
          <string-name>
            <surname>Bai</surname>
            <given-names>P.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Tsapatsis</surname>
            <given-names>M.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Siepmann</surname>
            <given-names>J.I.</given-names>
          </string-name>
          <article-title>TraPPE-zeo: Transferable potentials for phase equilibria force field for all-silica zeolites // J.</article-title>
          <string-name>
            <surname>Phys. Chem. C.</surname>
          </string-name>
          <year>2013</year>
          . V. 117, P.
          <fpage>24375</fpage>
          -
          <lpage>24387</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref13">
        <mixed-citation>
          14.
          <string-name>
            <surname>Chen</surname>
            <given-names>B.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Siepmann</surname>
            <given-names>J.I.</given-names>
          </string-name>
          <article-title>Transferable potentials for phase equilibria. 3. Explicit-hydrogen description of normal alkanes // J</article-title>
          . Phys.
          <string-name>
            <surname>Chem</surname>
            .
            <given-names>B.</given-names>
          </string-name>
          <year>1999</year>
          . V. 103, P.
          <fpage>5370</fpage>
          -
          <lpage>5379</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref14">
        <mixed-citation>
          15.
          <string-name>
            <surname>Yoshioka</surname>
            <given-names>T.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Tanaka</surname>
            <given-names>J.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Tusru</surname>
            <given-names>T.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Asaeda</surname>
            <given-names>M. Transport</given-names>
          </string-name>
          <article-title>Properties of Condensable and Non-condensable Gas Mixtures through Microporous Silica Membranes Studied with Molecular Dynamics Simulation // Asian Pacific Confederation of Chemical Engineering congress program and abstracts</article-title>
          .
          <year>2004</year>
          . P.
          <volume>741</volume>
          .
        </mixed-citation>
      </ref>
      <ref id="ref15">
        <mixed-citation>
          16.
          <string-name>
            <surname>Frankland</surname>
            <given-names>S.J.V</given-names>
          </string-name>
          et al.
          <article-title>The stress-strain behavior of polymer-nanotube composites from molecular dynamics simulation // Compos</article-title>
          . Sci.
          <source>Technol</source>
          .
          <year>2003</year>
          . V. 63, N. 11, P.
          <fpage>1655</fpage>
          -
          <lpage>1661</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref16">
        <mixed-citation>
          17.
          <string-name>
            <surname>Gavrilov</surname>
            <given-names>A. A.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Chertovich</surname>
            <given-names>A. V.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Khalatur</surname>
            <given-names>P. G.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Khokhlov</surname>
            <given-names>A. R.</given-names>
          </string-name>
          <article-title>Efect of nanotube size on the mechanical properties of elastomeric composites</article-title>
          // Soft Matter.
          <year>2013</year>
          . V. 9,
          <string-name>
            <surname>N.</surname>
          </string-name>
          <year>15</year>
          . P.
          <volume>4067</volume>
          .
        </mixed-citation>
      </ref>
      <ref id="ref17">
        <mixed-citation>
          18.
          <string-name>
            <surname>Morozov</surname>
            <given-names>I.V.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Kazennov</surname>
            <given-names>A.M.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Bystryi</surname>
            <given-names>R.G.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Norman</surname>
            <given-names>G.E.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Pisarev</surname>
            <given-names>V.V.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Stegailov</surname>
            <given-names>V.V.</given-names>
          </string-name>
          <article-title>Molecular dynamics simulations of the relaxation processes in the condensed matter</article-title>
          on GPUs // Computer Physics Communications.
          <year>2011</year>
          . V. 182,
          <string-name>
            <surname>P.</surname>
          </string-name>
          <year>1974</year>
          -
          <fpage>1978</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref18">
        <mixed-citation>
          19. Collaboration of Oak Ridge, Argonne, and
          <string-name>
            <surname>Livermore</surname>
          </string-name>
          (CORAL): URL: http://energy.gov/downloads/fact-sheet
          <article-title>-collaboration-oak-ridge-argonne-andlivermore-coral (дата обращения</article-title>
          :
          <volume>14</volume>
          .
          <fpage>06</fpage>
          .
          <year>2015</year>
          ).
        </mixed-citation>
      </ref>
    </ref-list>
  </back>
</article>