<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Archiving and Interchange DTD v1.0 20120330//EN" "JATS-archivearticle1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta />
    <article-meta>
      <title-group>
        <article-title>Научно-исследовательский вычислительный центр МГУ имени М.В. Ломоносова</article-title>
      </title-group>
      <pub-date>
        <year>2015</year>
      </pub-date>
      <fpage>528</fpage>
      <lpage>535</lpage>
      <abstract>
        <p>В работе изучается возможность эффективной программной реализации отдельных компонент модели общей циркуляции атмосферы на современных массивно-параллельных вычислительных архитектурах. Основное внимание уделяется методам решения эллиптических уравнений, возникающих при использовании полунеявных схем аппроксимации уравнений гидротермодинамики по времени. Результаты представлены для вычислительных архитектур на основе процессоров Intel Xeon Phi и графических процессоров Nvidia.</p>
      </abstract>
    </article-meta>
  </front>
  <body>
    <sec id="sec-1">
      <title>-</title>
      <p>
        Эффективность реализации итерационных методов решения
эллиптических уравнений в моделях общей циркуляции
атмосферы на массивно-параллельных вычислительных
системах*
время счета до 80 раз за счет высокой оптимизации операций на сопроцессорах. Реализация
динамической части гидростатической модели HILRAM (High Resolution Limited Area Model)
на сопроцессорах для ускорения вычислений до 55 раз (относительно одного ядра
центрального процессора) [
        <xref ref-type="bibr" rid="ref15">19</xref>
        ] потребовала разработки специализированных алгоритмов
перекрытия вычислений с пересылкой данных между центральным процессором и
графическим устройством. Высокая производительность в приведенных работах достигается за
счет трудоемкой оптимизации – применение автоматических подходов к генерации
программного кода, исполняемого на графических процессорах, снижает быстродействие
алгоритмов в несколько раз [
        <xref ref-type="bibr" rid="ref6">10</xref>
        ].
      </p>
      <p>
        Основной задачей на сегодняшний день применительно к климатическим исследованиями
представляется разработка алгоритмов, обладающих высокой масштабируемостью на
вычислительных кластерах, состоящих из сопроцессоров. В частности, несмотря на высокую
производительность расчетов на одной видеокарте, программная реализация, предложенная в
статье [
        <xref ref-type="bibr" rid="ref15">19</xref>
        ] масштабируется на 4 процессорах с ускорением в 2.7 раза при достаточно большой
размерности вычислительной сетки (более чем 6×107 узлов).
      </p>
      <p>
        В настоящей работе эффективность переноса вычислений на архитектуру сопроцессоров
рассматривается на основе компонентов модели обшей циркуляции атмосферы Института
вычислительной математики РАН [2]. Модель атмосферы основана на решении системы
нелинейных уравнений гидротермодинамики на сфере с использованием  -координаты. Для
численной аппроксимации рассматривается дискретизация уравнений по горизонтали на
сдвинутой С-сетки [
        <xref ref-type="bibr" rid="ref2">6</xref>
        ], регулярной по долготе и широте. Разностная схема имеет второй
порядок точности, а для интегрирования по времени используется полунеявный метод,
основанный на выделении линейных членов, связанных с распространением гравитационных
волн. Применение полунеявного подхода позволяет значительно ослабить ограничение на шаг
по времени по сравнению с явной схемой, однако приводит к необходимости решения
эллиптического уравнения на каждом шаге по времени. Численный метод нахождения решения
данного уравнения является наиболее трудоемким компонентом расчета динамики атмосферы
и, как правило, ограничивает масштабируемость модели на параллельных вычислительных
системах [5].
2. Численный метод решения эллиптического уравнения в модели
общей циркуляции атмосферы
Система уравнений для основных переменных (скорости, температуры и давления) в
модели атмосферы можно свести к эллиптическому уравнению следующего вида:
1 2  1 
2 ttd  t  Bh 
      </p>
      <p> 2 ttd   RHS,
где  tt (t)  (t  t)  2 (t)  (t  t) , t - шаг по времени, h - дискретный оператор
Лапласа, d - горизонтальная дивергенция, B - матрица, полученная при объединении
исходных уравнений, RHS - правая часть уравнения, учитывающая явные динамические
тенденции. Трехмерное уравнение (1) с помощью метода разделения переменных и
определения матрицы преобразования S преобразуется к набору двумерных уравнений схожих
с уравнением Гельмгольца на каждом модельном уровне m  1, NL :
2hu  cu  g , c </p>
      <p>1
t 2 m</p>
      <p>
         0 ,
1
где u  u( , )  2 ttd , g  g( , )  cS 1(RHS)S и m - собственные значения матрицы
B . Предобусловленный метод сопряженных градиентов применяется для решения системы (2).
В качестве предобусловливателя предлагается использовать геометрический многосеточный
метод с так называемым V-циклом. Для сглаживания высокочастотной компоненты ошибки
приближения на исходной и огрубленных сетках используется симметричный метод
ГауссаЗейделя для красно-черного упорядочивания узлов сетки. Основной проблемой изложенного
подхода для рассматриваемой задачи (2) является сильная анизотропия вычислительной сетки
вблизи полюсов и усиление данного эффекта при переходе к огрубленной как по долготе, так и
по широте сетке [
        <xref ref-type="bibr" rid="ref14">18</xref>
        ]. В настоящей реализации многосеточного метода используется
следующий подход [
        <xref ref-type="bibr" rid="ref4">8</xref>
        ] к построению последовательности сеток – увеличение шага вдоль
кругов широты в сочетании с условным огрублением вдоль меридианов вблизи экватора.
Ширина огрубления вдоль меридианов при этом увеличивается при переходе на наиболее
грубые сетки и оценивается по величине внедиагональных элементов матрицы. Процедура
построения последовательности сеток в этом случае усложняется. Тем не менее поскольку
сетка фиксирована то дополнительные вычислительные затраты приходятся только на этап
инициализации расчетов. В данном случае оправдано применение точечного симметричного
метода Гаусса-Зейделя при красно-черном упорядочивании узлов сетки. Данный подход
представляется наиболее эффективным для реализации на параллельных архитектурах, в
отличие от альтернативы «разрешения» анизотропии в многосеточном методе при
дискретизации на сфере – применения линейных итерационных методов, предполагающих
обращение трехдиагональных систем [
        <xref ref-type="bibr" rid="ref14">18</xref>
        ].
      </p>
      <p>Для повышения масштабируемости численного метода системы (2) решаются совместно
для всех уровней предобусловленным методом сопряженных градиентов. При этом по
достижении сходимости на некотором уровне он исключается из расчета. В ходе работы
алгоритма последовательно исключаются нижние уровни за счет монотонного уменьшения
диагональных коэффициентов (и, как следствие, увеличения числа итераций). В итоге алгоритм
сводится к выполнению операций для «двумерных» данных только на самом верхнем уровне.
Данная методика позволяет объединить малые, как правило, неэффективные обмены данных
между параллельными процессами для всех задействованных на текущем этапе уровней, а
вместе с тем уменьшить накладные расходы, связанные с инициализацией большого числа
коротких сообщений. Более того, алгоритм позволяет объединить и коллективные операции
взаимодействия для расчета скалярных произведений. Предложенный подход позволяет
значительно повысить масштабируемость на параллельных архитектурах и сохраняет
арифметическую сложность алгоритма.</p>
      <p>
        Дальнейшая модификация многосеточного метода состоит в разделении уровней по блокам
в каждом из которых вычисления объединяются по вертикали. Ускорение сходимости
итерационных методов на верхних уровнях приводит к тому, что сохранение фиксированной
длины последовательности вложенных сеток для всех уровней в многосеточном методе
является избыточным. Разделение вычислений на независимые блоки и последовательное
уменьшение числа грубых сеток по вертикали позволяет использовать указанное свойство для
уменьшения общего времени счета и числа обменов данными между параллельными
процессами. Размерность блоков можно оценить по величине диагональных компонент, что
обеспечивает близость числа итераций достаточных для сходимости.
3. Программная реализация итерационного метода на
массивнопараллельных вычислительных системах
Программная реализация на графических картах предполагает наличие двух уровней
параллелизма в программе: распределение данных между отдельными графическими
процессорами и внутренний параллелизм отдельных устройств. Библиотека MPI используется
для организации обменов данными между устройствами, а для организации вычислений на
графических процессорах применяется технология программирования CUDA [
        <xref ref-type="bibr" rid="ref1">1</xref>
        ].
      </p>
      <p>На каждом шаге интегрирования по времени правая часть системы, расположенная в
памяти центрального процессора, группируется и копируются в память графического
устройства. Итерационный метод, реализованный на графической карте, используется для
нахождения решения эллиптического уравнения. По достижении сходимости итерационного
метода вектор решения, расположенный в памяти сопроцессора, копируется в основную память
центрального процессора для продолжения расчета основной динамики. Блочная структура по
вертикали итерационного метода позволяет выполнять дополнительные медленные обмены
данными между центральным процессором и графической картой асинхронно с расчетами.</p>
      <p>Для оценки эффективности реализации итерационного метода на графических процессорах
были проведены вычислительные эксперименты на системе Суперкомпьютерного центра МГУ
«Ломоносов». На рисунке 1 приведено ускорение расчета на графической карте относительно
четырех ядер центрального процессора при горизонтальном разрешении в 1 градус и 128
уровнях при изменении размерности вертикальных блоков.
Рис. 1. Ускорение итерационного метода решения эллиптического уравнения на графическом процессоре
относительно 4-х ядер центрального процессора.
Рис. 2. Масштабируемость реализации итерационного метода на графических процессорах.
Полученные оценки свидетельствуют о том, что для итерационного метода решения
эллиптического уравнения, выполнение вычислений на архитектуре графических процессоров
позволяет ускорить расчеты. За счет разделения переменных, и, как следствие, независимости
систем уравнений на различных вертикальных уровнях удается перекрыть дополнительные
«медленные» операции пересылки данных между центральным процессором и сопроцессором с
нахождением решения дискретного двумерного эллиптического уравнения. Вместе с тем
приведенная масштабируемость алгоритма представляется недостаточной и требует
дальнейшей оптимизации обменов между сопроцессорами и их перекрытия с вычислениями.</p>
      <p>
        В качестве архитектуры на основе процессоров Intel Xeon Phi, рассматривалась
вычислительная система МВС-10П МП на базе модулей RSC Petastream. Программная
реализация итерационного метода использует библиотеку MPI для организации обменов
данными между устройствами и технологию OpenMP для распределения вычислений между
ядрами (нитями) одной карты. К достоинствам вычислительной архитектуры можно отнести то,
что реализация обменов данными между устройствами не требует «явного» копирования
данных, а скорость передачи сообщений сопоставима с традиционной архитектурой [
        <xref ref-type="bibr" rid="ref11">15</xref>
        ].
Однако эффективное выполнение вычислений на Intel Xeon Phi требует тщательной
оптимизации, и в частности возможности задействовать до 244 нитей одного устройства. На
рисунке 3 показана масштабируемость многосеточного метода по числу ядер (4 нити на каждое
ядро) одного процессора Intel Xeon Phi при различной размерности сетки. Для достижения
производительности сопоставимой с 2-мя процессорами Intel Xeon E5-2690 размерность задачи
на одной карте Intel Xeon Phi 7120D должна превышать 106 узлов.
Рис. 3. Масштабируемость реализации итерационного метода на процессоре Intel Xeon Phi 7120D.
4. Заключение
      </p>
      <p>
        В работе рассмотрена реализация итерационного метода решения эллиптического
уравнения, возникающего за счет применения полунеявных схем аппроксимации уравнений
термогидродинамики по времени в моделях общей циркуляции атмосферы, на
массивнопараллельных вычислительных системах. Полученные оценки показывают, что для задач
относительно большой пространственной размерности перенос вычислений на архитектуру
ускорителей является предпочтительным и позволяет уменьшить время расчета. Решение
климатических задач даже при высоком горизонтальном разрешении до 0.25 градуса, где время
интегрирования системы по времени и масштабируемость модели являются основными
параметрами, требует дальнейшей модификации численных методов и алгоритмов.
Необходима разработка итерационных методов, в большей степени учитывающих особенности
архитектуры массивно-параллельных систем и обеспечивающих оптимальную
вычислительную сложность [
        <xref ref-type="bibr" rid="ref16 ref8">12, 20</xref>
        ]. Эффективное использование возможностей как
графических карт, так и процессоров Intel Xeon Phi предполагает реализацию всех элементов
модели атмосферы на данных устройствах. В этой связи более предпочтительными
представляются перспективные системы, использующие многоядерную архитектуру на основе
процессоров Intel Xeon Phi в качестве базового вычислительного элемента.
Литература
3. Кулямин Д.В., Володин Е.М., Дымников В.П. Моделирование квазидвухлетних колебаний
зонального ветра в экваториальной стратосфере // Известия РАН. Физика атмосферы и
океана. 2009. № 1. С. 43-61.
4. Мортиков Е.В. Применение графических процессоров для численного моделирования
течения вязкой несжимаемой жидкости в областях сложной конфигурации методом
погруженной границы // Вычислительные методы и программирование. 2012. Т. 13, № 1. С.
177-191.
The efficiency of the implementation of iterative methods for the
solution of elliptic equations in atmospheric general circulation
models on massively parallel systems
Evgeny Mortikov
Keywords: atmospheric general circulation model, massively parallel systems, Intel Xeon
Phi, Nvidia GPU
In this paper we study the possibility of the efficient implementation of atmospheric general
circulation model and its particular components on modern massively parallel architectures.
Main emphasis is placed on methods for solving elliptic equations, arising from applying
semi-implicit in time approximations in thermo-hydrodynamic equations. Results are
presented for computational architectures based on Intel Xeon Phi processors, as well as
Nvidia graphic cards.
      </p>
    </sec>
  </body>
  <back>
    <ref-list>
      <ref id="ref1">
        <mixed-citation>
          1.
          <string-name>
            <surname>Боресков</surname>
            <given-names>А.В.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Харламов</surname>
            <given-names>А</given-names>
          </string-name>
          .А.,
          <string-name>
            <surname>Марковский</surname>
            <given-names>Н</given-names>
          </string-name>
          .Д.,
          <string-name>
            <surname>Микушин</surname>
            <given-names>Д</given-names>
          </string-name>
          .Н.,
          <string-name>
            <surname>Мортиков</surname>
            <given-names>Е</given-names>
          </string-name>
          .В.,
          <string-name>
            <surname>Мыльцев</surname>
            <given-names>А</given-names>
          </string-name>
          .А.,
          <string-name>
            <surname>Сахарных</surname>
            <given-names>Н</given-names>
          </string-name>
          .А.,
          <string-name>
            <surname>Фролов</surname>
            <given-names>В</given-names>
          </string-name>
          .А.
          <article-title>Параллельные вычисления на GPU</article-title>
          .
          <article-title>Архитектура и программная модель CUDA: учебное пособие</article-title>
          .
          <source>М.: Изд-во Московского университета</source>
          ,
          <year>2012</year>
          . 336 C.
        </mixed-citation>
      </ref>
      <ref id="ref2">
        <mixed-citation>
          6.
          <string-name>
            <surname>Arakawa</surname>
            <given-names>A.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Lamb</surname>
            <given-names>V.R.</given-names>
          </string-name>
          <article-title>Computational design of the basic dynamical processes of the UCLA general circulation model // Methods Comput</article-title>
          .
          <source>Phys</source>
          .
          <year>1977</year>
          . V. 17. P.
          <volume>173</volume>
          -
          <fpage>265</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref3">
        <mixed-citation>
          7.
          <string-name>
            <surname>Bleichrodt</surname>
            <given-names>F.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Bisseling</surname>
            <given-names>R.H.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Dijkstra</surname>
            <given-names>H.A.</given-names>
          </string-name>
          <string-name>
            <surname>Accelerating</surname>
          </string-name>
          <article-title>a barotropic ocean model using a GPU // Ocean Modelling</article-title>
          .
          <year>2012</year>
          . V. 41. P.
          <volume>16</volume>
          -
          <fpage>21</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref4">
        <mixed-citation>
          8.
          <string-name>
            <surname>Buckeridge</surname>
            <given-names>S.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Scheichl</surname>
            <given-names>R</given-names>
          </string-name>
          .
          <article-title>Parallel geometric multigrid for global weather prediction // Numerical Linear Algebra with Applications</article-title>
          .
          <year>2010</year>
          . V. 17. P.
          <volume>325</volume>
          -
          <fpage>342</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref5">
        <mixed-citation>
          9.
          <string-name>
            <surname>Demory M.-E.</surname>
          </string-name>
          ,
          <string-name>
            <surname>Vidale</surname>
            <given-names>P.L.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Roberts</surname>
            <given-names>M.J.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Berrisford</surname>
            <given-names>P.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Strachan</surname>
            <given-names>J.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Schiemann</surname>
            <given-names>R.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Mizielinski</surname>
            <given-names>M.S.</given-names>
          </string-name>
          <article-title>The role of horizontal resolution in simulating drivers of the global hydrological cycle // Clim</article-title>
          . Dyn.
          <year>2014</year>
          . V. 42. P.
          <volume>2201</volume>
          -
          <fpage>2225</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref6">
        <mixed-citation>
          10.
          <string-name>
            <surname>Govett</surname>
            <given-names>M. Using</given-names>
          </string-name>
          <article-title>GPUs for weather and climate models</article-title>
          .
          <source>Earth System Prediction Capability (ESPC) Workshop</source>
          , New Orleans, USA.
          <year>2010</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref7">
        <mixed-citation>
          11.
          <string-name>
            <surname>Kelly</surname>
            <given-names>R.</given-names>
          </string-name>
          <article-title>GPU computing for atmospheric modeling // Comp</article-title>
          . Sci.
          <source>Eng</source>
          .
          <year>2010</year>
          . V. 12, N 4. P.
          <volume>26</volume>
          -
          <fpage>33</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref8">
        <mixed-citation>
          12.
          <string-name>
            <surname>Li</surname>
            <given-names>R.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Saad</surname>
            <given-names>Y.</given-names>
          </string-name>
          <article-title>GPU-accelerated preconditioned iterative linear solvers //</article-title>
          <source>Journal of Supercomputing</source>
          .
          <year>2013</year>
          . V. 63, N 2. P.
          <volume>443</volume>
          -
          <fpage>466</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref9">
        <mixed-citation>
          13.
          <string-name>
            <surname>Michalakes</surname>
            <given-names>J.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Vachharajani</surname>
            <given-names>M.</given-names>
          </string-name>
          <article-title>GPU acceleration of numerical weather prediction //</article-title>
          <source>Parallel Processing Letters</source>
          .
          <year>2008</year>
          . V. 18, N 4. P.
          <volume>531</volume>
          -
          <fpage>548</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref10">
        <mixed-citation>
          14.
          <string-name>
            <surname>Roberts</surname>
            <given-names>M.J.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Clayton</surname>
            <given-names>A.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Demory M.-E</surname>
          </string-name>
          . et al. J.
          <article-title>Impact of resolution on the Tropical Pacific Circulation in a matrix of coupled modes /</article-title>
          / J. Climate.
          <year>2009</year>
          . V. 22. P.
          <volume>2541</volume>
          -
          <fpage>2556</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref11">
        <mixed-citation>
          15.
          <string-name>
            <surname>Semin</surname>
            <given-names>A.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Druzhinin</surname>
            <given-names>E.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Mironov</surname>
            <given-names>V.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Shmelev</surname>
            <given-names>A.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Moskovsky</surname>
            <given-names>A.</given-names>
          </string-name>
          <article-title>The performance characterization of the RSC PetaStream Module // Proc. of the 29th Supercomputing Int</article-title>
          . Conf.,
          <string-name>
            <surname>ISC</surname>
          </string-name>
          <year>2014</year>
          .
          <year>2014</year>
          . P.
          <volume>420</volume>
          -
          <fpage>429</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref12">
        <mixed-citation>
          16.
          <string-name>
            <surname>Shimokawabe</surname>
            <given-names>T.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Aoki</surname>
            <given-names>T.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Ishida</surname>
            <given-names>J</given-names>
          </string-name>
          .
          <article-title>GPU acceleration of meso-scale atmospheric model</article-title>
          <source>ASUCA // Proc. of the 9th World Congress on Comp. Mech. and 4th Asian Pacific Congress on Comp. Mech. (WCCM/APCOM</source>
          <year>2010</year>
          ).
          <year>2010</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref13">
        <mixed-citation>
          17.
          <string-name>
            <surname>Thibault</surname>
            <given-names>J.C.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Senocak</surname>
            <given-names>I.</given-names>
          </string-name>
          <article-title>CUDA implementation of a Navier-Stokes Solver on multi-GPU desktop platforms for incompressible flows</article-title>
          .
          <source>In: 47th AIAA Aerospace Sciences Meeting</source>
          ,
          <year>2009</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref14">
        <mixed-citation>
          18.
          <string-name>
            <surname>Trottenberg</surname>
            <given-names>U.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Oosterlee</surname>
            <given-names>C.W.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Schüller</surname>
            <given-names>A.</given-names>
          </string-name>
          <string-name>
            <surname>Multigrid</surname>
          </string-name>
          . London: Academic Press,
          <year>2001</year>
          . 631 P.
        </mixed-citation>
      </ref>
      <ref id="ref15">
        <mixed-citation>
          19.
          <string-name>
            <surname>Vu</surname>
            <given-names>V.T.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Cats</surname>
            <given-names>G.</given-names>
          </string-name>
          , Wolters L.
          <article-title>Graphics processing unit optimizations for the dynamics of the HIRLAM weather forecast model // Concurrency and Computation: Practice and</article-title>
          <string-name>
            <surname>Experience.</surname>
          </string-name>
          <year>2013</year>
          . V. 25, N 10. P.
          <volume>1376</volume>
          -
          <fpage>1393</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref16">
        <mixed-citation>
          20.
          <string-name>
            <surname>Yang</surname>
            <given-names>X.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Mittal</surname>
            <given-names>R</given-names>
          </string-name>
          .
          <article-title>Acceleration of the Jacobi iterative method by factors exceeding 100 using scheduled</article-title>
          relaxation // J. Comp. Phys.
          <year>2014</year>
          . V. 274. P.
          <volume>695</volume>
          -
          <fpage>708</fpage>
          .
        </mixed-citation>
      </ref>
    </ref-list>
  </back>
</article>