<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Archiving and Interchange DTD v1.0 20120330//EN" "JATS-archivearticle1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta />
    <article-meta>
      <title-group>
        <article-title>TOWARD FRAMEWORK FOR DEVELOPMENT OF SPREADSHEET DATA EXTRACTION SYSTEMS</article-title>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <string-name>Alexey O. Shigarov</string-name>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Vasiliy V. Khristyuk (</string-name>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Viacheslav V. Paramonov</string-name>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Alexandr Yu. Yurin</string-name>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Nikita O. Dorodnykh</string-name>
        </contrib>
        <aff id="aff0">
          <label>0</label>
          <institution>Irkutsk national research technical university</institution>
          ,
          <addr-line>Irkutsk</addr-line>
          ,
          <country country="RU">Russia</country>
        </aff>
      </contrib-group>
      <pub-date>
        <year>2016</year>
      </pub-date>
      <volume>518</volume>
      <fpage>131</fpage>
      <lpage>140</lpage>
      <abstract>
        <p>The paper presents a problem formulation for the development of a theoretical and software framework for creating systems of data extraction from arbitrary spreadsheet tables. The problem covers the tasks of the automatic recovering semantic markup of tables, conceptualization of their natural-language content, data cleaning and lineage, generating relational and linked data, as well as a synthesis of tabular data transformation systems based on table analysis and interpretation rules. We consider the state of the art methods and discuss some perspective techniques for the development of a consistent solution to this problem.</p>
      </abstract>
      <kwd-group>
        <kwd>information extraction</kwd>
        <kwd>data integration</kwd>
        <kwd>unstructured data management</kwd>
        <kwd>rule-based programming</kwd>
      </kwd-group>
    </article-meta>
  </front>
  <body>
    <sec id="sec-1">
      <title>-</title>
      <p>Введение. Произвольные таблицы являются распространённым способом
представления информации. Они повсеместно используются в документах и веб-пространстве в
форматах HTML, PDF, EXCEL, CSV. Современные оценки, сделанные на основе изучения
экспериментальных срезов содержания Веба (COMMONCRAWL и CLUEWEB), показывают, что
их количество исчисляется сотнями миллионов (WEB TABLE CORPORA, DRESDEN WEB
TABLE CORPUS). Предположительно они содержат сотни миллиардов фактов. Такие
таблицы характеризуются большим разнообразием и разнородностью компоновок, стилей и
содержания, а также высокой скоростью роста их объема.</p>
      <p>Большой объем и свойства структуры таких таблиц делают их ценным источником в
приложениях науки о данных и бизнес аналитики. Однако, как правило, они не
сопровождаются явной семантикой необходимой для машинной интерпретации своего содержания так,
как задумано их автором. Накапливаемая в них информация часто является
неструктурированной и не стандартизированной. Анализ этих данных нуждается в их предварительном
извлечении и трансформации к структурированному представлению с заданной формальной
моделью.</p>
      <p>Сегодня, сталкиваясь с перечисленными задачами, исследователи и разработчики
прибегают к инструментальным средствам общего назначения, часто предлагая собственные
реализации однотипных задач. В сравнении с последними, специализированные
инструментальные средства могут позволить сократить время разработки целевого программного
обеспечения, скрывая несущественные детали и фокусируясь на обозначенной проблемной
области. Это особенно важно в тех случаях, когда необходимо в короткие сроки и при недостатке
ресурсов разработать заказное или исследовательское программное обеспечение для
массовой обработки слабоструктурированных данных из разнотипных произвольных таблиц.</p>
      <p>Проблема управления и интеграции неструктурированной информации включает
вопросы извлечения данных из таблиц произвольной формы, представленных в веб-страницах,
текстовых и табличных документах. Извлечения табличных данных состоит в
восстановлении недостающих структурных и содержательных метаданных (семантики) произвольной
таблицы. Как правило произвольная электронная таблица не включает метаданные,
описывающие ее структуру и содержание. Неизвестно то, какие роли играют её ячейки (например,
содержат ли они данные или атрибуты), как они связаны между собой (например, какие
заголовки адресуют значение данных), какими предметными понятиями (категориями)
описывается её содержание. Решение обозначенных вопросов позволяет перейти от произвольной
(слабоструктурированной) формы таблиц к некоторому структурированному представлению
данных (например, реляционной базе данных).</p>
      <p>Научная значимость решения этой проблемы определяется расширением знаний о
природе произвольных электронных таблиц и процессах их преобразования в
структурированную форму. Решение проблемы вносит важный вклад в ряд научных направлений, где
произвольные таблицы являются естественным объектом исследований. К таким направления
относятся: управление неструктурированными данными (вопросы интеграции табличной
информации), информационный поиск (вопросы извлечения данных из произвольных
таблиц), а также семантический веб (вопросы формирования открытых связных данных).</p>
      <p>В работе предлагается создать теоретическую и инструментальную платформы
ускоренной разработки систем извлечения данных из произвольных электронных таблиц.
Поставленная задача охватывает исследование и разработку следующих вопросов: (1)
алгоритмов ролевого и структурного анализа таблиц (автоматического восстановления их
синтаксической и семантической разметки); (2) алгоритмов интерпретации таблиц (очистки и
концептуализации их естественно-языкового содержания); (3) объектной модели и формального
языка трансформации табличных данных; (4) инструментов синтез исходного кода программ
трансформации табличных данных; (5) инструментов генерации реляционных и связных
данных из произвольных таблиц.</p>
      <p>Современное состояние исследований. Два последних десятилетия активно
развиваются методологические основы извлечения и трансформации данных из таблиц,
представленных в веб-страницах, текстовых и табличных документах. В работах [1, 6, 8, 11, 16, 22,
24, 27, 29] предлагаются методы ролевого и структурного анализа таблиц (восстановления
отношений между ячейками). Каждый из этих методов ограничен обработкой небольшого
количества (1-5) широко распространенных видов табличных компоновок. Однако, многие
виды таблиц специфичных для некоторых областей (например, паспорта безопасности
продуктов в химии или паспорта электротехнического оборудования в энергетике) остаются
неохваченными.</p>
      <p>Методы интерпретации таблиц [5, 9, 23, 26, 30, 31] предназначены для связывания
табличного содержания с внешними концепциями (предметными онтологиями, глобальными
таксономиями, открытыми связными данными). В основном, они полагаются на анализ
естественно-языкового содержания таблиц и их контекста, пренебрегая их компоновочными и
стилевыми особенностями. На практике, это бывает недостаточно, например, часть
информации может выражаться через различные шрифтовые или цветовые свойства.</p>
      <p>Продолжают развиваться специализированные инструменты для извлечения и
трансформации данных из произвольных электронных таблиц в структурированную форму, в т. ч.,
системы трансформации табличных данных [2, 3, 7, 16–21], системы извлечения связанных
данных [13–15, 25, 28]; TANGO ― система трансформации произвольных таблиц к
реляционной форме на основе поиска критических ячеек [11, 27]; SENBAZURU ― система
извлечения реляционных данных из таблиц с иерархиями заголовков [6], DEEXCELERATOR ―
система нормализации данных электронных таблиц к реляционной форме [10]. Инструменты
TANGO, SENBAZURU и DEEXCELERATOR преследуют схожие цели с нашими ―
преобразовать таблицы от произвольной к реляционной форме. Однако, они используют заданные
модели исходных таблиц, при которых смешивается их физическая и логическая
компоновка. Это ограничивает возможности их применения сводными таблицами характерными для
статистических отчетов.</p>
      <p>Анализ современного состояния исследований в рассматриваемой области показывает,
что на сегодняшний день не существует специализированных библиотек моделей и
платформ для разработки систем извлечения и трансформации табличных данных. Кроме того,
нет инструментальных средств, в которых извлечение и трансформация данных выражаются
как последовательность известных операций автоматического анализа и интерпретации
таблиц. Ценность извлекаемых данных может быть повышена путем их связывания со
свободными глобальными таксономиями понятий общего назначения, например, DBPEDIA, YAGO,
WIKIDATA, WIKITOLOGY. Согласованные, непротиворечивые и обогащенные URI данные
могут быть использованы при дальнейшей их интеллектуальной обработке или построении
на их основе интеллектуальных систем. Исследования в данной области представлены
работами [12, 17, 25] и др. Однако, перспективным является создание не только связанных RDF и
OWL онтологий, но создание узкоспециализированных проблемно-ориентированных
таксономий и онтологических паттернов.</p>
      <p>Предлагаемые подходы. Процесс извлечение данных из произвольной таблицы
включает следующие этапы: (i) ролевой анализ (извлечение единиц данных из табличного
содержания и сопоставление их с функциональными ролями); (ii) структурный анализ
(восстановление связей между единицами табличных данных); (iii) интерпретация (ассоциирование
единиц табличных данных с категориями внешних словарей).</p>
      <p>Анализ таблиц может базироваться на следующих решениях: (i) алгоритмах извлечения
единиц данных (вхождений, меток, ссылок) из естественно-языкового содержания ячеек на
основе восстановления литеральных типов данных и распознавания именованных
сущностей; (ii) алгоритмах выделения типичных функциональных областей ячеек (боковик, шапка,
тело, подвал, итог) на основе выделения кластеров по восстановленным литеральным типам
(распознанным именованным сущностям) и эвристик поиска критических ячеек типа MIPS
(Minimum Indexing Point Search); (ii) алгоритмах восстановления иерархических отношений
между единицами данных в типичных функциональных областях на основе обучения по
прецедентам (предполагается создать модели выбора таких отношений среди кандидатов;
сформировать обучающие выборки на основе разметки существующих корпусов таблиц;
рассматривать, как компоновочные, так и стилевые признаки, связанные с извлечёнными
единицами данных).</p>
      <p>Многие ошибки этой фазы возникают из-за того, что произвольные таблицы
ориентированы прежде всего на восприятие человеком. Их физическая (синтаксическая) разметка
часто не совпадает с визуальной разметкой (передаваемой прочерченными границами),
которою читает человек. Например, одна визуальная ячейка может быть составлена из
нескольких физических. Для уменьшения ошибок такого рода планируется исследовать возможность
реконструкции физической (машиночитаемой) структуры ячеек по их визуальной
(человекочитаемой) структуре. Предлагается разработать алгоритмы реконструкции на основе анализа
визуальных границ ячеек.</p>
      <p>Интерпретация таблиц обеспечивается за счет применения свободных глобальных
таксономий понятий общего назначения (DBPEDIA, YAGO, WIKIDATA, WIKITOLOGY)
для понимания и концептуализации естественно-языкового содержания произвольных
таблиц. Благодаря свойствам табличной компоновки, возможно выделить каждый набор единиц
данных, относящихся к одной неизвестной категории. Каждая единица (гипоним) может
быть ассоциирована с одной или несколькими категориями (гиперонимами) из заданной
глобальной таксономии. Его окружение (гипонимы из того же набора) может использоваться,
чтобы уточнить его категорию. Кроме того, предлагается задействовать техники очистки
данных для удаления знаков-заполнителей, ссылок на сноски, "мусорных" слов ("из них",
"всего" и др.), вычислимых (агрегированных) значений.</p>
      <p>Язык правил трансформации произвольных таблиц CRL предлагается
усовершенствовать на основе расширения его функциональных возможностей алгоритмами,
реализованными в рамках проекта. Планируется разработать специализированный диалект этого языка для
выражения лаконичных программ трансформации данных электронных таблиц в виде
наборов правил. При этом одна программа может охватывать широкий диапазон произвольных
таблиц, разных на просвет, но разделяющих общий набор компоновочных, стилевых и
содержательных свойств. В процессе исполнения правила трансформации табличных данных
должны отображать факты о физической структуре таблицы (данные о компоновке, стиле и
содержании) в факты о ее логической структуре (функциональные единицы и их
семантические связи). Для представления фактов предлагается дополнить язык объектной моделью
таблицы со строгим разделением физической и логический структуры.</p>
      <p>Синтез исходного кода программ трансформации табличных данных. Планируется
также дополнить развиваемый язык специализированным диалектом для генерации
исходного кода программ трансформации табличных данных в формате языка общего назначения.
Предлагается разработать формальную (ANTLR) грамматику предлагаемого языка,
объектную модель и интерпретатор данного языка. Это позволит реализовать синтаксический
разбор наборов правил, восстановления объектной модели программы и её интерпретацию для
синтеза целевого исходного кода. Предполагается, что порожденная программа не должна
требовать доработки для компиляции и запуска, но может быть расширена, если это
необходимо.</p>
      <p>Генерация реляционных и связных данных из произвольных таблиц. Предлагается
обобщить опыт исследователей в данной области, в частности [12, 17, 25], и рассмотреть процесс
генерации связанных данных как некую последовательность этапов: выявление
классовкандидатов из открытой таксономии (далее, LOD), соответствующих столбцам; соотнесение
значений ячеек таблиц с соответствующим объектам LOD (если это возможно); выявление
отношений между столбцами таблицы и их связь со свойствами LOD; генерация связанного
представления данных с указанием URI в формате RDF. Достаточно интересными
подзадачами в рамках подхода являются выбор метрик для вычисления близости между понятиями,
а также подбор релевантных узлов.</p>
      <p>Предлагаемые подходы соответствуют современному мировому уровню исследований.
Они во многом преодолевают ограничения присущие мировым конкурентным проектам
(TANGO, SENBAZURU и DEEXCELERATOR). В частности, предлагается реализовать
принципиально новую объектную модель и формальный язык трансформации табличных
данных. По сравнению с конкурентными решениями это позволит работать не только с
широко-распространенными, но и со специфичными типами произвольных таблиц. В отличие
от конкурентных языков, где табличная компоновка задается строго (например, в
абсолютных координатах), нами впервые предлагается язык для выражения неизменяемых
компоновочных, стилевых и содержательных свойств, разделяемых некоторым набором таблиц.
Таким образом, одна программа может обрабатывать существенно более широкий диапазон
произвольных таблиц. Кроме того, впервые предлагается разработать инструменты синтеза
программных систем трансформации табличных данных от произвольной к реляционной
форме.</p>
      <p>Заключение. Проектируемая платформа открывают новые возможности
интеллектуализации для ускоренной разработки программного обеспечения извлечения информации в
научных и индустриальных приложениях с интенсивным использованием
разноструктурированных табличных данных. Планируемые результаты расширяет теоретические знания в
области разработки программного обеспечения систем интеграции разнородных табличных
данных больших объемов. Результаты проекта внесут вклад в решение следующих проблем:
интеграция слабоструктурированной табличной информации, извлечение данных из
произвольных таблиц, а также формирование открытых связных данных.</p>
      <p>Результаты могут использоваться на практике в сфере бизнес аналитики и науки о
данных. Они могут быть положены в основу создания новых наукоёмких технологий, продуктов
и услуг интеграции слабоструктурированной табличной информации в приложениях
аналитики данных. Особенный интерес для их применения представляет аналитика данных в
сферах с интенсивным использованием электронных таблиц (например, финансы, экономика,
государственное и бизнес управление). В качестве апробации разрабатываемой платформы
предлагается рассмотреть задачи автоматизированного заполнения баз данных: опасных
химических веществ, на основе анализа их деклараций, а также результатов диагностирования
в рамках проведения экспертизе промышленной безопасности опасных объектов в
нефтехимии [4] на основе анализа электронных отчетов.</p>
      <p>Работа выполнена при финансовой поддержке Российского научного фонда (грант №
18-71-10001). Результаты получены при использовании ЦКП «Интегрированная
информационно-вычислительная сеть Иркутского научно-образовательного комплекса»
(http://net.icc.ru).</p>
    </sec>
  </body>
  <back>
    <ref-list>
      <ref id="ref1">
        <mixed-citation>
          <string-name>
            <surname>Adelfio</surname>
            <given-names>M.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Samet</surname>
            <given-names>H</given-names>
          </string-name>
          .
          <article-title>Schema extraction for tabular data on the web /</article-title>
          <source>/ Proc. VLDB Endow</source>
          ,
          <year>2013</year>
          , vol
          <volume>6</volume>
          ,
          <source>iss. 6</source>
          , pp.
          <fpage>421</fpage>
          -
          <lpage>432</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref2">
        <mixed-citation>
          <string-name>
            <given-names>Astrakhantsev N.</given-names>
            ,
            <surname>Turdakov</surname>
          </string-name>
          <string-name>
            <given-names>D.</given-names>
            ,
            <surname>Vassilieva</surname>
          </string-name>
          <string-name>
            <surname>N.</surname>
          </string-name>
          <article-title>Semi-automatic data extraction from tables // Proc</article-title>
          . 15th
          <string-name>
            <surname>All-Russian Conf</surname>
          </string-name>
          .
          <source>Digital Libraries</source>
          ,
          <year>2013</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref3">
        <mixed-citation>
          <string-name>
            <given-names>Barowy D.W.</given-names>
            ,
            <surname>Gulwani</surname>
          </string-name>
          <string-name>
            <given-names>S.</given-names>
            ,
            <surname>Hart</surname>
          </string-name>
          <string-name>
            <given-names>T.</given-names>
            ,
            <surname>Zorn</surname>
          </string-name>
          <string-name>
            <surname>B.</surname>
          </string-name>
          <article-title>FlashRelate: Extracting relational data from semi-structured spreadsheets using examples //</article-title>
          <source>Proc. of the 36th ACM SIGPLAN Conference on Programming Language Design and Implementation</source>
          ,
          <year>2015</year>
          , vol.
          <volume>50</volume>
          ,
          <issue>iss</issue>
          . 6, pp.
          <fpage>218</fpage>
          -
          <lpage>228</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref4">
        <mixed-citation>
          <string-name>
            <given-names>Berman A.F.</given-names>
            ,
            <surname>Nikolaichuk</surname>
          </string-name>
          <string-name>
            <given-names>O.A.</given-names>
            ,
            <surname>Yurin</surname>
          </string-name>
          <string-name>
            <surname>A.Y.</surname>
          </string-name>
          and
          <article-title>Kuznetsov K.A. Support of Decision-Making Based on a Production Approach in the Performance of an Industrial Safety Review // Chemical</article-title>
          and Petroleum Engineering,
          <year>2015</year>
          , vol.
          <volume>50</volume>
          (
          <issue>11</issue>
          -
          <fpage>12</fpage>
          ), pp.
          <fpage>730</fpage>
          -
          <lpage>738</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref5">
        <mixed-citation>
          <string-name>
            <surname>Cao T.D.</surname>
          </string-name>
          ,
          <string-name>
            <surname>Manolescu</surname>
            <given-names>I.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Tannier</surname>
            <given-names>X</given-names>
          </string-name>
          .
          <article-title>Extracting linked data from statistic spreadsheets //</article-title>
          <source>Proc. Int. Workshop Semantic Big Data</source>
          ,
          <year>2017</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref6">
        <mixed-citation>
          <string-name>
            <given-names>Chen Z.</given-names>
            ,
            <surname>Cafarella</surname>
          </string-name>
          <string-name>
            <surname>M.</surname>
          </string-name>
          <article-title>Integrating spreadsheet data via accurate and low-effort extraction //</article-title>
          <source>Proc. 20th ACM SIGKDD Int. Conf. Knowledge Discovery and Data Mining</source>
          ,
          <year>2014</year>
          . pp.
          <fpage>1126</fpage>
          -
          <lpage>1135</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref7">
        <mixed-citation>
          <string-name>
            <given-names>Cunha J.</given-names>
            ,
            <surname>Erwig</surname>
          </string-name>
          <string-name>
            <given-names>M.</given-names>
            ,
            <surname>Mendes</surname>
          </string-name>
          <string-name>
            <given-names>M.</given-names>
            ,
            <surname>Saraiva</surname>
          </string-name>
          <string-name>
            <surname>J</surname>
          </string-name>
          . Model inference for spreadsheets // Autom Softw Eng.
          <year>2016</year>
          , vol.
          <volume>23</volume>
          . pp.
          <fpage>361</fpage>
          -
          <lpage>392</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref8">
        <mixed-citation>
          <string-name>
            <surname>de Vos</surname>
            <given-names>M.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Wielemaker</surname>
            <given-names>J.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Rijgersberg H</surname>
          </string-name>
          . et al.
          <article-title>Combining information on structure and content to automatically annotate natural science spreadsheets</article-title>
          . // Int. J. of Human-Computer
          <string-name>
            <surname>Studies</surname>
          </string-name>
          ,
          <year>2017</year>
          , vol.
          <volume>130</volume>
          . pp.
          <fpage>63</fpage>
          -
          <lpage>76</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref9">
        <mixed-citation>
          <string-name>
            <given-names>Deng D.</given-names>
            ,
            <surname>Jiang</surname>
          </string-name>
          <string-name>
            <given-names>Y.</given-names>
            ,
            <surname>Li</surname>
          </string-name>
          <string-name>
            <given-names>G.</given-names>
            ,
            <surname>Li</surname>
          </string-name>
          <string-name>
            <given-names>J.</given-names>
            ,
            <surname>Yu</surname>
          </string-name>
          <string-name>
            <surname>C</surname>
          </string-name>
          .
          <article-title>Scalable column concept determination for web tables using large knowledge bases //</article-title>
          <source>Proc. VLDB Endow</source>
          .
          <year>2013</year>
          , vol.
          <volume>6</volume>
          (
          <issue>13</issue>
          ). pp.
          <fpage>1606</fpage>
          -
          <lpage>1617</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref10">
        <mixed-citation>
          <string-name>
            <given-names>Eberius J.</given-names>
            ,
            <surname>Werner</surname>
          </string-name>
          <string-name>
            <given-names>C.</given-names>
            ,
            <surname>Thiele</surname>
          </string-name>
          <string-name>
            <surname>M.</surname>
          </string-name>
          et al.
          <article-title>DeExcelerator: a framework for extracting relational data from partially structured documents //</article-title>
          <source>Proc. 22nd ACM Int. Conf. on Information &amp; Knowledge Management</source>
          ,
          <year>2013</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref11">
        <mixed-citation>
          <string-name>
            <given-names>Embley D. W.</given-names>
            ,
            <surname>Krishnamoorthy</surname>
          </string-name>
          <string-name>
            <given-names>M. S.</given-names>
            ,
            <surname>Nagy</surname>
          </string-name>
          <string-name>
            <surname>G.</surname>
          </string-name>
          ,
          <article-title>Seth S. Converting heterogeneous statistical tables on the web to searchable databases // Int</article-title>
          . J.
          <source>Document Analysis and Recognition</source>
          ,
          <year>2016</year>
          . vol.
          <volume>19</volume>
          ,
          <issue>iss</issue>
          . 2. pp.
          <fpage>119</fpage>
          -
          <lpage>138</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref12">
        <mixed-citation>
          <string-name>
            <given-names>Embley D.W.</given-names>
            ,
            <surname>Tao</surname>
          </string-name>
          <string-name>
            <given-names>C.</given-names>
            ,
            <surname>Liddle</surname>
          </string-name>
          <string-name>
            <surname>S.W. Automating</surname>
          </string-name>
          <article-title>the extraction of data from HTML tables with unknown structure // Data</article-title>
          &amp; Knowledge
          <string-name>
            <surname>Engineering</surname>
          </string-name>
          .
          <year>2005</year>
          . vol.
          <volume>54</volume>
          (
          <issue>1</issue>
          ). pp.
          <fpage>3</fpage>
          -
          <lpage>28</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref13">
        <mixed-citation>
          <string-name>
            <surname>Ermilov</surname>
            <given-names>I.</given-names>
          </string-name>
          ,
          <article-title>Ngonga Ngomo A. TAIPAN: Automatic Property Mapping for Tabular Data // Knowledge Engineering and Knowledge Management: 20th International Conference</article-title>
          ,
          <string-name>
            <surname>EKAW</surname>
          </string-name>
          <year>2016</year>
          . pp.
          <fpage>163</fpage>
          -
          <lpage>179</lpage>
          .
        </mixed-citation>
      </ref>
    </ref-list>
  </back>
</article>