<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Archiving and Interchange DTD v1.0 20120330//EN" "JATS-archivearticle1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta />
    <article-meta>
      <title-group>
        <article-title>Enterprise Database - Forgotten, or not?</article-title>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <string-name>Jürgen Bittner</string-name>
          <email>Juergen.bittner@sql-ag.de</email>
          <xref ref-type="aff" rid="aff0">0</xref>
          <xref ref-type="aff" rid="aff1">1</xref>
        </contrib>
        <aff id="aff0">
          <label>0</label>
          <institution>Die ursprüngliche Vision</institution>
        </aff>
        <aff id="aff1">
          <label>1</label>
          <institution>SQL Projekt AG</institution>
          ,
          <addr-line>Franklinstraße 25A, 01069 Dresden</addr-line>
          ,
          <country country="DE">Deutschland</country>
        </aff>
      </contrib-group>
      <pub-date>
        <year>2017</year>
      </pub-date>
      <abstract>
        <p>With the appearance of the Database Technology the target of an enterprise wide application was joined, respective the integrated management of all relevant data of the enterprise within one database, because on this way a maximal usefulness of the new technology seemed achievable. Several preconditions have been avoided this target´s achievement. The current self-evident utilization of the database technology is referring predominantly to individual areas or departments of the organizations. But the requirements to support processes and analytics exceeding isolated systems were advancing permanently. Beside the further development of the database technology this led to integration solutions of different levels. They are developed and operated often with large time and effort. The Data Warehouse approach oriented to data consolidation for the purpose of reporting and analytics, but without a possibility to improve the underlying operational processes. The integration technology supports database crossing processes, can speed up these and reduce their cost, but has only limited influence on data quality. The objectives of data quality in connection with the integration technology as they are considered in the Master Data Management get the data consolidation in the focus again, but now, if the realization is consequent, with the requirement to provide the operational systems with improved data. Could this become the Enterprise Database? For it the software industry would need a technology conversion and above all a mindset change. Das grundlegenden Ziele der Verarbeitung von Daten, alle Sachverhalte einmalig zu erfassen, die Daten möglichst einmalig zu speichern mit all ihren relevanten Beziehungen und die vielfache Verwendung diese Daten zu ermöglichen führten Ende der 60er Jahre zur Technologie der Datenbank. Korrektheit, Aktualität und Konsistenz der Daten sollten helfen, die Wirksamkeit gesellschaftlicher Prozesse, vor allem in der Betriebswirtschaft und Produktion zu verbessern. Die technologischen Komponenten zum Speichern von Daten und Beziehungen in einigen der ersten DBMS-Produkte waren bereits weitgehend geeignet, die vernetzte Datenstruktur eines Unternehmens abzubilden. Die Ziele der Datenbank-Technologie wurden deshalb von ihren Befürwortern fast von Anfang an auf eine unternehmensweite Wirkung projiziert. Die Enterprise-Datenbank war das anerkannte Ziel. Das in den 70er Jahren bevorzugte Streben nach Integrierter EDV hat in zahlreichen Beiträgen und Konzepten für IMIS (Integrated Management Information Systems) die Datenbank-Technologie allerdings nur wenig berücksichtigt.</p>
      </abstract>
      <kwd-group>
        <kwd>Enterprise Database</kwd>
        <kwd>Data Warehouse</kwd>
        <kwd>Data Quality</kwd>
        <kwd>Master Data Management</kwd>
      </kwd-group>
    </article-meta>
  </front>
  <body>
    <sec id="sec-1">
      <title>-</title>
      <p>Die stark gewachsene und weiter wachsende Anwendung von Datenbanksystemen
nahm auch einen anderen Verlauf. Zahlreiche Softwaresysteme für Fachgebiete oder
Abteilungen besitzen Datenbanken, die Daten der gleichen Objekte enthalten, jedoch
in unterschiedlicher syntaktischer und semantischer Ausprägung und mit
unterschiedlichen Teilmengen des jeweiligen Objekttyps. Sie werden entwickelt für verschiedene
Anforderungen und Benutzergruppen, von verschiedenen Entwicklern, zu
verschiedenen Zeiten und für unterschiedliche Standorte, so dass ein einheitliches Verständnis
und eine einheitliche Darstellung der Daten, von wenigen Standards abgesehen, nicht
erreicht wurde. Mehrfacherfassung, Inkonsistenzen und ungenügende Aktualität
mindern die Effizienz der Prozesse, teils deutlich erkennbar, häufig auch verdeckt.</p>
      <p>Natürlich haben auch Hardware-Ressourcen und Verfügbarkeit die Chancen für
große Enterprise-Datenbanken beschränkt. Es bleibt aber auch festzustellen, dass
besonders während der ersten beiden DB-Jahrzehnte die Unterstützung des
Entwerfens von Datenbanken mit der Technologieentwicklung der DBMS nicht Schritt
gehalten hat. Das betrifft einerseits die methodischen Grundlagen, z.B. auch den Aspekt
kooperierenden Entwerfens als auch besonders die Verfügbarkeit von Werkzeugen.
Aus dieser Sicht war die Zielstellung einer Enterprise-Datenbank nicht realistisch.</p>
      <p>
        Ein grundlegendes Konzept, dass die Zielstellung einer Enterprise-Datenbank
wenigstens begünstigt hätte, ist die 3-Ebenen-Architektur nach ANSI/X3/SPARC [
        <xref ref-type="bibr" rid="ref1">1</xref>
        ].
Bild 1. ANSI/X3/SPARC 1975: 3-Ebenen-Architektur des Datenbanksystems
Die primären Zielaspekte dieser Architektur sind Datenunabhängigkeit und
Unterstützung des Datenbank-Entwurfs durch Trennung der Inhaltsaspekte von den
Realisierungsstrukturen einerseits und den Verwendungsstrukturen andererseits. Damit
ergibt sich gleichzeitig ein Rahmen für die Vereinbarkeit dezentraler Sichten mit dem
Ziel der Enterprise-Datenbank [
        <xref ref-type="bibr" rid="ref2">2</xref>
        ][
        <xref ref-type="bibr" rid="ref3">3</xref>
        ], was möglicherweise für künftige
Anforderungen wieder ins Blickfeld kommen könnte.
2
      </p>
    </sec>
    <sec id="sec-2">
      <title>Enterprise Information erfordert Konsolidierung</title>
      <p>Der Bedarf nach Reports und Analysen, die über die Inhalte einzelner Datenbanken
hinausgehen, führte in den 90er Jahren zur Data-Warehouse-Konzeption und auch
entsprechenden Produkten.</p>
      <p>
        Bild 2. Data-Warehouse-Architektur
Innerhalb des ETL-Prozesses ist hierbei die syntaktische und semantische
Konsolidierung der verschiedenen Quellen-Datenbanken erforderlich (vgl. z.B. [
        <xref ref-type="bibr" rid="ref4">4</xref>
        ]). Auf der
Schema-Ebene ist das ein Entwurfsprozess, der ein normalisiertes Schema für die
Konsolidierungs-Datenbank liefern muss sowie die Transformationsregeln für die
Überführung der Daten aus den Quellen in die Konsolidierungs-Datenbank. Bei
entsprechendem Umfang der einbezogenen Quellen ist damit strukturell eine
EnterpriseDatenbank gegeben.
      </p>
      <p>Das Entwerfen einer solchen als „sekundär“ zu bezeichnenden
EnterpriseDatenbank profitiert von der Tatsache, dass mit den Quellsystemen bereits
umfangreiches Wissen gesammelt wurde. Andererseits wirkt erschwerend, dass Divergenzen
und Inkompatibilitäten in der Menge der unabhängig voneinander entstandenen
Quellen erkannt und durch Transformationen bereinigt werden müssen.</p>
      <p>Vergleichend mit der Idealvorstellung einer „echten“ oder „primären“
EnterpriseDatenbank bleibt festzustellen:</p>
      <p>Die Konsolidierungs-Datenbank ist kontinuierlich oder periodisch mit den
Änderungen der Quellsysteme zu synchronisieren. Das kann erhebliche Kosten für
Prozessorlast und Speichervolumen bewirken.</p>
      <p>Ein virtuelles Data-Warehouse, das auf die Materialisierung der
KonsolidierungsDatenbank und/oder der Bereitstellungs-Datenbank verzichtet, verlagert die Kosten in
die Query-Laufzeit und wird tendenziell zur Sicherung der Performance noch höhere
Kosten für Prozessorlast verursachen. Der Entwurfsaufwand für die Konsolidierung
ist natürlich unverzichtbar.</p>
      <p>Eine Konsolidierungs-Datenbank oder das vollständige Data-Warehouse auf
inmemory-Basis kann die beste Performance liefern, die damit erhöhten Kosten könnten
aber die Frage nach Kostendämpfung durch einen primären Enterprise-Ansatz
motivieren.</p>
      <p>Unabhängig von den verschiedenen Technologien zur Realisierung der
EnterpriseSicht gibt es in der Data-Warehouse-Konzeption naturgemäß keine Rückwirkung der
Bereinigung und Homogenisierung der Daten auf ihre Quellen. Somit bleiben alle
Mängel und Ineffizienzen der unternehmensweiten Geschäftsprozesse, die sich aus
der unkoordinierten Entwicklung von Softwaresystemen mit eigenen Datenbanken
ergeben, weiter bestehen.
3</p>
    </sec>
    <sec id="sec-3">
      <title>Prozessqualität erfordert Integration</title>
      <p>Die Realität der heterogenen Anwendung von Softwaresystemen, die nicht oder
wenig koordiniert entwickelt wurden, hat sich immer stärker ausgeprägt und dauert zu
einem großen Teil bis heute an.</p>
      <p>Steigende Anforderungen an die Unternehmensprozesse hinsichtlich
Geschwindigkeit, Korrektheit und Effizienz erforderten es, den Datenaustausch und die
Synchronisation der Systeme in Echtzeit oder zeitgesteuert zu unterstützen. Replikation und
2Phase-Commit können hierbei nur in Spezialfällen helfen. Neben einem sehr großen
Anteil anwendereigener Lösungen kam es zur Produktentwicklung mit der
Bezeichnung Enterprise Application Integration (EAI) oder auch Enterprise Service Bus
(ESB). Diese bieten die Möglichkeit anstelle der in der Praxis häufig vorkommenden
ungeordneten peer-to-peer Integrationsnetze eine geordnete Architektur zu realisieren,
die eine gute Administration, Weiterentwicklung und ein Monitoring erlaubt (Bild 3).
Bild 3. Architektur der Integration
Ein entsprechender Integrationsserver verfügt im allgemeinen über eine Menge
geeigneter Adaptoren, die die Datenstrukturen der Softwaresysteme senden und
empfangen können sowie über eine leistungsfähige Mapping- und Routing-Funktionalität.
Damit ergibt sich die Möglichkeit, aktuelle Daten der führenden Systeme so schnell
wie nötig allen anderen zu übergeben, die diese Daten benötigen. Bestimmte
Definitionen ermöglichen auch die Steuerung von Geschäftsprozessen.</p>
      <p>Insoweit könnte man annehmen, dass die Integrationstechnologie die Zielstellung
und Notwendigkeit einer Enterprise-Datenbank weitgehend ersetzen kann, ohne dass
ein Enterprise-Datenbank-Schema explizit existiert. Dazu sei aber die Einschätzung
erlaubt, dass die heutige Anwendung der Integrationstechnologie in der Praxis oft
noch nicht das Niveau einer systematischen Enterprise Integration erreicht hat,
stattdessen werden schrittweise Schwerpunktaufgaben behandelt, die nur sehr
offensichtliche Prozess-Verbesserungen sichern.</p>
      <p>
        Zu bedenken sei aber auch die seit mehr als 10 Jahren von Gartner und anderen
publizierte Feststellung, dass der Aufwandsanteil für Integration in der IT weit mehr
als 30% beträgt und dass Integration mit steigender Tendenz ein kritischer Teil der
Informationsversorgung ist [
        <xref ref-type="bibr" rid="ref5">5</xref>
        ]. Auch wenn die Anwendung professioneller
produktbasierter Integrationslösungen den spezifischen Aufwand reduziert, die
Integrationsdichte der Softwaresysteme eines Unternehmens aber absolut bedeutend zunehmen
wird, kann man wohl annehmen, dass dieser Anteil nicht kleiner wird.
      </p>
      <p>In dieser Hinsicht könnte auch die Ressourcenfrage bedeutsam werden.
4</p>
    </sec>
    <sec id="sec-4">
      <title>Datenqualität erfordert Master Data Management</title>
      <p>Typischerweise sind Objekte wie Geschäftspartner oder Artikel jeweils in mehreren
Datenbanken eines Unternehmens enthalten. Ein Integrationssystem kann neue Daten
vom jeweiligen Ursprungssystem gemäß geltender Regeln zu den Systemen
transferieren, die diese Daten benötigen. Ein hohes Niveau der Integration der Daten eines
Unternehmens durch Vermeidung der Mehrfacherfassung und schnelles
Synchronisieren sichert aber nicht automatisch eine hohe Datenqualität.</p>
      <p>
        Hierzu haben sich Anforderungen ausgeprägt wie z.B. Validierung,
Standardisierung, Vervollständigung, Klassifizierung und Identifikation mit Doublettenerkennung
und –behandlung [
        <xref ref-type="bibr" rid="ref6">6</xref>
        ].
      </p>
      <p>Die Realisierung dieser Anforderungen erfordert eine Architektur, die seit einigen
Jahren grundlegend zum Master Data Management (MDM) gehört.</p>
      <p>
        Bild 3. Grob- Architektur des Master Data Management
“Master data management (MDM) is the practice of defining and maintaining
consistent definitions of business entities (e.g., customer or product) and data about them
across multiple IT systems and possibly beyond the enterprise to partnering
businesses. MDM gets its name from the master and/or reference data through which
consensus-driven entity definitions are usually expressed. An MDM solution provides shared
and governed access to the uniquely identified entities of master data assets, so those
enterprise assets can be applied broadly and consistently across an organization.” [
        <xref ref-type="bibr" rid="ref7">7</xref>
        ]
      </p>
      <p>In der MDM-Architektur gibt es eine spezielle Datenbank, üblicherweise als
MDM-Hub bezeichnet, die eine konsolidierende Darstellung der relevanten Objekte
des Unternehmens verwaltet, also nicht nur wie ursprünglich als „article data hub“
oder „customer data hub“ sondern als multi-domain-hub. Von den verschiedenen
Softwaresystemen erfasste Daten werden mit Hilfe des Integrationssystems dem
MDM-hub übergeben. Dort werden die definierten Regeln zur Sicherung der
Datenqualität ausgeführt, im positiven Fall entsteht ein „golden record“, der mit Hilfe des
Integrationssystems gemäß Bedarf an andere Softwaresysteme in der jeweils
erforderlichen Darstellung publiziert wird. Der MDM Hub gilt als „single point of truth“.
Meist ist im insert-Falle eine tiefgründige Identitätsprüfung erforderlich, weil die
Vermeidung von Doubletten wirtschaftlich relevant ist. Dazu ist eine anspruchsvolle
unscharfe Suche zur Erkennung gleicher oder ähnlicher Objekte erforderlich. Der
hohe Anspruch des MDM an Datenqualität führt zwangsläufig auch dazu, dass nicht
alle Datenänderungen transactional ausgeführt werden können, sondern
Entscheidungs- und Freigabeprozesse einschließen, die Workflows benötigen.</p>
      <p>Die MDM-Nutzung an sich und speziell auch die Workflow-Notwendigkeit
bewirken, dass die beteiligten Softwaresysteme Anpassungen erfordern.</p>
      <p>
        Die in den letzten Jahren interessant gewachsene Menge von Anforderungen an
MDM und dementsprechende Funktionsangebote der MDM-Produkthersteller findet
man im aktuellen Gartner-Report [
        <xref ref-type="bibr" rid="ref8">8</xref>
        ]. Bild 4 enthält eine vereinfachte Liste dieser
Anforderungen.
      </p>
      <p>Bild 4. Wichtige Anforderungen an Master Data Management</p>
      <p>Auffällig ist dabei auch der Trend zu einer wesentlich verbesserten Darstellung der
Semantik, was die Einbeziehung auch der Daten, die nicht zu den Master Data gezählt
werden in den MDM Hub nahelegt. Insoweit erfüllt der MDM Hub die Rolle einer
Konsolidierungsdatenbank im Data-Warehouse. Als Konsequenz wird dem MDM
neben den operationalen Benutzungsszenarien Transactional und Workflow nun auch
Analytics zugeordnet. In Bild 4 sind die Anwendungsprogramme mit operationaler
Funktionalität wie üblich in Verbindung mit ihren spezifischen Datenbanken
dargestellt.</p>
      <p>
        MDM-Hersteller wie z.B. Semarchy Inc. [
        <xref ref-type="bibr" rid="ref9">9</xref>
        ] und auch der Gartner-Report[
        <xref ref-type="bibr" rid="ref8">8</xref>
        ]
unterscheiden die mögliche Wirkungsweise des MDM in 4 Stufen. Sie werden als
Implementation Styles bezeichnet. Tabelle 1 gibt einen Überblick zur Wirkung der
Implementation Styles, wobei als „Daten“ hauptsächlich Master Data zu verstehen
sind, jedoch kann es sinnvoll sein, auch andere Daten einzubeziehen, weil sich damit
möglicherweise die Behandlung der Semantik im MDM und dessen Wirkung
verbessern lässt. Außerdem könnte dadurch die Kooperation der Anwendungssoftware mit
dem MDM vereinfacht werden.
      </p>
      <p>Tabelle 1. Wirkungsweise des MDM
Implementation
Style
Registry
Consolidation
Coexistence
Centralized</p>
      <p>Verfahren
Zentraler Index verweist auf alle
Vorkommen eines Objekts
MDM liefert eine
Konsolidierungsdatenbank
MDM Hub verwaltet Teil der Daten,
produziert golden records und
publiziert diese an
operationale Systeme
MDM Hub verwaltet alle Daten
zentralisiert</p>
      <p>Wirkung
Daten bleiben unverändert
Operationale Daten unverändert,
vergleichbar mit Data-Warehouse
Zugriff auf diese Daten im MDM
Hub oder in den operationalen
Systemen möglich, weiterhin
Mehrfachspeicherung
Zugriff auf die Daten (transactional
oder workflow) im MDM Hub,
keine Mehrfachspeicherung
Die Einführung eines MDM-Systems mit dem Implementation Style Coexistence könnte der
pragmatisch sinnvolle Weg eines gleitenden Übergangs von einer heute üblichen schwach
koordinierten Software-Architektur zu einer vollständig oder weitgehend zentralisierten
MDMArchitektur sein. Anwendungsprogramme könnten zunehmend für Daten des Hubs entwickelt
oder auf diese umgestellt werden (Bild 5). In der Konsequenz wäre das der Weg zu einer
Enterprise-Datenbank. Daten, die nicht zu den Master Data zählen oder keine mehrfachen
Repräsentationen benötigen, können mit zentralisiert werden oder in spezifischen Datenbanken
verbleiben, wobei auch hierbei die Qualitätssicherung für eine MDM-gemäße Behandlung
sprechen könnte.</p>
      <p>Bild 5. Coexistence-Architektur im Wandel
Falls sich der Bedarfstrend zum Master Data Management weiter entwickelt wie in
den letzten Jahren, ist zu erwarten, dass die Anforderungen an einen
unternehmensweiten Datenbank-Entwurf steigen, der dann vom MDM zu leisten ist.
Konsolidierendes Entwerfen auf der Basis einer 3-Ebenen-Architektur müsste von den
existierenden Datenbanken ausgehen, die als externe Sichten genutzt werden,
möglicherweise auf Basis unterschiedlicher Datenmodelle, wobei auch unstrukturierte Daten
zunehmend berücksichtigt werden sollten. Dabei ist die Darstellung und Behandlung der
Semantik besonders zu unterstützen. Außerdem muss eine dynamische
Weiterentwicklung des Entwurfs bzw. der Hubstruktur möglich sein.</p>
      <p>In gleichem Maße wie MDM mit Coexistence Style oder Centralized Style
benötigt wird, sind Anpassungen der Anwendungssoftware erforderlich. Die
Softwarehersteller müssen zur Kooperation mit dem MDM bereit sein und dessen Rolle
anerkennen. Das betrifft zunächst Interfaces und Workflows für Datenänderungen, die in den
operationalen Systemen ausgelöst werden aber auch den Zugriff auf die vorhandenen
Daten des MDM Hub. Hierin liegt die Hauptschwierigkeit, die einen schnellen
Übergang zu einem Centralized MDM behindern dürfte. Jedoch könnte der schrittweise
Ausbau eines Coexistence MDM bis zu einer „Full Coexistence“ erhebliche
Prozessverbesserungen bewirken.</p>
      <p>Wenn auch im MDM mit Coexistence Style die Mehrfachspeicherung der Daten
im Prinzip noch nicht beseitigt, aber vielleicht reduziert werden kann, wäre es
interessant, fallweise zu untersuchen, ob damit oder auch im MDM mit Centralized Style
relevante Einsparungen an Ressourcen (Speicher und Integrationslast) erzielt werden
können.</p>
      <p>
        Bild 6. Beispiel einer Master Data Management-Architektur mit Implementation Style
Coexistence auf der Basis von Data Rocket[
        <xref ref-type="bibr" rid="ref10">10</xref>
        ] und dem Integrationssystem TransConnect®
[
        <xref ref-type="bibr" rid="ref11">11</xref>
        ]
      </p>
    </sec>
    <sec id="sec-5">
      <title>Software-Entwicklung und Enterprise-Datenbank</title>
      <p>Natürlich werden sich die Data-Warehouse-Technologie, die Integration und das
Master Data Management noch lange weiterentwickeln. Es ist aber offensichtlich,
dass alle 3 Technologien mehr oder weniger das Fehlen der Enterprise-Datenbank
ausgleichen müssen. Besonders deutlich wird das bei einer konsequenten
MDMZielstellung.</p>
      <p>Sollte die ursprüngliche Vision einer Enterprise-Datenbank auf dem Wege des
Master Data Managements oder direkt jemals eine Chance bekommen, müsste sich
die datenbank-orientierte Software-Herstellung mit folgenden zwei Zielen
auseinandersetzen, wobei die Datenbank im allgemeinen nicht mehr Bestandteil eines
einzelnen Softwareproduktes sein dürfte, sondern in einem eigenständigen Entwurfsprozess
entsteht und dynamisch weiterzuentwickeln ist:
Standardisierung. Die Standardisierung fach- und branchenspezifischer
Datenstrukturen könnte zu einem Teil eine Voraussetzung sein, dass Software unterschiedlicher
Hersteller mit der gleichen Datenbank arbeitsfähig wird. Die Realität ist von dieser
Zielstellung weit entfernt. Auch wenn große Anstrengungen für diese Zielstellung
geleistet würden, bliebe das Ergebnis begrenzt. Beispiele, bei denen verschiedene
Hersteller die gleiche Datenbank benutzen, sind aber bekannt.</p>
      <p>
        Für den Austausch von Daten existieren dagegen verschiedene Branchenstandards,
die von Branchenprodukten und Integrationssystemen genutzt werden. Bestimmte
dieser Standards haben eine so gute Durchsetzung erreicht, teilweise durch Festlegung
verantwortlicher Organisationen, dass Softwareprodukte, die diese Standards nicht
unterstützen, ihre Marktfähigkeit verlieren. Ein Beispiel ist HL7 [
        <xref ref-type="bibr" rid="ref10">10</xref>
        ], ein Standard für
den Datenaustausch klinischer Informationssysteme.
      </p>
      <p>
        Softwareprodukte mit virtueller Datenbank-Schnittstelle. Wenn Softwareprodukte
die benötigte Datenbank nicht selbst enthalten, müssten sie sich einer Schnittstelle
bedienen, die die notwendigen Zugriffe ermöglicht. Die Anwendbarkeit einer solchen
virtuellen Datenbank-Schnittstelle hängt davon ab, ob das entsprechende Schema auf
das Schema der vorhandenen oder sich entwickelnden Enterprise-Datenbank
abbildbar ist. Seit den 90er Jahren vorliegende Forschungsergebnisse zum Schema
Matching und Schema Mapping (vgl. z.B. [
        <xref ref-type="bibr" rid="ref11">11</xref>
        ]) müssten dazu in Entwurfswerkzeugen
verfügbar sein, mit denen diese Aufgabe bewältigt werden könnten.
      </p>
      <p>Die zwangsläufig notwendigen Transformationen der Daten bewirken natürlich
einen neuen Aufwand, der aber durch den Wegfall eines großen Teils der
Transformationen des Datenaustauschs ausgeglichen wird.</p>
      <p>
        Die Einführung neuer Software im Unternehmen würde dann entweder in das
vorhandene Enterprise-Datenbank-Schema hineinpassen oder würde dieses erweitern.
Semantische Widersprüche, die aus den Schemas verschiedener Software-Produkte
resultieren, können möglicherweise auch zu Ergänzungen führen. Bei dieser
Architektur ist im Enterprise Schema mit einer Dynamik zu rechnen, die in einem
traditionellen DBMS schwer zu bewältigen ist. Mehr-Ebenen-Architektur ähnlich [
        <xref ref-type="bibr" rid="ref1">1</xref>
        ] müsste aus
diesem, aber auch anderen Gründen ein Ziel der DBMS-Hersteller sein.
      </p>
      <p>Die schrittweise Entstehung einer Enterprise-Datenbank ist heute mehr als in der
Frühzeit der Datenbank-Technologie vorstellbar. Wesentliche Voraussetzungen haben
einen besseren Stand. Ob das zweifellos große und weiter wachsende
Nutzenspotential ein ausreichender Antrieb ist, die Schwierigkeiten auf dem Wege dahin zu
überwinden, wird die Zukunft zeigen.</p>
    </sec>
    <sec id="sec-6">
      <title>Verweise</title>
    </sec>
  </body>
  <back>
    <ref-list>
      <ref id="ref1">
        <mixed-citation>
          1. ANSI/X3/SPARC: Interim Report, Study Group on
          <article-title>Data Base Management System, (</article-title>
          <year>1975</year>
          )
        </mixed-citation>
      </ref>
      <ref id="ref2">
        <mixed-citation>
          2.
          <string-name>
            <surname>Bittner</surname>
            ,
            <given-names>J.:</given-names>
          </string-name>
          <article-title>An External Schema for Application Programmers</article-title>
          .
          <source>In: Proceedings of the Sixth International Seminar on Database Management Systems</source>
          , pp.
          <fpage>202</fpage>
          -
          <lpage>215</lpage>
          . SZAMALK Computing Application and
          <string-name>
            <given-names>Service</given-names>
            <surname>Co</surname>
          </string-name>
          .,
          <string-name>
            <surname>Budapest</surname>
          </string-name>
          (
          <year>1983</year>
          )
        </mixed-citation>
      </ref>
      <ref id="ref3">
        <mixed-citation>
          3.
          <string-name>
            <surname>Bittner</surname>
          </string-name>
          , J.:
          <article-title>Design of the Conceptual Scheme on the Base of External Schemes</article-title>
          .
          <source>In: Proceedings of the Seventh International Seminar on Database Management Systems</source>
          , pp.
          <fpage>47</fpage>
          -
          <lpage>55</lpage>
          .
          <string-name>
            <surname>Varna</surname>
          </string-name>
          (
          <year>1984</year>
          ).
        </mixed-citation>
      </ref>
      <ref id="ref4">
        <mixed-citation>
          4.
          <string-name>
            <surname>Lehner</surname>
          </string-name>
          , W.:
          <article-title>Datenbanktechnologie für Data-Warehouse-Systeme. 1</article-title>
          .Aufl. dpunkt-verlag, Heidelberg (
          <year>2013</year>
          ).
        </mixed-citation>
      </ref>
      <ref id="ref5">
        <mixed-citation>
          5.
          <string-name>
            <surname>Thoo</surname>
            ,
            <given-names>E.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Friedmann</surname>
            ,
            <given-names>T.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Beyer</surname>
            ,
            <given-names>M.</given-names>
          </string-name>
          :
          <article-title>Magic Quadrant for Data Integration Tools</article-title>
          ,
          <string-name>
            <surname>Gartner</surname>
          </string-name>
          (
          <year>2013</year>
          ).
        </mixed-citation>
      </ref>
      <ref id="ref6">
        <mixed-citation>
          6.
          <string-name>
            <surname>Russom</surname>
            <given-names>P.</given-names>
          </string-name>
          :
          <article-title>Real Time Data Quality</article-title>
          , p.
          <fpage>3</fpage>
          .
          <string-name>
            <given-names>TDWI</given-names>
            <surname>Checklist</surname>
          </string-name>
          <string-name>
            <surname>Report</surname>
          </string-name>
          , (
          <year>September 2011</year>
          ).
        </mixed-citation>
      </ref>
      <ref id="ref7">
        <mixed-citation>
          7.
          <string-name>
            <surname>Russom</surname>
            <given-names>P.</given-names>
          </string-name>
          :
          <article-title>Next Generation Master Data Management</article-title>
          , p.
          <fpage>5</fpage>
          .
          <string-name>
            <given-names>TDWI</given-names>
            <surname>Best Practices</surname>
          </string-name>
          <string-name>
            <surname>Report</surname>
          </string-name>
          , (Second
          <source>Quarter</source>
          <year>2012</year>
          ).
        </mixed-citation>
      </ref>
      <ref id="ref8">
        <mixed-citation>
          8.
          <string-name>
            <given-names>O</given-names>
            <surname>'Kane</surname>
          </string-name>
          ,
          <string-name>
            <given-names>B.</given-names>
            ,
            <surname>Palanca</surname>
          </string-name>
          ,
          <string-name>
            <given-names>T.</given-names>
            ,
            <surname>Moran</surname>
          </string-name>
          ,
          <string-name>
            <surname>M.</surname>
          </string-name>
          :
          <article-title>Magic Quadrant for Master Data Management Solutions</article-title>
          ,
          <string-name>
            <surname>Gartner</surname>
          </string-name>
          (
          <year>2017</year>
          ).
        </mixed-citation>
      </ref>
      <ref id="ref9">
        <mixed-citation>
          9.
          <string-name>
            <given-names>Semarchy</given-names>
            <surname>Inc</surname>
          </string-name>
          . Homepage, https://www.semarchy.com/intelligent-mdm/,
          <source>last accessed</source>
          <year>2017</year>
          /06/15.
        </mixed-citation>
      </ref>
      <ref id="ref10">
        <mixed-citation>
          10.
          <string-name>
            <surname>Innoscale</surname>
            <given-names>AG</given-names>
          </string-name>
          , Homepage, http://innoscale.de, last accessed
          <year>2017</year>
          /06/15.
        </mixed-citation>
      </ref>
      <ref id="ref11">
        <mixed-citation>
          11.
          <string-name>
            <surname>SQL Projekt</surname>
            <given-names>AG</given-names>
          </string-name>
          , Homepage, http://www.sql-ag.de, last accessed
          <year>2017</year>
          /06/15.
        </mixed-citation>
      </ref>
      <ref id="ref12">
        <mixed-citation>
          12.
          <article-title>Health Level Seven International (HL7) Homepage, www</article-title>
          .hl7.org,
          <source>last accessed</source>
          <year>2017</year>
          /06/15.
        </mixed-citation>
      </ref>
      <ref id="ref13">
        <mixed-citation>
          13.
          <string-name>
            <surname>Rahm</surname>
            ,
            <given-names>E.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Bernstein</surname>
            ,
            <given-names>P.:</given-names>
          </string-name>
          <article-title>A survey of approaches to automatic schema matching</article-title>
          .
          <source>In: The VLDB Journal 10</source>
          , pp.
          <fpage>334</fpage>
          -
          <lpage>350</lpage>
          (
          <year>2001</year>
          ), Springer-Verlag(
          <year>2001</year>
          ).
        </mixed-citation>
      </ref>
    </ref-list>
  </back>
</article>