Konzepte für den Erfolg mit Big Data Erfolg für vier gängige Szenarios
Copyright ©2015 Pentaho Corporation. Weitergabe erlaubt. Alle Marken sind Eigentum der jeweiligen Inhaber. Aktuelle informationen finden Sie auf unserer Website unter pentaho.de.
Einführung Mittlerweile hat es sich herumgesprochen, dass Big Data eine große Verschiebung in der Landschaft der Unternehmenstechnologie darstellt. Laut Schätzungen von IDC wächst die Menge an brauchbaren Daten weltweit zwischen 2010 und 2020 um das Zwanzigfache, während 77 % der für Unternehmen relevanten Daten bis 2015 nicht strukturiert sein werden.1 Da sich der Trend in Bezug auf Volumen und Diversität fortsetzt, stellen Unternehmen mehr und mehr auf Hadoop, NoSQL und andere Tools um, um große Datenmengen in den Griff zu bekommen, die mit älteren Technologien bestehend aus relationalen Datenbanken und Data Warehouses nicht mehr effizient verwaltet werden können. Obwohl die Chancen mit dem Einsatz von Big Data ras-
Komplexitätsstufe der Implementierung (x-Achse)
ant wachsen, zeigen Untersuchungen, dass sich Unterne-
kategorisiert sind. Auswirkungen auf die Geschäftstätig-
hmen mit zwei großen Herausforderungen konfrontiert
keit reichen von der Optimierung aktueller Prozesse bis
sehen: Wertschöpfung aus Big Data und Definition einer
hin zur Umwandlung des gesamten Geschäftsmodells.
Big Data-Strategie. Im Hinblick auf diese Herausforde-
Komplexität reicht von Einstiegsimplementierungen, die
rungen werden in diesem Dokument Big Data-Anwend-
auf Standardtechnologien basieren, bis hin zu fortge-
ungsfälle erörtert, die
schrittenen Anwendungsfällen, die auf einer Kombina-
2
tion aus Technologien basieren, von denen einige nicht Geschäftsergebnisse für heutige Unternehmen generi-
im großen Maßstab vermarktet sind. Die Anwendungs-
eren. Zudem wird ein Blick auf zukünftig zu erwartende
fälle sind entweder als „Derzeitige Übernahme“ oder
Anwendungsfälle geworfen. Auf den folgenden Seiten
„Aufkommende Übernahme“ gekennzeichnet. Erstere
werden diese Anwendungsfälle erläutert und erklärt,
gibt eine breit gestreute Implementierung von Anwend-
warum Unternehmen in diese investieren. Es werden
ungsfällen an, die einfach zu wiederholenden Richtlinien
außerdem werden die allgemeinen Referenzarchitek-
folgen, während letztere Implementierungen beinhaltet,
turen vorgestellt.
die noch nicht allgemein etabliert sind, deren wachsender Einsatz jedoch zukünftig erwartet wird. In diesem
Die Grafik unten zeigt zehn wichtige Big Data-Anwend-
Dokument werden die Einzelheiten der „Derzeitige
ungsfälle für Unternehmen, die gemäß der Auswirkun-
Übernahme“-Anwendungsfälle erläutert.
gen auf die Geschäftstätigkeit (y-Achse) sowie der
1 IDC Digital Universe Study, 2012. 2 Gartner “Big Data Adoption in 2013 Shows Substance Behind the Hype,” 2013.
Konzepte für den Erfolg mit Big Data PENTAHO 2
Transformation
Daten monetarisieren Optimierte Datenaufbereitung
Data WarehouseOptimierung
Optimieren
GESCHÄFTLICHE AUSWIRKUNGEN
360-Grad-Ansicht von Kunden
Derzeitige Übernahme
On-Demand Big Data Blending
Interne Big Data als Dienst
Prognostische Analysen mit Big Data
Anwendungen der nächsten Generation
Aufkommende Übernahme
Untersuchen von Big Data
Einstieg
KOMPLEXITÄT VON ANWENDUNGSFÄLLEN
Erweitert
Die einzelnen Anwendungsfälle werden im Folgenden kurz definiert: DER ZEITIGE ÜBERNAHME
Data Warehouse-Optimierung – Das herkömmliche
auch die Bereitstellung von Informationen für kunde-
Data Warehouse (DW) stößt durch immer größere
norientierte Mitarbeiter und Partner innerhalb von
Datenvolumen an seine Grenzen und kann keine zeitgerechten Analysen mehr bieten. Die Erweiterung der DW-Kapazität kann sehr teuer sein. Unternehmen setzen daher auf Big Data, um weniger häufig genutzte Daten auszulagern und die DW-Leistung zu erhöhen. Optimierte Datenaufbereitung – In diesem Zusammenhang ist der Big Data-Speicher der Dreh- und Angelpunkt für die Verarbeitung von Daten aus vielen verschiedenen Quellen, bevor diese in Analysen mit geringer Latenzzeit (meistens in eine Analysedatenbank für schnelle Abfragen) verschoben werden. Einsparungen bei den ETL- und Datenverwaltungskosten nehmen zu und Big Data wird ein wichtiger Teil des Analyseprozesses.
Branchenanwendungen, die sie täglich verwenden. Daten monetarisieren – In diesem Fall werden angereicherte und anonymisierte Datasets Drittanbietern als Dienst bereitgestellt. Hier werden leistungsstarke Datenverarbeitung und eingebettete Analysen genutzt, um dem Unternehmen eine neue Einnahmequelle zu eröffnen. AUFKOMMENDE ÜBERNAHME
Erforschen von Big Data – Unternehmen lagern enorm große Datenmengen in Big Data-Speichern aus, aber nicht immer sind sie sicher, um welche Informationen es
360-Grad-Ansicht von Kunden – Diese Ansicht basiert auf dem Blending von verschiedenen operativen und Transaktions-Datenquellen mit Big Data-Quellen zum Erstellen von On-Demand-Analyseansichten für die wichtigsten Kunden-Touchpoints. Darin enthalten ist
sich überhaupt handelt (so genannte „Dark Data“) und ob diese produktiv genutzt werden können. Um „einen ersten Eindruck zu erhalten“, führen Analysten Data Mining- Standardalgorithmen durch, um Muster in Daten aus anderen Quellen zu erkennen.
Konzepte für den Erfolg mit Big Data PENTAHO 3
Nutzen von Maschinen- und Sensordaten – Bis vor kur-
Analyseschnittstelle innerhalb der Endbenutzeranwend-
zem war es noch unerschwinglich, Analysen mit großen
ung ermöglicht dem Verkäufer, aus dieser Innovation
Datenmengen von Geräten wie Sensoren, Routern und
umfangreich Kapital zu schlagen.
Set-Top-Boxen durchzuführen. Mittlerweile können diese Informationen jedoch mit Big Data für Data Mining
Blending von Big Data On-Demand – Trotz der Imple-
und Analysen mit geringer Latenzzeit genutzt werden
mentierung von Big Data-Speichern sind Teams häufig
– was Unternehmen in die Lage versetzt, schnell auf
den zeitlichen Beschränkungen der vorhandenen Data
Betriebsstörungen und Serviceprobleme zu reagieren.
Warehouse-Infrastruktur ausgesetzt. Für zeitkritische Anforderungen ist die grundsätzliche Umgehung des
Prognostische Analysen mit Big Data – Big Data bietet
Data Warehouse möglicherweise erforderlich. Das
einen neuen Satz an Tools zur Optimierung von Algo-
„punktgenaue“ Blending ersetzt die Bereitstellung von
rithmen für maschinelles Lernen (für Schulungsund
Daten und liefert die richtigen Daten zum richtigen Zeit-
Evaluierungszwecke) und zu deren Nutzung zur Vorher-
punkt aus allen Quellen für die Analyse.
sage oder Beeinflussung von Ausgabe (Bewertung). Die Ausführung von prognostischen Analysen im Big
Interne Big Data als Dienst – Unternehmen nutzen Big
Data-Speicher beinhaltet Anwendungen für die Betrug-
Data als gemeinsamen Datenbankdienst, der für einige
serkennung, Empfehlungsmaschinen und Angebotsop-
Anwendungsentwicklungsteams zur Aufnahme von und
timierung.
zum Zugriff auf Daten bereitgestellt wird. Ziel ist die Erreichung von Größen- und Kosteneinsparungen im
Anwendungen der nächsten Generation – Obwohl
Verhältnis zu einem eher silobasierten Ansatz. ETL- und
Cloud Computing und SaaS keine neuen Trends darstel-
Analyselösungen sind als Komponenten im zentralen
len, ist ihre nächste Phase höchstwahrscheinlich eng
Unternehmenspaket enthalten.
an Big Data gekoppelt. Anwendungsanbieter setzten auf Innovation bei der Daten- und Analysearchitektur, um ihre Produkte leistungsfähiger, intelligenter und wertvoller für Kunden zu machen. Eine eingebettete
Konzepte für den Erfolg mit Big Data PENTAHO 4
Data Warehouse-Optimierung
Speicherkosten eingespart und die Abfrageleistung wird erhöht, wenn Analysten vom Analyse-Data Mart auf Informationen zugreifen müssen.
UM WAS GEHT ES UND WARUM INVESTIEREN UNTERNEHMEN IN DIESE OPTIMIERUNG?
Die Data Warehouse-Optimierung ist einer der häufigsten
PDI
Anwendungsfälle für Big Data, die jedoch zwei erhebliche
Data Warehouse
Analytisches Data Mart
PDI
Schwachstellen aufweist: Kosten und betriebliche Leistung. Da das Volumen von Daten, die ein Unternehmen stößt die vorhandene Data Warehouse-Kapazität an ihre
CRM- & ERP-Systeme
La ye rt
speichern und auf das es zugreifen muss, stetig zunimmt,
tung und einem langsamen Zugriff auf Daten für IT- und
la tio n
al er
Grenzen. Dies führt zu einer verschlechterten AbfrageleisRe
PDI
Geschäftsanwender. Zudem steigt der Druck, bei führenden Anbietern mehr Data Warehouse-Speicherkapazität zu erwerben – eine sehr kostspielige Angelegenheit und möglicherweise auch nur eine vorübergehende Lösung im Hinblick auf den stetigen Datenzuwachs.
Andere Datenquellen
Aufnehmen
HadoopCluster
KERNPUNKTE
Aus diesem Grund haben Unternehmen ihren Blick auf Big Data gerichtet, insbesondere auf Hadoop, um diesen Druck zu reduzieren. Das Modell für verteilte Daten-
Obwohl die Data Warehouse-Optimierung einer der häufigsten Big Data-Anwendungsfälle ist, müssen dennoch Zeit, Anstrengung und Planung zur Ausführung aufgewendet werden. Hadoop zählt nach wie vor
verarbeitung von Hadoop bietet eine leistungsstarke
zu den aufstrebenden Technologien. Um jedoch die
Verarbeitung auf gebrauchsüblicher Hardware und
in den Hadoop-Distributionen enthaltenen vorinstal-
speichert Daten in HDFS (Hadoop Distributed File System). Die Kosten für dieses Modell unterschreiten in der Regel diejenigen für die herkömmliche Data WarehouseSpeicherung erheblich. Die Hadoop-Speicherkosten
lierten Tools verwenden zu können, sind Java-Programmierkenntnisse erforderlich, um Routinen zu erstellen, mit denen Data Warehouse- Daten nach Hadoop ausgelagert werden. Für Unternehmen ist es oft nicht
betragen zirka 1.000 US-Dollar pro Terabyte (TB) im
einfach, genügend geeignete Entwickler und Analysten
Gegensatz zu zirka 5.000 bis 10.000 US-Dollar pro TB oder mehr für ein vollständig geladenes Data Warehouse (einschließlich Hardware, Server usw.)3 IT-Organisationen übertragen daher weniger häufig genutzte Daten aus ihrem Data Warehouse nach Hadoop, um unter Einhaltung der Vereinbarung zum Servicelevel und bei rechtzeitiger Datenbereitstellung Kosten für die Datenspeicherung einzusparen.
mit Hadoop- Erfahrung zu finden, abgesehen davon, dass deren Vergütung etwa 50 % über der der Experten mit Kenntnissen in SQL und anderen herkömmlicheren Tools liegt.4 Pentaho bietet eine intuitive grafische Benutzeroberfläche (GUI) für Big Data-Integration, die die manuelle Programmierung ersetzt und den Zugriff auf Hadoop für alle Datenentwickler gewährleistet. Dies beschleunigt
AUFBAU
die Amortisierung und spart Personalkosten. Auch wenn
In diesem Beispiel geht es um ein Unternehmen, das Daten aus CRM- und ERP-Systemen sowie aus anderen Quellen nutzt. Ein Hadoop-Cluster wurde implementiert, um weniger häufig genutzte Daten aus dem vorhandenen Data Warehouse auszulagern. Dabei werden
ein Unternehmen bereits über eine implementierte Integrationslösung verfügt, bieten alte Plattformen keine Lösungen ohne Programmierung, um vorhandene Datenquellen und Datenbanken mit Hadoop zu integrieren.
3 Information Week, “How Hadoop Cuts Big Data Costs,” 2012. 4 O’Reilly, “2013 Data Science Salary Survey,” 2013.
Konzepte für den Erfolg mit Big Data PENTAHO 5
Optimierte Datenaufbereitung Analyzer
Transaktionen – Batch & Echtzeit
UM WAS GEHT ES UND WARUM INVESTIEREN UNTERNEHMEN IN DIESE OPTIMIERUNG?
PDI
PDI
Angesichts explodierender Volumen strukturierter Transaktions-, Kunden- und anderer Daten werden herkömmliche ETL-Systeme immer langsamer und Analysen
Registrierungen & Einlösungen
HadoopCluster
AnalyseDatenbank
Berichte
können nicht mehr durchgeführt werden. Dank der „Datenaufbereitung“ können die meisten Datenquellen über einen skalierbaren Big Data-Verarbeitungs-Hub mit Hadoop für die Transformation optimiert werden. Die aufbereiteten Daten werden an eine Analysedatenbank
Ort, E-mail, sonstige Daten
für Self- Service-Analysen von unterschiedlichen Daten
KERNPUNKTE
mit einer geringen Latenzzeit weitergeleitet.
Die Herausforderungen an die Mitarbeiter und die Produktivität in Bezug auf die DW-Optimierung existie-
Dieser Anwendungsfall ist oft eine logische Konsequenz
ren nach wie vor. Darum überrascht es kaum, dass die
der Kosteneinsparungen und der operativen Verbesse-
Rendite mit Tools erhöht werden kann, die die Program-
rung der Data Warehouse- Optimierung. An dieser
mierung ersetzen und den Prozess der Integration von
Stelle werden mehr und komplexere Daten in Hadoop
Big Data-Speichern in verschiedene relationale Sys-
geladen – wodurch Hadoop nicht mehr nur ein Archiv
teme vereinfachen. Auf der anderen Seite stellt dieser
ist, sondern eine Quelle mit wertvollen Geschäftsinfor-
Anwendungsfall generell ein umfangreicheres und lang-
mationen aus mehreren Quellen, die nur darauf warten
wieriges Integrationsprojekt dar, für das die Konsolidier-
abgefragt zu werden. Im Gegensatz zur Data Ware-
ung vieler Punkt-zu-Punkt-Systemverbindungen in ein
house- Optimierung ist dieser Anwendungsfall weitaus
zentrales Hub-Modell erforderlich ist. Die Durchführung
transformativer. Dank schnellerer Abfragen, schneller
des Projekts wird komplexer, je vielfältiger die Datenty-
Einbindung und leistungsstarker Verarbeitung können
pen und Datenquellen sind. Um so wichtiger ist es, sich
Unternehmen anhand der Kombination aus Hadoop und
für Datenintegrationsund Analyseplattformen mit einer
einer Analysedatenbank (wie zum Beispiel Vertica oder
äußerst flexiblen Verbindung zu einem breiten Spe-
Greenplum) nützliche Analysen von diversen Daten-
ktrum an aktuellen und zukünftigen Datensystemen zu
quellen mit großem Volumen durchführen. Gleichzeitig
entscheiden. Aufgrund der immer wichtiger werdenden
können Teams Datasets für prognostische Analysen
analytischen Einblicke aus Hadoop in diesem Anwend-
schneller entwickeln.
ungsfall rückt auch die Zusammenarbeit zwischen Datenentwicklern und Geschäftsanalysten in den Fokus. Für
AUFBAU
Datenanbindung und Business Intelligence ist eine integ-
Im Beispiel unten wird eine Aufbereitungsarchitektur
rierte Plattform erforderlich. Wenn IT- und Geschäftsan-
für einen Vermarktungsdienstleister für elektronische
wender getrennte Toolsets verwenden, ist eine effektive
Medien zwecks Bereitstellung personenbezogener Ange-
Zusammenarbeit weitaus schwieriger.
bote erstellt. Online-Kampagnen-, Registrierungs- und Transaktionsdaten werden via Hadoop aufgenommen,
Eine Analysedatenbank wird normalerweise als Haupt-
verarbeitet und an eine Analysedatenbank gesendet. Ein
teil dieser Architektur betrachtet. Diese Datenbanken
Geschäftsanalyse-Front-End bietet Berichterstellung und
werden in der Regel durch schnellere Abfrageleistung,
Ad-hoc-Analyse für Geschäftsanwender.
größere Skalierbarkeit, mehrdimensionale „Analysewürfel“ bzw. speicherinterne Funktionen für Business Intelligence optimiert. Im Vergleich dazu erreichen herkömmliche Transaktionsdatenbanken möglicherweise nicht das Niveau an Abfrageleistung und Analysefunktionen. Konzepte für den Erfolg mit Big Data PENTAHO 6
360-Grad-Ansicht von Kunden UM WAS GEHT ES UND WARUM INVESTIEREN
CRM-System
UNTERNEHMEN IN DIESE OPTIMIERUNG?
Schon lange versuchen unsere Kunden, verschiedene Datenquellen zu vereinen, um eine On-Demand-Analyseansicht für die wichtigsten Kunden-Touchpoints zu erstellen. Durch die Nutzung von Big Data und herkömmlichen Datenquellen in einem vollständig integrierten
Dokumente & Bilder
PDI
Verwaltungsinfos
System können Unternehmen dieses Ziel erreichen und
PDI
Call CenterAnsicht
ResearchAnalysten
Ansprüche
eine umfangreiche Einsicht in Kundendaten gewinnen. Im Gegensatz zur DW-Optimierung und der optimierten Datenaufbereitung, bei denen es sich primär um
NoSQL
Prognostische Analyse OnlineInteraktionen
kosten- und effizienzgesteuerte Anwendungsfälle handelt, zielt die 360-Grad-Ansicht von Kunden klar auf die Steigerung des Customer-Lifetime- Value ab,
dort aus werden die Daten verarbeitet und auf der
besonders in wettbewerbsintensiven Konsumenten-
Ebene einer eindeutigen Kunden-ID zusammengefasst,
märkten, in denen Kundenabwanderung ein wichtiger
um eine 360-Grad-Ansicht zu erstellen. Präzise und
Faktor ist (zum Beispiel Telekommunikationsunterne-
verwaltete Kundendaten werden an die entsprechenden
hmen, Gastronomie und Finanzdienstleister). Die beiden
Analyseansichten für jede Rolle weitergeleitet, ein-
wichtigsten Erfolgsfaktoren sind wachsende Cross-Sell-
schließlich der Call Center-Mitarbeiter, der Analysten
ing- und Up-Selling-Einnahmen sowie die Minimierung
und der Datenexperten.
der Kundenabwanderung. KERNPUNKTE
Dieser Anwendungsfall wird über das Back-End durch
Wenngleich diese Implementierung den jeweiligen
das Vereinen aller Daten der Kunden-Touchpoints in
Unternehmensbereichen großen Nutzen bringen kann,
einem einzelnen Repository für schnelle Abfragen
kann sie dennoch äußerst komplex und ressourcenin-
(höchstwahrscheinlich NoSQL oder Hadoop) ermöglicht.
tensiv sein. Zusätzlich zu den Herausforderungen
Das Front-End unterstützt diesen Anwendungsfall,
bezüglich der personellen Big Data-Ressourcen und die
indem die relevanten Messgrößen an einem zentralen
in den vorherigen Abschnitten erläuterten Anforderun-
Ort für Geschäftsanwender zusammengeführt werden.
gen aufgrund der Punkt-zu-Punkt-Integration setzt die
Durch das Blending von zuvor getrennten Daten können
360-Grad Ansicht von Kunden eine erhebliche strat-
Vertriebs- und Serviceteams mit der 360-Grad-Ansicht
egische Planung aus Geschäftsperspektive dar. Zunächst
von Kunden ein besseres Verständnis des Käufers
sollten bestimmte die Einnahmen betreffenden Ziele mit
erlangen und sich ein genaueres Bild darüber machen, wie die Produkte und Dienstleistungen einer Marke aufgenommen werden. Ausgestattet mit diesen Einblicken können die Mitarbeiter während der Interaktion mit den Kunden weitaus produktivere und profitablere Entscheidungen treffen - und das unmittelbar. AUFBAU
Im Beispiel oben speichert ein Finanzdienstleistungsunternehmen Daten aus verschiedenen Quellen in einem
Die beiden Hauptfaktoren für Erfolg ist die Steigerung von Cross-Selling- und UpsellingUmsätzen und die Minimierung der Kundenabwanderung.
einzelnen Big Data-Speicher, in diesem Fall NoSQL. Von
Konzepte für den Erfolg mit Big Data PENTAHO 7
dem Projekt verknüpft werden. Die jeweiligen Interes-
Aus Perspektive der Technologiekompatibilität und Lief-
sensgruppen müssen die potenziell treibenden Kräfte
erantenbeziehungen ist es sinnvoll, sich nach Daten- und
für Kundenzufriedenheit und mögliche Verkaufschancen
Analyseanbietern umzusehen, die die meisten bzw. alle
für die Mitarbeiter mit Kundenkontakt ermitteln, die Vor-
dieser Funktionen in einer integrierten Plattform bere-
teile aus diesen Daten ziehen. Parallel dazu müssen die
itstellen. Gleichzeitig sollte eine Verpflichtung seitens
jeweiligen Endanwender Teil des Planungsprozesses
der Anbieter bestehen, Big Data-Integrationsfunktionen
sein, damit Informationen aus den richtigen Quellen an
bereitzustellen, die sich im Laufe der Zeit nahtlos in
die richtigen Personen auf die richtige Art und Weise
Technologieänderungen integrieren lassen – wodurch
geliefert werden. Analysen müssen den Anwendern so
die Neukonfiguration einer Projektbereitstellung min-
präsentiert werden, dass sie sicher angenommen
imiert und die Belastbarkeit maximiert werden kann.
werden. Dies bedeutet, dass der Zugriff einfach sein
Die Fähigkeit, sich verändernden Kundenbedürfnis-
muss, die Inhalte einfach zu verstehen sind und die
sen und Datenarchitekturen zu begegnen, ist in einem
Analysen in wichtige operative Anwendungen einge-
anspruchsvollen Projekt wie der 360-Grad-Analyse von
bettet werden können.
Kunden von großer Bedeutung.
Aus technischer Perspektive kann eine NoSQLLösung wie MongoDB der bevorzugte Big Data- Speicher sein, wenn ein Unternehmen viele zeitkritische Kundenstromdaten in eine einzelne Sammlung weiterleiten möchte, die schnell und einfach auf die Server verteilt werden kann. Hadoop ist eher geeignet, wenn die Daten in Batches verarbeitet werden und historisch gespeichert werden müssen. Häufig werden sowohl Hadoop als auch NoSQL in derselben Architektur verwendet. Die Integration der jeweiligen Big Data-Speicher in die unterschiedlichsten Back-End-Anwendungen und Datenbanken ist entscheidend, doch aller Voraussicht nach werden auch neue Front-End-Anforderungen auftreten.
Aus Perspektive der Technologiekompatibilität und Lieferantenbeziehungen ist es sinnvoll, sich nach Daten- und Analyseanbietern umzusehen, die die meisten bzw. alle dieser Funktionen in einer integrierten Plattform bereitstellen.
Verschiedene Nutzer von Kundenanalysen erfordern unterschiedliche BI-Typen. Dazu zählen: • Intuitive und anpassbare Dashboards für Führungskräfte • Anspruchsvolle und intuitive Slicing- und Dicing-Tools für Analysten • Verteilte Berichterstellungsfunktionen für die gemeinsame Verwendung von Informationen in Teams • Tools für Data Mining und prognostische Analysen für Datenexperten • Analysen, die in operative Software wie CRM- und Service-Anwendungen eingebettet werden können
Konzepte für den Erfolg mit Big Data PENTAHO 8
Daten monetarisieren UM WAS GEHT ES UND WARUM INVESTIEREN UNTERNEHMEN IN DIESE OPTIMIERUNG?
Kunde (anonym)
Die Kosteneffizienz von Big Data und die Fähigkeit zur Verarbeitung unterschiedlicher Datenstrukturen
PDI
Analyse & Daten
PDI
eröffnet viele Möglichkeiten, das Hauptgeschäft eines Unternehmens zu erweitern. Es bietet aber auch das
Abrechnung HadoopCluster
Potenzial zum Hinzufügen neuer strategischer Ein-
AnalyseDatenbank
nahmeströme, die sich in vielerlei Hinsicht vom KerngeNetz
schäft unterscheiden. „Daten monetarisieren“ ist ein solcher Anwendungsfall – er ermöglicht den Verkauf der Daten selbst. Da Unternehmen in ihrem täglichen Geschäft immer mehr und vielseitigere Daten sam-
Standort
meln, steigt deren potenzieller Wert für Drittanbieter zunehmend. In diesem Anwendungsfall werden die Daten organisiert, aufbereitet und anonymisiert (zwecks
KERNPUNKTE
Datenschutz für die Personen oder Unternehmen, von
Gartner sagt voraus, dass die Datenbestände von
denen die Daten stammen), bevor sie verkauft werden
Unternehmen im Jahr 2016 zu 30 Prozent monetarisiert
– in der Regel an externe Auftraggeber aus dem Bereich
sein werden5 – dies stellt eine echte Verkaufschance
Marketing. Ein Telekommunikationsunternehmen kann
dar und die Nutzung der richtigen Big Data-Tools und
beispielsweise Standortdaten von Mobiltelefonen zu
Ansätze kann dieses Potenzial freigeben. Im Vergleich
verschiedenen Tageszeiten sammeln und die erfassten
zu kostspieligeren Data Warehouse-Lösungen können
Datasets an ein Handelsunternehmen verkaufen, um
im Anwendungsfall „Daten monetarisieren“ mit Hadoop
Geschäftsstandortentscheidungen zu unterstützen.
als Verarbeitungsplattform Kosten reduziert und höhere
Daraus ergibt sich eine neue Einnahmequelle für das
Renditen erzielt werden (mindestens 5 bis 10 Mal billiger
Telekommunikationsunternehmen, da seine Daten dem
pro TB, siehe „Data Warehouse-Optimierung“). Rentabil-
Handelsunternehmen, das bisher althergebrachte Meth-
ität und Amortisierung werden mit den Funktionen für
oden verwendet hat, dabei helfen, seine Kunden auf
die Big Data-Integration, für die keine Programmierung
intelligentere Art und Weise zu erreichen.
erforderlich ist, und für die Geschäftsanalysen weiter verbessert. Für die Bereitstellung von Analysen als
AUFBAU
Dienst für Drittanbieter ist möglicherweise die Einbet-
Im Beispiel unten kombiniert ein Telekommunikation-
tung von Berichterstellungen und Visualisierungen in
sunternehmen demografische und Mobilitätsdaten, um
eine dem Unternehmens-Branding entsprechende
Drittanbietern unter Nutzung von raumbezogenen Visu-
Webanwendung erforderlich. Die offene Architektur und
alisierungen einen spezialisierten Analysedienst bereit-
die visuelle Flexibilität von Pentaho eignen sich hervor-
zustellen und das Kaufpotenzial für den Einzelhandel zu
ragend für diesen Ansatz.
ermitteln. Für diesen Anwendungsfall wird eine Hadoopund eine Analysedatenbank verwendet.
5 Gartner, „Gartner sagt voraus, dass die Datenbestände von Unternehmen im Jahr 2016 zu 30 Prozent monetarisiert sind“, 2013.
Konzepte für den Erfolg mit Big Data PENTAHO 9
Erfahren Sie mehr über Pentaho Business Analytics pentaho.de/contact
Global Headquarters Citadel International - Suite 340 5950 Hazeltine National Dr. Orlando, FL 32822, USA tel +1 407 812 6736 fax +1 407 517 4575
Vertrieb (USA und Weltweit) 353 Sacramento Street, Suite 1500 San Francisco, CA 94111, USA tel +1 415 525 5540 Gebührenfrei +1 866 660 7555
Vereinigtes Königreich, Übriges Europa, Naher Osten, Afrika London, Großbritannien tel +44 7711 104854 Gebührenfrei (UK) 0 800 680 0693
FRANKREICH Niederlassung - Paris, Frankreich tel +33 97 51 82 296 Gebührenfrei (Frankreich) 0800 915343
DEUTSCHLAND, ÖSTERREICH, SCHWEIZ Niederlassung - Frankfurt, Deutschland tel +49(0)89 / 37 41 40 81 Gebührenfrei (Deutschland) 0800 186 0332
BELGIEN, NIEDERLANDE, LUXEMBURG Niederlassung - Antwerpen, Belgien tel +31 6 52 69 88 01 Gebührenfrei (Belgien) 0800 773 83
ITALIEN, SPANIEN, PORTUGAL Niederlassung in Valencia, Spanien gebührenfrei (Italien) 800-798-217 gebührenfrei (Spanien) 900-868522 gebührenfrei (Portugal) 800-180-060
Be social with Pentaho:
Copyright ©2015 Pentaho Corporation. Weitergabe erlaubt. Alle Marken sind Eigentum der jeweiligen Inhaber. Aktuelle informationen finden Sie auf unserer Website unter pentaho.de.