08. Big Data Blueprints – German

Report 2 Downloads 12 Views
Konzepte für den Erfolg mit Big Data Erfolg für vier gängige Szenarios

Copyright ©2015 Pentaho Corporation. Weitergabe erlaubt. Alle Marken sind Eigentum der jeweiligen Inhaber. Aktuelle informationen finden Sie auf unserer Website unter pentaho.de.

Einführung Mittlerweile hat es sich herumgesprochen, dass Big Data eine große Verschiebung in der Landschaft der Unternehmenstechnologie darstellt. Laut Schätzungen von IDC wächst die Menge an brauchbaren Daten weltweit zwischen 2010 und 2020 um das Zwanzigfache, während 77 % der für Unternehmen relevanten Daten bis 2015 nicht strukturiert sein werden.1 Da sich der Trend in Bezug auf Volumen und Diversität fortsetzt, stellen Unternehmen mehr und mehr auf Hadoop, NoSQL und andere Tools um, um große Datenmengen in den Griff zu bekommen, die mit älteren Technologien bestehend aus relationalen Datenbanken und Data Warehouses nicht mehr effizient verwaltet werden können. Obwohl die Chancen mit dem Einsatz von Big Data ras-

Komplexitätsstufe der Implementierung (x-Achse)

ant wachsen, zeigen Untersuchungen, dass sich Unterne-

kategorisiert sind. Auswirkungen auf die Geschäftstätig-

hmen mit zwei großen Herausforderungen konfrontiert

keit reichen von der Optimierung aktueller Prozesse bis

sehen: Wertschöpfung aus Big Data und Definition einer

hin zur Umwandlung des gesamten Geschäftsmodells.

Big Data-Strategie. Im Hinblick auf diese Herausforde-

Komplexität reicht von Einstiegsimplementierungen, die

rungen werden in diesem Dokument Big Data-Anwend-

auf Standardtechnologien basieren, bis hin zu fortge-

ungsfälle erörtert, die

schrittenen Anwendungsfällen, die auf einer Kombina-

2

tion aus Technologien basieren, von denen einige nicht Geschäftsergebnisse für heutige Unternehmen generi-

im großen Maßstab vermarktet sind. Die Anwendungs-

eren. Zudem wird ein Blick auf zukünftig zu erwartende

fälle sind entweder als „Derzeitige Übernahme“ oder

Anwendungsfälle geworfen. Auf den folgenden Seiten

„Aufkommende Übernahme“ gekennzeichnet. Erstere

werden diese Anwendungsfälle erläutert und erklärt,

gibt eine breit gestreute Implementierung von Anwend-

warum Unternehmen in diese investieren. Es werden

ungsfällen an, die einfach zu wiederholenden Richtlinien

außerdem werden die allgemeinen Referenzarchitek-

folgen, während letztere Implementierungen beinhaltet,

turen vorgestellt.

die noch nicht allgemein etabliert sind, deren wachsender Einsatz jedoch zukünftig erwartet wird. In diesem

Die Grafik unten zeigt zehn wichtige Big Data-Anwend-

Dokument werden die Einzelheiten der „Derzeitige

ungsfälle für Unternehmen, die gemäß der Auswirkun-

Übernahme“-Anwendungsfälle erläutert.

gen auf die Geschäftstätigkeit (y-Achse) sowie der

1 IDC Digital Universe Study, 2012. 2 Gartner “Big Data Adoption in 2013 Shows Substance Behind the Hype,” 2013.

Konzepte für den Erfolg mit Big Data PENTAHO 2

Transformation

Daten monetarisieren Optimierte Datenaufbereitung

Data WarehouseOptimierung

Optimieren

GESCHÄFTLICHE AUSWIRKUNGEN

360-Grad-Ansicht von Kunden

Derzeitige Übernahme

On-Demand Big Data Blending

Interne Big Data als Dienst

Prognostische Analysen mit Big Data

Anwendungen der nächsten Generation

Aufkommende Übernahme

Untersuchen von Big Data

Einstieg

KOMPLEXITÄT VON ANWENDUNGSFÄLLEN

Erweitert

Die einzelnen Anwendungsfälle werden im Folgenden kurz definiert: DER ZEITIGE ÜBERNAHME

Data Warehouse-Optimierung – Das herkömmliche

auch die Bereitstellung von Informationen für kunde-

Data Warehouse (DW) stößt durch immer größere

norientierte Mitarbeiter und Partner innerhalb von

Datenvolumen an seine Grenzen und kann keine zeitgerechten Analysen mehr bieten. Die Erweiterung der DW-Kapazität kann sehr teuer sein. Unternehmen setzen daher auf Big Data, um weniger häufig genutzte Daten auszulagern und die DW-Leistung zu erhöhen. Optimierte Datenaufbereitung – In diesem Zusammenhang ist der Big Data-Speicher der Dreh- und Angelpunkt für die Verarbeitung von Daten aus vielen verschiedenen Quellen, bevor diese in Analysen mit geringer Latenzzeit (meistens in eine Analysedatenbank für schnelle Abfragen) verschoben werden. Einsparungen bei den ETL- und Datenverwaltungskosten nehmen zu und Big Data wird ein wichtiger Teil des Analyseprozesses.

Branchenanwendungen, die sie täglich verwenden. Daten monetarisieren – In diesem Fall werden angereicherte und anonymisierte Datasets Drittanbietern als Dienst bereitgestellt. Hier werden leistungsstarke Datenverarbeitung und eingebettete Analysen genutzt, um dem Unternehmen eine neue Einnahmequelle zu eröffnen. AUFKOMMENDE ÜBERNAHME

Erforschen von Big Data – Unternehmen lagern enorm große Datenmengen in Big Data-Speichern aus, aber nicht immer sind sie sicher, um welche Informationen es

360-Grad-Ansicht von Kunden – Diese Ansicht basiert auf dem Blending von verschiedenen operativen und Transaktions-Datenquellen mit Big Data-Quellen zum Erstellen von On-Demand-Analyseansichten für die wichtigsten Kunden-Touchpoints. Darin enthalten ist

sich überhaupt handelt (so genannte „Dark Data“) und ob diese produktiv genutzt werden können. Um „einen ersten Eindruck zu erhalten“, führen Analysten Data Mining- Standardalgorithmen durch, um Muster in Daten aus anderen Quellen zu erkennen.

Konzepte für den Erfolg mit Big Data PENTAHO 3

Nutzen von Maschinen- und Sensordaten – Bis vor kur-

Analyseschnittstelle innerhalb der Endbenutzeranwend-

zem war es noch unerschwinglich, Analysen mit großen

ung ermöglicht dem Verkäufer, aus dieser Innovation

Datenmengen von Geräten wie Sensoren, Routern und

umfangreich Kapital zu schlagen.

Set-Top-Boxen durchzuführen. Mittlerweile können diese Informationen jedoch mit Big Data für Data Mining

Blending von Big Data On-Demand – Trotz der Imple-

und Analysen mit geringer Latenzzeit genutzt werden

mentierung von Big Data-Speichern sind Teams häufig

– was Unternehmen in die Lage versetzt, schnell auf

den zeitlichen Beschränkungen der vorhandenen Data

Betriebsstörungen und Serviceprobleme zu reagieren.

Warehouse-Infrastruktur ausgesetzt. Für zeitkritische Anforderungen ist die grundsätzliche Umgehung des

Prognostische Analysen mit Big Data – Big Data bietet

Data Warehouse möglicherweise erforderlich. Das

einen neuen Satz an Tools zur Optimierung von Algo-

„punktgenaue“ Blending ersetzt die Bereitstellung von

rithmen für maschinelles Lernen (für Schulungsund

Daten und liefert die richtigen Daten zum richtigen Zeit-

Evaluierungszwecke) und zu deren Nutzung zur Vorher-

punkt aus allen Quellen für die Analyse.

sage oder Beeinflussung von Ausgabe (Bewertung). Die Ausführung von prognostischen Analysen im Big

Interne Big Data als Dienst – Unternehmen nutzen Big

Data-Speicher beinhaltet Anwendungen für die Betrug-

Data als gemeinsamen Datenbankdienst, der für einige

serkennung, Empfehlungsmaschinen und Angebotsop-

Anwendungsentwicklungsteams zur Aufnahme von und

timierung.

zum Zugriff auf Daten bereitgestellt wird. Ziel ist die Erreichung von Größen- und Kosteneinsparungen im

Anwendungen der nächsten Generation – Obwohl

Verhältnis zu einem eher silobasierten Ansatz. ETL- und

Cloud Computing und SaaS keine neuen Trends darstel-

Analyselösungen sind als Komponenten im zentralen

len, ist ihre nächste Phase höchstwahrscheinlich eng

Unternehmenspaket enthalten.

an Big Data gekoppelt. Anwendungsanbieter setzten auf Innovation bei der Daten- und Analysearchitektur, um ihre Produkte leistungsfähiger, intelligenter und wertvoller für Kunden zu machen. Eine eingebettete

Konzepte für den Erfolg mit Big Data PENTAHO 4

Data Warehouse-Optimierung

Speicherkosten eingespart und die Abfrageleistung wird erhöht, wenn Analysten vom Analyse-Data Mart auf Informationen zugreifen müssen.

UM WAS GEHT ES UND WARUM INVESTIEREN UNTERNEHMEN IN DIESE OPTIMIERUNG?

Die Data Warehouse-Optimierung ist einer der häufigsten

PDI

Anwendungsfälle für Big Data, die jedoch zwei erhebliche

Data Warehouse

Analytisches Data Mart

PDI

Schwachstellen aufweist: Kosten und betriebliche Leistung. Da das Volumen von Daten, die ein Unternehmen stößt die vorhandene Data Warehouse-Kapazität an ihre

CRM- & ERP-Systeme

La ye rt

speichern und auf das es zugreifen muss, stetig zunimmt,

tung und einem langsamen Zugriff auf Daten für IT- und

la tio n

al er

Grenzen. Dies führt zu einer verschlechterten AbfrageleisRe

PDI

Geschäftsanwender. Zudem steigt der Druck, bei führenden Anbietern mehr Data Warehouse-Speicherkapazität zu erwerben – eine sehr kostspielige Angelegenheit und möglicherweise auch nur eine vorübergehende Lösung im Hinblick auf den stetigen Datenzuwachs.

Andere Datenquellen

Aufnehmen

HadoopCluster

KERNPUNKTE

Aus diesem Grund haben Unternehmen ihren Blick auf Big Data gerichtet, insbesondere auf Hadoop, um diesen Druck zu reduzieren. Das Modell für verteilte Daten-

Obwohl die Data Warehouse-Optimierung einer der häufigsten Big Data-Anwendungsfälle ist, müssen dennoch Zeit, Anstrengung und Planung zur Ausführung aufgewendet werden. Hadoop zählt nach wie vor

verarbeitung von Hadoop bietet eine leistungsstarke

zu den aufstrebenden Technologien. Um jedoch die

Verarbeitung auf gebrauchsüblicher Hardware und

in den Hadoop-Distributionen enthaltenen vorinstal-

speichert Daten in HDFS (Hadoop Distributed File System). Die Kosten für dieses Modell unterschreiten in der Regel diejenigen für die herkömmliche Data WarehouseSpeicherung erheblich. Die Hadoop-Speicherkosten

lierten Tools verwenden zu können, sind Java-Programmierkenntnisse erforderlich, um Routinen zu erstellen, mit denen Data Warehouse- Daten nach Hadoop ausgelagert werden. Für Unternehmen ist es oft nicht

betragen zirka 1.000 US-Dollar pro Terabyte (TB) im

einfach, genügend geeignete Entwickler und Analysten

Gegensatz zu zirka 5.000 bis 10.000 US-Dollar pro TB oder mehr für ein vollständig geladenes Data Warehouse (einschließlich Hardware, Server usw.)3 IT-Organisationen übertragen daher weniger häufig genutzte Daten aus ihrem Data Warehouse nach Hadoop, um unter Einhaltung der Vereinbarung zum Servicelevel und bei rechtzeitiger Datenbereitstellung Kosten für die Datenspeicherung einzusparen.

mit Hadoop- Erfahrung zu finden, abgesehen davon, dass deren Vergütung etwa 50 % über der der Experten mit Kenntnissen in SQL und anderen herkömmlicheren Tools liegt.4 Pentaho bietet eine intuitive grafische Benutzeroberfläche (GUI) für Big Data-Integration, die die manuelle Programmierung ersetzt und den Zugriff auf Hadoop für alle Datenentwickler gewährleistet. Dies beschleunigt

AUFBAU

die Amortisierung und spart Personalkosten. Auch wenn

In diesem Beispiel geht es um ein Unternehmen, das Daten aus CRM- und ERP-Systemen sowie aus anderen Quellen nutzt. Ein Hadoop-Cluster wurde implementiert, um weniger häufig genutzte Daten aus dem vorhandenen Data Warehouse auszulagern. Dabei werden

ein Unternehmen bereits über eine implementierte Integrationslösung verfügt, bieten alte Plattformen keine Lösungen ohne Programmierung, um vorhandene Datenquellen und Datenbanken mit Hadoop zu integrieren.

3 Information Week, “How Hadoop Cuts Big Data Costs,” 2012. 4 O’Reilly, “2013 Data Science Salary Survey,” 2013.

Konzepte für den Erfolg mit Big Data PENTAHO 5

Optimierte Datenaufbereitung Analyzer

Transaktionen – Batch & Echtzeit

UM WAS GEHT ES UND WARUM INVESTIEREN UNTERNEHMEN IN DIESE OPTIMIERUNG?

PDI

PDI

Angesichts explodierender Volumen strukturierter Transaktions-, Kunden- und anderer Daten werden herkömmliche ETL-Systeme immer langsamer und Analysen

Registrierungen & Einlösungen

HadoopCluster

AnalyseDatenbank

Berichte

können nicht mehr durchgeführt werden. Dank der „Datenaufbereitung“ können die meisten Datenquellen über einen skalierbaren Big Data-Verarbeitungs-Hub mit Hadoop für die Transformation optimiert werden. Die aufbereiteten Daten werden an eine Analysedatenbank

Ort, E-mail, sonstige Daten

für Self- Service-Analysen von unterschiedlichen Daten

KERNPUNKTE

mit einer geringen Latenzzeit weitergeleitet.

Die Herausforderungen an die Mitarbeiter und die Produktivität in Bezug auf die DW-Optimierung existie-

Dieser Anwendungsfall ist oft eine logische Konsequenz

ren nach wie vor. Darum überrascht es kaum, dass die

der Kosteneinsparungen und der operativen Verbesse-

Rendite mit Tools erhöht werden kann, die die Program-

rung der Data Warehouse- Optimierung. An dieser

mierung ersetzen und den Prozess der Integration von

Stelle werden mehr und komplexere Daten in Hadoop

Big Data-Speichern in verschiedene relationale Sys-

geladen – wodurch Hadoop nicht mehr nur ein Archiv

teme vereinfachen. Auf der anderen Seite stellt dieser

ist, sondern eine Quelle mit wertvollen Geschäftsinfor-

Anwendungsfall generell ein umfangreicheres und lang-

mationen aus mehreren Quellen, die nur darauf warten

wieriges Integrationsprojekt dar, für das die Konsolidier-

abgefragt zu werden. Im Gegensatz zur Data Ware-

ung vieler Punkt-zu-Punkt-Systemverbindungen in ein

house- Optimierung ist dieser Anwendungsfall weitaus

zentrales Hub-Modell erforderlich ist. Die Durchführung

transformativer. Dank schnellerer Abfragen, schneller

des Projekts wird komplexer, je vielfältiger die Datenty-

Einbindung und leistungsstarker Verarbeitung können

pen und Datenquellen sind. Um so wichtiger ist es, sich

Unternehmen anhand der Kombination aus Hadoop und

für Datenintegrationsund Analyseplattformen mit einer

einer Analysedatenbank (wie zum Beispiel Vertica oder

äußerst flexiblen Verbindung zu einem breiten Spe-

Greenplum) nützliche Analysen von diversen Daten-

ktrum an aktuellen und zukünftigen Datensystemen zu

quellen mit großem Volumen durchführen. Gleichzeitig

entscheiden. Aufgrund der immer wichtiger werdenden

können Teams Datasets für prognostische Analysen

analytischen Einblicke aus Hadoop in diesem Anwend-

schneller entwickeln.

ungsfall rückt auch die Zusammenarbeit zwischen Datenentwicklern und Geschäftsanalysten in den Fokus. Für

AUFBAU

Datenanbindung und Business Intelligence ist eine integ-

Im Beispiel unten wird eine Aufbereitungsarchitektur

rierte Plattform erforderlich. Wenn IT- und Geschäftsan-

für einen Vermarktungsdienstleister für elektronische

wender getrennte Toolsets verwenden, ist eine effektive

Medien zwecks Bereitstellung personenbezogener Ange-

Zusammenarbeit weitaus schwieriger.

bote erstellt. Online-Kampagnen-, Registrierungs- und Transaktionsdaten werden via Hadoop aufgenommen,

Eine Analysedatenbank wird normalerweise als Haupt-

verarbeitet und an eine Analysedatenbank gesendet. Ein

teil dieser Architektur betrachtet. Diese Datenbanken

Geschäftsanalyse-Front-End bietet Berichterstellung und

werden in der Regel durch schnellere Abfrageleistung,

Ad-hoc-Analyse für Geschäftsanwender.

größere Skalierbarkeit, mehrdimensionale „Analysewürfel“ bzw. speicherinterne Funktionen für Business Intelligence optimiert. Im Vergleich dazu erreichen herkömmliche Transaktionsdatenbanken möglicherweise nicht das Niveau an Abfrageleistung und Analysefunktionen. Konzepte für den Erfolg mit Big Data PENTAHO 6

360-Grad-Ansicht von Kunden UM WAS GEHT ES UND WARUM INVESTIEREN

CRM-System

UNTERNEHMEN IN DIESE OPTIMIERUNG?

Schon lange versuchen unsere Kunden, verschiedene Datenquellen zu vereinen, um eine On-Demand-Analyseansicht für die wichtigsten Kunden-Touchpoints zu erstellen. Durch die Nutzung von Big Data und herkömmlichen Datenquellen in einem vollständig integrierten

Dokumente & Bilder

PDI

Verwaltungsinfos

System können Unternehmen dieses Ziel erreichen und

PDI

Call CenterAnsicht

ResearchAnalysten

Ansprüche

eine umfangreiche Einsicht in Kundendaten gewinnen. Im Gegensatz zur DW-Optimierung und der optimierten Datenaufbereitung, bei denen es sich primär um

NoSQL

Prognostische Analyse OnlineInteraktionen

kosten- und effizienzgesteuerte Anwendungsfälle handelt, zielt die 360-Grad-Ansicht von Kunden klar auf die Steigerung des Customer-Lifetime- Value ab,

dort aus werden die Daten verarbeitet und auf der

besonders in wettbewerbsintensiven Konsumenten-

Ebene einer eindeutigen Kunden-ID zusammengefasst,

märkten, in denen Kundenabwanderung ein wichtiger

um eine 360-Grad-Ansicht zu erstellen. Präzise und

Faktor ist (zum Beispiel Telekommunikationsunterne-

verwaltete Kundendaten werden an die entsprechenden

hmen, Gastronomie und Finanzdienstleister). Die beiden

Analyseansichten für jede Rolle weitergeleitet, ein-

wichtigsten Erfolgsfaktoren sind wachsende Cross-Sell-

schließlich der Call Center-Mitarbeiter, der Analysten

ing- und Up-Selling-Einnahmen sowie die Minimierung

und der Datenexperten.

der Kundenabwanderung. KERNPUNKTE

Dieser Anwendungsfall wird über das Back-End durch

Wenngleich diese Implementierung den jeweiligen

das Vereinen aller Daten der Kunden-Touchpoints in

Unternehmensbereichen großen Nutzen bringen kann,

einem einzelnen Repository für schnelle Abfragen

kann sie dennoch äußerst komplex und ressourcenin-

(höchstwahrscheinlich NoSQL oder Hadoop) ermöglicht.

tensiv sein. Zusätzlich zu den Herausforderungen

Das Front-End unterstützt diesen Anwendungsfall,

bezüglich der personellen Big Data-Ressourcen und die

indem die relevanten Messgrößen an einem zentralen

in den vorherigen Abschnitten erläuterten Anforderun-

Ort für Geschäftsanwender zusammengeführt werden.

gen aufgrund der Punkt-zu-Punkt-Integration setzt die

Durch das Blending von zuvor getrennten Daten können

360-Grad Ansicht von Kunden eine erhebliche strat-

Vertriebs- und Serviceteams mit der 360-Grad-Ansicht

egische Planung aus Geschäftsperspektive dar. Zunächst

von Kunden ein besseres Verständnis des Käufers

sollten bestimmte die Einnahmen betreffenden Ziele mit

erlangen und sich ein genaueres Bild darüber machen, wie die Produkte und Dienstleistungen einer Marke aufgenommen werden. Ausgestattet mit diesen Einblicken können die Mitarbeiter während der Interaktion mit den Kunden weitaus produktivere und profitablere Entscheidungen treffen - und das unmittelbar. AUFBAU

Im Beispiel oben speichert ein Finanzdienstleistungsunternehmen Daten aus verschiedenen Quellen in einem

Die beiden Hauptfaktoren für Erfolg ist die Steigerung von Cross-Selling- und UpsellingUmsätzen und die Minimierung der Kundenabwanderung.

einzelnen Big Data-Speicher, in diesem Fall NoSQL. Von

Konzepte für den Erfolg mit Big Data PENTAHO 7

dem Projekt verknüpft werden. Die jeweiligen Interes-

Aus Perspektive der Technologiekompatibilität und Lief-

sensgruppen müssen die potenziell treibenden Kräfte

erantenbeziehungen ist es sinnvoll, sich nach Daten- und

für Kundenzufriedenheit und mögliche Verkaufschancen

Analyseanbietern umzusehen, die die meisten bzw. alle

für die Mitarbeiter mit Kundenkontakt ermitteln, die Vor-

dieser Funktionen in einer integrierten Plattform bere-

teile aus diesen Daten ziehen. Parallel dazu müssen die

itstellen. Gleichzeitig sollte eine Verpflichtung seitens

jeweiligen Endanwender Teil des Planungsprozesses

der Anbieter bestehen, Big Data-Integrationsfunktionen

sein, damit Informationen aus den richtigen Quellen an

bereitzustellen, die sich im Laufe der Zeit nahtlos in

die richtigen Personen auf die richtige Art und Weise

Technologieänderungen integrieren lassen – wodurch

geliefert werden. Analysen müssen den Anwendern so

die Neukonfiguration einer Projektbereitstellung min-

präsentiert werden, dass sie sicher angenommen

imiert und die Belastbarkeit maximiert werden kann.

werden. Dies bedeutet, dass der Zugriff einfach sein

Die Fähigkeit, sich verändernden Kundenbedürfnis-

muss, die Inhalte einfach zu verstehen sind und die

sen und Datenarchitekturen zu begegnen, ist in einem

Analysen in wichtige operative Anwendungen einge-

anspruchsvollen Projekt wie der 360-Grad-Analyse von

bettet werden können.

Kunden von großer Bedeutung.

Aus technischer Perspektive kann eine NoSQLLösung wie MongoDB der bevorzugte Big Data- Speicher sein, wenn ein Unternehmen viele zeitkritische Kundenstromdaten in eine einzelne Sammlung weiterleiten möchte, die schnell und einfach auf die Server verteilt werden kann. Hadoop ist eher geeignet, wenn die Daten in Batches verarbeitet werden und historisch gespeichert werden müssen. Häufig werden sowohl Hadoop als auch NoSQL in derselben Architektur verwendet. Die Integration der jeweiligen Big Data-Speicher in die unterschiedlichsten Back-End-Anwendungen und Datenbanken ist entscheidend, doch aller Voraussicht nach werden auch neue Front-End-Anforderungen auftreten.

Aus Perspektive der Technologiekompatibilität und Lieferantenbeziehungen ist es sinnvoll, sich nach Daten- und Analyseanbietern umzusehen, die die meisten bzw. alle dieser Funktionen in einer integrierten Plattform bereitstellen.

Verschiedene Nutzer von Kundenanalysen erfordern unterschiedliche BI-Typen. Dazu zählen: • Intuitive und anpassbare Dashboards für Führungskräfte • Anspruchsvolle und intuitive Slicing- und Dicing-Tools für Analysten • Verteilte Berichterstellungsfunktionen für die gemeinsame Verwendung von Informationen in Teams • Tools für Data Mining und prognostische Analysen für Datenexperten • Analysen, die in operative Software wie CRM- und Service-Anwendungen eingebettet werden können

Konzepte für den Erfolg mit Big Data PENTAHO 8

Daten monetarisieren UM WAS GEHT ES UND WARUM INVESTIEREN UNTERNEHMEN IN DIESE OPTIMIERUNG?

Kunde (anonym)

Die Kosteneffizienz von Big Data und die Fähigkeit zur Verarbeitung unterschiedlicher Datenstrukturen

PDI

Analyse & Daten

PDI

eröffnet viele Möglichkeiten, das Hauptgeschäft eines Unternehmens zu erweitern. Es bietet aber auch das

Abrechnung HadoopCluster

Potenzial zum Hinzufügen neuer strategischer Ein-

AnalyseDatenbank

nahmeströme, die sich in vielerlei Hinsicht vom KerngeNetz

schäft unterscheiden. „Daten monetarisieren“ ist ein solcher Anwendungsfall – er ermöglicht den Verkauf der Daten selbst. Da Unternehmen in ihrem täglichen Geschäft immer mehr und vielseitigere Daten sam-

Standort

meln, steigt deren potenzieller Wert für Drittanbieter zunehmend. In diesem Anwendungsfall werden die Daten organisiert, aufbereitet und anonymisiert (zwecks

KERNPUNKTE

Datenschutz für die Personen oder Unternehmen, von

Gartner sagt voraus, dass die Datenbestände von

denen die Daten stammen), bevor sie verkauft werden

Unternehmen im Jahr 2016 zu 30 Prozent monetarisiert

– in der Regel an externe Auftraggeber aus dem Bereich

sein werden5 – dies stellt eine echte Verkaufschance

Marketing. Ein Telekommunikationsunternehmen kann

dar und die Nutzung der richtigen Big Data-Tools und

beispielsweise Standortdaten von Mobiltelefonen zu

Ansätze kann dieses Potenzial freigeben. Im Vergleich

verschiedenen Tageszeiten sammeln und die erfassten

zu kostspieligeren Data Warehouse-Lösungen können

Datasets an ein Handelsunternehmen verkaufen, um

im Anwendungsfall „Daten monetarisieren“ mit Hadoop

Geschäftsstandortentscheidungen zu unterstützen.

als Verarbeitungsplattform Kosten reduziert und höhere

Daraus ergibt sich eine neue Einnahmequelle für das

Renditen erzielt werden (mindestens 5 bis 10 Mal billiger

Telekommunikationsunternehmen, da seine Daten dem

pro TB, siehe „Data Warehouse-Optimierung“). Rentabil-

Handelsunternehmen, das bisher althergebrachte Meth-

ität und Amortisierung werden mit den Funktionen für

oden verwendet hat, dabei helfen, seine Kunden auf

die Big Data-Integration, für die keine Programmierung

intelligentere Art und Weise zu erreichen.

erforderlich ist, und für die Geschäftsanalysen weiter verbessert. Für die Bereitstellung von Analysen als

AUFBAU

Dienst für Drittanbieter ist möglicherweise die Einbet-

Im Beispiel unten kombiniert ein Telekommunikation-

tung von Berichterstellungen und Visualisierungen in

sunternehmen demografische und Mobilitätsdaten, um

eine dem Unternehmens-Branding entsprechende

Drittanbietern unter Nutzung von raumbezogenen Visu-

Webanwendung erforderlich. Die offene Architektur und

alisierungen einen spezialisierten Analysedienst bereit-

die visuelle Flexibilität von Pentaho eignen sich hervor-

zustellen und das Kaufpotenzial für den Einzelhandel zu

ragend für diesen Ansatz.

ermitteln. Für diesen Anwendungsfall wird eine Hadoopund eine Analysedatenbank verwendet.

5 Gartner, „Gartner sagt voraus, dass die Datenbestände von Unternehmen im Jahr 2016 zu 30 Prozent monetarisiert sind“, 2013.

Konzepte für den Erfolg mit Big Data PENTAHO 9

Erfahren Sie mehr über Pentaho Business Analytics pentaho.de/contact

Global Headquarters Citadel International - Suite 340 5950 Hazeltine National Dr. Orlando, FL 32822, USA tel +1 407 812 6736 fax +1 407 517 4575

Vertrieb (USA und Weltweit) 353 Sacramento Street, Suite 1500 San Francisco, CA 94111, USA tel +1 415 525 5540 Gebührenfrei +1 866 660 7555

Vereinigtes Königreich, Übriges Europa, Naher Osten, Afrika London, Großbritannien tel +44 7711 104854 Gebührenfrei (UK) 0 800 680 0693

FRANKREICH Niederlassung - Paris, Frankreich tel +33 97 51 82 296 Gebührenfrei (Frankreich) 0800 915343

DEUTSCHLAND, ÖSTERREICH, SCHWEIZ Niederlassung - Frankfurt, Deutschland tel +49(0)89 / 37 41 40 81 Gebührenfrei (Deutschland) 0800 186 0332

BELGIEN, NIEDERLANDE, LUXEMBURG Niederlassung - Antwerpen, Belgien tel +31 6 52 69 88 01 Gebührenfrei (Belgien) 0800 773 83

ITALIEN, SPANIEN, PORTUGAL Niederlassung in Valencia, Spanien gebührenfrei (Italien) 800-798-217 gebührenfrei (Spanien) 900-868522 gebührenfrei (Portugal) 800-180-060

Be social with Pentaho:

Copyright ©2015 Pentaho Corporation. Weitergabe erlaubt. Alle Marken sind Eigentum der jeweiligen Inhaber. Aktuelle informationen finden Sie auf unserer Website unter pentaho.de.