Blog von: Dr. Carsten Bange Subscribe to this blog's RSS feed!

Dr. Carsten Bange

Willkommen bei meinem Blog im BeyeNETWORK.

Dies ist kein Social Blog, also werde ich Ihnen beispielsweise nicht schreiben, wie ich das Essen auf der letzten BI-Konferenz fand. Vielmehr möchte ich den Web Log zur Konservierung von Eindrücken und Neuigkeiten zu Business Intelligence Lösungen und Anbietern nutzen, explizit auch zu Lösungen, die nicht alle ausführlich getestet und in die BARC Studien aufgenommen werden können. Feedback ist immer willkommen! Schreiben Sie mir unter carsten.bange@barc.de

Über den Autor >

Dr. Carsten Bange ist geschäftsführender Gesellschafter des Business Application Research Centers (BARC). Er ist seit mehr als 10 Jahren für nationale und internationale Unternehmen verschiedenster Branchen und Größen im Rahmen der Strategie- und Architekturberatung, Werkzeugauswahl und Qualitätssicherung in Business-Intelligence- und Datenmanagement-Projekten tätig. Als neutraler Beobachter des Softwaremarktes ist er ein häufiger Redner bei Tagungen und Seminaren sowie Autor zahlreicher Fachpublikationen und Marktstudien.

Recently in Data Warehouse Plattformen Category

von: Sascha Alexander, Timm Grosser, Carsten Bange

Mit dem Parallel Data Warehouse (PDW) hat Microsoft eine leistungsfähige, analytische Datenbank ins Rennen um Unternehmenskunden geschickt. Doch erst die für 2013 angekündigte Version 2.0 soll mit einer Reihe von Beschränkungen aufräumen und eine attraktivere Lizenzierung bringen.

Microsoft PDW (exakt: „Microsoft SQL Server Parallel Data Warehouse“) ist eine vorkonfigurierte Data-Warehouse-Appliance, welche eine massiv-parallele Datenbank (MPP/Shared nothing), mit Server-Hardware von Hewlett-Packard oder Dell kombiniert. Das Angebot markiert Microsofts Vorstoß seine Datenbanktechnologie auch für große Data Warehouse Projekte zu erweitern, die bisher von den etablierten Anbietern IBM, Oracle und Teradata dominiert werden.

Bislang gibt es laut Microsoft weltweit rund 50 PDW-Kunden, von denen allerdings nur neun mit der Appliance auch produktiv gegangen sind. So kam hierzulande beispielsweise ein großes Anwenderunternehmen nach einer ersten detaillierten Bewertung des PDW zum dem Schluss, dass der ersten Version noch benötigte Funktionen fehlten. Auch unsere Einschätzung ist, dass ein Data Warehouse heute grundsätzlich noch nicht vollständig (ohne Workarounds) auf PDW lauffähig ist.
Umso größer sind die Hoffnungen, die Anwender mit der jetzt für das 1.Quartal 2013 angekündigten Version 2.0 verbinden. Sie beseitigt aus unserer Sicht die meisten der noch in PDW 1.0 existierenden technischen Limitierungen. Zudem wird dann Dank geänderter Konfigurationsmöglichkeiten ein kostengünstigerer Einstieg möglich und die Microsoft Lösung damit auch für mittelständische Unternehmen erschwinglich. Bisher muss ein Kunde bereits für die Einstiegskonfiguration der Appliance ein Control-Rack plus ein voll ausgebauten Rack mit „Compute Nodes“ mit einer Speicherkapazität und Leistung für mehr als 100 Terabyte Daten erwerben. Dies war zumindest in Deutschland den allermeisten Kunden wohl zu viel.

Kleinere Einstiegskonfigurationen
Mit PDW 2.0 will Microsoft die Einstiegskonfiguration auf ein Viertel Rack mit Compute Nodes und einer Speicherkapazität von etwa 20 Terabyte Daten reduzieren. Zudem wurde die Konfiguration des Control-Racks flexibler gestaltet und muss nicht mehr grundsätzlich mit einem Backup-Node und Landingzone-Node ausgestattet sein, sondern ist nun optional. Erste Einblicke zeigen auch Neuerungen in der Systemarchitektur, die höhere Flexibilität und Skalierbarkeit erwarten lassen.
Des Weiteren ergänzt Microsoft mit Version 2.0 die analytischen Funktionen der Datenbanksoftware des PDW. Diese stellt eine parallelisierte Version des „Microsoft SQL Servers“ dar, in der sich auch Funktionen des vor drei Jahren zugekauften Anbieter Datallegro wiederfinden. Version 2.0 soll nun beispielsweise eine spaltenorientierte Speicherung für die Daten ermöglichen.

Das Microsoft Big Data Angebot
Um PDW baut sich das Microsoft-Big-Data-Angebot auf. Im Mittelpunkt steht dabei die Vision einer umfassenden Plattform, die mit bekannten Werkzeugen wie Excel und Sharepoint die Analyse sowohl strukturierter als auch unstrukturierter Daten ermöglicht. Die Integration des unstrukturierten Wissensgutes ist dabei die neue Herausforderung für den Hersteller, der hierzu künftig auf eine Microsoft-optimierte Hortonworks-Hadoop-Distribution setzt.
Der Zugriff auf die „neuen“ Daten kann auf unterschiedlichen Wegen erfolgen: über den SQL Server, über das PDW in Form „virtueller“ Datenbanken oder per Datenbank-Funktionsaufruf. Eine Alternative bietet die direkte Zugriffsmöglichkeit des Analysewerkzeuges PowerPivot auf Hive – eine relationale Instanzierung von Daten auf dem Hadoop-Dateisystem.
Mit enthalten in der Microsoft-Big-Data-Plattform sind bekannte Technologien aus dem SQL-Server-Angebot, eine Streaming-Datenbank, der SharePoint Server sowie ein von Microsoft entwickeltes Web-Frontend zur Verwaltung und Erstellung von Big-Data-Anwendungen namens HDInsight.
Insgesamt wirkt das ganze Portfolio mit all seinen Werkzeugen noch recht zusammengewürfelt und muss die Güte der Integration seiner Teile, die Handhabung und Benutzerfreundlichkeit noch unter Beweis stellen. Dies trifft allerdings auch für andere Big-Data-Angebote anderer IT-Generalisten zu, die mit ähnlichen „Architekturen“ werben. Auch sie streben eine umfassende Plattform an – bestehend aus unterschiedlichsten Tools und Engines – auf der alle Analyseanfragen beantwortet werden können.

Der schwere Weg ins High-End
Insgesamt bleibt abzuwarten, ob Microsoft über technischen Neuerungen in Version 2.0 und den Preis tatsächlich der etablierten Konkurrenz im Highend-Segment des Data-Warehousing-Markts gefährlich werden kann. Aus unserer Sicht konzentriert sich der Hersteller bislang bei der Entwicklung und Vermarktung des PDW trotz der genannten neuen Möglichkeiten zur Erschließung neuer Datenquellen vor allem auf die eigenen Kunden und sein Portfolio. Ferner kann zu diesem Zeitpunkt nichts über die Leistungsfähigkeit der Appliance etwa im Vergleich zu Teradata, Oracle Exadata oder IBM Infosphere Warehouse (DB2) gesagt werden, weil Vergleichsdaten fehlen. Selbst für Microsoft ist PDW immer noch eine neue und wenig erprobte Technologie. Und für die meisten Microsoft-Partner stellt sich PDW aktuell wohl eher als Überforderung dar.


Posted 27.11.12 4:31
Permalink | keine Kommentare |

Einige Ergebnisse aus der aktuellen Marktzahlenstudie für den BI-Softwaremarkt in Deutschland: SAP führt den Markt für BI-Frontends an, Oracle den für Datenmanagementkomponenten – Besonders interessant ist, dass die Marktkonzentration auf die großen Anbieter nicht weiter fortschreitet. Anbieter im Mittelfeld des Marktes können mit innovativen und besonders auf Fachanwender ausgerichtete Lösungen sehr stark wachsen und machen den großen Anbietern das Leben zunehmend schwerer.

BARC analysiert jährlich detailliert den Business-Intelligence(BI)-Softwaremarkt in Deutschland. Dazu werden die Lizenz- und Wartungsumsätze der Anbieter von BI-Anwenderwerkzeugen und Datenmanagement-Komponenten in Deutschland erhoben.
Die aktuellen Ergebnisse zeigen, dass mehr als 250 Unternehmen circa 500 Produkte für Business-Intelligence-Aufgaben in Deutschland anbieten, und damit im Jahr 2011 einen Umsatz von 1,07 Milliarden Euro erwirtschaften. Die zu beobachtende Zunahme der Anbieter wird dabei überwiegend von Unternehmen getragen, die in anderen Märkten beheimatet sind und im Zuge einer Internationalisierungsstrategie auch in den deutschsprachigen Raum expandieren. Deutschland erscheint hier sowohl makroökonomisch, aufgrund des weiterhin anhaltenden Wachstums trotz Euro-Krise, als auch im Besonderen aufgrund des guten Wachstums des BI-Marktes interessant.

Die aktuellen Umsatzranglisten führt wie im Vorjahr SAP bei den Anwenderwerkzeugen und Oracle bei den Datenmanagementkomponenten an. Den Gesamtmarkt für Business-Intelligence-Software führt SAP mit einem Umsatz von 171 Millionen Euro, gefolgt von Oracle (€140 Mio.) und IBM (€135 Mio.) an. Unter den größeren Anbietern zählt QlikTech (Rang 7 – €36 Mio.) mit einem Wachstum von 40 Prozent zu den großen Gewinnern im Vergleich zum Vorjahr.

Weitere Ergebnisse der Studie:
• Der BI-Markt wächst im Jahr 2011 insgesamt 11,8 Prozent auf ein Gesamtvolumen von 1.070 Millionen Euro an Lizenz- und Wartungserlösen für BI-Software in Deutschland. Das Wachstum liegt 2011 damit deutlich über der durchschnittlichen jährlichen Marktwachstumsrate (Compound Annual Growth Rate - CAGR) der letzten fünf Jahre von 10,8 Prozent.
• Der Markt zeigt sich insgesamt stark. Nur circa zehn Prozent der 58 Anbieter mit mehr als eine Mio. Euro Softwareumsatz mussten sinkende Softwareumsätze verzeichnen.
• BARC teilt den BI Gesamtmarkt in die Segmente BI-Anwenderwerkzeuge und BI-Datenmanagement-Werkzeuge, die wiederum aus mehreren Subsegmenten bestehen:
Das Marktsegment BI-Anwenderwerkzeuge (Frontends) macht mit 630 Millionen Euro Softwareumsatz weiterhin knapp 60 Prozent des Gesamtmarktes aus und zeigt mit 14 Prozent auch eine höhere Wachstumsrate als das Segment Datenmanagement, das 2011 um neun Prozent auf 440 Millionen Euro und damit 41 Prozent des Gesamtmarktes angewachsen ist.

Die komplette BARC Studie „Business-Intelligence-Softwaremarkt Deutschland 2011“ mit Detailanalysen der Softwareumsätze der 58 größten BI-Softwareanbieter, Aufteilung der Umsätze nach Segmenten (Fronten/Backend) sowie Markttrends, Aufsteigern und weiteren Informationen ist hier erhältlich.


Posted 30.08.12 10:47
Permalink | 21 Kommentare |

Der Commercial Open Source BI-Anbieter Jaspersoft bietet eine Auswertung an, wie häufig bestimmte Datenbankadapter für Jaspersoft heruntergeladen werden.
Damit kann eine Indikation zur Verbreitung von typischen "Big Data" Datenmanagement-Systemen generiert werden. Die Aussagen sind sicher beschränkt auf die Adapter, die Jaspersoft anbietet (wobei das schon recht viele sind) sowie die Open Source Community (was allerdings auch gut zu vielen Big Data Quellen paßt, die ebenfalls Open Source sind).

Jaspersoft Big Data Connectors.jpg
Quelle: Jaspersoft Big Data Index

Im Big Data Index sind auch weitere Datenquellen gelistet, wobei Adapter für die in dieser Grafik aufgeführten vier Lösungen deutlich häufiger heruntergeladen werden.
Interessant ist das hohe Interesse an der dokumentenorienterten NoSQL Datenbank MongoDB. Dies unterstützt unsere Auffassung, dass es bei Big Data vor allem die Verarbeitung polystrukturierter Daten geht (s. Beitrag)

Eine Auswertung der Entwicklung von Januar 2011 bis Januar 2012 findet sich in dieser Mitteilung, zusammengefaßt in dieser Infographik.


Posted 16.05.12 7:38
Permalink | 155 Kommentare |

Momentan scheint wirklich jeder sein Produkt mit dem Label Big Data zu schmücken - vom Storage Anbieter über Datenbankanbieter jeder Couleur bis hin zu verschiedensten Anbietern von für BI- und Analysewerkzeugen. Und jeder definiert sich Big Data so, wie es zu seinen Produkten paßt.
Zeit also für eine übergreifend nutzbare Definition.
Hier ist mein Vorschlag:

Big Data

bezeichnet Methoden und Technologien

für die hochskalierbare

Erfassung, Speicherung und Analyse

polystrukturierter Daten.

Es geht also nicht nur um Tools (aber es gibt durchaus einige neuen Werkzeuge für Big Data).
Es geht immer um Herausforderungen der Skalierbarkeit, insbesondere hinsichtlich
*Datenmengen
*Anzahl Anwender
*Schnelle Bereitstellung neuer Daten
*Analytische Komplexität

Big Data umfasst alle Ebenen einer BI- und Datenmanagement-Infrastruktur und die gesamte Prozesskette - von der Akquisition und Integration von Daten bis hin zur Auswertung und Präsentation an den Anwender.
Wesentliche Eigenschaft von Big Data ist auch die gleichzeitige Behandlung von Daten in unterschiedlichsten Strukturen und Modellen - also von polystrukturierten Daten.

Big Data Definition.gif

Ein großes Data Warehouse oder eine In-Memory Datenbank sind somit per se noch keine Big Data Anwendungen oder Technologien. Es ist die Kombination aus den verschiedenen hier benannten Aspekten, die Big Data ausmachen und ihm auch seine besonderen Reiz verleihen. Big Data Ansätze werden genau da interessant, wo traditionelle Systeme aufgrund der Komplexität zu teuer werden

Ich freue mich über weiteres Feedback und eine fortgesetzte Diskussion zu diesem spannenden neuen Thema, welches die Aufmerksamkeit für Business Intelligence im Speziellen aber auch für die Informationstechnologie im Generellen momentan beflügelt. Schreiben Sie mir an carsten.bange@barc.de

Edit: Wegen einiger Nachfragen die Definition auch auf englisch:

Big Data describes methods and technologies for highly scalable integration, storage and analysis of poly-structured data.


Posted 17.04.12 7:43
Permalink | 133 Kommentare |

Oracle hat gerade auf der mit 45.000 Besuchern best besuchten Oracle Open World die Exalytics Appliance angekündigt. Damit verstärkt Oracle sein Engagement im In-Memory Datenbankmarkt mit einer Appliance, die TimesTen oder Oracle Essbase als In-Memory Datenbanken anbietet und zusätzlich eine parallelisierte Version der Oracle BI Foundation enthält. Keine völligen Neuentwicklungen also, aber eine Appliance, die 1 TB Hauptspeicher mit überarbeiteten Versionen von TimesTen und Hyperion Essbase sowie Oracle BI Foundation Suite bündelt.

Hardware
Die Exalytic Appliance ist hardwareseitig mit 1 TB DRAM und 40 Cores ausgestattet. Mit der inzwischen verfügbaren Kompressionsrate von ca. 10x können also um die 10TB Rohdaten aufgenommen werden.
Software
Exalytics wird mit den beiden schon vor einigen Jahren zugekauften In-Memory Datenbanken TimesTen und Essbase sowie mit Oracle BI Foundation Suite angeboten.
Als relationale In-Memory Datenbank wird TimesTen angeboten, die Oracle 2005 übernommen hatte aber bisher bei Oracle eher ein Schattendasein gefristet hat.
Oracle Hyperion Essbase ist zusätzlich als multidimensionale In-Memory Datenbank in Exalytics verfügbar. Essbase kam 2007 mit der Hyperion Übernahme in das Portfolio und wurde in den letzten Jahren wieder besser unterstützt (z.B. durch Anbindung an den Oracle BI Server).
Eine parallelisierte Version der Oracle BI Foundation Suite mit überarbeiteten Anwenderkomponenten für Such-ähnliche Abfragen komplettiert das Exalytics Appliance Paket.
Architektur
Die In-Memory Datenbanken in Exalytics werden durch eine Infiniband Verbindung mit einer Oracle Datenbank oder Exadata verbunden, so dass Exalytics nicht als Stand-Alone System funktioniert sondern eher wie ein In-Memory Data Mart. Die Daten in den In-Memory Datenbanken in Exalytics werden durch eine heuristische Funktion aufgrund ihres Abfrageverhaltens ständig überprüft und aus der zugrundeliegenden Datenbank geladen ('Heuristic adaptive in-memory cache"). Somit bilden Basisdatenbank und Exalytics ein gemeinsames System.
Die Kombination Exalytics auf einer Standard Oracle RDBMS soll 18x schneller sein als die RDBMS alleine. Exalytics auf einer Exadata sogar 23x schneller als die Standard RDBMS.

Steht Exadata für die Aufrüstung von Data Warehouse Hardware, stellt Exalytics ergänzende In-Memory Data Marts mit BI-Software bereit. Dies ist eine Veränderung der bisher Oracle-RDMBS zentrierten Strategie und nutzt die im Portfolio vorhandenen Technologien TimesTen und Essbase.
Oracle reagiert damit auf die verstärkten In-Memory Bemühungen der Wettbewerber:
IBM positioniert stark die multidimensionale Datenbank TM1 und hat eine In-Memory Option für DB2 angekündigt.
Microsoft baut die Datenbank hinter PowerPivot - Vertipaq - zu einer ergänzenden In-Memory Datenbank aus, die neben der ebenfalls im Hauptspeicher ablauffähigen multidimensionalen Datenbank SQL Server Analysis Services steht.
SAP entwickelt die In-Memory Datenbank HANA als eigene Datenbankalternative.


Posted 2.10.11 20:12
Permalink | 134 Kommentare |

Die vor wenigen Tagen veröffentlichten TPC-H Benchmark-Ergebnisse zeigten dominante Ergebnisse des Nürnberger Anbieters Exasol. Zusammen mit Hardwarepartner Dell zeigte die analytische Datenbank Exasolution 4.0 sowohl bei den absoluten Performance- als auch den Preis/Performance-Ergebnissen mit Abstand die besten Ergebnisse. Und das in allen Kategorien von 100 GB bis 10 TB abgefragten Datenbestand.
Natürlich ist Performance nicht das einzige Kriterium bei der Auswahl einer Datenbank und es bleibt die Erfahrung, dass Aussagen zur Performance nur anhand der individuellen Konstellation tatsächlich zuverlässig getroffen werden können. Aber die Benchmark-Ergebnisse sind schon deutlich.
Und wie ich aus gut informierten Kreisen höre, ist die amerikanische Konkurrenz durchaus aufgeschreckt ob derart guter Ergebnisse.


Posted 10.04.11 15:02
Permalink | 17 Kommentare |

Passend zu meinen Vermutungen und Aussagen in den Blogs "Wie geht es weiter für HP im BI- und Data Warehouse Markt?" und "Microsoft und HP bieten gemeinsame Data Warehouse Appliance an" kam gestern die offizielle Bestätigung von HP:
"HP has decided to stop actively selling Neoview to new customers."


Posted 27.01.11 7:33
Permalink | 21 Kommentare |

Die IT Schwergewichte HP und Microsoft tun sich zusammen und bringen zwei Data Warehouse Appliances auf den Markt. Damit wollen sie ihren Hauptwettbewerbern IBM und Oracle Paroli bieten, die Hardware- und Softwareangebote aus eigenem Haus kombinieren können.

Für den Mittelstand wird die HP Business Decision Appliance angeboten als Paket aus HP Hardware, Windows, MS SQL Server als Datenbank, Sharepoint 2010 und MS Excel mit PowerPivot als Analysewerkzeug. Ausgelegt ist das System auf 80 concurrent user, maximal können 150 unterstützt werden. Unbestätigte Preise starten bei ca. 25.000 Euro, für 50 User werden US$ 60.000 für 50 User, US$ 150.000 für 300 User genannt. Services werden von HP und Microsoft gemeinsam angeboten.

Für größere Data-Warehouse-Umgebungen wird die HP Enterprise Data Warehouse Appliance angeboten, die HP Hardware mit dem Microsoft SQL Server 2008 R2 Parallel Data Warehouse bündelt. Bei einer Datenskalierbarkeit bis 509 Terabyte und einem Einstiegspreis von 1,8 Millionen Euro zielt dieses Paket eher auf das mittelgroße bis große Data Warehouse Segment.

Microsoft hat mit SQL Server 2008 Release 2 neue Funktionen in die Datenbank integriert, die vor allem die Skalierbarkeit für größere Data Warehouse Installationen mit dem Einbau akquirierter Technologie des Appliance-Anbieters DatAllegro verbessern soll. Damit will Microsoft im Data Warehouse Markt auch die größeren Installationen adressieren, die bisher die Domäne von Oracle, Teradata, IBM und spezialisierter Appliance-Lösungen waren. Alle großen Anbieter liefern neben der Datenbank-Software auch Appliance-Lösungen (Hardware/Software-Kombinationen) oder haben wie im Fall von Teradata und Netezza ausschließlich Appliances im Programm. Die schnellere Installation, Senkung der Betriebskosten und leichtere Erweiterbarkeit haben Appliances inzwischen als Basis zur Implementierung von Data Warehouse- und BI-Systemen etabliert. Teradata ist der Altmeister in diesem Segment, IBM verfolgt es schon lange, Newcomer wie Netezza waren oder sind damit sehr erfolgreich, SAP geht diesen Weg mit dem BW Accelerator und der neuen HANA Analytical Appliance und letztlich hat Oracle sich mit dem Sun Akquisition sehr deutlich für diese Lieferform entschieden.
Bleiben von den IT-Schwergewichten HP mit dem Schwerpunkt auf Hardware und Services und Microsoft mit dem Schwerpunkt auf Software, die jeweils im eigenen Portfolio nicht alle Komponenten für eine Appliances haben und somit natürliche Partner für das Angebot an Data Warehouse Appliances sind.

HP hatte sich neben verschiedener kleinerer Datenbankpartner im DWH-Appliance Markt stark mit Oracle Exadata engagiert, wurde aber von Oracle mit der Akquisition von Sun wieder aus dem Rennen genommen. Nicht umsonst stellen HP/Microsoft dann wohl auch einen 50% Kostenvorteil gegenüber Oracle Exadata in den Raum – der natürlich wie immer am konkreten Fall zu überprüfen ist. Die eigene HP Appliance mit der NeoView Datenbank scheint ohnehin kaum Markterfolg zu haben (s. auch Wie geht es weiter für HP im BI- und Data Warehouse Markt?, so dass die Kombination von HP und Microsoft beide Anbieter in dem attraktiven Markt für Data-Warehouse-Appliances deutlich stärken sollte.


Posted 19.01.11 7:19
Permalink | 139 Kommentare |

Der eingeschränkte Erfolg von HP's Data Warehouse Appliance Neoview befeuert schon lange Spekulationen über die Zukunft dieses Produktes und generell über HP's Pläne im Softwaremarkt für Business Intelligence und Data Warehousing. Die großen Konkurrenten IBM und Oracle sind mit eigenen Hardware-/Softwareangeboten im Markt, Microsoft und SAP stärken ihre analytischen Datenbanken. Aktuelle Personalveränderungen schüren die Spekulationen.

Mark Smith's Meldung einer Einstellung der softwareseitigen BI- und Data Warehouse Aktivitäten rund um HP Neoview folgte das Dementi von HP. Doch Fragen bleiben.

Der Markterfolg für HP Neoview ist weitgehend ausgeblieben. In Deutschland gibt es vermutlich nur eine Installation und auch weltweit hat sich das Produkt nie ernsthaft gegen Teradata, IBM oder Oracle und die Vielzahl der kleinen analytischen Datenbankanbieter im Data Warehouse Markt etablieren können. Dies spricht für eine Einstellung des Produktes, um sich entweder aus dem Markt zurückzuziehen und weiter auf die Partnerschaften mit anderen Softwareanbietern in diesem Segment zu setzen oder eine Übernahme vorzubereiten.

Aktuelle Personalveränderungen sprechen stärker dafür, dass HP weiter im Data Warehouse Markt aktiv bleibt.
Die Berufung des ehemaligen SAP CEOs Leo Apotheker an die HP-Spitze kann sicherlich als Wille des HP Verwaltungsrates interpretiert werden, den Anteil des Softwaregeschäftes am Gesamtumsatz zu steigern. Noch stärker zeigt der kürzliche Wechsel von SAP BusinessObjects Veteran Marge Breya zu HP ein möglicherweise stärkeres Engagement mit BI- und Data Warehouse Produkten. Da dies durch organisches Wachstum für amerikanische Technologiekonzerne dieser Größenordnung wohl eher zu langsam geht, werden für HP größere Übernahmeziele wie SAP oder mittelgroße wie Tibco, Teradata, Informatica in Frage kommen.
Insbesondere Teradata als einzig verbleibender großer Spezialist im Data-Warehouse-Appliance Markt ist hier der offensichtliche Kandidat - wird aber schon so lange als Übernahmekandidat gehandelt, dass man es schon fast nicht mehr glauben kann.

Es bleibt das starke Hardwaregeschäft, viele Partnerschaften und die eigene Consulting-Organisation für BI und Data Warehousing.
Die Positionierung der großen Wettbewerber und der Markttrend der Konsolidierung zu Komplettanbietern wird HP wohl auch dazu treiben, sich stärker im Markt für Datenmanagement-Software zu engagieren. Ob das dann erfolgreicher als momentan mit Neoview gelingen kann, hängt sicherlich auch von Veränderungen in der HP Organisation ab. Ein weiterer potenter Wettbewerber ist aber sicherlich nicht unbedingt schlecht für den Markt.


Posted 21.12.10 0:19
Permalink | 130 Kommentare |

Der Speichersystem-Anbieter EMC gibt die Übernahme des analytischen Datenbankanbieters Greenplum bekannt.

Greenplum ist erst seit Juni in Deutschland stärker aktiv und dringt mit dem Engagement von Vertriebsressourcen und Partnern auf den Markt. Der erste Auftritt auf der TDWI im Juni war interessant, insbesondere auch der Bericht der Referenz Skype, die positiv über die Nutzung von preiswerter Hardware zum Aufbau einer masssiv parallelen Datenbankarchitektur mit Greenplum vor dem Hintergrund hoher Skalierbarkeitsanforderungen berichtete. Das Skype Data Warehouse wächst jährlich ca. 100% und ist ausgehend von einer Cube Anwendung auf einem Laptop innerhalb von weingen Jahren von einigen Gigabyte auf 50 Terabyte gewachsen. Und es wächst weiter in dieser Rate.
Die kurzfristigen Auswirkungen der Übernahme in Deutschland sind gering, da auch EMC zunächst einmal Ressourcen für Data Warehousing aufbauen muss. Mittelfristig kann hier aber durch die größere Muttergesellschaft ein interessanter Wettbewerber im analytischen Datenbankmarkt auch im Zentraleuropäischen Markt entstehen. In Nordamerika kann Greenplum aus meiner Sicht auf jeden Fall zu den erfolgreicheren Herausforderern von Oracle und Co. gezählt werden.

Weitere Ressourcen:
Pressemitteilung von EMC

Hier ein (sehr amerikanischer) Kommentar eines Börsenanalysten auf CNBC.


Posted 12.07.10 1:29
Permalink | 15 Kommentare |
   BESUCHEN SIE MEINEN EXPERTEN CHANNEL

Blog durchsuchen
Kategorie ›
Archiv ›
Neue Einträge ›