Blog von: Dr. Carsten Bange Subscribe to this blog's RSS feed!

Dr. Carsten Bange

Willkommen bei meinem Blog im BeyeNETWORK.

Dies ist kein Social Blog, also werde ich Ihnen beispielsweise nicht schreiben, wie ich das Essen auf der letzten BI-Konferenz fand. Vielmehr möchte ich den Web Log zur Konservierung von Eindrücken und Neuigkeiten zu Business Intelligence Lösungen und Anbietern nutzen, explizit auch zu Lösungen, die nicht alle ausführlich getestet und in die BARC Studien aufgenommen werden können. Feedback ist immer willkommen! Schreiben Sie mir unter carsten.bange@barc.de

Über den Autor >

Dr. Carsten Bange ist geschäftsführender Gesellschafter des Business Application Research Centers (BARC). Er ist seit mehr als 10 Jahren für nationale und internationale Unternehmen verschiedenster Branchen und Größen im Rahmen der Strategie- und Architekturberatung, Werkzeugauswahl und Qualitätssicherung in Business-Intelligence- und Datenmanagement-Projekten tätig. Als neutraler Beobachter des Softwaremarktes ist er ein häufiger Redner bei Tagungen und Seminaren sowie Autor zahlreicher Fachpublikationen und Marktstudien.

Recently in Microsoft Category

von: Sascha Alexander, Timm Grosser, Carsten Bange

Mit dem Parallel Data Warehouse (PDW) hat Microsoft eine leistungsfähige, analytische Datenbank ins Rennen um Unternehmenskunden geschickt. Doch erst die für 2013 angekündigte Version 2.0 soll mit einer Reihe von Beschränkungen aufräumen und eine attraktivere Lizenzierung bringen.

Microsoft PDW (exakt: „Microsoft SQL Server Parallel Data Warehouse“) ist eine vorkonfigurierte Data-Warehouse-Appliance, welche eine massiv-parallele Datenbank (MPP/Shared nothing), mit Server-Hardware von Hewlett-Packard oder Dell kombiniert. Das Angebot markiert Microsofts Vorstoß seine Datenbanktechnologie auch für große Data Warehouse Projekte zu erweitern, die bisher von den etablierten Anbietern IBM, Oracle und Teradata dominiert werden.

Bislang gibt es laut Microsoft weltweit rund 50 PDW-Kunden, von denen allerdings nur neun mit der Appliance auch produktiv gegangen sind. So kam hierzulande beispielsweise ein großes Anwenderunternehmen nach einer ersten detaillierten Bewertung des PDW zum dem Schluss, dass der ersten Version noch benötigte Funktionen fehlten. Auch unsere Einschätzung ist, dass ein Data Warehouse heute grundsätzlich noch nicht vollständig (ohne Workarounds) auf PDW lauffähig ist.
Umso größer sind die Hoffnungen, die Anwender mit der jetzt für das 1.Quartal 2013 angekündigten Version 2.0 verbinden. Sie beseitigt aus unserer Sicht die meisten der noch in PDW 1.0 existierenden technischen Limitierungen. Zudem wird dann Dank geänderter Konfigurationsmöglichkeiten ein kostengünstigerer Einstieg möglich und die Microsoft Lösung damit auch für mittelständische Unternehmen erschwinglich. Bisher muss ein Kunde bereits für die Einstiegskonfiguration der Appliance ein Control-Rack plus ein voll ausgebauten Rack mit „Compute Nodes“ mit einer Speicherkapazität und Leistung für mehr als 100 Terabyte Daten erwerben. Dies war zumindest in Deutschland den allermeisten Kunden wohl zu viel.

Kleinere Einstiegskonfigurationen
Mit PDW 2.0 will Microsoft die Einstiegskonfiguration auf ein Viertel Rack mit Compute Nodes und einer Speicherkapazität von etwa 20 Terabyte Daten reduzieren. Zudem wurde die Konfiguration des Control-Racks flexibler gestaltet und muss nicht mehr grundsätzlich mit einem Backup-Node und Landingzone-Node ausgestattet sein, sondern ist nun optional. Erste Einblicke zeigen auch Neuerungen in der Systemarchitektur, die höhere Flexibilität und Skalierbarkeit erwarten lassen.
Des Weiteren ergänzt Microsoft mit Version 2.0 die analytischen Funktionen der Datenbanksoftware des PDW. Diese stellt eine parallelisierte Version des „Microsoft SQL Servers“ dar, in der sich auch Funktionen des vor drei Jahren zugekauften Anbieter Datallegro wiederfinden. Version 2.0 soll nun beispielsweise eine spaltenorientierte Speicherung für die Daten ermöglichen.

Das Microsoft Big Data Angebot
Um PDW baut sich das Microsoft-Big-Data-Angebot auf. Im Mittelpunkt steht dabei die Vision einer umfassenden Plattform, die mit bekannten Werkzeugen wie Excel und Sharepoint die Analyse sowohl strukturierter als auch unstrukturierter Daten ermöglicht. Die Integration des unstrukturierten Wissensgutes ist dabei die neue Herausforderung für den Hersteller, der hierzu künftig auf eine Microsoft-optimierte Hortonworks-Hadoop-Distribution setzt.
Der Zugriff auf die „neuen“ Daten kann auf unterschiedlichen Wegen erfolgen: über den SQL Server, über das PDW in Form „virtueller“ Datenbanken oder per Datenbank-Funktionsaufruf. Eine Alternative bietet die direkte Zugriffsmöglichkeit des Analysewerkzeuges PowerPivot auf Hive – eine relationale Instanzierung von Daten auf dem Hadoop-Dateisystem.
Mit enthalten in der Microsoft-Big-Data-Plattform sind bekannte Technologien aus dem SQL-Server-Angebot, eine Streaming-Datenbank, der SharePoint Server sowie ein von Microsoft entwickeltes Web-Frontend zur Verwaltung und Erstellung von Big-Data-Anwendungen namens HDInsight.
Insgesamt wirkt das ganze Portfolio mit all seinen Werkzeugen noch recht zusammengewürfelt und muss die Güte der Integration seiner Teile, die Handhabung und Benutzerfreundlichkeit noch unter Beweis stellen. Dies trifft allerdings auch für andere Big-Data-Angebote anderer IT-Generalisten zu, die mit ähnlichen „Architekturen“ werben. Auch sie streben eine umfassende Plattform an – bestehend aus unterschiedlichsten Tools und Engines – auf der alle Analyseanfragen beantwortet werden können.

Der schwere Weg ins High-End
Insgesamt bleibt abzuwarten, ob Microsoft über technischen Neuerungen in Version 2.0 und den Preis tatsächlich der etablierten Konkurrenz im Highend-Segment des Data-Warehousing-Markts gefährlich werden kann. Aus unserer Sicht konzentriert sich der Hersteller bislang bei der Entwicklung und Vermarktung des PDW trotz der genannten neuen Möglichkeiten zur Erschließung neuer Datenquellen vor allem auf die eigenen Kunden und sein Portfolio. Ferner kann zu diesem Zeitpunkt nichts über die Leistungsfähigkeit der Appliance etwa im Vergleich zu Teradata, Oracle Exadata oder IBM Infosphere Warehouse (DB2) gesagt werden, weil Vergleichsdaten fehlen. Selbst für Microsoft ist PDW immer noch eine neue und wenig erprobte Technologie. Und für die meisten Microsoft-Partner stellt sich PDW aktuell wohl eher als Überforderung dar.


Posted 27.11.12 4:31
Permalink | keine Kommentare |

Einige Ergebnisse aus der aktuellen Marktzahlenstudie für den BI-Softwaremarkt in Deutschland: SAP führt den Markt für BI-Frontends an, Oracle den für Datenmanagementkomponenten – Besonders interessant ist, dass die Marktkonzentration auf die großen Anbieter nicht weiter fortschreitet. Anbieter im Mittelfeld des Marktes können mit innovativen und besonders auf Fachanwender ausgerichtete Lösungen sehr stark wachsen und machen den großen Anbietern das Leben zunehmend schwerer.

BARC analysiert jährlich detailliert den Business-Intelligence(BI)-Softwaremarkt in Deutschland. Dazu werden die Lizenz- und Wartungsumsätze der Anbieter von BI-Anwenderwerkzeugen und Datenmanagement-Komponenten in Deutschland erhoben.
Die aktuellen Ergebnisse zeigen, dass mehr als 250 Unternehmen circa 500 Produkte für Business-Intelligence-Aufgaben in Deutschland anbieten, und damit im Jahr 2011 einen Umsatz von 1,07 Milliarden Euro erwirtschaften. Die zu beobachtende Zunahme der Anbieter wird dabei überwiegend von Unternehmen getragen, die in anderen Märkten beheimatet sind und im Zuge einer Internationalisierungsstrategie auch in den deutschsprachigen Raum expandieren. Deutschland erscheint hier sowohl makroökonomisch, aufgrund des weiterhin anhaltenden Wachstums trotz Euro-Krise, als auch im Besonderen aufgrund des guten Wachstums des BI-Marktes interessant.

Die aktuellen Umsatzranglisten führt wie im Vorjahr SAP bei den Anwenderwerkzeugen und Oracle bei den Datenmanagementkomponenten an. Den Gesamtmarkt für Business-Intelligence-Software führt SAP mit einem Umsatz von 171 Millionen Euro, gefolgt von Oracle (€140 Mio.) und IBM (€135 Mio.) an. Unter den größeren Anbietern zählt QlikTech (Rang 7 – €36 Mio.) mit einem Wachstum von 40 Prozent zu den großen Gewinnern im Vergleich zum Vorjahr.

Weitere Ergebnisse der Studie:
• Der BI-Markt wächst im Jahr 2011 insgesamt 11,8 Prozent auf ein Gesamtvolumen von 1.070 Millionen Euro an Lizenz- und Wartungserlösen für BI-Software in Deutschland. Das Wachstum liegt 2011 damit deutlich über der durchschnittlichen jährlichen Marktwachstumsrate (Compound Annual Growth Rate - CAGR) der letzten fünf Jahre von 10,8 Prozent.
• Der Markt zeigt sich insgesamt stark. Nur circa zehn Prozent der 58 Anbieter mit mehr als eine Mio. Euro Softwareumsatz mussten sinkende Softwareumsätze verzeichnen.
• BARC teilt den BI Gesamtmarkt in die Segmente BI-Anwenderwerkzeuge und BI-Datenmanagement-Werkzeuge, die wiederum aus mehreren Subsegmenten bestehen:
Das Marktsegment BI-Anwenderwerkzeuge (Frontends) macht mit 630 Millionen Euro Softwareumsatz weiterhin knapp 60 Prozent des Gesamtmarktes aus und zeigt mit 14 Prozent auch eine höhere Wachstumsrate als das Segment Datenmanagement, das 2011 um neun Prozent auf 440 Millionen Euro und damit 41 Prozent des Gesamtmarktes angewachsen ist.

Die komplette BARC Studie „Business-Intelligence-Softwaremarkt Deutschland 2011“ mit Detailanalysen der Softwareumsätze der 58 größten BI-Softwareanbieter, Aufteilung der Umsätze nach Segmenten (Fronten/Backend) sowie Markttrends, Aufsteigern und weiteren Informationen ist hier erhältlich.


Posted 30.08.12 10:47
Permalink | 21 Kommentare |

Oracle hat gerade auf der mit 45.000 Besuchern best besuchten Oracle Open World die Exalytics Appliance angekündigt. Damit verstärkt Oracle sein Engagement im In-Memory Datenbankmarkt mit einer Appliance, die TimesTen oder Oracle Essbase als In-Memory Datenbanken anbietet und zusätzlich eine parallelisierte Version der Oracle BI Foundation enthält. Keine völligen Neuentwicklungen also, aber eine Appliance, die 1 TB Hauptspeicher mit überarbeiteten Versionen von TimesTen und Hyperion Essbase sowie Oracle BI Foundation Suite bündelt.

Hardware
Die Exalytic Appliance ist hardwareseitig mit 1 TB DRAM und 40 Cores ausgestattet. Mit der inzwischen verfügbaren Kompressionsrate von ca. 10x können also um die 10TB Rohdaten aufgenommen werden.
Software
Exalytics wird mit den beiden schon vor einigen Jahren zugekauften In-Memory Datenbanken TimesTen und Essbase sowie mit Oracle BI Foundation Suite angeboten.
Als relationale In-Memory Datenbank wird TimesTen angeboten, die Oracle 2005 übernommen hatte aber bisher bei Oracle eher ein Schattendasein gefristet hat.
Oracle Hyperion Essbase ist zusätzlich als multidimensionale In-Memory Datenbank in Exalytics verfügbar. Essbase kam 2007 mit der Hyperion Übernahme in das Portfolio und wurde in den letzten Jahren wieder besser unterstützt (z.B. durch Anbindung an den Oracle BI Server).
Eine parallelisierte Version der Oracle BI Foundation Suite mit überarbeiteten Anwenderkomponenten für Such-ähnliche Abfragen komplettiert das Exalytics Appliance Paket.
Architektur
Die In-Memory Datenbanken in Exalytics werden durch eine Infiniband Verbindung mit einer Oracle Datenbank oder Exadata verbunden, so dass Exalytics nicht als Stand-Alone System funktioniert sondern eher wie ein In-Memory Data Mart. Die Daten in den In-Memory Datenbanken in Exalytics werden durch eine heuristische Funktion aufgrund ihres Abfrageverhaltens ständig überprüft und aus der zugrundeliegenden Datenbank geladen ('Heuristic adaptive in-memory cache"). Somit bilden Basisdatenbank und Exalytics ein gemeinsames System.
Die Kombination Exalytics auf einer Standard Oracle RDBMS soll 18x schneller sein als die RDBMS alleine. Exalytics auf einer Exadata sogar 23x schneller als die Standard RDBMS.

Steht Exadata für die Aufrüstung von Data Warehouse Hardware, stellt Exalytics ergänzende In-Memory Data Marts mit BI-Software bereit. Dies ist eine Veränderung der bisher Oracle-RDMBS zentrierten Strategie und nutzt die im Portfolio vorhandenen Technologien TimesTen und Essbase.
Oracle reagiert damit auf die verstärkten In-Memory Bemühungen der Wettbewerber:
IBM positioniert stark die multidimensionale Datenbank TM1 und hat eine In-Memory Option für DB2 angekündigt.
Microsoft baut die Datenbank hinter PowerPivot - Vertipaq - zu einer ergänzenden In-Memory Datenbank aus, die neben der ebenfalls im Hauptspeicher ablauffähigen multidimensionalen Datenbank SQL Server Analysis Services steht.
SAP entwickelt die In-Memory Datenbank HANA als eigene Datenbankalternative.


Posted 2.10.11 20:12
Permalink | 132 Kommentare |

Die IT Schwergewichte HP und Microsoft tun sich zusammen und bringen zwei Data Warehouse Appliances auf den Markt. Damit wollen sie ihren Hauptwettbewerbern IBM und Oracle Paroli bieten, die Hardware- und Softwareangebote aus eigenem Haus kombinieren können.

Für den Mittelstand wird die HP Business Decision Appliance angeboten als Paket aus HP Hardware, Windows, MS SQL Server als Datenbank, Sharepoint 2010 und MS Excel mit PowerPivot als Analysewerkzeug. Ausgelegt ist das System auf 80 concurrent user, maximal können 150 unterstützt werden. Unbestätigte Preise starten bei ca. 25.000 Euro, für 50 User werden US$ 60.000 für 50 User, US$ 150.000 für 300 User genannt. Services werden von HP und Microsoft gemeinsam angeboten.

Für größere Data-Warehouse-Umgebungen wird die HP Enterprise Data Warehouse Appliance angeboten, die HP Hardware mit dem Microsoft SQL Server 2008 R2 Parallel Data Warehouse bündelt. Bei einer Datenskalierbarkeit bis 509 Terabyte und einem Einstiegspreis von 1,8 Millionen Euro zielt dieses Paket eher auf das mittelgroße bis große Data Warehouse Segment.

Microsoft hat mit SQL Server 2008 Release 2 neue Funktionen in die Datenbank integriert, die vor allem die Skalierbarkeit für größere Data Warehouse Installationen mit dem Einbau akquirierter Technologie des Appliance-Anbieters DatAllegro verbessern soll. Damit will Microsoft im Data Warehouse Markt auch die größeren Installationen adressieren, die bisher die Domäne von Oracle, Teradata, IBM und spezialisierter Appliance-Lösungen waren. Alle großen Anbieter liefern neben der Datenbank-Software auch Appliance-Lösungen (Hardware/Software-Kombinationen) oder haben wie im Fall von Teradata und Netezza ausschließlich Appliances im Programm. Die schnellere Installation, Senkung der Betriebskosten und leichtere Erweiterbarkeit haben Appliances inzwischen als Basis zur Implementierung von Data Warehouse- und BI-Systemen etabliert. Teradata ist der Altmeister in diesem Segment, IBM verfolgt es schon lange, Newcomer wie Netezza waren oder sind damit sehr erfolgreich, SAP geht diesen Weg mit dem BW Accelerator und der neuen HANA Analytical Appliance und letztlich hat Oracle sich mit dem Sun Akquisition sehr deutlich für diese Lieferform entschieden.
Bleiben von den IT-Schwergewichten HP mit dem Schwerpunkt auf Hardware und Services und Microsoft mit dem Schwerpunkt auf Software, die jeweils im eigenen Portfolio nicht alle Komponenten für eine Appliances haben und somit natürliche Partner für das Angebot an Data Warehouse Appliances sind.

HP hatte sich neben verschiedener kleinerer Datenbankpartner im DWH-Appliance Markt stark mit Oracle Exadata engagiert, wurde aber von Oracle mit der Akquisition von Sun wieder aus dem Rennen genommen. Nicht umsonst stellen HP/Microsoft dann wohl auch einen 50% Kostenvorteil gegenüber Oracle Exadata in den Raum – der natürlich wie immer am konkreten Fall zu überprüfen ist. Die eigene HP Appliance mit der NeoView Datenbank scheint ohnehin kaum Markterfolg zu haben (s. auch Wie geht es weiter für HP im BI- und Data Warehouse Markt?, so dass die Kombination von HP und Microsoft beide Anbieter in dem attraktiven Markt für Data-Warehouse-Appliances deutlich stärken sollte.


Posted 19.01.11 7:19
Permalink | 139 Kommentare |

Donald Farmer, einer der wesentlichen Köpfe hinter Microsoft's heutigem Business Intelligence Angebot geht zu QlikTech.

Als Grund nennt er in seinem Blog, dass er lieber in einer kleineren Organisation arbeiten möchte. Donald Farmer war zuletzt in einigen Bereichen des SQL Servers, für das Data Mining Angebot und die Entwicklung von PowerPivot (der Antwort von Microsoft auf QlikTech) verantwortlich und hat damit die Microsoft BI Platform stark mitgeprägt. Neben der Produktdefinition war er aber auch in der Lage Strategie, Technologie und Nutzen klar zu erklären und hat sich so als Ansprechpartner weltweit eine hohe Reputation erworben. Sicherlich ein herber Verlust für Microsoft und eine gute Verstärkung für QlikTech.

Zum Jahreswechsel gibt es noch weitere Veränderungen im Microsoft Management, sehen wir mal ob sich die Produktstrategie und -entwicklung verändert.


Posted 14.01.11 0:26
Permalink | 171 Kommentare |

Die gestern und heute stattfindende BARC-Tagung BI war mit ca. 200 Teilnehmer wieder erfreulich gut besucht. Das Ziel der Veranstaltung einen einmaligen Überblick des Werkzeugmarktes für Business Intelligence zu liefern wurde mit einem schönen Marktquerschnitt von 16 führenden Anbietern sehr gut erreicht.

Die Mischung der Anbieter zeigte die wesentlichen Marktsegmente: Die fünf großen IT-Generalisten mit BI-Produktportfolio IBM, Infor, Microsoft, Oracle, SAP, fünf global präsente BI-Spezialisten Information Builders, JasperSoft, MicroStrategy, Qliktech und SAS sowie die lokalen Spezialisten Arcplan, Bissantz, Board, Cubeware, LucaNet und PST zeigten ihre Lösungen.
Dabei wurden zahlreiche Neuigkeiten gezeigt:


  • Erstmals in Deutschland auf einer öffentlichen Veranstaltung präsentierten IBM und SAP ihre jeweils gerade fertiggestellten großen neuen Versionen Cognos 10 und BusinessObjects 4.0.

  • Jaspersoft gab einen ersten Einblick in das „Ruby“ Release der Commercial Open Source Software,

  • MicroStrategy die neuen Mobilen BI-Fähigkeiten,

  • Arcplan zeigte sein neues Projekt zur Verbindung von Social-Media-Daten mit betriebswirtschaftlichen Kennzahlen,

  • Oracle das erst im Sommer veröffentlichte Business Intelligence 11g Edition.

Auch viele weitere Anbieter auf der Tagung konnten zeigen, wie sie mit Innovationen in ihren Produkten weiterhin ihre differenzierenden Wettbewerbsvorteile gegenüber dem immer größer werdenden Wettbewerb behaupten können.

Als Neuigkeit können nicht nur Teilnehmer der Tagung die Präsentationen der Lösungen noch einmal in einer Web-Plattform mit aufgezeichneten und strukturierten Software-Demonstrationen anschauen.

Im Februar 2011 (22./23.2.) geht die BARC Tagungsreihe weiter mit einem Blick auf Planungs- und Controllinglösungen für mittelständische Unternehmen oder abgegrenzte Projekte in Großunternehmen.


Posted 17.11.10 7:39
Permalink | 173 Kommentare |

von Christian Fuchs und Carsten Bange
Ende Juni 2010 gab der amerikanische Business-Software-Anbieter Infor bekannt, seine wichtigsten Geschäftsanwendungen inkl. der Business-Intelligence-Lösungen (u.a. einige ehemalige MIS-Produkte) zukünftig an komplementären Microsoft-Produkten auszurichten.
Insbesondere bezieht sich diese Produktstrategie auf den Microsoft SQL Server als zukünftig bevorzugte relationale Infor-Datenbank und Microsoft SQL Server Reporting Services als (Standard-)Reportingkomponente für Infor-Business-Applikationen. Infor plant darüber hinaus, Microsoft SharePoint 2010 als bevorzugtes Portal zu nutzen.
Verbunden mit den Nachrichten über den Wechsel des Produktmanagers und des größten Teils der Entwicklungsmannschaft von Infor PM OLAP (ex MIS Alea) zum Start-Up Jedox Ende vergangenen Jahres stellt sich die Frage, wie es mit den Infor-BI-Produkten weitergeht.

Wir konnten kürzlich mehr zur Infor-Strategie vom neuen, global verantwortlichen General Manager für BI- und Performance Management-Lösungen – Julian Johnson, der im Juni von der SAP zu Infor gestoßen ist – und dem Produktmanagement-Verantwortlichen James Maniscalco erfahren. Der Managementwechsel repräsentiert die erste wesentliche Änderung bei Infor: eine neue Organisationsstruktur mit neuen Verantwortlichen für BI. Während Infor PM (Performance Management) früher Teil der geografischen, ERP-orientierten Organisationsstruktur war, ist PM seit Juni eine eigenständige Division im Infor-Konzern mit entsprechend gewachsener Bedeutung, dediziertem Vertrieb etc.
Neben den organisatorischen Änderungen erfolgte auch eine Neuausrichtung der Entwicklung. Zukünftig werden Infor-PM-Applikationen an den drei Standorten Ann Arbor (Michigan), Darmstadt und Prag von insgesamt 120 Mitarbeitern entwickelt. Dies bedeutet faktisch wieder eine Stärkung des alten MIS-Entwicklungsstandortes Darmstadt, was aus deutscher Perspektive natürlich begrüßenswert ist. Weiterhin ist nun auch erklärtes Ziel, eine gemeinsame Code-Basis für Infor-PM-Applikationen zu entwickeln. Bisher wurden die Produkte an ihren jeweiligen Entwicklungsstandorten getrennt voneinander entwickelt. Ziel ist es, die Produkte und Applikationen auf eine gemeinsame Code-Basis zu stellen. Im Rahmen der strategischen Ausrichtung auf Microsoft erfolgt dabei z. B. die GUI-Entwicklung in Silverlight.

Die neue Organisation geht auch mit einer neuen Produktstrategie einher: Die Microsoft-Orientierung führt zur Nutzung von SQL Server für relationale Speicherung, SQL Server Reporting Services für operatives Reporting (insb. für alle ERP-Applikationen von Infor) und Sharepoint Server für Kollaboration und Berichtsverteilung. Die drei Infor-PM-Produkte sind strategisch und werden wie oben beschrieben weiterentwickelt: Infor PM OLAP (ex MIS ALEA), Application Studio (ex MIS OnVision) und Query & Analysis (ex Vision). Bei diesen drei Produkten sieht Infor den Mehrwert der Eigenentwicklung hoch genug, um sich hier nicht von Microsoft abhängig zu machen. Die dritte Ebene neben Microsoft-Plattform-Komponenten und eigenen Produkten stellen eine Reihe von analytischen Applikationen dar, die auf dieser Basis neu entwickelt werden sollen. Geplant sind hier momentan Planung, Budgetierung, Forecasting, Konsolidierung und Strategiemanagement.

Fazit
Aus unserer Markteinschätzung basierend auf Wahrnehmung und dem Kundenfeedback in den BI Surveys war Infor in den vergangen Jahren vor allem im Markt für Neukunden wenig präsent und erfolgreich. Weder Entwicklungs- und Vertriebsorganisation, noch die Produktstrategie waren hier sonderlich überzeugend. Umsätze im Bereich PM wurden daher vor allem durch Migration von Bestandskunden auf neue Releasestände und Cross-Selling mit den eigenen ERP-Produkten erzielt. Dies soll sich nun ändern.

Die neue strategische Ausrichtung ist aus unserer Sicht zunächst einmal erfolgversprechend, da sie organisatorische wie technische Aspekte neu aufstellt. Die Produktstrategie zeigt eine Fokussierung auf wenige Produkte und Applikationen, was eine gute Voraussetzung schafft, die in den letzten Jahren verlorene Zeit wieder hereinzuholen. Bis die geschilderten Vorhaben umgesetzt sind und zu sichtbaren Ergebnissen führen, wird sicher einige Zeit vergehen. Infor bleibt mit seiner Größe und seinen Ressourcen aber ein ernstzunehmender Spieler im Softwaremarkt. Wenn die angekündigten Pläne umgesetzt werden und die Strategie greift, dann kann dies nicht nur für den ERP-, sondern verstärkt auch für den BI-Bereich gelten.


Posted 14.09.10 7:05
Permalink | 144 Kommentare |

"Predictive Analytics" und verwandte oder synonyme Themen wie Data Mining, Datenmustererkennung, Business Analytics, statistische Vorhersage etc. erfreuen sich wachsender Aufmerksamkeit. Letztlich geht es um die Frage, wie mit fortgeschrittener Analysetechnologie ein Mehrwert aus den vorhandenen (und häufig teuer aufgebauten) Datenbeständen, z.B. in Data Warehouses, gezogen werden kann.
Hier eine kurze Marktübersicht und Umsatzschätzung:

Um die Marktbedeutung in Zahlen zu fassen und auch zukünftig eine Entwicklung darstellen zu können, haben wir bei BARC einmal geschätzt, welcher Anteil des Gesamtumsatzes für Business-Intelligence-Software in Deutschland (s. BARC Marktzahlen BI 2009) auf Lösungen für Predictive Analytics fällt. Das Ergebnis: Wir schätzen, dass eine Größenordnung von sieben bis zehn Prozent (ca. 60-80 Mio. Euro) des Gesamtmarktes für BI in Deutschland auf Werkzeuge und Anwendungen für Predictive Analytics und Data Mining fällt.
Klarer Marktführer ist dabei SAS mit einem breiten Portfolio von Werkzeugen und Anwendungen im Bereich fortgeschrittene Analyse. Gefolgt wird SAS von IBM, die sich mit dem Zukauf der Nummer 2 im Markt - SPSS - verstärkt haben. Neben diesen beiden großen im Markt gibt es noch einige BI-Anbieter wie Microstrategy oder Bissantz, die entsprechende Verfahren mit in ihren Lösungen anbieten und eine Vielzahl an kleinen Spezialisten wie Angoss, InforSense, KXEN, prudsys oder Viscovery. Wachsendes Interesse können sicher auch Open Source Lösungen wie Rapidminer von Rapid-I, KNIME oder Weka verzeichnen (s. BARC-Studie Open Source BI). Letztlich tümmeln sich noch die Datenbankanbieter mit eingebetteten Data-Mining-Funktionen im Markt, allen voran Oracle und Microsoft.


Posted 14.07.10 2:27
Permalink | 112 Kommentare |

Der BI-Gesamtmarkt wächst im Jahr 2009 insgesamt 8 Prozent auf ein Gesamtvolumen von 816 Millionen Euro an Lizenz- und Wartungserlösen für BI-Software in Deutschland –
doch es gibt nicht nur Gewinner.

Einige Kernergebnisse:
Der Markt wächst im Jahr 2009 insgesamt 8 Prozent auf ein Gesamtvolumen von 816 Millionen Euro an Lizenz- und Wartungserlösen für BI-Software in Deutschland.

Das stärkste Wachstum bei den größeren Anbietern (Top 2 Quartile der Top 50 Anbieter, Umsatz >3,4 Mio. Euro) verzeichnet IBM, die sowohl organisch in beiden Marktsegmenten als auch durch Zukauf von SPSS gewachsen sind. Die BI-Spezialisten Informatica, Evidanza, Qliktech und Information Builders folgen mit Wachstumsraten von mehr als 20 Prozent. Auch in der unteren Hälfte der Top50 gibt es stark wachsende Herausforderer wie Exasol, Sybase, Tagetik, Board oder LucaNet.

Die Entwicklung der Anbieter wird insgesamt differenzierter: 2009 konnten 24 der 52 Anbieter im Segment >1 Millionen Euro Umsatz nicht wachsen. Einzelne Anbieter mussten dabei Umsatzrückgänge bis zu 35 Prozent hinnehmen.

Der Umsatz mit BI-Anwenderwerkzeugen (Frontends) und -Applikationen steigt um 6 Prozent auf 474 Millionen Euro; der Backend/Datenmanagement-Bereich wächst um 10 Prozent auf 342 Millionen Euro.

Trotz Übernahmen nimmt die Anzahl der Anbieter weiter zu. Insgesamt bieten mehr als 150 Unternehmen Software für Business-Intelligence-Aufgaben in Deutschland an. Inzwischen erzielen 52 Anbieter einen Umsatz von 1 Millionen Euro oder mehr (Vorjahr: 49 Mio. Euro). Neu im „Club der Millionäre“ 2009: Exasol, HP, Jedox und Tagetik.

Die Konzentration nimmt weiter zu: Der Marktanteil der „großen Fünf“ Anbieter (Oracle, SAP, IBM, SAS, Microsoft) steigt auf 61 Prozent (Vorjahr: 57%), der Anteil der Top10 von 64% auf 70%. Die Konzentration auf wenige Großanbieter ist dabei im Backend-Bereich deutlich ausgeprägter als bei BI-Anwenderwerkzeugen.

Die Aussicht für den Business-Intelligence-Markt 2010 ist positiv. BARC erwartet 10-15 Prozent Marktwachstum für 2010. Wir schätzen, dass im Jahr 2012 mehr als 1 Milliarde Euro Umsatz mit BI-Software in Deutschland erzielt werden wird.

Die Top 10 Tabellen und weitere Informationen sind kostenfrei in einer Research Note bei BARC verfügbar.

Weiterhin bieten wir neben den kostenfrei veröffentlichten Top10-Rankings umfangreiche Services für BI Marktzahlen an, z.B. die Gesamtliste der 52 BI-Softwareanbieter mit >1 Mio. Euro Lizenz- und Wartungsumsatz, spezifische Marktzahlen inklusive Wachstumsszenario/ 5-Jahres-Prognosezeitfenster zum deutschen, europäischen und globalen BI-Software und Services Markt oder IT-Ausgaben für Business Intelligence in Subbranchen sowie Unternehmensgrößenklassen.


Posted 9.07.10 7:00
Permalink | 131 Kommentare |

pmOne hat mit dem Produkt OneMind eine clevere Idee umgesetzt: Die Einbeziehung von Endanwendern in der Modellierung von Data Warehouses oder Data Marts durch den Einsatz von Mindmaps und dem schnellen Prototyping von Reports. Das Werkzeug ist für Microsoft SQL Server in Verbindung mit Analysis Services verfügbar.

Ein häufiges Problem in der Modellierung von Data Warehouses oder Data Marts ist die Einbeziehung der Fachanwender. Die Herausforderung liegt in der Übersetzung der fachlichen Inhalte in ein IT-taugliches Datenmodell. ER-Diagramme oder auch spezielle, für dimensionale Modelle entwickelte Notationen wie ADAPT weisen durchaus Grenzen in der direkten Verständlichkeit auf.
PMOne setzt in seinem Modellierungs- und Data-Warehouse-Generierungswerkzeug OneMind die Idee um, Modelle nicht nur in MindManager oder Freemind anzuzeigen, sondern diese Werkzeuge auch direkt für die Modellierung zu nutzen. Die erstellten Modelle werden dann in das Modellierungswerkzeug importiert und dort weiterverarbeitet. Auch umgekehrt können Modelle mit Testdaten in Mind-Maps oder Excel mit Pivot-Navigationsmöglichkeiten sofort gezeigt werden. Zusätzlich sind auch Berichtsprototypen implementiert, die dem Anwender schon einmal einen ersten Blick auf ein Ergebnis in Berichtsform geben können. Die enthaltenen Berichtstemplates und erstellten Prototyp-Berichte basieren auf Microsoft SQL Server Reporting Services und können weiter verwendet werden. Damit ergibt sich eine Erleichterung und Beschleunigung für die projektseitige Umsetzung der Berichte.
Die Modellierung konzentriert sich auf dimensionale Modelle und basiert auf der Kimball-Modellierungsmethode. Die logischen Modelle werden in Star Schemen in Microsoft SQL Server Analysis Services Cubes umgesetzt. Die Verbindung zu Daten in Staging-, ODS- oder 3. Normalform Data-Warehouse-Layern muss dann individuell hergestellt werden. Reverse Engineering von Datenmodellen in Datenbanken ist ebenfalls umgesetzt. Das Werkzeug funktioniert ausschließlich mit dem Microsoft SQL Server. Microsoft als eher technisch orientiertes Werkzeug kann durch diese Ergänzung um eine fachlich Kommunikationsmöglichkeit und schnelle Prototyperzeugung erweitert werden. Ein Ausbau zu einem kompletten ETL-Framework für SQL Server ist geplant.

Weiterführende Links
OneMind Homepage
Einen ähnlichen Ansatz, etwas umfassender und nicht ganz so Fachanwenderorientiert verfolgt User Driven Warehouse von Ascention


PMOne OneMind.jpg


Posted 12.05.10 0:48
Permalink | 15 Kommentare |
   BESUCHEN SIE MEINEN EXPERTEN CHANNEL

Blog durchsuchen
Kategorie ›
Archiv ›
Neue Einträge ›