Kategorie-Archiv: Bits & Bytes

Burning Platforms – Wie lassen sich Altsysteme in neue Systemwelten migrieren

Wenn die Betriebskosten für alte Rechnerplattformen aus dem Ruder laufen, steht der Systemwechsel ins Haus. Doch was tun mit den Alt-Anwendungen?

Die Parkbank, die früher mal eine Aludose war, gibt es in der IT-Welt nicht. Jeder IT-Leiter weiß, dass die Rechnersysteme ein Verfallsdatum haben. Doch es gibt Software-Recycling, das alten Programmcode in eine neue Technologieumgebung verpflanzen kann und damit die bewährten Geschäftslogiken einer funktionierenden Organisation auch in Zukunft am Leben erhält.

Wer seine betagten Computer nicht im Griff hat, bekommt Ärger. Klare Anzeichen sind häufig auftauchende Performance-Probleme sowie steigende Instandhaltungs- und Wartungskosten der schwächelnden Plattform. Neue Speichersysteme, eine breitbandige Netzinfrastruktur sowie eine große Anzahl an sehr leistungsfähigen x86-Rechnern verändern die Systemlandschaft in immer kürzeren Zeitabschnitten. Die Schicksalsfrage lautet: Migrieren oder neu entwickeln?

Burning Platforms sind in Großkonzernen und Rechenzentren keine Seltenheit. Betagte Legacy-Systeme gibt es beinahe in jedem Rechenzentrum. „In den Mainframes stecken sehr hohe Investitionen“, weiß Migrationsspezialist Ernst Schierholz, Geschäftsführer der der Hamburger IT Modernisation UG, „deshalb überlegt jeder sehr genau, ob er überhaupt umsteigt.“ Häufig sträuben sich IT-Verantwortliche dagegen, die altgedienten Computerboliden einfach vom Netz zu nehmen und moderne, aber weniger bewährte Rechentechnik einzusetzen. Mancher Administrator schwört im kaufmännischen Umfeld gar auf die alten Cobol-Programme oder Assembler-Code, selbst wenn der Modernisierungsdruck durch Internet, Desktop Computing, Virtualisierung und Cloud-Computing wächst: „Viele Anwendungen laufen auch nach 20 Jahren noch sehr stabil“, betont Schierholz.

Grundsatzfragen begleiten IT-Administratoren ihr Berufsleben lang. Intel-Server und PCs mit Windows oder Modernisierung der alten Unix-Maschinen mit Desktop-Terminals, neue IBM-Rechner oder Blades von Hewlett Packard, eine Java-Plattform mit Cloud-Umgebung oder Client/Server-Architektur mit Apache-Server? Es gibt mehr als 8500 Computersprachen und in jedem größerem Unternehmen existieren meist mehrere Tausend Einzelprogramme, die technisch gesehen eine Mischung aus Standard- und selbstprogrammierten Spezialanwendungen bilden. Eine Neuprogrammierung der gesamten Code-Basis eines Unternehmens würde im Schnitt 20 Mannjahre verschlingen und Kosten von rund einer Million Euro verursachen.

Modernisierungsdruck bei knappen Budgets

Solche Kostenblöcke sind in Zeiten knapper IT-Budgets kein Pappenstiel. Doch beliebig weit von sich schieben kann man Migrationsentscheidungen nicht. Einer aktuellen Experton-Studie zufolge haben knapp 60 Prozent der Unternehmen mit mehr als 100 PC-Arbeitsplätzen eine fünf Jahre alte Version einer Office-Software im Einsatz. Das führt nach Ansicht von Axel Oppermann, Senior Advisor bei der Experton Group, zu „qualitativ schlechten Arbeitsprozessen, langen Durchlaufzyklen und einer geringen Flexibilität.“ Marode IT-Systeme sind der Bremsklotz für Geschäftsabläufe, die im Extremfall sogar die Arbeit der Gesamtorganisation beeinträchtigen.

Was aber tun? Experton empfiehlt eine schonungslose Revision der IT-Infrastruktur sowie eine gründliche Prüfung der vorliegenden Lizenz- und Nutzungsverträge. Aktuell verpassen Unternehmen, die auf Systeme aus den Jahren 2003 bis 2007/2008 setzen, die Innovationssprung neuer Entwicklungen. Dazu rechnet Experton die organische Verankerung wissensbasierte Arbeitsmodelle oder den Einzug moderner Instrumente und Methoden für Kollaboration, Reporting oder Analysen.

Ein anderer Weg heisst Standard-Software. Doch auch in diesem Fall sollten sich Entwickler nicht von den schöngefärbten Nachrichten aus den Marketingabteilungen beeindrucken lassen. Es gibt nämlich Werkzeuge und Spezialisten, die alte Cobol-Anwendungen sicher auf neue Intel-Server und x86-Desktops migrieren. Bekannteste Softwareschmiede hierfür ist Micro Focus. Mit der jetzt veröffentlichten Cobol-Plattform Visual Cobol R3 von Micro Focus lassen sich Cobol-Programme auch auf der Java Virtual Machine (JVM) oder in Microsofts Cloud-Infrastruktur Windows Azure einsetzen. Die Entwicklungswerkzeuge können mit Web-basierten Services ebenso umgehen wie mit Unix und Linux oder dem Microsoft Framework .Net.

Fortschritt mit Bewährtem

Zur Vermeidung von bösen Überraschungen empfiehlt Berater Schierholz, nicht vorbehaltlos den Lockrufen moderner Java-Gurus wie Oracle oder IBM zu folgen. Die Cobol-Anwendungen gehören in vielen Großsystemen keineswegs zum alten Eisen. Etwa 200 Milliarden Zeilen Code, so schätzt Schierholz, gibt es heute noch weltweit und jährlich kommen weitere fünf Milliarden neue Zeilen hinzu. Doch nicht alles, was Programmierer in den letzten 30 Jahren auf die Beine gestellt haben, ist bei Computernutzern und Systemadministratoren auf Gegenliebe gestoßen. Vor allem schufen die Codierprofis im Laufe der Zeit eine heterogene Systemlandschaft, deren Innenleben von Jahr zu Jahr komplexer und unübersichtlicher wird. Kein Wunder, dass längst totgesagte Programmiertechniken munter weiterleben. Ein Ende des Streits um die beste Plattform mit der richtigen Anwendung ist noch längst nicht in Sicht.

Advertisements

Der Data Warehouse Mythos – Abgepackte Informationen aus dem Selbstbedienungsladen

Wohin mit der Datenflut? Eine bange Frage, die bereits in den Teenagerjahren der modernen Computer- und Informationstechnik die fortschreitende maschinelle Verarbeitung von Informationen begleitet und bis heute kein Jota an Gewicht verloren hat. Die IT-Industrie zitiert gern das Datenchaos im Primärspeicher und tonangebende Wirtschaftsinformatiker sprechen von „Information-Overload“, der sich unversehens zum „Overkill“ fortentwickeln kann. Wer nach kurzem Nachdenken auf die Delete-Taste hinweist, verkennt mit dieser verblüffend einfachen Antwort das Problem: Die codierten Bits und Bytes enthalten nützliche Informationen, die mit dem Löschen verloren gehen.

Besonders hellhörig reagiert in diesem Zusammenhang die Unternehmens-IT. Neben dem inzwischen etablierten Zwang zur regelkonformen Datenaufbewahrung gemäß staatlicher Auflagen sind es marktwirtschaftliche Verlockungen, die den Umgang mit Daten in eine neue Richtung lenken. „IT meets Business“ steht von Anfang an auf dem Beipackzettel, der die Idee und den Bau eines Data Warehouse (DW) inklusive der zugreifenden Front-End-Applikationen begleitet. Allerdings stellt sich schnell heraus, dass der Schritt vom klassischen Datensammler zur dispositiven Informationswirtschaft viele Anwenderfirmen mit enormen finanziellen, technischen und organisatorischen Hürden konfrontiert.

Wertschöpfung aus der Datenbank

Schon die frühen Pioniere des Data Warehousing verbinden ihre informationstechnischen Ambitionen mit grundsätzlicheren Gedanken zu Produktivität und Wachstum. Sie beschwören den informellen Wert einer speziell strukturierten Datenbank, befüllt mit erstklassigen Geschäftsinformationen, die der Anwender dank intuitiv handhabbaren Werkzeugen abholen, am Bildschirm betrachten und in seine Entscheidungsfindungen einfließen lassen kann. Flankiert wird dieser Aufruf zur unternehmensweiten Informationsbewirtschaftung durch wissenschaftliche Abhandlungen, die Mitte der 80er Jahre des vorigen Jahrhunderts immer häufiger auftauchen: Information sei ein Produktionsfaktor wie Arbeit, Boden und Kapital lautet die Kurzformel, die Feuilletonleser und Fachpresse zu lebhaften Debatten anregte.

Ohne hier näher auf das weitläufige Feld an Überlegungen zum Gelehrtenstreit einzusteigen, macht der hohe Stellenwert, den Informatiker dem Begriff Information einräumen, stutzig. Wer eine Nachricht liest, weiß doch noch lange nicht, um was es geht. Selbst gewöhnlich gut informierte Kreise sind überrascht, wenn alles anders kommt als erwartet und manche Gebrauchsanleitung muss man fünf mal lesen, um zu verstehen, was Sache ist. Die begriffliche Unschärfe nährt den Verdacht, dass die Informatikerzunft mit der in Aussicht gestellten Datenaufbereitung lediglich den Bogen zu etwas Handfestem spannen will. Denn übersetzt in den Kontext des Alltagsgeschäfts zeigt der Hinweis auf den Produktionsfaktor sogleich Brisanz für jeden Homo oeconomicus: Es geht um den wettbewerbsentscheidenden Vorsprung, der sich durch das intelligente Ausschöpfen der reichlich vorhandenen Datenquellen einstellen soll.

Auf diese Botschaft springen die Unternehmensstrategen in Sachen Data Warehouse an. Schließlich wurden bereits großzügige IT-Investitionen in Datenbanken und das Datenmanagement getätigt mit Zielrichtung Speichern und – im Fall einer abgestürzten Systemlandschaft – Wiederherstellen der applikationsgetriebenen (operativen) Datenbestände. Ganz zu schweigen von teuren Finanz-, Warenwirtschafts-, Produktionsplanungs- und Vertriebssystemen, die das Enterprise Ressource Planning (ERP) entscheidend vorantreiben sollen. Manchem Geldgeber drängt sich bereits die Frage auf, wie denn die Speicherung großer Datenmengen den Rückfluss der dafür notwendigen Ausgaben zustande bringen soll.

Solche Zweifel spielen in den Jahren 1990 ff. zunächst eine untergeordnete Rolle. Das Innovationstempo der Hard- und Softwareindustrie strebt gerade mit Client-/Server-Systemen, Internet, E-Business und Network Computing einem neuen Höhepunkt entgegen. Die Datenbank ist etablierte Lagerstätte und Verwaltungsort von elektronisch erzeugten Daten mit einer Allzweck-Software, die sich um Datenzugriff, Flexibilität, Verfügbarkeit und Sicherheit kümmert. Doch die Speicherboliden gelten als träge Kolosse. Das unterschiedslose Sammeln in einem zentralen Datenpool hat nämlich einen gravierenden Nachteil: Darin tummeln sich strukturierte Daten wie Telefonbücher oder Adresslisten ebenso wie komplexe und unstrukturierte Datentypen, angefangen bei Textdateien über E-Mails, Kundeninfos, Bürger- und Patientenakten bis zu Multimedia-Files mit Bild und Sound. Zudem ändert sich der Inhalt relationaler Online-Datenbanken mit jeder noch so kleinen Transaktion – die Suche nach geschäfts- und entscheidungsrelevanten Informationen stößt wegen der Vielzahl von internen und externen Datenquellen mit all den inkommensurablen Datentypen und –formaten auf ernsthafte Schwierigkeiten.

Die neue Produktivkraft Information erweist sich in dieser Form als sperrige Datensammlung, die einfach nicht zu den Managementetagen passt. Dort geht es um kurz- oder weitsichtige Entscheidungen mit messbaren Renditezielen und sichtbaren Erfolgen. Das Informationsbedürfnis der Führungskräfte richtet sich auf betriebliche Berichtssysteme, die das Streben nach Business Intelligence und Excellence unterstützen und in auswählbaren Zeiträumen Rückschlüsse auf die Qualität, Leistungs- und Wettbewerbsfähigkeit der gerade laufenden Geschäftsprozesse einschließlich der damit befassten Akteure im Unternehmen zulassen.

Verblüffend viele Fragen

Viele Fragen füllen die To-do-Liste eines Managers, der sich anschickt, die aktuellen Geschäftsgänge auf Effizienz und Rentabilität zu überprüfen. Einmal braucht er in Zahlen gefasste Fakten, wie schnell etwas, wo und zu welchem Preis über den Ladentisch ging. Dann sind es Markttrends, die Einfluss nehmen auf das Kaufverhalten oder das Marktgebaren konkurrierender Unternehmen. Stehen neue Verhandlungen mit Zulieferern an, muss der gesamte Einkauf durchleuchtet werden und floppt eine Produktlinie, geht es an die Ursachenforschung mit allen Begleiterscheinungen, die der Misserfolg so mit sich bringt.

Zahlreiche Data-Warehouse-Ruinen vor allem in den 80er und 90er Jahren des vorigen Jahrhunderts belegen, dass der Bau solcher Systeme einigen Hirnschmalz erfordert, jede Menge Arbeit und Investitionen bewegt und viele Fallstricke parat hält. Der einfache Grundgedanke, Daten zwecks Analyse aus dem Transaktionsraum des Tagesgeschehens herauszulösen und daraus Informationen für unterschiedliche Anwenderzwecke zu generieren, lässt sich nicht per Plug & Play in eine funktionstüchtige IT-Architektur umsetzen.

Weitere Schwierigkeiten stellten sich ebenfalls in den Anfangsjahren des Data Warehousing ein. Ältere Semester kennen noch den Joke mit den Bierflaschen und den Babywindeln. Nach intensiver Datenanalyse und mehrdimensionalem Abgleich diverser Kennziffern im Data Warehouse des US-Handelshauses Wal Mart erhalten die Filialleiter von der Zentrale den Tipp, Windeln und Feiertagsgetränk nebeneinander vor der Kasse zu platzieren. Siehe da, der Absatz beider Produktarten tendierte nach diesem Cross-Selling-Act – vor allem Wochenends – nach oben. Marketing- und Verkaufsprofis haben solche Glanzleistungen superteurer Warehouse-Techniken indes kalt gelassen. Tiefschürfende Einsichten in die Geheimnisse der Verkaufssteuerung im Supermarkt vermittelt diese Art der Informationsgewinnung nicht.

Mathematische Spielchen fürs Management

Die eher trivialen Analyseergebnisse der Anfangsjahre hat dem Data-Warehouse-Konzept nicht geschadet. Betriebswirtschaftlich orientierte Informatiker und Professoren mit nebenamtlichen Consultingaufträgen hatten längst die Ressource Information zur Steuerungsgröße für Geschäftsprozesse erklärt. Auf Kongressen und diversen Firmenveranstaltungen kursierte die Vorstellung, ein komplettes Unternehmen quasi vom Schreibtisch aus am Bildschirm per Dashboard und Cockpit über Key Indicators und automatisierte Reportings zu steuern. Das begeisterte zunehmend das gehobene Management, schließlich muss der Motor rund laufen und das wird immer schwieriger.

Lehr- und Handbücher zu Data Warehouse lassen indes nach wenigen Seiten erkennen, dass der Weg von codierten Zeichen und Zeichenketten zu einer aussagekräftigen Information über den aktuellen Stand der Krebsforschung in Europa oder die Auktionshistorie am Hamburger Fischmarkt weit und sehr holprig ist. Das Extracting, Transforming und Loading (ETL) der Daten in ein neu modelliertes Warenhaus für Geschäftsinformationen ähnelt einem Spießroutenlauf: Einmal lässt die Datenqualität und Aktualität zu wünschen übrig, dann belasten die Abfragen und das Online Analytical Processing (OLAP) die Systemperformance im gesamten Bereich des so genannten Online Transaction Processing (OLTP).

Aufgehalten hat das die Wirtschaftsinformatiker und Softwareentwickler nicht. Längst sind sie sich einig, dass die „Systemintelligenz“ steigerungsfähig ist und dass diese Herausforderung nur durch das Konzipieren eben jener Informationsspeicher zu meistern ist, die eine transparente, integrierte und logisch-konsistente Gesamtsicht auf die Daten vermitteln.

Informationen am laufenden Band

Kontroverse Auseinandersetzungen über Architektur, Datenmodell und Inhalte eines Data Warehouse prägen die Entstehungsgeschichte der informationsorientierten Datenhaltung. Schon einer der Gründerväter des Data Warehouse, der IBM-Mann Bill Inmon, sorgt vor zwanzig Jahren mit seiner Definition für Verwirrung. Unklar ist demnach, ob eine unternehmensweite Informationsbereitstellung anzustreben sei, oder die Fachabteilungen jeweils eigene Data Marts unterhalten sollen. Offenbar schwebte Inmon damals bereits ein sehr umfassendes Business-Intelligence-System vor, das den Steuerungs- und Cockpit-Gedanken verfolgt.

Business Intelligence bedeutet frei übersetzt Bescheid wissen über die Vorgänge im Job Floor, die angeschlossenen Managementebenen und das regionale und globale Umfeld bezüglich der Erfolgsaussichten anstehender unternehmerischer Ziele. Mathematisch beseelte Geister wie Inmon fanden sich nicht damit ab, dass erste Versuche mit Management Informations Systemen (MIS) oder Decision Support System (DSS) gründlich fehl schlugen. Unermüdlich feilten Anfang der 90er Jahre des vorigen Jahrhunderts Informatiker und Softwarearchitekten an Referenzarchitekturen für ein umfassendes Business-Warehouse-System.

Data-Warehouse-Lösungen sind nach ihrer grundsätzlichen Konzeption für das analytische Verarbeiten von Daten bestimmt. Ein Extraktions-Werkzeug zapft alle verfügbaren Datenquellen periodisch oder ereignisgesteuert an und schreibt nach voreingestellten Kriterien die Daten in einen meist physikalisch vorhandenen Zwischenspeicher (Staging-Area oder Operational Data Store). Eine Transformationskomponente integriert die unterschiedlichen Datentypen zu einem einheitlichen, konsistenten Datenbestand und lädt das Ergebnis in die Data-Warehouse-Datenbank.

Dieser so genannte ETL-Prozess findet bereits als Datenfiltering mit diversen Gruppierungs- und Verdichtungsverfahren statt. Das zugrundeliegende Datenmodell berücksichtigt quantifizierende und qualifizierende Daten ebenso wie content-bezogene und transaktionsorientierte Daten. Auf die DW-Datenbank greifen dann die Front-Ende-Werkzeuge zu, die je nach Machart Finanzdaten auf mögliche Risiken untersuchen, Umsatzzahlen für bestimmte Zeitperioden und Regionen zusammenstellen oder Absatzprognosen erstellen.

Knappes Ladefenster aus 1+n Quellsystemen

Damit das System bei den Abfragen nicht einfach ins Blaue hinein fabuliert, sind mehrere Vorkehrungen notwendig. Das Datenbankschema ist mehrdimensional vorstrukturiert, die gesamte Architektur mehrschichtig aufgebaut. In der Fachsprache ist die Rede von Datenobjekten und einer 3-Tier-Architektur. Aus der IT-Sicht sind Daten aus dem operativen Feld jetzt Rohstoff, der automatisiert gewonnen und aufgebrochen wird und dem analytischen Zugriff der Fachabteilungen und des Top-Managements zur Verfügung steht. Der Datenimport unterliegt der peniblen Reinigung von redundanten Tabelleneinträgen und einer themenorientierten Sortierung. Damit diese umfangreichen und standardisierten Basisdaten nicht ihre Aussagekraft verlieren, unterliegen Extraktion und Transformation einer periodisch fortgeschriebenen Aktualisierung. Alles muss schnell ablaufen, möglichst im 24-Stunden-Rhythmus.

Ein betriebswirtschaftliches Faktum, wie beispielsweise „Verkaufszahl“, setzt sich aus mehreren Attributen zusammen. Für die jeweils anstehende Sichtweise auf die Daten wie Produktart, Zeit und Geographie, haben DW-Experten den Begriff der Dimension geschaffen. Da meist mehrere Dimensionen im Spiel sind fasst man diese zu Hierarchieebenen zusammen und verdichtet diesen Bereich mit Hilfe einer Berechnungsvorschrift. Fachleute bezeichnen den Verdichtungsgrad von Daten innerhalb einer Hierarchie als Granularität.

Häufig übersehen wird dabei, dass die Attribute aus unterschiedlichen Quellsystemen stammen können, im Data Warehouse aber zusammen als eine „Entität“ erscheinen. Beispielsweise bestellt jemand im Internet-Shop einen MP3-Player und bezahlt per Kreditkarte, will aber das Gerät in einer Geschenkverpackung an eine bestimmte Lieferadresse schicken – dann glühen die Drähte in der damit befassten IT-Infrastruktur. Die Kunst besteht darin, die angestoßenen Buchungsvorgänge mit unterschiedlichen Laufzeiten zu einem Faktum – inklusive Empfangsquittung und potentieller Reklamation – im Data Warehouse zusammenzuführen.

Wenn das gelingt, ist der halbe Weg vom Tabellendickicht zur strukturierten Informationshülse geschafft. Technisch gesehen ist man bei einem OLAP-Modell mit eigener Rechenlogik gelandet. Ob der Markt für neue MP3-Player noch aufnahmefähig ist und wie hoch der nächste Deckungsbeitrag dieser Produktgattung sein wird, das lässt sich leider noch nicht feststellen. Diese Aufgabe obliegt eigenen Analyse-Applikationen im so genannten Frontend-Bereich, die solche Fragestellungen an das System – üblicherweise ein relationales Datenbankmanagementsystem – richten. Ob die hinterlegten Dimensionsdefinitionen und Kennzahlen ausreichen, um brauchbare Anhaltspunkte für die nächste Werbekampagne oder das Einkaufsordering zu erhalten, hängt von der Komplexität der Analyse ab – wer viel wissen will, muss lange warten.

Das Unternehmen insgesamt gerät unter den Händen der Informatik mehr und mehr zu einem mathematischen Gebilde. Nach dieser Lesart besteht die Firma aus einem sich ständig verändernden (operativen) Datenbestand, der sich mit Hilfe der Sammelkomponente (ETL) und einer Modellierungssoftware (OLAP) in einen Würfel verwandelt. Dieser getrennt von den Online-Datenbanken existierende Cube wird regelmäßig aktualisiert und bildet einen konsolidierten Datenraum mit zahlreichen Informationsobjekten und unterschiedlichen Bezugs- und Zuordnungsregeln. Die Kenngrößen eines Datenwürfels liegen in einer Faktentabelle, die auch alle Beziehungen zu den Klassifikationsstufen der verschiedenen Dimensionen enthält.

Alle Elemente in den OLAP-Würfeln beinhalten bereits thematisch vorsortierte Informationen aus unterschiedlichen Datenbanktabellen, die beim Online Transaction Processing (also im laufenden Rechenbetrieb) in relationalen Abhängigkeiten zu einander stehen. Zum Beispiel Zeittabellen wie Tag, Woche, Quartal und Jahr sowie Artikelstammdaten, die in Relation zu Produktnamen- und gruppen stehen, deren Abverkäufe an verschiedenen Standorten erfasst werden. Das zugrundeliegende Datenmodell im Data-Warehouse-Bereich beschreiben so genannte Metadaten, die in einem eigenen Repository liegen.

Wo steckt die Intelligenz

Vom komplizierten Innenleben des Data Warehouse sieht der Anwender nichts. Allenfalls kommt er mit den Metadaten in Form eines Informationskatalogs und dazugehöriger Navigationshilfe in Berührung. Er nutzt analytische Anwendungen um an die wirklichen oder vermeintlichen Informationsschätze heranzukommen. Die Bandbreite der Werkzeuge reicht mittlerweile von klassischen Reporting- und Abfragegeneratoren bis zu Data Mining und Dokumenten-Retrieval. Die schwer fassbare Business Intelligenz rattert im Hintergrund, entbindet aber keinen Nutzer von der Verpflichtung auf erfolgreiche Aktivitäten. Die wöchentlichen oder monatlichen Zielvereinbarungen gelten nicht für die Maschinen, sondern für die Mitarbeiter.

Die haben sich inzwischen daran gewöhnt, das analytische Instrumentarium, soweit es denn brauchbare Ergebnisse bringt, in Form von Warenkorb-, Kunden- oder Performanceanalysen in ihren Alltag einzubauen. Am einfachsten geht das mit Business-Kennzahlen wie Umsatz, Stückzahl, Retouren oder Lagerbestände. Die lagern in den Faktentabellen. Selektions- und Filtermerkmale holt sich der Anwender aus den Dimensionstabellen. Das ganze hinterlässt den Eindruck eines Baukastensystems, das mitunter sogar Business-Templates im Sinne inhaltlich vorgefertigter Geschäftsprozesse enthalten kann.

Gut gerüstet mit hochverdichteten Informationen gehen die Unternehmen jetzt auf die Märkte los. Was dabei herauskommt ist kein großes Geheimnis. Es mag sein, dass Anwender mit einem Risk-Management-Tool die Finanzierungs- und Refinanzierungskosten im Unternehmen auf einem niedrigen Level halten können, aber ein Blick in die Wirtschaftspresse deutet auf das glatte Gegenteil: Die Risikoanalysen der Banken gingen im Fall Hypothekenspekulation gründlich in die Hosen. Das Finanzdesaster erfasst schon auf Grund des Ausmaßes auch real wirtschaftende Teile der Gesellschaft. Ähnliches gilt für spektakuläre Fehleinschätzungen im Flugzeugbau, der Biotech- und Baubranche oder der ehemaligen Mobilfunksparte von Siemens. Auf der Liste der Pleiten des Jahres tummeln sich regelmäßig fast 30 000 Unternehmen – recht unwahrscheinlich, dass niemand ein Data Warehouse einsetzt.

Zusatz

Wer kann besser analysieren

Etwa zehn Jahre mühten sich Entwickler von IBM, Teradata, Sybase, Microsoft und Oracle ab, die mehrdimensionale Speicherung von Daten in einem Schneeflocken-, Galaxie- oder Starschema hinzukriegen. Immer wieder stehen zwei große Themen im Raum: Datenqualität und Performance. Zahlreiche Erweiterungen der Datenbanktechniken und trickreiche Einfälle wie das Aufteilen einer Tabelle mit umfangreichen Extensionen auf mehrere kleine Partitionen oder die Einführung von Bitmap-Indexierung und bessere Gruppierungsfunktionen der Abfragesprache SQL (Structured Quere Language) entschärfen die gröbsten Hindernisse. Eine kleine Gruppe von Spezialherstellern, darunter Cognos, Hyperion, Business Objects, SAS, Informatica oder Comshare, machen mit eigenen Software-Paketen auf sich aufmerksam. Meist stammen sie aus dem OLAP- und ETL-Umfeld und profitieren von den Schwächen der herkömmlichen Datenhaltung.

Während nahezu alle Komponenten auf jeder Ebene des Data-Warhouse-Modells in ihrem technischen Reifegrad zugelegt haben, wächst auch die Begehrlichkeit der Hersteller möglichst viel vom Business-Intelligence-Kuchen abzukriegen. Datenbankhersteller fangen an, die analytischen Fähigkeiten ihrer Datenbankmanagementsysteme zu erweitern. Die Performanceschwächen der klassischen OLAP-Cubes bei Verarbeitung größerer Datemnengen sind zwar noch nicht ausgebügelt, aber die meisten Hersteller lassen sich nicht auf die konkurrierenden Varianten MOLAP (multidimensionale Datenbank mit entsprechenden Datenstrukturen) oder ROLAP (Multidimensionalität wird auf zweidimensionalen Tabellen abgebildet) festlegen und bieten beides an.

Je mehr der Funktionsumfang einer Business-Intelligence-Suite ausgedehnt wird, desto stärker reizt das die Platzhirsche der IT-Welt. Im letzten Jahr schnappten sich SAP, Microsoft und IBM vormals selbständige Anbieter mit jahrelanger Entwicklungserfahrung. Zwar erhält die Gemeinde der Data-Warehouse-Anbieter mit Teradata nach der Trennung vom Mutterkonzern NCR wieder selbständigen Zuwachs, aber die Reihen haben sich mit dem Weggang von Hyperion, Cognos und Business Objects doch sehr gelichtet. Die Frage ist, was nutzt das dem Anwender.

Petabyte in Aktion

Bill Nuti, seit August 2005 Präsident und CEO von NCR Corporation, liebt die einfache Sichtweise: Die Welt ist eine Scheibe und wird vom globalisierten Business zusammengehalten. Am liebsten hätte er den Planeten gern eigenhändig flachgelegt, denn die „Flat World“ ist das Szenario, das dem US-amerikanischen Technologiekonzern und dessen Tochterunternehmen Teradata wachsende Umsätze und neue Geschäftspotentiale erschließt. Seit zwei Jahren scheffelt die Tochter mehr Geld in die Kassen, als sie rauszieht, 64 Prozent Einkommenszuwachs seit 1999 bei moderat wachsender Kostenstruktur, verrät zufrieden Chief Marketing Officer Bob Fair.

Abzulesen ist das an der Kundenliste von Teradata. Die verzeichnet ständig Zulauf und neben den großen Finanzinstituten dieser Welt kommen Telekommunikationskonzerne sowie Großhandelshäuser wie der Schweizer Foodkonzern Migros, der französische Händler Champions oder die Metro dazu. Letztere hat sich neben Wall Mart als Early Adopter für die Funkchiptechnologie RFID (Radio Frequence Identification) geoutet. Das Unternehmen will damit ihre Materialbewegungen im logistischen Umfeld, aber auch das gesamte Abrechnungswesen und ihre Kunden- und Geschäftsbeziehungen informationstechnisch auf ein neues Leistungsniveau heben.

Das ist die Steilvorlage für die Data Warehouse-Technologie von Teradata. Die zeitnahe Verarbeitung und Auswertung von Daten aus den Funkchips fällt in die Zuständigkeit der IT-Infrastruktur. Elektronisch codierte Produktinformationen wandern per Funk in die Softwaremühlen des Data Warehouse und werden dort mit den bereits reichlich vorhandenen Informationsobjekten der Warenwirtschaft samt aller vor- und nachgelagerten Bereiche bis hin zur Finanz- und Abrechnungsabteilung verbunden. Zahlreiche Tools und Komponenten sowie ein sorgsam gepflegtes Datenmodell bereiten die hereinkommenden Rohdaten zu aussagekräftigen Momentaufnahmen der geschäftlichen Aktivitäten auf und stellen diese Informationen über browserfähige Portale den Mitarbeitern (oder externen Geschäftspartnern, Lieferanten und Zulieferern) zur Verfügung.

Damit das Vertrauen in die Informationstechnik erhalten bleibt und aus den Datensilos tatsächlich Brauchbares fürs tägliche Geschäft herauskommt, legt sich Teradata kräftig ins Zeug. Stephen Brobst, Chief Technology Officer, geht davon aus, dass die Automatisierung der Geschäftsabläufe in den nächsten Jahren weiter vorangetrieben wird, weil sehr schnelle Datenanalysen die Reaktionsfähigkeit der Unternehmen in den strategischen Geschäftsbereichen erhöht. Informationstechnische Barrieren, an denen die täglichen Deals scheitern könnten, gibt es nach Ansicht von Brobst so gut wie nicht mehr. Dafür steht das Produktportfolio des Softwarehauses aus Dayton/Ohio gerade, das in seiner jüngsten Ausprägung keinen Zweifel darüber aufkommen lässt, dass sich der Datenansturm aus x-beliebigen Quellen lässig schultern lässt: Ein neuer Server von NCR skaliert bis zu 4,2 Petabytes.

IT World

Materialschlacht im Nanokosmos

Die Chip-Hersteller sind grundgestimmte Optimisten und schrecken auch vor den Grenzen der Physik nicht zurück. Schließlich wollen sie auf der Moore´schen Miniaturisierungswelle weiter surfen, die alle paar Jahre dem PC-Desktop ein Verfallsdatum verpaßt. Intel quetscht erneut mehr Leistung aus den winzigen Siliziumstückchen und feiert gerade die neue Mikroarchitektur „Core“. Das Core-Label löst die alte Pentium-Generation ab.

Was auf der Marketingbühne abgeht, bringt die Entwickler ganz schön ins Schwitzen. Prozessor-Chips mit mehr als einer Milliarde Transistoren, gefertigt in einer 65-Nanometer-Produktion und hochgetaktet, wie kein anderer Logikschaltkreis je zuvor – das soll den PC-Absatz anheizen und den eigenen Marktanteil gegenüber der Konkurrenz – allen voran AMD – auf Jahre ausbauen.

Wenn man den Ausführungen von Intels Chief Technology Officer, Justin Rattner, folgt, geht es in den Forschungslabors seit einigen Monaten schwer zur Sache. Da mußte die Verlustleistung durch niedrigeren Stromverbrauch abgesenkt werden, da die Chips beim Schalten zu heiß wurden, eine neue Dotierung des Isolationsmaterials zwischen den dreidimensional geschichteten Leiterbahnen sollte deren bremsenden Einfluss auf die Ladungsträger in Schach halten und zu guter letzt wollte man auch gleich ein Chipdesign benutzen, das die spätere Herstellung von vierkernigen Mikroprozessoren ermöglicht.

Der Chipkonzern schaffte alles in Rekordzeit und zeigte erste Betas auf dem diesjährigen Entwicklungsforum IDF in San Franzisko. Prompt reagierte Konkurrent AMD angesichts des flotten Entwicklungstempos verschnupft und bezweifelte die Funktionsfähigkeit der dargebotenen Prototypen. Tatsächlich geraten die Hersteller immer näher an den Grenzbereich des technisch Machbaren. Die Materialien machen nicht mehr richtig mit, wenn die Strukturbreiten von Siliziumschaltkreisen unter der 40 Nanometer-Marke liegen. Das aber darf es laut Moore nicht geben. Also muß eine neue Materialmischung her, die das Silizium so weit streßt, daß auch in Zukunft der Miniaturisierungskurs erhalten bleibt. Indiumantimonid (InSb) heißt der neue Favorit und soll angeblich die Materialkosten nicht dramatisch nach oben treiben, wie es sein Bruder Galliumarsenid zum Leidwesen der Chiphersteller gemacht hat.

SAP sieht (mal wieder) Verkaufspotential
im Mittelstand

(beu) Der Markt wird seit jeher von professionellen IT-Marketiers Monat für Monat durchforstet, immer auf der Suche nach zahlungsfähiger Kundschaft. Vor allem der Mittelstand gilt hierzulande in Herstellerkreisen als Zielgruppe mit hohem Defizit an moderner Informationstechnik. Ein kleiner Nachteil ist mit diesem Klientel verbunden: Der Firmeninhaber läßt sich nur mit Engelsgeduld von größeren IT-Investitionen überzeugen. Und ausgerechnet das versuchen seit Jahren Heerscharen von Herstellern.

Der Balztanz um den Mittelstand ist voll entbrannt. Diverse Marktstudien kommen regelmäßig zu dem Ergebnis, daß hierzulande bei zigtausenden Firmen die großen IT-Themen einfach nicht Fuß fassen konnten. Finanzen, Warenwirtschaft, Personal, Kundenbeziehung, Logistik, Auftragsplanung und Lieferantenbetreuung unterliegen im Mittelstand erst rudimentär dem Management von Hard-, Soft- und Middleware – zumindest, wenn man den Herstellern glauben möchte, die den resistenten Kunden draußen im Lande endlich den Übergang von DOS zu Windows für ihre Bestell- oder Kundensoftware nahe bringen wollen. Dieses Brachland will auch die Walldorfer SAP (mal wieder) urbar machen. Zum Jahreswechsel hat der Softwarekonzern einen neuen Geschäftsleiter Mittelstand installiert. Der bekennt sich zu den „Kleinen“, denn „da sehen wir das größte Potential“, hat er unlängst in einem Interview mit „Computer Reseller News“ erläutert, einem einschlägig bekannten Sprachrohr der Channel-Abteilungen der Hersteller.

Die Crux mit dem Kindergarten liegt darin, daß der Aufwand für Beratung und Implementierung auch bei Kleinprojekten schnell Dimensionen erreicht, die das IT-Budget der Anwender über Maßen strapazieren. Mittelständler sind deshalb bei Beratern und Marketiers unbeliebte Kunden, weil sie schlicht weniger Umsatz bei gleichem Arbeitseinsatz bringen. Doch statt das Geschäft anderen zu überlassen, öffnet Marktführer SAP sein Portfolio ein Stück weiter von „komplex und global“ (Standard) auf „vorkonfiguriert und regional“ (Standard light). Dazu ein paar Maßnahmen, die vor allem Partnerunternehmen nicht kalt lassen dürften: So wird die Projektverteilung zwischen den Externen und dem Stammhaus neu festgelegt, sprich, die Umsatzgrenzen und Gewinnerwartungen neu definiert, ab denen der Direktvertrieb von SAP die Sache in die Hand nimmt.

Ob Anwender von den Schachzügen der Manager profitieren, steht in den Sternen. Bisher hat es die im Markt etablierte SAP-Software Business One nicht geschafft, ihr Negativimage abzustreifen. Nachrücker aus der zweiten Reihe haben in der Vergangenheit immer wieder bewiesen, daß sie Marktanteile erobern können. Oracle, Microsoft und IBM wollen zudem auch mit kleineren Brötchen ihre Bilanzen aufbessern. Dafür muß auf’s Neue der Mittelstand herhalten.

Der befindet sich seinerseits in einem beinharten Wettbewerb. Manche Marktbeobachter sprechen bereits von ersten Anzeichen für einen grundlegenden Wandel mit Auflösungstendenzen. Jedenfalls sind Finanzinvestoren im letzten Jahr auffallend häufig vor den Toren kleinerer Unternehmen gesichtet worden. Laut Süddeutscher Zeitung waren es im letzten Jahr mehr als 100 Milliarden Euro, die von Beteiligungsgesellschaften im EU-Raum für Firmenübernahmen ausgegeben wurden. Insgesamt stieg das Volumen der Firmenkäufe durch Beteiligungsgesellschaften gegenüber dem Jahr zuvor um 43 Prozent auf 116,5 Milliarden Euro. 38 Prozent aller Transaktionen entfielen dabei auf den Mittelstand. Das bedeutet Substanzverlust im stolzen Mittelbau und Einsturzgefahr in den unteren Etagen. Erledigt sich damit die Mittelstandsoffensive der SAP? „Wir sind schon längst im Mittelstand angekommen“, sagt ein SAP-Manager hinter vorgehaltener Hand und deutet auf die vielen Tochterunternehmen der Großkonzerne, die SAP R/3 oder Mysap zum Standard erhoben haben.

Oracle bringt sich in Stellung
– oder: „all-you-can-eat“

Seit einiger Zeit hakeln IT-Schwergewichte ihre Interessensgegensätze mit immer größerem Getöse aus. „Organisch weiterwachsen“ will SAP und belegt mit Quartalszahlen, daß man immer noch die Nummer eins im Softwaremarkt für Enterprise Ressource Planning (ERP) ist. Widersacher Oracle verläßt sich nicht auf das Wachstum der eigenen Organe, sondern gibt Milliardenbeträge für Zukäufe im Applikationsumfeld aus. "More and more we are trying to turn our largest customers into all-you-can-eat customers," bekundete Anfang Februar Oracle-Boss Larry Ellison vor Bankern auf der Credit Suisse Global Software Conference in St. Monica, Kalifornien.

Alles einverleiben, was dem eigenen Fortkommen dient – wenn das nur gut geht. Der Datenbankspezialist Oracle hebelt immer häufiger die SAP-Konkurrenz aus. Zum Beispiel bei der Auftragsvergabe der US Airforce über 88,5 Millionen US-Dollar, die die US-Niederlassung der SAP unbedingt für sich selbst anlanden wollte. Auch massive Proteste der deutschen Softwerker beim zuständigen Government Accountability Office halfen nichts, der Zuschlag ging an Erzfeind Oracle.

Oracle hat noch mehr Eisen im Feuer. Die Eingemeindung der ehemaligen Peoplesoft-Anwender und J.D.-Edwards-Kunden setzt die Ellison-Company wie angekündigt um. Die vertragliche Bindung der zugekauften Kunden wird mit großzügigen Zugeständnissen beim Support der Altsoftware gefestigt. Die German User Group (GUG), die 75 J.D.-Edwards-Unternehmen vertritt, verhandelt derzeit mit der Deutschen Oracle Anwender Gruppe (DOAG) zwecks Zusammenlegung der Ressourcen. Ihr ehemaliger Vorsitzender, Peter Mischok, befürchtet, daß eine wirkungsvolle Interessensvertretung gegenüber dem Hersteller auf der Strecke bleiben könnte. „Die DOAG muß erst mal beweisen, daß sie das im Applikationsumfeld kann“, sagt. Mischok auf der letzten Jahreshauptversammlung. Und gab auch gleich seinen Vorsitzplatz ab.

Wenn die SAP-Spitze den Kaliforniern die Aussicht auf Erfolg bestreitet und Ellison als Schaumschläger abtut, dann mißversteht sie den hartnäckigen Siegeswillen des lästigen Kontrahenten. Ein Geschäft durchziehen ist die Kunst der amerikanischen Businesspeople seit der Kolonialisierung des Kontinents. Wie weit sie es gebracht haben, läßt sich unschwer an der Globalisierung des Geschäfts ablesen. Die Meßlatte liegt auf hohem Niveau – vielleicht beherrschen sie nicht alles, aber im Maximieren ihrer Profite kennen sie sich aus. Das muß man nicht gutheißen, aber man sollte es zumindest zur Kenntnis nehmen.