Category Archives: Bits & Bytes

Burning Platforms – Wie lassen sich Altsysteme in neue Systemwelten migrieren

Wenn die Betriebskosten für alte Rechnerplattformen aus dem Ruder laufen, steht der Systemwechsel ins Haus. Doch was tun mit den Alt-Anwendungen?

Die Parkbank, die früher mal eine Aludose war, gibt es in der IT-Welt nicht. Jeder IT-Leiter weiß, dass die Rechnersysteme ein Verfallsdatum haben. Doch es gibt Software-Recycling, das alten Programmcode in eine neue Technologieumgebung verpflanzen kann und damit die bewährten Geschäftslogiken einer funktionierenden Organisation auch in Zukunft am Leben erhält.

Wer seine betagten Computer nicht im Griff hat, bekommt Ärger. Klare Anzeichen sind häufig auftauchende Performance-Probleme sowie steigende Instandhaltungs- und Wartungskosten der schwächelnden Plattform. Neue Speichersysteme, eine breitbandige Netzinfrastruktur sowie eine große Anzahl an sehr leistungsfähigen x86-Rechnern verändern die Systemlandschaft in immer kürzeren Zeitabschnitten. Die Schicksalsfrage lautet: Migrieren oder neu entwickeln?

Burning Platforms sind in Großkonzernen und Rechenzentren keine Seltenheit. Betagte Legacy-Systeme gibt es beinahe in jedem Rechenzentrum. „In den Mainframes stecken sehr hohe Investitionen“, weiß Migrationsspezialist Ernst Schierholz, Geschäftsführer der der Hamburger IT Modernisation UG, „deshalb überlegt jeder sehr genau, ob er überhaupt umsteigt.“ Häufig sträuben sich IT-Verantwortliche dagegen, die altgedienten Computerboliden einfach vom Netz zu nehmen und moderne, aber weniger bewährte Rechentechnik einzusetzen. Mancher Administrator schwört im kaufmännischen Umfeld gar auf die alten Cobol-Programme oder Assembler-Code, selbst wenn der Modernisierungsdruck durch Internet, Desktop Computing, Virtualisierung und Cloud-Computing wächst: „Viele Anwendungen laufen auch nach 20 Jahren noch sehr stabil“, betont Schierholz.

Grundsatzfragen begleiten IT-Administratoren ihr Berufsleben lang. Intel-Server und PCs mit Windows oder Modernisierung der alten Unix-Maschinen mit Desktop-Terminals, neue IBM-Rechner oder Blades von Hewlett Packard, eine Java-Plattform mit Cloud-Umgebung oder Client/Server-Architektur mit Apache-Server? Es gibt mehr als 8500 Computersprachen und in jedem größerem Unternehmen existieren meist mehrere Tausend Einzelprogramme, die technisch gesehen eine Mischung aus Standard- und selbstprogrammierten Spezialanwendungen bilden. Eine Neuprogrammierung der gesamten Code-Basis eines Unternehmens würde im Schnitt 20 Mannjahre verschlingen und Kosten von rund einer Million Euro verursachen.

Modernisierungsdruck bei knappen Budgets

Solche Kostenblöcke sind in Zeiten knapper IT-Budgets kein Pappenstiel. Doch beliebig weit von sich schieben kann man Migrationsentscheidungen nicht. Einer aktuellen Experton-Studie zufolge haben knapp 60 Prozent der Unternehmen mit mehr als 100 PC-Arbeitsplätzen eine fünf Jahre alte Version einer Office-Software im Einsatz. Das führt nach Ansicht von Axel Oppermann, Senior Advisor bei der Experton Group, zu „qualitativ schlechten Arbeitsprozessen, langen Durchlaufzyklen und einer geringen Flexibilität.“ Marode IT-Systeme sind der Bremsklotz für Geschäftsabläufe, die im Extremfall sogar die Arbeit der Gesamtorganisation beeinträchtigen.

Was aber tun? Experton empfiehlt eine schonungslose Revision der IT-Infrastruktur sowie eine gründliche Prüfung der vorliegenden Lizenz- und Nutzungsverträge. Aktuell verpassen Unternehmen, die auf Systeme aus den Jahren 2003 bis 2007/2008 setzen, die Innovationssprung neuer Entwicklungen. Dazu rechnet Experton die organische Verankerung wissensbasierte Arbeitsmodelle oder den Einzug moderner Instrumente und Methoden für Kollaboration, Reporting oder Analysen.

Ein anderer Weg heisst Standard-Software. Doch auch in diesem Fall sollten sich Entwickler nicht von den schöngefärbten Nachrichten aus den Marketingabteilungen beeindrucken lassen. Es gibt nämlich Werkzeuge und Spezialisten, die alte Cobol-Anwendungen sicher auf neue Intel-Server und x86-Desktops migrieren. Bekannteste Softwareschmiede hierfür ist Micro Focus. Mit der jetzt veröffentlichten Cobol-Plattform Visual Cobol R3 von Micro Focus lassen sich Cobol-Programme auch auf der Java Virtual Machine (JVM) oder in Microsofts Cloud-Infrastruktur Windows Azure einsetzen. Die Entwicklungswerkzeuge können mit Web-basierten Services ebenso umgehen wie mit Unix und Linux oder dem Microsoft Framework .Net.

Fortschritt mit Bewährtem

Zur Vermeidung von bösen Überraschungen empfiehlt Berater Schierholz, nicht vorbehaltlos den Lockrufen moderner Java-Gurus wie Oracle oder IBM zu folgen. Die Cobol-Anwendungen gehören in vielen Großsystemen keineswegs zum alten Eisen. Etwa 200 Milliarden Zeilen Code, so schätzt Schierholz, gibt es heute noch weltweit und jährlich kommen weitere fünf Milliarden neue Zeilen hinzu. Doch nicht alles, was Programmierer in den letzten 30 Jahren auf die Beine gestellt haben, ist bei Computernutzern und Systemadministratoren auf Gegenliebe gestoßen. Vor allem schufen die Codierprofis im Laufe der Zeit eine heterogene Systemlandschaft, deren Innenleben von Jahr zu Jahr komplexer und unübersichtlicher wird. Kein Wunder, dass längst totgesagte Programmiertechniken munter weiterleben. Ein Ende des Streits um die beste Plattform mit der richtigen Anwendung ist noch längst nicht in Sicht.

Advertisements

ROI – ein Nachweis der dritten Art

Aufwands- und Kostenreduktion, schneller, nachweisbarer ROI, modifikationsfreie Lösung, Verkürzung der Durchlaufzeiten – zusammen ergibt das eine Revolution und zwar in der Eingangsrechnungsverarbeitung. Das behauptet zumindest die Marketingabteilung eines Softwareanbieters. Das Erdbeben mag einen Buchhalter vor dreißig Jahren erschüttern – heute beeindruckt das niemand mehr. Wenn 50 000 Rechnungsseiten pro Jahr teilautomatisiert durch die EDV jagen, bekommt lediglich der Systemadministrator mitunter feuchte Hände und zwar immer dann, wenn Bearbeitungstools fehlerbehaftete Rechnungen durchschleusen oder das Capture-Tool partout Datumsfeld und Adressfeld verwechselt.

Der Return On Investment (ROI) ist eine standhafte Größe und befruchtet viele Verkaufsgespräche auch und gerade in der Welt der Informationstechnik. 40 Prozent Aufwands- und Kostenreduktion steht im Referenzbericht eines Automobilzulieferers. Kennzahlen sind das betriebswirtschaftliche Spielzeug mit denen sich Gewinn und Verlust, Erfolg oder Niederlage, Wachstum oder Stagnation feststellen lässt. Die ROI-Berechnung ist dabei die beliebteste Übung, denn sie drückt grundsätzlich eine Unschärfe aus: Die Maßzahl für den Erfolg einer Investition enthält den prognostizierten Rückfluß des ausgegebenen Kapitals innerhalb einer bestimmten Zeitdauer.

Genau genommen lässt sich der ROI gar nicht im voraus berechnen. Denn der Unternehmer kann seine Nettorendite erst ermitteln nachdem das Geld ausgegeben wurde und er sich damit am Markt durchgesetzt hat. Und schon wieder stoßen wir auf eine eigentümliche Schwäche der Kennzifferntüftelei: Die Rendite berechnet sich aus dem Umschlag des gesamten im Unternehmen gebundenen Kapitals. Schließlich verdient der Automobilzulieferer sein Geld nicht mit digitalisierten Geschäftsprozessen sondern mit Bremszylindern oder Einspritzpumpen.

Es gibt folglich verschiedene Methoden zur Berechnung des ROI. Je nachdem wie weit man die Zeitachse spannt und den Break Even finanzmathematisch ansetzt, ergeben sich ganz unterschiedliche Kennziffern. Während die klassische Rechnungsweise die gesamte Nutzungsdauer einer Anschaffung betrachtet und den Planungshorizont entsprechend langfristig ansetzt, gehen IT-Buchhalter von wesentlich kürzeren Verfallszeiten der Hard- und Software aus. Brummen die Geschäfte, vermag eine moderne, gut gewartete IT-Infrastruktur den Weg zu mehr Umsatz zu ebnen – an den Schalthebeln sitzen aber immer noch die Mitarbeiter, die entscheiden welches Kundenbedürfnis wie befriedigt wird.

Beim Personal allerdings wirken die Kennziffern verheerend. Wenn Gehaltskosten gegen Technikkosten aufgerechnet werden, steht der Angestellte allemal im Regen. Als Kostenfaktor muss er sich messen lassen an IT-Systemen, die tatsächlich vieles schneller und effizienter erledigen. Welche Kosten rentieren sich denn nun – der Posteingangsscanner samt damit verbundener EDV und vernetzter Datenbanken oder das Sekretariat mit den krankheitsanfälligen Mitarbeitern. Zur Beantwortung dieser Frage ziehen viele Unternehmen ganz gern den ROI zu Rate.

Der Data Warehouse Mythos – Abgepackte Informationen aus dem Selbstbedienungsladen

Wohin mit der Datenflut? Eine bange Frage, die bereits in den Teenagerjahren der modernen Computer- und Informationstechnik die fortschreitende maschinelle Verarbeitung von Informationen begleitet und bis heute kein Jota an Gewicht verloren hat. Die IT-Industrie zitiert gern das Datenchaos im Primärspeicher und tonangebende Wirtschaftsinformatiker sprechen von „Information-Overload“, der sich unversehens zum „Overkill“ fortentwickeln kann. Wer nach kurzem Nachdenken auf die Delete-Taste hinweist, verkennt mit dieser verblüffend einfachen Antwort das Problem: Die codierten Bits und Bytes enthalten nützliche Informationen, die mit dem Löschen verloren gehen.

Besonders hellhörig reagiert in diesem Zusammenhang die Unternehmens-IT. Neben dem inzwischen etablierten Zwang zur regelkonformen Datenaufbewahrung gemäß staatlicher Auflagen sind es marktwirtschaftliche Verlockungen, die den Umgang mit Daten in eine neue Richtung lenken. „IT meets Business“ steht von Anfang an auf dem Beipackzettel, der die Idee und den Bau eines Data Warehouse (DW) inklusive der zugreifenden Front-End-Applikationen begleitet. Allerdings stellt sich schnell heraus, dass der Schritt vom klassischen Datensammler zur dispositiven Informationswirtschaft viele Anwenderfirmen mit enormen finanziellen, technischen und organisatorischen Hürden konfrontiert.

Wertschöpfung aus der Datenbank

Schon die frühen Pioniere des Data Warehousing verbinden ihre informationstechnischen Ambitionen mit grundsätzlicheren Gedanken zu Produktivität und Wachstum. Sie beschwören den informellen Wert einer speziell strukturierten Datenbank, befüllt mit erstklassigen Geschäftsinformationen, die der Anwender dank intuitiv handhabbaren Werkzeugen abholen, am Bildschirm betrachten und in seine Entscheidungsfindungen einfließen lassen kann. Flankiert wird dieser Aufruf zur unternehmensweiten Informationsbewirtschaftung durch wissenschaftliche Abhandlungen, die Mitte der 80er Jahre des vorigen Jahrhunderts immer häufiger auftauchen: Information sei ein Produktionsfaktor wie Arbeit, Boden und Kapital lautet die Kurzformel, die Feuilletonleser und Fachpresse zu lebhaften Debatten anregte.

Ohne hier näher auf das weitläufige Feld an Überlegungen zum Gelehrtenstreit einzusteigen, macht der hohe Stellenwert, den Informatiker dem Begriff Information einräumen, stutzig. Wer eine Nachricht liest, weiß doch noch lange nicht, um was es geht. Selbst gewöhnlich gut informierte Kreise sind überrascht, wenn alles anders kommt als erwartet und manche Gebrauchsanleitung muss man fünf mal lesen, um zu verstehen, was Sache ist. Die begriffliche Unschärfe nährt den Verdacht, dass die Informatikerzunft mit der in Aussicht gestellten Datenaufbereitung lediglich den Bogen zu etwas Handfestem spannen will. Denn übersetzt in den Kontext des Alltagsgeschäfts zeigt der Hinweis auf den Produktionsfaktor sogleich Brisanz für jeden Homo oeconomicus: Es geht um den wettbewerbsentscheidenden Vorsprung, der sich durch das intelligente Ausschöpfen der reichlich vorhandenen Datenquellen einstellen soll.

Auf diese Botschaft springen die Unternehmensstrategen in Sachen Data Warehouse an. Schließlich wurden bereits großzügige IT-Investitionen in Datenbanken und das Datenmanagement getätigt mit Zielrichtung Speichern und – im Fall einer abgestürzten Systemlandschaft – Wiederherstellen der applikationsgetriebenen (operativen) Datenbestände. Ganz zu schweigen von teuren Finanz-, Warenwirtschafts-, Produktionsplanungs- und Vertriebssystemen, die das Enterprise Ressource Planning (ERP) entscheidend vorantreiben sollen. Manchem Geldgeber drängt sich bereits die Frage auf, wie denn die Speicherung großer Datenmengen den Rückfluss der dafür notwendigen Ausgaben zustande bringen soll.

Solche Zweifel spielen in den Jahren 1990 ff. zunächst eine untergeordnete Rolle. Das Innovationstempo der Hard- und Softwareindustrie strebt gerade mit Client-/Server-Systemen, Internet, E-Business und Network Computing einem neuen Höhepunkt entgegen. Die Datenbank ist etablierte Lagerstätte und Verwaltungsort von elektronisch erzeugten Daten mit einer Allzweck-Software, die sich um Datenzugriff, Flexibilität, Verfügbarkeit und Sicherheit kümmert. Doch die Speicherboliden gelten als träge Kolosse. Das unterschiedslose Sammeln in einem zentralen Datenpool hat nämlich einen gravierenden Nachteil: Darin tummeln sich strukturierte Daten wie Telefonbücher oder Adresslisten ebenso wie komplexe und unstrukturierte Datentypen, angefangen bei Textdateien über E-Mails, Kundeninfos, Bürger- und Patientenakten bis zu Multimedia-Files mit Bild und Sound. Zudem ändert sich der Inhalt relationaler Online-Datenbanken mit jeder noch so kleinen Transaktion – die Suche nach geschäfts- und entscheidungsrelevanten Informationen stößt wegen der Vielzahl von internen und externen Datenquellen mit all den inkommensurablen Datentypen und –formaten auf ernsthafte Schwierigkeiten.

Die neue Produktivkraft Information erweist sich in dieser Form als sperrige Datensammlung, die einfach nicht zu den Managementetagen passt. Dort geht es um kurz- oder weitsichtige Entscheidungen mit messbaren Renditezielen und sichtbaren Erfolgen. Das Informationsbedürfnis der Führungskräfte richtet sich auf betriebliche Berichtssysteme, die das Streben nach Business Intelligence und Excellence unterstützen und in auswählbaren Zeiträumen Rückschlüsse auf die Qualität, Leistungs- und Wettbewerbsfähigkeit der gerade laufenden Geschäftsprozesse einschließlich der damit befassten Akteure im Unternehmen zulassen.

Verblüffend viele Fragen

Viele Fragen füllen die To-do-Liste eines Managers, der sich anschickt, die aktuellen Geschäftsgänge auf Effizienz und Rentabilität zu überprüfen. Einmal braucht er in Zahlen gefasste Fakten, wie schnell etwas, wo und zu welchem Preis über den Ladentisch ging. Dann sind es Markttrends, die Einfluss nehmen auf das Kaufverhalten oder das Marktgebaren konkurrierender Unternehmen. Stehen neue Verhandlungen mit Zulieferern an, muss der gesamte Einkauf durchleuchtet werden und floppt eine Produktlinie, geht es an die Ursachenforschung mit allen Begleiterscheinungen, die der Misserfolg so mit sich bringt.

Zahlreiche Data-Warehouse-Ruinen vor allem in den 80er und 90er Jahren des vorigen Jahrhunderts belegen, dass der Bau solcher Systeme einigen Hirnschmalz erfordert, jede Menge Arbeit und Investitionen bewegt und viele Fallstricke parat hält. Der einfache Grundgedanke, Daten zwecks Analyse aus dem Transaktionsraum des Tagesgeschehens herauszulösen und daraus Informationen für unterschiedliche Anwenderzwecke zu generieren, lässt sich nicht per Plug & Play in eine funktionstüchtige IT-Architektur umsetzen.

Weitere Schwierigkeiten stellten sich ebenfalls in den Anfangsjahren des Data Warehousing ein. Ältere Semester kennen noch den Joke mit den Bierflaschen und den Babywindeln. Nach intensiver Datenanalyse und mehrdimensionalem Abgleich diverser Kennziffern im Data Warehouse des US-Handelshauses Wal Mart erhalten die Filialleiter von der Zentrale den Tipp, Windeln und Feiertagsgetränk nebeneinander vor der Kasse zu platzieren. Siehe da, der Absatz beider Produktarten tendierte nach diesem Cross-Selling-Act – vor allem Wochenends – nach oben. Marketing- und Verkaufsprofis haben solche Glanzleistungen superteurer Warehouse-Techniken indes kalt gelassen. Tiefschürfende Einsichten in die Geheimnisse der Verkaufssteuerung im Supermarkt vermittelt diese Art der Informationsgewinnung nicht.

Mathematische Spielchen fürs Management

Die eher trivialen Analyseergebnisse der Anfangsjahre hat dem Data-Warehouse-Konzept nicht geschadet. Betriebswirtschaftlich orientierte Informatiker und Professoren mit nebenamtlichen Consultingaufträgen hatten längst die Ressource Information zur Steuerungsgröße für Geschäftsprozesse erklärt. Auf Kongressen und diversen Firmenveranstaltungen kursierte die Vorstellung, ein komplettes Unternehmen quasi vom Schreibtisch aus am Bildschirm per Dashboard und Cockpit über Key Indicators und automatisierte Reportings zu steuern. Das begeisterte zunehmend das gehobene Management, schließlich muss der Motor rund laufen und das wird immer schwieriger.

Lehr- und Handbücher zu Data Warehouse lassen indes nach wenigen Seiten erkennen, dass der Weg von codierten Zeichen und Zeichenketten zu einer aussagekräftigen Information über den aktuellen Stand der Krebsforschung in Europa oder die Auktionshistorie am Hamburger Fischmarkt weit und sehr holprig ist. Das Extracting, Transforming und Loading (ETL) der Daten in ein neu modelliertes Warenhaus für Geschäftsinformationen ähnelt einem Spießroutenlauf: Einmal lässt die Datenqualität und Aktualität zu wünschen übrig, dann belasten die Abfragen und das Online Analytical Processing (OLAP) die Systemperformance im gesamten Bereich des so genannten Online Transaction Processing (OLTP).

Aufgehalten hat das die Wirtschaftsinformatiker und Softwareentwickler nicht. Längst sind sie sich einig, dass die „Systemintelligenz“ steigerungsfähig ist und dass diese Herausforderung nur durch das Konzipieren eben jener Informationsspeicher zu meistern ist, die eine transparente, integrierte und logisch-konsistente Gesamtsicht auf die Daten vermitteln.

Informationen am laufenden Band

Kontroverse Auseinandersetzungen über Architektur, Datenmodell und Inhalte eines Data Warehouse prägen die Entstehungsgeschichte der informationsorientierten Datenhaltung. Schon einer der Gründerväter des Data Warehouse, der IBM-Mann Bill Inmon, sorgt vor zwanzig Jahren mit seiner Definition für Verwirrung. Unklar ist demnach, ob eine unternehmensweite Informationsbereitstellung anzustreben sei, oder die Fachabteilungen jeweils eigene Data Marts unterhalten sollen. Offenbar schwebte Inmon damals bereits ein sehr umfassendes Business-Intelligence-System vor, das den Steuerungs- und Cockpit-Gedanken verfolgt.

Business Intelligence bedeutet frei übersetzt Bescheid wissen über die Vorgänge im Job Floor, die angeschlossenen Managementebenen und das regionale und globale Umfeld bezüglich der Erfolgsaussichten anstehender unternehmerischer Ziele. Mathematisch beseelte Geister wie Inmon fanden sich nicht damit ab, dass erste Versuche mit Management Informations Systemen (MIS) oder Decision Support System (DSS) gründlich fehl schlugen. Unermüdlich feilten Anfang der 90er Jahre des vorigen Jahrhunderts Informatiker und Softwarearchitekten an Referenzarchitekturen für ein umfassendes Business-Warehouse-System.

Data-Warehouse-Lösungen sind nach ihrer grundsätzlichen Konzeption für das analytische Verarbeiten von Daten bestimmt. Ein Extraktions-Werkzeug zapft alle verfügbaren Datenquellen periodisch oder ereignisgesteuert an und schreibt nach voreingestellten Kriterien die Daten in einen meist physikalisch vorhandenen Zwischenspeicher (Staging-Area oder Operational Data Store). Eine Transformationskomponente integriert die unterschiedlichen Datentypen zu einem einheitlichen, konsistenten Datenbestand und lädt das Ergebnis in die Data-Warehouse-Datenbank.

Dieser so genannte ETL-Prozess findet bereits als Datenfiltering mit diversen Gruppierungs- und Verdichtungsverfahren statt. Das zugrundeliegende Datenmodell berücksichtigt quantifizierende und qualifizierende Daten ebenso wie content-bezogene und transaktionsorientierte Daten. Auf die DW-Datenbank greifen dann die Front-Ende-Werkzeuge zu, die je nach Machart Finanzdaten auf mögliche Risiken untersuchen, Umsatzzahlen für bestimmte Zeitperioden und Regionen zusammenstellen oder Absatzprognosen erstellen.

Knappes Ladefenster aus 1+n Quellsystemen

Damit das System bei den Abfragen nicht einfach ins Blaue hinein fabuliert, sind mehrere Vorkehrungen notwendig. Das Datenbankschema ist mehrdimensional vorstrukturiert, die gesamte Architektur mehrschichtig aufgebaut. In der Fachsprache ist die Rede von Datenobjekten und einer 3-Tier-Architektur. Aus der IT-Sicht sind Daten aus dem operativen Feld jetzt Rohstoff, der automatisiert gewonnen und aufgebrochen wird und dem analytischen Zugriff der Fachabteilungen und des Top-Managements zur Verfügung steht. Der Datenimport unterliegt der peniblen Reinigung von redundanten Tabelleneinträgen und einer themenorientierten Sortierung. Damit diese umfangreichen und standardisierten Basisdaten nicht ihre Aussagekraft verlieren, unterliegen Extraktion und Transformation einer periodisch fortgeschriebenen Aktualisierung. Alles muss schnell ablaufen, möglichst im 24-Stunden-Rhythmus.

Ein betriebswirtschaftliches Faktum, wie beispielsweise „Verkaufszahl“, setzt sich aus mehreren Attributen zusammen. Für die jeweils anstehende Sichtweise auf die Daten wie Produktart, Zeit und Geographie, haben DW-Experten den Begriff der Dimension geschaffen. Da meist mehrere Dimensionen im Spiel sind fasst man diese zu Hierarchieebenen zusammen und verdichtet diesen Bereich mit Hilfe einer Berechnungsvorschrift. Fachleute bezeichnen den Verdichtungsgrad von Daten innerhalb einer Hierarchie als Granularität.

Häufig übersehen wird dabei, dass die Attribute aus unterschiedlichen Quellsystemen stammen können, im Data Warehouse aber zusammen als eine „Entität“ erscheinen. Beispielsweise bestellt jemand im Internet-Shop einen MP3-Player und bezahlt per Kreditkarte, will aber das Gerät in einer Geschenkverpackung an eine bestimmte Lieferadresse schicken – dann glühen die Drähte in der damit befassten IT-Infrastruktur. Die Kunst besteht darin, die angestoßenen Buchungsvorgänge mit unterschiedlichen Laufzeiten zu einem Faktum – inklusive Empfangsquittung und potentieller Reklamation – im Data Warehouse zusammenzuführen.

Wenn das gelingt, ist der halbe Weg vom Tabellendickicht zur strukturierten Informationshülse geschafft. Technisch gesehen ist man bei einem OLAP-Modell mit eigener Rechenlogik gelandet. Ob der Markt für neue MP3-Player noch aufnahmefähig ist und wie hoch der nächste Deckungsbeitrag dieser Produktgattung sein wird, das lässt sich leider noch nicht feststellen. Diese Aufgabe obliegt eigenen Analyse-Applikationen im so genannten Frontend-Bereich, die solche Fragestellungen an das System – üblicherweise ein relationales Datenbankmanagementsystem – richten. Ob die hinterlegten Dimensionsdefinitionen und Kennzahlen ausreichen, um brauchbare Anhaltspunkte für die nächste Werbekampagne oder das Einkaufsordering zu erhalten, hängt von der Komplexität der Analyse ab – wer viel wissen will, muss lange warten.

Das Unternehmen insgesamt gerät unter den Händen der Informatik mehr und mehr zu einem mathematischen Gebilde. Nach dieser Lesart besteht die Firma aus einem sich ständig verändernden (operativen) Datenbestand, der sich mit Hilfe der Sammelkomponente (ETL) und einer Modellierungssoftware (OLAP) in einen Würfel verwandelt. Dieser getrennt von den Online-Datenbanken existierende Cube wird regelmäßig aktualisiert und bildet einen konsolidierten Datenraum mit zahlreichen Informationsobjekten und unterschiedlichen Bezugs- und Zuordnungsregeln. Die Kenngrößen eines Datenwürfels liegen in einer Faktentabelle, die auch alle Beziehungen zu den Klassifikationsstufen der verschiedenen Dimensionen enthält.

Alle Elemente in den OLAP-Würfeln beinhalten bereits thematisch vorsortierte Informationen aus unterschiedlichen Datenbanktabellen, die beim Online Transaction Processing (also im laufenden Rechenbetrieb) in relationalen Abhängigkeiten zu einander stehen. Zum Beispiel Zeittabellen wie Tag, Woche, Quartal und Jahr sowie Artikelstammdaten, die in Relation zu Produktnamen- und gruppen stehen, deren Abverkäufe an verschiedenen Standorten erfasst werden. Das zugrundeliegende Datenmodell im Data-Warehouse-Bereich beschreiben so genannte Metadaten, die in einem eigenen Repository liegen.

Wo steckt die Intelligenz

Vom komplizierten Innenleben des Data Warehouse sieht der Anwender nichts. Allenfalls kommt er mit den Metadaten in Form eines Informationskatalogs und dazugehöriger Navigationshilfe in Berührung. Er nutzt analytische Anwendungen um an die wirklichen oder vermeintlichen Informationsschätze heranzukommen. Die Bandbreite der Werkzeuge reicht mittlerweile von klassischen Reporting- und Abfragegeneratoren bis zu Data Mining und Dokumenten-Retrieval. Die schwer fassbare Business Intelligenz rattert im Hintergrund, entbindet aber keinen Nutzer von der Verpflichtung auf erfolgreiche Aktivitäten. Die wöchentlichen oder monatlichen Zielvereinbarungen gelten nicht für die Maschinen, sondern für die Mitarbeiter.

Die haben sich inzwischen daran gewöhnt, das analytische Instrumentarium, soweit es denn brauchbare Ergebnisse bringt, in Form von Warenkorb-, Kunden- oder Performanceanalysen in ihren Alltag einzubauen. Am einfachsten geht das mit Business-Kennzahlen wie Umsatz, Stückzahl, Retouren oder Lagerbestände. Die lagern in den Faktentabellen. Selektions- und Filtermerkmale holt sich der Anwender aus den Dimensionstabellen. Das ganze hinterlässt den Eindruck eines Baukastensystems, das mitunter sogar Business-Templates im Sinne inhaltlich vorgefertigter Geschäftsprozesse enthalten kann.

Gut gerüstet mit hochverdichteten Informationen gehen die Unternehmen jetzt auf die Märkte los. Was dabei herauskommt ist kein großes Geheimnis. Es mag sein, dass Anwender mit einem Risk-Management-Tool die Finanzierungs- und Refinanzierungskosten im Unternehmen auf einem niedrigen Level halten können, aber ein Blick in die Wirtschaftspresse deutet auf das glatte Gegenteil: Die Risikoanalysen der Banken gingen im Fall Hypothekenspekulation gründlich in die Hosen. Das Finanzdesaster erfasst schon auf Grund des Ausmaßes auch real wirtschaftende Teile der Gesellschaft. Ähnliches gilt für spektakuläre Fehleinschätzungen im Flugzeugbau, der Biotech- und Baubranche oder der ehemaligen Mobilfunksparte von Siemens. Auf der Liste der Pleiten des Jahres tummeln sich regelmäßig fast 30 000 Unternehmen – recht unwahrscheinlich, dass niemand ein Data Warehouse einsetzt.

Zusatz

Wer kann besser analysieren

Etwa zehn Jahre mühten sich Entwickler von IBM, Teradata, Sybase, Microsoft und Oracle ab, die mehrdimensionale Speicherung von Daten in einem Schneeflocken-, Galaxie- oder Starschema hinzukriegen. Immer wieder stehen zwei große Themen im Raum: Datenqualität und Performance. Zahlreiche Erweiterungen der Datenbanktechniken und trickreiche Einfälle wie das Aufteilen einer Tabelle mit umfangreichen Extensionen auf mehrere kleine Partitionen oder die Einführung von Bitmap-Indexierung und bessere Gruppierungsfunktionen der Abfragesprache SQL (Structured Quere Language) entschärfen die gröbsten Hindernisse. Eine kleine Gruppe von Spezialherstellern, darunter Cognos, Hyperion, Business Objects, SAS, Informatica oder Comshare, machen mit eigenen Software-Paketen auf sich aufmerksam. Meist stammen sie aus dem OLAP- und ETL-Umfeld und profitieren von den Schwächen der herkömmlichen Datenhaltung.

Während nahezu alle Komponenten auf jeder Ebene des Data-Warhouse-Modells in ihrem technischen Reifegrad zugelegt haben, wächst auch die Begehrlichkeit der Hersteller möglichst viel vom Business-Intelligence-Kuchen abzukriegen. Datenbankhersteller fangen an, die analytischen Fähigkeiten ihrer Datenbankmanagementsysteme zu erweitern. Die Performanceschwächen der klassischen OLAP-Cubes bei Verarbeitung größerer Datemnengen sind zwar noch nicht ausgebügelt, aber die meisten Hersteller lassen sich nicht auf die konkurrierenden Varianten MOLAP (multidimensionale Datenbank mit entsprechenden Datenstrukturen) oder ROLAP (Multidimensionalität wird auf zweidimensionalen Tabellen abgebildet) festlegen und bieten beides an.

Je mehr der Funktionsumfang einer Business-Intelligence-Suite ausgedehnt wird, desto stärker reizt das die Platzhirsche der IT-Welt. Im letzten Jahr schnappten sich SAP, Microsoft und IBM vormals selbständige Anbieter mit jahrelanger Entwicklungserfahrung. Zwar erhält die Gemeinde der Data-Warehouse-Anbieter mit Teradata nach der Trennung vom Mutterkonzern NCR wieder selbständigen Zuwachs, aber die Reihen haben sich mit dem Weggang von Hyperion, Cognos und Business Objects doch sehr gelichtet. Die Frage ist, was nutzt das dem Anwender.

Hundert Terabit aber theoretisch

Wer will 20 Milliarden Seiten E-Mails pro Sekunde verschicken? Für optische Netze ist das keine abwegige Vorstellung, meinen Wissenschaftler der Bell Labs von Lucent Technologies. Die dafür erforderliche Bandbreite lässt sich im Glasfaserkanal realisieren. Die übertragbare Datenmenge wäre dann ungefähr 100 Terabit je angefangener Sekunde.

Die Wissenschaftler wollen allerdings einen Grenzwert ermittelt haben, der sich aus den physikalischen Eigenschaften des Glasfaserkanals ergibt: Lichtpulse verlieren beim Faserdurchgang wegen Interferenzen und anderer störender Einflüsse (die Photonen des eingekoppelten Lichtsignals interagieren mit den Atomen des Übertragungsmediums) an Geschwindigkeit. Zudem nimmt auf längeren Strecken der Rauschanteil zu, so dass daraus zusätzliche Limits für die übertragbare Datenmenge entsteht.

Graue Theorie

Aber egal. Den Netztüftlern von Lucent schwebt ein Kommunikationsnetz vor, das nahe am Grenzwert von 100 Terabit pro Sekunde die Router verbindet. Doch bevor die Medienindustrie mit ihren hochbitratigen Broadcastplänen in Jubel ausbricht und schon mal Sendeleistung bei Alcatel-Lucent vorbestellt, dämpfen die Experten der Bell Labs die Euphorie – das 100-TB-Netz ist ein mathematisches Konstrukt, berechnet aus vereinfachenden Annahmen, ein bisschen Quantenphysik und der Wellenmultiplex-Technik, bei der Lichtwellen unterschiedlicher Frequenzen gleichzeitig über eine Faser übertragen werden.

Auch wenn nur ein theoretischer Wert hinter dem Statement aus den Bell Labs steckt, beflügeln solche Meldungen natürlich die Phantasie. Und diese bekommt regelmäßig Nährstoff aus den Grenzbereichen der Physik. Einschlägig ist in diesem Zusammenhang der Tunneleffekt von Mikrowellen. Seriöse Wissenschaftler haben beobachtet, dass am Ende eines Metallrohres Lichtteilchen angekommen, noch bevor sie abgeschickt wurden. Einfach ausgedrückt: Da fliegen Photonen schneller als die Lichtgeschwindigkeit im Vakuum.

Jetzt, liebe Leser, bitte festhalten. Die Lichtgeschwindigkeit ist eine Naturkonstante und benötigt als Bewegung Zeit. Wenn ein Teilchen schneller fliegt, sinkt die Zeitspanne seiner Bewegung auf Null oder unterschreitet gar den Nullpunkt. Der forschende Verstand wird jetzt sehr aufgeregt, denn eine negative Zeit bedeutet ja Umdrehung der Bewegungsrichtung, also Zeitreise zurück.

Vorher ist Nachher

Einem Netzadmin mag das etwas futuristisch vorkommen, aber die Vorstellung ist reizvoll. Kommt das Datenpäckchen zu dem Zeitpunkt beim Empfänger an, an dem es abgeschickt wurde, wäre die Crux mit den Latenzen hinfällig. Noch atemberaubender ist der naheliegende Gedanke, dass die Daten schon beim Empfänger eintreffen, während der Router dabei ist, dem Päckchen eine Zieladresse zu verpassen. Ja und wenn es mit der Physik so stimmt, können informationsbeladene Photonen über Ereignisse berichten, die erst in Zukunft eintreffen werden.

Irgendwie stellt sich bei diesen Schlussfolgerungen das Gefühl ein, dass hier etwas Hokuspokus im Spiel ist. Wenn schon die Lucent-Wissenschaftler bei ihrer 100 Terabit-Prognose betonen, dass das alles sehr theoretisch sei, ist der Teilchenflug in Überlichtgeschwindigkeit etwas für Marsmännchen auf der Suche nach Parallelwelten.

BenQ-Wolken über Helsinki

Ein weiterer Siemens-Deal entwickelt sich zum Disaster für die Mitarbeiter: Nokia Siemens Networks (NSN) vollzieht, was seit langem angekündigt war – Personalabbau im großen Stil.

Kurz nach dem Unternehmensstart im April diesen Jahres macht das Management des neu installierten Netzwerkriesen Ernst mit den Entlassungen von zunächst 9000 Mitarbeitern. Nichts neues in der krisengeschüttelten Telco-Branche, aber doch bezeichnend für die Manöver der verantwortlichen Unternehmensspitze. Ähnlich wie bei der Abwicklung der Handy-Sparte von Siemens durch BenQ setzt auch das Top-Management von NSN das Skalpell beim offenbar schwächsten Glied der Wertschöpfungskette, dem Mitarbeiter, an.

Weniger ist mehr

Die Verlautbarungen folgen immer derselben Logik: Wir kappen Arbeitsplätze, um Arbeitsplätze zu retten. Ein fast philosophischer Vorgang. Mit dem Abbau, dessen Erhalt zu betreiben ist eine große Leistung. Aus Managementsicht sieht das folglich so aus: Um das Ding zum fliegen zu bringen, müssen wir Ballast abwerfen.

Klingt einsichtig, ist es aber nicht. Denn der Deal riecht schon wieder nach Abwicklung. Was da zum Fliegen gebracht werden soll sind die Ansprüche von Geldinvestoren, die nach Rendite lechzen. Ein radikaler Anspruch, denn einem Shareholder ist es egal, wie die Ausschüttung zustande kommt.

Baufehler oder Absicht

Bei BenQ hat es ein Jahr gedauert, dann war das Unternehmen am Ende. NSN hat noch gar nicht losgelegt, und schon treten die Verantwortlichen in Helsinki auf die Bremse. Offenbar wurde da ein Firmenkonglomerat zusammengeschweißt, bei der von vorneherein die Ladeluke nicht wasserdicht abschließt.

Mit fatalen Folgen für das Deckpersonal. Während auf der Kommandobrücke schon Fahrtpläne geschmiedet werden und Offiziere die ersten Warm-up-Programme absolvieren, grassiert im Untergeschoß die nackte Überlebensangst. Die Geburt eines Vorzeigeunternehmens entpuppt sich als Entsorgungsstätte für überflüssige Mitarbeiter.

Das Jonglieren mit dem humanen Kapital regt mittlerweile kaum noch jemand auf. In der öffentlichen Wahrnehmung hat sich ein Gewöhnungseffekt eingestellt, der solcherlei Managergebahren kommentarlos durchwinkt. Tatsächlich ist die Entrüstung über solche Maßnahmen fehl am Platz. Das Management handelt streng nach den Erfordernissen einer konkurrenzfähigen Unternehmensorganisation und wirft Teile der Belegschaft auf den Arbeitsmarkt. Wem das auf Dauer guttut lässt sich am Auseinanderklaffen von Arm und Reich ablesen.

Rückläufige Arbeitslosenzahlen ändern daran übrigens nichts. Wenn ehemalige Ingenieure in Leichtlohngruppen auftauchen oder Zeitarbeitsfirmen gelernte Metaller zu Spottpreisen weiterreichen, mag das ein Sieg der Reformpolitik sein, praktisch bedeutet das Dequalifizierung und Verarmung einer ganzen Reihe von Leuten, die mal besser gestellt waren.

NGN – süße Verlockung mit Beigeschmack

Jeder Netzwerkadministrator weiß ein Lied davon zu singen, was es heißt, drei Netzwerke zu managen. Telefon und Datenleitung führen bislang ein seltsames Doppelleben. Kommt der Mobilfunk noch dazu, wächst der Aufwand und die monatlichen Rechnungsbeträge.

Vieles wurde unternommen, um den Telefonverkehr auf die Datenleitung zu bringen. Der breitbandige DSL-Anschluss hat den Voice-over-IP-Diensten das Tor geöffnet. Indes die Parallelwelten mit den zwei Anschlüssen sind geblieben.

Das soll jetzt alles anders werden. Das Next Generation Network (NGN) basiert ausschließlich auf IP-Technik und routet den Voice-Stream neben den anderen Datenpäckchen fehlerfrei von Endgerät zu Endgerät.

Einen für zwei

Das so genannte IP-Peering kennt keinen Zeittakt. Es gilt das Flat-Prinzip. Lediglich beim Übergang in ein anderes Kommunikationsnetz hält der Carrier die Hand auf. Sehr verbraucherfreundlich, denn für den Teilnehmer entfällt das Endgeld für zwei Anschlüsse.

Einige Netzbetreiber wie Arcor, Hansenet oder die niederländische KPN bilden derzeit die Vorhut der NGN-Pioniere. Die Holländer wollen bis 2010 das traditionelle Telefonnetz stilllegen und Hansenet bietet bereits einen universellen Kommunikationsanschluss an. Arcor hat den Einheitsanschluss für die nächsten Monate angekündigt.

Die Deutsche Telekom hält sich bei NGN noch zurück. Das Festnetz ist nach wie vor eine sichere Einnahmequelle, auch wenn dem Telco-Riesen die Telefonkunden scharenweise weglaufen. Gleichwohl bekennen sich die Bonner bei jeder Gelegenheit zur Konvergenz der Netze und bündeln schon mal die Tarife zu einem großen Pauschalarrangement.

Lukrative alte Technik

Große Eile legt die Telekom beim Wechsel der Netzinfrastruktur nicht an den Tag. Der Datentransport im Telefonnetz per TDM (Time Division Multiplex) bleibt samt NTBA-Dose (Network Termination for ISDN Basic Acces) und standardisierter Telekommunikations Anschluss Einheit (TAE) erst mal im Betrieb. Vielleicht ist das auch gut so, denn der Datentraffic in der DSL-Leitung wächst unaufhörlich. Darunter leidet mitunter die Übertragungsqualität, was beim Telefonieren zu Verständigungsschwierigkeiten oder lästigen Abbrüchen führt.

Wer beim NGN-Anschluss an den Geldbeutel denkt und auf niedrigere Kommunikationskosten spekuliert, liegt falsch. Das NGN-Management ist zwar für den Netzbetreiber eine gewaltige Einsparung, aber bevor die Preise fallen muss erst mal der Investitionsberg abgetragen werden.

Neues von der letzten Meile

Was der Netzwerkanschluss kostet hängt von vielen Faktoren ab. Womit Unternehmen und Otto Normalverbraucher auf jeden Fall rechnen müssen, ist die Tarifierungsphantasie des Anbieters. Beim Teilnehmeranschluss im Festnetz ist das die Deutsche Telekom. Die nutzt ihre hoheitliche Stellung bei der letzten Meile und bittet zur Kasse. Jedes Geschäftsmodell lebt schließlich von einer rentablen Preisgestaltung.

Nicht nur die Preise für Tomaten, Hackfleisch oder Salat steigen, auch der Teilnehmeranschluss im Festnetz der Deutschen Telekom ist viel zu billig und soll dem Trend folgen. Der Antrag der Deutschen Telekom auf Gebührenerhöhung für die TK-Carrier und Zugangsprovider, die für ihre Dienste die letzte Meile benötigen, liegt auf dem Tisch der Bundesnetzagentur. Satte 13 Prozent mehr sollen sie für den kurzen Weg vom Hausanschluss in das Wide Area Backbone bezahlen, sonst dreht der Leitungseigentümer Telekom den Hahn zu.

Während eine ähnliche Drohung der russischen Regierung beim Ölfluß in der Transitpipeline Druschba zu harschen Reaktionen führte, regt sich beim Datenfluß bisher noch keine Seele auf. Einzig der Bundesverband Breitbandkommunikation (BREKO) spricht von einem unanständigen Antrag und echauffiert sich über das Wettbewerbsverständnis der Deutschen Telekom. Die begründet ihren Antrag damit, dass höhere Preise den Wettbewerb ankurbeln und damit die Preisspirale wieder nach unten drücken. Da muss sogar BREKO-Geschäftsführer Rainer Lüddemann lachen.

Ein weiteres Argument der Deutschen Telekom für die Preiserhöhung gewährt ebenfalls erschreckende Einblicke in die Sichtweise der Telekom-Manager. Die Mieteinnahmen für die letzte Meile seien nichts anderes als der Deckungsbeitrag für die Unterhaltskosten, heißt es beim TK-Riesen. Wie bitte berechnet die Telekom die Kosten für eine Meile Kupferkabel, die sie ohnehin als ehemaliger Staatskonzern mit Steuergeldern seinerzeit im Boden vergraben hat? Die Antwort führt direkt in das Dickicht moderner Kostenrechnungen. Ein Stellenabbau nämlich reduziert nicht die Personalkosten, sondern erhöht die Ausgaben, behaupten die Telekom-Betriebswirte. Zur unerträglichen Höhe der Gehälter addieren die Kostenrechner nun einfach die Aufwendungen für deren Abbau und wollen sich das von den Carrierrn und Providern bezahlen lassen.

Die Finanzakrobatik der Controller enthält noch einen weiteren Witz. Das Abwälzen von Kosten auf die umliegenden Geschäftspartner, endet spätestens bei der Frage, wer denn nun die Zeche zahlt. Am Ende blecht der Teilnehmer mit seinem Endgeld für den Personalabbau des Telekom-Konzerns. So einfach wie bei den Tomaten und dem Rinderhack lösen sich die verschlungenen Wirtschaftsbeziehungen und nicht wirklich ausgetragenen Widersrpüche rund um die Kommunikationsnetze auf.

Sheriff im Netz sieht mit

Die Überraschung kam auf leisen Sohlen. Das Bundeskriminalamt greift demnächst auch auf Festplatten der Internet-User zu, nachdem es die Landesbehörden schon regelmäßig seit geraumer Zeit tun. Unbemerkt, versteht sich. Denn beim Behörden-Hack handelt es sich nicht um das illegale Ausspionieren von Computernetzen, PCs, E-Mails und Chat-Foren, sondern um ganz legales Vorgehen der Strafverfolgungsbehören. Die autorisierte Rundumüberwachung des Internets verleiht einem sehr menschlichen Anliegen einen Tiefschlag: Anonymität gegenüber Dritten ist beim Gedankenaustausch nicht mehr gewährleistet.

Während die Hackerszene, die mit eingeschmuggelten Leseprogrammen den PC nach Kreditkartennummern oder ähnlichem durchstöbern, seit langem für öffentliche Entrüstung sorgt, nehmen sich Beamte genau diesen gescholtenen Hacker zum Vorbild und gehen zum Informations-Fishing. Klar geht es darum, Straftaten aufzudecken oder zumindest Hinweise auf potentielle Täterkreise und deren Vorhaben zu finden. Aber gibt es nicht auch Hacker mit edlen Motiven, die beispielsweise durch spektakuläre Angriffe auf Schwachstellen aufmerksam machen?

Hacker ist Hacker sagt bislang die Staatsanwaltschaft. Jetzt kommt die Ausnahme. Der geadelte Staatshacker handelt im Auftrag seiner Majestät und hat die Lizenz zum Zugriff. Das Informationsbedürfnis des Staatsschutzes und der Kriminellenverfolger ist offenbar so groß, dass die Behörden auch im virtuellen Raum dabei sein wollen. Aber: Böse Buben bereiten ihr Ding doch nicht im Internet vor oder verüben den Anschlag auf einer Webseite. Diese Leute scheuen das Licht der Öffentlichkeit. Das macht dieses Klientel doch auch im wirklichen Leben so. Jeder Fernsehkrimi zeigt, dass Gauner seit jeher konspirativ vorgehen. Ein Mafiosi, der seine Anweisungen auf Zettel notiert, schafft natürlich Beweismittel. Deshalb verschwinden sie ja auch schnellstmöglich in der Klospülung. Professionelle Banden werden sich kaum auf ein Medium einlassen, das viele Spuren hinterlässt. Islamische Terroristen benutzen Webseiten allenfalls für Botschaften, die sie bewusst nach draußen geben.

Es mag Hitzköpfe geben, die vor lauter Technikbegeisterung vergessen, dass sie auf der falschen Seite des Gesetzes stehen. Es gibt Trittbrettfahrer, Psychopathen, Selbstinszenierer, Angeber und Naivlinge – jeder kann sich im Internet herumtreiben. Wie bitte sollen Beamte aus dieser kunterbunten Vielfalt einen veritablen Straftäter herausfiltern, der obendrein seine Tat noch gar nicht zur Aufführung gebracht hat. Der Kriminalist stürzt sich in digitale Jenseits, obwohl der Tatort doch im Diesseits zu finden ist. Die Antwort aus dem Innenministerium lautet: Macht nix, wir brauchen das. Denn wir tragen erst mal alles zusammen und lassen dann unsere Analysemaschinen drüberlaufen.

Zwangsläufig bleibt bei diesem Vorgehen mehr hängen, als der Täter oder sein Umfeld. Es sind Kundenprofile die in den Amtsstuben zusammengefügt werden, die erst mal in die Datenbank wandern und dort zu aussagefähigen Informationen weiter verdichtet werden. Polizeiarbeit wandelt sich in ein gigantisches Data Warehouse, das in ganz Europa zur Verfügung steht. Damit das alles funktioniert ist Technik vom Feinsten nötig, bezahlt von Steuergeldern, die auch die IT-Spezialisten der umtriebigen Verfassungsschützer entlohnen. Eine schwere Hypothek. Das muss einfach ein Erfolg werden. Der Drehbuchautor würde hier der Vollständigkeit halber noch hinzufügen: Bis zum nächsten Anschlag (das Böse ist den Verfolgern immer ein Schritt voraus).

Petabyte in Aktion

Bill Nuti, seit August 2005 Präsident und CEO von NCR Corporation, liebt die einfache Sichtweise: Die Welt ist eine Scheibe und wird vom globalisierten Business zusammengehalten. Am liebsten hätte er den Planeten gern eigenhändig flachgelegt, denn die „Flat World“ ist das Szenario, das dem US-amerikanischen Technologiekonzern und dessen Tochterunternehmen Teradata wachsende Umsätze und neue Geschäftspotentiale erschließt. Seit zwei Jahren scheffelt die Tochter mehr Geld in die Kassen, als sie rauszieht, 64 Prozent Einkommenszuwachs seit 1999 bei moderat wachsender Kostenstruktur, verrät zufrieden Chief Marketing Officer Bob Fair.

Abzulesen ist das an der Kundenliste von Teradata. Die verzeichnet ständig Zulauf und neben den großen Finanzinstituten dieser Welt kommen Telekommunikationskonzerne sowie Großhandelshäuser wie der Schweizer Foodkonzern Migros, der französische Händler Champions oder die Metro dazu. Letztere hat sich neben Wall Mart als Early Adopter für die Funkchiptechnologie RFID (Radio Frequence Identification) geoutet. Das Unternehmen will damit ihre Materialbewegungen im logistischen Umfeld, aber auch das gesamte Abrechnungswesen und ihre Kunden- und Geschäftsbeziehungen informationstechnisch auf ein neues Leistungsniveau heben.

Das ist die Steilvorlage für die Data Warehouse-Technologie von Teradata. Die zeitnahe Verarbeitung und Auswertung von Daten aus den Funkchips fällt in die Zuständigkeit der IT-Infrastruktur. Elektronisch codierte Produktinformationen wandern per Funk in die Softwaremühlen des Data Warehouse und werden dort mit den bereits reichlich vorhandenen Informationsobjekten der Warenwirtschaft samt aller vor- und nachgelagerten Bereiche bis hin zur Finanz- und Abrechnungsabteilung verbunden. Zahlreiche Tools und Komponenten sowie ein sorgsam gepflegtes Datenmodell bereiten die hereinkommenden Rohdaten zu aussagekräftigen Momentaufnahmen der geschäftlichen Aktivitäten auf und stellen diese Informationen über browserfähige Portale den Mitarbeitern (oder externen Geschäftspartnern, Lieferanten und Zulieferern) zur Verfügung.

Damit das Vertrauen in die Informationstechnik erhalten bleibt und aus den Datensilos tatsächlich Brauchbares fürs tägliche Geschäft herauskommt, legt sich Teradata kräftig ins Zeug. Stephen Brobst, Chief Technology Officer, geht davon aus, dass die Automatisierung der Geschäftsabläufe in den nächsten Jahren weiter vorangetrieben wird, weil sehr schnelle Datenanalysen die Reaktionsfähigkeit der Unternehmen in den strategischen Geschäftsbereichen erhöht. Informationstechnische Barrieren, an denen die täglichen Deals scheitern könnten, gibt es nach Ansicht von Brobst so gut wie nicht mehr. Dafür steht das Produktportfolio des Softwarehauses aus Dayton/Ohio gerade, das in seiner jüngsten Ausprägung keinen Zweifel darüber aufkommen lässt, dass sich der Datenansturm aus x-beliebigen Quellen lässig schultern lässt: Ein neuer Server von NCR skaliert bis zu 4,2 Petabytes.

IT World

Materialschlacht im Nanokosmos

Die Chip-Hersteller sind grundgestimmte Optimisten und schrecken auch vor den Grenzen der Physik nicht zurück. Schließlich wollen sie auf der Moore´schen Miniaturisierungswelle weiter surfen, die alle paar Jahre dem PC-Desktop ein Verfallsdatum verpaßt. Intel quetscht erneut mehr Leistung aus den winzigen Siliziumstückchen und feiert gerade die neue Mikroarchitektur „Core“. Das Core-Label löst die alte Pentium-Generation ab.

Was auf der Marketingbühne abgeht, bringt die Entwickler ganz schön ins Schwitzen. Prozessor-Chips mit mehr als einer Milliarde Transistoren, gefertigt in einer 65-Nanometer-Produktion und hochgetaktet, wie kein anderer Logikschaltkreis je zuvor – das soll den PC-Absatz anheizen und den eigenen Marktanteil gegenüber der Konkurrenz – allen voran AMD – auf Jahre ausbauen.

Wenn man den Ausführungen von Intels Chief Technology Officer, Justin Rattner, folgt, geht es in den Forschungslabors seit einigen Monaten schwer zur Sache. Da mußte die Verlustleistung durch niedrigeren Stromverbrauch abgesenkt werden, da die Chips beim Schalten zu heiß wurden, eine neue Dotierung des Isolationsmaterials zwischen den dreidimensional geschichteten Leiterbahnen sollte deren bremsenden Einfluss auf die Ladungsträger in Schach halten und zu guter letzt wollte man auch gleich ein Chipdesign benutzen, das die spätere Herstellung von vierkernigen Mikroprozessoren ermöglicht.

Der Chipkonzern schaffte alles in Rekordzeit und zeigte erste Betas auf dem diesjährigen Entwicklungsforum IDF in San Franzisko. Prompt reagierte Konkurrent AMD angesichts des flotten Entwicklungstempos verschnupft und bezweifelte die Funktionsfähigkeit der dargebotenen Prototypen. Tatsächlich geraten die Hersteller immer näher an den Grenzbereich des technisch Machbaren. Die Materialien machen nicht mehr richtig mit, wenn die Strukturbreiten von Siliziumschaltkreisen unter der 40 Nanometer-Marke liegen. Das aber darf es laut Moore nicht geben. Also muß eine neue Materialmischung her, die das Silizium so weit streßt, daß auch in Zukunft der Miniaturisierungskurs erhalten bleibt. Indiumantimonid (InSb) heißt der neue Favorit und soll angeblich die Materialkosten nicht dramatisch nach oben treiben, wie es sein Bruder Galliumarsenid zum Leidwesen der Chiphersteller gemacht hat.

SAP sieht (mal wieder) Verkaufspotential
im Mittelstand

(beu) Der Markt wird seit jeher von professionellen IT-Marketiers Monat für Monat durchforstet, immer auf der Suche nach zahlungsfähiger Kundschaft. Vor allem der Mittelstand gilt hierzulande in Herstellerkreisen als Zielgruppe mit hohem Defizit an moderner Informationstechnik. Ein kleiner Nachteil ist mit diesem Klientel verbunden: Der Firmeninhaber läßt sich nur mit Engelsgeduld von größeren IT-Investitionen überzeugen. Und ausgerechnet das versuchen seit Jahren Heerscharen von Herstellern.

Der Balztanz um den Mittelstand ist voll entbrannt. Diverse Marktstudien kommen regelmäßig zu dem Ergebnis, daß hierzulande bei zigtausenden Firmen die großen IT-Themen einfach nicht Fuß fassen konnten. Finanzen, Warenwirtschaft, Personal, Kundenbeziehung, Logistik, Auftragsplanung und Lieferantenbetreuung unterliegen im Mittelstand erst rudimentär dem Management von Hard-, Soft- und Middleware – zumindest, wenn man den Herstellern glauben möchte, die den resistenten Kunden draußen im Lande endlich den Übergang von DOS zu Windows für ihre Bestell- oder Kundensoftware nahe bringen wollen. Dieses Brachland will auch die Walldorfer SAP (mal wieder) urbar machen. Zum Jahreswechsel hat der Softwarekonzern einen neuen Geschäftsleiter Mittelstand installiert. Der bekennt sich zu den „Kleinen“, denn „da sehen wir das größte Potential“, hat er unlängst in einem Interview mit „Computer Reseller News“ erläutert, einem einschlägig bekannten Sprachrohr der Channel-Abteilungen der Hersteller.

Die Crux mit dem Kindergarten liegt darin, daß der Aufwand für Beratung und Implementierung auch bei Kleinprojekten schnell Dimensionen erreicht, die das IT-Budget der Anwender über Maßen strapazieren. Mittelständler sind deshalb bei Beratern und Marketiers unbeliebte Kunden, weil sie schlicht weniger Umsatz bei gleichem Arbeitseinsatz bringen. Doch statt das Geschäft anderen zu überlassen, öffnet Marktführer SAP sein Portfolio ein Stück weiter von „komplex und global“ (Standard) auf „vorkonfiguriert und regional“ (Standard light). Dazu ein paar Maßnahmen, die vor allem Partnerunternehmen nicht kalt lassen dürften: So wird die Projektverteilung zwischen den Externen und dem Stammhaus neu festgelegt, sprich, die Umsatzgrenzen und Gewinnerwartungen neu definiert, ab denen der Direktvertrieb von SAP die Sache in die Hand nimmt.

Ob Anwender von den Schachzügen der Manager profitieren, steht in den Sternen. Bisher hat es die im Markt etablierte SAP-Software Business One nicht geschafft, ihr Negativimage abzustreifen. Nachrücker aus der zweiten Reihe haben in der Vergangenheit immer wieder bewiesen, daß sie Marktanteile erobern können. Oracle, Microsoft und IBM wollen zudem auch mit kleineren Brötchen ihre Bilanzen aufbessern. Dafür muß auf’s Neue der Mittelstand herhalten.

Der befindet sich seinerseits in einem beinharten Wettbewerb. Manche Marktbeobachter sprechen bereits von ersten Anzeichen für einen grundlegenden Wandel mit Auflösungstendenzen. Jedenfalls sind Finanzinvestoren im letzten Jahr auffallend häufig vor den Toren kleinerer Unternehmen gesichtet worden. Laut Süddeutscher Zeitung waren es im letzten Jahr mehr als 100 Milliarden Euro, die von Beteiligungsgesellschaften im EU-Raum für Firmenübernahmen ausgegeben wurden. Insgesamt stieg das Volumen der Firmenkäufe durch Beteiligungsgesellschaften gegenüber dem Jahr zuvor um 43 Prozent auf 116,5 Milliarden Euro. 38 Prozent aller Transaktionen entfielen dabei auf den Mittelstand. Das bedeutet Substanzverlust im stolzen Mittelbau und Einsturzgefahr in den unteren Etagen. Erledigt sich damit die Mittelstandsoffensive der SAP? „Wir sind schon längst im Mittelstand angekommen“, sagt ein SAP-Manager hinter vorgehaltener Hand und deutet auf die vielen Tochterunternehmen der Großkonzerne, die SAP R/3 oder Mysap zum Standard erhoben haben.

Oracle bringt sich in Stellung
– oder: „all-you-can-eat“

Seit einiger Zeit hakeln IT-Schwergewichte ihre Interessensgegensätze mit immer größerem Getöse aus. „Organisch weiterwachsen“ will SAP und belegt mit Quartalszahlen, daß man immer noch die Nummer eins im Softwaremarkt für Enterprise Ressource Planning (ERP) ist. Widersacher Oracle verläßt sich nicht auf das Wachstum der eigenen Organe, sondern gibt Milliardenbeträge für Zukäufe im Applikationsumfeld aus. "More and more we are trying to turn our largest customers into all-you-can-eat customers," bekundete Anfang Februar Oracle-Boss Larry Ellison vor Bankern auf der Credit Suisse Global Software Conference in St. Monica, Kalifornien.

Alles einverleiben, was dem eigenen Fortkommen dient – wenn das nur gut geht. Der Datenbankspezialist Oracle hebelt immer häufiger die SAP-Konkurrenz aus. Zum Beispiel bei der Auftragsvergabe der US Airforce über 88,5 Millionen US-Dollar, die die US-Niederlassung der SAP unbedingt für sich selbst anlanden wollte. Auch massive Proteste der deutschen Softwerker beim zuständigen Government Accountability Office halfen nichts, der Zuschlag ging an Erzfeind Oracle.

Oracle hat noch mehr Eisen im Feuer. Die Eingemeindung der ehemaligen Peoplesoft-Anwender und J.D.-Edwards-Kunden setzt die Ellison-Company wie angekündigt um. Die vertragliche Bindung der zugekauften Kunden wird mit großzügigen Zugeständnissen beim Support der Altsoftware gefestigt. Die German User Group (GUG), die 75 J.D.-Edwards-Unternehmen vertritt, verhandelt derzeit mit der Deutschen Oracle Anwender Gruppe (DOAG) zwecks Zusammenlegung der Ressourcen. Ihr ehemaliger Vorsitzender, Peter Mischok, befürchtet, daß eine wirkungsvolle Interessensvertretung gegenüber dem Hersteller auf der Strecke bleiben könnte. „Die DOAG muß erst mal beweisen, daß sie das im Applikationsumfeld kann“, sagt. Mischok auf der letzten Jahreshauptversammlung. Und gab auch gleich seinen Vorsitzplatz ab.

Wenn die SAP-Spitze den Kaliforniern die Aussicht auf Erfolg bestreitet und Ellison als Schaumschläger abtut, dann mißversteht sie den hartnäckigen Siegeswillen des lästigen Kontrahenten. Ein Geschäft durchziehen ist die Kunst der amerikanischen Businesspeople seit der Kolonialisierung des Kontinents. Wie weit sie es gebracht haben, läßt sich unschwer an der Globalisierung des Geschäfts ablesen. Die Meßlatte liegt auf hohem Niveau – vielleicht beherrschen sie nicht alles, aber im Maximieren ihrer Profite kennen sie sich aus. Das muß man nicht gutheißen, aber man sollte es zumindest zur Kenntnis nehmen.