ROI – ein Nachweis der dritten Art

Aufwands- und Kostenreduktion, schneller, nachweisbarer ROI, modifikationsfreie Lösung, Verkürzung der Durchlaufzeiten – zusammen ergibt das eine Revolution und zwar in der Eingangsrechnungsverarbeitung. Das behauptet zumindest die Marketingabteilung eines Softwareanbieters. Das Erdbeben mag einen Buchhalter vor dreißig Jahren erschüttern – heute beeindruckt das niemand mehr. Wenn 50 000 Rechnungsseiten pro Jahr teilautomatisiert durch die EDV jagen, bekommt lediglich der Systemadministrator mitunter feuchte Hände und zwar immer dann, wenn Bearbeitungstools fehlerbehaftete Rechnungen durchschleusen oder das Capture-Tool partout Datumsfeld und Adressfeld verwechselt.

Der Return On Investment (ROI) ist eine standhafte Größe und befruchtet viele Verkaufsgespräche auch und gerade in der Welt der Informationstechnik. 40 Prozent Aufwands- und Kostenreduktion steht im Referenzbericht eines Automobilzulieferers. Kennzahlen sind das betriebswirtschaftliche Spielzeug mit denen sich Gewinn und Verlust, Erfolg oder Niederlage, Wachstum oder Stagnation feststellen lässt. Die ROI-Berechnung ist dabei die beliebteste Übung, denn sie drückt grundsätzlich eine Unschärfe aus: Die Maßzahl für den Erfolg einer Investition enthält den prognostizierten Rückfluß des ausgegebenen Kapitals innerhalb einer bestimmten Zeitdauer.

Genau genommen lässt sich der ROI gar nicht im voraus berechnen. Denn der Unternehmer kann seine Nettorendite erst ermitteln nachdem das Geld ausgegeben wurde und er sich damit am Markt durchgesetzt hat. Und schon wieder stoßen wir auf eine eigentümliche Schwäche der Kennzifferntüftelei: Die Rendite berechnet sich aus dem Umschlag des gesamten im Unternehmen gebundenen Kapitals. Schließlich verdient der Automobilzulieferer sein Geld nicht mit digitalisierten Geschäftsprozessen sondern mit Bremszylindern oder Einspritzpumpen.

Es gibt folglich verschiedene Methoden zur Berechnung des ROI. Je nachdem wie weit man die Zeitachse spannt und den Break Even finanzmathematisch ansetzt, ergeben sich ganz unterschiedliche Kennziffern. Während die klassische Rechnungsweise die gesamte Nutzungsdauer einer Anschaffung betrachtet und den Planungshorizont entsprechend langfristig ansetzt, gehen IT-Buchhalter von wesentlich kürzeren Verfallszeiten der Hard- und Software aus. Brummen die Geschäfte, vermag eine moderne, gut gewartete IT-Infrastruktur den Weg zu mehr Umsatz zu ebnen – an den Schalthebeln sitzen aber immer noch die Mitarbeiter, die entscheiden welches Kundenbedürfnis wie befriedigt wird.

Beim Personal allerdings wirken die Kennziffern verheerend. Wenn Gehaltskosten gegen Technikkosten aufgerechnet werden, steht der Angestellte allemal im Regen. Als Kostenfaktor muss er sich messen lassen an IT-Systemen, die tatsächlich vieles schneller und effizienter erledigen. Welche Kosten rentieren sich denn nun – der Posteingangsscanner samt damit verbundener EDV und vernetzter Datenbanken oder das Sekretariat mit den krankheitsanfälligen Mitarbeitern. Zur Beantwortung dieser Frage ziehen viele Unternehmen ganz gern den ROI zu Rate.

Advertisements

Nachtrag zu Geist & Macht

15.04.2011 – Die Guttenberg-Story ist zwar noch am Laufen, aber ein Ergebnis ist festzuhalten: Das Amt ist weg und die Schäden können sich sehen lassen. Die Eloquenz und der Charme des Adligen haben den betreuenden Doktorvater Peter Häberle derart aus dem Konzept gebracht, dass die Süddeutsche Zeitung dem Professor gleich eine Seite 3 einräumt und einen ausgewiesenen Vorzeigereporter (Heribert Prantl) auf Spurensuche schickt.

Das Ergebnis lässt sich knapp zusammenfassen: Der Rechtsgelehrte steht fassungslos vor dem größten Täuschungsmanöver, das ihm in seiner Laufbahn als hochdekorierter Wissenschaftler untergekommen ist.

Der biedere Rechtsexperte, den Prantl als „Polyhistor“ und „Genius Universalis“ bezeichnet, hat mit wissenschaftlich geschultem Verstand dem frisch gebackenen Bundestagsabgeordneten das summa cum laude umgehängt. Für eine Leistung, die aus dem Zusammenfügen von Textbausteinen aus allen möglichen Quellen besteht. Mit Wissenschaft hat das Aneinanderreihen von Suchmaschinenergebnissen nichts zu tun. Für was aber hat Peter Häberle den Herrn zu Guttenberg denn ausgezeichnet – diese Frage ist bislang ungeklärt.

Fest steht, der „Weltgeist“ hat sich von einem aufstrebendem Politiker auf´s Kreuz legen lassen. So einfach ist das, wenn sich der politische Durchsetzungswille den passenden Auftritt samt dazugehöriger charakterlicher Maskerade zulegt und damit jeden Zweifel an der eigenen Integrität als Macher und Denker ausräumt.

Die Frage, was Geist & Macht zusammenbringt, wer im Kollisionsfall unterliegt und wie sich das Verhältnis von Politik und dem Rest der Welt darstellt, ist noch nicht beantwortet. Vielleicht ist es mühsig darüber nachzudenken, vielleicht fällt anderen dazu was passendes ein. Immerhin sind sich Spitzenvertreter zweier nicht ganz unwichtiger gesellschaftlicher Bereiche begegnet und haben gezeigt, was sie voneinander wollen. Vorsichtig ausgedrückt: Der eine den akademischen Orden, der andere ein bisschen Glamour aus den Reihen der herrschenden Eliten.

Die Zellingenieure formieren sich

Das Herstellen von biologischem Gewebe oder Knochen ist keine leichte Aufgabe. Doch die Nachfrage nach Tissued-Engineering-Produkte steigt. Gefragt sind neue Bioreaktoren und Fertigungsequipment.

Weltweit laufen die Aktivitäten rund um die Stammzellenforschung und die In-vitro-Zellvermehrung auf Hochtouren: „Der schnelle Transfer von wissenschaftlichen Ergebnissen in die industrielle Entwicklung und kommerzielle Umsetzung ist entscheidend für neue Therapien und den medizinischen Erfolg“, konstatiert Scott P. Bruder, Senior Vice President and Chief Technology Officer bei dem US-Unternehmen Becton Dickinson & Co auf einem Symposium der US-National Science Foundation. Zwar steckt die Bioproduktion von Zellen, Haut, Knochen oder ganzer Organe noch in den Kinderschuhen, aber der Ruf nach leistungsfähigen Werkzeugen und automatischen Verfahren ist lauter denn je: „Sowohl beim Life-Science-Monitoring von lebenden Präparaten als auch beim Proben-Scanning gibt es einen deutlichen Schub in Richtung Prozessautomatisierung“, betont Abteilungsleiter Jan Stallkamp vom Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA.

Hoher Erwartungsdruck

Der Erwartungsdruck bei Ersatz von erkranktem Gewebe und der Unterstützung gestörter Organfunktionen ist hoch. Rund 230 Millionen Euro hat das Bundesministerium für Bildung und Forschung (BMBF) und die Deutsche Forschungsgemeinschaft (DFG) in den letzten Jahren in die Forschung gesteckt, darunter 38 Millionen Euro in das Tissue Engineering. 15 Millionen Euro flossen in industrielle Verbundprojekte mit dem Ziel, Produkte und Therapieverfahren auf dem Feld der Regenerationstechnologien voranzutreiben und Defizite bei ihrer Herstellung zu beseitigen.
Neue Bioreaktoren und bessere Fertigungstechnik ist gefragter denn je, denn es gibt keine wirtschaftlichen Standardverfahren für den Umgang mit Zellkulturen und ihrer Vermehrung im Labor. Tissue Engineering fertigt aus körpereigenen Zellen ein lebens- und funktionsfähiges Implantat, das zerstörtes Gewebe oder Knochenteile ersetzt und im Körper mitwächst. Trägermaterial und Zellen benötigen dabei optimale In-vitro-Bedingungen, um zu verwendbarer Haut, Gelenkknorpel oder Knochenersatz heranzuwachsen. Meist sind es Forschungsinstitute oder Großkliniken, die in ihren Labors erste Produktionskapazitäten aufgebaut haben. Im Biopolis-Labor des Stuttgarter Fraunhofer-Instituts IPA beispielsweise steht auch eine Gewebefabrik, die vollautomatisch dreidimensionales Hautgewebe konstruiert und züchtet. Das Institut will in diesem Jahr die Produktion soweit hochfahren, dass monatlich rund 5000 Hautkonstrukte zu einem Preis von rund 34 Euro pro Stück gefertigt werden können.

Herzklappen aus Nabelschnurzellen

Schwieriger ist es, Gewebe mit Blutgefässen zu züchten oder lebensfähige Organe. Am Deutschen Herzzentrum in Berlin haben Wissenschaftler eine Methode entwickelt, um in einem Bioreaktor aus Nabelschnurzellen von Neugeborenen Zellverbände für biologische Herzklappen zu gewinnen. Durch das Drehen der Besiedelungseinheit in verschiedene Richtungen ist es möglich, die Zellen gleichmäßig auf ein Trägermaterial aufzubringen und das Wachstum positiv zu beeinflussen. Dabei kommt es darauf an, dass so genannte Matrixproteine entstehen, die sich fortpflanzen und zum Ausgangsprodukt für wachstumsfähige Herzklappen werden.
Herstellungslizenzen für die Produktion von Reperaturzellen für erkrankte Körperteile gibt es im EU-Raum erst wenige. Die in Michigan ansässige US-Company Aastrom Biosciences erhielt für ihr Knochenregenerationsprogramm über eine hundertprozentige Tochtergesellschaft in Berlin eine Lizenz für die unternehmenseigenen Tissue Repair Cells (TRCs). Die Produktionsanlage wurde in Zusammenarbeit mit dem Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB in Stuttgart realisiert. Das Fraunhofer IGB verfügt über Labore zur Herstellung von autologen Transplantaten, die den Richtlinien des Good Manufacturing Practice (GMP) entsprechen. Ein Pluspunkt, der eng mit dem Erfolg von biologischen Produktionsstätten verknüpft ist: „Ohne Prozess-Validierung und -Monitoring mit qualifizierten Geräten unter Einhaltung europäischer Richtlinien gibt es keine Garantie für die Qualität und Sicherheit der Produkte“, sagt Professor Heike Walles, Abteillungsleiterin für Zellsysteme am Fraunhofer-Institut IGB. Das Suttgarter Institut hat bereits die Herstellungserlaubnis für ein autologes Knorpel- sowie für ein autologes Stammzelltransplantat.

Hohe Kontaminationsgefahr bei Zellproduktion

In Teltow residiert die Aktiengesellschaft Co.don die ihr Pharmaziegeschäft mit zellbasierten Medikamenten um Tissue Engineering-Produkte für Gelenkknorpelimplantate und Bandscheiben erweiterte. Vor allem investierte die Company in eine selbstentwickelte Isolatorentechnologie, die das Kontaminationsrisiko von zellbasierten Implantaten im Reinraum entschärft. Da körpereigene Zelltransplantate wärmeempfindlich sind, lassen sich keine Sterilisationsverfahren zur Abwehr von Verunreinigungs-  und Kontaminationsgefahren einsetzen. Co.don verlegt deshalb die komplette Ausrüstung  für die Transplantatherstellung und Qualitätskontrolle in einen eigenen Isolator innerhalb des Reinraums.
Zusammen mit Partnerunternehmen will der Laborausrüster Köttermann in Niedersachsen ein Musterlabor zur Herstellung von bioartifiziellem Gewebe entwickeln, dass sich für die wirtschaftliche Produktion von Herzklappen oder Knochengewebe eignet. Das Biotechnik-Labor ist speziell auf die Aufgaben des Tissue Engineering zugeschnitten und setzt auf neu angepasste Bioreaktoren sowie eine GMP-zertifizierte Produktion von Geweben.

Geist & Macht

– 18.02.2011 – Der Verteidigungsminister verhält sich genau so, wie der erfahrene Rechtsanwalt bei Entdeckung einer möglichen Regelwidrigkeit empfiehlt: Den Plagiatsvorwurf energisch zurückwiesen und andeuten, dass vielleicht Missverständnisse den Eindruck hervorrufen, dass bei der Doktorarbeit etwas schief gelaufen sei. Damit der Fleck auf der weißen Weste nicht zu große wird, den Titel – als ein kleines Zugeständnis an die Gegenseite – vorübergehend auf Eis gelegt. Das wars. Vielleicht kurz noch ein wehmütiger Gedanke an die akademischen Meriten, die so gut zur Karriereplanung und zum Adelstitel passen – aber den kann ja nicht einmal ein Gericht streichen.

Warum ein erfolgreicher Politiker die akademische Zierde sucht und dabei darauf verfällt, eine wissenschaftliche Arbeit mit fremden Gedankengut ohne Quellenangabe praktisch nebenbei zu verfassen, ist seltsam. Entweder hält der Mann wissenschaftliches Nachforschen und Analysieren ohnehin für überflüssig, weil es nur Zeit kostet und – außer dem Titel – nichts Verwertbares für den Job einbringt. Oder er braucht Argumentationshilfe, die es schnell und seitenfüllend per Mausklick im Internet gibt. Vielleicht gehört so ein Vorgehen zur Pragmatik eines vielbeschäftigten Leistungsträgers, der es gewohnt ist Aufgaben zu delegieren und sich die gewünschten Resultate auf den Schreibtisch legen zu lassen, auch wenn sie manchmal etwas spät eintrudeln, wie beim Luftschlag des Oberst Klein nahe Kundus.

Zweifel an den intellektuellen Fähigkeiten des Freiherrn Karl-Theodor zu Guttenberg indes  sind aus der Luft gegriffen. Das entkräftet einmal der Lebenslauf, der zwar gradlinig aber nicht ganz ohne Stolpersteine direkt in die Führungsetage der Republik führt. Zum anderen ist der Terminplan des Außenministers sehr eng beschnitten, so dass der ruhigen Entfaltung wissenschaftlicher Gedanken und schlüssiger Argumentationslinien neben dem aufreibenden Alltagsgeschäft schlicht die Zeit fehlt. Der Dienst am Vaterland und das richtige Timing für die Einsatzbefehle der Truppe degradiert doch eine Dissertation, bei allem Respekt, zur schöngeistigen Sonntagsübung.

Schwerwiegender ist die Stellung zum wissenschaftlichen Arbeiten und der Verbindung von Geist und Macht. Offenbar schätzt der Amtsinhaber im Verteidigungsministerium am Wissenschaftsbetrieb eines: die Strahlkraft eines professoral beglaubigten Ehrentitels. Auf akademisches Wissen kommt es in der Politik nicht an, wie die Süddeutsche Zeitung bemerkt. Das heisst nicht, dass Machtinhaber nicht denken. Im Gegenteil, sie analysieren die Lage, bewerten die vorhandenen Mittel und entscheiden ganz praktisch. Hier geht’s lang, dort wollen wir hin, jetzt aber los. Dafür ist eigentlich nicht mal ein Abitur erforderlich. Trotzdem schmücken sich gern eine ganze Reihe von Politikern mit den Weihen einer Universitätsausbildung. Offenbar fühlt sich in der politischen Arena mancher wohler, wenn er beim Erklimmen der Karriereleiter ein Uni-Zertifikat in der Schublade hat – egal wie man es kriegen kann.

Als pikanter Nebeneffekt des ministeriellen Vorgehens ist die Universität Bayreuth selbst in die Löwengrube gefallen. Die Professoren zeichnen die Arbeit des Freiherrn mit einem „summa cum laude“ aus und adeln damit gleich Textpassagen mit, die aus Zeitungen oder einem Reiseführer stammen. Wissenschaft auf der Höhe der Zeit oder Qualitätsverlust bei der geistigen Elite?

Die Welt des Thilo Sarrazin

– 31.08.2010 – Die öffentliche Empörung schlägt hoch, doch der ehemalige Berliner Finanzsenator und Ex-Vorstandsmitglied der Deutschen Bundesbank bleibt cool. Kein Wunder, denn diese Aufmerksamkeit lässt jedes Verlegerherz höher schlagen und verschafft einem Buchautor jene Publicity, die er als erfolgsgewohnter Topmanager und Ex-Politiker erwartet. Sarrazin gehört zur Elite dieses Landes und bilanziert von dieser Warte aus. Ein kluger Kopf, der sich nur etwas verrannt hat, wie manche Kommentatoren bereits anmerken. Tatsächlich breitet der Banker nur seine Sorge um etwas aus, das jedem vertraut, ja auch ein Herzensanliegen ist: Deutschland ist in schlechter Verfassung und verliert ständig an Gewicht nach innen wie außen.

Auf der Suche nach den richtigen Talenten

Das lässt einen Elite-Mann modernen Zuschnitts nicht kalt. Denn auf Schwäche gibt es nur eine Antwort: Kräfte bündeln, Handbremse lösen und Gas geben. Da es sich aber nicht um die Fußballnationalmannschaft handelt, sondern um die staatlich organisierte Gemeinschaft, fällt das Fitnessprogramm etwas anders aus. Auf dem Prüfstand steht nämlich die gesamte Bevölkerung. Und siehe da, die Bevölkerung zerfällt in unterschiedliche Teile mit gegensätzlichen Interessen, Neigungen und Bedürfnissen. Wie aber lässt sich in dieser konfliktträchtigen Melange eine homogene Kraft für das Rettungsprogramm Deutschland entdecken? Wer als Manager Personalverantwortung trägt, weiß auch jetzt Bescheid: Leistungswille und Motivation müssen stimmen.

Knallhartes Auswahlverfahren

An dieser Stelle setzt Sarrazin ein Auswahlverfahren in Gang, das ein rechtsnationales Rekrutierungsbüro zur Bestandserhaltung germanischer Widerstandskraft nicht besser machen könnte. Kurz gefasst: Eine überzeugende Leistung für Deutschland bringt doch nur ein waschechter Deutscher zustande. Genau dieser aber ist in der Welt des Thilo Sarrazin ein knappes Gut, denn er hat sich von ausländischen Elementen vertreiben lassen. Tatsächlich untermauert der Banker aus Frankfurt seinen Deutschlandwahn mit rassistischen Versatzstücken aus dem vorigen Jahrhundert und krönt seine Auffassung mit der Behauptung, ein derart geschwächter Staat mit rassischer Fehlbesetzung kann nur eines: Sich selbst abschaffen.

Dass ein Elite-Banker in der noch aktuellen Finanzkrise das Szenario einer Selbstenthauptung weiterpflegt, spricht nicht gerade für den klaren Blick auf die wirklichen Verhältnisse. Das sieht eher nach einem Sammelbecken für deutschgestimmte Karrieristen aus, die Schwarz-rot-goldene Fahnen hissen, ihre Kräfte bündeln, die Handbremse lösen und vielleicht dereinst zur Parteigründung schreiten.

Arithmetisches Mittel

In der Gesellschaft leben jede Menge Underdogs, die täglich damit beschäftigt sind, ihr Überleben in den Griff zu bekommen ohne den nächsten Supermarkt zu entern. Ihr Einkommen sind Geld- und Sachbezüge aus der öffentlichen Armenkasse mit dem sie auskommen müssen. Die Höhe des Lebensunterhalts hängt maßgeblich von den Festlegungen des zuständigen Arbeitsministeriums ab. Die derzeitige Kassenhüterin, Ursula von der Leyen, musste auf Grund einer Intervention des Bundesverfassungsgerichts die Hartz-IV-Sätze neu anpassen und siehe da, es steht ein neuer haushaltsverträgliche Höchstbetrag im Raum, nämlich fünf Euro mehr als bisher.

So sang- und klanglos wollen Opposition und Wohlfahrtsverbände die Neuregelung dem Ministerium nicht überlassen. Falsch gerechnet, tönt es aus den SPD-Reihen und auch die Finanzmathematiker der Wohlfahrtsverbände fangen an, die Berechnungsmethoden von Regierung und Statistischem Bundesamt anzuzweifeln. Der somit eröffnete Streit verwandelt die Diskussion um Armut in Deutschland in eine arithmetische Schulübung deren Ergebnis davon abhängt, was rechts und links der Gleichung einfließt. Mathematisch hat das Ministerium natürlich nicht falsch gerechnet und am Ende kam genau das Ergebnis heraus, mit dem das Regierungsressort in punkto Mehrausgaben leben kann.

Den haushaltskompatiblen Betrag für die 4,8 Millionen Hartz-IV-Empfänger durch eine andere Rechenvariante in Frage zu stellen ist mehr als müßig. Das Raus- und Reinrechnen von Daten aus Einkommens- und Verbrauchsstichproben führt natürlich zu anderen Zahlen. Doch was hat man damit eigentlich bewiesen? Sicherlich nicht, dass sich Sozialhilfeempfänger auch mit 394 Euro in einer trostlosen Zwangslage bewegen.

Aufstand – Risse im Ich

Da haben sich französische Oppositionelle schwer ins Zeug gelegt und eine Schrift vorgelegt, die kein gutes Haar an der gegenwärtigen Ordnung lässt. Die unbekannten Schreiber kommen zu einem vernichtenden Urteil: „Das Erhalten des Ich in einem Zustand permanenten Halb-Verfalls, chronischer Halb-Ohnmacht ist das bestgehütete Geheimnis der aktuellen Ordnung der Dinge.“ Die Autoren des französischen Buches „Der kommende Aufstand“ nehmen kein Blatt vor den Mund, wenn sie an allen Ecken und Enden der Gesellschaft immer dieselben zerstörerischen Kräfte am Werk sehen. Es geht gegen die Menschen, die in Verhältnisse gezwungen werden, die nichts mehr von ihrer ursprünglichen Identität übrig lassen. Die ganze bürgerliche Welt ist zu einer grotesken Eismumie erstarrt, ein „leerer Raum, eiskalt, nur noch durchquert von registrierten Körpern, automobilen Molekülen und idealen Waren.“

Postmodern aber ausweglos
Natürlich sind das Worte, die einem gut geerdeten Mitglied der Gesellschaft niemals über die Lippen kommen. Es ist der Blickwinkel von Kritikern, die der linksmilitanten Szene entstammen, wie Nils Minkmar Redakteur im Feuilleton der Frankfurter Allgemeinen Sonntagszeitung bemerkt, allerdings um dem offen aufständischen Charakter der militanten Prosa eine gewisse Nähe zum Zeitgeist zu bescheinigen: „Auch in „Der kommende Aufstand“ geht es um die Ausweglosigkeit eines immer subtiler operierenden kapitalistischen Systems, um die „Ausweitung der Kampfzone“: von den Schlachtfeldern und den Märkten ins Private, Körperliche und Intime, um die Kolonisierung von Gedanken, Gefühlen und Genüssen durch den postmodernen Kapitalismus.“

Die Aufständischen in Frankreich halten sich indes nicht lange beim postmodernen Kapitalismus auf. Sie haben ganz andere Bilder vor Augen, als das Hin und Her beim Geschäftemachen oder die staatlichen Rettungsmaßnahmen zur Stabilisierung der Währung. Für sie ist die ganze Gesellschaft ein monströser Verführungsapparat, der mit Zuckerbrot und Peitsche heftig wütet und jeden lebensfreudigen Mitmenschen seiner ureigenen Bedürfnisse beraubt. Die Folge ist ein moderner Bourgeois, der lediglich eine blutleere Hülse repräsentiert, gut durchgestylt und pflegeleicht, ein fremdgelenktes Mainstream-Wesen eben, das macht, was es soll. Das kann doch nicht gut gehen, ahnt jeder Leser – sowohl für den Einzelnen, der merkt, dass er seinen inneren Zusammenhalt verliert und für jene scheinbar obsiegenden Kräfte, die jene menschliche Existenz zerstören, auf die sie angewisesen sind, von der sie ganz gut leben.

Atomisiert aber bei guter Laune
Allerdings sieht es auf der Gewinnerseite in den Augen der französischen Gesellschaftstkritiker überraschenderweise auch sehr öde aus. Die Autoren sind felsenfest überzeugt davon, dass den bestehenden Institutionen und dominierenden Eliten eine selbstzerstörerische Tendenz innewohnt, die dem Leidensdruck der geknechteten Seite ausgesetzt, aber nicht gewachsen ist. Im Text heisst es unmißverständlich: „Diese Gesellschaft wird bald nur noch durch die Spannung zwischen allen sozialen Atomen in Richtung einer illusorischen Heilung zusammengehalten. Sie ist ein Werk, das seine Kraft aus einem gigantischen Staudamm von Tränen zieht, der ständig kurz vor dem Überlaufen ist.“ Schön gesagt, aber sehr bemüht. Denn die Gesellschaft atomisiert jeden soweit, dass er vielleicht Risse in seinem Ich bekommt, aber in den meisten Fällen realitätstüchtig bleibt, seinen Job erledigt, Frau oder Mann samt Kinder so weit es geht bei Laune hält, seine Steuern bezahlt und nach dem nächsten Karrieresprung Ausschau hält.

Dennoch nimmt die Geschichte eine andere Wendung als erwartet: Es ist nämlich nicht die mangelnde Integrationsfähigkeit des aufschreienden, weil geschundenen Ichs sondern im Gegenteil: Die perfekte Einbindung in das Hamsterrad von Produktion, Werbung, Herrschaft und Zynismus, die den Keim der Rebellion enthält. Die Leute merken, dass mächtige Bevölkerungsgruppen sich in einer Art Kriegszustand befinden mit dem Ziel, anderen Bevölkerungsteilen den letzten Rest an Lebensfreude zu nehmen. Als Beleg listen die Autoren etwas unscharf so ziemlich jeden und alles auf, was sie als tragendes Element der etablierten Verhältnisse ansehen. Damit ist eigentlich klar, das es nur einen Ausweg gibt: Im Aufstand findet das entkräftete und angepasste Ich wieder zu sich selbst und befördert das ohnehin absterbende Bürgertum mit einem letzten Tritt in die Recyclinganlagen der Geschichte.

Revolutionäre Wurzeln
Manche Passage in dem Buch liest sich wie die leidenschaftlichen Aufrufe eines Robespierre, Morelly oder des Volkstribuns Babeuf, der noch 1797 beim Gang zur Guillotine mit Inbrust verkündete: „Ich bleibe bei der Behauptung, die Revolution ist noch nicht durchgeführt.“ In anderen Passagen beschwören die Autoren die aufkeimende Subversion aus den sozialien Bewegungen, den Bonlieus und der großen Zahl an Arbeitslosen und Sozialhilfeempfängern. Das eigentliche Kraftzentrum des kommenden Aufstandes aber liegt im Zerfallsprozess der vorherrschenden Verhältnisse: „Es gibt keinen Grund mehr zu warten – auf eine Aufheiterung, die Revolution, die atomare Apokalypse oder eine soziale Bewegung. Noch zu warten ist Wahnsinn. Die Katastrophe ist nicht, was kommt, sondern was da ist. Wir verorten uns bereits jetzt in der Bewegung des Zusammenbruchs einer Zivilisation.“

Babeuf, der Weitermachen wollte, der die Revolution in Frankreich zu einem glücklichen Ende für alle – und nicht für eine neue Klasse an Profiteuren und Geldsäcken, wie er stets betonte – führen wollte, wurde einfach einen Kopf kürzer gemacht. Damit war es vorbei damit, was die Aktivisten und Volkstribunen der Jahre 1789 ff. nicht nur einmal geschworen haben, als sie in Paris und anderswo das Ancien Regime aus den Angeln hoben: „Wiederholen wir es nocheinmal. Das Leid hat seinen Gipfel erreicht; es kann nicht mehr schlimmer werden; es kann nur noch durch eine totale Umwälzung geheilt werden!“ Das Zitat stammt aus dem Jahr 1795. Es war die Geburtsstunde der bürgerlichen Gesellschaft.

Der Data Warehouse Mythos – Abgepackte Informationen aus dem Selbstbedienungsladen

Wohin mit der Datenflut? Eine bange Frage, die bereits in den Teenagerjahren der modernen Computer- und Informationstechnik die fortschreitende maschinelle Verarbeitung von Informationen begleitet und bis heute kein Jota an Gewicht verloren hat. Die IT-Industrie zitiert gern das Datenchaos im Primärspeicher und tonangebende Wirtschaftsinformatiker sprechen von „Information-Overload“, der sich unversehens zum „Overkill“ fortentwickeln kann. Wer nach kurzem Nachdenken auf die Delete-Taste hinweist, verkennt mit dieser verblüffend einfachen Antwort das Problem: Die codierten Bits und Bytes enthalten nützliche Informationen, die mit dem Löschen verloren gehen.

Besonders hellhörig reagiert in diesem Zusammenhang die Unternehmens-IT. Neben dem inzwischen etablierten Zwang zur regelkonformen Datenaufbewahrung gemäß staatlicher Auflagen sind es marktwirtschaftliche Verlockungen, die den Umgang mit Daten in eine neue Richtung lenken. „IT meets Business“ steht von Anfang an auf dem Beipackzettel, der die Idee und den Bau eines Data Warehouse (DW) inklusive der zugreifenden Front-End-Applikationen begleitet. Allerdings stellt sich schnell heraus, dass der Schritt vom klassischen Datensammler zur dispositiven Informationswirtschaft viele Anwenderfirmen mit enormen finanziellen, technischen und organisatorischen Hürden konfrontiert.

Wertschöpfung aus der Datenbank

Schon die frühen Pioniere des Data Warehousing verbinden ihre informationstechnischen Ambitionen mit grundsätzlicheren Gedanken zu Produktivität und Wachstum. Sie beschwören den informellen Wert einer speziell strukturierten Datenbank, befüllt mit erstklassigen Geschäftsinformationen, die der Anwender dank intuitiv handhabbaren Werkzeugen abholen, am Bildschirm betrachten und in seine Entscheidungsfindungen einfließen lassen kann. Flankiert wird dieser Aufruf zur unternehmensweiten Informationsbewirtschaftung durch wissenschaftliche Abhandlungen, die Mitte der 80er Jahre des vorigen Jahrhunderts immer häufiger auftauchen: Information sei ein Produktionsfaktor wie Arbeit, Boden und Kapital lautet die Kurzformel, die Feuilletonleser und Fachpresse zu lebhaften Debatten anregte.

Ohne hier näher auf das weitläufige Feld an Überlegungen zum Gelehrtenstreit einzusteigen, macht der hohe Stellenwert, den Informatiker dem Begriff Information einräumen, stutzig. Wer eine Nachricht liest, weiß doch noch lange nicht, um was es geht. Selbst gewöhnlich gut informierte Kreise sind überrascht, wenn alles anders kommt als erwartet und manche Gebrauchsanleitung muss man fünf mal lesen, um zu verstehen, was Sache ist. Die begriffliche Unschärfe nährt den Verdacht, dass die Informatikerzunft mit der in Aussicht gestellten Datenaufbereitung lediglich den Bogen zu etwas Handfestem spannen will. Denn übersetzt in den Kontext des Alltagsgeschäfts zeigt der Hinweis auf den Produktionsfaktor sogleich Brisanz für jeden Homo oeconomicus: Es geht um den wettbewerbsentscheidenden Vorsprung, der sich durch das intelligente Ausschöpfen der reichlich vorhandenen Datenquellen einstellen soll.

Auf diese Botschaft springen die Unternehmensstrategen in Sachen Data Warehouse an. Schließlich wurden bereits großzügige IT-Investitionen in Datenbanken und das Datenmanagement getätigt mit Zielrichtung Speichern und – im Fall einer abgestürzten Systemlandschaft – Wiederherstellen der applikationsgetriebenen (operativen) Datenbestände. Ganz zu schweigen von teuren Finanz-, Warenwirtschafts-, Produktionsplanungs- und Vertriebssystemen, die das Enterprise Ressource Planning (ERP) entscheidend vorantreiben sollen. Manchem Geldgeber drängt sich bereits die Frage auf, wie denn die Speicherung großer Datenmengen den Rückfluss der dafür notwendigen Ausgaben zustande bringen soll.

Solche Zweifel spielen in den Jahren 1990 ff. zunächst eine untergeordnete Rolle. Das Innovationstempo der Hard- und Softwareindustrie strebt gerade mit Client-/Server-Systemen, Internet, E-Business und Network Computing einem neuen Höhepunkt entgegen. Die Datenbank ist etablierte Lagerstätte und Verwaltungsort von elektronisch erzeugten Daten mit einer Allzweck-Software, die sich um Datenzugriff, Flexibilität, Verfügbarkeit und Sicherheit kümmert. Doch die Speicherboliden gelten als träge Kolosse. Das unterschiedslose Sammeln in einem zentralen Datenpool hat nämlich einen gravierenden Nachteil: Darin tummeln sich strukturierte Daten wie Telefonbücher oder Adresslisten ebenso wie komplexe und unstrukturierte Datentypen, angefangen bei Textdateien über E-Mails, Kundeninfos, Bürger- und Patientenakten bis zu Multimedia-Files mit Bild und Sound. Zudem ändert sich der Inhalt relationaler Online-Datenbanken mit jeder noch so kleinen Transaktion – die Suche nach geschäfts- und entscheidungsrelevanten Informationen stößt wegen der Vielzahl von internen und externen Datenquellen mit all den inkommensurablen Datentypen und –formaten auf ernsthafte Schwierigkeiten.

Die neue Produktivkraft Information erweist sich in dieser Form als sperrige Datensammlung, die einfach nicht zu den Managementetagen passt. Dort geht es um kurz- oder weitsichtige Entscheidungen mit messbaren Renditezielen und sichtbaren Erfolgen. Das Informationsbedürfnis der Führungskräfte richtet sich auf betriebliche Berichtssysteme, die das Streben nach Business Intelligence und Excellence unterstützen und in auswählbaren Zeiträumen Rückschlüsse auf die Qualität, Leistungs- und Wettbewerbsfähigkeit der gerade laufenden Geschäftsprozesse einschließlich der damit befassten Akteure im Unternehmen zulassen.

Verblüffend viele Fragen

Viele Fragen füllen die To-do-Liste eines Managers, der sich anschickt, die aktuellen Geschäftsgänge auf Effizienz und Rentabilität zu überprüfen. Einmal braucht er in Zahlen gefasste Fakten, wie schnell etwas, wo und zu welchem Preis über den Ladentisch ging. Dann sind es Markttrends, die Einfluss nehmen auf das Kaufverhalten oder das Marktgebaren konkurrierender Unternehmen. Stehen neue Verhandlungen mit Zulieferern an, muss der gesamte Einkauf durchleuchtet werden und floppt eine Produktlinie, geht es an die Ursachenforschung mit allen Begleiterscheinungen, die der Misserfolg so mit sich bringt.

Zahlreiche Data-Warehouse-Ruinen vor allem in den 80er und 90er Jahren des vorigen Jahrhunderts belegen, dass der Bau solcher Systeme einigen Hirnschmalz erfordert, jede Menge Arbeit und Investitionen bewegt und viele Fallstricke parat hält. Der einfache Grundgedanke, Daten zwecks Analyse aus dem Transaktionsraum des Tagesgeschehens herauszulösen und daraus Informationen für unterschiedliche Anwenderzwecke zu generieren, lässt sich nicht per Plug & Play in eine funktionstüchtige IT-Architektur umsetzen.

Weitere Schwierigkeiten stellten sich ebenfalls in den Anfangsjahren des Data Warehousing ein. Ältere Semester kennen noch den Joke mit den Bierflaschen und den Babywindeln. Nach intensiver Datenanalyse und mehrdimensionalem Abgleich diverser Kennziffern im Data Warehouse des US-Handelshauses Wal Mart erhalten die Filialleiter von der Zentrale den Tipp, Windeln und Feiertagsgetränk nebeneinander vor der Kasse zu platzieren. Siehe da, der Absatz beider Produktarten tendierte nach diesem Cross-Selling-Act – vor allem Wochenends – nach oben. Marketing- und Verkaufsprofis haben solche Glanzleistungen superteurer Warehouse-Techniken indes kalt gelassen. Tiefschürfende Einsichten in die Geheimnisse der Verkaufssteuerung im Supermarkt vermittelt diese Art der Informationsgewinnung nicht.

Mathematische Spielchen fürs Management

Die eher trivialen Analyseergebnisse der Anfangsjahre hat dem Data-Warehouse-Konzept nicht geschadet. Betriebswirtschaftlich orientierte Informatiker und Professoren mit nebenamtlichen Consultingaufträgen hatten längst die Ressource Information zur Steuerungsgröße für Geschäftsprozesse erklärt. Auf Kongressen und diversen Firmenveranstaltungen kursierte die Vorstellung, ein komplettes Unternehmen quasi vom Schreibtisch aus am Bildschirm per Dashboard und Cockpit über Key Indicators und automatisierte Reportings zu steuern. Das begeisterte zunehmend das gehobene Management, schließlich muss der Motor rund laufen und das wird immer schwieriger.

Lehr- und Handbücher zu Data Warehouse lassen indes nach wenigen Seiten erkennen, dass der Weg von codierten Zeichen und Zeichenketten zu einer aussagekräftigen Information über den aktuellen Stand der Krebsforschung in Europa oder die Auktionshistorie am Hamburger Fischmarkt weit und sehr holprig ist. Das Extracting, Transforming und Loading (ETL) der Daten in ein neu modelliertes Warenhaus für Geschäftsinformationen ähnelt einem Spießroutenlauf: Einmal lässt die Datenqualität und Aktualität zu wünschen übrig, dann belasten die Abfragen und das Online Analytical Processing (OLAP) die Systemperformance im gesamten Bereich des so genannten Online Transaction Processing (OLTP).

Aufgehalten hat das die Wirtschaftsinformatiker und Softwareentwickler nicht. Längst sind sie sich einig, dass die „Systemintelligenz“ steigerungsfähig ist und dass diese Herausforderung nur durch das Konzipieren eben jener Informationsspeicher zu meistern ist, die eine transparente, integrierte und logisch-konsistente Gesamtsicht auf die Daten vermitteln.

Informationen am laufenden Band

Kontroverse Auseinandersetzungen über Architektur, Datenmodell und Inhalte eines Data Warehouse prägen die Entstehungsgeschichte der informationsorientierten Datenhaltung. Schon einer der Gründerväter des Data Warehouse, der IBM-Mann Bill Inmon, sorgt vor zwanzig Jahren mit seiner Definition für Verwirrung. Unklar ist demnach, ob eine unternehmensweite Informationsbereitstellung anzustreben sei, oder die Fachabteilungen jeweils eigene Data Marts unterhalten sollen. Offenbar schwebte Inmon damals bereits ein sehr umfassendes Business-Intelligence-System vor, das den Steuerungs- und Cockpit-Gedanken verfolgt.

Business Intelligence bedeutet frei übersetzt Bescheid wissen über die Vorgänge im Job Floor, die angeschlossenen Managementebenen und das regionale und globale Umfeld bezüglich der Erfolgsaussichten anstehender unternehmerischer Ziele. Mathematisch beseelte Geister wie Inmon fanden sich nicht damit ab, dass erste Versuche mit Management Informations Systemen (MIS) oder Decision Support System (DSS) gründlich fehl schlugen. Unermüdlich feilten Anfang der 90er Jahre des vorigen Jahrhunderts Informatiker und Softwarearchitekten an Referenzarchitekturen für ein umfassendes Business-Warehouse-System.

Data-Warehouse-Lösungen sind nach ihrer grundsätzlichen Konzeption für das analytische Verarbeiten von Daten bestimmt. Ein Extraktions-Werkzeug zapft alle verfügbaren Datenquellen periodisch oder ereignisgesteuert an und schreibt nach voreingestellten Kriterien die Daten in einen meist physikalisch vorhandenen Zwischenspeicher (Staging-Area oder Operational Data Store). Eine Transformationskomponente integriert die unterschiedlichen Datentypen zu einem einheitlichen, konsistenten Datenbestand und lädt das Ergebnis in die Data-Warehouse-Datenbank.

Dieser so genannte ETL-Prozess findet bereits als Datenfiltering mit diversen Gruppierungs- und Verdichtungsverfahren statt. Das zugrundeliegende Datenmodell berücksichtigt quantifizierende und qualifizierende Daten ebenso wie content-bezogene und transaktionsorientierte Daten. Auf die DW-Datenbank greifen dann die Front-Ende-Werkzeuge zu, die je nach Machart Finanzdaten auf mögliche Risiken untersuchen, Umsatzzahlen für bestimmte Zeitperioden und Regionen zusammenstellen oder Absatzprognosen erstellen.

Knappes Ladefenster aus 1+n Quellsystemen

Damit das System bei den Abfragen nicht einfach ins Blaue hinein fabuliert, sind mehrere Vorkehrungen notwendig. Das Datenbankschema ist mehrdimensional vorstrukturiert, die gesamte Architektur mehrschichtig aufgebaut. In der Fachsprache ist die Rede von Datenobjekten und einer 3-Tier-Architektur. Aus der IT-Sicht sind Daten aus dem operativen Feld jetzt Rohstoff, der automatisiert gewonnen und aufgebrochen wird und dem analytischen Zugriff der Fachabteilungen und des Top-Managements zur Verfügung steht. Der Datenimport unterliegt der peniblen Reinigung von redundanten Tabelleneinträgen und einer themenorientierten Sortierung. Damit diese umfangreichen und standardisierten Basisdaten nicht ihre Aussagekraft verlieren, unterliegen Extraktion und Transformation einer periodisch fortgeschriebenen Aktualisierung. Alles muss schnell ablaufen, möglichst im 24-Stunden-Rhythmus.

Ein betriebswirtschaftliches Faktum, wie beispielsweise „Verkaufszahl“, setzt sich aus mehreren Attributen zusammen. Für die jeweils anstehende Sichtweise auf die Daten wie Produktart, Zeit und Geographie, haben DW-Experten den Begriff der Dimension geschaffen. Da meist mehrere Dimensionen im Spiel sind fasst man diese zu Hierarchieebenen zusammen und verdichtet diesen Bereich mit Hilfe einer Berechnungsvorschrift. Fachleute bezeichnen den Verdichtungsgrad von Daten innerhalb einer Hierarchie als Granularität.

Häufig übersehen wird dabei, dass die Attribute aus unterschiedlichen Quellsystemen stammen können, im Data Warehouse aber zusammen als eine „Entität“ erscheinen. Beispielsweise bestellt jemand im Internet-Shop einen MP3-Player und bezahlt per Kreditkarte, will aber das Gerät in einer Geschenkverpackung an eine bestimmte Lieferadresse schicken – dann glühen die Drähte in der damit befassten IT-Infrastruktur. Die Kunst besteht darin, die angestoßenen Buchungsvorgänge mit unterschiedlichen Laufzeiten zu einem Faktum – inklusive Empfangsquittung und potentieller Reklamation – im Data Warehouse zusammenzuführen.

Wenn das gelingt, ist der halbe Weg vom Tabellendickicht zur strukturierten Informationshülse geschafft. Technisch gesehen ist man bei einem OLAP-Modell mit eigener Rechenlogik gelandet. Ob der Markt für neue MP3-Player noch aufnahmefähig ist und wie hoch der nächste Deckungsbeitrag dieser Produktgattung sein wird, das lässt sich leider noch nicht feststellen. Diese Aufgabe obliegt eigenen Analyse-Applikationen im so genannten Frontend-Bereich, die solche Fragestellungen an das System – üblicherweise ein relationales Datenbankmanagementsystem – richten. Ob die hinterlegten Dimensionsdefinitionen und Kennzahlen ausreichen, um brauchbare Anhaltspunkte für die nächste Werbekampagne oder das Einkaufsordering zu erhalten, hängt von der Komplexität der Analyse ab – wer viel wissen will, muss lange warten.

Das Unternehmen insgesamt gerät unter den Händen der Informatik mehr und mehr zu einem mathematischen Gebilde. Nach dieser Lesart besteht die Firma aus einem sich ständig verändernden (operativen) Datenbestand, der sich mit Hilfe der Sammelkomponente (ETL) und einer Modellierungssoftware (OLAP) in einen Würfel verwandelt. Dieser getrennt von den Online-Datenbanken existierende Cube wird regelmäßig aktualisiert und bildet einen konsolidierten Datenraum mit zahlreichen Informationsobjekten und unterschiedlichen Bezugs- und Zuordnungsregeln. Die Kenngrößen eines Datenwürfels liegen in einer Faktentabelle, die auch alle Beziehungen zu den Klassifikationsstufen der verschiedenen Dimensionen enthält.

Alle Elemente in den OLAP-Würfeln beinhalten bereits thematisch vorsortierte Informationen aus unterschiedlichen Datenbanktabellen, die beim Online Transaction Processing (also im laufenden Rechenbetrieb) in relationalen Abhängigkeiten zu einander stehen. Zum Beispiel Zeittabellen wie Tag, Woche, Quartal und Jahr sowie Artikelstammdaten, die in Relation zu Produktnamen- und gruppen stehen, deren Abverkäufe an verschiedenen Standorten erfasst werden. Das zugrundeliegende Datenmodell im Data-Warehouse-Bereich beschreiben so genannte Metadaten, die in einem eigenen Repository liegen.

Wo steckt die Intelligenz

Vom komplizierten Innenleben des Data Warehouse sieht der Anwender nichts. Allenfalls kommt er mit den Metadaten in Form eines Informationskatalogs und dazugehöriger Navigationshilfe in Berührung. Er nutzt analytische Anwendungen um an die wirklichen oder vermeintlichen Informationsschätze heranzukommen. Die Bandbreite der Werkzeuge reicht mittlerweile von klassischen Reporting- und Abfragegeneratoren bis zu Data Mining und Dokumenten-Retrieval. Die schwer fassbare Business Intelligenz rattert im Hintergrund, entbindet aber keinen Nutzer von der Verpflichtung auf erfolgreiche Aktivitäten. Die wöchentlichen oder monatlichen Zielvereinbarungen gelten nicht für die Maschinen, sondern für die Mitarbeiter.

Die haben sich inzwischen daran gewöhnt, das analytische Instrumentarium, soweit es denn brauchbare Ergebnisse bringt, in Form von Warenkorb-, Kunden- oder Performanceanalysen in ihren Alltag einzubauen. Am einfachsten geht das mit Business-Kennzahlen wie Umsatz, Stückzahl, Retouren oder Lagerbestände. Die lagern in den Faktentabellen. Selektions- und Filtermerkmale holt sich der Anwender aus den Dimensionstabellen. Das ganze hinterlässt den Eindruck eines Baukastensystems, das mitunter sogar Business-Templates im Sinne inhaltlich vorgefertigter Geschäftsprozesse enthalten kann.

Gut gerüstet mit hochverdichteten Informationen gehen die Unternehmen jetzt auf die Märkte los. Was dabei herauskommt ist kein großes Geheimnis. Es mag sein, dass Anwender mit einem Risk-Management-Tool die Finanzierungs- und Refinanzierungskosten im Unternehmen auf einem niedrigen Level halten können, aber ein Blick in die Wirtschaftspresse deutet auf das glatte Gegenteil: Die Risikoanalysen der Banken gingen im Fall Hypothekenspekulation gründlich in die Hosen. Das Finanzdesaster erfasst schon auf Grund des Ausmaßes auch real wirtschaftende Teile der Gesellschaft. Ähnliches gilt für spektakuläre Fehleinschätzungen im Flugzeugbau, der Biotech- und Baubranche oder der ehemaligen Mobilfunksparte von Siemens. Auf der Liste der Pleiten des Jahres tummeln sich regelmäßig fast 30 000 Unternehmen – recht unwahrscheinlich, dass niemand ein Data Warehouse einsetzt.

Zusatz

Wer kann besser analysieren

Etwa zehn Jahre mühten sich Entwickler von IBM, Teradata, Sybase, Microsoft und Oracle ab, die mehrdimensionale Speicherung von Daten in einem Schneeflocken-, Galaxie- oder Starschema hinzukriegen. Immer wieder stehen zwei große Themen im Raum: Datenqualität und Performance. Zahlreiche Erweiterungen der Datenbanktechniken und trickreiche Einfälle wie das Aufteilen einer Tabelle mit umfangreichen Extensionen auf mehrere kleine Partitionen oder die Einführung von Bitmap-Indexierung und bessere Gruppierungsfunktionen der Abfragesprache SQL (Structured Quere Language) entschärfen die gröbsten Hindernisse. Eine kleine Gruppe von Spezialherstellern, darunter Cognos, Hyperion, Business Objects, SAS, Informatica oder Comshare, machen mit eigenen Software-Paketen auf sich aufmerksam. Meist stammen sie aus dem OLAP- und ETL-Umfeld und profitieren von den Schwächen der herkömmlichen Datenhaltung.

Während nahezu alle Komponenten auf jeder Ebene des Data-Warhouse-Modells in ihrem technischen Reifegrad zugelegt haben, wächst auch die Begehrlichkeit der Hersteller möglichst viel vom Business-Intelligence-Kuchen abzukriegen. Datenbankhersteller fangen an, die analytischen Fähigkeiten ihrer Datenbankmanagementsysteme zu erweitern. Die Performanceschwächen der klassischen OLAP-Cubes bei Verarbeitung größerer Datemnengen sind zwar noch nicht ausgebügelt, aber die meisten Hersteller lassen sich nicht auf die konkurrierenden Varianten MOLAP (multidimensionale Datenbank mit entsprechenden Datenstrukturen) oder ROLAP (Multidimensionalität wird auf zweidimensionalen Tabellen abgebildet) festlegen und bieten beides an.

Je mehr der Funktionsumfang einer Business-Intelligence-Suite ausgedehnt wird, desto stärker reizt das die Platzhirsche der IT-Welt. Im letzten Jahr schnappten sich SAP, Microsoft und IBM vormals selbständige Anbieter mit jahrelanger Entwicklungserfahrung. Zwar erhält die Gemeinde der Data-Warehouse-Anbieter mit Teradata nach der Trennung vom Mutterkonzern NCR wieder selbständigen Zuwachs, aber die Reihen haben sich mit dem Weggang von Hyperion, Cognos und Business Objects doch sehr gelichtet. Die Frage ist, was nutzt das dem Anwender.

Kurze Antworten auf letzte Fragen (1)

Schon mal gestorben? Eine wichtige Lebenserfahrung, die jeden ereilt, ob als Opfer einer Hungersnot, einer Attacke, einer Naturkatastrophe oder durch Organversagen. Für kulturphilosophische Deutungskünstler gehört der Tod zur Kategorie gut ausschmückbarer Interpretationen, denn der Mensch stirbt nicht einfach so. Der Tod spielt vielmehr eine äußerst vielschichtige, energiegeladene und auch karrierefördernde Rolle.

Wer kennt es nicht das Phänomen, dass Musiker und Künstler erst nach der Beerdigung den Status eines zeitlosen Denkmals erreichen. Rennpiloten der Formel-1 stehen mit einem Bein im Grab und holen dadurch ein paar Sekunden für den Sieg heraus. Gotic-Gruppen huldigen dem Leichentuchlook und fühlen sich erst als Grufties so richtig wohl. Für manchen Philosophen ist die Todeserfahrung der Schlüssel zum Leben und der Bundesverteidigungsminister wägt beim Abschussbefehl 80 Flugzeugleichen gegen 80 000 Stadionbesucher ab. Im kirchlichen Umfeld ist ständig von Trost und Erlösung die Rede und den sozialverträglichen Abgang legen nicht nur die Bilanzzahlen der vereinigten Krankenkassen nahe.

Da wird nicht nur einfach gestorben, sondern eben kulturphilosophisch (und gesellschaftspolitisch) am Sinn des Todes herumgemacht. Seinszugewandte Denker, wirkungsgeschichtlich sicherlich nicht unbedeutend, stürzen sich lustvoll in den Strudel letzter Gründe des existierenden Seienden (Welt) und Daseins (Mensch) und suchen nach dem Urprinzip, auch Sein genannt. Eine sprachlich grenzwertig aufbereitete Abhandlung liefert Martin Heidegger´s Standardwerk Sein und Zeit. Beim Nachlesen, um was es dem Seinsphilosophen denn eigentlich geht, stößt man bei der Grundverfassung des Menschen auf eine eigentümliche Stelle: Solange das Dasein als Seiendes ist, hat es seine Gänze nie erreicht. Sprich, um dem Sein des Menschen näher zu rücken, sollte man das existenzbehaftete Seiende fahren lassen. Der Tod als Tor zum eigentlichen Selbst.

Der schwäbische Philosoph feiert zwar nur die Möglichkeit zum Tod als Bestandteil des Lebens (das ist dann die ontologische Seinserfahrung), aber nur mit dem Tod gelingt der Eintritt in das Haus des Seins. Wer sich auf existenziell Erreichtes versteift oder gar mehr fordert, verfehlt den Sinn des Lebens. Existenzphilosophisch steht also einiges auf dem Spiel, zumal ideengeschichtlich die andere Totalitätsfrage nach dem Verhältnis von Leib und Seele respektive Geist noch gar nicht richtig zum Zug kam.

Auf diesem Feld fühlen sich die religiös eingefärbten Todesanalytiker besonders angesprochen. Zwar liegen die Denkhorizonte von Seinsphilosophen und Theologen nicht weit auseinender, aber das göttliche Prinzip eines Ganzen mit einem gewaltigen Schöpfer im Zentrum hat gesamt geschichtlich einen wesentlich größeren Einfluss auf das Denken und Handeln maßgeblicher (und unmaßgeblicher) Menschen. Machen wir´s kurz: Der Theologe postuliert, was der Philosoph umständlich deduziert: Gottes Wirklichkeit ist einfach größer als die menschliche Fähigkeit, diesen seinen Schöpfer zu erkennen. Die Vernunft scheitert schlicht am Erfassen der Wahrheit und muss sich mit der Tatsache bescheiden, die Frage überhaupt zu stellen.

Zusammengenommen also kommen sich die Interpretatoren aus den verschiedenen Denklagern doch sehr nahe. Der Sinn des Lebens ist einfach zu sein und das Schicksal zu tragen, in das man geworfen wird – der Tod fährt ohnehin immer mit.

Hundert Terabit aber theoretisch

Wer will 20 Milliarden Seiten E-Mails pro Sekunde verschicken? Für optische Netze ist das keine abwegige Vorstellung, meinen Wissenschaftler der Bell Labs von Lucent Technologies. Die dafür erforderliche Bandbreite lässt sich im Glasfaserkanal realisieren. Die übertragbare Datenmenge wäre dann ungefähr 100 Terabit je angefangener Sekunde.

Die Wissenschaftler wollen allerdings einen Grenzwert ermittelt haben, der sich aus den physikalischen Eigenschaften des Glasfaserkanals ergibt: Lichtpulse verlieren beim Faserdurchgang wegen Interferenzen und anderer störender Einflüsse (die Photonen des eingekoppelten Lichtsignals interagieren mit den Atomen des Übertragungsmediums) an Geschwindigkeit. Zudem nimmt auf längeren Strecken der Rauschanteil zu, so dass daraus zusätzliche Limits für die übertragbare Datenmenge entsteht.

Graue Theorie

Aber egal. Den Netztüftlern von Lucent schwebt ein Kommunikationsnetz vor, das nahe am Grenzwert von 100 Terabit pro Sekunde die Router verbindet. Doch bevor die Medienindustrie mit ihren hochbitratigen Broadcastplänen in Jubel ausbricht und schon mal Sendeleistung bei Alcatel-Lucent vorbestellt, dämpfen die Experten der Bell Labs die Euphorie – das 100-TB-Netz ist ein mathematisches Konstrukt, berechnet aus vereinfachenden Annahmen, ein bisschen Quantenphysik und der Wellenmultiplex-Technik, bei der Lichtwellen unterschiedlicher Frequenzen gleichzeitig über eine Faser übertragen werden.

Auch wenn nur ein theoretischer Wert hinter dem Statement aus den Bell Labs steckt, beflügeln solche Meldungen natürlich die Phantasie. Und diese bekommt regelmäßig Nährstoff aus den Grenzbereichen der Physik. Einschlägig ist in diesem Zusammenhang der Tunneleffekt von Mikrowellen. Seriöse Wissenschaftler haben beobachtet, dass am Ende eines Metallrohres Lichtteilchen angekommen, noch bevor sie abgeschickt wurden. Einfach ausgedrückt: Da fliegen Photonen schneller als die Lichtgeschwindigkeit im Vakuum.

Jetzt, liebe Leser, bitte festhalten. Die Lichtgeschwindigkeit ist eine Naturkonstante und benötigt als Bewegung Zeit. Wenn ein Teilchen schneller fliegt, sinkt die Zeitspanne seiner Bewegung auf Null oder unterschreitet gar den Nullpunkt. Der forschende Verstand wird jetzt sehr aufgeregt, denn eine negative Zeit bedeutet ja Umdrehung der Bewegungsrichtung, also Zeitreise zurück.

Vorher ist Nachher

Einem Netzadmin mag das etwas futuristisch vorkommen, aber die Vorstellung ist reizvoll. Kommt das Datenpäckchen zu dem Zeitpunkt beim Empfänger an, an dem es abgeschickt wurde, wäre die Crux mit den Latenzen hinfällig. Noch atemberaubender ist der naheliegende Gedanke, dass die Daten schon beim Empfänger eintreffen, während der Router dabei ist, dem Päckchen eine Zieladresse zu verpassen. Ja und wenn es mit der Physik so stimmt, können informationsbeladene Photonen über Ereignisse berichten, die erst in Zukunft eintreffen werden.

Irgendwie stellt sich bei diesen Schlussfolgerungen das Gefühl ein, dass hier etwas Hokuspokus im Spiel ist. Wenn schon die Lucent-Wissenschaftler bei ihrer 100 Terabit-Prognose betonen, dass das alles sehr theoretisch sei, ist der Teilchenflug in Überlichtgeschwindigkeit etwas für Marsmännchen auf der Suche nach Parallelwelten.