Category Archives: Science

In Sorge um die Seele

A segment of a social network

Auf der Suche nach dem richtigen Klebstoff

24.07.2012 – Religion, Glaube und Kirche erhalten derzeit neuen Treibstoff nachdem so hässliche Vorkommnisse, wie priesterliche Knabenliebe und Sex statt Religionsunterricht in den Hintergrund gerückt sind. Kein geringerer als Jürgen Habermas und der Regensburger Erzbischof Gerhard Ludwig Müller legen Stroh ins Feuer und schaffen es in der Presse auf die vorderen Seiten. Der Personalie Müller – er rückt zum neuen Aufsichtsratsvorsitzenden der Glaubenskongregation der päpstlichen Kurie zu Rom auf – ist zu entnehmen, dass mit einem strengeren Durchgreifen hinsichtlich Kirchenräson, Abweichlern und Glaubensauslegung zu rechnen ist. Bei dem Frankfurter Kommunikationstheoretiker geht es mehr um die Grenzen des liberalen Staates und dessen Bedrohung durch allerlei Anfechtungen aus den Kraftzentren der Gesellschaft, namentlich die individualistische Auflösung des Gemeinwesens und die Vorherrschaft von Wirtschaftsinteressen. Religion, so die Überlegungen des Altbarden verschachtelten Denkens, könnte dem zerstörerischen Auseinanderstreben der Gemeinschaft Einhalt gebieten und Zusammenhalt stiften..

Dem Glaubenspräfekt Müller wird das gefallen, allerdings befindet er sich ebenfalls in Sorge angesichts der doch zahlreichen Herausforderungen in der säkularen Welt, angefangen bei der Krise Europas über Friedensgefahren, Gefährdung der Religionsfreiheit und der Menschenrechte, bis zu ethischen Fragen, die der wissenschaftliche Fortschritt – Stichwort Stammzellenforschung – regelmäßig auftischt. Angesichts seiner Amtseinführung hat er ein bißchen den Teppich gehoben und gibt Einblick in die Sichtweise der Amtskirche. Im Kern sind alle Schieflagen nämlich ganz einfach zu begradigen: Gott höchstpersönlich hat die Richtlinienkompetenz, seine Kinder haben dem zu folgen.

Und das soll sich lohnen? Aber natürlich. Der Gehorsam ist nunmal nötig, da der Mensch nicht nur aus Religion besteht, sondern von seinem Schöpfer mit zahlreichen Eigenarten ausgestattet wurde, die dem gottgleichen Ebenbild entgegenstehen. Er ist Erdenwurm, der seinen Verstand nutzt, um sein Leben zu gestalten und dabei auch Einflüsterungen von bösen Mächte unterliegt. Das geht nun schon seit ein paar tausend Jahren so. Kein Wunder, dass Teile der Bevölkerung vom rechten Weg abkommen und mit atheistischen und säkularistischen Lebenskonzeptionen sowie rein innerweltlichen Lebenszielen die universelle Macht Gottes zurückdrängen.

Diese Gruppe der Sünder sind kein Hassobjekt der Kirche. Nach christlicher Lesart steckt nämlich ein bißchen Religion in jeder Meneschenseele. Das liegt einfach, dank göttlicher Formgebung, in der menschlichen Natur und manifestiert sich in vielen weltlichen Idealen und Glaubensäußerungen. Doch ohne den katholischen Ordnungsrahmen verflüchtigt sich die religöse Substanz in Zeitgeistmoden oder inkompetenten Heilslehren. Evangelium und Bibel, so schlussfolgert Müller ohne mit der Wimper zu zucken, sind das Absperrseil der Gesellschaft gegen Chaos, Krise und Leid in dieser Welt. Gott ist die konstitutive Macht, die alles zusammenhält und einer individualisierenden Gemeinschaft wieder Halt gibt – sofern man daran glaubt.

Dieses Heilsversprechen erscheint dem Frankfurter Soziologen Habermas immer plausibler. Vernunft hin, Wissenschaft her, es muss doch etwas geben, was den auseinanderdriftenden Gesellschaftsteilen genügend Klebstoff bietet. Der Staat, so kommt es dem Interaktionstheoretiker vor, verliert im Ringen um Solidarität und gesellschaftlichen Konsens immer mehr an Boden und die Wissenschaft kann ihren Heilsanspruch – er meint wohl das Wissen wo es langgeht – nicht einlösen. Zu viele Fragen lassen sich mit wissenschaftlichen Methoden verbindlich nicht beantworten. Ohne Antworten keine Kommunikation, ohne Kommunikation kein Konsens.

Für Habermas steht schon lange fest, dass vernünftiges Denken, wenn es denn gesellschaftswirksam sein will – und wer will das nicht – dem Potential religiösen Denkens zuwenden soll. Die alten Metaphysiker schwärmen vom guten Leben im Garten Eden. Warum soll man diese inspirierende Kraft nicht hier und heute nutzbar machen, zumal sich das moderne Denken vom uralten Heilsversprechen nach Erlösung abgekoppelt hat. Zugleich erschließt sich eine Kraftquelle, die den gesellschaftlichen Zusammenhalt wieder einrenken könnte und sogar den Weg in Richtung einer künftigen Weltgesellschaft ebnet. In der Phantasie eines religiös entflammten Sozialphilosophen ist alles möglich. Mit einer Ausnahme: Grundlegende Rechtssysteme gehören in die Hände des Staates. Daran beisst sich auch die göttliche Vorsehung die Zähne aus.

Advertisements

Burning Platforms – Wie lassen sich Altsysteme in neue Systemwelten migrieren

Wenn die Betriebskosten für alte Rechnerplattformen aus dem Ruder laufen, steht der Systemwechsel ins Haus. Doch was tun mit den Alt-Anwendungen?

Die Parkbank, die früher mal eine Aludose war, gibt es in der IT-Welt nicht. Jeder IT-Leiter weiß, dass die Rechnersysteme ein Verfallsdatum haben. Doch es gibt Software-Recycling, das alten Programmcode in eine neue Technologieumgebung verpflanzen kann und damit die bewährten Geschäftslogiken einer funktionierenden Organisation auch in Zukunft am Leben erhält.

Wer seine betagten Computer nicht im Griff hat, bekommt Ärger. Klare Anzeichen sind häufig auftauchende Performance-Probleme sowie steigende Instandhaltungs- und Wartungskosten der schwächelnden Plattform. Neue Speichersysteme, eine breitbandige Netzinfrastruktur sowie eine große Anzahl an sehr leistungsfähigen x86-Rechnern verändern die Systemlandschaft in immer kürzeren Zeitabschnitten. Die Schicksalsfrage lautet: Migrieren oder neu entwickeln?

Burning Platforms sind in Großkonzernen und Rechenzentren keine Seltenheit. Betagte Legacy-Systeme gibt es beinahe in jedem Rechenzentrum. „In den Mainframes stecken sehr hohe Investitionen“, weiß Migrationsspezialist Ernst Schierholz, Geschäftsführer der der Hamburger IT Modernisation UG, „deshalb überlegt jeder sehr genau, ob er überhaupt umsteigt.“ Häufig sträuben sich IT-Verantwortliche dagegen, die altgedienten Computerboliden einfach vom Netz zu nehmen und moderne, aber weniger bewährte Rechentechnik einzusetzen. Mancher Administrator schwört im kaufmännischen Umfeld gar auf die alten Cobol-Programme oder Assembler-Code, selbst wenn der Modernisierungsdruck durch Internet, Desktop Computing, Virtualisierung und Cloud-Computing wächst: „Viele Anwendungen laufen auch nach 20 Jahren noch sehr stabil“, betont Schierholz.

Grundsatzfragen begleiten IT-Administratoren ihr Berufsleben lang. Intel-Server und PCs mit Windows oder Modernisierung der alten Unix-Maschinen mit Desktop-Terminals, neue IBM-Rechner oder Blades von Hewlett Packard, eine Java-Plattform mit Cloud-Umgebung oder Client/Server-Architektur mit Apache-Server? Es gibt mehr als 8500 Computersprachen und in jedem größerem Unternehmen existieren meist mehrere Tausend Einzelprogramme, die technisch gesehen eine Mischung aus Standard- und selbstprogrammierten Spezialanwendungen bilden. Eine Neuprogrammierung der gesamten Code-Basis eines Unternehmens würde im Schnitt 20 Mannjahre verschlingen und Kosten von rund einer Million Euro verursachen.

Modernisierungsdruck bei knappen Budgets

Solche Kostenblöcke sind in Zeiten knapper IT-Budgets kein Pappenstiel. Doch beliebig weit von sich schieben kann man Migrationsentscheidungen nicht. Einer aktuellen Experton-Studie zufolge haben knapp 60 Prozent der Unternehmen mit mehr als 100 PC-Arbeitsplätzen eine fünf Jahre alte Version einer Office-Software im Einsatz. Das führt nach Ansicht von Axel Oppermann, Senior Advisor bei der Experton Group, zu „qualitativ schlechten Arbeitsprozessen, langen Durchlaufzyklen und einer geringen Flexibilität.“ Marode IT-Systeme sind der Bremsklotz für Geschäftsabläufe, die im Extremfall sogar die Arbeit der Gesamtorganisation beeinträchtigen.

Was aber tun? Experton empfiehlt eine schonungslose Revision der IT-Infrastruktur sowie eine gründliche Prüfung der vorliegenden Lizenz- und Nutzungsverträge. Aktuell verpassen Unternehmen, die auf Systeme aus den Jahren 2003 bis 2007/2008 setzen, die Innovationssprung neuer Entwicklungen. Dazu rechnet Experton die organische Verankerung wissensbasierte Arbeitsmodelle oder den Einzug moderner Instrumente und Methoden für Kollaboration, Reporting oder Analysen.

Ein anderer Weg heisst Standard-Software. Doch auch in diesem Fall sollten sich Entwickler nicht von den schöngefärbten Nachrichten aus den Marketingabteilungen beeindrucken lassen. Es gibt nämlich Werkzeuge und Spezialisten, die alte Cobol-Anwendungen sicher auf neue Intel-Server und x86-Desktops migrieren. Bekannteste Softwareschmiede hierfür ist Micro Focus. Mit der jetzt veröffentlichten Cobol-Plattform Visual Cobol R3 von Micro Focus lassen sich Cobol-Programme auch auf der Java Virtual Machine (JVM) oder in Microsofts Cloud-Infrastruktur Windows Azure einsetzen. Die Entwicklungswerkzeuge können mit Web-basierten Services ebenso umgehen wie mit Unix und Linux oder dem Microsoft Framework .Net.

Fortschritt mit Bewährtem

Zur Vermeidung von bösen Überraschungen empfiehlt Berater Schierholz, nicht vorbehaltlos den Lockrufen moderner Java-Gurus wie Oracle oder IBM zu folgen. Die Cobol-Anwendungen gehören in vielen Großsystemen keineswegs zum alten Eisen. Etwa 200 Milliarden Zeilen Code, so schätzt Schierholz, gibt es heute noch weltweit und jährlich kommen weitere fünf Milliarden neue Zeilen hinzu. Doch nicht alles, was Programmierer in den letzten 30 Jahren auf die Beine gestellt haben, ist bei Computernutzern und Systemadministratoren auf Gegenliebe gestoßen. Vor allem schufen die Codierprofis im Laufe der Zeit eine heterogene Systemlandschaft, deren Innenleben von Jahr zu Jahr komplexer und unübersichtlicher wird. Kein Wunder, dass längst totgesagte Programmiertechniken munter weiterleben. Ein Ende des Streits um die beste Plattform mit der richtigen Anwendung ist noch längst nicht in Sicht.

Die Zellingenieure formieren sich

Das Herstellen von biologischem Gewebe oder Knochen ist keine leichte Aufgabe. Doch die Nachfrage nach Tissued-Engineering-Produkte steigt. Gefragt sind neue Bioreaktoren und Fertigungsequipment.

Weltweit laufen die Aktivitäten rund um die Stammzellenforschung und die In-vitro-Zellvermehrung auf Hochtouren: „Der schnelle Transfer von wissenschaftlichen Ergebnissen in die industrielle Entwicklung und kommerzielle Umsetzung ist entscheidend für neue Therapien und den medizinischen Erfolg“, konstatiert Scott P. Bruder, Senior Vice President and Chief Technology Officer bei dem US-Unternehmen Becton Dickinson & Co auf einem Symposium der US-National Science Foundation. Zwar steckt die Bioproduktion von Zellen, Haut, Knochen oder ganzer Organe noch in den Kinderschuhen, aber der Ruf nach leistungsfähigen Werkzeugen und automatischen Verfahren ist lauter denn je: „Sowohl beim Life-Science-Monitoring von lebenden Präparaten als auch beim Proben-Scanning gibt es einen deutlichen Schub in Richtung Prozessautomatisierung“, betont Abteilungsleiter Jan Stallkamp vom Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA.

Hoher Erwartungsdruck

Der Erwartungsdruck bei Ersatz von erkranktem Gewebe und der Unterstützung gestörter Organfunktionen ist hoch. Rund 230 Millionen Euro hat das Bundesministerium für Bildung und Forschung (BMBF) und die Deutsche Forschungsgemeinschaft (DFG) in den letzten Jahren in die Forschung gesteckt, darunter 38 Millionen Euro in das Tissue Engineering. 15 Millionen Euro flossen in industrielle Verbundprojekte mit dem Ziel, Produkte und Therapieverfahren auf dem Feld der Regenerationstechnologien voranzutreiben und Defizite bei ihrer Herstellung zu beseitigen.
Neue Bioreaktoren und bessere Fertigungstechnik ist gefragter denn je, denn es gibt keine wirtschaftlichen Standardverfahren für den Umgang mit Zellkulturen und ihrer Vermehrung im Labor. Tissue Engineering fertigt aus körpereigenen Zellen ein lebens- und funktionsfähiges Implantat, das zerstörtes Gewebe oder Knochenteile ersetzt und im Körper mitwächst. Trägermaterial und Zellen benötigen dabei optimale In-vitro-Bedingungen, um zu verwendbarer Haut, Gelenkknorpel oder Knochenersatz heranzuwachsen. Meist sind es Forschungsinstitute oder Großkliniken, die in ihren Labors erste Produktionskapazitäten aufgebaut haben. Im Biopolis-Labor des Stuttgarter Fraunhofer-Instituts IPA beispielsweise steht auch eine Gewebefabrik, die vollautomatisch dreidimensionales Hautgewebe konstruiert und züchtet. Das Institut will in diesem Jahr die Produktion soweit hochfahren, dass monatlich rund 5000 Hautkonstrukte zu einem Preis von rund 34 Euro pro Stück gefertigt werden können.

Herzklappen aus Nabelschnurzellen

Schwieriger ist es, Gewebe mit Blutgefässen zu züchten oder lebensfähige Organe. Am Deutschen Herzzentrum in Berlin haben Wissenschaftler eine Methode entwickelt, um in einem Bioreaktor aus Nabelschnurzellen von Neugeborenen Zellverbände für biologische Herzklappen zu gewinnen. Durch das Drehen der Besiedelungseinheit in verschiedene Richtungen ist es möglich, die Zellen gleichmäßig auf ein Trägermaterial aufzubringen und das Wachstum positiv zu beeinflussen. Dabei kommt es darauf an, dass so genannte Matrixproteine entstehen, die sich fortpflanzen und zum Ausgangsprodukt für wachstumsfähige Herzklappen werden.
Herstellungslizenzen für die Produktion von Reperaturzellen für erkrankte Körperteile gibt es im EU-Raum erst wenige. Die in Michigan ansässige US-Company Aastrom Biosciences erhielt für ihr Knochenregenerationsprogramm über eine hundertprozentige Tochtergesellschaft in Berlin eine Lizenz für die unternehmenseigenen Tissue Repair Cells (TRCs). Die Produktionsanlage wurde in Zusammenarbeit mit dem Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB in Stuttgart realisiert. Das Fraunhofer IGB verfügt über Labore zur Herstellung von autologen Transplantaten, die den Richtlinien des Good Manufacturing Practice (GMP) entsprechen. Ein Pluspunkt, der eng mit dem Erfolg von biologischen Produktionsstätten verknüpft ist: „Ohne Prozess-Validierung und -Monitoring mit qualifizierten Geräten unter Einhaltung europäischer Richtlinien gibt es keine Garantie für die Qualität und Sicherheit der Produkte“, sagt Professor Heike Walles, Abteillungsleiterin für Zellsysteme am Fraunhofer-Institut IGB. Das Suttgarter Institut hat bereits die Herstellungserlaubnis für ein autologes Knorpel- sowie für ein autologes Stammzelltransplantat.

Hohe Kontaminationsgefahr bei Zellproduktion

In Teltow residiert die Aktiengesellschaft Co.don die ihr Pharmaziegeschäft mit zellbasierten Medikamenten um Tissue Engineering-Produkte für Gelenkknorpelimplantate und Bandscheiben erweiterte. Vor allem investierte die Company in eine selbstentwickelte Isolatorentechnologie, die das Kontaminationsrisiko von zellbasierten Implantaten im Reinraum entschärft. Da körpereigene Zelltransplantate wärmeempfindlich sind, lassen sich keine Sterilisationsverfahren zur Abwehr von Verunreinigungs-  und Kontaminationsgefahren einsetzen. Co.don verlegt deshalb die komplette Ausrüstung  für die Transplantatherstellung und Qualitätskontrolle in einen eigenen Isolator innerhalb des Reinraums.
Zusammen mit Partnerunternehmen will der Laborausrüster Köttermann in Niedersachsen ein Musterlabor zur Herstellung von bioartifiziellem Gewebe entwickeln, dass sich für die wirtschaftliche Produktion von Herzklappen oder Knochengewebe eignet. Das Biotechnik-Labor ist speziell auf die Aufgaben des Tissue Engineering zugeschnitten und setzt auf neu angepasste Bioreaktoren sowie eine GMP-zertifizierte Produktion von Geweben.

Hundert Terabit aber theoretisch

Wer will 20 Milliarden Seiten E-Mails pro Sekunde verschicken? Für optische Netze ist das keine abwegige Vorstellung, meinen Wissenschaftler der Bell Labs von Lucent Technologies. Die dafür erforderliche Bandbreite lässt sich im Glasfaserkanal realisieren. Die übertragbare Datenmenge wäre dann ungefähr 100 Terabit je angefangener Sekunde.

Die Wissenschaftler wollen allerdings einen Grenzwert ermittelt haben, der sich aus den physikalischen Eigenschaften des Glasfaserkanals ergibt: Lichtpulse verlieren beim Faserdurchgang wegen Interferenzen und anderer störender Einflüsse (die Photonen des eingekoppelten Lichtsignals interagieren mit den Atomen des Übertragungsmediums) an Geschwindigkeit. Zudem nimmt auf längeren Strecken der Rauschanteil zu, so dass daraus zusätzliche Limits für die übertragbare Datenmenge entsteht.

Graue Theorie

Aber egal. Den Netztüftlern von Lucent schwebt ein Kommunikationsnetz vor, das nahe am Grenzwert von 100 Terabit pro Sekunde die Router verbindet. Doch bevor die Medienindustrie mit ihren hochbitratigen Broadcastplänen in Jubel ausbricht und schon mal Sendeleistung bei Alcatel-Lucent vorbestellt, dämpfen die Experten der Bell Labs die Euphorie – das 100-TB-Netz ist ein mathematisches Konstrukt, berechnet aus vereinfachenden Annahmen, ein bisschen Quantenphysik und der Wellenmultiplex-Technik, bei der Lichtwellen unterschiedlicher Frequenzen gleichzeitig über eine Faser übertragen werden.

Auch wenn nur ein theoretischer Wert hinter dem Statement aus den Bell Labs steckt, beflügeln solche Meldungen natürlich die Phantasie. Und diese bekommt regelmäßig Nährstoff aus den Grenzbereichen der Physik. Einschlägig ist in diesem Zusammenhang der Tunneleffekt von Mikrowellen. Seriöse Wissenschaftler haben beobachtet, dass am Ende eines Metallrohres Lichtteilchen angekommen, noch bevor sie abgeschickt wurden. Einfach ausgedrückt: Da fliegen Photonen schneller als die Lichtgeschwindigkeit im Vakuum.

Jetzt, liebe Leser, bitte festhalten. Die Lichtgeschwindigkeit ist eine Naturkonstante und benötigt als Bewegung Zeit. Wenn ein Teilchen schneller fliegt, sinkt die Zeitspanne seiner Bewegung auf Null oder unterschreitet gar den Nullpunkt. Der forschende Verstand wird jetzt sehr aufgeregt, denn eine negative Zeit bedeutet ja Umdrehung der Bewegungsrichtung, also Zeitreise zurück.

Vorher ist Nachher

Einem Netzadmin mag das etwas futuristisch vorkommen, aber die Vorstellung ist reizvoll. Kommt das Datenpäckchen zu dem Zeitpunkt beim Empfänger an, an dem es abgeschickt wurde, wäre die Crux mit den Latenzen hinfällig. Noch atemberaubender ist der naheliegende Gedanke, dass die Daten schon beim Empfänger eintreffen, während der Router dabei ist, dem Päckchen eine Zieladresse zu verpassen. Ja und wenn es mit der Physik so stimmt, können informationsbeladene Photonen über Ereignisse berichten, die erst in Zukunft eintreffen werden.

Irgendwie stellt sich bei diesen Schlussfolgerungen das Gefühl ein, dass hier etwas Hokuspokus im Spiel ist. Wenn schon die Lucent-Wissenschaftler bei ihrer 100 Terabit-Prognose betonen, dass das alles sehr theoretisch sei, ist der Teilchenflug in Überlichtgeschwindigkeit etwas für Marsmännchen auf der Suche nach Parallelwelten.

IT World

Materialschlacht im Nanokosmos

Die Chip-Hersteller sind grundgestimmte Optimisten und schrecken auch vor den Grenzen der Physik nicht zurück. Schließlich wollen sie auf der Moore´schen Miniaturisierungswelle weiter surfen, die alle paar Jahre dem PC-Desktop ein Verfallsdatum verpaßt. Intel quetscht erneut mehr Leistung aus den winzigen Siliziumstückchen und feiert gerade die neue Mikroarchitektur „Core“. Das Core-Label löst die alte Pentium-Generation ab.

Was auf der Marketingbühne abgeht, bringt die Entwickler ganz schön ins Schwitzen. Prozessor-Chips mit mehr als einer Milliarde Transistoren, gefertigt in einer 65-Nanometer-Produktion und hochgetaktet, wie kein anderer Logikschaltkreis je zuvor – das soll den PC-Absatz anheizen und den eigenen Marktanteil gegenüber der Konkurrenz – allen voran AMD – auf Jahre ausbauen.

Wenn man den Ausführungen von Intels Chief Technology Officer, Justin Rattner, folgt, geht es in den Forschungslabors seit einigen Monaten schwer zur Sache. Da mußte die Verlustleistung durch niedrigeren Stromverbrauch abgesenkt werden, da die Chips beim Schalten zu heiß wurden, eine neue Dotierung des Isolationsmaterials zwischen den dreidimensional geschichteten Leiterbahnen sollte deren bremsenden Einfluss auf die Ladungsträger in Schach halten und zu guter letzt wollte man auch gleich ein Chipdesign benutzen, das die spätere Herstellung von vierkernigen Mikroprozessoren ermöglicht.

Der Chipkonzern schaffte alles in Rekordzeit und zeigte erste Betas auf dem diesjährigen Entwicklungsforum IDF in San Franzisko. Prompt reagierte Konkurrent AMD angesichts des flotten Entwicklungstempos verschnupft und bezweifelte die Funktionsfähigkeit der dargebotenen Prototypen. Tatsächlich geraten die Hersteller immer näher an den Grenzbereich des technisch Machbaren. Die Materialien machen nicht mehr richtig mit, wenn die Strukturbreiten von Siliziumschaltkreisen unter der 40 Nanometer-Marke liegen. Das aber darf es laut Moore nicht geben. Also muß eine neue Materialmischung her, die das Silizium so weit streßt, daß auch in Zukunft der Miniaturisierungskurs erhalten bleibt. Indiumantimonid (InSb) heißt der neue Favorit und soll angeblich die Materialkosten nicht dramatisch nach oben treiben, wie es sein Bruder Galliumarsenid zum Leidwesen der Chiphersteller gemacht hat.

SAP sieht (mal wieder) Verkaufspotential
im Mittelstand

(beu) Der Markt wird seit jeher von professionellen IT-Marketiers Monat für Monat durchforstet, immer auf der Suche nach zahlungsfähiger Kundschaft. Vor allem der Mittelstand gilt hierzulande in Herstellerkreisen als Zielgruppe mit hohem Defizit an moderner Informationstechnik. Ein kleiner Nachteil ist mit diesem Klientel verbunden: Der Firmeninhaber läßt sich nur mit Engelsgeduld von größeren IT-Investitionen überzeugen. Und ausgerechnet das versuchen seit Jahren Heerscharen von Herstellern.

Der Balztanz um den Mittelstand ist voll entbrannt. Diverse Marktstudien kommen regelmäßig zu dem Ergebnis, daß hierzulande bei zigtausenden Firmen die großen IT-Themen einfach nicht Fuß fassen konnten. Finanzen, Warenwirtschaft, Personal, Kundenbeziehung, Logistik, Auftragsplanung und Lieferantenbetreuung unterliegen im Mittelstand erst rudimentär dem Management von Hard-, Soft- und Middleware – zumindest, wenn man den Herstellern glauben möchte, die den resistenten Kunden draußen im Lande endlich den Übergang von DOS zu Windows für ihre Bestell- oder Kundensoftware nahe bringen wollen. Dieses Brachland will auch die Walldorfer SAP (mal wieder) urbar machen. Zum Jahreswechsel hat der Softwarekonzern einen neuen Geschäftsleiter Mittelstand installiert. Der bekennt sich zu den „Kleinen“, denn „da sehen wir das größte Potential“, hat er unlängst in einem Interview mit „Computer Reseller News“ erläutert, einem einschlägig bekannten Sprachrohr der Channel-Abteilungen der Hersteller.

Die Crux mit dem Kindergarten liegt darin, daß der Aufwand für Beratung und Implementierung auch bei Kleinprojekten schnell Dimensionen erreicht, die das IT-Budget der Anwender über Maßen strapazieren. Mittelständler sind deshalb bei Beratern und Marketiers unbeliebte Kunden, weil sie schlicht weniger Umsatz bei gleichem Arbeitseinsatz bringen. Doch statt das Geschäft anderen zu überlassen, öffnet Marktführer SAP sein Portfolio ein Stück weiter von „komplex und global“ (Standard) auf „vorkonfiguriert und regional“ (Standard light). Dazu ein paar Maßnahmen, die vor allem Partnerunternehmen nicht kalt lassen dürften: So wird die Projektverteilung zwischen den Externen und dem Stammhaus neu festgelegt, sprich, die Umsatzgrenzen und Gewinnerwartungen neu definiert, ab denen der Direktvertrieb von SAP die Sache in die Hand nimmt.

Ob Anwender von den Schachzügen der Manager profitieren, steht in den Sternen. Bisher hat es die im Markt etablierte SAP-Software Business One nicht geschafft, ihr Negativimage abzustreifen. Nachrücker aus der zweiten Reihe haben in der Vergangenheit immer wieder bewiesen, daß sie Marktanteile erobern können. Oracle, Microsoft und IBM wollen zudem auch mit kleineren Brötchen ihre Bilanzen aufbessern. Dafür muß auf’s Neue der Mittelstand herhalten.

Der befindet sich seinerseits in einem beinharten Wettbewerb. Manche Marktbeobachter sprechen bereits von ersten Anzeichen für einen grundlegenden Wandel mit Auflösungstendenzen. Jedenfalls sind Finanzinvestoren im letzten Jahr auffallend häufig vor den Toren kleinerer Unternehmen gesichtet worden. Laut Süddeutscher Zeitung waren es im letzten Jahr mehr als 100 Milliarden Euro, die von Beteiligungsgesellschaften im EU-Raum für Firmenübernahmen ausgegeben wurden. Insgesamt stieg das Volumen der Firmenkäufe durch Beteiligungsgesellschaften gegenüber dem Jahr zuvor um 43 Prozent auf 116,5 Milliarden Euro. 38 Prozent aller Transaktionen entfielen dabei auf den Mittelstand. Das bedeutet Substanzverlust im stolzen Mittelbau und Einsturzgefahr in den unteren Etagen. Erledigt sich damit die Mittelstandsoffensive der SAP? „Wir sind schon längst im Mittelstand angekommen“, sagt ein SAP-Manager hinter vorgehaltener Hand und deutet auf die vielen Tochterunternehmen der Großkonzerne, die SAP R/3 oder Mysap zum Standard erhoben haben.

Oracle bringt sich in Stellung
– oder: „all-you-can-eat“

Seit einiger Zeit hakeln IT-Schwergewichte ihre Interessensgegensätze mit immer größerem Getöse aus. „Organisch weiterwachsen“ will SAP und belegt mit Quartalszahlen, daß man immer noch die Nummer eins im Softwaremarkt für Enterprise Ressource Planning (ERP) ist. Widersacher Oracle verläßt sich nicht auf das Wachstum der eigenen Organe, sondern gibt Milliardenbeträge für Zukäufe im Applikationsumfeld aus. "More and more we are trying to turn our largest customers into all-you-can-eat customers," bekundete Anfang Februar Oracle-Boss Larry Ellison vor Bankern auf der Credit Suisse Global Software Conference in St. Monica, Kalifornien.

Alles einverleiben, was dem eigenen Fortkommen dient – wenn das nur gut geht. Der Datenbankspezialist Oracle hebelt immer häufiger die SAP-Konkurrenz aus. Zum Beispiel bei der Auftragsvergabe der US Airforce über 88,5 Millionen US-Dollar, die die US-Niederlassung der SAP unbedingt für sich selbst anlanden wollte. Auch massive Proteste der deutschen Softwerker beim zuständigen Government Accountability Office halfen nichts, der Zuschlag ging an Erzfeind Oracle.

Oracle hat noch mehr Eisen im Feuer. Die Eingemeindung der ehemaligen Peoplesoft-Anwender und J.D.-Edwards-Kunden setzt die Ellison-Company wie angekündigt um. Die vertragliche Bindung der zugekauften Kunden wird mit großzügigen Zugeständnissen beim Support der Altsoftware gefestigt. Die German User Group (GUG), die 75 J.D.-Edwards-Unternehmen vertritt, verhandelt derzeit mit der Deutschen Oracle Anwender Gruppe (DOAG) zwecks Zusammenlegung der Ressourcen. Ihr ehemaliger Vorsitzender, Peter Mischok, befürchtet, daß eine wirkungsvolle Interessensvertretung gegenüber dem Hersteller auf der Strecke bleiben könnte. „Die DOAG muß erst mal beweisen, daß sie das im Applikationsumfeld kann“, sagt. Mischok auf der letzten Jahreshauptversammlung. Und gab auch gleich seinen Vorsitzplatz ab.

Wenn die SAP-Spitze den Kaliforniern die Aussicht auf Erfolg bestreitet und Ellison als Schaumschläger abtut, dann mißversteht sie den hartnäckigen Siegeswillen des lästigen Kontrahenten. Ein Geschäft durchziehen ist die Kunst der amerikanischen Businesspeople seit der Kolonialisierung des Kontinents. Wie weit sie es gebracht haben, läßt sich unschwer an der Globalisierung des Geschäfts ablesen. Die Meßlatte liegt auf hohem Niveau – vielleicht beherrschen sie nicht alles, aber im Maximieren ihrer Profite kennen sie sich aus. Das muß man nicht gutheißen, aber man sollte es zumindest zur Kenntnis nehmen.

EMV

EMV geht in die 358. Runde

Es gibt sie noch, die Debatte um die Elektromagnetische Verträglichkeit (EMV). Bei den Modellforschungen über hochfrequente Felder und deren Wirkung auf biologische Systeme hat sich gegenüber den Diskussionen der Anfangszeit anno 1991 wenig bewegt. Physiker und TÜV-Techniker kennen die Eigenschaften der verschiedenen Frequenzspektren, schließlich muss jedes Gerät von der Schreibtischlampe bis zum Mikrochip EM-tauglich sein. Auch Medizinern ist die Ausstrahlung gepulster oder anders modulierter Wellen kein Geheimnis. Es gibt SAR-Werte (Spezifische Absorptionsraten) und es gibt tonnenweise Untersuchungen, die den Einfluss von Mobilfunkstrahlen auf die neurophysiologische Befindlichkeit des Menschen oder die Funktionstüchtigkeit seiner Zellen beleuchten. Die Langeweile kommt auf, weil immer dieselben Ergebnisse weitergereicht werden: Effekte sind theoretisch möglich, praktisch aber nicht nachweisbar.

Werfen wir einen Blick auf neuesten Resultate, die die Forschungsgemeinschaft Funk dem Leser ihres Newsletters liefert: Der englische Wissenschaftler John Tattersall vom Biomedical Sciences Deprtment in Salisbury, UK, hat sich erregbare Herzzellen vorgenommen. Der Doktor suchte nach Einflüssen von Mobilfunksignalen auf die intrazelluläre Kalziumkonzentration. Fehlanzeige. Allerdings ist dem Wissenschaftler gerade in dem Moment das Sponsorengeld ausgegangen, als er neue Versuchsreihen starten wollte. Die ersten Ergebnisse müssen reichen, schließlich will man nicht Geld in nutzlose Zusatztests versenken.

Auch der jährliche EMV-Kongress im März in Düsseldorf verspricht wenig Erhellendes. Gut bedient sind Elektrotechniker denen hochkarätige Referenten von Siemens in gleich zwei Eröffnungsvorträgen die Haltung des Münchner Konzerns nahebringen. Die anderen Fachbeiträge konzentrieren sich auf technische Aspekte oder sprechen Spezialthemen an, zum Beispiel das „Modellieren des Strahlungsmechanismus von Motherboard-Subboard Strukturen“, ebenfalls Siemens. Doch ein klärendes Wort zum Dauerthema elektromagnetische Strahlung und deren Wirkung auf den Menschen wird es kaum geben.

Wie auch. Jeder scheinbar gesicherten Erkenntnis folgt das Dementi. Als sich fünf niedergelassene Ärzte der oberfränkischen Ortschaft Naila dran machten, in ihrem Patientenkreis den Einfluss von Mobilfunksendeanlagen auf die Krebsinzidenz nachzuweisen, wirbelte das viel Staub auf. Die Mediziner kamen nämlich zu dem Ergebnis, dass tatsächlich Krebserkrankungen bei einem Teil der befragten Patienten im Nahbereich der Funkmasten zunahmen. Die Gegenrecherchen folgten auf dem Fuß und gipfelten in erheblichen Zweifeln an der Seriosität der Naila-Studie. Es gibt nun mahl viele Risikofaktoren für Krebs, die eine direkte Zuordnung von Funkmastbestrahlung, Handynutzung und Erkrankung einfach nicht zulassen. Wieder bleibt der interessierte Laie auf der Suche nach einer Antwort im Kräftespiel von Studie- und Gegenstudie stecken. Oder trägt die ganze Debatte eine gut organisierte Lobbyarbeit?

Die Doppelhelix …

ist vielen aus dem Biologieunterricht bekannt. Einer der Entdecker der genetischen Strickleiter, Francis Crick, ist unlängst einem Krebsleiden erlegen. In den Nachrufen kommt dem Nobelpreisträger viel Ehre zuteil. Er sei einer der großartigsten und einflussreichsten Wissenschaftler aller Zeiten, heißt es allerorten. Crick veröffentlichte zusammen mit seinem Forscherkollegen James Watson jene doppelreihige Molekülkette, die, leicht gedreht, „das Geheimnis des Lebens“ enthüllt. Was im Jahre 1953 der Öffentlichkeit präsentiert wurde, war das Strukturmodell der Desoxyribonukleinsäure – kurz DNS. Das Riesenmolekül mit seinen vier verschiedenen organischen Basen, den Wasserstoffbrücken und Atombindungen bietet reichlich Stoff zum Büffeln für Gymnasiasten, aber auch Material für weltanschauliche Neudeutungen. Schon die Entdecker bezeichneten das Zusammenspiel von Proteinen, Enzymen und Nukleinsäuren in den Zellen des Organismus als die biochemische Basis des Lebens.

Das Leben des Francis Crick war allerdings alles andere, als ein ordentlich zusammengestecktes DNS-Molekül. Seine Dissertation konnte er wegen einem Job bei der britischen Admiralität (Thema: magnetische und akustische Seeminen) nicht fertig stellen. Im Kollegenkreis galten Crick und Watson als Laborclowns, die viel und laut redeten und immer andere Sachen im Kopf hatten, als Moleküle aus Basen und Säuren. Ihre Arbeiten ließen keinen ausgebildeten Forschergeist erkennen, sondern glänzten mit falschen Darstellungen oder Anfängerfehlern. Das alles hinderte Crick und Watson nicht daran, am Schreibtisch aus Pappstücken und Maschendraht eine spiralförmige Leiter zu bauen. In nur einer Stunde entstand jene nobelpreisgekrönte Doppelspirale, die als wegweisend für die moderne Gentechnik gilt.

Bis zuletzt glaubte Crick an das chemisch codierte Leben. In den letzten Jahren suchte er Geist und Bewusstsein aus der Molekularbiologie abzuleiten. Weit ist er nicht gekommen, doch über eines war er sich ganz sicher: „Die Bilanz der Philosophen ist seit 2000 Jahren so armselig, dass ihnen eine gewisse Bescheidenheit besser anstünde.“ Ein gutes Vermächtnis für moderne Gerhirnforscher, Informatiker und alle anderen künstlichen Intelligenzler.

Sturm im Wasserglas

Der Nanometer …

ist nicht nur eine schlichte Größenangabe (ein Nanometer ist der Millionste Teil eines Millimeters). Das kaum sichtbare Etwas hat in der Welt der Technik dem Mikrometer (Tausendste Teil eines Millimeters) den Rang abgelaufen und erhält von den meinungsbildenden Organen hierzulande den Glorienschein einer Schlüsseltechnologie. Was ist nicht alles Nano: Gen- und Biotechniker untersuchen im Auftrag der pharmazeutischen Industrie mit Spezialmaschinen isolierte Zellverbände nach nanometergroßen Verbindungen, die sich als Ausgangssubstrat für neue Wirkstoffe nutzen lassen. Physiker durchleuchten mit harten Röntgenstrahlen oder im Rasterelektronenmikroskop den Aufbau der Materie auf der Suche nach verwertbaren Strukturen. Halbleiterforscher experimentieren mit Schaltungsstrukturen, deren Größe weit unterhalb 100 Mikrometern liegt und damit den Namen Nanostruktur erhalten. Schon bald sollen Datenspeicher auf den Markt kommen, deren kleinste Speichereinheit (Bit) einen Radius von etwa 30 Nanometern hat und in weniger als einer Nanosekunde geschrieben werden.

Die Wissenschaftlergemeinde hat eine Nano-Welle erfasst, die Pioniergeist fordert und Erwartungen schürt. Allerdings wirken viele Protagonisten aufgescheucht. Denn ihr Metier ist mit Hypotheken belastet, die keiner Basel-II-Prüfung standhalten würden. 200 Millionen Euro will das Bundesforschungsministerium in den nächsten Jahren in vier Leitprojekte der Nanotechnik stecken, 148 Millionen Euro macht die Bundesregierung zusätzlich locker, 850 Millionen Dollar hat der US-Präsident allein in diesem Jahr freigegeben. Dazu kommen noch ein paar Milliarden Euro von Venture-Capital-Firmen, anonyme Geldgeber aus der Industrie und aus interessierten militärischen Kreisen sowie Investments von Anlegern, die auf Nano-Companys setzen. Ein Haufen Geld also, das auf verwertbare Forschungsergebnisse wartet.

Soviel Getöse um Nano (deutsch: Zwerg) hat einen Grund: Die Zwergenwelt beherbergt bis dato ungehobene Goldschätze. „Zweifellos ein Milliardenmarkt“ urteilt der Verband Deutscher Ingenieure. Neugierde und Pathos wissenschaftlicher Forschung sind längst verflogen. Die öffentliche Debatte dreht sich ums Geschäft. Weder Politik noch Wirtschaft will sich diesen Wachstumstreiber entgehen lassen. Experten warnen im Fernsehen und in Zeitungsinterviews vor dem Verlust einer „noch vorhandenen Technologieführerschaft“. Die Europäische Kommission bringt die „Entwicklung einer europäischen Strategie für Nanotechnologie“ auf den Weg, Ministerialbeamte sprechen von der nächsten „industriellen Revolution“ und Professoren blicken mit Wohlgefallen auf einen lebhaften Start-up-Markt, den ihre Doktoranden in Gang gesetzt haben.

Noch bevor die Geschäfte mit Nanopulver und –röhren oder neuen Materialien und Werkstoffen so richtig in Gang kommen, steht der Preis, den die damit befassten Wissenschaftler, Unis und Firmen bezahlen müssen fest: Die Insolvenzrate unter den Start-ups der Branche ist groß, gute Ideen werden als `Nicht Marktfähig` abgestempelt und manches Kompetenzzentrum für Nanotechniken muss bald wegen Auftragsmangel umfirmieren. Die Technik – und mit ihr die Wissenschaftler – blamieren sich wieder einmal am Geschäftsmaßstab. Wo doch Wissen immer noch zum besten Kapital jeder modernen Gesellschaft gehört !