Category Archives: Technik

Algorithmic Trading – Wenn die Computer den Börsenkurs austricksen

3--34513-Computer Code 1

16.04.2013  –  Mehr als 40 Prozent aller Börsentransaktionen in Deutschland laufen über die Computer von Hochfrequenzhändlern – Tendenz steigend. Mit dem automatisierten Wertpapierhandel wächst die Gefahr unerwarteter Kursausschläge und kaum nachvollziehbarer Kursmanipulationen. Strengere Regularien der Handelsplattformen sollen den Missbrauch eindämmen.

Den Tag dürfte Thomas Joyce, Chef der Wall-Street-Firma Knight Capital, so schnell nicht vergessen: Am 1. August diesen Jahres verzeichnete der US-Börsendienstleister innerhalb von 45 Minuten einen Verlust von 440 Millionen US-Dollar. Am Tag zuvor hatten Softwarespezialisten ein neues Handelsprogramm installiert. Die Computersoftware lancierte an der New Yorker Börse automatisch Aktienorder in Milliardenhöhe ohne Kaufpreis und Werthaltigkeit der Papiere zu prüfen.

Es ist nicht das erste Mal, dass Computerprogramme verrückt spielen und das Börsengeschehen beeinflussen. Auf allen wichtigen Handelsplätzen weltweit agieren Wertpapierhändler, die ihre Kauf- und Verkauforders algorithmisch berechnen und möglichst verzögerungsfrei in die Börsensysteme einspeisen. Die Akteure sind Mitarbeiter von Hedgefonds und Investmentbanken wie Goldmann Sachs, Merrill Lynch, UBS oder Deutsche Bank sowie mehrere an den Börsenplätzen akkreditierte Händler kleinerer Häuser.

Während die herkömmliche Computerbörse lediglich passende Kauf- und Verkaufsorder verknüpft und damit den Anweisungen des Parketts folgt, geht es beim algorithmisch berechneten Trading um automatisierte Entscheidungsprozesse. Es gibt keinen Händler mehr, der eingreift.

Und es geht um Geschwindigkeit. Eine auf Schnelligkeit programmierte Software löst im so genannten High Frequency Trading (HFT) 40 000 Kauf- und Verkaufsangebote pro Sekunde aus. Der Rekord solcher sogenannten Quotes liegt derzeit nach Angaben von Joachim Nagel, Vorstandsmitglied der Deutschen Bundesbank, bei 47.138 Orders in einer Sekunde – ein HFT-Computer hat das bei der US-Aktie PSS World Medical im April diesen Jahres geschafft.

Schnelle Netze, schneller Gewinn

Durch das Hochtakten der Handelsplattformen beschleunigt sich das Börsengeschehen um ein Vielfaches. In Bruchteilen von Sekunden analysieren die Computeralgorithmen große Mengen an Daten und initiieren Kauf oder Verkauf eines Assets. Ziel des Algorithmic Trading ist das Aufspüren kleinster Kursdifferenzen, um durch schnelle Orderausführung mit geringen Transaktionskosten Arbitrage-Gewinne zu realisieren.

Nach Auskunft von Nagel hat die HFT-Branche Aufwind, denn es rechnet sich. Beispielsweise sollen über ein neues Atlantikkabel zwischen London und Halifax im kommenden Jahr ausschließlich Finanzdaten und Kursinformationen fließen. Die Transaktionszeit über den 6.000 Kilometer langen Weg beträgt 59 Millisekunden – das sind sechs Millisekunden weniger als über die bisherigen Kontinentleitungen. Trotz immenser Projektkosten von 300 Millionen US-Dollar und deutlich höheren Kabelgebühren beschert die niedrigere Netzlatenz den High-Frequency-Tradern neues Renditepotential: „Laut Schätzungen in der HFT-Branche generiert jede Millisekunde, um die ein großer HFT-Akteur schneller ist als seine Konkurrenz, pro Jahr mehrere Dutzend Millionen US-Dollar zusätzlichen Gewinn“, sagt Nagel auf der diesjährigen TradeTech DACH Konferenz in Frankfurt.

Marktverzerrung durch Millisekunden-Takt

Welche Gefahren für die korrekte Orderabwicklung von Algo-Tradern auf den Handelsplätzen ausgehen, darüber sind sich Fachleute indes nicht einig. Kritik kommt von Aufsichtsbehörden ebenso, wie von Marktbeobachtern, die eine zunehmende Marktverzerrung durch marktschädigende HFT-Strategien befürchten. Börsenanalyst Dirk Müller hält den Hochfrequenzhandel für eine überflüssige Erfindung der Neuzeit, denn „mit dieser Geschwindigkeit kann kein Mensch mithalten.“

Ins selbe Horn stößt auch Vermögensverwalter Georg von Wallwitz. Nach seinen Beobachtungen verdienen nur wenige Großhändler an den Börsenaktivitäten im Hochgeschwindigkeitsnetz: „Das ist Zockerei“, sagt von Wallwitz. Vor allem kritisiert der Geldexperte, dass bei automatisierten Entscheidungen im Millisekundenbereich keinerlei Einzelbewertung fundamentaler Daten der gehandelten Wertpapiere einfließen.

Bundesbanker Joachim Nagel geht davon aus, dass der Geschwindigkeitsvorteil algorithmisch veranlasster Handelsaktivitäten durchaus zu mehr Markteffizienz führen kann, sieht aber ebenso Nachteile: „In sehr volatilen Marktsituationen kann der Hochgeschwindigkeitshandel auch destabilisierend wirken“, warnt Nagel. Einziger Ausweg: Mehr Transparenz und neue Regeln im elektronischen Wertpapierhandel.

Vor allem exzessive Kursschwankungen, wie der so genannte Flash Crash im Mai 2010, entfacht immer neue Kritik am elektronischen Wellenreiten der High-tech-Händler. Damals sackte der Dow Jones innerhalb einer halben Stunde ohne Vorwarnung um 1000 Punkte ab. Finanzmarktexperten beschuldigten daraufhin Computerhändler des Investmentfonds Waddell & Reed Financial, durch sekundenschnelle Verkäufe großer Wertvolumina den Kurssturz mit ausgelöst zu haben.

Mehr Transparenz im ALgo-Trading

Seitdem herrscht Misstrauen bei Börsenaufsicht und Regulierer gegenüber den Renditejägern der HFT-Branche. Hintergrund für marktschädigende Einflüsse ist die sogenannte Quote Stuffing-Taktik, die von einigen HFT-Algorithmen verwendet wird. HFT-Händler versuchen durch eine große Zahl an Ordern, die sofort wieder anulliert werden, Kursbewegungen für ihr Arbitragegeschäft in Gang zu bringen. Die Scheinangebote erhöhen zwar die Marktliquidität spiegeln aber kein reales Handelsvolumen wieder.

Neue Gesetzesinitiativen, die eine stärkere Regulierung der Finanzmärkte ins Auge fassen, betreffen deshalb auch neue Standards für den Hochgeschwindigkeitshandel. So könnte eine längere Mindesthaltefrist für Börsenaufträge bei großvolumigen Quotes das sekundenschnelle Hin- und Herschieben von Wertpapieren unterbinden. Einen Schritt weiter gehen so genannte Circuit-Breaker, die den Handel in einem bestimmten Asset unterbrechen, falls die Kursschwankungen einen bestimmten Wert übersteigen. Mehr Transparenz könnten auch Trader-IDs schaffen, die jeder Marktorder zugeordnet sind und Aufschluß über die Händlerstrategie geben.

Ungeachtet drohender Regulierungen investiert die HFT-Branche weiter in den Elektronikhandel. Tony Verga, CEO des US-Providers HFT Technologies, setzt auf immer kürzere Latenzzeiten: „Wir haben erstmals zwei neue Appplikationen entwickelt, die alle Handelsoperationen unterhalb der Zehn-Millisekunden-Grenze ausführen“, unterstreicht Verga. In Zukunft erwarten HFT-Trader noch weitere Optimierungssprünge in Richtung Picosekunden-Übertragung. Vor allem wenn sie ihre Rechner gleich neben die so genannten Matching Engines in den Rechenzentren der Börsen platzieren dürfen.

Advertisements

Burning Platforms – Wie lassen sich Altsysteme in neue Systemwelten migrieren

Wenn die Betriebskosten für alte Rechnerplattformen aus dem Ruder laufen, steht der Systemwechsel ins Haus. Doch was tun mit den Alt-Anwendungen?

Die Parkbank, die früher mal eine Aludose war, gibt es in der IT-Welt nicht. Jeder IT-Leiter weiß, dass die Rechnersysteme ein Verfallsdatum haben. Doch es gibt Software-Recycling, das alten Programmcode in eine neue Technologieumgebung verpflanzen kann und damit die bewährten Geschäftslogiken einer funktionierenden Organisation auch in Zukunft am Leben erhält.

Wer seine betagten Computer nicht im Griff hat, bekommt Ärger. Klare Anzeichen sind häufig auftauchende Performance-Probleme sowie steigende Instandhaltungs- und Wartungskosten der schwächelnden Plattform. Neue Speichersysteme, eine breitbandige Netzinfrastruktur sowie eine große Anzahl an sehr leistungsfähigen x86-Rechnern verändern die Systemlandschaft in immer kürzeren Zeitabschnitten. Die Schicksalsfrage lautet: Migrieren oder neu entwickeln?

Burning Platforms sind in Großkonzernen und Rechenzentren keine Seltenheit. Betagte Legacy-Systeme gibt es beinahe in jedem Rechenzentrum. „In den Mainframes stecken sehr hohe Investitionen“, weiß Migrationsspezialist Ernst Schierholz, Geschäftsführer der der Hamburger IT Modernisation UG, „deshalb überlegt jeder sehr genau, ob er überhaupt umsteigt.“ Häufig sträuben sich IT-Verantwortliche dagegen, die altgedienten Computerboliden einfach vom Netz zu nehmen und moderne, aber weniger bewährte Rechentechnik einzusetzen. Mancher Administrator schwört im kaufmännischen Umfeld gar auf die alten Cobol-Programme oder Assembler-Code, selbst wenn der Modernisierungsdruck durch Internet, Desktop Computing, Virtualisierung und Cloud-Computing wächst: „Viele Anwendungen laufen auch nach 20 Jahren noch sehr stabil“, betont Schierholz.

Grundsatzfragen begleiten IT-Administratoren ihr Berufsleben lang. Intel-Server und PCs mit Windows oder Modernisierung der alten Unix-Maschinen mit Desktop-Terminals, neue IBM-Rechner oder Blades von Hewlett Packard, eine Java-Plattform mit Cloud-Umgebung oder Client/Server-Architektur mit Apache-Server? Es gibt mehr als 8500 Computersprachen und in jedem größerem Unternehmen existieren meist mehrere Tausend Einzelprogramme, die technisch gesehen eine Mischung aus Standard- und selbstprogrammierten Spezialanwendungen bilden. Eine Neuprogrammierung der gesamten Code-Basis eines Unternehmens würde im Schnitt 20 Mannjahre verschlingen und Kosten von rund einer Million Euro verursachen.

Modernisierungsdruck bei knappen Budgets

Solche Kostenblöcke sind in Zeiten knapper IT-Budgets kein Pappenstiel. Doch beliebig weit von sich schieben kann man Migrationsentscheidungen nicht. Einer aktuellen Experton-Studie zufolge haben knapp 60 Prozent der Unternehmen mit mehr als 100 PC-Arbeitsplätzen eine fünf Jahre alte Version einer Office-Software im Einsatz. Das führt nach Ansicht von Axel Oppermann, Senior Advisor bei der Experton Group, zu „qualitativ schlechten Arbeitsprozessen, langen Durchlaufzyklen und einer geringen Flexibilität.“ Marode IT-Systeme sind der Bremsklotz für Geschäftsabläufe, die im Extremfall sogar die Arbeit der Gesamtorganisation beeinträchtigen.

Was aber tun? Experton empfiehlt eine schonungslose Revision der IT-Infrastruktur sowie eine gründliche Prüfung der vorliegenden Lizenz- und Nutzungsverträge. Aktuell verpassen Unternehmen, die auf Systeme aus den Jahren 2003 bis 2007/2008 setzen, die Innovationssprung neuer Entwicklungen. Dazu rechnet Experton die organische Verankerung wissensbasierte Arbeitsmodelle oder den Einzug moderner Instrumente und Methoden für Kollaboration, Reporting oder Analysen.

Ein anderer Weg heisst Standard-Software. Doch auch in diesem Fall sollten sich Entwickler nicht von den schöngefärbten Nachrichten aus den Marketingabteilungen beeindrucken lassen. Es gibt nämlich Werkzeuge und Spezialisten, die alte Cobol-Anwendungen sicher auf neue Intel-Server und x86-Desktops migrieren. Bekannteste Softwareschmiede hierfür ist Micro Focus. Mit der jetzt veröffentlichten Cobol-Plattform Visual Cobol R3 von Micro Focus lassen sich Cobol-Programme auch auf der Java Virtual Machine (JVM) oder in Microsofts Cloud-Infrastruktur Windows Azure einsetzen. Die Entwicklungswerkzeuge können mit Web-basierten Services ebenso umgehen wie mit Unix und Linux oder dem Microsoft Framework .Net.

Fortschritt mit Bewährtem

Zur Vermeidung von bösen Überraschungen empfiehlt Berater Schierholz, nicht vorbehaltlos den Lockrufen moderner Java-Gurus wie Oracle oder IBM zu folgen. Die Cobol-Anwendungen gehören in vielen Großsystemen keineswegs zum alten Eisen. Etwa 200 Milliarden Zeilen Code, so schätzt Schierholz, gibt es heute noch weltweit und jährlich kommen weitere fünf Milliarden neue Zeilen hinzu. Doch nicht alles, was Programmierer in den letzten 30 Jahren auf die Beine gestellt haben, ist bei Computernutzern und Systemadministratoren auf Gegenliebe gestoßen. Vor allem schufen die Codierprofis im Laufe der Zeit eine heterogene Systemlandschaft, deren Innenleben von Jahr zu Jahr komplexer und unübersichtlicher wird. Kein Wunder, dass längst totgesagte Programmiertechniken munter weiterleben. Ein Ende des Streits um die beste Plattform mit der richtigen Anwendung ist noch längst nicht in Sicht.

ROI – ein Nachweis der dritten Art

Aufwands- und Kostenreduktion, schneller, nachweisbarer ROI, modifikationsfreie Lösung, Verkürzung der Durchlaufzeiten – zusammen ergibt das eine Revolution und zwar in der Eingangsrechnungsverarbeitung. Das behauptet zumindest die Marketingabteilung eines Softwareanbieters. Das Erdbeben mag einen Buchhalter vor dreißig Jahren erschüttern – heute beeindruckt das niemand mehr. Wenn 50 000 Rechnungsseiten pro Jahr teilautomatisiert durch die EDV jagen, bekommt lediglich der Systemadministrator mitunter feuchte Hände und zwar immer dann, wenn Bearbeitungstools fehlerbehaftete Rechnungen durchschleusen oder das Capture-Tool partout Datumsfeld und Adressfeld verwechselt.

Der Return On Investment (ROI) ist eine standhafte Größe und befruchtet viele Verkaufsgespräche auch und gerade in der Welt der Informationstechnik. 40 Prozent Aufwands- und Kostenreduktion steht im Referenzbericht eines Automobilzulieferers. Kennzahlen sind das betriebswirtschaftliche Spielzeug mit denen sich Gewinn und Verlust, Erfolg oder Niederlage, Wachstum oder Stagnation feststellen lässt. Die ROI-Berechnung ist dabei die beliebteste Übung, denn sie drückt grundsätzlich eine Unschärfe aus: Die Maßzahl für den Erfolg einer Investition enthält den prognostizierten Rückfluß des ausgegebenen Kapitals innerhalb einer bestimmten Zeitdauer.

Genau genommen lässt sich der ROI gar nicht im voraus berechnen. Denn der Unternehmer kann seine Nettorendite erst ermitteln nachdem das Geld ausgegeben wurde und er sich damit am Markt durchgesetzt hat. Und schon wieder stoßen wir auf eine eigentümliche Schwäche der Kennzifferntüftelei: Die Rendite berechnet sich aus dem Umschlag des gesamten im Unternehmen gebundenen Kapitals. Schließlich verdient der Automobilzulieferer sein Geld nicht mit digitalisierten Geschäftsprozessen sondern mit Bremszylindern oder Einspritzpumpen.

Es gibt folglich verschiedene Methoden zur Berechnung des ROI. Je nachdem wie weit man die Zeitachse spannt und den Break Even finanzmathematisch ansetzt, ergeben sich ganz unterschiedliche Kennziffern. Während die klassische Rechnungsweise die gesamte Nutzungsdauer einer Anschaffung betrachtet und den Planungshorizont entsprechend langfristig ansetzt, gehen IT-Buchhalter von wesentlich kürzeren Verfallszeiten der Hard- und Software aus. Brummen die Geschäfte, vermag eine moderne, gut gewartete IT-Infrastruktur den Weg zu mehr Umsatz zu ebnen – an den Schalthebeln sitzen aber immer noch die Mitarbeiter, die entscheiden welches Kundenbedürfnis wie befriedigt wird.

Beim Personal allerdings wirken die Kennziffern verheerend. Wenn Gehaltskosten gegen Technikkosten aufgerechnet werden, steht der Angestellte allemal im Regen. Als Kostenfaktor muss er sich messen lassen an IT-Systemen, die tatsächlich vieles schneller und effizienter erledigen. Welche Kosten rentieren sich denn nun – der Posteingangsscanner samt damit verbundener EDV und vernetzter Datenbanken oder das Sekretariat mit den krankheitsanfälligen Mitarbeitern. Zur Beantwortung dieser Frage ziehen viele Unternehmen ganz gern den ROI zu Rate.

Die Zellingenieure formieren sich

Das Herstellen von biologischem Gewebe oder Knochen ist keine leichte Aufgabe. Doch die Nachfrage nach Tissued-Engineering-Produkte steigt. Gefragt sind neue Bioreaktoren und Fertigungsequipment.

Weltweit laufen die Aktivitäten rund um die Stammzellenforschung und die In-vitro-Zellvermehrung auf Hochtouren: „Der schnelle Transfer von wissenschaftlichen Ergebnissen in die industrielle Entwicklung und kommerzielle Umsetzung ist entscheidend für neue Therapien und den medizinischen Erfolg“, konstatiert Scott P. Bruder, Senior Vice President and Chief Technology Officer bei dem US-Unternehmen Becton Dickinson & Co auf einem Symposium der US-National Science Foundation. Zwar steckt die Bioproduktion von Zellen, Haut, Knochen oder ganzer Organe noch in den Kinderschuhen, aber der Ruf nach leistungsfähigen Werkzeugen und automatischen Verfahren ist lauter denn je: „Sowohl beim Life-Science-Monitoring von lebenden Präparaten als auch beim Proben-Scanning gibt es einen deutlichen Schub in Richtung Prozessautomatisierung“, betont Abteilungsleiter Jan Stallkamp vom Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA.

Hoher Erwartungsdruck

Der Erwartungsdruck bei Ersatz von erkranktem Gewebe und der Unterstützung gestörter Organfunktionen ist hoch. Rund 230 Millionen Euro hat das Bundesministerium für Bildung und Forschung (BMBF) und die Deutsche Forschungsgemeinschaft (DFG) in den letzten Jahren in die Forschung gesteckt, darunter 38 Millionen Euro in das Tissue Engineering. 15 Millionen Euro flossen in industrielle Verbundprojekte mit dem Ziel, Produkte und Therapieverfahren auf dem Feld der Regenerationstechnologien voranzutreiben und Defizite bei ihrer Herstellung zu beseitigen.
Neue Bioreaktoren und bessere Fertigungstechnik ist gefragter denn je, denn es gibt keine wirtschaftlichen Standardverfahren für den Umgang mit Zellkulturen und ihrer Vermehrung im Labor. Tissue Engineering fertigt aus körpereigenen Zellen ein lebens- und funktionsfähiges Implantat, das zerstörtes Gewebe oder Knochenteile ersetzt und im Körper mitwächst. Trägermaterial und Zellen benötigen dabei optimale In-vitro-Bedingungen, um zu verwendbarer Haut, Gelenkknorpel oder Knochenersatz heranzuwachsen. Meist sind es Forschungsinstitute oder Großkliniken, die in ihren Labors erste Produktionskapazitäten aufgebaut haben. Im Biopolis-Labor des Stuttgarter Fraunhofer-Instituts IPA beispielsweise steht auch eine Gewebefabrik, die vollautomatisch dreidimensionales Hautgewebe konstruiert und züchtet. Das Institut will in diesem Jahr die Produktion soweit hochfahren, dass monatlich rund 5000 Hautkonstrukte zu einem Preis von rund 34 Euro pro Stück gefertigt werden können.

Herzklappen aus Nabelschnurzellen

Schwieriger ist es, Gewebe mit Blutgefässen zu züchten oder lebensfähige Organe. Am Deutschen Herzzentrum in Berlin haben Wissenschaftler eine Methode entwickelt, um in einem Bioreaktor aus Nabelschnurzellen von Neugeborenen Zellverbände für biologische Herzklappen zu gewinnen. Durch das Drehen der Besiedelungseinheit in verschiedene Richtungen ist es möglich, die Zellen gleichmäßig auf ein Trägermaterial aufzubringen und das Wachstum positiv zu beeinflussen. Dabei kommt es darauf an, dass so genannte Matrixproteine entstehen, die sich fortpflanzen und zum Ausgangsprodukt für wachstumsfähige Herzklappen werden.
Herstellungslizenzen für die Produktion von Reperaturzellen für erkrankte Körperteile gibt es im EU-Raum erst wenige. Die in Michigan ansässige US-Company Aastrom Biosciences erhielt für ihr Knochenregenerationsprogramm über eine hundertprozentige Tochtergesellschaft in Berlin eine Lizenz für die unternehmenseigenen Tissue Repair Cells (TRCs). Die Produktionsanlage wurde in Zusammenarbeit mit dem Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB in Stuttgart realisiert. Das Fraunhofer IGB verfügt über Labore zur Herstellung von autologen Transplantaten, die den Richtlinien des Good Manufacturing Practice (GMP) entsprechen. Ein Pluspunkt, der eng mit dem Erfolg von biologischen Produktionsstätten verknüpft ist: „Ohne Prozess-Validierung und -Monitoring mit qualifizierten Geräten unter Einhaltung europäischer Richtlinien gibt es keine Garantie für die Qualität und Sicherheit der Produkte“, sagt Professor Heike Walles, Abteillungsleiterin für Zellsysteme am Fraunhofer-Institut IGB. Das Suttgarter Institut hat bereits die Herstellungserlaubnis für ein autologes Knorpel- sowie für ein autologes Stammzelltransplantat.

Hohe Kontaminationsgefahr bei Zellproduktion

In Teltow residiert die Aktiengesellschaft Co.don die ihr Pharmaziegeschäft mit zellbasierten Medikamenten um Tissue Engineering-Produkte für Gelenkknorpelimplantate und Bandscheiben erweiterte. Vor allem investierte die Company in eine selbstentwickelte Isolatorentechnologie, die das Kontaminationsrisiko von zellbasierten Implantaten im Reinraum entschärft. Da körpereigene Zelltransplantate wärmeempfindlich sind, lassen sich keine Sterilisationsverfahren zur Abwehr von Verunreinigungs-  und Kontaminationsgefahren einsetzen. Co.don verlegt deshalb die komplette Ausrüstung  für die Transplantatherstellung und Qualitätskontrolle in einen eigenen Isolator innerhalb des Reinraums.
Zusammen mit Partnerunternehmen will der Laborausrüster Köttermann in Niedersachsen ein Musterlabor zur Herstellung von bioartifiziellem Gewebe entwickeln, dass sich für die wirtschaftliche Produktion von Herzklappen oder Knochengewebe eignet. Das Biotechnik-Labor ist speziell auf die Aufgaben des Tissue Engineering zugeschnitten und setzt auf neu angepasste Bioreaktoren sowie eine GMP-zertifizierte Produktion von Geweben.

Sturm im Wasserglas

Der Nanometer …

ist nicht nur eine schlichte Größenangabe (ein Nanometer ist der Millionste Teil eines Millimeters). Das kaum sichtbare Etwas hat in der Welt der Technik dem Mikrometer (Tausendste Teil eines Millimeters) den Rang abgelaufen und erhält von den meinungsbildenden Organen hierzulande den Glorienschein einer Schlüsseltechnologie. Was ist nicht alles Nano: Gen- und Biotechniker untersuchen im Auftrag der pharmazeutischen Industrie mit Spezialmaschinen isolierte Zellverbände nach nanometergroßen Verbindungen, die sich als Ausgangssubstrat für neue Wirkstoffe nutzen lassen. Physiker durchleuchten mit harten Röntgenstrahlen oder im Rasterelektronenmikroskop den Aufbau der Materie auf der Suche nach verwertbaren Strukturen. Halbleiterforscher experimentieren mit Schaltungsstrukturen, deren Größe weit unterhalb 100 Mikrometern liegt und damit den Namen Nanostruktur erhalten. Schon bald sollen Datenspeicher auf den Markt kommen, deren kleinste Speichereinheit (Bit) einen Radius von etwa 30 Nanometern hat und in weniger als einer Nanosekunde geschrieben werden.

Die Wissenschaftlergemeinde hat eine Nano-Welle erfasst, die Pioniergeist fordert und Erwartungen schürt. Allerdings wirken viele Protagonisten aufgescheucht. Denn ihr Metier ist mit Hypotheken belastet, die keiner Basel-II-Prüfung standhalten würden. 200 Millionen Euro will das Bundesforschungsministerium in den nächsten Jahren in vier Leitprojekte der Nanotechnik stecken, 148 Millionen Euro macht die Bundesregierung zusätzlich locker, 850 Millionen Dollar hat der US-Präsident allein in diesem Jahr freigegeben. Dazu kommen noch ein paar Milliarden Euro von Venture-Capital-Firmen, anonyme Geldgeber aus der Industrie und aus interessierten militärischen Kreisen sowie Investments von Anlegern, die auf Nano-Companys setzen. Ein Haufen Geld also, das auf verwertbare Forschungsergebnisse wartet.

Soviel Getöse um Nano (deutsch: Zwerg) hat einen Grund: Die Zwergenwelt beherbergt bis dato ungehobene Goldschätze. „Zweifellos ein Milliardenmarkt“ urteilt der Verband Deutscher Ingenieure. Neugierde und Pathos wissenschaftlicher Forschung sind längst verflogen. Die öffentliche Debatte dreht sich ums Geschäft. Weder Politik noch Wirtschaft will sich diesen Wachstumstreiber entgehen lassen. Experten warnen im Fernsehen und in Zeitungsinterviews vor dem Verlust einer „noch vorhandenen Technologieführerschaft“. Die Europäische Kommission bringt die „Entwicklung einer europäischen Strategie für Nanotechnologie“ auf den Weg, Ministerialbeamte sprechen von der nächsten „industriellen Revolution“ und Professoren blicken mit Wohlgefallen auf einen lebhaften Start-up-Markt, den ihre Doktoranden in Gang gesetzt haben.

Noch bevor die Geschäfte mit Nanopulver und –röhren oder neuen Materialien und Werkstoffen so richtig in Gang kommen, steht der Preis, den die damit befassten Wissenschaftler, Unis und Firmen bezahlen müssen fest: Die Insolvenzrate unter den Start-ups der Branche ist groß, gute Ideen werden als `Nicht Marktfähig` abgestempelt und manches Kompetenzzentrum für Nanotechniken muss bald wegen Auftragsmangel umfirmieren. Die Technik – und mit ihr die Wissenschaftler – blamieren sich wieder einmal am Geschäftsmaßstab. Wo doch Wissen immer noch zum besten Kapital jeder modernen Gesellschaft gehört !