Kategorie-Archiv: Technik

Algorithmic Trading – Wenn die Computer den Börsenkurs austricksen

3--34513-Computer Code 1

16.04.2013  –  Mehr als 40 Prozent aller Börsentransaktionen in Deutschland laufen über die Computer von Hochfrequenzhändlern – Tendenz steigend. Mit dem automatisierten Wertpapierhandel wächst die Gefahr unerwarteter Kursausschläge und kaum nachvollziehbarer Kursmanipulationen. Strengere Regularien der Handelsplattformen sollen den Missbrauch eindämmen.

Den Tag dürfte Thomas Joyce, Chef der Wall-Street-Firma Knight Capital, so schnell nicht vergessen: Am 1. August diesen Jahres verzeichnete der US-Börsendienstleister innerhalb von 45 Minuten einen Verlust von 440 Millionen US-Dollar. Am Tag zuvor hatten Softwarespezialisten ein neues Handelsprogramm installiert. Die Computersoftware lancierte an der New Yorker Börse automatisch Aktienorder in Milliardenhöhe ohne Kaufpreis und Werthaltigkeit der Papiere zu prüfen.

Es ist nicht das erste Mal, dass Computerprogramme verrückt spielen und das Börsengeschehen beeinflussen. Auf allen wichtigen Handelsplätzen weltweit agieren Wertpapierhändler, die ihre Kauf- und Verkauforders algorithmisch berechnen und möglichst verzögerungsfrei in die Börsensysteme einspeisen. Die Akteure sind Mitarbeiter von Hedgefonds und Investmentbanken wie Goldmann Sachs, Merrill Lynch, UBS oder Deutsche Bank sowie mehrere an den Börsenplätzen akkreditierte Händler kleinerer Häuser.

Während die herkömmliche Computerbörse lediglich passende Kauf- und Verkaufsorder verknüpft und damit den Anweisungen des Parketts folgt, geht es beim algorithmisch berechneten Trading um automatisierte Entscheidungsprozesse. Es gibt keinen Händler mehr, der eingreift.

Und es geht um Geschwindigkeit. Eine auf Schnelligkeit programmierte Software löst im so genannten High Frequency Trading (HFT) 40 000 Kauf- und Verkaufsangebote pro Sekunde aus. Der Rekord solcher sogenannten Quotes liegt derzeit nach Angaben von Joachim Nagel, Vorstandsmitglied der Deutschen Bundesbank, bei 47.138 Orders in einer Sekunde – ein HFT-Computer hat das bei der US-Aktie PSS World Medical im April diesen Jahres geschafft.

Schnelle Netze, schneller Gewinn

Durch das Hochtakten der Handelsplattformen beschleunigt sich das Börsengeschehen um ein Vielfaches. In Bruchteilen von Sekunden analysieren die Computeralgorithmen große Mengen an Daten und initiieren Kauf oder Verkauf eines Assets. Ziel des Algorithmic Trading ist das Aufspüren kleinster Kursdifferenzen, um durch schnelle Orderausführung mit geringen Transaktionskosten Arbitrage-Gewinne zu realisieren.

Nach Auskunft von Nagel hat die HFT-Branche Aufwind, denn es rechnet sich. Beispielsweise sollen über ein neues Atlantikkabel zwischen London und Halifax im kommenden Jahr ausschließlich Finanzdaten und Kursinformationen fließen. Die Transaktionszeit über den 6.000 Kilometer langen Weg beträgt 59 Millisekunden – das sind sechs Millisekunden weniger als über die bisherigen Kontinentleitungen. Trotz immenser Projektkosten von 300 Millionen US-Dollar und deutlich höheren Kabelgebühren beschert die niedrigere Netzlatenz den High-Frequency-Tradern neues Renditepotential: „Laut Schätzungen in der HFT-Branche generiert jede Millisekunde, um die ein großer HFT-Akteur schneller ist als seine Konkurrenz, pro Jahr mehrere Dutzend Millionen US-Dollar zusätzlichen Gewinn“, sagt Nagel auf der diesjährigen TradeTech DACH Konferenz in Frankfurt.

Marktverzerrung durch Millisekunden-Takt

Welche Gefahren für die korrekte Orderabwicklung von Algo-Tradern auf den Handelsplätzen ausgehen, darüber sind sich Fachleute indes nicht einig. Kritik kommt von Aufsichtsbehörden ebenso, wie von Marktbeobachtern, die eine zunehmende Marktverzerrung durch marktschädigende HFT-Strategien befürchten. Börsenanalyst Dirk Müller hält den Hochfrequenzhandel für eine überflüssige Erfindung der Neuzeit, denn „mit dieser Geschwindigkeit kann kein Mensch mithalten.“

Ins selbe Horn stößt auch Vermögensverwalter Georg von Wallwitz. Nach seinen Beobachtungen verdienen nur wenige Großhändler an den Börsenaktivitäten im Hochgeschwindigkeitsnetz: „Das ist Zockerei“, sagt von Wallwitz. Vor allem kritisiert der Geldexperte, dass bei automatisierten Entscheidungen im Millisekundenbereich keinerlei Einzelbewertung fundamentaler Daten der gehandelten Wertpapiere einfließen.

Bundesbanker Joachim Nagel geht davon aus, dass der Geschwindigkeitsvorteil algorithmisch veranlasster Handelsaktivitäten durchaus zu mehr Markteffizienz führen kann, sieht aber ebenso Nachteile: „In sehr volatilen Marktsituationen kann der Hochgeschwindigkeitshandel auch destabilisierend wirken“, warnt Nagel. Einziger Ausweg: Mehr Transparenz und neue Regeln im elektronischen Wertpapierhandel.

Vor allem exzessive Kursschwankungen, wie der so genannte Flash Crash im Mai 2010, entfacht immer neue Kritik am elektronischen Wellenreiten der High-tech-Händler. Damals sackte der Dow Jones innerhalb einer halben Stunde ohne Vorwarnung um 1000 Punkte ab. Finanzmarktexperten beschuldigten daraufhin Computerhändler des Investmentfonds Waddell & Reed Financial, durch sekundenschnelle Verkäufe großer Wertvolumina den Kurssturz mit ausgelöst zu haben.

Mehr Transparenz im ALgo-Trading

Seitdem herrscht Misstrauen bei Börsenaufsicht und Regulierer gegenüber den Renditejägern der HFT-Branche. Hintergrund für marktschädigende Einflüsse ist die sogenannte Quote Stuffing-Taktik, die von einigen HFT-Algorithmen verwendet wird. HFT-Händler versuchen durch eine große Zahl an Ordern, die sofort wieder anulliert werden, Kursbewegungen für ihr Arbitragegeschäft in Gang zu bringen. Die Scheinangebote erhöhen zwar die Marktliquidität spiegeln aber kein reales Handelsvolumen wieder.

Neue Gesetzesinitiativen, die eine stärkere Regulierung der Finanzmärkte ins Auge fassen, betreffen deshalb auch neue Standards für den Hochgeschwindigkeitshandel. So könnte eine längere Mindesthaltefrist für Börsenaufträge bei großvolumigen Quotes das sekundenschnelle Hin- und Herschieben von Wertpapieren unterbinden. Einen Schritt weiter gehen so genannte Circuit-Breaker, die den Handel in einem bestimmten Asset unterbrechen, falls die Kursschwankungen einen bestimmten Wert übersteigen. Mehr Transparenz könnten auch Trader-IDs schaffen, die jeder Marktorder zugeordnet sind und Aufschluß über die Händlerstrategie geben.

Ungeachtet drohender Regulierungen investiert die HFT-Branche weiter in den Elektronikhandel. Tony Verga, CEO des US-Providers HFT Technologies, setzt auf immer kürzere Latenzzeiten: „Wir haben erstmals zwei neue Appplikationen entwickelt, die alle Handelsoperationen unterhalb der Zehn-Millisekunden-Grenze ausführen“, unterstreicht Verga. In Zukunft erwarten HFT-Trader noch weitere Optimierungssprünge in Richtung Picosekunden-Übertragung. Vor allem wenn sie ihre Rechner gleich neben die so genannten Matching Engines in den Rechenzentren der Börsen platzieren dürfen.

Advertisements

Burning Platforms – Wie lassen sich Altsysteme in neue Systemwelten migrieren

Wenn die Betriebskosten für alte Rechnerplattformen aus dem Ruder laufen, steht der Systemwechsel ins Haus. Doch was tun mit den Alt-Anwendungen?

Die Parkbank, die früher mal eine Aludose war, gibt es in der IT-Welt nicht. Jeder IT-Leiter weiß, dass die Rechnersysteme ein Verfallsdatum haben. Doch es gibt Software-Recycling, das alten Programmcode in eine neue Technologieumgebung verpflanzen kann und damit die bewährten Geschäftslogiken einer funktionierenden Organisation auch in Zukunft am Leben erhält.

Wer seine betagten Computer nicht im Griff hat, bekommt Ärger. Klare Anzeichen sind häufig auftauchende Performance-Probleme sowie steigende Instandhaltungs- und Wartungskosten der schwächelnden Plattform. Neue Speichersysteme, eine breitbandige Netzinfrastruktur sowie eine große Anzahl an sehr leistungsfähigen x86-Rechnern verändern die Systemlandschaft in immer kürzeren Zeitabschnitten. Die Schicksalsfrage lautet: Migrieren oder neu entwickeln?

Burning Platforms sind in Großkonzernen und Rechenzentren keine Seltenheit. Betagte Legacy-Systeme gibt es beinahe in jedem Rechenzentrum. „In den Mainframes stecken sehr hohe Investitionen“, weiß Migrationsspezialist Ernst Schierholz, Geschäftsführer der der Hamburger IT Modernisation UG, „deshalb überlegt jeder sehr genau, ob er überhaupt umsteigt.“ Häufig sträuben sich IT-Verantwortliche dagegen, die altgedienten Computerboliden einfach vom Netz zu nehmen und moderne, aber weniger bewährte Rechentechnik einzusetzen. Mancher Administrator schwört im kaufmännischen Umfeld gar auf die alten Cobol-Programme oder Assembler-Code, selbst wenn der Modernisierungsdruck durch Internet, Desktop Computing, Virtualisierung und Cloud-Computing wächst: „Viele Anwendungen laufen auch nach 20 Jahren noch sehr stabil“, betont Schierholz.

Grundsatzfragen begleiten IT-Administratoren ihr Berufsleben lang. Intel-Server und PCs mit Windows oder Modernisierung der alten Unix-Maschinen mit Desktop-Terminals, neue IBM-Rechner oder Blades von Hewlett Packard, eine Java-Plattform mit Cloud-Umgebung oder Client/Server-Architektur mit Apache-Server? Es gibt mehr als 8500 Computersprachen und in jedem größerem Unternehmen existieren meist mehrere Tausend Einzelprogramme, die technisch gesehen eine Mischung aus Standard- und selbstprogrammierten Spezialanwendungen bilden. Eine Neuprogrammierung der gesamten Code-Basis eines Unternehmens würde im Schnitt 20 Mannjahre verschlingen und Kosten von rund einer Million Euro verursachen.

Modernisierungsdruck bei knappen Budgets

Solche Kostenblöcke sind in Zeiten knapper IT-Budgets kein Pappenstiel. Doch beliebig weit von sich schieben kann man Migrationsentscheidungen nicht. Einer aktuellen Experton-Studie zufolge haben knapp 60 Prozent der Unternehmen mit mehr als 100 PC-Arbeitsplätzen eine fünf Jahre alte Version einer Office-Software im Einsatz. Das führt nach Ansicht von Axel Oppermann, Senior Advisor bei der Experton Group, zu „qualitativ schlechten Arbeitsprozessen, langen Durchlaufzyklen und einer geringen Flexibilität.“ Marode IT-Systeme sind der Bremsklotz für Geschäftsabläufe, die im Extremfall sogar die Arbeit der Gesamtorganisation beeinträchtigen.

Was aber tun? Experton empfiehlt eine schonungslose Revision der IT-Infrastruktur sowie eine gründliche Prüfung der vorliegenden Lizenz- und Nutzungsverträge. Aktuell verpassen Unternehmen, die auf Systeme aus den Jahren 2003 bis 2007/2008 setzen, die Innovationssprung neuer Entwicklungen. Dazu rechnet Experton die organische Verankerung wissensbasierte Arbeitsmodelle oder den Einzug moderner Instrumente und Methoden für Kollaboration, Reporting oder Analysen.

Ein anderer Weg heisst Standard-Software. Doch auch in diesem Fall sollten sich Entwickler nicht von den schöngefärbten Nachrichten aus den Marketingabteilungen beeindrucken lassen. Es gibt nämlich Werkzeuge und Spezialisten, die alte Cobol-Anwendungen sicher auf neue Intel-Server und x86-Desktops migrieren. Bekannteste Softwareschmiede hierfür ist Micro Focus. Mit der jetzt veröffentlichten Cobol-Plattform Visual Cobol R3 von Micro Focus lassen sich Cobol-Programme auch auf der Java Virtual Machine (JVM) oder in Microsofts Cloud-Infrastruktur Windows Azure einsetzen. Die Entwicklungswerkzeuge können mit Web-basierten Services ebenso umgehen wie mit Unix und Linux oder dem Microsoft Framework .Net.

Fortschritt mit Bewährtem

Zur Vermeidung von bösen Überraschungen empfiehlt Berater Schierholz, nicht vorbehaltlos den Lockrufen moderner Java-Gurus wie Oracle oder IBM zu folgen. Die Cobol-Anwendungen gehören in vielen Großsystemen keineswegs zum alten Eisen. Etwa 200 Milliarden Zeilen Code, so schätzt Schierholz, gibt es heute noch weltweit und jährlich kommen weitere fünf Milliarden neue Zeilen hinzu. Doch nicht alles, was Programmierer in den letzten 30 Jahren auf die Beine gestellt haben, ist bei Computernutzern und Systemadministratoren auf Gegenliebe gestoßen. Vor allem schufen die Codierprofis im Laufe der Zeit eine heterogene Systemlandschaft, deren Innenleben von Jahr zu Jahr komplexer und unübersichtlicher wird. Kein Wunder, dass längst totgesagte Programmiertechniken munter weiterleben. Ein Ende des Streits um die beste Plattform mit der richtigen Anwendung ist noch längst nicht in Sicht.

Die Zellingenieure formieren sich

Das Herstellen von biologischem Gewebe oder Knochen ist keine leichte Aufgabe. Doch die Nachfrage nach Tissued-Engineering-Produkte steigt. Gefragt sind neue Bioreaktoren und Fertigungsequipment.

Weltweit laufen die Aktivitäten rund um die Stammzellenforschung und die In-vitro-Zellvermehrung auf Hochtouren: „Der schnelle Transfer von wissenschaftlichen Ergebnissen in die industrielle Entwicklung und kommerzielle Umsetzung ist entscheidend für neue Therapien und den medizinischen Erfolg“, konstatiert Scott P. Bruder, Senior Vice President and Chief Technology Officer bei dem US-Unternehmen Becton Dickinson & Co auf einem Symposium der US-National Science Foundation. Zwar steckt die Bioproduktion von Zellen, Haut, Knochen oder ganzer Organe noch in den Kinderschuhen, aber der Ruf nach leistungsfähigen Werkzeugen und automatischen Verfahren ist lauter denn je: „Sowohl beim Life-Science-Monitoring von lebenden Präparaten als auch beim Proben-Scanning gibt es einen deutlichen Schub in Richtung Prozessautomatisierung“, betont Abteilungsleiter Jan Stallkamp vom Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA.

Hoher Erwartungsdruck

Der Erwartungsdruck bei Ersatz von erkranktem Gewebe und der Unterstützung gestörter Organfunktionen ist hoch. Rund 230 Millionen Euro hat das Bundesministerium für Bildung und Forschung (BMBF) und die Deutsche Forschungsgemeinschaft (DFG) in den letzten Jahren in die Forschung gesteckt, darunter 38 Millionen Euro in das Tissue Engineering. 15 Millionen Euro flossen in industrielle Verbundprojekte mit dem Ziel, Produkte und Therapieverfahren auf dem Feld der Regenerationstechnologien voranzutreiben und Defizite bei ihrer Herstellung zu beseitigen.
Neue Bioreaktoren und bessere Fertigungstechnik ist gefragter denn je, denn es gibt keine wirtschaftlichen Standardverfahren für den Umgang mit Zellkulturen und ihrer Vermehrung im Labor. Tissue Engineering fertigt aus körpereigenen Zellen ein lebens- und funktionsfähiges Implantat, das zerstörtes Gewebe oder Knochenteile ersetzt und im Körper mitwächst. Trägermaterial und Zellen benötigen dabei optimale In-vitro-Bedingungen, um zu verwendbarer Haut, Gelenkknorpel oder Knochenersatz heranzuwachsen. Meist sind es Forschungsinstitute oder Großkliniken, die in ihren Labors erste Produktionskapazitäten aufgebaut haben. Im Biopolis-Labor des Stuttgarter Fraunhofer-Instituts IPA beispielsweise steht auch eine Gewebefabrik, die vollautomatisch dreidimensionales Hautgewebe konstruiert und züchtet. Das Institut will in diesem Jahr die Produktion soweit hochfahren, dass monatlich rund 5000 Hautkonstrukte zu einem Preis von rund 34 Euro pro Stück gefertigt werden können.

Herzklappen aus Nabelschnurzellen

Schwieriger ist es, Gewebe mit Blutgefässen zu züchten oder lebensfähige Organe. Am Deutschen Herzzentrum in Berlin haben Wissenschaftler eine Methode entwickelt, um in einem Bioreaktor aus Nabelschnurzellen von Neugeborenen Zellverbände für biologische Herzklappen zu gewinnen. Durch das Drehen der Besiedelungseinheit in verschiedene Richtungen ist es möglich, die Zellen gleichmäßig auf ein Trägermaterial aufzubringen und das Wachstum positiv zu beeinflussen. Dabei kommt es darauf an, dass so genannte Matrixproteine entstehen, die sich fortpflanzen und zum Ausgangsprodukt für wachstumsfähige Herzklappen werden.
Herstellungslizenzen für die Produktion von Reperaturzellen für erkrankte Körperteile gibt es im EU-Raum erst wenige. Die in Michigan ansässige US-Company Aastrom Biosciences erhielt für ihr Knochenregenerationsprogramm über eine hundertprozentige Tochtergesellschaft in Berlin eine Lizenz für die unternehmenseigenen Tissue Repair Cells (TRCs). Die Produktionsanlage wurde in Zusammenarbeit mit dem Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB in Stuttgart realisiert. Das Fraunhofer IGB verfügt über Labore zur Herstellung von autologen Transplantaten, die den Richtlinien des Good Manufacturing Practice (GMP) entsprechen. Ein Pluspunkt, der eng mit dem Erfolg von biologischen Produktionsstätten verknüpft ist: „Ohne Prozess-Validierung und -Monitoring mit qualifizierten Geräten unter Einhaltung europäischer Richtlinien gibt es keine Garantie für die Qualität und Sicherheit der Produkte“, sagt Professor Heike Walles, Abteillungsleiterin für Zellsysteme am Fraunhofer-Institut IGB. Das Suttgarter Institut hat bereits die Herstellungserlaubnis für ein autologes Knorpel- sowie für ein autologes Stammzelltransplantat.

Hohe Kontaminationsgefahr bei Zellproduktion

In Teltow residiert die Aktiengesellschaft Co.don die ihr Pharmaziegeschäft mit zellbasierten Medikamenten um Tissue Engineering-Produkte für Gelenkknorpelimplantate und Bandscheiben erweiterte. Vor allem investierte die Company in eine selbstentwickelte Isolatorentechnologie, die das Kontaminationsrisiko von zellbasierten Implantaten im Reinraum entschärft. Da körpereigene Zelltransplantate wärmeempfindlich sind, lassen sich keine Sterilisationsverfahren zur Abwehr von Verunreinigungs-  und Kontaminationsgefahren einsetzen. Co.don verlegt deshalb die komplette Ausrüstung  für die Transplantatherstellung und Qualitätskontrolle in einen eigenen Isolator innerhalb des Reinraums.
Zusammen mit Partnerunternehmen will der Laborausrüster Köttermann in Niedersachsen ein Musterlabor zur Herstellung von bioartifiziellem Gewebe entwickeln, dass sich für die wirtschaftliche Produktion von Herzklappen oder Knochengewebe eignet. Das Biotechnik-Labor ist speziell auf die Aufgaben des Tissue Engineering zugeschnitten und setzt auf neu angepasste Bioreaktoren sowie eine GMP-zertifizierte Produktion von Geweben.