Interview mit der Autorin von SIE WISSEN ALLES


Die Magier der Zukunft

Seit langem gilt die Physik als „schmutzige Wissenschaft“, weil sie die Waffen des Atomzeitalters ermöglicht hat. In der digitalen Revolution hingegen regiert die Mathematik - unauffälliger, aber auch wirklich sauberer? Mit Big Data scheint die Mathematik, die einst als reinste unter den Wissenschaften galt, ihre Unschuld zu verlieren.

Gibt es überhaupt Programme, die die heutigen Datenmengen verarbeiten können?

 

Seit Jahrzehnten werden massenweise Daten ausgewertet, vornehmlich durch Behörden. Historisch betrachtet, begann die Auswertung von Massendaten mit dem ersten Weltkrieg, der erstmals auf die Kommunikation über Funk beziehungsweise Telefon setzte. Mehrere tausend Telefonate täglich waren an der Front keine Seltenheit. Die Wurzeln der Datenfusion, wie wir sie nennen, liegt also beim Militär – beim Mithören, Entschlüsseln und Auswerten von Botschaften, um einen Lageüberblick zu erhalten. Die Entwicklung bis heute ist also sehr organisch. Allerdings standen uns noch nie so viele Daten zur Verfügung wie heute. Und auch der Übergriff auf Privatpersonen ist neu.

 

Warum ist die massenhafte Auswertung von Daten gerade heute ein vieldiskutiertes Thema?

 

Natürlich hat die technische Entwicklung des letzten Jahrzehnts die moderne Datenfusion enorm vereinfacht. Dazu gehört die Miniaturisierung von Speichermedien genauso wie die preiswerte Verfügbarkeit massiv paralleler Supercomputer. Maschinen dieser Größenordnung und Kapazität standen bis zur Jahrtausendwende nur dem wissenschaftlichen Rechnen zur Verfügung – also in den Rechenzentren staatlicher oder halbstaatlicher Forschungsinstitute. Gehen Sie davon aus: Je mehr Daten zur Verfügung stehen, desto besser der Lageüberblick, den eine Maschine berechnen kann. So können sich die Einrichtungen, die sowohl über unsere Daten als auch über Schlüsseltechnologien verfügen, ein so genaues Bild über jeden einzelnen von uns machen, wie das nie zuvor der Fall war.

 

Und wie genau machen sie sich ein Bild von uns?

 

Bis heute gibt jeder von uns persönliche Daten freiwillig weg – etwa bei der Kommunikation über soziale Netzwerke. Hinzukommen unsere Emails, unsere Onlineeinkäufe, unsere Onlinesuchen. Auch Dritte reden über uns im Netz und schaffen uns so eine – ungewollte, unkontrollierte – Online-Identität. In jüngster Zeit werden durch Sensoren auch nicht-kooperativ Daten erhoben. Mit der Datenfusion werden diese teils sehr heterogenen Daten zu einem aussagekräftigen Lagebild zusammengesetzt. Um aus Daten relevante Information zu generieren, gehen wir dreistufig vor: Erstens, möglichst viele Daten sammeln; zweitens, algorithmisch ein Lagebild erstellen; und drittens, auf Basis des Lagebilds eine Kontrollstrategie berechnen, wie man eben jene Lage zu seinen Gunsten beeinflussen kann. Implementiert wird die Datenfusion mit Technologien der künstlichen Intelligenz: mit lernenden Maschinen oder schwarmähnlichen „Cliquen“ aus Softwareagenten, den Multi-Agenten.

 

Heißt das, die Kontrollstrategie manipuliert die Realität?

 

Ja, das ist der Zweck der Kontrollstrategie. Der englische Ausdruck hierfür ist Control Strategy. Die deutsche Übersetzung ist irreführend, denn eigentlich geht es nicht um Kontrolle, sondern um Steuerung. Eine Lebenswirklichkeit soll gesteuert werden, und zwar möglichst „optimal“. Was „optimal“ ist, das bestimmt der Data Scientist, etwa der Mathematiker, der die Lebenswirklichkeit in einem Modell abbildet und sich dann etwa für die Maximierung einer Variablen in seinem Modell entscheidet. Genau diese Maximierung wird dann von der Kontrollstrategie verfolgt.

Man stellt mir immer wieder die Frage, ob Kontrollstrategien, also die dritte Stufe der Datenfusion, bereits im Einsatz seien. Das "Psychoexperiment" bei Facebook, das im Juni 2014 aufgedeckt wurde, bestätigt die gezielte Manipulation der Facebooknutzer. In der Zukunft werden wir zunehmend mit Kontrollstrategien zu tun bekommen. Kontrollstrategien bei Menschen einzusetzen, halte ich für hochgradig unethisch.

 

Aber kann eine „willkürliche“ Maximierung oder „willkürlich“ gewählte Optimierung nicht grober Unfug sein?

 

Ja, das kann der Fall sein. Wirklich schlimm wird es dann, wenn sich die Gesellschaft die Mathematik, ihre Modelle und Algorithmen nicht mehr hinterfragt. Wenn die Gesellschaft zu glauben beginnt, die Modelle seien vernünftig.

Wenn ich an den anglo-amerikanischen Turbokapitalismus denke, handelt es sich dabei um ein Modell, das die Maximierung des eigenen Nutzes anstrebt. Wir glauben inzwischen, das sei vernünftig, weswegen wir immer weiter auf Wachstum unseres eigenen Wohlstands setzen. Dabei ist die Nutzenmaximierung nichts weiter als ein Optimierungsparadigma. Man könnte nämlich statt des Nutzens auch mehrere Variable gleichzeitig maximieren, wie es etwa in der sozialen Marktwirtschaft bzw. dem Rheinischen Kapitalismus der Fall ist. Dort kann sich das Kapital nur soweit ausdehnen, bis es an die Rechte der Arbeit stößt und umgekehrt. Doch auch dieses Pareto-Optimum ist ein Optimum. Die Frage ist: Was ist vernünftig?

 

Geraten wir etwa in eine Expertokratie?

 

Ja, diese Gefahr ist sehr real. Mathematische Modelle und ihre Umsetzung in Algorithmen, ganz einfach gesagt, in Computerprogramme, haben bereits seit Jahren enormen Einfluss auf unsere Lebenswirklichkeit. Denken Sie an die internationalen Finanzmärkte und den algorithmischen Handel. Er macht inzwischen den Großteil des börslichen Handels aus und hat nicht mehr viel mit der ursprünglichen Idee des Investierens in Unternehmen zu tun. Die Finanzmathematik hatte durchaus auch ihren Anteil am Bankencrash 2008/9. Wenn Sie das wissen, können Sie erkennen, dass die Mathematik – in dem Fall die Finanzmathematik – unmittelbar in unsere Lebenswirklichkeit eingreift und sie gestaltet. Im Fall der Bankenkrise leider mit katastrophalen Folgen. Wir werden aber trotz allem sehen: Die Mathematik wird mit der zunehmenden Vernetzung unseres Alltags immer stärker und überall um sich greifen.

 

Haben die Mathematiker ihre Modelle also gar nicht im Griff?

 

Das kann man so nicht sagen. Finanzmathematische Modelle wurden eher von Ökonomen, weniger von „Techno-Mathematikern“ implementiert. Das Problem liegt vielmehr darin, dass viele Modelle die Risiken der Lebenswirklichkeit unterschätzen. Das liegt in der Natur von Modellen – schließlich bleiben sie Modelle, sie erheben keinen Anspruch auf Vollständigkeit oder sogar Richtigkeit. Das dürfen wir Data Scientists ruhig demütig eingestehen.

Tritt ein solch unwahrscheinliches Ereignis ein, sind die Folgen desaströs – und finanziell kaum zu schultern. Bei der US-amerikanischen Immobilienblase hat man nicht berücksichtigt, dass der Immobilienmarkt insgesamt zusammenbrechen könnte. Die Folge waren riesige Bankenrettungsschirme globalen Ausmaßes und eine erhöhte Staatsverschuldung, an der sich einige europäische Staaten bis heute abarbeiten.

 

Sie verdienen doch Ihr Geld mit der Datenfusion, wie können Sie dann gleichzeitig als Nestbeschmutzer auftreten?

 

Weil ich seit über 15 Jahren sowohl die Leistungsfähigkeit als auch die Probleme intelligenter Maschinen kenne, erlaube ich mir, warnend die Stimme zu erheben. Kritik kann ohnehin nur aus dem System selbst heraus kommen. Wer außer einem Data Scientist hätte besseren Einblick in Stärken und Schwächen intelligenter Maschinen und ihrer Vernetzung? Übrigens fühle ich mich in bester Gesellschaft, denn auch Einstein oder Sacharow haben an der Atombombe gebaut, um später vehement dagegen anzukämpfen. Mit Big Data und der kommerziellen Datenfusion beginnt die Mathematik, ihre Unschuld zu verlieren. Bisher hat sie uns die Welt erklärt, jetzt formt sie unsere Zukunft. Während den wenigsten klar sein dürfte, was das bedeutet, entwickeln sich bei manchen Architekten der Zukunft, den Technologen, Verantwortungsbewusstsein und moralisches Handeln. Es grüßen Dürrenmatts Die Physiker. Übrigens gibt es sehr wohl eine Menge Anwendungsbereiche für die Datenfusion und ihre intelligenten Maschinen, die ethisch vertretbar sind. Und genau deshalb versage ich mir selbst nicht die Freude an intelligenten Maschinen. Aber man darf und muss genau hinsehen, was man aus dem Mensch-Maschine-Verhältnis macht – um dann verantwortlich zu entscheiden.

 

Weiter zu: Das Buch

Teilen

© Heimo Aga
© Heimo Aga

Yvonne Hofstetter, 1966, Juristin und Essayistin, ist Geschäftsführerin der Teramark Technologies GmbH. Das Unternehmen entwickelt Systeme der künstlichen Intelligenz sowohl für staatliche Einrichtungen als auch für Wirtschaft und Industrie; das Kernteam ist seit über 15 Jahren auf die Auswertung großer Datenmengen mit lernenden Maschinen spezialisiert.

Yvonne Hofstetter hat ihre Gedanken zu Big Data und der Nutzung intelligenter Algorithmen zur Optimierung des Menschen mehrfach prominent in der Frankfurter Allgemeine Zeitung, der Süddeutschen Zeitung und in zahlreichen Interviews dargelegt. Ihr Buch Sie wissen alles ist 2014 beim C. Bertelsmann Verlag erschienen.
Yvonne Hofstetter lebt im Münchener Norden und in Wien.

Sie möchten Yvonne Hofstetter für einen Vortrag bei Ihrer Veranstaltung buchen?