Gernot Brauer

ist ein erfahrener Kommunikationsmanager aus der Industrie und ein routinierter Journalist, der als Buchautor zwei Begabungen verknüpft: die Fähigkeit zu exakter Recherche auch sehr komplexer oder versteckter Sachverhalte und eine Leidenschaft für spannendes Erzählen ebenso wie kritisches Hinterfragen dessen, was er ans Tageslicht bringt.

Was Gernot Brauer ermittelt, mag noch so kompliziert sein – er stellt es so dar, dass man es versteht, dass man es mit Gewinn und Vergnügen liest und dabei auch noch sonst kaum durchschaubare Zusammenhänge begreift, in denen wir leben und von denen wir abhängig sind. Er nimmt seine Leser mit in eine Reise in unser aller Zukunft.

Für dieses Buch hatte Gernot Brauer exklusiven Zugang zu einem Computergenie. Auf der Basis ausgefeiltester Künstlicher Intelligenz hat dieser Mann ein Programm zur Entscheidung und Prognose auf den Markt gebracht, wie es nach seiner Überzeugung weder IBM noch Microsoft oder Google haben, weder Facebook noch sonst jemand.

Auch Lesern, die von Datenverarbeitung nur so viel wie der Durchschnittsbürger verstehen, präsentiert Gernot Brauer diese unglaubliche Entwicklung so klar, als seien sie selbst dabei. Er breitet vor uns eine Welt aus, die unser Leben mitbestimmt – mit jedem Tag, der vergeht, ein Stück mehr. Was da abgeht, ist atemberaubend.

Gernot Brauer hat bereits mehr als ein Dutzend Bücher über verschiedenste Themenfelder veröffentlicht. Mit seiner Kenntnis der Wirtschaft und der Gesellschaft schafft er es immer wieder, seine Leser nicht nur verlässlich zu informieren, sondern auch gut zu unterhalten. Denn schon die Tatsachen, die er anzubieten hat, sind spannend genug.

Bibliografische Information der Deutschen Bibliothek
Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über <www.dnb.de> abrufbar.

ISBN 978-3-86764-901-8 (Print)

ISBN 978-3-7398-0471-2 (EPUB)

ISBN 978-3-7398-0470-5 (EPDF)

Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.

© UVK Verlag München 2019

- ein Unternehmen der Narr Francke Attempto Verlag GmbH & Co. KG

Lektorat: Barbara Deller-Leppert, Forstinning, und Saskia Brauer, Berlin

Einbandgestaltung: Susanne Fuellhaas, Konstanz

Cover-Illustration: © iStockphoto – metamorworks

Autorenfoto Seite →: Barbara Deller-Leppert

Druck und Bindung: Printed in Germany

UVK Verlag

Nymphenburger Strasse 48 . 80335 München

Tel. 089/452174-65

www.uvk.de

Narr Francke Attempto Verlag GmbH & Co. KG

Dischingerweg 5 . 72070 Tübingen

Tel. 07071/9797-0

www.narr.de

Viele vertiefende, oft spannende Einzelheiten zu Kapiteln dieses Buches finden Sie auf der zum Buch gehörenden Webseite unter www.uvk.digital/9783867649018.

Einleitung

Dieses Buch handelt von einer der umwälzendsten Revolutionen seit Menschengedenken. Dieser gesellschaftliche Wandel vollzieht sich vor unseren Augen. Trotzdem erkennen viele Menschen noch nicht, dass es sich um eine Revolution handelt, die fast alle gewohnten Lebensverhältnisse umkrempeln wird, „a change analogous to the rise of conciousness in humans" (Minelli 2017: xiii), so grundlegend wie die Entwicklung des menschlichen Bewusstseins. „Wir leben in einer Welt, in der man entweder ein Teil dieser Revolution ist oder von ihr überrollt wird" (Schröder 2017: 14).

Diese Umwälzung ist eine Folge der Digitalisierung. „Alles, was digitalisiert werden kann, wird digitalisiert. Autos, Flugzeuge und Kühlschränke sind künftig nur noch Blechhüllen, mit denen kaum Geld verdient wird. Die Gewinner sind – dank Netzwerkseffekt – vor allem die Vermittler" (Keese 2014: 165). Längst nutzen wir Produkte und Dienste, die die Ablösung des mechanischen durch das elektronische Zeitalter wesentlich prägen. Aber wir realisieren erst schemenhaft, wie sehr dieser Wandel zur Künstlichen Intelligenz uns selbst ändern wird. Davon berichtet dieses Buch, von technischen und gesellschaftspolitischen Entwicklungen rund um uns und von Konsequenzen für das Menschsein überhaupt. Es zeigt in zwölf Kapiteln, was die Künstliche Intelligenz mit uns macht.

Dazu nimmt dieses Buch Sie als Leser mit auf eine weite Reise. Sie beginnt in Kapitel 1 in der Welt der Big Data. Dieses Kapitel erörtert, wie schlau die Künstliche Intelligenz bereits ist und was wir von ihr noch zu erwarten haben. Aber dieses Buch berichtet nicht nur über Maschinen und deren unglaubliche Leistung. Es portraitiert auch die Personen hinter der Technik. Kapitel 2 führt uns zuerst mit Heiner und dann mit Hardy zusammen, Big Data Daddy genannt, einem Mann, der die Datenwelt komplett umkrempelt. Es erläutert eine von ihm patentierte Software, die Regierungen, Verbände und Firmen mit Datenanalysen und Prognosen bisher unvorstellbarer Präzision versorgt. Dann berichtet es von Phil, ebenfalls einer Multibegabung, und seiner Zusammenarbeit mit Hardy bei der Entwicklung der Software Quantum Relations und des digitalen Weltmodells, auf dem sie aufbaut.

In Kapitel 3 lernen wir kennen, wie diese Software die Finanzwelt revolutionierte und warum sie ihr ihre Geschäftsgrundlage denoch ziemlich bald wieder entziehen könnte. In Kapitel 4 schließlich geht es um den jüngsten, größten Coup dieses Mannes, das Programm Prisma, das mit der Software Prisma Dicision Point geradezu allwissend agiert und sich derzeit weltweit verbreitet. So weit das erste Drittel des Buchs.

Das zweite Drittel fragt in Schritt 5, was Big Data in der Wirtschaft bedeuten. Kapitel 6 erläutert, warum diese Welt aus Daten den Wettbewerb und in ihm den Handel aufzulösen imstande sind und was an ihre Stelle treten dürfte. In Kapitel 7 erörtern wir Konsequenzen für jeden von uns: Was geschieht, wenn Maschinen intelligenter werden als wir? Übernehmen Sie dann die Regie? Das Mensch-Maschine-System birgt enorme Chancen, aber auch veritable Gefahren. Das gilt auch im Gesundheitswesen. Das beleuchtet Kapitel 8.

Das Gesundheitswesen ist ein gutes Beispiel für das Problem der Privatheit, mit dem das letzte Drittel des Buches beginnt. Je mehr Daten jemand über uns hat, desto gläserner sind wir für ihn. Wollen wir das und können wir es überhaupt verhindern oder zumindest wirksam begrenzen? Davon handelt Kapitel 9. Dort erörtern wir auch die Datenschutzethik. In Kapitel 10 geht es darum zu verstehen, wie global verfügbare Daten als eine neue, weltweite Aufklärung wirken und alles Entscheiden wissensbasiert, vernunftgeleitet und kooperativ gestalten können. In Schritt 11 ziehen wir daraus Konsequenzen für die Politik. Und im abschließenden Schritt 12 stellen wir dar, was aus unserem Leben wohl wird, wenn wir es an Maschinen übergeben können. Maschinen sterben nicht. Kommt dann das ewige Leben? Dieses Schlusskapitel zeigt Ihnen, worauf wir uns voraussichtlich einrichten können.

Dieses Buch fußt auf einer Vielzahl von Fakten und belegt, woher sie stammen. Es berichtet darüber so, dass man sie möglichst einfach verstehen kann. Dazu verzichtet es wo immer möglich auf Fachsprachen und auf vermeidbare wissenschaftliche Umständlichkeit. Das sei hier an einem einzigen Beispiel erläutert. Es ist gekürzt, sonst wäre es noch komplizierter. Es beschreibt Transaktionen. Und nun kommt es:

Diese Transaktionen „implizieren eine individualisierende Adressierbarkeit der an den Transaktionen beteiligten Entitäten, die deren zeitliche und häufig auch räumliche Verortbarkeit beinhaltet. Transaktionen rekurrieren somit auf ganze Medienensembles der Zeitmessung, der Adressierung und der Verortung, deren gemeinsame Nutzung Gegenstand der Anbahnung wie auch Implementationsbedingung von Transaktionen ist ... Prüfprozesse betreffen die Gültigkeit der Übereinkünfte der Transaktionsprozesse durch die Transaktionsbeteiligten ... Transaktionen rechnen also mit Verweigerung und attribuieren diese Möglichkeit den Transaktionsbeteiligten. Big Data ... irritiert die skizzierten Modalitäten von Kommunikation und Transaktion und führt eine Verunschärfung des voluntaristischen Aspekts von Transaktionen herbei."

Es sei erlaubt, den vermuteten Gehalt dieses Satzungetüms so herunterzubrechen: Transaktionen, also Übertragungen, setzen voraus, dass die daran Beteiligten wissen, wer die jeweils anderen Mitbeteiligten sind, wann und häufig auch wo man sie erreichen kann und dass man sie zu bestimmten Zeiten an bestimmten Orten auch wirklich erreicht ... Dazu sind Übereinkünfte nötig. Die können die Beteiligten prüfen, aber auch verweigern. Bei Big Data ist eine solche Verweigerung allerdings nur eingeschränkt möglich.

Auch computer nerds verständigen sich in einer mit unzähligen Abkürzungen durchsetzten Fachsprache, die sich dem Normalbürger oft nicht erschließt. Das beginnt schon mit dem Wort nerd selbst; es bezeichnet Personen, die an neuen Computertechnologien aktiv teilhaben, sei es als IT (Informations-Technologie)-Spezialisten oder als early adopters, also sehr frühe Nutzer. Wir vermeiden oder erklären in diesem Buch solche Fachausdrücke. Nur Begriffe wie Computer oder Internet, die schon Teil der deutschen Umgangssprache sind, werden auch so benutzt.

Dieses Buch fußt einerseits auf Gesprächen in den Jahren 2017 und 2018 mit den Hauptakteuren, denen ich für diese Auskünfte sehr danke. Ihre Aussagen sind in wörtlicher oder indirekter Rede wiedergegeben oder nacherzählt. Alle erwähnten Personen, Firmen und Fachbegriffe sind im Anhang erläutert. Im Übrigen stützt sich dieser Text auf eine Vielzahl schriftlicher Quellen. Sie sind auf der zu diesem Buch gehörenden Webseite alphabetisch nach Autoren gelistet. Wo der Text daraus sinngemäß oder wörtlich zitiert (nur wörtliche Zitate stehen in Anführungszeichen), wird auf die Quelle in Klammern verwiesen (Name, Erscheinungsjahr: Seite). Wird aus einer Quelle mehrfach direkt nacheinander zitiert, wird ab dem zweiten Zitat nur auf sie verwiesen (ibid.: Seite). Wird aus einer schon genannten Seite nochmals zitiert, ist eine erneute Erwähnung derselben Seitenzahl natürlich entbehrlich; dann genügt ein ibid. (ebenda). Sie brauchen diese Verweise nicht zu beachten. Wenn Sie aber eine Quelle ausführlicher nachlesen möchten; zeigt Ihnen die Webseite zu diesem Buch, wo Sie fündig werden können.

Die Webseite bringt übrigens noch weit mehr: Hintergründe und Zusammenhänge in der Welt der Big Data und der Künstlichen Intelligenz. In den Kapiteln wird auf solche Vertiefungen jeweils verwiesen. Sie können dort aber auch einfach ein wenig schmökern. Es lohnt sich. Und nun viel Interesse an Big Data und viele Einsichten in diese spannende Welt.

Gernot Brauer

Ein Rat vorab

Wer online geht, tut das stets in Gesellschaft, auch wenn er es nicht bemerkt oder nicht will. Wenn Sie online gehen, sehen und hören Ihnen nämlich zahllose programmierte Maschinen zu. Mit jedem Klick auf eine Webseite, besonders intensiv mit jeder Anfrage an eine Suchmaschine oder an ein Preisvergleichsportal machen Sie ein Stück weit sichtbar, was Sie interessiert. Mit jeder Aktivität und jeder Meinungsäußerung in einem sozialen Netzwerk zeigen Sie nicht nur Ihren Freunden, sondern auch technischen Beobachtern, was für ein Typ Sie sind, was Sie tun und wie Sie drauf sind. Denn jeden Klick auf jede Webseite registrieren externe Computer sofort. Sie parken Cookies auf Ihrem Gerät; das sind kleine Dateien, die die Einstellungen Ihres Geräts und andere Informationen speichern. Die werden für weitere Kontakte mit Ihnen ausgelesen und kommerziell genutzt. Cookies zu speichern können Sie auf Ihrem Gerät zwar unterbinden, aber dann wird die aufgerufene Webseite vielleicht nicht gut funktionieren.

Wann immer Sie ins Internet gehen, werden Sie also möglichst gründlich durchleuchtet. Dazu dienen Tracking-Technologien. Was diese über Sie in Erfahrung bringen, wird kommerziell ausgewertet und im Internet auch weiterverkauft. Ihr Surf-Verhalten steht deshalb auch anderen Betreibern zur Verfügung. So erfahren auch diese, was Sie interessiert und sprechen Sie mit zielgerichteter Werbung an. In vielen Webseiten sind Plugins sozialer Netzwerke wie Facebook und Twitter, YouTube und Google+ schon integriert. Sie registrieren bei jedem Seitenaufruf Ihre Daten und geben so genaue Auskunft über Ihre Aktivitäten. Dazu müssen Sie weder bei dem sozialen Netzwerk eingeloggt noch dort Mitglied sein. Bei einigen Webseiten müssen Sie dieses Symbol zwar erst anklicken. Sind Sie dort bereits angemeldet, erteilen Sie damit jedoch Ihre Zustimmung, Daten automatisch an den sozialen Netzbetreiber zu übermitteln. Sie können auch einfach ein Häkchen setzen – dann ist der ausgewählte button immer aktiv. Google Analytics und Wettbewerber (vgl. Joos 2018) registrieren außerdem Ihre Verweildauer im Netz, Ihre geographische Herkunft und einiges mehr – immer mit dem Ziel, der Werbung erfolgversprechende Pfade zu bahnen. So entstehen Wahrscheinlichkeiten darüber, welche Werbung wann und wo etwas bringt. Viele Webseiten arbeiten global mit einem Dutzend und mehr externer Analyse-Dienstleister zusammen. In ihren Datenschutzrubriken müssen Webseitenbetreiber die Auswertungsfirmen zwar nennen. Aber welcher Internetnutzer liest dieses Kleingedruckte sorgfältig?

Der Internetpionier und Mitverfasser des Internet-kritischen Cluetrain-Manifesto von 1999, Doc Searls, sieht diese Entwicklung äußerst kritisch: „Werbung wurde furchtbar pervertiert, bis hin ins Unmoralische. Ein Geschäft würde mir niemals einen Sender auf die Schulter pflanzen, nachdem ich in ihm eingekauft habe. Im Web ist das Standard, und das ist einfach falsch. Weil so viel davon unbeobachtet abläuft, haben wir all diese gruseligen Verhaltensmuster" (Kuhn 2018).

Besonders heikel sind personenbezogene Daten, also die, anhand derer man Sie als Einzelperson identifizieren kann. Dazu gehören Name, E-Mail-Adresse und zum Beispiel Zahlungsinformationen. Zwar müssen persönliche Daten in vielen Fällen anonymisiert oder pseudonymisiert werden. Das lässt sich aber umgehen: Nicht wenige Offerten im Internet, etwa Gewinnspiele, haben hauptsächlich den Zweck, an freiwillig übermittelte personenbezogene Daten zu kommen. Wer etwas gewinnen will, muss ja offenlegen, wer er ist. Haben Sie erst einmal irgendwo Ihren Namen und Ihre Adresse hinterlassen, werden solche persönlichen Daten sofort mit denen verknüpft, die im Netz sonst noch über Sie kursieren. Die wirken wie ein offenes Buch: Schon mit zehn Facebook-likes lässt sich eine Person besser einschätzen als das ein durchschnittlicher Arbeitskollege kann. 70 likes reichen aus, um die Menschenkenntnis eines Freundes zu überbieten, 150 um die der Eltern zu übertreffen, und mit 300 likes kann eine Maschine das Verhalten einer Person genauer vorhersagen als deren Partner. Mit noch mehr likes kann sie sogar übertreffen, „was Menschen von sich selber zu wissen glauben" (Krogerus 2016). Alsbald sind Sie also absolut gläsern. Selbst wenn Sie nicht im Internet surfen, sondern nur eine Kundenkarte vorlegen, greift dieses System. Wer aus dieser Datenwelt aussteigen will, müsste deshalb bereit sein, ein Einsiedlerdasein wie Robinson Crusoe zu führen (Morgenroth 2014: 226). Aber Sie benutzen das Internet ja gerade, um Kontakte aufbauen und pflegen zu können und um sich zu orientieren.

Mit dem Schutz Ihrer Privatsphäre ist es in der Datenwelt folglich nicht weit her. Das werden Sie in Kapitel 9 genauer einzuschätzen lernen. Es gibt zwar Regeln, die den Datengebrauch limitieren; in der EU ist es in erster Linie eine Richtlinie, die seit dem Frühsommer 2018 europaweit gilt. Aber große Grauzonen verbleiben, zumal viele „Datenkraken" keine europäischen Firmen sind, sondern amerikanische mit einem weit laxeren Rechtsrahmen.

Es gibt Empfehlungen dafür, wie man die Ausforschung der eigenen Person via Internet begrenzen kann, etwa indem man nicht ständig online ist. Die meisten dieser Empfehlungen sind etwas weltfremd. Wer will es schon Robinson Crusoe gleich tun? Aber man kann handeln, etwa sich bei digitalcourage.de informieren, eigene Daten und Mails verschlüsseln und die Politik zum Handeln auffordern. Vor allem aber sollten Sie die Mechanismen kennen und zu nutzen oder zu umgehen lernen, denen Sie sich als Datenbesitzer aussetzen. Das ist ein Zweck dieses Buches. Der andere ist, Ihnen die faszinierende Welt der Künstlichen Intelligenz in ihrer ganzen Vielfalt nahezubringen. Sie birgt, wie es in diesem Buch zu Recht heißt, ein „unfassbar aufregendes, intellektuelles Abenteuer." Erobern Sie es sich.

Hinweise zum Buch

Dieses Buch und die Webseite zu diesem Buch gehören zusammen. Die Webseite enthält Hintergrundinformationen, Erläuterungen und Vertiefungen sowie das ausführliche Literaturverzeichnis. Alle im Buch verwendeten Quellen verweisen auf dieses Literaturverzeichnis.

Hier noch einmal die Webseiten-Adresse: www.uvk.digital/9783867649018

Inhalt

1 Milliarden in Millisekunden

Ist die Künstliche Intelligenz schon schlauer als wir?

Was bei Big Data abgeht, ist schier unvorstellbar. Datenwolken beginnen jedes Handeln zu durchdringen und alle Entscheidungen zu konditionieren. Firmen wie Microsoft, Google und Facebook erzeugen cyber-physische Systeme. Dieses Kapitel erläutert die Datenwelt und verweist auf ihre großen Beweger und deren Technologien (Details auf der Webnseite). Es zeigt, wie verbreitet Big Data sind, wie sie als Künstliche Intellugenz das Handeln verändern und was das für uns bedeutet.

1.1 Die Entwicklung des Computers im Zeitraffer

1.2 Die großen Beweger – die Datenkraken

1.3 Der Weg zu Big Data

1.4 Internet und darknet

1.5 Das Internet der Dinge

1.6 Die Blockchain

1.7 Die Künstliche Intelligenz

1.1 Die Entwicklung des Computers im Zeitraffer

„Stell dir vor, es ist Revolution, und die Leute merken es kaum. Unterdessen ist der wahre Umsturz längst im Gange", schreibt der Computerexperte Martin-Jung (2018a) und erläutert: er verläuft exponentiell. Menschen erfassen das nur schwer. Daher gibt Martin-Jung ein Beispiel: Wenn in ein Fußballstadion alle zwei Sekunden Wasser getropft würde, erst ein Tropfen, dann zwei, dann vier, dann acht und immer so weiter die doppelte Menge - wie lange würde es dauern, bis die riesige Betonschüssel voll ist? Nicht einmal zehn Minuten (ibid.). Anfangs merkt man nicht, was da passiert. So ist oder war es zumindest auch mit der Welt der Computer. Es ist höchste Zeit, sich vorzubereiten (ibid.).

Computer, das Internet und Daten allerorten gehören inzwischen zu unserem Leben wie Wasser und Brot. 2,8 Milliarden Menschen sind mittlerweile online; das ist ein Zuwachs von 280 Prozent in nur zehn Jahren (Noska 2017). Was sich derzeit vollzieht, revolutioniert unseren Alltag von Grund auf. „Wir verarbeiten Daten nicht nur schneller und besser als zuvor. Wir tun Dinge, die wir zuvor nie tun konnten", sagt Jason Cornez, Chief Technology Officer der im Finanzmarkt tätigen Analysefirma RavenPack, und der Leiter des Bereichs Finance Product Management von MathWorks, Stuart Kozola, stimmt ihm ebenso zu wie Thani Sokka, der Technikchef des Datenhauses Dow Jones (RavenPack 2017b). Datenanalysen, die auf herkömmlichen Computersystemen noch vor Kurzem eineinhalb Monate dauerten, lassen sich in der cloud (was das ist, zeigen wir auf unserer Webseite) in Stunden erledigen. Die Auswertung aller Daten von Wetterstationen für eine Wettervorhersage, die vor einem Jahrzehnt noch 15 Minuten dauerte, ist jetzt in einer Sekunde erledigt. Eine nochmalige Beschleunigung um das 17.000-fache deutet sich an (näheres im Abschnitt über Quantencomputer). Entscheidungen sind also sofort möglich. Der Handel mit Aktien vollzieht sich bereits in 200 Millisekunden – wir kommen in Kapitel 3 darauf noch zu sprechen. Datenwolken umgeben uns seit wenigen Jahren so selbstverständlich, dass wir gut daran tun, uns zu erinnern, wie relativkurz die Geschichte der elektronischen, automatisierten Datenverarbeitung zurück reicht.

Die Herkunft der elektronischen Datenverarbeitung.

Die Idee, wir selbst seien so etwas wie biologische Automaten, eine Art natürlicher Computer, ist zwar schon recht alt. Im 17. Jahrhundert verstand der deutsche Philosoph und Mathematiker Leibniz die Welt als ein System aus Automaten, die er Monaden nannte – eine Weltsicht, die heute wieder aktuell ist (vgl. Mainzer/Chua 2011). Leibniz betrachtete alles, was lebt, als natürliche Monaden, als solche biologischen Automaten, die wesentlich besser funktionieren als von Menschen gebaute Automaten seiner Zeit. Und in der Tat: Der menschliche Körper atmet, verdaut und regeneriert sich schlafend automatengleich, ohne dass das Bewusstsein eingreifen muss. Leibniz zeigte sich überzeugt, dass eines Tages Automaten nicht nur menschliche Arbeit übernehmen und die Menschen damit für kreative Tätigkeiten frei machen könnten, sondern dass diese Automaten auch Entscheidungen zu treffen vermöchten. Er sollte Recht behalten.

Den ersten programmierbaren Automaten baute aber erst im im 19. Jahrhundert, im Zeitalter der Dampfmaschinen, der Brite Charles Babbage auf noch rein mechanischer Grundlage. Zur Steuerung benutzte er auswechselbare Lochkarten für damals schon teilautomatisch getaktete Webstühle. Elektromechanische Rechenmaschinen tauchten dann im ausgehenden 19. Jahrhundert auf. Erstmals verwendet wurden sie in den USA zur Volkszählung 1890 (Kurzweil 2012: 251). Trotz der Weite des Landes und der Einwandererströme war sie in sechs Wochen durchgeführt und nach zweieinhalb Jahren ausgewertet (Press 2013).

Leibniz' Vision wurde erst zur Mitte den 20. Jahrhunderts umgesetzt, als zelluläre Automaten konstruiert werden konnten. In ihnen lassen sich Arbeitsschritte beliebig zerlegen und in diesen kleinsten Schrittchen dann wie in den Zellen eines Gehirns arbeitsteilig und miteinander kombiniert erledigen. Computer sind solche zellulären Automaten. Ihr Kern ist ein Zentralprozessor, in dem Zellen mit Hilfe elektrischen Stroms zugleich rechnen und speichern. Er kann auf den ersten Blick wenig, nämlich „nur" die zwei unterschiedlichen elektrischen Spannungszustände an oder aus registrieren und verarbeiten. Das tut er aber erstens in maximal möglichem Tempo, nämlich mit Lichtgeschwindigkeit, zweitens auf kleinstem, mittlerweile molekular kleinem Raum und drittens parallel, das heißt: Seine Zellen erledigen eine Vielzahl von Registrierungs- und Verarbeitungs-, also Rechenaufgaben zur selben Zeit.

Computer sind der sichtbarste Teil einer technischen Revolution, die die Welt in den letzten fünfzig Jahren zunehmend umgekrempelt hat und weiter verwandelt. Ihr Kern ist die Elektronisierung zunehmend aller technischen Vorgänge und damit ihre Digitalisierung. Sie führt geradewegs in die Welt von Big Data.

Aus einer größeren Zahl kluger Köpfe, die sie vorangebracht haben, seien hier in der Reihenfolge ihrer Geburtstage drei genannt, die für die Digitalisierbarkeit der Welt besonders wichtig sind. Es sind erstens der ungarisch-amerikanische Mathematiker und Vater der Spieltheorie John von Neumann (1903-1957); er spielte in den Jahren des Zweiten Weltkriegs als Computerpionier im sogenannten Manhattan-Projekt zum Bau der ersten Atombombe eine tragende Rolle und präsentierte 1946 den ersten militärisch genutzten Computer ENIAC. Als zweiter ist der deutsche Erfinder Konrad Zuse (1910-1995) zu nennen; er beschäftigte sich schon seit 1935 mit programmierbaren Computern auf der Basis binärer Zeichen und präsentierte 1941 seinen ersten Computer, konnte ihn aber nicht mit Vakuumröhren ausstatten, weil das NS-Regime Computer nicht als kriegswichtig einschätzte (Kurzweil 2012: 189). Der dritte Pionier ist der britische Logiker und Mathematiker Alan Mathison Turing (1912-1954), dessen Arbeit sogar kriegsentscheidend war, mittlerweile verfilmt wurde und uns gleich noch etwas genauer beschäftigt.

1936, ein Jahr nach Zuses Innovation, schreibt dieses englische Computergenie Alan M. Turing seinen Aufsatz „on computable numbers". Im Jahr darauf erscheint sein Text auch gedruckt (Turing 1937). Darin entwickelt er das Konzept einer Turing machine. Es ist zunächst nur eine Idee. Aber sie definiert das Arbeitsprinzip aller späteren Computer, die als Universalmaschinen mehr oder weniger schnell und elegant jedes mathematische Problem lösen können, das sich mit Algorithmen bearbeiten lässt. Turings Geniestreich versetzt die Briten während des Zweiten Weltkriegs in die Lage, mit dem Rechnersystem Colossus im Forschungszentrum Bletchley Park bei London (Hinsley/Stripp 2005) das Verschlüsselungssystem Enigma der deutschen Marine und mit ihm deren Funksprüche zu knacken. Das war der „erste große Erfolg der Informatik" (brand eins 2016) und für den Sieg der Alliierten auf See der entscheidende Durchbruch. Nach den Worten des US-Oberbefehlshabers und späteren Präsidenten Eisenhower ist es sogar der „kriegsentscheidende" Schlüssel gewesen, um den U-Boot-Krieg zu gewinnen (Ulbricht 2005). Nach dem Krieg arbeitet dieser „überragende Theoretiker der Berechenbarkeit" (Mainzer 2014a) in Großbritannien am Projekt ACE (Automatic Computing Engine) und ab 1949 an der Universität Manchester an der software für den ersten zivilen Computer Manchester Mark 1 (ibid.).

1942 stellt der science fiction-Autor Isaac Asimov seine Roboter„gesetze" vor. Sie bestehen aus drei einfachen und klaren Forderungen: Erstens: Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen wissentlich Schaden zugefügt wird. Zweitens: Er muss menschlichen Befehlen gehorchen, es sei denn, der Befehl widerspricht Punkt 1. Und er muss drittens die Existenz der Menschen beschützen, solange das nicht mit Regel 1 oder 2 kollidiert.

1943 sagen Warren McCulloch und Walter Pitts erstmals künstliche Neuronen voraus (McCulloch/Pitts 1943). Im selben Jahr baut der deutsche Erfinder Konrad Zuse seinen ersten Computer mit dem Namen Zuse 3 und legt 1945 die weltweit erste Version einer höheren Programmiersprache namens Plankalkül vor. Praktisch verwendet wird diese Sprache allerdings nicht. 1969 beschreibt er in seinem Buch „Rechnender Raum" das Universum und seine physikalischen Zustände als einen gewaltigen zellulären Automaten.

1946 wird nach dem Konzept des Mathematikers John von Neumann der erste fast vollständig frei programmierbare Computer fertiggestellt, der amerikanische Electronic Numerator, Integrator and Computer (ENIAC). Nach seinen Prinzipien arbeiten seither alle Computer. Dieser erste ENIAC gehört damals dem Militär.

Was ist da Grundlegendes passiert? „Ein Computer verlangt, dass alles aus dem kontinuierlichen Fluss unserer Alltagswirklichkeit in ein Raster von Zahlen umgewandelt wird, das als eine Darstellung der Wirklichkeit abgespeichert werden kann, die sich dann mit Hilfe von Algorithmen manipulieren lässt" (Berry 2014: 48). Fairerweise ist zu sagen: Computer selbst verlangen gar nichts. Wir programmieren sie vielmehr auf bestimmte Leistungen.

Computer und die sie verbindenden Netze galten anfangs als bloße Hilfsmittel und die „Leistung der Maschine als Diener", nicht als „ihr Beteiligter, der eine kritische Betrachtung ermöglicht" (McCarty 2009). In den letzten zehn Jahren haben viele Menschen aber zu begreifen begonnen, dass aus dem Hilfsmittel Computer in hohem Tempo ein Mit-Arbeiter und zunehmend ein Vor-Arbeiter wird. Er kann nämlich vieles bereits schneller und besser als wir. Die Technik hat im Umgang mit Daten also neue Qualitäten erzeugt. Diese Leistung nennt man üblicherweise Künstliche Intelligenz.

Schon im ausgehenden 20. Jahrhundert erwies sich, dass sich mit Computerhilfe die gesamte Welt neu organisieren lässt. Nicht zufällig kommen im Wortschatz von Computerexperten die Begriffe global, Welt und Planet signifikant häufig vor, etwa in der IBM-Initiative smarter planet, im Google-Motto „organize the world's information" oder in Google-Papieren wie etwa „web search for a planet" (Barroso et al. 2003). Auch in Überlegungen zum Computerprogramm quantum relations ist dieses Vokabular immer wieder zu finden. Quantum relations werden uns im Kapitel 3 dieses Buchs noch detailliert beschäftigen.

Dass Google das Wort Information in seinem Motto verwendet, ist gewiss gut durchdacht. Denn mit „Information" ist nicht nur gemeint, dass wir „im Zeitalter digitaler Informationsverarbeitung durch Computer leben, sondern dass wir Information überall entdecken können: So werden aus Nullen und Einsen die Datenströme sozialer Netzwerke und aus Marktplätzen ,hochkomplexe Informationssysteme' – von der Quantenphysik bis zur Evolutionstheorie, vom algorithmischen und nachrichtentechnischen Begriff zur experimentellen Hirnforschung" (Mainzer 2016b).

1950 überlegt Alan Turing, wie man feststellen kann, ob eine Maschine selbstständig unterscheiden und damit denken kann. Seine Antwort gibt er in einem Bild: Kommuniziert eine Testperson mit zwei anonymen Gesprächspartnern ohne Blickkontakt nur via Tastatur und Bildschirm und kann sie dabei nicht unterscheiden, wer von den beiden Antwortenden Mensch oder Maschine ist, dann hat die Maschine diesen Test bestanden. Heute löst dieser berühmte Test nur noch wenig Begeisterung aus. Wissenschaftler finden, er gehe am inzwischen erreichten Forschungsstand vorbei. Experten wie Francesca Rossi, KI-Forscherin an der Universität Padua, jetzt bei IBM, fordern daher neue Teststandards (Henssler 2018).

1951 nehmen die ENIAC-Pioniere (vgl. 1946) John Mauchly und John Presper Eckert ihren ersten wohnzimmergroßen und 13 Tonnen schweren zivilen Computer mit 5.200 Röhren und 18.000 Kristall-Dioden in Betrieb, den UNIVAC I. Er macht für das United States Census Bureau, also das statistische Amt, knapp zweitausend Rechenoperationen pro Sekunde. Die Trends zur US-Präsidentschaftswahl 1952 berechnet er verblüffend genau (brand eins 2016). Anfang 1952 erhält auch die US Air Force einen UNIVAC. Exemplar Nummer 5 geht im selben Jahr an den Fernsehsender CBS, um Ergebnisse der Präsidentschaftswahl vorherzusagen. Auch er rechnet korrekt. Marvin Minsky, ein Pionier der Künstlichen Intelligenz, baut im selben Jahr für seine Dissertation den Prototypen eines Neurocomputers. Und in Deutschland gründet der junge Physiker Heinz Nixdorf sein IT-Unternehmen.

1955 treffen sich am Dartmouth College im US-Bundesstaat New Hampshire Forscher, unter ihnen John McCarthy und der spätere „Vater der künstlichen Intelligenz" Marvin Minsky, um mit Wissen über sogenannte neuronale Netze im Gehirn des Menschen ein Projekt für das Lernen und alle anderen Merkmale der Intelligenz aufzusetzen. Es soll so genau sein, dass danach eine Maschine gebaut werden kann, die diese Vorgänge simuliert. Sie soll, so hoffen die Forscher, so kreativ sein wie der homo sapiens, sich ständig selbst verbessern und mit Zufällen umgehen können. Auch wenn die Entwickung des homo sapiens Millionen Jahre dauerte: Die Wissenschaftler rechnen für sechs Forscher, einige Praktikanten und eine Sekretärin mit einer Projektzeit von nur drei Jahren. Die Realität sieht allerdings anders aus: An diesen Zielen wird bis heute gearbeitet.

1957, nicht lange nach der Dartmouth-Konferenz, legen der spätere Wirtschaftsnobelpreisträger Herbert Simonund der Informatiker Allen Newell ihr Konzept für einen general problem solver (GPS) vor. Diese Maschine soll Fragen aller Art mit künstlicher Intelligenz beantworten. Er kann aber nur zum Beweisen simpler Theoreme aus Logik und Geometrie, Wortpuzzles oder Schach angewandt werden.

1958 berichtet die New York Times von einem ,lernenden Computer' der US-Navy. Er kann nach 50 Versuchen rechts von links unterscheiden.

1965 wird der erste Roboter entwickelt, der ansatzweise Muster erkennen kann: Forscher am Stanford Research Institute in Menlo Park, Kalifornien, bauen in diesem Jahr Shakey zusammen (Eberl 2016: 43). Die Microsoft-Gründer Bill Gates und Paul Allen lassen sich von Shakey ebenso inspirieren wie Arthur C. Clarke, der 1968 zusammen mit dem Regisseur Stanley Kubrick im Kinofilm „2001 - Odyssee im Weltraum" dreht, mit HAL 9000 als Prototyp einer gefährlichen Computerintelligenz.

1966 stellt der aus Berlin stammende, an der Entwicklung des Internetvorgängers Arpanet beteiligte Informatiker Joseph Weizenbaum am Massachusetts Institute of Technology (MIT) das Computerprogramm Eliza vor. Es simuliert einen intelligenten Dialog mit Menschen gerade so, wie sich Turing das vorgestellt hatte. Tester glauben, das Programm sei wirklich so schlau. Aber tippt man ein: „Ich bin tot" ein, gibt Eliza lediglich zurück: „Und wie fühlt es sich an, tot zu sein?" Weizenbaum ist damals davon überzeugt, dass man Maschinen nicht zum Denken bringen könne, wenn man versuche, die menschliche Denkweise maschinell nachzubilden. Vielmehr müsse man die Menschen stärker wie Maschinen behandeln, indem man ihnen einen Spiegel vorhält (Hankey 2017: 93). Künstliche Intelligenz, glaubt der deutschstämminge Professor damals, sei zwar möglich, aber extrem gefährlich. Niemals dürften Computer folglich selbst etwas entscheiden. Denn zu Urteilsvermögen und Emotionen seien sie nicht fähig (ibid). Sie können allerdings emotionale Äußerungen von Menschen erkennen und deuten. Werbestrategen nutzen diese maschinelle Leistung heute, um ihre Botschaften noch gezielter zu setzen. Die IT-Welt verdankt Joseph Weizenbaum später den ersten lauten Zwischenruf gegen einen mechanistischen Maschinenglauben im Zeitalter der Digitalisierung. Die Titel seiner Bücher sprechen für sich: 1977 „Die Macht der Computer und die Ohnmacht der Vernunft" und 1993, in der aufkommenden Interneteuphorie „Wer erfindet die Computermythen?"

Trotz solcher Skepsis hält die stürmische Weiterentwicklung der Computertechnologie ungebremst an. Der amerikanische Experte Ray Kurzweil wagt im Jahr 2000 über Computer eine Prognose: Als „sinnliche und spirituelle Maschinen des 21. Jahrhunderts" seien sie von unserer Kultur nicht mehr zu trennen (Kurzweil 2000: 208). Heute wird dazu von Cyborgs gesprochen. 1999 sagt Kurzweil voraus, 2009 würden Menschen ein Dutzend Computer am Körper tragen (ibid.: 295) – eine Vorhersage, die sich - wenn auch mit einem Jahrzehnt Verspätung – als tendenziell richtig erweist. Und für 2019 lautet seine Prognose, Computer würden bis dahin „weitgehend unsichtbar überall eingebettet"sein – in Wände, Tische, Stühle, Schreibtische, Kleider, in Schmuck und im Körper" (ibid.: 314). Mit dem Internet der Dinge kommt derzeit genau dies auf uns zu. Nur sprechen wir statt von in den Dingen eingebetteten Computern von Sensoren. In der Tendenz hat Kurzweil richtig gelegen. Ein einzelner Transistor auf Mikrochips ist bereits deutlich kleiner als das kleinste Grippevirus (Eberl 2016: 49), und Sensoren in Allerwelts-Haushaltsgeräten werden so normal und so billig wie fließendes Wasser. Der wissenschaftliche Dienst des deutschen Bundestages spricht vom Internet der Dinge ganz treffend als vom ,Allesnetz' (Borgmeier/ Grohmann 2017: 5).

Weiter ist Kurzweil im Jahr vor der Jahrtausendwende davon überzeugt, dass damals 4000 Dollar teure Computer innerhalb von zwei Jahrzehnten ein Zehntel davon kosten, aber die Leistung des menschlichen Gehirns erreichen würden (ibid.: 315 f.). Dieser Preissturz gilt für Standard-PCs tatsächlich, für Hochleistungscomputer natürlich nicht. Den prognostizierten Zeitraum dieser Entwicklung sollten wir nicht wörtlich nehmen – aber in der Tendenz lag Kurzweil auch hier richtig. Der Vergleich mit der „Rechen"leistung des menschlichen Gehirns wird längst angestellt. Das beste Smartphone von heute ist mit rund hundert Milliarden Rechenoperationen pro Sekunde bereits fast so schnell wie es der beste Supercomputer Mitte der 1990er-Jahre war (Eberl 2016: 48). Für einen Blick voraus kann man diesen Vergleich getrost umdrehen: „Alles in allem werden wir in den nächsten 20 bis 25 Jahren – also bis 2035 oder 2040 – noch einmal eine Vertausendfachung der Rechenleistung, der Speicherfähigkeit und der Datenübertragungsrate von Mikrochips erleben. Auch eine Verzehntausendfachung bis 2050 ist ohne Weiteres drin. Das was ein heutiger Supercomputer kann, könnte also bis 2040 oder 2050 für weniger als 500 Euro in jedem Smartphone stecken" (ibid.: 52).Zur Erläuterung: Die derzeit leistungsfähigsten Supercomputer der Welt, Titan am Oak Ridge National Laboratory in Tennessee, USA, und Tianhe-2 im chinesischen Guangzhou, haben Arbeitsspeicher zwischen 700 und 1400 Terabyte und erreichen mit 18 bis 34 Billiarden Rechenoperationen pro Sekunde die Größenordnung des menschlichens Gehirns. Allerdings benötigen sie zwischen acht und 18 Megawatt elektrischer Leistung. Das ist der Bedarf einer deutschen Stadt mit 20.000-Einwohnern. Dem Gehirn genügt zum Anhören eines halbstündigen Vortrags die Energiezufuhr eines Esslöffels Joghurt. Für eine eineinhalbstündige Präsentation verbraucht es die Energie einer Praline von gerade einmal fünf Gramm (ibid.: 146). Bis die Technik es mit der Effizienz von uns Menschen aufnehmen kann, ist der Weg also noch weit.

Heute ist das beste Smartphone mit rund hundert Milliarden Rechenoperationen pro Sekunde wie erwähnt fast so schnell wie der beste Supercomputer Mitte der 1990er-Jahre (ibid.: 48). Dieses Tempo ist schon gigantisch. Eine für die Kommunikation grundlegende Fähigkeit geht Computern und damit auch Smartphones dagegen derzeit noch ab. Sie können noch nicht sprechen. Wir nehmen in Kauf, dass wir uns bisher in der Sprache ausdrücken müssen, die Computer verstehen: in Zeichen und Zahlen, genauer in binären Zeichen, in Bits.

Das ändert sich aber: Algorithmen lernen die Vorlieben der Nutzer. Sie sollen „flüssige Unterhaltungen mit dem Computer möglich machen" (Schulz 2017: 18) und können das in Grenzen bereits. In bestimmten Themenfeldern können Systeme zur Sprachanalyse die natürliche Sprache schon jetzt verstehen und interpretieren. Sie können Fragen im Dialog mit den Menschen beantworten und dabei ständig weiterlernen.

Fujitsu setzt Simultanübersetzungs-Software ein, die sich selbstlernend weiterentwickelt. Sie wird beispielsweise in japanischen Krankenhäusern genutzt. Dort verbessert sie in bis zu 50 Sprachen den Dialog mit Patienten – freilich nur mit hochleistungsfähiger Hardware im Hintergrund (Fujitsu 2017: Media Day). 2017 stellte das Unternehmen sein Sprachsystem Live Talk vor. Es wurde für Menschen mit eingeschränktem Hörvermögen entwickelt sowie für jede Form von Kommunikation, die in anderen Sprachen funktionieren soll. Das gesprochene Wort wird dazu über eine Spracherkennung in schriftlichen Text umgewandelt, und der wird auf einem PC, Tablet oder Smartphone angezeigt (Schonschek 2017).

Der chinesische Internetkonzern Baidu erreicht nach seinen Angaben bei der automatischen Spracherkennung bereits eine Trefferquote von 97 Prozent, bei der Gesichtserkennung sogar von 99,7 Prozent. Die Spracheingabe funktioniert dreimal schneller als als Eintippen von Text und erzeugt zumindest im Chinesischen zwei Drittel weniger Fehler (Der Spiegel 2017: 20).

1.2 Die großen Beweger - die Datenkraken

Das kybernetische Universum der Gegenwartheißt Cyberspace. Dieser Name geht auf den Schriftsteller William Gibson zurück; er hatte ihn sich im letzten Band seiner ,Neuromancer'-Trilogie 1982 ausgedacht, einer literarischen Weiterführung von Gedanken des Mathematiker Norbert Wiener (Kreye 2017). In diesem Cyberspace sind Microsoft, Apple und Google, die sozialen Netzwerke Facebook, Twitter und weitere wie YouTube, Instagram, Tumblr sowie Medienkonzerne die großen Beweger. Kritiker nennen sie wie schon erwähnt Datenkraken, weil sie via Internet milliardenfach Daten absaugen, aufbereiten und vermarkten. Ihre Namensliste ließe sich fortsetzen; ihre Rangfolge muss aber immer wieder neu justiert werden. Hier eine Übersicht über die Konzerne, deren Namen jeder kennt, deren Herkunft und Macht aber keineswegs allgemein bekannt ist.

Microsoft

1975 gründen Bill Gates und Paul Allen das Unternehmen Microsoft. Erste Erfolge bringt ein BASIC-Interpreter. 1981 kommt das im Auftrag von IBM entwickelte Betriebssystem MS-DOS auf den Markt, im Jahrzehnt darauf das grafische Betriebssystem Windows und das Software-Paket Office. Beide dominieren den PC-Weltmarkt. PCs, also personal computers, haben den Umgang mit Rechnern von der anonymen Ebene der Regierungen, ihrer Militärs und der großen Konzerne zuerst zum einzelnen Beschäftigten in socheen Firmen und dann zum einzelnen Bürger verlagert. Der Effekt: Microsoft ist heute mit weit über 100.000 Mitarbeitern der größte Software-Hetsteller der Welt.

Apple

1976 starten Steve Jobs, Steve Wozniak und Ronald Wayne anfangs als Garagenfirma den Elektronikkonzern Apple, den Jobs nach einer Unterbrechung ab 1997 bis zu seinem Tod 2011 leitet. Das Unternehmen entwickelt und vertreibt zunächst Betriebssysteme, Anwendungs-Software und Computer. Die grafischen Benutzeroberflächen auf Bildschirmen und die Computermaus gehen in den 1980er Jahren wesentlich auf Apple zurück. Mit dem iPod (2001), dem iPhone (2006) als erstem Smartphone und dem iPad (2010) als erstem Tablet erfindet Apple weitere Produktfelder. 2003 gestaltet mit dem ersten Download-Portal iTunes Store für Musik und Filme diesen Markt wesentlich mit. iTunes und der 2008 eröffnete App Store gehören zu den meistgenutzten Absatzwegen für digitale Güter. Das Unternehmen gehört inzwischen zu den größten der Welt. 2018 überschreitet Apple als erste Firma die Marke von einer Billion US-Dollar Börsenwert. Damit setzt sich der iPhone-Konzern gegen Alphabet, Amazon und Microsoft durch (Brien 2018a).

Google

1998 verfassen Larry Page und Sergey Brin ihre Facharbeit über the antonomy of a large-scale hypertextual web search engine (Brin/Page 1998) und gründen im selben Jahr im kalifornischen Palo Alto ihre Firma Google. Das ist vier Jahre nach der ersten Volltext-Suchmaschine für das Internet namens WebCrawler, die anders als Google den Rang einer Webseite noch allein aus der Seite selbst abgelesen hatte. Page und Brin schalten im November dieses Jahres mit dem Slogan Search the web using Google! ihre erste deutlich komplexer arbeitende Suchmaschine mit einer anderen Suchsystematik frei: Bei Google bestimmen links wesentlich darüber mit, wie prominent eine Seite präsentiert wird. Schon im ersten Monat schießen die Zugriffe der Nutzer auf 50.000 hoch und verzehnfachen sich in nur vier Monaten auf eine halbe Million. 2015 liegen sie bei unvorstellbaren 2834 Milliarden (https://de.statista.com). Inzwischen bestimmt Google den page rank einer Webseite längst nicht mehr nur nach Art und Menge der links, sondern nutzt ca. zweihundert sogenannte Signale um zu entscheiden, wie weit oben in Suchergebnissen eine Seite angezeigt wird (Drösser 2016: 60). Welche Signale das sind, ist vertraulich.

Das BetriebssystemMicrosoft Windows besteht aus etwa 50 Millionen Zeilen. Das Google-Suchprogramm ist vierzigmal so groß; es braucht rund zwei Milliarden Zeilen. Das ist so komplex, dass Google ein eigenes Programm namens Piper nutzt um sicherzustellen, dass alle 25.000 Google-Entwickler mit derselben Version diverser Algorithmen arbeiten – wir erörtern noch, was das ist – und dass es keine Inkonsitenzen gibt. Dort wirkt also „ein Algorithmus als oberster Hüter der Algorithmen" (Drösser 2016: 230). Als „Gründungs-DNA" bezeichnet Google die computerbasierte Künstliche Intelligenz (Google 2016a). Big Data spielen für das Unternehmen und seine Kunden schon seit Jahren eine tragende Rolle. So sagte Google schon 2009 aus Big Data-Analysen den Ausbruch einer Grippewelle in den USA richtig voraus, lag allerdings später daneben (Näheres im Kapitel Gesundheit).