Wirtschaft

Aufstieg der Computer-Gehirne

• Bookmarks: 3


Künstliche Neuronale Netze: Die große Hoffnung gerade ist, dass Computerprogramme selbst lernen.

Künstliche Intelligenz ist eines der wichtigsten Themen dieses Jahrhunderts. Geniale Forscher tummeln sich auf diesem Feld und erfolgreiche Unternehmen. Welchen Platz nimmt der Mensch künftig ein?

Drei Vorhersagen von führenden Fachleuten. Erstens: „Meines Erachtens gibt es einen Weltmarkt für vielleicht fünf Computer.“ Zweitens: „Es gibt keinen Grund, warum Menschen zu Hause einen Computer haben sollten.“ Drittens: „640.000 Bytes Speicherkapazität sollten jedem genügen.“

Den ersten Satz sagte der frühere Präsident des Computerkonzerns IBM Thomas Watson im Jahr 1943, den zweiten der Computerpionier und Unternehmer Ken Olson im Jahr 1977, den dritten kein Geringerer als Microsoft-Mitgründer Bill Gates im Jahr 1981. Alle Aussagen sind, um ihnen einen historische Dimension zu geben, nicht wirklich alt.

Sie zeigen, wie schwer sich sogar diejenigen zuweilen mit den Chancen von Technologie tun, die sie am besten einschätzen können. Wer von heute darauf zurückschaut, kann als einen Rat für die Zukunft mitnehmen, dass große Vorsicht geboten scheint, wenn es darum geht, ernsthaft zu spekulieren, was Computer wohl niemals können werden.

„Computer werden uns übertreffen“

Die Diskussion über „künstliche Intelligenz“, ob, wann und wie Computer uns Menschen einmal in jeder Geisteskraft erfordernden Hinsicht überholen werden, läuft derzeit auf Hochtouren. Und sie ist auch ganz oben in Gremien angekommen, die für unzählige Menschen Entscheidungen treffen. Die künstliche Intelligenz eine dominante Rolle spielt.

Wissenschaftler des Internationalen Währungsfonds wiederum haben ausführlich die wirtschaftlichen Chancen und Risiken analysiert – und dabei herausgestellt, dass schlaue Computer letztendlich einerseits jedes Alterungsproblem lösen, andererseits aber auch zu eskalierenden Verteilungskonflikten infolge brutal wachsender Ungleichheit führen könnten.

Die Prognose des gerade 75 Jahre alt gewordenen weltbekannten Physikers Stephen Hawking dazu steht im Raum: „Die Computer werden irgendwann in den kommenden hundert Jahren mit ihrer künstlichen Intelligenz den Menschen übertreffen.“ Namhafte Unternehmen stecken viele Ressourcen in dieses Feld, zum Beispiel die Technologiekonzerne Alphabet (Google), Apple und Facebook, die großen Autohersteller oder der deutsche Konzern Bosch. Und natürlich unzählige kleine Start-Ups rund um den Globus.

Der geniale Alan Turing

Dass wir heute genau über den Begriff „künstliche Intelligenz“ reden, ist auch ein Zufall und wohl zum Teil ein unbeabsichtigter Marketing-Erfolg. John McCarthy, einem Mathematikprofessor am Dartmouth College in Hanover im amerikanischen Bundesstaat New Hampshire, kann zugeschrieben werden, ihn in den fünfziger Jahren zuerst verwendet zu haben. Er erwähnte ihn in einem Schreiben an die Rockefeller-Stiftung, mit dem er um Geld für eine Fachkonferenz bat.

Mit ihm bemühten sich die damals schon mehr etablierten Forscher Marvin Minsky von der Harvard-Universität, Nathan Rochester von IBM und Claude Shannon vom Telekommunikationsunternehmen Bell Telephone darum. McCarthy erdachte den Begriff auch, um seine Forschung von dem damals schon bestehenden Fach Kybernetik abzugrenzen, von der „wissenschaftliche Untersuchung von Kontrolle und Kommunikation von Tieren und Maschinen“.

McCarthy und die meisten anderen Teilnehmer der Dartmouth-Konferenz wiederum waren Vertreter der Mathematischen Logik, eines Teilbereichs der Mathematik, der sich grob gesagt damit beschäftigt, Aussagen und Konzepte als Symbole darzustellen und durch bestimmte Transformationen Schlussfolgerungen daraus zu ziehen. Die Fortschritte in der Computertechnologie eröffneten auf diesem Feld ganz neue Möglichkeiten der praktischen Anwendung. Den Weg dafür bereitete wesentlich der geniale Alan Turing, der für die britische Regierung Funksprüche der deutschen Wehrmacht entschlüsselt hatte mit dem ersten elektromagnetischen Computer der Welt. Turing schrieb in seinem Artikel „Computing Machinery and Intelligence“ im Jahr 1950, worum sich der Fortschritt in der Computertechnologie drehen werde: Um das Verständnis natürlicher Sprache, Übersetzungsleistungen, Entscheidungsfindung und eben die mathematische Beweisführung.