Eines der ehrgeizigsten wissenschaftlichen Projekte aller Zeiten soll in der Schweiz realisiert werden: das Human Brain Project. Henry Markram, Neurowissenschaftler an der Ecole Polytechnique Fédérale in Lausanne (EPFL), hat Ende Januar von der EU den Zuspruch für sein Milliardenprojekt erhalten. Er will die Funktionen des mensch­lichen Gehirns rekonstruieren. Das Ziel ist es, ein Kunsthirn zu simulieren. Henry Markram spricht von einem «Apollo-Projekt des Geistes». Hunderte von Wissenschaftlern in mehr als 20 Ländern sollen eingebunden werden. Der in Südafrika geborene Professor setzt voraus, dass das Gehirn zwar aus Bil­lionen von Zellen besteht, dass es aber möglich ist, die dem Denken zugrunde ­liegenden Erkennungsmuster ausfindig zu machen.

Der Weg dazu ist bereits gegeben. Es existieren rund fünf Millionen wissenschaftliche Studien über das Gehirn. Sie alle beleuchten aber nur Teilaspekte. Gelingt es, die Daten dieser Studien so aufzubereiten, dass sie sich sinnvoll zusammenführen lassen, dann kann das Rätsel des menschlichen Gehirns gelöst werden. Dazu braucht es nicht nur Neurologen, sondern Wissenschaftler aus allen Fachgebieten und von den besten Forschungsinstituten, insbesondere Verbindungen zur Elektrotechnik und zur Informationstechnologie (IT). Markram, der mit der Nasa und dem Cern zusammenarbeiten wird, ist zuversichtlich, innerhalb von nur zehn Jahren das menschliche Gehirn simulieren zu können. «Das ist die ultimative Technologie», sagt er. «Wenn uns das gelingt, werden wir die Welt total verändern.»

Auf Euphorie folgte die Ernüchterung

Künstliche Intelligenz (KI) und humane Roboter beflügeln die Phantasie der IT-Ingenieure seit mehr als einem halben Jahrhundert. Noch in den sechziger Jahren waren KI-Freaks davon überzeugt, dass die Verwirklichung ihrer kühnsten Träume von denkenden und sprechenden Maschinen höchstens noch ein Jahrzehnt entfernt sei. Mit Filmen wie «Star Wars» hat Hollywood diese Visionen umgesetzt, in der Realität hingegen erlitten die hochfliegenden Versprechen Schiffbruch. Das Büro wurde noch nicht einmal das Papier los, und ein Bonmot des mit dem Nobelpreis gekrönten Ökonomen Robert Solow machte bald die Runde: Die Spuren der Computer finden sich überall, ausser in den Produktivitätsstatistiken der Wirtschaft.

In den achtziger Jahren kam es zu einem «Winter der künstlichen Intelligenz». Nichts ging mehr. Heute, im Zeitalter von Internet und Smartphones, ist die KI wieder salonfähig. Bald jeder Teenager trägt mit seinem iPhone ein kleines Stück KI bei sich. Es heisst Siri. Das Programm für Sprachverarbeitung wird immer schlauer. Sollte bei Spracherkennungsprogrammen die gleiche Entwicklung erfolgen wie bei den Schachcomputern, dann sind der Technik bald keine Grenzen mehr gesetzt. Die ersten Schachcomputer waren so primitiv, dass selbst Hobbyspieler sie austricksen konnten. Heute besiegen sie mühelos den Weltmeister.

Ray Kurzweil ist von dieser Entwicklung keineswegs überrascht. Der 65-jährige US-Amerikaner ist der Übervater der KI-Szene. Begonnen hat er als Wunderkind. Bereits als Fünfjähriger wollte der Sohn jüdischer Emigranten aus Österreich Erfinder werden. Als 15-Jähriger schrieb er sein erstes Computerprogramm. Wenig später stellte Ray in einer TV-Show seinen selbstgebas­telten Musikcomputer vor. Er studierte am renommierten Massachusetts Institute of Technology, entwickelte einen digitalen ­Synthesizer für Stevie Wonder, baute ein Lesegerät für Blinde und sammelte Wissenschaftspreise wie Spitzensportler Trophäen. Ray Kurzweil besitzt nicht weniger als 15 Ehrendoktorate. Und er hat verschiedene Bestseller über KI veröffentlicht, darunter «The Age of Spiritual Machines» und «The Singularity Is Near», Meilensteine eines neuen, technologischen Denkens, die nichts Geringeres heraufbeschwören als die Verschmelzung von biologischer und künstlicher Intelligenz.

Unter europäischen Intellektuellen ist Kurzweil wenig bekannt, in der amerikanischen IT-Szene hingegen kann sein Einfluss kaum hoch genug geschätzt werden. Soeben ist er von Google als Sonderberater für Sprachentwicklung eingestellt worden. Seine Theorie der Singularity, eben der Verschmelzung von biologischer und künstlicher Intelligenz, ist im Silicon Valley nahezu ein Dogma. Sie geht von zwei Vor­aussetzungen aus. Erstens: Es gibt keinen Unterschied zwischen biologischer und künstlicher Intelligenz. Zweitens: Künstliche Intelligenz lässt sich bald beliebig vermehren dank dem Gesetz des sich beschleunigenden Grenznutzens, dem «Law of accelerating Returns».

Warum ist das so? Die Fortschritte in der IT erfolgen nicht linear, sondern exponentiell. Schon 1965 prophezeite Gordon Moore, Mitbegründer des Chipherstellers Intel, dass sich die Anzahl der Transis­toren, die man auf einem Chip unterbringen kann, alle 18 Monate verdoppeln werde. Bis heute hat sich das Moore’sche Gesetz bewahrheitet. Exponentielles Wachs­tum bedeutet, dass sich eine Entwicklung nach einer gemächlichen Anfangsphase einem Wendepunkt nähert, um dann förmlich zu explodieren. Die IT nähert sich mit Riesenschritten diesem Wendepunkt. In ein paar Jahrzehnten wird die künstliche Intelligenz die menschliche überflügeln. Kommt es, wie Kurzweil prophezeit, zur Singularity, bedeutet dies einen Quantensprung in der menschlichen Evolution. Kurzweil verspricht sich davon nicht weniger als die Unsterblichkeit.

Wer Muster erkennt, versteht das Hirn

Sein im November erschienenes Buch «How to Create a Mind» kreist um das menschliche Gehirn, den leistungsfähigsten Computer, den die Evolution hervorgebracht hat. Es ist das Sprungbrett für die Erforschung der KI. «Unser wachsendes Verständnis der Biologie ist ein wichtiger Faktor bei der Entdeckung der intelligenten Geheimnisse, die die Evolution uns hinterlassen hat. Und wir können diese bio­logisch inspirierten Paradigmen dazu nutzen, eine noch intelligentere Technologie zu entwickeln», schreibt Ray Kurzweil. Wie aber will man die Funktionsweise dieses unglaublich komplexen Apparats entschlüsseln? Allein die Grosshirnrinde, der Neokortex, enthält Hunderte von Milliarden Zellen, zwischen denen Billionen von Verbindungen bestehen. Alles halb so schlimm, glaubt Ray Kurzweil. Er vergleicht das Gehirn mit einem Wald. Dieser mag aus Tausenden von Bäumen bestehen, und jeder Baum mag Tausende von Ästen haben und jeder Ast Tausende von Blättern. Doch man wird diesen Wald viel besser verstehen, wenn man nach gemeinsamen Mustern darin sucht, als wenn man versucht, alle existierenden Verbindungen zu verstehen.

Die Milliarden von Zellen und Billionen von Verbindungen ergeben etwa 300 Mil­lionen Grundeinheiten, die fähig sind, Mus­ter zu erkennen. Ray Kurzweil spricht von einer Mustererkennungstheorie des Gehirns, der «pattern recognition theory of mind». Wir denken nicht in Bildern und Tönen, sondern in diesen Mus­tern, die hierarchisch geordnet sind. Er gehe davon aus, dass die Basiseinheit des menschlichen Gehirns ein Mustererkenner sei und dass dieser die fundamentale Komponente des Neokortex bilde, schreibt Ray Kurzweil.

Wie diese Muster im Detail aussehen, ist eine extrem technische und komplexe Frage. Entscheidend ist die Tatsache, dass die Muster dem menschlichen Gehirn zu einem entscheidenden Vorteil gegenüber der KI verhelfen. «Würde das Gehirn wie konventionelle Computer in Sequenzen vorgehen, dann müsste es jedes denkbare elementare Muster zuerst durchspielen, bevor es zur nächsten Stufe vorschreiten könnte. Auf diese Weise müsste es auf jeder Stufe Millionen solcher Zyklen durchlaufen. Genau dies geschieht in einem Computer. Doch vergessen wir nicht, diese Computer können inzwischen millionenfach schneller rechnen als wir.»


Wie der Laie gegen den Tennis-Champ

Das ist nicht so kompliziert, wie es klingt. Dazu folgender Vergleich: Beim mensch­lichen Hirn und beim Computer verhält es sich so wie mit Roger Federer und einem gewöhnlichen Tennisspieler. Weil Federer über eine hochentwickelte «Tennis-Mustererkennung» verfügt, macht er fast alles, was ein gewöhnlicher Spieler überlegt ­machen muss, automatisch. Mit anderen Worten: Roger Federer beginnt sein Spiel auf einem sehr viel höheren mentalen Niveau. Selbst wenn der gewöhnliche Spieler besser und schneller rennen könnte als Federer, hätte er keine Chance.

Was aber, wenn der Computer ebenfalls Muster erkennen kann? Wenn man diese Fähigkeit des menschlichen Gehirns mit dem Gesetz des sich beschleunigenden Grenznutzens verbindet? Ray Kurzweil ist überzeugt, dass dies möglich und wünschenswert ist. Wenn das geschieht, dann wird die Singularity eine Tatsache und der evolutionäre Quantensprung vollzogen. «Ich sage voraus, dass Maschinen dann nicht mehr von Menschen zu unterscheiden sind», schreibt Kurzweil. «Auch Maschinen müssen wir daher spirituelle Werte und ein Bewusstsein zuschreiben. Das ist keine Herabsetzung des Menschen; vielmehr ist es eine Heraufsetzung unseres Verständnisses von einigen Maschinen der Zukunft.»

Die Singularity im Sinne von Ray Kurzweil hat überwältigende philosophische Konsequenzen. Etwa: Was ist Bewusstsein? Ist es sinnvoll, von einem freien Willen zu sprechen? Oder ist unser Gehirn so berechenbar wie ein Schachspiel, wenn wir einst über genügend leistungsfähige Computer verfügen? Werden wir bald nicht nur Tiere, sondern auch Maschinen als Lebewesen betrachten und Empathie für sie aufbringen?

Natürlich gibt es Kritik an Kurzweil und Markram. Befürchtet wird, dass die Technik die Menschen versklaven könnte. Der bekannteste Kritiker sitzt heute in einem Hochsicherheitsgefängnis in Florence im US-Bundesstaat Colorado. Er heisst Theodore Kaczynski, besser bekannt unter dem Alias «Unabomber». Zwischen 1978 und 1995 hat Kaczynski 16 Briefbomben verschickt und damit 3 Menschen getötet und 23 verletzt. Der Unabomber war einst selbst ein Wunderkind der Naturwissenschaften. Er hat einen Intelligenzquo­tienten von über 160 Punkten.

Nach einem Mathematikstudium in Harvard und einer Professur in Berkeley zog sich Kaczynski zu Beginn der siebziger Jahre in eine einsame Hütte in Montana zurück und begann seine Attentatsserie. 1995 verschickte er ein «Manifest» mit dem Titel «Die indust­rielle Gesellschaft und ihre Zukunft», das in der «New York Times» und in der «Washington Post» veröffent­licht wurde. Darin gibt Theodore Kaczynski seinem Horror vor einer Technodiktatur Ausdruck. Mit seinen Attentaten wollte er vor der seiner Meinung nach verhängnisvollen Entwicklung der KI warnen.

Warnung vor unerfüllbaren Versprechen

Andere Kritiker halten die Neurowissenschaftler für Hochstapler und ihre Ansprüche für völlig überrissen. «Einige Hirnforscher behaupten, dass einfach alles am Menschsein, auch seine gesamte Lebenswelt inklusive sämtlicher kultureller Phänomene, durch Prozesse im Gehirn verur­sacht sei. Und dass nur der kompromisslos naturwissenschaftliche Weg Antworten auf die Frage geben könne, was die wahre ­Natur des Menschen sei», sagt etwa Felix Hasler in einem Interview mit dem «Tages-Anzeiger». «Das ist überheblich.» Hasler ­ist Neuropharmakologe und hat kürzlich ein Buch mit dem selbstredenden Titel «Neuromythologie» veröffentlicht. Er hält die Thesen von Markram und Kurzweil für billigen Hype und spricht von «notorisch überverkauften Daten» und von einer «Pseudorevolution des Menschenbildes». Die Versprechen der Hirnkonstrukteure hält er für nicht einlösbar. Etwa dass Henry Markrams Erkenntnisse helfen sollen, Hirnkrankheiten wie Alzheimer, Depres­sionen oder Schizophrenie zu heilen.

Ray Kurzweil sieht in der Singularity ­sogar eine Möglichkeit, die Welt zu retten, indem ein drohender ökologischer Kollaps abgewendet würde. «Unsere verschiedenen Technologien werden sich zunehmend der IT angleichen, die sich exponentiell ausbreitet», so Kurzweil. «Dank diesen Technologien werden wir die grossen Herausforderungen der Mensch­heit meistern, das bedeutet: eine gesunde Umwelt unterhalten, genügend Ressourcen für ­eine wachsende Bevölkerung, einschliesslich Energie, Nahrung und Wasser zur ­Verfügung stellen, Krankheiten besiegen, die menschliche Lebensdauer deutlich verlängern und Armut eliminieren. Nur wenn wir mit intelligenter Technologie verschmelzen, können wir den Grad an Komplexität bewältigen, den die Herausforderungen der Zukunft an uns stellen.»

Die letzte Erfindung der Menschheit?

Kurzweils These: Die natürliche Evolution hat mit dem menschlichen Gehirn, vor allem mit der Grosshirnrinde, dem Neo­kortex, den besten Computer geschaffen, zu dem sie bisher fähig war. Die Evolution wird das Gehirn nicht innert nützlicher Frist weiter ausbauen, indem beispiels­weise die Kapazität von 300 Millionen Mustererkennern auf 400 erweitert würde. Das würde im besten Fall Millionen von Jahren dauern. Dank dem Gesetz des ­zunehmenden Grenznutzens und der Theorie des Mustererkennens kann die künstliche Intelligenz die Evolu­tion jedoch ersetzen.

Ray Kurzweil: «Die letzte Erfindung, die die biologische Evolution machen musste – der Neokortex – führt uns zwangsläufig zur letzten Erfindung, die die Menschheit machen muss – wahrhaft intelligente Maschinen – und die beiden Designs werden sich gegenseitig inspirieren.»


1666

Gottfried Wilhelm von Leibniz (1646–1716), der grosse Mathematiker und Philosoph, ent­wickelt die Vorstellung einer universellen Algebra, die alles unter der Sonne abbilden kann. Diese Idee formuliert Leibniz als 19-Jähriger in seiner «Dissertio de Arte Combinatoria».

1869
Der englische Forscher William Stanley Jevons (1835–1882) entwickelt eine erste mechanische Rechenmaschine, die logische Probleme lösen kann. 1934 Der deutsche Ingenieur Konrad Zuse (1910–1995) erfindet den ersten digitalen Computer, den Z1, der mit Strom betrieben wird.

1943
Der brillante englische Mathematiker Alan ­Turing (1912–1954) knackt Enigma, den Geheimcode der deutschen Wehrmacht. Er gilt als Begründer der künstlichen Intelligenz und formuliert einen Test, der besagt: Wenn Experten nicht mehr unterscheiden können, ob sie mit einer Maschine oder mit einem Menschen sprechen, ist deren Intelligenz gleichwertig.

1947
Der amerikanische Mathematiker und Philosoph Norbert Wiener (1894–1964) begründet die Kybernetik, eine Weiterführung von Nachrichtentechnik und Kommunikationstheorie.

1950
Der Science-Fiction-Schriftsteller Isaac ­Asimov (1920–1992) schildert im ­Roman «I, Robot» die versuchte Macht­übernahme von Maschinen über die Menschen. Er formuliert darin die ­berühmten drei ­Gesetze der ­Robotik:

  1. Ein Roboter darf keinem Menschen schaden oder durch Untätigkeit einen Schaden an ­Menschen zulassen.
  2. Ein Roboter muss ­jeden von einem Menschen gegebenen Befehl ausführen – wenn dabei das erste Gesetz nicht gebrochen wird.
  3. Ein Roboter muss ­seine eigene Existenz bewahren, es sei denn, dies spricht gegen das erste oder zweite Gesetz.


1966
Joseph Weizenbaum ­(1923–2008) entwickelt am Massachusetts Institute of Technology Eliza, das erste Computer­programm, das die Möglichkeit der Kommunikation zwischen Mensch und Computer über natürliche Sprache aufzeigen soll.

1997
Deep Blue, ein von IBM entwickelter Supercomputer, schlägt als erster Computer einen amtierenden Schwachwelt­meister, damals Garri Kasparow.

2013
Die ETH Lausanne stellt das Human Brain Project vor. Es soll innert zehn Jahren entschlüsseln, wie das menschliche Gehirn funktioniert, und erlauben, ein künstliches Gehirn nachzu­bauen.