Elon Musk und viele Forscherinnen und Forscher haben ein Moratorium bei künstlicher Intelligenz (KI) gefordert. Ist ChatGPT wirklich gefährlich? 
Elisabeth Ehrensperger: Wir erleben derzeit einen Hype, der nicht ganz gerechtfertigt ist. Die Technologie dahinter gibt es schon seit Jahren. Neu ist, dass sie jetzt einer breiten Öffentlichkeit zugänglich ist.

Verharmlosen Sie da nicht ein wenig? Die Leistungsfähigkeit von ChatGPT ist doch erstaunlich. Die KI schreibt stimmige Texte zu fast beliebigen Themen, schreibt Computer-Codes und beantwortet sogar akkurat komplizierte philosophische Fachfragen. Es scheint, als ob menschliche Denkleistung bald nicht mehr nötig wäre.
Das mag stimmen. Es gibt aber auch die andere Seite. Eine Kollegin fragte ChatGPT im Rahmen eines Forschungsprojekts, ob es in der Schweiz bereits Sozialkreditsysteme gebe. Das sind Systeme, die sozial erwünschtes Verhalten belohnen. ChatGPT spuckte eine ganze Liste von Projekten mit entsprechenden Links aus. Meine Kollegin erschrak ob der Antwort, hatte sie doch bei ihrer Recherche nichts Vergleichbares gefunden. Als sie die Liste durchging, stellte sich heraus, dass die Angaben allesamt erfunden waren – die Links führten ins Leere. ChatGPT ist also keine verlässliche Quelle. Auch wenn die Antworten dieser Anwendung richtig sein können, gibt sie uns dafür keine Garantie; die Antworten können geradeso gut auch falsch sein.
 

Das ist beängstigend. Wie sollen wir mit einer solchen Technologie umgehen?
Angst ist ein schlechter Ratgeber. Ich glaube, wir sollten uns von der Vorstellung lösen, dass neue Technologien wie eine Lawine über uns hinwegrollen, gegen die wir uns nicht wehren können. Denn wir haben die Möglichkeit, Gegensteuer zu geben und zu regulieren.

Zur Person

Elisabeth Ehrensperger ist Geschäftsführerin der Stiftung für Technologiefolgen-Abschätzung TA-SWISS. Im Interview mit dem Beobachter spricht sie über die Risiken von künstlicher Intelligenz und wie die Schweiz als demokratische Gesellschaft diese minimieren kann.
Quelle: Hannes Saxer / PD

Elisabeth Ehrensperger ist Geschäftsführerin der Stiftung für Technologiefolgen-Abschätzung TA-SWISS. Sie hat an der Universität Bern Geschichte, Politik- und Medienwissenschaften studiert und 2006 mit einer Dissertation zur Allgemeinen Menschenrechtserklärung den Doktortitel erlangt. Es folgten mehrere Jahre Tätigkeiten in der Forschung zur Funktion nationaler Ethikkommissionen in europäischen Demokratien am Ethik-Zentrum der Universität Zürich sowie Lehraufträge an den Universitäten Zürich, Freiburg, Luzern und Bern zu Menschenrechten, Demokratietheorien und Diskursethik.

Blicken wir kurz zurück, bevor wir darüber reden. Wie hat die Menschheit bisher den Umgang mit riskanten Technologien wie Kernspaltung oder Gentechnik gemeistert?
Kernspaltung und Gentechnik würde ich nicht in der gleichen Kategorie zusammenfassen. Bei der Atomtechnologie geht es vor allem um Fragen der Sicherheit. Die Gentherapie hingegen greift in das Erbgut ein und berührt damit noch tiefere Fragen: Welches Menschenbild haben wir? Soll die Gentherapie genutzt werden, um Krankheiten zu heilen? Oder dürfen wir damit den Menschen auch «optimieren»? Und wer bestimmt, wo die Grenze zwischen Therapie und Optimierung verläuft?
 

Die «Optimierung» scheint noch eine geringe Akzeptanz zu haben. Ein chinesischer Arzt, der als Erster gentechnisch veränderte Menschen geschaffen hatte, wurde Ende 2019 zu einer dreijährigen Gefängnisstrafe verurteilt. 
Ja, es gab weltweit einen grossen Aufschrei, der allerdings ein wenig heuchlerisch war. Es gab nämlich eine ganze Community, die zum gleichen Thema forschte, es gab Gelder dafür, und die Ergebnisse wurden an Kongressen präsentiert. Es gab aber immer noch den Konsens, wonach Eingriffe in die menschliche Keimbahn verboten sein sollen. Typischerweise hat man seither begonnen, an diesem Konsens zu schrauben. Das scheint eine Konstante in der Wissenschaftsgeschichte zu sein: Wenn etwas technisch machbar ist, wird es auch gemacht. Und nachträglich von gewissen Ethikkommissionen legitimiert. Es wird dann etwa argumentiert, die Technologie an sich sei neutral, Regulierungen würden die Forschung und so auch die damit einhergehenden Chancen behindern.
 

Wurden denn in der Vergangenheit bei der Erforschung von neuen Technologien rote Linien überschritten?
Das ist eine sehr schwierige Frage. Einerseits dürfte mit der Entwicklung der Atombombe eine rote Linie überschritten worden sein. Der Abwurf der beiden Bomben ist sicher nicht zu rechtfertigen. Andererseits kann man argumentieren, dass im Kalten Krieg das blosse Vorhandensein von Nuklearwaffen, das sogenannte Gleichgewicht des Schreckens Umgang mit bedrohlichen Nachrichten Wie bekommt man Ängste in den Griff? , uns eine sehr lange «Friedensperiode» beschert hat.

«Die demokratische Aushandlung von Regeln ist das Beste, was wir machen können.»

In der militärischen Gain-of-function-Forschung geht es darum, einen Virus zu schaffen, der möglichst viele Menschen anstecken kann und möglichst tödlich ist. Ist das eine rote Linie?
Ja, vielleicht am ehesten. Bei der militärischen Forschung kommt hinzu, dass sie der öffentlichen Kontrolle weitgehend entzogen ist. Was gemacht wird oder nicht, wird im Geheimen entschieden.
 

Gibt es in der zivilen Forschung funktionierende Kontrollgremien?
Es gibt zum Beispiel die Unesco, die sich mit dem Spannungsfeld zwischen Forschungsfreiheit und gesellschaftlicher Verantwortung beschäftigt. Auch in der EU gibt es entsprechende Gremien, und nicht zuletzt sorgen Akademien und Forschungsgemeinschaften für eine gewisse Kontrolle. Allerdings setzt Kontrolle voraus, dass es auch allgemeingültige Regeln gibt, deren Einhaltung kontrolliert werden kann.
 

Damit sind wir zurück beim Thema Regulierung: Wie könnten diese Regeln aussehen? Und: Gibt es verbotenes Wissen, das sich der Mensch nicht erwerben soll, weil es zu riskant ist?
Wer sich auf den Standpunkt stellt, es gebe verbotenes Wissen, schränkt die Forschungsfreiheit ein. Sie ist aber ein hohes Gut. Was die Regeln anbelangt, wie wir mit diesem Wissen umgehen sollen, müssen wir zur Kenntnis nehmen, dass wir in einer säkularen und pluralistischen Gesellschaft leben. Es gibt keine religiöse Autorität mehr, auf die man sich berufen könnte, um auf politischer Ebene Verbote zu begründen. Wir müssen also um einen gesellschaftlichen Konsens ringen, soll sich nicht die Ansicht durchsetzen, dass «deine Wahrheit dort aufhört, wo meine beginnt». Vor diesem Hintergrund ist die demokratische Aushandlung von Regeln das Beste, was wir machen können.

«Die Gefahr könnte auch darin liegen, dass sich der Mensch freiwillig einer Maschine unterwirft.»

Soll der Staat die Rolle des Regulators übernehmen?
Ja, vorausgesetzt, es handelt sich um einen möglichst direktdemokratisch organisierten Staat. Denn auch Staaten haben Interessen und können versucht sein, Verbote durchzusetzen, wenn diese Interessen in Frage gestellt oder torpediert werden. Wann haben wir es mit Zensur zu tun? Oder mit der Einschränkung von Grundrechten Grundrechte Wie viel Macht hat der Staat? zugunsten eines staatlich definierten Gemeinwohls? Auch Unternehmen müssen sich diese Frage stellen. Nehmen wir das Beispiel ChatGPT: Die Verantwortlichen betonen, ihre Modelle würden so programmiert, dass sie niemanden diskriminierten und keine Vorurteile reproduzierten. Aber nach welchen Kriterien findet die Programmierung statt? Wer legt diese fest?
 

Wenn weder Staat noch private Unternehmen als Autoritäten im Umgang mit riskanten Technologien taugen, was bleibt dann übrig?
Eine möglichst breite demokratische Abstützung ist, wie gesagt, der beste Weg. Wer von den Technologien betroffen ist, muss sich äussern können, muss gehört werden und auch mitentscheiden können. Hat diese demokratische Ausmarchung stattgefunden, sollen Staaten ihre Handlungsspielräume nutzen, so wie es Italien bei ChatGPT gemacht hat. Die Italiener haben sinngemäss gesagt, «Moment, wir haben da noch einige Fragen zum Datenschutz, zum Urheberrecht, zum Jugendschutz et cetera. Solange diese nicht zufriedenstellend geklärt sind, lassen wir die Technologie nicht zu.»
 

Neue Technologien sind weltweit verfügbar. Sind da regionale Regulierungen sinnvoll?
Der Einwand ist berechtigt. Aber wir sollten vor solchen Fragen nicht gleich kapitulieren. Die Schweiz ist nicht zu klein, um selbst zu bestimmen, wie sie mit neuen technologischen Entwicklungen umgehen will. Nach der demokratischen Entscheidungsfindung müssen unsere rechtsstaatlichen Mittel ausgeschöpft werden; dann können zum Beispiel die Konsumentenrechte gestärkt werden, indem man Anbieter verpflichtet, maximale Transparenz über das Funktionieren ihrer Technologie herzustellen. Ich glaube, so können wir weitgehend verhindern, dass neue Technologien unerwünschte Folgen haben. Vielleicht liegt die Gefahr ja ohnehin in einem gerade umgekehrten Phänomen: dass sich der Mensch freiwillig einer Maschine unterwirft beziehungsweise der Mensch sich der Technologie anpasst.
 

Wie meinen Sie das?
Es gibt die Vorstellung, dass die künstliche Intelligenz dereinst die menschliche Intelligenz überbieten und obsolet machen wird. Und es gibt bei den sogenannten Transhumanisten die Vorstellung, dass der Mensch bloss eine sehr komplizierte Maschine ist, die immer besser repariert werden kann und letztlich unsterblich werden wird. Letzteres erachte ich ein Stück weit als pathologisch. Wir sollten uns mit einem gesunden Selbstbewusstsein den neuen Technologien stellen. Und dabei an unserer menschlichen Intelligenz festhalten, auch wenn das anstrengend ist.

Der Beobachter-Newsletter – wissen, was wichtig ist.

Das Neuste aus unserem Heft und hilfreiche Ratgeber-Artikel für den Alltag – die wichtigsten Beobachter-Inhalte aus Print und Digital.

Jeden Mittwoch und Sonntag in Ihrer Mailbox.

Jetzt gratis abonnieren