Wer bei dieser Frau eine Chance haben will, muss ihren Computer überzeugen. Esther-Mirjam de Boer sucht im Auftrag von Kunden Kaderleute. Bei der Auswahl setzt die Zürcherin seit Anfang Jahr auf eine Software.

Precire analysiert Bewerbungsschreiben und Videointerviews Wort für Wort – nicht bloss, was jemand sagt, sondern wie: Rund 500'000 Merkmale erkennt das Programm gemäss den deutschen Herstellern in einer Sprachprobe von 15 Minuten. Welche Wörter man verwendet, wie schnell man spricht, in welcher Tonlage. Merkmale, die mit Sprachmustern verglichen werden, die auf charakterliche Eigenschaften hinweisen ­sollen. Das Programm bewertet 29 Persönlichkeitskategorien: wie «professionell» jemand ist, wie «zuverlässig», wie «empathisch», wie «kompetitiv».

«Die Software erkennt die Persönlichkeit schneller und treffender, als ein Mensch es kann», sagt de Boer. Sie überlasse zwar nie der Maschine den Entscheid, wen sie zur Anstellung empfiehlt. «Die Software ist aber eine Beraterin, deren Fähigkeiten ich nutze.»

Selbständig lernende Helferlein

Intelligente Programme, die bei der Per­sonalauswahl mitentscheiden, sind nur ein Beispiel für jene künstliche Intelligenz (KI), die dabei ist, in jeden Lebensbereich vor­zudringen – unheimliche digitale Helferlein, denen wir Menschen das selbständige Lernen beigebracht haben.

Das Prinzip ist gar nicht so kompliziert: Der Computer sucht in einer riesigen Datenmenge Muster Facebook, Google & Co. Sie wissen, was wir morgen denken , aus denen er Verallgemeinerungen ableitet. Daraus berechnet er, mit welcher Wahrscheinlichkeit ein bestimmtes Ereignis eintritt. Und aus jedem Ergebnis lernt er, die Trefferquote zu verbessern. Netflix zum Beispiel lernt so, was wir als Nächstes anschauen wollen. Und die Bildverwaltung auf unserem Handy erkennt, ob auf einem Bild unser Hund oder der Nachbar zu sehen ist.

«Was banal klingt, macht es heute möglich, sehr anspruchsvolle Aufgaben an Maschinen zu delegieren, die so schneller und oft besser gelöst werden», sagt Thilo Stadelmann, Professor für künstliche Intelligenz und maschinelles Lernen an der ZHAW in Winterthur.

«Menschen lassen sich blenden, Maschinen nicht»

Zum Beispiel passende Bewerber finden. Intelligente Software sichtet Lebensläufe, sucht im Netz nach Kandidaten oder gibt wie Precire sogar ein Urteil ab, was für ein Mensch jemand ist. «Menschen lassen sich blenden, Maschinen nicht», sagt Stephan Siegfried, dessen Firma 1-Prozent die KI-Software Precire in der Schweiz vertreibt. Die Software erkenne das Potenzial einer Person, und all­fällige Titel seien für sie ohne Bedeutung. So steige die Wahrscheinlichkeit einer optimalen Besetzung. «Bewerbende mit einem unkonventionellen Lebenslauf werden gleich behandelt.» Das Programm sehe mehr, werde nie müde, kenne keine Vorurteile und habe keine Tagesform.

Anzeige

Auch wenn der Computer korrekt arbeitet, entscheidet er aber nicht immer richtig. Das musste Amazon lernen. Vor fünf Jahren hatte der ­Onlinehändler eine Software entwickelt, die in den Daten erfolgreicher Mitarbeiter nach Gemeinsamkeiten suchte. Daraus erstellte die Software 50'000 Schlüsselbegriffe, nach denen sie Lebensläufe, Social-Media-Profile und alle verfügbaren Daten von Jobbewerbern absuchte. Wer die meisten Treffer hatte, erhielt die höchste Bewertung. Auch hier war der ­Gedanke: Die Maschine sieht mehr als der Mensch und urteilt ohne Emotionen.

Amazons Algorithmus sortierte systematisch Frauen aus

Die Amazon-Personalabteilung stellte aber mit der Zeit etwas Erschreckendes fest: Es wurden nie Frauen für Kaderjobs Zu hohe Anforderungen Sprache der Jobinserate schreckt oft Frauen ab ausgewählt. Der Algorithmus Big Data Die unheimliche Macht der Algorithmen hatte sie systematisch aussortiert. Erst nach langem Suchen fanden die Programmierer die Erklärung. Amazon hatte in der Vergangenheit hauptsächlich Männer eingestellt. Daraus schloss das Programm, dass die Eigenschaft, ein Mann zu sein, und alles, was darauf hinwies, gut ist – und alles Weibliche schlecht.

Die Erkenntnis ist bedeutsam für jede künstliche Intelligenz. Wenn Daten Diskriminierungen enthalten, reproduzieren selbstlernende Maschinen sie und können sie sogar noch verstärken.

Diskriminierung zu erkennen und zu eliminieren, ist nicht einfach. Selbst die Entwickler wissen oft nicht, wie ihre Algorithmen genau arbeiten. Amerikanische Informatiker versuchten, aus Datensätzen alles zu entfernen, was auf die Hautfarbe einer Person schliessen lässt – dem Computer gelang es trotzdem. Ebenso wenig schafften es die Entwickler des Amazon-Algorithmus, ihrem Programm eine geschlechtsneutrale Bewertung beizubringen. Sie stellten das Projekt schliesslich ein.

Anzeige

Auch an Precire gibt es Kritik. «Sprache und Persönlichkeit hängen zwar zusammen, die nachgewiesenen Zusammenhänge sind aber extrem gering», sagt Uwe Kanning, Professor für Wirtschaftspsychologie an der Hochschule Osnabrück. Aus den Mustern, die Precire in Wortwahl und Ausdrucks­weise erkennt, las­se sich nicht ableiten, wie leistungsfähig jemand im Beruf sei.

Schweizer Skepsis

In der Schweiz suchen erst ­wenige Firmen mit Hilfe von künstlicher Intelligenz Per­sonal aus. Gemäss einer Umfrage der Uni St. Gallen sind es nur ein gutes Dutzend von 160 Unter­nehmen, die meisten aus dem Finanz- und Kommunikationsbereich.

Der Weltkonzern Unilever etwa setzt in den USA das Programm Hirevue ein und wertet Mimik, Wortwahl und Antwortgeschwindigkeiten von Kandidaten aus. In der Schweiz verzichtet er darauf. «Die Zielgruppe steht solchen Verfahren hierzulande noch skeptisch gegenüber.»

Firmen müssen zwar nicht begründen, ­warum sie Bewerbern absagen. Das Datenschutzgesetz verlangt aber auch von Privaten, dass sie Daten rechtmässig, verhältnismässig und transparent bearbeiten. Daher müssen Firmen auf Anfrage mitteilen, wenn eine Soft­ware entschieden hat. «Wer aber dagegen verstösst, hat in der Schweiz wenig zu befürchten», sagt Kurt Pärli, Arbeitsrechtler an der Uni Basel. Es gebe zwar viel Missbrauch, doch nur sehr wenige Fälle kämen vor Gericht – auch weil im Gesetz ­griffige Sanktionen fehlen. Anders in der EU: «Wenn sich Firmen nicht an die Regeln hal­ten, drohen dort Bussen in Millionenhöhe.»

iBorderCtrl: EU testet Grenzkontrolle durch KI

Kann es die Maschine tatsächlich besser? Das will die EU wissen, wenn es um die Einreise nach Europa geht. Die dafür eingesetzte Technologie nennt sich iBorderCtrl, entwickelt hat sie die Luxemburger Firma European Dynamics. Das Pilotprojekt erhält Geld vom EU-Forschungsprogramm Horizon 2020, an dem sich auch die Schweiz beteiligt. Bis Ende August konnten sich Einreisende an der un­garischen, griechischen und lettischen EU-­Grenze freiwillig dem Prozedere unterziehen.

Anzeige

Dafür muss man sich zuvor am Computer registrieren, ein Passbild, das Visum und den Nachweis ausreichender finanzieller Mittel hochladen. Dann gilt es, zahlreiche Fragen zu beantworten, durch die ein virtueller Grenzbeamter führt, ein Avatar. «Was ist Ihr Vor­name?», «Was ist der Grund für Ihre Reise?» Banale Fragen, scheint es. Doch anders als an der Grenze wird man während der Befragung gefilmt. Ein KI-­Programm wertet die Daten sofort aus. Es analysiert Mikrobewegungen im Gesicht Physiognomie Ins Gesicht geschrieben und schätzt ein, ob der oder die Befragte die Wahrheit sagt; ein auf Mimik basierender Lügendetektor. Auch mit Informationen aus sozialen Medien könnte iBorderCtrl die Daten anreichern. Im Pilotversuch wurde nach Kritik darauf verzichtet.

Reisende erhalten nach dem Gespräch einen QR-Code. So sieht der Grenzbeamte unmittelbar, ob die Person vertieft kontrolliert werden muss oder in einem vereinfachten Verfahren einreisen darf. Der definitive Entscheid wird der KI-Software zurückgemeldet, damit sie sich verbessern kann.

In einem Vortest soll iBorder­Ctrl eine Treffsicherheit von 75 Pro­zent erzielt haben. Allerdings mit lediglich 34 Versuchspersonen. Wie viele Reise­willige sich im mehrmonatigen Pilotprojekt der Software stellten, behält die Firma für sich.

Klage eingereicht

Anfragen des deutschen Europaabgeordneten Patrick Breyer (Piratenpartei) hat die EU nicht beantwortet, unter anderem wegen des «kommerziellen Werts» der Informationen. Breyer reichte darauf im März Klage gegen die verantwortliche EU-­Kommission ein. Bei dieser «hochgefährlichen Entwicklung» müsse das «Transparenzinteresse von Wissenschaft und Öffentlichkeit vor privaten Gewinninteressen» stehen.


Anzeige

«Der Staat muss gegenüber dem Bürger Entscheide grundsätzlich begründen können, auch wenn sie von einem KI-System getroffen oder ‹nur› vorbereitet werden», sagt Nadja Braun Binder, Professorin für Öffentliches Recht an der Uni Basel. Das heisse nicht, dass jeder einzelne Arbeitsschritt, den ein KI-System tätigt, nachvollziehbar sein muss. «Für den Betroffenen müssen aber die Gründe für eine Entscheidung zugänglich und erklärbar sein, damit er Rechtsmittel ergreifen kann.»

Es ist umstritten, ob Bewertungen von iBorderCtrl je nachvollziehbar sein werden. Dass die Mimik einer Person Schlüsse auf die Glaubwürdigkeit ihrer Aussagen zulässt, stellen Psychologen aber grundsätzlich in Frage.

Charakterchecks via Stimmanalyse oder Lügentests über Mikromimik Mikromimik Der Geheimcode ­unseres Gesichts : Der Einsatz von künstlicher Intelligenz schürt Erwartungen und wirft Grundsatzfragen bei der Neuvermes­sung der Menschen auf. Entdeckt der Com­pu­ter dank maschinellem Lernen Algorithmen «Was Kinder heute lernen, wird bald bedeutungslos sein» neue und beständige Muster im menschlichen Verhalten?

Illustration: Künstliche Intelligenz bei der Grenzkontrolle
Quelle: Anne Seeger und Andrea Klaiber
Anzeige

Das Problem mit dem undynamischen Generalkonsent

Die Patientin musste am Herzen operiert werden. Für eine Vorbesprechung besuchte sie im Juli das Herz­zentrum eines Schweizer Uni­versitätsspitals. Am Empfang erhielt sie ein Formular, das sie hätte unterschreiben sollen. Sie tat es nicht, da sie kaum Zeit hatte, das Dokument zu lesen oder gar zu verstehen. Eine Aufklärung fand nicht statt.

Seit Anfang Jahr bitten Uni­versitätsspitäler alle Patientinnen und Patienten, einen sogenannten Generalkonsent zu unterzeichnen. Das Dokument ist eine Art Blankocheck, mit dem man alle bestehenden und künftigen medizinischen Daten in anonymisierter Form der Forschung zur Verfügung stellt. Wissenschaftler, Pharma- und Medizinalfirmen setzen grosse Hoffnungen in das Dokument. Es soll ihnen endlich mehr Daten zugänglich machen, die sie für ihre Forschung dringend brauchen. Um selbstlernende Algorithmen für Bild­analysen zu trainieren oder für die Entwicklung personalisierter Medikamente. In der Radiologie ist der Einsatz künstlicher Intelligenz bereits Standard, zum Beispiel für das Erkennen von Krebserkrankungen.

Über 80 Prozent der Patienten unterzeichnen den Generalkonsent gemäss Schätzungen. Angedacht worden war das Dokument 2015 von der Schweizerischen Akademie der Medizinischen Wissenschaften. Eine erste Variante scheiterte aber an Vorbehalten der Patientenorganisationen und wegen datenschützerischer Bedenken. Von der Öffent­lichkeit kaum wahrgenommen, einigten sich Anfang Jahr die Universitätsspitäler trotzdem auf das Dokument. Die Ethikkommissionen für die Forschung am Menschen (Swissethics) hatten es zuvor abgesegnet.
 

Anzeige

«Es wird ständig vom selbstbestimmten Patienten geredet. Was wir jetzt haben, ist genau das Gegenteil.»

Franziska Sprecher, Gesundheitsjuristin


«Die Unispitäler haben unsere Einwände ignoriert», kritisiert Franziska Sprecher, Direktorin des Berner Zentrums für Gesundheitsrecht und Management im Gesundheits­wesen. Sie war für die Patientenorganisation in der Begleitgruppe für den Generalkonsent Biobanken Spitäler sammeln Blut – Datenschützer warnen . «Die Spitäler arbeiten jetzt dennoch mit dem Dokument, das jeglichen Einfluss der Patienten auf die Datenverwendung beschneidet.» Tatsächlich kann man beim Generalkonsent nur alles freigeben oder alles blockieren.

Eine dynamische Einwilligung wäre für Sprecher die bessere Lösung. «Der Patient muss die Kontrolle über seine Vollmacht behalten und Daten für bestimmte Forschungszwecke freigeben oder verweigern können. Es wird ständig vom selbstbestimmten Patienten geredet. Was wir jetzt haben, ist genau das Gegenteil.» Sprecher hofft, dass der Generalkonsent überarbeitet wird.

Welche privaten Firmen sollen Zugang zu den Daten erhalten?

Ob Patienten wirklich in der Lage sind, solche Entscheide zu treffen, ist umstritten. Die Zürcher Medizinethikerin Effy Vayena (siehe Interview) hat Bedenken: «Wir sind schon ausserhalb der Medizin überfordert, die Verwendung unserer Daten zu überschauen und zu steuern. Wie sollen wir zusätzlich Sinn und Seriosität jedes wissenschaftlichen Projekts selber beurteilen, bevor wir Daten freigeben?» Dafür seien staatliche Fachgremien besser ausgerüstet. Sie müssten aber erst beweisen, dass sie ihre Entscheide mit Bedacht und im Interesse der Menschen fällen.

Es geht nicht nur darum, ob ein Forschungsprojekt Erkenntniswert hat und ethisch vertretbar ist. Es muss auch entschieden werden, welche privaten Firmen unter welchen Bedingungen Zugang zu den Daten erhalten.
 

Anzeige

«Geraten solche Informationen in falsche Hände, kann das fatale Folgen haben.»

Franziska Sprecher, Gesundheitsjuristin


Für die Gesundheitsjuristin Franziska Sprecher ist zu viel nicht klar geregelt. «Wir sollten uns nicht der Illusion hingeben, die Daten liessen keine Rück­schlüsse auf einzelne Patienten zu, nur weil die Absender anonymisiert sind. Je mehr Daten über eine Person existieren, desto ­einfacher ist sie identifizierbar. Wenn solche Informationen in falsche Hände geraten, kann das fatale Folgen für die Betroffenen haben.»

Immerhin steigt durch die Vereinbarung der Druck auf die Spitäler, ihre zum Teil ­desolate Datenerfassung und -verwaltung zu überdenken und zu vereinheitlichen. Selbstbezogene Spitäler und ein ausgeprägter Kantönligeist sind mitverantwortlich dafür, dass die Schweiz bei der Digitalisierung im Gesundheitswesen Elektronisches Patientendossier Die Gier nach Gesundheitsdaten Jahre zurückliegt im Vergleich zu anderen europäischen Ländern.

Derweil bieten immer mehr Firmen ihre Untersuchungsalgorithmen direkt den Patientinnen und Patienten an. In Form von Apps zum Beispiel, die bei der Früherkennung von Hautkrebs Melanom Schweizer sind Rekordhalter bei Hautkrebs helfen. Schon wird darüber spekuliert, ob ärztliches Fachwissen für Diagnosen an Bedeutung verlieren wird. In China treten KI-Computer bereits zu Wettbewerben gegen Mediziner an – und gewinnen regelmässig.

Illustration: Smart City
Quelle: Anne Seeger und Andrea Klaiber
Anzeige

Smart Cities à la Shenzhen: Die schlauen Städte

Der Bildschirm ist so gross wie eine Hauswand. Überall flimmern Videos, leuchten Karten, blinken Kurven und Diagramme. Verkehrsströme, Energieverbrauch, Luftqualität – das ganze Leben der Stadt in Echtzeit. «Man fühlt sich wie in der Kommandozentrale der Nasa», sagt Felix Kamer.

Der Zürcher ist Manager beim Telekom­munikationsriesen Huawei. 2018 lebte er im chinesischen Shenzhen und erlebte den Aufbau des Smart City Center mit, des digi­talen Kontrollzentrums der Metropole. Intelligente, mit Sensoren ausgestattete und mit dem Internet verbundene Ampeln, Müll­container und U-Bahn-Zugänge erfassen alle Daten, die in der Stadt anfallen. Im Smart City Center fliessen sie zusammen, Computer werten sie aus und leiten daraus die optimale Steuerung ab. Ampeln richten sich nach dem prognostizierten Verkehrsaufkommen Selbstfahrende Autos Mit Hightech in den Verkehrskollaps , die Routen der Müllabfuhr nach dem Füllstand der Container.

Alles optimiert – und voll überwacht: Shenzhen hat ein Punktesystem eingeführt Facebook, Google & Co. Sie wissen, was wir morgen denken , das Bürger für alle ihre Handlungen belohnt oder bestraft. Wer sich etwa um alte Leute kümmert, kommt zu mehr Punkten und so leichter zu Krediten oder einem Visum; wer Rechnungen nicht zahlt, wird öffentlich angeprangert.

«Smart» werden will auch die Schweiz. Fast jede Stadt erstellt zurzeit ein Smart-City-Konzept. Wädenswil ZH etwa testet den «intelligenten Lichtmast». Der leuchtet nur, wenn es nötig ist, liefert Strom für Elektroautos, misst den Verkehrsstau und sammelt Daten zu Lärm und Luftqualität. Zudem ist er ein WLAN-Hotspot.

Die Furcht vor der Angst der Stimmbevölkerung

Überwachung und Kontrolle seien ein ­zentrales Element des Smart-City-Konzepts, sagen Kritiker. In Deutschland verliehen ihm Datenschutzorganisationen darum den Big Brother Award. Der niederländische Architekt Rem Koolhaas schrieb in einem Positions­papier an die EU-Kommission: «Bürger, denen die Smart City zu dienen vorgibt, werden wie Kinder behandelt. Wir sind gefütterte, niedliche Icons des urbanen Lebens, ausgestattet mit harmlosen Geräten, kohärent in angenehmen Diagrammen, wo die Bürger und Geschäfte von mehr und mehr Dienstleistungen umgeben sind, die Kontrollblasen kreieren.»

Anzeige

«Wie die technischen Möglichkeiten in einer Smart City angewendet werden, ist eine politische Frage», entgegnet Stephan Haller, der an der Berner Fachhochschule zu Smart Citys forscht. In der Schweiz wolle man die Städte durch Digitalisierung und künstliche Intelligenz eigentlich bürgernäher machen.

Daten seien unerlässlich, um eine urbane Gesellschaft zu organisieren. Personalisierte Daten seien aber meist nicht nötig, so Haller. «Ob der Sensor am intelligenten Lichtmast nur die Fahrzeuge zählt oder die ganze Strasse videoüberwachen soll, müssen wir offen diskutieren.» Wie im Gesundheitsbereich könne man die Information vom Absender trennen.

Haller fürchtet sich weniger vor einem ­Polizeistaat als vor einer Stimmbevölkerung, die aus Angst vor Datenmissbrauch Smart­City-Projekte beerdigen könnte. «Damit würden wir uns viele Chancen verbauen.»
 

«Ohne Zusammenarbeit mit privaten Firmen geht es nicht. Aber die Datenhoheit muss beim Staat sein.»

Stephan Haller, forscht zum Thema Smart Citys


Bedenken will er mit Transparenz und Bürgerbeteiligung zerstreuen. Vorbild sei Estland, der wohl am meisten digitali­sierte Staat Europas Schleppende Digitalisierung bei Behörden Der Papierkram kostet Milliarden . Dort hat jeder Bürger ein Konto mit seinen Daten mit klar geregelten Zugriffsrechten. Er kann sehen, welche Behörde seine Daten einsieht, und sie zur Rechenschaft ziehen. Unerlaubte Zugriffe werden bestraft.

Für Haller ist die Smart City sogar eine Möglichkeit, die Datenhoheit von den Techfirmen wieder stärker in den Rechtsstaat zurückzuholen. Meist passiert aber genau das Gegenteil. Wie in Toronto. Dort verwandelt Googles Mutterfirma Alphabet im Alleingang das Waterfront-Viertel in eine Smart City.

Anzeige

Ohne Zusammenarbeit mit privaten Firmen gehe es nicht, sagt Haller. Aber die Datenhoheit müsse jederzeit beim Staat sein, auch wenn dadurch die Entwick­lung der Smart City langsamer verlaufe und die Kosten steigen.

Was ist der Preis? 

Aber wollen wir überhaupt künstlich intelligente Städte? Wollen wir, dass Programme uns Entscheidungen abnehmen – bloss weil sie besser sind? Was müssen wir hergeben, damit wir immer grüne Welle haben, immer sofort einen Parkplatz finden und stets die aktuellen Stickoxid-Werte aufs Handy geliefert bekommen?

Bei der Verleihung des deutschen Big Brother Award wurde deshalb gewarnt: «Das Schlaraffenland ist nicht das Paradies. Es macht satt, aber nicht glücklich. […] Wir brauchen den Zufall, das Andere, das Unbekannte, die Überraschung, die Herausforderung, um zu lernen und uns weiterzuentwickeln. Wir müssen uns als Menschen frei entscheiden können, und es muss uns möglich sein, Fehler zu machen. Wie anders sollten wir unseren ‹Moral-Muskel› trainieren?»

Starke und schwache KI: Wie weit sind wir?

Was heute künstliche Intelligenz (KI) genannt wird, ist von menschlicher Intelligenz meilenweit entfernt. Meist handelt es sich um sogenanntes Machine ­Lear­ning: Eine Software erkennt Muster aus Daten, die Menschen kaum oder nicht so schnell erkennen würden. Je mehr Daten der Computer verarbeitet, umso genauer erkennt er die Muster. Er lernt quasi dazu. Aus den Mustern kann er Schlüsse ziehen oder Pro­gnosen für ähnliche Daten erstellen. Das wird schwache KI genannt.

Eine starke KI dagegen müsste mit dem Menschen vergleichbare intellektuelle Fertigkeiten aufbringen und wie ein Mensch reagieren. Das ist Zukunftsmusik.

Mehr Selbständigkeit sollen Computer über neuronale Netzwerke Künstliche Intelligenz «Am Anfang sind sie doof» erlangen. Sie imitieren das Gehirn: Neuronen nehmen Informa­tionen von aussen oder von anderen Neuronen auf und leiten sie an andere weiter. Das Netzwerk wird mit Daten trainiert. Dabei verändern sich die Gewichtungen der Verbindungen, abhängig von den Lern­regeln und Ergebnissen.

Manche Forscher erhoffen sich einen Schritt in Richtung menschlicher Intelligenz, indem Computer mit viel mehr Sensoren ver­bunden werden, so viel inten­siver mit ihrer Umwelt interagieren können und eine Art von Körperlichkeit erlangen. Das Zusammenspiel von menschlichem Hirn und Körper wird gewissermassen imitiert.

Anzeige

3. Schweizer Digitaltag

Sie möchten noch mehr über Chancen und Per­spektiven von künstlicher Intelligenz und der Digi­talisierung erfahren?

Am Dienstag, 3. September, findet der dritte nationale Digitaltag statt – mit mehr als 300 kostenlosen Vor­trägen, Debatten, Bühnenshows, Ausstellungen und Kursen an zwölf Standorten in der ganzen Schweiz.

Dieses Jahr steht der Aktionstag im Zeichen des Themas «lifelong learning». Das Beobachter-Mutterhaus Ringier ist einer von sechs Hauptpartnern des Digitaltags.

Mehr dazu unter digitaltag.swiss.

«Jede Woche das Beste vom Beobachter»

Raphael Brunner, Online-Redaktor

Jede Woche das Beste vom Beobachter

Der Beobachter Newsletter