1. Home
  2. Stimmanalyse: Hokuspokus mit fatalen Folgen?

StimmanalyseHokuspokus mit fatalen Folgen?

Hokuspokus mit fatalen Folgen?
Bild: Andrew Archer

Mit Stimmanalyse identifizieren Firmen wie die Swisscom ihre Kunden. Damit öffnet sich ein gigantisches Geschäftsfeld. Die Folgen machen Angst.

von Yaël Debelle

Sie werden an Parkinson erkranken. Das verrät Ihre Stimme. Die Krankenkasse hat sie aufgezeichnet und von einer Software analysieren lassen. Die Kasse wird Sie für diese Krankheit nicht versichern.

«Das wird kommen – so sicher wie das Amen in der Kirche», sagt Jarek Krajewski. Der Wirtschaftspsychologe erforscht an der Universität Wuppertal, was die Stimme über Emotionen, Charakterzüge und Krankheiten preisgibt. Mit seinem Team zerlegt er Sprach­signale in kleinste Frequenzteile. Ein paar Sätze, in ein Mikrofon gesprochen, den Rest erledigt der Computer: Eine Software analysiert die Sprach­signale und sucht nach Mustern.

Vor Jahren ging es noch darum, ob die Stimme nasal oder gehaucht, ­monoton oder lebhaft, laut oder leise klingt. Rhythmik, Melodie, Pausensetzung und Tonhöhe wurden bestimmt. Heute können laut Krajewski über 200'000 Merkmale erfasst werden. Die meisten sind für Menschen nicht ­hörbar und können daher mit Worten nicht beschrieben werden. Mathematik und Statistik sollen zeigen, was der Mensch fühlt, wer er ist, wie es um ­seinen Körper und seine Seele steht.

Seit August analysiert auch die Swisscom die Stimmen ihrer Kunden. Nicht um zu wissen, wie es ihnen geht, sondern um sie zu identifizieren. Wer bei der Swisscom-Hotline anruft und etwa den Vertrag ändern will, wird aufgezeichnet.

Eine israelische Software erstellt einen Stimmabdruck, genannt Voiceprint. Er funktioniert wie ein Fingerabdruck: Wenn jemand ein zweites Mal anruft, erkennt das System den Sprecher innert Sekunden. Einwilligen muss niemand, das Verfahren wird automatisch angewendet – es sei denn, man macht sich die Mühe, Voice­print im Kundenzentrum abzulehnen.

«Das ist beängstigend und gefährlich», sagt der Zürcher Rechtsanwalt und Datenschutzexperte Martin Steiger. «Es gibt einen regelrechten Hype um Stimmanalysemethoden.» Dabei werde viel geschummelt. Steiger kritisiert, dass die Swisscom keine ausdrückliche Einwilligung einhole. Aus­serdem könne sie Daten dieser Art künftig für andere Zwecke verwerten – denn auch die Swisscom wolle solche Daten vergolden.

«Das ist beängstigend und gefährlich. Es gibt einen regelrechten Hype.»

Martin Steiger, Rechtsanwalt

Sie setzen sich ins Auto. Damit Sie den Motor starten können, müssen Sie ins Mikrofon sprechen. Doch das Auto springt nicht an, Sie haben zu wenig geschlafen.

Wirtschaftspsychologe Krajewski arbeitet an stimmbasierten Fahrerassistenzsystemen für einen deutschen ­Autohersteller. Namen nennt er nicht – man wolle den Marktvorsprung nicht gefährden, sagt Krajewski, der für seine Forschungsprojekte mit Konzernen wie Airbus, BMW, Bosch und Pfizer zusammenspannt.

Jahrzehntelang war die Stimm­analyse eine Nischenforschung an Universitäten. Heute gibt es allein in Deutschland mehrere spezialisierte Firmen, die das Verfahren kommer­ziell nutzen wollen. Zudem müsse man davon ausgehen, dass IT-Konzerne und Geheimdienste noch viel mehr Geld in die Technologie investieren, sagt Krajewski.

Der Wissenschaftler hat eine eigene ­Firma gegründet. Die Universitäten arbeiten langsam – und der Markt ­verlangt nach neuen Technologien, die Kunden und Patienten durchleuchten. Versicherungen wollen den Gesundheitszustand ihrer Klienten kennen, Personalabteilungen die Persönlichkeit ihrer Bewerber, Konzerne die Kauflaune ihrer Kunden.

«Es ist ein immenses Geschäftsfeld», sagt Krajewski. Die Technologie sei in den Startlöchern, die Algorithmen seien da. Einige Firmen würden heute schon fertige Produkte anpreisen, doch das seien erst Prototypen.

Damit eine Software zuverlässig Muster zuordnen kann, benötigt sie genügend Vergleichsdaten. Wenn man zum Beispiel wissen will, ob ein Sprecher depressiv ist, muss man seine Stimme mit jenen von min­destens 500 Menschen vergleichen, die vorher mittels klinischer ­Diagnose in Depressive und Nicht-­Depressive eingeteilt wurden. Doch von diesen Vergleichsdaten gibt es noch zu wenige.

«Die klinische Stimmanalyse in der Psychiatrie wäre eine tiefe Missachtung der Bedürfnisse von Patienten.»

Mario Gmür, Psychiater

Sie fühlen sich matt, seit Wochen. Der Hausarzt lässt sie ein paar Sätze ins Mikrofon seines Smartphones sprechen. Eine App schickt Ihre Stimmdaten an einen Server und vermeldet wenige Sekunden später: Sie leiden an einer Depression.

«Apps sind die Zukunft der Stimmanalyse», sagt Jörg Langner. Der ­Mathematiker hat die Berliner Firma Audioprofiling gegründet und programmiert Algorithmen, die in der Stimme Muster erkennen. «Wir können für jegliche Emotion Apps bauen», schreibt Langner auf seiner Website. «In der Stimme manifestieren sich fast alle psychischen Zustände.» Und der Computer könne sie oft präziser lesen als der Mensch.

Zusammen mit seiner Frau Daina hat Langner am Berliner Universitätsklinikum Charité ein Verfahren entwickelt, mit dem man nach seinen Angaben ADHS und Depressionen anhand der Stimme erkennen kann. Im Vergleich zu einer sorgfältigen klinischen Diagnose betrage die Trefferquote 90 Prozent, behauptet Daina Langner.

Allerdings: Wie das Verfahren genau funktioniert und ob es wirklich misst, was es vorgibt – das kann niemand überprüfen. Denn Langner und Langner haben auf dem Feld der Stimm­analyse noch nichts publiziert. Auch die Charité-Studie wurde bis heute nicht veröffentlicht. Die Algorithmen, die ihrer Software zugrunde liegen, halten sie unter Verschluss.

Patentschutz ist bei Algorithmen nicht wirksam, man kann sie kopieren und versteckt in eine Software integrieren, ohne Spuren zu hinterlassen. Deshalb schützen die Firmen ihre ­Arbeit. Rechner mit Algorithmen sind nicht mit dem Netz verbunden, Partner müssen Geheimhaltungsverträge unterschreiben, Mitarbeiter haben nur zu begrenzten Bereichen Zugang. Und Kunden erhalten in der Regel nur die Resultate.

«Unsere Erfolgsquoten sind sehr hoch», sagt Daina Langner. Bald soll das ADHS-Tool für die Zulassung als Medizinalprodukt geprüft werden. Dann könnten andere Wissenschaftler das System testen – aber noch immer, ohne die Algorithmen zu kennen.

«Die Erfolgs­quoten unserer Analyse bei der Erkennung von Depressionen und ADHS sind sehr hoch.»

Daina Langner, Psychologin

«Das ist Hokuspokus mit fatalen Folgen», sagt Hernani Marques. Der Sprecher des Chaos Computer Club Zürich hat seine Masterarbeit an der Uni Zürich über Computerlinguistik und Massenüberwachung geschrieben. Wenn es nicht einmal der milliardenschwere US-Geheimdienst NSA schaffe, nach Schlüsselwörtern in Telefongesprächen zu fahnden und damit auf Terrorverdächtige zu schlies­sen, dann könne eine Software erst recht nicht die Gefühlswelt eines ­Menschen durchdringen, sagt er. Das Verfahren arbeite rein statistisch. Über kausale Zusammenhänge und Einzelfälle sage es nichts aus. Und ­solange die Berechnungen nicht offengelegt würden, könne von Wissenschaftlichkeit keine Rede sein.

Daina Langner träumt derweil von einem System, das wie ein Labor funktioniert. «Irgendwann wird die Stimm­analyse so selbstverständlich sein wie eine Blutprobe.» Man entnehme Psychiatriepatienten wöchentlich Stimmproben, schicke sie elektronisch an ein «Labor». Dieses übermittelt sofort Resultate über den psychischen Gesundheitszustand.

«Ein solcher Vorgang wäre eine ­tiefe Missachtung der Bedürfnisse von Patienten», sagt der Zürcher Psychiater und Gutachter Mario Gmür. Wenn Leute psychisch angeschlagen seien und einen Arzt aufsuchten, brauchten sie ein taktvolles und achtsames Gegenüber, keine kalte Technik. Bei einer Depression sei es wichtig, dass Patienten selbst entscheiden, was sie von sich preisgeben.

Jeder Mensch hat das Recht, zu verdrängen und zu verbergen, sagt Gmür. Doch eine Stimmanalyse mache ihn zu einem transparenten Wesen und raube ihm die Kontrolle. «Dieser Röntgenblick verletzt die Intimsphäre.» Die Stimmanalyse sage auch nichts über den Einzelfall aus, sondern gebe nur eine statistische Wahrscheinlichkeit weiter. «Die Krankheit Depression hat aber so viele Formen und Verläufe, wie es Menschen gibt.»

«Das ist Hokuspokus mit fatalen Folgen. Eine Software kann nicht in die Gefühlswelt eindringen.»

Hernani Marques, Chaos Computer Club

Sie bewerben sich bei einem Personalbüro. Eine Computerstimme fragt Sie am Telefon, was Sie in den Ferien gemacht haben. Was Sie sagen, tut nichts zur Sache. Aber Ihre Stimme verrät, ob Sie gewissenhaft, neurotisch oder egozentrisch sind.

Mindestens zwei deutsche Firmen ­arbeiten bereits mit Personaldienstleistern an Stimmanalyse-Tools. Sie geben sich allerdings bedeckt. Diskretion ist ein wichtiges Gebot.

Die Personalbranche interessiert sich vor allem für die sogenannten Big Five: Wie erfinderisch, nachlässig, ­gesellig, mitfühlend oder neurotisch ist ein Mensch? «Bei den Big-Five-Merkmalen erreicht man heute bis zu 90 Prozent Übereinstimmung», sagt Langner – verglichen mit einem Fragebogen, wie man ihn in der Psychologie verwendet.

Personalfirmen können zwar niemanden zwingen, eine Stimmprobe abzugeben. Aber sie können Druck ausüben. «Im Arbeitsbereich sind solche Methoden sehr heikel», so Datenschutzexperte Martin Steiger. Personalabteilungen seien dafür bekannt, oft lasch mit Daten umzugehen.

Von Freiwilligkeit könne in diesem Feld faktisch nicht die Rede sein. «Ein Arbeitsverhältnis ist immer mit Macht verbunden», sagt Steiger. Wenn ein ­Bewerber den Test verweigert, macht er sich verdächtig. Wenn aber die Stimmanalyse zum Schluss kommt, der Bewerber sei neurotisch, dann hat er erst recht verloren.

Mehr zum Thema


Apps: Nehmt ruhig meine Daten!

Kaum jemand bezahlt heutzutage noch mit Geld für Smartphone-Apps – sondern mit seinen persönlichen Daten. Das ist problematisch, weil viele Nutzer sorglos damit umgehen.

zum Artikel

Sie haben eine kostenlose Game-App heruntergeladen. Während Sie telefonieren, zapft die App Ihre Stimmdaten ab. Sie haben ihr den Zugriff auf das Mikrofon erlaubt. Der App-­Anbieter verkauft Ihre Daten an ­eine Marketingfirma, die Ihre Vorlieben kennen will.

«Bei kostenlosen Apps bezahlen wir mit Daten», sagt Hernani Marques vom Chaos Computer Club. Google und Co. sammelten Millionen von Stimmdaten, zum Beispiel über die Sprachbefehl-Funktion. «Das sind ­attraktive Daten, die man legal personalisieren und verkaufen kann», sagt Marques. Was Dritte mit den Daten machen, wisse niemand. Die Anbieter halten ihre allgemeinen Geschäfts­bestimmungen so vage wie möglich. Sie halten sich alle Optionen offen, um Geld zu machen.

Ob die Resultate einer Stimm­analyse nun richtig oder falsch sind – die Technologie produziert Daten, die einen massiven Einfluss auf das Leben eines Menschen haben können. Nicht nur, wenn Firmen oder gar Kriminelle Informationen aus solchen Daten missbrauchen, sondern auch im privaten Umfeld. Zum Beispiel, wenn sich jemand an seinem Ex-Partner rächen will. Sichere Daten gebe es nicht, sagt der Psychologe Krajewski. «Es braucht nicht viel kriminelle Energie, um Sprachdaten abzufischen.»

Krajewski ist mittendrin – und doch skeptisch. Der Mensch müsse stets normgerechter werden, sagt er. «Aus der Reihe tanzen geht nicht mehr.» Trotzdem forscht er weiter. «Der Schaden, den ich anrichte, ist moderat.» Die Budgets an den Unis seien mickrig, verglichen mit den IT-Konzernen, die ebenfalls an solchen Verfahren arbeiten. Eines sei aber klar: «Man wird immer mehr Informationen aus der Stimme pressen», sagt er. «Auf Kosten der Freiheit.»

«Man wird immer mehr Informationen aus der Stimme pressen. Auf Kosten der Freiheit.»

Jarek Krajewski, Wirtschaftspsychologe

Veröffentlicht am 2016 M10 25

Bitte melden Sie sich an, um zu diesem Artikel zu kommen­tieren.

1 Kommentar

Sortieren nach:Neuste zuerst
Rahel Siegrist
Ich finde es dermassen haarsträubend, dass die Swisscom einen digitalen Fingerabdruck meiner Stimme erstellt, ohne dass ich dazu einwilligen darf. Sie hat mich zudem nie informiert darüber über "smart data" einfach meine Einverständnis dazu zu geben, meine Daten in "Smart-Data-Analysen zu Gunsten Dritter" durchzuführen, für beispielsweise Analysen zu Gruppendynmamiken und Personenaufkommen an Orten. Ich habe nun alle automatisch generierten Zustimmungen entzogen und von der Swisscom eine Auskunft darüber verlangt, ob es ein Stimmenprofil von mir gibt. Ich werde die Swisscom dazu auffordern, dieses zu löschen. Niemand kann garantieren, dass ein Fingerabruck meiner Stimme nicht in falsche Hände - und gar noch ewig ins Netz- gerät. Ich sehe mich in meinen Persönlichkeitsrechten verletzt.