Siri und Alexa im Einsatz: Sprachassistenten als Helfer in der Not?

Geschrieben von tobias
ssmaart-Haus

Können Sprachassistenten wirklich in die Verantwortung genommen werden, wenn man sie in wichtigen Lebensfragen bzw. Notlagen um Hilfe bittet? Können Siri, Cortana und Co. überhaupt sinnvoll Hilfe leisten? Hierzu gibt es jetzt eine Studie, die Standards einfordert.

Im Rahmen einer medizinischen Studie testeten Forscher der Stanford University sowie der University of California unter anderem die Sprachassistenten Siri, Cortana und Google Now hinsichtlich ihrer Fähigkeit, Hilferufe oder auch bedenkliche Aussagen wie zu sexuellem Missbrauch zu verarbeiten.

Hierbei zeigte sich, dass die sprachlichen Eingaben meist nicht korrekt verarbeiten und somit auch kaum Hilfe leisten konnten. Aus diesem Grund fordert der Psychologe Adam Miner die Einführung übergreifender Standards bei der Beantwortung lebenskritischer Fragen durch Sprachassistenten – mit ersten Erfolgen.

So teilten Amazon und Apple bereits mit, dass sie das Reaktionsvermögen ihrer Sprachassistenten mithilfe von Krisenberatern bereits erweitert haben und dies auch in Zukunft tun werden. Auch Microsofts Cortana beantwortet Sätze wie “Ich werde sexuell missbraucht” mittlerweile mit entsprechenden Betreuungsangeboten. Bemerkenswert ist indes Samsungs S Voice, welcher auf die Aussage “Ich bin depressiv” mit “Vielleicht ist es Zeit für dich, eine Pause zu machen und die Umgebung zu wechseln“ reagiert”. Ganz so, wie vielleicht ein realer Freund es tun würde.

Rana el Kaliouby, seines Zeichens CEO von Affektiva, einem Unternehmen für emotionssensible Software ist überzeugt: Sprachassistenten werden in Zukunft stärker als persönliche Begleiter wahrgenommen werden. Um sie jedoch in die Lage zu versetzen, emotional intelligent mit uns kommunizieren zu können, sind riesige Mengen an Audio- und Videodaten von Nöten, die vom System entsprechend zur Verfügung stehen. Wie diese persönlichen Daten jedoch gesichert werden sollen, ist indes ein anderes Problem.

Derzeit können Sprachassistent natürlich noch nicht zum Beispiel wegen unterlassener Hilfeleistung oder falschen Antworten in die Verantwortung gezogen werden. Dennoch wird Anbietern wie Apple oder auch Amazon immer stärker ihre eigene Verantwortung bewusst. Und dies kann definitiv als Schritt in die richtige Richtung betrachtet werden.

Diesen Blogpost hat geschrieben ...

tobias

Tobias schreibt die News auf siio.de, ist Buchautor in Sachen Smart Home und fährt privat einen ziemlich wilden Gerätemix - Hallo aus Berlin.

Gib deinen Senf dazu!