Wissenschaft

Manipulierte Sprachassistenten

Spracherkennungssoftware macht vielen Smartphonenutzern das Leben leichter. Aber machen sie es auch gefährlicher? Ob Sprachassistenten eine Fläche für böswillige Angriffe bieten, beschäftigt derzeit die Wissenschaft.

Eine Frau spricht in ihr Smartphone (Symbolbild) © imago/Westend61
Eine Frau spricht in ihr Smartphone (Symbolbild) | © imago/Westend61

Dabei können mittels Audiodateien versteckte Botschaften in das Spracherkennungssystem eingebaut werden. Das tückische dabei ist, dass diese Audiodateien vom menschlichen Ohr nicht wahrgenommen werden können, aber der Sprachassistent darauf reagiert. Es können dabei Befehle in unterschiedlichen Arten von Audiosignalen, wie Sprache oder Vogelgezwitscher, versteckt werden.

Solche Angriffe werden in der Fachsprache als "Adversarial Examples" bezeichnet und sind sehr komplex in ihrer Umsetzung. Die Forschenden der Ruhr-Universität Bochum verwendeten für diese Art der Signalmanipulation die selbe Technik, auf der das MP3-Format basiert.

Über die genaue Funktionsweise dieser Manipulation, spricht Stephan Karkowsky mit Lea Schönherr, Doktorandin für IT-Sicherheit von der Ruhr-Universität Bochum.

Eine Frau spricht in ihr Smartphone (Symbolbild) © imago/Westend61
imago/Westend61
Download (mp3, 5 MB)