Theresia Nüsse, MSc
VORTRAGENDE AM OHI UPDATE 2020
Institut für Hörtechnik und Audiologie, Jade Hochschule Wilhelmshaven/Oldenburg/Elsfleth
Synthetische Sprache hat in vielen Alltags-Szenarien schon heute einen hohen Stellenwert. In Anwendungen wie telefonischen Beratungsdiensten, in der Navigation und Fahrerassistenz sowie persönlichen Assistenzsystemen (z.B. Alexa, Hey Google, Siri) wird diese Form von Sprachsignalen bereits eingesetzt. Die zugrundeliegende Technologie in den genannten Beispielen sind sogenannte TTS-Systeme (engl.: „text-to-speech“). Dies sind Computerprogramme, die aus einer bestehenden Datenbank, in denen eine Vielzahl von Wörtern und Lauten gespeichert sind, neue Wörter und Sätze zusammenfügen. So ist es beispielsweise möglich, dass ein Navigationssystem jeden Straßennamen nennen kann, ohne dass zuvor zahllose Straßennetze von einem Sprecher eingesprochen werden mussten. In der Entwicklung moderner Sprachtestverfahren könnte mittels TTS-Technologie der Aufwand zur Generierung der Sprachsignale erheblich reduziert werden. Diese Technologie wurde in den letzten Jahrzehnten stetig weiterentwickelt und bietet zudem die Möglichkeit, den Sprachkorpus der verwendeten Testsätze nachträglich mit wenig Aufwand zu erweitern. In einer Machbarkeitsstudie mit 48 jungen normal hörenden Versuchspersonen wurden der originale weibliche Oldenburger Satztest im sprachsimulierenden Störgeräusch und eine synthetische Version desselben Sprachmaterials untersucht. Dazu wurden jeder Versuchsperson insgesamt 24 Testlisten bei verschiedenen Signal-Rausch-Abständen präsentiert und die Diskriminationsfunktionen für beide Sprachsignale (natürlich und synthetisch) angepasst. Die Ergebnisse zeigten, dass sowohl die Sprachverständlichkeitsschwelle für 50 % Sprachverstehen als auch die Listenäquivalenz und Wortverständlichkeit vergleichbar sind für beide Arten von Sprachsignalen. Eine generelle Aussage über den Einsatz von TTS-Systemen in der Sprachaudiometrie kann damit aber noch nicht getroffen werden, da individuelle Parameter, wie der Hörverlust oder die kognitive Leistungsfähigkeit nicht untersucht wurden. Der Einfluss dieser Eigenschaften auf die Sprachverständlichkeit synthetischer Sprache ist bisher nur wenig erforscht. Anders verhält es sich bei natürlichen Sprachsignalen. In zahlreichen Studien und Übersichtsarbeiten ist der Einfluss kognitiver Faktoren auf das Sprachverstehen thematisiert worden. In einer Studie mit 20 älteren normal hörenden und 21 hörbeeinträchtigen Versuchspersonen selben Alters wurden verschiedene kognitive Faktoren sowie die Sprachverständlichkeit in unterschiedlich komplexen Hörsituationen untersucht. Diese umfassten neben stationärem Störschall (kontinuierliches Rauschen) auch realitätsnahe Situationen (Aufnahmen der Cafeteria am Campus Oldenburg Wechloy) mit sprachsimulierendem Rauschen und informationshaltiger Maskierung aus verschiedenen Richtungen. Die Hörgeräteträger wurden in dieser Studie mit jeweils baugleichen Geräten mit omnidirektionalem Mikrofon versorgt, die nach NAL-NL2 auf den individuellen Hörverlust angepasst wurden. Zusätzlich wurde die kognitive Leistungsfähigkeit mit Hilfe psychologischer Testverfahren überprüft. Der Schwerpunkt wurde dabei auf Arbeits- und Kurzzeitgedächtnis, Aufmerksamkeit, exekutive Funktionen sowie den Wortschatz gelegt. Dabei zeigte sich, dass vor allem die räumliche Anordnung der Störschallquellen und die alternierende Darbietung unterschiedlicher Störsprecher in stärkerem Zusammenhang zur kognitiven Leistungsfähigkeit älterer Probanden stehen als statische Situationen. Für die Gruppe der Hörgeräteträger nahm zudem der tonaudiometrische Hörverlust trotz der beschriebenen Versorgung während der Messung maßgeblich Einfluss auf das Sprachverstehen.