Wie verarbeiten digitale Sprachassistenten gesprochene Sprache, und wie soll gesprochen werden, damit diese Assistenten Sprache auch verarbeiten können? Damit beschäftigt sich die „Interspeech“ bis Donnerstag in Graz.
Möglichst alltagstauglich
Gernot Kubin vom Institut für Signalverarbeitung und Sprachkommunikation der TU Graz brachte die Tagung nach Graz, er leitet die Veranstaltung. Sprachassistenten sollen in Zukunft noch mehr können als bisher; um sie möglichst alltagstauglich zu programmieren, ist es laut Kubin auch wichtig, die zwischenmenschliche Kommunikation genau zu untersuchen: „Das ist dann äußerst wertvolles Material, an dem kann man dann wirklich untersuchen, wie Leute heutzutage im Alltag miteinander reden.“
Individuelle Anpassung angedacht
Nur so können die digitalen Sprachassistenten bestmöglich ausgerichtet und auch individuell angepasst werden, sagte Gernot Kubin: „Man muss weggehen von einem System, wo man sagt, das ist ein System für den gesamten deutschen Sprachraum, bis hi zu sagen, machen wir ein System für Österreich, für die Steiermark oder für Graz. In Wirklichkeit wollen wir in Zukunft personalisierte Systeme haben, die für jeden einzelnen gut kommunizieren.“
Größte Veranstaltung weltweit
Graz hat als Austragungsort auf diesem wissenschaftlichen Fachgebiet eine führende Position eingenommen, die Tagung sei eine Auszeichnung für die Landeshauptstadt, sagt Kubin: „Wir haben bei früheren Tagungen sehr wohl in der Topklasse der Standorte mitspielen können, die zu den am stärksten vertretenen Teilnehmern bei solchen Tagungen zählen. Man muss sich über Jahre in der international Community den Ruf aufgebaut haben.“
Die Themenpalette, die die rund 2.000 Experten in den nächsten Tagen auf der „Interspeech“ in Graz diskutieren, ist breit. Es ist die weltweit größte Veranstaltung in diesem Bereich. Vertreter von Unternehmen wie Amazon, Facebook und Microsoft nehmen daran teil.