Digital Signal Processing and System Theory

Talk Harpreet Singh


hars

Development of an autonomous real-time communication with a variable number of speakers

Date: 30.04.2014, 13:00 h - 14:00 h
Room: Aquarium

Harpreet Singh
CAU Kiel, Germany




Details



Es ist allgemein zu beobachten, dass sich die Kommunikation in einem fahrenden Fahrzeug mit zunehmender Geschwindigkeit immer schwieriger gestaltet. Besonders zwischen den vorderen und den hinteren Fahrgästen. Mit Hilfe von In-Car-Communication (ICC) Systemen wird versucht dieses Problem zu lösen, indem die Sprachsignale des sprechenden Passagiers aufgenommen und über die lokalen Lautsprecher des Autos wiedergegeben werden [1]. Um diese ICC Systeme testen zu können werden Personen benötigt, die bei jedem Testdurchlauf eine Konversation führen. Dies kann zum einen kostenintensiv sein und zum Anderen sind die Ergebnisse schwer vergleichbar, da die menschliche Konversation nicht exakt reproduzierbar ist.

In der vorliegenden Bachelorarbeit geht es darum, eine künstliche, reproduzierbare Kommunikation zu erzeugen, die die Verbesserungen der ICC Systeme genauer beurteilen lässt und jederzeit zur Verfügung steht. Die besondere Herausforderung dabei ist, die Kommunikation so menschlich wie möglich klingen zu lassen. Hierbei spielt der Lombard-Effekt eine zentrale Rolle. Dieser beschreibt das Verhalten der menschlichen Sprache unter dem Einfluss von verschiedenen Umweltgeräuschen. Es ist oft der Fall, dass Menschen in lauten Umgebungen automatisch anfangen lauter und eventuell langsamer zu sprechen [2]. Mit diesen und einigen weiteren Veränderungen der Spracheigenschaften befasst sich der Lombard-Effekt. Um diesen Effekt gut nachbilden zu können werden die Dialoge unter verschiedenen Geräuschkulissen aufgenommen.

Um die Umgebungsgeräusche wahrnehmen zu können und eine entsprechende Sprachausgabe zu erzeugen wird eine passende Hard- und Software benötigt. Die wichtigste Hardware dabei ist der Kunstkopf von HeadAcoustic, der das menschliche Gehör und Sprachsystem sehr gut nachbildet und daher auch in der Automobilindustrie zum Testen von Audioanwendungen verwendet wird. Die Software, die hierfür genutzt wird, trägt den Namen: Kiel Real-Time Audio Toolkit (Ki- RAT). Diese wurde von dem Lehrstuhl Digitale Signalverarbeitung und Systemtheorie (DSS) der Christian-Albrechts-Universität zu Kiel (CAU) entwickelt und enthält Module zur Verarbeitung von Signalen aus dem Medizin-, Audio- und Sonarbereich. Die durch die Ohren der HeadAcoustic Kunstköpfe aufgenommenen Signale werden an das Audiomodul des KiRATs weitergeleitet, dort in Echtzeit verarbeitet und anschließend ein zum aufgenommenen Umgebungsgeräusch passendes Sprachsignal ausgegeben. Eine Besonderheit der Wiedergabe ist, dass der Dialog nicht statisch ist, d.h. es erfolgt nicht bei jeder Wiedergabe die gleiche Antwort auf dieselbe Frage, sondern der Dialog entsteht zufällig mit einstellbaren Wahrscheinlichkeiten für die einzelnen Aussagen. Hierzu werden die einzelnen Aussagen in Zustände aufgeteilt. Jeder Zustand enthält mehrere lombardische Ausprägungen der Aussage, von denen eine, abhängig von dem Hintergrundgeräusch zur Wiedergabe ausgewählt wird.