Digital Signal Processing and System Theory

Talk Laila Jassoume


lja
Speech Enhancement for Non-Stationary Distortions (in English)

Date: 22.12.2011, 13:00 h - 14:00 h
Room: Aquarium

Laila Jassoume
CAU, Kiel, Germany


Details (talk will be in English)



If firefighters want to communicate during fire-fighting and rescue operations under respiratory protection there are plenty of technical resources available. Modern breathing masks are equipped with microphones and loudspeakers (within and outside the mask) and also providing a connection to wireless devices is state of the Art. By means of this equipment it is possible for the firefighters to communicate via the radio or directly by recording the speech signal by means of the microphone and reproducing the amplified signal via the integrated loudspeakers. Unfortunately, the speech signal through breath sounds and background noise is greatly distorted.
The signal quality can be significantly improved by the use of digital signal processing. As part of this thesis a speech signal improvement should be realized in real time, which should improve the communication ways:
5px_blank
  • from the microphone to the remote receiver station and
  • from the microphone to the loudspeakers locate on the outside.

Talk Janika Puls


jap
Echtzeit-Implementierung einer Binauralen Simulation mittels Overlap-Save-basierter Faltung und Minimalphasiger Entzerrung (in German)

Date: 21.12.2011, 13:00 h - 14:00 h, Room: Aquarium

Janika Puls
CAU, Kiel, Germany


Details (talk will be in German)



In vielen Anwendungsgebieten besteht derWunsch, akustische Szenarien am Computer zu simulieren. Dies ermöglicht die Binaurale Simulation. Besonders sinnvoll ist der Einsatz einer Binauralen Simulation, wenn die Messungen des jeweiligen Versuches sehr umfangreich sind oder dasselbe Systemverhalten im Frequenzbereich erforderlich ist. Jedes denkbare akustische Szenario besitzt eigene akustische Eigenschaften und wird als akustisches Übertragungssystem betrachtet. Die charakteristischen Eigenschaften eines solchen Systems liegen in den zugehörigen Impulsantworten.

Talk Janika Puls Aufgrund der Annahme eines linearen Systems kann jedes Szenario durch die Faltung der Impulsantwort mit einem beliebigen Signal simuliert werden. Zusätzlich besteht die Möglichkeit, räumliche Effekte durch Festlegung der Impulsantwort zu simulieren. Ein Problem der Binauralen Simulation ist es, dass die Impulsantworten von den benutzten Geräten, wie z.B. Mikrofone oder Kopfhörer, verzerrt werden. Um diese Verzerrung zu reduzieren, müssen die simulierten binauralen Signale vor der Wiedergabe entzerrt werden.

Talk Jullie Lindsay Torres


jullie_lindsay_torres
Active Noise Control

Date: 01.12.2011, 13:00 h - 14:00 h, Room: Aquarium

Jullie Lindsay Torres
CAU, Kiel, Germany


Details



In almost all environments the control of acoustic noise has been one of the biggest challenges over the years. Nevertheless, for a long period of time the proposed solutions only included physical barriers and not active adaptive components. This caused solutions to be not practical in space, expensive and not effective for the noise reduction in all frequency ranges.

Fortunately, since 1936 when Lueg proposed his patent in order to use a microphone and a loudspeaker to create an active cancellation noise signal, the Active Noise Control (ANC) system has evolved. The study of the possible active solutions now includes more complex definitions, all of them based in the simple acoustic principle of superposition. This principle consists in the addition of two signals in the acoustic domain, which due to their opposite characteristics cancel each other. The effect that the superposition principle produces is present only if the ANC system is situated near to the listener, i.e., in the area comprised between the ANC's loudspeaker and the listener's ear. The amount of noise signal canceled by the anti-noise signal produced in the ANC system strongly depends on the estimation's accuracy in amplitude and phase of this signal, however, it is independent of the noise source position.

Nowadays, ANC systems have applications in noise control inside cars, in ducts, aircrafts, boats and in industrial noise control, among others. This progress brings implicitly competition between the companies in order to provide the market more complex and efficient noise reduction solutions for specific kinds of noise and scenarios.

The aim of this thesis is to implement a feedforward ANC system for closed headphones, which cancels different noise disturbing signals that come from any outside point and can affect the playback of the desired local signal, like speech or music. In the implementation, the acoustic environment as well the signal processing domain in which the headphones are involved, are included. Furthermore, different approaches to improve the ANC system effectiveness are described and integrated in the solution.

Talk Martin Nahrwold


mna
Species/Speaker Recognition with Gaussian Mixture Models - Model Based Marine Mammal Classification -

Date: 10.11.2011, 13:00 h - 14:00 h, Room: Chair library

Martin Nahrwold
CAU, Kiel, Germany


Details



Sunlight rapidly fades beneath the surface of the oceans. Below 1000m the ocean is a place of complete darkness. In the underwater world sound is king. Marine mammals use sound to naviga- te and to detect predators and prey. They use echolocation to obtain environmental information such as water depth, the location of food, or the distance of objects. Ship noise and the use of active sonar systems has an impact on this ability of marine mam- mals. Navies employing high intensity sonar use crew members as marine mammal observers and passive acoustic monitoring as mitigation measures. But marine mammals spend very little time on the surface and hence they are not detectable on a visual survey. So the only possible solution is a passive monitoring system. For the human ear it is a quite easy task to differentiate between species. Like we differentiate between individual speakers just by their voice. Since spectrogram of speech signals on one hand and marine mammals signals on the other hand look rather similar (see figure below), methods known from speaker recognition should be adapted to differentiate between several mammal species.
During this thesis a speaker/species recognizer should be developed. Therefore, different me- thods for feature extraction and model generation should be implemented in Matlab. Some of these features are mel frequency cepstral coefficients (MFCCs) or linear predictor coefficients (LPCs). The features should be used to build up Gaussian mixture models (GMMs) for diffe- rent marine species on one hand and different speakers on the other hand. The results of the individual methods should be compared in terms of their applicability for speaker and species recognition. The recognition scheme with the best common performance should be implemented as a plugin for the DSS real-time framework using C.

Talk Hui Xu


Hui
Automatic Identification and Suppression of Artifacts in EEG data using ICA and Statistical Thresholding

Date: 19.09.2011, 13:00 h - 14:00 h, Room: Aquarium

Hui Xu
CAU, Kiel, Germany


Details



Electroencephalography (EEG) is a medical technique used to measure the brain function of human beings by analyzing the scalp electrical activity generated by the brain structure. Usually the EEG data are typically contaminated with interference waveforms, called artifacts, which could be physiologic (e.g., eye blinks, heart beating, muscle activities) and extraphysiologic (electrode popping, 50Hz line noise power). Many methods have been proposed to remove the artifacts from EEG recordings. There exist the manual methods, which require the presence of an experienced doctor or clinician to detect, by visual inspection, the artifactual components or epochs and then remove them to correct the data. However, it represents a very time-consumption problem due to the vast amount of data. Moreover, the efficiency of manual methods is poor, since some artifacts might be left while some useful components could be deleted by mistake. Therefore, efficient and robust automatic methods for suppression of the artifacts are strongly required. From the last decade there has been a great development of the methods proposed to remove artifacts automatically from EEG recordings. However, most of them focus and remove only some of them, namely the eye movements. Hence, one main difficulty in the automatic EEG analysis is the detection of the different kind of artifacts added to the EEG signals during the recording sessions.
In this Thesis a new identification procedure based on an efficient combination of Independent Component Analysis (ICA), Wiener Filter, and statistical threshold values of parameters for fully automatic artifact suppression was presented. This proposed approach has been called Automatic Identification and Suppression of artifacts based on Fast Independent Component Analysis (FastICA) and Thresholding (AISFT). FastICA was then first applied to decompose the original EEG signals into independent sources. Parameters such as Hurst exponent, kurtosis, correlation coefficient, variance and amplitude range were used to identify the artifactual components and hence suppress the intervals where the artifacts were. In this way, the artifacts were suppressed but the desired information still remained, compared with the current manual methods where the valuable information could be lost when removing either the distorted epoch or the complete component. The AISFT method was applied to both, healthy and epileptic EEGs. Implementation results were compared and analyzed in time and frequency domains. Finally, feasible plans for future work were given based on the existing left problems.

Talk Vasudev Kandade Rajan


vakr
Multi-channel Speech Quality Improvement for Automotive Applications

Date: 15.09.2011, 13:00 h - 14:00 h, Room: Aquarium

Vasudev Kandade Rajan
CAU, Kiel, Germany


Details



Speech inside a car can put into two categories. In the first category, the travelers are talking "locally" to each other, in the second a (phone) call made to/from the car, where the "local" speaker speaks to a "remote" speaker with the help of a hands-free system. Out of the many factors that could potentially affect the quality of conversation in a phone call, the acoustical echo is the most prominent one. An acoustical echo is on in which the remote side speaker hears his/her own voice after a certain delay.

The main topic of the presentation and my thesis is to build a real-time system which can remove these echoes. The system has a parallel and postfilter structure. With such a structure even when the parallel filters has not fully converged, it is still possible to suppress the echoes (also referred to as residual echoes).
The talk will show how we successfully handle the "double talk situation", the most difficult task for an echo canceller. I will also show how a simple adaptive filter needs many subunits to function as desired. The talk will also include a small demonstration of the system in real-time.

Talk Vasudev Kandade Rajan

Talk Frank Heydasch


frank_heydasch
Nicht-intrusive Qualitätsschätzung synthetisierter Sprachsignale mittels Vokaltraktapproximation (Diplomvortrag)

Date: 09.09.2011, 10:00 h - 11:00 h, Room: Aquarium

Frank Heydasch
CAU, Kiel, Germany


Details



Zusammenfassung der Diplomarbeit:

In dieser Diplomarbeit wird untersucht, ob ein automatisiertes Verfahren für die Qualitätsschätzung von synthetisierten Sprachsignalen mittels prädizierter Vokaltraktstellungen möglich ist. In den Kapiteln 2, 3 und 4 werden die Grundlagen des menschlichen Sprachproduktionsprozesses, das Röhrenmodell des Vokaltraktes und das Verfahren der Linearen Prädiktion vorgestellt. Anschließend werden diese Grundlagen genutzt, um durch eine Vokaltraktapproximation (Kapitel 5) und einer darauf basierenden Qualitätsparameter- Entwicklung (Kapitel 6) ein automatisiertes Verfahren zur Qualitätsschätzung zu entwickeln. Dieses Verfahren wird abschließend auf drei unterschiedliche Sprachdatenbanken angewendet und die resultierenden Qualitätsurteile mit denen der Hörtests verglichen (Kapitel 7). Das Resümee dieser Diplomarbeit fällt positiv aus, da Korrelationen bis zu 84,85 Prozent zwischen den Qualitätsbeurteilungen aus den Hörtests und denen aus den Parameteranalysen festgestellt werden konnten.

Talk Herbert Buchner


herbert_buchner
Informationstheoretisch motivierte Lernalgorithmen für adaptive Signalverarbeitung und praktische Anwendungen in der Mensch-Maschine-Kommunikation (in German)

Date: 27.06.2011, 17:15 h - 18:15 h, Room: Aquarium

Dr.-Ing. Herbert Buchner
Machine Learning Group, TU Berlin, Germany


Details



Viele praktisch relevante Kommunikations- und Mess-Szenarien, z.B. in der Übertragungstechnik, der Akustik, oder in der biomedizinischen Technik, also Mensch-Maschine-Kommunikation im weiteren Sinne, lassen sich allgemein als FIR-Systeme mit mehreren Eingängen und mehreren Ausgängen (sog. MIMO-Systeme) beschreiben. Aufgrund der mannigfaltigen möglichen Systemkonfigurationen und Randbedingungen ist in den vergangenen Jahren eine fast unüberschaubare Vielfalt von entsprechenden Signalverarbeitungsalgorithmen in der Literatur vorgeschlagen worden.

Talk Herbert Buchner In diesem Vortrag stellen wir ein generisches Konzept zur vereinheitlichten Behandlung der breitbandigen blinden und überwachten adaptiven Signalverarbeitung für allgemeine MIMO-FIR-Systeme vor. Dieses Konzept, genannt TRINICON ("TRIple-N Independent component analysis for CONvolutive mixtures"), basiert unmittelbar auf Grundprinzipien der Schätztheorie und der Informationstheorie und berücksichtigt alle drei der fundamentalen Signaleigenschaften Nichtgaussheit, Nichtstationarität und Nichtweissheit ("Triple-N").

Anhand von einfachen bekannten Ansätzen und Anwendungsszenarien der adaptiven Signalverarbeitung werden wir zunächst "bottom-up" (induktiv) den allgemeinen Ansatz motivieren. Dabei wird sich zeigen, dass wir mittels geschickter Formulierung auf einen kompakten Formalismus mit einer relativ überschaubaren Zahl von mathematischen Strukturen und Parametern stossen. Anhand dieser sich ergebenden Freiheitsgrade gelangen wir nun "top-down" (deduktiv) durch Betrachtung der anwendungsspezifischen Vorinformationen zur Möglichkeit eines systematischen Algorithmen-Designs. Diese "Top-Down"-Methode erlaubt uns einerseits, Beziehungen zwischen wohlbekannten, aber scheinbar völlig unterschiedlichen Algorithmen herzustellen. Andererseits bietet sie eine Basis für die Entwicklung zahlreicher neuer, verbesserter Algorithmen.

Nach dem Überblick zu dieser Theorie wenden wir im zweiten Teil des Vortrags das Konzept exemplarisch auf einige praktische adaptive Filterprobleme in Mensch-Maschine-Schnittstellen an. Dabei zeigt sich, wie sich durch den allgemeinen Ansatz diverse neue und effiziente Algorithmen ergeben, z.B. zur blinden Quellentrennung für Faltungsmixturen, zur akustischen Echokompensation, zur blinden Systemidentifikation und akustischen Quellenlokalisierung für mehrere simultan aktive Quellen in halligen Umgebungen, und für die blinde Enthallung von Sprach- und Audiosignalen.

Talk Jan Bajorat


jan_bajorat
Implementierung eines Sprachverbesserungssystemes mit mehreren Mikrofonen

Date: 01.06.2011, 10:00 h - 11:00 h, Room: Aquarium

Jan Bajorat
CAU, Kiel, Germany


Details



In vielen Anwendungsgebieten besteht der Wunsch, ein gewünschtes Signal von unerwünschten Störungen zu trennen. Das Nutzsignal soll ein verarbeitendes System möglichst ungestört passieren, während Störsignale maximal gedämpft werden. Besitzen Nutz- und Störsignal potentiell gleiche Frequenzcharakteristiken, so ist eine Trennung aufgrund dieser Frequenzcharakteristiken nicht möglich. Sind die Zeiträume, in denen ein Nutz- bzw. Störsignal vorliegt, im Voraus nicht bekannt, so ist eine Trennung basierend auf zeitlichen Kriterien ebenfalls nicht möglich. Oftmals sind jedoch räumliche Informationen über das Nutzsignal bekannt, d. h. Signale aus einer bestimmten Richtung gelten als Nutzsignal. Mit der Verwendung eines einzelnen Sensors ist es unmöglich, diese räumlichen Informationen auszunutzen. Werden allerdings mehrere, räumlich getrennte Sensoren in einem sogenannten Array verwendet, so ist es möglich, mit Hilfe dieses Arrays Richtungsabhängigkeiten des Gesamtsystems auszuprägen. Die gezielte Beeinflussung der Richtcharakteristik eines Mikrofon-Arrays wird Beamforming genannt.

talk_2011_jan_bajorat

Beamforming wird in so unterschiedlichen Bereichen wie Radar, Geophysik und Akustik angewendet. Die verwendeten Sensoren sind je nach Anwendungsgebiet unterschiedlich, was sowohl ihre Charakteristiken als auch ihre mögliche Positionen und Abstände angeht. Auch die benötigte Bandbreite der Signale ist je nach Anwendungsgebiet unterschiedlich. Oftmals ist es wünschenswert, die Richtcharakteristik des Arrays ändern zu können, ohne die Sensoren bewegen zu müssen.

In dieser Arbeit geht es um die Implementierung eines Beamformer- und Nachfilter-Systems zur Sprachverbesserung. Die verwendeten Sensoren sind deshalb Mikrofone. Nutzsignale sind Sprachsignale eines oder mehrerer Nutzer, welche aus einer gewünschten Richtung kommen. Zu den Störsignalen zählen unter anderem Sprachsignale aus anderen Richtungen, welche von Störsprechern stammen. Das gesamte System soll in Hinblick auf seine Zielanwendung in einer automobilen Umgebung ausgelegt sein. Zu den Hauptproblemen gehören dabei:

  • Das Nutzsignal (Sprache) ist extrem breitbandig. Wird eine gute Qualität des Sprachsignals angestrebt, ist der zu betrachtende Frequenzbereich etwa 100- 5000 Hz. Dabei befindet sich der Hauptteil der Energie im tiefen Frequenzbereich bis ca. 1000 Hz.
  • Das gesamte System muss in Echtzeit arbeiten. Dies erfordert recheneffiziente Algorithmen und Verfahren.
  • Es gibt viele verschiedene Störsignalquellen. Diese sind im Allgemeinen nicht nur zeitvariant, auch die Positionen der Störsignalquellen sind im Voraus nicht bekannt.

Talk Jürgen Freudenberger


juergen_freudenberger
Bandbreitenerweiterung von Sprachsignalen mit Nebeninformation (in German)

Date: 30.05.2011, 17:15 h - 18:15 h,
Room: Aquarium

Prof. Dr.-Ing. Jürgen Freudenberger
HTWG Konstanz, Konstanz, Germany


Details



Die Limitierung der Bandbreite in den heutigen Telefonnetzen, auf das typische Sprachbandbreite (300 Hz bis 3,4 kHz), hat einen signifikanten Einfluss auf die Sprachqualität. Mit dem Erscheinen von Wideband-Codecs (50 Hz bis 7 kHz) in Telekommunikationsnetzen wie UMTS oder VoIP wird die Sprachqualität erhöht. Die komplette Umstellung der wichtigsten Telekommunikationsnetze von narrowband auf wideband ist mit einem großen finanziellen Aufwand für Netzbetreiber verbunden. Daher werden beide Übertragungsarten für eine lange Zeit koexistieren.

Über Techniken zur künstlichen Bandbreitenerweiterung lässt sich die Bandbreite eines schmalbandigen Sprachsignals erweitern und die Sprachqualität verbessern, ohne dass zusätzliche Informationen übertragen werden. Die resultierende Sprachqualität ist bei bestimmten Lauten allerdings unzureichend, und bei Szenarien mit Hintergrundgeräuschen wirkt sich dies auf die Verständlichkeit aus.

In diesem Vortrag werden Verfahren zur Bandbreitenerweiterung mit Nebeninformationen vorgestellt. Dabei wird die Nebeninformation in das ursprüngliche Signal möglichst unhörbar eingebettet, um Kompatibilität zu den bestehenden Netzen zu gewährleisten. Mit der Bandbreitenerweiterung mit eingebetteter Nebeninformation kann die Sprachqualität im Vergleich zu einer Narrowband-Übertragung und zur künstlichen Bandbreitenerweiterung ohne Nebeninformationen deutlich verbessert werden.

Talk Norbert Görtz


norbert_goertz
How significant are your bits?

Date: 16.05.2011, 17:15 h - 18:15 h,
Room: Aquarium

Univ. Prof. Dr.-Ing. Norbert Görtz
Vienna University of Technology, Vienna, Austria


Details



It is well-known that there is no way to build error-correction channel coding at limited block size (i.e., any practical channel coding scheme) that will guarantee a data-bit error probability of "zero" after decoding. However, "symbol-by-symbol" decoders can be realised by "soft-output" algorithms leading to different reliabilities of the data bit decisions for any given input from the channel. Those soft-values have been very successfully used in iterative channel decoding, which started with the invention of Turbo codes in the 1990s and is now the basis for every practical (de)coding scheme that performs close to the theoretical limits of information theory - exactly the theory that itself does not know a quantitative concept of "reliability".

The "significance" of source data can be seen as a transmitter-based counterpart of "reliability". As yet, it has, however, only been exploited by rather simple and often heuristic system designs. A major example is unequal error protection, which is used, e.g., in mobile radio: the source coding scheme, which is necessarily non-ideal (again due to limited block size), is known to generate bits that have different significances for the quality at the decoder output. Hence, the data bits are grouped into classes that are protected by several channel-codes with different degrees of error protection. Such a fixed code design is, however, only possible with average bit-significances, although the bit-significances change very dynamically from one data block to another. Hence, one could try to systematically quantify the "significances" of source-coded data realisations and exploit the resulting real numbers in subsequent steps of a communication transmitter. While it has been shown that indeed large gains can be achieved by soft modulation at the transmitter, it is not so clear how to use soft significance values in combination with error-correction channel coding. What is essentially required is soft channel encoding, leading from soft input significances to soft output significances, which then can be used by the modulator.

A related problem has recently been of interest in another very active research area: relaying is a concept in which communication between a source and a destination is supported by a relay that will overhear the coded data communicated from the source. With the received soft data from the source, the relay can perform soft-output channel decoding and the resulting data-bit reliabilities can be interpreted as "significance" values that have to be re-encoded for the transmission from the relay to the destination. At the latter, a joint decoder operates on the data received from both the direct link and the link from the relay, and this option to use information received from more than one spatial direction allows to exploit a diversity effect, leading to potentially better overall performance, particularly when fading channels are involved. The key question is, however, the same as for soft re-encoding of source-significance data: how can soft values, describing properties of the data bits, be soft channel-encoded?

In the talk we review possible definitions of the "significance" of source coded data and we investigate performance benefits from exploiting significances in soft modulation. We then turn to the question, how channel encoders can be realised that can handle soft inputs (such as significance values) and we investigate the resulting performance. We use a soft encoding scheme known from the literature and we compare its performance with other soft-encoders we propose. As our simulations show, soft channel encoding as such does not lead to a performance improvement compared to hard channel encoding with maximum likelihood decoding. The performance improvements in soft-relaying reported in the literature are really due to the sub-optimal iterative decoder used at the destination to decode a distributed Turbo code. We take a closer look at the problem by quantifying and comparing the mutual information loss that occurs due to hard and soft channel encoding.

Talk Heiner Löllmann


heiner_loellmann
Allpass-Based Analysis-Synthesis Filter Banks

Date: 11.04.2011, 17:15 h - 18:15 h,
Room: Aquarium

Dipl.-Ing. Heiner Löllmann
RWTH Aachen, Aachen, Germany


Details



talk_2011_heiner_loellmannDigital filter-banks are an essential component of many signal processing algorithms, which are nowadays employed in a variety of ubiquitous devices. The filter-bank design has a significant influellce on the performance of such algorithms with regard to their computational complexity, signal quality and delay. In this talk, novel design approaches for differennt kinds of allpass-based analysis-synthesis filter-banks are devised. A substantial benefit of such recursive filter-banks is that they can achieve a high frequency selectivity and/or a non-uniform time-frequeny resolution with a low signal delay.

Talk Manuel Haide


maha
Durchflussmessung in offenen Gerinnen mit einem phased-array-Sensor

Date: 07.03.2011, 11:00 h - 11:45 h,
Room: Aquarium

M.Sc. Manuel Haide
FH Ulm


Details



Der hohe Stellenwert einer verlässlichen Durchflussmessung (Volumen- oder Massenstrombestimmung) in der Energie-, Versorgungs- und Verfahrenstechnik ist gekennzeichnet durch die Entwicklung neuer Verfahren, die den klassischen Methoden bezüglich ihrer Messunsicherheit und wirtschaftlichen Effizienz überlegen sind. Von besonderem Interesse sind Ultraschallsysteme, die ohne mechanisch bewegliche Teile und berührungslos den Durchfluss ermitteln.

Man unterscheidet hierbei zwischen Transmissions- und Reflektionsverfahren. Beim Reflektionsverfahren wird die Strömungsgeschwindigkeit indirekt über Verunreinigungen und Luftbläschen im Fluid gemessen, welche sich schlupffrei mit der Strömung fortbewegen. Dabei werden Ultraschallsignale reflektiert und deren Geschwindigkeit über Empfangssignale ausgewertet. Bekannte Verfahren zur Geschwindigkeitsauswertung sind Doppler- und Korrelationsmethoden.

Die Herausforderung neuartiger Ultraschallmesssensoren liegt zum einen in der Erfassung der Strömungsgeschwindigkeiten über den kompletten Gerinnequerschnitt und zum anderen in der Reduzierung von Messfehlern. Beispiele hierfür sind:
  • Messfehler durch inhomogenes Strömungsprofil [1]
  • Messfehler basierend auf Sekundärgeschwindigkeiten von turbulenten Strömungen [2]
  • Messfehler gegeben durch die Ultraschall-Beambreite des Sensors [3]
  • Fehler bei der Integration der Geschwindigkeitsvektoren (vgl. siehe Abb. 1)


Abb. 1: Diskretisierter Gerinnequerschnitt zur Durchflussberechnung

In diesem Vortrag wird ein Sensor-Versuchsmuster mit der Phased-Array Technologie vorgestellt, welcher zukünftig von der Wasseroberfläche einen Großteil des Gerinnequerschnittes ausleuchten wird (siehe Abb. 2).



Abb. 2: Durchflussmessung in offenen Gerinnen

Zudem werden das:
  • Simulationsmodell des Sensors,
  • Hardwarearchitektur des Sensors,
  • Prüfstand zur Vermessung der Richtcharakteristik,
  • Prüfstand zur Verifizierung der Simulationsergebnisse und
  • Prüfstand zur Verifizierung der Simulationsergebnisse und
  • eine Analyse der Messfehler
vorgestellt.

 

Referenzen:
[1] Larrarte, F. et al.: Acoustic Doppler flow-meter: A proposal to characterize their technical parameters. Elsevier Science Ltd, 2008.
[2] Jhang, K.Y., Sato, T.: 3-D Velocity Field Measurement Using Multiple Ultrasonic Plane Detections and High-Oder Correlation Analysis. IEEE Transactions on Ultrasonics, 1991.
[3] Morgenschweis, G.: Hydrometrie, Theorie und Praxis der Durchflussmessung in offenen Gerinnen. Springer, 2010.

Talk Udo Haiber


udo_haiber
Voice Control Becomes Natural

Date: 31.01.2011, 17:15 h - 18:15 h (talk will be in German)
Room: Aquarium

Dr. rer. nat. Udo Haiber
COO of SVOX, Ulm and Zurich, Germany and Switzerland


Details



talk_2011_udo_haiber"Reports and theses in speech recognition often begin with a cliche, namely that speech is the most natural way for human beings to communicate with each other", Melvyn J. Hunt, 1992

Die allgemein akzeptierte Aussage, dass Sprache das natürlichste zwischenmenschliche Kommunikationsmedium ist, soll meist auch suggerieren, dass eine Übertragung auf die Mensch-Maschine-Interaktion zulässig ist. Diese Transferleistung soll in diesem Vortrag jedoch zunächst hinterfragt werden. Lassen sich Kriterien finden, welche die "Natürlichkeit" bei Sprachbedienung von Maschinen definieren? Ausgehend davon werden die Komponenten eines Sprachdialogsystems vorgestellt und deren Beitrag zur Natürlichkeit des Gesamtsystems dargestellt.

Jeder von uns hatte schon frustrierenden Kontakt mit einem Sprachdialogsystem. Woran liegt das eigentlich? Sind diese künstlich intelligenten Systeme nur noch nicht weit genug für einen kommerziellen Einsatz? Dabei gibt es überraschende und dennoch wenig verbreitete Erkenntnisse zur Ursache dieses unbefriedigenden Systemverhaltens. Ein Lösungsweg erfordert eine Re-Fokussierung der Forschungsaktivitäten auf dem Gebiet der Sprachtechnologie.

Talk Henning Puder


henning_puder
Neueste Generation digitaler Hörgeräte: Audio-Signalverarbeitung in einem spannenden Anwendungsfeld

Date: 17.01.2011, 17:15 h - 18:15 h, Room: Aquarium

Dr.-Ing. Henning Puder
Siemens Audiologische Technik GmbH, Erlangen, Germany


Details



talk_2011_henning_puder_1Schwerhörende leiden meist unter einer ir­re­ver­siblen Schädi­gung des Innen­ohrs. Da­durch weist ihr Gehör einen ein­geschränk­ten Dyna­mik­bereich auf: leise Signale werden nicht oder nur kaum wahr­genommen, Signale von hohem Pegel hin­gegen genauso laut wie von Normal­hörenden. Außer­dem ist bei Schwer­hören­den die Frequenz­maskierung, verglichen mit Normal­hörenden, wesent­lich stärker aus­ge­prägt, so dass Nutz­signale und Ge­räusche schlechter ge­trennt wahr­genommen werden können. Dadurch ist die Sprach­ver­ständ­lich­keit in geräusche­rfüllter Um­gebung meist merk­lich ein­ges­chränkt.

talk_2011_henning_puder_2In diesem Vortrag werden zunächst die be­schrie­benen Pro­­bleme er­läutert und an­schließend auf­ge­zeigt, wie es mit Me­tho­den der digi­talen Audio-­Signal­ver­ar­beitung in Hör­ge­rä­ten mög­lich ist, spür­bare Ver­besserungen für Schwer­hören­de zu er­reichen. Hier wird ins­be­son­dere auf Ver­fahren der Richt­mikrofon­signal­ver­ar­beitung, Geräusch­red­uktion, pegel­ab­hängigen Ver­stärkung und Rück­kopplungs­unter­drückung ein­ge­gan­gen. Außer­dem wer­den An­bin­dungen zu ex­ternen Ge­räten er­läutert, die das Leben von Schwer­hörigen in der In­for­ma­tions­ge­sell­schaft er­leich­tern. Dabei werden auch immer die besonderen Rand­be­dingungen bei Hör­geräten, z.B. ge­rin­ger Mik­ro­fon­ab­stand und Kopf­ab­schattungen, sowie die For­derung nach mini­maler Energie­auf­nahme be­rück­sichtigt.