Schweizer-Verpackung - News-Corner 11.08.2014 Massachusetts Institute of Technology: Chips-Verpackung hilft dabei, Täter zu schnappen
Algorithmus wandelt Objektbewegungen in Audioinformationen um
Per Analyse von Objektvibrationen können Audiosignale in Videos mit einem Algorithmus rekonstruiert werden. Forscher des Massachusetts Institute of Technology (MIT) http://web.mit.edu , Microsoft und Adobe konnten durch Messungen an Bewegungen einer Chips-Verpackung eine verständliche Unterhaltung aus einem Video filtern.
Unsichtbar für das Auge
Wenn Schallwellen auf ein Objekt treffen, versetzen sie es in Schwingungen. Durch deren Analyse können akustische Informationen gefiltert werden. Voraussetzung für diese Technik ist, dass die aufgezeichnete Bildrate pro Sekunde höher ist als die Frequenz des Audiosignals. Untersucht werden die nacheinander fortlaufenden Bilder mit Hilfe von optischen Filtern, die Bewegungen sichtbar machen. Die Schwankungen sind nur etwa ein Zehntel eines Mikrometers klein und für das menschliche Auge unsichtbar.
Auch wenn die visuellen Aufzeichnungen nicht immer die Qualität einer Highspeed-Kamera vorweisen, können dennoch meist Geschlecht und Anzahl der vernehmbaren Personen erkannt werden. Ebenso verraten akustische Eigenschaften viel über die Identität des Sprechenden. Die gemessenen Vibrationen geben auch Auskunft über Material, Größe und Gewicht des vibrierenden Objekts.
Kriminaltechnik profitiert Für Justiz und Gerichtsmedizin stellt die gesamte neue Technik einen großen Fortschritt dar. Videomaterial kann mit Hilfe des Algorithmus sehr viel exakter als bislang ausgewertet werden. Selbst vergleichsweise schlechtes Bildmaterial ist verwertbar und dient bei Ermittlungsarbeiten. Für die Analyse lassen sich unter anderem Wasseroberflächen, Papier oder sogar die Blätter einer Pflanze verwenden.