Resynthese von Audiosignalen mittels Feature Extraction
Die vorliegende Projektarbeit stellt einen Ansatz zur Resynthese von Audiosignalen aus fremdem Audiomaterial vor ein Musikstück soll aus den Einzelteilen anderer Stücke einer Musikbibliothek neu zusammengesetzt werden. Die große Herausforderung besteht darin, die "Ähnlichkeit" zweier Klangeindrücke quantitativ zu erfassen; d.h. in Zahlen auszudrücken, die von einer Maschine interpretiert werden können.
Der Ansatz ist folgender: die Musikstücke werden jeweils in einzelne Frames im Millisekundenbereich unterteilt. Für jeden dieser Frames wird ein musikalischer "Fingerabdruck" erstellt und gespeichert. Im Anschluss wird nun jedem Frame des Target Songs derjenige aus der Bibliothek zugewiesen, der den ähnlichsten Fingerabdruck aufweist.
Zum Erstellen eines solchen charakteristischen Profils werden ausschließlich aus dem Audiosignal selbst gewonnene Daten verwendet. So lassen sich im Zeit- wie im Frequenzbereich verschiedene Features extrahieren, mit deren Hilfe man die Frames in "musikalische Klassen" einteilen und mteinander vergleichen kann.