Datens?tze
Jakob Abe?er war bisher an der Erstellung und Ver?ffentlichung einer Vielzahl von Forschungsdatens?tzen im Bereich der Audio- und Musikanalyse aktiv beteiligt, von denen auf dieser Seite exemplarisch drei n?her vorgestellt werden.
Synthetic Pitch Contour (SPC) Dataset
Der SPC-Datensatz wurde 2024 gemeinsam mit Simon Schw?r und Prof. Dr. Meinard Müller vom Lehrstuhl für Semantische Audiosignalverarbeitung der Friedrich-Alexander Universit?t Erlangen-Nürnberg an den International Audio Laboratories Erlangen erstellt.
Er beinhaltet 3.500 kurze Audioclips mit synthetisch erstellten Grundfrequenzkonturen aus den sieben Konturklassen stable (stabile Grundfrequenz), alternating (wechselnde Grundfrequenz wie z.B. bei einer Sirene), vibrato (periodische Grundfrequenzmodulation, z.B. in klassischem Gesang), glissando (kontinuierlicher Frequenzübergang), bend (einmalige Frequenzmodulation), sawtooth (Frequenzmodulation entsprechend einer S?gezahnfunktion) und triangle (Frequenzmodulation entsprechend einer Dreiecksschwingung).
Der Datensatz erlaubt das Training und die Evaluation von KI-Modellen zur Klassifikation von Grundfrequenzkonturen und wurde für Datens?tze aus verschiedenen Audiodom?nen (Musik, Sprache, Alltagsger?usche, Tierlaute) erfolgreich eingesetzt. Der Datensatz wird in den kommenden Monaten ver?ffentlicht (bei Interesse bitte 球探足球比分 aufnehmen).
Referenz:
- Abe?er, J., Schw?r, S., & Müller, M. (2025). Pitch contour exploration across audio domains: A vision-based transfer learning approach. arXiv. https://arxiv.org/abs/2503.19161
Urban Sound Monitoring (USM) Dataset
Der USM-Datensatz wurde als Referenz für verschiedene Teilaufgaben der Umweltger?uschanalyse entwickelt, darunter die Trennung von Klangquellen (source separation), die Erkennung und Lokalisierung akustischer Ereignisse (sound event detection and localization) sowie die Sch?tzung der Anzahl gleichzeitiger Klangquellen (sound polyphony estimation). Der Schwerpunkt liegt auf typischen Klanglandschaften im st?dtischen Umfeld. Der Datensatz umfasst 24.000 kurze, künstlich erzeugte Stereo-Soundscapes. Diese wurden aus Mischungen von 2 bis 6 Einzelsounds erstellt, die sich in Lautst?rke und r?umlicher Positionierung innerhalb des Stereofelds unterscheiden.
Weitere Information:
Referenz
- Abe?er, J. (2022). Classifying sounds in polyphonic urban sound scenes. In Proceedings of the 152nd Audio Engineering Society (AES) Convention. Online: https://aes2.org/publications/elibrary-page/?id=21683
Weimar Jazz Database (WJD)
Die Weimar Jazz Database (WJD) enth?lt 456 Transkriptionen improvisierter Jazz-Soli. Der Schwerpunkt liegt auf einzelstimmigen Blasinstrumenten wie Saxophon (Alt, Tenor, Sopran, Bariton), Trompete, Posaune und Klarinette. Die Auswahl der Musiker und Stücke orientiert sich an der Entwicklung der Jazzgeschichte – von traditionellem Jazz und Swing über Bebop, Cool Jazz und West Coast Jazz bis hin zu Hardbop, Modal Jazz und Postbop. Zu jedem Solo existieren manuelle Annotationen der Hauptmelodie, Spieltechniken, Beat-Positionen und Harmoniewechsel sowie umfangreiche zus?tzliche Metadaten zur transkribierten Aufnahme. Die Originalaufnahmen dürfen aus urheberrechtlichen Gründen nicht direkt über die Webseite des Jazzomat Research Project bereitgestellt werden. ?ber die Online-Anwendung JazzTube (entwickelt von Stefan Balke und Meinard Müller) k?nnen die entsprechenden Aufnahmen jedoch über YouTube-Links abgerufen werden.
Weitere Informationen:
Referenz:
- Pfleiderer, M., Frieler, K., Abe?er, J., Zaddach, W.-G., & Burkhart, B. (Eds.). (2017). Inside the Jazzomat – New perspectives for jazz research. Schott Campus. schott-campus.com/jazzomat/
Weitere Datens?tze
- Forschungsdatens?tze des Fraunhofer-Institut für Digitale Medientechnologie IDMT: https://www.idmt.fraunhofer.de/en/publications/datasets.html