Wer nicht sehen kann muss hören –
Interaktive Sonifikation im Sport
organisiert von
Thomas Hermann
und Oliver Höner
4. Oktober 2004,
Universität Bielefeld, Deutschland
Sonifikation, die Darstellung von Daten mittels Geräuschen und Klängen, ist ein junges Forschungsgebiet, welches Alternativen zu etablierten Verfahren der Datenvisualisierung bietet. Gerade die hochentwickelten Hörfähigkeiten des Menschen, sowohl in Bezug auf zeitliche, spektrale sowie räumliche Rhythmen, als auch die exzellenten Eigenschaften des Gehörs in der Separation eines Nutzsignals von überlagerten Rauschen prädestinieren Sonifikation zum Einsatz in der Datenexploration. Darüberhinaus kann Klang hervorragend zur Koordination von Aktivitäten benutzt werden (z.B. Tanz, Geräuschrückmeldung beim Schliessen einer Tür), als auch, um den Aufmerksamkeitsfokus zu steuern (z.B. Alarmtöne).
Im Bereich des Sports kommen mehrere Aspekte zusammen: Daten fallen reichhaltig bei Spielbeobachtungen (mitunter in Real-time) an. Diese besitzen eine zeitlich geordnete rhythmische Struktur und sind für verschiedene Zwecke (Training, Analyse, Spielerfeedback) verwendbar. Visuelle Displays sind im skizzierten Fall keine Option, da der visuelle Kanal meist anderwertig genutzt wird. Wer aber nicht sehen kann, muss hören! Interaktive Sonifikation bietet sich geradezu an, und die Einsatzmöglichkeiten sind unseres Erachtens weit jenseits des zur Zeit erforschten.
Das erste Symposium zur Sportsonifikation verfolgt das Ziel, Anwendungsfelder, Techniken, und praktische Aspekte des Sonifikationseinsatzes für die Sportwissenschaft zu sammeln, und den interdisziplinären Dialog zwischen Informatikern, Sportlern, Psychologen zu fördern. Ein weiteres Ziel des Symposiums ist, eine bessere Vernetzung der sich für das Thema interessierenden Gruppen zu erreichen.
Programm
Montag, 4. Oktober 2004
09:30 | Eröffnung und Begrüßung (Raum W4-135, Hauptgebäude der Universität) |
09:40 | Vorstellungsrunde |
10:00-12:00 | Session 1 (20+15) |
10:00 | Thomas Hermann Sonifikation – zwischen Datamining und Biofeedback |
10:35 | Alfred Effenberg Sonification im Sport: Entwicklung – Empirie – Ausblick |
11:10 | Pause |
11:20 | Oliver Höner Sonifikation im Sportspiel – Skizzierung von Anwendungen im Leistungs- und Behindertensport |
11:55 | Mittagspause |
13:30-14:20 | Session 2 (15+10) |
13:30 | Till Bovermann Interaktive Sonifikation mit EmSie |
13:55 | Matthias Milczynski Echtzeitsonifikation von Videodaten |
14:20 | Kaffeepause |
14:40-15:30 | Session 3 (15+10) |
14:40 | Jörg Jäger Mustererkennungsverfahren zur Analyse spieltaktischer Positionierungen |
15:05 | Vanessa Demes Bewegungs-Sonification und integrative Wahrnehmungsfunktionen bei Älteren |
15:30 | Kaffeepause |
15:45-16:45 | Diskussion: Zukunftsperspektiven der Sonifikation im Sport |
17:00 | Planungstreffen (Hermann, Höner, Effenberg, Ritter) bzw. Führung durch das iLab der AG Neuroinformatik |
18:30 | gemeinsames Abendessen |