Owli-AI Logo Owli-AI
Menue

Owli-AI Forschungsprojekt

AHRUS Audible High Resolution Ultrasonic Sonar

AHRUS ist ein elektronisches Guide-Dog-Konzept, das Echolokation durch hoerbaren Ultraschall unterstuetzt. Das System soll Hindernisse und Strukturen fruehzeitiger wahrnehmbar machen, ohne die natuerliche Raumwahrnehmung durch Kopfhoerer zu ersetzen.

Prototype
  • echolocation
  • ultrasound
  • assistive technology
  • spatial hearing
  • obstacle detection

Projektbeschreibung

Ziel

Das Projekt AHRUS untersucht, wie Ultraschall als zusaetzlicher Orientierungskanal fuer blinde und sehbeeintraechtigte Menschen nutzbar wird. Ziel ist eine praxisnahe Unterstuetzung im Alltag, besonders bei kleinen Strukturen und schwer wahrnehmbaren Oberflaechen.

Wie es funktioniert (kurz)

Ein fokussierter Ultraschallstrahl wird moduliert ausgesendet und durch nichtlineare Akustik in der Luft teilweise in hoerbare Signale ueberfuehrt. Reflektionen von Objekten koennen dadurch mit den eigenen Ohren wahrgenommen und raeumlich eingeordnet werden.

Was ist neu im Vergleich zu klassischer Echolokation?

Klassische aktive Echolokation mit Zungenklick arbeitet mit laengeren Wellenlaengen und ist dadurch weniger selektiv bei feinen Strukturen. AHRUS nutzt kurze Ultraschallwellen und ermoeglicht eine deutlich gerichtete Abtastung, wodurch Strukturgrenzen und kleine Hindernisse in bestimmten Szenarien besser differenzierbar werden.

Aktueller Stand (Prototyp & erste Tests)

Es liegt ein funktionaler Prototyp vor. In einer ersten Evaluation mit vier Teilnehmenden wurden Distanz, Richtung, Breitenabschaetzung und Grenzwahrnehmung untersucht und mit klassischem Flash Sonar verglichen.

Outputs

13 Visuals aus dem AHRUS-Paper.

  1. Schematische Darstellung einer Schallquelle bei Bewegung in Azimut und Elevation.
    Fig. 1 Gesamtansicht der Richtungsdarstellung.
  2. Detailansicht der Azimut-Darstellung mit seitlicher Schallquellenbewegung.
    Fig. 1 Detail links (Azimut).
  3. Detailansicht der Elevations-Darstellung mit vertikaler Schallquellenbewegung.
    Fig. 1 Detail rechts (Elevation).
  4. Prinzipgrafik zur Selbst-Demodulation von moduliertem Ultraschall in Luft.
    Fig. 2 Prinzip der Ultraschall-Demodulation.
  5. Foto des AHRUS-Prototyps mit Gehaeuse und Transducer-Array.
    Fig. 3 Prototyp-Implementierung.
  6. Detailfoto des runden Transducer-Arrays am AHRUS-Prototyp.
    Fig. 3 Detail des Transducer-Arrays.
  7. Blockdiagramm mit DSP, Konfiguration, Bluetooth und Ultraschall-Transducer.
    Fig. 4 Design-Uebersicht des AHRUS-Systems.
  8. Balkendiagramm zur Wahrnehmung von Distanz, Richtung und Grenzbereichen bei vier Personen.
    Fig. 5 Ergebnisse zu Distanz-, Richtungs- und Grenzwahrnehmung.
  9. Balkendiagramm zur Distanzschwelle bei der Hinderniserkennung fuer Saeule und Auto.
    Fig. 6 Distanzschwelle bei der Hinderniserkennung.
  10. Balkendiagramm zur Abweichung bei der Breitenabschaetzung eines Hindernisses.
    Fig. 7 Breitenabschaetzung eines Hindernisses.
  11. Vergleich der Schallintensitaet und Direktivitaet von Zungenklick und AHRUS.
    Fig. 8 Gesamtvergleich der Direktivitaet.
  12. Detailansicht der breiten Schallausbreitung eines Zungenklicks beim Flash Sonar.
    Fig. 8 Detail links (Flash Sonar).
  13. Detailansicht der fokussierten Schallausbreitung beim AHRUS-System.
    Fig. 8 Detail rechts (AHRUS).