Owli-AI Logo Owli-AI
Menu

Investigacion Owli-AI

Ultrasonic Waves to Support Human Echolocation

HCII (2018) - Paper

Florian von Zabiensky; Michael Kreutzer; Diethelm Bienhaus

Technische Hochschule Mittelhessen, University of Applied Sciences, Giessen, Germany

Aviso: esta pagina fue traducida automaticamente y esta pendiente de revision editorial.

Visual

Foto del prototipo AHRUS con matriz de transductores ultrasónicos.
Prototipo AHRUS del paper HCII.

Resumen

El articulo presenta AHRUS, un sistema que utiliza ultrasonido parametrico para hacer audible informacion del entorno a personas con discapacidad visual o ceguera. Gracias a la autodemodulacion se conservan propiedades direccionales del ultrasonido, de modo que las senales pueden percibirse con los propios oidos. El trabajo describe la arquitectura tecnica de un prototipo y primeros escenarios de uso. En una evaluacion inicial con cuatro participantes, el sistema se probo en la practica. En comparacion con la ecolocalizacion flash sonar clasica, el enfoque muestra ventajas en estructuras pequenas y en el problema stealth de superficies lisas.

Palabras clave

  • Human Echo Localization
  • Audible Ultrasound Sonar
  • Blind People
  • Spatial Hearing
  • Obstacle Detection

Descarga

Figuras

13 visuales del paper.

  1. Representacion esquematica de una fuente sonora en movimiento de acimut y elevacion.
    Fig. 1 Vista general de representacion direccional.
  2. Vista de detalle de acimut con movimiento lateral de la fuente sonora.
    Fig. 1 Detalle izquierdo (acimut).
  3. Vista de detalle de elevacion con movimiento vertical de la fuente sonora.
    Fig. 1 Detalle derecho (elevacion).
  4. Grafico de principio de autodemodulacion de ultrasonido modulado en aire.
    Fig. 2 Principio de demodulacion por ultrasonido.
  5. Foto del prototipo AHRUS con carcasa y matriz de transductores.
    Fig. 3 Implementacion de prototipo.
  6. Foto de detalle de la matriz circular de transductores en el prototipo AHRUS.
    Fig. 3 Detalle de matriz de transductores.
  7. Diagrama de bloques con DSP, configuracion, Bluetooth y transductores de ultrasonido.
    Fig. 4 Vista general del diseno del sistema AHRUS.
  8. Grafico de barras sobre percepcion de distancia, direccion y zonas limite en cuatro participantes.
    Fig. 5 Resultados sobre percepcion de distancia, direccion y limites.
  9. Grafico de barras sobre umbral de distancia en deteccion de obstaculos para columna y coche.
    Fig. 6 Umbral de distancia en deteccion de obstaculos.
  10. Grafico de barras sobre desviacion en estimacion de anchura de obstaculos.
    Fig. 7 Estimacion de anchura de obstaculo.
  11. Comparacion de intensidad sonora y directividad entre chasquido de lengua y AHRUS.
    Fig. 8 Comparacion global de directividad.
  12. Vista de detalle de dispersion sonora amplia de un chasquido de lengua en flash sonar.
    Fig. 8 Detalle izquierdo (flash sonar).
  13. Vista de detalle de dispersion sonora focalizada en el sistema AHRUS.
    Fig. 8 Detalle derecho (AHRUS).

BibTeX

@inproceedings{vonzabiensky2018ahrus,
  title = {Ultrasonic Waves to Support Human Echolocation},
  author = {von Zabiensky, Florian and Kreutzer, Michael and Bienhaus, Diethelm},
  booktitle = {HCII},
  year = {2018}
}

Notas adicionales

Lectura adicional: Ir al proyecto AHRUS