Owli-AI Logo Owli-AI
メニュー

日本語表示は実験的なデモです。

一部の内容は機械翻訳またはドイツ語のまま表示される場合があります。

青い背景と動物シルエットを組み合わせた Way-Buddy のアイコン
Android 試作版 対象ユーザー: 失明・ロービジョン

Owli-AI Way-Buddy

歩行可能な経路を認識し、スマートフォンから音で進行方向を案内します。

日常の移動を支えるデジタル経路案内。

このページは機械翻訳で、現在編集レビュー前です。

主な機能

  • 歩行可能領域の検出

    カメラ画像を解析し、安全に歩ける可能性の高い領域を認識します。

  • リアルタイム方向推定

    検出した歩行領域から、推奨される進行方向を計算します。

  • ステレオ音声フィードバック

    左右に分かれた音で、最適な進行方向の手がかりを伝えます。

  • オンデバイス処理

    画像解析はスマートフォン上で行われ、カメラ画像はサーバーに送信されません。

  • データ収集用トレーニングモード

    必要に応じて画像とマスクを端末内に保存し、モデル改善用データを作成できます。

  • 開発・分析モード

    可視化とデバッグ情報により、モデル予測を分かりやすく確認できます。

プライバシー

動作モード: ハイブリッド

画像処理は端末上で完結し、カメラデータは外部サーバーに送信されません。

保存したトレーニングデータはスマートフォン内に残ります。

プライバシーページへ

システム要件

  • Android 10 以降
  • カメラアクセス
  • 将来のクラウド機能には任意でインターネット接続

詳細を見る

Owli-AI Way-Buddy は誰のためのアプリですか

Owli-AI Way-Buddy は、屋外での歩行時に追加の方向支援を必要とする視覚障害者や失明者を対象としています。白杖や盲導犬を置き換えるものではありませんが、補助的なデジタル支援として利用できます。

歩行経路を認識する移動支援アプリを探している場合、Way-Buddy はリアルタイムで明確な方向の手がかりを提供します。支援は精密な音声フィードバックを通じて行われ、日常の補助として設計されています。

アプリが行うこと

Way-Buddy は、スマートフォンのライブカメラ画像を解析し、歩道や空いた通路などの歩行可能領域を認識します。そこから推奨される移動方向を計算します。

視覚表示の代わりに、次のような音の手がかりを提供します。

  • 左右に分かれたステレオ信号で、どちらへ寄るべきかを伝えます。
  • 音の位置や強さによって、推奨方向の追加情報を示します。

Way-Buddy の仕組み

  1. カメラを前方に向ける
    スマートフォンを前方へ向け、進行方向の空間を撮影します。

  2. シーンをセグメンテーションする
    学習済みニューラルネットワークが歩行可能領域を検出します。

  3. 方向を計算する
    検出された領域から安定した進行方向を導きます。

  4. 音でフィードバックする
    ヘッドホンやスピーカーを通じて、左右差のある信号を出力します。

トレーニングモードと開発モード

Way-Buddy には、画像とマスクを端末内に保存できるトレーニングモードがあります。これらのデータはモデル改善のために利用されます。

また、開発モードではモデルの予測を画面上で可視化し、動作を理解しやすくします。

プライバシーと処理

画像処理は完全に端末上で行われます。カメラデータは外部サーバーへ送信されません。保存したトレーニングデータもスマートフォン内に保持されます。

メディア

  • Owli-AI Way-Buddy のアプリアイコン
    アプリアイコンのプレースホルダー
  • Way-Buddy の経路検出と音声案内の例
    UI プレビューのプレースホルダー

次のステップ

ストア公開、テスト参加、質問、提携の相談まで、整理された形で対応します。