JP2022191334A - パーソナルナビゲーションシステム - Google Patents

パーソナルナビゲーションシステム Download PDF

Info

Publication number
JP2022191334A
JP2022191334A JP2022160702A JP2022160702A JP2022191334A JP 2022191334 A JP2022191334 A JP 2022191334A JP 2022160702 A JP2022160702 A JP 2022160702A JP 2022160702 A JP2022160702 A JP 2022160702A JP 2022191334 A JP2022191334 A JP 2022191334A
Authority
JP
Japan
Prior art keywords
individual
auditory
audio
sensor
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022160702A
Other languages
English (en)
Inventor
ヘイリー ブラスウェイト
Brathwaite Haley
アマラナス サマラプラン
Somalapuram Amaranath
クリシュナラジュ バット
Bhat Krishnaraj
ラマナサン ベンカタラマン
Venkataraman Ramanathan
プラカッシ ムルティ
Murthy Prakash
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brathwaite haley
Original Assignee
Brathwaite haley
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brathwaite haley filed Critical Brathwaite haley
Publication of JP2022191334A publication Critical patent/JP2022191334A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/007Teaching or communicating with blind persons using both tactile and audible presentation of the information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/20Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】視覚障害者を含む個人が、周りの環境を感知可能とし、その結果、彼らの機動性を高めることができるシステムを提供する。【解決手段】スマートステッキ10は、周囲光を検出するための光センサーと経路上のハザード要素を見つけるためのカメラセンサーとを含むセンシングスイート50と、照明装置60と、視覚ではなく聴覚または触覚により知覚される聴覚-触覚コンテンツ70であって、見出された安全な経路を示す聴覚-触覚コンテンツを生成するように構成された生成モジュールを含むモジュールのセットを実行するデバイス20と、個人にハザード要素の存在を含む聴覚-触覚コンテンツを伝達するように構成された情報伝達装置30とを有する。【選択図】図3

Description

本発明は、パーソナルナビゲーションシステムおよび方法に関するものである。
視覚障害者または全盲者は、視覚的感知機能を欠いているため日々の活動に対応する上で多くの課題に直面する。視覚障害者の移動を支援するための現在のデファクトスタンダードは、どこにでもある杖(伝統的な「白い杖」)である。しかしながら、杖は視覚障害者に対して、彼らの進路上にある障害物について、反響や表面に関しての触覚、および(いくらか)聴覚のチャネルに限定されたフィードバックを提供する程度の、非常に限定的な受動的装置である。これらのフィードバック方法に関する課題は、視覚障害者の進路上にある関連する障害に関する理解が不足していることがあり、それにより、ナビゲーションの決定をするに際し、幾ばくかの困難が生じている。様々な情報に視覚的にアクセスしながら歩く人であっても、視覚障害者に限らず、歩行中に様々な危険に遭遇する可能性がある。
視覚障害者を含む個人が、周りの環境を感知可能とし、その結果、彼らの機動性を高めることができるシステムを提供する。
本発明の態様の1つは、個人に対し安全な経路を見出すようにセンシングスイート(検知スイート、検出に関する一式、包括的センシングシステム)と、視覚では知覚されないが聴覚または触覚により知覚される聴覚-触覚コンテンツ、見出された安全な経路を示す聴覚-触覚コンテンツを生成するように構成された生成モジュールを含むモジュールのセットと、個人に聴覚-触覚コンテンツを伝達または転送するように構成された情報伝達装置とを有するスマートステッキを含むシステムである。このシステムは、周囲の状態の検知、位置、通路上の障害物の性質などの情報を提供し、安全なルートを見出すことができる進化した複数のセンサと、検出された結果を伝達する、視覚ではなく、聴覚および/または触覚により知覚されるコンテンツ(情報、メッセージ、アラーム等)とを用いて、視覚障害者を含む個人が、周りの環境を感知可能とし、その結果、彼らの機動性を高めることができる。
本発明の異なる態様の1つは、スマートステッキを含むシステムにより聴覚-触覚コンテンツを提供する方法である。その方法は、(i)センシングスイートを用いて、個人に安全な経路を見出すことと、(ii)視覚ではなく聴覚または触覚により知覚される聴覚-触覚コンテンツであって、見出された安全な経路を示し、情報伝達装置を介して個人に対し伝達される聴覚-触覚コンテンツを生成することとを有する。
本発明の利点が容易に理解されるために、上記で簡潔に説明される本発明の、より特定の記述が、付属の図に描かれる特定の実施例を参照して行われる。これらの図は典型的な実施例のみを描写し、発明の範囲を限定するものではなく、本発明は、以下の付属された図を使用し、さらに具体的に、詳述される。
図1は、本発明によるパーソナルナビゲーションシステムの1つの実施例の動作を示す概念的な図である。
図2は、本発明によるパーソナルナビゲーションシステムの1つの実施例の概略図である。
図3は、本発明によるパーソナルナビゲーションシステムの1つの実施例の態様を示す図である。
図4は、本発明によるパーソナルナビゲーションシステムのプロセッサの概略図である。
図5は、本発明のいくつかの実施例に関連するナビゲーションにより視覚障害者を補助するプロセスを示すフローチャートである。
現代のナビゲーションシステムおよびセンサは、個人の位置を正確に特定し、ある地点から別の地点までの最適経路を決定し、その経路を誘導できるように個人に対して方向を指示するように開発されてきた。このようなナビゲーションシステムおよびセンサは、ドライバー、歩行者および自転車乗りに、彼らの周囲の環境を気づかせ、そして意図した経路沿いの障害物、交通および条件を自動的に検出する。いくつかのケースでは、センシング技術とナビゲーションシステムは、最短または最も簡単に案内できる経路を示したり、または使用者がその他の基準による望ましい経路を選ぶことを可能にさせることにより、歩行者またはその他の使用者を補助することができる。
これらの最近の技術的進歩にかかわらず、全盲者または視覚障害者は、彼らの進路上の障害物の検出および/または回避のために、依然として一般的に「白い杖」に頼っている。しかしながら、白い杖はその使用者の目前の進路上で遭遇する物体からの衝撃または表面上の触知できるフィードバックしか提供できないので、白い杖の有用性は非常に限定的である。確かに、使用者に障害物を警戒させるためには、杖が実際に障害物に触れなければならない。このように、白い杖の補助があっても、全盲者または視覚障害者は、彼らが進もうとしている進路の状況に関し非常に限られた理解(認識)に基づいて動かなくてはならず、また、こうした進路上の障害物や状況に関する非常に不完全な情報を基に進む方向を決定しなければならない。
即ち、視覚障害者は白い杖などの補助器具の助けがあっても、周囲の環境を限定的にしか理解できない。このような理解が限定されることは、近年においては環境の多くが予測不能であることもあり、視覚障害者が、自信をもってかつ安全に公共の場を歩行することを非常に難しくしている。確かに、非常に熟知した環境であっても、視覚障害者は、障害物が途中で動かされてしまったり、荒れた天気がよく知っている通路の安全を脅かしたり、または他の歩行者または動物が視覚障害者の歩く進路や経路を妨害するかもしれないといった高い危険を背負う。本発明に関連するシステムと方法は、これらの問題に対し、より具体的に、視覚障害者が、意図した歩行進路に関する安全上の障害に彼らが気づくのを容易ならしめ、使用者がそれらの障害を避け、または障害があっても安全かつ効率的にその通路を歩行(ナビゲート)できるようにする。
従って、望まれるナビゲーション経路に関し、例えば視覚障害者が経路を通り抜ける際に対し障害となるかもしれない(障害となる要因、危険度、危険性)周囲の環境の特徴を含む包括的な情報を視覚障害者に提供するパーソナルナビゲーションシステムまたは装置が必要とされている。1つの実施例では、そのような装置は、ステップバイステップ(一歩毎、一歩単位)の歩行指示(ナビゲーション・キュー)と、水たまり、氷、物体および障害物や危険を視覚障害者に警告するためのリアルタイムのフィードバック(応答)を提供することにより、伝統的な白い杖の機能を増幅させる。このような装置は、視覚障害者の個々の身体的な要求を考慮した上で、最も望まれる歩行(運行、ナビゲーション)経路を選択することを可能にし、安全な歩行(運行、ナビゲーション)を促進できる。
図1は、視覚障害者のためのパーソナルナビゲーションシステム(個人用案内システム、個人用誘導システム)100、または、高機能補助システム(スマートアシスタントシステム)として参照されるパーソナルナビゲーションシステム(装置)100を含むシステムを示しており、以下の実施形態においては視覚障害者5を補助するために提供されてもよい。パーソナルナビゲーションシステム100は、視覚障害者(ユーザー、使用者)5を補助するために、1つまたはそれ以上のデバイス(装置、部品)から構成されてもよい。パーソナルナビゲーションシステム100は、例えば、高機能ステッキ(スマートステッキ)10、携帯電話27のような高機能装置(スマートデバイス)20にインストールされるアプリケーション、およびイヤフォン(イヤピース、レシーバ、ヘッドフォン)31、振動装置付きのリストバンド32などのウェアラブル端末およびその他の機器および装置を含む情報伝達端末(コミュニケーション端末)30であって、聴覚および/または触覚(皮膚感覚)、またはこれらの組み合わせを使用することにより、またはこれらの装置の全部または一部を統合することにより、コンテンツ(情報、メッセージ、アラーム、助言)70を使用者5に確実に伝達することができるコミュニケーション端末30を含んでいてもよい。以降に示される様に、いくつかの実施例では、開示された技術は、それぞれが異なる特徴と機能を提供するスマートステッキ10、スマートデバイス20、およびウェアラブルのコミュニケーション端末30に分散されていてもよい。
このシステム100では、スマートステッキ(スマートウォーキングスティック)10は、障害物、危険およびその他の個人5の安全を妨げるかもしれないものを探索することにより、個人5にとって安全な経路を見つけるように構成されるセンシングスイート(検知スイート、検出に関する一式、包括的センシングシステム、センサー群、一式のセンサー)50、およびステッキ10の持ち手11付近に置かれる照明装置60を含む。スマートステッキ10は、視覚障害者5の補助具の一例である。システム100は、車いす、歩行補助具、安全胴衣およびその他のものであって個人5が把持したり身に着けることが可能であるものを含んでもよく、センシングスイート50がそれらに一体化されたり、または組み込まれていてもよい。スマートデバイス20および/またはウェアラブル端末30が、センシングスイート50、またはセンシングスイート50の一部、および/または照明装置60を含んでもよい。スマートステッキ10、スマートデバイス20およびウェアラブル端末30といったスマートアシスタントシステム100を構成する要素は、有線または適切な無線技術、例えばWi-Fi接続、携帯データ接続、ブルートゥース(登録商標)などにより接続されてもよい。
図1に示したように、スマートステッキ10、スマートデバイス20およびコミュニケーションデバイス30は協働して動作し、視覚障害者5が、その周辺の環境を理解(認識)し、歩行(運行、誘導)するように補助してもよい。例えば、図2を参照して、より詳細に説明するが、様々なセンサを有するセンシングスイート50は、スマートステッキ10に統合され、ユーザーの環境に関する情報を集めてもよい。所定の状況を感知するために、これらのセンサはスマートステッキ10に適切な位置に組み込まれてもよい。あるタイプのセンサーは、例えば、水センサーは、スマートステッキ10の末端または末端近くに設置されてもよく、他のタイプのセンサーは、検出する条件により、スマートステッキ10の持ち手またはその付近に設置されてもよい。
ある状況がスマートステッキ10により感知されると、スマートステッキ10は、音、振動、またはその他の触覚フィードバック(触覚応答)といった様々な方法により、その状況を視覚障害者5に直に知らせてもよい。あるいは、スマートステッキ10は、その状況または、検知した生のデータをスマートデバイス20に中継してもよく、それをスマートデバイス20が音、振動などを介して視覚障害者5に知らせてもよい。
いくつかの実施例では、画像処理といった処理集約型のタスクが、スマートデバイス20により実行されてもよく、スマートステッキ10に対し、処理用のリソースを追加で備えていてもよい。他の実施例では、スマートステッキ10とスマートデバイス20は、処理集約型のタスクの実行を、リモートサーバー300に依存してもよい。したがって、いくつかの実施例では、スマートステッキ10および/またはスマートデバイス20は、クラウドサーバー300といったリモートサーバーとの接続を維持してもよい。
図2に、システム100のブロック図を示している。システム100は、スマートステッキ10、スマートデバイス20、および情報伝達装置(コミュニケーションデバイス)30を含む。典型的な情報伝達装置30はウェアラブル端末であり、異なるタイプのアウトプット装置、例えば聴覚装置31および触覚(皮膚感覚)フィードバック装置(触覚応答装置)32を含んでいてもよい。典型的な聴覚装置はイヤフォン31であり、典型的な触覚フィードバック装置は、振動装置32または使用者5の体の一部に取り付けるプッシュプル方式の装置、例えばリストバンド、腕時計コンピュータ、リスト形通信機などである。ウェアラブルコミュニケーション端末30は、スマートデバイス20により生成された聴覚-触覚コンテンツ70を個人5に通信または伝達するよう構成される。聴覚-触覚コンテンツ70は、視覚的に知覚または認知されないが、聴覚的および/または触覚的に知覚または認知され、見出された安全な経路を指示する。即ち、聴覚-触覚コンテンツ70は、視覚を使って理解または認識されるべき画像、光景、写真、絵などで表現される情報を含んでいないが、しかし、聴覚のみ、触覚のみ、または聴覚と触覚により理解または認識される、言葉、触覚フィードバックおよび/または皮膚感覚フィードバックを伴う、情報、メッセージ、指示、合図といったコンテンツを含む。
スマートステッキ10は、照明装置60、センシングスイート50の一部である第1のセンササブシステム50a、およびスマートデバイス20と通信するための通信手段65を含む。センササブシステム50aは、様々なセンサーを有するセンサーアレイ(センサー配列)であり、スマートステッキ10の本体と一体となり、または取り付けてもよく、周囲の環境に関する情報を収集する。
スマートデバイス20は、点字プロビジョニング装置、または当業者には知られている他のフィードバック装置(応答装置)などの情報提供装置21と、マイクロコントローラ、シグナルプロセッサ、フィールドプログラムゲートアレイ(FPGA)などの処理システム25と、メモリ26とを含む。システム100のいくつかの実装例は、ラズペリーパイ(ラズパイ)のような組み込みプロセッシングシステムを用いてもよい。いくつかの実装例では、ホストプロセッシングシステム25で稼働するアシスタントアプリケーション28、またはアプリケーションソフトウェアが、システム100のプロセス、ロジックまたは解析機能を実装するためのモジュールのセット200を機能化(動作)するために提供されてもよく、それとともに他の機能を実行してもよい。スマートデバイス20は、センシングスイート50の一部である第2のセンササブシステム50bを含む。
例えば、補助アプリケーション28は、モジュールのセット200を実装してもよく、モジュールのセット200は、センシングスイート50の複数のセンサーにより感知された様々な状況に基づき、ウェアラブルコミュニケーション端末30として提供される1または複数の出力装置を介する視覚障害者5への通知や警告を含む聴覚-触覚コンテンツ70を生成または作成する生成モジュール201を含む。いくつかの実施例では、モジュールのセット200は、ユーザーインターフェースを提供するために補助のモジュール220を含んでもよく、例えば、遠隔ビデオ分析および/またはナビゲーションなどの、クラウドサーバー300により供給される遠隔サービスへの接続を提供できる。クラウドサーバー300は、インターネット(クラウド)310経由で接続され、スマートデバイス20はインターネット310経由で通信のための適切な通信手段29、例えば、Wi-Fi、無線LAN、携帯電話通信機能など、を有する。通信手段29は、ブルートゥース(登録商標)または他の近距離通信を介して、スマートステッキ10および情報伝達装置30と通信するための機能を含んでもよい。
モジュールのセット200は、構成ツールモジュール(再構成ツール、設定ツール、コンフィグツール)210を備えてもよい。構成ツール210は、パーソナルナビゲーションシステム100のための様々な閾値またはセッティングを確立するために用いられてもよい。構成ツール210は、いくつかの実施例では、閾値またはセッティングを確立(設定)してもよく、それらがスマートステッキ10へ送られ、取り込まれてもよい。これらの閾値またはセッティングは、例えば、視覚障害者5に警報または通知のトリガーとなる検知条件(検出条件)を規定してもよい。例えば、1つの実施例では、近接センサー54に、閾値として400cm(センチメートル)を設定でき、スマートステッキ10の400cm以内で物体が感知されると、視覚障害者5への警報または通知のトリガーとなってもよい。
センシングスイート50は、スマートステッキ10、スマートデバイス20および/または情報伝達装置30と一体となり、または取り付けられ(接続され)てもよい様々なタイプのセンサーを含んでもよく、ユーザー(個人)5の身体とともに移動し、そのユーザー5の周辺の環境に関連した情報を収集してもよい。センシングスイート50は、例えば、光センサー52、ステレオカメラシステム53の様なカメラセンサー53、超音波ベースの測距システムといった近接センサー54、加速度計やジャイロセンサーといったモーションセンサー55、GPS受信機57といった位置センサー、水センサー58などを含んでいてもよい。センシングスイート50内の様々なセンサーから集められた情報は、プロセッシングシステム25に実装されたモジュールのセット200により処理され、聴覚-触覚コンテンツ70としてウェアラブルの出力装置30に転送され、視覚障害者5に対し、その周辺の環境に対するより完全な理解(認識)を提供し、視覚障害者5に差し迫った障害物および/または危険を警告してもよい。
センシングスイート50の複数のセンサーは、スマートステッキ10に沿って、正確なセンサーの読み取り結果を得るために適した位置に配置されてもよい。例えば、水センサー58は、スマートステッキ10の遠い方の先端の近くに設置されてもよく、一方、光センサ52およびカメラセンサ53は、スマートステッキ10の持ち手11または近い方の端の近傍に設置されてもよい。他のセンサー、例えば、近接センサー54、光センサー52、モーションセンサー55、位置センサー57などは、スマートステッキ10の長さに沿った適切な位置に同様に配置されてもよい。
センシングスイート50に含まれる様々なセンサーは、それぞれのセンサーにより検出または計測された物理量が評価されてもよく、複数のセンサーにより検出または計測された物理量の組み合わせにより特定の状況を判断するためのセンサーとして機能してもよい。
近接センサー54は、超音波センサー(ソナーシステム)、レーダーシステムおよびライダーシステム(レーザースキャナーシステム)を含んでもよく、接近センサー54および/またはカメラセンサー53は、スマートステッキ10の前方または周囲にある物体(障害物)の空間的な存在(障害物)を検出(探索、探査)するためのセンサー(感知機能)として機能してもよい。生成モジュール201は、スマートステッキ10の前方および/または個人5の周囲の、深度方向(奥行方向)のプロファイル情報(深度プロファイル)71を含む聴覚-触覚コンテンツ70を生成するよう構成された探査ユニット202を含んでもよい。カメラまたはステレオカメラシステム53は、立体的視覚画像処理技術を使用して奥行(深度)または距離計測を提供するよう構成されてもよい。探査ユニット202は、周囲の物体の深さ(奥行)のセンシング機能を含み、深度プロファイル情報71を生成してもよい。視覚障害者5は、スマートステッキ10を所望のポイントまで旋回し、その方向の物体の深さ方向(奥行方向)のフィードバック(応答)として、深度プロファイル情報71を得ることができる。センサー54および/または53は、スマートステッキ10により指摘された物体の距離を計測することができ、例えば、異なる音量、ピッチまたは周波数をフィードバックとして使用して深度(奥行)を示すコンテンツ70を、ユーザー5は取得可能である。さらに、コンテンツ70は、障害物までの距離に関して言葉によるフィードバックを含んでもよい。
超音波センサーのような近接センサー54により集められた情報は、探査ユニット202により受領され、他のタイプの近接センサー54、カメラセンサー53、GPSなどの位置センサー57および他のセンサーから得られた情報と組み合わされて処理され、周囲の環境について、視覚障害者5に対し、より広範囲の(包括的な)理解を可能とするコンテンツ70を提供する。
深度プロファイル情報71は、個人5の補助具であるスマートステッキ10の前方の深度プロファイルを含んでもよい。探査ユニット202は、近接センサ54の超音波測距離システムの様なセンサー、またはカメラ53からの入力に基づき障害物を検出し分析する機能を含んでもよい。障害物の検出は、ユーザー5から障害物への測定された距離に基づき行われる。測定された距離が所定の値N未満の場合、探査ユニット202はコンテンツ70を介してウェアラブル端末30を使用してブザーを鳴らし、障害物の存在に関し、使用者5に対し、可聴式の警告をユーザー5に提供する。測定された距離が所定値Nより大きい場合、探査ユニット202はブザーを止める。値Nはシステム設計されたパラメータであり、いくつかの実施例では、300cという値であってもよい。センサーにより距離を解析可能な最大および最小の値は400cmおよび2cmであってもよい。その他のシステム100のユーザー5は、構成ツール(コンフィギュレーションツール)210を使用することにより、異なる範囲の限界値を設けてもよい。また、ブザー音のブザーの状態を、中間の距離により段階的に、例えば、100cm未満の距離の範囲、200cm未満、などで変えてもよい。
深度プロファイル71は、個人5の前方の3Dプロファイル(3次元プロファイル)または個人5の周囲の3Dプロファイルを含んでもよい。探査ユニット202は、個人5の周囲の3D深度プロファイル71を含む聴覚-触覚コンテンツ70を生成してもよい。3次元プロファイルに基づいて安全な経路を判断することにより、探査ユニット202は、ユーザー5の足だけでなく体の全部または頭上も含み、障害物と干渉することのない、より安全な経路を示す聴覚-触覚コンテンツ70を生成可能である。深度プロファイル(奥行プロファイル)71は、その他の機能やユニットと共有するために、メモリ26に保存してもよい。
近接センサー54、カメラセンサー53および/または水センサー58は、個人5の経路上のハザード要素(危険要素、危険発生要素)を見つけるためのセンサー(センシング設備)として機能してもよい。生成モジュール201は、センシングスイート50内のセンサーの検出結果に基づき、個人5の予想される進路上の危険(ハザード)または潜在的な危険を発見および/または予測するよう構成されるハザード予測ユニット(危険予測ユニット)203を含んでもよく、生成モジュール201は、ハザード要素(危険要素)の存在を示す危険情報(ハザード情報)72を含む聴覚-触覚コンテンツ70を生成してもよい。発見されたハザード要素または潜在的なハザード要素は、3Dプロファイル71に含まれてもよい。
例えば、水センサー58は、スマートステッキ10の端部の近くに設け、周辺環境における溜まり水または流れている水、雪または氷を検出してもよい。危険予測ユニット203は、水の存在を回避する経路の情報を含んだコンテンツ70を作成してもよい。視覚障害者5は、水センサー58に検出された水に関しての警報を、コンテンツ70を介して受けることができ、これにより視覚障害者5は進路上の水の存在を知ることができ、水を回避するために進路を変更することができ、または、その進路を歩行する間に多くの注意を払うことができる。動作中、システム100内の水センサー58は、水分を検出し、水があればシステム100は振動装置32を作動させ使用者5に警告としての触覚フィードバックを発し、水がなければ、システム100は振動装置32を停止する。
動作中、センシングスイート50の複数のセンサーは、光のレベル、水、物体および障害物、そして階段、砂利、砂などの地表の変化といった周辺環境の様々な状況を検出および/または測定してもよい。センシングスイート50の複数のセンサーにより生成された情報は、生成モジュール201へ伝達され、構成された閾値と設定とに基づき処理されてもよい。感知されたレベルが、確立された閾値に合致しないときに、生成モジュール201が関連する出力を活性化して、コンテンツ70を介してウェアラブル端末30を用い、潜在的危険を視覚障害者5に警告してもよい。こうすることにより、システム100は、視覚障害者5に対し、周辺の環境の全体について伝えることで、その周囲の環境を視覚障害者5が、より完全に理解(認識)することができる。
位置センサー57は、GPS、Wi-Fiベースの屋内測位システム、携帯ネットワークナビゲーション拡張システム(案内拡張システム)などの屋内および屋外位置測定(測位)のためのセンサーを含んでもよい。屋外/屋内GPS受信機およびその他の位置センサー57は、地理的位置を判明させ、目的地へのナビゲーションに役立つ位置測定を提供するように構成されてもよい。生成モジュール201は、個人を、所望の目的地までナビゲーション(案内、誘導、歩行)するための屋内と屋外の間で連続した(シームレスな、切れ目のない)ナビゲーション情報73を含む聴覚-触覚コンテンツ70を生成するよう構成される、屋内-屋外ナビゲーションユニット(屋内外ナビゲーションユニット)204を含んでもよい。屋内-屋外ナビゲーションユニット204は、正確に定義された環境において切れ目のない案内プロセス(ナビゲーションプロセス)を実行することができ、そのために、外部環境から内部環境への移行は、Wi-Fiネットワークを予め登録しておくことにより、GPSと屋内ナビゲーションシステム間でのナビゲーション方法の移行をシームレスに行うことができ、この結果、連続したナビゲーション(案内、誘導)をユーザーに提供できる。ナビゲーションユニット204によりサポートされる屋内-屋外環境としては、車内、列車内、船上、水中などを含んでもよく、ユーザーは、システム100を使用することにより、連続したナビゲーションをそのまま維持して、車両に乗り降りできる。
屋内-屋外ナビゲーションユニット204は、屋内と屋外との間で使用者を切れ目なくナビゲートするための個人用地図を自律的に生成する機能を含んでもよい。生成された地図は、Wi-Fiネットワークに登録されることができ、パーソナルナビゲーションシステム100は、Wi-Fiネットワーク上に登録された様々な屋内環境の間の違いを自動的に検出できる。このようにして、システム100は、車両ナビゲーション、公園などの屋外でのナビゲーションと、屋内環境でのナビゲーションとの間で、必要に応じて実質的に切れ目のないナビゲーションを可能にする。
センシングスイート50のモーションセンサー55および/または位置センサー57は、個人5の、一歩単位(ステップ-バイ-ステップ)の位置(1歩ごとの位置)を見出すためのセンサーとして機能してもよく、生成モジュールは、一歩単位のナビゲーション情報(ステップ-バイ-ステップの案内情報)74を含む聴覚-触覚コンテンツ70を生成するように構成された一歩単位のナビゲーションユニット(ステップ-バイ-ステップ案内ユニット)205を含んでもよい。一歩単位の位置を見つけるためのセンサーは、スマートステッキ10および/またはスマートデバイス20に設けてもよい。モーションセンサー55の加速度計およびジャイロメータは、スマートステッキ10および/または個人5の方向、スピードおよび加速の変化に基づいて、個人5の一歩単位(ステップ-バイ-ステップ)の動きを検出することができ、個人5の、歩行速度と、停止と前進と、さらに、歩行方向を得ることができる。位置センサー57は、個人5の詳細な位置と方向とをフィート単位で得ることができる。
一歩単位のナビゲーション情報74は、ユーザー5の歩行の方向を含んでもよく、視覚障害者5を、地点AからBにナビゲートする一歩単位の局所的な支援を提供してもよい。家、オフィス地区、ショッピングモールなどの制御された環境においては、例えば、2フィート(60cm)精度で、一歩単位の正確な案内を、一歩単位のナビゲーション74は提供可能である。一歩単位のナビゲーション情報74は、個人5により一歩毎に選択された方向および/または経路についての視覚障害者5に対する一歩単位の指示を含んでもよく、一歩単位のナビゲーション情報74は、さらに、対象物の深さ(深度プロファイル)71についてのフィードバック、危険または潜在的危険情報72、および屋内-屋外ナビゲーション情報73を含んでもよく、これらは、個人5により、一歩単位で、ステップ-バイ-ステップで、変更され選択される可能性のある方向と経路に関する情報である。
通常は、歩行中、個人5は選択可能な複数の経路を持ち、経路の内の1つが、いつでも、例えば一歩単位で選択可能である。カメラセンサー53、近接センサー54、水センサー58およびセンシングスイート50の他のセンサーは、複数方向タイプのセンサーであってもよく、個人5の予想される複数の経路における危険要素をプリフェッチする(先に得る)ためのセンサーとして機能してもよい。危険予想ユニット(ハザード予測ユニット)203は、一歩単位のナビゲーションユニット205と協働するように構成されたユニット203aを含んでもよく、このユニット203aは、プリフェッチされた危険要素の中で、一歩単位に選択された個人5の経路上の危険要素を予測し、その危険情報72aをコンテンツ70に含ませるように構成されてもよい。
一歩単位のナビゲーションユニット(ステップ-バイ-ステップナビゲーションユニット)205は、視覚障害者5が頻繁に歩行した(案内された)屋内環境の3次元マップを生成してもよい。そのようなマップ(地図)は、屋内位置、位置センサー57としてのWi-Fi、カメラセンサー53、超音波またはライダーセンサーの近接センサー54、および当業者に知られている他のセンサーを用いて生成されてもよい。1つまたはそれ以上のこのようなマップは、視覚障害者5に対し、精度2フィート以内(60cm以内)の、正確な、ステップ-バイ-ステップの案内を、提供するために利用可能である。これは、視覚障害者5が、家、仕事場、ショッピングモールなどの屋内環境で自信を持って歩行することを可能にする。
カメラセンサー53、近接センサー54、およびGPSといった位置センサー57は、個人5の複数の予想経路における個人5にとってのリスク要因(危険要因、危険因子)またはリスク候補要因を、プリフェッチする(先に得る)ためのセンサーとして機能してもよい。リスク候補因子は、階段、段差、横断歩道、信号などを含んでよく、それらは個人5の経路上に一般的に存在するが、個人5がその存在を事前に知らない場合にはリスクまたは危ないものになり得る。
生成モジュール201は、リスク管理ユニット206を含んでもよく、リスク管理ユニット206は、一歩単位のナビゲーションユニット205と協働して、プリフェッチされたリスク候補因子の中で、個人5がステップ-バイーステップで(一歩単位に)選択可能な経路上のリスク候補因子75の存在を含む聴覚-触覚コンテンツ70を生成するよう構成される。カメラセンサーまたはステレオカメラシステム53は、周辺環境に関連する画像および/またはビデオデータを取り込むことができ、リスク管理ユニット206は、画像処理機能を使用してリスク候補因子を判断することができる。位置センサー57により獲得された個人5の位置に基づき、リスク管理ユニット206は、個人5の周囲のリスク候補因子を把握することができる。
光依存抵抗器(LDR)などの光センサー52は、スマートステッキ10またはパーソナルナビゲーションシステム100の他の装置と結合され、周辺環境における周囲光のレベルを測定および/または監視してもよい。生成モジュール201は、照明管理ユニット207を含んでもよく、照明管理ユニット207は、外部の光の状態76の情報を含む聴覚-触覚コンテンツ70を生成するように構成されてもよい。照明管理ユニット207は、光センサー52の検出結果に従ってスマートステッキ10に取り付けられた照明装置60を自動的に点灯させる機能を含んでもよい。光センサー52は、スマートステッキ10に取り付けられる照明装置60と関連づけられてもよく、周囲光のレベルが低い場合には照明60が作動される。照明装置60は、例えば、照度低下したときに周囲の環境を照らすためのLEDアレイを含んでもよい。システム100は、暗い状況下で、他の人が視覚障害者5の存在を認識するのを助ける。システム100の外部の光の状態についての音声アシスタントは、個人5がより注意を払うのに役立つ。
照明管理ユニット207は、低照度の状態で、カメラセンサー53に連動して照明装置60を作動させてもよく、カメラセンサー53が、鮮明な画像を取り込むことができる。さらに、音声、触覚および/または皮膚感覚フィードバックを介して視覚障害者5が、外部の光の状況を警告されてもよく、視覚障害者5が所望の経路を歩行する際に十分な注意を払うことができる。
近接センサー54および/またはカメラセンサー53は、スマートステッキ10と個人5の周囲360度を検出するセンサーであってもよく、周囲360度の接近する移動物体を検出するように構成されたセンサーとして機能してもよい。典型的な360度センサーは、ライダーセンサーである。生成モジュール201は、スキャニングユニット208を含んでもよく、スキャンニングユニット208は、あらゆる方向から個人5に近づき、個人5に接近する移動物体を検出し、緊急警報命令77を含む聴覚-触覚コンテンツ70を生成し、言葉、触覚および/または皮膚感覚フィードバックにより視覚障害者5が衝突を避けられるように構成されてもよい。
モジュールのセット200は、インテリジェントガイダンスモジュール(知的案内モジュール)230を含んでいてもよく、インテリジェントガイダンスモジュール230は、個人5が頻繁に通る経路上で、移動可能な物体と固定された物体とを区別し、より迅速な意思決定を行い、また、正確な案内を含む聴覚-触覚コンテンツ70を生成するように構成される。インテリジェントガイダンスモジュール230は、頻繁に使用される通り道を理解し、道案内の効率を向上することを援助するように構成された機械学習モジュール235を含んでもよい。また、インテリジェント案内モジュール230は、コンテキストアウェアとなる知能で構成されてもよく、職場、家、屋外などの環境を区別して検出することが可能である。
図3に示すように、本発明によるパーソナルナビゲーションシステム100の実施例の一つでは、システム100の全ての特徴と構成要素が単一の装置に含まれる様に、完全に一体化されていてもよい。図示したように、パーソナルナビゲーションシステム100は、センシングスイート50と、スマートデバイス20と、照明装置60と、情報伝達装置30とが統合されたスマートステッキ10を有してもよい。示される様に、スマートデバイス20を実装するための処理システムは、処理システムを損傷から保護するために、スマートステッキ10の持ち手11または近い方の端の近くに配置されてもよい。センシングスイート50を構成するセンサアレイは、当業者に知られている有線通信方法を介してスマートデバイス20の処理システムと通信してもよい。スマートデバイス20の構成ツール(コンフィグツール)は、音声指示またはスマートステッキ10に一体化された複数のボタンによってアクセスしてもよい。その他の実施例では、スマートデバイス20の構成ツールは、モバイルデバイス上のアプリケーションを通じてアクセスしてもよい。さらに他の実施例では、スマートデバイス20の構成ツールは、クラウドサーバー300などを介して遠隔からアクセスしてもよい。
スマートステッキ10に統合された情報伝達装置(コミュニケーションデバイス)30は、視覚障害者5に可聴および/または触覚または皮膚感覚フィードバックを提供するためのスピーカー、ブザー、圧電体またはその他の同様の装置を含んでもよい。図示した様に、スマートステッキ10に統合された情報伝達装置(出力装置)30は、当業者に知られている有線通信手段を介して、聴覚-触覚コンテンツをスマートステッキ10に統合されたスマートデバイス20から受け取ってもよい。
本発明によるパーソナルナビゲーションシステム100の別の実施例において、パーソナルナビゲーションシステム100は、センシングスイート50、スマートデバイス20、照明装置60および情報伝達装置30が統合された携帯端末または携帯電話27を有してもよい。他の実施例において、パーソナルナビゲーションシステム100は、2つ以上の装置にわたって分散されてもよい。例えば、パーソナルナビゲーションシステム100のいくつかの機能性はスマートステッキ10に含まれてもよく、パーソナルナビゲーションデバイス100の他の機能性は、携帯電話27に含まれてもよい。いくつかの実施例では、視覚障害者5は、携帯電話27とローカル無線ネットワークの間で、Wi-Fiまたは他の無線接続を設定してもよい。携帯電話27上で動くアシスタントアプリケーション28が、視覚障害者5が、視覚障害者5の好みに応じて、パーソナルナビゲーションデバイス100を初期設定したり、カスタマイズすることを可能にしてもよい。無線接続は、パーソナルナビゲーションデバイス100が携帯電話27を介して、または直に無線接続を介して、遠隔サーバー(示されていない)にデータをストリーミングすることを可能にすることもできる。
前述の様に、本発明のいくつかの実施例は、ラズベリーパイといった組み込みプロセッサ25を利用してもよい。図4は、特定の関連する部分およびインターフェイスを備えた組み込みプロセッサ25の1つの実施例の代表的な回路図である。
図示されているように、組み込みプロセッサ25の1つのピン402は、周囲光レベルを検出するために光依存抵抗器(LDR)と連動してもよい。組み込みプロセッサ25の別のピン404は、触覚フィードバックシステムまたは振動回路32aを駆動してもよい。組み込みプロセッサ25のピン406は、超音波センサー54aのトリガを駆動し、それによるエコーはピン408で受信されてもよい。水センサー(水分センサー)58の出力は、ピン410で読み取られ、ピン412は情報伝達装置30のブザー31aを駆動してもよい。LED回路はピン414からの出力によって駆動されてもよい。
図5は、本発明の実施例によるパーソナルナビゲーションシステム100を操作する方法500の実施例の1つを示す。方法500は、最初に、パーソナルナビゲーションシステム100が作動しているか(電源が入っているか)否かを判断してもよい。システムが作動していれば、ステップ501において、センシングスイート50の様々なセンサーからセンサーデータが収集され、カメラ監視が開始されてもよい。センサーは、例えば近接センサー(超音波センサー)54、光センサー52、カメラセンサー53、モーションセンサー(加速度計およびジャイロメータ)55、水センサー(水分センサー)58、位置センサー57などを含んでもよい。ステップ502において、センサーデータおよびカメラ監視からのビデオデータは、個人5の安全な経路を見出し、その他の処理のために、当業者には公知の有線または無線通信により、処理システム25に転送されてもよい。
システム100に関する典型的な初期化シーケンスは、ユーザモバイル機器27とローカル無線ネットワークとの間のWi-Fi接続の初期化を含むであろう。ユーザモバイル機器27上で稼働するアプリケーションソフトウェア28は、ユーザーが、パーソナルナビゲーションシステム(スマート視覚障害者アシスタント)100を、ユーザーのニーズに合わせて初期化しカスタマイズすることを可能にする。また、Wi-Fi接続は、ユーザモバイル機器27経由で、またはWi-Fi接続により直に、のどちらかで、システム100が遠隔サーバにデータをストリーミング(ストリーム配信)することを可能にする。
ステップ503において、一歩単位のナビゲーションユニット(ステップ-バイ-ステップナビゲーションユニット)205は、個人5が1歩(1ステップまたは1フィート)動いたか否かを判定する。個人5が動くと、ステップ504において、一歩単位のナビゲーションユニット205は、生成モジュール201の各ユニットに対し、動き、方向および動いた距離を通知し、一歩単位のナビゲーション情報205を含むコンテンツ70の生成を行い、それを個人5に伝達する。個人5が動かない場合、一歩単位のナビゲーションユニット205は、必要であれば、周囲の環境の変化を検出した情報を含むコンテンツ70を提供するように、生成モジュール201の各ユニットをセット可能である。
ステップ505において、探査ユニット202が、個人5の移動(進行)方向に障害物があるか否かを判定し、ステップ506において、探査ユニット202は、その方向への深度プロファイル71を一歩単位に作成し、さらに、アラームを含むコンテンツ70を生成し、コミュニケーション装置(情報伝達装置)30を介して個人5に警報を転送する。例えば、探査ユニット202は、個人5の周辺付近または進路にある物体の存在を検出してもよい。この処理は、センシングスイート50により提供されるセンサーデータだけを用いて行ってもよい。予め設定された閾値により、検出された物体に対する許容可能な距離を定義してもよい。探査ユニット202は、視覚障害者5と検出された物体または障害物との間の距離が、所定の閾値より小さいかどうかを判断してもよい。その場合、探査ユニット202は、コンテンツ70による音声フィードバック(音声応答)を作動し、衝突を避ける十分な時間を設けて視覚障害者5に物体の存在を警告してもよい。そうでない場合は、コンテンツ70として音声フィードバックは提供されなくてもよい。
ステップ507において、危険予測ユニット(ハザード予測ユニット)203が、個人5の進行方向に潜在的な危険(ハザード)を発見すると、ステップ508において、危険予測ユニット203は、危険または潜在的危険情報72を含むコンテンツ70を生成する。例えば、危険予測ユニット203は、水センサー(水分センサー)58が、個人5の周辺環境内において、地表の水分(氷、雪、水溜まりなど)、または空気中に浮遊する水分(雨、霧、湿度など)を検出したと判断する。水センサー58は、水分レベルを計測するために利用されてもよい。水が存在する場合(水分がある場合)、危険予測ユニット203は、水分レベルを得て、そのレベルが、予め設定された(所定の)閾値を超えるか否か判断してもよい。ステップ507において、水分レベルが所定の閾値を超え、視覚障害者5に危険をもたらす場合、ステップ508において、危険予測ユニット203は、例えばブザーまたは圧電体により、視覚障害者5に触覚フィードバック(触覚応答)を提供してもよい。水を含むレベルが所定の閾値に達しない場合は、触覚フィードバックが提供されなくてもよい。
ステップ509において、個人5により、地点AからBへのナビゲーション(案内、誘導)が求められると、ステップ510において、屋内外ナビゲーションユニット204は、屋外および屋内の間で連続したナビゲーション情報73を含むコンテンツ70を生成し、個人5に対し安全な経路をアドバイスする。ステップ511において、リスク管理ユニット206が、個人5の進路または経路上にいくつかのリスク候補要因(危険候補要因)または潜在的リスク(潜在的な危険)を発見すると、ステップ512において、リスク管理ユニット206は、リスク候補要因75の存在を含む聴覚-触覚コンテンツ70を生成する。
ステップ513において、照明管理ユニット207が、周囲が暗くなったと判断すると、ステップ514において、照明管理ユニット207は、外光状態76を含むコンテンツ70を生成し、照明装置60を点灯する。例えば、ステップ513において、周囲の光のレベルが照明管理ユニット207により処理され(得られ)、光のレベルが所定の閾値に比べ低いか否かを判定されてもよい。低ければ、ステップ504において、LEDまたはLEDアレイ60が、他人に視覚障害者5の存在を警告する安全機構として作動されてもよい。ステップ514においてLEDアレイ60を作動させることにより、低照度の条件下であっても、画像およびビデオデータの取り込みが容易になる。周囲光のレベルが、所定の値またはそれを超えると、LEDは作動しなくてもよい。
ステップ515において、スキャニングユニット208が、個人5に接近する移動物体を検出すると、ステップ516において、スキャニングユニット208は、緊急警報77を含むコンテンツ70を生成し、衝突を回避する。コンテンツ70の音声フィードバック(音声応答)は、例えば、言葉による、その物体の識別、言葉による視覚障害者5とその物体間の距離の識別、その物体の周囲のナビゲーション(歩行)に関しての指示、および/または、視覚障害者5のその物体への衝突を回避するためのその他の適切な情報を含んでもよい。他の実施例では、音声フィードバックは、その物体と視覚障害者5との近接度に応じて、ピッチまたは周波数を変化させる一連の音を含んでもよい。
センシングおよびデジタル処理における現在の進歩は、視覚障害者を支援し、彼らの生活の幾つかの領域における障害の影響を和らげることに利用可能である。その目標は、ユーザー5の周囲(周りの世界、周りの空間)のナビゲーション状況(案内状況、誘導状況、歩行状況)に関する包括的な情報セットを含むコンテンツ70をユーザー5に提供することができる一連のセンシング機構(センシングスイート、センシング機構のアレイ)50を提供することである。ここに提示されるアプローチは、包括的センシングシステム50を杖(歩行用の杖)に統合(一体化)することにより、今ある杖の機能性を増加させることであり、センシングシステム50は、杖のユーザー5に、その世界(万象)の状態に対して案内(誘導)するための指示を提供するように構成される。スマート視覚障害者アシスタントとして参照されるシステム100は、近接を感知し、位置を感知し、彼らの進路上の障害物の性質を感知するなど感覚を提供する進化したセンサーを用いて、視覚障害者5に、その周囲を感知する力を与え、彼らの移動性を向上するようにしている。
本明細書に開示される技術は、パーソナルナビゲーションシステム100用に、他の種類の補助具が、歩行用の杖(スマートステッキ)と同様に含まれてもよく、例えば、ベスト(スマートベスト)、ジャケット(スマートジャケット)、ヘルメット(スマートヘルメット)、ヘッドギア(スマートヘッドギア)、眼鏡(スマート眼鏡)、または公知のスマート衣服または着用可能または着用不可能な装置が含まれていてもよい。従って、本明細書では、スマートステッキが特に参照されているが、本明細書で開示される技術は、歩行用の杖に限定されるものではなく、他の種類の装置に組み込まれてもよい。
上記の開示は、本開示が実施され得る特定の実施形態を例示として示す添付の図が参照され、本明細書の一部を形成する。本開示の範囲から逸脱することなく、他の実施形態が利用され構造的変更が加えられる可能性があることが理解されている。本明細書における「1つの実施例」、「実施例の1つ」、「実施例の例示」などの参照では、記述された実施例は、特定の様相、構造または特徴を含んでもよく、しかしながら、全ての実施例が、
特定の様相、構造または特徴を必ずしも含まなくてもよいことを示す。さらに、このような語句は、必ずしも同じ実施例を参照しているわけではない。加えて、特定の様相、構造または特徴が実施例と関連して記述される場合、明示的に説明されているか否かにかかわらず、他の実施例に関するこれらの様相、構造または特徴に影響を与えることは、当業者の知識の範囲内であることが提示される。
本明細書で開示されるシステム、装置および方法の実装形態は、専用または汎用のコンピュータを備えていてもよく、また利用してもよく、それらは、本明細書で述べられているように、例えば、1つまたはそれ以上のプロセッサおよびシステムメモリなどのコンピュータハードウェアを含む。本開示の範囲内において、実装形態は、コンピュータが実行可能な指示、データ構造、および/またはプログラム(プログラム製品)を搬送または保管するための、物理的な、あるいは他のコンピュータ可読媒体を含んでもよい。これらのコンピュータ可読媒体は、専用または汎用のコンピュータシステムによりアクセス可能であれば、どのような利用可能な媒体であってもよい。コンピュータ実行可能な指示を保管するコンピュータ可読媒体は、コンピュータ記憶媒体(装置)である。コンピュータ実行可能な指示を搬送するコンピュータ可読媒体は、伝送媒体である。このように、限定ではなく例として、本開示の実装形態は少なくとも2つの明確に異なるコンピュータ可読媒体、即ちコンピュータ記憶媒体(デバイス)および伝送媒体を備えることができる。
コンピュータ記憶媒体(装置)は、RAM、ROM、EEPROM、CD-ROM、ソリッドステートドライブ(SSD)、(例えばRAMをベースとした)、フラッシュメモリ、相変化メモリ(PCM)、その他のタイプのメモリ、その他の光ディスク記憶装置、磁気ディスク記憶装置または他の磁気記憶装置、またはその他の媒体を含み、これらは、コンピュータ実行可能な指示またはデータ構造の形で、所望のプログラムコード手段を記憶するために利用可能であり、汎用または特殊コンピュータによりアクセス可能であればよい。
本明細書に開示されるデバイス、システムおよび方法の実装形態は、コンピュータネットワークを通じて通信してもよい。ネットワークは、コンピュータシステムおよび/またはモジュールおよび/またはその他の電子デバイスとの間で電子データを転送することができる1つまたはそれ以上のデータリンクとして定義される。情報がネットワークまたは別の通信接続(有線、無線、または有線と無線の組み合わせ)を通じて転送または提供される場合、コンピュータはその接続を転送媒体として適切にみなす。転送媒体は、ネットワークおよび/またはデータリンクを含んでもよく、それはコンピュータ実行可能な指示またはデータ構造の形で、所望されたプログラムコード手段を搬送するために使用可能であり、そしてそれは汎用または特殊目的のコンピュータによるアクセスが可能である。上記の組み合わせも、コンピュータ可読媒体の範囲内に含まれるべきである。
上記で議論されたセンサーの実装形態は、機能の少なくとも一部を実行するためのコンピュータハードウェア、ソフトウェア、ファームウェア、またはそれらの組み合わせを含んでもよいことに留意すべきである。例えば、センサーは、1つまたはそれ以上のプロセッサ内で実行されるよう構成されているコンピュータコードを含んでもよく、そしてコンピュータコードにより制御されるハードウェアロジック/電気回路を含んでもよい。これらの例示的な装置は、ここでは説明のために提供され、限定する意図はない。本開示の実施例は、当業者に知られている様に、更なる種類の装置で実施されてもよい。
少なくとも本開示のいくつかの実施例は、コンピュータ利用可能な媒体上に格納されたこのようなロジック(例えばソフトウェアの形で)を構成するコンピュータプログラム製品に関するものである。このようなソフトウェアは、1つまたはそれ以上のデータ処理装置で実行される場合、本明細書に記載された様に装置を作動させる。
上記には、個人に対し安全な経路を見出すように構成されたセンシングスイートと、視覚ではなく聴覚または触覚により知覚される聴覚-触覚コンテンツであって、見出された安全な経路を示す聴覚-触覚コンテンツを生成するように構成された生成モジュールを含むモジュールのセットと、前記個人に前記聴覚-触覚コンテンツを伝達するように構成された情報伝達装置とを有するシステムが開示されている。前記センシングスイートは、前記個人の一歩単位の位置を見出すセンサーを含み、前記生成モジュールは、一歩単位のナビゲーション情報を含む前記聴覚-触覚コンテンツを生成するように構成されたユニットを含んでもよい。前記センシングスイートは、屋内および屋外における位置測定のためのセンサーを含み、前記生成モジュールは、屋内と屋外との間で、前記個人を、所望の目的地へ案内するための連続したナビゲーション情報を含む前記聴覚-触覚コンテンツを生成するように構成されたユニットを含んでもよい。位置測定のための前記センサーは、GPS、Wi-Fiベースで屋内の位置を得るシステム、および携帯ネットワークを用いた経路誘導増強システムの少なくとも1つを含んでもよい。前記聴覚コンテンツは、前記聴覚および前記触覚により知覚されるコンテンツであってもよい。前記センシングスイートは、前記個人の経路上のハザード要素を見つけるためのセンサーを含み、前記生成モジュールは、前記ハザード要素の存在を含む前記聴覚-触覚コンテンツを生成するように構成されたユニットを含んでもよい。前記センシングスイートは、前記個人の複数の予想される経路上のハザード要素を先に得るためのセンサーを含み、前記生成モジュールは、先に得られた前記ハザード要素の中の、一歩単位で選択された前記個人の経路上のハザード要素の存在を含む前記聴覚-触覚コンテンツを生成するユニットを含んでもよい。前記センシングスイートは、前記個人の複数の予想される経路上において前記個人にとってのリスク候補要因を先に得るためのセンサーを含み、前記生成モジュールは、先に得られた前記リスク候補要因から、一歩単位で選択可能な前記個人の経路上のリスク候補要因の存在を含む前記聴覚-触覚コンテンツを生成するように構成されたユニットを含んでもよい。
このシステムは、前記個人により保持または身に着けることができるように構成され、前記センシングスイートを含む補助具をさらに有してもよい。前記センシングスイートは、物体の空間的な存在を検出するためのセンサーを含み、前記生成モジュールは、前記補助具の前方の深度方向のプロファイルを含む前記聴覚-触覚コンテンツを生成するように構成されたユニットを含んでもよい。前記センシングスイートは、物体の空間的な存在を検出するためのセンサーを含み、前記生成モジュールは、前記個人の周りの3Dプロファイルを含む前記聴覚-触覚コンテンツを生成するように構成されたユニットを含んでもよい。前記センシングスイートは、深さ方向の知覚を可能にする、超音波センサー、ソナーシステム、ライダーシステム、および立体視的カメラシステムのなかの少なくとも1つを含んでもよい。
前記センシングスイートは、光センサーを含み、前記生成モジュールは、外光の状況の情報を含む前記聴覚-触覚コンテンツを生成するように構成されたユニットを含んでもよい。このシステムは、前記光センサーの検出結果に応じて自動的に点灯するように構成された照明装置をさらに有していてもよい。前記センシングスイートは、水の存在を検出するように構成されたセンサーを含み、前記生成モジュールは、前記水の存在を回避する経路の情報を含む前記聴覚-触覚コンテンツを生成するように構成されたユニットを含んでもよい。前記センシングスイートは、周囲360度で、移動物体の接近を検出するように構成されたセンサーを含み、前記生成モジュールは、衝突を回避するための非常警報指示を含む前記聴覚-触覚コンテンツを生成するように構成されたユニットを含んでもよい。前記センシングスイートは、物体の空間的存在を検出するためのセンサーを含み、前記モジュールのセットは、前記個人が頻繁に通る通路において、移動可能な物体と移動しない物体とを識別し、より早く意思決定ができ、正確な誘導を含む前記聴覚-触覚コンテンツを生成することを支援するように構成されたインテリジェント誘導モジュールを含んでもよい。前記インテリジェント誘導モジュールは、頻繁に使用される通路の理解を促進し、誘導効率を向上するように構成された機械学習モジュールを含んでもよい。このシステムは、前記モジュールのセットを実行するプロセッサをさらに有してもよい。このシステムは、前記プロセッサを含むモバイル装置をさらに有していてもよい。
上記には、さらに、聴覚-触覚コンテンツを提供する方法が開示されている。この方法は、センシングスイートを用いて個人に対し安全な経路を見出すことと、見出された安全な経路を示し、視覚ではなく聴覚または触覚により知覚される前記聴覚-触覚コンテンツであって、情報伝達装置を介して前記個人に対し伝達される前記聴覚-触覚コンテンツを生成することとを有する。前記センシングスイートは、前記個人の一歩単位の位置を見出すセンサーを含み、前記生成することは、一歩単位のナビゲーション情報を含む前記聴覚-触覚コンテンツを生成することを含んでもよい。前記センシングスイートは、屋内および屋外における位置測定のためのセンサーを含み、前記生成することは、屋内と屋外との間で、前記個人を、所望の目的地へ案内するための連続したナビゲーション情報を含む聴覚-触覚コンテンツを生成することを含んでもよい。前記センシングスイートは、物体の空間的存在を検出するためのセンサーを含み、前記生成することは、前記個人の前方または周囲の3Dプロファイルを含む聴覚-触覚コンテンツを生成することを含んでもよい。
前記センシングスイートは、光センサーを含み、前記生成することは、外光状況の情報を含む前記聴覚-触覚コンテンツを生成することを含んでもよい。この方法は、さらに、前記光センサーの検出結果に応じて照明装置を自動的に点灯することを有してもよい。前記センシングスイートは、水の存在を検出するように構成されたセンサーを含み、前記生成することは、水の存在を回避する経路の情報を含む前記聴覚-触覚コンテンツを生成することを含んでもよい。前記センシングスイートは、周囲360度で、移動物体の接近を検出するように構成されたセンサーを含み、前記生成することは、衝突を回避するための非常警報指示を含む前記聴覚-触覚コンテンツを生成することを含んでもよい。
本開示の様々な実施例が上記で記述されてきた一方、それらはただの例示として提示され、制限をするものではないことに留意すべきである。本開示の精神と範囲から逸脱せずに、その形態や詳細における様々な変更がここでは可能なことが、当業者には明らかであろう。従って、本開示の広がりと範囲は、上記で記述されたどの実施例の例示によっても限定されるべきではなく、以下の請求項とそれらの同等物に従ってのみ定義されるべきである。前述の記述は、例示および説明を目的として提示されたものである。網羅的であることを意図しておらず、また開示された正確な形態に開示を限定する意図はない。上記の教示に照らして、多くの変更改造や変形が可能である。更に、前述の代替の実施例のいずれかまたは全てが、本開示の追加的なハイブリッドの実施例を形成するために望まれるどの組み合わせで使用されてもよいことに留意すべきである。
10 スマートステッキ、20 スマートデバイス、30 情報伝達装置、50 センシングスイート、60 照明装置、70 聴覚-触覚コンテンツ

Claims (11)

  1. 視覚障害者を含む個人の歩行用の杖としての機能を含むスマートステッキを有するシステムであって、
    前記スマートステッキは、前記個人に対し安全な経路を見出すように構成されたセンシングスイートであって、周囲光を検出するための光センサーと、経路上のハザード要素を見つけるためのカメラセンサーとを含むセンシングスイートと、
    照明装置と、
    視覚ではなく聴覚または触覚により知覚される聴覚-触覚コンテンツであって、見出された安全な経路を示す聴覚-触覚コンテンツを生成するように構成された生成モジュールを含むモジュールのセットを実行するデバイスと、
    前記個人に前記ハザード要素の存在を含む前記聴覚-触覚コンテンツを伝達するように構成された情報伝達装置とを有し、
    前記生成モジュールは、前記光センサーにより前記周囲光のレベルが低いときにその状態を含む前記聴覚-触覚コンテンツを生成し、前記照明装置を自動的に点灯させて前記カメラセンサーの画像の取得を容易にするとともに、前記個人の存在の認識の助けとなる照明管理ユニットを含む、システム。
  2. 請求項1において、
    前記センシングスイートは、前記スマートステッキの端部の近くに、水溜まり、雪または氷を含む水の障害を検出するように設けられた水センサーを含み、
    前記生成モジュールは、前記水の障害を含む前記ハザード要素の存在を含む前記聴覚-触覚コンテンツを生成するように構成されたユニットを含む、システム。
  3. 請求項1または2において、
    前記センシングスイートは、前記個人の一歩単位の位置を見出すセンサーを含み、
    前記生成モジュールは、先に得られた前記ハザード要素の中の、一歩単位で選択された前記個人の経路上の前記ハザード要素の存在と一歩単位のナビゲーション情報とを含む前記聴覚-触覚コンテンツを生成するように構成されたユニットを含む、システム。
  4. 請求項3において、
    前記生成モジュールは、先に得られた前記ハザード要素から、一歩単位で選択可能な前記個人の経路上の前記ハザード要素の存在を含む前記聴覚-触覚コンテンツを生成するように構成されたユニットを含む、システム。
  5. 請求項1または2において、
    前記センシングスイートは、屋内および屋外における位置測定のためのセンサーを含み、
    前記生成モジュールは、屋内と屋外との間で、前記個人を、所望の目的地へ案内するための連続したナビゲーション情報を含む前記聴覚-触覚コンテンツを生成するように構成されたユニットを含む、システム。
  6. 請求項5において、
    前記モジュールのセットは、前記個人が頻繁に通る通路において、移動可能な物体と移動しない物体とを識別し、より早く意思決定ができ、正確な誘導を含む前記聴覚-触覚コンテンツを生成することを支援するように構成されたインテリジェント誘導モジュールを含み、前記インテリジェント誘導モジュールは、頻繁に使用される通路の理解を促進し、誘導効率を向上するように構成された機械学習モジュールを含む、システム。
  7. 視覚障害者を含む個人の歩行用の杖としての機能を含むスマートステッキを有するシステムにより聴覚-触覚コンテンツを提供する方法であって、
    前記スマートステッキは、前記個人に対し安全な経路を見出すように構成されたセンシングスイートであって、周囲光を検出するための光センサーと、経路上のハザード要素を見つけるためのカメラセンサーとを含むセンシングスイートと、照明装置と、前記聴覚-触覚コンテンツを伝達するように構成された情報伝達装置と、前記光センサーにより前記周囲光のレベルが低いときに前記照明装置を自動的に点灯して前記カメラセンサーの画像の取得を容易にするとともに前記個人の存在の認識の助けとなる照明管理ユニットとを有し、当該方法は、
    前記情報伝達装置が、視覚ではなく聴覚または触覚により知覚される前記聴覚-触覚コンテンツであって、前記個人に前記ハザード要素の存在を含む、見出された安全な経路を示す聴覚-触覚コンテンツを伝達することを有し、
    前記聴覚-触覚コンテンツを伝達することは、前記光センサーにより前記周囲光のレベルが低いときにその状態を含む前記聴覚-触覚コンテンツを伝達することを含む、方法。
  8. 請求項7において、
    前記センシングスイートは、前記スマートステッキの端部の近くに設けられた水センサーを含み、
    前記聴覚-触覚コンテンツを伝達することは、前記水センサーにより検出された水溜まり、雪または氷を含む水の障害を含む前記ハザード要素の存在を含む前記聴覚-触覚コンテンツを伝達することを含む、方法。
  9. 請求項7または8において、
    前記センシングスイートは、前記個人の一歩単位の位置を見出すセンサーを含み、
    前記聴覚-触覚コンテンツを伝達することは、先に得られた前記ハザード要素の中の、一歩単位で選択された前記個人の経路上の前記ハザード要素の存在を含む前記聴覚-触覚コンテンツを伝達することを含む、方法。
  10. 請求項9において、
    前記聴覚-触覚コンテンツを伝達することは、先に得られた前記ハザード要素から、一歩単位で選択可能な前記個人の経路上の前記ハザード要素の存在を含む前記聴覚-触覚コンテンツを伝達することを含む、方法。
  11. 請求項7または8において、
    前記センシングスイートは、屋内および屋外における位置測定のためのセンサーを含み、
    前記聴覚-触覚コンテンツを伝達することは、屋内と屋外との間で、前記個人を、所望の目的地へ案内するための連続したナビゲーション情報を含む聴覚-触覚コンテンツを伝達することを含む、方法。
JP2022160702A 2017-02-21 2022-10-05 パーソナルナビゲーションシステム Pending JP2022191334A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201762461636P 2017-02-21 2017-02-21
US62/461,636 2017-02-21
JP2019540335A JP2020508440A (ja) 2017-02-21 2018-02-21 パーソナルナビゲーションシステム
PCT/US2018/018904 WO2018156549A1 (en) 2017-02-21 2018-02-21 Personal navigation system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019540335A Division JP2020508440A (ja) 2017-02-21 2018-02-21 パーソナルナビゲーションシステム

Publications (1)

Publication Number Publication Date
JP2022191334A true JP2022191334A (ja) 2022-12-27

Family

ID=63252941

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019540335A Pending JP2020508440A (ja) 2017-02-21 2018-02-21 パーソナルナビゲーションシステム
JP2022160702A Pending JP2022191334A (ja) 2017-02-21 2022-10-05 パーソナルナビゲーションシステム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019540335A Pending JP2020508440A (ja) 2017-02-21 2018-02-21 パーソナルナビゲーションシステム

Country Status (3)

Country Link
US (1) US11705018B2 (ja)
JP (2) JP2020508440A (ja)
WO (1) WO2018156549A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3871002A1 (en) * 2018-10-25 2021-09-01 Transrobotics, Inc. Technologies for opportunistic synthetic aperture radar
US11223556B2 (en) * 2019-06-04 2022-01-11 Phantom Auto Inc. Platform for redundant wireless communications optimization
US11195402B2 (en) * 2019-07-25 2021-12-07 International Business Machines Corporation Predictive warning system
CN112414424B (zh) * 2019-08-20 2023-11-28 信扬科技(佛山)有限公司 盲人导航方法及盲人导航装置
JP2021115117A (ja) * 2020-01-22 2021-08-10 株式会社ジェイテクト 歩行環境提供システム及び歩行支援システム
US11734767B1 (en) 2020-02-28 2023-08-22 State Farm Mutual Automobile Insurance Company Systems and methods for light detection and ranging (lidar) based generation of a homeowners insurance quote
CN113545968A (zh) * 2020-04-24 2021-10-26 人类工程株式会社 利用电磁感应的能量收集装置及智能手杖
US11508138B1 (en) 2020-04-27 2022-11-22 State Farm Mutual Automobile Insurance Company Systems and methods for a 3D home model for visualizing proposed changes to home
US20220008252A1 (en) * 2020-07-13 2022-01-13 Jacob Roman Donnini Wireless extra-sensory location supplementary for navigation of the visually impaired
US11792315B2 (en) 2020-07-20 2023-10-17 Nitin Seshadri Advanced eyesight device for visually impaired
US11626001B1 (en) * 2020-07-28 2023-04-11 United Services Automobile Association (Usaa) Wearable system for detection of environmental hazards
JP2022068577A (ja) * 2020-10-22 2022-05-10 パナソニックホールディングス株式会社 歩行者装置、情報収集装置、基地局装置、測位方法、利用者管理方法、情報収集方法、及び施設監視方法
DE102020006971A1 (de) * 2020-11-13 2022-05-19 Alexander Bayer Kamerabasiertes Assistenzsystem mit Künstlicher Intelligenz für blinde Personen
TWI770779B (zh) * 2021-01-20 2022-07-11 鴻海精密工業股份有限公司 行人導航方法、電子裝置及存儲介質
EP4036524A1 (en) * 2021-01-29 2022-08-03 SC Dotlumen SRL A computer-implemented method, wearable device, computer program and computer readable medium for assisting the movement of a visually impaired user
US20220295209A1 (en) * 2021-03-12 2022-09-15 Jennifer Hendrix Smart cane assembly
JP2023034404A (ja) * 2021-08-31 2023-03-13 トヨタ自動車株式会社 歩行情報提供システム
WO2023243339A1 (ja) * 2022-06-15 2023-12-21 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム
WO2023243338A1 (ja) * 2022-06-15 2023-12-21 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59116025U (ja) * 1983-01-26 1984-08-06 大丸興業株式会社 盲人用杖
JP2001202590A (ja) * 2000-01-21 2001-07-27 Sanyo Electric Co Ltd 視覚障害者用誘導装置
WO2010113239A1 (ja) * 2009-03-31 2010-10-07 コニカミノルタホールディングス株式会社 画像統合装置および画像統合方法
JP2012088253A (ja) * 2010-10-22 2012-05-10 Casio Comput Co Ltd 測位装置、測位方法およびプログラム
JP2014113410A (ja) * 2012-12-12 2014-06-26 Yamaguchi Univ 路面状態判別報知装置
JP2015087320A (ja) * 2013-10-31 2015-05-07 日本無線株式会社 測位装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59116025A (ja) 1982-12-23 1984-07-04 Nippon Soken Inc 圧力検出器
JP4391203B2 (ja) * 2003-11-07 2009-12-24 雅裕 久冨木 埋設部材、廊下構造およびナビゲーションシステム
US20060028544A1 (en) * 2004-08-06 2006-02-09 Mei-Chuan Tseng Electronic blind guidance cane
US20060129308A1 (en) * 2004-12-10 2006-06-15 Lawrence Kates Management and navigation system for the blind
US8588464B2 (en) * 2007-01-12 2013-11-19 International Business Machines Corporation Assisting a vision-impaired user with navigation based on a 3D captured image stream
JP2008302006A (ja) * 2007-06-07 2008-12-18 Aono Kogyo:Kk 老人用杖
US20090032590A1 (en) * 2007-08-02 2009-02-05 Hopkins Billy D Location, orientation, product and color identification apparatus, system and method for the blind or visually impaired
JP2011215106A (ja) * 2010-04-02 2011-10-27 Seiko Epson Corp 位置算出方法及び位置算出装置
EP2629737B1 (en) * 2010-09-24 2016-07-13 Heptagon Micro Optics Pte. Ltd. White cane with integrated electronic travel aid using 3d tof sensor
WO2012068280A1 (en) * 2010-11-16 2012-05-24 Echo-Sense Inc. Remote guidance system
US20140067265A1 (en) 2012-08-28 2014-03-06 Cvg Management Corporation Road condition tracking and presentation
US9770382B1 (en) * 2013-05-07 2017-09-26 Christ G. Ellis Guided movement
JP6111932B2 (ja) 2013-08-26 2017-04-12 ソニー株式会社 行動支援装置、行動支援方法、プログラム、および記憶媒体
DE102014101208A1 (de) * 2014-01-31 2015-08-06 Huf Hülsbeck & Fürst Gmbh & Co. Kg Montagemodul
US10024667B2 (en) 2014-08-01 2018-07-17 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable earpiece for providing social and environmental awareness
US9922236B2 (en) * 2014-09-17 2018-03-20 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable eyeglasses for providing social and environmental awareness
US10656720B1 (en) * 2015-01-16 2020-05-19 Ultrahaptics IP Two Limited Mode switching for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
US9572233B1 (en) 2015-08-18 2017-02-14 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for operating a lighting system based on user lighting preferences
US20180356233A1 (en) * 2017-06-13 2018-12-13 Boutros Baqain Intelligent navigation assistance device
GB201720118D0 (en) * 2017-12-04 2018-01-17 Gizapaw Ltd Walking aids

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59116025U (ja) * 1983-01-26 1984-08-06 大丸興業株式会社 盲人用杖
JP2001202590A (ja) * 2000-01-21 2001-07-27 Sanyo Electric Co Ltd 視覚障害者用誘導装置
WO2010113239A1 (ja) * 2009-03-31 2010-10-07 コニカミノルタホールディングス株式会社 画像統合装置および画像統合方法
JP2012088253A (ja) * 2010-10-22 2012-05-10 Casio Comput Co Ltd 測位装置、測位方法およびプログラム
JP2014113410A (ja) * 2012-12-12 2014-06-26 Yamaguchi Univ 路面状態判別報知装置
JP2015087320A (ja) * 2013-10-31 2015-05-07 日本無線株式会社 測位装置

Also Published As

Publication number Publication date
US11705018B2 (en) 2023-07-18
JP2020508440A (ja) 2020-03-19
US20200043368A1 (en) 2020-02-06
WO2018156549A1 (en) 2018-08-30

Similar Documents

Publication Publication Date Title
JP2022191334A (ja) パーソナルナビゲーションシステム
Fernandes et al. A review of assistive spatial orientation and navigation technologies for the visually impaired
Radhika et al. Implementation of smart stick for obstacle detection and navigation
CN204814723U (zh) 一种导盲系统
US9062986B1 (en) Guided movement platforms
Islam et al. Automated walking guide to enhance the mobility of visually impaired people
US9492343B1 (en) Guided movement
KR101715472B1 (ko) 시각 장애인용 스마트 보행 보조 장치 및 이를 이용하는 스마트 보행 보조 시스템
Subbiah et al. Smart cane for visually impaired based on IOT
Hakim et al. Navigation system for visually impaired people based on RGB-D camera and ultrasonic sensor
Goel et al. Mushrooming trends and technologies to aid visually impaired people
Bala et al. Design, development and performance analysis of cognitive assisting aid with multi sensor fused navigation for visually impaired people
Oliveira The path force feedback belt
Madake et al. A Qualitative and Quantitative Analysis of Research in Mobility Technologies for Visually Impaired People
Mohapatra et al. Path guidance system for blind people
Gonnot et al. Integrated machine vision and communication system for blind navigation and guidance
JP2005143892A (ja) 歩行支援装置
US20230266140A1 (en) Mobility assistance device and method of providing mobility assistance
Scalvini et al. Outdoor Navigation Assistive System Based on Robust and Real-Time Visual–Auditory Substitution Approach
Kalaivani et al. An Artificial Eye for Blind People
Kunapareddy et al. Smart Vision based Assistant for Visually Impaired
KR20170004142A (ko) 시각장애인용 보행 내비게이션 및 gps위치기반인식 음향신호기 모듈
Gaikwad et al. Ultrasonic smart cane indicating a safe free path to blind people
Gupta et al. A survey on indoor object detection system
Raut et al. A survey on indoor navigation for blind people

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221005

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230203

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230307