JP2019086565A - 歩行支援装置 - Google Patents

歩行支援装置 Download PDF

Info

Publication number
JP2019086565A
JP2019086565A JP2017212669A JP2017212669A JP2019086565A JP 2019086565 A JP2019086565 A JP 2019086565A JP 2017212669 A JP2017212669 A JP 2017212669A JP 2017212669 A JP2017212669 A JP 2017212669A JP 2019086565 A JP2019086565 A JP 2019086565A
Authority
JP
Japan
Prior art keywords
information
support device
walking support
walking
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017212669A
Other languages
English (en)
Inventor
穂積 正男
Masao Hozumi
正男 穂積
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2017212669A priority Critical patent/JP2019086565A/ja
Publication of JP2019086565A publication Critical patent/JP2019086565A/ja
Pending legal-status Critical Current

Links

Abstract

【課題】視覚障害者が目的地まで安全かつ容易に到達することができる歩行支援装置を提供する。【解決手段】歩行支援装置1の利用者は、まず、マイク2に対して、目的地に係る音声情報を発声する。そして、歩行支援装置1は、音声情報が入力されたと判定する処理を行い、歩行支援装置1は、音声情報を解析する処理を行い、音声情報を認識した場合には、目的地情報を設定する。そして、歩行支援装置1は、GPS3により利用者の現在位置情報を取得し、カメラ5により監視情報を設定し、現在位置情報と、目的地情報に基づいて、経路情報を設定する。そして、歩行支援装置1は、設定された経路情報と、監視情報をスピーカ6に出力する処理を行う。【選択図】図3

Description

本発明は、利用者の歩行を支援する歩行支援装置に関するものである。
従来では、視覚障害者の歩行を支援するために、視覚障害者と、その周辺に存在する物体との距離を視覚障害者に対して報知することにより、視覚障害者の歩行を支援する歩行支援装置が知られている(例えば、特許文献1)。
このような歩行支援装置は、発光素子と、受光素子からなる光センサを備えており、発光素子が発光してから、受光素子が物体により反射された光を受光するまでの時間に基づいて、物体との距離を計測し、第1報知音を出力することとなる。そして、第1報知音を出力してから計測された物体との距離に対応する時間が経過した後、第1報知音の出音を停止して第2報知音を出力する。これにより、視覚障害者と、その周辺に存在する物体との距離を視覚障害者に対してリアルタイムに報知することができる。
特開2006−276595号公報
しかしながら、特許文献1に開示されているような歩行支援装置において、視覚障害者は、視覚障害者と、その周辺に存在する物体との距離を認識することができるので、安全に歩行することができるものの、目的地まで到達するのが困難であるという問題点があった。
本発明は、このような問題点に鑑み、視覚障害者が目的地まで安全かつ容易に到達することができる歩行支援装置を提供することを目的とする。
このような課題を解決するために、本発明に係る歩行支援装置は、利用者の音声情報を入力する音声情報入力手段と、現在の位置情報を取得する位置情報取得手段と、前記位置情報取得手段により取得された前記位置情報と、前記音声情報入力手段により入力された前記音声情報に基づいて、目的地までの経路情報を設定する経路情報設定手段と、利用者の前方を監視することにより、監視情報を生成する監視情報生成手段と、前記監視情報生成手段により生成された前記監視情報、及び前記経路情報設定手段により設定された前記経路情報を出力する情報出力手段と、を備えたことを特徴とする。
また、本発明に係る歩行支援装置において、前記監視情報生成手段は、利用者の前方に突出して設けられていることを特徴とする。
本発明によれば、視覚障害者が目的地まで容易に到達することができる歩行支援装置を提供することができる。
第1実施形態における歩行支援装置の外観斜視図の一例を示す図である。 第1実施形態におけるブロック図の一例を示す図である。 第1実施形態におけるメイン処理の一例を示す図である。 第1実施形態における音声情報入力時処理の一例を示す図である。 第2実施形態におけるブロック図の一例を示す図である。 第2実施形態におけるメイン処理の一例を示す図である。 第3実施形態における歩行支援装置の一例を示す図である。 第4実施形態における歩行支援装置の一例を示す図である。
(第1実施形態)
まず、図1〜図4を用いて、本発明における歩行支援装置1の第1実施形態について具体的に説明を行う。
(歩行支援装置1の外観)
図1を用いて、歩行支援装置1の外観について説明を行う。なお、図1は、第1実施形態における歩行支援装置1の外観斜視図の一例を示す図である。
(歩行支援装置1)
第1実施形態における歩行支援装置1は、眼鏡型の形状となっており、利用者の歩行を支援するためのものである。ここで、歩行支援装置1は、マイク2と、GPS3と、制御装置4と、カメラ5と、スピーカ6と、電力供給装置7と、ストラップ8により構成されている。
なお、第1実施形態における歩行支援装置1は、眼鏡型の形状となっているが、歩行支援装置1のレンズの色は、茶系、紺系、黒系の色のレンズが用いられる。これにより、例えば、歩行支援装置1の利用者が義眼である場合であっても、周囲の人が義眼であることを認識し難くすることができる。また、歩行支援装置1のレンズの色は、透過性を有していてもよい。これにより、視覚障害者でない者が歩行支援装置1を利用する場合であっても、違和感なく利用することができる。なお、フレームの色は、歩行支援装置1の利用者の好みに応じて、適宜設定可能である。
(マイク2)
マイク2は、利用者の音声情報を入力するために設けられている。また、マイク2は、利用者の音声情報を認識し易いように、歩行支援装置1の中央に設けられている。ここで、本実施形態におけるマイク2は、利用者の音声情報を認識し易いように、感度の高いコンデンサマイクが用いられる。なお、コンデンサマイクの特質上、感度が高い利点があるものの、振動や湿気に弱いため、天候が雨の場合に適していないという問題点がある。このため、コンデンサマイクと比較して、丈夫で湿度に強いダイナミックマイクを用いることとしてもよい。なお、マイク2は、骨伝導マイクであってもよい。
(GPS3)
GPS3は、歩行支援装置1の利用者の現在位置を取得するために設けられている。具体的には、GPS3は、全地球測位システムから信号を受信する受信機を備えており、歩行支援装置1の利用者の地図上における現在位置を取得するために設けられている。
(制御装置4)
制御装置4は、スピーカ6の動作を制御するために設けられている。また、制御装置4は、CPU4a、ROM4b、RAM4c、及び人工知能4dが内部バス4eを介して接続されている。
(カメラ5)
カメラ5は、歩行支援装置1の利用者の前方を監視するために設けられている。また、カメラ5は、歩行支援装置1の中央に設けられている。ここで、本発明におけるカメラ5は、光に対して感度が高く、画質に優れているCCDカメラとなっている。なお、カメラ5は、CCDカメラではなく、CMOSカメラ等であってもよい。
また、本実施形態におけるカメラ5は、前方に突出して設けられている。これにより、カメラ5が歩行支援装置1の前面に対して平行である場合と比較して、カメラ5の視野角を広くすることができる。特に、カメラ5を前方に突出させた場合には、歩行支援装置1の利用者の上方、正面、及び足元まで監視することができるので、視覚障害者が歩行支援装置1を利用した場合に、安全に歩行することができる。
なお、カメラ5は、複数設けられていてもよい。この場合において、複数のカメラ5は、それぞれが前方に突出して設けられるとともに、複数のカメラ5のそれぞれを異なる方向に傾斜させることにより、カメラ5の視野角を広くすることができる。なお、カメラ5を可動可能に設けることとしてもよい。
(スピーカ6)
スピーカ6は、歩行支援装置1の利用者に対して、音声情報を出力するために設けられている。ここで、本実施形態におけるスピーカ6は、利用者の右耳に対して音声情報を出力するための右スピーカ6aと、利用者の左耳に対して音声情報を出力するための左スピーカ6bにより構成されている。なお、スピーカ6は、骨伝導スピーカであってもよい。
(電力供給装置7)
電力供給装置7は、歩行支援装置1に電力を供給するために設けられている。ここで、本発明における電力供給装置7は、バッテリーと、アダプタ挿入口を設ける態様であってもよいし、ソーラーバッテリーを備える態様であってもよい。また、電池を備える態様であってもよい。
(ストラップ8)
ストラップ8は、歩行支援装置1に取り付けられており、歩行支援装置1を利用しているときに、歩行支援装置1が落ちてしまうことを防止するために設けられている。特に、視覚障害者が歩行支援装置1を利用する場合に、歩行支援装置1を落としてしまった場合には、落としてしまった歩行支援装置1を拾うことが困難となってしまうという問題がある。これに対して、ストラップ8を設けることにより、視覚障害者が歩行支援装置1を利用する場合において、歩行支援装置1が落ちてしまうことを防止することができる。
(歩行支援装置1のブロック図)
次に、図2を用いて、歩行支援装置1のブロック図について説明を行う。なお、図2は、歩行支援装置1のブロック図の一例を示す図である。
本実施形態では、制御装置4に対して、マイク2、GPS3、カメラ5、スピーカ6、及び電力供給装置7が接続されている。
(CPU4a)
CPU4aは、ROM4bに記憶されているプログラムを読み込み、所定の演算処理を行うために設けられている。
(ROM4b)
ROM4bは、CPU4aにより実行されるプログラム等を記憶するために設けられている。
(RAM4c)
RAM4cは、CPU4aによるプログラムの実行により決定された各種データを記憶するために設けられている。
(人工知能4d)
人工知能4dは、歩行支援装置1の利用者を安全かつ効率的に目的地まで到達させることを可能とするために設けられている。具体的には、人工知能4dは、カメラ5により撮影された物体が、歩行支援装置1の利用者の歩行の障害になることを推論する処理等を行う。
(内部バス4e)
内部バス4eは、CPU4a、ROM4b、RAM4c、及び人工知能4dを接続するために設けられている。
(歩行支援装置1におけるメイン処理)
次に、図3を用いて、歩行支援装置1におけるメイン処理について説明を行う。なお、図3は、歩行支援装置1におけるメイン処理の一例を示す図である。
(ステップS1)
ステップS1において、CPU4aは、音声情報が入力されたか否かを判定する処理を行う。具体的には、CPU4aは、マイク2により、音声情報が入力されたか否かを判定する処理を行う。そして、音声情報が入力されたと判定された場合には(ステップS1=YES)、ステップS2に処理を移行し、音声情報が入力されていないと判定された場合には(ステップS1=NO)、ステップS3に処理を移行する。
(ステップS2)
ステップS2において、CPU4aは、後で図4を用いて詳述する音声情報入力時処理を行う。当該処理において、入力された音声情報を記憶する処理等を行う。そして、ステップS2の処理が終了すると、ステップS3に処理を移行する。
(ステップS3)
ステップS3において、CPU4aは、位置情報更新処理を行う。具体的には、CPU4aは、まず、GPS3に基づいて、進行方位と推定現在位置の算出を行う。次に、CPU4aは、GPS3に基づいて、現在位置を算出する処理を行う。そして、推定現在位置から、現在位置までの距離が所定距離以上離れているか否かを判定する処理を行い、所定距離以上離れていると判定された場合には、現在位置に係る情報を現在位置情報としてRAM4cに記憶する処理を行う。一方で、所定距離以上離れていないと判定された場合には、推定現在位置に係る情報を現在位置情報としてRAM4cに記憶する処理を行う。そして、ステップS3の処理が終了すると、ステップS4に処理を移行する。
(ステップS4)
ステップS4において、CPU4aは、監視情報生成処理を行う。具体的には、CPU4aは、まず、カメラ5により撮影された撮影情報をRAM4cに記憶する処理を行う。次に、CPU4aは、人工知能4dを用いて、RAM4cに記憶されている監視情報から、歩行支援装置1の利用者の歩行の障害になることを推論する処理を行い、当該推論の結果、歩行支援装置1の利用者の歩行の障害になると推論された場合には、監視情報をRAM4cに記憶する処理を行う。そして、ステップS4の処理が終了すると、ステップS5に処理を移行する。
(ステップS5)
ステップS5において、CPU4aは、経路情報設定処理を行う。具体的には、CPU4aは、RAM4cに記憶されている目的地情報と、RAM4cに記憶されている現在位置情報に基づいて、経路情報をRAM4cに設定する処理を行う。そして、ステップS5の処理が終了すると、ステップS6に処理を移行する。
(ステップS6)
ステップS6において、CPU4aは、人工知能学習処理を行う。具体的には、CPU4aは、人工知能4dにより推論した音声情報を学習する処理や、推論した監視情報を学習する処理を行う。そして、ステップS6の処理が終了すると、ステップS7に処理を移行する。
(ステップS7)
ステップS7において、CPU4aは、情報出力処理を行う。具体的には、CPU4aは、ステップS4の監視情報生成処理により生成された監視情報と、ステップS5の経路情報設定処理により設定された経路情報をスピーカ6に出力する処理を行う。そして、ステップS7の処理が終了すると、ステップS1に処理を移行する。
(音声情報入力時処理)
次に、図4を用いて、音声情報入力時処理について説明を行う。なお、図4は、音声情報入力時処理のサブルーチンの一例を示す図である。
(ステップS11)
ステップS11において、CPU4aは、音声情報解析処理を行う。具体的には、CPU4aは、人工知能4dを用いて、音声情報を推論することにより、マイク2から入力された音声情報を解析する処理を行う。そして、ステップS11の処理が終了すると、ステップS12に処理を移行する。
(ステップS12)
ステップS12において、CPU4aは、音声情報を認識したか否かを判定する処理を行う。具体的には、CPU4aは、ステップS11の音声情報解析処理により、マイク2から入力された音声情報を認識したか否かを判定する処理を行う。そして、音声情報を認識したと判定された場合には(ステップS12=YES)、ステップS13に処理を移行し、音声情報が認識されていないと判定された場合には(ステップS12=NO)、ステップS14に処理を移行する。
(ステップS13)
ステップS13において、CPU4aは、各種設定記憶処理を行う。具体的には、CPU4aは、ステップS11の音声情報解析処理により解析された音声情報を目的地情報として、RAM4cに記憶する処理等を行う。そして、ステップS13の処理が終了すると、音声情報入力時処理のサブルーチンを終了し、歩行支援装置1におけるメイン処理のステップS3に処理を移行する。
(ステップS14)
ステップS14において、CPU4aは、エラー情報記憶処理を行う。具体的には、CPU4aは、ステップS11の音声情報解析処理により音声情報を解析することができなかったため(ステップS12=NO)、エラー情報をRAM4cに記憶する処理を行う。そして、ステップS14の処理が終了すると、音声情報入力時処理のサブルーチンを終了し、歩行支援装置1におけるメイン処理のステップS3に処理を移行する。
(第1実施形態の第1利用態様)
次に、第1実施形態の第1利用態様について説明を行う。
歩行支援装置1の利用者は、まず、マイク2に対して、目的地に係る音声情報を発声する。そうすると、CPU4aは、音声情報が入力されたと判定する処理を行う(ステップS1=YES)。そして、CPU4aは、音声情報を解析する処理を行い(ステップS11)、音声情報を認識した場合(ステップS12=YES)には、目的地情報を設定する(ステップS13)。
そして、CPU4aは、GPS3により利用者の現在位置情報を取得し(ステップS3)、カメラ5により監視情報を設定し(ステップS4)、現在位置情報と、目的地情報に基づいて、経路情報を設定する(ステップS5)。そして、CPU4aは、設定された経路情報と、監視情報をスピーカ6に出力する処理を行う(ステップS7)。
一方で、CPU4aは、音声情報を解析する処理を行い(ステップS11)、音声情報を認識することができなかった場合(ステップS12=NO)には、エラー情報を記憶する(ステップS14)。そして、CPU4aは、設定されたエラー情報をスピーカ6に出力する処理を行う。
(第1実施形態の第2利用態様)
次に、第1実施形態の第2利用態様について説明を行う。
歩行支援装置1の利用者は、まず、マイク2に対して、歩行の障害になる物体があった旨の音声情報を発声する。そうすると、CPU4aは、音声情報が入力されたと判定する処理を行う(ステップS1=YES)。そして、CPU4aは、音声情報を解析する処理を行い(ステップS11)、音声情報を認識した場合(ステップS12=YES)には、歩行の障害になる物体がある旨の情報をRAM4cに記憶する処理を行う(ステップS13)。
そして、CPU4aは、GPS3により利用者の現在位置情報を取得し(ステップS3)、カメラ5により監視情報を設定する(ステップS4)。そして、CPU4aは、人工知能4dを用いて、現在位置情報と、監視情報に基づいて、歩行の障害になる物体を推論し、学習する処理を行う(ステップS6)。そして、CPU4aは、歩行の障害になる物体がある旨の情報をスピーカ6により出力する処理を行う(ステップS7)。
(第1実施形態の第3利用態様)
次に、第1実施形態の第3利用態様について説明を行う。
第1実施形態の第3利用形態においては、より具体的な利用場面についての説明を行う。
例えば、歩行支援装置1の利用者が、信号の手前を歩いているとする。そうすると、CPU4aは、GPS3により利用者の現在位置情報を取得し(ステップS3)、カメラ5により監視情報を設定する(ステップS4)。この際に、人工知能4dを用いて、信号が歩行の障害になると推論されることとなる。そして、CPU4aは、人工知能4dを用いて、信号が歩行の障害になることを学習する処理を行い(ステップS6)、歩行の障害になる信号がある旨の情報をスピーカ6により出力する処理を行う(ステップS7)。
ここで、より具体的には、歩行支援装置1の利用者から信号までの距離が所定の距離となった場合に、「あと約○歩先に信号があります。」といった音声がスピーカ6により出力されることとなる。この場合において、CPU4aは、人工知能4dを用いて、カメラ5により撮影した情報と、GPS3により更新されている現在位置情報に基づいて、信号までの距離(歩数)を推論することとなる。これにより、「あと約○メートル先に信号があります。」といった音声により、信号までの距離をそのままスピーカ6に出力するよりも、視覚に障害を持つ歩行支援装置1の利用者にとって解り易い報知を行うことができる。
なお、他にも、「止まって下さい。信号の手前です。」といった音声や、「横断歩道を渡り始めました。」といった音声、「横断歩道を渡っております。」と言った音声、「横断歩道を渡り終わりました。」といった音声がスピーカ6により出力されることとなる。
次に、歩行支援装置1の利用者が、駅の構内を歩いているとする。そうすると、CPU4aは、GPS3により利用者の現在位置情報を取得し(ステップS3)、カメラ5により監視情報を設定する(ステップS4)。この際に、人工知能4dを用いて、点字ブロックが歩行の障害になると推論されることとなる。そして、CPU4aは、人工知能4dを用いて、点字ブロックが歩行の障害になると学習する処理を行う(ステップS6)。そして、CPU4aは、歩行の障害になる点字ブロックがある旨の情報をスピーカ6により出力する処理を行う(ステップS7)。
ここで、より具体的には、歩行支援装置1の利用者から点字ブロックまでの距離が所定の距離となった場合に、「注意して下さい。あと左側約○歩先に点字ブロックがあります。」といった音声がスピーカ6により出力されることとなる。この場合において、CPU4aは、人工知能4dを用いて、カメラ5により撮影した情報と、GPS3により更新されている現在位置情報に基づいて、点字ブロックまでの距離(歩数)を推論することとなる。これにより、「あと約○メートル先に点字ブロックがあります」といった音声をスピーカ6に出力するよりも、視覚に障害を持つ歩行支援装置1の利用者にとって解り易い報知を行うことができる。
なお、他にも、「あと○歩で登り階段です」といった音声や、「あと○歩で下り階段です」といった音声、「あと○歩で改札口です」といった音声がスピーカ6により出力されることとなる。
(第2実施形態)
次に、図5〜図6を用いて、本発明における歩行支援装置1の第2実施形態について具体的に説明を行う。
以下において、第1実施形態と異なる点のみ説明し、第1実施形態と同一の点については説明を省略する。
(第2実施形態におけるブロック図)
次に、図5を用いて、歩行支援装置1のブロック図について説明を行う。なお、図5は、第2実施形態における歩行支援装置1のブロック図の一例を示す図である。
ここで、第2実施形態においては、第1実施形態とは異なり、送信装置9と、受信装置10が設けられている。
(送信装置9)
送信装置9は、歩行支援装置1の情報を外部に送信するために設けられている。具体的には、送信装置9は、現在位置情報等を歩行支援装置1の外部に送信するために設けられている。
(受信装置10)
受信装置10は、外部からの情報を歩行支援装置1に受信するために設けられている。具体的には、受信装置10は、震災等に関する外部情報を受信するために設けられている。
なお、送信装置9と、受信装置10は、第1実施形態における歩行支援装置1のように眼鏡型の形状であれば、フレームの上方に設けられることとなる。
(第2実施形態におけるメイン処理)
次に、図6を用いて、第2実施形態におけるメイン処理について説明を行う。なお、図6は、第2実施形態におけるメイン処理の一例を示す図である。
(ステップS8)
ステップS8において、CPU4aは、情報受信処理を行う。具体的には、CPU4aは、外部情報を受信する処理を行い、当該受信した外部情報をRAM4cに記憶する処理を行う。そして、ステップS8の処理が終了すると、ステップS9に処理を移行する。
(ステップS9)
ステップS9において、CPU4aは、情報送信処理を行う。具体的には、CPU4aは、歩行支援装置1により取得した情報を外部に対して送信する処理を行う。そして、ステップS9の処理が終了すると、ステップS7に処理を移行する。
(第2実施形態の第1利用態様)
次に、第2実施形態の第1利用態様について説明を行う。なお、利用者を目的地まで案内する処理については、第1実施形態と同一であるため、説明を省略する。
まず、第2実施形態における歩行支援装置1の利用者は、まず、マイク2に対して、例えば、迷子になったので、迎えに来て欲しい旨の音声情報を発声したとする。この際に、利用者は、歩行支援装置1の外部に送信する宛先情報を発声することとなる。そうすると、CPU4aは、音声情報が入力されたと判定する処理を行う(ステップS1=YES)。そして、CPU4aは、音声情報を解析する処理を行い(ステップS11)、音声情報を認識した場合(ステップS12=YES)には、歩行支援装置1の外部に送信するための送信情報を設定する(ステップS13)。ここでいう「送信情報」とは、迷子になったので、迎えに来て欲しい旨の情報と、GPS3により取得された現在位置情報と、宛先に関する情報が含まれる。
そして、CPU4aは、設定された宛先に対して、現在位置情報と、迷子になったので、迎えに来て欲しい旨の情報を送信する(ステップS9)。これにより、送信情報を受信した者は、迷子になった歩行支援装置1の利用者を迎えに行くことができる。
なお、設定された宛先に対して、迷子になったので、迎えに来て欲しい旨の情報を送信する際に、カメラ5により撮影した情報を併せて送信することとしてもよい。これにより、撮影した情報を見た者は、現在位置情報を見ることなく、歩行支援装置1の利用者を迎えに行くことができる場合がある。
(第2実施形態の第2利用態様)
次に、第2実施形態の第2利用態様について説明を行う。なお、利用者を目的地まで案内する処理については、第1実施形態と同一であるため、説明を省略する。
まず、第2実施形態における歩行支援装置1に、震災に関する情報を受信したとする(ステップS9)。そうすると、CPU4aは、RAM4cに記憶されている目的地情報を書き換える処理を行う。具体的には、CPU4aは、RAM4cに記憶されている現在位置情報に基づいて、現在位置から近い避難場所を検索する処理を行う。そして、CPU4aは、検索された避難場所を目的地情報としてRAM4cに記憶する処理を行う。
次に、CPU4aは、RAM4cに記憶されている現在位置情報と、目的地情報に基づいて、経路情報を設定し(ステップS5)、監視情報と、経路情報をスピーカ6に出力する処理を行う(ステップS7)。これらの処理により、歩行支援装置1の利用者を避難場所まで案内することができる。
(第3実施形態)
次に、図7を用いて、本発明における歩行支援装置1の第3実施形態について具体的に説明を行う。なお、図7(A)は、第2実施形態における歩行支援装置1の正面図の一例を示す図であり、図7(B)は、第2実施形態における歩行支援装置1の右側面図の一例を示す図であり、図7(C)は、第2実施形態における歩行支援装置1の左側面図の一例を示す図である。
以下において、第1実施形態や、第2実施形態と異なる点のみ説明し、第1実施形態や、第2実施形態と同一の点については説明を省略する。
第1実施形態における歩行支援装置1は、眼鏡型の形状となっているのに対して、第3実施形態における歩行支援装置1は、帽子型の形状となっている。
まず、第3実施形態における歩行支援装置1のカメラ5は、右側カメラ5aと、左側カメラ5bにより構成されており、右側カメラ5aと、左側カメラ5bは、前方に突出して設けられている。また、右側カメラ5aと、左側カメラ5bは、それぞれが上方向と下方向に傾斜して設けられている。これにより、第1実施形態におけるカメラ5よりも視野角を広くすることができる。
また、第1実施形態におけるマイク2は、歩行支援装置1の中央下部に設けられているのに対して、第2実施形態におけるマイク2は、左スピーカ6bに取り付けられている。
(第4実施形態)
次に、図8を用いて、本発明における歩行支援装置1の第4実施形態について説明を行う。
本発明における歩行支援装置1の第4実施形態においては、歩行支援装置1と合わせて、白杖11や、ワッペン12を使用する態様について説明を行う。
視覚障害者は、本発明における歩行支援装置1を利用することで、白杖11を用いることなく、目的地まで到達することができる。また、第2実施形態においては、震災に関する情報を受信し、歩行支援装置1を利用する際に、避難場所まで案内することで、視覚障害者であっても避難場所まで避難することができる。
なお、第4実施形態においては、歩行支援装置1と合わせて、白杖11や、ワッペン12を使用する態様について説明したが、歩行支援装置1と合わせて、盲導犬を連れて歩くことも可能である。
一方で、歩行支援装置1の利用者は、震災等で避難する場合に、避難場所まで避難することができるものの、避難するまでの時間が長時間になってしまうという問題点ある。
これに対して、第4実施形態においては、歩行支援装置1と併せて、視覚障害者が用いる白杖11や、視覚障害者を示すワッペン12を用いる。これにより、周囲の避難者が、歩行支援装置1の利用者が視覚障害者であることを認識することができるので、歩行支援装置1の利用者を避難場所まで案内することができる。
(その他の実施形態)
以下において、その他の実施形態について説明を行う。
その他の実施形態においては、第4実施形態における白杖11の先端に障害検出センサが設けられているとともに、白杖11の内部に通信装置が設けられている。ここで、障害検出センサは、歩行支援装置1の利用者の歩行の障害となる物体があるか否かを検出する。そして、通信装置は、障害検出センサにより、歩行の障害となる物体が検出された場合に、歩行の障害となる物体が検出された旨の情報を歩行支援装置1に対して送信する。
ここで、CPU4aは、歩行の障害となる物体が検出された旨の情報を通信装置から受信した場合に、歩行の障害となる物体が検出された旨の情報を記憶する(ステップS8)。そして、CPU4aは、歩行の障害となる物体が検出された旨の情報をスピーカ6に出力する処理を行う(ステップS7)。
また、CPU4aは、人工知能4dを用いて、現在位置情報と、監視情報と、歩行の障害となる物体が検出された旨の情報に基づいて、学習する処理を行う(ステップS6)。具体的には、GPS3により取得された現在位置情報と、カメラ5により取得された監視情報に基づいて、歩行の障害となる物体を学習する処理を行う。当該処理を繰り返すことにより、歩行の障害となる物体を認識する精度が向上することとなる。
このように、その他の実施形態における歩行支援装置1の利用者は、安全に歩行を行うことができるとともに、白杖11に慣れている視覚障害者であっても、歩行支援装置1を違和感なく利用することができる。
なお、上述した各実施形態においては、視覚障害者が歩行支援装置1を利用する態様で説明したが、これに限定されることはなく、例えば、子供や老人等が利用することとしてもよい。
このように、本発明によれば、GPS3により取得した経路情報と、カメラ5により撮影された情報をスピーカ6に出力することとなる。これにより、歩行支援装置1の利用者は、視覚に障害がある場合であっても、目的地まで容易に到達することができる。
また、本発明において、カメラ5は、前方に突出して設けられている。これにより、カメラ5の視野角を広くすることができるので、視覚障害者を目的地まで安全に案内することができる。
なお、本実施形態において、「マイク2」は、本発明の「音声情報入力手段」を構成する。
また、本実施形態において、「GPS3」は、本発明の「位置情報取得手段」を構成する。
また、本実施形態において、「制御装置4」は、本発明の「経路情報設定手段」を構成する。
また、本実施形態において、「カメラ5」は、本発明の「監視情報生成手段」を構成する。
また、本実施形態において、「スピーカ6」は、本発明の「情報出力手段」を構成する。
なお、上記実施形態や変形例で示した事項は、あくまで一例に過ぎず、本発明の範囲を逸脱しない範囲で、適宜変更可能である。
1 歩行支援装置
2 マイク
3 GPS
4 制御装置
4a CPU
4b ROM
4c RAM
4d 人工知能
4e 内部バス
5 カメラ
5a 右側カメラ
5b 左側カメラ
6 スピーカ
6a 右スピーカ
6b 左スピーカ
7 電力供給装置
8 ストラップ
9 送信装置
10 受信装置
11 白杖
12 ワッペン

Claims (2)

  1. 利用者の音声情報を入力する音声情報入力手段と、
    現在の位置情報を取得する位置情報取得手段と、
    前記位置情報取得手段により取得された前記位置情報と、前記音声情報入力手段により入力された前記音声情報とに基づいて、目的地までの経路情報を設定する経路情報設定手段と、
    利用者の前方を監視することにより、監視情報を生成する監視情報生成手段と、
    前記監視情報生成手段により生成された前記監視情報、及び前記経路情報設定手段により設定された前記経路情報を出力する情報出力手段と、
    を備えたことを特徴とする歩行支援装置。
  2. 前記監視情報生成手段は、
    利用者の前方に突出して設けられていることを特徴とする請求項1に記載の歩行支援装置。
JP2017212669A 2017-11-02 2017-11-02 歩行支援装置 Pending JP2019086565A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017212669A JP2019086565A (ja) 2017-11-02 2017-11-02 歩行支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017212669A JP2019086565A (ja) 2017-11-02 2017-11-02 歩行支援装置

Publications (1)

Publication Number Publication Date
JP2019086565A true JP2019086565A (ja) 2019-06-06

Family

ID=66762931

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017212669A Pending JP2019086565A (ja) 2017-11-02 2017-11-02 歩行支援装置

Country Status (1)

Country Link
JP (1) JP2019086565A (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001221649A (ja) * 2000-02-07 2001-08-17 Mitsubishi Electric Corp 歩行者誘導システム
JP2013034490A (ja) * 2011-08-03 2013-02-21 Alpha Media:Kk 視覚障害者歩行支援装置
JP2014137752A (ja) * 2013-01-17 2014-07-28 Jb Craft:Kk 視覚障害者用の歩行誘導システム、視覚障害者用の歩行誘導方法、サーバ及び該サーバで実行することが可能なコンピュータプログラム
JP2014190725A (ja) * 2013-03-26 2014-10-06 Zenrin Datacom Co Ltd 経路案内システム、経路案内方法、および、コンピュータプログラム
JP2016067855A (ja) * 2014-09-22 2016-05-09 達鋭 橋本 視覚障害者用歩行案内装置
JP2017146726A (ja) * 2016-02-16 2017-08-24 セイコーエプソン株式会社 移動支援装置、及び、移動支援方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001221649A (ja) * 2000-02-07 2001-08-17 Mitsubishi Electric Corp 歩行者誘導システム
JP2013034490A (ja) * 2011-08-03 2013-02-21 Alpha Media:Kk 視覚障害者歩行支援装置
JP2014137752A (ja) * 2013-01-17 2014-07-28 Jb Craft:Kk 視覚障害者用の歩行誘導システム、視覚障害者用の歩行誘導方法、サーバ及び該サーバで実行することが可能なコンピュータプログラム
JP2014190725A (ja) * 2013-03-26 2014-10-06 Zenrin Datacom Co Ltd 経路案内システム、経路案内方法、および、コンピュータプログラム
JP2016067855A (ja) * 2014-09-22 2016-05-09 達鋭 橋本 視覚障害者用歩行案内装置
JP2017146726A (ja) * 2016-02-16 2017-08-24 セイコーエプソン株式会社 移動支援装置、及び、移動支援方法

Similar Documents

Publication Publication Date Title
US10024667B2 (en) Wearable earpiece for providing social and environmental awareness
KR101646503B1 (ko) 시각장애인을 위한 3차원 장애물 안내장치와 이를 이용한 주위 정보 안내시스템 및 그 방법
US9805619B2 (en) Intelligent glasses for the visually impaired
JP4139840B2 (ja) 情報処理装置、携帯機器及び情報処理方法
US20130250078A1 (en) Visual aid
US20150198454A1 (en) Smart necklace with stereo vision and onboard processing
WO2015108882A1 (en) Smart necklace with stereo vision and onboard processing
KR20000054125A (ko) 시각 장애인용 착용 가능 보행 안내 장치 및 방법
KR20190111262A (ko) 시각 장애인을 위한 장애물 거리 측정 단말기
Patel et al. Multisensor-based object detection in indoor environment for visually impaired people
KR102351584B1 (ko) 시각장애인을 위한 길안내 서비스 시스템
KR101885473B1 (ko) 시각 장애인 보조용 스마트 글래스
KR102025832B1 (ko) 스마트 지팡이
TW201900134A (zh) 避障裝置
JP2022526702A (ja) 盲人及び視覚障害者用の立体音響装置
CN106920260B (zh) 立体惯性导盲方法及装置和系统
Vítek et al. New possibilities for blind people navigation
JP2019086565A (ja) 歩行支援装置
JP2019213923A (ja) 歩行支援装置
WO2019109301A1 (zh) 导盲方法、装置和导盲设备
Nguyen et al. A vision aid for the visually impaired using commodity dual-rear-camera smartphones
TWI621868B (zh) System and method for guiding brain waves to blind people
JP2019184820A (ja) 歩行支援装置
KR20210080140A (ko) 실내 내비게이션 방법 및 그 시스템
JP2019107414A (ja) 歩行支援装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181009

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190402