JP2017188052A - Navigation device and navigation method - Google Patents
Navigation device and navigation method Download PDFInfo
- Publication number
- JP2017188052A JP2017188052A JP2016083207A JP2016083207A JP2017188052A JP 2017188052 A JP2017188052 A JP 2017188052A JP 2016083207 A JP2016083207 A JP 2016083207A JP 2016083207 A JP2016083207 A JP 2016083207A JP 2017188052 A JP2017188052 A JP 2017188052A
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- unit
- guidance
- obstacle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 53
- 230000000638 stimulation Effects 0.000 abstract description 6
- 238000004891 communication Methods 0.000 description 46
- 210000002683 foot Anatomy 0.000 description 40
- 230000008569 process Effects 0.000 description 39
- 230000008859 change Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000001771 impaired effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 230000007794 irritation Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 210000003371 toe Anatomy 0.000 description 1
Images
Landscapes
- Instructional Devices (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、ナビゲーション装置、及びナビゲーション方法に関する。 The present invention relates to a navigation device and a navigation method.
視覚障がい者が、盲導犬やサポーターや点字ブロック(登録商標)による案内等の補助なしに、安心して目的地にたどり着けるように補助する技術が存在する。例えば、特許文献1に記載の技術では、超音波センサを備えた杖に関する技術であり、超音波センサにより検出した周囲の障害物の情報をバイブレータによる振動で、当該杖の利用者に伝え、また、内部に備えるGPS(Global Positioning System;全地球測位システム)で音声によるナビゲーションを行う。 There is a technology that assists visually impaired people to reach their destinations without any assistance such as guidance by guide dogs, supporters or Braille blocks (registered trademark). For example, the technique described in
これに対して、人の歩行という観点に特化したナビゲーションの技術も存在する。例えば、特許文献2に記載の技術では、靴にナビゲーション機能を備えさせ、LED(Light Emitting Diode;発光ダイオード)やモータの回転による振動等を用いて、進むべき方向を案内する。 On the other hand, there is a navigation technology specialized in the viewpoint of human walking. For example, in the technique described in
しかしながら、特許文献1に記載の技術では、前方を探るために絶えず利用者が杖を動かす必要があり、センサを取り付けたとしても、それほど方向が安定しないため、障害物の検出は、利用者がどのように杖を使用するのかに依存している。方向を安定させるためには、利用者の身体に別のセンサをつける手法が考えられるが、利用者にとって煩わしくなるという問題がある。 However, in the technique described in
また、特許文献2に記載の技術では、視覚障がい者は、そもそもLEDを視認することができず、左右のいずれかを振動させて方向を指示するだけでは、漠然とした方向しか案内することができないという問題がある。 Further, with the technique described in
本発明は、上記問題を解決すべくなされたもので、その目的は、視覚障がい者に対して、より明確に進行経路を伝え、安全に安心して目的地にたどり着かせることを可能とするナビゲーション装置、及びナビゲーション方法を提供することにある。 The present invention has been made to solve the above-mentioned problems, and its purpose is to provide a navigation device that enables a visually impaired person to be more clearly informed of the route of travel and to reach the destination safely and safely. And providing a navigation method.
上記問題を解決するために、本発明の一態様は、少なくともユーザの足裏に装着可能なナビゲーション装置であって、前記ユーザの進行経路を案内する案内情報を取得する案内情報取得部と、前記ユーザの現在位置を示す現在位置情報を取得する位置情報取得部と、前記案内情報と、前記現在位置情報とに基づいて、前記ユーザの足裏に対して、前記ユーザを前記進行経路に沿って誘導する触覚による刺激を与える出力部と、を備えることを特徴とするナビゲーション装置である。 In order to solve the above problem, one aspect of the present invention is a navigation device that can be worn at least on the sole of a user, and includes a guide information acquisition unit that acquires guide information for guiding the user's travel route, Based on the position information acquisition unit that acquires the current position information indicating the current position of the user, the guidance information, and the current position information, the user is moved along the traveling route with respect to the sole of the user. An output device that provides a stimulus by a tactile sensation to be guided.
また、本発明の一態様は、上記に記載の発明において、前記ユーザを前記進行経路に沿って誘導する触覚による刺激とは、前記ユーザに対して警告を示す警告用ブロックの形状を前記ユーザの足裏に触覚させる刺激、または、前記ユーザに対して進行方向を示す誘導用ブロックの形状を前記ユーザの足裏に触覚させる刺激であるようにしてもよい。 Further, according to one aspect of the present invention, in the above-described invention, the tactile stimulus that guides the user along the traveling path is the shape of a warning block that indicates a warning to the user. A stimulus for touching the sole of the foot, or a stimulus for touching the user's foot with the shape of the guide block indicating the direction of travel to the user may be used.
また、本発明の一態様は、上記に記載の発明において、前記出力部は、前記進行経路における進行方向にしたがって前記誘導用ブロックの形状に対応した刺激を出力し、前記進行経路において進行方向が変わることを通知する場合、前記警告用ブロックの形状に対応した刺激を出力した後、前記誘導用ブロックの形状に対応した刺激を出力するようにしてもよい。 According to another aspect of the present invention, in the above-described invention, the output unit outputs a stimulus corresponding to the shape of the guide block according to the traveling direction in the traveling path, and the traveling direction in the traveling path is When notifying that it changes, after outputting the stimulus corresponding to the shape of the warning block, the stimulus corresponding to the shape of the guide block may be output.
また、本発明の一態様は、上記に記載の発明において、障害物の有無を検出し、検出した前記障害物までの距離を測定するセンサ部を備え、前記案内情報取得部は、前記センサ部が、前記障害物が存在すると検出する場合、前記障害物までの距離と、前記現在位置情報とに基づいて、前記障害物を回避する新たな前記案内情報の生成を要求して、前記案内情報を取得するようにしてもよい。 One aspect of the present invention is the above-described invention, further comprising a sensor unit that detects the presence or absence of an obstacle and measures a distance to the detected obstacle, and the guide information acquisition unit includes the sensor unit. However, when it is detected that the obstacle exists, the guidance information is requested to generate new guidance information for avoiding the obstacle based on the distance to the obstacle and the current position information. May be obtained.
また、本発明の一態様は、上記に記載の発明において、前記案内情報取得部は、前記現在位置情報が、前記案内情報から外れた場合、前記現在位置情報と、前記案内情報が示す進行経路との位置関係に基づいて、前記ユーザを前記進行経路に戻すように、新たな前記案内情報の生成を要求して、前記案内情報を取得するようにしてもよい。 Further, according to one aspect of the present invention, in the invention described in the above, the guide information acquisition unit, when the current position information deviates from the guide information, the current position information and a travel route indicated by the guide information The guide information may be acquired by requesting generation of the new guide information so as to return the user to the travel route based on the positional relationship between the user and the user.
また、本発明の一態様は、上記に記載の発明において、歩行が許可されている領域の情報を含む地図情報を取得する地図情報取得部を備え、前記出力部は、前記案内情報と、前記地図情報とに基づいて、歩行が許可されている領域で、前記ユーザの足裏に対して、前記ユーザを前記進行経路に沿って誘導する触覚による刺激を与えるようにしてもよい。 Further, according to one aspect of the present invention, there is provided a map information acquisition unit that acquires map information including information on a region where walking is permitted in the invention described above, wherein the output unit includes the guidance information, Based on the map information, in a region where walking is permitted, a tactile stimulus that guides the user along the traveling path may be applied to the sole of the user.
また、本発明の一態様は、少なくともユーザの足裏に装着可能なナビゲーション装置のコンピュータによるナビゲーション方法であって、案内情報取得部が、前記ユーザの進行経路を案内する案内情報を取得する案内情報取得ステップと、位置情報取得部が、前記ユーザの現在位置を示す現在位置情報を取得する位置情報取得ステップと、出力部が、前記案内情報と、前記現在位置情報とに基づいて、前記ユーザの足裏に対して、前記ユーザを前記進行経路に沿って誘導する触覚による刺激を与える出力ステップと、を有することを特徴とするナビゲーション方法である。 One embodiment of the present invention is a navigation method by a computer of a navigation device that can be worn at least on the sole of a user, wherein the guide information acquisition unit acquires guide information for guiding the travel route of the user. An acquisition step; a position information acquisition step in which a position information acquisition unit acquires current position information indicating the current position of the user; and an output unit based on the guidance information and the current position information. And a step of outputting a tactile stimulus for guiding the user along the traveling path to the sole of the foot.
この発明によれば、視覚障がい者に対して、より明確に進行経路を伝え、安全に安心して目的地にたどり着かせることが可能となる。 According to the present invention, it is possible to convey a travel route more clearly to a visually handicapped person and reach the destination safely and safely.
(第1実施形態)
以下、本発明の第1実施形態について図面を参照して説明する。
図1は、本発明の第1実施形態によるナビゲーションシステム1の構成を示すブロック図である。ナビゲーションシステム1は、ナビゲーション装置10a,10b、携帯端末装置20、サーバ装置30、通信ネットワーク40を備える。(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a
携帯端末装置20は、例えば、スマートフォン等であり、ナビゲーション装置10a,10bを左右の足の各々に装着するユーザ(以下、歩行者という)の操作や当該ユーザをサポートする人の操作を受けて、無線網を通じて通信ネットワーク40に接続し、通信ネットワーク40を通じてサーバ装置30との間で情報の送受信を行う。また、携帯端末装置20は、ナビゲーション装置10aとの間で、例えば、Bluetooth(登録商標)(ブルートゥース)や、Wi−Fi(登録商標)(Wireless Fidelity;ワイ・ファイ)などの近距離通信方式により、情報の送受信を行う。また、携帯端末装置20は、ナビゲーション装置10aとサーバ装置30との間の通信を中継する。通信ネットワーク40は、例えば、インターネット網である。 The mobile terminal device 20 is, for example, a smartphone or the like, and receives an operation of a user (hereinafter referred to as a pedestrian) who wears the
サーバ装置30は、通信部31、経路演算部32、地図情報記憶部33を備える。通信部31は、通信ネットワーク40に接続され、携帯端末装置20との間で情報の送受信を行う。また、通信部31は、通信ネットワーク40及び携帯端末装置20を経由してナビゲーション装置10aとの間で情報の送受信を行う。地図情報記憶部33は、案内する進行経路の演算に利用される緯度と経度の情報を含む地図情報を記憶する。経路演算部32は、歩行者の操作を受けて携帯端末装置20が送信する現在の位置情報及び目的地の位置情報と、地図情報記憶部33に記憶されている地図情報とに基づいて、歩行者が現在の位置から目的地まで歩行する進行経路を算出する。また、経路演算部32は、算出した進行経路の情報を含む案内情報を生成し、通信部31を通じてナビゲーション装置10aに送信する。また、経路演算部32は、ナビゲーション装置10aから、歩行者の現在の位置情報、目的地までの案内情報と、障害物までの距離と障害物の方向とを含む経路の再計算要求を受けた場合、障害物を回避する進行経路を算出して案内情報を生成する。 The
ナビゲーション装置10a,10bは、例えば、人が左右の足のそれぞれに装着して歩行に用いる靴などの履物と一体として構成され、出力部11、通信部12、案内情報取得部13、測位部14a,14b、位置情報取得部15、センサ16a,16b、センサ部17、記憶部18を備える。各々の機能部は、相互に情報の入出力を行うように接続されている。通信部12は、例えば、近距離通信方式により、携帯端末装置20と通信し、さらに、携帯端末装置20と通信ネットワーク40を介してサーバ装置30と通信する。出力部11は、左右の履物のそれぞれに配置される中敷きと、進行経路にしたがって歩行者を誘導するように、当該中敷きを通じて、歩行者の足裏に対して、所定の形状を触覚により刺激させる出力を行う制御装置とから構成される。ここで、所定の形状とは、例えば、図2及び図3に示す点字ブロック(登録商標)の警告用ブロックや誘導用ブロックである。また、出力部11は、記憶部18に記憶されている案内情報に基づいて、左右の中敷きを通じて警告用ブロックの形状や誘導用ブロックの形状に対応した刺激を出力する。出力部11の制御装置が、例えば、図1に示すように左足のかかとの部分に配置される場合、左足用の中敷きとは有線で接続され、右足用の中敷きとは、例えば、通信部12を通じて、近距離通信等で接続される。なお、左足用の中敷きについても有線でなく、近距離通信等で接続されていてもよい。 The
案内情報取得部13は、通信部12を通じてサーバ装置30が送信する案内情報を受信し、受信した案内情報を記憶部18に書き込む。また、案内情報取得部13は、進行経路の再計算が必要となった場合、再計算要求を、通信部12を通じてサーバ装置30に送信する。測位部14a,14bは、例えば、GPSやジャイロ等であり、それぞれ、ナビゲーション装置10a,10bの現在の位置情報を要求に応じて出力する。また、測位部14a,14bは、それぞれナビゲーション装置10a,10bを構成する履物のかかとからつま先に向けて伸ばした線分が示す方向(以下、それぞれナビゲーション装置10aの方向、ナビゲーション装置10bの方向という)を検出する。ここで、検出する方向は、例えば、東西南北を基準とする方角や方位を検出するようにしてもよいし、予め定められる方向に対する角度を検出するようにしてもよい。 The guide
右足用のナビゲーション装置10bに備えられる測位部14aは、近距離通信等により通信部12を通じてナビゲーション装置10aの出力部11や位置情報取得部15に接続する。位置情報取得部15は、ナビゲーション装置10a,10bの現在の位置情報を取得する。位置情報取得部15が位置情報を取得する取得先としては、測位部14aまたは測位部14bから取得してもよいし、通信部12を通じて、携帯端末装置20に備えられるGPSから取得してもよい。 The
センサ16a,16bは、例えば、電波、音波、超音波、赤外線等を出力し、その反射波を受信する機器であり、ナビゲーション装置10a,10bの各々の図1に示す歩行者の前方を見通せる位置に取り付けられる。センサ16a,16bは、歩行者の進行方向の前方の一定角度、例えば、進行方向を中心として左右の45度の領域をとる90度、または、進行方向を中心として左右の60度の領域をとる120度の角度に対して電波等を出力し、その反射波を受信してセンサ部17に出力する。右足用のナビゲーション装置10bに備えられるセンサ16bは、近距離通信等により通信部12を通じてセンサ部17に接続する。 The
センサ部17は、センサ16a,16bが出力する情報に基づいて、障害物の有無を検出する。このとき、予め設定した危険ではない範囲と考えられる一定距離以上、例えば、半径10m以上の情報は検出の対象とせず、破棄するようにしてもよい。また、センサ部17は、上述した90度または120度の一定角度の範囲内で物体を検知して、物体までの距離が予め定められる所定距離以内の場合、当該物体を障害物として検出する。また、センサ部17は、障害物を検出した場合、障害物までの距離や障害物の方向を示す情報を含む障害物の検出情報を出力部11に出力する。記憶部18は、案内情報取得部13によって書き込まれる案内情報などを記憶する。 The
図2及び図3を参照しつつ、出力部11が形状に対応した刺激を出力する警告用ブロックと誘導用ブロックについて説明する。図2に示すように、警告用ブロックは、約5.5cm間隔の5×5の格子状の丸い点を触覚するように再現した突起の形状、または、当該突起の形状を感じさせる振動により生成される。図3に示すように、誘導用ブロックは、約7.4cm間隔の4本の線状を触覚するように再現した突起の形状、または、当該突起の形状を感じさせる振動により生成される。
なお、格子状の丸い点を触覚するように再現した突起の間隔、および線状を触覚するように再現した突起の間隔は、上記の間隔に限られるものではなく、適宜、変更がなされても構わない。また、格子状の丸い点を触覚するように再現した突起の大きさや個数、および線状を触覚するように再現した突起の太さや本数についても、図2および図3などに示す例に限られるものではなく、任意に設定可能である。
4本の線の水平方向、すなわち図3に示す場合、左右方向のいずれかの方向が進行方向となる。なお、図3に示す場合、左右のいずれかが進行方向であるかを示すために、例えば、進行方向に向かって下るような傾斜をつけて誘導用ブロックの形状に対応した刺激を出力したり、進行方向を示す波のような動きで誘導用ブロックの形状に対応した刺激を出力したりしてもよい。With reference to FIG. 2 and FIG. 3, the warning block and the guidance block for which the
In addition, the interval between the protrusions reproduced so as to feel the grid-like round points and the interval between the protrusions reproduced so as to feel the line shape are not limited to the above-mentioned intervals, and may be appropriately changed. I do not care. In addition, the size and number of protrusions reproduced to feel a grid-like round point, and the thickness and number of protrusions reproduced to feel a linear shape are also limited to the examples shown in FIGS. It is not a thing and can be set arbitrarily.
The horizontal direction of the four lines, that is, in the case shown in FIG. 3, one of the left and right directions is the traveling direction. In the case shown in FIG. 3, for example, in order to indicate which one of the left and right is the traveling direction, for example, a stimulus corresponding to the shape of the guiding block is output with an inclination that decreases toward the traveling direction. Alternatively, a stimulus corresponding to the shape of the guiding block may be output by a movement like a wave indicating the traveling direction.
図4及び図5は、測位部14bが検出する右足用のナビゲーション装置10bの方向が異なる場合に、案内情報が示す進行方向との関係で、出力部11が形状に対応した刺激を出力する誘導用ブロックの形状が異なることを示す図である。図4及び図5において、符号10bで示される領域が、ナビゲーション装置10bを構成する履物の中敷きの領域である。図4及び図5において、矢印が進行方向を示している。図4の場合、ナビゲーション装置10bの方向が、進行方向とほぼ同一であるため、中敷きに出力される形状は、図4のように、ナビゲーション装置10bの方向と平行な線状の形状に対応した刺激が出力されることになる。これに対して、図5の場合、ナビゲーション装置10bの方向が、進行方向から少し、右斜めに傾いているため、中敷きに出力される線状の形状の刺激も、その傾きに応じた分だけ傾いた形状の刺激が出力されることになる。出力部11は、測位部14bが出力するナビゲーション装置10bの方向と、記憶部18に記憶されている案内情報が示す進行方向とのに基づいて、進行方向を基準としたナビゲーション装置10bの方向の傾きを求めて出力する形状の刺激を算出する。そして、出力部11は、算出した形状を触覚により刺激させる出力を行う。 4 and 5 show that the
(歩行者の誘導処理)
図6は、ナビゲーション装置10a,10bによる処理を示すフローチャートである。図6に示す処理の前提として、ナビゲーション装置10a,10bのそれぞれを左右の足に装着して歩行する歩行者は、自らが携帯する携帯端末装置20を、自ら、または補助する人が操作して、携帯端末装置20が内部に備える現在の位置を示す現在位置情報と、目的地の位置情報とを含む経路検索要求を、通信ネットワーク40を通じてサーバ装置30に送信する。視覚障がい者である歩行者自らが携帯端末装置20を操作する場合、音声等による入力手段が適用される。(Pedestrian guidance processing)
FIG. 6 is a flowchart showing processing by the
サーバ装置30の経路演算部32は、通信部31を通じて経路検索要求を受信すると、受信した経路検索要求から現在位置情報と、目的地の位置情報とを読み出し、地図情報記憶部33から地図情報を読み出し、現在地から目的地までの進行経路を演算により算出する。経路演算部32は、算出した進行経路を含む案内情報を生成し、生成した案内情報を、通信部31を通じて、通信ネットワーク40と携帯端末装置20とを経由してナビゲーション装置10aに送信する。ナビゲーション装置10aの案内情報取得部13は、通信部12を通じて案内情報を受信し、受信した案内情報を記憶部18に書き込んで、記憶させる。 When the
出力部11は、記憶部18に記憶されている案内情報と、位置情報取得部15が取得する現在の位置を示す現在位置情報と、測位部14a,14bが検出するナビゲーション装置10a,10bの方向の情報とに基づいて、誘導用ブロックの形状の刺激を出力する(ステップS1)。出力部11は、予め定められる一定時間が経過したか否かを判定する。ここで、予め定められる一定時間とは、例えば、歩行者が一方の足で地面を踏んでから他方の足で地面を踏むまでの時間、すなわち誘導用ブロック、または警告用ブロックの形状に対応した刺激を出力する間隔である(ステップS2)。予め定められる一定時間が経過していないと判定した場合、出力部11は、ステップS1の処理、すなわち誘導用ブロックの形状の刺激を出力する。一方、予め定められる一定時間が経過していると判定した場合、次に、出力部11は、位置情報取得部15が取得する現在位置情報と、記憶部18に記憶されている案内情報とに基づいて、方向転換場所か否かを判定する(ステップS3)。 The
(方向転換処理)
方向転換場所であると判定した場合、出力部11は、案内情報に基づいて、方向転換後の誘導方向を選択する(ステップS12)。出力部11は、進行方向が変わることを歩行者に示すための警告用ブロックの形状に対応した刺激を出力する(ステップS13)。出力部11は、方向転換後の進行方向を示す誘導用ブロックの形状に対応した刺激を出力する(ステップS14)。(Direction change process)
When it determines with it being a direction change place, the
例えば、図7は、ステップS1,S12,S13,S14の処理の流れを示しており、歩行者が図7の左から右方向に歩いて行くと、警告用ブロック100の位置で上方向に進行方向が変化する。出力部11は、ステップS12の処理として、方向転換後の誘導方向を上向きとして選択する。方向転換する場所に足を踏み入れる場合、出力部11は、ステップS13の処理として、警告用ブロック100の形状に対応した刺激を出力して歩行者を立ち止まらせて、ステップS14の処理として、上方向へ誘導する誘導用ブロック100aを出力する。 For example, FIG. 7 shows the process flow of steps S1, S12, S13, and S14. When the pedestrian walks from the left to the right in FIG. 7, the process proceeds upward at the position of the
(障害物回避処理)
図6に戻り、ステップS3において、方向転換場所でないと判定した場合、出力部11は、障害物が検出されているか否かを判定する。具体的には、出力部11は、センサ部17から、障害物の検出情報を受けているか否かを判定する(ステップS4)。ここで、障害物とは、例えば、歩道を通行する他の歩行者や自転車等の動的障害物、階段及びエスカレータの段差や信号機・車両進入禁止ポール等の静的障害物等がある。出力部11は、障害物の検出情報を受けている場合、障害物の検出情報に含まれる障害物までの距離や障害物の方向の情報を読み出す。出力部11は、読み出した障害物までの距離や障害物の方向の情報と、記憶部18に記憶される案内情報が示す進行方向と、位置情報取得部15が取得した現在位置情報とに基づいて、当該障害物が回避する必要性のある距離や方向に存在するか否かを判定する(ステップS5)。(Obstacle avoidance process)
Returning to FIG. 6, when it is determined in step S <b> 3 that the place is not a direction change place, the
出力部11は、当該障害物が回避する必要性のある距離や方向に存在すると判定した場合、案内情報取得部13に、障害物までの距離や障害物の方向の情報と、記憶部18に記憶される案内情報と、位置情報取得部15が取得した現在位置情報とを出力する。案内情報取得部13は、障害物までの距離や障害物の方向の情報と、案内情報と、現在位置情報とを含む障害物を回避する進行経路の再計算要求を、通信部12を通じてサーバ装置30に送信する(ステップS6)。 When the
サーバ装置30の経路演算部32は、通信部31を通じて障害物を回避する進行経路の再計算要求を受信すると、再計算要求に含まれている障害物までの距離や障害物の方向の情報と、案内情報と、現在位置情報と、地図情報記憶部33に記憶されている地図情報とに基づいて、障害物を回避する進行経路を算出する。経路演算部32は、算出した進行経路を含む案内情報を、通信部31を通じてナビゲーション装置10aに送信する。ナビゲーション装置10aの案内情報取得部13は、通信部12を通じて障害物を回避する進行経路を含む案内情報を受信し、受信した案内情報を記憶部18に書き込んで記憶させる(ステップS7)。その後、出力部11は、新たに記憶部18に書き込まれた案内情報と、位置情報取得部15が取得する現在位置情報とに基づいて、ステップS12以降の処理を実行する。 When the
例えば、図8及び図9は、進行経路上に障害物200が存在する場合に、障害物200を回避する進行経路を経路演算部32が算出し、算出した進行経路を含む案内情報にしたがって、歩行者を誘導する処理を示す図である。例えば、図面の下から上の方向にナビゲーション装置10a,10bを足に装着した歩行者が歩行している場合、ナビゲーション装置10a,10bのセンサ部17は、センサ16a,16bが出力する情報にしたがって、前方に障害物200を検出し、検出した障害物200までの距離や障害物の方向を示す情報を含む障害物の検出情報を出力部11に出力する。ステップS4において、出力部11が、センサ部17から障害物200の検出情報を受けていることにより、障害物200が検出されたと判定し、また、ステップS5において、出力部11が、当該障害物は、回避が必要であると判定する。ステップS6、S7において経路演算部32により障害物を回避する進行経路が算出され、当該進行経路を含む案内情報が、記憶部18に記憶される。 For example, in FIGS. 8 and 9, when there is an
図8に示す例では、出力部11は、記憶部18に記憶されている案内情報にしたがって、ステップS13の処理により警告用ブロック101の形状に対応した刺激を出力する。出力部11は、当該警告用ブロック101の形状に対応した刺激を出力した後、ステップS14の処理により右方向に歩行者を誘導する誘導用ブロック101aの形状に対応した刺激を出力する。出力部11は、ステップS1の処理による誘導用ブロック102の形状に対応した刺激を出力して、右方向に歩行者を誘導した後、ステップS3を経てステップS13において警告用ブロック103の形状に対応した刺激を出力した後に、上方向への誘導用ブロックの形状に対応した刺激を出力する。 In the example shown in FIG. 8, the
その後、ステップS1の処理により、出力部11は、誘導用ブロック104,105,106の形状に対応した刺激を出力し、ステップS3を経由してステップS13において警告用ブロック107の形状に対応した刺激を出力した後、ステップS14において左方向への誘導用ブロックの形状に対応した刺激を出力する。再び、ステップS1の処理において、出力部11は、誘導用ブロック108の形状に対応した刺激を出力し、ステップS3を経由してステップS13において警告用ブロック109の形状に対応した刺激を出力した後、ステップS14において上方向への誘導用ブロックの形状に対応した刺激を出力する。 Thereafter, the
このようにして、障害物200が存在する場合、サーバ装置30の経路演算部32に要求して進行経路を再計算させて新しい案内情報を生成し、生成した案内情報により歩行者を誘導することで、障害物200を回避することができる。 In this way, when there is an
また、図9は、図8の例よりも短い距離で同じ障害物200を回避する進行経路を示した図である。地面に物理的に配置する警告用ブロックや誘導用ブロックでは、図8に示すように上下左右の方向に警告用ブロックや誘導用ブロックを配置していくのが一般的である。これに対して、図9の例では、斜め方向に誘導する。出力部11は、記憶部18に記憶されている案内情報にしたがって、ステップS13の処理により警告用ブロック110を出力する。 FIG. 9 is a diagram showing a traveling path that avoids the
出力部11は、当該警告用ブロック110の形状に対応した刺激を出力した後、ステップS14の処理により斜め右上方向に歩行者を誘導する誘導用ブロック110aの形状に対応した刺激を出力する。出力部11は、ステップS1の処理による誘導用ブロック111,112の形状に対応した刺激を出力して、斜め右上方向に歩行者を誘導した後、ステップS3を経てステップS13において警告用ブロック113の形状に対応した刺激を出力した後に、ステップS14の処理により斜め左上方向の誘導用ブロック113aの形状に対応した刺激を出力する。その後、ステップS1の処理により、出力部11は、誘導用ブロック114,115の形状に対応した刺激を出力し、ステップS3を経由してステップS13において警告用ブロック116の形状に対応した刺激を出力した後、ステップS14の処理により上方向への誘導用ブロック116aの形状に対応した刺激を出力する。このようにして、斜め方向へ歩行者を誘導することで図8の例よりも短い距離で障害物200を回避することができる。 After outputting the stimulus corresponding to the shape of the
なお、図8及び図9の処理において、障害物200を回避する際に、回避する前の案内情報を記憶部18から削除せずにそのまま記憶させておく。そして、図10に示すように、出力部11は、再計算後の障害物200を回避する進行経路を含む案内情報に基づいて歩行者を誘導して障害物から回避させて、歩行者の位置が、回避する前の案内情報に含まれる進行経路の位置400に一致した場合、元の進行経路に戻ったことを歩行者に通知するために、例えば、短い間隔で、複数回、警告用ブロックの形状に対応した刺激を両足に出力させて知らせるようにしてもよい。 8 and 9, when the
(変化した進行方向の修正処理)
図6に戻り、ステップS4において、出力部11がセンサ部17から障害物の検出情報を受けてないと判定した場合、また、ステップS5において、出力部11が、当該障害物は回避する必要がないと判定した場合、ステップS8に進む。図5を参照しつつ説明したように、出力部11は、測位部14a,14bが出力するナビゲーション装置10a,10bの方向にしたがって、誘導用ブロックの線状の形状を変化させて刺激を出力しており、出力ごとにナビゲーション装置10a,10bの方向を記憶部18に書き込んで記憶させる。出力部11は、例えば、図11に示すように、既に誘導用ブロックの形状の刺激を出力している左足のナビゲーション装置10aの方向と、次に誘導用ブロックの形状の刺激を出力する右足のナビゲーション装置10bの方向とに基づいて、歩行者の進行方向が変化したか否かを判定する(ステップS8)。出力部11は、例えば、ナビゲーション装置10bの方向と、ナビゲーション装置10aとの方向との違いが、予め定められる範囲内であれば、進行方向が変化してないと判定し、予め定められる範囲を超えていれば、進行方向が変化したとして判定する。進行方向が変化していないと判定した場合、ステップS2からの処理に戻る。(Correction process for changed direction of travel)
Returning to FIG. 6, when it is determined in step S4 that the
進行方向が変化していると判定した場合、出力部11は、歩行者が進行経路から外れたか否かを判定する(ステップS9)。進行経路から外れたか否かは、位置情報取得部15が取得する歩行者の現在位置情報と、案内情報に含まれる進行経路の領域300とに基づいて判定する。例えば、図12に示すように、両足のナビゲーション装置10a,10bが進行経路から完全に外れてしまっている場合に、出力部11は、歩行者が、進行経路から外れたと判定する。出力部11は、歩行者が進行経路から外れていると判定した場合、図12に示すように、誘導用ブロックの形状に対応した刺激の出力を停止する(ステップS10)。これにより、歩行者に進行経路から外れたことを通知する(認識させる)ことができ、歩行者を停止させる、あるいは進行経路に戻るように気付かせることができる。 If it is determined that the traveling direction has changed, the
出力部11は、歩行者が進行経路から外れていないと判定した場合、位置情報取得部15が取得する歩行者の現在位置情報と、ナビゲーション装置10a,10bの方向と、案内情報に含まれる進行経路の情報とに基づいて、進行経路に戻すように誘導方向の再計算を行う(ステップS11)。出力部11は、再計算した誘導方向を選択し(ステップS12)、警告用の形状に対応した刺激ブロックの形状に対応した刺激を出力して(ステップS13)、誘導用ブロックの形状に対応した刺激を出力する(ステップS14)。 When the
例えば、図11のように進行経路の領域300から外れていないが、右足のナビゲーション装置10bの方向が、左足のナビゲーション装置10aの方向からずれた場合、右足のナビゲーション装置10bに出力する誘導用ブロック122の線状の形状に対応した刺激を、ナビゲーション装置10bの傾き分を戻すような傾きで出力する。これに対して、図12に示すように、歩行者が進行経路の領域300から外れたと判定した場合、図13に示すように進行経路の領域300に戻れるような方向で誘導用ブロック130,131の形状に対応した刺激をそれぞれ左足のナビゲーション装置10aと、右足のナビゲーション装置10bとに出力する。進行経路の領域300に戻るまでは、ステップS2からの処理が繰り返され、これによって進行経路に歩行者を戻すことができる。 For example, as shown in FIG. 11, when the direction of the right
上記の第1実施形態の構成により、歩行者の左右の足にそれぞれ装着可能なナビゲーション装置10a,10bにおいて、案内情報取得部13が、サーバ装置30から歩行者の進行経路を案内する案内情報を取得し、取得した案内情報を記憶部18に書き込んで記憶させる。位置情報取得部15は、歩行者の現在位置を示す現在位置情報を取得する。出力部11は、記憶部18に記憶されている案内情報と、現在位置情報とに基づいて、歩行者の足裏に対して、進行経路に沿って誘導する触覚による刺激を与える。
これにより、視覚障がい者を、足裏に感じる刺激にしたがって誘導して歩行させ、現在地から目的地まで到達させることが可能となる。したがって、視覚障がい者に対して、より明確に進行経路を伝え、安全に安心して目的地にたどり着かせることが可能となる。また、第1に実施形態に係るナビゲーション装置10a,10bは、視覚障がい者に対してだけでなく健常者に対しても、自身の手による操作(例えば、ナビゲーション用のアプリケーションの操作)などを必要とすることなく、足裏に感じる刺激により明確に進行経路を伝えて当該健常者を誘導し、現在地から目的地まで到達させることができる。
また、進行経路に沿って誘導する触覚による刺激とは、歩行者に対して警告を示す警告用ブロックの形状を足裏に触覚させる刺激、または、歩行者に対して進行方向を示す誘導用ブロックの形状を足裏に触覚させる刺激である。
これにより、歩行者は、従来から存在する点字ブロック(登録商標)の触覚を足裏に感じることができ、従来から慣れ親しんだ感覚で、進行経路に沿って誘導されて目的地まで到達することが可能となる。With the configuration of the first embodiment described above, in the
As a result, a visually handicapped person can be guided and walked according to a stimulus felt on the sole of the foot, and can reach the destination from the current location. Therefore, it is possible to convey the travel path more clearly to the visually impaired person and arrive at the destination safely and with peace of mind. In addition, the
The tactile stimulus guided along the traveling path is a stimulus for tactilely sensing the shape of the warning block indicating a warning to the pedestrian on the sole of the foot or a guiding block indicating the traveling direction to the pedestrian. It is a stimulus to feel the shape of the foot on the sole.
As a result, the pedestrian can feel the tactile sensation of the existing Braille block (registered trademark) on the sole of the foot, and can be guided along the traveling path to reach the destination with a familiar feeling. It becomes possible.
(第2実施形態)
図14は、本発明の第2実施形態によるナビゲーション装置10a,10bの処理を示すフローチャートである。図6に示す第1実施形態の処理と異なる点は、ステップS11を、ステップS11−1とステップS11−2に置き換えた点である。第1実施形態の図6に示すステップS11の処理では、出力部11が、誘導方向の再計算を行っている。これに対して、第2実施形態では、サーバ装置30の経路演算部32に進行経路の再計算をさせる構成としている。(Second Embodiment)
FIG. 14 is a flowchart showing processing of the
出力部11が、記憶部18に記憶されている案内情報と、現在位置情報とを案内情報取得部13に出力し、案内情報取得部13が、通信部12を通じて案内情報と現在位置情報とを含む再計算要求をサーバ装置30に送信する(ステップS11−1)。サーバ装置30の経路演算部32は、案内情報と現在位置情報と、地図情報記憶部33に記憶されている地図情報と、に基づいて現在位置から元の目的地に到達できる進行経路を算出し、算出した進行経路を含む案内情報を生成する。経路演算部32は、生成した案内情報を、通信部31を通じてナビゲーション装置10aに送信する。ナビゲーション装置10aの案内情報取得部13は、案内情報を受信し、受信した案内情報を記憶部18に書き込んで記憶させる(ステップS11−2)。 The
上記の第2実施形態の構成により、歩行者が進行経路から外れてしまった場合であっても、サーバ装置30の経路演算部32に目的地までの新たな進行経路を再計算させ、新たな進行経路を含んだ案内情報に基づいて、出力部11が歩行者を誘導することが可能となる。
なお、歩行者が進行経路から外れた距離が短い、すなわち予め定められる距離以下の場合に、第1実施形態のステップS11を適用し、外れた距離が長い、すなわち予め定められる距離を超える場合に、第2実施形態を適用するようにしてもよい。With the configuration of the second embodiment described above, even if the pedestrian has deviated from the travel route, the
In addition, when the distance from which the pedestrian deviated from the advancing path is short, ie, below a predetermined distance, step S11 of 1st Embodiment is applied, and when the deviated distance is long, ie, exceeds a predetermined distance The second embodiment may be applied.
(第3実施形態)
図14は、本発明の第3実施形態によるナビゲーションシステム1aの構成を示すブロック図である。第1実施形態と同一の構成については同一の符号を付し、以下、異なる構成について説明する。サーバ装置30aは、地図情報読出部34を備える。地図情報読出部34は、通信部31を通じて地図情報取得要求を受信した場合、地図情報記憶部33から地図情報を読み出し、読み出した地図情報を、通信部31を通じて送信する。ナビゲーション装置10Aは、出力部11aと、地図情報取得部19を備える。地図情報取得部19は、通信部12を通じてサーバ装置30に地図情報の取得要求を送信し、応答として受信する地図情報を記憶部18に書き込んで記憶させる。当該地図情報には、歩行者の歩行が許可されている領域、例えば、歩道等と、歩行者の歩行が許可されていない領域、例えば、車道等を示す情報が含まれている。(Third embodiment)
FIG. 14 is a block diagram showing a configuration of a
出力部11aは、記憶部18に記憶されている案内情報の進行経路に基づいて、図6の処理を行って歩行者を誘導する。当該処理において、出力部11aは、例えば、ステップS8の進行方向が変化した場合、ステップS11において誘導方向の再計算を行う場合、記憶部18に記憶されている地図情報を参照し、歩行が許可されている領域内で誘導方向の再計算を行う。 The
上記の第3実施形態の構成により、進行方向が変化した場合、出力部11aは、歩行が許可されていない場所に歩行者を誘導しないように、歩行が許可された場所の範囲内で誘導方向の再計算を行うことができる。 When the traveling direction changes due to the configuration of the third embodiment, the
また、上記の第3実施形態の変形例として、第2実施形態の処理を適用してもよい。例えば、進行方向が変化した場合、ステップS11−1及びS11−2において、サーバ装置30aの経路演算部32に進行経路を再計算させる際に、歩行が許可されていない場所に歩行者を誘導しないように、歩行が許可された場所の範囲内で進行経路を再計算させるようにしてもよい。 Further, as a modification of the third embodiment, the process of the second embodiment may be applied. For example, when the direction of travel changes, in steps S11-1 and S11-2, when the
また、上記の第1から第3実施形態において、ナビゲーション装置10a,10b、10Aは、履物と一体として構成する物として説明しているが、本発明は、当該実施の形態に限られない。例えば、中敷き部分のみで、ナビゲーション装置10a,10b、10Aを構成するようにしてもよく、この場合、当該中敷きの中に制御装置が備えられ、当該中敷きが履物の中に敷かれて、センサ16a,16bを履物に取り付けて利用することになる。また、第1から第3実施形態のように、出力部11、11aを中敷きとせずに、靴底自体が、ユーザの足裏に対して、触覚による刺激を与えるように構成してもよい。 Moreover, in said 1st-3rd embodiment, although
また、上記の第1から第3実施形態において、センサ16a,16bは、例えば、音波や電波としていたが、ソナー、ビーコン、画像や動画を取得する影像装置などであってもよく、ソナーやビーコンの場合、センサ部17は、ソナーやビーコンの反射波を解析して障害物の有無を検出する。画像や動画を取得する影像装置の場合、センサ部17は、画像や動画を解析して障害物の有無を検出する。 In the first to third embodiments, the
また、上記の第1から第3実施形態において、センサ部17は、上述した90度または120度の一定角度の範囲内で物体を検知して、障害物までの距離と、障害物の方向を出力している。サーバ装置30の経路演算部32は、障害物までの距離と、障害物の方向の情報と、案内情報と、現在位置情報とに基づいて、障害物を回避する進行経路の再計算を行っている。しかしながら、本発明は、当該実施の形態に限られず、障害物の方向は、進行方向上に存在すると仮定し、経路演算部32による計算に障害物の方向の情報を適用しなくてもよく、また、センサ部17が障害物の方向を検出しないようにしてもよい。 In the first to third embodiments, the
また、上記の第1から第3実施形態において、センサ部17は、上述した90度または120度の一定角度の範囲内で物体を検知して、物体までの距離が予め定められる所定距離以内の場合、当該物体を障害物として検出する構成にしているが、本発明は、当該実施の形態に限られない。例えば、一定角度の範囲外であっても、継続した動きから範囲内への移動してくる物体を検知した場合、当該物体については、次回の計測のタイミングで予測される距離や方向などを算出し、算出した距離や方向を用いて経路演算部32が、障害物を回避する再計算の処理を実行するようにしてもよい。 In the first to third embodiments, the
また、上記の第1から第3実施形態において、図6及び図14のステップS9の処理において、出力部11が判定する歩行者が進行経路から外れたか否かを判定する基準として、図12に示すように両足が進行経路の領域300から外れた状態としているが、本発明は、当該実施の形態に限られない。例えば、いずれか一方の片足だけが外れた状態を、進行経路から外れたと判定する基準としてもよい。この場合、出力部11,11aは、外れた方の足の足裏のみに対してステップS10の誘導用ブロックの形状に対応した刺激の出力を停止し、ステップS11の誘導方向再計算において、進行経路から外れた方の足の足裏のみに対して、元の進行経路に戻す誘導方向の誘導用ブロックの形状に対応した刺激を出力することになる。また、出力部11は、進行経路に残っている方の足の足裏に対して、他方の足の足裏が進行経路からずれたことを知らせる通知、すなわち、予め定められる振動パターンの刺激などを出力して、他方の足を進行経路に戻すように促す(気付かせる)ようにしてもよい。 Further, in the above first to third embodiments, as a reference for determining whether or not the pedestrian determined by the
また、上記の第1から第3実施形態において、図6及び図14のステップS9の処理において進行経路から外れていないと判定された場合、進行経路が変化しているだけであるため、歩行者に特に警告を行う必要がないため、ステップS13の警告用ブロック形状に対応した刺激の出力はなくてもよい。 Further, in the first to third embodiments described above, when it is determined in step S9 in FIG. 6 and FIG. 14 that it is not deviated from the travel route, only the travel route is changed. Therefore, there is no need to output a stimulus corresponding to the warning block shape in step S13.
また、上記の第1から第3実施形態において、図10を参照して説明したように、障害物200を回避して元の進行経路に戻った場合、戻ったことを歩行者に通知するために出力部11が、短い間隔で、複数回、警告用ブロックの形状に対応した刺激を両足に出力させて知らせるようにしているが、本発明は、当該実施の形態に限られない。例えば、左と右のナビゲーション装置10a,10bで交互に警告用ブロックを出すような通知パターンを適用してもよい。また、障害物の回避ではなく、ステップS9の判定により進行経路から外れてしまった場合であって、元の進行経路に戻ったときには、障害物を回避して元の進行経路に戻ったときに行う通知パターンと異なる通知パターンで通知するようにしてもよい。 In the first to third embodiments, as described with reference to FIG. 10, when the
また、上記の第1から第3実施形態において、図11において、出力部11は、右足のナビゲーション装置10bの方向と、左足のナビゲーション装置10aの方向との違いによって進行方向が変化したか否かを判定しているが、本発明は、当該実施の形態に限られない。例えば、左足用と右足用のナビゲーション装置10a,10bの各々において、1つ前の方向を記憶部18に記憶させておき、左足用のナビゲーション装置10aについては1つ前の左足用のナビゲーション装置10aの方向と比較し、右足用のナビゲーション装置10bについては1つ前の右足用のナビゲーション装置10bの方向と比較するようにしてもよい。 In the first to third embodiments described above, in FIG. 11, the
また、上記の第1から第3実施形態において、ナビゲーションシステム1,1aは、ナビゲーション装置10a,10b,10Aと、サーバ装置30,30aと、携帯端末装置20と、通信ネットワーク40とを備える構成となっているが、例えば、サーバ装置30、30aの構成を携帯端末装置20に含めるような構成であってもよいし、サーバ装置30、30aと携帯端末装置20の構成を全てナビゲーション装置10a,10b,10Aに含めるような構成であってもよい。 In the first to third embodiments, the
上述した第1から第3実施形態におけるナビゲーション装置10a,10b,10Aをコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。 The
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。 Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be a program for realizing a part of the above-described functions, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system. You may implement | achieve using programmable logic devices, such as FPGA (Field Programmable Gate Array).
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.
1 ナビゲーションシステム
10a,10b ナビゲーション装置
11 出力部
12 通信部
13 案内情報取得部
14a,14b 測位部
15 位置情報取得部
16a,16b センサ
17 センサ部
18 記憶部
20 携帯端末装置
30 サーバ装置
31 通信部
32 経路演算部
33 地図情報記憶部
40 通信ネットワークDESCRIPTION OF
Claims (7)
前記ユーザの進行経路を案内する案内情報を取得する案内情報取得部と、
前記ユーザの現在位置を示す現在位置情報を取得する位置情報取得部と、
前記案内情報と、前記現在位置情報とに基づいて、前記ユーザの足裏に対して、前記ユーザを前記進行経路に沿って誘導する触覚による刺激を与える出力部と、
を備えることを特徴とするナビゲーション装置。A navigation device that can be worn at least on the soles of users,
A guide information acquisition unit for acquiring guide information for guiding the user's travel route;
A position information acquisition unit that acquires current position information indicating the current position of the user;
Based on the guidance information and the current position information, an output unit that applies a tactile stimulus that guides the user along the traveling path to the sole of the user;
A navigation device comprising:
前記進行経路における進行方向にしたがって前記誘導用ブロックの形状に対応した刺激を出力し、
前記進行経路において進行方向が変わることを通知する場合、前記警告用ブロックの形状に対応した刺激を出力した後、前記誘導用ブロックの形状に対応した刺激を出力する
ことを特徴とする請求項2に記載のナビゲーション装置。The output unit is
Output a stimulus corresponding to the shape of the guiding block according to the traveling direction in the traveling path,
3. When notifying that the traveling direction changes in the traveling path, after outputting a stimulus corresponding to the shape of the warning block, a stimulus corresponding to the shape of the guiding block is output. The navigation device described in 1.
前記案内情報取得部は、
前記センサ部が、前記障害物が存在すると検出する場合、前記障害物までの距離と、前記現在位置情報とに基づいて、前記障害物を回避する新たな前記案内情報の生成を要求して、前記案内情報を取得する
ことを特徴とする請求項1から3のいずれか1つに記載のナビゲーション装置。A sensor unit for detecting the presence or absence of an obstacle and measuring the distance to the detected obstacle;
The guidance information acquisition unit
When the sensor unit detects that the obstacle exists, based on the distance to the obstacle and the current position information, request generation of the new guidance information to avoid the obstacle, The navigation apparatus according to any one of claims 1 to 3, wherein the guidance information is acquired.
前記現在位置情報が、前記案内情報から外れた場合、前記現在位置情報と、前記案内情報が示す進行経路との位置関係に基づいて、前記ユーザを前記進行経路に戻すように、新たな前記案内情報の生成を要求して、前記案内情報を取得する
ことを特徴とする請求項1から4のいずれか1つに記載のナビゲーション装置。The guidance information acquisition unit
When the current position information deviates from the guidance information, the new guidance is newly set so as to return the user to the traveling route based on the positional relationship between the current position information and the traveling route indicated by the guidance information. The navigation apparatus according to claim 1, wherein the guidance information is acquired by requesting generation of information.
前記出力部は、
前記案内情報と、前記地図情報とに基づいて、歩行が許可されている領域で、前記ユーザの足裏に対して、前記ユーザを前記進行経路に沿って誘導する触覚による刺激を与える
ことを特徴とする請求項1から5いずれか1つに記載のナビゲーション装置。A map information acquisition unit that acquires map information including information on areas where walking is permitted,
The output unit is
Based on the guidance information and the map information, a tactile stimulus that guides the user along the traveling path is given to the sole of the user in an area where walking is permitted. The navigation device according to any one of claims 1 to 5.
案内情報取得部が、前記ユーザの進行経路を案内する案内情報を取得する案内情報取得ステップと、
位置情報取得部が、前記ユーザの現在位置を示す現在位置情報を取得する位置情報取得ステップと、
出力部が、前記案内情報と、前記現在位置情報とに基づいて、前記ユーザの足裏に対して、前記ユーザを前記進行経路に沿って誘導する触覚による刺激を与える出力ステップと、
を有することを特徴とするナビゲーション方法。A navigation method by a computer of a navigation device that can be worn at least on the sole of a user,
A guide information acquiring unit for acquiring guide information for guiding the user's travel route;
A position information acquisition unit that acquires current position information indicating a current position of the user;
An output step of providing a tactile stimulus for guiding the user along the traveling path to the sole of the user based on the guidance information and the current position information;
A navigation method characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016083207A JP6535631B2 (en) | 2016-03-31 | 2016-03-31 | Navigation device and navigation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016083207A JP6535631B2 (en) | 2016-03-31 | 2016-03-31 | Navigation device and navigation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017188052A true JP2017188052A (en) | 2017-10-12 |
JP6535631B2 JP6535631B2 (en) | 2019-06-26 |
Family
ID=60044140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016083207A Active JP6535631B2 (en) | 2016-03-31 | 2016-03-31 | Navigation device and navigation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6535631B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019211917A (en) * | 2018-06-01 | 2019-12-12 | 東芝テック株式会社 | Guidance system and program |
CN111084710A (en) * | 2018-10-24 | 2020-05-01 | 上海博泰悦臻网络技术服务有限公司 | Method and system for providing navigation for special user |
JP2023525707A (en) * | 2020-05-15 | 2023-06-19 | ナイキ イノベイト シーブイ | Intelligent electronic footwear and logic for navigation assistance with automated tactile, audio, and visual feedback |
US11900810B2 (en) | 2018-05-31 | 2024-02-13 | Nike, Inc. | Intelligent electronic footwear and control logic for executing automated footwear features |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000004901A (en) * | 1998-06-17 | 2000-01-11 | Matsushita Electric Ind Co Ltd | Shoe |
JP2001147132A (en) * | 1999-11-18 | 2001-05-29 | Equos Research Co Ltd | Communication type route guiding system and route guiding device for vehicle |
JP2006226997A (en) * | 2005-01-20 | 2006-08-31 | Denso Corp | Navigation device and its course retrieving method |
JP2006250799A (en) * | 2005-03-11 | 2006-09-21 | Takenaka Komuten Co Ltd | Tactile perception type route guidance system |
JP2006337291A (en) * | 2005-06-06 | 2006-12-14 | Hitachi Ltd | Device and method for route guidance |
JP2012133678A (en) * | 2010-12-22 | 2012-07-12 | Kyocera Corp | Tactile presentation apparatus |
JP2014006190A (en) * | 2012-06-26 | 2014-01-16 | Navitime Japan Co Ltd | Information processing system, information processing device, server, terminal device, information processing method, and information processing program |
US20140266571A1 (en) * | 2013-03-12 | 2014-09-18 | Anirudh Sharma | System and method for haptic based interaction |
US20140266570A1 (en) * | 2013-03-12 | 2014-09-18 | Anirudh Sharma | System and method for haptic based interaction |
JP2015042946A (en) * | 2013-08-26 | 2015-03-05 | 三菱電機株式会社 | Drive support apparatus and drive support method |
JP2016017886A (en) * | 2014-07-09 | 2016-02-01 | Necエンジニアリング株式会社 | Visually handicapped person guide system |
-
2016
- 2016-03-31 JP JP2016083207A patent/JP6535631B2/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000004901A (en) * | 1998-06-17 | 2000-01-11 | Matsushita Electric Ind Co Ltd | Shoe |
JP2001147132A (en) * | 1999-11-18 | 2001-05-29 | Equos Research Co Ltd | Communication type route guiding system and route guiding device for vehicle |
JP2006226997A (en) * | 2005-01-20 | 2006-08-31 | Denso Corp | Navigation device and its course retrieving method |
JP2006250799A (en) * | 2005-03-11 | 2006-09-21 | Takenaka Komuten Co Ltd | Tactile perception type route guidance system |
JP2006337291A (en) * | 2005-06-06 | 2006-12-14 | Hitachi Ltd | Device and method for route guidance |
JP2012133678A (en) * | 2010-12-22 | 2012-07-12 | Kyocera Corp | Tactile presentation apparatus |
JP2014006190A (en) * | 2012-06-26 | 2014-01-16 | Navitime Japan Co Ltd | Information processing system, information processing device, server, terminal device, information processing method, and information processing program |
US20140266571A1 (en) * | 2013-03-12 | 2014-09-18 | Anirudh Sharma | System and method for haptic based interaction |
US20140266570A1 (en) * | 2013-03-12 | 2014-09-18 | Anirudh Sharma | System and method for haptic based interaction |
JP2015042946A (en) * | 2013-08-26 | 2015-03-05 | 三菱電機株式会社 | Drive support apparatus and drive support method |
JP2016017886A (en) * | 2014-07-09 | 2016-02-01 | Necエンジニアリング株式会社 | Visually handicapped person guide system |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11900810B2 (en) | 2018-05-31 | 2024-02-13 | Nike, Inc. | Intelligent electronic footwear and control logic for executing automated footwear features |
US11915592B2 (en) | 2018-05-31 | 2024-02-27 | Nike, Inc. | Intelligent electronic footwear and control logic for executing automated footwear features |
US11990042B2 (en) | 2018-05-31 | 2024-05-21 | Nike, Inc. | Intelligent electronic footwear and control logic for automated infrastructure-based pedestrian tracking |
JP2019211917A (en) * | 2018-06-01 | 2019-12-12 | 東芝テック株式会社 | Guidance system and program |
CN111084710A (en) * | 2018-10-24 | 2020-05-01 | 上海博泰悦臻网络技术服务有限公司 | Method and system for providing navigation for special user |
CN111084710B (en) * | 2018-10-24 | 2023-02-28 | 上海博泰悦臻网络技术服务有限公司 | Method and system for providing navigation for special user |
JP2023525707A (en) * | 2020-05-15 | 2023-06-19 | ナイキ イノベイト シーブイ | Intelligent electronic footwear and logic for navigation assistance with automated tactile, audio, and visual feedback |
Also Published As
Publication number | Publication date |
---|---|
JP6535631B2 (en) | 2019-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Fernandes et al. | A review of assistive spatial orientation and navigation technologies for the visually impaired | |
JP6535631B2 (en) | Navigation device and navigation method | |
JP2020508440A (en) | Personal navigation system | |
Bousbia-Salah et al. | A navigation aid for blind people | |
US20130002452A1 (en) | Light-weight, portable, and wireless navigator for determining when a user who is visually-impaired and/or poorly-oriented can safely cross a street, with or without a traffic light, and know his/her exact location at any given time, and given correct and detailed guidance for translocation | |
Guy et al. | CrossingGuard: exploring information content in navigation aids for visually impaired pedestrians | |
KR101841531B1 (en) | Navigation system for blind people using nfc | |
KR101648374B1 (en) | System and method for providing road guide servicefor blind person | |
Riehle et al. | Indoor inertial waypoint navigation for the blind | |
US10548366B2 (en) | Navigation using microfluidics | |
Rituerto et al. | Towards a sign-based indoor navigation system for people with visual impairments | |
CN203776229U (en) | Special shoes for blind people | |
Jawale et al. | Ultrasonic navigation based blind aid for the visually impaired | |
KR20160133318A (en) | Smart walking assistance device for the blind and Smart walking assistance system using the same | |
JP7507553B2 (en) | Transportation support for users with regular or emergency travel needs | |
Meliones et al. | Blindhelper: A pedestrian navigation system for blinds and visually impaired | |
Scalvini et al. | Outdoor navigation assistive system based on robust and real-time visual–auditory substitution approach | |
Zhang et al. | A multiple sensor-based shoe-mounted user interface designed for navigation systems for the visually impaired | |
Adagale et al. | Route guidance system for blind people using GPS and GSM | |
Zhang et al. | Development of a shoe-mounted assistive user interface for navigation | |
JP2015114189A (en) | Current position complementation device and current position complementation method | |
JP2014059208A (en) | Moving assistance apparatus and moving assistance method | |
JP2020126530A (en) | Communication terminal, communication system, communication method, and program | |
JP2016017886A (en) | Visually handicapped person guide system | |
JP2004212146A (en) | Dead reckoning navigation system and dead reckoning navigation for walker |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180330 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190305 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190415 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190603 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6535631 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |