JP2019107414A - Walking support device - Google Patents

Walking support device Download PDF

Info

Publication number
JP2019107414A
JP2019107414A JP2017244182A JP2017244182A JP2019107414A JP 2019107414 A JP2019107414 A JP 2019107414A JP 2017244182 A JP2017244182 A JP 2017244182A JP 2017244182 A JP2017244182 A JP 2017244182A JP 2019107414 A JP2019107414 A JP 2019107414A
Authority
JP
Japan
Prior art keywords
information
support device
walking support
user
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017244182A
Other languages
Japanese (ja)
Inventor
穂積 正男
Masao Hozumi
正男 穂積
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2017244182A priority Critical patent/JP2019107414A/en
Priority to CN201810538147.4A priority patent/CN109938972A/en
Publication of JP2019107414A publication Critical patent/JP2019107414A/en
Pending legal-status Critical Current

Links

Abstract

To provide a walking support device enabling a visually impaired person to safely and easily arrive at a destination.SOLUTION: A user of a walking support device 1 utters speech information related to a destination to a microphone 2 at first. The walking support device 1 performs processing to determine that the speech information is input, and the walking support device 1 performs processing to analyze the speech information, and sets destination information when recognizing the speech information. The walking support device 1 acquires current position information of the user with GPS 3, sets monitoring information with a camera 5, and sets route information on the basis of the current position information and the destination information. Furthermore, the walking support device 1 outputs the set route information and monitoring information to a bone-conduction loudspeaker 6b, amplifies sounds collected from the outside, and outputs to an earphone 6d.SELECTED DRAWING: Figure 1

Description

本発明は、利用者の歩行を支援する歩行支援装置に関するものである。   The present invention relates to a walking support device that supports the walking of a user.

従来では、視覚障害者の歩行を支援するために、視覚障害者と、その周辺に存在する物体との距離を視覚障害者に対して報知することにより、視覚障害者の歩行を支援する歩行支援装置が知られている(例えば、特許文献1)。   Conventionally, in order to support the walking of a visually impaired person, a walking support that supports walking of a visually impaired person by notifying the visually impaired person of the distance between the visually impaired person and an object present in the periphery thereof. An apparatus is known (for example, patent document 1).

このような歩行支援装置は、発光素子と、受光素子からなる光センサを備えており、発光素子が発光してから、受光素子が物体により反射された光を受光するまでの時間に基づいて、物体との距離を計測し、第1報知音を出力することとなる。そして、第1報知音を出力してから計測された物体との距離に対応する時間が経過した後、第1報知音の出音を停止して第2報知音を出力する。これにより、視覚障害者と、その周辺に存在する物体との距離を視覚障害者に対してリアルタイムに報知することができる。   Such a walking support device includes an optical sensor including a light emitting element and a light receiving element, and based on the time from when the light emitting element emits light to when the light receiving element receives the light reflected by the object, The distance to the object is measured, and the first notification sound is output. Then, after a time corresponding to the distance to the measured object has elapsed since the first alarm sound is output, the first alarm sound is stopped from being output and the second alarm sound is output. Thereby, the distance between the visually impaired person and the object present in the periphery can be notified to the visually impaired person in real time.

特開2006−276595号公報Unexamined-Japanese-Patent No. 2006-276595

しかしながら、特許文献1に開示されているような歩行支援装置において、視覚障害者は、視覚障害者と、その周辺に存在する物体との距離を認識することができるので、安全に歩行することができるものの、目的地まで到達するのが困難であるという問題点があった。   However, in the walking support device as disclosed in Patent Document 1, the visually impaired person can recognize the distance between the visually impaired person and the object present in the periphery, so that he can walk safely. Although it can, there is a problem that it is difficult to reach the destination.

本発明は、このような問題点に鑑み、視覚障害者が目的地まで安全かつ容易に到達することができる歩行支援装置を提供することを目的とする。   An object of the present invention is to provide a walking support device that allows a visually impaired person to reach a destination safely and easily in view of such problems.

このような課題を解決するために、本発明に係る歩行支援装置は、利用者の音声情報を入力する音声情報入力手段と、現在の位置情報を取得する位置情報取得手段と、前記位置情報取得手段により取得された前記位置情報と、前記音声情報入力手段により入力された前記音声情報とに基づいて、目的地までの経路情報を設定する経路情報設定手段と、利用者の前方を監視することにより、監視情報を生成する監視情報生成手段と、前記監視情報生成手段により生成された前記監視情報、及び前記経路情報設定手段により設定された前記経路情報を出力する情報出力手段と、を備え、前記情報出力手段は、耳介と頭皮との間に挟んで装着される本体部と、前記監視情報、及び前記経路情報が出力される第1出力部と、外部から集められた音を増幅し、出力する第2出力部と、により構成されていることを特徴とする。   In order to solve such a problem, the walk supporting device according to the present invention comprises: voice information input means for inputting voice information of a user; position information obtaining means for obtaining current position information; Route information setting means for setting route information to a destination based on the position information acquired by the means and the voice information inputted by the voice information input means, and monitoring the front of the user And monitoring information generation means for generating monitoring information, and information output means for outputting the monitoring information generated by the monitoring information generating means, and the path information set by the path information setting means, The information output means is configured to increase a sound collected from the outside, a main body portion mounted between the auricle and the scalp, the monitoring information, and a first output portion to which the route information is output. And, characterized in that it is constituted and a second output unit for outputting, by.

また、前記歩行支援装置は、衣類状の形状からなり、右肩部に設けられた右肩振動部と、左肩部に設けられた左肩振動部と、を更に備え、前記情報出力手段は、前記利用者を右方向に案内する場合には、前記右肩振動部を振動させる制御を行うとともに、前記利用者を左方向に案内する場合には、前記左肩振動部を振動させる制御を行うことを特徴とする。   Further, the walking support device further comprises a right shoulder vibrating portion formed in a clothes shape and provided on the right shoulder and a left shoulder vibrating portion provided on the left shoulder, and the information output unit is configured to When guiding the user in the right direction, control is performed to vibrate the right shoulder vibration unit, and when guiding the user in the left direction, control is performed to vibrate the left shoulder vibration unit. It features.

本発明によれば、視覚障害者が目的地まで容易に到達することができる歩行支援装置を提供することができる。   According to the present invention, it is possible to provide a walking support device that allows a visually impaired person to easily reach a destination.

第1実施形態における歩行支援装置の外観図の一例を示す図である。It is a figure which shows an example of the external view of the walk assistance apparatus in 1st Embodiment. 第1実施形態におけるカメラの固定方法の一例を示す図である。It is a figure which shows an example of the fixing method of the camera in 1st Embodiment. 第1実施形態における長袖部の取付方法の一例を示す図である。It is a figure which shows an example of the attachment method of the long sleeve part in 1st Embodiment. 第1実施形態における補聴器の具体的態様の一例を示す図である。It is a figure which shows an example of the specific aspect of the hearing aid in 1st Embodiment. 第1実施形態におけるブロック図の一例を示す図である。It is a figure which shows an example of the block diagram in 1st Embodiment. 第1実施形態におけるメイン処理の一例を示す図である。It is a figure showing an example of the main processing in a 1st embodiment. 第1実施形態における音声情報入力時処理の一例を示す図である。It is a figure which shows an example of the process at the time of the audio | voice information input in 1st Embodiment. 第1実施形態における歩行支援装置の装着態様の一例を示す図である。It is a figure which shows an example of the mounting | wearing aspect of the walk assistance apparatus in 1st Embodiment. 第2実施形態における歩行支援装置の外観図の一例を示す図である。It is a figure which shows an example of the external view of the walk assistance apparatus in 2nd Embodiment. 第3実施形態における歩行支援装置の外観図の一例を示す図である。It is a figure which shows an example of the external view of the walk assistance apparatus in 3rd Embodiment.

(第1実施形態)
まず、図1〜図4を用いて、本発明における歩行支援装置1の第1実施形態について具体的に説明を行う。
First Embodiment
First, the first embodiment of the walking support device 1 according to the present invention will be specifically described using FIGS. 1 to 4.

(歩行支援装置1の外観)
図1を用いて、歩行支援装置1の外観について説明を行う。なお、図1(A)は、第1実施形態における歩行支援装置1の正面図の一例を示す図であって、図1(B)は、第1実施形態における歩行支援装置1の背面図の一例を示す図である。
(Appearance of the walking support device 1)
The appearance of the walking support device 1 will be described with reference to FIG. In addition, FIG. 1 (A) is a figure which shows an example of the front view of the walk assistance apparatus 1 in 1st Embodiment, Comprising: FIG. 1 (B) is a rear view of the walk assistance apparatus 1 in 1st Embodiment. It is a figure which shows an example.

(歩行支援装置1)
歩行支援装置1は、ノースリーブの衣類状の形状となっており、利用者の歩行を支援するためのものである。また、歩行支援装置1は、防水加工が施されており、雨の日や、雪の日に利用した場合であっても、耐え得るものとなっている。
(Walking support device 1)
The walking support device 1 is in the shape of a sleeveless clothing and is for supporting the user's walking. Further, the walking support device 1 is waterproofed and can withstand even when it is used on a rainy day or a snowy day.

なお、第1実施形態における歩行支援装置1は、ノースリーブの衣類状の形状となっているが、これに限定されることはなく、適宜設定可能である。例えば、眼鏡型の形状や、他の形状であってもよい。   In addition, although the walking assistance apparatus 1 in 1st Embodiment becomes a sleeveless clothing-like shape, it is not limited to this, It can set suitably. For example, it may be in the shape of glasses or other shapes.

(マイク2)
マイク2は、利用者の音声情報を入力するために設けられている。また、第1実施形態におけるマイク2は、右側マイク2aと、左側マイク2bにより構成されている。そして、マイク2は、利用者の音声情報を認識し易いように、歩行支援装置1の正面中央に設けられている。ここで、本実施形態におけるマイク2は、利用者の音声情報を認識し易いように、感度の高いコンデンサマイクが用いられる。なお、コンデンサマイクの特質上、感度が高い利点があるものの、振動や湿気に弱いため、天候が雨の場合に適していないという問題点がある。このため、コンデンサマイクと比較して、丈夫で湿度に強いダイナミックマイクを用いることとしてもよい。なお、マイク2は、骨伝導マイクであってもよい。
(Mike 2)
The microphone 2 is provided to input voice information of the user. The microphone 2 in the first embodiment is configured by the right microphone 2 a and the left microphone 2 b. The microphone 2 is provided at the center of the front of the walking support device 1 so that the user's voice information can be easily recognized. Here, as the microphone 2 in the present embodiment, a condenser microphone with high sensitivity is used so that voice information of the user can be easily recognized. Although the characteristic of the condenser microphone is that it has an advantage of high sensitivity, there is a problem that it is not suitable in the case of rain because it is weak to vibration and moisture. Therefore, it is possible to use a dynamic microphone that is stronger and more resistant to humidity than a condenser microphone. The microphone 2 may be a bone conduction microphone.

(GPS3)
GPS3は、歩行支援装置1の利用者の現在位置を取得するために設けられている。具体的には、GPS3は、全地球測位システムから信号を受信する受信機を備えており、歩行支援装置1の利用者の地図上における現在位置を取得するために設けられている。また、GPS3は、マイク2よりも上部に設けられている。
(GPS3)
The GPS 3 is provided to obtain the current position of the user of the walking support device 1. Specifically, the GPS 3 includes a receiver that receives a signal from the global positioning system, and is provided to obtain the current position of the user of the walking support device 1 on the map. Also, the GPS 3 is provided above the microphone 2.

(制御装置4)
制御装置4は、補聴器6の動作を制御するために設けられている。また、制御装置4は、CPU4a、ROM4b、RAM4c、及び人工知能4dが内部バス4eを介して接続されている。
(Control device 4)
The control device 4 is provided to control the operation of the hearing aid 6. Further, in the control device 4, a CPU 4a, a ROM 4b, a RAM 4c, and an artificial intelligence 4d are connected via an internal bus 4e.

(カメラ5)
カメラ5は、歩行支援装置1の利用者の前方を監視するために設けられている。また、第1実施形態におけるカメラ5は、右側カメラ5aと、左側カメラ5bとにより構成されており、GPS3の下方に設けられている。ここで、本発明におけるカメラ5は、光に対して感度が高く、画質に優れているCCDカメラとなっている。なお、カメラ5は、CCDカメラではなく、CMOSカメラ等であってもよい。
(Camera 5)
The camera 5 is provided to monitor the front of the user of the walking support device 1. Further, the camera 5 in the first embodiment is configured by the right camera 5 a and the left camera 5 b, and is provided below the GPS 3. Here, the camera 5 in the present invention is a CCD camera having high sensitivity to light and excellent image quality. The camera 5 may not be a CCD camera but a CMOS camera or the like.

また、本実施形態におけるカメラ5は、前方に突出して設けられている。これにより、カメラ5が歩行支援装置1の前面に対して平行である場合と比較して、カメラ5の視野角を広くすることができる。特に、カメラ5を前方に突出させた場合には、歩行支援装置1の利用者の上方、正面、及び足元まで監視することができるので、視覚障害者が歩行支援装置1を利用した場合に、安全に歩行することができる。   Further, the camera 5 in the present embodiment is provided to project forward. Thereby, as compared with the case where the camera 5 is parallel to the front surface of the walking support device 1, the viewing angle of the camera 5 can be widened. In particular, when the camera 5 is projected forward, it is possible to monitor up, in front of and in the foot of the user of the walking support device 1, so when a visually impaired person uses the walking support device 1, You can walk safely.

なお、第1実施形態において、右側カメラ5aと、左側カメラ5bは、それぞれが前方に突出して設けられているが、右側カメラ5aと、左側カメラ5bのそれぞれが異なる方向に傾斜されていてもよい。これにより、カメラ5の視野角を広くすることができる。なお、カメラ5を可動可能に設けることとしてもよい。   In the first embodiment, the right camera 5a and the left camera 5b are provided so as to project forward, but the right camera 5a and the left camera 5b may be inclined in different directions. . Thereby, the view angle of the camera 5 can be widened. The camera 5 may be movably provided.

また、第1実施形態において、カメラ5は、複数設けられているが、これに限定されることはなく、単数であってもよい。   Further, in the first embodiment, although a plurality of cameras 5 are provided, the present invention is not limited to this, and may be singular.

(補聴器6)
補聴器6は、歩行支援装置1の利用者に対して、音声情報を出力するために設けられている。また、補聴器6は、難聴である利用者が音を認識し易くするために設けられている。なお、補聴器6については、後で図4を用いて詳述する。
(Hearing aid 6)
The hearing aid 6 is provided to output voice information to the user of the walking support device 1. Moreover, the hearing aid 6 is provided in order to make it easy for the user who is deaf to recognize the sound. The hearing aid 6 will be described later in detail with reference to FIG.

ここで、本実施形態において、歩行支援装置1に設けられている補聴器6は、単数となっている。これにより、補聴器6を複数設けた場合と比較して安価で歩行支援装置1を提供することができる。   Here, in the present embodiment, the hearing aid 6 provided in the walking support device 1 is singular. Thereby, compared with the case where a plurality of hearing aids 6 are provided, the walking support device 1 can be provided at low cost.

(電力供給装置7)
電力供給装置7は、歩行支援装置1に電力を供給するために設けられている。また、電力供給装置7は、歩行支援装置1の襟部に設けられている。ここで、電力供給装置7は、バッテリー(図示せず)と、アダプタ挿入口(図示せず)とにより構成されており、このアダプタ挿入口にアダプタ(図示せず)を挿入してバッテリーが充電されることとなる。
(Power supply device 7)
The power supply device 7 is provided to supply power to the walking support device 1. Further, the power supply device 7 is provided at the collar of the walking support device 1. Here, the power supply device 7 is composed of a battery (not shown) and an adapter insertion port (not shown), and an adapter (not shown) is inserted into the adapter insertion port to charge the battery. It will be done.

ここで、本実施形態において、歩行支援装置1は、難燃性素材により構成されている。これにより、電力供給装置7が熱を帯びて、歩行支援装置1が燃えてしまうことを防止することができる。なお、歩行支援装置1は、少なくとも、電力供給装置7と接する面が難燃性素材により構成されていればよい。また、歩行支援装置1は、難燃性素材ではなく、防炎性素材であってもよい。   Here, in the present embodiment, the walking support device 1 is made of a flame retardant material. As a result, it is possible to prevent the power supply device 7 from being heated and burning the walking assistance device 1. In the walking support device 1, at least the surface in contact with the power supply device 7 may be made of a flame retardant material. In addition, the walking support device 1 may be a flameproof material instead of the flame retardant material.

(ファスナー部8)
ファスナー部8は、第1実施形態における歩行支援装置1に後述の長袖部13を取り付けるために設けられている。また、ファスナー部8は、後述の右側長袖部13aが取り付けられる右側ファスナー部8aと、後述の左側長袖部13bが取り付けられる左側ファスナー部8bにより構成されており、具体的には後述するが、長袖部13を取り付けることで、気温が低い季節であっても利用することができる。
(Fastener part 8)
The fastener portion 8 is provided to attach a long sleeve portion 13 described later to the walking support device 1 in the first embodiment. Further, the fastener portion 8 is constituted by a right side fastener portion 8a to which a right side long sleeve portion 13a described later is attached and a left side fastener portion 8b to which a left side long sleeve portion 13b described later is attached. By attaching the part 13, it can be used even in the season when the temperature is low.

(送信装置9)
送信装置9は、歩行支援装置1の情報を外部に送信するために設けられており、歩行支援装置1の右肩部に設けられている。具体的には、送信装置9は、歩行支援装置1の外部に現在位置情報等を送信するために設けられている。
(Transmission device 9)
The transmission device 9 is provided to transmit information of the walking support device 1 to the outside, and is provided on the right shoulder of the walking support device 1. Specifically, the transmission device 9 is provided to transmit current position information and the like to the outside of the walking support device 1.

(受信装置10)
受信装置10は、外部からの情報を歩行支援装置1に受信するために設けられており、歩行支援装置1の左肩部に設けられている。具体的には、受信装置10は、震災等に関する外部情報を受信するために設けられている。
(Receiver 10)
The receiving device 10 is provided to receive information from the outside into the walking support device 1 and is provided on the left shoulder of the walking support device 1. Specifically, the receiving device 10 is provided to receive external information regarding an earthquake or the like.

(ドローストリング部11)
ドローストリング部11は、利用者が歩行支援装置1を利用する際に、ウエスト部分を調節可能に設けられている。具体的には、ドローストリング部11に設けられている紐(図示せず)を引くことで、ウエスト部分を絞めることができる。
(Drawstring section 11)
The drawstring portion 11 is provided so that the waist portion can be adjusted when the user uses the walking support device 1. Specifically, the waist portion can be narrowed by pulling a string (not shown) provided in the draw string portion 11.

(カメラ5の固定方法)
次に、図2を用いて、カメラ5の固定方法について説明を行う。なお、図2は、カメラ5の固定方法の一例を示す図である。
(How to fix the camera 5)
Next, a method of fixing the camera 5 will be described with reference to FIG. In addition, FIG. 2 is a figure which shows an example of the fixing method of the camera 5. As shown in FIG.

(固定板12)
固定板12は、カメラ5を取り付けるために設けられている。また、固定板12は、右側カメラ5aを取り付けるための右側固定板12aと、左側カメラ5bを取り付けるための左側固定板12bとにより構成されている。ここで、右側カメラ5aは、右側固定板12aに取り付けられた状態で、歩行支援装置1に取り付けられる。また、左側カメラ5bは、左側固定板12bに取り付けられた状態で、歩行支援装置1に取り付けられる。
(Fixing plate 12)
The fixing plate 12 is provided to attach the camera 5. The fixing plate 12 is configured by a right fixing plate 12a for mounting the right camera 5a and a left fixing plate 12b for mounting the left camera 5b. Here, the right camera 5a is attached to the walking support device 1 in a state of being attached to the right fixing plate 12a. The left camera 5b is attached to the walking support device 1 in a state of being attached to the left fixing plate 12b.

なお、カメラ5と、固定板12を被覆する被覆部を設け、この被覆部からカメラ5のレンズ部を露出させた状態で、歩行支援装置1に取り付けることとしてもよいし、歩行支援装置1にポケットを設け、ポケットの内部にカメラ5が取り付けられた固定板12を入れ、ポケットからカメラ5のレンズ部分を露出させることとしてもよい。これにより、歩行支援装置1を雨の日に利用する場合であっても、カメラ5や、固定板12が雨に濡れてしまうことを極力防止することができる。   In addition, it is good also as attaching to the walk support device 1 in the state which provided the cover part which covers the camera 5 and the fixed plate 12, and exposed the lens part of the camera 5 from this cover part. A pocket may be provided, and the fixed plate 12 to which the camera 5 is attached may be placed inside the pocket to expose the lens portion of the camera 5 from the pocket. Thereby, even when the walking support device 1 is used on a rainy day, it is possible to prevent the camera 5 and the fixing plate 12 from getting wet as much as possible.

(長袖部13の取付方法)
次に、図3を用いて、長袖部13の取付方法について説明を行う。なお、図3は、長袖部13の取付方法の一例を示す図である。
(How to attach the long sleeve part 13)
Next, a method of attaching the long sleeve portion 13 will be described with reference to FIG. In addition, FIG. 3 is a figure which shows an example of the attachment method of the long sleeve part 13. As shown in FIG.

(長袖部13)
長袖部13は、図1に示したノースリーブの衣類状の形状をした歩行支援装置1を、長袖の衣類状の形状をした歩行支援装置1にするために設けられている。また、長袖部13は、右側長袖部13aと、左側長袖部13bとにより構成されている。
(Long sleeve part 13)
The long sleeve portion 13 is provided in order to convert the sleeveless clothing-like walking support device 1 shown in FIG. 1 into a long sleeve clothing-like walking support device 1. Further, the long sleeve part 13 is constituted by a right long sleeve part 13 a and a left long sleeve part 13 b.

(取付金具14)
取付金具14は、歩行支援装置1のファスナー部8に対して長袖部を取り付けるために設けられている。また、取付金具14は、右側取付金具14aと、左側取付金具14bにより構成されている。
(Mounting bracket 14)
The mounting bracket 14 is provided to attach the long sleeve portion to the fastener portion 8 of the walking support device 1. Moreover, the mounting bracket 14 is comprised by the right side mounting bracket 14a and the left side mounting bracket 14b.

ここで、右側ファスナー部8aと、右側長袖部13aは、右側取付金具14aにより取り付けられ、左側ファスナー部8bと、左側長袖部13bは、左側取付金具14bにより取り付けられることとなる。   Here, the right side fastener portion 8a and the right side long sleeve portion 13a are attached by the right side attachment bracket 14a, and the left side fastener portion 8b and the left long sleeve portion 13b are attached by the left side attachment bracket 14b.

(補聴器6の具体的態様)
次に、図4を用いて、補聴器6の具体的態様について説明を行う。なお、図4は、補聴器6の具体的態様の一例を示す図である。
(Specific embodiment of the hearing aid 6)
Next, a specific mode of the hearing aid 6 will be described with reference to FIG. FIG. 4 is a view showing an example of a specific mode of the hearing aid 6.

本実施形態における補聴器6は、本体部6aと、骨伝導スピーカ6bと、イヤホンジャック6cと、イヤホン6dとにより構成されている。   The hearing aid 6 in the present embodiment is composed of a main body 6a, a bone conduction speaker 6b, an earphone jack 6c, and an earphone 6d.

(本体部6a)
本体部6aは、利用者が歩行支援装置1を利用する際に、耳介と頭皮との間に挟んで装着するために設けられている。ここで、本実施形態において、本体部6aは、外部からの音を集めるマイク部と、マイク部により集めた音の増幅、及び加工を行うアンプ部を備えている。なお、本実施形態において、本体部6aは、防水加工が施されている。
(Body part 6a)
When the user uses the walking support device 1, the main body portion 6 a is provided to be sandwiched and worn between the auricle and the scalp. Here, in the present embodiment, the main body 6 a includes a microphone that collects sounds from the outside, and an amplifier that amplifies and processes the sound collected by the microphone. In the present embodiment, the main body 6a is waterproofed.

(骨伝導スピーカ6b)
骨伝導スピーカ6bは、歩行支援装置1の利用者に対して、音声情報を出力するために設けられている。ここで、骨伝導スピーカ6bにより、外耳や中耳を経由することなく、内耳のうずまき管に直接音の振動を伝達し、リンパ液中に浮かぶ聴覚神経が揺れることで音が聞こえることとなる。
(Bone conduction speaker 6b)
The bone conduction speaker 6 b is provided to output voice information to the user of the walking support device 1. Here, the bone conduction speaker 6b transmits the vibration of the direct sound to the spiral tube of the inner ear without passing through the outer ear and the middle ear, and the sound can be heard by shaking the auditory nerve floating in the lymph fluid.

(イヤホンジャック6c)
イヤホンジャック6cは、イヤホン6dを挿入するために設けられている。ここで、補聴器6の本体部6aにイヤホンジャック6cを設けることにより、イヤホン6dが故障した場合であっても、イヤホン6dを交換するだけで済むので、補聴器6全体を交換する場合と比較して修理費用が安価で済む。
(Earphone jack 6c)
The earphone jack 6c is provided to insert the earphone 6d. Here, by providing the earphone jack 6c in the main body portion 6a of the hearing aid 6, even if the earphone 6d breaks down, it is only necessary to replace the earphone 6d, compared to the case where the entire hearing aid 6 is replaced. Repair costs are low.

(イヤホン6d)
イヤホン6dは、本体部6aに設けられているアンプ部により増幅、及び加工が行われた音を出力するために設けられている。
(Earphone 6d)
The earphone 6 d is provided to output a sound that has been amplified and processed by an amplifier provided in the main body 6 a.

このように、本実施形態において、補聴器6は、骨伝導スピーカ6bにより音声情報を出力するとともに、外部からの音をイヤホン6dにより出力することとなる。なお、骨伝導スピーカ6bを設けずに、音声情報と、外部からの音をイヤホン6dにより出力することとしてもよい。   As described above, in the present embodiment, the hearing aid 6 outputs the audio information by the bone conduction speaker 6b, and outputs the sound from the outside by the earphone 6d. Note that without providing the bone conduction speaker 6b, sound information and external sound may be output by the earphone 6d.

(歩行支援装置1のブロック図)
次に、図5を用いて、歩行支援装置1のブロック図について説明を行う。なお、図5は、歩行支援装置1のブロック図の一例を示す図である。
(Block diagram of the walking support device 1)
Next, a block diagram of the walking support device 1 will be described with reference to FIG. FIG. 5 is a view showing an example of a block diagram of the walking support device 1.

本実施形態では、制御装置4に対して、マイク2、GPS3、カメラ5、補聴器6、電力供給装置7、送信装置9、及び受信装置10が接続されている。   In the present embodiment, the microphone 2, the GPS 3, the camera 5, the hearing aid 6, the power supply device 7, the transmission device 9, and the reception device 10 are connected to the control device 4.

(CPU4a)
CPU4aは、ROM4bに記憶されているプログラムを読み込み、所定の演算処理を行うために設けられている。
(CPU 4a)
The CPU 4a is provided to read a program stored in the ROM 4b and perform predetermined arithmetic processing.

(ROM4b)
ROM4bは、CPU4aにより実行されるプログラム等を記憶するために設けられている。
(ROM 4b)
The ROM 4 b is provided to store a program or the like executed by the CPU 4 a.

(RAM4c)
RAM4cは、CPU4aによるプログラムの実行により決定された各種データを記憶するために設けられている。
(RAM 4c)
The RAM 4 c is provided to store various data determined by execution of a program by the CPU 4 a.

(人工知能4d)
人工知能4dは、歩行支援装置1の利用者を安全かつ効率的に目的地まで到達させることを可能とするために設けられている。具体的には、人工知能4dは、カメラ5により撮影された物体が、歩行支援装置1の利用者の歩行の障害になることを推論する処理等を行う。
(Artificial intelligence 4d)
The artificial intelligence 4d is provided to enable the user of the walking support device 1 to reach the destination safely and efficiently. Specifically, the artificial intelligence 4 d performs a process of inferring that the object captured by the camera 5 is an obstacle to the walking of the user of the walking support device 1.

(内部バス4e)
内部バス4eは、CPU4a、ROM4b、RAM4c、及び人工知能4dを接続するために設けられている。
(Internal bus 4e)
The internal bus 4e is provided to connect the CPU 4a, the ROM 4b, the RAM 4c, and the artificial intelligence 4d.

なお、本実施形態において、補聴器6は、電力供給装置7により電力が供給されることとなっているが、これに限定されることはなく、補聴器6の本体部6aに電力供給部を設けることとしてもよい。   In the present embodiment, although the hearing aid 6 is supplied with power by the power supply device 7, the present invention is not limited to this, and the power supply unit may be provided to the main body 6a of the hearing aid 6. It may be

(歩行支援装置1におけるメイン処理)
次に、図6を用いて、歩行支援装置1におけるメイン処理について説明を行う。なお、図6は、歩行支援装置1におけるメイン処理の一例を示す図である。
(Main processing in the walking support device 1)
Next, main processing in the walking support device 1 will be described using FIG. FIG. 6 is a diagram showing an example of main processing in the walking support device 1.

(ステップS1)
ステップS1において、CPU4aは、音声情報が入力されたか否かを判定する処理を行う。具体的には、CPU4aは、まず、右側マイク2aにより音声情報が入力されたか否かを判定する処理を行い、右側マイク2aにより音声情報が入力された場合には、音声情報が入力されたと判定し(ステップS1=YES)、右側マイク2aにより音声情報が入力されていない場合には、左側マイク2bにより音声情報が入力されたか否かを判定する処理を行い、左側マイク2bにより音声情報が入力された場合には、音声情報が入力されたと判定し(ステップS1=YES)、左側マイク2bにより音声情報が入力されなかった場合には、音声情報が入力されていないと判定する(ステップS1=NO)こととなる。そして、音声情報が入力されたと判定された場合には(ステップS1=YES)、ステップS2に処理を移行し、音声情報が入力されていないと判定された場合には(ステップS1=NO)、ステップS3に処理を移行する。
(Step S1)
In step S1, the CPU 4a performs processing to determine whether or not voice information has been input. Specifically, the CPU 4a first performs a process of determining whether or not audio information is input by the right side microphone 2a, and determines that audio information is input when the audio information is input by the right side microphone 2a. If the voice information is not input by the right side microphone 2a, it is determined whether the voice information is input by the left side microphone 2b, and the voice information is input by the left side microphone 2b. If it is determined that the voice information has been input (step S1 = YES), and if no voice information has been input by the left microphone 2b, it is determined that the voice information has not been input (step S1 = NO). When it is determined that the voice information is input (step S1 = YES), the process proceeds to step S2, and when it is determined that the voice information is not input (step S1 = NO), The process proceeds to step S3.

(ステップS2)
ステップS2において、CPU4aは、後で図7を用いて詳述する音声情報入力時処理を行う。当該処理において、入力された音声情報を記憶する処理等を行う。そして、ステップS2の処理が終了すると、ステップS3に処理を移行する。
(Step S2)
In step S2, the CPU 4a performs processing at the time of voice information input which will be described in detail later using FIG. In the processing, processing such as storing input voice information is performed. And if the process of step S2 is complete | finished, a process will be transfered to step S3.

(ステップS3)
ステップS3において、CPU4aは、位置情報更新処理を行う。具体的には、CPU4aは、まず、GPS3に基づいて、進行方位と推定現在位置の算出を行う。次に、CPU4aは、GPS3に基づいて、現在位置を算出する処理を行う。そして、推定現在位置から、現在位置までの距離が所定距離以上離れているか否かを判定する処理を行い、所定距離以上離れていると判定された場合には、現在位置に係る情報を現在位置情報としてRAM4cに記憶する処理を行う。一方で、所定距離以上離れていないと判定された場合には、推定現在位置に係る情報を現在位置情報としてRAM4cに記憶する処理を行う。そして、ステップS3の処理が終了すると、ステップS4に処理を移行する。
(Step S3)
In step S3, the CPU 4a performs position information update processing. Specifically, the CPU 4a first calculates the traveling direction and the estimated current position based on the GPS3. Next, the CPU 4a performs a process of calculating the current position based on the GPS 3. Then, processing is performed to determine whether the distance from the estimated current position to the current position is greater than or equal to a predetermined distance, and if it is determined that the distance from the estimated current position is greater than or equal to the predetermined distance, A process of storing the information in the RAM 4c is performed. On the other hand, when it is determined that the user is not separated by the predetermined distance or more, the information concerning the estimated current position is stored in the RAM 4c as the current position information. And if the process of step S3 is complete | finished, a process will be transfered to step S4.

(ステップS4)
ステップS4において、CPU4aは、監視情報生成処理を行う。具体的には、CPU4aは、まず、右側カメラ5aにより撮影された撮影情報と、左側カメラ5bにより撮影された撮影情報をRAM4cに記憶する処理を行う。次に、CPU4aは、人工知能4dを用いて、RAM4cに記憶されている監視情報から、歩行支援装置1の利用者の歩行の障害になることを推論する処理を行い、当該推論の結果、歩行支援装置1の利用者の歩行の障害になると推論された場合には、監視情報をRAM4cに記憶する処理を行う。そして、ステップS4の処理が終了すると、ステップS5に処理を移行する。
(Step S4)
In step S4, the CPU 4a performs monitoring information generation processing. Specifically, the CPU 4a first performs processing for storing, in the RAM 4c, the shooting information shot by the right camera 5a and the shooting information shot by the left camera 5b. Next, the CPU 4a uses the artificial intelligence 4d to infer from the monitoring information stored in the RAM 4c that the user of the walking support device 1 becomes an obstacle to walking, and as a result of the inference, the walking is as follows. When it is inferred that the user's walking of the support apparatus 1 is an obstacle, processing of storing the monitoring information in the RAM 4c is performed. And if the process of step S4 is complete | finished, a process will be transfered to step S5.

(ステップS5)
ステップS5において、CPU4aは、経路情報設定処理を行う。具体的には、CPU4aは、RAM4cに記憶されている目的地情報と、RAM4cに記憶されている現在位置情報に基づいて、経路情報をRAM4cに設定する処理を行う。そして、ステップS5の処理が終了すると、ステップS6に処理を移行する。
(Step S5)
In step S5, the CPU 4a performs route information setting processing. Specifically, the CPU 4a sets the route information in the RAM 4c based on the destination information stored in the RAM 4c and the current position information stored in the RAM 4c. And if the process of step S5 is complete | finished, a process will be transfered to step S6.

(ステップS6)
ステップS6において、CPU4aは、人工知能学習処理を行う。具体的には、CPU4aは、人工知能4dにより推論した音声情報を学習する処理や、推論した監視情報を学習する処理を行う。そして、ステップS6の処理が終了すると、ステップS7に処理を移行する。
(Step S6)
In step S6, the CPU 4a performs artificial intelligence learning processing. Specifically, the CPU 4a performs a process of learning voice information inferred by the artificial intelligence 4d and a process of learning the inferred monitoring information. And if the process of step S6 is complete | finished, a process will be transfered to step S7.

(ステップS7)
ステップS7において、CPU4aは、情報受信処理を行う。具体的には、CPU4aは、外部情報を受信する処理を行い、当該受信した外部情報をRAM4cに記憶する処理を行う。そして、ステップS7の処理が終了すると、ステップS8に処理を移行する。
(Step S7)
In step S7, the CPU 4a performs an information reception process. Specifically, the CPU 4a performs a process of receiving external information, and performs a process of storing the received external information in the RAM 4c. And if the process of step S7 is complete | finished, a process will be transfered to step S8.

(ステップS8)
ステップS8において、CPU4aは、情報送信処理を行う。具体的には、CPU4aは、歩行支援装置1により取得した情報を外部に対して送信する処理を行う。そして、ステップS8の処理が終了すると、ステップS9に処理を移行する。
(Step S8)
In step S8, the CPU 4a performs an information transmission process. Specifically, the CPU 4a transmits the information acquired by the walking support device 1 to the outside. And if the process of step S8 is complete | finished, a process will be transfered to step S9.

(ステップS9)
ステップS9において、CPU4aは、情報出力処理を行う。具体的には、CPU4aは、ステップS4の監視情報生成処理により生成された監視情報と、ステップS5の経路情報設定処理により設定された経路情報を骨伝導スピーカ6bに出力する処理を行う。そして、ステップS9の処理が終了すると、ステップS1に処理を移行する。
(Step S9)
In step S9, the CPU 4a performs an information output process. Specifically, the CPU 4a performs a process of outputting the monitoring information generated by the monitoring information generation process of step S4 and the path information set by the path information setting process of step S5 to the bone conduction speaker 6b. And if the process of step S9 is complete | finished, a process will be transfered to step S1.

(音声情報入力時処理)
次に、図7を用いて、音声情報入力時処理について説明を行う。なお、図7は、音声情報入力時処理のサブルーチンの一例を示す図である。
(Processing when inputting voice information)
Next, processing at the time of voice information input will be described using FIG. FIG. 7 is a view showing an example of a subroutine of processing at the time of voice information input.

(ステップS11)
ステップS11において、CPU4aは、音声情報解析処理を行う。具体的には、CPU4aは、人工知能4dを用いて、音声情報を推論することにより、マイク2から入力された音声情報を解析する処理を行う。そして、ステップS11の処理が終了すると、ステップS12に処理を移行する。
(Step S11)
In step S11, the CPU 4a performs audio information analysis processing. Specifically, the CPU 4a analyzes the voice information input from the microphone 2 by inferring voice information using the artificial intelligence 4d. And if the process of step S11 is complete | finished, a process will be transfered to step S12.

なお、右側マイク2aから入力された音声情報と、左側マイク2bから入力された音声情報を合成し、人工知能4dは、合成された音声情報を推論することとしてもよい。これにより、音声情報の認識制度を向上させることができる。   The artificial intelligence 4d may be configured to infer the synthesized speech information by synthesizing the speech information input from the right side microphone 2a and the speech information input from the left side microphone 2b. Thereby, the recognition system of speech information can be improved.

(ステップS12)
ステップS12において、CPU4aは、音声情報を認識したか否かを判定する処理を行う。具体的には、CPU4aは、ステップS11の音声情報解析処理により、マイク2から入力された音声情報を認識したか否かを判定する処理を行う。そして、音声情報を認識したと判定された場合には(ステップS12=YES)、ステップS13に処理を移行し、音声情報が認識されていないと判定された場合には(ステップS12=NO)、ステップS14に処理を移行する。
(Step S12)
In step S12, the CPU 4a performs processing to determine whether or not voice information has been recognized. Specifically, the CPU 4a performs a process of determining whether or not the speech information input from the microphone 2 has been recognized by the speech information analysis process of step S11. When it is determined that the voice information is recognized (step S12 = YES), the process proceeds to step S13, and when it is determined that the voice information is not recognized (step S12 = NO), The process proceeds to step S14.

(ステップS13)
ステップS13において、CPU4aは、各種設定記憶処理を行う。具体的には、CPU4aは、ステップS11の音声情報解析処理により解析された音声情報を目的地情報として、RAM4cに記憶する処理等を行う。そして、ステップS13の処理が終了すると、音声情報入力時処理のサブルーチンを終了し、歩行支援装置1におけるメイン処理のステップS3に処理を移行する。
(Step S13)
In step S13, the CPU 4a performs various setting storage processing. Specifically, the CPU 4a performs processing of storing voice information analyzed by the voice information analysis processing of step S11 in the RAM 4c as destination information. Then, when the process of step S13 is completed, the subroutine of the process at the time of voice information input is ended, and the process proceeds to step S3 of the main process in the walking assistance device 1.

(ステップS14)
ステップS14において、CPU4aは、エラー情報記憶処理を行う。具体的には、CPU4aは、ステップS11の音声情報解析処理により音声情報を解析することができなかったため(ステップS12=NO)、エラー情報をRAM4cに記憶する処理を行う。そして、ステップS14の処理が終了すると、音声情報入力時処理のサブルーチンを終了し、歩行支援装置1におけるメイン処理のステップS3に処理を移行する。
(Step S14)
In step S14, the CPU 4a performs an error information storage process. Specifically, since the CPU 4a could not analyze voice information by the voice information analysis process of step S11 (step S12 = NO), it performs a process of storing error information in the RAM 4c. Then, when the process of step S14 is completed, the subroutine of the process at the time of voice information input is ended, and the process proceeds to step S3 of the main process in the walking assistance device 1.

(第1実施形態の第1利用態様)
次に、第1実施形態の第1利用態様について説明を行う。
(First usage mode of the first embodiment)
Next, the first utilization aspect of the first embodiment will be described.

歩行支援装置1の利用者は、まず、マイク2に対して、目的地に係る音声情報を発声する。そうすると、CPU4aは、音声情報が入力されたと判定する処理を行う(ステップS1=YES)。そして、CPU4aは、音声情報を解析する処理を行い(ステップS11)、音声情報を認識した場合(ステップS12=YES)には、目的地情報を設定する(ステップS13)。   First, the user of the walking support device 1 utters voice information relating to the destination to the microphone 2. Then, the CPU 4a performs a process of determining that voice information has been input (step S1 = YES). Then, the CPU 4a performs processing of analyzing voice information (step S11), and sets destination information (step S13) when voice information is recognized (step S12 = YES).

そして、CPU4aは、GPS3により利用者の現在位置情報を取得し(ステップS3)、カメラ5により監視情報を設定し(ステップS4)、現在位置情報と、目的地情報に基づいて、経路情報を設定する(ステップS5)。そして、CPU4aは、設定された経路情報と、監視情報を骨伝導スピーカ6bに出力する処理を行う(ステップS9)。   Then, the CPU 4a acquires the current position information of the user by the GPS 3 (Step S3), sets the monitoring information by the camera 5 (Step S4), and sets the route information based on the current position information and the destination information. (Step S5). Then, the CPU 4a performs a process of outputting the set path information and the monitoring information to the bone conduction speaker 6b (step S9).

一方で、CPU4aは、音声情報を解析する処理を行い(ステップS11)、音声情報を認識することができなかった場合(ステップS12=NO)には、エラー情報を記憶する(ステップS14)。そして、CPU4aは、設定されたエラー情報を骨伝導スピーカ6bに出力する処理を行う(ステップS9)。   On the other hand, the CPU 4a performs a process of analyzing voice information (step S11), and stores error information (step S14) if voice information can not be recognized (step S12 = NO). Then, the CPU 4a performs a process of outputting the set error information to the bone conduction speaker 6b (step S9).

(第1実施形態の第2利用態様)
次に、第1実施形態の第2利用態様について説明を行う。
(Second usage mode of the first embodiment)
Next, the second usage mode of the first embodiment will be described.

歩行支援装置1の利用者は、まず、マイク2に対して、歩行の障害になる物体があった旨の音声情報を発声する。そうすると、CPU4aは、音声情報が入力されたと判定する処理を行う(ステップS1=YES)。そして、CPU4aは、音声情報を解析する処理を行い(ステップS11)、音声情報を認識した場合(ステップS12=YES)には、歩行の障害になる物体がある旨の情報をRAM4cに記憶する処理を行う(ステップS13)。   First, the user of the walking support device 1 utters voice information to the microphone 2 that there is an object that is an obstacle to walking. Then, the CPU 4a performs a process of determining that voice information has been input (step S1 = YES). Then, the CPU 4a performs processing of analyzing voice information (step S11), and when voice information is recognized (step S12 = YES), processing of storing information to the effect that there is an object that is an obstacle to walking in the RAM 4c. (Step S13).

そして、CPU4aは、GPS3により利用者の現在位置情報を取得し(ステップS3)、カメラ5により監視情報を設定する(ステップS4)。そして、CPU4aは、人工知能4dを用いて、現在位置情報と、監視情報に基づいて、歩行の障害になる物体を推論し、学習する処理を行う(ステップS6)。そして、CPU4aは、歩行の障害になる物体がある旨の情報を骨伝導スピーカ6bにより出力する処理を行う(ステップS9)。   Then, the CPU 4a acquires current position information of the user by the GPS 3 (step S3), and sets monitoring information by the camera 5 (step S4). Then, the CPU 4a uses the artificial intelligence 4d to infer and learn an object that is an obstacle to walking based on the current position information and the monitoring information (step S6). And CPU4a performs the process which outputs the information to the effect of the object which becomes an obstacle of a walk by the bone conduction speaker 6b (step S9).

(第1実施形態の第3利用態様)
次に、第1実施形態の第3利用態様について説明を行う。
(Third usage mode of the first embodiment)
Next, a third usage aspect of the first embodiment will be described.

第1実施形態の第3利用形態においては、より具体的な利用場面についての説明を行う。   In the third usage form of the first embodiment, a more specific usage scene will be described.

例えば、歩行支援装置1の利用者が、信号の手前を歩いているとする。そうすると、CPU4aは、GPS3により利用者の現在位置情報を取得し(ステップS3)、カメラ5により監視情報を設定する(ステップS4)。この際に、人工知能4dを用いて、信号が歩行の障害になると推論されることとなる。そして、CPU4aは、人工知能4dを用いて、信号が歩行の障害になることを学習する処理を行い(ステップS6)、歩行の障害になる信号がある旨の情報を骨伝導スピーカ6bにより出力する処理を行う(ステップS9)。   For example, it is assumed that the user of the walking support device 1 walks in front of the signal. Then, the CPU 4a acquires current position information of the user by the GPS 3 (step S3), and sets monitoring information by the camera 5 (step S4). At this time, the artificial intelligence 4d is used to infer that the signal is an obstacle to walking. Then, the CPU 4a uses the artificial intelligence 4d to perform processing to learn that the signal is an obstacle to walking (step S6), and outputs information indicating that there is a signal to be an obstacle to walking through the bone conduction speaker 6b. A process is performed (step S9).

ここで、より具体的には、歩行支援装置1の利用者から信号までの距離が所定の距離となった場合に、「あと約○歩先に信号があります。」といった音声が骨伝導スピーカ6bにより出力されることとなる。この場合において、CPU4aは、人工知能4dを用いて、カメラ5により撮影した情報と、GPS3により更新されている現在位置情報に基づいて、信号までの距離(歩数)を推論することとなる。これにより、「あと約○メートル先に信号があります。」といった音声により、信号までの距離をそのまま骨伝導スピーカ6bに出力するよりも、視覚に障害を持つ歩行支援装置1の利用者にとって解り易い報知を行うことができる。   Here, more specifically, when the distance from the user of the walking support device 1 to the signal becomes a predetermined distance, a voice such as "There is a signal at about ○ step ahead." Output. In this case, the CPU 4a uses the artificial intelligence 4d to infer the distance (the number of steps) to the signal based on the information captured by the camera 5 and the current position information updated by the GPS 3. This makes it easier for the user of the walking support device 1 with visual impairment to understand than outputting the distance to the signal as it is to the bone conduction speaker 6b by means of a voice such as "There is a signal about another ○ meters ahead". Informing can be performed.

なお、他にも、「止まって下さい。信号の手前です。」といった音声や、「横断歩道を渡り始めました。」といった音声、「横断歩道を渡っております。」と言った音声、「横断歩道を渡り終わりました。」といった音声が骨伝導スピーカ6bにより出力されることとなる。   In addition, other voices such as "Stop. Please come in front of the signal.", Voices such as "We have started crossing the pedestrian crossing." Voices saying "We are crossing the pedestrian crossing." The voice has passed over the pedestrian crossing. "Is output by the bone conduction speaker 6b.

次に、歩行支援装置1の利用者が、駅の構内を歩いているとする。そうすると、CPU4aは、GPS3により利用者の現在位置情報を取得し(ステップS3)、カメラ5により監視情報を設定する(ステップS4)。この際に、人工知能4dを用いて、点字ブロックが歩行の障害になると推論されることとなる。そして、CPU4aは、人工知能4dを用いて、点字ブロックが歩行の障害になると学習する処理を行う(ステップS6)。そして、CPU4aは、歩行の障害になる点字ブロックがある旨の情報を骨伝導スピーカ6bにより出力する処理を行う(ステップS9)。   Next, it is assumed that the user of the walking support device 1 walks in the station yard. Then, the CPU 4a acquires current position information of the user by the GPS 3 (step S3), and sets monitoring information by the camera 5 (step S4). At this time, using artificial intelligence 4d, it is inferred that the Braille block becomes an obstacle to walking. Then, the CPU 4a uses the artificial intelligence 4d to perform processing to learn when the Braille block becomes an obstacle to walking (step S6). And CPU4a performs the process which outputs the information to the effect of the braille block which becomes an obstacle of a walk by the bone conduction speaker 6b (step S9).

ここで、より具体的には、歩行支援装置1の利用者から点字ブロックまでの距離が所定の距離となった場合に、「注意して下さい。あと左側約○歩先に点字ブロックがあります。」といった音声が骨伝導スピーカ6bにより出力されることとなる。この場合において、CPU4aは、人工知能4dを用いて、カメラ5により撮影した情報と、GPS3により更新されている現在位置情報に基づいて、点字ブロックまでの距離(歩数)を推論することとなる。これにより、「あと約○メートル先に点字ブロックがあります」といった音声を骨伝導スピーカ6bに出力するよりも、視覚に障害を持つ歩行支援装置1の利用者にとって解り易い報知を行うことができる。   Here, more specifically, when the distance from the user of the walking support device 1 to the braille block becomes a predetermined distance, “Please be careful. There is a braille block on the left side about ○ step ahead. "" Is output by the bone conduction speaker 6b. In this case, the CPU 4a uses the artificial intelligence 4d to infer the distance (the number of steps) to the Braille block on the basis of the information captured by the camera 5 and the current position information updated by the GPS 3. Thus, rather than outputting a voice such as “there is a Braille block about another O meters ahead” to the bone conduction speaker 6b, it is possible to perform an alert that is easy for the user of the walking support device 1 with visual impairment to understand.

なお、他にも、「あと○歩で登り階段です」といった音声や、「あと○歩で下り階段です」といった音声、「あと○歩で改札口です」といった音声が骨伝導スピーカ6bにより出力されることとなる。   In addition, other voices such as "I'm going up in the next step" and voices like "I'm going down in the second step" and voices such as "I'm going to turn on the next step" are output by the bone conduction speaker 6b The Rukoto.

(第1実施形態の第4利用態様)
次に、第1実施形態の第4利用態様について説明を行う。
(Fourth Use Mode of the First Embodiment)
Next, a fourth usage aspect of the first embodiment will be described.

まず、歩行支援装置1の利用者は、まず、マイク2に対して、例えば、迷子になったので、迎えに来て欲しい旨の音声情報を発声したとする。この際に、利用者は、歩行支援装置1の外部に送信する宛先情報を発声することとなる。そうすると、CPU4aは、音声情報が入力されたと判定する処理を行う(ステップS1=YES)。そして、CPU4aは、音声情報を解析する処理を行い(ステップS11)、音声情報を認識した場合(ステップS12=YES)には、歩行支援装置1の外部に送信するための送信情報を設定する(ステップS13)。ここでいう「送信情報」とは、迷子になったので、迎えに来て欲しい旨の情報と、GPS3により取得された現在位置情報と、宛先に関する情報が含まれる。   First, it is assumed that the user of the walking support device 1 first utters voice information to the microphone 2 to the effect that he / she wants to come to pick up, for example, because he is lost. At this time, the user utters destination information to be transmitted to the outside of the walking support device 1. Then, the CPU 4a performs a process of determining that voice information has been input (step S1 = YES). And CPU4a performs processing which analyzes voice information (Step S11), and when voice information is recognized (Step S12 = YES), sets up transmission information for transmitting to the exterior of walk supporting device 1 ( Step S13). The “transmission information” referred to here is a lost child, and thus includes information indicating that the user wants me to come to pick him up, the current position information acquired by the GPS 3, and information on the destination.

そして、CPU4aは、設定された宛先に対して、現在位置情報と、迷子になったので、迎えに来て欲しい旨の情報を送信する(ステップS8)。これにより、送信情報を受信した者は、迷子になった歩行支援装置1の利用者を迎えに行くことができる。   Then, the CPU 4a transmits the current position information and the information to the effect that the user wants to come to the pick-up to the set destination (step S8). Thereby, the person who has received the transmission information can pick up the user of the walk supporting device 1 who has become lost.

なお、設定された宛先に対して、迷子になったので、迎えに来て欲しい旨の情報を送信する際に、カメラ5により撮影した情報を併せて送信することとしてもよい。これにより、撮影した情報を見た者は、現在位置情報を見ることなく、歩行支援装置1の利用者を迎えに行くことができる場合がある。   In addition, since the child is lost with respect to the set destination, the information taken by the camera 5 may be transmitted together when transmitting the information to the effect that the user wants to be picked up. Thereby, a person who has seen the photographed information may be able to pick up the user of the walking support device 1 without looking at the current position information.

(第1実施形態の第5利用態様)
次に、第1実施形態の第5利用態様について説明を行う。
(Fifth Use Mode of the First Embodiment)
Next, the fifth usage aspect of the first embodiment will be described.

まず、第2実施形態における歩行支援装置1に、震災に関する情報を受信したとする(ステップS7)。そうすると、CPU4aは、RAM4cに記憶されている目的地情報を書き換える処理を行う。具体的には、CPU4aは、RAM4cに記憶されている現在位置情報に基づいて、現在位置から近い避難場所を検索する処理を行う。そして、CPU4aは、検索された避難場所を目的地情報としてRAM4cに記憶する処理を行う。   First, it is assumed that the walk support device 1 in the second embodiment receives the information on the earthquake (step S7). Then, the CPU 4a rewrites the destination information stored in the RAM 4c. Specifically, the CPU 4a performs a process of searching for an evacuation site near the current position based on the current position information stored in the RAM 4c. Then, the CPU 4a performs a process of storing the retrieved evacuation site as the destination information in the RAM 4c.

次に、CPU4aは、RAM4cに記憶されている現在位置情報と、目的地情報に基づいて、経路情報を設定し(ステップS5)、監視情報と、経路情報を骨伝導スピーカ6bに出力する処理を行う(ステップS7)。これらの処理により、歩行支援装置1の利用者を避難場所まで案内することができる。   Next, the CPU 4a sets the route information based on the current position information and the destination information stored in the RAM 4c (step S5), and outputs the monitoring information and the route information to the bone conduction speaker 6b. Perform (step S7). By these processes, the user of the walking support device 1 can be guided to the evacuation site.

(歩行支援装置1の装着態様)
次に、図8を用いて、歩行支援装置1の装着態様について説明を行う。なお、図8は、歩行支援装置1の装着態様の一例を示す図である。
(Attachment mode of the walking support device 1)
Next, a mounting mode of the walking support device 1 will be described with reference to FIG. In addition, FIG. 8 is a figure which shows an example of the mounting | wearing aspect of the walk assistance apparatus 1. As shown in FIG.

まず、利用者は、歩行支援装置1を着用し、ボタンを留める。次に、補聴器6の本体部6aを耳介と頭皮との間に挟んで装着する。そして、補聴器6のイヤホン6dを耳穴に装着する。そして、ドローストリング部11に設けられている紐を引くことで、ウエスト部分を絞めてウエスト部分を調整する。   First, the user wears the walking support device 1 and fastens the button. Next, the main body 6a of the hearing aid 6 is mounted between the auricle and the scalp. Then, the earphone 6d of the hearing aid 6 is attached to the ear hole. Then, by pulling a string provided in the drawstring portion 11, the waist portion is narrowed to adjust the waist portion.

一方で、着用している歩行支援装置1を脱ぐ場合には、まず、ドローストリング部11に設けられている紐を緩め、装着している補聴器6を取り外す。そして、留めてあるボタンを外し、歩行支援装置1を脱ぐ。   On the other hand, when taking off the walking support device 1 worn, first, the cord provided in the drawstring portion 11 is loosened, and the hearing aid 6 worn is removed. Then, the user holds the button and takes off the walking support device 1.

(第2実施形態)
次に、図9を用いて、第2実施形態について説明を行う。なお、図9(A)は、第2実施形態における歩行支援装置1の正面図の一例を示す図であって、図9(B)は、第2実施形態における歩行支援装置1の背面図の一例を示す図である。
Second Embodiment
Next, a second embodiment will be described using FIG. 9A is a view showing an example of a front view of the walking support device 1 in the second embodiment, and FIG. 9B is a rear view of the walking support device 1 in the second embodiment. It is a figure which shows an example.

第1実施形態における歩行支援装置1は、ノースリーブの衣類状の形状となっているのに対して、第2実施形態における歩行支援装置1は、帽子が付いた長袖の衣類状の形状となっている。   The walking support device 1 in the first embodiment is in the shape of a sleeveless clothing, whereas the walking support device 1 in the second embodiment is in the shape of a long sleeved clothing with a hat There is.

また、第2実施形態における歩行支援装置1は、正面部分に設けられた正面振動部15と、背面部分に設けられた背面振動部16と、右肩部分に設けられた右肩振動部17と、左肩部分に設けられた左肩振動部18が設けられている。   The walking support device 1 according to the second embodiment includes a front vibrating portion 15 provided on the front portion, a back vibrating portion 16 provided on the back portion, and a right shoulder vibrating portion 17 provided on the right shoulder portion. , And a left shoulder vibrating portion 18 provided in the left shoulder portion.

また、第2実施形態における歩行支援装置1の左腕部分には、言語選択ボタン19が設けられている。   Moreover, the language selection button 19 is provided in the left arm part of the walking assistance device 1 in the second embodiment.

(正面振動部15)
正面振動部15は、歩行支援装置1の正面に設けられており、歩行支援装置1の利用者を前方向に案内するために設けられている。具体的には、CPU4aは、利用者を前方向に誘導する際に、正面振動部15を振動させる制御を行うことにより、歩行支援装置1の利用者を前方に案内する。なお、正面振動部15は、歩行支援装置1の正面に設けられていれば、どのような位置に設けられていてもよい。
(Front vibration unit 15)
The front vibration unit 15 is provided on the front of the walking support device 1 and is provided to guide the user of the walking support device 1 in the forward direction. Specifically, the CPU 4a guides the user of the walking support device 1 forward by performing control to vibrate the front vibrating unit 15 when guiding the user in the forward direction. The front vibration unit 15 may be provided at any position as long as it is provided in front of the walking support device 1.

(背面振動部16)
背面振動部16は、歩行支援装置1の背面に設けられており、歩行支援装置1の利用者を後方向に案内するために設けられている。具体的には、CPU4aは、利用者を後方向に誘導する際に、背面振動部16を振動させる制御を行うことにより、歩行支援装置1の利用者を後方向に案内する。なお、背面振動部16は、歩行支援装置1の背面に設けられていれば、どのような位置に設けられていてもよい。
(Back vibration unit 16)
The back surface vibration unit 16 is provided on the back surface of the walking support device 1 and is provided to guide the user of the walking support device 1 in the backward direction. Specifically, the CPU 4a guides the user of the walking support device 1 in the backward direction by performing control to vibrate the back surface vibrating unit 16 when guiding the user in the backward direction. In addition, as long as the back surface vibration part 16 is provided in the back surface of the walk assistance apparatus 1, you may be provided in what kind of position.

(右肩振動部17)
右肩振動部17は、歩行支援装置1の右肩に設けられており、歩行支援装置1の利用者を右方向に案内するために設けられている。具体的には、CPU4aは、利用者を右方向に誘導する際に、右肩振動部17を振動させる制御を行うことにより、歩行支援装置1の利用者を右方向に案内する。なお、右肩振動部17は、歩行支援装置1の右側に設けられていれば、どのような位置に設けられていてもよい。例えば、右腕に設けられていてもよい。
(Right shoulder vibrator 17)
The right shoulder vibration unit 17 is provided on the right shoulder of the walking support device 1 and is provided to guide the user of the walking support device 1 in the right direction. Specifically, the CPU 4a guides the user of the walking support device 1 in the right direction by performing control to vibrate the right shoulder vibration unit 17 when guiding the user in the right direction. The right shoulder vibration unit 17 may be provided at any position as long as the right shoulder vibration unit 17 is provided on the right side of the walking support device 1. For example, it may be provided on the right arm.

(左肩振動部18)
左肩振動部18は、歩行支援装置1の左肩に設けられており、歩行支援装置1の利用者を左方向に案内するために設けられている。具体的には、CPU4aは、利用者を左方向に誘導する際に、左肩振動部18を振動させる制御を行うことにより、歩行支援装置1の利用者を左方向に案内する。なお、左肩振動部18は、歩行支援装置1の左側に設けられていれば、どのような位置に設けられていてもよい。例えば、左腕に設けられていてもよい。
(Left shoulder vibrator 18)
The left shoulder vibration unit 18 is provided on the left shoulder of the walking support device 1 and is provided to guide the user of the walking support device 1 in the left direction. Specifically, the CPU 4a guides the user of the walking support device 1 in the left direction by performing control to vibrate the left shoulder vibration unit 18 when guiding the user in the left direction. The left shoulder vibration unit 18 may be provided at any position as long as it is provided on the left side of the walking support device 1. For example, it may be provided on the left arm.

(言語選択ボタン19)
言語選択ボタン19は、第2実施形態における歩行支援装置1の左腕部分に設けられており、日本語と英語を切り替えるために設けられている。具体的には、歩行支援装置1は、言語の初期値として日本語が選択されている。そして、日本語が選択されている状態において、歩行支援装置1の利用者が言語選択ボタン19を操作することにより、日本語から英語に切り替える制御が行われる。一方で、英語が選択されている状態において、歩行支援装置1の利用者が言語選択ボタン19を操作することにより、英語から日本語に切り替える制御が行われる。なお、言語選択ボタン19が設けられる位置は、適宜設定可能である。
(Language selection button 19)
The language selection button 19 is provided on the left arm of the walking support device 1 in the second embodiment, and is provided to switch between Japanese and English. Specifically, in the walking support device 1, Japanese is selected as the initial value of the language. When the user of the walking support device 1 operates the language selection button 19 in a state where Japanese is selected, control to switch from Japanese to English is performed. On the other hand, when the user of the walking support device 1 operates the language selection button 19 in a state where English is selected, control to switch from English to Japanese is performed. The position where the language selection button 19 is provided can be set as appropriate.

なお、第2実施形態においては、言語選択ボタン19を操作することにより、日本語と英語を選択可能であるが、他の言語を選択可能としてもよい。例えば、フランス語、イタリア語、スペイン語、ポルトガル語、中国語等を選択可能としてもよい。   In the second embodiment, Japanese and English can be selected by operating the language selection button 19, but other languages may be selected. For example, French, Italian, Spanish, Portuguese, Chinese, etc. may be selectable.

(第2実施形態における第1利用態様)
次に、第2実施形態の第1利用態様について説明を行う。
(First usage mode in the second embodiment)
Next, the first utilization aspect of the second embodiment will be described.

歩行支援装置1の利用者は、まず、マイク2に対して、目的地に係る音声情報を発声する。そうすると、CPU4aは、音声情報が入力されたと判定する処理を行う(ステップS1=YES)。そして、CPU4aは、音声情報を解析する処理を行い(ステップS11)、音声情報を認識した場合(ステップS12=YES)には、目的地情報を設定する(ステップS13)。   First, the user of the walking support device 1 utters voice information relating to the destination to the microphone 2. Then, the CPU 4a performs a process of determining that voice information has been input (step S1 = YES). Then, the CPU 4a performs processing of analyzing voice information (step S11), and sets destination information (step S13) when voice information is recognized (step S12 = YES).

そして、CPU4aは、GPS3により利用者の現在位置情報を取得し(ステップS3)、カメラ5により監視情報を設定し(ステップS4)、現在位置情報と、目的地情報に基づいて、経路情報を設定する(ステップS5)。そして、CPU4aは、設定された経路情報と、監視情報を骨伝導スピーカ6bに出力する処理を行う(ステップS9)。   Then, the CPU 4a acquires the current position information of the user by the GPS 3 (Step S3), sets the monitoring information by the camera 5 (Step S4), and sets the route information based on the current position information and the destination information. (Step S5). Then, the CPU 4a performs a process of outputting the set path information and the monitoring information to the bone conduction speaker 6b (step S9).

ここで、CPU4aは、ステップS9の情報出力処理において、設定された経路情報と、監視情報を骨伝導スピーカ6bに出力する際に、正面振動部15、背面振動部16、右肩振動部17、左肩振動部18を振動させる制御を行う。具体的には、歩行支援装置1の利用者を前方向に案内する場合においては、正面振動部15を振動させる制御を行い、歩行支援装置1の利用者を後方向に案内する場合においては、背面振動部16を振動させる制御を行い、歩行支援装置1の利用者を右方向に案内する場合においては、右肩振動部17を振動させる制御を行い、歩行支援装置1の利用者を左方向に案内する場合においては、左肩振動部18を振動させる制御を行う。   Here, when the CPU 4a outputs the set path information and the monitoring information to the bone conduction speaker 6b in the information output process of step S9, the front vibration unit 15, the back vibration unit 16, the right shoulder vibration unit 17, Control to vibrate the left shoulder vibration unit 18 is performed. Specifically, in the case of guiding the user of the walking support device 1 in the forward direction, control is made to vibrate the front vibrating unit 15, and in the case of guiding the user of the walking support device 1 in the backward direction, When the back vibration unit 16 is controlled to vibrate and the user of the walking support device 1 is guided in the right direction, the right shoulder vibration unit 17 is controlled to vibrate and the user of the walking support device 1 is moved to the left In the case of guiding to the left, the control to vibrate the left shoulder vibration unit 18 is performed.

また、歩行支援装置1の利用者の歩行を停止させたい場合においては、正面振動部15、背面振動部16、右肩振動部17、及び左肩振動部18を同時に振動させる制御を行う。   When it is desired to stop the walking of the user of the walking support device 1, control is performed to simultaneously vibrate the front vibration unit 15, the back vibration unit 16, the right shoulder vibration unit 17, and the left shoulder vibration unit 18.

また、第2実施形態における歩行支援装置1は、帽子を被った状態で、補聴器6を装着することができるので、雨の日や、雪の日であっても、補聴器6が濡れてしまうことを防止することができる。   Moreover, since the walking support device 1 in the second embodiment can wear the hearing aid 6 in a state of wearing a hat, the hearing aid 6 gets wet even on rainy days or snow days. Can be prevented.

(第2実施形態における第2利用態様)
次に、第2実施形態の第2利用態様について説明を行う。
(Second Usage Mode in Second Embodiment)
Next, the second utilization mode of the second embodiment will be described.

歩行支援装置1の利用者は、まず、マイク2に対して、目的地に係る音声情報を発声する。そうすると、CPU4aは、音声情報が入力されたと判定する処理を行う(ステップS1=YES)。そして、CPU4aは、言語選択ボタン19により設定されている言語に基づいて、音声情報を解析する処理を行い(ステップS11)、音声情報を認識した場合(ステップS12=YES)には、目的地情報を設定する(ステップS13)。   First, the user of the walking support device 1 utters voice information relating to the destination to the microphone 2. Then, the CPU 4a performs a process of determining that voice information has been input (step S1 = YES). Then, the CPU 4a performs processing for analyzing voice information based on the language set by the language selection button 19 (step S11), and when voice information is recognized (step S12 = YES), destination information Are set (step S13).

そして、CPU4aは、GPS3により利用者の現在位置情報を取得し(ステップS3)、カメラ5により監視情報を設定し(ステップS4)、現在位置情報と、目的地情報に基づいて、経路情報を設定する(ステップS5)。そして、CPU4aは、言語選択ボタン19により設定されている言語に基づいて、設定された経路情報と、監視情報を骨伝導スピーカ6bに出力する処理を行う(ステップS9)。   Then, the CPU 4a acquires the current position information of the user by the GPS 3 (Step S3), sets the monitoring information by the camera 5 (Step S4), and sets the route information based on the current position information and the destination information. (Step S5). Then, based on the language set by the language selection button 19, the CPU 4a performs processing for outputting the set path information and the monitoring information to the bone conduction speaker 6b (step S9).

(第3実施形態)
次に、図10を用いて、第3実施形態について説明を行う。なお、図10(A)は、第3実施形態における歩行支援装置1の正面図の一例を示す図であって、図10(B)は、第3実施形態における歩行支援装置1の背面図の一例を示す図である。
Third Embodiment
Next, a third embodiment will be described using FIG. In addition, FIG. 10 (A) is a figure which shows an example of the front view of the walk assistance apparatus 1 in 3rd Embodiment, Comprising: FIG. 10 (B) is a rear view of the walk assistance apparatus 1 in 3rd Embodiment. It is a figure which shows an example.

第3実施形態における歩行支援装置1は、補聴器6と、第2補聴器20が設けられている。   The walking support device 1 in the third embodiment is provided with a hearing aid 6 and a second hearing aid 20.

(第2補聴器20)
第2補聴器20は、補聴器6と同様に、歩行支援装置1の利用者に対して、音声情報を出力するために設けられている。また、第2補聴器20は、難聴である利用者が音を認識し易くするために設けられている。
(2nd hearing aid 20)
Similar to the hearing aid 6, the second hearing aid 20 is provided to output audio information to the user of the walking support device 1. In addition, the second hearing aid 20 is provided in order to make it easier for the user who is deaf to recognize the sound.

また、第2補聴器20は、補聴器6と同様に、第2補聴器本体部20a(図示せず)と、第2補聴器骨伝導スピーカ20b(図示せず)と、第2補聴器イヤホンジャック20c(図示せず)と、第2補聴器イヤホン20d(図示せず)とにより構成されている。   Further, the second hearing aid 20, like the hearing aid 6, includes a second hearing aid main body 20a (not shown), a second hearing aid bone conduction speaker 20b (not shown), and a second hearing aid earphone jack 20c (not shown). And a second hearing aid earphone 20d (not shown).

(第2補聴器本体部20a)
第2補聴器本体部20aは、利用者が歩行支援装置1を利用する際に、耳介と頭皮との間に挟んで装着するために設けられている。ここで、本実施形態において、第2補聴器本体部20aは、外部からの音を集めるマイク部と、マイク部により集めた音の増幅、及び加工を行うアンプ部を備えている。なお、本実施形態において、第2補聴器本体部20aは、防水加工が施されている。
(Second hearing aid main body 20a)
The second hearing aid main body portion 20 a is provided to be held between the auricle and the scalp when the user uses the walking support device 1. Here, in the present embodiment, the second hearing aid main body 20a includes a microphone unit that collects sounds from the outside, and an amplifier unit that amplifies and processes the sound collected by the microphone unit. In the present embodiment, the second hearing aid main body 20a is waterproofed.

(第2補聴器骨伝導スピーカ20b)
第2補聴器骨伝導スピーカ20bは、歩行支援装置1の利用者に対して、音声情報を出力するために設けられている。ここで、第2補聴器骨伝導スピーカ20bにより、外耳や中耳を経由することなく、内耳のうずまき管に直接音の振動を伝達し、リンパ液中に浮かぶ聴覚神経が揺れることで音が聞こえることとなる。
(Second hearing aid bone conduction speaker 20b)
The second hearing aid bone conduction speaker 20 b is provided to output voice information to the user of the walking support device 1. Here, the second hearing aid bone conduction speaker 20b transmits the vibration of the direct sound to the spiral tube of the inner ear without passing through the outer ear and the middle ear, and can hear the sound by shaking the auditory nerve floating in the lymph fluid and Become.

(第2補聴器イヤホンジャック20c)
第2補聴器イヤホンジャック20cは、第2補聴器イヤホン20dを挿入するために設けられている。ここで、第2補聴器20の第2補聴器本体部20aに第2補聴器イヤホンジャック20cを設けることにより、第2補聴器イヤホン20dが故障した場合であっても、第2補聴器イヤホン20dを交換するだけで済むので、第2補聴器20全体を交換する場合と比較して修理費用が安価で済む。
(2nd hearing aid earphone jack 20c)
The second hearing aid earphone jack 20c is provided to insert a second hearing aid earphone 20d. Here, by providing the second hearing aid earphone jack 20c in the second hearing aid main body portion 20a of the second hearing aid 20, even if the second hearing aid earphone 20d breaks down, it is only by replacing the second hearing aid earphone 20d. Since the process is finished, the repair cost can be reduced compared to the case where the entire second hearing aid 20 is replaced.

(第2補聴器イヤホン20d)
第2補聴器イヤホン20dは、第2補聴器本体部20aに設けられているアンプ部により増幅、及び加工が行われた音を出力するために設けられている。
(2nd hearing aid earphone 20d)
The second hearing aid earphone 20 d is provided to output the sound that has been amplified and processed by the amplifier unit provided in the second hearing aid main body unit 20 a.

なお、第3実施形態においては、補聴器6と、第2補聴器20とが、それぞれ別のコネクタにより制御装置4に接続されているが、これに限定されることはなく、二股に分かれた一本のコネクタを用いることとしてもよい。これにより、制御装置4に接続するコネクタが一本となる。   In the third embodiment, the hearing aid 6 and the second hearing aid 20 are connected to the control device 4 by different connectors, respectively. However, the present invention is not limited to this and one bifurcated one It is possible to use a connector of Thereby, one connector is connected to the control device 4.

このように、第3実施形態において、第2補聴器20は、第2補聴器骨伝導スピーカ20bにより音声情報を出力するとともに、外部からの音を第2補聴器イヤホン20dにより出力することとなる。なお、第2補聴器骨伝導スピーカ20bを設けずに、音声情報と、外部からの音を第2補聴器イヤホン20dにより出力することとしてもよい。   As described above, in the third embodiment, the second hearing aid 20 outputs audio information by the second hearing aid bone conduction speaker 20 b and outputs an external sound by the second hearing aid earphone 20 d. In addition, it is good also as outputting audio | voice information and the sound from the outside by 2nd hearing aid earphone 20d, without providing 2nd hearing aid bone conduction speaker 20b.

また、第3実施形態においては、補聴器6が利用者の左耳に装着されることとなり、第2補聴器20が利用者の右耳に装着されることとなる。これにより、両耳が難聴である場合であっても、歩行支援装置1の利用が可能となる。   In the third embodiment, the hearing aid 6 is to be worn on the left ear of the user, and the second hearing aid 20 is to be worn on the right ear of the user. Thereby, even when both ears are deaf, the use of the walking support device 1 becomes possible.

このように、本発明によれば、GPS3により取得した経路情報と、カメラ5により撮影された情報を骨伝導スピーカ6bに出力することとなる。これにより、歩行支援装置1の利用者は、視覚に障害がある場合であっても、目的地まで容易に到達することができる。   As described above, according to the present invention, the route information acquired by the GPS 3 and the information captured by the camera 5 are output to the bone conduction speaker 6 b. As a result, the user of the walking support device 1 can easily reach the destination even when there is visual impairment.

また、本発明によれば、本体部6aに設けられているアンプ部により増幅、及び加工が行われた音が、イヤホン6dに出力されることとなるので、利用者が難聴である場合であっても、音を認識し易くすることができる。   Further, according to the present invention, the sound amplified and processed by the amplifier unit provided in the main unit 6a is output to the earphone 6d, which is a case where the user is deaf. Even in this case, the sound can be easily recognized.

また、本発明において、歩行支援装置1は、衣類状の形状からなり、右肩振動部17と、左肩振動部18が設けられており、利用者を右方向に案内する場合には、右肩振動部17を振動させる制御を行うとともに、利用者を左方向に案内する場合には、左肩振動部18を振動させる制御を行うので、歩行支援装置1の利用者が、目が見えず、かつ耳が聞こえない場合であっても、目的地まで案内することができる。   Furthermore, in the present invention, the walking support device 1 is in the shape of a garment, and is provided with the right shoulder vibrating portion 17 and the left shoulder vibrating portion 18, and when guiding the user in the right direction, the right shoulder When performing control to vibrate the vibrating portion 17 and performing control to vibrate the left shoulder vibrating portion 18 when guiding the user in the left direction, the user of the walking support device 1 can not see the eye and Even if you can not hear your ear, you can guide you to the destination.

なお、本実施形態において、「マイク2」は、本発明の「音声情報入力手段」を構成する。   In the present embodiment, the "microphone 2" constitutes the "voice information input means" of the present invention.

また、本実施形態において、「GPS3」は、本発明の「位置情報取得手段」を構成する。   Further, in the present embodiment, "GPS 3" constitutes "position information acquisition means" of the present invention.

また、本実施形態において、「制御装置4」は、本発明の「経路情報設定手段」を構成する。   Further, in the present embodiment, the "control device 4" constitutes "route information setting means" of the present invention.

また、本実施形態において、「カメラ5」は、本発明の「監視情報生成手段」を構成する。   Further, in the present embodiment, the "camera 5" constitutes the "monitoring information generating means" of the present invention.

また、本実施形態において、「補聴器6」は、本発明の「情報出力手段」を構成する。   Moreover, in the present embodiment, the "hearing aid 6" constitutes the "information output means" of the present invention.

また、本実施形態において、「本体部6a」は、本発明の「本体部」を構成する。   Further, in the present embodiment, the "main portion 6a" constitutes the "main portion" of the present invention.

また、本実施形態において、「骨伝導スピーカ6b」は、本発明の「第1出力部」を構成する。   Moreover, in the present embodiment, the "bone conduction speaker 6b" constitutes the "first output portion" of the present invention.

また、本実施形態において、「イヤホン6d」は、本発明の「第2出力部」を構成する。   Further, in the present embodiment, the “earphone 6 d” constitutes the “second output unit” of the present invention.

なお、本実施形態において、「右肩振動部17」は、本発明の「右肩振動部」を構成する。   In the present embodiment, the “right shoulder vibration part 17” constitutes the “right shoulder vibration part” of the present invention.

また、本実施形態において、「左肩振動部18」は、本発明の「左肩振動部」を構成する。   Further, in the present embodiment, the "left shoulder vibration unit 18" constitutes the "left shoulder vibration unit" of the present invention.

なお、上記実施形態や変形例で示した事項は、あくまで一例に過ぎず、本発明の範囲を逸脱しない範囲で、適宜変更可能である。   In addition, the matter shown by the said embodiment and modification is only an example to the last, and can be suitably changed in the range which does not deviate from the scope of the present invention.

1 歩行支援装置
2 マイク
2a 右側マイク
2b 左側マイク
3 GPS
3a 右側GPS
3b 左側GPS
4 制御装置
4a CPU
4b ROM
4c RAM
4d 人工知能
4e 内部バス
5 カメラ
5a 右側カメラ
5b 左側カメラ
6 補聴器
6a 本体部
6b 骨伝導スピーカ
6c イヤホンジャック
6d イヤホン
7 電力供給装置
8 ファスナー部
8a 右側ファスナー部
8b 左側ファスナー部
9 送信装置
10 受信装置
11 ドローストリング部
12 固定板
12a 右側固定板
12b 左側固定板
13 長袖部
13a 右側長袖部
13b 左側長袖部
14 取付金具
14a 右側取付金具
14b 左側取付金具
15 正面振動部
16 背面振動部
17 右肩振動部
18 左肩振動部
19 言語選択ボタン
20 第2補聴器
20a 第2補聴器本体部
20b 第2補聴器骨伝導スピーカ
20c 第2補聴器イヤホンジャック
20d 第2補聴器イヤホン
1 walking support device 2 microphone 2a right side microphone 2b left side microphone 3 GPS
3a Right GPS
3b Left GPS
4 Controller 4a CPU
4b ROM
4c RAM
4d artificial intelligence 4e internal bus 5 camera 5a right camera 5b left camera 6 hearing aid 6a body 6b bone conduction speaker 6c earphone jack 6d earphone 7 power supply device 8 fastener 8a right fastener 8b left fastener 9 transmitter 10 receiver 11 Drawstring part 12 Fixing plate 12a Right fixing plate 12b Left fixing plate 13 Long sleeve part 13a Right long sleeve part 13b Left long sleeve part 14 Mounting bracket 14a Right mounting bracket 14b Left mounting bracket 15 Front vibrating unit 16 Rear vibrating unit 17 Right shoulder vibrating unit 18 Left shoulder vibrator 19 language selection button 20 second hearing aid 20a second hearing aid main body 20b second hearing aid bone conduction speaker 20c second hearing aid earphone jack 20d second hearing aid earphone

このような課題を解決するために、本発明に係る歩行支援装置は、利用者の音声情報を入力する音声情報入力手段と、現在の位置情報を取得する位置情報取得手段と、前記位置情報取得手段により取得された前記位置情報と、前記音声情報入力手段により入力された前記音声情報とに基づいて、目的地までの経路情報を設定する経路情報設定手段と、利用者の前方を監視することにより、監視情報を生成する監視情報生成手段と、前記監視情報生成手段により生成された前記監視情報、及び前記経路情報設定手段により設定された前記経路情報を出力する情報出力手段と、震災に関する外部情報を受信する外部情報受信手段と、を備え、前記情報出力手段は、耳介と頭皮との間に挟んで装着される本体部と、前記監視情報、及び前記経路情報が出力される第1出力部と、外部から集められた音を増幅し、出力する第2出力部と、により構成されており、前記経路情報設定手段は、前記外部情報受信手段により前記外部情報を受信した場合に、目的地を避難場所に書き換えることを特徴とする。 In order to solve such a problem, the walk supporting device according to the present invention comprises: voice information input means for inputting voice information of a user; position information obtaining means for obtaining current position information; Route information setting means for setting route information to a destination based on the position information acquired by the means and the voice information inputted by the voice information input means, and monitoring the front of the user A monitoring information generation unit that generates monitoring information; an information output unit that outputs the monitoring information generated by the monitoring information generating unit; and the route information set by the route information setting unit ; comprising an external information receiving means for receiving external information, and the information output means includes a main body portion which is mounted across between the pinna and the scalp, the monitoring information, and the route information A first output unit to be outputted, amplifies the sound collected from the outside, and a second output unit for outputting are constituted by the path information setting means, the external information by the external information reception means It is characterized in that the destination is rewritten to the evacuation site when it is received .

Claims (2)

利用者の音声情報を入力する音声情報入力手段と、
現在の位置情報を取得する位置情報取得手段と、
前記位置情報取得手段により取得された前記位置情報と、前記音声情報入力手段により入力された前記音声情報とに基づいて、目的地までの経路情報を設定する経路情報設定手段と、
利用者の前方を監視することにより、監視情報を生成する監視情報生成手段と、
前記監視情報生成手段により生成された前記監視情報、及び前記経路情報設定手段により設定された前記経路情報を出力する情報出力手段と、
を備え、
前記情報出力手段は、
耳介と頭皮との間に挟んで装着される本体部と、
前記監視情報、及び前記経路情報が出力される第1出力部と、
外部から集められた音を増幅し、出力する第2出力部と、
により構成されていることを特徴とする歩行支援装置。
Voice information input means for inputting voice information of the user;
Position information acquisition means for acquiring current position information;
Route information setting means for setting route information to a destination based on the position information acquired by the position information acquisition means and the voice information inputted by the voice information input means;
Monitoring information generation means for generating monitoring information by monitoring in front of the user;
Information output means for outputting the monitoring information generated by the monitoring information generation means and the path information set by the path information setting means;
Equipped with
The information output means is
A main body that is mounted between the auricle and the scalp;
A first output unit to which the monitoring information and the route information are output;
A second output unit that amplifies and outputs a sound collected from the outside;
A walk supporting device comprising:
前記歩行支援装置は、
衣類状の形状からなり、
右肩部に設けられた右肩振動部と、
左肩部に設けられた左肩振動部と、
を更に備え、
前記情報出力手段は、
前記利用者を右方向に案内する場合には、前記右肩振動部を振動させる制御を行うとともに、前記利用者を左方向に案内する場合には、前記左肩振動部を振動させる制御を行うことを特徴とする請求項1に記載の歩行支援装置。
The walking support device is
It has a clothing-like shape,
A right shoulder vibrator provided on the right shoulder,
A left shoulder vibrator provided on the left shoulder;
And further
The information output means is
When guiding the user in the right direction, control is performed to vibrate the right shoulder vibration unit, and when guiding the user in the left direction, control is performed to vibrate the left shoulder vibration unit. The walking support device according to claim 1, characterized in that
JP2017244182A 2017-12-20 2017-12-20 Walking support device Pending JP2019107414A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017244182A JP2019107414A (en) 2017-12-20 2017-12-20 Walking support device
CN201810538147.4A CN109938972A (en) 2017-12-20 2018-05-30 Walk supporting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017244182A JP2019107414A (en) 2017-12-20 2017-12-20 Walking support device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019154007A Division JP2019213923A (en) 2019-08-26 2019-08-26 Walking support device

Publications (1)

Publication Number Publication Date
JP2019107414A true JP2019107414A (en) 2019-07-04

Family

ID=67006304

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017244182A Pending JP2019107414A (en) 2017-12-20 2017-12-20 Walking support device

Country Status (2)

Country Link
JP (1) JP2019107414A (en)
CN (1) CN109938972A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003098953A (en) * 2001-09-25 2003-04-04 Ricoh Co Ltd Visually impaired person supporting system, program and recording medium for realizing function of the same
JP2014137752A (en) * 2013-01-17 2014-07-28 Jb Craft:Kk Walking guidance system for people with visual impairment, walking guidance method for people with visual impairment, server and computer program executable on the same
JP2016067855A (en) * 2014-09-22 2016-05-09 達鋭 橋本 Walking guide device for sight disabled person
WO2016199248A1 (en) * 2015-06-10 2016-12-15 日立マクセル株式会社 Information presentation system and information presentation method
US20170249810A1 (en) * 2016-02-26 2017-08-31 At&T Intellectual Property I, L.P. Notification system with haptic feedback garment and methods for use therewith

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005009110A1 (en) * 2005-01-13 2006-07-27 Siemens Ag Device for communicating environmental information to a visually impaired person
CN203029570U (en) * 2013-01-12 2013-07-03 洪熙熙 Multifunctional walking stick
CN103385795B (en) * 2013-07-18 2015-07-08 杭州微感科技有限公司 Blind guide glasses based on motion sensor and work method of blind guide glasses
US9618611B2 (en) * 2014-09-24 2017-04-11 Nxp B.V. Personal radar assistance
CN205181733U (en) * 2015-03-30 2016-04-27 深圳赛米加科技有限公司 Blind device is led to wearing formula and position terminal thereof
CN107157717A (en) * 2016-03-07 2017-09-15 维看公司 Object detection from visual information to blind person, analysis and prompt system for providing
WO2017156021A1 (en) * 2016-03-07 2017-09-14 Wicab, Inc. Object detection, analysis, and alert system for use in providing visual information to the blind
CN205964412U (en) * 2016-05-17 2017-02-22 浙江工商大学 Blind knapsack is led to intelligence
CN107007437A (en) * 2017-03-31 2017-08-04 北京邮电大学 Interactive blind person's householder method and equipment

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003098953A (en) * 2001-09-25 2003-04-04 Ricoh Co Ltd Visually impaired person supporting system, program and recording medium for realizing function of the same
JP2014137752A (en) * 2013-01-17 2014-07-28 Jb Craft:Kk Walking guidance system for people with visual impairment, walking guidance method for people with visual impairment, server and computer program executable on the same
JP2016067855A (en) * 2014-09-22 2016-05-09 達鋭 橋本 Walking guide device for sight disabled person
WO2016199248A1 (en) * 2015-06-10 2016-12-15 日立マクセル株式会社 Information presentation system and information presentation method
US20170249810A1 (en) * 2016-02-26 2017-08-31 At&T Intellectual Property I, L.P. Notification system with haptic feedback garment and methods for use therewith

Also Published As

Publication number Publication date
CN109938972A (en) 2019-06-28

Similar Documents

Publication Publication Date Title
JP6522527B2 (en) Wearable smart device for hazard detection and warning based on image and audio data
US10674258B2 (en) Voice processing system
WO2016099052A1 (en) Three-dimensional guidance device for informing visually handicapped person of obstacle, guidance system for providing surrounding information using same, and method therefor
WO2016086440A1 (en) Wearable guiding device for the blind
US9488833B2 (en) Intelligent glasses for the visually impaired
KR20100123036A (en) Walking assistance device
KR101885473B1 (en) Smart glass to help visually impaired
US20140146974A1 (en) Method and system for testing a hearing device from a remote location
KR102025832B1 (en) Smart cane
JP2018078398A (en) Autonomous assistant system using multifunctional earphone
KR20190111262A (en) Portable device for measuring distance from obstacle for blind person
KR102351584B1 (en) System for providing navigation service for visually impaired person
US11264035B2 (en) Audio signal processing for automatic transcription using ear-wearable device
Vítek et al. New possibilities for blind people navigation
JP2022542747A (en) Earplug assemblies for hear-through audio systems
US3183312A (en) Method and apparatus for improving hearing
JP2019213923A (en) Walking support device
JP2019040005A (en) Reading aloud system and reading aloud method
KR20190004490A (en) Walking guide system
JP2019107414A (en) Walking support device
TW201731307A (en) Audition assistant system and electronic device employing same
US20200077183A1 (en) Information processing apparatus and control method therefor, and recoding medium
KR20130131511A (en) Guide apparatus for blind person
JP2022526702A (en) 3D sound device for the blind and visually impaired
US9426584B2 (en) Direction indicative hearing apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190111

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190528