JP5181200B2 - Navigation system for visually impaired people and method of operating the same - Google Patents
Navigation system for visually impaired people and method of operating the same Download PDFInfo
- Publication number
- JP5181200B2 JP5181200B2 JP2006201818A JP2006201818A JP5181200B2 JP 5181200 B2 JP5181200 B2 JP 5181200B2 JP 2006201818 A JP2006201818 A JP 2006201818A JP 2006201818 A JP2006201818 A JP 2006201818A JP 5181200 B2 JP5181200 B2 JP 5181200B2
- Authority
- JP
- Japan
- Prior art keywords
- visually impaired
- point
- along
- sound
- navigation system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Navigation (AREA)
- Traffic Control Systems (AREA)
Description
本発明は視覚障害者向けのナビシステム及びその作動方法に係り、特に、音声の定位を利用して空間認識を支援することによる視覚障害者向けのナビシステム及びその作動方法に関するものである。
The present invention relates to a navigation system for visually handicapped persons and an operating method thereof , and more particularly to a navigation system for visually handicapped persons by supporting spatial recognition using sound localization and an operating method thereof .
ナビシステムはユーザ(視覚障害者)を目的地に誘導するために地図、道路状況などの空間情報を与えるものであり、そのため一般には、ユーザが目的地を告げると(ステップ0)、ユーザの現在位置を認知し(ステップ1)、ユーザの進行すべきルートと途中のポイント(交差点、横断歩道、階段など)を決定し(ステップ2)、ユーザの進行による現在位置をトレースし(ステップ3)、ユーザが次のポイントに到達すると、そのポイントの属性データ(位置、形状など)をユーザに伝達し、表示する(ステップ4)必要がある。 The navigation system gives spatial information such as a map and road conditions to guide the user (visually impaired person) to the destination. Therefore, generally, when the user tells the destination (step 0), the current state of the user Recognize the position (Step 1), determine the route that the user should proceed and the way point (intersection, pedestrian crossing, stairs, etc.) (Step 2), trace the current position by the user's progression (Step 3), When the user reaches the next point, the attribute data (position, shape, etc.) of that point needs to be transmitted to the user and displayed (step 4).
このうちステップ1、3に対しては、最近はGPS(衛星による位置決めシステム)、及び/又は携帯電話によるものが各種提案されている。
(ここで「携帯電話」は狭義の音声だけではなく、画像などのデジタルデータの送受信を扱う「移動無線」又は「移動通信」を表わすものとする。)
またステップ2に対しては、ユーザが携帯する携帯電話端末のCPUと、それが携帯電話網を介して接続されたサーバとの協働によるものが各種提案されている。
またステップ4に対しては、健常者を対象とする場合は、カーナビに代表されるように、地図・見取り図などの視覚的表示が可能である。
Of these, for
(Here, “mobile phone” represents not only voice in a narrow sense but also “mobile radio” or “mobile communication” that handles transmission and reception of digital data such as images.)
For Step 2, various proposals have been made by cooperation of a CPU of a mobile phone terminal carried by a user and a server to which the CPU is connected via a mobile phone network.
Further, for step 4, when a healthy person is targeted, a visual display such as a map or a sketch is possible as represented by a car navigation system.
しかしながらユーザが視覚障害者の場合は、ステップ4において視覚的表示が不可能であるので、視覚的表示以外の表示、多くの場合聴覚的表示に頼ることになる。
それだけでなく、健常者にとっては視覚的に自明な情報を、詳細に伝達しなければならない。
そこで、このような視覚障害者向けナビシステムとして各種のものが提案されている。
However, if the user is a visually handicapped person, visual display is impossible in step 4, and therefore, a display other than the visual display, and in many cases, an audio display is relied upon.
Not only that, it is necessary to convey in detail information that is visually obvious for healthy individuals.
Accordingly, various navigation systems for such visually impaired people have been proposed.
そのうち最も基本的でかつ普及しているのが、歩道に敷設された視覚障害者用誘導ブロックであるといえる。
この場合、対象とする視覚障害者(以下、単にユーザという)が杖先で誘導ブロックに触るという触覚的表示により、ステップ0とステップ4に係る情報の一部が伝えられる。
ただし、通常の誘導ブロックにはステップ1〜3が無いので、ユーザの現在位置の決定、進行すべきルートの決定などはユーザ自身の記憶に頼るしかない。
Among them, the most basic and widespread is the visually impaired guide block laid on the sidewalk.
In this case, a part of the information related to Step 0 and Step 4 is conveyed by a tactile display that a visually impaired person (hereinafter simply referred to as a user) touches the guide block with the tip of the cane.
However, since there are no
例えば特許文献1〜3には、誘導ブロックと杖先に非接触型ICチップ(タグとタグリーダ)などの信号授受回路を埋め込み、これを介してユーザとサーバの間に音声通信ネットワークを形成したナビシステムが開示されている。
本方式によれば、ステップ1〜3に係る情報をユーザに伝達することができる。
本方式は、誘導ブロックという既存のインフラを活用するものであるが、非接触型ICチップの埋め込み及びサーバとの通信回線の形成など誘導ブロックに関連して膨大な追加インフラを必要とするという問題がある。
For example, in
According to this method, the
This method uses the existing infrastructure called the guidance block, but it requires a huge additional infrastructure related to the guidance block, such as embedding a non-contact type IC chip and forming a communication line with the server. There is.
そこでステップ1〜3に係るインフラ投資を最小限に抑えるためには、携帯電話及び/又はGPSを用いる方法が有力である。
例えば、特許文献4、5には各々、携帯電話網、GPSと携帯電話網、による方法が開示されており、さらに特許文献6には、携帯電話網に加えてその携帯電話端末のデジタルカメラ機能を活用する方法が開示されている。
Therefore, in order to minimize the infrastructure investment related to
For example, Patent Documents 4 and 5 each disclose a method using a mobile phone network, GPS and a mobile phone network, and Patent Document 6 further discloses a digital camera function of the mobile phone terminal in addition to the mobile phone network. A method of utilizing is disclosed.
以上の従来技術に共通するのは、ステップ3が聴覚的表示に依存し、しかも通常の音声表示に依存していることである。
ステップ3でユーザに伝えたい情報は殆ど全て視覚的・空間的情報であり、これを音声情報に変換するのは一般に非効率的かつ不正確になり易い。
What is common to the above prior art is that step 3 relies on auditory display and also on normal audio display.
The information that is desired to be transmitted to the user in step 3 is almost all visual / spatial information, and converting this into audio information is generally inefficient and inaccurate.
特許文献7には、次のポイント(交差点、障害物など)までの距離を音声ではなく、音の高低に変換し、ポイントの種類を音色の差に変換して伝える技術が開示されている。
また特許文献8には、同様のポイントまでの距離を音の仰角に変換して伝える技術が開示されている。
両者ともにユーザが専用のステレオヘッドフォンを着用することを想定しており、音の水平面上での方角はポイントの方向に一致させる。
Patent Document 7 discloses a technique for converting the distance to the next point (intersection, obstacle, etc.) into a pitch rather than a voice and converting the type of the point into a timbre difference.
Japanese Patent Application Laid-Open No. H10-228561 discloses a technique for transmitting a distance to a similar point by converting it to an elevation angle of sound.
In both cases, it is assumed that the user wears dedicated stereo headphones, and the direction of the sound on the horizontal plane matches the direction of the point.
しかしながら、このようにポイントまでの距離を音の高低や仰角に変換すると、ユーザの認識が困難になりがちで、かえって致命的な誤解を招く恐れがある。
また、道路、横断歩道、歩道橋、駅のプラットフォームなどのように長さ・幅のあるポイントの表現が困難である。
However, if the distance to the point is converted into a pitch or an elevation angle in this way, the user's recognition tends to be difficult, which may lead to a fatal misunderstanding.
Also, it is difficult to express points with length and width such as roads, pedestrian crossings, pedestrian bridges, and station platforms.
上記のような視覚障害者向けナビシステムにおける諸問題、特に上記のステップ5に係る諸問題を解決するためになされた本発明の目的は、ユーザである視覚障害者にとって不可欠の視覚的空間的情報を、聴覚を通じて効率的かつ正確に伝えることができる視覚障害者向けナビシステムを提供することにある。 The object of the present invention, which has been made to solve the problems in the navigation system for the visually impaired as described above, in particular, the problems related to step 5 described above, is the visual spatial information essential for the visually impaired person who is the user. The object is to provide a navigation system for visually handicapped persons who can efficiently and accurately convey information through hearing.
本発明の他の目的は、ユーザである視覚障害者が不可欠の視覚的空間的情報を聴覚を通じて簡明かつ自然に認識できる視覚障害者向けナビシステムを提供することにある。 Another object of the present invention is to provide a navigation system for visually handicapped persons that enables a visually handicapped person who is a user to recognize essential visual spatial information in a simple and natural manner through hearing.
上記の課題を解決するためになされた本発明による視覚障害者向けナビシステムは請求項1に示すように、携帯電話網、又は携帯電話網とGPSを用いた視覚障害者用ナビシステムであって、視覚障害者をナビするためのポイントの外形を形作っている線からなる輪郭を含む空間情報が、前記携帯電話網を介して接続されたサーバから、音像定位位置が前記輪郭に沿って移動する音源によって前記視覚障害者に伝えられ、前記ポイントが空間的拡がりを有するポイントと、その一部であって前記視覚障害者の進行すべき経路を形成するポイントとからなることを特徴とする。
A navigation system for visually impaired persons according to the present invention, which has been made to solve the above-mentioned problems, is a navigation system for visually impaired persons using a mobile phone network or a mobile phone network and GPS, as shown in
また請求項2に示す視覚障害者向けナビシステムの作動方法は好ましくは、少なくとも、前記視覚障害者が装着する、前記携帯電話網を介して音声及びデータ受発信が可能であり、かつ方位センサを内蔵するヘッドセットと、前記ヘッドセットと前記携帯電話網を介して接続されたサーバを含む請求項1に記載の視覚障害者向けナビシステムにおいて、視覚障害者が携帯電話端末を介してサーバに目的地を告げる段階と、サーバが前記携帯電話網及び/又はGPSを介してヘッドセットの位置を検出し、前記方位センサにより視覚障害者の方向を検出して視覚障害者の現在位置と進行方向を認知する段階と、サーバが目的地に至るルートと途中に前記ポイントを決定する段階と、サーバが視覚障害者の進行による現在位置を携帯電話網、又はGPSを介してトレースする段階と、視覚障害者が前記ポイントに到達すると、サーバが前記ポイントの前記輪郭を含む属性データを前記ヘッドセットに送信する段階と、前記ヘッドセットが、前記ポイントの輪郭を音像定位位置が前記輪郭に沿って移動する音源からの音に変換して視覚障害者に伝える段階と、を含むことを特徴とする。
The operation method of the navigation system for a visually impaired person according to claim 2 is preferably at least capable of transmitting and receiving voice and data via the mobile phone network, which is worn by the visually impaired person, and a direction sensor. a headset having a built-in visual disabilities navigation system according to a server connected via the cellular telephone network and the
また請求項3に示すように、前記音像定位された音源からの音は、視覚障害者の頭部伝達関数をシミュレートするフィルタ演算により原音から算出されることを特徴とする。 According to a third aspect of the present invention, the sound from the sound source that has been localized is calculated from the original sound by a filter operation that simulates a head-related transfer function of a visually impaired person.
また請求項4に示す視覚障害者向けナビシステムの作動方法は好ましくは、前記ポイントが道路であり、前記音源の音像定位位置が、前記道路の、視覚障害者の現在位置に近い側の辺(辺Aとする)の現在位置に最も近い位置からスタートして、第1の音色で辺Aに沿って長手方向に移動し、第2の音色で道路を幅方向に横断し、第3の音色で現在位置と反対側の道路の辺(辺Bとする)に沿って長手方向に移動し、現在位置の向かい側を経てさらに辺Bに沿って移動し、第4の音色で道路を幅方向に横断し、第5の音色で辺Aに沿って長手方向に移動しスタート位置に戻ることにより前記ポイントの輪郭を視覚障害者に伝えた後、第6の音色で横断歩道の辺A側の位置から横断歩道に沿って横断報道の辺B側の位置に移動することにより前記ポイントの輪郭の内部に設定された前記横断歩道を含む経路を視覚障害者に伝える、ことを特徴とする。 Preferably, in the operation method of the navigation system for the visually impaired person according to claim 4, the point is a road, and the sound image localization position of the sound source is a side near the current position of the visually impaired person on the road ( Starting from the position closest to the current position of side A), moving in the longitudinal direction along side A with the first timbre, crossing the road in the width direction with the second timbre, and the third timbre Move in the longitudinal direction along the side of the road opposite to the current position (referred to as side B), move further along side B through the opposite side of the current position, and move the road in the width direction with the fourth tone traversed, after conveyed the outline of a fifth said point by Rukoto return to the start position to move longitudinally along the side a by the voice of the visually impaired, the side a side of the crosswalk sixth tone before by moving the position of the side B-side of the cross-coverage along the crosswalk from the position Convey path including the pedestrian crossing that is set inside the point of the contour in the visually impaired, characterized in that.
また請求項5に示す視覚障害者向けナビシステムの作動方法は好ましくは、前記ポイントが駅のプラットフォームであり、前記音源は、前記駅のプラットフォームの、視覚障害者の現在位置に近い側の辺(辺Cとする)の現在位置に最も近い位置からスタートして、第7の音色で辺Cに沿って長手方向に移動し、第8の音色で駅のプラットフォームを幅方向に横断し、第9の音色で現在位置と反対側の駅のプラットフォームの辺(辺Dとする)に沿って長手方向に移動し、現在位置の向かい側を経てさらに辺Dに沿って移動し、第10の音色で駅のプラットフォームを幅方向に横断し、第11の音色で辺Cに沿って長手方向に移動しスタート位置に戻ることにより前記ポイントの輪郭を視覚障害者に伝えた後、第12の音色でプラットフォーム上の階段位置を示すことにより前記ポイントの輪郭の内部に設定された前記階段の位置を視覚障害者に伝える、ことを特徴とする。
Preferably , the navigation system for a visually impaired person according to claim 5 is preferably configured such that the point is a platform of a station, and the sound source is a side of the station platform on the side close to the current position of the visually impaired person ( Starting from the position closest to the current position of side C), moving in the longitudinal direction along side C with the seventh tone, crossing the station platform in the width direction with the eighth tone, Move in the longitudinal direction along the side of the station platform (side D) opposite to the current position, and move further along side D through the opposite side of the current position. platform and cross in the width direction, after conveyed the contour of the points by Rukoto return to the start position to move longitudinally along the side C at the 11 tone of the visually impaired, Pratt twelfth tone Four Convey the position of the stairs, which are set inside of the contour of said point by indicating the stairway position above the visually impaired, characterized in that.
また請求項6に示すように、音像定位位置が前記輪郭に沿って移動する前記音源の音色が、前記輪郭に沿って一定の距離ごとに発せられる断続音を含むことを特徴とする。 According to a sixth aspect of the present invention, the timbre of the sound source whose sound image localization position moves along the contour includes an intermittent sound that is emitted at a certain distance along the contour.
本発明による視覚障害者向けのナビシステムによれば、ルートや途中のポイント等の対象物の輪郭を含む空間情報が、音像定位位置が前記輪郭に沿って移動する音源によって前記視覚障害者に伝えられるので、ユーザである視覚障害者にとって不可欠の視覚的空間的情報を、聴覚を通じて効率的かつ正確に伝えることができる。
また、本発明による視覚障害者向けのナビシステムによれば、ルートや途中のポイント等の対象物の輪郭を含む空間情報を伝えるために、音源の音像定位位置が前記輪郭に沿って移動している途中で、ユーザである視覚障害者が顔の向きを変えても、音源の音像定位位置が実際の対象物の輪郭の位置に合致するようにリアルタイムで変更されるので、ユーザである視覚障害者は不可欠の視覚的空間的情報を聴覚を通じて簡明にかつ自然に認識できる。
According to the navigation system for visually impaired persons according to the present invention, spatial information including the outline of an object such as a route or a point on the way is transmitted to the visually impaired person by a sound source whose sound image localization position moves along the outline. Therefore, visual and spatial information indispensable for the visually impaired person who is a user can be transmitted efficiently and accurately through hearing.
Further, according to the navigation system for visually impaired persons according to the present invention, the sound image localization position of the sound source moves along the contour in order to convey spatial information including the contour of the object such as a route or a point on the way. Even if the visually impaired person who is the user changes the direction of the face, the sound image localization position of the sound source is changed in real time so that it matches the actual contour position of the target object. The person can easily and naturally recognize essential visual and spatial information through hearing.
以下、本発明に係る実施の形態と効果を、図を参照して具体的に説明する。 Hereinafter, embodiments and effects according to the present invention will be specifically described with reference to the drawings.
図1は本実施例に係る視覚障害者用ナビシステムの構成図である。
視覚障害者(以下「ユーザ」という)1は、ヘッドセット10を装着し、携帯電話端末19を所持する。
FIG. 1 is a configuration diagram of a navigation system for the visually impaired according to the present embodiment.
A visually impaired person (hereinafter referred to as “user”) 1 wears a
ヘッドセット10は、左右のイヤフォン11、12、マイクロフォン13とイヤフォン12に内蔵されたMCU(マイクロコンピュータユニット、図示せず)からなり、携帯電話端末19とは、例えばUSBケーブル15で接続されている。
ヘッドセット10には、さらにその絶対方位を判定できる磁気センサ又はジャイロセンサからなる方位センサ(図示せず)が搭載されている。
The
The
携帯電話端末19は基地局20、携帯電話網30を介してサーバ40に接続されており、一方ヘッドセット10のMCUはGPS衛星25と交信して自分の絶対位置を判定するGPS機能を有する。
The
図2は本実施例に係る視覚障害者用ナビシステムの動作フロー図である。
最初にステップS0では、ユーザ1が携帯電話端末を通じてサーバ40を呼び出し、目的地を告げる。
FIG. 2 is an operation flowchart of the navigation system for the visually impaired according to the present embodiment.
First, in step S0, the
サーバの呼出しは、通常の方法で携帯電話をかけることによってもよいし、ユーザの発声をマイクロフォン13で拾い、MCUで音声認識し、サーバへの発信命令に変換することによってもよい。
その際いずれにしても、目的地のライブラリが予めユーザごとに登録されていることが望ましい。
The server may be called by placing a mobile phone in a normal manner, or by picking up the user's utterance with the
In any case, it is desirable that the destination library is registered in advance for each user.
ステップS1では、サーバ40がユーザ1の現在位置を認知する。
認知方法は、携帯電話網による方法、即ち、最寄の複数の基地局20で得られるユーザ(携帯電話端末19)までの距離情報による方法と、ヘッドセットのMCUで得たGPS情報による方法と、これらの統合による方法がある。
In step S1, the
The recognition method includes a method using a mobile phone network, that is, a method using distance information to a user (mobile phone terminal 19) obtained by a plurality of
ステップS2では、サーバ40が、上記ユーザの現在位置と目的地情報に基き、視覚障害者の進行に最適のルートと、そのルート上のポイントを決定する。
ポイントとしては、道路、交差点、横断歩道、バス停留所、駅のプラットフォーム、駅の階段、駅の改札口などがあり、この他、途中で休憩可能な公園、ベンチなどがある。
In step S <b> 2, the
Points include roads, intersections, pedestrian crossings, bus stops, station platforms, station stairs, station ticket gates, and other parks and benches where you can rest along the way.
ステップS3では、ステップS1と同じく携帯電話網及び/又はGPSにより、サーバ40がユーザ1の現在位置をトレースする。
In step S3, the
ステップS4では、トレースの結果、ユーザ1があるポイントに到達すると、そのポイントの属性データを携帯電話端末を通じ、ヘッドセットのMCUに伝達する。
ポイントの属性データとしては、そのポイントの名称に加えてその位置、輪郭などの空間的情報を含む。
In step S4, when the
The point attribute data includes spatial information such as the position and outline in addition to the name of the point.
これらの空間的情報は、健常者に対しては、自明か又は視覚的に容易に表示できるが、本発明の対象とする視覚障害者に対しては、一般に表示が困難なものである。
ステップS5では、ヘッドセットのMCUが、上記ポイントの空間的情報を聴覚情報に翻訳してイヤフォン11、12を通じてユーザに伝える。
Such spatial information is obvious or can be visually easily displayed for a healthy person, but is generally difficult to display for a visually handicapped subject of the present invention.
In step S5, the MCU of the headset translates the spatial information of the points into auditory information and transmits it to the user through the
上記翻訳に当たっては、最初に、上記ポイントの空間情報が、上記方位センサにより得られるヘッドセット、即ちユーザの顔面の絶対方位に合わせて、ユーザの現在位置・方位での相対空間情報に変換される。
次に相対空間情報に変換されたポイントの輪郭が、音像定位位置が前記輪郭に沿って移動する音源からの音に変換されることにより行われる。
In the translation, first, the spatial information of the point is converted into relative spatial information at the current position and orientation of the user in accordance with the headset obtained by the orientation sensor, that is, the absolute orientation of the user's face. .
Next, the contour of the point converted into the relative space information is performed by converting the sound image localization position into a sound from a sound source that moves along the contour.
前記音像定位された音源からの音は、視覚障害者の頭部伝達関数(HRTF:Head−Related Transfer Function)をシミュレートするフィルタ演算により原音から算出される。 The sound from the sound source that has been localized is calculated from the original sound by a filter operation that simulates a head-related transfer function (HRTF) of a visually impaired person.
音像定位に当たっては、音源から左右の両耳までの距離に応じて、両耳各々の鼓膜に伝える信号(音波)の位相と強度を変えるだけでは不十分であり、ユーザの頭部の各部位(頭蓋骨の各部位及び左右の耳たぶ等)で受信され変調されて伝搬され、最終的に鼓膜に到達する音波を重畳しなければならないし、さらには場合によっては、地面や周囲の壁面からの反射音も考慮しなければならない、ことが知られている。 For sound image localization, it is not sufficient to change the phase and intensity of the signal (sound wave) transmitted to each eardrum according to the distance from the sound source to the left and right ears. Each part of the skull and the left and right earlobe) received, modulated and propagated, and finally the sound waves that reach the eardrum must be superimposed, and in some cases, reflected sound from the ground and surrounding walls It is known that must also be considered.
そこで、音源からユーザの両耳の間の中央部に置いた仮想的な点までの距離と方向に応じた仮想受信信号を算出し、さらにこの仮想受信信号から、左右各々の鼓膜で受信すべき信号を算出する(フィルタ演算する)頭部伝達関数が定義される。
左鼓膜用頭部伝達関数と右鼓膜用頭部伝達関数は、両耳の中央に置いた平面に関して厳密には対称ではなく、その非対称性にはユーザにより個人差がある。
Therefore, a virtual reception signal corresponding to the distance and direction from the sound source to the virtual point placed at the center between the user's ears should be calculated, and further received from the virtual reception signal by the left and right eardrums. A head related transfer function for calculating (filtering) the signal is defined.
The left eardrum head transfer function and the right eardrum head transfer function are not strictly symmetric with respect to the plane placed at the center of both ears, and the asymmetry varies depending on the user.
頭部伝達関数は、標準的な形式が各種データベースとなって公開されているが、いずれも厳密にはユーザの頭部各部位の形状によって若干異なるので、上記左右間の非対称性を含めて、本関数に持たせたパラメータ値をユーザごとに調節するのが望ましい。 The head-related transfer functions have been published in various databases in a standard format, but strictly speaking, they are slightly different depending on the shape of each part of the user's head. It is desirable to adjust the parameter value given to this function for each user.
また、地面や周囲の壁面からの反射音の影響については、本実施例の場合、例えば、屋外の舗装道路面がユーザの身長分だけ低い位置にあることを想定して仮想受信信号を予め反射音を重畳した形に変調しておくのが望ましい。 As for the influence of the reflected sound from the ground and surrounding wall surfaces, in this embodiment, for example, the virtual reception signal is reflected in advance assuming that the outdoor paved road surface is at a position lower by the user's height. It is desirable to modulate the sound into a superimposed form.
音楽などの臨場感を上げるための音像定位の場合は、音源とユーザの相対位置は固定されているが、本実施例の場合は、音源をユーザに対して、対象とするポイントの輪郭に沿って移動させながら上記のフィルタ演算を繰り返す。 In the case of sound image localization for enhancing the sense of presence, such as music, the relative position of the sound source and the user is fixed, but in this embodiment, the sound source is directed to the user along the contour of the target point. The above filter operation is repeated while moving.
従って、上記の音像定位位置が前記輪郭に沿って移動する音源からの音が発生している最中に、ユーザが顔の向きを変更した場合はヘッドセットの絶対方位の変更となり、上記相対空間情報への変換もリアルタイムで変更されなければならない。 Therefore, if the user changes the orientation of the face while the sound from the sound source where the sound image localization position moves along the contour is generated, the absolute orientation of the headset is changed, and the relative space is changed. The conversion to information must also be changed in real time.
図3は、上記のポイントが道路とその横断歩道である場合の、聴覚情報への翻訳の具体例である。
ユーザ1が道路50の横断歩道51に近い地点に到達している。
FIG. 3 is a specific example of translation into auditory information when the above points are a road and its pedestrian crossing.
The
この場合、前記音源の音像定位位置が、矢印e1で示すように、ユーザの現在位置に近い側の道路辺Aの、ユーザの現在位置に最も近い位置からスタートして、第1の音色で辺Aに沿って長手方向に移動し、矢印e2で示すように、第2の音色で道路を幅方向に横断し、矢印e3で示すように、第3の音色で現在位置と反対側の道路の辺Bに沿って長手方向に移動し、現在位置の向かい側を経てさらに辺Bに沿って移動し、矢印e4で示すように、第4の音色で道路を幅方向に横断し、矢印e5で示すように、第5の音色で辺Aに沿って長手方向に移動しスタート位置に戻った後、矢印e6で示すように、第6の音色で横断歩道の辺A側の位置から横断歩道に沿って横断報道の辺B側の位置に移動する。 In this case, the sound image localization position of the sound source starts from a position closest to the user's current position on the road side A close to the user's current position, as indicated by an arrow e1, and is A in the longitudinal direction along A, cross the road in the width direction with the second tone as shown by arrow e2, and as shown by arrow e3 in the road opposite to the current position with the third tone. It moves in the longitudinal direction along the side B, moves further along the side B through the opposite side of the current position, crosses the road in the width direction with the fourth tone as shown by the arrow e4, and shows by the arrow e5 Thus, after moving in the longitudinal direction along the side A with the fifth tone and returning to the start position, as indicated by the arrow e6, along the sidewalk from the position on the side A side of the pedestrian crossing with the sixth tone To move to the side B side of the news report.
一般にユーザは音源の方向、この場合、音像定位位置の方向に顔を向ける傾向がある。例えば、最初ユーザが図3に示すように道路の対岸、即ち正面を向いている場合でも、音像定位位置が矢印e1で示すように移動すると、ユーザは矢印e1に沿って顔の向きを変える場合がある。
従って、例えば矢印e1の終点でユーザの顔の向きが矢印e1の終点の方向、即ち図3でユーザ自身から見て左方を向いている場合は、音像定位位置は図3に示すようにユーザの左方ではなく、ユーザの正面になるように(リアルタイムで)変更される。
In general, the user tends to turn his face toward the direction of the sound source, in this case, the direction of the sound image localization position. For example, even when the user first faces the opposite bank of the road as shown in FIG. 3, that is, when the sound image localization position moves as indicated by the arrow e1, the user changes the face direction along the arrow e1. There is.
Therefore, for example, when the direction of the user's face at the end point of the arrow e1 is in the direction of the end point of the arrow e1, that is, toward the left as viewed from the user in FIG. 3, the sound image localization position is as shown in FIG. Is changed to be in front of the user instead of to the left of (in real time).
これにより、ユーザ1は道路50の輪郭と横断歩道51の位置関係を聴覚的に知ることができる。
矢印e3の部分が矢印e1、e5の部分と道路の幅だけ離れておれば、矢印e2とe4の部分は省略してもよい。
As a result, the
If the arrow e3 is separated from the arrows e1 and e5 by the width of the road, the arrows e2 and e4 may be omitted.
図4は、上記のポイントが駅のプラットフォーム60とその階段61である場合の、聴覚情報への翻訳の具体例である。
ユーザ1が列車(図示せず)からプラットフォーム60のある箇所に降り立っている。
FIG. 4 is a specific example of translation into auditory information when the above points are the
The
この場合、前記音源の音像定位位置が、矢印f1で示すように、ユーザの現在位置に近い側のプラットフォームの辺Cの、ユーザの現在位置に最も近い位置からスタートして、第7の音色で辺Cに沿って長手方向に階段61の位置まで移動し、矢印f6で示すように、第12の音色で階段61の輪郭を表示した後、矢印f2で示すように、第8の音色でプラットフォームを幅方向に横断し、矢印f3で示すように、第9の音色で現在位置と反対側のプラットフォームの辺Dに沿って長手方向に移動し、現在位置の向かい側を経てさらに辺Dに沿って移動し、矢印f4で示すように、第10の音色でプラットフォームを幅方向に横断し、矢印f5で示すように、第11の音色で辺Cに沿って長手方向に移動しスタート位置に戻る。
In this case, the sound image localization position of the sound source starts from the position closest to the user's current position on the side C of the platform on the side closer to the user's current position, as indicated by the arrow f1, and is the seventh timbre. After moving to the position of the
これにより、ユーザ1はプラットフォーム60及び階段61の輪郭と、両者の位置関係を聴覚的に知ることができる。
矢印f3の部分が矢印f1の部分とプラットフォームの幅だけ離れて定位されているので、矢印f2とf4の部分は省略してもよい。
また、上記実施例3、4において、第1〜第11の音色の一部は同一であってもよい。
Thereby, the
Since the part of the arrow f3 is positioned away from the part of the arrow f1 by the width of the platform, the parts of the arrows f2 and f4 may be omitted.
In the third and fourth embodiments, some of the first to eleventh timbres may be the same.
上記実施例4において、例えばプラットフォームの輪郭のうち辺Cに沿って矢印f1で示すように、第7の音色を音源定位して発する場合に、前記第7の音色として、一定の距離(例えば、1m)ごとに発せられる打刻音からなる断続音を採用する。
このようにすれば、ユーザ1は現在位置から階段までの距離を、連続音の場合のように定性的ではなく、打刻音の数により定量的に把握することができる。
さらに、矢印f1だけではなくf2、f3、f4、f5に沿っても、第7の音色と同一の断続音を第8〜第11の音色として採用すると、ユーザ1は,プラットフォームの形状、即ち、面積的な広がりを持った輪郭を打刻音の数により定量的に把握することができる。
なお、階段61の輪郭を示す第12の音色は、例えば、「コトン・コトン〜」のような階段を示唆する擬音を使ってもよく、さらに同時に、階段が昇り階段であるか、降り階段であるかに応じて、矢印f6で示す音源定位位置が階段に沿って上昇または下降してもよい。
In the fourth embodiment, for example, when the seventh timbre is generated by sound source localization along the side C of the outline of the platform, as the seventh timbre, a predetermined distance (for example, An intermittent sound consisting of a percussion sound emitted every 1 m) is employed.
In this way, the
Further, when the same intermittent sound as the seventh timbre is adopted as the eighth to eleventh timbres not only along the arrow f1, but also along f2, f3, f4, and f5, the
Note that the twelfth tone indicating the outline of the
1 ユーザ(視覚障害者)
10 ヘッドセット
11、12 イヤフォン
13 マイクロフォン
15 USBケーブル
19 携帯電話端末
20 基地局
25 GPS衛星
30 携帯電話網
40 サーバ
50 道路
51 横断歩道
60 (駅の)プラットフォーム
61 (駅のプラットフォームの)階段
1 user (the visually impaired)
10
Claims (6)
視覚障害者が携帯電話端末を介してサーバに目的地を告げる段階と、
サーバが前記携帯電話網及び/又はGPSを介してヘッドセットの位置を検出し、前記方位センサにより視覚障害者の方向を検出して視覚障害者の現在位置と進行方向を認知する段階と、
サーバが目的地に至るルートと途中に前記ポイントを決定する段階と、
サーバが視覚障害者の進行による現在位置を携帯電話網、又はGPSを介してトレースする段階と、
視覚障害者が前記ポイントに到達すると、サーバが前記ポイントの前記輪郭を含む属性データを前記ヘッドセットに送信する段階と、
前記ヘッドセットが、前記ポイントの輪郭を音像定位位置が前記輪郭に沿って移動する音源からの音に変換して視覚障害者に伝える段階と、
を含むことを特徴とする視覚障害者向けナビシステムの作動方法。 At least a headset that is worn by the visually impaired person and capable of receiving and transmitting voice and data via the mobile phone network, and having a built-in orientation sensor, and connected to the headset via the mobile phone network It was in the visual disabilities navigation system according to the server in including claim 1,
The visually impaired person tells the server the destination via the mobile phone terminal,
A server detects a position of the headset via the mobile phone network and / or GPS, detects a direction of the visually impaired person by the direction sensor, and recognizes a current position and a traveling direction of the visually impaired person;
A route for the server to reach the destination and determining the point along the way ;
The server traces the current location of the visually impaired through the mobile phone network or GPS;
When blind reaches the point, the method comprising: the server sends an attribute data including the outline of the points on the headset,
The headset converts the contour of the point into a sound from a sound source whose sound image localization position moves along the contour and transmits it to a visually impaired person,
A method for operating a navigation system for the visually impaired, characterized by comprising :
ことを特徴とする請求項2に記載の視覚障害者向けナビシステムの作動方法。 The point is a road, and the localization position of the sound source starts from a position closest to the current position on the side of the road closer to the current position of the visually impaired person (referred to as side A). It moves in the longitudinal direction along side A with the timbre, crosses the road in the width direction with the second timbre, and runs along the side of the road opposite to the current position (referred to as side B) with the third timbre. Moving in the direction, passing along the side B through the opposite side of the current position, crossing the road in the width direction with the fourth timbre, moving in the longitudinal direction along the side A with the fifth timbre, and starting position after conveyed the contour of back said point by Rukoto visually impaired, by moving to the side B of the side position of the transverse coverage along the crosswalk from the position of the side a side of the crosswalk sixth tone A route including the pedestrian crossing set inside the outline of the point is transmitted to the visually impaired. That,
The operating method of the navigation system for visually impaired persons according to claim 2.
ことを特徴とする請求項2に記載の視覚障害者向けナビシステムの作動方法。 The point is a platform of the station, and the sound source starts from a position closest to the current position on the side of the station platform near the current position of the visually handicapped person (referred to as side C). Is moved in the longitudinal direction along side C with the timbre of No. 8, the platform of the station is traversed in the width direction with the eighth timbre, and the side of the platform of the station opposite to the current position with the ninth timbre (referred to as side D). ) In the longitudinal direction, further along the side D through the opposite side of the current position, across the station platform in the width direction with the tenth tone, and along the side C with the eleventh tone after conveyed the contour of the points by Rukoto return to the start position to move longitudinally the visually impaired, has been set in the internal contour of said point by indicating the position of the stairs on the platform at the 12 tone Convey the position of the serial stairs to the visually impaired,
The operating method of the navigation system for visually impaired persons according to claim 2.
The navigation system for visually impaired persons according to claim 1, wherein a tone color of the sound source in which a sound image localization position moves along the contour includes an intermittent sound emitted at regular intervals along the contour. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006201818A JP5181200B2 (en) | 2006-07-25 | 2006-07-25 | Navigation system for visually impaired people and method of operating the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006201818A JP5181200B2 (en) | 2006-07-25 | 2006-07-25 | Navigation system for visually impaired people and method of operating the same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008023237A JP2008023237A (en) | 2008-02-07 |
JP5181200B2 true JP5181200B2 (en) | 2013-04-10 |
Family
ID=39114476
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006201818A Expired - Fee Related JP5181200B2 (en) | 2006-07-25 | 2006-07-25 | Navigation system for visually impaired people and method of operating the same |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5181200B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9489866B2 (en) | 2014-04-30 | 2016-11-08 | At&T Intellectual Property I, L.P. | Acoustic representations of environments |
CN107157651A (en) * | 2017-06-13 | 2017-09-15 | 浙江诺尔康神经电子科技股份有限公司 | A kind of visual pattern sensory perceptual system and method based on sonic stimulation |
CN111148969B (en) * | 2017-09-27 | 2023-09-29 | 苹果公司 | spatial audio navigation |
WO2021048908A1 (en) * | 2019-09-10 | 2021-03-18 | 三菱電機株式会社 | Guidance system and output device |
CN113920716A (en) * | 2021-10-08 | 2022-01-11 | 湖南湘江智能科技创新中心有限公司 | V2X device-based intersection perception system and method for visually impaired people |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08252279A (en) * | 1995-03-17 | 1996-10-01 | Hitachi Ltd | Route guiding method for presenting object with sound |
JP2001004396A (en) * | 1999-06-23 | 2001-01-12 | Matsushita Electric Ind Co Ltd | Voice road guide navigation system |
JP2001175987A (en) * | 1999-12-16 | 2001-06-29 | Nec Corp | Rout guiding system |
JP2002005675A (en) * | 2000-06-16 | 2002-01-09 | Matsushita Electric Ind Co Ltd | Acoustic navigation apparatus |
JP4227976B2 (en) * | 2000-11-07 | 2009-02-18 | パワーエコジャパン株式会社 | Guidance device |
JP3815270B2 (en) * | 2001-07-17 | 2006-08-30 | ヤマハ株式会社 | Navigation device and control program |
JP2003203297A (en) * | 2002-01-08 | 2003-07-18 | Space Tag Inc | Obstacle information transmission system |
JP2005333621A (en) * | 2004-04-21 | 2005-12-02 | Matsushita Electric Ind Co Ltd | Sound information output device and sound information output method |
JP2006133132A (en) * | 2004-11-08 | 2006-05-25 | Navitime Japan Co Ltd | Portable navigation device |
-
2006
- 2006-07-25 JP JP2006201818A patent/JP5181200B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008023237A (en) | 2008-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ahmetovic et al. | NavCog: a navigational cognitive assistant for the blind | |
JP5181200B2 (en) | Navigation system for visually impaired people and method of operating the same | |
US20090201176A1 (en) | Route guidance system | |
US20150063610A1 (en) | Audio rendering system categorising geospatial objects | |
JPWO2009016693A1 (en) | Map display system, map display device, and map display method | |
KR20070112910A (en) | Navigation service system and method for blind individuals | |
JP6179745B2 (en) | RFID tag information storage and transmission / reception method for visually-impaired person guidance system | |
JP2006251596A (en) | Support device for visually handicapped person | |
EP1988529A1 (en) | Map display system, map display method for map display system, map display device, and program | |
Strumillo et al. | Different approaches to aiding blind persons in mobility and navigation in the “Naviton” and “Sound of Vision” projects | |
JP2006345974A (en) | Walking aid device for blind person | |
CN1685201B (en) | Navigation system with acoustic route information | |
KR101268486B1 (en) | Way guide system for blind people | |
JP5807451B2 (en) | Voice processing device, voice processing method, program, and guidance system | |
JP2003023699A (en) | Spatial information auralizing system and spatial information auralizing method | |
KR20180051104A (en) | Crossroad passing support system for visually handicapped person, and method for the same | |
JP2923251B2 (en) | Human guidance system | |
JP7240865B2 (en) | Guidance information transmission device and guidance information transmission method | |
JP3864212B2 (en) | Pedestrian facility guidance system and computer software program for guiding facilities to pedestrians | |
CN111609865B (en) | Assembly type automatic navigation blind road system based on wireless network | |
CN111870430A (en) | Wearable guiding equipment | |
JP2002170191A (en) | Pedestrian guidance block information inputting device | |
JP2004212146A (en) | Dead reckoning navigation system and dead reckoning navigation for walker | |
JP3887650B2 (en) | System and method for providing facility information to pedestrians | |
JP7429049B2 (en) | Pedestrian location system and pedestrian location software |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110331 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110712 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110912 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120403 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120604 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121211 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121221 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5181200 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160125 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |