JP2020014084A - Navigation device and navigation method - Google Patents

Navigation device and navigation method Download PDF

Info

Publication number
JP2020014084A
JP2020014084A JP2018134091A JP2018134091A JP2020014084A JP 2020014084 A JP2020014084 A JP 2020014084A JP 2018134091 A JP2018134091 A JP 2018134091A JP 2018134091 A JP2018134091 A JP 2018134091A JP 2020014084 A JP2020014084 A JP 2020014084A
Authority
JP
Japan
Prior art keywords
sound
guidance
unit
supported person
trigger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018134091A
Other languages
Japanese (ja)
Other versions
JP7173530B2 (en
Inventor
啓一 善甫
Keiichi Zempo
啓一 善甫
水谷 孝一
Koichi Mizutani
孝一 水谷
尚斗 若槻
Naoto Wakatsuki
尚斗 若槻
雅之 川本
Masayuki Kawamoto
雅之 川本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tsukuba NUC
Original Assignee
University of Tsukuba NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tsukuba NUC filed Critical University of Tsukuba NUC
Priority to JP2018134091A priority Critical patent/JP7173530B2/en
Publication of JP2020014084A publication Critical patent/JP2020014084A/en
Application granted granted Critical
Publication of JP7173530B2 publication Critical patent/JP7173530B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Audible And Visible Signals (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Traffic Control Systems (AREA)

Abstract

To provide a navigation device and a navigation method that ensure the safety and convenience of a supportee and that provide guidance to the supportee in a sanitary manner while suppressing noise that spreads to the surroundings.SOLUTION: A navigation device includes a supportee determination unit that determines whether a supportee is present in a determination area, a supportee guiding unit that guides the supportee from the determination area to a sweet spot, and a guide sound presenting unit that presents a guide sound to the sweet spot, and the supportee determination unit includes a trigger sound presentation unit that presents a trigger sound in the determination area, and a reaction detection unit that detects a response of a trigger sound listener to a trigger sound, and the supportee guiding unit includes a guidance sound presentation unit that presents a guidance sound that guides the supportee to the sweet spot, a position detection unit that detects the position of the supportee, and a guidance completion determining unit that determines whether the guidance of the supportee is completed on the basis of the position of the supportee, and the guide sound presenting unit includes a parametric speaker that generates ultrasonic waves.SELECTED DRAWING: Figure 1

Description

本発明は、ナビゲーション装置およびナビゲーション方法に関する。   The present invention relates to a navigation device and a navigation method.

従来から、駅のエスカレータ等に設置されている盲導鈴、音響装置付き信号機、音声ガイドなどが知られている。これらは、対象物からの放送が行われるものであり、「拡散放送型」に分類される。「拡散放送型」のナビゲーション装置によって、盲導鈴、音響装置付き信号機、音声ガイドなどよりも詳しい案内を行う手法が考えられる。
ところで、この手法では、ナビゲーション情報を求める者(被支援者)が存在する位置以外の場所にも、ナビゲーション装置からの音が拡散する。そのため、この手法によって詳しい案内が行われる場合には、ナビゲーション情報が不必要な者に対して騒音を与えることになってしまう。
DESCRIPTION OF RELATED ART Conventionally, the guide bell installed in the escalator of a station, the traffic light with an audio device, a voice guide, etc. are known. These are broadcasts from an object and are classified as “diffuse broadcast type”. A method of providing more detailed guidance than a guide bell, a traffic light with an audio device, a voice guide, or the like using a “diffusion broadcast type” navigation device can be considered.
By the way, in this method, the sound from the navigation device is diffused to a place other than the position where the person who seeks the navigation information (supported person) exists. Therefore, when detailed guidance is provided by this method, noise is given to a person who does not need navigation information.

また、被支援者の現在地・姿勢などが各種測位手法によって取得され、音声、振動などによってナビゲーション情報が被支援者に提示される手法が、従来から知られている。これらにおいては、スマートフォン等によるアプリケーションが用いられ、これらは「デバイス装着型」に分類される。「デバイス装着型」のナビゲーション装置によって、詳しい案内を行う手法が考えられる。
ところで、この手法では、被支援者がスマートフォン等を事前に用意しておく必要がある。また、そのアプリケーションも、該当環境に対応している必要がある。つまり、この手法では、汎用性が欠けているために、被支援者の利便性を十分に向上させることができない。
In addition, there has been conventionally known a method in which a current position / posture of a supportee is acquired by various positioning methods, and navigation information is presented to the supportee by voice, vibration, or the like. In these, applications using a smartphone or the like are used, and these are categorized as “device mounted type”. A method of providing detailed guidance by a "device-mounted" navigation device is conceivable.
By the way, in this method, the person to be supported needs to prepare a smartphone or the like in advance. Also, the application must be compatible with the environment. That is, with this method, the versatility is lacking, so that the convenience of the supported person cannot be sufficiently improved.

また、ステレオヘッドセットなどによって立体音響が提示される手法が、従来から知られている。この手法においては、ヘッドセットが用いられ、この手法は「没入型立体音響」に分類される。「没入型立体音響」による音響提示が行われるナビゲーション装置も考えられる。
ところで、「没入型立体音響」による音響提示が行われるナビゲーション装置では、被支援者の周囲の音が、遮断され、被支援者に伝わらない。そのため、被支援者の安全性を十分に確保できないおそれがある。
また、「没入型立体音響」による音響提示が行われるナビゲーション装置では、被支援者がヘッドセットを事前に用意し、接続などの準備をしておく必要がある。そのため、被支援者の利便性を十分に向上させることができない。
In addition, a technique in which stereophonic sound is presented by a stereo headset or the like is conventionally known. In this method, a headset is used, and this method is classified as “immersive stereophonic sound”. A navigation device that provides sound presentation by “immersive stereophonic sound” is also conceivable.
By the way, in a navigation device that provides sound presentation using “immersive stereophonic sound”, sounds around the supportee are cut off and not transmitted to the supportee. Therefore, there is a possibility that the safety of the support recipient cannot be sufficiently ensured.
Further, in a navigation device in which sound presentation by “immersive stereophonic sound” is performed, a supported person needs to prepare a headset in advance and prepare for connection and the like. Therefore, the convenience of the support recipient cannot be sufficiently improved.

また、点字との組み合わせにより地図情報が提示される手法が、従来から知られている。この手法においては、触地図が用いられ、この手法は「触覚提示」に分類される。
ところで、この手法では、被支援者を触地図まで誘導する必要がある。被支援者を触地図まで誘導する手段が存在しない場合には、被支援者の利便性を十分に向上させることができない。
また、この手法では、被支援者が実際に触れる触地図を清潔に維持する必要がある。触地図を清潔に維持する手段が存在しない場合には、被支援者に対する案内を衛生的に行うことができない。
In addition, a method of presenting map information in combination with Braille has been conventionally known. In this method, a tactile map is used, and this method is classified as “tactile presentation”.
By the way, in this method, it is necessary to guide the supportee to the tactile map. If there is no means for guiding the supported person to the tactile map, the convenience of the supported person cannot be sufficiently improved.
Further, in this method, it is necessary to keep the tactile map actually touched by the supportee clean. If there is no means for keeping the tactile map clean, guidance to the supportee cannot be performed hygienically.

特許文献1には、ユーザ位置取得部と、環境情報取得部と、道順においてユーザ位置よりも先行する先行位置に仮想音源を設定した立体音響を生成する音声信号処理部とを備える音声ナビゲーション装置が記載されている。特許文献1に記載された音声ナビゲーション装置は、ユーザを任意の地点から目的地まで誘導する。
ところで、特許文献1に記載された技術では、ユーザが、ユーザ位置を得るための携帯端末と、案内を受けるためのイヤホン等の音響機器とを携帯する必要がある。そのため、特許文献1に記載された技術によっては、ユーザの利便性を十分に向上させることができない。
Patent Document 1 discloses an audio navigation device including a user position acquisition unit, an environment information acquisition unit, and an audio signal processing unit that generates stereophonic sound in which a virtual sound source is set at a preceding position preceding a user position in a route. Has been described. The voice navigation device described in Patent Literature 1 guides a user from an arbitrary point to a destination.
By the way, in the technology described in Patent Literature 1, it is necessary for a user to carry a portable terminal for obtaining a user position and an audio device such as an earphone for receiving guidance. For this reason, the technique described in Patent Document 1 cannot sufficiently improve the convenience for the user.

国際公開第2017/018298号International Publication No. WO 2017/018298

上記した問題点に鑑み、本発明は、被支援者の安全性および利便性を確保し、かつ、周囲に拡散する雑音を抑制しつつ、被支援者に対する案内を衛生的に行うことができるナビゲーション装置およびナビゲーション方法を提供することを目的とする。   In view of the above-described problems, the present invention provides navigation that can provide guidance to a supportee in a sanitary manner while ensuring the safety and convenience of the supportee and suppressing noise spread to the surroundings. It is an object to provide an apparatus and a navigation method.

本発明の一態様は、案内音による案内を求める者である被支援者が判定エリアに存在するか否かを判定する被支援者判定部と、前記被支援者を前記判定エリア内の位置から案内音の提示位置であるスウィートスポットに誘導する被支援者誘導部と、案内音を前記スウィートスポットに提示する案内音提示部とを備え、前記被支援者判定部は、トリガ音を前記判定エリアに提示するトリガ音提示部と、前記トリガ音提示部によって提示されたトリガ音に対するトリガ音受聴者の反応を検出する反応検出部とを備え、前記被支援者誘導部は、前記被支援者を前記スウィートスポットに誘導する誘導音を提示する誘導音提示部と、前記被支援者の位置を検出する位置検出部と、前記位置検出部によって検出された前記被支援者の位置に基づいて、前記被支援者の誘導が完了したか否かを判定する誘導完了判定部とを備え、前記案内音提示部は、超音波を発生するパラメトリックスピーカーを備え、前記被支援者判定部は、前記反応検出部によって検出された前記トリガ音受聴者の反応に基づいて、前記トリガ音受聴者が前記被支援者であるか否かを判定し、前記トリガ音受聴者が前記被支援者であると前記被支援者判定部が判定した場合に、前記トリガ音提示部が前記判定エリアへのトリガ音の提示を停止して、前記誘導音提示部が誘導音の提示を開始し、前記被支援者の誘導が完了したと前記誘導完了判定部が判定した場合に、前記誘導音提示部が誘導音の提示を停止して、前記案内音提示部が案内音の提示を開始する、ナビゲーション装置である。   One aspect of the present invention is a supported person determination unit that determines whether a supported person who is a person who requests guidance by a guidance sound is present in a determination area, and the supported person is determined from a position in the determination area The assisted person guiding unit that guides to a sweet spot that is a presentation position of a guiding sound, and a guiding sound presenting unit that presents a guiding sound to the sweet spot, wherein the supported person determining unit transmits a trigger sound to the determining area. A trigger sound presenting unit, and a reaction detecting unit that detects a response of the trigger sound listener to the trigger sound presented by the trigger sound presenting unit, and the supported person guiding unit detects the supported person. A guiding sound presenting unit that presents a guiding sound for guiding to the sweet spot, a position detecting unit that detects the position of the supported person, and a position of the supported person detected by the position detecting unit. A guidance completion determining unit that determines whether or not the guidance of the supported person is completed; the guidance sound presenting unit includes a parametric speaker that generates ultrasonic waves; and the supported person determining unit includes the reaction detection. It is determined whether or not the trigger sound listener is the supported person based on the response of the trigger sound listener detected by the unit. When the supporter determination unit determines, the trigger sound presentation unit stops presenting the trigger sound to the determination area, the guidance sound presentation unit starts presenting the guidance sound, and the guidance of the supported person is performed. Is a navigation device in which, when the guidance completion determination unit determines that the guidance sound has been completed, the guidance sound presentation unit stops presenting a guidance sound, and the guidance sound presentation unit starts presenting a guidance sound.

本発明の一態様のナビゲーション装置では、前記案内音提示部が複数の前記パラメトリックスピーカーを備え、前記案内音提示部によって前記スウィートスポットに提示される音が立体音響であってもよい。   In the navigation device according to one aspect of the present invention, the guidance sound presentation unit may include a plurality of the parametric speakers, and the sound presented to the sweet spot by the guidance sound presentation unit may be stereophonic.

本発明の一態様のナビゲーション装置では、前記トリガ音提示部は、前記パラメトリックスピーカーよりも低い指向性を有する第1スピーカーを備え、前記誘導音提示部は、前記パラメトリックスピーカーよりも低い指向性を有する第2スピーカーを備えてもよい。   In the navigation device according to one aspect of the present invention, the trigger sound presentation unit includes a first speaker having lower directivity than the parametric speaker, and the guidance sound presentation unit has lower directivity than the parametric speaker. A second speaker may be provided.

本発明の一態様のナビゲーション装置では、前記第1スピーカーと前記第2スピーカーとが共用スピーカーであってもよい。   In the navigation device according to one aspect of the present invention, the first speaker and the second speaker may be shared speakers.

本発明の一態様のナビゲーション装置では、前記トリガ音提示部が提示するトリガ音と、前記誘導音提示部が提示する誘導音とが異なる音であってもよい。   In the navigation device according to one aspect of the present invention, the trigger sound presented by the trigger sound presentation unit and the guidance sound presented by the guidance sound presentation unit may be different sounds.

本発明の一態様のナビゲーション装置では、前記トリガ音提示部が提示するトリガ音に含まれる単位時間当たりの情報量と、前記誘導音提示部が提示する誘導音に含まれる単位時間当たりの情報量とは、前記案内音提示部が提示する案内音に含まれる単位時間当たりの情報量よりも少なくてもよい。   In the navigation device according to one aspect of the present invention, the amount of information per unit time included in the trigger sound presented by the trigger sound presentation unit and the amount of information per unit time included in the guidance sound presented by the guidance sound presentation unit May be less than the amount of information per unit time included in the guidance sound presented by the guidance sound presentation unit.

本発明の一態様のナビゲーション装置では、前記トリガ音提示部は、前記反応検出部によって検出された前記トリガ音受聴者の反応に基づいて、提示するトリガ音のパターンまたは音量を変化させてもよい。   In the navigation device according to one aspect of the present invention, the trigger sound presenting unit may change a pattern or a volume of a trigger sound to be presented based on a response of the trigger sound listener detected by the reaction detecting unit. .

本発明の一態様のナビゲーション装置では、前記誘導音提示部は、前記位置検出部によって検出された前記被支援者の位置に基づいて、提示する誘導音のパターンまたは音量を変化させてもよい。   In the navigation device according to one aspect of the present invention, the guidance sound presenting unit may change a pattern or a volume of the guidance sound to be presented based on the position of the supported person detected by the position detection unit.

本発明の一態様は、案内音による案内を求める者である被支援者が判定エリアに存在するか否かを判定する被支援者判定ステップと、前記被支援者を前記判定エリアから案内音の提示位置であるスウィートスポットに誘導する被支援者誘導ステップと、案内音を前記スウィートスポットに提示する案内音提示ステップとを備えるナビゲーション方法であって、前記被支援者判定ステップには、トリガ音を前記判定エリアに提示するトリガ音提示ステップと、前記トリガ音提示ステップにおいて提示されたトリガ音に対するトリガ音受聴者の反応を検出する反応検出ステップとが含まれ、前記被支援者誘導ステップには、前記被支援者を前記スウィートスポットに誘導する誘導音を提示する誘導音提示ステップと、前記被支援者の位置を検出する位置検出ステップと、前記位置検出ステップにおいて検出された前記被支援者の位置に基づいて、前記被支援者の誘導が完了したか否かを判定する誘導完了判定ステップとが含まれ、前記案内音提示ステップでは、パラメトリックスピーカーが超音波を発生し、前記被支援者判定ステップでは、前記反応検出ステップにおいて検出された前記トリガ音受聴者の反応に基づいて、前記トリガ音受聴者が前記被支援者であるか否かが判定され、前記トリガ音受聴者が前記被支援者であると前記被支援者判定ステップにおいて判定された場合に、前記トリガ音提示ステップにおける前記判定エリアへのトリガ音の提示が停止され、前記誘導音提示ステップにおける誘導音の提示が開始され、前記被支援者の誘導が完了したと前記誘導完了判定ステップにおいて判定された場合に、前記誘導音提示ステップにおける誘導音の提示が停止され、前記案内音提示ステップにおける案内音の提示が開始される、ナビゲーション方法である。   One aspect of the present invention is a supported person determination step of determining whether or not a supported person who requests guidance by a guidance sound is present in a determination area; and A navigation method including a supported person guiding step of guiding to a sweet spot that is a presentation position, and a guiding sound presenting step of presenting a guiding sound to the sweet spot, wherein the supported person determining step includes a trigger sound. A trigger sound presenting step to be presented in the determination area, and a reaction detecting step of detecting a response of the trigger sound listener to the trigger sound presented in the trigger sound presenting step, and the supported person guiding step includes: A guiding sound presenting step of presenting a guiding sound for guiding the supported person to the sweet spot; and detecting a position of the supported person. A position detection step; and a guidance completion determining step of determining whether or not the guidance of the supported person is completed based on the position of the supported person detected in the position detecting step, wherein the guidance sound is provided. In the presenting step, the parametric speaker generates an ultrasonic wave, and in the supported person determination step, based on the response of the trigger sound listener detected in the reaction detecting step, the trigger sound listener is set to the supported person. Or not, and when it is determined in the supported person determining step that the trigger sound listener is the supported person, presentation of a trigger sound to the determination area in the trigger sound presenting step Is stopped, presentation of the guidance sound in the guidance sound presentation step is started, and the completion of the guidance of the guidance If it is determined in up, presentation of guidance sound in the guidance sound presenting step is stopped, the presentation of guidance sound in the guide sound presenting step is started, a navigation method.

本発明によれば、被支援者の安全性および利便性を確保し、かつ、周囲に拡散する雑音を抑制しつつ、被支援者に対する案内を衛生的に行うことができるナビゲーション装置およびナビゲーション方法を提供することができる。   According to the present invention, there is provided a navigation device and a navigation method that can provide guidance to a supportee in a sanitary manner while ensuring the safety and convenience of the supportee and suppressing noise spread to the surroundings. Can be provided.

第1実施形態のナビゲーション装置の一例の概略構成などを示す図である。It is a figure showing the schematic structure etc. of an example of the navigation device of a 1st embodiment. 第1実施形態のナビゲーション装置において実行される処理の一例を示すフローチャートである。5 is a flowchart illustrating an example of a process performed in the navigation device according to the first embodiment. 第2実施形態のナビゲーション装置の一例の概略構成を示す図である。It is a figure showing the schematic structure of an example of the navigation device of a 2nd embodiment.

以下、添付図面を参照しつつ、本発明のナビゲーション装置およびナビゲーション方法の実施形態について説明する。   Hereinafter, embodiments of a navigation device and a navigation method of the present invention will be described with reference to the accompanying drawings.

<第1実施形態>
図1は第1実施形態のナビゲーション装置1の一例の概略構成などを示す図である。詳細には、図1(A)は第1実施形態のナビゲーション装置1の一例の概略構成を示す図である。図1(B)は第1実施形態のナビゲーション装置1の各構成要素の配置の一例を示す図である。
図1に示す例では、ナビゲーション装置1が、被支援者判定部11と、被支援者誘導部12と、案内音提示部13とを備えている。
被支援者判定部11は、案内音による案内を求める者である被支援者が判定エリア11A(図1(B)参照)に存在するか否かを判定する。被支援者判定部11は、トリガ音提示部11Bと、反応検出部11Cとを備えている。トリガ音提示部11Bは、トリガ音を判定エリア11Aに提示する。トリガ音提示部11Bは、スピーカー11B1を備えている。スピーカー11B1は、トリガ音提示部11Bの電気信号供給部(図示せず)から供給された電気信号を空気の振動に変換し、判定エリア11A内の被支援者などが受聴可能なトリガ音を出力する。
<First embodiment>
FIG. 1 is a diagram illustrating a schematic configuration and the like of an example of a navigation device 1 according to the first embodiment. Specifically, FIG. 1A is a diagram illustrating a schematic configuration of an example of the navigation device 1 according to the first embodiment. FIG. 1B is a diagram illustrating an example of an arrangement of each component of the navigation device 1 according to the first embodiment.
In the example illustrated in FIG. 1, the navigation device 1 includes a supported person determination unit 11, a supported person guiding unit 12, and a guidance sound presentation unit 13.
The supported person determination unit 11 determines whether or not the supported person who requests guidance by the guidance sound exists in the determination area 11A (see FIG. 1B). The supported person determination unit 11 includes a trigger sound presentation unit 11B and a reaction detection unit 11C. The trigger sound presenting section 11B presents a trigger sound in the determination area 11A. The trigger sound presentation unit 11B includes a speaker 11B1. The speaker 11B1 converts an electric signal supplied from an electric signal supply unit (not shown) of the trigger sound presentation unit 11B into vibration of air, and outputs a trigger sound that can be heard by a person to be supported in the determination area 11A. I do.

反応検出部11Cは、トリガ音提示部11Bによって提示されたトリガ音に対するトリガ音受聴者の反応を検出する。トリガ音受聴者には、被支援者と、被支援者以外の者とが含まれる。反応検出部11Cの一部は、例えばトリガ音に対するトリガ音受聴者のジェスチャーなどの反応を検出するセンサである。反応検出部11Cの一部を構成するセンサの例としては、例えばカメラ、角速度センサ、加速度センサ、磁気センサなどである。
図1に示す例では、トリガ音受聴者(案内音による案内を求める被支援者)は、マーカーを装着する必要がない。この例では、反応検出部11Cが、深度を検出可能なカメラを備えている。反応検出部11Cは、そのカメラが撮影した画像から、トリガ音受聴者の頭、手、腕、脚などの部位を検出する。反応検出部11Cは、トリガ音受聴者の頭、手、腕、脚などの部位がどのように動いているかによってトリガ音受聴者の姿勢を推定する。反応検出部11Cは、機械学習によって、誰がカメラの前に立っても、「両手をあげている」「手を振っている」などといった動作を判定できるようになっている。
他の例では、案内音による案内を求める被支援者が、マーカーを予め装着してもよい。この例では、反応検出部11Cが、複数のカメラを備えている。反応検出部11Cは、光学式モーションキャプチャの技術を用いることによって、マーカーを装着している被支援者の位置および姿勢を記録する。被支援者判定部11は、反応検出部11Cによって検出されたトリガ音に対する被支援者(マーカーを装着している被支援者)の反応に基づいて、その被支援者が案内音による案内を求めているか否かを判定する。
更に他の例では、案内音による案内を求める被支援者が、角速度センサ、加速度センサなどを予め装着してもよい。この例では、反応検出部11Cが、角速度センサ、加速度センサなどによる検出結果を取得する。反応検出部11Cは、機械式モーションキャプチャの技術を用いることによって、角速度センサ、加速度センサなどを装着している被支援者の位置および姿勢を記録する。被支援者判定部11は、反応検出部11Cによって検出されたトリガ音に対する被支援者(角速度センサ、加速度センサなどを装着している被支援者)の反応に基づいて、その被支援者が案内音による案内を求めているか否かを判定する。
更に他の例では、案内音による案内を求める被支援者が、磁気コイルを予め装着してもよい。この例では、反応検出部11Cが、判定エリア11A(図1(B)参照)に磁界を発生させる。反応検出部11Cは、被支援者に装着された磁気コイルが磁界内で動くことによって生じる歪みを取得する。反応検出部11Cは、磁気式モーションキャプチャの技術を用いることによって、磁気コイルを装着している被支援者の位置および姿勢を記録する。被支援者判定部11は、反応検出部11Cによって検出されたトリガ音に対する被支援者(磁気コイルを装着している被支援者)の反応に基づいて、その被支援者が案内音による案内を求めているか否かを判定する。
The response detection unit 11C detects a response of the trigger sound listener to the trigger sound presented by the trigger sound presentation unit 11B. The trigger sound listener includes a supported person and a person other than the supported person. A part of the reaction detection unit 11C is a sensor that detects a response such as a gesture of the listener of the trigger sound to the trigger sound. Examples of a sensor that forms a part of the reaction detection unit 11C include, for example, a camera, an angular velocity sensor, an acceleration sensor, a magnetic sensor, and the like.
In the example illustrated in FIG. 1, the trigger sound listener (the supportee who requests guidance by the guidance sound) does not need to wear the marker. In this example, the reaction detection unit 11C includes a camera capable of detecting the depth. The reaction detection unit 11C detects parts such as the head, hands, arms, and legs of the listener of the trigger sound from the image captured by the camera. The reaction detection unit 11C estimates the posture of the trigger sound listener based on how parts such as the head, hands, arms, and legs of the trigger sound listener are moving. The reaction detection unit 11C can determine, by machine learning, an operation such as “raising both hands” or “waving a hand” regardless of who stands in front of the camera.
In another example, the supported person who requests guidance by the guidance sound may wear the marker in advance. In this example, the reaction detection unit 11C includes a plurality of cameras. The reaction detection unit 11C records the position and orientation of the supported person wearing the marker by using an optical motion capture technique. Based on the response of the supported person (supported person wearing the marker) to the trigger sound detected by the reaction detection unit 11C, the supported person determination unit 11 requests the supported person to provide guidance using the guidance sound. Is determined.
In yet another example, the supportee who requests guidance by the guidance sound may wear an angular velocity sensor, an acceleration sensor, or the like in advance. In this example, the reaction detection unit 11C acquires a detection result obtained by an angular velocity sensor, an acceleration sensor, or the like. The reaction detection unit 11C records the position and orientation of the support recipient wearing an angular velocity sensor, an acceleration sensor, and the like by using a mechanical motion capture technique. Based on the response of the supported person (supported person wearing an angular velocity sensor, an acceleration sensor, or the like) to the trigger sound detected by the reaction detection unit 11C, the supported person determination unit 11 provides guidance to the supported person. It is determined whether guidance by sound is required.
In still another example, the supportee who requests guidance by the guidance sound may mount the magnetic coil in advance. In this example, the reaction detection unit 11C generates a magnetic field in the determination area 11A (see FIG. 1B). The reaction detection unit 11C acquires a distortion caused by the magnetic coil mounted on the supportee moving in the magnetic field. The reaction detection unit 11C records the position and orientation of the support recipient wearing the magnetic coil by using a magnetic motion capture technology. Based on the response of the supported person (supported person wearing a magnetic coil) to the trigger sound detected by the reaction detection unit 11C, the supported person determination unit 11 provides guidance by the guided sound. Determine if you are seeking.

図1に示す例では、被支援者判定部11は、反応検出部11Cによって検出されたトリガ音受聴者の反応に基づいて、そのトリガ音受聴者が被支援者であるか否かを判定する。
トリガ音受聴者が被支援者であると被支援者判定部11が判定した場合、図1(B)に実線矢印で示すように、被支援者誘導部12は、判定エリア11A内に位置する被支援者を、案内音の提示位置であるスウィートスポット13Aに誘導する。
図1に示す例では、スウィートスポット13Aが、判定エリア11A内に存在するが、他の例では、スウィートスポット13Aが、判定エリア11A外に存在してもよい。
In the example illustrated in FIG. 1, the supported person determination unit 11 determines whether the trigger sound listener is a supported person based on the response of the trigger sound listener detected by the reaction detection unit 11C. .
When the supported person determination unit 11 determines that the trigger sound listener is the supported person, the supported person guiding unit 12 is located in the determination area 11A as indicated by a solid arrow in FIG. The supported person is guided to the sweet spot 13A where the guidance sound is presented.
In the example shown in FIG. 1, the sweet spot 13A exists in the determination area 11A, but in another example, the sweet spot 13A may exist outside the determination area 11A.

図1に示す例では、被支援者誘導部12が、誘導音提示部12Aと、位置検出部12Bと、誘導完了判定部12Cとを備えている。
誘導音提示部12Aは、判定エリア11A内に位置する被支援者をスウィートスポット13Aに誘導する誘導音を提示する。誘導音提示部12Aは、スピーカー12A1を備えている。スピーカー12A1は、誘導音提示部12Aの電気信号供給部(図示せず)から供給された電気信号を空気の振動に変換し、被支援者が受聴可能な誘導音を出力する。
詳細には、トリガ音受聴者が被支援者であると被支援者判定部11が判定した場合に、トリガ音提示部11Bが判定エリア11Aへのトリガ音の提示を停止して、誘導音提示部12Aが誘導音の提示を開始する。
図1(B)に示す例では、トリガ音を出力するスピーカー11B1と、誘導音を出力するスピーカー12A1とが、共用スピーカーである。そのため、トリガ音を出力するスピーカー11B1と誘導音を出力するスピーカー12A1とが別個に設けられる場合よりも、ナビゲーション装置1全体のコストを抑制することができる。
他の例では、トリガ音を出力するスピーカー11B1と、誘導音を出力するスピーカー12A1とが、別個に設けられてもよい。
In the example illustrated in FIG. 1, the supported person guidance unit 12 includes a guidance sound presentation unit 12A, a position detection unit 12B, and a guidance completion determination unit 12C.
The guide sound presenting unit 12A presents a guide sound that guides the supported person located in the determination area 11A to the sweet spot 13A. The guidance sound presentation unit 12A includes a speaker 12A1. The speaker 12A1 converts an electric signal supplied from an electric signal supply unit (not shown) of the guidance sound presentation unit 12A into vibration of air, and outputs a guidance sound that can be heard by the supportee.
More specifically, when the supported person determining unit 11 determines that the trigger sound listener is a supported person, the triggered sound presenting unit 11B stops presenting the trigger sound to the determination area 11A, and presents the guidance sound. The unit 12A starts presentation of the guidance sound.
In the example shown in FIG. 1B, the speaker 11B1 that outputs a trigger sound and the speaker 12A1 that outputs an induction sound are shared speakers. Therefore, the cost of the navigation device 1 as a whole can be reduced as compared with the case where the speaker 11B1 that outputs the trigger sound and the speaker 12A1 that outputs the guidance sound are separately provided.
In another example, the speaker 11B1 that outputs the trigger sound and the speaker 12A1 that outputs the guidance sound may be separately provided.

図1に示す例では、位置検出部12Bが、誘導音によって誘導される被支援者の位置を検出する。位置検出部12Bは、カメラを備えている。位置検出部12Bは、そのカメラが撮影した画像から、被支援者の位置を検出する。
図1(B)に示す例では、反応検出部11Cのカメラと、位置検出部12Bのカメラとが、共用カメラである。そのため、反応検出部11Cのカメラと位置検出部12Bのカメラとが別個に設けられる場合よりも、ナビゲーション装置1全体のコストを抑制することができる。
他の例では、反応検出部11Cのカメラと、位置検出部12Bのカメラとが、別個に設けられてもよい。
In the example illustrated in FIG. 1, the position detection unit 12B detects the position of the supported person guided by the guidance sound. The position detection unit 12B includes a camera. The position detection unit 12B detects the position of the supported person from the image captured by the camera.
In the example shown in FIG. 1B, the camera of the reaction detection unit 11C and the camera of the position detection unit 12B are shared cameras. Therefore, the cost of the navigation device 1 as a whole can be reduced as compared with the case where the camera of the reaction detection unit 11C and the camera of the position detection unit 12B are separately provided.
In another example, the camera of the reaction detection unit 11C and the camera of the position detection unit 12B may be provided separately.

図1に示す例では、誘導完了判定部12Cが、位置検出部12Bによって検出された被支援者の位置に基づいて、スウィートスポット13A(図1(B)参照)への被支援者の誘導が完了したか否かを判定する。
案内音提示部13は、スウィートスポット13Aに位置する被支援者に案内音を提示する。案内音提示部13は、超音波を発生するパラメトリックスピーカー13Bを備えている。
詳細には、スウィートスポット13Aへの被支援者の誘導が完了したと誘導完了判定部12Cが判定した場合に、誘導音提示部12Aが誘導音の提示を停止して、案内音提示部13が案内音の提示を開始する。
図1(B)に示す例では、案内音提示部13が複数(例えば2個)のパラメトリックスピーカー13Bを備えており、ステレオパラメトリックスピーカーを構成する。図1(B)に破線矢印で示すように、案内音提示部13の2個のパラメトリックスピーカー13Bのそれぞれが、スウィートスポット13Aに位置する被支援者に案内音を提示する。つまり、スウィートスポット13Aに位置する被支援者に対して案内音提示部13によって提示される音が、立体音響(奥行きや広がりをもって再生される音)である。そのため、判定エリア11A内に位置する被支援者以外の者に与える騒音を抑制しつつ、スウィートスポット13Aに位置する被支援者に対して詳しい情報を提示することができる。
In the example illustrated in FIG. 1, the guidance completion determination unit 12C determines whether the guidance of the supported person to the sweet spot 13A (see FIG. 1B) is performed based on the position of the supported person detected by the position detection unit 12B. It is determined whether the process has been completed.
The guide sound presenting unit 13 presents a guide sound to a support recipient located at the sweet spot 13A. The guide sound presentation unit 13 includes a parametric speaker 13B that generates ultrasonic waves.
Specifically, when the guidance completion determination unit 12C determines that the guidance of the supported person to the sweet spot 13A is completed, the guidance sound presentation unit 12A stops presenting the guidance sound, and the guidance sound presentation unit 13 The presentation of the guidance sound starts.
In the example shown in FIG. 1B, the guide sound presentation unit 13 includes a plurality of (for example, two) parametric speakers 13B, and forms a stereo parametric speaker. As shown by the dashed arrows in FIG. 1B, each of the two parametric speakers 13B of the guide sound presentation unit 13 presents a guide sound to the supported person located at the sweet spot 13A. In other words, the sound presented by the guidance sound presenting unit 13 to the support recipient located at the sweet spot 13A is stereophonic sound (sound reproduced with depth and width). Therefore, it is possible to present detailed information to the supported person located at the sweet spot 13A while suppressing noise given to a person other than the supported person located in the determination area 11A.

上述したように、被支援者がマーカー、角速度センサ、加速度センサ、磁気コイルなどのいずれも予め装着しない例では、特許文献1に記載された技術のように被支援者が端末装置を携帯する等の事前準備の必要なく、被支援者をスウィートスポット13A(図1(B)参照)に誘導することができる。つまり、事前準備が必要な場合よりも、被支援者の利便性を向上させることができる。
また、上述したように、案内音提示部13がパラメトリックスピーカー13Bを備える例では、特許文献1に記載された技術のように被支援者がイヤホンなどの音響機器を携帯する必要なく、案内音提示部13が提示する案内音による案内を受けることができる。つまり、イヤホンなどの音響機器の携帯が必要な場合よりも、被支援者の利便性を向上させることができる。
また、上述したように、パラメトリックスピーカー13Bが案内音を提示する例では、被支援者に提示される案内音が、案内を求めない者にとって騒音になってしまうおそれを抑制することができる。つまり、被支援者の周囲に拡散する雑音を抑制することができる。
また、パラメトリックスピーカー13Bが案内音を提示する例では、被支援者に対する案内音の提示が、没入型立体音響による音響提示ではないため、被支援者の周囲の音が遮断されない。その結果、被支援者への周囲の音が遮断される場合よりも、被支援者の安全性を向上させることができる。
また、パラメトリックスピーカー13Bが案内音を提示する例では、被支援者が触地図などに接触する必要なく案内を受けることができる。そのため、被支援者に対する案内を衛生的に行うことができる。
すなわち、上述した例では、晴眼者が地図などを見て把握することができる情報と同程度の直感性を持った情報を、パラメトリックスピーカー13Bによって被支援者に提示することができる。パラメトリックスピーカー13Bによって案内音で提示される情報の例としては、例えば判定エリア11Aの周囲の位置関係を示す地図情報などがある。
As described above, in an example in which the supportee does not previously mount any of the marker, the angular velocity sensor, the acceleration sensor, the magnetic coil, and the like, the supportee carries the terminal device as in the technique described in Patent Literature 1. The support recipient can be guided to the sweet spot 13A (see FIG. 1B) without the need for advance preparation. That is, the convenience of the supportee can be improved as compared with the case where advance preparation is necessary.
Further, as described above, in the example in which the guide sound presentation unit 13 includes the parametric speaker 13B, the supportee does not need to carry an audio device such as an earphone as in the technique described in Patent Literature 1, and provides the guide sound presentation. The guidance by the guidance sound presented by the unit 13 can be received. That is, the convenience of the supportee can be improved as compared with a case where an audio device such as an earphone is required to be carried.
Further, as described above, in the example in which the parametric speaker 13B presents the guidance sound, it is possible to suppress the possibility that the guidance sound presented to the supported person becomes noise for a person who does not request guidance. That is, it is possible to suppress noise diffused around the supportee.
Further, in the example in which the parametric speaker 13B presents the guidance sound, the guidance sound is not presented to the supported person by the immersive stereophonic sound, so that the sound around the supported person is not interrupted. As a result, the safety of the supportee can be improved as compared with the case where the surrounding sound to the supportee is cut off.
Further, in the example in which the parametric speaker 13B presents the guide sound, the supportee can receive the guide without having to touch the tactile map or the like. Therefore, guidance to the supportee can be performed in a sanitary manner.
That is, in the above-described example, information having the same level of intuition as information that a sighted person can see and understand on a map or the like can be presented to the supportee by the parametric speaker 13B. Examples of information presented by the parametric speaker 13B as a guide sound include, for example, map information indicating the positional relationship around the determination area 11A.

図2は第1実施形態のナビゲーション装置1において実行される処理の一例を示すフローチャートである。
図2に示す例では、ステップS11において、被支援者判定部11は、被支援者が判定エリア11A(図1(B)参照)に存在するか否かを判定する。
次いで、ステップS12において、被支援者誘導部12は、被支援者をスウィートスポット13A(図1(B)参照)に誘導する。
次いで、ステップS13において、案内音提示部13は、案内音をスウィートスポット13Aに提示する。
FIG. 2 is a flowchart illustrating an example of a process executed in the navigation device 1 according to the first embodiment.
In the example illustrated in FIG. 2, in step S11, the supported person determination unit 11 determines whether the supported person is in the determination area 11A (see FIG. 1B).
Next, in step S12, the supported person guiding unit 12 guides the supported person to the sweet spot 13A (see FIG. 1B).
Next, in step S13, the guide sound presenting unit 13 presents a guide sound to the sweet spot 13A.

詳細には、図2に示す例では、ステップS11に含まれるステップS11Aにおいて、トリガ音提示部11Bが、トリガ音を判定エリア11Aに提示する。
次いで、ステップS11に含まれるステップS11Bでは、反応検出部11Cは、ステップS11Aにおいて提示されたトリガ音に対するトリガ音受聴者の反応を検出する。
次いで、ステップS11に含まれるステップS11Cにおいて、被支援者判定部11は、被支援者が判定エリア11Aに存在するか否かを判定する。詳細には、ステップS11Cでは、被支援者判定部11は、ステップS11Bにおいて検出されたトリガ音受聴者の反応に基づいて、トリガ音受聴者が被支援者であるか否かを判定する。
被支援者が判定エリア11Aに存在する(トリガ音受聴者が被支援者である)と被支援者判定部11が判定した場合には、ステップS11に含まれるステップS11Dに進む。一方、被支援者が判定エリア11Aに存在しない(トリガ音受聴者が被支援者ではない)と被支援者判定部11が判定した場合には、ステップS11Aに戻る。
ステップS11に含まれるステップS11Dにおいて、トリガ音提示部11Bは、判定エリア11Aへのトリガ音の提示を停止する。
Specifically, in the example illustrated in FIG. 2, in step S11A included in step S11, the trigger sound presentation unit 11B presents a trigger sound to the determination area 11A.
Next, in step S11B included in step S11, the reaction detection unit 11C detects a response of the trigger sound listener to the trigger sound presented in step S11A.
Next, in step S11C included in step S11, the supported person determination unit 11 determines whether the supported person is present in the determination area 11A. Specifically, in step S11C, the supported person determination unit 11 determines whether or not the trigger sound listener is a supported person based on the response of the trigger sound listener detected in step S11B.
When the supported person determining unit 11 determines that the supported person is present in the determination area 11A (the listener of the trigger sound is the supported person), the process proceeds to step S11D included in step S11. On the other hand, when the supported person determining unit 11 determines that the supported person does not exist in the determination area 11A (the listener of the trigger sound is not the supported person), the process returns to step S11A.
In step S11D included in step S11, the trigger sound presentation unit 11B stops presenting the trigger sound to the determination area 11A.

次いで、ステップS12に含まれるステップS12Aにおいて、誘導音提示部12Aは、被支援者をスウィートスポット13Aに誘導する誘導音を提示する(誘導音の提示を開始する)。
次いで、ステップS12に含まれるステップS12Bにおいて、位置検出部12Bは、被支援者の位置を検出する。
次いで、ステップS12に含まれるステップS12Cでは、誘導完了判定部12Cは、ステップS12Bにおいて検出された被支援者の位置に基づいて、スウィートスポット13Aへの被支援者の誘導が完了したか否かを判定する。スウィートスポット13Aへの被支援者の誘導が完了したと誘導完了判定部12Cが判定した場合には、ステップS12に含まれるステップS12Dに進む。一方、スウィートスポット13Aへの被支援者の誘導が完了していないと誘導完了判定部12Cが判定した場合には、ステップS12Aに戻る。
ステップS12に含まれるステップS12Dにおいて、誘導音提示部12Aは、誘導音の提示を停止する。
Next, in step S12A included in step S12, the guidance sound presenting unit 12A presents a guidance sound that guides the supported person to the sweet spot 13A (starts presentation of the guidance sound).
Next, in step S12B included in step S12, the position detection unit 12B detects the position of the supported person.
Next, in step S12C included in step S12, the guidance completion determination unit 12C determines whether the guidance of the supported person to the sweet spot 13A has been completed based on the position of the supported person detected in step S12B. judge. When the guidance completion determining unit 12C determines that the guidance of the supported person to the sweet spot 13A has been completed, the process proceeds to step S12D included in step S12. On the other hand, when the guidance completion determining unit 12C determines that the guidance of the supported person to the sweet spot 13A has not been completed, the process returns to step S12A.
In step S12D included in step S12, the guidance sound presentation unit 12A stops presenting the guidance sound.

次いで、ステップS13において、案内音提示部13が、スウィートスポット13Aの被支援者に案内音を提示する(案内音の提示を開始する)。詳細には、ステップS13において、案内音提示部13のパラメトリックスピーカー13Bが、超音波を発生する。   Next, in step S13, the guide sound presenting unit 13 presents a guide sound to the supportee of the sweet spot 13A (starts presentation of the guide sound). Specifically, in step S13, the parametric speaker 13B of the guide sound presentation unit 13 generates an ultrasonic wave.

図1(B)に示す例では、トリガ音提示部11Bのスピーカー11B1は、案内音提示部13のパラメトリックスピーカー13Bよりも低い指向性を有する。そのため、トリガ音提示部11Bのスピーカー11B1は、スウィートスポット13Aより広い判定エリア11Aの全域にトリガ音を提示することができる。
図1(B)に示す例では、トリガ音提示部11Bのスピーカー11B1と誘導音提示部12Aのスピーカー12A1とが共用スピーカーであるため、誘導音提示部12Aのスピーカー12A1も、案内音提示部13のパラメトリックスピーカー13Bより低い指向性を有する。その結果、誘導音提示部12Aのスピーカー12A1は、スウィートスポット13Aより広い判定エリア11Aの全域に誘導音を提示することができる。
つまり、図1(B)に示す例では、スウィートスポット13Aよりも広い判定エリア11A内の任意の位置からスウィートスポット13Aに、被支援者を誘導することができる。
トリガ音提示部11Bのスピーカー11B1と誘導音提示部12Aのスピーカー12A1とが別個のスピーカーである例においても、トリガ音提示部11Bのスピーカー11B1が、案内音提示部13のパラメトリックスピーカー13Bより低い指向性を有し、誘導音提示部12Aのスピーカー12A1が、案内音提示部13のパラメトリックスピーカー13Bより低い指向性を有してもよい。
In the example shown in FIG. 1B, the speaker 11B1 of the trigger sound presentation unit 11B has a lower directivity than the parametric speaker 13B of the guide sound presentation unit 13. Therefore, the speaker 11B1 of the trigger sound presentation unit 11B can present the trigger sound to the entire determination area 11A wider than the sweet spot 13A.
In the example shown in FIG. 1B, since the speaker 11B1 of the trigger sound presentation unit 11B and the speaker 12A1 of the guidance sound presentation unit 12A are shared speakers, the speaker 12A1 of the guidance sound presentation unit 12A is also used as the guidance sound presentation unit 13 Has lower directivity than the parametric speaker 13B. As a result, the speaker 12A1 of the guidance sound presentation unit 12A can present the guidance sound over the entire determination area 11A wider than the sweet spot 13A.
That is, in the example shown in FIG. 1B, the support recipient can be guided to the sweet spot 13A from an arbitrary position in the determination area 11A that is wider than the sweet spot 13A.
In an example in which the speaker 11B1 of the trigger sound presentation unit 11B and the speaker 12A1 of the guidance sound presentation unit 12A are separate speakers, the speaker 11B1 of the trigger sound presentation unit 11B has a lower directivity than the parametric speaker 13B of the guide sound presentation unit 13. The speaker 12A1 of the guidance sound presentation unit 12A may have lower directivity than the parametric speaker 13B of the guidance sound presentation unit 13.

図1および図2に示す例では、トリガ音提示部11Bが提示するトリガ音と、誘導音提示部12Aが提示する誘導音とが異なる音である。そのため、図2のステップS11Dにおいて、トリガ音提示部11Bが、判定エリア11Aへのトリガ音の提示を停止し、次いで、ステップS12Aにおいて、誘導音提示部12Aが、誘導音の提示を開始する場合に、被支援者は、被支援者を探す段階(ステップS11D)から、被支援者をスウィートスポット13Aに誘導する段階(ステップS12A)に移行したことを容易に把握することができる。
他の例では、トリガ音提示部11Bが提示するトリガ音と、誘導音提示部12Aが提示する誘導音とが異ならなくてもよい。
In the example shown in FIGS. 1 and 2, the trigger sound presented by the trigger sound presentation unit 11B is different from the guidance sound presented by the guidance sound presentation unit 12A. Therefore, when the trigger sound presentation unit 11B stops presenting the trigger sound to the determination area 11A in step S11D of FIG. 2, and then, in step S12A, the guidance sound presentation unit 12A starts presenting the guidance sound. In addition, the supported person can easily grasp that the process has shifted from the step of searching for the supported person (step S11D) to the step of guiding the supported person to the sweet spot 13A (step S12A).
In another example, the trigger sound presented by the trigger sound presentation unit 11B and the guidance sound presented by the guidance sound presentation unit 12A may not be different.

図1および図2に示す例では、図2のステップS11Aにおいてトリガ音提示部11Bが提示するトリガ音に含まれる単位時間当たりの情報量と、ステップS12Aにおいて誘導音提示部12Aが提示する誘導音に含まれる単位時間当たりの情報量とは、ステップS13において案内音提示部13が提示する案内音に含まれる単位時間当たりの情報量よりも少ない。そのため、低い指向性を有するトリガ音提示部11Bのスピーカー11B1が出力するトリガ音、および、低い指向性を有する誘導音提示部12Aのスピーカー12A1が出力する誘導音が被支援者以外の者に騒音を与えてしまうおそれを抑制しつつ、高い指向性を有する案内音提示部13のパラメトリックスピーカー13Bが出力する案内音によって被支援者に詳しい情報を提示することができる。
他の例では、トリガ音に含まれる単位時間当たりの情報量および/または誘導音に含まれる単位時間当たりの情報量が、案内音に含まれる単位時間当たりの情報量と同等であってもよい。
In the example shown in FIGS. 1 and 2, the amount of information per unit time included in the trigger sound presented by the trigger sound presentation unit 11B in step S11A of FIG. 2 and the guidance sound presented by the guidance sound presentation unit 12A in step S12A Is smaller than the information amount per unit time included in the guide sound presented by the guide sound presenting unit 13 in step S13. For this reason, the trigger sound output from the speaker 11B1 of the trigger sound presentation unit 11B having low directivity and the guidance sound output from the speaker 12A1 of the guidance sound presentation unit 12A having low directivity cause noises to persons other than the supported person. The detailed information can be presented to the supportee by the guidance sound output from the parametric speaker 13B of the guidance sound presentation unit 13 having high directivity while suppressing the possibility of giving the information.
In another example, the information amount per unit time included in the trigger sound and / or the information amount per unit time included in the guidance sound may be equal to the information amount per unit time included in the guide sound. .

図1に示す例では、トリガ音提示部11Bは、反応検出部11Cによって検出されたトリガ音受聴者の反応に基づいて、提示するトリガ音のパターン(「パターン」には、単位時間当たりの音の発生回数なども含まれる。)または音量を変化させる。
例えばトリガ音提示部11Bによって提示されたトリガ音に対し、判定エリア11A内の複数のトリガ音受聴者のいずれもが無反応であった場合に、トリガ音提示部11Bは、提示するトリガ音のパターンを変化させる。
このようにすることにより、実際には案内音による案内を求める被支援者が判定エリア11Aに存在するにもかかわらず、被支援者が判定エリア11Aに存在しないと被支援者判定部11に誤って判定されてしまうおそれを抑制することができる。
例えばトリガ音提示部11Bによって提示されたトリガ音に対し、耳を塞ぐ反応を示したトリガ音受聴者が、反応検出部11Cによって検出された場合に、トリガ音提示部11Bは、提示するトリガ音の音量を減少させる。
このようにすることにより、トリガ音提示部11Bが提示するトリガ音が、判定エリア11A内に位置する被支援者以外の者にとって騒音になってしまうおそれを抑制することができる。
他の例では、トリガ音提示部11Bが、反応検出部11Cによって検出されたトリガ音受聴者の反応に基づいて、提示するトリガ音のパターンまたは音量を変化させなくてもよい。
In the example illustrated in FIG. 1, the trigger sound presenting unit 11B is configured to present a trigger sound pattern (“pattern” includes a sound per unit time) based on the response of the trigger sound listener detected by the reaction detecting unit 11C. And the volume is changed.
For example, when any of the plurality of trigger sound listeners in the determination area 11A does not respond to the trigger sound presented by the trigger sound presenting unit 11B, the trigger sound presenting unit 11B outputs the trigger sound to be presented. Change the pattern.
By doing in this way, even though the supportee who actually seeks guidance by the guidance sound exists in the determination area 11A, the supportee determination unit 11 incorrectly indicates that the supportee does not exist in the determination area 11A. Can be suppressed.
For example, when a trigger detection unit 11C detects a trigger sound listener who has responded to closing of the ear to the trigger sound presented by the trigger sound presentation unit 11B, the trigger sound presentation unit 11B presents a trigger sound to be presented. Decrease the volume.
By doing so, it is possible to suppress the possibility that the trigger sound presented by the trigger sound presentation unit 11B becomes noise for a person other than the support recipient located in the determination area 11A.
In another example, the trigger sound presentation unit 11B may not change the pattern or volume of the trigger sound to be presented based on the response of the trigger sound listener detected by the reaction detection unit 11C.

図1に示す例では、誘導音提示部12Aは、位置検出部12Bによって検出された被支援者の位置に基づいて、提示する誘導音のパターンまたは音量を変化させる。
例えば誘導音提示部12Aによって提示された誘導音に対して被支援者が無反応であった場合、誘導音によって提示される情報の意味内容を被支援者が理解できていないおそれがある。そのため、そのような場合に、誘導音提示部12Aは、提示する誘導音のパターンを変化させる。
また、誘導音提示部12Aによって提示された誘導音に対して被支援者が無反応であった場合、被支援者が誘導音を聴き取れていないおそれもある。そのため、誘導音提示部12Aは、提示する誘導音のパターンを変化させる前または後に、提示する誘導音の音量を増加させる。
このようにすることにより、被支援者をスウィートスポット13Aに誘導できない事態になるおそれを抑制することができる。
また、被支援者の位置に応じて、誘導音提示部12Aが提示する誘導音のパターンまたは音量が変化することにより、被支援者は、自分がスウィートスポット13Aに近づいているか否かを容易に把握することができる。具体的には、被支援者がスウィートスポット13Aに近づいている場合に誘導音提示部12Aが提示する誘導音のパターンまたは音量と、被支援者がスウィートスポット13Aに近づいていない場合に誘導音提示部12Aが提示する誘導音のパターンまたは音量とを異ならせることによって、被支援者は、自分がスウィートスポット13Aに近づいているか否かを容易に把握することができる。
In the example illustrated in FIG. 1, the guidance sound presenting unit 12A changes the pattern or volume of the guidance sound to be presented based on the position of the supported person detected by the position detection unit 12B.
For example, if the supportee does not respond to the guidance sound presented by the guidance sound presentation unit 12A, the supportee may not be able to understand the meaning of the information presented by the guidance sound. Therefore, in such a case, the guidance sound presenting unit 12A changes the pattern of the guidance sound to be presented.
Further, when the supportee does not respond to the guidance sound presented by the guidance sound presentation unit 12A, the supportee may not be able to hear the guidance sound. Therefore, the guidance sound presentation unit 12A increases the volume of the guidance sound to be presented before or after changing the pattern of the guidance sound to be presented.
By doing so, it is possible to suppress the possibility that the person to be supported cannot be guided to the sweet spot 13A.
In addition, by changing the pattern or volume of the guidance sound presented by the guidance sound presentation unit 12A according to the position of the supportee, the supportee can easily determine whether or not he or she is approaching the sweet spot 13A. You can figure out. Specifically, the guidance sound pattern or volume presented by the guidance sound presentation unit 12A when the supported person is approaching the sweet spot 13A, and the guidance sound presentation when the supported person is not approaching the sweet spot 13A. By making the pattern or volume of the guidance sound presented by the unit 12A different, the supported person can easily grasp whether or not he or she is approaching the sweet spot 13A.

上述したように、第1実施形態のナビゲーション装置1では、位置検出部12Bによって、被支援者の位置が検出される。また、誘導音提示部12Aが提示する誘導音によって、被支援者がスウィートスポット13Aに誘導される。図1に示す例では、複数のパラメトリックスピーカー13Bが、定位感を有するステレオ音響信号をスウィートスポット13Aに(つまり、ピンポイントに)提示する。また、パラメトリックスピーカー13Bが実際に配置されている位置と、得られる定位感とが異なる。つまり、立体音響が提示可能なスウィートスポット13Aに位置する被支援者の両耳に対して、案内音提示部13によって立体音響信号が再生される。案内音提示部13が立体音響信号を再生するトリガとして、被支援者の特定のジェスチャーが利用されてもよい。   As described above, in the navigation device 1 according to the first embodiment, the position of the supported person is detected by the position detection unit 12B. In addition, the supportee is guided to the sweet spot 13A by the guidance sound presented by the guidance sound presentation unit 12A. In the example shown in FIG. 1, the plurality of parametric speakers 13B present a stereophonic signal having a sense of localization to the sweet spot 13A (that is, pinpoint). Further, the position where the parametric speaker 13B is actually arranged is different from the obtained sense of localization. In other words, the guide sound presenting unit 13 reproduces a stereophonic sound signal for both ears of the supportee located at the sweet spot 13A where stereophonic sound can be presented. A specific gesture of the supported person may be used as a trigger for the guide sound presentation unit 13 to reproduce the stereoscopic sound signal.

第1実施形態のナビゲーション装置1によれば、視覚障害者や、日本語を理解できない外国人旅行者などが直感的に把握したい情報を、複数のパラメトリックスピーカー13Bが出力する案内音(立体音響)によって提示することができる。ナビゲーション装置1が提示する情報には、例えばスウィートスポット13Aの周囲の地図情報などが含まれる。
また、第1実施形態のナビゲーション装置1によれば、被支援者に対して情報がピンポイント再生されるため、周囲に拡散する雑音を抑制することができる。
According to the navigation device 1 of the first embodiment, a guide sound (stereophonic sound) is output from a plurality of parametric speakers 13B to a visually handicapped person or a foreign traveler who cannot understand Japanese who wants to intuitively grasp the information. Can be presented by The information presented by the navigation device 1 includes, for example, map information around the sweet spot 13A.
Further, according to the navigation device 1 of the first embodiment, since the information is reproduced in a pinpoint manner for the supported person, it is possible to suppress the noise spreading to the surroundings.

<第1実施形態のナビゲーション装置1の適用例>
第1実施形態のナビゲーション装置1は、例えば街中や駅などに設置されている地図看板に組み込まれる。この適用例では、地図看板が、図1(B)に示す判定エリア11A内に配置される。地図看板に記載された情報を理解しようとする視覚障害者、外国人旅行者などが、第1実施形態のナビゲーション装置1によって支援される被支援者に該当する。視覚障害者、外国人旅行者などが案内音による案内を求めているか否かが被支援者判定部11によって判定される。視覚障害者、外国人旅行者などが案内音による案内を求めている場合には、視覚障害者、外国人旅行者などが、被支援者誘導部12によってスウィートスポット13A(図1(B)参照)に誘導される。次いで、案内音提示部13が提示する地図情報が、立体音響として視覚障害者、外国人旅行者などに可聴される。
他の適用例では、第1実施形態のナビゲーション装置1が、出入り口、トイレなどへの被支援者の誘導に活用されてもよい。
更に他の適用例では、総合的に騒音を低減するために、ゲームセンターや展覧会など複数のユーザが存在する環境において、第1実施形態のナビゲーション装置1によって各ユーザに対するメディア提示が行われる。
<Application Example of Navigation Device 1 of First Embodiment>
The navigation device 1 according to the first embodiment is incorporated in a map signboard installed in, for example, a town or a station. In this application example, the map signboard is arranged in the determination area 11A shown in FIG. A visually impaired person, a foreign traveler, or the like who tries to understand the information described on the map signboard corresponds to the supported person supported by the navigation device 1 of the first embodiment. The supported person determination unit 11 determines whether a visually impaired person, a foreign traveler, or the like is requesting guidance by a guidance sound. When a visually impaired person, a foreign traveler, or the like seeks guidance using a guide sound, the visually impaired person, a foreign traveler, or the like uses the assisted person guiding unit 12 to provide a sweet spot 13A (see FIG. 1B). ). Next, the map information presented by the guidance sound presentation unit 13 is audible to visually impaired persons, foreign travelers, and the like as stereophonic sound.
In another application example, the navigation device 1 of the first embodiment may be used for guiding a supportee to an entrance, a toilet, or the like.
In still another application example, in an environment where a plurality of users exist, such as a game center or an exhibition, media presentation is performed for each user by the navigation device 1 of the first embodiment in order to reduce noise comprehensively.

<第2実施形態>
以下、添付図面を参照しつつ、本発明のナビゲーション装置およびナビゲーション方法の第2実施形態について説明する。
第2実施形態のナビゲーション装置1は、後述する点を除き、上述した第1実施形態のナビゲーション装置1と同様に構成されている。従って、第2実施形態のナビゲーション装置1によれば、後述する点を除き、上述した第1実施形態のナビゲーション装置1と同様の効果を奏することができる。
<Second embodiment>
Hereinafter, a second embodiment of the navigation device and the navigation method of the present invention will be described with reference to the accompanying drawings.
The navigation device 1 according to the second embodiment has the same configuration as the navigation device 1 according to the first embodiment described above, except for the points described below. Therefore, according to the navigation device 1 of the second embodiment, the same effects as those of the navigation device 1 of the above-described first embodiment can be obtained except for the points described below.

図3は第2実施形態のナビゲーション装置1の一例の概略構成を示す図である。詳細には、図3は、被支援者が求める情報量が図1に示す例よりも少ない場合などに適用されるナビゲーション装置1の一例を示している。
図3に示す例では、図1に示す例と同様に、ナビゲーション装置1が、被支援者判定部11と、被支援者誘導部12と、案内音提示部13とを備えている。被支援者判定部11は、案内音による案内を求める者である被支援者が判定エリア11A(図1(B)参照)に存在するか否かを判定する。また、被支援者判定部11は、トリガ音提示部11Bと、反応検出部11Cとを備えている。トリガ音提示部11Bは、トリガ音を判定エリア11Aに提示する。トリガ音提示部11Bは、スピーカー11B1を備えている。スピーカー11B1は、判定エリア11A内の被支援者などが受聴可能なトリガ音を出力する。反応検出部11Cは、トリガ音提示部11Bによって提示されたトリガ音に対するトリガ音受聴者の反応を検出する。
FIG. 3 is a diagram illustrating a schematic configuration of an example of the navigation device 1 according to the second embodiment. Specifically, FIG. 3 shows an example of the navigation device 1 applied when the amount of information required by the supportee is smaller than the example shown in FIG.
In the example illustrated in FIG. 3, the navigation device 1 includes a supported person determination unit 11, a supported person guidance unit 12, and a guidance sound presentation unit 13, as in the example illustrated in FIG. 1. The supported person determination unit 11 determines whether or not the supported person who requests guidance by the guidance sound exists in the determination area 11A (see FIG. 1B). Further, the supported person determination unit 11 includes a trigger sound presentation unit 11B and a reaction detection unit 11C. The trigger sound presenting section 11B presents a trigger sound in the determination area 11A. The trigger sound presentation unit 11B includes a speaker 11B1. The speaker 11B1 outputs a trigger sound that can be listened to by a support recipient or the like in the determination area 11A. The response detection unit 11C detects a response of the trigger sound listener to the trigger sound presented by the trigger sound presentation unit 11B.

図3に示す例では、図1に示す例と同様に、案内音による案内を求める被支援者が、マーカーを装着する必要がない。反応検出部11Cは、深度を検出可能なカメラを備えている。また、反応検出部11Cは、そのカメラが撮影した画像に基づいて、トリガ音提示部11Bによって提示されたトリガ音に対するトリガ音受聴者(被支援者など)の反応を検出する。被支援者判定部11は、反応検出部11Cによって検出されたトリガ音受聴者の反応に基づいて、そのトリガ音受聴者が被支援者であるか否かを判定する。
第2実施形態のナビゲーション装置1が適用される他の例では、案内音による案内を求める被支援者が、マーカーを予め装着してもよい。この例では、反応検出部11Cが、複数のカメラを備えている。反応検出部11Cは、光学式モーションキャプチャの技術を用いることによって、マーカーを装着している被支援者の位置および姿勢を記録する。被支援者判定部11は、反応検出部11Cによって検出されたトリガ音に対する被支援者(マーカーを装着している被支援者)の反応に基づいて、その被支援者が案内音による案内を求めているか否かを判定する。
第2実施形態のナビゲーション装置1が適用される更に他の例では、案内音による案内を求める被支援者が、角速度センサ、加速度センサなどを予め装着してもよい。この例では、反応検出部11Cが、角速度センサ、加速度センサなどによる検出結果を取得する。反応検出部11Cは、機械式モーションキャプチャの技術を用いることによって、角速度センサ、加速度センサなどを装着している被支援者の位置および姿勢を記録する。被支援者判定部11は、反応検出部11Cによって検出されたトリガ音に対する被支援者(角速度センサ、加速度センサなどを装着している被支援者)の反応に基づいて、その被支援者が案内音による案内を求めているか否かを判定する。
第2実施形態のナビゲーション装置1が適用される更に他の例では、案内音による案内を求める被支援者が、磁気コイルを予め装着してもよい。この例では、反応検出部11Cが、判定エリア11A(図1(B)参照)に磁界を発生させる。反応検出部11Cは、被支援者に装着された磁気コイルが磁界内で動くことによって生じる歪みを取得する。反応検出部11Cは、磁気式モーションキャプチャの技術を用いることによって、磁気コイルを装着している被支援者の位置および姿勢を記録する。被支援者判定部11は、反応検出部11Cによって検出されたトリガ音に対する被支援者(磁気コイルを装着している被支援者)の反応に基づいて、その被支援者が案内音による案内を求めているか否かを判定する。
In the example illustrated in FIG. 3, similarly to the example illustrated in FIG. 1, there is no need for the supported person who requests guidance by the guidance sound to wear the marker. The reaction detection unit 11C includes a camera capable of detecting a depth. In addition, the reaction detection unit 11C detects a response of a trigger sound listener (a supported person or the like) to the trigger sound presented by the trigger sound presentation unit 11B based on an image captured by the camera. The supported person determination unit 11 determines whether or not the trigger sound listener is a supported person based on the response of the trigger sound listener detected by the reaction detection unit 11C.
In another example to which the navigation device 1 of the second embodiment is applied, a supported person who requests guidance by a guidance sound may wear a marker in advance. In this example, the reaction detection unit 11C includes a plurality of cameras. The reaction detection unit 11C records the position and orientation of the supported person wearing the marker by using an optical motion capture technique. Based on the response of the supported person (supported person wearing the marker) to the trigger sound detected by the reaction detection unit 11C, the supported person determination unit 11 requests the supported person to provide guidance using the guidance sound. Is determined.
In still another example to which the navigation device 1 of the second embodiment is applied, a supportee who requests guidance by a guidance sound may be equipped with an angular velocity sensor, an acceleration sensor, or the like in advance. In this example, the reaction detection unit 11C acquires a detection result obtained by an angular velocity sensor, an acceleration sensor, or the like. The reaction detection unit 11C records the position and orientation of the support recipient wearing an angular velocity sensor, an acceleration sensor, and the like by using a mechanical motion capture technique. Based on the response of the supported person (supported person wearing an angular velocity sensor, an acceleration sensor, or the like) to the trigger sound detected by the reaction detection unit 11C, the supported person determination unit 11 provides guidance to the supported person. It is determined whether guidance by sound is required.
In still another example to which the navigation device 1 according to the second embodiment is applied, a supported person who requests guidance by a guidance sound may mount a magnetic coil in advance. In this example, the reaction detection unit 11C generates a magnetic field in the determination area 11A (see FIG. 1B). The reaction detection unit 11C acquires a distortion caused by the magnetic coil mounted on the supportee moving in the magnetic field. The reaction detection unit 11C records the position and orientation of the support recipient wearing the magnetic coil by using a magnetic motion capture technology. Based on the response of the supported person (supported person wearing a magnetic coil) to the trigger sound detected by the reaction detection unit 11C, the supported person determination unit 11 provides guidance by the guided sound. Determine if you are seeking.

図3に示す例では、図1に示す例と同様に、トリガ音受聴者が被支援者であると被支援者判定部11が判定した場合に、被支援者誘導部12は、判定エリア11A(図1(B)参照)内に位置する被支援者を、案内音の提示位置であるスウィートスポット13A(図1(B)参照)に誘導する。被支援者誘導部12は、誘導音提示部12Aと、位置検出部12Bと、誘導完了判定部12Cとを備えている。誘導音提示部12Aは、判定エリア11A内に位置する被支援者をスウィートスポット13Aに誘導する誘導音を提示する。誘導音提示部12Aは、スピーカー12A1を備えている。スピーカー12A1は、被支援者が受聴可能な誘導音を出力する。詳細には、トリガ音受聴者が被支援者であると被支援者判定部11が判定した場合に、トリガ音提示部11Bが判定エリア11Aへのトリガ音の提示を停止して、誘導音提示部12Aが誘導音の提示を開始する。位置検出部12Bは、誘導音によって誘導される被支援者の位置を検出する。位置検出部12Bは、カメラを備えている。位置検出部12Bは、そのカメラが撮影した画像から、被支援者の位置を検出する。誘導完了判定部12Cは、位置検出部12Bによって検出された被支援者の位置に基づいて、スウィートスポット13Aへの被支援者の誘導が完了したか否かを判定する。   In the example illustrated in FIG. 3, similarly to the example illustrated in FIG. 1, when the supported person determination unit 11 determines that the trigger sound listener is the supported person, the supported person guiding unit 12 determines the determination area 11A. The supported person located in (see FIG. 1 (B)) is guided to the sweet spot 13A (see FIG. 1 (B)) which is the presentation position of the guide sound. The supported person guidance unit 12 includes a guidance sound presentation unit 12A, a position detection unit 12B, and a guidance completion determination unit 12C. The guide sound presenting unit 12A presents a guide sound that guides the supported person located in the determination area 11A to the sweet spot 13A. The guidance sound presentation unit 12A includes a speaker 12A1. The speaker 12A1 outputs a guidance sound that can be heard by the supportee. More specifically, when the supported person determination unit 11 determines that the listener of the trigger sound is a supported person, the triggered sound presenting unit 11B stops presenting the trigger sound to the determination area 11A and presents the guidance sound. The unit 12A starts presentation of the guidance sound. The position detection unit 12B detects the position of the supported person guided by the guidance sound. The position detection unit 12B includes a camera. The position detection unit 12B detects the position of the supported person from the image captured by the camera. The guidance completion determination unit 12C determines whether the guidance of the supported person to the sweet spot 13A has been completed based on the position of the supported person detected by the position detection unit 12B.

図3に示す例では、図1に示す例と同様に、案内音提示部13が、スウィートスポット13A(図1(B)参照)に位置する被支援者に案内音を提示する。詳細には、スウィートスポット13Aへの被支援者の誘導が完了したと誘導完了判定部12Cが判定した場合に、誘導音提示部12Aが誘導音の提示を停止して、案内音提示部13が案内音の提示を開始する。
図1に示す例では、案内音提示部13が、超音波を発生する2個のパラメトリックスピーカー13Bを備えているが、図3に示す例では、案内音提示部13が、超音波を発生する1個のパラメトリックスピーカー13Bを備えている。つまり、案内音提示部13の1個のパラメトリックスピーカー13Bが、スウィートスポット13Aに位置する被支援者に案内音を提示する。そのため、案内音提示部13が2個のパラメトリックスピーカー13Bを備える場合よりも、ナビゲーション装置1全体のコストを抑制することができる。一方、図3に示す例では、被支援者が求める情報量が図1に示す例より少ないため、1個のパラメトリックスピーカー13Bによって、被支援者の要求を十分に満足させることができる。
すなわち、図3に示す例では、判定エリア11A内に位置する被支援者以外の者に与える騒音を抑制しかつナビゲーション装置1全体のコストを抑制しつつ、スウィートスポット13Aに位置する被支援者に対して必要十分な情報を提示することができる。
In the example illustrated in FIG. 3, similarly to the example illustrated in FIG. 1, the guide sound presenting unit 13 presents a guide sound to a supported person located at the sweet spot 13A (see FIG. 1B). Specifically, when the guidance completion determination unit 12C determines that the guidance of the supported person to the sweet spot 13A is completed, the guidance sound presentation unit 12A stops presenting the guidance sound, and the guidance sound presentation unit 13 The presentation of the guidance sound starts.
In the example illustrated in FIG. 1, the guide sound presentation unit 13 includes two parametric speakers 13B that generate ultrasonic waves. In the example illustrated in FIG. 3, the guide sound presentation unit 13 generates ultrasonic waves. It is provided with one parametric speaker 13B. That is, one parametric speaker 13B of the guide sound presenting unit 13 presents the guide sound to the supported person located at the sweet spot 13A. Therefore, the cost of the navigation device 1 as a whole can be suppressed as compared with the case where the guide sound presentation unit 13 includes two parametric speakers 13B. On the other hand, in the example shown in FIG. 3, since the amount of information required by the supported person is smaller than that in the example shown in FIG. 1, one parametric speaker 13B can sufficiently satisfy the request of the supported person.
That is, in the example illustrated in FIG. 3, while suppressing the noise given to the person other than the support recipient located in the determination area 11A and suppressing the cost of the navigation device 1 as a whole, the support recipient located at the sweet spot 13A can receive the noise. For this, necessary and sufficient information can be presented.

<第1または第2実施形態のナビゲーション装置1の変形例>
図1〜図3に示す例では、反応検出部11Cの一部を構成するセンサに、LIDAR(Light Detection And Ranging)、RADAR(Radio Detecting and Ranging)などが含まれないが、第1または第2実施形態のナビゲーション装置1の変形例では、反応検出部11Cの一部を構成するセンサに、上述した各種センサに加えて、LIDAR、RADARなどが含まれてもよい。
<Modification of Navigation Device 1 of First or Second Embodiment>
In the examples shown in FIGS. 1 to 3, the sensors constituting a part of the reaction detection unit 11 </ b> C do not include LIDAR (Light Detection And Ranging), RADAR (Radio Detecting and Ranging), but the first or second sensor. In a modified example of the navigation device 1 of the embodiment, a sensor constituting a part of the reaction detection unit 11C may include LIDAR, RADAR, and the like in addition to the various sensors described above.

図1〜図3に示す例では、反応検出部11Cが、被支援者によって所持されている白杖を検出しないが、第1または第2実施形態のナビゲーション装置1の変形例では、反応検出部11Cが、被支援者によって所持されている白杖を検出してもよい。この例では、反応検出部11Cが白杖を検出した場合に、被支援者判定部11は、その白杖を所持するトリガ音受聴者が被支援者であると判定する。   In the example illustrated in FIGS. 1 to 3, the reaction detection unit 11 </ b> C does not detect the white stick carried by the supported person. However, in the modification of the navigation device 1 according to the first or second embodiment, the reaction detection unit 11 </ b> C does not. 11C may detect the white stick carried by the supported person. In this example, when the reaction detection unit 11C detects the white cane, the supported person determination unit 11 determines that the trigger sound listener having the white cane is the supported person.

図1〜図3に示す例では、反応検出部11Cが、被支援者によって所持されている識別情報(被支援者であることを示す識別情報)を検出しないが、第1または第2実施形態のナビゲーション装置1の変形例では、反応検出部11Cが、被支援者によって所持されている識別情報を検出してもよい。
識別情報がRF(Radio Frequency)タグである例では、反応検出部11Cが、その識別情報を読み取るリーダ機能を有する。被支援者判定部11は、反応検出部11Cが読み取った識別情報に基づいて、その識別情報を所持するトリガ音受聴者が被支援者であると判定する。
In the example illustrated in FIGS. 1 to 3, the reaction detection unit 11 </ b> C does not detect the identification information (identification information indicating that the person is a supported person) possessed by the supported person, but in the first or second embodiment. In a modification of the navigation device 1, the reaction detection unit 11C may detect identification information possessed by the supported person.
In an example in which the identification information is an RF (Radio Frequency) tag, the reaction detection unit 11C has a reader function of reading the identification information. The supported person determination unit 11 determines that the trigger sound listener having the identification information is the supported person based on the identification information read by the reaction detection unit 11C.

図1〜図3に示す例では、位置検出部12Bがカメラを備えているが、第1または第2実施形態のナビゲーション装置1の変形例では、位置検出部12Bがカメラ以外にLIDAR、RADARなどを備えていてもよい。この例では、位置検出部12Bが、カメラによって撮影された画像から被支援者の位置を検出できない場合などに、LIDAR、RADARなどの機能を用いることによって、被支援者の位置を検出する。   In the example shown in FIGS. 1 to 3, the position detection unit 12B includes a camera. However, in a modified example of the navigation device 1 according to the first or second embodiment, the position detection unit 12B includes a LIDAR, a RADAR, or the like in addition to the camera. May be provided. In this example, when the position detection unit 12B cannot detect the position of the supported person from the image captured by the camera, the position detection unit 12B detects the position of the supported person by using a function such as LIDAR or RADAR.

図1〜図3に示す例では、被支援者が、例えば携帯電話などの自己位置情報発信手段を所持していないが、第1または第2実施形態のナビゲーション装置1の変形例では、位置検出部12Bが、カメラによって撮影された画像から被支援者の位置を検出できない場合などに、上述した自己位置情報を用いることによって被支援者の位置を検出してもよい。   In the example shown in FIGS. 1 to 3, the supportee does not have a self-position information transmitting unit such as a mobile phone. However, in the modification of the navigation device 1 according to the first or second embodiment, the position detection is performed. When the position of the supported person cannot be detected from the image captured by the camera, the unit 12B may detect the position of the supported person by using the self-position information described above.

図1〜図3に示す例では、パラメトリックスピーカー13Bが提示する案内音に含まれる情報が、例えば地図情報であるが、第1または第2実施形態のナビゲーション装置1の変形例では、パラメトリックスピーカー13BがAR(拡張現実)デバイスの一部として機能してもよい。   In the example shown in FIGS. 1 to 3, the information included in the guide sound presented by the parametric speaker 13B is, for example, map information. However, in the modification of the navigation device 1 according to the first or second embodiment, the parametric speaker 13B is used. May function as part of an AR (Augmented Reality) device.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。上述した各実施形態および各例に記載の構成を適宜組み合わせてもよい。   As described above, the embodiments for carrying out the present invention have been described using the embodiments. However, the present invention is not limited to these embodiments at all, and various modifications and substitutions may be made without departing from the gist of the present invention. Can be added. The configurations described in the above embodiments and examples may be appropriately combined.

なお、上述した実施形態におけるナビゲーション装置1が備える各部の機能全体あるいはその一部は、これらの機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶部のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
In addition, all or a part of the functions of each unit included in the navigation device 1 in the above-described embodiment is obtained by recording a program for implementing these functions on a computer-readable recording medium and recording the program on the recording medium. The program may be implemented by causing a computer system to read and execute the program. Here, the “computer system” includes an OS and hardware such as peripheral devices.
The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage unit such as a hard disk built in a computer system. Further, a "computer-readable recording medium" refers to a communication line for transmitting a program via a network such as the Internet or a communication line such as a telephone line, and dynamically holds the program for a short time. Such a program may include a program that holds a program for a certain period of time, such as a volatile memory in a computer system serving as a server or a client in that case. Further, the above-mentioned program may be for realizing a part of the above-mentioned functions, or may be for realizing the above-mentioned functions in combination with a program already recorded in a computer system.

1…ナビゲーション装置、11…被支援者判定部、11A…判定エリア、11B…トリガ音提示部、11B1…スピーカー、11C…反応検出部、12…被支援者誘導部、12A…誘導音提示部、12A1…スピーカー、12B…位置検出部、12C…誘導完了判定部、13…案内音提示部、13A…スウィートスポット、13B…パラメトリックスピーカー DESCRIPTION OF SYMBOLS 1 ... Navigation apparatus, 11 ... Supportee determination part, 11A ... Determination area, 11B ... Trigger sound presentation part, 11B1 ... Speaker, 11C ... Reaction detection part, 12 ... Supportee guidance part, 12A ... Guide sound presentation part, 12A1: speaker, 12B: position detecting unit, 12C: guidance completion determining unit, 13: guide sound presenting unit, 13A: sweet spot, 13B: parametric speaker

Claims (9)

案内音による案内を求める者である被支援者が判定エリアに存在するか否かを判定する被支援者判定部と、
前記被支援者を前記判定エリア内の位置から案内音の提示位置であるスウィートスポットに誘導する被支援者誘導部と、
案内音を前記スウィートスポットに提示する案内音提示部とを備え、
前記被支援者判定部は、
トリガ音を前記判定エリアに提示するトリガ音提示部と、
前記トリガ音提示部によって提示されたトリガ音に対するトリガ音受聴者の反応を検出する反応検出部とを備え、
前記被支援者誘導部は、
前記被支援者を前記スウィートスポットに誘導する誘導音を提示する誘導音提示部と、
前記被支援者の位置を検出する位置検出部と、
前記位置検出部によって検出された前記被支援者の位置に基づいて、前記被支援者の誘導が完了したか否かを判定する誘導完了判定部とを備え、
前記案内音提示部は、
超音波を発生するパラメトリックスピーカーを備え、
前記被支援者判定部は、前記反応検出部によって検出された前記トリガ音受聴者の反応に基づいて、前記トリガ音受聴者が前記被支援者であるか否かを判定し、
前記トリガ音受聴者が前記被支援者であると前記被支援者判定部が判定した場合に、前記トリガ音提示部が前記判定エリアへのトリガ音の提示を停止して、前記誘導音提示部が誘導音の提示を開始し、
前記被支援者の誘導が完了したと前記誘導完了判定部が判定した場合に、前記誘導音提示部が誘導音の提示を停止して、前記案内音提示部が案内音の提示を開始する、
ナビゲーション装置。
A supported person determination unit that determines whether a supported person who is a person who requests guidance by the guidance sound is present in the determination area,
A supported person guiding unit that guides the supported person from a position in the determination area to a sweet spot that is a presentation position of a guidance sound,
A guide sound presenting unit for presenting a guide sound to the sweet spot,
The supportee determination unit,
A trigger sound presentation unit for presenting a trigger sound in the determination area,
A reaction detection unit that detects a response of the trigger sound listener to the trigger sound presented by the trigger sound presentation unit,
The supportee guiding unit,
A guidance sound presentation unit that presents a guidance sound for guiding the supported person to the sweet spot,
A position detection unit that detects the position of the supported person,
A guidance completion determining unit that determines whether or not the guidance of the supported person has been completed based on the position of the supported person detected by the position detection unit,
The guidance sound presenting unit,
With a parametric speaker that generates ultrasonic waves,
The supported person determination unit is configured to determine whether the trigger sound listener is the supported person based on a response of the trigger sound listener detected by the reaction detection unit,
When the supported person determining unit determines that the trigger sound listener is the supported person, the trigger sound presenting unit stops presenting the trigger sound to the determination area, and the guidance sound presenting unit Starts showing the guidance sound,
When the guidance completion determination unit determines that the guidance of the supported person has been completed, the guidance sound presentation unit stops presenting the guidance sound, and the guidance sound presentation unit starts presenting a guidance sound,
Navigation device.
前記案内音提示部が複数の前記パラメトリックスピーカーを備え、
前記案内音提示部によって前記スウィートスポットに提示される音が立体音響である、
請求項1に記載のナビゲーション装置。
The guidance sound presentation unit includes a plurality of the parametric speakers,
The sound presented to the sweet spot by the guide sound presentation unit is a three-dimensional sound,
The navigation device according to claim 1.
前記トリガ音提示部は、前記パラメトリックスピーカーよりも低い指向性を有する第1スピーカーを備え、
前記誘導音提示部は、前記パラメトリックスピーカーよりも低い指向性を有する第2スピーカーを備える、
請求項1または請求項2に記載のナビゲーション装置。
The trigger sound presentation unit includes a first speaker having a lower directivity than the parametric speaker,
The guidance sound presentation unit includes a second speaker having lower directivity than the parametric speaker,
The navigation device according to claim 1 or 2.
前記第1スピーカーと前記第2スピーカーとが共用スピーカーである、
請求項3に記載のナビゲーション装置。
The first speaker and the second speaker are shared speakers,
The navigation device according to claim 3.
前記トリガ音提示部が提示するトリガ音と、前記誘導音提示部が提示する誘導音とが異なる音である、
請求項1または請求項2に記載のナビゲーション装置。
The trigger sound presented by the trigger sound presentation unit and the guidance sound presented by the guidance sound presentation unit are different sounds,
The navigation device according to claim 1 or 2.
前記トリガ音提示部が提示するトリガ音に含まれる単位時間当たりの情報量と、前記誘導音提示部が提示する誘導音に含まれる単位時間当たりの情報量とは、前記案内音提示部が提示する案内音に含まれる単位時間当たりの情報量よりも少ない、
請求項1または請求項2に記載のナビゲーション装置。
The amount of information per unit time included in the trigger sound presented by the trigger sound presentation unit and the amount of information per unit time included in the guidance sound presented by the guidance sound presentation unit are presented by the guidance sound presentation unit. Less than the amount of information per unit time included in the guide sound
The navigation device according to claim 1 or 2.
前記トリガ音提示部は、前記反応検出部によって検出された前記トリガ音受聴者の反応に基づいて、提示するトリガ音のパターンまたは音量を変化させる、
請求項1または請求項2に記載のナビゲーション装置。
The trigger sound presentation unit, based on the response of the trigger sound listener detected by the reaction detection unit, to change the pattern or volume of the trigger sound to be presented,
The navigation device according to claim 1 or 2.
前記誘導音提示部は、前記位置検出部によって検出された前記被支援者の位置に基づいて、提示する誘導音のパターンまたは音量を変化させる、
請求項1または請求項2に記載のナビゲーション装置。
The guidance sound presenting unit, based on the position of the supported person detected by the position detection unit, to change the pattern or volume of the guidance sound to be presented,
The navigation device according to claim 1 or 2.
案内音による案内を求める者である被支援者が判定エリアに存在するか否かを判定する被支援者判定ステップと、
前記被支援者を前記判定エリア内の位置から案内音の提示位置であるスウィートスポットに誘導する被支援者誘導ステップと、
案内音を前記スウィートスポットに提示する案内音提示ステップとを備えるナビゲーション方法であって、
前記被支援者判定ステップには、
トリガ音を前記判定エリアに提示するトリガ音提示ステップと、
前記トリガ音提示ステップにおいて提示されたトリガ音に対するトリガ音受聴者の反応を検出する反応検出ステップとが含まれ、
前記被支援者誘導ステップには、
前記被支援者を前記スウィートスポットに誘導する誘導音を提示する誘導音提示ステップと、
前記被支援者の位置を検出する位置検出ステップと、
前記位置検出ステップにおいて検出された前記被支援者の位置に基づいて、前記被支援者の誘導が完了したか否かを判定する誘導完了判定ステップとが含まれ、
前記案内音提示ステップでは、パラメトリックスピーカーが超音波を発生し、
前記被支援者判定ステップでは、前記反応検出ステップにおいて検出された前記トリガ音受聴者の反応に基づいて、前記トリガ音受聴者が前記被支援者であるか否かが判定され、
前記トリガ音受聴者が前記被支援者であると前記被支援者判定ステップにおいて判定された場合に、前記トリガ音提示ステップにおける前記判定エリアへのトリガ音の提示が停止され、前記誘導音提示ステップにおける誘導音の提示が開始され、
前記被支援者の誘導が完了したと前記誘導完了判定ステップにおいて判定された場合に、前記誘導音提示ステップにおける誘導音の提示が停止され、前記案内音提示ステップにおける案内音の提示が開始される、
ナビゲーション方法。
A supported person determination step of determining whether a supported person who is a person who requests guidance by the guidance sound is present in the determination area,
A supported person guiding step of guiding the supported person from a position in the determination area to a sweet spot that is a presentation position of a guidance sound,
A guidance sound presentation step of presenting a guidance sound to the sweet spot,
In the supported person determination step,
A trigger sound presentation step of presenting a trigger sound in the determination area;
A reaction detection step of detecting a response of the trigger sound listener to the trigger sound presented in the trigger sound presentation step,
In the supportee guiding step,
A guidance sound presentation step of presenting a guidance sound for guiding the supported person to the sweet spot,
A position detection step of detecting the position of the supported person,
Based on the position of the supported person detected in the position detection step, a guidance completion determining step of determining whether or not the guidance of the supported person has been completed,
In the guiding sound presentation step, a parametric speaker generates ultrasonic waves,
In the supported person determination step, based on the response of the trigger sound listener detected in the reaction detection step, it is determined whether the trigger sound listener is the supported person,
When it is determined in the supported person determining step that the trigger sound listener is the supported person, presentation of the trigger sound to the determination area in the trigger sound presenting step is stopped, and the guiding sound presenting step is performed. The presentation of the guidance sound at is started,
When it is determined in the guidance completion determination step that the guidance of the supported person is completed, the presentation of the guidance sound in the guidance sound presentation step is stopped, and the presentation of the guidance sound in the guidance sound presentation step is started. ,
Navigation method.
JP2018134091A 2018-07-17 2018-07-17 Navigation device and navigation method Active JP7173530B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018134091A JP7173530B2 (en) 2018-07-17 2018-07-17 Navigation device and navigation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018134091A JP7173530B2 (en) 2018-07-17 2018-07-17 Navigation device and navigation method

Publications (2)

Publication Number Publication Date
JP2020014084A true JP2020014084A (en) 2020-01-23
JP7173530B2 JP7173530B2 (en) 2022-11-16

Family

ID=69169651

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018134091A Active JP7173530B2 (en) 2018-07-17 2018-07-17 Navigation device and navigation method

Country Status (1)

Country Link
JP (1) JP7173530B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10164697A (en) * 1996-12-04 1998-06-19 Kiyoshi Kawachi Voice guide system for specified walker
JP2000082162A (en) * 1998-09-04 2000-03-21 Toshiba Corp Information input and output device and automatic transaction machine
JP2006157403A (en) * 2004-11-29 2006-06-15 Mitsubishi Electric Engineering Co Ltd Loudspeaker for bus stop
JP2014113855A (en) * 2012-12-06 2014-06-26 Denso Corp Drive support device
JP2016126098A (en) * 2014-12-26 2016-07-11 大学共同利用機関法人 人間文化研究機構 Guide apparatus
WO2017018298A1 (en) * 2015-07-27 2017-02-02 シャープ株式会社 Voice-guided navigation device and voice-guided navigation program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10164697A (en) * 1996-12-04 1998-06-19 Kiyoshi Kawachi Voice guide system for specified walker
JP2000082162A (en) * 1998-09-04 2000-03-21 Toshiba Corp Information input and output device and automatic transaction machine
JP2006157403A (en) * 2004-11-29 2006-06-15 Mitsubishi Electric Engineering Co Ltd Loudspeaker for bus stop
JP2014113855A (en) * 2012-12-06 2014-06-26 Denso Corp Drive support device
JP2016126098A (en) * 2014-12-26 2016-07-11 大学共同利用機関法人 人間文化研究機構 Guide apparatus
WO2017018298A1 (en) * 2015-07-27 2017-02-02 シャープ株式会社 Voice-guided navigation device and voice-guided navigation program

Also Published As

Publication number Publication date
JP7173530B2 (en) 2022-11-16

Similar Documents

Publication Publication Date Title
US11531518B2 (en) System and method for differentially locating and modifying audio sources
EP3424229B1 (en) Systems and methods for spatial audio adjustment
Harma et al. Techniques and applications of wearable augmented reality audio
US9558761B2 (en) Causation of rendering of song audio information based upon distance from a sound source
WO2018180024A1 (en) Information processing device, information processing method, and program
TWI672012B (en) Interactive directional audio display system and interactive directional audio display method
JP2004227468A (en) Information provision device and information provision method
JP7326922B2 (en) Systems, methods, and programs for guiding speaker and microphone arrays using encoded light rays
Mariette Human factors research in audio augmented reality
JP2016183968A (en) Voice guidance support system and program therefor
JP6146182B2 (en) Information providing apparatus, information providing system, and information providing program
JP7173530B2 (en) Navigation device and navigation method
US20240031759A1 (en) Information processing device, information processing method, and information processing system
JP6651231B2 (en) Portable information terminal, information processing device, and program
JP6048516B2 (en) Information providing system and information providing method
JP2012182552A (en) Content reproduction device and content reproduction method
JP6493343B2 (en) Information providing system, information providing method and program
WO2023281820A1 (en) Information processing device, information processing method, and storage medium
US20230038945A1 (en) Signal processing apparatus and method, acoustic reproduction apparatus, and program
JP2006114942A (en) Sound providing system, sound providing method, program for this method, and recording medium
JP7151707B2 (en) Information processing device, information processing method, and program
JP6955838B2 (en) Playback control device, playback control method and program
US11170630B2 (en) Audio conditioning chimes
US11163522B2 (en) Fine grain haptic wearable device
WO2021193231A1 (en) Information processing device, information processing method, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221027

R150 Certificate of patent or registration of utility model

Ref document number: 7173530

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150