JP2005309948A - Information providing device - Google Patents
Information providing device Download PDFInfo
- Publication number
- JP2005309948A JP2005309948A JP2004128269A JP2004128269A JP2005309948A JP 2005309948 A JP2005309948 A JP 2005309948A JP 2004128269 A JP2004128269 A JP 2004128269A JP 2004128269 A JP2004128269 A JP 2004128269A JP 2005309948 A JP2005309948 A JP 2005309948A
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- target
- obstacle
- specified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Navigation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、例えば美術館等に展示されている絵画にまつわるエピソードなど、対象物に関する情報を提供するための技術に関する。 The present invention relates to a technique for providing information related to an object such as an episode related to a picture displayed in a museum or the like.
美術館や博物館等においては、ユーザに対して展示物(対象物)の解説を音声で行う音声ガイド装置が広く利用されている。各対象物近傍には、各対象物を識別するための識別番号(「3323」等)を記載した番号札が貼られており、各ユーザは、該番号札に記載されている識別番号を音声ガイド装置に適宜入力することで、該当する対象物の解説を聴取していた(例えば、特許文献1参照)。 In art museums, museums, etc., voice guide devices are widely used to explain the exhibits (objects) to users by voice. In the vicinity of each object, a number tag describing an identification number (such as “3323”) for identifying each object is affixed, and each user speaks the identification number described on the number tag. By appropriately inputting the information into the guide device, the user listens to the explanation of the target object (see, for example, Patent Document 1).
しかしながら、上記従来技術において対象物の解説を聴取するためには、各ユーザは対応する番号札をみつけ、この番号札に記載されている識別番号を音声ガイド装置に適宜入力するといった煩わしい操作を行う必要があった。
また、例えば対象物が立体的で大きな美術品等である場合には、この対象物の近傍に番号札を複数貼りつける必要があるため、外観を損ねてしまい、さらに、ユーザが識別番号を誤って入力した場合には、実際にユーザが所望する対象物とは全く関係のない対象物に関する解説が再生されてしまう等の問題もあった。
However, in order to listen to the explanation of the object in the above prior art, each user finds the corresponding number tag and performs a troublesome operation such as appropriately inputting the identification number described on the number tag into the voice guide device. There was a need.
In addition, for example, when the object is a three-dimensional object such as a large piece of art, it is necessary to stick a plurality of number tags in the vicinity of the object. If there is a problem, there is a problem that a comment on an object that has nothing to do with the object actually desired by the user is reproduced.
本発明は、以上説明した事情を鑑みてなされたものであり、ユーザに煩わしい操作を強いることなく、該ユーザが所望する対象物に関する情報を提供することができる情報提供装置を構築することを目的とする。 The present invention has been made in view of the circumstances described above, and an object thereof is to construct an information providing apparatus capable of providing information on an object desired by a user without forcing the user to perform troublesome operations. And
上述した問題を解決するため、本発明に係る情報提供装置は、ユーザの位置を検出する位置検出手段と、前記ユーザの方向を検出する方向検出手段と、各対象物の位置及び形状を特定する対象物情報と各対象物の提供情報とを対応付けて記憶する対象物記憶手段と、検出された前記ユーザの位置および該ユーザの方向と、前記対象物情報によって特定される各対象物の位置および形状とを比較し、比較結果に基づいて対応する対象物を特定し、特定した対象物の提供情報を前記記憶手段から取得する取得手段と、検出される前記ユーザの位置及び該ユーザの方向と、前記対象物情報によって特定される各対象物の位置及び形状とを比較し、比較結果に基づいて対応する対象物を特定し、特定した対象物の提供情報を前記記憶手段から取得する取得手段と、取得された前記提供情報を出力する出力手段とを具備することを特徴とする。 In order to solve the above-described problem, an information providing apparatus according to the present invention specifies a position detection unit that detects a user's position, a direction detection unit that detects the user's direction, and a position and a shape of each object. Object storage means for storing object information and provision information of each object in association with each other, the detected position of the user and the direction of the user, and the position of each object specified by the object information And the shape, the corresponding object is identified based on the comparison result, the acquisition means for acquiring the provision information of the identified object from the storage means, the position of the user to be detected and the direction of the user And the position and shape of each target object specified by the target object information, the corresponding target object is specified based on the comparison result, and the provision information of the specified target object is acquired from the storage means And resulting unit, characterized by comprising an output means for outputting the provided information acquired.
かかる構成によれば、検出される前記ユーザの位置及び該ユーザの方向と、前記対象物情報によって特定される各対象物(絵画等)の位置及び形状とを比較し、比較結果に基づいて対応する対象物が特定される。このように、対象物の位置のみならず、対象物の形状をも考慮して対象物が特定されるため、ユーザが提供情報(対象物のエピソード等)の出力を欲する対象物を正確に特定することが可能となる(図6等参照)。 According to such a configuration, the detected position of the user and the direction of the user are compared with the position and shape of each target object (such as a painting) specified by the target object information, and a response is made based on the comparison result. The object to be identified is identified. In this way, since the target is specified in consideration of not only the position of the target but also the shape of the target, the target that the user wants to output provided information (such as an episode of the target) is accurately specified. (See FIG. 6 and the like).
本発明の望ましい態様においては、前記提供情報の出力指示を入力する入力手段がさらに設けられ、前記出力手段は、前記出力指示の入力を契機として前記提供情報を出力する。この態様によれば、出力指示を契機として提供情報が出力されるから、例えばユーザが出力指示を入力し得る構成とすれば、ユーザの任意のタイミングにて提供情報を取得することが可能となる。 In a preferred aspect of the present invention, input means for inputting an output instruction for the provision information is further provided, and the output means outputs the provision information in response to the input of the output instruction. According to this aspect, since the provision information is output in response to the output instruction, for example, if the user can input the output instruction, the provision information can be acquired at any timing of the user. .
ここで、本発明にあっては、各障害物に関連する情報であり、各障害物の位置を特定する障害物情報を記憶する障害物記憶手段をさらに具備し、前記取得手段は、検出される前記ユーザの位置及び該ユーザの方向と、前記対象物情報によって特定される各対象物の位置及び形状と、前記障害物情報によって特定される各障害物の位置とを比較し、比較結果に基づいて対応する対象物を特定する態様が好ましい。 Here, in the present invention, the information processing apparatus further includes obstacle storage means for storing obstacle information that is information related to each obstacle and identifies the position of each obstacle, and the acquisition means is detected. The position of the user and the direction of the user, the position and shape of each object specified by the object information, and the position of each obstacle specified by the obstacle information are compared. The aspect which specifies the target object based on based is preferable.
さらに、前記ユーザの視線の角度を検出する仰角検出手段をさらに具備し、前記取得手段は、検出される前記ユーザの位置、該ユーザの方向、及び該ユーザの視線の角度と、前記対象物情報によって特定される各対象物の位置及び形状とを比較し、比較結果に基づいて対応する対象物を特定する態様がさらに好ましい。 Furthermore, it further includes an elevation angle detecting means for detecting an angle of the user's line of sight, and the acquisition means includes the detected position of the user, the direction of the user, the angle of the user's line of sight, and the object information. The aspect which compares the position and shape of each target object specified by, and specifies the corresponding target object based on the comparison result is further preferable.
さらにまた、前記提供情報は、前記対象物の特性を音声にて出力するための音声情報であり、前記出力手段は、取得された前記音声情報を再生して出力する態様が好ましい。 Furthermore, it is preferable that the provision information is sound information for outputting the characteristics of the object by sound, and the output unit reproduces and outputs the acquired sound information.
以上説明したように、本発明によれば、ユーザに煩わしい操作を強いることなく、該ユーザが所望する対象物に関する情報を提供することが可能となる。 As described above, according to the present invention, it is possible to provide information on an object desired by a user without forcing the user to perform troublesome operations.
以下、本発明に係る実施の形態について図面を参照しながら説明する。 Embodiments according to the present invention will be described below with reference to the drawings.
A.本実施形態
図1は、本実施形態に係る音声ガイドシステム(情報提供装置)100の構成を示す図である。
音声ガイドシステム100は、操作リモコン110と、本システムが適用される全対象物の解説情報(後述)等を備えたガイド本体120と、ユーザによって装着されるヘッドフォン130とを具備する。ヘッドフォン130のアームには、ユーザの位置及びユーザの方向(特にユーザの視線の向き)を検出するための処理ユニットUが配設されている。なお、本実施形態では、操作リモコン110とガイド本体120と処理ユニットUとが相互に無線接続される場合を想定するが、ケーブル等によって有線接続される構成を採用しても良い。また、処理ユニットUが配設される場所は任意である。例えば、ユーザが携帯する情報端末に処理ユニットUが搭載されてヘッドフォン130に接続された構成を採用しても良い。
A. First Embodiment FIG. 1 is a diagram illustrating a configuration of a voice guide system (information providing apparatus) 100 according to the present embodiment.
The voice guide system 100 includes an operation
図2は、音声ガイドシステム100の機能的な構成を示す図である。同図に示されるように、処理ユニットUは、位置情報取得部(位置検出手段)210と、方向情報取得部(方向検出手段)220と、制御部(取得手段)230とを有する。このうち位置情報取得部210は、ヘッドフォン130を装着するユーザの位置を検出し、検出結果をユーザ位置情報として出力する手段であり、GPS(Global Positioning System)の受信機等によって構成される。ユーザの位置検出に関しては、上記GPSを利用するほか、限られた範囲(屋内等)での位置測定に有効な超音波センサや赤外線センサ等を利用したり、超音波と赤外線(若しくは光波)との到達時間差を利用しても良い。
FIG. 2 is a diagram illustrating a functional configuration of the voice guidance system 100. As shown in the figure, the processing unit U includes a position information acquisition unit (position detection unit) 210, a direction information acquisition unit (direction detection unit) 220, and a control unit (acquisition unit) 230. Among these, the position
方向情報取得部220は、ヘッドフォン130を装着するユーザの顔の向き(すなわち視線の方向)を検出し、検出結果をユーザ方向情報として出力する手段であり、例えば地磁気センサやジャイロセンサといった各種のセンサによって構成される。もっとも、ユーザの方向を検出する方法は地磁気センサやジャイロセンサに限定されない。例えば、ヘッドフォン130に2つの位置センサを設け、これら各位置センサによって検出される位置の差から方向を検出するようにしても良い。
The direction
操作リモコン(入力手段)110は、対象物の解説の開始指示(提供情報の出力を指示)を入力するための再生ボタンB1や該解説の終了指示を入力するための停止ボタンB2など、複数の操作子を備えている。 The operation remote controller (input means) 110 includes a plurality of buttons such as a playback button B1 for inputting an instruction to start explanation of an object (instruction to output provided information) and a stop button B2 for inputting an instruction to end the explanation. It has an operator.
制御部230は、音声ガイドシステム100を構成する各部を中枢的に制御する手段である。制御部230は、操作リモコン110から無線等を介して対象物の解説の開始指示を受信すると、かかる開始指示の受信(入力)を契機として、位置情報取得部210及び方向情報取得部220にユーザ位置情報及びユーザ方向情報を要求する。位置情報取得部210及び方向情報取得部220は、かかる要求を受け、ユーザの位置をあらわすユーザ位置情報及び該ユーザの視線の方向をあらわすユーザ方向情報を制御部230に供給する。制御部230は、供給されたユーザ位置情報及びユーザ方向情報と対象物の選択指示とをガイド本体120へ転送する。
The
一方、ガイド本体120は、対象物検索部(取得手段)240と、対象物情報データベース250と、障害物情報データベース260とを有する。このうち対象物検索部240は、処理ユニットUの制御部230からユーザ位置情報、ユーザ方向情報、及び対象物の選択指示を受け取ると、対象物情報データベース250及び障害物情報データベース260を参照し、ユーザが解説を所望する対象物の選択等の処理を実行する。
On the other hand, the
図3は、対象物情報データベース250の登録内容を例示した図であり、図4は、障害物情報データベース260の登録内容を例示した図である。
対象物情報データベース250には、各対象物を特定する対象物識別情報と、各対象物の位置を特定する対象物位置情報と、各対象物の形状を特定する対象物形状情報と、各対象物についてユーザに提供すべき情報(対象物の名称や対象物にまつわるエピソードなど、対象物の解説内容を音声にて出力するための情報;以下、「解説情報」と略称)とが対応付けて登録されている。本実施形態では、各対象物位置情報や対象物形状情報として、例えば三次元(若しくは二次元)位置座標によって対象物の位置を特定する位置情報やポリゴン等によって対象物の形状を特定する形状情報を想定するが、これに限る趣旨ではなく、各対象物の位置や形状の特定が可能なあらゆる情報を採用することができる。
FIG. 3 is a diagram illustrating the registered contents of the
The
一方、障害物情報データベース260には、各障害物を特定する障害物識別情報と、各障害物の位置を特定する障害物位置情報と、各障害物の形状を特定する障害物形状情報とが対応付けて登録されている。なお、各障害物位置情報や障害物形状情報については、上記と同様、三次元(若しくは二次元)位置座標によって障害物の位置を特定する位置情報やポリゴン等によって対象物の形状を特定する形状情報を採用すれば良い。また、本実施形態では、障害物情報データベース260に障害物位置情報と障害物形状情報の両者が登録される態様を例示するが、障害物位置情報と障害物形状情報のいずれか一方が登録される態様であっても良い。
On the other hand, the
図5及び図6は、対象物検索部240による対象物の選択動作を説明するための図である。
図5に示すように、ユーザからみて障害物αの手前に対象物Aが存在し、障害物αの向こう側に対象物Bが存在する場合、対象物検索部240は、まず、制御部230から供給されるユーザ位置情報及びユーザ方向情報に基づいてユーザの位置及び視線の方向を特定する。そして、対象物検索部(取得手段)240は、ユーザの位置及び視線の方向と、各対象物位置情報及び対象物形状情報によって特定される各対象物の位置及び形状と、各障害物位置情報及び障害物形状情報によって特定される各障害物の位置及び形状とを比較することにより、選択すべき対象物(選択対象物)を決定する。
5 and 6 are diagrams for explaining an object selection operation by the
As shown in FIG. 5, when the object A is present in front of the obstacle α as viewed from the user and the object B is present on the other side of the obstacle α, the
ここで、選択対象物については、例えば「ユーザの視線上(視線の延長線上)に障害物が存在する場合には、該障害物より手前に存在する視線上の対象物」等のルールを予め規定し、このルールに従って選択対象物を決定すれば良い。ただし、常にユーザの視線上に対象物が存在するとは限らず、ユーザの視線上に対象物が存在しない場合もあり得る。かかる場合には、再選択を促す音声メッセージ(「対象物が特定できません。視線方向を変えて再度指示ください。」等)を出力する、あるいは、ユーザの視線方向に最も近い対象物を選択することで対処すれば良い。対象物検索部240は、このようなルールに従って選択対象物を決定する。この結果、図5に示すようにユーザの視線上に障害物が存在する場合には、ユーザから見て障害物αの手前に存在する対象物Aのみが選択対象物として決定される。
Here, with respect to the selection target, for example, a rule such as “when there is an obstacle on the user's line of sight (on the extension of the line of sight), an object on the line of sight present before the obstacle” is set in advance. The selection target may be determined according to this rule. However, the object does not always exist on the user's line of sight, and the object may not exist on the user's line of sight. In such a case, output a voice message prompting reselection (such as "The target cannot be specified. Please change the direction of the line of sight. Please indicate again.") Or select the target closest to the user's line of sight. You can deal with it. The
一方、図6に示すようにユーザの近傍(視野内)に対象物Cおよび対象物Dが存在し、もっともユーザに近いのは対象物Cであるが、ユーザが実際に解説を欲しているのは対象物Dであるといった場合がある。本実施形態では、各対象物の位置のみから選択対象物を決定するのではなく、各対象物の形状をも考慮して選択対象物を決定する。このため、図6に示すような場合には、各対象物の形状が考慮され、ユーザが実際に解説を欲している対象物(図6では対象物D)が選択対象物として決定される。 On the other hand, as shown in FIG. 6, the object C and the object D exist in the vicinity (within the field of view) of the user, and the object C is closest to the user, but the user actually wants explanation. May be the object D. In the present embodiment, the selection target is determined not only based on the position of each target but also considering the shape of each target. For this reason, in the case shown in FIG. 6, the shape of each object is taken into consideration, and the object that the user actually wants to explain (object D in FIG. 6) is determined as the selection object.
対象物検索部(取得手段)240は、このようにして選択対象物を決定すると、この選択対象物に対応付けて登録されている解説情報を対象物情報データベース250から取得し、処理ユニットUの制御部230に供給する。制御部230は、受け取った解説情報を再生部270へ供給する。再生部(出力部)270は、制御部230から供給される解説情報に基づいて該対象物の解説内容(「この彫刻は、○×年に・・・」)をあらわす音声信号を生成し、ヘッドフォン130へ供給する。これにより、各ユーザは、自身が所望する対象物(例えば、図5に示す対象物A)の解説内容をヘッドフォン130から聴取することが可能となる。
When the object search unit (acquisition means) 240 determines the selection object in this way, the object search unit (acquisition means) 240 acquires the commentary information registered in association with the selection object from the
以上説明したように、本実施形態によれば、各ユーザは視線を対象物の方に向けてリモコンの再生ボタン等を押下するといった簡単な操作により、所望する対象物の解説を聴取することができる。これにより、お年寄りや子供など、装置の使用が不得手なユーザであっても、容易に使いこなすことができる。また、対象物の位置のみならず、対象物の形状をも考慮して選択対象物が決定されるため、ユーザが解説を所望していない対象物が、選択対象物として誤って選択されてしまう等の問題を抑制することができる。 As described above, according to the present embodiment, each user can listen to the explanation of the desired object by a simple operation such as turning the reproduction button of the remote control with the line of sight toward the object. it can. Thereby, even a user who is not good at using the device, such as an elderly person or a child, can easily use it. Further, since the selection target is determined in consideration of not only the position of the target but also the shape of the target, the target that the user does not want to explain is erroneously selected as the selection target. Etc. can be suppressed.
B.変形例
以上この発明の実施例について説明したが、上記実施例はあくまで例示であり、本発明の趣旨から逸脱しない範囲で様々な変形を加えることができる。変形例としては、例えば以下のようなものが考えられる。なお、以下に変形例として例示する各態様を適宜に組み合わせた構成も採用され得る。
B. Although the embodiment of the present invention has been described above, the above embodiment is merely an example, and various modifications can be made without departing from the spirit of the present invention. As modifications, for example, the following can be considered. In addition, the structure which combined suitably each aspect illustrated as a modification below may also be employ | adopted.
<変形例1>
図7は、変形例1に係る音声ガイドシステム100’の構成を示す図である。なお、音声ガイドシステム100’は、前掲図2に示す処理ユニットUに仰角情報取得部215を設けたものである。よって、前掲図2に対応する部分には同一符号を付し詳細な説明は省略する。この仰角情報取得部(仰角検出手段)215は、水平方向に対するユーザの視線の角度(例えば、真下を0°、真上を180°としたときの視線の角度)を検出し、検出結果を視線仰角情報として出力する手段であり、例えば傾斜計やジャイロセンサ等によって構成されている。制御部230は、仰角情報取得部215から視線仰角情報を受け取ると、これらを対象物検索部240へ送る。
<
FIG. 7 is a diagram illustrating a configuration of a voice guidance system 100 ′ according to the first modification. The voice guidance system 100 ′ is provided with an elevation angle
対象物検索部240は、制御部230からユーザ位置情報、ユーザ方向情報、対象物の選択指示を受け取るほか(上記実施形態の説明参照)、視線仰角情報を受け取る。そして、対象物検索部240は、ユーザの位置、視線の方向及び視線の角度と、各対象物位置情報及び対象物形状情報によって特定される各対象物の位置及び形状と、各障害物位置情報及び障害物形状情報によって特定される各障害物の位置及び形状とを比較することにより、選択すべき対象物(選択対象物)を決定する。この後の動作については本実施形態と同様に説明することができるため、説明を割愛する。以上説明したように、本変形例によれば、各ユーザは、天井に絵を描いた壁画や天井に設置した展示物などを対象物として選択し、解説を聞くことができるといったメリットがある。なお、上記例では、ユーザの視線の角度を検出したが、これに加えて(或いは代えて)ユーザの眼球位置を検出し、視線の軌跡等も考慮して選択対象物を決定するようにしても良い。
The
<変形例2>
また、上記本実施形態では、対象物の解説内容を音声によって再生する場合について説明したが、該解説内容を文字や画像によって再生しても良い。例えば、解説表示用の表示部をガイド本体120等に設けるとともに、各対象物の解説内容を文字や画像によって表示するための解説情報を対象物情報データベース250に登録しておく。また、解説内容の再生態様を選択可能とすべく、音声再生用の解説情報、文字再生用の解説情報、画像再生用の解説情報・・・といったように複数種類の解説情報を対象物情報データベース250に登録しておいても良い。
<
Further, in the above-described embodiment, a case has been described in which the commentary content of the object is reproduced by voice, but the commentary content may be reproduced by characters or images. For example, a display unit for explanation display is provided in the guide
<変形例3>
また、上記本実施形態では、ヘッドフォン130を利用する場合について説明したが、ヘッドフォンの代わりに半透過型等のヘッドマウントディスプレイを利用しても良い。図8は、ヘッドマウントディスプレイを利用して対象物の解説内容を報知する場合の説明図である。
ヘッドマウントディスプレイを装着するユーザは、ディスプレイDPを介して実際の絵画(すなわち、対象物)を確認すると同時に、絵画に重ねて表示される動画(画像)による解説内容を確認する。さらに、ユーザは、スピーカSP(若しくはヘッドフォン等)から出力される音声による解説内容を確認する。これにより、音声のみを利用して対象物の解説内容を報知する場合と比較して、より詳細な解説内容をユーザに報知することが可能となる。なお、動画によって解説内容を報知する場合の具体的な実現方法については、変形例2において説明したため省略する。
<
In the present embodiment, the case of using the
A user wearing a head-mounted display confirms an actual picture (that is, an object) via the display DP, and at the same time, confirms an explanation content by a moving image (image) displayed on the picture. Further, the user confirms the commentary contents by sound output from the speaker SP (or headphones). As a result, it is possible to notify the user of more detailed description content compared to the case where the description content of the object is notified using only the voice. Note that a specific implementation method in the case where the commentary content is notified by a moving image has been described in the second modification, and thus will be omitted.
<変形例4>
図9は、変形例4に係る対象物検索部240’及び対象物情報データベース250’を例示した図である。
対象物情報データベース250’には、図3に示す位置情報、形状情報、解説情報のほか、対象物の存在エリアをあらわす対象物エリア情報(図9では、部屋番号)が登録されている。対象物検索部240’は、位置情報取得部210及び方向情報取得部220からそれぞれユーザ位置情報及びユーザ方向情報を受け取るほか、操作リモコン110等からユーザの存在エリアをあらわすユーザエリア情報を受け取る。なお、エリア情報の入力に関しては、例えば操作リモコン110にユーザの存在エリアをあらわす部屋番号入力ボタン等を設けることで対処可能である。また、他の例として、例えば、位置情報取得部210が生成したユーザ位置情報と各エリアの位置範囲をあらわすエリアマップ情報(図示略)とを比較し、比較結果に基づいてユーザの存在エリア(部屋番号等)を特定し、特定した存在エリアをあらわすユーザエリア情報を対象物検索部240’へ引き渡すようにしても良い。
<
FIG. 9 is a diagram illustrating an
In the
対象物検索部240’は、このようにしてユーザ位置情報、ユーザ方向情報、ユーザエリア情報を受け取ると、まず、ユーザエリア情報を検索キーとして対象物情報データベース250を検索する。そして、対象物検索部240’は、該ユーザエリア情報と一致する(或いは最も近い)対象物エリア情報を選択する。例えば、ユーザエリア情報が「部屋番号1」である場合には、対象物検索部240’によって「部屋番号1」の対象物エリア情報が選択される。対象物検索部240’は、このように対象物エリア情報を特定することによって検索範囲を減らした後、上記本実施形態と同様、ユーザ位置情報及びユーザ方向情報に基づいてユーザの位置及び視線の方向を特定する。そして、対象物検索部240は、ユーザの位置及び視線の方向と、各対象物位置情報及び対象物形状情報によって特定される各対象物の位置及び形状等と比較することにより、選択対象物を決定する。なお、この後の動作については、本実施形態と同様に説明することができるため、説明を割愛する。このように、対象物エリア情報を特定することによって検索範囲を減らすことで、選択対象物の決定に要する時間を大幅に短縮することができるとともに、選択の精度を高めることが可能となる。また、このように対象物のエリアを限定することで、壁際にのみ対象物(例えば絵画等)がある場合であっても、障害物情報データベース260を持たずして対象物の選択が可能となる。
Upon receiving the user position information, the user direction information, and the user area information in this manner, the target object search unit 240 'first searches the target
<変形例5>
また、本実施形態では、1つの対象物に1つの解説情報を設けた場合について説明したが、1つの対象物に2つ以上の解説情報を設けるようにしても良い。図10は、変形例5に係る対象物情報データベース250’’の登録内容を例示した図であり、図11は、変形例5に係る対象物検索部240’’による対象物の選択動作を説明するための図である。
図10に示すように、対象物情報データベース250’’には、1つの対象物につき複数の解説情報が対応づけて登録されている。対象物検索部240’’は、ユーザの位置に基づき複数の解説情報の中からいずれかの解説情報を選択する。
<
Further, in the present embodiment, a case has been described in which one piece of explanatory information is provided for one object, but two or more pieces of explanatory information may be provided for one object. FIG. 10 is a diagram exemplifying registration contents of the
As shown in FIG. 10, in the
例えば、図11に示すように、ユーザがP1地点から対象物Bを見ている場合には、対象物検索部240’’は、対象物情報データベース250’’から対象物Bの解説情報2−1を選択し、ユーザが対象物BをP2地点から見ている場合には、対象物情報データベース250’’から対処物Bの解説情報2−2を選択し、ユーザが対象物BをP3地点から見ている場合には、対象物情報データベース250’’から対象物Bの解説情報2−3を選択する。このように、同一対象物であっても、ユーザの見る位置によって異なる解説内容が報知される。もちろん、ユーザの位置のみならず、ユーザの視線の方向や、ユーザの視線の角度等に応じて異なる解説内容が報知されるようにしても良い。
For example, as shown in FIG. 11, when the user is viewing the object B from the P1 point, the
<変形例6>
上記実施形態においては、ユーザの位置や方向に応じて自動的に対象物(ひいては解説情報)が選定される構成を例示したが、これに加えて、ユーザが対象物やその解説情報を任意に選定し得る構成も採用され得る。例えば、上記実施形態のようにユーザの位置や方向に応じて解説情報が選定される第1の動作モード(以下「オートモード」という)と、ユーザによって入力された識別符号(例えば対象物や解説情報を識別するための番号)に応じて解説情報が選定される第2のモード(以下「マニュアルモード」という)との何れかをユーザが任意に選択し得る構成としても良い。図12は、本変形例における操作リモコン110’の構成を示す図である。同図に示されるように、この操作リモコン110’は、オートモードボタンB61、数字ボタンB63、確定ボタンB65といった複数の操作子を備えている。オートモードを所望するユーザは、オートモードボタンB61を押下した後に確定ボタンB65を操作する。この操作を検知すると、処理ユニットUの制御部230及びガイド本体120の対象物検索部240は、上記実施形態に示したように、ユーザの位置や方向(さらには上記変形例1に示した視線の角度)に応じて対象物を特定するとともに当該対象物に対応した解説情報を取得し、これを再生部270からヘッドフォン130に出力する。一方、マニュアルモードを所望するユーザは、数字ボタンB63を適宜に操作することにより、所望の対象物に割り当てられた識別符号(例えば各対象物に貼られた番号札に記載されている番号)を入力し、その後に確定ボタンB65を押下する。この操作を検知すると、対象物検索部240は、対照物情報データベース250を参酌することにより、利用者が入力した識別符号に対応した対象物を選定し、この対象物の解説情報を取得して再生部270からヘッドフォン130に出力する。この構成によれば、ユーザがオートモードとマニュアルモードとを適宜に切り替えることができるから、例えば、オートモードを選択することによってユーザの位置や方向に応じた対象物の解説情報を取得できるだけでなく、ユーザから離間した位置にある対象物やユーザの視線上に位置しない対象物についてもマニュアルモードにて選択することによって解説情報を出力することができる。
<
In the above embodiment, a configuration in which an object (and thus commentary information) is automatically selected according to the position and direction of the user is exemplified. In addition to this, the user arbitrarily selects the object and its commentary information. Configurations that can be selected may also be employed. For example, as in the above-described embodiment, a first operation mode (hereinafter referred to as “auto mode”) in which commentary information is selected according to the position and direction of the user, and an identification code (for example, an object or commentary) input by the user A configuration may be adopted in which the user can arbitrarily select one of the second modes (hereinafter referred to as “manual mode”) in which the commentary information is selected according to the number for identifying information). FIG. 12 is a diagram showing the configuration of the operation
<変形例7>
上記実施形態においては、操作リモコン110(あるいは変形例6の操作リモコン110’)に対する操作を契機として解説情報が出力される構成を例示したが、解説情報を出力するタイミングは任意である。例えば、ユーザの位置や視線の方向が略一定に維持される期間が所定の時間を越えた場合に解説情報が出力される構成としても良い。この構成においては、処理ユニットUの制御部230が所定の時間長を有する単位時間ごとにユーザ位置情報及びユーザ方向情報を取得することにより、ユーザの位置及び方向の単位時間ごとの変化量を算定し、この変化量が所定のしきい値を下回る場合には上記実施形態の動作により解説情報を出力する一方、変化量がしきい値を越える場合(すなわちユーザの位置や方向が略一定に維持されていない場合)には解説情報の出力を実行しない。この構成によれば、例えばユーザが絵画などの対象物の前に所定の時間を越えて立ち止まると自動的に当該対象物の解説情報が出力されるから、操作リモコン110を操作するユーザの負担が軽減されるという利点がある。
<
In the above embodiment, the configuration in which the commentary information is output in response to an operation on the operation remote controller 110 (or the operation
<変形例8>
以上に説明した音声ガイドシステムの各機能と処理ユニットUやガイド本体120といったハードウェアとの対応関係は任意である。例えば、図2においては対象物検索部240と対象物情報データベース250と障害物情報データベース260とがガイド本体120に設けられた構成を例示したが、このうちの一部または全部が処理ユニットUに配設された構成や、対象物検索部240を有するガイド本体120と対象物情報データベース250または障害物情報データベース260とが別個のハードウェアとされた構成も採用され得る。また、例えば対象物検索部240、対象物情報データベース250および障害物情報データベース260を格納した各サーバが、LAN(Local Area Network)など各種のネットワークを介して無線または有線による通信を行なう構成としても良い。また、以上に例示した実施形態及び各変形例に係る音声ガイドシステムの諸機能は、CPU(若しくはDSP)がメモリに格納されたプログラムを実行することによって実現されるため、かかるプログラムについてCD−ROM等の記録媒体に記録して頒布したり、インターネット等の通信ネットワークを介して頒布しても良い。
<
The correspondence relationship between each function of the voice guide system described above and the hardware such as the processing unit U and the guide
100、100’・・・音声ガイドシステム、110,110’・・・操作リモコン、B1・・・再生ボタン、B2・・・停止ボタン、120・・・ガイド本体、130・・・ヘッドフォン、U・・・処理ユニット、210・・・位置情報取得部、220・・・方向情報取得部、230・・・制御部、240、240’、240’’・・・対象物検索部、250、250’、250’’・・・対象物情報データベース、260・・・障害物情報データベース。
100, 100 '... Voice guidance system, 110, 110' ... Operation remote control, B1 ... Play button, B2 ... Stop button, 120 ... Guide body, 130 ... Headphone, U ..Processing
Claims (5)
前記ユーザの方向を検出する方向検出手段と、
各対象物の位置及び形状を特定する対象物情報と各対象物の提供情報とを対応付けて記憶する対象物記憶手段と、
検出された前記ユーザの位置及び該ユーザの方向と、前記対象物情報によって特定される各対象物の位置及び形状とを比較し、比較結果に基づいて対応する対象物を特定し、特定した対象物の提供情報を前記記憶手段から取得する取得手段と、
取得された前記提供情報を出力する出力手段と
を具備することを特徴とする情報提供装置。 Position detecting means for detecting the position of the user;
Direction detecting means for detecting the direction of the user;
Object storage means for storing the object information for specifying the position and shape of each object and the provision information of each object in association with each other;
The detected position of the user and the direction of the user are compared with the position and shape of each target specified by the target information, the corresponding target is specified based on the comparison result, and the specified target Acquisition means for acquiring information provided on the object from the storage means;
An information providing apparatus comprising: output means for outputting the acquired provision information.
前記出力手段は、前記出力指示の入力を契機として前記提供情報を出力する
ことを特徴とする請求項1に記載の情報提供装置。 Comprising input means for inputting an instruction to output the provided information;
The information providing apparatus according to claim 1, wherein the output unit outputs the provision information in response to an input of the output instruction.
前記取得手段は、検出される前記ユーザの位置及び該ユーザの方向と、前記対象物情報によって特定される各対象物の位置及び形状と、前記障害物情報によって特定される各障害物の位置とを比較し、比較結果に基づいて対応する対象物を特定する
ことを特徴とする請求項1に記載の情報提供装置。 It further includes obstacle storage means for storing obstacle information that is information related to each obstacle and identifies the position of each obstacle,
The acquisition means includes the detected position of the user and the direction of the user, the position and shape of each object specified by the object information, and the position of each obstacle specified by the obstacle information. The information providing apparatus according to claim 1, wherein the corresponding objects are identified based on the comparison result.
前記取得手段は、検出される前記ユーザの位置、該ユーザの方向、及び該ユーザの視線の角度と、前記対象物情報によって特定される各対象物の位置及び形状とを比較し、比較結果に基づいて対応する対象物を特定する
ことを特徴とする請求項1に記載の情報提供装置。 Further comprising an elevation angle detecting means for detecting an angle of the user's line of sight,
The acquisition unit compares the detected position of the user, the direction of the user, and the angle of the line of sight of the user with the position and shape of each object specified by the object information, and obtains a comparison result. The corresponding object is specified based on the information providing apparatus according to claim 1.
前記出力手段は、取得された前記音声情報を再生して出力する
ことを特徴とする請求項1から4の何れかに記載の情報提供装置。 The provided information is voice information for outputting the characteristics of the object by voice,
The information providing apparatus according to claim 1, wherein the output unit reproduces and outputs the acquired audio information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004128269A JP2005309948A (en) | 2004-04-23 | 2004-04-23 | Information providing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004128269A JP2005309948A (en) | 2004-04-23 | 2004-04-23 | Information providing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005309948A true JP2005309948A (en) | 2005-11-04 |
Family
ID=35438630
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004128269A Pending JP2005309948A (en) | 2004-04-23 | 2004-04-23 | Information providing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005309948A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011521511A (en) * | 2008-04-18 | 2011-07-21 | ソニー エリクソン モバイル コミュニケーションズ, エービー | Audio augmented with augmented reality |
JP2015079310A (en) * | 2013-10-15 | 2015-04-23 | 富士通株式会社 | Acoustic device, acoustic system, acoustic processing method and acoustic processing program |
JP2016048192A (en) * | 2014-08-27 | 2016-04-07 | 株式会社ゼンリンデータコム | Information processing system, information processing method, and program |
CN105488112A (en) * | 2015-11-20 | 2016-04-13 | 小米科技有限责任公司 | Information pushing method and device |
JP6463529B1 (en) * | 2018-03-20 | 2019-02-06 | ヤフー株式会社 | Information processing apparatus, information processing method, and information processing program |
JP6829298B1 (en) * | 2019-10-18 | 2021-02-10 | 株式会社スクウェア・エニックス | Programs, computer equipment, and control methods |
-
2004
- 2004-04-23 JP JP2004128269A patent/JP2005309948A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011521511A (en) * | 2008-04-18 | 2011-07-21 | ソニー エリクソン モバイル コミュニケーションズ, エービー | Audio augmented with augmented reality |
JP2015079310A (en) * | 2013-10-15 | 2015-04-23 | 富士通株式会社 | Acoustic device, acoustic system, acoustic processing method and acoustic processing program |
JP2016048192A (en) * | 2014-08-27 | 2016-04-07 | 株式会社ゼンリンデータコム | Information processing system, information processing method, and program |
CN105488112A (en) * | 2015-11-20 | 2016-04-13 | 小米科技有限责任公司 | Information pushing method and device |
CN105488112B (en) * | 2015-11-20 | 2019-09-17 | 小米科技有限责任公司 | Information-pushing method and device |
JP6463529B1 (en) * | 2018-03-20 | 2019-02-06 | ヤフー株式会社 | Information processing apparatus, information processing method, and information processing program |
JP2019164021A (en) * | 2018-03-20 | 2019-09-26 | ヤフー株式会社 | Information processing device, information processing method, and information processing program |
JP6829298B1 (en) * | 2019-10-18 | 2021-02-10 | 株式会社スクウェア・エニックス | Programs, computer equipment, and control methods |
JP2021068057A (en) * | 2019-10-18 | 2021-04-30 | 株式会社スクウェア・エニックス | Program, computer apparatus, and control method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11659348B2 (en) | Localizing binaural sound to objects | |
US20150063610A1 (en) | Audio rendering system categorising geospatial objects | |
US10248856B2 (en) | Smart necklace with stereo vision and onboard processing | |
Giudice et al. | Blind navigation and the role of technology | |
GB2379309A (en) | Recognition and identification apparatus | |
TW200811422A (en) | Route planning systems and trigger methods thereof | |
US11373650B2 (en) | Information processing device and information processing method | |
JP2007149053A (en) | Route guidance system and method | |
JP2005045398A (en) | Method and device for photography assistance, and photographing device | |
Kuribayashi et al. | Linechaser: a smartphone-based navigation system for blind people to stand in lines | |
JP2009277097A (en) | Information processor | |
JP2020520576A (en) | Apparatus and related method for presentation of spatial audio | |
US20210154827A1 (en) | System and Method for Assisting a Visually Impaired Individual | |
US20220311976A1 (en) | Remote operation system, remote operation method, and program | |
WO2019133638A1 (en) | Voice tagging of video while recording | |
US11856332B2 (en) | Remote operation system, remote operation mobile body, remote operation method, and program | |
US11670051B1 (en) | Augmenting transmitted video data | |
JP2005309948A (en) | Information providing device | |
JP2006231447A (en) | Confirmation method for indicating position or specific object and method and device for coordinate acquisition | |
US11460994B2 (en) | Information processing apparatus and information processing method | |
JP6698600B2 (en) | Terminal device, program and system | |
JP2022153363A (en) | Server device, information processing method, and server program | |
JP2005033682A (en) | Video display system | |
JP2005309537A (en) | Information providing device | |
JP2008111693A (en) | Mobile apparatus and target information retrieval method |