JP2005309948A - Information providing device - Google Patents

Information providing device Download PDF

Info

Publication number
JP2005309948A
JP2005309948A JP2004128269A JP2004128269A JP2005309948A JP 2005309948 A JP2005309948 A JP 2005309948A JP 2004128269 A JP2004128269 A JP 2004128269A JP 2004128269 A JP2004128269 A JP 2004128269A JP 2005309948 A JP2005309948 A JP 2005309948A
Authority
JP
Japan
Prior art keywords
information
user
target
obstacle
specified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004128269A
Other languages
Japanese (ja)
Inventor
Akane Noguchi
あかね 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2004128269A priority Critical patent/JP2005309948A/en
Publication of JP2005309948A publication Critical patent/JP2005309948A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information providing device capable of providing information about targets desired by a user, without forcing the user to do complex operations. <P>SOLUTION: An object information database 250 has registered therein target identification information that specifies each target, target position information that specifies the position of each target, target shape information that specifies the shape of each target, and explanation information that provides the content of an explanation about each target, with those pieces of information associated with one another. When receiving user position information, user direction information and an instruction to select a target from a control part 230, a target search part 240 refers to the target information database 250 and an obstacle information database 260 and makes a selection, etc., of the target about which the user wants an explanation. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、例えば美術館等に展示されている絵画にまつわるエピソードなど、対象物に関する情報を提供するための技術に関する。     The present invention relates to a technique for providing information related to an object such as an episode related to a picture displayed in a museum or the like.

美術館や博物館等においては、ユーザに対して展示物(対象物)の解説を音声で行う音声ガイド装置が広く利用されている。各対象物近傍には、各対象物を識別するための識別番号(「3323」等)を記載した番号札が貼られており、各ユーザは、該番号札に記載されている識別番号を音声ガイド装置に適宜入力することで、該当する対象物の解説を聴取していた(例えば、特許文献1参照)。   In art museums, museums, etc., voice guide devices are widely used to explain the exhibits (objects) to users by voice. In the vicinity of each object, a number tag describing an identification number (such as “3323”) for identifying each object is affixed, and each user speaks the identification number described on the number tag. By appropriately inputting the information into the guide device, the user listens to the explanation of the target object (see, for example, Patent Document 1).

特開2002−320295号公報(第3図)Japanese Patent Laid-Open No. 2002-320295 (FIG. 3)

しかしながら、上記従来技術において対象物の解説を聴取するためには、各ユーザは対応する番号札をみつけ、この番号札に記載されている識別番号を音声ガイド装置に適宜入力するといった煩わしい操作を行う必要があった。
また、例えば対象物が立体的で大きな美術品等である場合には、この対象物の近傍に番号札を複数貼りつける必要があるため、外観を損ねてしまい、さらに、ユーザが識別番号を誤って入力した場合には、実際にユーザが所望する対象物とは全く関係のない対象物に関する解説が再生されてしまう等の問題もあった。
However, in order to listen to the explanation of the object in the above prior art, each user finds the corresponding number tag and performs a troublesome operation such as appropriately inputting the identification number described on the number tag into the voice guide device. There was a need.
In addition, for example, when the object is a three-dimensional object such as a large piece of art, it is necessary to stick a plurality of number tags in the vicinity of the object. If there is a problem, there is a problem that a comment on an object that has nothing to do with the object actually desired by the user is reproduced.

本発明は、以上説明した事情を鑑みてなされたものであり、ユーザに煩わしい操作を強いることなく、該ユーザが所望する対象物に関する情報を提供することができる情報提供装置を構築することを目的とする。   The present invention has been made in view of the circumstances described above, and an object thereof is to construct an information providing apparatus capable of providing information on an object desired by a user without forcing the user to perform troublesome operations. And

上述した問題を解決するため、本発明に係る情報提供装置は、ユーザの位置を検出する位置検出手段と、前記ユーザの方向を検出する方向検出手段と、各対象物の位置及び形状を特定する対象物情報と各対象物の提供情報とを対応付けて記憶する対象物記憶手段と、検出された前記ユーザの位置および該ユーザの方向と、前記対象物情報によって特定される各対象物の位置および形状とを比較し、比較結果に基づいて対応する対象物を特定し、特定した対象物の提供情報を前記記憶手段から取得する取得手段と、検出される前記ユーザの位置及び該ユーザの方向と、前記対象物情報によって特定される各対象物の位置及び形状とを比較し、比較結果に基づいて対応する対象物を特定し、特定した対象物の提供情報を前記記憶手段から取得する取得手段と、取得された前記提供情報を出力する出力手段とを具備することを特徴とする。   In order to solve the above-described problem, an information providing apparatus according to the present invention specifies a position detection unit that detects a user's position, a direction detection unit that detects the user's direction, and a position and a shape of each object. Object storage means for storing object information and provision information of each object in association with each other, the detected position of the user and the direction of the user, and the position of each object specified by the object information And the shape, the corresponding object is identified based on the comparison result, the acquisition means for acquiring the provision information of the identified object from the storage means, the position of the user to be detected and the direction of the user And the position and shape of each target object specified by the target object information, the corresponding target object is specified based on the comparison result, and the provision information of the specified target object is acquired from the storage means And resulting unit, characterized by comprising an output means for outputting the provided information acquired.

かかる構成によれば、検出される前記ユーザの位置及び該ユーザの方向と、前記対象物情報によって特定される各対象物(絵画等)の位置及び形状とを比較し、比較結果に基づいて対応する対象物が特定される。このように、対象物の位置のみならず、対象物の形状をも考慮して対象物が特定されるため、ユーザが提供情報(対象物のエピソード等)の出力を欲する対象物を正確に特定することが可能となる(図6等参照)。   According to such a configuration, the detected position of the user and the direction of the user are compared with the position and shape of each target object (such as a painting) specified by the target object information, and a response is made based on the comparison result. The object to be identified is identified. In this way, since the target is specified in consideration of not only the position of the target but also the shape of the target, the target that the user wants to output provided information (such as an episode of the target) is accurately specified. (See FIG. 6 and the like).

本発明の望ましい態様においては、前記提供情報の出力指示を入力する入力手段がさらに設けられ、前記出力手段は、前記出力指示の入力を契機として前記提供情報を出力する。この態様によれば、出力指示を契機として提供情報が出力されるから、例えばユーザが出力指示を入力し得る構成とすれば、ユーザの任意のタイミングにて提供情報を取得することが可能となる。   In a preferred aspect of the present invention, input means for inputting an output instruction for the provision information is further provided, and the output means outputs the provision information in response to the input of the output instruction. According to this aspect, since the provision information is output in response to the output instruction, for example, if the user can input the output instruction, the provision information can be acquired at any timing of the user. .

ここで、本発明にあっては、各障害物に関連する情報であり、各障害物の位置を特定する障害物情報を記憶する障害物記憶手段をさらに具備し、前記取得手段は、検出される前記ユーザの位置及び該ユーザの方向と、前記対象物情報によって特定される各対象物の位置及び形状と、前記障害物情報によって特定される各障害物の位置とを比較し、比較結果に基づいて対応する対象物を特定する態様が好ましい。   Here, in the present invention, the information processing apparatus further includes obstacle storage means for storing obstacle information that is information related to each obstacle and identifies the position of each obstacle, and the acquisition means is detected. The position of the user and the direction of the user, the position and shape of each object specified by the object information, and the position of each obstacle specified by the obstacle information are compared. The aspect which specifies the target object based on based is preferable.

さらに、前記ユーザの視線の角度を検出する仰角検出手段をさらに具備し、前記取得手段は、検出される前記ユーザの位置、該ユーザの方向、及び該ユーザの視線の角度と、前記対象物情報によって特定される各対象物の位置及び形状とを比較し、比較結果に基づいて対応する対象物を特定する態様がさらに好ましい。   Furthermore, it further includes an elevation angle detecting means for detecting an angle of the user's line of sight, and the acquisition means includes the detected position of the user, the direction of the user, the angle of the user's line of sight, and the object information. The aspect which compares the position and shape of each target object specified by, and specifies the corresponding target object based on the comparison result is further preferable.

さらにまた、前記提供情報は、前記対象物の特性を音声にて出力するための音声情報であり、前記出力手段は、取得された前記音声情報を再生して出力する態様が好ましい。 Furthermore, it is preferable that the provision information is sound information for outputting the characteristics of the object by sound, and the output unit reproduces and outputs the acquired sound information.

以上説明したように、本発明によれば、ユーザに煩わしい操作を強いることなく、該ユーザが所望する対象物に関する情報を提供することが可能となる。   As described above, according to the present invention, it is possible to provide information on an object desired by a user without forcing the user to perform troublesome operations.

以下、本発明に係る実施の形態について図面を参照しながら説明する。 Embodiments according to the present invention will be described below with reference to the drawings.

A.本実施形態
図1は、本実施形態に係る音声ガイドシステム(情報提供装置)100の構成を示す図である。
音声ガイドシステム100は、操作リモコン110と、本システムが適用される全対象物の解説情報(後述)等を備えたガイド本体120と、ユーザによって装着されるヘッドフォン130とを具備する。ヘッドフォン130のアームには、ユーザの位置及びユーザの方向(特にユーザの視線の向き)を検出するための処理ユニットUが配設されている。なお、本実施形態では、操作リモコン110とガイド本体120と処理ユニットUとが相互に無線接続される場合を想定するが、ケーブル等によって有線接続される構成を採用しても良い。また、処理ユニットUが配設される場所は任意である。例えば、ユーザが携帯する情報端末に処理ユニットUが搭載されてヘッドフォン130に接続された構成を採用しても良い。
A. First Embodiment FIG. 1 is a diagram illustrating a configuration of a voice guide system (information providing apparatus) 100 according to the present embodiment.
The voice guide system 100 includes an operation remote controller 110, a guide body 120 including commentary information (described later) of all objects to which the present system is applied, and a headphone 130 worn by a user. A processing unit U for detecting the position of the user and the direction of the user (particularly the direction of the user's line of sight) is disposed on the arm of the headphone 130. In the present embodiment, it is assumed that the operation remote controller 110, the guide main body 120, and the processing unit U are wirelessly connected to each other. Further, the place where the processing unit U is disposed is arbitrary. For example, a configuration in which the processing unit U is mounted on an information terminal carried by the user and connected to the headphones 130 may be adopted.

図2は、音声ガイドシステム100の機能的な構成を示す図である。同図に示されるように、処理ユニットUは、位置情報取得部(位置検出手段)210と、方向情報取得部(方向検出手段)220と、制御部(取得手段)230とを有する。このうち位置情報取得部210は、ヘッドフォン130を装着するユーザの位置を検出し、検出結果をユーザ位置情報として出力する手段であり、GPS(Global Positioning System)の受信機等によって構成される。ユーザの位置検出に関しては、上記GPSを利用するほか、限られた範囲(屋内等)での位置測定に有効な超音波センサや赤外線センサ等を利用したり、超音波と赤外線(若しくは光波)との到達時間差を利用しても良い。   FIG. 2 is a diagram illustrating a functional configuration of the voice guidance system 100. As shown in the figure, the processing unit U includes a position information acquisition unit (position detection unit) 210, a direction information acquisition unit (direction detection unit) 220, and a control unit (acquisition unit) 230. Among these, the position information acquisition unit 210 is a means for detecting the position of the user wearing the headphones 130 and outputting the detection result as user position information, and is configured by a GPS (Global Positioning System) receiver or the like. Regarding user position detection, in addition to using the GPS described above, an ultrasonic sensor or infrared sensor that is effective for position measurement in a limited range (such as indoors), ultrasonic waves and infrared rays (or light waves) The arrival time difference may be used.

方向情報取得部220は、ヘッドフォン130を装着するユーザの顔の向き(すなわち視線の方向)を検出し、検出結果をユーザ方向情報として出力する手段であり、例えば地磁気センサやジャイロセンサといった各種のセンサによって構成される。もっとも、ユーザの方向を検出する方法は地磁気センサやジャイロセンサに限定されない。例えば、ヘッドフォン130に2つの位置センサを設け、これら各位置センサによって検出される位置の差から方向を検出するようにしても良い。   The direction information acquisition unit 220 is a unit that detects the direction of the face of the user wearing the headphones 130 (that is, the direction of the line of sight) and outputs the detection result as user direction information. For example, various sensors such as a geomagnetic sensor and a gyro sensor Consists of. But the method of detecting a user's direction is not limited to a geomagnetic sensor or a gyro sensor. For example, the headphone 130 may be provided with two position sensors, and the direction may be detected from the difference between the positions detected by the position sensors.

操作リモコン(入力手段)110は、対象物の解説の開始指示(提供情報の出力を指示)を入力するための再生ボタンB1や該解説の終了指示を入力するための停止ボタンB2など、複数の操作子を備えている。   The operation remote controller (input means) 110 includes a plurality of buttons such as a playback button B1 for inputting an instruction to start explanation of an object (instruction to output provided information) and a stop button B2 for inputting an instruction to end the explanation. It has an operator.

制御部230は、音声ガイドシステム100を構成する各部を中枢的に制御する手段である。制御部230は、操作リモコン110から無線等を介して対象物の解説の開始指示を受信すると、かかる開始指示の受信(入力)を契機として、位置情報取得部210及び方向情報取得部220にユーザ位置情報及びユーザ方向情報を要求する。位置情報取得部210及び方向情報取得部220は、かかる要求を受け、ユーザの位置をあらわすユーザ位置情報及び該ユーザの視線の方向をあらわすユーザ方向情報を制御部230に供給する。制御部230は、供給されたユーザ位置情報及びユーザ方向情報と対象物の選択指示とをガイド本体120へ転送する。   The control unit 230 is means for centrally controlling each unit constituting the voice guide system 100. When the control unit 230 receives an instruction to start explanation of an object from the operation remote controller 110 via wireless or the like, the position information acquisition unit 210 and the direction information acquisition unit 220 are triggered by the reception (input) of the start instruction. Request location information and user direction information. In response to the request, the position information acquisition unit 210 and the direction information acquisition unit 220 supply the control unit 230 with user position information indicating the user's position and user direction information indicating the direction of the user's line of sight. The control unit 230 transfers the supplied user position information and user direction information and an object selection instruction to the guide body 120.

一方、ガイド本体120は、対象物検索部(取得手段)240と、対象物情報データベース250と、障害物情報データベース260とを有する。このうち対象物検索部240は、処理ユニットUの制御部230からユーザ位置情報、ユーザ方向情報、及び対象物の選択指示を受け取ると、対象物情報データベース250及び障害物情報データベース260を参照し、ユーザが解説を所望する対象物の選択等の処理を実行する。   On the other hand, the guide body 120 includes an object search unit (acquisition means) 240, an object information database 250, and an obstacle information database 260. Among these, the object search unit 240 receives the user position information, the user direction information, and the object selection instruction from the control unit 230 of the processing unit U, refers to the object information database 250 and the obstacle information database 260, The user performs processing such as selection of an object that the user wants to comment on.

図3は、対象物情報データベース250の登録内容を例示した図であり、図4は、障害物情報データベース260の登録内容を例示した図である。
対象物情報データベース250には、各対象物を特定する対象物識別情報と、各対象物の位置を特定する対象物位置情報と、各対象物の形状を特定する対象物形状情報と、各対象物についてユーザに提供すべき情報(対象物の名称や対象物にまつわるエピソードなど、対象物の解説内容を音声にて出力するための情報;以下、「解説情報」と略称)とが対応付けて登録されている。本実施形態では、各対象物位置情報や対象物形状情報として、例えば三次元(若しくは二次元)位置座標によって対象物の位置を特定する位置情報やポリゴン等によって対象物の形状を特定する形状情報を想定するが、これに限る趣旨ではなく、各対象物の位置や形状の特定が可能なあらゆる情報を採用することができる。
FIG. 3 is a diagram illustrating the registered contents of the object information database 250, and FIG. 4 is a diagram illustrating the registered contents of the obstacle information database 260.
The object information database 250 includes object identification information for identifying each object, object position information for identifying the position of each object, object shape information for identifying the shape of each object, and each object Information that should be provided to the user about the object (information for outputting the commentary contents of the object, such as the name of the object and the episode related to the object, in the voice; hereinafter referred to as “commentary information”) is registered in association with each other Has been. In this embodiment, as each object position information and object shape information, for example, position information that specifies the position of the object by three-dimensional (or two-dimensional) position coordinates, shape information that specifies the shape of the object by polygons, etc. However, the present invention is not limited to this, and any information capable of specifying the position and shape of each object can be employed.

一方、障害物情報データベース260には、各障害物を特定する障害物識別情報と、各障害物の位置を特定する障害物位置情報と、各障害物の形状を特定する障害物形状情報とが対応付けて登録されている。なお、各障害物位置情報や障害物形状情報については、上記と同様、三次元(若しくは二次元)位置座標によって障害物の位置を特定する位置情報やポリゴン等によって対象物の形状を特定する形状情報を採用すれば良い。また、本実施形態では、障害物情報データベース260に障害物位置情報と障害物形状情報の両者が登録される態様を例示するが、障害物位置情報と障害物形状情報のいずれか一方が登録される態様であっても良い。   On the other hand, the obstacle information database 260 includes obstacle identification information for specifying each obstacle, obstacle position information for specifying the position of each obstacle, and obstacle shape information for specifying the shape of each obstacle. Registered in association. As for each obstacle position information and obstacle shape information, as described above, a shape that specifies the shape of the object by position information that specifies the position of the obstacle by three-dimensional (or two-dimensional) position coordinates, a polygon, or the like. Adopt information. Further, in the present embodiment, an example in which both the obstacle position information and the obstacle shape information are registered in the obstacle information database 260 is illustrated, but either one of the obstacle position information and the obstacle shape information is registered. It may be an embodiment.

図5及び図6は、対象物検索部240による対象物の選択動作を説明するための図である。
図5に示すように、ユーザからみて障害物αの手前に対象物Aが存在し、障害物αの向こう側に対象物Bが存在する場合、対象物検索部240は、まず、制御部230から供給されるユーザ位置情報及びユーザ方向情報に基づいてユーザの位置及び視線の方向を特定する。そして、対象物検索部(取得手段)240は、ユーザの位置及び視線の方向と、各対象物位置情報及び対象物形状情報によって特定される各対象物の位置及び形状と、各障害物位置情報及び障害物形状情報によって特定される各障害物の位置及び形状とを比較することにより、選択すべき対象物(選択対象物)を決定する。
5 and 6 are diagrams for explaining an object selection operation by the object search unit 240. FIG.
As shown in FIG. 5, when the object A is present in front of the obstacle α as viewed from the user and the object B is present on the other side of the obstacle α, the object search unit 240 first performs the control unit 230. The position of the user and the direction of the line of sight are specified based on the user position information and the user direction information supplied from. Then, the object search unit (acquisition means) 240 includes the position and line-of-sight direction of the user, the position and shape of each object specified by each object position information and object shape information, and each obstacle position information. Then, the object to be selected (selected object) is determined by comparing the position and shape of each obstacle specified by the obstacle shape information.

ここで、選択対象物については、例えば「ユーザの視線上(視線の延長線上)に障害物が存在する場合には、該障害物より手前に存在する視線上の対象物」等のルールを予め規定し、このルールに従って選択対象物を決定すれば良い。ただし、常にユーザの視線上に対象物が存在するとは限らず、ユーザの視線上に対象物が存在しない場合もあり得る。かかる場合には、再選択を促す音声メッセージ(「対象物が特定できません。視線方向を変えて再度指示ください。」等)を出力する、あるいは、ユーザの視線方向に最も近い対象物を選択することで対処すれば良い。対象物検索部240は、このようなルールに従って選択対象物を決定する。この結果、図5に示すようにユーザの視線上に障害物が存在する場合には、ユーザから見て障害物αの手前に存在する対象物Aのみが選択対象物として決定される。   Here, with respect to the selection target, for example, a rule such as “when there is an obstacle on the user's line of sight (on the extension of the line of sight), an object on the line of sight present before the obstacle” is set in advance. The selection target may be determined according to this rule. However, the object does not always exist on the user's line of sight, and the object may not exist on the user's line of sight. In such a case, output a voice message prompting reselection (such as "The target cannot be specified. Please change the direction of the line of sight. Please indicate again.") Or select the target closest to the user's line of sight. You can deal with it. The object search unit 240 determines the selection object according to such rules. As a result, when there is an obstacle on the user's line of sight as shown in FIG. 5, only the object A existing in front of the obstacle α as viewed from the user is determined as the selection object.

一方、図6に示すようにユーザの近傍(視野内)に対象物Cおよび対象物Dが存在し、もっともユーザに近いのは対象物Cであるが、ユーザが実際に解説を欲しているのは対象物Dであるといった場合がある。本実施形態では、各対象物の位置のみから選択対象物を決定するのではなく、各対象物の形状をも考慮して選択対象物を決定する。このため、図6に示すような場合には、各対象物の形状が考慮され、ユーザが実際に解説を欲している対象物(図6では対象物D)が選択対象物として決定される。   On the other hand, as shown in FIG. 6, the object C and the object D exist in the vicinity (within the field of view) of the user, and the object C is closest to the user, but the user actually wants explanation. May be the object D. In the present embodiment, the selection target is determined not only based on the position of each target but also considering the shape of each target. For this reason, in the case shown in FIG. 6, the shape of each object is taken into consideration, and the object that the user actually wants to explain (object D in FIG. 6) is determined as the selection object.

対象物検索部(取得手段)240は、このようにして選択対象物を決定すると、この選択対象物に対応付けて登録されている解説情報を対象物情報データベース250から取得し、処理ユニットUの制御部230に供給する。制御部230は、受け取った解説情報を再生部270へ供給する。再生部(出力部)270は、制御部230から供給される解説情報に基づいて該対象物の解説内容(「この彫刻は、○×年に・・・」)をあらわす音声信号を生成し、ヘッドフォン130へ供給する。これにより、各ユーザは、自身が所望する対象物(例えば、図5に示す対象物A)の解説内容をヘッドフォン130から聴取することが可能となる。   When the object search unit (acquisition means) 240 determines the selection object in this way, the object search unit (acquisition means) 240 acquires the commentary information registered in association with the selection object from the object information database 250, and the processing unit U This is supplied to the control unit 230. The control unit 230 supplies the received commentary information to the reproduction unit 270. The reproduction unit (output unit) 270 generates an audio signal representing the description content of the target object (“this engraving is xx in a year”) based on the description information supplied from the control unit 230, Supply to headphones 130. Thereby, each user can listen to the explanation content of the object desired by the user (for example, the object A shown in FIG. 5) from the headphones 130.

以上説明したように、本実施形態によれば、各ユーザは視線を対象物の方に向けてリモコンの再生ボタン等を押下するといった簡単な操作により、所望する対象物の解説を聴取することができる。これにより、お年寄りや子供など、装置の使用が不得手なユーザであっても、容易に使いこなすことができる。また、対象物の位置のみならず、対象物の形状をも考慮して選択対象物が決定されるため、ユーザが解説を所望していない対象物が、選択対象物として誤って選択されてしまう等の問題を抑制することができる。   As described above, according to the present embodiment, each user can listen to the explanation of the desired object by a simple operation such as turning the reproduction button of the remote control with the line of sight toward the object. it can. Thereby, even a user who is not good at using the device, such as an elderly person or a child, can easily use it. Further, since the selection target is determined in consideration of not only the position of the target but also the shape of the target, the target that the user does not want to explain is erroneously selected as the selection target. Etc. can be suppressed.

B.変形例
以上この発明の実施例について説明したが、上記実施例はあくまで例示であり、本発明の趣旨から逸脱しない範囲で様々な変形を加えることができる。変形例としては、例えば以下のようなものが考えられる。なお、以下に変形例として例示する各態様を適宜に組み合わせた構成も採用され得る。
B. Although the embodiment of the present invention has been described above, the above embodiment is merely an example, and various modifications can be made without departing from the spirit of the present invention. As modifications, for example, the following can be considered. In addition, the structure which combined suitably each aspect illustrated as a modification below may also be employ | adopted.

<変形例1>
図7は、変形例1に係る音声ガイドシステム100’の構成を示す図である。なお、音声ガイドシステム100’は、前掲図2に示す処理ユニットUに仰角情報取得部215を設けたものである。よって、前掲図2に対応する部分には同一符号を付し詳細な説明は省略する。この仰角情報取得部(仰角検出手段)215は、水平方向に対するユーザの視線の角度(例えば、真下を0°、真上を180°としたときの視線の角度)を検出し、検出結果を視線仰角情報として出力する手段であり、例えば傾斜計やジャイロセンサ等によって構成されている。制御部230は、仰角情報取得部215から視線仰角情報を受け取ると、これらを対象物検索部240へ送る。
<Modification 1>
FIG. 7 is a diagram illustrating a configuration of a voice guidance system 100 ′ according to the first modification. The voice guidance system 100 ′ is provided with an elevation angle information acquisition unit 215 in the processing unit U shown in FIG. Therefore, the parts corresponding to those in FIG. This elevation angle information acquisition unit (elevation angle detection means) 215 detects the angle of the user's line of sight with respect to the horizontal direction (for example, the angle of the line of sight when 0 ° is directly below and 180 ° is directly above), and the detection result is line of sight. It is means for outputting as elevation angle information, and is composed of, for example, an inclinometer or a gyro sensor. Upon receiving the line-of-sight elevation angle information from the elevation angle information acquisition unit 215, the control unit 230 sends these to the object search unit 240.

対象物検索部240は、制御部230からユーザ位置情報、ユーザ方向情報、対象物の選択指示を受け取るほか(上記実施形態の説明参照)、視線仰角情報を受け取る。そして、対象物検索部240は、ユーザの位置、視線の方向及び視線の角度と、各対象物位置情報及び対象物形状情報によって特定される各対象物の位置及び形状と、各障害物位置情報及び障害物形状情報によって特定される各障害物の位置及び形状とを比較することにより、選択すべき対象物(選択対象物)を決定する。この後の動作については本実施形態と同様に説明することができるため、説明を割愛する。以上説明したように、本変形例によれば、各ユーザは、天井に絵を描いた壁画や天井に設置した展示物などを対象物として選択し、解説を聞くことができるといったメリットがある。なお、上記例では、ユーザの視線の角度を検出したが、これに加えて(或いは代えて)ユーザの眼球位置を検出し、視線の軌跡等も考慮して選択対象物を決定するようにしても良い。   The object search unit 240 receives user position information, user direction information, and an object selection instruction from the control unit 230 (see the description of the above embodiment) and also receives line-of-sight elevation angle information. Then, the object search unit 240 includes the position of the user, the direction of the line of sight and the angle of the line of sight, the position and shape of each object specified by each object position information and object shape information, and each obstacle position information. Then, the object to be selected (selected object) is determined by comparing the position and shape of each obstacle specified by the obstacle shape information. Since subsequent operations can be described in the same manner as in the present embodiment, description thereof is omitted. As described above, according to the present modification, each user has an advantage of being able to select a mural with a picture on the ceiling or an exhibit installed on the ceiling as an object and listen to the explanation. In the above example, the angle of the user's line of sight is detected, but in addition to (or instead of) the user's eyeball position is detected, and the selection target is determined in consideration of the line of sight of the line of sight. Also good.

<変形例2>
また、上記本実施形態では、対象物の解説内容を音声によって再生する場合について説明したが、該解説内容を文字や画像によって再生しても良い。例えば、解説表示用の表示部をガイド本体120等に設けるとともに、各対象物の解説内容を文字や画像によって表示するための解説情報を対象物情報データベース250に登録しておく。また、解説内容の再生態様を選択可能とすべく、音声再生用の解説情報、文字再生用の解説情報、画像再生用の解説情報・・・といったように複数種類の解説情報を対象物情報データベース250に登録しておいても良い。
<Modification 2>
Further, in the above-described embodiment, a case has been described in which the commentary content of the object is reproduced by voice, but the commentary content may be reproduced by characters or images. For example, a display unit for explanation display is provided in the guide main body 120 and the like, and explanation information for displaying the explanation contents of each object by characters and images is registered in the object information database 250. In addition, in order to be able to select the playback mode of commentary content, multiple types of commentary information such as commentary information for voice reproduction, commentary information for character reproduction, commentary information for image reproduction, etc. are stored in the object information database. 250 may be registered.

<変形例3>
また、上記本実施形態では、ヘッドフォン130を利用する場合について説明したが、ヘッドフォンの代わりに半透過型等のヘッドマウントディスプレイを利用しても良い。図8は、ヘッドマウントディスプレイを利用して対象物の解説内容を報知する場合の説明図である。
ヘッドマウントディスプレイを装着するユーザは、ディスプレイDPを介して実際の絵画(すなわち、対象物)を確認すると同時に、絵画に重ねて表示される動画(画像)による解説内容を確認する。さらに、ユーザは、スピーカSP(若しくはヘッドフォン等)から出力される音声による解説内容を確認する。これにより、音声のみを利用して対象物の解説内容を報知する場合と比較して、より詳細な解説内容をユーザに報知することが可能となる。なお、動画によって解説内容を報知する場合の具体的な実現方法については、変形例2において説明したため省略する。
<Modification 3>
In the present embodiment, the case of using the headphones 130 has been described. However, a head-mounted display such as a transflective type may be used instead of the headphones. FIG. 8 is an explanatory diagram in a case where the explanation content of the object is notified using the head mounted display.
A user wearing a head-mounted display confirms an actual picture (that is, an object) via the display DP, and at the same time, confirms an explanation content by a moving image (image) displayed on the picture. Further, the user confirms the commentary contents by sound output from the speaker SP (or headphones). As a result, it is possible to notify the user of more detailed description content compared to the case where the description content of the object is notified using only the voice. Note that a specific implementation method in the case where the commentary content is notified by a moving image has been described in the second modification, and thus will be omitted.

<変形例4>
図9は、変形例4に係る対象物検索部240’及び対象物情報データベース250’を例示した図である。
対象物情報データベース250’には、図3に示す位置情報、形状情報、解説情報のほか、対象物の存在エリアをあらわす対象物エリア情報(図9では、部屋番号)が登録されている。対象物検索部240’は、位置情報取得部210及び方向情報取得部220からそれぞれユーザ位置情報及びユーザ方向情報を受け取るほか、操作リモコン110等からユーザの存在エリアをあらわすユーザエリア情報を受け取る。なお、エリア情報の入力に関しては、例えば操作リモコン110にユーザの存在エリアをあらわす部屋番号入力ボタン等を設けることで対処可能である。また、他の例として、例えば、位置情報取得部210が生成したユーザ位置情報と各エリアの位置範囲をあらわすエリアマップ情報(図示略)とを比較し、比較結果に基づいてユーザの存在エリア(部屋番号等)を特定し、特定した存在エリアをあらわすユーザエリア情報を対象物検索部240’へ引き渡すようにしても良い。
<Modification 4>
FIG. 9 is a diagram illustrating an object search unit 240 ′ and an object information database 250 ′ according to the fourth modification.
In the object information database 250 ′, object area information (room number in FIG. 9) representing the area where the object exists is registered in addition to the position information, shape information, and commentary information shown in FIG. The object search unit 240 ′ receives user position information and user direction information from the position information acquisition unit 210 and the direction information acquisition unit 220, respectively, and also receives user area information indicating the user's presence area from the operation remote controller 110 or the like. Note that area information can be input, for example, by providing a room number input button or the like indicating the user's presence area on the operation remote controller 110. As another example, for example, the user position information generated by the position information acquisition unit 210 is compared with area map information (not shown) representing the position range of each area, and based on the comparison result, the user presence area (room) Number, etc.) may be specified, and user area information representing the specified existence area may be delivered to the object search unit 240 ′.

対象物検索部240’は、このようにしてユーザ位置情報、ユーザ方向情報、ユーザエリア情報を受け取ると、まず、ユーザエリア情報を検索キーとして対象物情報データベース250を検索する。そして、対象物検索部240’は、該ユーザエリア情報と一致する(或いは最も近い)対象物エリア情報を選択する。例えば、ユーザエリア情報が「部屋番号1」である場合には、対象物検索部240’によって「部屋番号1」の対象物エリア情報が選択される。対象物検索部240’は、このように対象物エリア情報を特定することによって検索範囲を減らした後、上記本実施形態と同様、ユーザ位置情報及びユーザ方向情報に基づいてユーザの位置及び視線の方向を特定する。そして、対象物検索部240は、ユーザの位置及び視線の方向と、各対象物位置情報及び対象物形状情報によって特定される各対象物の位置及び形状等と比較することにより、選択対象物を決定する。なお、この後の動作については、本実施形態と同様に説明することができるため、説明を割愛する。このように、対象物エリア情報を特定することによって検索範囲を減らすことで、選択対象物の決定に要する時間を大幅に短縮することができるとともに、選択の精度を高めることが可能となる。また、このように対象物のエリアを限定することで、壁際にのみ対象物(例えば絵画等)がある場合であっても、障害物情報データベース260を持たずして対象物の選択が可能となる。   Upon receiving the user position information, the user direction information, and the user area information in this manner, the target object search unit 240 'first searches the target object information database 250 using the user area information as a search key. Then, the object search unit 240 'selects object area information that matches (or is closest to) the user area information. For example, when the user area information is “room number 1”, the target area information “room number 1” is selected by the target object search unit 240 ′. After the object search unit 240 ′ reduces the search range by specifying the object area information in this way, the user position and line-of-sight information based on the user position information and the user direction information, as in the present embodiment. Identify the direction. Then, the object search unit 240 compares the position of the user and the direction of the line of sight with the position and shape of each object specified by each object position information and object shape information. decide. Since the subsequent operation can be described in the same manner as in the present embodiment, the description thereof is omitted. Thus, by reducing the search range by specifying the object area information, it is possible to greatly shorten the time required for determining the selection object and to increase the selection accuracy. In addition, by limiting the area of the object in this way, it is possible to select an object without having the obstacle information database 260 even when there is an object (for example, a picture or the like) only at the wall. Become.

<変形例5>
また、本実施形態では、1つの対象物に1つの解説情報を設けた場合について説明したが、1つの対象物に2つ以上の解説情報を設けるようにしても良い。図10は、変形例5に係る対象物情報データベース250’’の登録内容を例示した図であり、図11は、変形例5に係る対象物検索部240’’による対象物の選択動作を説明するための図である。
図10に示すように、対象物情報データベース250’’には、1つの対象物につき複数の解説情報が対応づけて登録されている。対象物検索部240’’は、ユーザの位置に基づき複数の解説情報の中からいずれかの解説情報を選択する。
<Modification 5>
Further, in the present embodiment, a case has been described in which one piece of explanatory information is provided for one object, but two or more pieces of explanatory information may be provided for one object. FIG. 10 is a diagram exemplifying registration contents of the object information database 250 ″ according to the modification 5. FIG. 11 illustrates an object selection operation by the object search unit 240 ″ according to the modification 5. It is a figure for doing.
As shown in FIG. 10, in the object information database 250 ″, a plurality of pieces of commentary information are registered in association with each object. The object search unit 240 '' selects any comment information from a plurality of comment information based on the position of the user.

例えば、図11に示すように、ユーザがP1地点から対象物Bを見ている場合には、対象物検索部240’’は、対象物情報データベース250’’から対象物Bの解説情報2−1を選択し、ユーザが対象物BをP2地点から見ている場合には、対象物情報データベース250’’から対処物Bの解説情報2−2を選択し、ユーザが対象物BをP3地点から見ている場合には、対象物情報データベース250’’から対象物Bの解説情報2−3を選択する。このように、同一対象物であっても、ユーザの見る位置によって異なる解説内容が報知される。もちろん、ユーザの位置のみならず、ユーザの視線の方向や、ユーザの視線の角度等に応じて異なる解説内容が報知されるようにしても良い。   For example, as shown in FIG. 11, when the user is viewing the object B from the P1 point, the object search unit 240 ″ retrieves the description information 2- of the object B from the object information database 250 ″. 1 is selected, and when the user views the object B from the point P2, the comment information 2-2 of the countermeasure B is selected from the object information database 250 ″, and the user selects the object B at the point P3. In the case of viewing from the above, the comment information 2-3 of the object B is selected from the object information database 250 ″. In this way, even for the same target object, different explanation contents are notified depending on the position viewed by the user. Of course, not only the position of the user but also different commentary contents may be notified depending on the direction of the user's line of sight, the angle of the user's line of sight, and the like.

<変形例6>
上記実施形態においては、ユーザの位置や方向に応じて自動的に対象物(ひいては解説情報)が選定される構成を例示したが、これに加えて、ユーザが対象物やその解説情報を任意に選定し得る構成も採用され得る。例えば、上記実施形態のようにユーザの位置や方向に応じて解説情報が選定される第1の動作モード(以下「オートモード」という)と、ユーザによって入力された識別符号(例えば対象物や解説情報を識別するための番号)に応じて解説情報が選定される第2のモード(以下「マニュアルモード」という)との何れかをユーザが任意に選択し得る構成としても良い。図12は、本変形例における操作リモコン110’の構成を示す図である。同図に示されるように、この操作リモコン110’は、オートモードボタンB61、数字ボタンB63、確定ボタンB65といった複数の操作子を備えている。オートモードを所望するユーザは、オートモードボタンB61を押下した後に確定ボタンB65を操作する。この操作を検知すると、処理ユニットUの制御部230及びガイド本体120の対象物検索部240は、上記実施形態に示したように、ユーザの位置や方向(さらには上記変形例1に示した視線の角度)に応じて対象物を特定するとともに当該対象物に対応した解説情報を取得し、これを再生部270からヘッドフォン130に出力する。一方、マニュアルモードを所望するユーザは、数字ボタンB63を適宜に操作することにより、所望の対象物に割り当てられた識別符号(例えば各対象物に貼られた番号札に記載されている番号)を入力し、その後に確定ボタンB65を押下する。この操作を検知すると、対象物検索部240は、対照物情報データベース250を参酌することにより、利用者が入力した識別符号に対応した対象物を選定し、この対象物の解説情報を取得して再生部270からヘッドフォン130に出力する。この構成によれば、ユーザがオートモードとマニュアルモードとを適宜に切り替えることができるから、例えば、オートモードを選択することによってユーザの位置や方向に応じた対象物の解説情報を取得できるだけでなく、ユーザから離間した位置にある対象物やユーザの視線上に位置しない対象物についてもマニュアルモードにて選択することによって解説情報を出力することができる。
<Modification 6>
In the above embodiment, a configuration in which an object (and thus commentary information) is automatically selected according to the position and direction of the user is exemplified. In addition to this, the user arbitrarily selects the object and its commentary information. Configurations that can be selected may also be employed. For example, as in the above-described embodiment, a first operation mode (hereinafter referred to as “auto mode”) in which commentary information is selected according to the position and direction of the user, and an identification code (for example, an object or commentary) input by the user A configuration may be adopted in which the user can arbitrarily select one of the second modes (hereinafter referred to as “manual mode”) in which the commentary information is selected according to the number for identifying information). FIG. 12 is a diagram showing the configuration of the operation remote controller 110 ′ in this modification. As shown in the figure, the operation remote controller 110 ′ includes a plurality of operators such as an auto mode button B61, a numeric button B63, and a confirmation button B65. A user who desires the auto mode operates the confirm button B65 after pressing the auto mode button B61. When this operation is detected, the control unit 230 of the processing unit U and the object search unit 240 of the guide main body 120, as shown in the above embodiment, the position and direction of the user (further, the line of sight shown in the first modification example). The target object is specified in accordance with the angle), and comment information corresponding to the target object is acquired and output from the playback unit 270 to the headphones 130. On the other hand, the user who desires the manual mode appropriately operates the numeric buttons B63 to obtain the identification code assigned to the desired object (for example, the number written on the number tag attached to each object). After that, the confirm button B65 is pressed. When this operation is detected, the object search unit 240 selects the object corresponding to the identification code input by the user by referring to the contrast object information database 250, and acquires the commentary information of the object. The data is output from the playback unit 270 to the headphones 130. According to this configuration, the user can appropriately switch between the auto mode and the manual mode. For example, by selecting the auto mode, not only can the commentary information of the object corresponding to the position and direction of the user be acquired. The commentary information can also be output by selecting in a manual mode an object that is located away from the user or an object that is not on the user's line of sight.

<変形例7>
上記実施形態においては、操作リモコン110(あるいは変形例6の操作リモコン110’)に対する操作を契機として解説情報が出力される構成を例示したが、解説情報を出力するタイミングは任意である。例えば、ユーザの位置や視線の方向が略一定に維持される期間が所定の時間を越えた場合に解説情報が出力される構成としても良い。この構成においては、処理ユニットUの制御部230が所定の時間長を有する単位時間ごとにユーザ位置情報及びユーザ方向情報を取得することにより、ユーザの位置及び方向の単位時間ごとの変化量を算定し、この変化量が所定のしきい値を下回る場合には上記実施形態の動作により解説情報を出力する一方、変化量がしきい値を越える場合(すなわちユーザの位置や方向が略一定に維持されていない場合)には解説情報の出力を実行しない。この構成によれば、例えばユーザが絵画などの対象物の前に所定の時間を越えて立ち止まると自動的に当該対象物の解説情報が出力されるから、操作リモコン110を操作するユーザの負担が軽減されるという利点がある。
<Modification 7>
In the above embodiment, the configuration in which the commentary information is output in response to an operation on the operation remote controller 110 (or the operation remote controller 110 ′ of Modification 6) is exemplified, but the timing at which the comment information is output is arbitrary. For example, the explanation information may be output when the period during which the user's position and the direction of the line of sight are maintained substantially constant exceeds a predetermined time. In this configuration, the control unit 230 of the processing unit U obtains the user position information and the user direction information for each unit time having a predetermined time length, thereby calculating a change amount of the user position and direction per unit time. When the amount of change falls below a predetermined threshold value, commentary information is output by the operation of the above embodiment, while when the amount of change exceeds the threshold value (that is, the user's position and direction are maintained substantially constant). If it is not done), do not output commentary information. According to this configuration, for example, when the user stops for a predetermined time before an object such as a picture, comment information on the object is automatically output, so that the burden on the user who operates the operation remote controller 110 is increased. There is an advantage of being reduced.

<変形例8>
以上に説明した音声ガイドシステムの各機能と処理ユニットUやガイド本体120といったハードウェアとの対応関係は任意である。例えば、図2においては対象物検索部240と対象物情報データベース250と障害物情報データベース260とがガイド本体120に設けられた構成を例示したが、このうちの一部または全部が処理ユニットUに配設された構成や、対象物検索部240を有するガイド本体120と対象物情報データベース250または障害物情報データベース260とが別個のハードウェアとされた構成も採用され得る。また、例えば対象物検索部240、対象物情報データベース250および障害物情報データベース260を格納した各サーバが、LAN(Local Area Network)など各種のネットワークを介して無線または有線による通信を行なう構成としても良い。また、以上に例示した実施形態及び各変形例に係る音声ガイドシステムの諸機能は、CPU(若しくはDSP)がメモリに格納されたプログラムを実行することによって実現されるため、かかるプログラムについてCD−ROM等の記録媒体に記録して頒布したり、インターネット等の通信ネットワークを介して頒布しても良い。
<Modification 8>
The correspondence relationship between each function of the voice guide system described above and the hardware such as the processing unit U and the guide main body 120 is arbitrary. For example, FIG. 2 illustrates a configuration in which the object search unit 240, the object information database 250, and the obstacle information database 260 are provided in the guide body 120, but some or all of them are in the processing unit U. A configuration in which the guide main body 120 having the object search unit 240 and the object information database 250 or the obstacle information database 260 are separate hardware may be employed. Further, for example, each server storing the object search unit 240, the object information database 250, and the obstacle information database 260 may be configured to perform wireless or wired communication via various networks such as a LAN (Local Area Network). good. In addition, since the functions of the voice guidance system according to the embodiments and modifications described above are realized by the CPU (or DSP) executing the program stored in the memory, the CD-ROM is used for such a program. It may be recorded and distributed on a recording medium such as the Internet, or distributed via a communication network such as the Internet.

本実施形態に係る音声ガイドシステムの構成を示す図である。It is a figure which shows the structure of the audio | voice guidance system which concerns on this embodiment. 同実施形態に係る音声ガイドシステムの機能構成を示す図である。It is a figure which shows the function structure of the audio | voice guidance system which concerns on the same embodiment. 同実施形態に係る対象物情報データベースの登録内容を例示した図である。It is the figure which illustrated the registration content of the target object information database concerning the embodiment. 同実施形態に係る障害物情報データベースの登録内容を例示した図である。It is the figure which illustrated the registration contents of the obstacle information database concerning the embodiment. 同実施形態に係る対象物の選択動作を説明するための図である。It is a figure for demonstrating the selection operation | movement of the target concerning the embodiment. 同実施形態に係る対象物の選択動作を説明するための図である。It is a figure for demonstrating the selection operation | movement of the target object concerning the embodiment. 変形例1に係る音声ガイドシステムの構成を示す図である。It is a figure which shows the structure of the audio | voice guidance system which concerns on the modification 1. 変形例3に係る対象物の解説内容を報知する場合の説明図である。It is explanatory drawing in the case of alert | reporting the description content of the target object which concerns on the modification 3. 変形例4に係る対象物検索部及び対象物情報データベースを例示した図である。It is the figure which illustrated the target object search part and target object information database which concern on the modification 4. 変形例5に係る対象物データベースを例示した図である。It is the figure which illustrated the object database concerning modification 5. 同変形例に係る対象物の選択動作を説明するための図である。It is a figure for demonstrating the selection operation | movement of the target object concerning the modification. 変形例6に係る操作リモコンの構成を示す図である。It is a figure which shows the structure of the operation remote control which concerns on the modification 6. FIG.

符号の説明Explanation of symbols

100、100’・・・音声ガイドシステム、110,110’・・・操作リモコン、B1・・・再生ボタン、B2・・・停止ボタン、120・・・ガイド本体、130・・・ヘッドフォン、U・・・処理ユニット、210・・・位置情報取得部、220・・・方向情報取得部、230・・・制御部、240、240’、240’’・・・対象物検索部、250、250’、250’’・・・対象物情報データベース、260・・・障害物情報データベース。 100, 100 '... Voice guidance system, 110, 110' ... Operation remote control, B1 ... Play button, B2 ... Stop button, 120 ... Guide body, 130 ... Headphone, U ..Processing unit 210 ... Position information acquisition unit 220 ... Direction information acquisition unit 230 ... Control unit 240, 240 ', 240' '... Object search unit 250, 250' , 250 '' ... object information database, 260 ... obstacle information database.

Claims (5)

ユーザの位置を検出する位置検出手段と、
前記ユーザの方向を検出する方向検出手段と、
各対象物の位置及び形状を特定する対象物情報と各対象物の提供情報とを対応付けて記憶する対象物記憶手段と、
検出された前記ユーザの位置及び該ユーザの方向と、前記対象物情報によって特定される各対象物の位置及び形状とを比較し、比較結果に基づいて対応する対象物を特定し、特定した対象物の提供情報を前記記憶手段から取得する取得手段と、
取得された前記提供情報を出力する出力手段と
を具備することを特徴とする情報提供装置。
Position detecting means for detecting the position of the user;
Direction detecting means for detecting the direction of the user;
Object storage means for storing the object information for specifying the position and shape of each object and the provision information of each object in association with each other;
The detected position of the user and the direction of the user are compared with the position and shape of each target specified by the target information, the corresponding target is specified based on the comparison result, and the specified target Acquisition means for acquiring information provided on the object from the storage means;
An information providing apparatus comprising: output means for outputting the acquired provision information.
前記提供情報の出力指示を入力する入力手段を具備し、
前記出力手段は、前記出力指示の入力を契機として前記提供情報を出力する
ことを特徴とする請求項1に記載の情報提供装置。
Comprising input means for inputting an instruction to output the provided information;
The information providing apparatus according to claim 1, wherein the output unit outputs the provision information in response to an input of the output instruction.
各障害物に関連する情報であり、各障害物の位置を特定する障害物情報を記憶する障害物記憶手段をさらに具備し、
前記取得手段は、検出される前記ユーザの位置及び該ユーザの方向と、前記対象物情報によって特定される各対象物の位置及び形状と、前記障害物情報によって特定される各障害物の位置とを比較し、比較結果に基づいて対応する対象物を特定する
ことを特徴とする請求項1に記載の情報提供装置。
It further includes obstacle storage means for storing obstacle information that is information related to each obstacle and identifies the position of each obstacle,
The acquisition means includes the detected position of the user and the direction of the user, the position and shape of each object specified by the object information, and the position of each obstacle specified by the obstacle information. The information providing apparatus according to claim 1, wherein the corresponding objects are identified based on the comparison result.
前記ユーザの視線の角度を検出する仰角検出手段をさらに具備し、
前記取得手段は、検出される前記ユーザの位置、該ユーザの方向、及び該ユーザの視線の角度と、前記対象物情報によって特定される各対象物の位置及び形状とを比較し、比較結果に基づいて対応する対象物を特定する
ことを特徴とする請求項1に記載の情報提供装置。
Further comprising an elevation angle detecting means for detecting an angle of the user's line of sight,
The acquisition unit compares the detected position of the user, the direction of the user, and the angle of the line of sight of the user with the position and shape of each object specified by the object information, and obtains a comparison result. The corresponding object is specified based on the information providing apparatus according to claim 1.
前記提供情報は、前記対象物の特性を音声にて出力するための音声情報であり、
前記出力手段は、取得された前記音声情報を再生して出力する
ことを特徴とする請求項1から4の何れかに記載の情報提供装置。
The provided information is voice information for outputting the characteristics of the object by voice,
The information providing apparatus according to claim 1, wherein the output unit reproduces and outputs the acquired audio information.
JP2004128269A 2004-04-23 2004-04-23 Information providing device Pending JP2005309948A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004128269A JP2005309948A (en) 2004-04-23 2004-04-23 Information providing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004128269A JP2005309948A (en) 2004-04-23 2004-04-23 Information providing device

Publications (1)

Publication Number Publication Date
JP2005309948A true JP2005309948A (en) 2005-11-04

Family

ID=35438630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004128269A Pending JP2005309948A (en) 2004-04-23 2004-04-23 Information providing device

Country Status (1)

Country Link
JP (1) JP2005309948A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011521511A (en) * 2008-04-18 2011-07-21 ソニー エリクソン モバイル コミュニケーションズ, エービー Audio augmented with augmented reality
JP2015079310A (en) * 2013-10-15 2015-04-23 富士通株式会社 Acoustic device, acoustic system, acoustic processing method and acoustic processing program
JP2016048192A (en) * 2014-08-27 2016-04-07 株式会社ゼンリンデータコム Information processing system, information processing method, and program
CN105488112A (en) * 2015-11-20 2016-04-13 小米科技有限责任公司 Information pushing method and device
JP6463529B1 (en) * 2018-03-20 2019-02-06 ヤフー株式会社 Information processing apparatus, information processing method, and information processing program
JP6829298B1 (en) * 2019-10-18 2021-02-10 株式会社スクウェア・エニックス Programs, computer equipment, and control methods

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011521511A (en) * 2008-04-18 2011-07-21 ソニー エリクソン モバイル コミュニケーションズ, エービー Audio augmented with augmented reality
JP2015079310A (en) * 2013-10-15 2015-04-23 富士通株式会社 Acoustic device, acoustic system, acoustic processing method and acoustic processing program
JP2016048192A (en) * 2014-08-27 2016-04-07 株式会社ゼンリンデータコム Information processing system, information processing method, and program
CN105488112A (en) * 2015-11-20 2016-04-13 小米科技有限责任公司 Information pushing method and device
CN105488112B (en) * 2015-11-20 2019-09-17 小米科技有限责任公司 Information-pushing method and device
JP6463529B1 (en) * 2018-03-20 2019-02-06 ヤフー株式会社 Information processing apparatus, information processing method, and information processing program
JP2019164021A (en) * 2018-03-20 2019-09-26 ヤフー株式会社 Information processing device, information processing method, and information processing program
JP6829298B1 (en) * 2019-10-18 2021-02-10 株式会社スクウェア・エニックス Programs, computer equipment, and control methods
JP2021068057A (en) * 2019-10-18 2021-04-30 株式会社スクウェア・エニックス Program, computer apparatus, and control method

Similar Documents

Publication Publication Date Title
US11659348B2 (en) Localizing binaural sound to objects
US20150063610A1 (en) Audio rendering system categorising geospatial objects
US10248856B2 (en) Smart necklace with stereo vision and onboard processing
Giudice et al. Blind navigation and the role of technology
GB2379309A (en) Recognition and identification apparatus
TW200811422A (en) Route planning systems and trigger methods thereof
US11373650B2 (en) Information processing device and information processing method
JP2007149053A (en) Route guidance system and method
JP2005045398A (en) Method and device for photography assistance, and photographing device
Kuribayashi et al. Linechaser: a smartphone-based navigation system for blind people to stand in lines
JP2009277097A (en) Information processor
JP2020520576A (en) Apparatus and related method for presentation of spatial audio
US20210154827A1 (en) System and Method for Assisting a Visually Impaired Individual
US20220311976A1 (en) Remote operation system, remote operation method, and program
WO2019133638A1 (en) Voice tagging of video while recording
US11856332B2 (en) Remote operation system, remote operation mobile body, remote operation method, and program
US11670051B1 (en) Augmenting transmitted video data
JP2005309948A (en) Information providing device
JP2006231447A (en) Confirmation method for indicating position or specific object and method and device for coordinate acquisition
US11460994B2 (en) Information processing apparatus and information processing method
JP6698600B2 (en) Terminal device, program and system
JP2022153363A (en) Server device, information processing method, and server program
JP2005033682A (en) Video display system
JP2005309537A (en) Information providing device
JP2008111693A (en) Mobile apparatus and target information retrieval method