JP2002170132A - Information presenting device and method and storage medium - Google Patents

Information presenting device and method and storage medium

Info

Publication number
JP2002170132A
JP2002170132A JP2000368787A JP2000368787A JP2002170132A JP 2002170132 A JP2002170132 A JP 2002170132A JP 2000368787 A JP2000368787 A JP 2000368787A JP 2000368787 A JP2000368787 A JP 2000368787A JP 2002170132 A JP2002170132 A JP 2002170132A
Authority
JP
Japan
Prior art keywords
observer
viewpoint
information
specifying
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000368787A
Other languages
Japanese (ja)
Other versions
JP3437550B2 (en
Inventor
Mahoro Anabuki
まほろ 穴吹
Kiyohide Sato
清秀 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mixed Reality Systems Laboratory Inc
Original Assignee
Mixed Reality Systems Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mixed Reality Systems Laboratory Inc filed Critical Mixed Reality Systems Laboratory Inc
Priority to JP2000368787A priority Critical patent/JP3437550B2/en
Publication of JP2002170132A publication Critical patent/JP2002170132A/en
Application granted granted Critical
Publication of JP3437550B2 publication Critical patent/JP3437550B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To obtain an accurate viewing point position of an observer and to accurately position a virtual space and a real space relative to each other. SOLUTION: A plurality of points where information can be presented is provided in advance and the observer is urged to stand at either of those positions with accuracy. An information presenting device specifies the ID of the point where the observer stands, based on an input made by the observer himself or on the observer's position information. As a result, the information presenting device obtains from the ID of the point the viewing point position of the observer matching the ID. Based on the measurements of the azimuth and attitude of the observer at the viewing point position and on the viewing point obtained, an MR image is created and presented to the observer.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、フィールドに予め
設けられた複数のポイントにおける観察者の視点位置と
方位姿勢に応じた画像を提示する情報提示装置及びその
方法並びに記憶媒体に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information presenting apparatus for presenting an image corresponding to a viewpoint position and an azimuth posture of an observer at a plurality of points provided in a field in advance, a method thereof, and a storage medium.

【0002】[0002]

【従来の技術】近年は、複合現実感(Mixed Re
ality;MR)を利用したシステム(MRシステ
ム)が提案されている。MRとは、計算機によって生成
した仮想空間を、現実空間に3次元的に位置合わせした
状態で重畳して観察者に提示することにより、両空間の
情報を相互に補完・増強する技術である。MRには、透
過型の表示装置を通して観察者が直接視認する現実空間
に、計算機によって生成した仮想空間画像を重畳して提
示する光学シースルー方式と、カメラ等の撮影手段(多
くの場合観察者自身の視点移動に連動して移動する)で
撮影した現実空間画像に、計算機によって生成した仮想
空間を重畳描画して観察者に提示するビデオシースルー
方式がある。本明細書では、以後、両方式において観察
者に提示される画像(光学シースルー方式における仮想
空間画像、及びビデオシースルー方式における現実空間
画像に仮想空間画像を重畳描画した画像)を総称してM
R画像と呼ぶ事とする。また、本明細書では、以後、光
学シースルー方式における観察者自身の視点、及びビデ
オシースルー方式におけるカメラ等の撮像手段の視点を
総称して、観察者視点あるいは観察者の視点と呼ぶ事と
する。
2. Description of the Related Art In recent years, Mixed Reality (Mixed Re
system (MR) has been proposed. MR is a technology that complements and enhances information in both spaces by superimposing and presenting to a viewer a virtual space generated by a computer in a state where the virtual space is three-dimensionally aligned with a real space. MR includes an optical see-through system in which a virtual space image generated by a computer is superimposed on a real space visually observed by an observer through a transmission type display device, and a photographing means such as a camera (in many cases, the observer himself / herself). There is a video see-through method in which a virtual space generated by a computer is superimposed and drawn on a real space image captured by the camera (moving in conjunction with the movement of the viewpoint) and presented to an observer. In the present specification, hereinafter, an image (a virtual space image in an optical see-through system and an image in which a virtual space image is superimposed and drawn on a real space image in a video see-through system) presented to an observer in both systems are collectively referred to as M.
It is called an R image. Further, in the present specification, the viewpoint of the observer himself in the optical see-through system and the viewpoint of an imaging unit such as a camera in the video see-through system are collectively referred to as an observer viewpoint or a viewpoint of the observer.

【0003】一方で、計算機性能の向上と小型化から、
利用者が計算機や情報表示装置等を身に着けるウェアラ
ブルなシステムの実現が検討されている。ウェアラブル
なシステムは、屋外で利用できることや使用範囲を限定
しないという利点を持つ。
On the other hand, due to the improvement of computer performance and miniaturization,
Realization of a wearable system in which a user wears a computer, an information display device, and the like is being studied. Wearable systems have the advantage of being outdoors and not limiting their use.

【0004】このウェアラブルなシステムを使ってMR
技術を実現する研究も行われており、その1つが、文献
「T. Hollerer, S. Feiner, and J. Pavlik: "Situated
documentaries: embedding multimedia presentations
in the real world," Proc.ISWC'99, pp.79-86, 199
9.」に開示されている。この文献で開示されるMRシス
テムは観察者に大学構内の案内を行うシステムであり、
GPS(Global Positioning System)・傾斜計・地磁
気センサによって得られた観察者の視点位置・方位姿勢
情報に基づいて生成された案内情報(校舎名等)を、観
察者が装着した光学シースルー型HMD(Head Mounted Di
splay; 頭部装着型ディスプレイ)に表示する。この結
果、観察者は例えば現実空間に存在する校舎と、ディス
プレイ上で位置合わせされて表示される校舎名とを同時
に視認することができ、構内を歩きながらリアルタイム
に案内を受けることができる。
An MR using this wearable system
Research has also been carried out to realize technology, one of which is described in the literature "T. Hollerer, S. Feiner, and J. Pavlik:" Situated
documentaries: embedding multimedia presentations
in the real world, "Proc. ISWC'99, pp. 79-86, 199
9. " The MR system disclosed in this document is a system that provides an observer with guidance on the campus,
An optical see-through HMD (Glass Positioning System, etc.) generated by the GPS (Global Positioning System), inclinometer, and geomagnetic sensor based on the observer's viewpoint position and azimuth orientation information Head Mounted Di
splay; head-mounted display). As a result, the observer can, for example, visually recognize the school building existing in the real space and the school building name aligned and displayed on the display at the same time, and can receive guidance in real time while walking on the premises.

【0005】[0005]

【発明が解決しようとする課題】上述の、ウェアラブル
なシステムによるMR技術実現の検討には、小型且つ非設
置型のシステムで、仮想空間と現実空間との正確な位置
合わせを行うことが問題となる。この位置合わせ問題
は、如何に正確に観察者視点の位置と方位姿勢を獲得す
るかに帰着されるが、小型且つ非設置型で高精度な位置
計測装置はなく、正確な視点位置を如何に獲得するかが
問題となる。上述の文献で開示されるMRシステムでは、
GPSを観察者の視点位置計測装置として利用している
が、その精度は不十分であり、位置合わせ問題の解決に
は至っていない。
In the study of the realization of the MR technology by the wearable system, it is necessary to accurately align the virtual space and the real space with a small and non-installed system. Become. This alignment problem can be reduced to how to accurately obtain the position and orientation of the observer's viewpoint. However, there is no small, non-installed, high-precision position measurement device, and how to obtain an accurate viewpoint position. The question is how to get it. In the MR system disclosed in the above document,
Although GPS is used as an observer's viewpoint position measuring device, its accuracy is insufficient, and the positioning problem has not been solved.

【0006】本発明は以上の問題に鑑みてなされたもの
であり、観察者の正確な視点位置を獲得することを目的
とする。また、仮想空間と現実空間との正確な位置合わ
せを行うことを目的とする。
The present invention has been made in view of the above problems, and has as its object to acquire an accurate viewpoint position of an observer. It is another object of the present invention to perform accurate positioning between a virtual space and a real space.

【0007】[0007]

【課題を解決するための手段】本発明の目的を達成する
ために、例えば本発明の情報提示装置は以下の構成を備
える。
In order to achieve the object of the present invention, for example, an information presenting apparatus of the present invention has the following arrangement.

【0008】すなわち、フィールドに予め設けられた複
数のポイントにおいて、観察者の視点位置と方位姿勢に
応じた画像を提示する情報提示装置であって、前記ポイ
ントにおける観察者の視点位置のテーブルを格納する視
点位置格納手段と、前記観察者がいるポイントを特定す
る情報に応じて前記視点位置格納手段から当該観察者の
視点位置を特定する視点位置特定手段と、前記観察者の
視点の方位姿勢を計測する視点方位姿勢計測手段と、前
記視点方位姿勢計測手段による前記観察者の視点の方位
姿勢と、前記視点位置特定手段による前記観察者の視点
の位置に応じた画像を生成する画像生成手段とを備え、
前記画像を所定の表示手段を介して前記観察者に提示す
る。
That is, an information presenting apparatus for presenting an image in accordance with a viewpoint position and an azimuth posture of an observer at a plurality of points provided in a field in advance, storing a table of the observer's viewpoint positions at the points. Viewpoint position storage means to perform, viewpoint position specification means for specifying the viewpoint position of the observer from the viewpoint position storage means according to the information for specifying the point where the observer is located, and azimuth orientation of the viewpoint of the observer Viewpoint azimuth and posture measurement means for measuring, azimuth and posture of the observer's viewpoint by the viewpoint azimuth and posture measurement means, and image generation means for generating an image corresponding to the observer's viewpoint position by the viewpoint position specifying means. With
The image is presented to the observer via predetermined display means.

【0009】更に、前記観察者が情報提示開始及び終了
を指示する情報を入力可能な入力手段を備える。
Further, there is provided input means by which the observer can input information for instructing start and end of information presentation.

【0010】更に、前記観察者が前記ポイントを特定す
る情報を入力可能な入力手段を備える。
[0010] Further, there is provided input means by which the observer can input information for specifying the point.

【0011】更に、前記ポイントに設置し、前記観察者
が情報提示開始及び終了を指示する情報を入力可能な入
力手段を備え、前記視点位置特定手段は当該入力手段が
どのポイントに設置されているかを認識可能である。
[0011] Further, input means is provided at the point, and the observer can input information for instructing start and end of information presentation, and the viewpoint position specifying means determines at which point the input means is installed. Can be recognized.

【0012】更に、前記観察者が当該観察者を特定する
情報を入力可能な入力手段を備え、前記観察者を特定す
る情報に応じて前記視点位置格納手段から当該観察者の
視点位置を特定する視点位置特定手段を備える。
[0012] Further, there is provided input means by which the observer can input information for specifying the observer, and the viewpoint position of the observer is specified from the viewpoint position storage means in accordance with the information for specifying the observer. A viewpoint position specifying unit is provided.

【0013】更に、前記観察者の大まかな位置を計測す
る観察者位置計測手段を備える。
Further, there is provided observer position measuring means for measuring the approximate position of the observer.

【0014】[0014]

【発明の実施の形態】以下添付図面を参照して、本発明
をその好適な実施形態に従って詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.

【0015】[第1の実施形態]本実施形態の情報提示
装置は、観察者に対して複合現実感を体験させる装置で
あるが、この観察者は予め定められたいくつかのポイン
トのうち、ある一つのポイントに立って視点位置を固定
することで、そのポイントでの視点位置と方位姿勢に基
づいた、すなわち見回し可能な、複合現実感を得る。
[First Embodiment] The information presenting apparatus of the present embodiment is an apparatus for allowing a viewer to experience mixed reality, and the viewer has one of a number of predetermined points. By fixing the viewpoint position while standing at a certain point, a mixed reality that can be looked around based on the viewpoint position and the azimuth posture at that point, that is, can be looked around is obtained.

【0016】図2にフィールド200における各ポイン
トを示す。同図においてフィールド200は屋内、屋外
を問わない一領域であって、同図では点Oを原点とし、
y座標値は標高の値とする。なお、このフィールド20
0内における各点(ポイント)A、B、Cは同じ標高値
(10)とするが、各点で異なった値でもよい。このフ
ィールド200において観察者に複合現実感を提供する
本実施形態における情報提示装置及びその方法について
以下説明する。
FIG. 2 shows each point in the field 200. In the figure, a field 200 is an area irrespective of whether it is indoors or outdoors. In FIG.
The y coordinate value is an altitude value. This field 20
Each point (point) A, B, and C in 0 has the same altitude value (10), but may have a different value at each point. An information presenting apparatus and method for providing mixed reality to an observer in the field 200 according to the present embodiment will be described below.

【0017】図1は本実施形態における情報提示装置の
基本構成を示すブロック図である。
FIG. 1 is a block diagram showing a basic configuration of the information presenting apparatus according to the present embodiment.

【0018】108はキーボードなどの情報入力装置に
より構成されている入力部で、後述の情報提示を開始す
る指示(提示開始指示)および情報提示を終了する指示
(提示終了指示)と、ポイントを特定するID(ポイン
トID)と、観察者105を特定するID(観察者I
D)を入力することができる。また、電子化したポイン
トIDや観察者IDを読みとり可能な記憶媒体に記憶さ
せた場合、入力部108にこの記憶媒体から電子化され
たポイントIDと観察者IDを読みとる記憶媒体リーダ
を付加してもよい。
Reference numeral 108 denotes an input unit constituted by an information input device such as a keyboard, which specifies an instruction to start information presentation (presentation start instruction) and an instruction to end information presentation (presentation end instruction), and specifies points. ID (point ID) to identify and the ID specifying the observer 105 (observer I
D) can be entered. When the digitized point ID and the observer ID are stored in a readable storage medium, a storage medium reader that reads the digitized point ID and the observer ID from this storage medium is added to the input unit 108. Is also good.

【0019】100はGPSやコンピュータなどの計測
機器により構成されている観察者位置計測部で、観察者
105の位置を計測する。この観察者105の位置の計
測は充分な精度でなくてよく、後述の処理を行うのに障
害のない精度(大まかな精度)を有していればよい。ま
た、入力部108がある場合には、必ずしも観察者位置
計測部100はなくてもよい。
Reference numeral 100 denotes an observer position measuring unit constituted by a measuring device such as a GPS or a computer, and measures the position of the observer 105. The measurement of the position of the observer 105 does not need to have sufficient accuracy, and it is sufficient that the measurement has an accuracy (rough accuracy) that does not hinder the processing described below. When the input unit 108 is provided, the observer position measuring unit 100 is not necessarily required.

【0020】また、観察者位置計測部100をCCDカ
メラのような現実空間画像取り込み装置によって構成
し、現実空間画像のランドマーク(絶対位置が分かって
いる物体もしくはその特徴点)位置を検出することによ
って観察者の位置を算出してもよいし、観察者周辺の現
実空間画像と予め蓄えておいた撮影位置が既知な現実空
間画像との類似度から、観察者の位置を算出してもよ
い。
Further, the observer position measuring unit 100 is constituted by a real space image capturing device such as a CCD camera to detect a landmark (an object whose absolute position is known or its characteristic point) of the real space image. The position of the observer may be calculated from the similarity, or the position of the observer may be calculated from the similarity between the real space image around the observer and the real space image whose shooting position stored in advance is known. .

【0021】また、観察者位置計測部100を信号受信
装置によって構成し、現実空間内に置かれた信号発信機
が発する信号を受信し、その受信信号の内容から観察者
の位置を獲得してもよい。その他、観察者の位置を獲得
する機構ならば、何で構成されていてもよい。
Further, the observer position measuring section 100 is constituted by a signal receiving device, receives a signal emitted from a signal transmitter placed in the real space, and obtains the position of the observer from the content of the received signal. Is also good. In addition, any mechanism that acquires the position of the observer may be used.

【0022】107は図3、4に示す2つのテーブルを
格納する視点位置データベースである。図3に各ポイン
トIDに対応した各ポイントの座標値が記載されたテー
ブル、図4に観察者105を含む観察者の観察者IDに
対応した各観察者の視点の絶対的な高さ(図2に示した
座標系における尺度で記載)が記載されたテーブルを示
す。
A viewpoint position database 107 stores the two tables shown in FIGS. FIG. 3 shows a table in which the coordinate values of each point corresponding to each point ID are described, and FIG. 4 shows the absolute height of the viewpoint of each observer corresponding to the observer ID of the observer including the observer 105 (FIG. 2 is described on a scale in the coordinate system shown in FIG. 2).

【0023】101は観察者位置情報&視点位置情報認
識部で、入力部108から提示開始指示を受け取ると、
観察者位置計測部100と、入力部108と、観察者位
置情報&視点位置情報認識部101を除く各部の動作を
開始させる。また観察者位置情報&視点位置情報認識部
101は、入力部108からポイントIDと観察者ID
を受け取り、これを保持すると共に、視点位置情報取り
出し部102に出力する。観察者IDが受け取れない場
合には、デフォルトのIDを観察者IDとして、視点位
置情報取り出し部102に出力する。この場合、観察者
位置計測部100は無くても良い。
Reference numeral 101 denotes an observer position information and viewpoint position information recognition unit which receives a presentation start instruction from the input unit 108,
The operation of each unit except the observer position measuring unit 100, the input unit 108, and the observer position information & viewpoint position information recognizing unit 101 is started. Also, the observer position information & viewpoint position information recognition unit 101 inputs a point ID and an observer ID from the input unit 108.
And holds it, and outputs it to the viewpoint position information extracting unit 102. If the observer ID cannot be received, the default ID is output to the viewpoint position information extracting unit 102 as the observer ID. In this case, the observer position measuring unit 100 may not be provided.

【0024】しかし本実施形態ではこれに限定されず、
他にも例えば、観察者位置情報&視点位置情報認識部1
01は、入力部108から提示開始指示を受け取る代わ
りに、観察者位置計測部100から入力される観察者1
05の位置が、視点位置データベース107に座標が格
納されているポイントから所定の距離以内であるか否
か、そしてさらに観察者105の移動速度が一定時間所
定の移動速度以下であるか否かを判断し、観察者105
の位置があるポイントから所定の距離以内で、かつ観察
者105の移動速度が一定時間所定の移動速度以下ある
場合(以下この場合を、「ポイントにいる」と表現す
る)に、観察者位置計測部100と、入力部108と、
観察者位置情報&視点位置情報認識部101を除く各部
の動作を開始させてもよい。この場合、入力部108か
ら提示開始指示の入力はなくても良い。また同様に、観
察者位置情報&視点位置情報認識部101は、入力部1
08からポイントIDを受け取る代わりに、観察者位置
計測部100から受け取った観察者105の視点位置に
最も近いポイントのポイントIDを視点位置データベー
ス107から獲得し、視点位置情報取り出し部102に
出力してもよい。又この場合、入力部108からポイン
トIDの入力はなくても良い。
However, the present embodiment is not limited to this,
In addition, for example, observer position information & viewpoint position information recognition unit 1
01 is the observer 1 input from the observer position measuring unit 100 instead of receiving the presentation start instruction from the input unit 108.
05 is within a predetermined distance from a point whose coordinates are stored in the viewpoint position database 107, and whether or not the moving speed of the observer 105 is lower than or equal to a predetermined moving speed for a certain period of time. Judge and observer 105
Is within a predetermined distance from a certain point and the moving speed of the observer 105 is equal to or lower than a predetermined moving speed for a certain period of time (hereinafter, this case is referred to as “being at a point”). Unit 100, input unit 108,
The operation of each unit except the observer position information & viewpoint position information recognition unit 101 may be started. In this case, the presentation start instruction may not be input from the input unit 108. Similarly, the observer position information & viewpoint position information recognizing unit 101 includes the input unit 1
Instead of receiving the point ID from 08, the point ID of the point closest to the viewpoint position of the observer 105 received from the observer position measurement unit 100 is obtained from the viewpoint position database 107 and output to the viewpoint position information extraction unit 102. Is also good. In this case, the input of the point ID from the input unit 108 may not be required.

【0025】102は観察者位置情報&視点位置情報認
識部101から出力されたポイントIDおよび観察者I
Dに基づいた視点位置座標を視点位置データベース10
7から特定する視点位置情報取り出し部で、特定した視
点位置座標を複合現実空間生成部103に出力する。
Reference numeral 102 denotes the point ID and the observer I output from the observer position information & viewpoint position information recognition unit 101.
The viewpoint position coordinates based on D are stored in the viewpoint position database 10.
The viewpoint position information extracting unit specified from step 7 outputs the specified viewpoint position coordinates to the mixed reality space generating unit 103.

【0026】106は観察者105の視点の方位姿勢を
計測する視点方位姿勢計測部で、地磁気センサやジャイ
ロセンサといった方位姿勢計測センサもしくは装置(方
位姿勢計測機器)によって構成される。これらの方位姿
勢計測機器を観察者の視点に設置することはできないの
で、これら方位姿勢計測機器の出力は観察者の視点方位
姿勢に一致しない。従って、視点方位姿勢検出部106
は方位姿勢計測機器の出力を補正することによって観察
者の視点方位姿勢を算出してから、その結果を複合現実
空間生成部103に出力する。
Reference numeral 106 denotes a viewpoint orientation and posture measurement unit that measures the orientation and orientation of the viewpoint of the observer 105, and is configured by an orientation and orientation measurement sensor or device (azimuth and orientation measurement device) such as a geomagnetic sensor or a gyro sensor. Since these azimuth and posture measuring devices cannot be installed at the viewpoint of the observer, the outputs of these azimuth and posture measuring devices do not match the viewpoint azimuth and orientation of the observer. Therefore, the viewpoint orientation / posture detection unit 106
Calculates the viewpoint orientation of the observer by correcting the output of the orientation measurement device, and outputs the result to the mixed reality space generation unit 103.

【0027】例えば、図5に示すように、方位姿勢計測
機器としてのジャイロセンサを観察者105の頭部に固
定すると、方位姿勢計測機器106と観察者105の視
点の方位姿勢関係は一定に保たれるので、方位姿勢計測
機器の出力結果に固定の変換式を適用することにより、
観察者の視点姿勢を算出することができる。同図におけ
る各部の詳細については後述する。
For example, as shown in FIG. 5, when a gyro sensor as an azimuth / posture measuring device is fixed to the head of the observer 105, the azimuth / posture relationship between the azimuth / posture measuring device 106 and the viewpoint of the observer 105 is kept constant. By applying a fixed conversion formula to the output result of the azimuth and orientation measurement device,
The viewpoint posture of the observer can be calculated. Details of each unit in the figure will be described later.

【0028】また、視点方位姿勢計測部106を現実空
間画像取り込み装置によって構成し、現実空間画像中の
ランドマーク(絶対姿勢が分かっている物体もしくはそ
の特徴点)の撮影画像上の位置を認識することで、観察
者の視点方位姿勢を算出することもできる。その他、観
察者の視点方位姿勢を獲得する機構ならば何を有してい
てもよい。
Further, the viewpoint orientation and posture measurement unit 106 is constituted by a real space image capturing device, and recognizes the position of a landmark (an object whose absolute posture is known or its feature point) on the captured image in the real space image. Thus, the viewpoint orientation of the observer can be calculated. In addition, any mechanism may be used as long as the mechanism acquires the viewpoint orientation of the observer.

【0029】103は観察者105に複合現実感を体験
させるための画像(MR画像)を生成する複合現実空間
生成部で、視点位置情報取り出し部102からの観察者
105の視点位置座標と、視点方位姿勢計測部106か
らの観察者105の視点の方位姿勢に基づいたMR画像
を生成する。なお複合現実空間生成部103は通常のコ
ンピュータにより構成されており、生成したMR画像を
画像表示部104に出力する。
Reference numeral 103 denotes a mixed reality space generation unit for generating an image (MR image) for causing the observer 105 to experience mixed reality, and the viewpoint position coordinates of the observer 105 from the viewpoint position information extraction unit 102 and the viewpoint position An MR image is generated based on the azimuth and orientation of the observer 105 from the azimuth and orientation measurement unit 106. Note that the mixed reality space generation unit 103 is configured by a normal computer, and outputs the generated MR image to the image display unit 104.

【0030】104は複合現実空間生成部103から入
力したMR画像を観察者105に対して提示する画像表
示部で、HMDやコンピュータディスプレイ等の画像表
示機器によって構成され、MR画像を観察者の眼前に表
示する。MR画像の提示手法としては、ビデオシースル
ー方式、光学シースルー方式のどちらを用いても良い。
Reference numeral 104 denotes an image display unit for presenting the MR image input from the mixed reality space generation unit 103 to the observer 105. The image display unit 104 is configured by an image display device such as an HMD or a computer display. To be displayed. Any of a video see-through method and an optical see-through method may be used as a method of presenting an MR image.

【0031】105は観察者である。Reference numeral 105 denotes an observer.

【0032】以上の構成を有する本実施形態の情報提示
装置を用いて、観察者にMR画像を提示するまでの具体
的な流れについて、図6に示す同処理のフローチャート
を用いて以下説明する。なお、本実施形態における情報
提示装置の処理はステップS200以降の処理である。
A specific flow up to presenting an MR image to an observer using the information presenting apparatus of the present embodiment having the above configuration will be described below with reference to the flowchart of the same process shown in FIG. Note that the processing of the information presentation device in the present embodiment is processing after step S200.

【0033】以下では例として観察者105はフィール
ド200内に存在しているものとする。各ポイントA、
B、Cには本実施形態における情報提示装置の利用可能
位置であることを示す足形等の目印があり、このポイン
トを特定するポイントIDが明示的に割り当てられてい
る。ステップS100において、観察者105はこの3
つのポイントのうち、いずれかのポイントを選択し、そ
の場所に正確に立つ。
In the following, it is assumed that the observer 105 is present in the field 200 as an example. Each point A,
B and C have marks such as footprints indicating that the information presenting device in the present embodiment can be used, and a point ID for specifying the point is explicitly assigned. In step S100, the observer 105
Choose one of the points and stand exactly at that location.

【0034】観察者105は図5に示すように背中に情
報提示装置の一部であるPCを装着しており、手には入
力部108としてワイヤレスキーボードを持つ。また,
観察者位置計測部100としてGPSを装着しており、
観察者位置計測部100により、観察者の位置は常に観
察者位置情報&視点位置情報認識部101に送信されて
いる。また観察者105は同図の通り、画像表示部10
4としてHMDを頭部に装着し、視点方位姿勢計側部1
06としてジャイロセンサを頭部に装着している。
As shown in FIG. 5, the observer 105 wears a PC, which is a part of the information presentation device, on his back, and has a wireless keyboard as an input unit 108 in his hand. Also,
GPS is installed as the observer position measuring unit 100,
The observer position is always transmitted to the observer position information & viewpoint position information recognition unit 101 by the observer position measuring unit 100. Also, as shown in FIG.
HMD attached to the head as 4
The gyro sensor is attached to the head as 06.

【0035】次にステップS200において、観察者1
05が自身の立つポイントのポイントIDと自身につけ
られた観察者IDを、入力部108を介して観察者位置
情報&視点位置情報認識部101に入力する。ステップ
S200で、観察者IDが観察者によって入力されない
場合は、予め保持しておいたデフォルトのIDを観察者
IDとする。
Next, in step S200, the observer 1
05 inputs the point ID of the point where the user stands and the observer ID attached to the observer to the observer position information & viewpoint position information recognition unit 101 via the input unit 108. If the observer ID is not input by the observer in step S200, the default ID held in advance is set as the observer ID.

【0036】またステップS200において、観察者位
置情報&視点位置情報認識部101は観察者位置計測部
100から観察者105の位置を獲得し、この位置情報
を元に、観察者が立ったポイントのポイントIDを獲得
してもよい。すなわち、視点位置データベース107内
に格納されている図3に示すテーブルから観察者105
に最も近いポイントを特定し、その特定したポイントを
観察者が立ったポイントであると判断し、ポイントID
を獲得する。
In step S200, the observer position information and viewpoint position information recognizing unit 101 obtains the position of the observer 105 from the observer position measuring unit 100, and based on this position information, the position of the point at which the observer stands is obtained. A point ID may be obtained. That is, the observer 105 is obtained from the table shown in FIG.
Is identified, and the identified point is determined to be a point on which the observer stands, and the point ID is determined.
To win.

【0037】次にステップS300において、観察者が
入力部108を介して提示開始指示を観察者位置情報&
視点位置情報認識部101に入力する。
Next, in step S300, the observer gives a presentation start instruction via the input unit 108 to the observer position information &
The information is input to the viewpoint position information recognition unit 101.

【0038】またステップS300において、観察者位
置情報&視点位置情報認識部101は観察者位置計測部
100から観察者105の位置を獲得し、この位置情報
を元に情報提示開始のタイミングを判断して、自ら提示
開始指示を発生させ、自身に入力してもよい。すなわ
ち、視点位置データベース107内に格納されている図
3に示すテーブルから観察者105に最も近いポイント
を特定し、特定したポイントが観察者105から予め設
定した所定の距離以内にあるか否かを判断する。さらに
観察者105の移動速度が一定時間所定の移動速度以下
であるか否かを、一定時間内の観察者105の移動距離
から算出することで判断する。例えば観察者105がポ
イントBから所定の距離以内で、一定時間所定の速度以
下で存在する場合には、観察者位置情報&視点位置情報
認識部101は「観察者105はポイントBにいる」と
判断して、上述の通り、自ら提示開始指示を発生させ、
自身に入力する。
In step S300, the observer position information and viewpoint position information recognizing unit 101 obtains the position of the observer 105 from the observer position measuring unit 100, and determines the timing of starting information presentation based on this position information. Then, a presentation start instruction may be generated and input to the user. That is, the point closest to the observer 105 is specified from the table shown in FIG. 3 stored in the viewpoint position database 107, and whether or not the specified point is within a predetermined distance from the observer 105 is determined. to decide. Further, it is determined whether or not the moving speed of the observer 105 is equal to or lower than a predetermined moving speed for a certain time by calculating from the moving distance of the observer 105 within the certain time. For example, if the observer 105 exists within a predetermined distance from the point B and at a predetermined speed or less for a predetermined time, the observer position information & viewpoint position information recognition unit 101 determines that "the observer 105 is at the point B". Judgment, as described above, generates a presentation start instruction by itself,
Type in yourself.

【0039】ステップS200と、ステップS300
は、どちらを先に行ってもよいし、同時に行ってもよ
い。また、ステップS200において、観察者105が
ポイントIDと観察者IDを入力する時に、提示開始指
示が自動的に同時入力されるようにしてもよい。また、
入力部108が観察者の立ったポイントに設置されてい
る場合には、ステップS300において、観察者105
が提示開始指示を入力した時に、観察者位置情報&視点
位置情報認識部101はどのポイントに設定された入力
部から情報が入力されたかを、例えば入力部108が持
つ固有のコード番号などで分かるようにしておいてもよ
い。このようにしておくと、観察者105は入力部を自
身が装着した情報提示装置につないで観察者IDを入力
するだけでよく、観察者位置情報&視点位置情報認識部
101は入力部108から入力された観察者IDを入力
し、またこの入力部108が持つ固有のコード番号か
ら、入力部108がどのポイントに設置されたかを認識
する。
Step S200 and step S300
May be performed first or simultaneously. In step S200, when the observer 105 inputs the point ID and the observer ID, the presentation start instruction may be automatically input simultaneously. Also,
When the input unit 108 is installed at the point where the observer stands, in step S300, the observer 105 is set.
When the user inputs the presentation start instruction, the observer position information & viewpoint position information recognizing unit 101 can determine from which input unit the information has been input by using a unique code number of the input unit 108, for example. You may do so. By doing so, the observer 105 only needs to input the observer ID by connecting the input unit to the information presenting device to which the observer 105 is attached. The input observer ID is input, and the point where the input unit 108 is installed is recognized from the unique code number of the input unit 108.

【0040】次にステップS400において、観察者位
置情報&視点位置情報認識部101は観察者位置計測部
100と、入力部108と、観察者位置情報&視点位置
情報認識部101を除く各部(未起動部)の動作を開始
させ、ポイントIDと観察者IDを視点位置情報取り出
し部102へ送る。
Next, in step S400, the observer position information & viewpoint position information recognizing unit 101 includes the observer position measuring unit 100, the input unit 108, and the other units (excluding the observer position information & viewpoint position information recognizing unit 101). The operation of the starting unit) is started, and the point ID and the observer ID are sent to the viewpoint position information extracting unit 102.

【0041】次にステップS500において、視点位置
情報取り出し部102は入力されたポイントIDと観察
者IDから、観察者の視点位置座標を視点位置データベ
ース107から獲得する。例えばポイントA(点A)に
観察者105がいる場合、図3に示したテーブルからポ
イントAの座標値(100,10,15)を獲得する。
次に観察者IDを参照して、観察者の視点の高さを観察
者の視点位置座標を視点位置データベース107から獲
得する。例えば観察者IDが0002の場合、図4から
この観察者の視点の高さは180と特定することができ
る。その結果、観察者IDが0002で特定される観察
者がポイントAにいる場合、この観察者の視点位置は、
ポイントAの座標値+観察者ID0002で特定される
観察者の視点の高さで計算され、その結果(100,1
90,15)と求めることができる。以上のようにする
と、各ポイントにおける各観察者の視点位置(視点位置
座標)を求めることができる。
Next, in step S500, the viewpoint position information extracting unit 102 acquires the viewpoint position coordinates of the observer from the viewpoint position database 107 based on the input point ID and observer ID. For example, when the observer 105 is at point A (point A), the coordinate value (100, 10, 15) of point A is obtained from the table shown in FIG.
Next, referring to the observer ID, the height of the observer's viewpoint is acquired from the viewpoint position database 107 as the observer's viewpoint position coordinates. For example, when the observer ID is 0002, the height of the observer's viewpoint can be specified as 180 from FIG. As a result, when the observer whose observer ID is 0002 is at point A, the viewpoint position of this observer is
It is calculated by the coordinate value of the point A + the height of the viewpoint of the observer specified by the observer ID 0002, and as a result (100, 1
90, 15). In this way, the viewpoint position (viewpoint coordinate) of each observer at each point can be obtained.

【0042】そしてステップS600において、視点方
位姿勢計測部106が観察者の視点方位姿勢を計測す
る。
In step S600, the viewpoint azimuth and orientation measurement unit 106 measures the observer's azimuth and orientation.

【0043】次にステップS700において、ステップ
S600で視点方位姿勢計測部106が計測した観察者
105の視点の方位姿勢と、ステップS500で視点位
置情報取り出し部102が獲得した視点位置座標を複合
現実空間生成部103へ送る。
Next, in step S700, the azimuth and orientation of the viewpoint of the observer 105 measured by the azimuth and orientation measurement unit 106 in step S600 and the viewpoint position coordinates obtained by the viewpoint position information extraction unit 102 in step S500 are mixed reality space. Send to generating section 103.

【0044】次にステップS800において、観察者の
視点位置座標と方位姿勢とに基づいて複合現実空間生成
部103が観察者に提示すべきMR画像を生成する。
Next, in step S800, the mixed reality space generating unit 103 generates an MR image to be presented to the observer based on the observer's viewpoint coordinate and azimuth / posture.

【0045】次にステップS900において、画像表示
部104としてのHMDがMR画像を出力する。その結
果、観察者105は自身のいるポイントにおいて、自身
の視点位置と方位姿勢に基づいたMR画像を、HMDを
介して見ることができる。なおMR画像の生成方法につ
いては本実施形態における範疇ではないのでここでは説
明は割愛する。
Next, in step S900, the HMD as the image display unit 104 outputs an MR image. As a result, at the point where the observer 105 is, the observer 105 can see the MR image based on his / her own viewpoint position and azimuth posture via the HMD. Note that the method of generating an MR image is not in the category of the present embodiment, and thus the description is omitted here.

【0046】次にステップS1000において、情報の
提示終了指示があるかどうかを確認する。提示終了指示
が確認された時、具体的には観察者105が提示終了指
示を入力部108に入力した時は、観察者位置計測部1
00と、入力部108と、観察者位置情報&視点位置情
報認識部101を除く各部の動作を停止させ、ステップ
S1100へ進む。提示終了指示が入力部に入力されな
ければ、ステップS600へ戻る。
Next, in step S1000, it is confirmed whether or not there is an instruction to end presentation of information. When the presentation end instruction is confirmed, specifically, when the observer 105 inputs the presentation end instruction to the input unit 108, the observer position measurement unit 1
00, the input unit 108, and the operation of each unit except the observer position information and viewpoint position information recognition unit 101 are stopped, and the process proceeds to step S1100. If the presentation end instruction has not been input to the input unit, the process returns to step S600.

【0047】また、ステップS1000では、観察者位
置計測部100の計測結果から観察者105が同じポイ
ントにいるか否かを判断し、同じポイントにいないと判
断した場合には、自ら情報の提示終了指示を発生させ、
観察者位置計測部100と、入力部108と、観察者位
置情報&視点位置情報認識部101を除く各部の動作を
停止させて、ステップS1100へ進んでもよい。この
場合、同じポイントにいると判断した時には、ステップ
S600以降を繰り返し実行する。
In step S1000, it is determined whether or not the observer 105 is at the same point based on the measurement result of the observer position measurement unit 100. Causes
The operation of each unit except the observer position measuring unit 100, the input unit 108, and the observer position information & viewpoint position information recognizing unit 101 may be stopped, and the process may proceed to step S1100. In this case, when it is determined that they are at the same point, step S600 and subsequent steps are repeatedly executed.

【0048】ステップS1100では、システム全体を
終了するかどうかを確認する。終了しない場合はステッ
プS100へ戻る。
In step S1100, it is confirmed whether to end the entire system. If not, the process returns to step S100.

【0049】以上の説明により、フィールドに予め設け
られた複数のポイントにおける観察者の視点位置と方位
姿勢に基づいたMR画像を生成する際、本実施形態の情
報提示装置及びその方法によれば、計測する対象は観察
者の視点方位姿勢のみであって、観察者の視点位置は計
測しなくても観察者のいるポイントのポイントIDで特
定できる。その結果、高精度な視点位置計測装置を用意
しなくても、現実空間と仮想空間との正確な位置あわせ
が実現されたMR画像を生成し、観察者に提示すること
ができる。
As described above, when generating an MR image based on the viewpoint position and azimuth posture of the observer at a plurality of points provided in the field in advance, according to the information presenting apparatus and method of the present embodiment, The object to be measured is only the observer's viewpoint orientation, and the observer's viewpoint position can be specified by the point ID of the point where the observer is present without measuring. As a result, it is possible to generate an MR image in which accurate positioning between the real space and the virtual space is realized and present it to the observer without preparing a highly accurate viewpoint position measuring device.

【0050】また機器を設置できない屋外においてや、
複数で広範囲にポイントが散らばっていても、現実空間
と仮想空間との正確な位置合わせが行われたMR画像を
生成し、観察者に提示することができる。
Also, when the equipment cannot be installed outdoors,
Even if a plurality of points are scattered over a wide range, an MR image in which the real space and the virtual space are accurately aligned can be generated and presented to the observer.

【0051】また、観察者IDとして、観察者の名前を
用いてもよい。その場合には図4に記載していた観察者
IDを観察者の名前に変更する。また、観察者ID、観
察者の名前のどちらでも選択可能にしてもよい。
The name of the observer may be used as the observer ID. In that case, the observer ID described in FIG. 4 is changed to the observer's name. Further, either the observer ID or the observer's name may be selectable.

【0052】本実施形態では入力部108としてワイヤ
レスキーボードを用いて、観察者ID、ポイントIDを
手で入力したが、ほかにも音声で入力するために入力部
108をマイクと、入力した音声を認識する認識部とで
構成してもよい。また、バーコードで観察者ID、ポイ
ントIDを入力する場合には入力部108をバーコード
リーダで構成すればよい。また、フィールドに予め設け
られた複数のポイントに設置された信号発信機と観察者
が装着する信号受信機とで入力部108を構成し、観察
者105が信号発信機のスイッチを押すことによってポ
イントIDが得られるようにしても良い。
In the present embodiment, the observer ID and the point ID are manually input by using a wireless keyboard as the input unit 108. However, the input unit 108 and the microphone are used for inputting by voice. It may be configured with a recognition unit for recognition. When inputting the observer ID and the point ID using a barcode, the input unit 108 may be configured with a barcode reader. Further, the input unit 108 is configured by a signal transmitter installed at a plurality of points provided in the field in advance and a signal receiver worn by an observer, and the observer 105 presses a switch of the signal transmitter to set the point. The ID may be obtained.

【0053】又本実施形態では、ポイントID、提示開
始指示(提示終了指示)の入力は入力部108を介して
手動で行っていたが、上述の通り、観察者位置計測部1
00を用いて行っても良い(以下、非手動)。また、ポ
イントID、提示終了指示(提示終了指示)の夫々の入
力は手動、非手動のいずれでも良く、その組み合わせで
も良い。
In the present embodiment, the point ID and the presentation start instruction (presentation end instruction) are manually input through the input unit 108. However, as described above, the observer position measurement unit 1 is input.
00 may be used (hereinafter, non-manual). The input of the point ID and the presentation end instruction (presentation end instruction) may be manual or non-manual, or may be a combination thereof.

【0054】[他の実施形態]本発明の目的は、前述し
た実施形態の機能を実現するソフトウェアのプログラム
コードを記録した記憶媒体(または記録媒体)を、シス
テムあるいは装置に供給し、そのシステムあるいは装置
のコンピュータ(またはCPUやMPU)が記憶媒体に格納さ
れたプログラムコードを読み出し実行することによって
も、達成されることは言うまでもない。この場合、記憶
媒体から読み出されたプログラムコード自体が前述した
実施形態の機能を実現することになり、そのプログラム
コードを記憶した記憶媒体は本発明を構成することにな
る。また、コンピュータが読み出したプログラムコード
を実行することにより、前述した実施形態の機能が実現
されるだけでなく、そのプログラムコードの指示に基づ
き、コンピュータ上で稼働しているオペレーティングシ
ステム(OS)などが実際の処理の一部または全部を行い、
その処理によって前述した実施形態の機能が実現される
場合も含まれることは言うまでもない。
[Other Embodiments] An object of the present invention is to supply a storage medium (or a recording medium) in which a program code of software for realizing the functions of the above-described embodiments is recorded to a system or an apparatus, and to provide the system or the apparatus. It is needless to say that the present invention is also achieved when the computer (or CPU or MPU) of the device reads out and executes the program code stored in the storage medium. In this case, the program code itself read from the storage medium implements the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention. By executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. Do some or all of the actual processing,
It goes without saying that a case where the function of the above-described embodiment is realized by the processing is also included.

【0055】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written into the memory provided in the function expansion card inserted into the computer or the function expansion unit connected to the computer, the program code is read based on the instruction of the program code. Needless to say, the CPU included in the function expansion card or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

【0056】本発明を上記記憶媒体に適用する場合、そ
の記憶媒体には、先に説明した(図6に示したフローチ
ャートであって、ステップS200以降の処理)に対応
するプログラムコードが格納されることになる。
When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the above-described processing (the processing in step S200 and subsequent steps in the flowchart shown in FIG. 6). Will be.

【0057】[0057]

【発明の効果】以上の説明した通り本発明によれば、観
察者の正確な視点位置を獲得することができる。また、
仮想空間と現実空間との正確な位置合わせを行うことが
できる。
As described above, according to the present invention, an accurate viewpoint position of the observer can be obtained. Also,
Accurate positioning between the virtual space and the real space can be performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施形態における情報提示装置
の基本構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a basic configuration of an information presentation device according to a first embodiment of the present invention.

【図2】フィールド200における各ポイントを示す図
である。
FIG. 2 is a diagram showing each point in a field 200.

【図3】各ポイントIDに対応した各ポイントの座標値
が記載されたテーブルを示す図である。
FIG. 3 is a diagram showing a table in which coordinate values of each point corresponding to each point ID are described.

【図4】観察者105を含む観察者の観察者IDに対応
した各観察者の視点の絶対的な高さが記載されたテーブ
ルを示す図である。
FIG. 4 is a diagram showing a table in which absolute heights of viewpoints of observers corresponding to observer IDs of observers including an observer 105 are described.

【図5】観察者105と観察者105が装備する各機器
を説明する図である。
FIG. 5 is a diagram illustrating an observer 105 and each device equipped with the observer 105.

【図6】本発明の第1の実施形態において、観察者にM
R画像を提示するまでの処理のフローチャートである。
FIG. 6 shows the first embodiment of the present invention,
It is a flowchart of a process until presenting an R image.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G09G 5/36 510 G09G 5/36 510V 5J062 // G01C 19/00 G01C 19/00 Z Fターム(参考) 2F105 AA10 BB01 5B050 AA00 BA09 BA11 CA06 CA07 EA07 EA13 EA19 FA02 5C080 BB05 DD13 EE22 EE26 FF09 GG02 GG07 JJ02 JJ06 JJ07 KK52 5C082 AA01 AA21 BA12 BA46 BB42 CA76 CB01 DA42 DA87 MM09 MM10 5E501 AA02 AC15 AC25 BA03 BA05 CA01 CB02 CB14 CC08 EA32 EA34 FA14 FA27 FA36 FA46 FB02 FB03 FB22 FB42 5J062 BB05 CC07 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G09G 5/36 510 G09G 5/36 510V 5J062 // G01C 19/00 G01C 19/00 Z F term (Reference) 2F105 AA10 BB01 5B050 AA00 BA09 BA11 CA06 CA07 EA07 EA13 EA19 FA02 5C080 BB05 DD13 EE22 EE26 FF09 GG02 GG07 JJ02 JJ06 JJ07 KK52 5C082 AA01 AA21 BA12 BA46 BB42 CA76 CB01 A02 CB09 DA02MM10 FA27 FA36 FA46 FB02 FB03 FB22 FB42 5J062 BB05 CC07

Claims (21)

【特許請求の範囲】[Claims] 【請求項1】 フィールドに予め設けられた複数のポイ
ントにおいて、観察者の視点位置と方位姿勢に応じた画
像を提示する情報提示装置であって、 前記ポイントにおける観察者の視点位置のテーブルを格
納する視点位置格納手段と、 前記観察者がいるポイントを特定する情報に応じて前記
視点位置格納手段から前記観察者の視点位置を特定する
視点位置特定手段と、 前記観察者の視点の方位姿勢を計測する視点方位姿勢計
測手段と、 前記視点方位姿勢計測手段による前記観察者の視点の方
位姿勢と、前記視点位置特定手段による前記観察者の視
点の位置に応じた画像を生成する画像生成手段とを備
え、 前記画像を所定の表示手段を介して前記観察者に提示す
ることを特徴とする情報提示装置。
1. An information presenting apparatus for presenting an image corresponding to an observer's viewpoint position and azimuth posture at a plurality of points provided in a field in advance, wherein a table of observer's viewpoint positions at the points is stored. Viewpoint position storage means, and viewpoint position specifying means for specifying the viewpoint position of the observer from the viewpoint position storage means according to the information for specifying the point at which the observer is located. Viewpoint azimuth measurement means for measuring, azimuth attitude of the observer's viewpoint by the viewpoint azimuth and attitude measurement means, and image generation means for generating an image according to the observer's viewpoint position by the viewpoint position specifying means. An information presentation device, comprising: presenting the image to the observer via predetermined display means.
【請求項2】 更に、前記観察者が情報提示開始及び終
了を指示する情報を入力可能な入力手段を備えることを
特徴とする請求項1に記載の情報提示装置。
2. The information presentation apparatus according to claim 1, further comprising an input unit that allows the observer to input information for instructing start and end of information presentation.
【請求項3】 更に、前記観察者が前記ポイントを特定
する情報を入力可能な入力手段を備えることを特徴とす
る請求項1又は2に記載の情報提示装置。
3. The information presentation apparatus according to claim 1, further comprising an input unit that allows the observer to input information for specifying the point.
【請求項4】 更に、前記ポイントに設置し、前記観察
者が情報提示開始及び終了を指示する情報を入力可能な
入力手段を備え、前記視点位置特定手段は当該入力手段
がどのポイントに設置されているかを認識可能であるこ
とを特徴とする請求項1に記載の情報提示装置。
4. An input device installed at the point and capable of inputting information for instructing start and end of information presentation by the observer, wherein the viewpoint position specifying device is provided at any point where the input device is installed. The information presentation device according to claim 1, wherein the information presentation device can recognize whether the information is present.
【請求項5】 更に、前記観察者が前記観察者を特定す
る情報を入力可能な入力手段を備え、 前記観察者を特定する情報に応じて前記視点位置格納手
段から前記観察者の視点位置を特定する視点位置特定手
段を備えることを特徴とする請求項1乃至4のいずれか
1項に記載の情報提示装置。
5. An input means for allowing the observer to input information for specifying the observer, wherein the viewpoint position of the observer is stored from the viewpoint position storage means in accordance with the information for specifying the observer. The information presentation apparatus according to any one of claims 1 to 4, further comprising a viewpoint position specifying unit for specifying.
【請求項6】 前記視点位置格納手段は前記テーブルと
して、前記観察者の視点高のテーブルを格納することを
特徴とする請求項5に記載の情報提示装置。
6. The information presentation apparatus according to claim 5, wherein said viewpoint position storage means stores a table of the viewpoint height of the observer as the table.
【請求項7】 前記視点位置格納手段は前記テーブルと
して、前記ポイントの位置のテーブルを格納することを
特徴とする請求項1乃至6のいずれか1項に記載の情報
提示装置。
7. The information presentation apparatus according to claim 1, wherein the viewpoint position storage unit stores a table of the position of the point as the table.
【請求項8】 前記観察者の視点位置は、前記ポイント
の位置と前記観察者の視点高の合計値であることを特徴
とする請求項6又は7に記載の情報提示装置。
8. The information presentation apparatus according to claim 6, wherein the viewpoint position of the observer is a sum of the position of the point and the viewpoint height of the observer.
【請求項9】 更に、前記観察者の大まかな位置を計測
する観察者位置計測手段を備えることを特徴とする請求
項1乃至8のいずれか1項に記載の情報提示装置。
9. The information presenting apparatus according to claim 1, further comprising observer position measuring means for measuring a rough position of the observer.
【請求項10】 更に、前記視点位置特定手段は前記観
察者位置計測手段による前記観察者の大まかな位置に基
づいて前記観察者がポイント近傍にいるか否かを判断
し、当該判断に応じて前記観察者に対して画像提示を開
始あるいは終了するタイミングを判断することを特徴と
する請求項9に記載の情報提示装置。
10. The viewpoint position specifying means determines whether or not the observer is in the vicinity of a point based on the approximate position of the observer by the observer position measuring means. 10. The information presentation apparatus according to claim 9, wherein a timing to start or end the image presentation to the observer is determined.
【請求項11】 更に、前記視点位置特定手段は前記観
察者位置計測手段による前記観察者の大まかな位置に基
づいて前記観察者が立つポイントの位置を特定する情報
を前記テーブルから獲得することを特徴とする請求項9
又は10に記載の情報提示装置。
11. The method according to claim 11, wherein the viewpoint position specifying unit obtains, from the table, information for specifying a position of a point where the observer stands based on the approximate position of the observer by the observer position measurement unit. Claim 9
Or the information presentation device according to 10.
【請求項12】 前記視点方位姿勢計測手段はジャイロ
センサを含むことを特徴とする請求項1に記載の情報提
示装置。
12. The information presentation apparatus according to claim 1, wherein said viewpoint orientation and posture measurement means includes a gyro sensor.
【請求項13】 前記所定の表示手段はHMDを含むこ
とを特徴とする請求項1に記載の情報提示装置。
13. The information presentation device according to claim 1, wherein the predetermined display unit includes an HMD.
【請求項14】 フィールドに予め設けられた複数のポ
イントにおける観察者の視点位置と方位姿勢に応じた画
像を提示する情報提示方法であって、 前記観察者がいるポイントを特定する情報に応じて、前
記ポイントにおける前記観察者の視点位置のテーブルを
格納する所定の視点位置格納手段から当該観察者の視点
位置を特定する視点位置特定工程と、 前記観察者の視点の方位姿勢を計測する視点方位姿勢計
測工程と、 前記視点方位姿勢計測工程による前記観察者の視点の方
位姿勢と、前記視点位置特定工程による前記観察者の視
点の位置に応じた画像を生成する画像生成工程とを備
え、 前記画像を所定の表示手段を介して前記観察者に提示す
ることを特徴とする情報提示方法。
14. An information presenting method for presenting an image corresponding to a viewpoint position and an orientation of an observer at a plurality of points provided in a field in advance, wherein the image is presented in accordance with information specifying a point where the observer is located. A viewpoint position specifying step of specifying a viewpoint position of the observer from a predetermined viewpoint position storing means for storing a table of viewpoint positions of the observer at the points; and a viewpoint direction for measuring an orientation and posture of the viewpoint of the observer. A posture measurement step, comprising: an azimuth posture of the viewpoint of the observer in the viewpoint azimuth and posture measurement step; and an image generation step of generating an image according to the position of the viewpoint of the observer in the viewpoint position identification step. An information presentation method, wherein an image is presented to the observer via a predetermined display means.
【請求項15】 更に、前記観察者の大まかな位置を計
測する観察者位置計測工程を備えることを特徴とする請
求項14に記載の情報提示方法。
15. The information presentation method according to claim 14, further comprising an observer position measuring step of measuring a rough position of the observer.
【請求項16】 更に、前記視点位置特定工程では前記
観察者位置計測工程による前記観察者の大まかな位置に
基づいて前記観察者がポイント近傍にいるか否かを判断
し、当該判断に応じて前記観察者に対して画像提示を開
始あるいは終了するタイミングを判断することを特徴と
する請求項15に記載の情報提示方法。
16. In the viewpoint position specifying step, it is determined whether or not the observer is in the vicinity of a point based on the approximate position of the observer in the observer position measuring step. 16. The information presentation method according to claim 15, wherein a timing of starting or ending the image presentation to the observer is determined.
【請求項17】 更に、前記視点位置特定工程では前記
観察者位置計測工程による前記観察者の大まかな位置に
基づいて前記観察者が立つポイントの位置を特定する情
報を前記テーブルから獲得することを特徴とする請求項
15又は16に記載の情報提示方法。
17. In the viewpoint position specifying step, information for specifying a position of a point at which the observer stands based on the approximate position of the observer in the observer position measuring step is obtained from the table. 17. The information presentation method according to claim 15, wherein:
【請求項18】 フィールドに予め設けられた複数のポ
イントにおける観察者の視点位置と方位姿勢に応じた画
像を提示する情報提示処理のプログラムコードを格納す
る記憶媒体であって、 前記観察者がいるポイントを特定する情報に応じて、前
記ポイントにおける前記観察者の視点位置のテーブルを
格納する所定の視点位置格納手段から当該観察者の視点
位置を特定する視点位置特定工程のプログラムコード
と、 前記観察者の視点の方位姿勢を計測する視点方位姿勢計
測工程のプログラムコードと、 前記視点方位姿勢計測工程による前記観察者の視点の方
位姿勢と、前記視点位置特定工程による前記観察者の視
点の位置に応じた画像を生成する画像生成工程のプログ
ラムコードとを備え、 前記画像を所定の表示手段を介して前記観察者に提示す
ることを特徴とする記憶媒体。
18. A storage medium for storing a program code of an information presenting process for presenting an image corresponding to a viewpoint position and an azimuth posture of an observer at a plurality of points provided in a field in advance, wherein the observer is present. A program code for a viewpoint position specifying step of specifying a viewpoint position of the observer from a predetermined viewpoint position storage unit that stores a table of viewpoint positions of the observer at the point according to the information for specifying the point; A program code for a viewpoint orientation and posture measurement step of measuring the orientation and orientation of the viewpoint of the observer; an orientation and orientation of the viewpoint of the observer in the viewpoint orientation and orientation measurement step; and a position of the viewpoint of the observer in the viewpoint position identification step. And a program code for an image generation step of generating an image corresponding to the image, wherein the image is provided to the observer via predetermined display means. Storage medium characterized by Shimesuru.
【請求項19】 更に、前記観察者の大まかな位置を計
測する観察者位置計測工程のプログラムコードを備える
ことを特徴とする請求項18に記載の記憶媒体。
19. The storage medium according to claim 18, further comprising a program code for an observer position measuring step of measuring the approximate position of the observer.
【請求項20】 更に、前記視点位置特定工程では前記
観察者位置計測工程による前記観察者の大まかな位置に
基づいて前記観察者がポイント近傍にいるか否かを判断
し、当該判断に応じて前記観察者に対して画像提示を開
始あるいは終了するタイミングを判断することを特徴と
する請求項19に記載の記憶媒体。
20. Further, in the viewpoint position specifying step, it is determined whether or not the observer is near a point based on the approximate position of the observer in the observer position measuring step. 20. The storage medium according to claim 19, wherein a timing for starting or ending image presentation to an observer is determined.
【請求項21】 更に、前記視点位置特定工程では前記
観察者位置計測工程による前記観察者の大まかな位置に
基づいて前記観察者が立つポイントの位置を特定する情
報を前記テーブルから獲得することを特徴とする請求項
19又は20に記載の記憶媒体。
21. Further, in the viewpoint position specifying step, information for specifying a position of a point at which the observer stands based on the approximate position of the observer in the observer position measuring step is obtained from the table. 21. The storage medium according to claim 19, wherein:
JP2000368787A 2000-12-04 2000-12-04 Information presentation apparatus and method, and storage medium Expired - Fee Related JP3437550B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000368787A JP3437550B2 (en) 2000-12-04 2000-12-04 Information presentation apparatus and method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000368787A JP3437550B2 (en) 2000-12-04 2000-12-04 Information presentation apparatus and method, and storage medium

Publications (2)

Publication Number Publication Date
JP2002170132A true JP2002170132A (en) 2002-06-14
JP3437550B2 JP3437550B2 (en) 2003-08-18

Family

ID=18838938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000368787A Expired - Fee Related JP3437550B2 (en) 2000-12-04 2000-12-04 Information presentation apparatus and method, and storage medium

Country Status (1)

Country Link
JP (1) JP3437550B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006318015A (en) * 2005-05-10 2006-11-24 Sony Corp Image processing device, image processing method, image display system, and program
JP2021152665A (en) * 2020-03-26 2021-09-30 株式会社ソニー・インタラクティブエンタテインメント Display control device and display control method
US11768383B2 (en) 2015-12-02 2023-09-26 Sony Interactive Entertainment Inc. Display control apparatus and display control method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006318015A (en) * 2005-05-10 2006-11-24 Sony Corp Image processing device, image processing method, image display system, and program
US11768383B2 (en) 2015-12-02 2023-09-26 Sony Interactive Entertainment Inc. Display control apparatus and display control method
JP2021152665A (en) * 2020-03-26 2021-09-30 株式会社ソニー・インタラクティブエンタテインメント Display control device and display control method
JP7462591B2 (en) 2020-03-26 2024-04-05 株式会社ソニー・インタラクティブエンタテインメント Display control device and display control method

Also Published As

Publication number Publication date
JP3437550B2 (en) 2003-08-18

Similar Documents

Publication Publication Date Title
CN107402000B (en) Method and system for correlating a display device with respect to a measurement instrument
JP4065507B2 (en) Information presentation apparatus and information processing method
US9154742B2 (en) Terminal location specifying system, mobile terminal and terminal location specifying method
JP6635037B2 (en) Information processing apparatus, information processing method, and program
KR101285360B1 (en) Point of interest displaying apparatus and method for using augmented reality
KR100823649B1 (en) Calibration method and apparatus
US6633304B2 (en) Mixed reality presentation apparatus and control method thereof
EP1404126B1 (en) Video combining apparatus and method
JP4677273B2 (en) Information processing method and information processing apparatus
JP2020531965A (en) Assisted augmented reality
US20140035952A1 (en) Individual identification character display system, terminal device, individual identification character display method, and computer program
JP2002259992A (en) Image processor and its method as well as program code and storage medium
JP4367926B2 (en) Image composition system, image composition method, and image composition apparatus
JP2011203984A (en) Navigation device, navigation image generation method, and program
CN112525185B (en) AR navigation method based on positioning and AR head-mounted display device
JP2005174021A (en) Method and device for presenting information
TWM560099U (en) Indoor precise navigation system using augmented reality technology
CN108932055B (en) Method and equipment for enhancing reality content
JP2023075236A (en) Locus display device
JP3437550B2 (en) Information presentation apparatus and method, and storage medium
KR101601726B1 (en) Method and system for determining position and attitude of mobile terminal including multiple image acquisition devices
CN109032330B (en) AR system, AR device and method for establishing and seamlessly bridging reference states thereof
KR101902131B1 (en) System for producing simulation panoramic indoor images
WO2019127320A1 (en) Information processing method and apparatus, cloud processing device, and computer program product
JP2014116891A (en) Information display system, server device, information processor, control method for server device, and control method and program for information processor

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030516

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080606

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090606

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090606

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100606

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110606

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120606

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120606

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130606

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees