JP3437550B2 - Information presentation apparatus and method, and storage medium - Google Patents

Information presentation apparatus and method, and storage medium

Info

Publication number
JP3437550B2
JP3437550B2 JP2000368787A JP2000368787A JP3437550B2 JP 3437550 B2 JP3437550 B2 JP 3437550B2 JP 2000368787 A JP2000368787 A JP 2000368787A JP 2000368787 A JP2000368787 A JP 2000368787A JP 3437550 B2 JP3437550 B2 JP 3437550B2
Authority
JP
Japan
Prior art keywords
observer
viewpoint
information
azimuth
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000368787A
Other languages
Japanese (ja)
Other versions
JP2002170132A (en
Inventor
まほろ 穴吹
清秀 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2000368787A priority Critical patent/JP3437550B2/en
Publication of JP2002170132A publication Critical patent/JP2002170132A/en
Application granted granted Critical
Publication of JP3437550B2 publication Critical patent/JP3437550B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Gyroscopes (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、フィールドに予め
設けられた複数のポイントにおける観察者の視点位置と
方位姿勢に応じた画像を提示する情報提示装置及びその
方法並びに記憶媒体に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information presenting apparatus, a method thereof, and a storage medium for presenting an image according to the viewpoint position and azimuth and orientation of an observer at a plurality of points provided in advance in a field.

【0002】[0002]

【従来の技術】近年は、複合現実感(Mixed Re
ality;MR)を利用したシステム(MRシステ
ム)が提案されている。MRとは、計算機によって生成
した仮想空間を、現実空間に3次元的に位置合わせした
状態で重畳して観察者に提示することにより、両空間の
情報を相互に補完・増強する技術である。MRには、透
過型の表示装置を通して観察者が直接視認する現実空間
に、計算機によって生成した仮想空間画像を重畳して提
示する光学シースルー方式と、カメラ等の撮影手段(多
くの場合観察者自身の視点移動に連動して移動する)で
撮影した現実空間画像に、計算機によって生成した仮想
空間を重畳描画して観察者に提示するビデオシースルー
方式がある。本明細書では、以後、両方式において観察
者に提示される画像(光学シースルー方式における仮想
空間画像、及びビデオシースルー方式における現実空間
画像に仮想空間画像を重畳描画した画像)を総称してM
R画像と呼ぶ事とする。また、本明細書では、以後、光
学シースルー方式における観察者自身の視点、及びビデ
オシースルー方式におけるカメラ等の撮像手段の視点を
総称して、観察者視点あるいは観察者の視点と呼ぶ事と
する。
2. Description of the Related Art In recent years, mixed reality (Mixed Re)
A system (MR system) that uses the MR (ality) has been proposed. MR is a technology for mutually complementing and enhancing information in both spaces by superimposing a virtual space generated by a computer in a three-dimensional position on a real space and presenting it to an observer. The MR has an optical see-through method of presenting a virtual space image generated by a computer in a real space that is directly viewed by an observer through a transmissive display device, and a photographing means such as a camera (in many cases, the observer himself or herself). There is a video see-through method in which a virtual space generated by a computer is superposed and drawn on a real space image captured by moving the viewpoint (moving in conjunction with the viewpoint movement) and presented to an observer. In the present specification, hereinafter, an image presented to an observer in both systems (a virtual space image in the optical see-through system and an image in which a virtual space image is superimposed and drawn on a real space image in the video see-through system) is generically referred to as M.
Let's call it R image. Further, in the present specification, hereinafter, the viewpoint of the observer himself in the optical see-through method and the viewpoint of the image pickup means such as a camera in the video see-through method are collectively referred to as an observer's viewpoint or an observer's viewpoint.

【0003】一方で、計算機性能の向上と小型化から、
利用者が計算機や情報表示装置等を身に着けるウェアラ
ブルなシステムの実現が検討されている。ウェアラブル
なシステムは、屋外で利用できることや使用範囲を限定
しないという利点を持つ。
On the other hand, due to improvement in computer performance and miniaturization,
Implementation of a wearable system that allows users to wear a computer, an information display device, etc. is under consideration. A wearable system has the advantage that it can be used outdoors and does not limit the range of use.

【0004】このウェアラブルなシステムを使ってMR
技術を実現する研究も行われており、その1つが、文献
「T. Hollerer, S. Feiner, and J. Pavlik: "Situated
documentaries: embedding multimedia presentations
in the real world," Proc.ISWC'99, pp.79-86, 199
9.」に開示されている。この文献で開示されるMRシス
テムは観察者に大学構内の案内を行うシステムであり、
GPS(Global Positioning System)・傾斜計・地磁
気センサによって得られた観察者の視点位置・方位姿勢
情報に基づいて生成された案内情報(校舎名等)を、観
察者が装着した光学シースルー型HMD(Head Mounted Di
splay; 頭部装着型ディスプレイ)に表示する。この結
果、観察者は例えば現実空間に存在する校舎と、ディス
プレイ上で位置合わせされて表示される校舎名とを同時
に視認することができ、構内を歩きながらリアルタイム
に案内を受けることができる。
MR using this wearable system
Research to realize technology is also being carried out, and one of them is the document "T. Hollerer, S. Feiner, and J. Pavlik:" Situated.
documentaries: embedding multimedia presentations
in the real world, "Proc. ISWC'99, pp.79-86, 199
9. ”. The MR system disclosed in this document is a system for guiding an observer to the campus.
An optical see-through type HMD that the observer wears guide information (school building name, etc.) generated based on the observer's viewpoint position and azimuth and posture information obtained by the GPS (Global Positioning System), inclinometer, and geomagnetic sensor. Head Mounted Di
splay; display on the head-mounted display). As a result, the observer can simultaneously see, for example, the school building existing in the real space and the school building name aligned and displayed on the display, and can be guided in real time while walking on the premises.

【0005】[0005]

【発明が解決しようとする課題】上述の、ウェアラブル
なシステムによるMR技術実現の検討には、小型且つ非設
置型のシステムで、仮想空間と現実空間との正確な位置
合わせを行うことが問題となる。この位置合わせ問題
は、如何に正確に観察者視点の位置と方位姿勢を獲得す
るかに帰着されるが、小型且つ非設置型で高精度な位置
計測装置はなく、正確な視点位置を如何に獲得するかが
問題となる。上述の文献で開示されるMRシステムでは、
GPSを観察者の視点位置計測装置として利用している
が、その精度は不十分であり、位置合わせ問題の解決に
は至っていない。
In the above-mentioned examination of the realization of MR technology by the wearable system, there is a problem in that the virtual space and the real space are accurately aligned with each other in a small and non-installed system. Become. This alignment problem comes down to how to accurately acquire the position and azimuth and orientation of the observer's viewpoint, but there is no compact and non-installation type highly accurate position measuring device, The issue is how to get it. In the MR system disclosed in the above literature,
Although GPS is used as an observer's viewpoint position measuring device, its accuracy is insufficient and the positioning problem has not been solved yet.

【0006】本発明は以上の問題に鑑みてなされたもの
であり、観察者の正確な視点位置を獲得することを目的
とする。また、仮想空間と現実空間との正確な位置合わ
せを行うことを目的とする。
The present invention has been made in view of the above problems, and an object thereof is to obtain an accurate viewpoint position of an observer. Moreover, it aims at performing accurate alignment between the virtual space and the real space.

【0007】[0007]

【課題を解決するための手段】本発明の目的を達成する
ために、例えば本発明の情報提示方法は以下の構成を備
える。
In order to achieve the object of the present invention, for example, the information presenting method of the present invention has the following configuration.

【0008】すなわち、フィールドに予め設けられた複
数のポイントの夫々における観察者の視点位置情報を格
納する視点位置格納手段を備え、夫々のポイントにおい
て、観察者の視点位置と方位姿勢に応じた画像を提示す
情報提示装置が行う情報提示方法であって、注目ポイ
ントにおける前記観察者の視点位置を、当該注目ポイン
トを特定する情報を用いて前記視点位置格納手段から
定する視点位置特定工程と、前記注目ポイントにおける
前記観察者の視点の方位姿勢を計測する視点方位姿勢計
測工程と、前記視点方位姿勢計測工程による前記観察者
の視点の方位姿勢と、前記視点位置特定工程による前記
観察者の視点の位置に応じた画像を生成する画像生成工
程とを備え、前記画像を所定の表示手段を介して前記観
察者に提示することを特徴とする
That is, the viewpoint position information of the observer at each of a plurality of points provided in advance in the field is calculated.
Equipped with a means for storing the viewpoint position,
Te, an information presentation method observer's viewpoint position and the information presentation device for presenting an image corresponding to the azimuth position is performed, attention POI
The point of view of the observer on the
Viewpoint position specifying step for specifying from the viewpoint position storage means using information for specifying the eye point , and viewpoint azimuth and posture measurement for measuring the azimuth and posture of the observer's viewpoint at the point of interest. An image generation step of generating an image corresponding to the position of the observer's viewpoint by the viewpoint position specifying step and the viewpoint position specifying step; and It is characterized in that it is presented to the observer via a predetermined display means.

【0009】本発明の目的を達成するために、例えば本
発明の情報提示方法は以下の構成を備える。すなわち、
既知の位置における観察者の視点位置を求めるための視
点位置情報を、夫々の観察者毎に格納する視点位置格納
手段を備え、観察者の視点の位置と方位姿勢に応じた画
像を提示する情報提示装置が行う情報提示方法であっ
て、既知の位置における注目観察者の視点の位置を、当
該注目観察者固有の情報を用いて前記視点位置特定手段
から特定される視点位置情報に基づいて求める視点位置
特定工程と、前記注目観察者の視点の方位姿勢を計測す
る視点方位姿勢計測工程と、前記視点方位姿勢計測工程
による前記注目観察者の視点の方位姿勢と、前記視点位
置特定工程による前記注目観察者の視点の位置に応じた
画像を生成する画像生成工程とを備え、前記画像を所定
の表示手段を介して前記注目観察者に提示することを特
徴とする
In order to achieve the object of the present invention, for example, a book
The information presentation method of the invention has the following configuration. That is,
A vision for determining the observer's viewpoint position at a known position
Viewpoint position storage that stores point position information for each observer
Means for displaying images according to the position and azimuth and orientation of the observer's viewpoint.
An information presentation method performed by an information presentation device that presents an image.
Position of the observer's viewpoint at a known position.
The viewpoint position specifying means using the information unique to the noted observer
Viewpoint position determined based on viewpoint position information specified from
The specific step and the azimuth and orientation of the viewpoint of the noted observer are measured.
Viewpoint azimuth and posture measuring step, and the viewpoint azimuth and posture measuring step
Azimuth and orientation of the viewpoint of the noted observer, and the viewpoint position
According to the position of the point of view of the noted observer in the position specifying step
An image generating step of generating an image,
It is special that it is presented to the noted observer via the display means of
To collect .

【0010】[0010]

【0011】[0011]

【0012】[0012]

【0013】[0013]

【0014】[0014]

【発明の実施の形態】以下添付図面を参照して、本発明
をその好適な実施形態に従って詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION The present invention will now be described in detail according to its preferred embodiments with reference to the accompanying drawings.

【0015】[第1の実施形態]本実施形態の情報提示
装置は、観察者に対して複合現実感を体験させる装置で
あるが、この観察者は予め定められたいくつかのポイン
トのうち、ある一つのポイントに立って視点位置を固定
することで、そのポイントでの視点位置と方位姿勢に基
づいた、すなわち見回し可能な、複合現実感を得る。
[First Embodiment] The information presenting apparatus of the present embodiment is an apparatus for allowing an observer to experience mixed reality, and this observer has several preset points. By fixing the viewpoint position at a certain point, the user can get a mixed reality based on the viewpoint position and azimuth and orientation at that point, that is, the player can look around.

【0016】図2にフィールド200における各ポイン
トを示す。同図においてフィールド200は屋内、屋外
を問わない一領域であって、同図では点Oを原点とし、
y座標値は標高の値とする。なお、このフィールド20
0内における各点(ポイント)A、B、Cは同じ標高値
(10)とするが、各点で異なった値でもよい。このフ
ィールド200において観察者に複合現実感を提供する
本実施形態における情報提示装置及びその方法について
以下説明する。
FIG. 2 shows each point in the field 200. In the figure, a field 200 is a region that does not matter whether it is indoors or outdoors.
The y coordinate value is the elevation value. This field 20
Each point (point) A, B, and C within 0 has the same elevation value (10), but may have different values at each point. The information presenting apparatus and method in the present embodiment for providing the viewer with mixed reality in this field 200 will be described below.

【0017】図1は本実施形態における情報提示装置の
基本構成を示すブロック図である。
FIG. 1 is a block diagram showing the basic arrangement of the information presenting apparatus according to this embodiment.

【0018】108はキーボードなどの情報入力装置に
より構成されている入力部で、後述の情報提示を開始す
る指示(提示開始指示)および情報提示を終了する指示
(提示終了指示)と、ポイントを特定するID(ポイン
トID)と、観察者105を特定するID(観察者I
D)を入力することができる。また、電子化したポイン
トIDや観察者IDを読みとり可能な記憶媒体に記憶さ
せた場合、入力部108にこの記憶媒体から電子化され
たポイントIDと観察者IDを読みとる記憶媒体リーダ
を付加してもよい。
Reference numeral 108 denotes an input unit composed of an information input device such as a keyboard, which specifies an instruction to start information presentation (presentation start instruction) and an instruction to end information presentation (presentation end instruction), and points. ID (pointer ID) to be used and an ID (observer I) that identifies the observer 105
D) can be entered. Further, when the computerized point ID and observer ID are stored in a readable storage medium, a storage medium reader for reading the computerized point ID and observer ID from this storage medium is added to the input unit 108. Good.

【0019】100はGPSやコンピュータなどの計測
機器により構成されている観察者位置計測部で、観察者
105の位置を計測する。この観察者105の位置の計
測は充分な精度でなくてよく、後述の処理を行うのに障
害のない精度(大まかな精度)を有していればよい。ま
た、入力部108がある場合には、必ずしも観察者位置
計測部100はなくてもよい。
Reference numeral 100 denotes an observer position measuring unit composed of a measuring device such as a GPS or a computer, which measures the position of the observer 105. The measurement of the position of the observer 105 does not need to have sufficient accuracy, and may be any accuracy (rough accuracy) that does not hinder the processing described later. Further, when the input unit 108 is provided, the observer position measuring unit 100 does not necessarily have to be provided.

【0020】また、観察者位置計測部100をCCDカ
メラのような現実空間画像取り込み装置によって構成
し、現実空間画像のランドマーク(絶対位置が分かって
いる物体もしくはその特徴点)位置を検出することによ
って観察者の位置を算出してもよいし、観察者周辺の現
実空間画像と予め蓄えておいた撮影位置が既知な現実空
間画像との類似度から、観察者の位置を算出してもよ
い。
Further, the observer position measuring unit 100 is constructed by a real space image capturing device such as a CCD camera, and the position of a landmark (an object whose absolute position is known or its characteristic point) of the real space image is detected. The position of the observer may be calculated according to the above, or the position of the observer may be calculated from the degree of similarity between the real space image around the observer and the real space image in which the shooting position is stored in advance. .

【0021】また、観察者位置計測部100を信号受信
装置によって構成し、現実空間内に置かれた信号発信機
が発する信号を受信し、その受信信号の内容から観察者
の位置を獲得してもよい。その他、観察者の位置を獲得
する機構ならば、何で構成されていてもよい。
Further, the observer position measuring unit 100 is constituted by a signal receiving device, receives a signal emitted by a signal transmitter placed in the physical space, and obtains the position of the observer from the content of the received signal. Good. In addition, any mechanism may be used as long as it is a mechanism for acquiring the position of the observer.

【0022】107は図3、4に示す2つのテーブルを
格納する視点位置データベースである。図3に各ポイン
トIDに対応した各ポイントの座標値が記載されたテー
ブル、図4に観察者105を含む観察者の観察者IDに
対応した各観察者の視点の絶対的な高さ(図2に示した
座標系における尺度で記載)が記載されたテーブルを示
す。
Reference numeral 107 is a viewpoint position database which stores the two tables shown in FIGS. FIG. 3 is a table in which the coordinate values of each point corresponding to each point ID are described, and FIG. 4 is the absolute height of the viewpoint of each observer corresponding to the observer ID of the observer including the observer 105 (FIG. 2 shows a table in which the description in the scale in the coordinate system shown in 2) is described.

【0023】101は観察者位置情報&視点位置情報認
識部で、入力部108から提示開始指示を受け取ると、
観察者位置計測部100と、入力部108と、観察者位
置情報&視点位置情報認識部101を除く各部の動作を
開始させる。また観察者位置情報&視点位置情報認識部
101は、入力部108からポイントIDと観察者ID
を受け取り、これを保持すると共に、視点位置情報取り
出し部102に出力する。観察者IDが受け取れない場
合には、デフォルトのIDを観察者IDとして、視点位
置情報取り出し部102に出力する。この場合、観察者
位置計測部100は無くても良い。
Reference numeral 101 denotes an observer position information & viewpoint position information recognition unit, which receives a presentation start instruction from the input unit 108.
The operations of the observer position measuring unit 100, the input unit 108, and each unit except the observer position information & viewpoint position information recognition unit 101 are started. Further, the observer position information & viewpoint position information recognition unit 101 uses the input unit 108 to input the point ID and the observer ID.
Is received and held, and is output to the viewpoint position information extracting unit 102. When the observer ID cannot be received, the default ID is output to the viewpoint position information extracting unit 102 as the observer ID. In this case, the observer position measuring unit 100 may be omitted.

【0024】しかし本実施形態ではこれに限定されず、
他にも例えば、観察者位置情報&視点位置情報認識部1
01は、入力部108から提示開始指示を受け取る代わ
りに、観察者位置計測部100から入力される観察者1
05の位置が、視点位置データベース107に座標が格
納されているポイントから所定の距離以内であるか否
か、そしてさらに観察者105の移動速度が一定時間所
定の移動速度以下であるか否かを判断し、観察者105
の位置があるポイントから所定の距離以内で、かつ観察
者105の移動速度が一定時間所定の移動速度以下ある
場合(以下この場合を、「ポイントにいる」と表現す
る)に、観察者位置計測部100と、入力部108と、
観察者位置情報&視点位置情報認識部101を除く各部
の動作を開始させてもよい。この場合、入力部108か
ら提示開始指示の入力はなくても良い。また同様に、観
察者位置情報&視点位置情報認識部101は、入力部1
08からポイントIDを受け取る代わりに、観察者位置
計測部100から受け取った観察者105の視点位置に
最も近いポイントのポイントIDを視点位置データベー
ス107から獲得し、視点位置情報取り出し部102に
出力してもよい。又この場合、入力部108からポイン
トIDの入力はなくても良い。
However, the present embodiment is not limited to this,
Besides, for example, the observer position information & viewpoint position information recognition unit 1
01 is the observer 1 input from the observer position measuring unit 100 instead of receiving the presentation start instruction from the input unit 108.
Whether the position of 05 is within a predetermined distance from the point whose coordinates are stored in the viewpoint position database 107, and whether the moving speed of the observer 105 is below a predetermined moving speed for a certain period of time. Judge and observer 105
When the position of is within a predetermined distance from a certain point and the moving speed of the observer 105 is equal to or lower than the predetermined moving speed for a certain period of time (hereinafter, this case will be referred to as “being at a point”), observer position measurement Unit 100, input unit 108,
The operation of each unit except the observer position information & viewpoint position information recognition unit 101 may be started. In this case, the presentation start instruction may not be input from the input unit 108. Similarly, the observer position information & viewpoint position information recognition unit 101 includes the input unit 1
Instead of receiving the point ID from 08, the point ID of the point closest to the viewpoint position of the observer 105 received from the observer position measuring unit 100 is acquired from the viewpoint position database 107 and output to the viewpoint position information extracting unit 102. Good. In this case, the point ID may not be input from the input unit 108.

【0025】102は観察者位置情報&視点位置情報認
識部101から出力されたポイントIDおよび観察者I
Dに基づいた視点位置座標を視点位置データベース10
7から特定する視点位置情報取り出し部で、特定した視
点位置座標を複合現実空間生成部103に出力する。
Reference numeral 102 denotes a point ID and an observer I output from the observer position information & viewpoint position information recognition unit 101.
The viewpoint position database 10 based on the viewpoint position coordinates based on D
The viewpoint position information extraction unit specified from 7 outputs the specified viewpoint position coordinates to the mixed reality space generation unit 103.

【0026】106は観察者105の視点の方位姿勢を
計測する視点方位姿勢計測部で、地磁気センサやジャイ
ロセンサといった方位姿勢計測センサもしくは装置(方
位姿勢計測機器)によって構成される。これらの方位姿
勢計測機器を観察者の視点に設置することはできないの
で、これら方位姿勢計測機器の出力は観察者の視点方位
姿勢に一致しない。従って、視点方位姿勢検出部106
は方位姿勢計測機器の出力を補正することによって観察
者の視点方位姿勢を算出してから、その結果を複合現実
空間生成部103に出力する。
Reference numeral 106 denotes a viewpoint azimuth / orientation measuring section for measuring the azimuth / orientation / orientation of the viewpoint of the observer 105, which is constituted by an azimuth / orientation measuring sensor or device (azimuth / orientation measuring device) such as a geomagnetic sensor or a gyro sensor. Since these azimuth and orientation measuring devices cannot be installed at the observer's viewpoint, the outputs of these azimuth and orientation measuring devices do not match the observer's viewpoint azimuth and posture. Therefore, the viewpoint azimuth and orientation detection unit 106
Calculates the viewpoint azimuth and posture of the observer by correcting the output of the azimuth and posture measuring device, and then outputs the result to the mixed reality space generation unit 103.

【0027】例えば、図5に示すように、方位姿勢計測
機器としてのジャイロセンサを観察者105の頭部に固
定すると、方位姿勢計測機器106と観察者105の視
点の方位姿勢関係は一定に保たれるので、方位姿勢計測
機器の出力結果に固定の変換式を適用することにより、
観察者の視点姿勢を算出することができる。同図におけ
る各部の詳細については後述する。
For example, as shown in FIG. 5, when a gyro sensor as an azimuth / orientation measuring device is fixed to the head of the observer 105, the azimuth / orientation relationship between the azimuth / orientation measuring device 106 and the viewpoint of the observer 105 is kept constant. Since it leans, by applying a fixed conversion formula to the output result of the azimuth and orientation measurement device,
The viewpoint posture of the observer can be calculated. Details of each unit in the figure will be described later.

【0028】また、視点方位姿勢計測部106を現実空
間画像取り込み装置によって構成し、現実空間画像中の
ランドマーク(絶対姿勢が分かっている物体もしくはそ
の特徴点)の撮影画像上の位置を認識することで、観察
者の視点方位姿勢を算出することもできる。その他、観
察者の視点方位姿勢を獲得する機構ならば何を有してい
てもよい。
Further, the viewpoint azimuth / orientation measuring unit 106 is constituted by a physical space image capturing device, and recognizes the position of a landmark (an object whose absolute posture is known or its characteristic point) in the physical space image on the photographed image. Thus, the viewpoint azimuth and orientation of the observer can also be calculated. In addition, any mechanism may be provided as long as it is a mechanism for acquiring the viewpoint azimuth and posture of the observer.

【0029】103は観察者105に複合現実感を体験
させるための画像(MR画像)を生成する複合現実空間
生成部で、視点位置情報取り出し部102からの観察者
105の視点位置座標と、視点方位姿勢計測部106か
らの観察者105の視点の方位姿勢に基づいたMR画像
を生成する。なお複合現実空間生成部103は通常のコ
ンピュータにより構成されており、生成したMR画像を
画像表示部104に出力する。
Reference numeral 103 denotes a mixed reality space generation unit for generating an image (MR image) for allowing the observer 105 to experience mixed reality, and the viewpoint position coordinates of the observer 105 from the viewpoint position information extraction unit 102 and the viewpoint. An MR image based on the azimuth and orientation of the viewpoint of the observer 105 from the azimuth and orientation measuring unit 106 is generated. The mixed reality space generation unit 103 is composed of an ordinary computer and outputs the generated MR image to the image display unit 104.

【0030】104は複合現実空間生成部103から入
力したMR画像を観察者105に対して提示する画像表
示部で、HMDやコンピュータディスプレイ等の画像表
示機器によって構成され、MR画像を観察者の眼前に表
示する。MR画像の提示手法としては、ビデオシースル
ー方式、光学シースルー方式のどちらを用いても良い。
An image display unit 104 presents the MR image input from the mixed reality space generation unit 103 to the observer 105. The image display unit 104 is composed of an image display device such as an HMD or a computer display, and displays the MR image in front of the observer's eyes. To display. As the MR image presentation method, either a video see-through method or an optical see-through method may be used.

【0031】105は観察者である。Reference numeral 105 is an observer.

【0032】以上の構成を有する本実施形態の情報提示
装置を用いて、観察者にMR画像を提示するまでの具体
的な流れについて、図6に示す同処理のフローチャート
を用いて以下説明する。なお、本実施形態における情報
提示装置の処理はステップS200以降の処理である。
A specific flow of presenting an MR image to an observer using the information presenting apparatus of the present embodiment having the above configuration will be described below with reference to the flowchart of the same process shown in FIG. The process of the information presentation device in this embodiment is the process after step S200.

【0033】以下では例として観察者105はフィール
ド200内に存在しているものとする。各ポイントA、
B、Cには本実施形態における情報提示装置の利用可能
位置であることを示す足形等の目印があり、このポイン
トを特定するポイントIDが明示的に割り当てられてい
る。ステップS100において、観察者105はこの3
つのポイントのうち、いずれかのポイントを選択し、そ
の場所に正確に立つ。
In the following, it is assumed that the observer 105 exists in the field 200 as an example. Each point A,
B and C have a mark such as a foot mark indicating that the position is an available position of the information presenting apparatus according to the present embodiment, and a point ID that specifies this point is explicitly assigned. In step S100, the observer 105 is
Select one of the two points and stand exactly at that location.

【0034】観察者105は図5に示すように背中に情
報提示装置の一部であるPCを装着しており、手には入
力部108としてワイヤレスキーボードを持つ。また,
観察者位置計測部100としてGPSを装着しており、
観察者位置計測部100により、観察者の位置は常に観
察者位置情報&視点位置情報認識部101に送信されて
いる。また観察者105は同図の通り、画像表示部10
4としてHMDを頭部に装着し、視点方位姿勢計側部1
06としてジャイロセンサを頭部に装着している。
As shown in FIG. 5, the observer 105 wears a PC, which is a part of the information presenting device, on his back, and has a wireless keyboard as an input unit 108 in his hand. Also,
GPS is attached as the observer position measuring unit 100,
The observer position measuring unit 100 constantly transmits the position of the observer to the observer position information & viewpoint position information recognizing unit 101. In addition, the observer 105, as shown in FIG.
As shown in FIG. 4, the HMD is mounted on the head, and the viewpoint azimuth and posture meter side part 1
A gyro sensor is attached to the head as 06.

【0035】次にステップS200において、観察者1
05が自身の立つポイントのポイントIDと自身につけ
られた観察者IDを、入力部108を介して観察者位置
情報&視点位置情報認識部101に入力する。ステップ
S200で、観察者IDが観察者によって入力されない
場合は、予め保持しておいたデフォルトのIDを観察者
IDとする。
Next, in step S200, the observer 1
05 inputs the point ID of the point where he stands and the observer ID attached to himself to the observer position information & viewpoint position information recognition unit 101 via the input unit 108. In step S200, if the observer ID is not input by the observer, the default ID stored in advance is set as the observer ID.

【0036】またステップS200において、観察者位
置情報&視点位置情報認識部101は観察者位置計測部
100から観察者105の位置を獲得し、この位置情報
を元に、観察者が立ったポイントのポイントIDを獲得
してもよい。すなわち、視点位置データベース107内
に格納されている図3に示すテーブルから観察者105
に最も近いポイントを特定し、その特定したポイントを
観察者が立ったポイントであると判断し、ポイントID
を獲得する。
In step S200, the observer position information & viewpoint position information recognizing unit 101 acquires the position of the observer 105 from the observer position measuring unit 100, and based on this position information, the point at which the observer stands is determined. The point ID may be acquired. That is, the observer 105 can be read from the table shown in FIG.
The point closest to the point is identified, the identified point is determined to be the point where the observer stood, and the point ID
To win.

【0037】次にステップS300において、観察者が
入力部108を介して提示開始指示を観察者位置情報&
視点位置情報認識部101に入力する。
Next, in step S300, the observer issues a presentation start instruction via the input unit 108 to the observer position information &
It is input to the viewpoint position information recognition unit 101.

【0038】またステップS300において、観察者位
置情報&視点位置情報認識部101は観察者位置計測部
100から観察者105の位置を獲得し、この位置情報
を元に情報提示開始のタイミングを判断して、自ら提示
開始指示を発生させ、自身に入力してもよい。すなわ
ち、視点位置データベース107内に格納されている図
3に示すテーブルから観察者105に最も近いポイント
を特定し、特定したポイントが観察者105から予め設
定した所定の距離以内にあるか否かを判断する。さらに
観察者105の移動速度が一定時間所定の移動速度以下
であるか否かを、一定時間内の観察者105の移動距離
から算出することで判断する。例えば観察者105がポ
イントBから所定の距離以内で、一定時間所定の速度以
下で存在する場合には、観察者位置情報&視点位置情報
認識部101は「観察者105はポイントBにいる」と
判断して、上述の通り、自ら提示開始指示を発生させ、
自身に入力する。
In step S300, the observer position information & viewpoint position information recognizing unit 101 acquires the position of the observer 105 from the observer position measuring unit 100, and determines the timing of starting information presentation based on this position information. Then, the presentation start instruction may be generated by the user and input to the user. That is, the point closest to the observer 105 is specified from the table shown in FIG. 3 stored in the viewpoint position database 107, and whether or not the specified point is within a predetermined distance set in advance from the observer 105 is determined. to decide. Further, it is determined whether or not the moving speed of the observer 105 is below a predetermined moving speed for a certain period of time by calculating from the moving distance of the observer 105 within the certain period of time. For example, when the observer 105 is present within a predetermined distance from the point B and at a predetermined speed or less for a certain period of time, the observer position information & viewpoint position information recognition unit 101 says that the observer 105 is at the point B. Judgment, as described above, generate the presentation start instruction,
Type in yourself.

【0039】ステップS200と、ステップS300
は、どちらを先に行ってもよいし、同時に行ってもよ
い。また、ステップS200において、観察者105が
ポイントIDと観察者IDを入力する時に、提示開始指
示が自動的に同時入力されるようにしてもよい。また、
入力部108が観察者の立ったポイントに設置されてい
る場合には、ステップS300において、観察者105
が提示開始指示を入力した時に、観察者位置情報&視点
位置情報認識部101はどのポイントに設定された入力
部から情報が入力されたかを、例えば入力部108が持
つ固有のコード番号などで分かるようにしておいてもよ
い。このようにしておくと、観察者105は入力部を自
身が装着した情報提示装置につないで観察者IDを入力
するだけでよく、観察者位置情報&視点位置情報認識部
101は入力部108から入力された観察者IDを入力
し、またこの入力部108が持つ固有のコード番号か
ら、入力部108がどのポイントに設置されたかを認識
する。
Steps S200 and S300
May be performed first, or both may be performed simultaneously. Further, in step S200, when the observer 105 inputs the point ID and the observer ID, the presentation start instruction may be automatically input simultaneously. Also,
If the input unit 108 is installed at a point where the observer stands, in step S300, the observer 105
When the user inputs the presentation start instruction, the observer position information & viewpoint position information recognition unit 101 can know from which input unit the information is input, for example, by the unique code number of the input unit 108. You may leave it like this. By doing so, the observer 105 only has to connect the input unit to the information presenting device he or she wears and input the observer ID, and the observer position information & viewpoint position information recognition unit 101 can change the input from the input unit 108. The input observer ID is input, and the point at which the input unit 108 is installed is recognized from the unique code number of the input unit 108.

【0040】次にステップS400において、観察者位
置情報&視点位置情報認識部101は観察者位置計測部
100と、入力部108と、観察者位置情報&視点位置
情報認識部101を除く各部(未起動部)の動作を開始
させ、ポイントIDと観察者IDを視点位置情報取り出
し部102へ送る。
Next, in step S400, the observer position information & viewpoint position information recognizing unit 101 includes the observer position measuring unit 100, the input unit 108, each unit except the observer position information & viewpoint position information recognizing unit 101. The operation of the (starting unit) is started, and the point ID and the observer ID are sent to the viewpoint position information extracting unit 102.

【0041】次にステップS500において、視点位置
情報取り出し部102は入力されたポイントIDと観察
者IDから、観察者の視点位置座標を視点位置データベ
ース107から獲得する。例えばポイントA(点A)に
観察者105がいる場合、図3に示したテーブルからポ
イントAの座標値(100,10,15)を獲得する。
次に観察者IDを参照して、観察者の視点の高さを観察
者の視点位置座標を視点位置データベース107から獲
得する。例えば観察者IDが0002の場合、図4から
この観察者の視点の高さは180と特定することができ
る。その結果、観察者IDが0002で特定される観察
者がポイントAにいる場合、この観察者の視点位置は、
ポイントAの座標値+観察者ID0002で特定される
観察者の視点の高さで計算され、その結果(100,1
90,15)と求めることができる。以上のようにする
と、各ポイントにおける各観察者の視点位置(視点位置
座標)を求めることができる。
Next, in step S500, the viewpoint position information extraction unit 102 acquires the viewpoint position coordinates of the observer from the viewpoint position database 107 from the input point ID and observer ID. For example, when the observer 105 is at the point A (point A), the coordinate value (100, 10, 15) of the point A is acquired from the table shown in FIG.
Next, referring to the observer ID, the height of the observer's viewpoint is acquired from the viewpoint position database 107 as the viewpoint position coordinates of the observer. For example, when the observer ID is 0002, the height of the viewpoint of this observer can be specified as 180 from FIG. As a result, when the observer whose observer ID is 0002 is at point A, the viewpoint position of this observer is
It is calculated by the coordinate value of the point A + the height of the viewpoint of the observer specified by the observer ID 0002, and the result (100, 1
90, 15). By doing so, the viewpoint position (viewpoint position coordinate) of each observer at each point can be obtained.

【0042】そしてステップS600において、視点方
位姿勢計測部106が観察者の視点方位姿勢を計測す
る。
Then, in step S600, the viewpoint azimuth / orientation measuring unit 106 measures the viewpoint azimuth / orientation of the observer.

【0043】次にステップS700において、ステップ
S600で視点方位姿勢計測部106が計測した観察者
105の視点の方位姿勢と、ステップS500で視点位
置情報取り出し部102が獲得した視点位置座標を複合
現実空間生成部103へ送る。
Next, in step S700, the azimuth and orientation of the viewpoint of the observer 105 measured by the viewpoint azimuth and orientation measuring unit 106 in step S600 and the viewpoint position coordinates acquired by the viewpoint position information extracting unit 102 in step S500 are mixed reality space. Send to the generation unit 103.

【0044】次にステップS800において、観察者の
視点位置座標と方位姿勢とに基づいて複合現実空間生成
部103が観察者に提示すべきMR画像を生成する。
Next, in step S800, the mixed reality space generation unit 103 generates an MR image to be presented to the observer based on the observer's viewpoint position coordinates and orientation.

【0045】次にステップS900において、画像表示
部104としてのHMDがMR画像を出力する。その結
果、観察者105は自身のいるポイントにおいて、自身
の視点位置と方位姿勢に基づいたMR画像を、HMDを
介して見ることができる。なおMR画像の生成方法につ
いては本実施形態における範疇ではないのでここでは説
明は割愛する。
Next, in step S900, the HMD as the image display unit 104 outputs an MR image. As a result, the observer 105 can see the MR image based on his / her viewpoint position and azimuth / orientation at the point where he / she is, via the HMD. The method of generating the MR image is not included in the scope of this embodiment, and thus the description thereof is omitted here.

【0046】次にステップS1000において、情報の
提示終了指示があるかどうかを確認する。提示終了指示
が確認された時、具体的には観察者105が提示終了指
示を入力部108に入力した時は、観察者位置計測部1
00と、入力部108と、観察者位置情報&視点位置情
報認識部101を除く各部の動作を停止させ、ステップ
S1100へ進む。提示終了指示が入力部に入力されな
ければ、ステップS600へ戻る。
Next, in step S1000, it is confirmed whether or not there is an instruction to end the presentation of information. When the presentation end instruction is confirmed, specifically, when the observer 105 inputs the presentation end instruction to the input unit 108, the observer position measuring unit 1
00, the input unit 108, and the operation of each unit except the observer position information & viewpoint position information recognition unit 101 are stopped, and the process proceeds to step S1100. If the presentation end instruction is not input to the input unit, the process returns to step S600.

【0047】また、ステップS1000では、観察者位
置計測部100の計測結果から観察者105が同じポイ
ントにいるか否かを判断し、同じポイントにいないと判
断した場合には、自ら情報の提示終了指示を発生させ、
観察者位置計測部100と、入力部108と、観察者位
置情報&視点位置情報認識部101を除く各部の動作を
停止させて、ステップS1100へ進んでもよい。この
場合、同じポイントにいると判断した時には、ステップ
S600以降を繰り返し実行する。
In step S1000, it is determined from the measurement result of the observer position measuring unit 100 whether or not the observer 105 is at the same point. If it is determined that the observer 105 is not at the same point, an instruction to end the presentation of information is given. Generate
The operations of the observer position measuring unit 100, the input unit 108, and each unit except the observer position information & viewpoint position information recognizing unit 101 may be stopped, and the process may proceed to step S1100. In this case, when it is determined that they are at the same point, step S600 and subsequent steps are repeatedly executed.

【0048】ステップS1100では、システム全体を
終了するかどうかを確認する。終了しない場合はステッ
プS100へ戻る。
In step S1100, it is confirmed whether the entire system is to be terminated. If not completed, the process returns to step S100.

【0049】以上の説明により、フィールドに予め設け
られた複数のポイントにおける観察者の視点位置と方位
姿勢に基づいたMR画像を生成する際、本実施形態の情
報提示装置及びその方法によれば、計測する対象は観察
者の視点方位姿勢のみであって、観察者の視点位置は計
測しなくても観察者のいるポイントのポイントIDで特
定できる。その結果、高精度な視点位置計測装置を用意
しなくても、現実空間と仮想空間との正確な位置あわせ
が実現されたMR画像を生成し、観察者に提示すること
ができる。
As described above, according to the information presenting apparatus and method of the present embodiment, when the MR image is generated based on the viewpoint position and the azimuth and posture of the observer at a plurality of points provided in the field in advance, The object to be measured is only the observer's viewpoint azimuth and posture, and the observer's viewpoint position can be specified by the point ID of the point at which the observer is present without measuring. As a result, an MR image in which accurate alignment between the real space and the virtual space is realized can be generated and presented to the observer without preparing a highly accurate viewpoint position measuring device.

【0050】また機器を設置できない屋外においてや、
複数で広範囲にポイントが散らばっていても、現実空間
と仮想空間との正確な位置合わせが行われたMR画像を
生成し、観察者に提示することができる。
Also, outdoors where equipment cannot be installed,
Even if a plurality of points are scattered over a wide range, an MR image in which the real space and the virtual space are accurately aligned can be generated and presented to the observer.

【0051】また、観察者IDとして、観察者の名前を
用いてもよい。その場合には図4に記載していた観察者
IDを観察者の名前に変更する。また、観察者ID、観
察者の名前のどちらでも選択可能にしてもよい。
The name of the observer may be used as the observer ID. In that case, the observer ID described in FIG. 4 is changed to the observer's name. Further, either the observer ID or the observer's name may be selectable.

【0052】本実施形態では入力部108としてワイヤ
レスキーボードを用いて、観察者ID、ポイントIDを
手で入力したが、ほかにも音声で入力するために入力部
108をマイクと、入力した音声を認識する認識部とで
構成してもよい。また、バーコードで観察者ID、ポイ
ントIDを入力する場合には入力部108をバーコード
リーダで構成すればよい。また、フィールドに予め設け
られた複数のポイントに設置された信号発信機と観察者
が装着する信号受信機とで入力部108を構成し、観察
者105が信号発信機のスイッチを押すことによってポ
イントIDが得られるようにしても良い。
In the present embodiment, the observer ID and the point ID are manually input using the wireless keyboard as the input unit 108. However, the input unit 108 and the input voice are used for voice input. It may be configured with a recognition unit for recognizing. Further, when the observer ID and the point ID are input by a barcode, the input unit 108 may be configured by a barcode reader. In addition, the signal transmitters installed at a plurality of points provided in advance in the field and the signal receiver worn by the observer constitute the input unit 108, and the observer 105 pushes the switch of the signal transmitter to obtain points. The ID may be obtained.

【0053】又本実施形態では、ポイントID、提示開
始指示(提示終了指示)の入力は入力部108を介して
手動で行っていたが、上述の通り、観察者位置計測部1
00を用いて行っても良い(以下、非手動)。また、ポ
イントID、提示終了指示(提示終了指示)の夫々の入
力は手動、非手動のいずれでも良く、その組み合わせで
も良い。
In this embodiment, the point ID and the presentation start instruction (presentation end instruction) are manually input through the input unit 108, but as described above, the observer position measuring unit 1 is used.
00 may be used (hereinafter, non-manual). Further, the point ID and the presentation end instruction (presentation end instruction) may be manually or non-manually input, or a combination thereof.

【0054】[他の実施形態]本発明の目的は、前述し
た実施形態の機能を実現するソフトウェアのプログラム
コードを記録した記憶媒体(または記録媒体)を、シス
テムあるいは装置に供給し、そのシステムあるいは装置
のコンピュータ(またはCPUやMPU)が記憶媒体に格納さ
れたプログラムコードを読み出し実行することによって
も、達成されることは言うまでもない。この場合、記憶
媒体から読み出されたプログラムコード自体が前述した
実施形態の機能を実現することになり、そのプログラム
コードを記憶した記憶媒体は本発明を構成することにな
る。また、コンピュータが読み出したプログラムコード
を実行することにより、前述した実施形態の機能が実現
されるだけでなく、そのプログラムコードの指示に基づ
き、コンピュータ上で稼働しているオペレーティングシ
ステム(OS)などが実際の処理の一部または全部を行い、
その処理によって前述した実施形態の機能が実現される
場合も含まれることは言うまでもない。
[Other Embodiments] An object of the present invention is to supply a storage medium (or recording medium) recording a program code of software for realizing the functions of the above-described embodiments to a system or apparatus, and to supply the system or apparatus. It is needless to say that this is also achieved by the computer (or CPU or MPU) of the device reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instructions of the program code. Do some or all of the actual processing,
It goes without saying that the processing includes the case where the functions of the above-described embodiments are realized.

【0055】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written in the memory provided in the function expansion card inserted in the computer or the function expansion unit connected to the computer, based on the instruction of the program code. Needless to say, this also includes a case where a CPU or the like included in the function expansion card or the function expansion unit performs a part or all of the actual processing and the processing realizes the functions of the above-described embodiments.

【0056】本発明を上記記憶媒体に適用する場合、そ
の記憶媒体には、先に説明した(図6に示したフローチ
ャートであって、ステップS200以降の処理)に対応
するプログラムコードが格納されることになる。
When the present invention is applied to the above-mentioned storage medium, the storage medium stores the program code corresponding to the above-described (in the flowchart shown in FIG. 6, the processing after step S200). It will be.

【0057】[0057]

【発明の効果】以上の説明した通り本発明によれば、観
察者の正確な視点位置を獲得することができる。また、
仮想空間と現実空間との正確な位置合わせを行うことが
できる。
As described above, according to the present invention, it is possible to obtain the correct viewpoint position of the observer. Also,
Accurate alignment between the virtual space and the real space can be performed.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施形態における情報提示装置
の基本構成を示すブロック図である。
FIG. 1 is a block diagram showing a basic configuration of an information presentation device according to a first embodiment of the present invention.

【図2】フィールド200における各ポイントを示す図
である。
FIG. 2 is a diagram showing points in a field 200.

【図3】各ポイントIDに対応した各ポイントの座標値
が記載されたテーブルを示す図である。
FIG. 3 is a diagram showing a table in which coordinate values of respective points corresponding to respective point IDs are described.

【図4】観察者105を含む観察者の観察者IDに対応
した各観察者の視点の絶対的な高さが記載されたテーブ
ルを示す図である。
FIG. 4 is a diagram showing a table in which absolute heights of viewpoints of respective observers corresponding to observer IDs of observers including the observer 105 are described.

【図5】観察者105と観察者105が装備する各機器
を説明する図である。
FIG. 5 is a diagram illustrating an observer 105 and each device equipped in the observer 105.

【図6】本発明の第1の実施形態において、観察者にM
R画像を提示するまでの処理のフローチャートである。
FIG. 6 is a schematic diagram showing an observer M in the first embodiment of the present invention.
It is a flow chart of processing until the R image is presented.

フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 G06T 15/00 - 17/40 G06F 3/00 G09G 3/20 G09G 5/36 H04N 13/00 Front page continuation (58) Fields surveyed (Int.Cl. 7 , DB name) G06T 1/00 G06T 15/00-17/40 G06F 3/00 G09G 3/20 G09G 5/36 H04N 13/00

Claims (11)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 フィールドに予め設けられた複数のポイ
ントの夫々における観察者の視点位置情報を格納する視
点位置格納手段を備え、夫々のポイントにおいて、観察
者の視点位置と方位姿勢に応じた画像を提示する情報提
示装置が行う情報提示方法であって、注目ポイントにおける前記観察者の視点位置を、当該注
目ポイントを特定する情報を用いて前記視点位置格納手
段から 特定する視点位置特定工程と、前記注目ポイントにおける 前記観察者の視点の方位姿勢
を計測する視点方位姿勢計測工程と、 前記視点方位姿勢計測工程による前記観察者の視点の方
位姿勢と、前記視点位置特定工程による前記観察者の視
点の位置に応じた画像を生成する画像生成工程とを備
え、 前記画像を所定の表示手段を介して前記観察者に提示す
ることを特徴とする情報提示方法。
1. A view for storing viewpoint position information of an observer at each of a plurality of points provided in advance in a field.
It is equipped with point position storage means, and presents information for presenting an image corresponding to the viewpoint position and orientation of the observer at each point.
In the information presentation method performed by the display device , the viewpoint position of the observer at the point of interest is
Using the information that specifies the eye point,
A viewpoint position specifying step of specifying the stage, and viewpoint orientation orientation measurement step of measuring an azimuth orientation of the observer's viewpoint in the interest point, and azimuth orientation of the viewpoint orientation and orientation measurement step the observer's viewpoint by the An image generating step of generating an image according to the position of the viewpoint of the observer by the viewpoint position specifying step, and presenting the image to the observer via a predetermined display means. .
【請求項2】 更に、前記観察者が前記注目ポイントを
特定する情報を入力する入力工程を備えることを特徴と
する請求項1に記載の情報提示方法
2. The information presenting method according to claim 1, further comprising an input step in which the observer inputs information specifying the attention point.
【請求項3】 前記視点位置格納手段には前記視点位置
情報として、前記夫々のポイントの位置情報を前記夫々
のポイントを特定する情報に対応させて記憶しており、
更に複数の観察者の視点高情報を当該夫々の観察者固有
の情報に対応させて記憶しており、 前記視点位置特定工程では注目ポイントにおける観察者
の視点位置を、当該観察者固有の情報と、当該注目ポイ
ントを特定する情報とを用いて前記視点位置格納手段か
ら特定することを特徴とする請求項1に記載の情報提示
方法
3. The viewpoint position storing means stores the viewpoint position.
As information, the position information of each of the points is added to each of the
It is stored in association with the information that identifies the points of
Furthermore, the viewpoint height information of multiple observers is unique to each observer.
Is stored in association with the information of the
The viewpoint position of the
The viewpoint position storage means using the information for identifying the
Information presentation according to claim 1, characterized in that
Way .
【請求項4】 前記視点位置特定工程では前記観察者の
視点位置、前記注目ポイントの位置と前記観察者の視
点高とを合計することで算出することを特徴とする請求
に記載の情報提示方法
The method according to claim 4, wherein said observer's viewpoint position is the viewpoint position determination step, according to claim 3, characterized in that calculated by summing the the position of the target point and the observer's viewpoint height Information presentation method .
【請求項5】 更に、前記観察者が立っている大まかな
位置を計測する観察者位置計測工程を備え 前記視点位置特定工程では前記観察者位置計測工程によ
る前記観察者が立って いる大まかな位置に基づいて前記
観察者が立つポイントの位置を特定する情報を前記視点
位置格納手段から獲得することを特徴とする請求項1に
記載の情報提示方法。
5. An observer position measuring step for measuring a rough position of the observer standing , wherein the viewpoint position specifying step is performed by the observer position measuring step.
Based on the rough position in which the observer stands
Information that specifies the position of the point where the observer stands
The information is obtained from the position storing means.
Information presentation method described.
【請求項6】 前記視点位置特定工程で判断された、
記観察者位置計測工程による前記観察者の大まかな位置
に基づいて前記観察者がフィールドに予め設けられた複
数のポイントの何れかの近傍を一定速度以下で移動して
いるか否かの結果に応じて前記観察者に対して画像提示
を開始あるいは終了するタイミングを判断する判断工程
を更に備えることを特徴とする請求項に記載の情報提
示方法。
6. The observer preliminarily set in a field based on the rough position of the observer determined by the observer position measuring step in the viewpoint position specifying step.
Move either vicinity of the number of points at a constant speed below
Judgment step of judging the timing to start or end the image presentation to the observer according to the result of whether or not
The information presentation method according to claim 5 , further comprising :
【請求項7】 既知の位置における観察者の視点位置を
求めるための視点位置情報を、夫々の観察者毎に格納す
る視点位置格納手段を備え、観察者の視点の位置と方位
姿勢に応じた画像を提示する情報提示装置が行う情報提
示方法であって、 既知の位置における注目観察者の視点の位置を、当該注
目観察者固有の情報を用いて前記視点位置特定手段から
特定される視点位置情報に基づいて求める視点位置特定
工程と、 前記注目観察者の視点の方位姿勢を計測する視点方位姿
勢計測工程と、 前記視点方位姿勢計測工程による前記注目観察者の視点
の方位姿勢と、前記視点位置特定工程による前記注目観
察者の視点の位置に応じた画像を生成する画像生成工程
とを備え、 前記画像を所定の表示手段を介して前記注目観察者に提
示することを特徴とする情報提示方法。
7. The viewpoint position of the observer at a known position
Stores viewpoint position information for each observer
The position and direction of the observer's viewpoint
Information presentation performed by an information presentation device that presents images according to posture
In this method, the position of the viewpoint of the observer at a known position is
From the viewpoint position specifying means using information unique to the eye observer
Specified viewpoint position based on specified viewpoint position information
Process and viewpoint azimuth for measuring the azimuth and attitude of the noted observer's viewpoint
A force measurement step and the viewpoint of the noted observer by the viewpoint azimuth and orientation measurement step
Azimuth and posture, and the attention view by the viewpoint position specifying step
Image generation process for generating an image according to the position of the observer's viewpoint
And presenting the image to the observer of interest via a predetermined display means.
An information presentation method characterized by showing.
【請求項8】 フィールドに予め設けられた複数のポイ
ントにおいて、観察者の視点位置と方位姿勢に応じた画
像を提示する情報提示装置であって、夫々の ポイントにおける観察者の視点位置情報を格納す
る視点位置格納手段と、注目ポイントにおける前記観察者の視点位置を、当該注
目ポイントを特定する情報を用いて前記視点位置格納手
段から 特定する視点位置特定手段と、前記注目ポイントにおける 前記観察者の視点の方位姿勢
を計測する視点方位姿勢計測手段と、 前記視点方位姿勢計測手段による前記観察者の視点の方
位姿勢と、前記視点位置特定手段による前記観察者の視
点の位置に応じた画像を生成する画像生成手段とを備
え、 前記画像を所定の表示手段を介して前記観察者に提示す
ることを特徴とする情報提示装置。
8. An information presenting device for presenting images according to the viewpoint position and azimuth and posture of an observer at a plurality of points provided in advance in a field, and stores the viewpoint position information of the observer at each point. The viewpoint position storing means and the viewpoint position of the observer at the point of interest are
Using the information that specifies the eye point,
Viewpoint position specifying means for specifying from a step, viewpoint azimuth and attitude measuring means for measuring the azimuth and attitude of the observer's viewpoint at the attention point , azimuth and attitude of the observer's viewpoint by the viewpoint azimuth and attitude measuring means, and An image presenting device for producing an image according to the position of the observer's viewpoint by the viewpoint position specifying device, and presenting the image to the observer via a predetermined display device. .
【請求項9】 更に、前記夫々のポイントに設置し、前
記観察者が情報提示開始及び終了を指示する情報を入力
可能な入力手段を備え、前記視点位置特定手段は当該入
力手段がどのポイントに設置されているかを認識可能で
あることを特徴とする請求項に記載の情報提示装置。
9. The apparatus further comprises input means installed at each of the points and capable of inputting information for the observer to instruct start and end of information presentation. The information presenting apparatus according to claim 8 , wherein it is possible to recognize whether or not it is installed.
【請求項10】 観察者の視点の位置と方位姿勢に応じ
た画像を提示する情報提示装置であって、 既知の位置における観察者の視点位置を求めるための視
点位置情報を、夫々の観察者毎に格納する視点位置格納
手段 既知の位置における注目観察者の視点の位置を、当該注
目観察者固有の情報を用いて前記視点位置特定手段から
特定される視点位置情報に基づいて求める視点位置特定
手段と、 前記注目観察者の視点の方位姿勢を計測する視点方位姿
勢計測手段と、 前記視点方位姿勢計測手段による前記注目観察者の視点
の方位姿勢と、前記視点位置特定手段による前記注目観
察者の視点の位置に応じた画像を生成する画像生成手段
とを備え、 前記画像を所定の表示手段を介して前記注目観察者に提
示することを特徴とする情報提示装置。
10. The position and azimuth and orientation of the observer's viewpoint
An information presenting device for presenting a displayed image, which is used to obtain the observer's viewpoint position at a known position.
Viewpoint position storage that stores point position information for each observer
The position of the target observer's viewpoint in means known location, the note
From the viewpoint position specifying means using information unique to the eye observer
Specified viewpoint position based on specified viewpoint position information
Means and viewpoint azimuth for measuring the azimuth and attitude of the viewpoint of the noted observer
Force measuring means, and the viewpoint of the noted observer by the viewpoint azimuth and attitude measuring means
Azimuth and orientation, and the attention view by the viewpoint position specifying means.
Image generation means for generating an image according to the position of the observer's viewpoint
And presenting the image to the observer of interest via a predetermined display means.
An information presentation device characterized by showing.
【請求項11】 コンピュータに請求項1乃至7の何れ
か1項に記載の情報提示方法を実行させるプログラムを
格納することを特徴とするコンピュータ読み取り可能な
記憶媒体。
11. A computer according to any one of claims 1 to 7.
Or a program for executing the information presentation method described in 1 above.
Computer readable characterized by storing
Storage medium.
JP2000368787A 2000-12-04 2000-12-04 Information presentation apparatus and method, and storage medium Expired - Fee Related JP3437550B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000368787A JP3437550B2 (en) 2000-12-04 2000-12-04 Information presentation apparatus and method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000368787A JP3437550B2 (en) 2000-12-04 2000-12-04 Information presentation apparatus and method, and storage medium

Publications (2)

Publication Number Publication Date
JP2002170132A JP2002170132A (en) 2002-06-14
JP3437550B2 true JP3437550B2 (en) 2003-08-18

Family

ID=18838938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000368787A Expired - Fee Related JP3437550B2 (en) 2000-12-04 2000-12-04 Information presentation apparatus and method, and storage medium

Country Status (1)

Country Link
JP (1) JP3437550B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006318015A (en) * 2005-05-10 2006-11-24 Sony Corp Image processing device, image processing method, image display system, and program
JP6532393B2 (en) 2015-12-02 2019-06-19 株式会社ソニー・インタラクティブエンタテインメント Display control apparatus and display control method
JP7462591B2 (en) * 2020-03-26 2024-04-05 株式会社ソニー・インタラクティブエンタテインメント Display control device and display control method

Also Published As

Publication number Publication date
JP2002170132A (en) 2002-06-14

Similar Documents

Publication Publication Date Title
US10893219B2 (en) System and method for acquiring virtual and augmented reality scenes by a user
JP4065507B2 (en) Information presentation apparatus and information processing method
KR100823649B1 (en) Calibration method and apparatus
US9154742B2 (en) Terminal location specifying system, mobile terminal and terminal location specifying method
KR101285360B1 (en) Point of interest displaying apparatus and method for using augmented reality
US20020057280A1 (en) Mixed reality presentation apparatus and control method thereof
JP2020531965A (en) Assisted augmented reality
KR101867020B1 (en) Method and apparatus for implementing augmented reality for museum
CN110168615B (en) Information processing apparatus, information processing method, and storage medium
JP2006059136A (en) Viewer apparatus and its program
KR20120017293A (en) Apparatus and method for providing augmented reality
JP4367926B2 (en) Image composition system, image composition method, and image composition apparatus
CN112525185B (en) AR navigation method based on positioning and AR head-mounted display device
JP2012038153A (en) Surrounding information retrieval device and surrounding information retrieval method
JP2005174021A (en) Method and device for presenting information
JP2020008917A (en) Augmented reality display system, augmented reality display method, and computer program for augmented reality display
JP3398796B2 (en) Image system for 3D survey support using mixed reality
KR100743782B1 (en) Information presentation apparatus and information presentation method
CN108932055B (en) Method and equipment for enhancing reality content
JP3437550B2 (en) Information presentation apparatus and method, and storage medium
JP2023075236A (en) Locus display device
KR101902131B1 (en) System for producing simulation panoramic indoor images
WO2019127320A1 (en) Information processing method and apparatus, cloud processing device, and computer program product
US20240159621A1 (en) Calibration method of a portable electronic device
JP2012080193A (en) Portable terminal, and camera magnification adjustment method and program

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030516

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080606

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090606

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090606

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100606

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110606

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120606

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120606

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130606

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees