JP2003203252A - Image display device and its method and storage medium - Google Patents

Image display device and its method and storage medium

Info

Publication number
JP2003203252A
JP2003203252A JP2002301652A JP2002301652A JP2003203252A JP 2003203252 A JP2003203252 A JP 2003203252A JP 2002301652 A JP2002301652 A JP 2002301652A JP 2002301652 A JP2002301652 A JP 2002301652A JP 2003203252 A JP2003203252 A JP 2003203252A
Authority
JP
Japan
Prior art keywords
posture
information
correction information
image
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002301652A
Other languages
Japanese (ja)
Other versions
JP3840171B2 (en
Inventor
Kiyohide Sato
清秀 佐藤
Mahoro Anabuki
まほろ 穴吹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002301652A priority Critical patent/JP3840171B2/en
Publication of JP2003203252A publication Critical patent/JP2003203252A/en
Application granted granted Critical
Publication of JP3840171B2 publication Critical patent/JP3840171B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily acquire correction information for converting the attitude of a sensor in a sensor coordinate into the attitude of a measuring object in a world coordinate. <P>SOLUTION: First of all, an image generation part 150' renders a virtual object based on the attitude determined beforehand and outputs it on a display screen 110 in a correction information calculation mode. A user adjusts the attitude a head part so that the displayed virtual object has a correct position relation with a real space. A correction information calculation part 310 calculates unknown correction information following the output of an attitude sensor 120 at the point of time when the correct position relation is attained, and stores the information in a memory 140'. Then, in the case where position displacement occurs between the virtual object and the real space when the attitude of the head part is changed in a normal mode, a correction information modification part 400 modifies simultaneously RySV and RyTW which are uncertain correction information by input of a modification command by a modification information input part 410, and outputs the result to a memory 140'. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、姿勢センサの出力
値に基づいて実空間に融合した仮想空間の画像を表示さ
せる画像表示装置及び方法に関する。更に詳しくは、撮
像装置によって撮像された実画像に仮想空間の画像を重
畳した重畳画像を生成し、これを表示画面に表示する画
像表示装置、あるいは、表示画面に現実空間を光学的に
透過させつつ当該表示画面に仮想空間の画像を表示する
画像表示装置、及びそれらの方法並びに記憶媒体に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image display device and method for displaying an image of a virtual space fused with a real space based on an output value of a posture sensor. More specifically, a superimposed image is generated by superimposing an image of the virtual space on the real image captured by the image capturing device, and the superimposed image is displayed on the display screen, or the real space is optically transmitted to the display screen. Meanwhile, the present invention relates to an image display device that displays an image of a virtual space on the display screen, a method thereof, and a storage medium.

【0002】[0002]

【従来の技術】近年、現実空間と仮想空間の繋ぎ目のな
い結合を目的とした、複合現実感(以下、“MR”(Mi
xed Reality)と称す)に関する研究が盛んに行われて
いる。MRには、ビデオカメラなどの撮影装置で撮影さ
れた現実空間の画像に仮想空間(たとえばコンピュータ
グラフィックス(以下、CGと称す)により描画された
仮想物体や文字情報など)の画像を重畳して表示するビ
デオシースルー方式と、表示装置の表示画面に現実空間
を光学的に透過させつつ、その表示画面に仮想空間の画
像を重畳表示する光学シースルー方式がある。
2. Description of the Related Art In recent years, mixed reality (hereinafter referred to as "MR" (Mi
xed Reality)) is being actively researched. In the MR, an image of a virtual space (for example, a virtual object drawn by computer graphics (hereinafter, referred to as CG), character information, etc.) is superimposed on an image of a real space shot by a shooting device such as a video camera. There are a video see-through method for displaying and an optical see-through method for superimposing an image in a virtual space on the display screen while optically transmitting the real space on the display screen of the display device.

【0003】このようなMRの応用としては、現実の街
中において建物等にその名称や案内を重畳表示するナビ
ゲーションや、ビルの建設予定地に建設予定のビルのC
G映像を重畳表示する景観シミュレーションなど、今ま
でのバーチャルリアリティとは質的に全く異なった新た
な分野が期待されている。これらの応用に対して共通に
要求されるのは、現実空間と仮想空間の間の位置合わせ
をいかにして正確に行うかということであり、従来から
多くの取り組みが行われてきた。
Such applications of MR include navigation for displaying the name and guidance on a building or the like in an actual city, and C for a building to be built at a planned construction site of the building.
New fields, such as landscape simulation in which G images are superimposed and displayed, are qualitatively different from the conventional virtual reality are expected. A common requirement for these applications is how to perform accurate alignment between the real space and the virtual space, and many efforts have been made in the past.

【0004】ビデオシースルー方式のMRにおける位置
合わせの問題は、現実空間に設定した世界座標系(以
後、単に世界座標系と呼ぶ)における、撮影装置の視点
の3次元位置姿勢を求める問題に帰結される。また光学
シースルー方式のMRにおける位置合わせの問題は、同
様に世界座標系におけるユーザの視点の3次元位置姿勢
を求める問題といえる。
The problem of registration in MR of the video see-through method is consequent to the problem of obtaining the three-dimensional position and orientation of the viewpoint of the photographing device in the world coordinate system set in the real space (hereinafter simply referred to as the world coordinate system). It Further, the problem of alignment in the MR of the optical see-through method can be said to be a problem of similarly obtaining the three-dimensional position and orientation of the user's viewpoint in the world coordinate system.

【0005】これらの問題を解決する方法として、磁気
センサや超音波センサなどの3次元位置姿勢センサを利
用して、世界座標系における撮影装置やユーザの視点
(以下、単に視点と呼ぶ)の3次元位置姿勢を取得する
ことが一般的に行われている。
As a method for solving these problems, a three-dimensional position / orientation sensor such as a magnetic sensor or an ultrasonic sensor is used to make the three points of the photographing device or the user's viewpoint (hereinafter simply referred to as a viewpoint) in the world coordinate system. It is common practice to acquire the dimensional position and orientation.

【0006】また、屋外において対象までの距離が十分
離れている場合のように、視点の位置については固定値
を用いても差し支えのない状況下では、ジャイロセンサ
や加速度計の組み合わせによって構成される3次元姿勢
センサを用いて視点の3次元姿勢を得て、それを元に視
点の3次元位置姿勢を取得することが一般的に行われて
いる。
Further, in a situation where a fixed value can be used for the position of the viewpoint such as when the distance to the object is sufficiently large outdoors, it is configured by a combination of a gyro sensor and an accelerometer. It is common practice to obtain a three-dimensional posture of a viewpoint using a three-dimensional posture sensor and then acquire the three-dimensional position and posture of the viewpoint based on the obtained posture.

【0007】3次元姿勢センサが出力する出力値は、例
えば(株)トキメック製の姿勢センサTISS-5-40を例に
とると、重力の逆方向をY軸、このY軸によって定めら
れるX−Z平面上でのセンサ起動時のセンサの正面方向
を−Z軸として定義される座標系であるところのセンサ
座標系におけるセンサ自身の3次元姿勢である。このよ
うに、3次元姿勢センサが出力する出力値は、計測対象
である世界座標系における視点の3次元姿勢ではないの
が一般的である。すなわち、センサ出力値をそのまま世
界座標系における視点の3次元姿勢として用いることは
できず、何らかの座標変換を行う必要がある。具体的に
は、センサ自身の姿勢を視点の姿勢に変換する座標変換
と、センサ座標系における姿勢を世界座標系における姿
勢に変換する座標変換が必要となる。なお、本明細書に
おいて、センサ出力値と世界座標系における視点の3次
元姿勢との間の座標変換を行うためのデータを補正情報
と呼ぶこととする。
The output value output from the three-dimensional posture sensor is, for example, in the case of the posture sensor TISS-5-40 manufactured by Tokimec Co., Ltd., the opposite direction of gravity is the Y axis, and the X-axis is defined by this Y axis. It is the three-dimensional posture of the sensor itself in the sensor coordinate system, which is the coordinate system defined as the −Z axis in the front direction of the sensor when the sensor is activated on the Z plane. In this way, the output value output by the three-dimensional posture sensor is generally not the three-dimensional posture of the viewpoint in the world coordinate system that is the measurement target. That is, the sensor output value cannot be used as it is as the three-dimensional posture of the viewpoint in the world coordinate system, and some coordinate conversion needs to be performed. Specifically, coordinate conversion for converting the attitude of the sensor itself into the attitude of the viewpoint and coordinate conversion for converting the attitude in the sensor coordinate system into the attitude in the world coordinate system are necessary. In this specification, data for performing coordinate conversion between the sensor output value and the three-dimensional posture of the viewpoint in the world coordinate system will be referred to as correction information.

【0008】図1は、光学シースルー方式の複合現実感
の提示を行う一般的な画像表示装置の構成を示す図であ
る。
FIG. 1 is a diagram showing a configuration of a general image display device for presenting an optical see-through type mixed reality.

【0009】表示画面110はシースルー型であり、姿
勢センサ120と共に頭部装着部100に固定されてい
る。不図示のユーザが、表示画面110が眼前に位置す
るように頭部装着部100を装着すると、表示画面11
0の光学系(第1図には不図示)を通して表示画面の前
方の現実空間を観察することができる。姿勢センサ12
0は、センサ座標系におけるセンサ自身の姿勢を計測
し、3自由度の姿勢計測値を出力する。なお、姿勢セン
サ120は地球の重力方向を計測可能な傾斜計(不図
示)を内部に有しており、上述したように、センサ座標
系の1つの軸(本例ではY軸とする)は重力の逆方向に
設定される。
The display screen 110 is of a see-through type and is fixed to the head mounting portion 100 together with the posture sensor 120. When a user (not shown) wears the head mounting portion 100 so that the display screen 110 is positioned in front of the eyes, the display screen 11
Through the 0 optical system (not shown in FIG. 1), the real space in front of the display screen can be observed. Attitude sensor 12
0 measures the posture of the sensor itself in the sensor coordinate system and outputs the posture measurement value with 3 degrees of freedom. The attitude sensor 120 internally has an inclinometer (not shown) capable of measuring the gravity direction of the earth, and as described above, one axis of the sensor coordinate system (in this example, the Y axis) is It is set in the opposite direction of gravity.

【0010】姿勢情報出力部130は、メモリ140が
保持する補正情報に従って、姿勢センサ120より入力
した計測値に変換を加え、世界座標系におけるユーザの
視点の姿勢を算出しこれを姿勢情報として出力する。画
像生成部150は、姿勢情報出力部130より入力した
姿勢情報に従ってユーザの視点の姿勢に対応した仮想画
像を生成し、これを出力する。表示画面110は、画像
生成部150より仮想画像を入力しこれを表示する。以
上の構成により、不図示のユーザは、表示画面110を
通した現実空間の像に重ねて、表示画面110に表示さ
れた仮想画像を見ることとなる。
The posture information output unit 130 converts the measurement value input from the posture sensor 120 according to the correction information stored in the memory 140, calculates the posture of the user's viewpoint in the world coordinate system, and outputs this as posture information. To do. The image generation unit 150 generates a virtual image corresponding to the posture of the user's viewpoint according to the posture information input from the posture information output unit 130, and outputs this. The display screen 110 receives a virtual image from the image generator 150 and displays it. With the configuration described above, the user (not shown) sees the virtual image displayed on the display screen 110 by superimposing it on the image of the real space through the display screen 110.

【0011】次に、図2を用いて、姿勢情報出力部13
0において、世界座標系におけるユーザの視点の姿勢を
算出する方法を説明する。
Next, referring to FIG. 2, the posture information output unit 13
A method of calculating the orientation of the user's viewpoint in the world coordinate system in 0 will be described.

【0012】同図において、世界座標系200における
センサ座標系210の姿勢をRTW、センサ座標系210
における姿勢センサ120の姿勢をRST、姿勢センサ1
20からみたユーザの視点220の相対的な姿勢を
VS、世界座標系200におけるユーザの視点220の
姿勢をRVWとする。
In the figure, the orientation of the sensor coordinate system 210 in the world coordinate system 200 is R TW , and the sensor coordinate system 210 is
The attitude of the attitude sensor 120 at R ST , and the attitude sensor 1
The relative posture of the user's viewpoint 220 viewed from 20 is R VS , and the posture of the user's viewpoint 220 in the world coordinate system 200 is R VW .

【0013】ここで、Rは4×4の行列であって、RBA
はある座標系Aにおける対象Bの姿勢を記述する。これ
は言い換えれば、座標系Aから対象Bが定義する座標系
Bへの座標変換行列であり、座標系Aにおける座標PA
=(XA,YA,ZA,1)Tを座標系Bにおける座標PB
=(XB,YB,ZB,1)Tに変換する変換式、PB=R
BAAを定義するものである。すなわち、世界座標系2
00におけるユーザの視点220の姿勢RVWは、世界座
標系200における座標PW=(XW,YW,ZW,1)T
をユーザの視点座標系230における座標PV=(XV
V,ZV,1)Tに変換するための座標変換行列(PV
VWW)と言い換えることもできる。
Where R is a 4 × 4 matrix, and RBA
Describes the posture of the object B in a certain coordinate system A. this
In other words, the coordinate system defined by the object B from the coordinate system A
The coordinate conversion matrix to B, and the coordinate P in the coordinate system AA
= (XA, YA, ZA, 1)TIs the coordinate P in coordinate system BB
= (XB, YB, ZB, 1)TConversion formula to convert to PB= R
BAPAIs defined. That is, world coordinate system 2
Posture R of the user's viewpoint 220 in 00VWIs the world
Coordinate P in standard 200W= (XW, YW, ZW, 1)T
Is the coordinate P in the viewpoint coordinate system 230 of the user.V= (XV
YV, ZV, 1)TCoordinate transformation matrix (PV=
RVWPW) Can also be paraphrased.

【0014】また行列Rは、X軸まわりの回転角θによ
って定義される回転行列Rx、Y軸まわりの回転角(方
位角)φによって定義される回転行列Ry、Z軸まわり
の回転角ψによって定義される回転行列Rzの積により
構成されており、R=RzRxRyの関係が成立してい
る。これらの行列はそれぞれ次のように表される。
The matrix R is defined by a rotation matrix Rx defined by a rotation angle θ about the X axis, a rotation matrix Ry defined by a rotation angle (azimuth angle) φ about the Y axis, and a rotation angle ψ about the Z axis. It is configured by the product of the defined rotation matrix Rz, and the relation of R = RzRxRy is established. Each of these matrices is represented as follows.

【0015】[0015]

【数1】 このときRVWは、 RVW=RVS・RST・RTW … (式A) によって示すことができる。[Equation 1] At this time, R VW can be represented by R VW = R VS · R ST · R TW (Equation A).

【0016】ここで、センサ座標系210のY軸は重力
の逆方向に設定されているので、世界座標系200のY
軸を地表面と垂直に定義することにより、世界座標系2
00とセンサ座標系210のY軸の方向を一致させるこ
とができる。このとき、RTWのX軸およびZ軸まわりの
成分であるRxTWおよびRzTWはそれぞれ単位行列とな
り、RTWは、Y軸まわりの回転角φTWによって定義され
る回転行列RyTWと等価となる。したがって、上記の
(式A)は、 RVW=RVS・RST・RyTW … (式B) に変形される。
Since the Y-axis of the sensor coordinate system 210 is set in the direction opposite to gravity, the Y-axis of the world coordinate system 200 is set.
By defining the axis perpendicular to the ground surface, the world coordinate system 2
00 and the direction of the Y axis of the sensor coordinate system 210 can be matched. At this time, Rx TW and Rz TW, which are components of R TW around the X axis and the Z axis, are unit matrices, respectively, and R TW is equivalent to a rotation matrix Ry TW defined by a rotation angle φ TW around the Y axis. Become. Therefore, the above (formula A) is transformed into R VW = RVS · R ST · Ry TW (formula B).

【0017】このうち、RSTが姿勢センサ120から姿
勢情報出力部130への入力、RVWが姿勢情報出力部1
30から画像生成部150への出力であり、RVS及びR
TW(言い換えると、RVSを定義する3軸まわりの回転
角θVS,φVS,ψVS及びRy TWを定義する回転角φTW
が、RSTをRVWに変換するために必要な補正情報に相当
する。姿勢情報出力部130は、姿勢センサ120から
入力されるRSTと、メモリ140に保持されているRVS
及びRyTWとを用いて、(式B)に基づいてR VWを算出
し、これを画像生成部150へと出力する。
Of these, RSTFrom the posture sensor 120
Input to the force information output unit 130, RVWIs the posture information output unit 1
30 is output to the image generation unit 150, and RVSAnd R
yTW(In other words, RVSRotation about three axes that define
Angle θVS, ΦVS, ΨVSAnd Ry TWRotation angle φ that definesTW)
But RSTRVWCorresponds to the correction information required to convert to
To do. The posture information output unit 130 outputs from the posture sensor 120.
R inputSTAnd R stored in the memory 140VS
And RyTWBased on (Equation B) using VWCalculate
Then, this is output to the image generation unit 150.

【0018】現実空間と仮想空間の正確な位置合わせを
行うためには、何らかの手段によってメモリ140に正
確な補正情報が設定される必要がある。正確な補正情報
が与えられてはじめて、現実空間に正確に位置合わせの
なされた仮想画像の表示が実現される。
In order to perform accurate alignment between the real space and the virtual space, it is necessary to set accurate correction information in the memory 140 by some means. Only when the correct correction information is given, the display of the virtual image accurately aligned in the real space is realized.

【0019】補正情報を設定する公知の方法の一つとし
て、ユーザあるいはオペレータが、不図示の入力手段を
介してメモリ140に格納されたθVS,φVS,ψVS及び
φTWの各値を対話的に増減し、正確な位置合わせが達成
されるまで各値の調整を試行錯誤的に行うという方法が
ある。
As one of the known methods for setting the correction information, the user or the operator uses the input means (not shown) to store the respective values of θ VS , φ VS , ψ VS and φ TW. There is a method of interactively increasing and decreasing and adjusting each value by trial and error until accurate alignment is achieved.

【0020】しかしこの方法では、4つのパラメータを
同時に調整する必要があるため、作業が煩雑であり調整
に時間がかかるという問題点があった。
However, in this method, since it is necessary to adjust the four parameters at the same time, there is a problem that the work is complicated and the adjustment takes time.

【0021】この煩雑さを軽減する一つの方法として、
本出願人による特願2001−050990号により提
案された方法がある。以下では、この補正情報設定手法
について説明する。
As one method for reducing this complexity,
There is a method proposed by Japanese Patent Application No. 2001-050990 by the present applicant. The correction information setting method will be described below.

【0022】図3は、図1の画像表示装置にこの補正情
報設定方法を組込んだ際の画像表示装置の構成を示すブ
ロック図である。同図に示したように、本構成は、図1
の構成に、補正情報算出部310、指示情報入力部32
0及び切替え部330が追加された構成となる。また、
本画像表示装置における図1の姿勢情報出力部130及
びメモリ140に相当する構成要素はその機能が第1図
の画像表示装置とは異なるため、図3の画像表示装置で
はこれを姿勢情報出力部130’及びメモリ140’と
表記する。
FIG. 3 is a block diagram showing the configuration of an image display device when this correction information setting method is incorporated in the image display device of FIG. As shown in FIG.
In addition to the above configuration, the correction information calculation unit 310 and the instruction information input unit 32
0 and the switching unit 330 are added. Also,
The components of the image display device corresponding to the posture information output unit 130 and the memory 140 of FIG. 1 have different functions from those of the image display device of FIG. 1. Therefore, in the image display device of FIG. These are designated as 130 'and memory 140'.

【0023】補正情報の算出は、ユーザの視点220の
姿勢を、世界座標系におけるある予め定めた姿勢であっ
て、地平面と水平な視軸を持つ姿勢Ry0 VWに移動させ
て、その時点での姿勢センサ120の出力R0 STを取得
することで行われる。メモリ140’は、補正情報の他
に、上記の予め定めた視点の姿勢Ry0 VW(あるいはそ
れを定義するY軸まわりの回転角φ0 VW)を保持してい
る。
The correction information is calculated by moving the posture of the user's viewpoint 220 to a posture Ry 0 VW which is a predetermined posture in the world coordinate system and has a visual axis parallel to the horizon at that time. It is performed by acquiring the output R 0 ST of the posture sensor 120 at. In addition to the correction information, the memory 140 ′ holds the above-mentioned predetermined viewpoint posture Ry 0 VW (or the rotation angle φ 0 VW about the Y axis that defines it).

【0024】切替え部330は、ユーザあるいはオペレ
ータ(いずれも第3図には不図示)からの入力を受け、
姿勢情報出力部130’のモードを通常モードあるいは
補正情報算出モードに設定する。
The switching unit 330 receives an input from a user or an operator (neither is shown in FIG. 3),
The mode of the posture information output unit 130 'is set to the normal mode or the correction information calculation mode.

【0025】姿勢情報出力部130’は、モードが通常
モードの場合には、図1で説明した姿勢情報出力部13
0と同様に、姿勢センサ120から入力されるRSTから
補正情報を用いてRVWを算出し、これを姿勢情報として
画像生成部150へと出力する。
When the mode is the normal mode, the posture information output unit 130 'has the posture information output unit 13 described with reference to FIG.
Similar to 0, R VW is calculated from R ST input from the posture sensor 120 using the correction information, and this is output to the image generation unit 150 as posture information.

【0026】一方、モードが補正情報算出モードの場合
には、メモリ140’からRy0 VWを入力し、これを姿
勢情報として画像生成部150へと出力する。指示情報
入力部320は、ユーザあるいはオペレータからの入力
を受け、補正情報算出処理実行の指示を補正情報算出部
310へと送信する。より具体的には、ユーザあるいは
オペレータは、補正情報算出モードにおいて、表示画面
110に表示された仮想画像と、表示画面110を光学
的に透過して観察される現実空間の像が正しい位置関係
になるように視点220の姿勢を調整する。そして、両
画像が十分に重なり合っていると判断した時点(すなわ
ち、視点220が姿勢Ry0 VWに位置していると判断さ
れた時点)で、例えば特定のキーを押すことにより指示
情報入力部320への入力を行う。
On the other hand, when the mode is the correction information calculation mode, Ry 0 VW is input from the memory 140 ′ and is output to the image generation unit 150 as posture information. The instruction information input unit 320 receives an input from a user or an operator and transmits an instruction to execute the correction information calculation process to the correction information calculation unit 310. More specifically, in the correction information calculation mode, the user or the operator establishes a correct positional relationship between the virtual image displayed on the display screen 110 and the image of the physical space optically observed through the display screen 110. The posture of the viewpoint 220 is adjusted so that Then, at the time when it is determined that both images are sufficiently overlapped (that is, when the viewpoint 220 is determined to be in the posture Ry 0 VW ), for example, by pressing a specific key, the instruction information input unit 320 Input to.

【0027】補正情報算出部310は、補正情報算出処
理実行の指示を指示情報入力部320から入力し、その
時点(すなわち、視点220が姿勢Ry0 VWに位置して
いるとユーザあるいはオペレータが判断した時点)にお
ける姿勢センサ120の出力R0 STを入力し、姿勢Ry0
VWと姿勢R0 STに基づいて補正情報の算出を行う。
The correction information calculation unit 310 inputs an instruction to execute the correction information calculation process from the instruction information input unit 320, and at that time (that is, the user or the operator determines that the viewpoint 220 is located in the posture Ry 0 VW). receives the output R 0 ST of the orientation sensor 120 in the time), the posture Ry 0
The correction information is calculated based on VW and the posture R 0 ST .

【0028】上記の方法では、補正情報の1つである姿
勢RVSのうち、その逆行列RSV(ユーザの視点から見た
姿勢センサの相対的な姿勢を表わす)のy軸まわりの回
転成分RySV(あるいはそれを定義するY軸まわりの回
転角φSV)が何らかの方法によって既知であり、すでに
メモリ140’に記憶されている必要がある。
In the above method, the rotation component about the y-axis of the inverse matrix R SV (representing the relative attitude of the attitude sensor from the user's viewpoint) of the attitude R VS which is one of the correction information. It is necessary that Ry SV (or the rotation angle φ SV around the Y axis that defines it) is known by some method and already stored in the memory 140 ′.

【0029】このとき、補正情報算出部310で処理さ
れるデータの間には、(式B)より、 Ry0 VW=RVS・R0 ST・RyTW … (式C) の関係が成立する。ここで、(式C)を変形すると、 Ry0 VW=(RzSVRxSVRySV-10 STRyTW … (式D) となる。
At this time, the relation of Ry 0 VW = R VS · R 0 ST · Ry TW (Equation C) is established between the data processed by the correction information calculation unit 310 from (Equation B). . Here, if the (formula C) is modified, Ry 0 VW = (Rz SV Rx SV Ry SV ) −1 R 0 ST Ry TW (Formula D).

【0030】補正情報算出部310は、メモリ140’
よりRy0 VWおよびRySVを、センサ120よりR0 ST
入力し、(式D)に基づいて未知の補正情報RzSV,R
S V,RyTWを算出する。以下にその手順を示す。
The correction information calculation unit 310 has a memory 140 '.
Ry 0 VW and Ry SV are input from the sensor 120, and R 0 ST is input from the sensor 120, and unknown correction information Rz SV and Rz are input based on (Equation D).
Calculate x S V and Ry TW . The procedure is shown below.

【0031】(式D)をさらに変形すると、 RzSVRxSVRySVRy0 VW=Rz0 STRx0 STRy0 STRyTW … (式E) となる。ここで、(式E)の左辺および右辺のそれぞれ
がZ、X、Y軸周りの回転成分の積となっているので、
Z、X、Y軸周りの回転成分毎に恒等式が成立する。
When the equation (D) is further modified, it becomes Rz SV Rx SV Ry SV Ry 0 VW = Rz 0 ST Rx 0 ST Ry 0 ST Ry TW (Equation E). Here, since each of the left side and the right side of (Equation E) is the product of the rotation components around the Z, X, and Y axes,
An identity is established for each rotation component around the Z, X, and Y axes.

【0032】まず、Z、X軸周りの回転成分の恒等式は
以下の通りとなる。すなわち、 RzSV=Rz0 ST … (式F) RxSV=Rx0 ST … (式G) これより、RzSVおよびRxSVを求めることができる。
First, the identities of the rotational components around the Z and X axes are as follows. That is, Rz SV = Rz 0 ST (Equation F) Rx SV = Rx 0 ST (Equation G) From this, Rz SV and Rx SV can be obtained.

【0033】一方、Y軸周りの回転成分の恒等式は以下
の通りとなる。すなわち、 RySVRy0 VW=Ry0 STRyTW これより、 RyTW=RySVRy0 VWRy0 ST -1 … (式H) となり、RyTWを求めることができる。
On the other hand, the identity of the rotation component around the Y axis is as follows. That is, Ry SV Ry 0 VW = Ry 0 ST Ry TW From this, Ry TW = Ry SV Ry 0 VW Ry 0 ST -1 (Equation H) and Ry TW can be obtained.

【0034】補正情報算出部310は、上記の処理によ
って補正情報RzSV,RxSV,Ry TWの算出を行い、こ
れらの値からさらにRVS(=(RzSVR×SV
SV-1)を算出して、RVSおよびRyTW(あるいはそ
れらを定義する回転角θSV,ψSV及びφTW)をメモリ1
40’へと出力する。
The correction information calculation unit 310 is based on the above processing.
Correction information RzSV, RxSV, Ry TWIs calculated and
Further R from these valuesVS(= (RzSVR xSVR
ySV)-1) Is calculated and RVSAnd RyTW(Or
Rotation angle θ that defines themSV, ΨSVAnd φTW) Memory 1
Output to 40 '.

【0035】なお、RySVの導出は分度器等の計測値を
手掛りに試行錯誤的に行ってもよいし、他のいずれの計
測手段を用いて行ってもよい。
Derivation of Ry SV may be carried out by trial and error using a measured value of a protractor or the like as a clue, or may be carried out by using any other measuring means.

【0036】以上によって、補正情報のうちのRySV
みを予め求めておけば、他の未知な補正情報を容易に導
出することができ、正確な位置合わせを実現することが
可能となる。
As described above, if only Ry SV of the correction information is obtained in advance, other unknown correction information can be easily derived and accurate alignment can be realized.

【0037】[0037]

【発明が解決しようとする課題】しかし、補正情報Ry
SVを予め正確に計測しておくことは一般には困難であ
る。従って、実際には、RySVの大まかな設定、他の補
正情報の導出処理、RySVの微調整、他の補正情報の導
出処理、RySVの微調整、…という作業を、正しい位置
合わせが実現されるまで繰り返し行わなくてはならず、
補正情報の取得に煩雑な操作と時間を要するという問題
があった。
However, the correction information Ry
It is generally difficult to measure SV accurately in advance. Thus, in practice, the rough setting of Ry SV, derivation of other correction information, the fine adjustment of Ry SV, derivation of other correction information, the fine adjustment of Ry SV, the task of ..., the correct positioning You have to repeat it until it is realized,
There has been a problem that acquisition of correction information requires a complicated operation and time.

【0038】本発明は以上の問題に鑑みてなされたもの
であり、センサ計測値を世界座標系における視点の姿勢
に変換するための補正情報をより簡便に取得することを
目的とする。
The present invention has been made in view of the above problems, and it is an object of the present invention to more easily obtain correction information for converting a sensor measurement value into a viewpoint posture in the world coordinate system.

【0039】[0039]

【課題を解決するための手段】本発明の目的を達成する
為に、例えば本発明の画像表示装置は以下の構成を備え
る。すなわち、表示画面を観察するユーザの視点の姿勢
に応じた仮想画像を当該表示画面に表示する画像表示装
置であって、姿勢計測値を出力する姿勢センサと、メモ
リに予め格納された所定の姿勢情報に基づいて前記仮想
画像を生成して、これを前記表示画面に表示する第1表
示手段と、前記視点の姿勢と、前記所定の姿勢情報が示
す姿勢とが一致したことを示す通知がなされた場合に、
前記姿勢センサからの姿勢計測値と前記所定の姿勢情報
とに基づいて補正情報を算出する算出手段と、前記姿勢
センサから得られた姿勢計測値と前記補正情報とを用い
て得られた視点の姿勢情報に基づいて仮想画像を生成し
て、これを前記表示画面に表示する第2表示手段と、前
記第2表示手段によって仮想画像を表示しながら、所定
の操作に応じて前記補正情報を修正する修正手段とを備
える。
In order to achieve the object of the present invention, for example, an image display device of the present invention has the following configuration. That is, an image display device that displays a virtual image according to the posture of the viewpoint of the user observing the display screen on the display screen, and a posture sensor that outputs a posture measurement value, and a predetermined posture that is stored in advance in a memory. A notification indicating that the first display means for generating the virtual image based on the information and displaying the virtual image on the display screen, the posture of the viewpoint, and the posture indicated by the predetermined posture information match is given. If
Calculation means for calculating correction information based on the posture measurement value from the posture sensor and the predetermined posture information, and a viewpoint obtained using the posture measurement value and the correction information obtained from the posture sensor. Second display means for generating a virtual image based on the posture information and displaying the virtual image on the display screen, and correcting the correction information according to a predetermined operation while displaying the virtual image by the second display means. And a correction means for doing so.

【0040】また、上記目的を達成するための、本発明
の画像表示方法は、表示画面に現実空間を光学的に透過
させつつ、当該表示画面を観察するユーザの視点の姿勢
に応じた仮想空間の画像を当該表示画面に表示する画像
表示方法であって、第1のモードと第2のモードとの切
替えを行う切替え工程と、前記第1のモードにおいて
は、補正情報と姿勢センサから入力される3自由度の姿
勢計測値に基づいて前記視点の姿勢を算出してこれを姿
勢情報として出力し、前記第2のモードにおいては、予
め定められた姿勢を前記視点の姿勢情報として出力する
姿勢情報出力工程と、前記姿勢情報出力工程が出力する
姿勢情報に基づいて前記画像を生成する画像生成工程
と、前記視点の姿勢が前記予め定められた姿勢に一致し
ていることを指示する指示情報を入力する指示情報入力
工程と、前記指示情報が入力された時点及び/または該
時点の前後における前記姿勢計測値と、前記予め定めら
れた姿勢に基づいて、前記補正情報を算出する補正情報
算出工程と、前記補正情報を修正するための修正情報を
入力する修正情報入力工程と、前記修正情報に応じて前
記補正情報を修正する補正情報修正工程とを備える。ま
た、本発明の他の態様による画像表示方法は、撮像装置
によって撮像された実画像に当該撮像装置の視点の姿勢
に応じた仮想空間の画像を重畳した重畳画像を生成し、
これを表示画面に表示する画像表示方法であって、第1
のモードと第2のモードとの切替えを行う切替え工程
と、前記第1のモードにおいては、補正情報と姿勢セン
サから入力される3自由度の姿勢計測値に基づいて、前
記視点の姿勢を算出してこれを姿勢情報として出力し、
前記第2のモードにおいては、予め定められた姿勢を前
記視点の姿勢情報として出力する姿勢情報出力工程と、
前記姿勢情報出力工程が出力する姿勢情報に基づいて前
記重畳画像を生成する画像生成工程と、前記視点の姿勢
が前記予め定められた姿勢に一致していることを指示す
る指示情報を入力する指示情報入力工程と、前記指示情
報が入力された時点及び/または該時点の前後における
前記姿勢計測値と、前記予め定められた姿勢に基づい
て、前記補正情報を算出する補正情報算出工程と、前記
補正情報を修正するための修正情報を入力する修正情報
入力工程と、前記修正情報に応じて前記補正情報を修正
する補正情報修正工程とを備える。
In order to achieve the above object, the image display method of the present invention is a virtual space corresponding to the posture of the viewpoint of the user observing the display screen while optically transmitting the real space to the display screen. An image display method for displaying the image on the display screen, and a switching step of switching between a first mode and a second mode; and in the first mode, correction information and an attitude sensor input. A posture that calculates the posture of the viewpoint based on the posture measurement value of three degrees of freedom and outputs the posture as posture information, and in the second mode, outputs a predetermined posture as the posture information of the viewpoint. An information output step, an image generation step of generating the image based on the posture information output by the posture information output step, and an instruction that the posture of the viewpoint matches the predetermined posture Instruction information input step of inputting indication information, a correction for calculating the correction information based on the attitude measurement value at the time when the instruction information is input and / or before and after the time, and the predetermined attitude An information calculation step, a correction information input step of inputting correction information for correcting the correction information, and a correction information correction step of correcting the correction information according to the correction information are provided. Further, an image display method according to another aspect of the present invention generates a superimposed image in which an image of a virtual space corresponding to the viewpoint posture of the image capturing device is superimposed on a real image captured by the image capturing device,
An image display method for displaying this on a display screen, comprising:
And a switching step of switching between the second mode and the second mode, and in the first mode, the posture of the viewpoint is calculated based on the correction information and the posture measurement value of three degrees of freedom input from the posture sensor. And output this as posture information,
In the second mode, a posture information output step of outputting a predetermined posture as posture information of the viewpoint,
An image generation step of generating the superimposed image based on the posture information output by the posture information output step, and an instruction of inputting instruction information indicating that the posture of the viewpoint matches the predetermined posture. An information input step, a correction information calculation step of calculating the correction information based on the attitude measurement value at the time when the instruction information is input and / or before and after the time point, and the predetermined attitude; A correction information input step of inputting correction information for correcting the correction information and a correction information correction step of correcting the correction information according to the correction information are provided.

【0041】[0041]

【発明の実施の形態】以下添付図面を参照して、本発明
を好適な実施形態を詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Preferred embodiments of the present invention will be described in detail below with reference to the accompanying drawings.

【0042】以下の実施形態では、本発明の画像表示装
置及びその方法を、建設予定のビルの景観シミュレーシ
ョンを行うシミュレーション装置及びその方法に適用し
た場合を説明する。
In the following embodiments, the case where the image display device and the method of the present invention are applied to a simulation device and a method for performing a landscape simulation of a building to be constructed will be described.

【0043】図4は、本実施形態のシミュレーション装
置の装置構成を示している。同図に示したように、本実
施形態の装置構成は、図3に示した画像表示装置の構成
に、補正情報修正部400および修正情報入力部410
が追加された構成となっている。また、画像生成部15
0’は、仮想画像として建設予定のビルのCG画像を生
成する機能を有しているものとする。尚、頭部装着部1
00、表示画面110、姿勢センサ120、姿勢情報出
力部130’、メモリ140’、補正情報算出部31
0、指示情報入力部320および切替え部330の各動
作は、図3に示した画像表示装置と同様であるので、そ
れらの詳細な説明は省略する。
FIG. 4 shows the apparatus configuration of the simulation apparatus of this embodiment. As shown in the figure, the apparatus configuration of the present embodiment is similar to the configuration of the image display apparatus shown in FIG. 3 except that the correction information correction section 400 and the correction information input section 410 are included.
Has been added. In addition, the image generation unit 15
0'is assumed to have a function of generating a CG image of a building to be constructed as a virtual image. In addition, the head mounting portion 1
00, display screen 110, posture sensor 120, posture information output unit 130 ′, memory 140 ′, correction information calculation unit 31
0, the instruction information input section 320, and the switching section 330 have the same operations as those of the image display apparatus shown in FIG. 3, and thus detailed description thereof will be omitted.

【0044】本実施形態においては、メモリ140’に
予め保持される補正情報φSVは正確な値である必要がな
い。本実施形態における補正情報の獲得処理の概要を説
明すると、(1)まず、大まかに設定された補正情報φ
SVに基づいて、図2及び図3で説明した補正情報算出方
法によって補正情報RVSおよびRyTW(あるいはそれら
を定義する回転角θSV,ψSV及びφTW)の算出を行い、
(2)その後に、不確定な補正情報であるRySVおよび
RyTW(あるいはそれらを定義する回転角φSV及び
φTW)の微調整を以下に述べる方法によって行うことで
実現される。
In this embodiment, the correction information φ SV held in advance in the memory 140 'does not have to be an accurate value. The outline of the correction information acquisition process in this embodiment will be described. (1) First, the correction information φ roughly set
Based on SV , correction information R VS and Ry TW (or rotation angles θ SV , ψ SV and φ TW defining them) are calculated by the correction information calculation method described in FIGS. 2 and 3,
(2) After that, it is realized by finely adjusting the uncertain correction information Ry SV and Ry TW (or the rotation angles φ SV and φ TW defining them) by the method described below.

【0045】回転角φSV及びφTWの微調整について説明
する。修正情報入力部410は、ユーザあるいはオペレ
ータ(いずれも不図示)の入力により、補正情報φSV
値を一定値増加させるコマンド(増加コマンド)か、あ
るいは、補正情報φSVの値を一定値減少させるコマンド
(減少コマンド)を補正情報修正部400へと出力す
る。
Fine adjustment of the rotation angles φ SV and φ TW will be described. Correction information input unit 410, the input of the user or operator (both not shown), the command (increase command) to the value of the correction information phi SV is increased by a certain value or, alternatively, a constant value the value of the correction information phi SV decreased The command (decrease command) to be output is output to the correction information correction unit 400.

【0046】補正情報修正部400は、メモリ140’
から補正情報φSVおよびφTWの値を入力し、修正情報入
力部410から送信される増加/減少コマンドに従っ
て、これらの補正情報に以下に述べる修正を加え、その
結果をメモリ140’へと出力する。
The correction information correction section 400 has a memory 140 '.
The values of the correction information φ SV and φ TW are input from the correction information input unit 410, the correction information described below is added to the correction information according to the increase / decrease command transmitted from the correction information input unit 410, and the result is output to the memory 140 ′. To do.

【0047】すなわち、増加コマンドを入力した場合
は、φSVの値を一定値Δφだけ増加させ、φTWの値もΔ
φだけ増加させる。 φSV ← φSV+Δφ φTW ← φTW+Δφ …(式I)
That is, when the increase command is input, the value of φ SV is increased by a constant value Δφ, and the value of φ TW is also increased by Δ.
Increase by φ. φ SV ← φ SV + Δφ φ TW ← φ TW + Δφ (Equation I)

【0048】同様に、減少コマンドを入力した場合は、
φSVの値をΔφだけ減少させ、φTWの値もΔφだけ減少
させる。 φSV ← φSV−Δφ φTW ← φTW−Δφ …(式J)
Similarly, when the decrease command is input,
The value of φ SV is reduced by Δφ, and the value of φ TW is also reduced by Δφ. φ SV ← φ SV − Δφ φ TW ← φ TW − Δφ (Equation J)

【0049】ここで、補正情報φSVおよびφTWの値を同
量の値だけ操作するのは、これらの値の間に、(式H)
より、 φTW=φSV+φ0 VW−φ0 ST …(式K) の関係が成立しているためである。
Here, the value of the correction information φ SV and the value of φ TW are manipulated by the same amount of value because the value of (equation H) is set between these values.
Therefore, the relationship of φ TW = φ SV + φ 0 VW −φ 0 ST (Equation K) is established.

【0050】図5は、本実施形態による画像表示装置の
処理手順を説明するフローチャートである。なお、同フ
ローチャートに従ったプログラムコードは本実施形態の
装置内の不図示のRAMやROMなどのメモリ内に格納
され、不図示のCPUにより読み出され、実行される。
FIG. 5 is a flow chart for explaining the processing procedure of the image display device according to the present embodiment. The program code according to the flowchart is stored in a memory such as a RAM or a ROM (not shown) in the apparatus of the present embodiment, read by a CPU (not shown), and executed.

【0051】まず、ステップS1010において、現在
のモードが補正情報算出モードかどうかの判定を行う。
モードの切り替えは、切替え部330によって行われ
る。例えば、切替え部330は、所定のキー操作を検出
して、補正情報算出モードか通常モードのいずれが指示
されたかを判定し、その判定結果を姿勢情報出力部13
0’及び補正情報算出部310へ通知する。
First, in step S1010, it is determined whether the current mode is the correction information calculation mode.
The switching of the modes is performed by the switching unit 330. For example, the switching unit 330 detects a predetermined key operation, determines whether the correction information calculation mode or the normal mode is instructed, and the determination result is the posture information output unit 13.
0 ′ and the correction information calculation unit 310 are notified.

【0052】モードが補正情報算出モードの場合、ステ
ップS1140において、補正情報算出部310は指示
情報入力部320から指示情報が入力されているかどう
かを判定する。指示情報が入力されていない場合、補正
情報算出部310はステップS1150〜S1180で
示される処理の実行はしない。そして、処理はステップ
S1190へスキップし、姿勢情報出力部130’は、
メモリ140’から予め定めた姿勢情報を入力する。そ
して、ステップS1090において、これを視点の姿勢
情報として画像生成部150’へ出力する。
When the mode is the correction information calculation mode, in step S1140, the correction information calculation unit 310 determines whether the instruction information is input from the instruction information input unit 320. When the instruction information has not been input, the correction information calculation unit 310 does not execute the processing shown in steps S1150 to S1180. Then, the process skips to step S1190, and the posture information output unit 130 '
Predetermined posture information is input from the memory 140 '. Then, in step S1090, this is output to the image generation unit 150 ′ as viewpoint orientation information.

【0053】ステップ1100では、画像生成部15
0’が姿勢情報出力部130’から視点の姿勢情報を入
力し、これを仮想物体の描画パラメータとして設定す
る。さらに、ステップS1110において、設定された
描画パラメータを用いて仮想物体の描画を行い、CG画
像を生成する。そして、ステップ1120において、生
成されたCG画像を表示画面110へと出力する。これ
により、予め定めた姿勢にしたがった仮想物体が表示画
面110上へと表示される。この処理は、補正情報算出
モードの間繰り返し行われる。
In step 1100, the image generator 15
0'inputs the posture information of the viewpoint from the posture information output unit 130 'and sets it as the drawing parameter of the virtual object. Further, in step S1110, a virtual object is drawn using the set drawing parameters to generate a CG image. Then, in step 1120, the generated CG image is output to the display screen 110. Thus, the virtual object according to the predetermined posture is displayed on the display screen 110. This process is repeatedly performed during the correction information calculation mode.

【0054】一方、ユーザあるいはオペレータは、表示
画面110に表示された仮想物体が現実空間と正しい位
置関係になるように頭部の姿勢を調整し、一致した時点
で指示情報入力部320により指示情報の入力を行う。
これは、例えば指示情報入力320がユーザによる所定
のキー操作を検出し、その旨を補正情報算出部310に
通知するものである。
On the other hand, the user or the operator adjusts the posture of the head so that the virtual object displayed on the display screen 110 has a correct positional relationship with the real space, and when they match, the instruction information input section 320 causes the instruction information to be input. Enter.
In this, for example, the instruction information input 320 detects a predetermined key operation by the user, and notifies the correction information calculation unit 310 of that.

【0055】指示情報が入力された場合、補正情報算出
部310は、ステップS1150において、姿勢センサ
120から計測値を入力する。次に、ステップS116
0において、予め定めた姿勢および補正情報RySV(あ
るいはそれを定義する回転角φSV)をメモリ140’か
ら入力する。そして、ステップS1170において、上
述の(式F),(式G)および(式H)に従って未知の
補正情報を算出し、ステップS1180において、算出
した補正情報をメモリ140’へと出力する。
When the instruction information is input, the correction information calculation unit 310 inputs the measurement value from the attitude sensor 120 in step S1150. Next, step S116.
At 0, the predetermined posture and correction information Ry SV (or the rotation angle φ SV that defines it) is input from the memory 140 ′. Then, in step S1170, the unknown correction information is calculated according to the above-described (formula F), (formula G), and (formula H), and in step S1180, the calculated correction information is output to the memory 140 ′.

【0056】その後、切替え部330により通常モード
を設定し、不確定な補正情報であるRySVおよびRyTW
(あるいはそれらを定義する回転角φSV及びφTW)の微
調整を行なう。以下、このような微調整が可能な通常モ
ードについて説明する。
After that, the normal mode is set by the switching unit 330, and the uncertain correction information Ry SV and Ry TW are set.
(Or the rotation angles φ SV and φ TW that define them) are finely adjusted. The normal mode in which such fine adjustment is possible will be described below.

【0057】切替え部330によってモードが通常モー
ドに設定された場合、処理はステップS1010からス
テップS1020へ進む。ステップS1020において
は、修正情報入力部410から修正情報が入力されてい
るかどうかの判定が行われる。
When the mode is set to the normal mode by the switching unit 330, the process proceeds from step S1010 to step S1020. In step S1020, it is determined whether correction information is input from correction information input unit 410.

【0058】修正情報が入力されていない場合、処理は
ステップS1060へ進み、姿勢情報出力部130’
が、姿勢センサ120から計測値を入力するとともに、
ステップS1070において、メモリ140’から補正
情報を入力する。ステップS1080では、姿勢情報出
力部130’は、入力された計測値と補正情報に基づい
て、視点の姿勢を算出する。その後、ステップS109
0において、これを視点の姿勢情報として画像生成部1
50’へと出力する。
If the correction information has not been input, the process proceeds to step S1060 and the posture information output unit 130 '.
However, while inputting the measurement value from the posture sensor 120,
In step S1070, the correction information is input from the memory 140 '. In step S1080, the posture information output unit 130 'calculates the posture of the viewpoint based on the input measurement value and correction information. Then, step S109
0, the image generation unit 1 uses this as viewpoint posture information.
Output to 50 '.

【0059】画像生成部150’は、ステップS110
0において姿勢情報出力部130’から視点の姿勢情報
を入力し、ステップS1110においてこの姿勢情報に
基づいて仮想物体の描画を行ってCG画像を生成し、ス
テップ1120において生成したCG画像を表示画面1
10へと出力する。これにより、視点の姿勢にしたがっ
た仮想物体が表示画面110上へと表示される。この処
理は、通常モードの間繰り返し行われる。
The image generating section 150 'has step S110.
At 0, the posture information of the viewpoint is input from the posture information output unit 130 ′, at step S1110 a virtual object is drawn based on this posture information to generate a CG image, and at step 1120 the CG image generated is displayed on the display screen 1
Output to 10. Thereby, the virtual object according to the posture of the viewpoint is displayed on the display screen 110. This process is repeated during the normal mode.

【0060】ユーザあるいはオペレータは、頭部の姿勢
を変更した際に、表示画面110に表示された仮想物体
と現実空間とが正しく位置合わせされているかどうかを
確認し、姿勢の変化によって位置ずれが生じる場合に
は、修正情報入力部410によって修正情報を入力し、
補正情報の微調整を行う。
The user or operator confirms whether the virtual object displayed on the display screen 110 and the real space are correctly aligned when the posture of the head is changed, and the positional shift is caused by the change in the posture. If it occurs, input the correction information by the correction information input unit 410,
Fine-tune the correction information.

【0061】修正情報が入力された場合、補正情報修正
部400は以下のステップS1030〜S1050を実
行する。
When the correction information is input, the correction information correction section 400 executes the following steps S1030 to S1050.

【0062】まず、ステップS1030において、補正
情報RySVおよびRyTW(あるいはそれらを定義する回
転角φSVおよびφTW)をメモリ140’から入力する。
次に、ステップS1040において、上記の(式I)お
よび(式J)に従って補正情報の修正を行い、ステップ
S1050において、修正した補正情報をメモリ14
0’へと出力する。修正された補正情報は姿勢情報出力
部130’における姿勢の算出に直ちに反映されるの
で、ユーザあるいはオペレータは、現実空間の画像と仮
想空間の画像との融合の結果を見ながら、対話的に修正
情報を入力することが可能である。このため、正しい位
置合わせが実現されるように補正情報の微調整を、容易
に行うことができる。なお、修正情報は、所定量を増加
或は減少させるコマンドとしたが、増加量或は減少量を
指示できるようにしてもよい。
First, in step S1030, the correction information Ry SV and Ry TW (or the rotation angles φ SV and φ TW defining them) are input from the memory 140 '.
Next, in step S1040, the correction information is corrected according to the above (formula I) and (formula J), and in step S1050, the corrected correction information is stored in the memory 14
Output to 0 '. Since the corrected correction information is immediately reflected in the calculation of the posture in the posture information output unit 130 ', the user or the operator interactively corrects it while seeing the result of the fusion of the image of the real space and the image of the virtual space. It is possible to enter information. Therefore, fine adjustment of the correction information can be easily performed so that correct alignment is realized. The correction information is a command to increase or decrease the predetermined amount, but it may be possible to instruct the increase amount or the decrease amount.

【0063】尚、姿勢情報出力部130’,メモリ14
0’,画像生成部150’,補正情報算出部310,指
示情報入力部320,切替え部330,補正情報修正部
400,および修正情報入力部410は、例えば1台の
汎用コンピュータ(ノート型コンピュータ等)により構
成することが可能である。また、本実施形態では、姿勢
センサ120は例えばトキメック(株)の姿勢センサTI
SS-5-40を含んで構成したが、他の姿勢センサでももち
ろんかまわない。
The posture information output unit 130 'and the memory 14
0 ′, the image generation unit 150 ′, the correction information calculation unit 310, the instruction information input unit 320, the switching unit 330, the correction information correction unit 400, and the correction information input unit 410 are, for example, one general-purpose computer (notebook computer, etc.). ). Further, in the present embodiment, the posture sensor 120 is, for example, the posture sensor TI of Tokimec Co., Ltd.
Although it is configured to include SS-5-40, other attitude sensors may of course be used.

【0064】尚、切替え部330,指示情報入力部32
0,および修正情報入力部410による入力は、同一の
ユーザインターフェイスを介して行われることが望まし
く、例えば、キーボードや、コントロールパッドを用い
ることができる。
The switching unit 330 and the instruction information input unit 32
It is desirable that 0 and the input by the correction information input unit 410 are performed through the same user interface, and for example, a keyboard or a control pad can be used.

【0065】なお、上記実施形態は光学シースルー方式
のMRを実現するためのものであったが、光学シースル
ー方式に限定されるものではなく、ビデオシースルー方
式のMRにも適用可能である。その場合、上述の実施形
態ではユーザの視点220であった姿勢の計測対象が、
撮像装置(例えばビデオカメラ)の視点となる。また、
ビデオシースルー方式の場合、画像生成部150’は、
撮像装置が撮影した現実空間の画像にCG画像を重畳描
画し、これを表示画面110へと表示する。
Although the above-mentioned embodiment is for realizing the MR of the optical see-through system, the present invention is not limited to the optical see-through system and can be applied to the MR of the video see-through system. In that case, the measurement target of the posture that was the user's viewpoint 220 in the above embodiment is
It becomes the viewpoint of the image pickup device (for example, a video camera). Also,
In the case of the video see-through method, the image generation unit 150 ′ is
The CG image is superimposed and drawn on the image of the physical space taken by the image pickup device, and this is displayed on the display screen 110.

【0066】<変形例1>上記実施形態は、位置合わせ
の手掛りとして表示対象である仮想物体のCG画像を用
いたが、仮想空間と現実空間の位置合わせがなされてい
ることを確認するための視覚的なキューとなる幾何情報
であれば、いずれの幾何情報を用いてもよい。例えば地
形や現実のビルの形状のモデリングを行い、現実空間の
同位置にそのワイヤーフレームモデルを重畳描画するよ
うにして位置合わせを行なってもよい。なお、現実物体
のワイヤーフレームモデルと表示対象である仮想物体と
を組み合わせて表示することが可能あることは言うまで
もない。
<Modification 1> In the above embodiment, the CG image of the virtual object to be displayed is used as a clue for the alignment, but it is necessary to confirm that the alignment between the virtual space and the real space is performed. Any geometric information may be used as long as it is a visual cue. For example, the topography and the shape of the real building may be modeled, and the wire frame model may be superimposed and drawn at the same position in the real space for alignment. It goes without saying that it is possible to display the wire frame model of the physical object and the virtual object to be displayed in combination.

【0067】<変形例2>また、上記実施形態は、本発
明の画像表示装置及びその方法を、景観シミュレーショ
ンに適用したものであったが、言うまでもなく景観シミ
ュレーション以外のMRシステムにも適応可能である。
また、MRシステムに限らず、姿勢センサを用いて視点
の位置姿勢を計測する種々の用途に用いることも可能で
ある。
<Modification 2> In the above embodiment, the image display device and method of the present invention are applied to the landscape simulation, but needless to say, it is applicable to MR systems other than the landscape simulation. is there.
Further, the present invention is not limited to the MR system and can be used for various purposes of measuring the position and orientation of the viewpoint using the orientation sensor.

【0068】<変形例3>上記実施形態では、姿勢セン
サとしてトキメック(株)の姿勢センサTISS-5-40を使
用しているが、このセンサの適用に限られるものではな
い。センサ座標系の1つの軸が世界座標系に関連づけて
設定される姿勢センサであれば、いずれのセンサに対し
ても適用可能である。
<Modification 3> In the above embodiment, the attitude sensor TISS-5-40 manufactured by Tokimec Co., Ltd. is used as the attitude sensor, but the invention is not limited to this application. As long as one axis of the sensor coordinate system is set in association with the world coordinate system, it can be applied to any sensor.

【0069】<変形例4>上記実施形態では、補正情報
算出部310は、指示情報が入力された時点における姿
勢センサ120の出力をR0 STとして入力し、これを補
正情報の算出に用いた(ステップS1170)が、必ず
しも指示情報が入力された時点の姿勢センサ120の出
力をR0 STとしなくてもよい。例えば、該指示情報が入
力された時点の前後における姿勢センサ120の計測値
(例えばそれらの平均値)を用いるようにしてもよい。
或は、視点220を姿勢Ry0 VWに一定時間静止させて
おき、その間の姿勢センサ120の出力の平均値を元に
0 STを求めても良いし、視点220が姿勢Ry0 VWに位
置している際の姿勢センサ120の出力を得ることが出
来れば、いずれの方法でR0 STを取得してもよい。
<Modification 4> In the above embodiment, the correction information calculation unit 310 inputs the output of the posture sensor 120 at the time when the instruction information is input as R 0 ST , and uses this for the calculation of the correction information. In step S1170, the output of the posture sensor 120 at the time when the instruction information is input does not necessarily have to be R 0 ST . For example, the measurement values (for example, the average value thereof) of the posture sensor 120 before and after the time when the instruction information is input may be used.
Alternatively, the viewpoint 220 may be kept stationary in the posture Ry 0 VW for a certain period of time, and R 0 ST may be calculated based on the average value of the output of the posture sensor 120 during that time, or the viewpoint 220 may be positioned in the posture Ry 0 VW . R 0 ST may be acquired by any method as long as the output of the attitude sensor 120 can be obtained during the operation.

【0070】[他の実施形態]本発明の目的は、前述し
た実施形態の機能を実現するソフトウェアのプログラム
コードを記録した記憶媒体(または記録媒体)を、シス
テムあるいは装置に供給し、そのシステムあるいは装置
のコンピュータ(またはCPUやMPU)が記憶媒体に格納さ
れたプログラムコードを読み出し実行することによって
も、達成されることは言うまでもない。この場合、記憶
媒体から読み出されたプログラムコード自体が前述した
実施形態の機能を実現することになり、そのプログラム
コードを記憶した記憶媒体は本発明を構成することにな
る。また、コンピュータが読み出したプログラムコード
を実行することにより、前述した実施形態の機能が実現
されるだけでなく、そのプログラムコードの指示に基づ
き、コンピュータ上で稼働しているオペレーティングシ
ステム(OS)などが実際の処理の一部または全部を行い、
その処理によって前述した実施形態の機能が実現される
場合も含まれることは言うまでもない。
[Other Embodiments] An object of the present invention is to supply a storage medium (or recording medium) recording a program code of software for realizing the functions of the above-described embodiments to a system or apparatus, and to supply the system or apparatus with the storage medium. It is needless to say that this is also achieved by the computer (or CPU or MPU) of the device reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instructions of the program code. Do some or all of the actual processing,
It goes without saying that the processing includes the case where the functions of the above-described embodiments are realized.

【0071】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
Furthermore, after the program code read from the storage medium is written in the memory provided in the function expansion card inserted in the computer or the function expansion unit connected to the computer, based on the instruction of the program code, Needless to say, this also includes a case where a CPU or the like included in the function expansion card or the function expansion unit performs a part or all of the actual processing and the processing realizes the functions of the above-described embodiments.

【0072】本発明を上記記憶媒体に適用する場合、そ
の記憶媒体には先に説明した(図5に示す)フローチャ
ートに対応するプログラムコードが格納されることにな
る。
When the present invention is applied to the above storage medium, the storage medium stores the program code corresponding to the above-described flowchart (shown in FIG. 5).

【発明の効果】以上説明したように本発明によれば、セ
ンサ座標系におけるセンサの姿勢を世界座標系における
計測対象の姿勢に変換するための補正情報を容易に取得
することができる。
As described above, according to the present invention, it is possible to easily obtain the correction information for converting the orientation of the sensor in the sensor coordinate system into the orientation of the measurement target in the world coordinate system.

【図面の簡単な説明】[Brief description of drawings]

【図1】光学シースルー方式の複合現実感の提示を行う
一般的な画像表示装置の構成を示す図である。
FIG. 1 is a diagram illustrating a configuration of a general image display device that presents an optical see-through type mixed reality.

【図2】姿勢情報出力部130において、世界座標系2
00におけるユーザの視点220の姿勢を算出する方法
を説明する図である。
FIG. 2 shows a world coordinate system 2 in an attitude information output unit 130.
10 is a diagram illustrating a method of calculating the posture of the user's viewpoint 220 in 00. FIG.

【図3】補正情報算出部を備えた画像表示装置の構成を
示す図である。
FIG. 3 is a diagram showing a configuration of an image display device including a correction information calculation unit.

【図4】本発明の実施形態における画像表示装置の構成
を示したブロック図である。
FIG. 4 is a block diagram showing a configuration of an image display device according to an embodiment of the present invention.

【図5】本発明の実施形態による画像表示装置における
制御を説明するフローチャートである。
FIG. 5 is a flowchart illustrating control in the image display device according to the embodiment of the present invention.

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 表示画面を観察するユーザの視点の姿勢
に応じた仮想画像を当該表示画面に表示する画像表示装
置であって、 姿勢計測値を出力する姿勢センサと、 メモリに予め格納された所定の姿勢情報に基づいて前記
仮想画像を生成して、これを前記表示画面に表示する第
1表示手段と、 前記視点の姿勢と、前記所定の姿勢情報が示す姿勢とが
一致したことを示す通知がなされた場合に、前記姿勢セ
ンサからの姿勢計測値と前記所定の姿勢情報とに基づい
て補正情報を算出する算出手段と、 前記姿勢センサから得られた姿勢計測値と前記補正情報
とを用いて得られた視点の姿勢情報に基づいて仮想画像
を生成して、これを前記表示画面に表示する第2表示手
段と、 前記第2表示手段によって仮想画像を表示しながら、所
定の操作に応じて前記補正情報を修正する修正手段とを
備えることを特徴とする画像表示装置。
1. An image display device for displaying a virtual image according to a posture of a user's viewpoint observing a display screen on the display screen, wherein the posture sensor outputs a posture measurement value, and the image sensor is stored in advance in a memory. The first display means for generating the virtual image based on predetermined posture information and displaying the virtual image on the display screen indicates that the viewpoint posture matches the posture indicated by the predetermined posture information. When a notification is made, a calculation means for calculating correction information based on the posture measurement value from the posture sensor and the predetermined posture information, and a posture measurement value and the correction information obtained from the posture sensor. Second display means for generating a virtual image on the display screen based on the posture information of the viewpoint obtained by using the second display means, and a predetermined operation while displaying the virtual image by the second display means. Depending on The image display apparatus characterized by comprising a correction means for correcting a serial correction information.
【請求項2】 前記第1及び第2表示手段は、前記表示
画面に現実空間の像を光学的に投影させつつ、当該表示
画面上に仮想空間の画像を表示することを特徴とする請
求項1に記載の画像表示装置。
2. The first and second display means display an image of a virtual space on the display screen while optically projecting an image of the real space on the display screen. 1. The image display device according to 1.
【請求項3】 前記第1及び第2表示手段は、前記表示
画面上に撮像装置によって撮像された実画像に、前記仮
想画像を重畳して表示することを特徴とする請求項1に
記載の画像表示装置。
3. The first and second display means displays the virtual image by superimposing the virtual image on the real image captured by the image capturing device on the display screen. Image display device.
【請求項4】 前記算出手段は、前記指示情報が入力さ
れた時点及び/または該時点の前後における前記姿勢計
測値と、前記所定の姿勢情報に基づいて前記補正情報を
算出することを特徴とする請求項1に記載の画像表示装
置。
4. The calculation means calculates the correction information based on the posture measurement value at the time when the instruction information is input and / or before and after the time and the predetermined posture information. The image display device according to claim 1.
【請求項5】 前記姿勢センサの出力値は、センサ座標
系における当該センサ自身の姿勢を表す情報であって、 前記補正情報は、前記センサ自身の姿勢を前記視点の姿
勢に変換する第1の座標変換情報と、前記センサ座標系
における姿勢を世界座標系における姿勢へ変換する第2
の座標変換情報とを含み、 前記修正手段は、前記第1の座標変換情報のうちの方位
角に関する変換情報と前記第2の座標変換情報のうちの
方位角に関する変換情報とを同時に修正することを特徴
とする請求項1乃至4のいずれかに記載の画像表示装
置。
5. The output value of the posture sensor is information representing a posture of the sensor itself in a sensor coordinate system, and the correction information is a first posture for converting the posture of the sensor itself into the posture of the viewpoint. Second coordinate conversion information and converting the attitude in the sensor coordinate system into the attitude in the world coordinate system
The coordinate conversion information of the azimuth of the first coordinate conversion information and the conversion information of azimuth of the second coordinate conversion information are corrected at the same time. The image display device according to any one of claims 1 to 4, wherein:
【請求項6】 表示画面に現実空間を光学的に透過させ
つつ、当該表示画面を観察するユーザの視点の姿勢に応
じた仮想空間の画像を当該表示画面に表示する画像表示
方法であって、 第1のモードと第2のモードとの切替えを行う切替え工
程と、 前記第1のモードにおいては、補正情報と姿勢センサか
ら入力される3自由度の姿勢計測値に基づいて前記視点
の姿勢を算出してこれを姿勢情報として出力し、前記第
2のモードにおいては、予め定められた姿勢を前記視点
の姿勢情報として出力する姿勢情報出力工程と、 前記姿勢情報出力工程が出力する姿勢情報に基づいて前
記画像を生成する画像生成工程と、 前記視点の姿勢が前記予め定められた姿勢に一致してい
ることを指示する指示情報を入力する指示情報入力工程
と、 前記指示情報が入力された時点及び/または該時点の前
後における前記姿勢計測値と、前記予め定められた姿勢
に基づいて、前記補正情報を算出する補正情報算出工程
と、 前記補正情報を修正するための修正情報を入力する修正
情報入力工程と、 前記修正情報に応じて前記補正情報を修正する補正情報
修正工程とを備えることを特徴とする画像表示方法。
6. An image display method for displaying on a display screen an image of a virtual space according to the posture of the viewpoint of a user observing the display screen while optically transmitting the real space on the display screen, A switching step of switching between the first mode and the second mode; and in the first mode, the posture of the viewpoint is determined based on the correction information and the posture measurement value of three degrees of freedom input from the posture sensor. A posture information output step of calculating and outputting this as posture information and outputting a predetermined posture as the posture information of the viewpoint in the second mode, and a posture information output by the posture information output step An image generation step of generating the image based on the instruction information; an instruction information input step of inputting instruction information for instructing that the posture of the viewpoint matches the predetermined posture; A correction information calculating step of calculating the correction information based on the posture measurement value before and / or after the time point when the force is applied and the predetermined posture, and correction information for correcting the correction information. An image display method comprising: a correction information inputting step for inputting the correction information; and a correction information correction step for correcting the correction information according to the correction information.
【請求項7】 撮像装置によって撮像された実画像に当
該撮像装置の視点の姿勢に応じた仮想空間の画像を重畳
した重畳画像を生成し、これを表示画面に表示する画像
表示方法であって、 第1のモードと第2のモードとの切替えを行う切替え工
程と、 前記第1のモードにおいては、補正情報と姿勢センサか
ら入力される3自由度の姿勢計測値に基づいて、前記視
点の姿勢を算出してこれを姿勢情報として出力し、前記
第2のモードにおいては、予め定められた姿勢を前記視
点の姿勢情報として出力する姿勢情報出力工程と、 前記姿勢情報出力工程が出力する姿勢情報に基づいて前
記重畳画像を生成する画像生成工程と、 前記視点の姿勢が前記予め定められた姿勢に一致してい
ることを指示する指示情報を入力する指示情報入力工程
と、 前記指示情報が入力された時点及び/または該時点の前
後における前記姿勢計測値と、前記予め定められた姿勢
に基づいて、前記補正情報を算出する補正情報算出工程
と、 前記補正情報を修正するための修正情報を入力する修正
情報入力工程と、 前記修正情報に応じて前記補正情報を修正する補正情報
修正工程とを備えることを特徴とする画像表示方法。
7. An image display method for generating a superimposed image, which is obtained by superimposing an image of a virtual space according to a posture of a viewpoint of the image capturing device on a real image captured by the image capturing device, and displaying the superimposed image on a display screen. A switching step of switching between the first mode and the second mode, and in the first mode, based on the correction information and the posture measurement value of three degrees of freedom input from the posture sensor, A posture information output step of calculating a posture and outputting the posture information as posture information, and in the second mode, outputting a predetermined posture as posture information of the viewpoint, and a posture output by the posture information output step. An image generation step of generating the superimposed image based on information; an instruction information input step of inputting instruction information instructing that the posture of the viewpoint matches the predetermined posture; Correction information calculation step of calculating the correction information based on the posture measurement value at the time when the display information is input and / or before and after the time point and the predetermined posture, and for correcting the correction information An image display method comprising: a correction information input step of inputting the correction information of 1. and a correction information correction step of correcting the correction information according to the correction information.
【請求項8】 前記姿勢計測値は、センサ座標系におけ
る前記センサ自身の姿勢を表す情報であって、 前記補正情報は、前記センサ自身の姿勢を前記視点の姿
勢に変換する第1の座標変換情報と、前記センサ座標系
における姿勢を世界座標系における姿勢へ変換する第2
の座標変換情報を含み、 前記補正情報修正工程は、前記第1の座標変換情報のう
ちの方位角に関する変換情報と前記第2の座標変換情報
のうちの方位角に関する変換情報を同時に修正すること
を特徴とする請求項6または7に記載の画像表示方法。
8. The posture measurement value is information representing a posture of the sensor itself in a sensor coordinate system, and the correction information is a first coordinate transformation for converting the posture of the sensor itself into a posture of the viewpoint. Second information for converting the posture in the sensor coordinate system into the posture in the world coordinate system
The correction information correction step includes correcting the conversion information regarding the azimuth angle of the first coordinate conversion information and the conversion information regarding the azimuth angle of the second coordinate conversion information at the same time. The image display method according to claim 6 or 7.
【請求項9】 請求項5乃至7のいずれかに記載の画像
表示方法をコンピュータに実行させるためのプログラム
コードを格納し、コンピュータが読み取り可能な記憶媒
体。
9. A computer-readable storage medium that stores a program code for causing a computer to execute the image display method according to any one of claims 5 to 7.
【請求項10】 請求項5乃至7のいずれかに記載の画
像表示方法をコンピュータに実行させるための制御プロ
グラム。
10. A control program for causing a computer to execute the image display method according to claim 5.
JP2002301652A 2001-10-26 2002-10-16 Image display apparatus and method, and storage medium Expired - Fee Related JP3840171B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002301652A JP3840171B2 (en) 2001-10-26 2002-10-16 Image display apparatus and method, and storage medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001329361 2001-10-26
JP2001-329361 2001-10-26
JP2002301652A JP3840171B2 (en) 2001-10-26 2002-10-16 Image display apparatus and method, and storage medium

Publications (2)

Publication Number Publication Date
JP2003203252A true JP2003203252A (en) 2003-07-18
JP3840171B2 JP3840171B2 (en) 2006-11-01

Family

ID=27666542

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002301652A Expired - Fee Related JP3840171B2 (en) 2001-10-26 2002-10-16 Image display apparatus and method, and storage medium

Country Status (1)

Country Link
JP (1) JP3840171B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005292027A (en) * 2004-04-02 2005-10-20 Miyazaki Tlo:Kk Processor and method for measuring/restoring three-dimensional shape
CN101093581B (en) * 2006-06-23 2010-06-02 佳能株式会社 Information processing method and apparatus for calculating information regarding measurement target on the basis of captured images
US8249393B2 (en) 2008-02-05 2012-08-21 Canon Kabushiki Kaisha Image processing apparatus and image processing method
KR20190084803A (en) * 2018-01-09 2019-07-17 한국과학기술원 Furniture design apparatus displaying personalized guide information
US11656242B2 (en) 2019-09-25 2023-05-23 Canon Kabushiki Kaisha Angular velocity detection device, image display apparatus, angular velocity detection method, and storage medium
CN116962884A (en) * 2023-09-19 2023-10-27 北京凯视达科技股份有限公司 Display screen detection device, method and equipment, storage medium and electronic equipment

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016117061A1 (en) * 2015-01-22 2016-07-28 株式会社野村総合研究所 Wearable terminal and information processing system using same

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005292027A (en) * 2004-04-02 2005-10-20 Miyazaki Tlo:Kk Processor and method for measuring/restoring three-dimensional shape
CN101093581B (en) * 2006-06-23 2010-06-02 佳能株式会社 Information processing method and apparatus for calculating information regarding measurement target on the basis of captured images
US8320709B2 (en) 2006-06-23 2012-11-27 Canon Kabushiki Kaisha Information processing method and apparatus for calculating information regarding measurement target on the basis of captured images
US8249393B2 (en) 2008-02-05 2012-08-21 Canon Kabushiki Kaisha Image processing apparatus and image processing method
KR20190084803A (en) * 2018-01-09 2019-07-17 한국과학기술원 Furniture design apparatus displaying personalized guide information
KR102092374B1 (en) 2018-01-09 2020-03-23 한국과학기술원 Furniture design apparatus displaying personalized guide information
US11656242B2 (en) 2019-09-25 2023-05-23 Canon Kabushiki Kaisha Angular velocity detection device, image display apparatus, angular velocity detection method, and storage medium
CN116962884A (en) * 2023-09-19 2023-10-27 北京凯视达科技股份有限公司 Display screen detection device, method and equipment, storage medium and electronic equipment
CN116962884B (en) * 2023-09-19 2024-03-15 北京凯视达科技股份有限公司 Display screen detection device, method and equipment, storage medium and electronic equipment

Also Published As

Publication number Publication date
JP3840171B2 (en) 2006-11-01

Similar Documents

Publication Publication Date Title
JP3805231B2 (en) Image display apparatus and method, and storage medium
US7095424B2 (en) Image display apparatus and method, and storage medium
EP3343320B1 (en) Information processing apparatus, information processing system, and information processing method
US7587295B2 (en) Image processing device and method therefor and program codes, storing medium
US10353482B2 (en) Systems and methods for tracking motion and gesture of heads and eyes
US20060227211A1 (en) Method and apparatus for measuring position and orientation
JP2006285788A (en) Mixed reality information generation device and method
JP2018009836A (en) Program, head-mounted-type display device, and calibration method
US20050159916A1 (en) Information processing apparatus, and information processing method
JP2004062758A (en) Information processor and information processing method
JP2005033319A (en) Position and orientation measurement method and apparatus
US20030184602A1 (en) Information processing method and apparatus
JP4095320B2 (en) Sensor calibration device, sensor calibration method, program, storage medium
JP2003270719A (en) Projection method, projector, and method and system for supporting work
US20050078053A1 (en) Image-displaying apparatus and method for obtaining pixel data therefor
JP2005038321A (en) Head mount display device
JP2011041990A (en) Robot control apparatus and method of teaching robot
JP3840171B2 (en) Image display apparatus and method, and storage medium
JP7121523B2 (en) Image display device, image display method
JP4926598B2 (en) Information processing method and information processing apparatus
JP2017134775A (en) Image processing apparatus, image processing method, and program
JP4568050B2 (en) Camera parameter calculation calibration apparatus and camera parameter calculation calibration program
JP4810403B2 (en) Information processing apparatus and information processing method
JP2005122233A (en) Information processor and method, and storage medium
JP2004108836A (en) Azimuth angle computing method of imaging apparatus and system, attitude sensor of imaging apparatus, tilt sensor of imaging device and computer program and three-dimentional model configuration device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060421

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060714

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060804

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090811

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100811

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110811

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120811

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120811

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130811

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees