JP2002032784A - Device and method for operating virtual object - Google Patents

Device and method for operating virtual object

Info

Publication number
JP2002032784A
JP2002032784A JP2000218323A JP2000218323A JP2002032784A JP 2002032784 A JP2002032784 A JP 2002032784A JP 2000218323 A JP2000218323 A JP 2000218323A JP 2000218323 A JP2000218323 A JP 2000218323A JP 2002032784 A JP2002032784 A JP 2002032784A
Authority
JP
Japan
Prior art keywords
marker
virtual
dimensional position
image
virtual object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000218323A
Other languages
Japanese (ja)
Other versions
JP3423676B2 (en
Inventor
Shoji Tanaka
昭二 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Media Integration and Communication Research Laboratories
Original Assignee
ATR Media Integration and Communication Research Laboratories
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Media Integration and Communication Research Laboratories filed Critical ATR Media Integration and Communication Research Laboratories
Priority to JP2000218323A priority Critical patent/JP3423676B2/en
Publication of JP2002032784A publication Critical patent/JP2002032784A/en
Application granted granted Critical
Publication of JP3423676B2 publication Critical patent/JP3423676B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a virtual object operating device and a virtual object operating method which can display a virtual object in a virtual world by three- dimensional computer graphics from an optional viewpoint in a state corresponding to the operation of an object in a real world. SOLUTION: A three-dimensional position measuring instrument 2 measures the three-dimensional position of an object OB, a camera 5 photographs the marker MK of the object OB, an arithmetic processor 6 calculates the attitude of the object OB from the three-dimensional position of the object OB and the image of the marker MK and changes the display state of the virtual object in a virtual space in accordance with the three-dimensional position and attitude of the object OB.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、現実世界の対象物
を操作することにより、3次元コンピュータ・グラフィ
ックスによる仮想世界において対象物に対応付けられた
仮想対象物を操作する仮想対象物操作装置および仮想対
象物操作方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a virtual object operation apparatus for operating a virtual object associated with an object in a virtual world by three-dimensional computer graphics by operating the object in the real world. And a virtual object operation method.

【0002】[0002]

【従来の技術】近年、3次元コンピュータ・グラフィッ
クス等により提示される仮想世界と人間が実際に生きて
いる現実世界とを融合させる複合現実の研究分野におい
て種々の研究が行われている。例えば、Jun Rekimoto,
“Matrix: Realtime Object Identification and Regis
tration Method for Augmented Reality”,Proc. of AP
CHI '98やMark Billinghurst, Hirokazu Kato,“Collab
orative Mixed Reality”, ISMR '99,pp.261-284 に
は、所定のマークが印刷された板状のマーカーをカメラ
により撮影し、撮影された画像中のマーカーの位置に3
次元コンピュータ・グラフィックスにより作成された仮
想対象物を投影することが開示されている。
2. Description of the Related Art In recent years, various researches have been conducted in a mixed reality research field in which a virtual world presented by three-dimensional computer graphics and the like and a real world where humans actually live are fused. For example, Jun Rekimoto,
“Matrix: Realtime Object Identification and Regis
tration Method for Augmented Reality ”, Proc. of AP
CHI '98, Mark Billinghurst, Hirokazu Kato, “Collab
orative Mixed Reality ”, ISMR '99, pp.261-284, a plate-like marker with a predetermined mark printed is photographed by a camera, and three markers are placed at the marker position in the photographed image.
It is disclosed to project a virtual object created by three-dimensional computer graphics.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記の
文献に用いられる方法では、カメラにより撮影した画像
のみが用いられ、世界座標系が規定されていない。この
ため、カメラ座標系に投影された仮想対象物を他の任意
の視点から見る場合に、その視点に相当するカメラ座標
系を得ることができず、任意の視点から見た仮想対象物
を表示することができない。
However, in the method used in the above-mentioned document, only an image taken by a camera is used, and the world coordinate system is not specified. Therefore, when viewing the virtual object projected on the camera coordinate system from another arbitrary viewpoint, the camera coordinate system corresponding to the viewpoint cannot be obtained, and the virtual object viewed from the arbitrary viewpoint is displayed. Can not do it.

【0004】本発明の目的は、3次元コンピュータ・グ
ラフィックスによる仮想世界における仮想対象物を現実
世界の対象物の操作に応じた状態で任意の視点から表示
することができる仮想対象物操作装置および仮想対象物
操作方法を提供することである。
[0004] It is an object of the present invention to provide a virtual object operation device capable of displaying a virtual object in a virtual world by three-dimensional computer graphics from an arbitrary viewpoint in accordance with operation of an object in the real world. An object of the present invention is to provide a virtual object operation method.

【0005】[0005]

【課題を解決するための手段および発明の効果】(1)
第1の発明 第1の発明に係る仮想対象物操作装置は、現実世界の対
象物を操作することにより、3次元コンピュータ・グラ
フィックスによる仮想世界において対象物に対応付けら
れた仮想対象物を操作する仮想対象物操作装置であっ
て、対象物の3次元位置を測定する位置測定手段と、対
象物を撮影する撮影手段と、位置測定手段により測定さ
れた対象物の3次元位置および撮影手段により撮影され
た対象物の画像から対象物の姿勢を算出する姿勢算出手
段と、位置測定手段により測定された対象物の3次元位
置および姿勢算出手段により算出された対象物の姿勢に
応じて、仮想空間における仮想対象物の表示状態を変化
させる表示手段とを備えるものである。
Means for Solving the Problems and Effects of the Invention (1)
1st invention A virtual object operation device according to a 1st invention operates a virtual object associated with an object in a virtual world by three-dimensional computer graphics by operating an object in the real world. A virtual object operation device for measuring a three-dimensional position of an object, a photographing means for photographing the object, and a three-dimensional position and photographing means of the object measured by the position measuring means. A posture calculating means for calculating the posture of the object from the image of the photographed object, and a virtual three-dimensional position of the object measured by the position measuring means and the posture of the object calculated by the posture calculating means. Display means for changing the display state of the virtual object in the space.

【0006】本発明の仮想対象物操作装置においては、
対象物の3次元位置が測定されるとともに、対象物が撮
影され、対象物の3次元位置および撮影された対象物の
画像から対象物の姿勢が算出され、対象物の3次元位置
および算出された対象物の姿勢に応じて仮想空間におけ
る仮想対象物の表示状態が変化する。
In the virtual object operation device of the present invention,
The three-dimensional position of the object is measured, the object is photographed, the posture of the object is calculated from the three-dimensional position of the object and the photographed image of the object, and the three-dimensional position of the object is calculated. The display state of the virtual object in the virtual space changes according to the posture of the object.

【0007】このように、対象物の画像のみならず、対
象物の3次元位置を測定しているので、世界座標系を規
定することができ、仮想対象物を他の視点から見る場合
でも、その視点に相当するカメラ座標系を得ることがで
きる。したがって、3次元コンピュータ・グラフィック
スによる仮想世界における仮想対象物を現実世界の対象
物の操作に応じた状態で任意の視点から表示することが
できる。
As described above, since the three-dimensional position of the object as well as the image of the object is measured, the world coordinate system can be defined, and even when the virtual object is viewed from another viewpoint, A camera coordinate system corresponding to the viewpoint can be obtained. Therefore, it is possible to display a virtual object in a virtual world by three-dimensional computer graphics from an arbitrary viewpoint in accordance with an operation of an object in the real world.

【0008】(2)第2の発明 第2の発明に係る仮想対象物操作装置は、第1の発明に
係る仮想対象物操作装置の構成において、位置測定手段
は、対象物の3次元位置を無線により測定する無線位置
測定手段を含むものである。
(2) Second invention A virtual object operating device according to a second invention is a virtual object operating device according to the first invention, wherein the position measuring means determines a three-dimensional position of the object. It includes wireless position measuring means for wirelessly measuring.

【0009】この場合、無線により対象物の3次元位置
を測定することができるので、対象物の3次元位置を測
定するための配線等を対象物に設ける必要がなくなり、
配線等に邪魔されることなく、対象物を自由に操作する
ことができる。
In this case, since the three-dimensional position of the object can be measured wirelessly, it is not necessary to provide wiring or the like for measuring the three-dimensional position of the object on the object.
The object can be freely operated without being disturbed by wiring or the like.

【0010】(3)第3の発明 第3の発明に係る仮想対象物操作装置は、第2の発明に
係る仮想対象物操作装置の構成において、無線位置測定
手段は、対象物に取り付けられ、対象物を識別するため
の識別情報を無線により送信する送信手段と、送信手段
から送信される識別情報を受信する複数の受信手段とを
含むものである。
(3) Third invention A virtual object operation device according to a third invention is the virtual object operation device according to the second invention, wherein the wireless position measuring means is attached to the object. It includes a transmitting unit that wirelessly transmits identification information for identifying an object, and a plurality of receiving units that receive the identification information transmitted from the transmitting unit.

【0011】この場合、対象物に取り付けられた送信手
段により対象物を識別するための識別情報が無線により
送信され、送信された識別情報が複数の受信手段により
受信されるので、対象物から送信される識別情報を複数
の位置で受信し、受信した時間差により対象物の3次元
位置を測定することができる。
In this case, the identification information for identifying the object is transmitted wirelessly by the transmission means attached to the object, and the transmitted identification information is received by the plurality of reception means. The received identification information is received at a plurality of positions, and the three-dimensional position of the object can be measured based on the received time difference.

【0012】また、対象物を識別するための識別情報が
送信されているので、複数の対象物がある場合でも、操
作されている対象物がどの対象物であるかを特定するこ
とができる。したがって、複数の対象物を同時に操作
し、操作された各対象物に対応する仮想対象物を仮想空
間においてそれぞれ操作することができる。
Further, since the identification information for identifying the object is transmitted, even if there are a plurality of objects, it is possible to specify which object is being operated. Therefore, a plurality of objects can be operated at the same time, and virtual objects corresponding to each operated object can be operated in the virtual space.

【0013】(4)第4の発明 第4の発明に係る仮想対象物操作装置は、第1〜第3の
いずれかの発明に係る仮想対象物操作装置の構成におい
て、対象物には、紫外線により発光する蛍光材料からな
る所定形状のマーカーが取り付けられ、撮影手段は、マ
ーカーに紫外線を照射する照射手段と、照射手段により
紫外線が照射されたマーカーを撮影するマーカー撮影手
段とを含むものである。
(4) Fourth invention A virtual object operating device according to a fourth invention is the virtual object operating device according to any one of the first to third inventions, wherein the object has an ultraviolet ray. A marker having a predetermined shape made of a fluorescent material that emits light is attached, and the photographing means includes an irradiating means for irradiating the marker with ultraviolet light, and a marker photographing means for photographing the marker irradiated with the ultraviolet light by the irradiating means.

【0014】この場合、対象物に取り付けられたマーカ
ーに紫外線が照射され、紫外線により発光するマーカー
を撮像することができる。このように、紫外線によるマ
ーカー自身の発光を利用してマーカーを撮影しているの
で、対象物の底面にマーカーを取り付け、対象物をガラ
ス面の上に配置した場合でも、ガラス面への映り込みが
少なくなり、ガラス面の影響を受けることなく、暗い場
所でも、対象物の底面に取り付けられたマーカーの画像
を撮影することができる。
[0014] In this case, the marker attached to the object is irradiated with ultraviolet rays, and the marker emitting light by the ultraviolet rays can be imaged. In this way, the marker is photographed using the light emission of the marker itself due to ultraviolet rays, so even if the marker is attached to the bottom of the object and the object is placed on the glass surface, it is reflected on the glass surface The image of the marker attached to the bottom surface of the object can be captured even in a dark place without being affected by the glass surface.

【0015】(5)第5の発明 第5の発明に係る仮想対象物操作装置は、第4の発明に
係る仮想対象物操作装置の構成において、マーカーは、
その中心位置から偏在したマークを有し、姿勢算出手段
は、位置測定手段により測定された対象物の3次元位
置、マーカー撮影手段により撮影されたマーカーの画像
およびマーカー上のマークの位置から対象物の姿勢を算
出するものである。
(5) Fifth Invention A virtual object operating device according to a fifth invention is the virtual object operating device according to the fourth invention, wherein the marker is
The posture calculating means has a mark eccentrically located from the center position, and the posture calculating means calculates the object from the three-dimensional position of the object measured by the position measuring means, the image of the marker photographed by the marker photographing means, and the position of the mark on the marker. Is calculated.

【0016】この場合、マーカーの中心位置から偏在し
てマークが設けられ、対象物の3次元位置、マーカーの
画像およびマークの位置から対象物の姿勢を算出してい
るので、マーカーの形状が対象軸を有し、マーカーの形
状のみでは対象物の姿勢を完全に算出することができな
い場合でも、マーカーの中心位置から偏在したマークに
より対象物の大まかな傾きを特定することができ、対象
物の姿勢を算出することができる。
In this case, the mark is provided eccentrically from the center position of the marker, and the posture of the object is calculated from the three-dimensional position of the object, the marker image, and the position of the mark. Even if it has an axis and the posture of the object cannot be completely calculated only by the shape of the marker, the rough inclination of the object can be specified by the mark eccentric from the center position of the marker, The posture can be calculated.

【0017】(6)第6の発明 第6の発明に係る仮想対象物操作方法は、現実世界の対
象物を操作することにより、3次元コンピュータ・グラ
フィックスによる仮想世界において対象物に対応付けら
れた仮想対象物を操作する仮想対象物操作方法であっ
て、対象物の3次元位置を測定するステップと、対象物
を撮影するステップと、測定された対象物の3次元位置
および撮影された対象物の画像から対象物の姿勢を算出
するステップと、測定された対象物の3次元位置および
算出された対象物の姿勢に応じて、仮想世界における仮
想対象物の表示状態を変化させるステップとを含むもの
である。
(6) Sixth Invention The virtual object operation method according to the sixth invention is such that, by operating an object in the real world, the object is associated with the object in the virtual world by three-dimensional computer graphics. Measuring a three-dimensional position of the object, photographing the object, and measuring the three-dimensional position of the object and the photographed object. Calculating a posture of the object from the image of the object, and changing a display state of the virtual object in the virtual world according to the measured three-dimensional position of the object and the calculated posture of the object. Including.

【0018】本発明に係る仮想対象物操作方法において
は、対象物の3次元位置が測定されるとともに、対象物
が撮影され、対象物の3次元位置および撮影された対象
物の画像から対象物の姿勢が算出され、対象物の3次元
位置および算出された対象物の姿勢に応じて仮想空間に
おける仮想対象物の表示状態が変化される。
In the virtual object operation method according to the present invention, the three-dimensional position of the object is measured, the object is photographed, and the object is obtained from the three-dimensional position of the object and the photographed image of the object. Is calculated, and the display state of the virtual object in the virtual space is changed according to the three-dimensional position of the object and the calculated posture of the object.

【0019】このように、対象物の画像のみならず、対
象物の3次元位置を測定しているので、世界座標系を規
定することができ、仮想対象物を他の視点から見る場合
でも、その視点に相当するカメラ座標系を得ることがで
きる。したがって、3次元コンピュータ・グラフィック
スによる仮想世界における仮想対象物を現実世界の対象
物の操作に応じた状態で任意の視点から表示することが
できる。
As described above, since the three-dimensional position of the object as well as the image of the object is measured, the world coordinate system can be defined, and even when the virtual object is viewed from another viewpoint, A camera coordinate system corresponding to the viewpoint can be obtained. Therefore, it is possible to display a virtual object in a virtual world by three-dimensional computer graphics from an arbitrary viewpoint in accordance with an operation of an object in the real world.

【0020】[0020]

【発明の実施の形態】以下、本発明の実施の形態による
仮想対象物操作装置について図面を参照しながら説明す
る。図1は、本発明の一実施の形態による仮想対象物操
作装置の構成を示すブロック図である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a virtual object operation device according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a virtual object operation device according to an embodiment of the present invention.

【0021】図1に示す仮想対象物操作装置は、発信器
1、3次元位置測定装置2、I/F(インタフェース)
部3、ブラックライト4、カメラ5、演算処理装置6、
入力部7、ROM(リードオンリメモリ)8、RAM
(ランダムアクセスメモリ)9、記憶装置10および表
示部11を備える。
The virtual object operating device shown in FIG. 1 includes a transmitter 1, a three-dimensional position measuring device 2, an I / F (interface).
Unit 3, black light 4, camera 5, arithmetic processing unit 6,
Input unit 7, ROM (read only memory) 8, RAM
(Random access memory) 9, storage device 10 and display unit 11.

【0022】図2は、現実世界の対象物と3次元位置測
定装置およびカメラ等との位置関係を示す概略斜視図で
あり、図3は、現実世界の対象物とマーカー等との位置
関係を示す概略斜視図である。
FIG. 2 is a schematic perspective view showing the positional relationship between an object in the real world and a three-dimensional position measuring device, a camera and the like. FIG. 3 shows the positional relationship between the object in the real world and a marker and the like. It is a schematic perspective view shown.

【0023】図1および図2に示すように、テーブルT
Bの上にガラス板GPが取り付けられ、ガラス板GPの
上に現実世界の対象物OBが配置される。対象物OB
は、例えば、積み木のような形状を有する高さOHの六
面体からなり(図3参照)、ユーザは、対象物OBを把
持して対象物OBを移動および回転等させて種々の操作
を行うことができる。
As shown in FIGS. 1 and 2, the table T
A glass plate GP is mounted on B, and a real-world object OB is arranged on the glass plate GP. Object OB
Consists of, for example, a hexahedron of a height OH having a shape like a building block (see FIG. 3), and a user performs various operations by gripping the object OB and moving and rotating the object OB. Can be.

【0024】対象物OBの上面には発信器1が取り付け
られている。発信器1は、対象物OBを特定するための
識別情報であるID情報を超音波により無線で3次元位
置測定装置2へ送信する。
A transmitter 1 is mounted on the upper surface of the object OB. The transmitter 1 wirelessly transmits ID information, which is identification information for specifying the object OB, to the three-dimensional position measuring device 2 by ultrasonic waves.

【0025】発信器1の上方には、超音波センサからな
る4個のセンサー部2a(図2参照)を有する略十字形
状の3次元位置測定装置2が設置されている。3次元位
置測定装置2は、発信器1から送信されるID情報を4
個のセンサー部2aにより受信し、各センサー部2aが
ID情報を受信した時間差により発信器1の位置すなわ
ち対象物OBの3次元位置を計測する。
Above the transmitter 1, a substantially cross-shaped three-dimensional position measuring device 2 having four sensor units 2a (see FIG. 2) composed of ultrasonic sensors is installed. The three-dimensional position measuring device 2 transmits the ID information transmitted from the transmitter 1 to 4
The position of the transmitter 1, that is, the three-dimensional position of the object OB, is measured by the time difference between the reception of the ID information and the reception of the ID information by the sensor units 2 a.

【0026】上記のように、対象物OBを識別するため
のID情報が送信されているので、対象物が複数ある場
合でも、操作されている対象物がどの対象物であるかを
特定することができる。したがって、複数の対象物を同
時に操作し、操作された各対象物に対応する仮想対象物
を仮想空間においてそれぞれ操作することができる。
Since the ID information for identifying the object OB is transmitted as described above, even if there are a plurality of objects, it is possible to specify which object is being operated. Can be. Therefore, a plurality of objects can be operated at the same time, and virtual objects corresponding to each operated object can be operated in the virtual space.

【0027】また、対象物OBの底面には一片の長さが
2HSの正方形のマーカーMKが取り付けられ(図3参
照)、テーブルTBの底部にカメラ5が取り付けられて
いる。カメラ5の両側にマーカーMKに紫外線を照射す
るためのブラックライト4が配置され、マーカーMK
は、ブラックライト4により下方から紫外線を照射され
る。
A square marker MK having a length of 2 HS is attached to the bottom of the object OB (see FIG. 3), and a camera 5 is attached to the bottom of the table TB. A black light 4 for irradiating the marker MK with ultraviolet light is arranged on both sides of the camera 5.
Are irradiated with ultraviolet rays from below by the black light 4.

【0028】マーカーMKは、紫外線により発光する蛍
光塗料、蛍光樹脂等を用いた蛍光板からなり、紫外線の
照射によりマーカー自身が発光する。また、マーカーM
Kにはその中心から偏在した位置にマークMAが設けら
れ(図3参照)、マークMAは紫外線により発光しな
い。カメラ5は、発光しているマーカーMKの画像を撮
影し、マーカーMKのうちマークMAを除く部分が発光
している画像が撮影される。
The marker MK is composed of a fluorescent plate using a fluorescent paint or a fluorescent resin which emits light by ultraviolet rays, and the marker itself emits light when irradiated with ultraviolet rays. Marker M
A mark MA is provided at a position deviated from the center of K (see FIG. 3), and the mark MA does not emit light due to ultraviolet rays. The camera 5 captures an image of the marker MK that emits light, and captures an image of the marker MK that emits light except for the mark MA.

【0029】ここで、装置の上方から通常の可視光によ
る照明が当てられる場合、対象物OBの底面にマーカー
MKを取り付けたのでは、マーカーMKが照明に対して
影となり、テーブルTBの底部からカメラ5により画像
を撮影しにくくなる。しかしながら、本実施の形態で
は、それ自身があまり発光しないブラックライト4によ
り紫外線を発生させ、紫外線により発光するマーカーM
Kを撮影しているので、ガラス面に照明が映り込むこと
がなく、テーブルTBの内部が暗い場合でも、明瞭にマ
ーカーMKの画像を撮影することができる。
Here, in the case where illumination by ordinary visible light is applied from above the apparatus, if the marker MK is attached to the bottom surface of the object OB, the marker MK becomes a shadow with respect to the illumination, and the marker MK is shaded from the bottom of the table TB. It becomes difficult to take an image with the camera 5. However, in the present embodiment, the ultraviolet light is generated by the black light 4 which does not emit much light, and the marker M which emits light by the ultraviolet light is used.
Since the image of K is taken, no illumination is reflected on the glass surface, and the image of the marker MK can be taken clearly even when the inside of the table TB is dark.

【0030】また、本実施の形態では、上記のように紫
外線によりマーカーMKを撮影するとともに、超音波に
より対象物OBの3次元位置を測定しているので、本装
置が暗い場所に設置された場合も、対象物OBの3次元
位置を測定することができるとともに、マーカーMKの
画像を明瞭に捕らえることができる。
Further, in this embodiment, since the marker MK is photographed by ultraviolet rays and the three-dimensional position of the object OB is measured by ultrasonic waves as described above, the apparatus is installed in a dark place. Also in this case, the three-dimensional position of the object OB can be measured, and the image of the marker MK can be clearly captured.

【0031】さらに、対象物OBの3次元位置を無線に
より得ることができるため、3次元位置の測定等のため
の配線等を対象物OBに設ける必要がなくなり、自然な
状態で対象物OBを自由に操作することができる。した
がって、特殊な操作方法を習得することなく、かつ、配
線等による使用時の煩雑さを感じることなく、対象物O
Bを容易に操作することができる。
Further, since the three-dimensional position of the object OB can be obtained wirelessly, it is not necessary to provide a wiring or the like for measuring the three-dimensional position on the object OB, and the object OB can be obtained in a natural state. Can be operated freely. Therefore, the object O can be used without learning a special operation method and without having to use the wiring or the like to complicate the operation.
B can be easily operated.

【0032】なお、現実世界の対象物OBの3次元位置
を測定する位置測定手段は、上記の例に特に限定され
ず、対象物OBの3次元位置を無線により検出すること
ができるものであれば、他の3次元位置測定装置を用い
てもよい。
The position measuring means for measuring the three-dimensional position of the object OB in the real world is not particularly limited to the above example, but may be any one capable of wirelessly detecting the three-dimensional position of the object OB. For example, another three-dimensional position measuring device may be used.

【0033】図1に示すように、3次元位置測定装置2
は、計測した対象物OBの3次元位置をI/F部3を介
して演算処理装置6へ出力する。カメラ5は、撮影した
マーカーMKの画像をI/F部3を介して演算処理装置
6へ出力する。
As shown in FIG. 1, a three-dimensional position measuring device 2
Outputs the measured three-dimensional position of the object OB to the arithmetic processing unit 6 via the I / F unit 3. The camera 5 outputs the captured image of the marker MK to the arithmetic processing device 6 via the I / F unit 3.

【0034】入力部7は、キーボード、マウス等から構
成され、ユーザが所望の入力を行うために用いられる。
The input unit 7 includes a keyboard, a mouse, and the like, and is used by a user to perform a desired input.

【0035】ROM8には、種々のプログラムが予め記
憶され、後述する仮想対象物操作処理を実行するための
仮想対象物操作処理プログラムが予め記憶されている。
RAM9は、演算処理装置6が種々の処理を実行すると
きのワーク領域として用いられる。記憶装置10は、ハ
ードディスクドライブ等から構成され、演算処理装置6
により実行される種々のプログラムを記憶したり、必要
なデータ等を記憶する。
Various programs are stored in the ROM 8 in advance, and a virtual object operation processing program for executing a virtual object operation process described later is stored in advance.
The RAM 9 is used as a work area when the arithmetic processing device 6 executes various processes. The storage device 10 includes a hard disk drive and the like,
Stores various programs to be executed, and necessary data and the like.

【0036】演算処理装置6は、CPU(中央演算処理
装置)等から構成され、ROM8に予め記憶された仮想
対象物操作処理プログラムをRAM9等を用いて実行す
ることにより、画像切り出し部61、対象物切り出し部
62、主軸取得部63、回転角取得部64および仮想対
象物描画部65の各機能を実行する。
The arithmetic processing unit 6 comprises a CPU (central processing unit) and the like, and executes a virtual object operation processing program stored in advance in the ROM 8 by using the RAM 9 and the like, whereby the image cutout unit 61 and the object The functions of the object cutout unit 62, the main axis acquisition unit 63, the rotation angle acquisition unit 64, and the virtual object drawing unit 65 are executed.

【0037】画像切り出し部61は、カメラ5により撮
影された画像からマーカーMKを含む画像を切り出す。
対象物切り出し部62は、切り出されたマーカーの画像
からマーカーMKを特定する。主軸取得部63は、特定
されたマーカーMKの中心座標および対象物OBの3次
元位置等を用いて対象物OBの主軸ベクトルを算出す
る。回転角取得部64は、算出した対象物OBの主軸ベ
クトルに対する対象物OBの回転角を取得する。仮想対
象物描画部65は、対象物OBの3次元位置と対象物O
Bの姿勢を表す主軸ベクトルおよび回転角とを用いて対
象物OBに対応する仮想対象物を3次元コンピュータ・
グラフィックスによる仮想空間に描画するためのデータ
を作成し、表示部11へ出力する。
The image cutout section 61 cuts out an image including the marker MK from the image taken by the camera 5.
The target cutout unit 62 specifies the marker MK from the cutout image of the marker. The main axis acquisition unit 63 calculates the main axis vector of the target object OB using the specified center coordinates of the marker MK, the three-dimensional position of the target object OB, and the like. The rotation angle acquisition unit 64 acquires the calculated rotation angle of the object OB with respect to the principal axis vector of the object OB. The virtual object drawing unit 65 determines the three-dimensional position of the object OB and the object O
A virtual object corresponding to the object OB is obtained by using the main axis vector representing the posture of B and the rotation angle.
Data for drawing in a virtual space by graphics is created and output to the display unit 11.

【0038】表示部11は、CRT(陰極線管)、液晶
表示パネル等から構成され、演算処理装置6の制御に従
い、3次元コンピュータ・グラフィックスによる仮想世
界を表示するとともに、対象物OBの3次元位置および
姿勢に応じて仮想世界の中の仮想対象物の表示状態を変
化させる。
The display unit 11 comprises a CRT (cathode ray tube), a liquid crystal display panel, etc., displays a virtual world by three-dimensional computer graphics according to the control of the arithmetic processing unit 6, and displays a three-dimensional image of the object OB. The display state of the virtual object in the virtual world is changed according to the position and the posture.

【0039】上記の構成により、ユーザが実際に対象物
OBを操作して3次元的に対象物OBの位置および姿勢
を変化させると、表示部11に表示される3次元コンピ
ュータ・グラフィックスによる仮想空間内の仮想対象物
の3次元的な位置および姿勢が変化した状態で表示さ
れ、現実世界の対象物OBを操作することにより、仮想
空間において仮想対象物を操作することができる。この
ように、例えば、都市の景観シミュレーション、3次元
コンピュータ・グラフィックスのレイアウト作業等に、
本実施の形態の仮想対象物操作装置を応用することがで
きる。
According to the above configuration, when the user actually operates the object OB to change the position and orientation of the object OB three-dimensionally, the virtual object based on the three-dimensional computer graphics displayed on the display unit 11 is displayed. The virtual object is displayed in a state where the three-dimensional position and orientation of the virtual object in the space are changed, and the virtual object can be operated in the virtual space by operating the object OB in the real world. In this way, for example, for city landscape simulation, 3D computer graphics layout work, etc.
The virtual object operation device according to the present embodiment can be applied.

【0040】本実施の形態において、発信器1および3
次元位置測定装置2が位置測定手段および無線位置測定
手段に相当し、ブラックライト4およびカメラ5が撮影
手段に相当し、画像切り出し部61、対象物切り出し部
62、主軸取得部63および回転角取得部64が姿勢算
出手段に相当し、仮想対象物描画部65および表示部1
1が表示手段に相当する。また、発信器1が送信手段に
相当し、3次元位置測定装置2が受信手段に相当し、ブ
ラックライト4が照射手段に相当し、カメラ5がマーカ
ー撮影手段に相当する。
In this embodiment, the transmitters 1 and 3
The two-dimensional position measuring device 2 corresponds to a position measuring unit and a wireless position measuring unit, and the black light 4 and the camera 5 correspond to a photographing unit. The unit 64 corresponds to a posture calculating unit, and the virtual object drawing unit 65 and the display unit 1
1 corresponds to the display means. Further, the transmitter 1 corresponds to a transmitting unit, the three-dimensional position measuring device 2 corresponds to a receiving unit, the black light 4 corresponds to an irradiating unit, and the camera 5 corresponds to a marker photographing unit.

【0041】なお、本実施の形態の仮想対象物操作装置
は、専用のハードウエアを用いて実現することもできる
が、発信器1、3次元位置測定装置2、ブラックライト
4およびカメラ5を除き、例えば、パーソナルコンピュ
ータ、ワークステーション等と仮想対象物操作処理プロ
グラムとにより実現することもできる。
Note that the virtual object operation device of the present embodiment can be realized using dedicated hardware, except for the transmitter 1, the three-dimensional position measuring device 2, the black light 4, and the camera 5. For example, it can be realized by a personal computer, a workstation, or the like, and a virtual object operation processing program.

【0042】次に、上記のように構成された仮想対象物
操作装置による仮想対象物操作処理について説明する。
図4は、図1に示す仮想対象物操作装置の演算処理装置
6により実行される仮想対象物操作処理を説明するため
のフローチャートである。
Next, the virtual object operation processing by the virtual object operation device configured as described above will be described.
FIG. 4 is a flowchart for explaining a virtual object operation process executed by the arithmetic processing unit 6 of the virtual object operation device shown in FIG.

【0043】なお、以下の各ステップのうち、ステップ
S1〜S4は、画像切り出し部61の機能として実行さ
れる処理であり、ステップS5,S6は、対象物切り出
し部62の機能として実行される処理であり、ステップ
S7は、主軸取得部63の機能として実行される処理で
あり、ステップS8は、回転角取得部64の機能として
実行される処理であり、ステップS9は、仮想対象物描
画部65の機能として実行される処理である。
Of the following steps, steps S1 to S4 are processes executed as functions of the image cutout unit 61, and steps S5 and S6 are processes executed as functions of the object cutout unit 62. Step S7 is a process executed as a function of the spindle acquisition unit 63, step S8 is a process executed as a function of the rotation angle acquisition unit 64, and step S9 is a process executed by the virtual object drawing unit 65. This is a process executed as a function of.

【0044】まず、ステップS1において、演算処理装
置6は、3次元位置測定装置2により計測された対象物
OBの3次元位置を示すデータをI/F部3を介して入
力され、対象物OBの3次元位置が計測される。
First, in step S1, the arithmetic processing unit 6 receives data indicating the three-dimensional position of the object OB measured by the three-dimensional position measuring device 2 via the I / F unit 3, and inputs the data to the object OB. Are measured.

【0045】次に、ステップS2において、演算処理装
置6は、計測された対象物OBの3次元位置からマーカ
ーMK上の既知な点の3次元位置を推定する。具体的に
は、図3に示すように、マーカーMKの形状が正方形の
場合、マーカーMKの頂点C1,C2,C3,C4の座
標は、計測した対象物OBの3次元位置すなわち発信器
1の座標を(X,Y,Z)とすると、以下の式により求
めることができる。
Next, in step S2, the arithmetic processing unit 6 estimates the three-dimensional position of a known point on the marker MK from the measured three-dimensional position of the object OB. Specifically, as shown in FIG. 3, when the shape of the marker MK is a square, the coordinates of the vertices C1, C2, C3, and C4 of the marker MK are the three-dimensional position of the measured object OB, that is, the position of the transmitter 1. Assuming that the coordinates are (X, Y, Z), the coordinates can be obtained by the following equation.

【0046】 C1=[X−HS,Y+HS,Z−OH] …(1) C2=[X+HS,Y+HS,Z−OH] …(2) C3=[X−HS,Y−HS,Z−OH] …(3) C4=[X+HS,Y−HS,Z−OH] …(4) ここで、HSはマーカーMKの一片の長さの2分の1で
あり、OHは対象物OBの高さである。
C1 = [X-HS, Y + HS, Z-OH] (1) C2 = [X + HS, Y + HS, Z-OH] (2) C3 = [X-HS, Y-HS, Z-OH] (3) C4 = [X + HS, Y-HS, Z-OH] (4) Here, HS is half the length of one piece of the marker MK, and OH is the height of the object OB. is there.

【0047】次に、ステップS3において、演算処理装
置6は、推定した点を射影行列を用いてカメラ画像上の
点に変換する。具体的には、上式で求めたマーカーMK
の頂点C1,C2,C3,C4の座標をカメラ5により
撮影したカメラ画像の座標へ変換する。この3次元座標
からカメラ画像の座標への変換は、次式を用い、式1〜
式4で求めたマーカーMKの頂点C1,C2,C3,C
4のカメラ画像上での座標を求める。
Next, in step S3, the arithmetic processing unit 6 converts the estimated points into points on the camera image using the projection matrix. Specifically, the marker MK obtained by the above equation
Of the vertices C1, C2, C3, and C4 are converted into coordinates of a camera image taken by the camera 5. The conversion from the three-dimensional coordinates to the coordinates of the camera image is performed using the following equations,
Vertices C1, C2, C3, C of marker MK obtained by equation (4)
4 are obtained on the camera image.

【0048】[0048]

【数1】 (Equation 1)

【0049】ここで、[x,y]はカメラ画像の座標で
あり、[X,Y,Z]は3次元座標であり、sはスカラ
ーであり、Pは射影行列であり、カメラ校正により得ら
れるカメラの内部・外部変数である。なお、この点に関
しては、徐剛、辻三郎、“3次元ビジョン”、共立出版
に詳述されている。
Here, [x, y] are the coordinates of the camera image, [X, Y, Z] are three-dimensional coordinates, s is a scalar, P is a projection matrix, and is obtained by camera calibration. Internal and external variables of the camera being used. This point is described in detail in Xu Go and Saburo Tsuji, "3D Vision", Kyoritsu Shuppan.

【0050】次に、ステップS4において、演算処理装
置6は、変換された点を基にマーカーMKを包含する画
像を切り出す。具体的には、ステップS3で求めたカメ
ラ画像上のマーカーMKの頂点からカメラ画像上でのマ
ーカーMKの暫定的な外接矩形を求め、この外接矩形の
画像を切り出す。ここで、現時点では、現実世界の対象
物OBの姿勢は未知であり、上記で求めた外接矩形内に
マーカーMK全体が含まれていない可能性もあるので、
外接矩形を十分に拡大した領域をカメラ画像から切り出
す。
Next, in step S4, the arithmetic processing unit 6 cuts out an image including the marker MK based on the converted points. Specifically, a temporary circumscribed rectangle of the marker MK on the camera image is obtained from the vertex of the marker MK on the camera image obtained in step S3, and the image of this circumscribed rectangle is cut out. Here, at this time, the posture of the object OB in the real world is unknown, and there is a possibility that the entire circumscribed rectangle obtained above does not include the entire marker MK.
A region where the circumscribed rectangle is sufficiently enlarged is cut out from the camera image.

【0051】また、このとき、外接矩形の辺の長さLを
求める。外接矩形の辺の長さLは、例えば、マーカーM
Kの頂点C1のカメラ画像上での座標と頂点C2のカメ
ラ画像上での座標との距離を求めることにより得ること
ができる。
At this time, the length L of the side of the circumscribed rectangle is obtained. The length L of the side of the circumscribed rectangle is, for example, the marker M
It can be obtained by calculating the distance between the coordinates of the vertex C1 of K on the camera image and the coordinates of the vertex C2 on the camera image.

【0052】次に、ステップS5において、演算処理装
置6は、切り出された画像からマーカーMKに対応する
マーカー領域を特定するマーカー領域特定処理を実行す
る。図5は、図4に示すマーカー領域特定処理を説明す
るためのフローチャートである。
Next, in step S5, the arithmetic processing unit 6 executes a marker area specifying process for specifying a marker area corresponding to the marker MK from the cut-out image. FIG. 5 is a flowchart for explaining the marker area specifying process shown in FIG.

【0053】図5に示すように、マーカー領域特定処理
では、まず、ステップS11において、演算処理装置6
は、ステップS4で切り出された画像を二値化する。
As shown in FIG. 5, in the marker area specifying process, first, in step S11, the arithmetic processing unit 6
Converts the image cut out in step S4 into a binary value.

【0054】次に、ステップS12において、演算処理
装置6は、切り出した画像からマーカーMKに対応する
可能性のある領域を抽出し、抽出された領域の外接矩形
の面積Rを求める。
Next, in step S12, the arithmetic processing unit 6 extracts a region that may correspond to the marker MK from the cut-out image, and obtains an area R of a circumscribed rectangle of the extracted region.

【0055】次に、ステップS13において、演算処理
装置6は、抽出された領域の外接矩形の中心と切り出し
た画像の中心との距離を求める。
Next, in step S13, the arithmetic processing unit 6 obtains the distance between the center of the circumscribed rectangle of the extracted area and the center of the extracted image.

【0056】次に、ステップS14において、演算処理
装置6は、ステップS12で求めた外接矩形の面積が所
定の範囲内、例えば、S1<R<S2の条件を満たすか
否かを判断し、S1<R<S2の条件を満たす場合はス
テップS15へ移行し、S1<R<S2の条件を満たさ
ない場合は、画像内の次の領域に対して処理を継続する
ため、ステップS12へ移行する。
Next, in step S14, the arithmetic processing unit 6 determines whether or not the area of the circumscribed rectangle obtained in step S12 is within a predetermined range, for example, whether the condition of S1 <R <S2 is satisfied. If the condition of <R <S2 is satisfied, the process proceeds to step S15. If the condition of S1 <R <S2 is not satisfied, the process proceeds to step S12 to continue the process on the next region in the image.

【0057】ここで、S1=MS・k1(k1<1.
0)であり、S2=MS・k2(k2>1.0)であ
り、MSはステップS4で求めた外接矩形の面積であ
り、k1,k2は上記の不等式を満たす所定の係数であ
る。
Here, S1 = MS · k1 (k1 <1.
0), S2 = MS · k2 (k2> 1.0), MS is the area of the circumscribed rectangle obtained in step S4, and k1 and k2 are predetermined coefficients that satisfy the above inequality.

【0058】S1<R<S2の条件を満たす場合、ステ
ップS15において、演算処理装置6は、ステップS1
3で求めた外接矩形の中心と画像中心との距離を記憶す
る。
If the condition of S1 <R <S2 is satisfied, in step S15, the processing unit 6
The distance between the center of the circumscribed rectangle and the center of the image obtained in step 3 is stored.

【0059】次に、ステップS16において、演算処理
装置6は、画像内の全ての領域に対して上記の処理を行
ったか否かを判断し、全ての領域に対して上記の処理が
終了した場合はステップS17へ移行し、全ての領域に
対して上記の処理が終了していない場合は、画像内の次
の領域に対して以降の処理を継続するため、ステップS
12へ移行する。
Next, in step S16, the arithmetic processing unit 6 determines whether or not the above processing has been performed on all the areas in the image, and when the above processing has been completed on all the areas. The process proceeds to step S17. If the above processing has not been completed for all the areas, the subsequent processing is continued for the next area in the image.
Move to 12.

【0060】画像内の全ての領域に対して上記の処理が
終了した場合、ステップS17において、演算処理装置
6は、ステップS15で記憶した距離を並べ替え、距離
が最小となる領域をマーカー領域として特定し、図4に
示すステップS6へ移行する。なお、上記の条件を満た
す領域が見つからない場合は、認識失敗として、後述す
る処理による対象物OBの姿勢は求めないものとする。
When the above processing is completed for all the areas in the image, in step S17, the arithmetic processing unit 6 rearranges the distances stored in step S15, and sets the area having the minimum distance as a marker area. Then, the process proceeds to step S6 shown in FIG. If an area that satisfies the above condition is not found, it is determined that the recognition has failed, and the posture of the target object OB by the processing described later is not determined.

【0061】次に、再び図4に戻り、ステップS6にお
いて、演算処理装置6は、特定したマーカー領域からマ
ーカーMKの既知な点の画像上の位置を特定するマーカ
ー頂点特定処理を実行する。図6は、図4に示すマーカ
ー頂点特定処理を説明するためのフローチャートであ
る。
Next, returning to FIG. 4 again, in step S6, the arithmetic processing unit 6 executes a marker vertex specifying process for specifying a position on the image of a known point of the marker MK from the specified marker region. FIG. 6 is a flowchart for explaining the marker vertex specifying process shown in FIG.

【0062】図6に示すように、マーカー頂点特定処理
では、まず、ステップS21において、演算処理装置6
は、Perimeterオペレータを切り出した画像に
施すことにより、特定したマーカー領域の外周の稜線を
抽出する。
As shown in FIG. 6, in the marker vertex specifying process, first, in step S21, the arithmetic processing unit 6
Extracts a ridgeline on the outer periphery of the specified marker area by applying a Perimeter operator to the cut image.

【0063】例えば、マーカー領域として特定した領域
の二値画像が図7に示す画像である場合、この画像にP
erimeterオペレータを適用すると、図8に示す
ような画像となる。すなわち、図7の画像の場合、白色
の領域MKIがマーカーMKに対応する領域であり、そ
の内側のハッチング領域MAIがマークMAに対応する
領域であり、この画像にPerimeterオペレータ
を適用すると、図8に示すように、2つの稜線MKR,
MARが抽出される。このようにして求めた稜線のうち
外側の稜線MKRをマーカーMKの外周の稜線として抽
出する。
For example, if the binary image of the area specified as the marker area is the image shown in FIG.
When the elimeter operator is applied, an image as shown in FIG. 8 is obtained. That is, in the case of the image of FIG. 7, the white area MKI is an area corresponding to the marker MK, and the hatched area MAI inside thereof is an area corresponding to the mark MA. When the Perimeter operator is applied to this image, FIG. , Two ridge lines MKR,
The MAR is extracted. Outer ridge lines MKR among the ridge lines obtained in this way are extracted as outer ridge lines of the marker MK.

【0064】次に、ステップS22において、演算処理
装置6は、抽出した稜線をハフ変換する。すなわち、図
9に示すように、マーカー領域MKIの画像の中心を原
点、画像の上方向をy軸、画像の右方向をx軸と定め、
定めた座標系における外周画素の座標を求め、求めた座
標をハフ変換する。
Next, in step S22, the arithmetic processing unit 6 performs Hough transform on the extracted ridge line. That is, as shown in FIG. 9, the center of the image of the marker area MKI is defined as the origin, the upward direction of the image is defined as the y-axis, and the right direction of the image is defined as the x-axis.
The coordinates of the outer peripheral pixels in the determined coordinate system are obtained, and the obtained coordinates are Hough-transformed.

【0065】ここで、ハフ変換では、xy空間の直線を
下式により表現し、直線上の点の座標をρθのパラメー
タ空間に写像する。
Here, in the Hough transform, a straight line in the xy space is expressed by the following equation, and the coordinates of points on the straight line are mapped to the parameter space of ρθ.

【0066】xsinθ+ycosθ=ρ …(6) そして、パラメータ空間を細かいセルに分割し、それぞ
れのセルを通る点の数を記録し、セルを通る点の数の多
いセルを見つけ、そのセルに対応するパラメータにより
xy空間上の直線を特定することができる。
Xsin θ + ycos θ = ρ (6) Then, the parameter space is divided into small cells, the number of points passing through each cell is recorded, a cell having a large number of points passing through the cell is found, and the cell corresponding to the cell is found. A straight line on the xy space can be specified by the parameter.

【0067】次に、ステップS23において、演算処理
装置6は、ハフ変換の結果から直線成分を表す極大点を
求める。本実施の形態では、マーカーMKが正方形であ
るため、直線の数は4つになる。したがって、外周の点
をハフ変換によりρθ空間に写像すると、図10に示す
ような4つの極大点(図中の白丸)が求まる。
Next, in step S23, the arithmetic processing unit 6 obtains a local maximum point representing a linear component from the result of the Hough transform. In the present embodiment, since the marker MK is a square, the number of straight lines is four. Therefore, when the outer peripheral points are mapped to the ρθ space by the Hough transform, four maximum points (white circles in the figure) as shown in FIG. 10 are obtained.

【0068】次に、ステップS24において、演算処理
装置6は、求めた4つの極大点から平行な直線を特定す
る。具体的には、4つの極大点から下記の4つの直線方
程式を求める。
Next, in step S24, the arithmetic processing unit 6 specifies a parallel straight line from the obtained four maximum points. Specifically, the following four linear equations are obtained from the four maximum points.

【0069】 xsinθ1+ycosθ1=ρ1 …(7) xsinθ2+ycosθ2=ρ2 …(8) xsinθ3+ycosθ3=ρ3 …(9) xsinθ4+ycosθ4=ρ4 …(10) ここで、上記の4つの直線のうち2組の直線がほぼ平行
な直線であるため、上記のθ1を基準にし、θ1との差
が最も小さいものを見つけることにより、式7の直線に
平行な直線を特定する。
Xsinθ1 + ycosθ1 = ρ1 (7) xsinθ2 + ycosθ2 = ρ2 (8) xsinθ3 + ycosθ3 = ρ3 (9) xsinθ4 + ycosθ4 = ρ4 (10) Here, two straight lines of the above four straight lines are almost parallel. Therefore, a straight line parallel to the straight line of Expression 7 is specified by finding the one with the smallest difference from θ1 based on the above θ1.

【0070】次に、ステップS25において、演算処理
装置6は、特定した平行な直線からマーカーMKの頂点
を求める。すなわち、ステップS24により平行な直線
の組み合わせがわかっているので、式7の直線と平行で
ない2つの直線の方程式から2頂点の座標を求め、ま
た、式7の直線と平行な直線とから同様に別の2頂点の
座標を求め、図4に示すステップS7へ移行する。
Next, in step S25, the arithmetic processing unit 6 obtains a vertex of the marker MK from the specified parallel straight line. That is, since the combination of the parallel straight lines is known in step S24, the coordinates of the two vertices are obtained from the equation of the two straight lines that are not parallel to the straight line of Expression 7, and the coordinates of the two vertices are similarly calculated from the straight line parallel to the straight line of Expression 7. The coordinates of the other two vertices are obtained, and the process proceeds to step S7 shown in FIG.

【0071】再び図4を参照して、ステップS7におい
て、演算処理装置6は、ステップS5で特定したマーカ
ー領域の中心座標と対象物OBの3次元位置をカメラ座
標に投影した点とを基に対象物OBの主軸ベクトルを求
める主軸ベクトル算出処理を実行する。図11は、図4
に示す主軸ベクトル算出処理を説明するためのフローチ
ャートである。
Referring again to FIG. 4, in step S7, the arithmetic processing unit 6 calculates the three-dimensional position of the object OB on the camera coordinates based on the center coordinates of the marker area specified in step S5. A main axis vector calculation process for obtaining a main axis vector of the object OB is executed. FIG. 11 shows FIG.
6 is a flowchart for explaining a spindle vector calculation process shown in FIG.

【0072】図11に示すように、主軸ベクトル算出処
理では、まず、ステップS31において、演算処理装置
6は、ステップS5で特定したマーカー領域の中心座標
(cx,cy)を求める。
As shown in FIG. 11, in the main axis vector calculation processing, first, in step S31, the arithmetic processing unit 6 obtains the center coordinates (cx, cy) of the marker area specified in step S5.

【0073】次に、ステップS32において、演算処理
装置6は、ステップS4で切り出した画像の中心座標
(rx,ry)を求める。具体的には、切り出した画像
の中心座標(rx,ry)を、下式による外周の画素の
座標の平均により求める。ここで、nは外周の画素数で
あり、x,yは外周の画素の座標である。
Next, in step S32, the arithmetic processing unit 6 obtains the center coordinates (rx, ry) of the image cut out in step S4. Specifically, the center coordinates (rx, ry) of the cut-out image are obtained by averaging the coordinates of the outer peripheral pixels according to the following equation. Here, n is the number of peripheral pixels, and x and y are the coordinates of the peripheral pixels.

【0074】[0074]

【数2】 (Equation 2)

【0075】次に、ステップS33において、演算処理
装置6は、マーカーMKの実サイズとカメラ画像中のマ
ーカーMKのサイズから1画素に相当する実サイズ(ス
ケールパラメータ)を求める。具体的には、上記の外接
矩形の辺の長さLがステップS4において既に求まって
おり、かつ、マーカーMKのサイズMLが既知であるこ
とから、1画素に相当する3次元座標の値(スケールパ
ラメータ)sを下式により求める。
Next, in step S33, the arithmetic processing unit 6 obtains an actual size (scale parameter) corresponding to one pixel from the actual size of the marker MK and the size of the marker MK in the camera image. Specifically, since the length L of the side of the circumscribed rectangle has already been determined in step S4 and the size ML of the marker MK is known, the value of the three-dimensional coordinates (scale The parameter s is obtained by the following equation.

【0076】s=ML/L …(12) 次に、ステップS34において、演算処理装置6は、求
めたスケールパラメータsを用いて対象物OBの主軸ベ
クトルを求める。具体的には、対象物OBの主軸ベクト
ルのX,Y座標は、式11により求めた中心座標(r
x,ry)とマーカー領域の中心座標(cx,cy)と
を用い、以下の式により求められる。
S = ML / L (12) Next, in step S34, the arithmetic processing unit 6 obtains the principal axis vector of the object OB using the obtained scale parameter s. Specifically, the X and Y coordinates of the principal axis vector of the object OB are calculated by the center coordinates (r
x, ry) and the center coordinates (cx, cy) of the marker area are obtained by the following equation.

【0077】X=s・(rx−cx) …(13) Y=s・(ry−cy) …(14) ここで、図12に示すように、対象物OBの主軸ベクト
ルMVの長さは、対象物OBの高さOHと等しく、か
つ、既知であることから、主軸ベクトルMVのZ座標
は、下式により求められる。
X = s · (rx−cx) (13) Y = s · (ry−cy) (14) Here, as shown in FIG. 12, the length of the main axis vector MV of the object OB is Since the height is equal to the height OH of the object OB and is known, the Z coordinate of the main axis vector MV is obtained by the following equation.

【0078】 Z=(OH2 +X2 +Y21/2 …(15) 上記のようにして、スケールパラメータs、切り出した
画像の中心座標(rx,ry)、マーカー領域の中心座
標(cx,cy)および対象物OBの高さOHから3次
元座標上の対象物OBの主軸ベクトルを求め、図4に示
すステップS8へ移行する。
Z = (OH 2 + X 2 + Y 2 ) 1/2 (15) As described above, the scale parameter s, the center coordinates (rx, ry) of the cut-out image, and the center coordinates (cx, ry) of the marker area cy) and the height OH of the object OB, the main axis vector of the object OB on three-dimensional coordinates is obtained, and the process proceeds to step S8 shown in FIG.

【0079】再び図4を参照して、ステップS8におい
て、演算処理装置6は、ステップS6において特定した
マーカーMKの各頂点からカメラ5のレンズ面と平行な
面におけるマーカーMKの回転角を求めるマーカー回転
角算出処理を実行する。図13は、図4に示すマーカー
回転角算出処理を説明するためのフローチャートであ
る。
Referring again to FIG. 4, in step S8, arithmetic processing unit 6 determines the rotation angle of marker MK in a plane parallel to the lens surface of camera 5 from each vertex of marker MK specified in step S6. Execute the rotation angle calculation process. FIG. 13 is a flowchart for explaining the marker rotation angle calculation processing shown in FIG.

【0080】図13に示すように、まず、ステップS4
1において、演算処理装置6は、ステップS6において
求めたマーカーMKの4個の頂点から、切り出した画像
の左上頂点に近い頂点を求め、その頂点を基準にマーカ
ー領域の外周に沿って時計周りに頂点を並べ替える。こ
こで、図14に示すように、並べ替えた各頂点をc1,
c2,c3,c4と定める。
As shown in FIG. 13, first, in step S4
In 1, the arithmetic processing device 6 obtains a vertex close to the upper left vertex of the cut-out image from the four vertices of the marker MK obtained in step S6, and clockwise along the outer periphery of the marker area based on the vertex. Reorder vertices. Here, as shown in FIG. 14, each sorted vertex is c1,
Defined as c2, c3, and c4.

【0081】次に、ステップS42において、演算処理
装置6は、マーカーMKの回転ベクトルを求める。すな
わち、図15に示すように、切り出された画像の中心に
座標系を設定し、マーカーMKの傾きを示す回転ベクト
ルRV(vx,vy)を求める。
Next, in step S42, the arithmetic processing unit 6 obtains a rotation vector of the marker MK. That is, as shown in FIG. 15, a coordinate system is set at the center of the clipped image, and a rotation vector RV (vx, vy) indicating the inclination of the marker MK is obtained.

【0082】ここで、マーカー領域の中心座標を(c
x,cy)、頂点c2の座標を(x2,y2)、頂点c
3の座標を(x3,y3)とすると、回転ベクトルRV
(vx,vy)は、次式により求められる。
Here, the center coordinates of the marker area are represented by (c
x, cy), the coordinates of vertex c2 are (x2, y2), vertex c
3 is (x3, y3), the rotation vector RV
(Vx, vy) is obtained by the following equation.

【0083】 RV(vx,vy)=((x2+x3)/2−cx,(y2+y3)/2−c y) …(16) 次に、ステップS43において、演算処理装置6は、マ
ーカーMKの回転角θを次式により求める。
RV (vx, vy) = ((x2 + x3) / 2−cx, (y2 + y3) / 2−cy) (16) Next, in step S43, the arithmetic processing unit 6 sets the rotation angle of the marker MK. θ is obtained by the following equation.

【0084】 θ=sin-1(vy/(vy2 +vx2 1/2 ) …(17) 次に、ステップS44において、演算処理装置6は、カ
メラ画像上の各頂点の座標とマーカーMKの3次元ロー
カル座標系における頂点座標から射影行列を求める。
Θ = sin −1 (vy / (vy 2 + vx 2 ) 1/2 ) (17) Next, in step S44, the arithmetic processing unit 6 sets the coordinates of each vertex on the camera image and the marker MK. A projection matrix is obtained from vertex coordinates in the three-dimensional local coordinate system.

【0085】ここで、上記の回転角θだけでは、実際の
マーカーMKの回転角は分からないため、マーカーMK
に設けられたマークMAの向きを考慮する。すなわち、
マークMAの向きを求めるため、図16に示すように、
マーカー座標系として、マーカーMKの中心に3次元ロ
ーカル座標系を設定する。このとき、マーカーMKの各
頂点C1,C2,C3,C4の3次元ローカル座標は、
次式により求められる。
Here, since the actual rotation angle of the marker MK cannot be determined only from the rotation angle θ, the marker MK is used.
Consider the direction of the mark MA provided in. That is,
In order to determine the direction of the mark MA, as shown in FIG.
As the marker coordinate system, a three-dimensional local coordinate system is set at the center of the marker MK. At this time, the three-dimensional local coordinates of each vertex C1, C2, C3, C4 of the marker MK are:
It is obtained by the following equation.

【0086】 C1=[−HS,HS,0]T …(18) C2=[HS,HS,0]T …(19) C3=[−HS,−HS,0]T …(20) C4=[HS,−HS,0]T …(21) 上記の3次元ローカル座標を、ステップS6において既
に求めたカメラ画像上の各頂点の座標へ写像する射影行
列を、
C1 = [− HS, HS, 0] T (18) C2 = [HS, HS, 0] T (19) C3 = [− HS, −HS, 0] T (20) C4 = [HS, −HS, 0] T (21) A projection matrix that maps the above-described three-dimensional local coordinates to the coordinates of each vertex on the camera image already obtained in step S6,

【0087】[0087]

【数3】 とすると、以下の関係が成り立ち、この連立方程式を解
いて射影行列を求める。
(Equation 3) Then, the following relationship holds, and the simultaneous equations are solved to obtain a projection matrix.

【0088】[0088]

【数4】 (Equation 4)

【0089】次に、ステップS45において、演算処理
装置6は、求めた射影行列を用いて、図17に示す4つ
のパターンをカメラ画像上に写像する。ここで、図17
の(a)に示すパターンがパターン1であり、図17の
(b)に示すパターンがパターン2であり、図17の
(c)に示すパターンがパターン3であり、図17の
(d)に示すパターンがパターン4である。
Next, in step S45, the arithmetic processing unit 6 maps the four patterns shown in FIG. 17 onto the camera image using the obtained projection matrix. Here, FIG.
17A is pattern 1, the pattern shown in FIG. 17B is pattern 2, the pattern shown in FIG. 17C is pattern 3, and the pattern shown in FIG. The pattern shown is pattern 4.

【0090】次に、ステップS46において、演算処理
装置6は、写像された各パターンとマーカー領域とのマ
ッチングを行い、図17に示す各パターンからマッチす
るパターンを特定する。
Next, in step S46, the arithmetic processing unit 6 performs matching between each mapped pattern and the marker area, and specifies a matching pattern from each pattern shown in FIG.

【0091】次に、ステップS47において、演算処理
装置6は、マッチしたパターンを基にマーカーMKの回
転角を求める。すなわち、マッチしたパターンに対応す
る角度を上記θに加え、マーカーMKの回転角を求め
る。ここで、図17に示すパターン1を0度とし、マッ
チしたパターンの番号(1〜4)をPNとすると、マー
カーMKの回転角θmは、下式により求められる。
Next, in step S47, the arithmetic processing unit 6 obtains the rotation angle of the marker MK based on the matched pattern. That is, the angle corresponding to the matched pattern is added to the above θ to determine the rotation angle of the marker MK. Here, assuming that the pattern 1 shown in FIG. 17 is 0 degrees and the number (1 to 4) of the matched pattern is PN, the rotation angle θm of the marker MK is obtained by the following equation.

【0092】 θm=θ+(PN−1)・90 …(24) 上記の処理によりマーカーMKの回転角θmを求めた
後、図4に示すステップS9へ移行する。
Θm = θ + (PN−1) · 90 (24) After the rotation angle θm of the marker MK is obtained by the above processing, the flow shifts to step S9 shown in FIG.

【0093】再び図4を参照して、ステップS9におい
て、演算処理装置6は、上記の処理により求めた対象物
OBの3次元位置と姿勢を表す主軸ベクトルおよび回転
角とを用い、3次元コンピュータ・グラッフィクによる
仮想空間における仮想対象物を対象物OBの3次元位置
および姿勢に応じて描画するためのデータを作成して表
示部3へ出力し、処理を終了する。
Referring to FIG. 4 again, in step S9, the arithmetic processing unit 6 uses the principal axis vector and the rotation angle representing the three-dimensional position and orientation of the object OB obtained by the above-described processing to obtain a three-dimensional computer. Create data for drawing the virtual object in the virtual space by the graphic according to the three-dimensional position and orientation of the object OB, output the data to the display unit 3, and end the process.

【0094】上記の処理により、本実施の形態では、対
象物OBの3次元位置が測定されるとともに、対象物O
BのマーカーMKが撮影され、対象物OBの3次元位置
および撮影されたマーカーMKの画像から対象物OBの
姿勢が算出され、対象物OBの3次元位置および姿勢に
応じて仮想空間における仮想対象物の表示状態が変化さ
れる。
In the present embodiment, the three-dimensional position of the object OB is measured and the object O
The marker MK of B is photographed, and the posture of the object OB is calculated from the three-dimensional position of the object OB and the photographed image of the marker MK. The display state of the object is changed.

【0095】このように、対象物OBのマーカーMKの
画像のみならず、対象物OBの3次元位置を測定してい
るので、世界座標系を規定することができ、仮想対象物
を他の視点から見る場合でも、その視点に相当するカメ
ラ座標系を得ることができる。したがって、3次元コン
ピュータ・グラフィックスによる仮想世界における仮想
対象物を現実世界の対象物OBの操作に応じた状態で任
意の視点から表示することができる。
As described above, since not only the image of the marker MK of the object OB but also the three-dimensional position of the object OB is measured, the world coordinate system can be defined, and the virtual object can be viewed from another viewpoint. A camera coordinate system corresponding to the viewpoint can be obtained even when viewing from the viewpoint. Therefore, it is possible to display a virtual object in the virtual world by three-dimensional computer graphics from an arbitrary viewpoint in a state according to the operation of the object OB in the real world.

【0096】なお、本実施の形態では、正方形のマーカ
ーMKを用いたが、マーカーの形状はこの例に特に限定
されず、種々の変更が可能である、また、マーカーMK
の中心位置から偏在してマークMAを設けたが、マーカ
ー自体の形状から大まかな回転角を検出できる場合は、
マークMAを省略してもよい。また、対象物OBに直接
蛍光塗料を塗布し、対象物OBを直接カメラ5により撮
影する場合は、マーカーMKを省略してもよい。
In this embodiment, the square marker MK is used. However, the shape of the marker is not particularly limited to this example, and various changes can be made.
The mark MA is provided eccentrically from the center position of, but if a rough rotation angle can be detected from the shape of the marker itself,
The mark MA may be omitted. When the fluorescent paint is applied directly to the object OB and the object OB is directly photographed by the camera 5, the marker MK may be omitted.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施の形態による仮想対象物操作装
置の構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a virtual object operation device according to an embodiment of the present invention.

【図2】現実世界の対象物と3次元位置測定装置および
カメラ等との位置関係を示す概略斜視図である。
FIG. 2 is a schematic perspective view showing a positional relationship between an object in the real world, a three-dimensional position measuring device, a camera, and the like.

【図3】現実世界の対象物とマーカー等との位置関係を
示す概略斜視図である。
FIG. 3 is a schematic perspective view showing a positional relationship between an object in the real world, a marker, and the like.

【図4】図1に示す仮想対象物操作装置の演算処理装置
により実行される仮想対象物操作処理を説明するための
フローチャートである。
FIG. 4 is a flowchart for explaining a virtual object operation process executed by an arithmetic processing unit of the virtual object operation device shown in FIG. 1;

【図5】図4に示すマーカー領域特定処理を説明するた
めのフローチャートである。
FIG. 5 is a flowchart for explaining a marker area specifying process shown in FIG. 4;

【図6】図4に示すマーカー頂点特定処理を説明するた
めのフローチャートである。
FIG. 6 is a flowchart for explaining a marker vertex specifying process shown in FIG. 4;

【図7】マーカー領域として特定した領域の二値画像の
一例を示す図である。
FIG. 7 is a diagram illustrating an example of a binary image of an area specified as a marker area.

【図8】図7に示す二値画像にPerimeterオペ
レータを適用した後の画像を示す図である。
FIG. 8 is a diagram showing an image after a Perimeter operator is applied to the binary image shown in FIG. 7;

【図9】切り出したマーカー領域の画像に設定した座標
系を示す図である。
FIG. 9 is a diagram showing a coordinate system set for an image of a cut-out marker area.

【図10】図9に示す画像をハフ変換した後の極大点を
示す図である。
10 is a diagram showing local maximum points after the image shown in FIG. 9 is subjected to Hough transform.

【図11】図4に示す主軸ベクトル算出処理を説明する
ためのフローチャートである。
FIG. 11 is a flowchart for explaining a spindle vector calculation process shown in FIG. 4;

【図12】対象物の主軸ベクトルを示す図である。FIG. 12 is a diagram showing principal axis vectors of an object.

【図13】図4に示すマーカー回転角算出処理を説明す
るためのフローチャートである。
FIG. 13 is a flowchart illustrating a marker rotation angle calculation process shown in FIG. 4;

【図14】特定したマーカーの各頂点を並べ替えた状態
を示す図である。
FIG. 14 is a diagram showing a state in which vertices of specified markers are rearranged.

【図15】マーカー領域の中心に設定した座標系を示す
図である。
FIG. 15 is a diagram showing a coordinate system set at the center of a marker area.

【図16】マーカーの中心に設定した3次元ローカル座
標系を示す図である。
FIG. 16 is a diagram showing a three-dimensional local coordinate system set at the center of a marker.

【図17】マーカーの回転状態に対応した4つのパター
ンを示す図である。
FIG. 17 is a diagram showing four patterns corresponding to the rotation state of the marker.

【符号の説明】[Explanation of symbols]

1 発信器 2 3次元位置測定装置 3 I/F部 4 ブラックライト 5 カメラ 6 演算処理装置 7 入力部 8 ROM 9 RAM 10 記憶装置 11 表示部 61 画像切り出し部 62 対象物切り出し部 63 主軸取得部 64 回転角取得部 65 仮想対象物描画部 REFERENCE SIGNS LIST 1 transmitter 2 three-dimensional position measuring device 3 I / F unit 4 black light 5 camera 6 arithmetic processing unit 7 input unit 8 ROM 9 RAM 10 storage device 11 display unit 61 image cutout unit 62 target cutout unit 63 spindle acquisition unit 64 Rotation angle acquisition unit 65 Virtual object drawing unit

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/60 150 G06T 7/60 150P 5L096 Fターム(参考) 5B050 BA08 BA09 BA13 CA07 DA02 EA04 EA07 EA12 FA02 5B057 BA05 DA07 DB03 DC08 5B068 AA05 BB22 BC03 BD11 BD19 BD25 BE03 BE06 BE15 CC11 CC12 EE06 5B087 AA07 AA09 BC12 BC13 BC26 BC32 DJ03 5E501 AA01 AC16 BA05 CA02 CB09 CB14 FA02 FA27 FB04 5L096 AA09 BA08 CA03 CA18 EA35 EA43 FA03 FA06 FA18 FA24 FA38 FA59 FA62 FA67 FA69 GA10 Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat II (reference) G06T 7/60 150 G06T 7/60 150P 5L096 F term (reference) 5B050 BA08 BA09 BA13 CA07 DA02 EA04 EA07 EA12 FA02 5B057 BA05 DA07 DB03 DC08 5B068 AA05 BB22 BC03 BD11 BD19 BD25 BE03 BE06 BE15 CC11 CC12 EE06 5B087 AA07 AA09 BC12 BC13 BC26 BC32 DJ03 5E501 AA01 AC16 BA05 CA02 CB09 CB14 FA02 FA27 FB04 5L096 AA09 BA08 CA03 CA18 FA38 FA38 FA24 FA24

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 現実世界の対象物を操作することによ
り、3次元コンピュータ・グラフィックスによる仮想世
界において前記対象物に対応付けられた仮想対象物を操
作する仮想対象物操作装置であって、 前記対象物の3次元位置を測定する位置測定手段と、 前記対象物を撮影する撮影手段と、 前記位置測定手段により測定された前記対象物の3次元
位置および前記撮影手段により撮影された前記対象物の
画像から前記対象物の姿勢を算出する姿勢算出手段と、 前記位置測定手段により測定された前記対象物の3次元
位置および前記姿勢算出手段により算出された前記対象
物の姿勢に応じて、前記仮想空間における前記仮想対象
物の表示状態を変化させる表示手段とを備えることを特
徴とする仮想対象物操作装置。
1. A virtual object operation apparatus for operating a virtual object associated with the object in a virtual world by three-dimensional computer graphics by operating the object in the real world, Position measuring means for measuring the three-dimensional position of the object; photographing means for photographing the object; three-dimensional position of the object measured by the position measuring means and the object photographed by the photographing means Attitude calculating means for calculating the attitude of the object from the image of the three-dimensional position of the object measured by the position measuring means and the attitude of the object calculated by the attitude calculating means, Display means for changing a display state of the virtual object in a virtual space.
【請求項2】 前記位置測定手段は、前記対象物の3次
元位置を無線により測定する無線位置測定手段を含むこ
とを特徴とする請求項1記載の仮想対象物操作装置。
2. The virtual object operation device according to claim 1, wherein the position measurement unit includes a wireless position measurement unit that wirelessly measures a three-dimensional position of the object.
【請求項3】 前記無線位置測定手段は、 前記対象物に取り付けられ、前記対象物を識別するため
の識別情報を無線により送信する送信手段と、 前記送信手段から送信される識別情報を受信する複数の
受信手段とを含むことを特徴とする請求項2記載の仮想
対象物操作装置。
3. The wireless position measuring means is attached to the object, and wirelessly transmits identification information for identifying the object, and receives identification information transmitted from the transmitting means. 3. The virtual object operation device according to claim 2, comprising a plurality of receiving means.
【請求項4】 前記対象物には、紫外線により発光する
蛍光材料からなる所定形状のマーカーが取り付けられ、 前記撮影手段は、 前記マーカーに紫外線を照射する照射手段と、 前記照射手段により紫外線が照射されたマーカーを撮影
するマーカー撮影手段とを含むことを特徴とする請求項
1〜3のいずれかに記載の仮想対象物操作装置。
4. A marker having a predetermined shape made of a fluorescent material that emits light by ultraviolet light is attached to the object, the photographing means is: an irradiating means for irradiating the marker with ultraviolet light; and the ultraviolet light is irradiated by the irradiating means. The virtual object operation device according to any one of claims 1 to 3, further comprising a marker photographing means for photographing the selected marker.
【請求項5】 前記マーカーは、その中心位置から偏在
したマークを有し、 前記姿勢算出手段は、前記位置測定手段により測定され
た前記対象物の3次元位置、前記マーカー撮影手段によ
り撮影された前記マーカーの画像および前記マーカー上
のマークの位置から前記対象物の姿勢を算出することを
特徴とする請求項4記載の仮想対象物操作装置。
5. The marker has a mark deviated from its center position, and the posture calculating means is a three-dimensional position of the object measured by the position measuring means, and is photographed by the marker photographing means. The virtual object operation device according to claim 4, wherein the posture of the object is calculated from the image of the marker and the position of the mark on the marker.
【請求項6】 現実世界の対象物を操作することによ
り、3次元コンピュータ・グラフィックスによる仮想世
界において前記対象物に対応付けられた仮想対象物を操
作する仮想対象物操作方法であって、 前記対象物の3次元位置を測定するステップと、 前記対象物を撮影するステップと、 測定された前記対象物の3次元位置および撮影された前
記対象物の画像から前記対象物の姿勢を算出するステッ
プと、 測定された前記対象物の3次元位置および算出された前
記対象物の姿勢に応じて、前記仮想世界における前記仮
想対象物の表示状態を変化させるステップとを含むこと
を特徴とする仮想対象物操作方法。
6. A virtual object operation method for operating a virtual object associated with the object in a virtual world by three-dimensional computer graphics by operating the object in the real world, Measuring the three-dimensional position of the object; photographing the object; calculating the posture of the object from the measured three-dimensional position of the object and the photographed image of the object And changing the display state of the virtual object in the virtual world according to the measured three-dimensional position of the object and the calculated attitude of the object. Object operation method.
JP2000218323A 2000-07-19 2000-07-19 Virtual object operation device and virtual object operation method Expired - Fee Related JP3423676B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000218323A JP3423676B2 (en) 2000-07-19 2000-07-19 Virtual object operation device and virtual object operation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000218323A JP3423676B2 (en) 2000-07-19 2000-07-19 Virtual object operation device and virtual object operation method

Publications (2)

Publication Number Publication Date
JP2002032784A true JP2002032784A (en) 2002-01-31
JP3423676B2 JP3423676B2 (en) 2003-07-07

Family

ID=18713292

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000218323A Expired - Fee Related JP3423676B2 (en) 2000-07-19 2000-07-19 Virtual object operation device and virtual object operation method

Country Status (1)

Country Link
JP (1) JP3423676B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007521559A (en) * 2003-06-23 2007-08-02 アフィネオン・テクノロジーズ・ピーティーイー・リミテッド Computer input device for entering wake of 6 degrees of freedom
EP1856594A1 (en) * 2005-02-22 2007-11-21 Thomas Kienzl Computer-aided interface system
JP2008226279A (en) * 2008-06-23 2008-09-25 Matsushita Electric Works Ltd Position indicating device in virtual space
JP2009506457A (en) * 2005-08-31 2009-02-12 マイクロソフト コーポレーション Interactive display screen input method
JP2009538487A (en) * 2006-05-26 2009-11-05 アイティーティー マニュファクチャリング エンタープライジーズ, インコーポレイテッド System and method for displaying device maintenance and operation instructions using augmented reality
JP2015056048A (en) * 2013-09-12 2015-03-23 富士通株式会社 Simulation method, simulation program and simulation device
WO2015040657A1 (en) * 2013-09-20 2015-03-26 富士通株式会社 Image processing device, image processing method, and image processing program
US9324229B2 (en) 2007-03-08 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
JP2018022242A (en) * 2016-08-01 2018-02-08 大豊精機株式会社 Composite system and target marker
WO2021106812A1 (en) * 2019-11-25 2021-06-03 株式会社NejiLaw Individual identification system

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007521559A (en) * 2003-06-23 2007-08-02 アフィネオン・テクノロジーズ・ピーティーイー・リミテッド Computer input device for entering wake of 6 degrees of freedom
EP1856594A1 (en) * 2005-02-22 2007-11-21 Thomas Kienzl Computer-aided interface system
JP2009506457A (en) * 2005-08-31 2009-02-12 マイクロソフト コーポレーション Interactive display screen input method
US9323055B2 (en) 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
JP2009538487A (en) * 2006-05-26 2009-11-05 アイティーティー マニュファクチャリング エンタープライジーズ, インコーポレイテッド System and method for displaying device maintenance and operation instructions using augmented reality
US9324229B2 (en) 2007-03-08 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
JP4678428B2 (en) * 2008-06-23 2011-04-27 パナソニック電工株式会社 Virtual space position pointing device
JP2008226279A (en) * 2008-06-23 2008-09-25 Matsushita Electric Works Ltd Position indicating device in virtual space
JP2015056048A (en) * 2013-09-12 2015-03-23 富士通株式会社 Simulation method, simulation program and simulation device
WO2015040657A1 (en) * 2013-09-20 2015-03-26 富士通株式会社 Image processing device, image processing method, and image processing program
JPWO2015040657A1 (en) * 2013-09-20 2017-03-02 富士通株式会社 Image processing apparatus, image processing method, and image processing program
US9704246B2 (en) 2013-09-20 2017-07-11 Fujitsu Limited Image processing apparatus, image processing method, and storage medium
JP2018022242A (en) * 2016-08-01 2018-02-08 大豊精機株式会社 Composite system and target marker
WO2021106812A1 (en) * 2019-11-25 2021-06-03 株式会社NejiLaw Individual identification system

Also Published As

Publication number Publication date
JP3423676B2 (en) 2003-07-07

Similar Documents

Publication Publication Date Title
KR102399630B1 (en) Method and apparatus for determining position and orientation of bucket of excavator
US8081815B2 (en) Marker arrangement information measuring apparatus and method
US7529387B2 (en) Placement information estimating method and information processing device
JP4484863B2 (en) Method and system for determining inaccurate information in an augmented reality system
EP1483740B1 (en) Position and orientation sensing with a projector
US7760242B2 (en) Information processing method and information processing apparatus
JP4492654B2 (en) 3D measuring method and 3D measuring apparatus
JP6594129B2 (en) Information processing apparatus, information processing method, and program
JP2001524228A (en) Machine vision calibration target and method for determining position and orientation of target in image
JP2016167229A (en) Coordinate transformation parameter determination device, coordinate transformation parameter determination method, and computer program for coordinate transformation parameter determination
KR20020086931A (en) Single camera system for gesture-based input and target indication
KR20060129960A (en) A mobile robot and a method for calculating position and posture thereof
JP2007064684A (en) Marker arrangement assisting method and device therefor
WO2006082825A1 (en) Mark arrangement measuring method, positional posture estimating method, mark arrangement measuring apparatus and positional posture estimating apparatus
JP2015056057A (en) Method of estimating posture and robot
CN108022264A (en) Camera pose determines method and apparatus
CN108257177B (en) Positioning system and method based on space identification
US20120293555A1 (en) Information-processing device, method thereof and display device
JP2004094653A (en) Information input system
JP2004506215A (en) Strapdown system for 3D reconstruction
CN113129451B (en) Holographic three-dimensional image space quantitative projection method based on binocular vision positioning
JP3690581B2 (en) POSITION DETECTION DEVICE AND METHOD THEREFOR, PLAIN POSITION DETECTION DEVICE AND METHOD THEREOF
JP3423676B2 (en) Virtual object operation device and virtual object operation method
CN112912936A (en) Mixed reality system, program, mobile terminal device, and method
JP2009175012A (en) Measurement device and measurement method

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030404

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090425

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090425

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100425

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110425

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130425

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130425

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140425

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees