JP3423676B2 - 仮想対象物操作装置および仮想対象物操作方法 - Google Patents

仮想対象物操作装置および仮想対象物操作方法

Info

Publication number
JP3423676B2
JP3423676B2 JP2000218323A JP2000218323A JP3423676B2 JP 3423676 B2 JP3423676 B2 JP 3423676B2 JP 2000218323 A JP2000218323 A JP 2000218323A JP 2000218323 A JP2000218323 A JP 2000218323A JP 3423676 B2 JP3423676 B2 JP 3423676B2
Authority
JP
Japan
Prior art keywords
marker
virtual
dimensional
posture
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000218323A
Other languages
English (en)
Other versions
JP2002032784A (ja
Inventor
昭二 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2000218323A priority Critical patent/JP3423676B2/ja
Publication of JP2002032784A publication Critical patent/JP2002032784A/ja
Application granted granted Critical
Publication of JP3423676B2 publication Critical patent/JP3423676B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、現実世界の対象物
を操作することにより、3次元コンピュータ・グラフィ
ックスによる仮想世界において対象物に対応付けられた
仮想対象物を操作する仮想対象物操作装置および仮想対
象物操作方法に関するものである。
【0002】
【従来の技術】近年、3次元コンピュータ・グラフィッ
クス等により提示される仮想世界と人間が実際に生きて
いる現実世界とを融合させる複合現実の研究分野におい
て種々の研究が行われている。例えば、Jun Rekimoto,
“Matrix: Realtime Object Identification and Regis
tration Method for Augmented Reality”,Proc. of AP
CHI '98やMark Billinghurst, Hirokazu Kato,“Collab
orative Mixed Reality”, ISMR '99,pp.261-284 に
は、所定のマークが印刷された板状のマーカーをカメラ
により撮影し、撮影された画像中のマーカーの位置に3
次元コンピュータ・グラフィックスにより作成された仮
想対象物を投影することが開示されている。
【0003】
【発明が解決しようとする課題】しかしながら、上記の
文献に用いられる方法では、カメラにより撮影した画像
のみが用いられ、世界座標系が規定されていない。この
ため、カメラ座標系に投影された仮想対象物を他の任意
の視点から見る場合に、その視点に相当するカメラ座標
系を得ることができず、任意の視点から見た仮想対象物
を表示することができない。
【0004】本発明の目的は、3次元コンピュータ・グ
ラフィックスによる仮想世界における仮想対象物を現実
世界の対象物の操作に応じた状態で任意の視点から表示
することができる仮想対象物操作装置および仮想対象物
操作方法を提供することである。
【0005】
【課題を解決するための手段および発明の効果】(1)
第1の発明 第1の発明に係る仮想対象物操作装置は、現実世界の対
象物を操作することにより、3次元コンピュータ・グラ
フィックスによる仮想世界において対象物に対応付けら
れた仮想対象物を操作する仮想対象物操作装置であっ
て、対象物の3次元位置を測定する位置測定手段と、対
象物を撮影する撮影手段と、位置測定手段により測定さ
れた対象物の3次元位置を用いて、撮影手段により撮影
された対象物の画像から対象物の姿勢を算出する姿勢算
出手段と、位置測定手段により測定された対象物の3次
元位置および姿勢算出手段により算出された対象物の姿
勢に応じて、仮想空間における仮想対象物の表示状態を
変化させる表示手段とを備えるものである。
【0006】本発明の仮想対象物操作装置においては、
対象物の3次元位置が測定されるとともに、対象物が撮
影され、対象物の3次元位置を用いて撮影された対象物
の画像から対象物の姿勢が算出され、対象物の3次元位
置および算出された対象物の姿勢に応じて仮想空間にお
ける仮想対象物の表示状態が変化する。
【0007】このように、対象物の画像のみならず、対
象物の3次元位置を測定しているので、世界座標系を規
定することができ、仮想対象物を他の視点から見る場合
でも、その視点に相当するカメラ座標系を得ることがで
きる。したがって、3次元コンピュータ・グラフィック
スによる仮想世界における仮想対象物を現実世界の対象
物の操作に応じた状態で任意の視点から表示することが
できる。
【0008】(2)第2の発明 第2の発明に係る仮想対象物操作装置は、第1の発明に
係る仮想対象物操作装置の構成において、位置測定手段
は、対象物の3次元位置を無線により測定する無線位置
測定手段を含むものである。
【0009】この場合、無線により対象物の3次元位置
を測定することができるので、対象物の3次元位置を測
定するための配線等を対象物に設ける必要がなくなり、
配線等に邪魔されることなく、対象物を自由に操作する
ことができる。
【0010】(3)第3の発明 第3の発明に係る仮想対象物操作装置は、第2の発明に
係る仮想対象物操作装置の構成において、無線位置測定
手段は、対象物に取り付けられ、対象物を識別するため
の識別情報を無線により送信する送信手段と、送信手段
から送信される識別情報を受信する複数の受信手段とを
含むものである。
【0011】この場合、対象物に取り付けられた送信手
段により対象物を識別するための識別情報が無線により
送信され、送信された識別情報が複数の受信手段により
受信されるので、対象物から送信される識別情報を複数
の位置で受信し、受信した時間差により対象物の3次元
位置を測定することができる。
【0012】また、対象物を識別するための識別情報が
送信されているので、複数の対象物がある場合でも、操
作されている対象物がどの対象物であるかを特定するこ
とができる。したがって、複数の対象物を同時に操作
し、操作された各対象物に対応する仮想対象物を仮想空
間においてそれぞれ操作することができる。
【0013】(4)第4の発明 第4の発明に係る仮想対象物操作装置は、第1〜第3の
いずれかの発明に係る仮想対象物操作装置の構成におい
て、対象物には、紫外線により発光する蛍光材料からな
る所定形状のマーカーが取り付けられ、撮影手段は、マ
ーカーに紫外線を照射する照射手段と、照射手段により
紫外線が照射されたマーカーを撮影するマーカー撮影手
段とを含むものである。
【0014】この場合、対象物に取り付けられたマーカ
ーに紫外線が照射され、紫外線により発光するマーカー
を撮像することができる。このように、紫外線によるマ
ーカー自身の発光を利用してマーカーを撮影しているの
で、対象物の底面にマーカーを取り付け、対象物をガラ
ス面の上に配置した場合でも、ガラス面への映り込みが
少なくなり、ガラス面の影響を受けることなく、暗い場
所でも、対象物の底面に取り付けられたマーカーの画像
を撮影することができる。
【0015】(5)第5の発明 第5の発明に係る仮想対象物操作装置は、現実世界の対
象物を操作することにより、3次元コンピュータ・グラ
フィックスによる仮想世界において前記対象物に対応付
けられた仮想対象物を操作する仮想対象物操作装置であ
って、前記対象物の3次元位置を測定する位置測定手段
と、前記対象物を撮影する撮影手段と、前記位置測定手
段により測定された前記対象物の3次元位置を用いて、
前記撮影手段により撮影された前記対象物の画像から前
記対象物の姿勢を算出する姿勢算出手段と、前記位置測
定手段により測定された前記対象物の3次元位置および
前記姿勢算出手段により算出された前記対象物の姿勢に
応じて、前記仮想空間における前記仮想対象物の表示状
態を変化させる表示手段とを備え、前記対象物は所定形
状のマーカーと、該マーカー上にその中心位置から偏在
したマークを有し、前記姿勢算出手段は、前記位置測定
手段により測定された前記対象物の3次元位置、前記撮
影手段により撮影された前記マーカーの画像および前記
マーカー上のマークの位置から前記対象物の姿勢を算出
するものである。
【0016】この場合、マーカーの中心位置から偏在し
てマークが設けられ、対象物の3次元位置、マーカーの
画像およびマークの位置から対象物の姿勢を算出してい
るので、マーカーの形状が対象軸を有し、マーカーの形
状のみでは対象物の姿勢を完全に算出することができな
い場合でも、マーカーの中心位置から偏在したマークに
より対象物の大まかな傾きを特定することができ、対象
物の姿勢を算出することができる。
【0017】(6)第6の発明 第6の発明に係る仮想対象物操作方法は、現実世界の対
象物を操作することにより、3次元コンピュータ・グラ
フィックスによる仮想世界において対象物に対応付けら
れた仮想対象物を操作する仮想対象物操作方法であっ
て、対象物の3次元位置を測定するステップと、対象物
を撮影するステップと、測定された対象物の3次元位置
および撮影された対象物の画像から対象物の姿勢を算出
するステップと、測定された対象物の3次元位置および
算出された対象物の姿勢に応じて、仮想世界における仮
想対象物の表示状態を変化させるステップとを含むもの
である。
【0018】本発明に係る仮想対象物操作方法において
は、対象物の3次元位置が測定されるとともに、対象物
が撮影され、対象物の3次元位置および撮影された対象
物の画像から対象物の姿勢が算出され、対象物の3次元
位置および算出された対象物の姿勢に応じて仮想空間に
おける仮想対象物の表示状態が変化される。
【0019】このように、対象物の画像のみならず、対
象物の3次元位置を測定しているので、世界座標系を規
定することができ、仮想対象物を他の視点から見る場合
でも、その視点に相当するカメラ座標系を得ることがで
きる。したがって、3次元コンピュータ・グラフィック
スによる仮想世界における仮想対象物を現実世界の対象
物の操作に応じた状態で任意の視点から表示することが
できる。
【0020】
【発明の実施の形態】以下、本発明の実施の形態による
仮想対象物操作装置について図面を参照しながら説明す
る。図1は、本発明の一実施の形態による仮想対象物操
作装置の構成を示すブロック図である。
【0021】図1に示す仮想対象物操作装置は、発信器
1、3次元位置測定装置2、I/F(インタフェース)
部3、ブラックライト4、カメラ5、演算処理装置6、
入力部7、ROM(リードオンリメモリ)8、RAM
(ランダムアクセスメモリ)9、記憶装置10および表
示部11を備える。
【0022】図2は、現実世界の対象物と3次元位置測
定装置およびカメラ等との位置関係を示す概略斜視図で
あり、図3は、現実世界の対象物とマーカー等との位置
関係を示す概略斜視図である。
【0023】図1および図2に示すように、テーブルT
Bの上にガラス板GPが取り付けられ、ガラス板GPの
上に現実世界の対象物OBが配置される。対象物OB
は、例えば、積み木のような形状を有する高さOHの六
面体からなり(図3参照)、ユーザは、対象物OBを把
持して対象物OBを移動および回転等させて種々の操作
を行うことができる。
【0024】対象物OBの上面には発信器1が取り付け
られている。発信器1は、対象物OBを特定するための
識別情報であるID情報を超音波により無線で3次元位
置測定装置2へ送信する。
【0025】発信器1の上方には、超音波センサからな
る4個のセンサー部2a(図2参照)を有する略十字形
状の3次元位置測定装置2が設置されている。3次元位
置測定装置2は、発信器1から送信されるID情報を4
個のセンサー部2aにより受信し、各センサー部2aが
ID情報を受信した時間差により発信器1の位置すなわ
ち対象物OBの3次元位置を計測する。
【0026】上記のように、対象物OBを識別するため
のID情報が送信されているので、対象物が複数ある場
合でも、操作されている対象物がどの対象物であるかを
特定することができる。したがって、複数の対象物を同
時に操作し、操作された各対象物に対応する仮想対象物
を仮想空間においてそれぞれ操作することができる。
【0027】また、対象物OBの底面には一片の長さが
2HSの正方形のマーカーMKが取り付けられ(図3参
照)、テーブルTBの底部にカメラ5が取り付けられて
いる。カメラ5の両側にマーカーMKに紫外線を照射す
るためのブラックライト4が配置され、マーカーMK
は、ブラックライト4により下方から紫外線を照射され
る。
【0028】マーカーMKは、紫外線により発光する蛍
光塗料、蛍光樹脂等を用いた蛍光板からなり、紫外線の
照射によりマーカー自身が発光する。また、マーカーM
Kにはその中心から偏在した位置にマークMAが設けら
れ(図3参照)、マークMAは紫外線により発光しな
い。カメラ5は、発光しているマーカーMKの画像を撮
影し、マーカーMKのうちマークMAを除く部分が発光
している画像が撮影される。
【0029】ここで、装置の上方から通常の可視光によ
る照明が当てられる場合、対象物OBの底面にマーカー
MKを取り付けたのでは、マーカーMKが照明に対して
影となり、テーブルTBの底部からカメラ5により画像
を撮影しにくくなる。しかしながら、本実施の形態で
は、それ自身があまり発光しないブラックライト4によ
り紫外線を発生させ、紫外線により発光するマーカーM
Kを撮影しているので、ガラス面に照明が映り込むこと
がなく、テーブルTBの内部が暗い場合でも、明瞭にマ
ーカーMKの画像を撮影することができる。
【0030】また、本実施の形態では、上記のように紫
外線によりマーカーMKを撮影するとともに、超音波に
より対象物OBの3次元位置を測定しているので、本装
置が暗い場所に設置された場合も、対象物OBの3次元
位置を測定することができるとともに、マーカーMKの
画像を明瞭に捕らえることができる。
【0031】さらに、対象物OBの3次元位置を無線に
より得ることができるため、3次元位置の測定等のため
の配線等を対象物OBに設ける必要がなくなり、自然な
状態で対象物OBを自由に操作することができる。した
がって、特殊な操作方法を習得することなく、かつ、配
線等による使用時の煩雑さを感じることなく、対象物O
Bを容易に操作することができる。
【0032】なお、現実世界の対象物OBの3次元位置
を測定する位置測定手段は、上記の例に特に限定され
ず、対象物OBの3次元位置を無線により検出すること
ができるものであれば、他の3次元位置測定装置を用い
てもよい。
【0033】図1に示すように、3次元位置測定装置2
は、計測した対象物OBの3次元位置をI/F部3を介
して演算処理装置6へ出力する。カメラ5は、撮影した
マーカーMKの画像をI/F部3を介して演算処理装置
6へ出力する。
【0034】入力部7は、キーボード、マウス等から構
成され、ユーザが所望の入力を行うために用いられる。
【0035】ROM8には、種々のプログラムが予め記
憶され、後述する仮想対象物操作処理を実行するための
仮想対象物操作処理プログラムが予め記憶されている。
RAM9は、演算処理装置6が種々の処理を実行すると
きのワーク領域として用いられる。記憶装置10は、ハ
ードディスクドライブ等から構成され、演算処理装置6
により実行される種々のプログラムを記憶したり、必要
なデータ等を記憶する。
【0036】演算処理装置6は、CPU(中央演算処理
装置)等から構成され、ROM8に予め記憶された仮想
対象物操作処理プログラムをRAM9等を用いて実行す
ることにより、画像切り出し部61、対象物切り出し部
62、主軸取得部63、回転角取得部64および仮想対
象物描画部65の各機能を実行する。
【0037】画像切り出し部61は、カメラ5により撮
影された画像からマーカーMKを含む画像を切り出す。
対象物切り出し部62は、切り出されたマーカーの画像
からマーカーMKを特定する。主軸取得部63は、特定
されたマーカーMKの中心座標および対象物OBの3次
元位置等を用いて対象物OBの主軸ベクトルを算出す
る。回転角取得部64は、算出した対象物OBの主軸ベ
クトルに対する対象物OBの回転角を取得する。仮想対
象物描画部65は、対象物OBの3次元位置と対象物O
Bの姿勢を表す主軸ベクトルおよび回転角とを用いて対
象物OBに対応する仮想対象物を3次元コンピュータ・
グラフィックスによる仮想空間に描画するためのデータ
を作成し、表示部11へ出力する。
【0038】表示部11は、CRT(陰極線管)、液晶
表示パネル等から構成され、演算処理装置6の制御に従
い、3次元コンピュータ・グラフィックスによる仮想世
界を表示するとともに、対象物OBの3次元位置および
姿勢に応じて仮想世界の中の仮想対象物の表示状態を変
化させる。
【0039】上記の構成により、ユーザが実際に対象物
OBを操作して3次元的に対象物OBの位置および姿勢
を変化させると、表示部11に表示される3次元コンピ
ュータ・グラフィックスによる仮想空間内の仮想対象物
の3次元的な位置および姿勢が変化した状態で表示さ
れ、現実世界の対象物OBを操作することにより、仮想
空間において仮想対象物を操作することができる。この
ように、例えば、都市の景観シミュレーション、3次元
コンピュータ・グラフィックスのレイアウト作業等に、
本実施の形態の仮想対象物操作装置を応用することがで
きる。
【0040】本実施の形態において、発信器1および3
次元位置測定装置2が位置測定手段および無線位置測定
手段に相当し、ブラックライト4およびカメラ5が撮影
手段に相当し、画像切り出し部61、対象物切り出し部
62、主軸取得部63および回転角取得部64が姿勢算
出手段に相当し、仮想対象物描画部65および表示部1
1が表示手段に相当する。また、発信器1が送信手段に
相当し、3次元位置測定装置2が受信手段に相当し、ブ
ラックライト4が照射手段に相当し、カメラ5がマーカ
ー撮影手段に相当する。
【0041】なお、本実施の形態の仮想対象物操作装置
は、専用のハードウエアを用いて実現することもできる
が、発信器1、3次元位置測定装置2、ブラックライト
4およびカメラ5を除き、例えば、パーソナルコンピュ
ータ、ワークステーション等と仮想対象物操作処理プロ
グラムとにより実現することもできる。
【0042】次に、上記のように構成された仮想対象物
操作装置による仮想対象物操作処理について説明する。
図4は、図1に示す仮想対象物操作装置の演算処理装置
6により実行される仮想対象物操作処理を説明するため
のフローチャートである。
【0043】なお、以下の各ステップのうち、ステップ
S1〜S4は、画像切り出し部61の機能として実行さ
れる処理であり、ステップS5,S6は、対象物切り出
し部62の機能として実行される処理であり、ステップ
S7は、主軸取得部63の機能として実行される処理で
あり、ステップS8は、回転角取得部64の機能として
実行される処理であり、ステップS9は、仮想対象物描
画部65の機能として実行される処理である。
【0044】まず、ステップS1において、演算処理装
置6は、3次元位置測定装置2により計測された対象物
OBの3次元位置を示すデータをI/F部3を介して入
力され、対象物OBの3次元位置が計測される。
【0045】次に、ステップS2において、演算処理装
置6は、計測された対象物OBの3次元位置からマーカ
ーMK上の既知な点の3次元位置を推定する。具体的に
は、図3に示すように、マーカーMKの形状が正方形の
場合、マーカーMKの頂点C1,C2,C3,C4の座
標は、計測した対象物OBの3次元位置すなわち発信器
1の座標を(X,Y,Z)とすると、以下の式により求
めることができる。
【0046】 C1=[X−HS,Y+HS,Z−OH] …(1) C2=[X+HS,Y+HS,Z−OH] …(2) C3=[X−HS,Y−HS,Z−OH] …(3) C4=[X+HS,Y−HS,Z−OH] …(4) ここで、HSはマーカーMKの一片の長さの2分の1で
あり、OHは対象物OBの高さである。
【0047】次に、ステップS3において、演算処理装
置6は、推定した点を射影行列を用いてカメラ画像上の
点に変換する。具体的には、上式で求めたマーカーMK
の頂点C1,C2,C3,C4の座標をカメラ5により
撮影したカメラ画像の座標へ変換する。この3次元座標
からカメラ画像の座標への変換は、次式を用い、式1〜
式4で求めたマーカーMKの頂点C1,C2,C3,C
4のカメラ画像上での座標を求める。
【0048】
【数1】
【0049】ここで、[x,y]はカメラ画像の座標で
あり、[X,Y,Z]は3次元座標であり、sはスカラ
ーであり、Pは射影行列であり、カメラ校正により得ら
れるカメラの内部・外部変数である。なお、この点に関
しては、徐剛、辻三郎、“3次元ビジョン”、共立出版
に詳述されている。
【0050】次に、ステップS4において、演算処理装
置6は、変換された点を基にマーカーMKを包含する画
像を切り出す。具体的には、ステップS3で求めたカメ
ラ画像上のマーカーMKの頂点からカメラ画像上でのマ
ーカーMKの暫定的な外接矩形を求め、この外接矩形の
画像を切り出す。ここで、現時点では、現実世界の対象
物OBの姿勢は未知であり、上記で求めた外接矩形内に
マーカーMK全体が含まれていない可能性もあるので、
外接矩形を十分に拡大した領域をカメラ画像から切り出
す。
【0051】また、このとき、外接矩形の辺の長さLを
求める。外接矩形の辺の長さLは、例えば、マーカーM
Kの頂点C1のカメラ画像上での座標と頂点C2のカメ
ラ画像上での座標との距離を求めることにより得ること
ができる。
【0052】次に、ステップS5において、演算処理装
置6は、切り出された画像からマーカーMKに対応する
マーカー領域を特定するマーカー領域特定処理を実行す
る。図5は、図4に示すマーカー領域特定処理を説明す
るためのフローチャートである。
【0053】図5に示すように、マーカー領域特定処理
では、まず、ステップS11において、演算処理装置6
は、ステップS4で切り出された画像を二値化する。
【0054】次に、ステップS12において、演算処理
装置6は、切り出した画像からマーカーMKに対応する
可能性のある領域を抽出し、抽出された領域の外接矩形
の面積Rを求める。
【0055】次に、ステップS13において、演算処理
装置6は、抽出された領域の外接矩形の中心と切り出し
た画像の中心との距離を求める。
【0056】次に、ステップS14において、演算処理
装置6は、ステップS12で求めた外接矩形の面積が所
定の範囲内、例えば、S1<R<S2の条件を満たすか
否かを判断し、S1<R<S2の条件を満たす場合はス
テップS15へ移行し、S1<R<S2の条件を満たさ
ない場合は、画像内の次の領域に対して処理を継続する
ため、ステップS12へ移行する。
【0057】ここで、S1=MS・k1(k1<1.
0)であり、S2=MS・k2(k2>1.0)であ
り、MSはステップS4で求めた外接矩形の面積であ
り、k1,k2は上記の不等式を満たす所定の係数であ
る。
【0058】S1<R<S2の条件を満たす場合、ステ
ップS15において、演算処理装置6は、ステップS1
3で求めた外接矩形の中心と画像中心との距離を記憶す
る。
【0059】次に、ステップS16において、演算処理
装置6は、画像内の全ての領域に対して上記の処理を行
ったか否かを判断し、全ての領域に対して上記の処理が
終了した場合はステップS17へ移行し、全ての領域に
対して上記の処理が終了していない場合は、画像内の次
の領域に対して以降の処理を継続するため、ステップS
12へ移行する。
【0060】画像内の全ての領域に対して上記の処理が
終了した場合、ステップS17において、演算処理装置
6は、ステップS15で記憶した距離を並べ替え、距離
が最小となる領域をマーカー領域として特定し、図4に
示すステップS6へ移行する。なお、上記の条件を満た
す領域が見つからない場合は、認識失敗として、後述す
る処理による対象物OBの姿勢は求めないものとする。
【0061】次に、再び図4に戻り、ステップS6にお
いて、演算処理装置6は、特定したマーカー領域からマ
ーカーMKの既知な点の画像上の位置を特定するマーカ
ー頂点特定処理を実行する。図6は、図4に示すマーカ
ー頂点特定処理を説明するためのフローチャートであ
る。
【0062】図6に示すように、マーカー頂点特定処理
では、まず、ステップS21において、演算処理装置6
は、Perimeterオペレータを切り出した画像に
施すことにより、特定したマーカー領域の外周の稜線を
抽出する。
【0063】例えば、マーカー領域として特定した領域
の二値画像が図7に示す画像である場合、この画像にP
erimeterオペレータを適用すると、図8に示す
ような画像となる。すなわち、図7の画像の場合、白色
の領域MKIがマーカーMKに対応する領域であり、そ
の内側のハッチング領域MAIがマークMAに対応する
領域であり、この画像にPerimeterオペレータ
を適用すると、図8に示すように、2つの稜線MKR,
MARが抽出される。このようにして求めた稜線のうち
外側の稜線MKRをマーカーMKの外周の稜線として抽
出する。
【0064】次に、ステップS22において、演算処理
装置6は、抽出した稜線をハフ変換する。すなわち、図
9に示すように、マーカー領域MKIの画像の中心を原
点、画像の上方向をy軸、画像の右方向をx軸と定め、
定めた座標系における外周画素の座標を求め、求めた座
標をハフ変換する。
【0065】ここで、ハフ変換では、xy空間の直線を
下式により表現し、直線上の点の座標をρθのパラメー
タ空間に写像する。
【0066】xsinθ+ycosθ=ρ …(6) そして、パラメータ空間を細かいセルに分割し、それぞ
れのセルを通る点の数を記録し、セルを通る点の数の多
いセルを見つけ、そのセルに対応するパラメータにより
xy空間上の直線を特定することができる。
【0067】次に、ステップS23において、演算処理
装置6は、ハフ変換の結果から直線成分を表す極大点を
求める。本実施の形態では、マーカーMKが正方形であ
るため、直線の数は4つになる。したがって、外周の点
をハフ変換によりρθ空間に写像すると、図10に示す
ような4つの極大点(図中の白丸)が求まる。
【0068】次に、ステップS24において、演算処理
装置6は、求めた4つの極大点から平行な直線を特定す
る。具体的には、4つの極大点から下記の4つの直線方
程式を求める。
【0069】 xsinθ1+ycosθ1=ρ1 …(7) xsinθ2+ycosθ2=ρ2 …(8) xsinθ3+ycosθ3=ρ3 …(9) xsinθ4+ycosθ4=ρ4 …(10) ここで、上記の4つの直線のうち2組の直線がほぼ平行
な直線であるため、上記のθ1を基準にし、θ1との差
が最も小さいものを見つけることにより、式7の直線に
平行な直線を特定する。
【0070】次に、ステップS25において、演算処理
装置6は、特定した平行な直線からマーカーMKの頂点
を求める。すなわち、ステップS24により平行な直線
の組み合わせがわかっているので、式7の直線と平行で
ない2つの直線の方程式から2頂点の座標を求め、ま
た、式7の直線と平行な直線とから同様に別の2頂点の
座標を求め、図4に示すステップS7へ移行する。
【0071】再び図4を参照して、ステップS7におい
て、演算処理装置6は、ステップS5で特定したマーカ
ー領域の中心座標と対象物OBの3次元位置をカメラ座
標に投影した点とを基に対象物OBの主軸ベクトルを求
める主軸ベクトル算出処理を実行する。図11は、図4
に示す主軸ベクトル算出処理を説明するためのフローチ
ャートである。
【0072】図11に示すように、主軸ベクトル算出処
理では、まず、ステップS31において、演算処理装置
6は、ステップS5で特定したマーカー領域の中心座標
(cx,cy)を求める。
【0073】次に、ステップS32において、演算処理
装置6は、ステップS4で切り出した画像の中心座標
(rx,ry)を求める。具体的には、切り出した画像
の中心座標(rx,ry)を、下式による外周の画素の
座標の平均により求める。ここで、nは外周の画素数で
あり、x,yは外周の画素の座標である。
【0074】
【数2】
【0075】次に、ステップS33において、演算処理
装置6は、マーカーMKの実サイズとカメラ画像中のマ
ーカーMKのサイズから1画素に相当する実サイズ(ス
ケールパラメータ)を求める。具体的には、上記の外接
矩形の辺の長さLがステップS4において既に求まって
おり、かつ、マーカーMKのサイズMLが既知であるこ
とから、1画素に相当する3次元座標の値(スケールパ
ラメータ)sを下式により求める。
【0076】s=ML/L …(12) 次に、ステップS34において、演算処理装置6は、求
めたスケールパラメータsを用いて対象物OBの主軸ベ
クトルを求める。具体的には、対象物OBの主軸ベクト
ルのX,Y座標は、式11により求めた中心座標(r
x,ry)とマーカー領域の中心座標(cx,cy)と
を用い、以下の式により求められる。
【0077】X=s・(rx−cx) …(13) Y=s・(ry−cy) …(14) ここで、図12に示すように、対象物OBの主軸ベクト
ルMVの長さは、対象物OBの高さOHと等しく、か
つ、既知であることから、主軸ベクトルMVのZ座標
は、下式により求められる。
【0078】 Z=(OH2 +X2 +Y21/2 …(15) 上記のようにして、スケールパラメータs、切り出した
画像の中心座標(rx,ry)、マーカー領域の中心座
標(cx,cy)および対象物OBの高さOHから3次
元座標上の対象物OBの主軸ベクトルを求め、図4に示
すステップS8へ移行する。
【0079】再び図4を参照して、ステップS8におい
て、演算処理装置6は、ステップS6において特定した
マーカーMKの各頂点からカメラ5のレンズ面と平行な
面におけるマーカーMKの回転角を求めるマーカー回転
角算出処理を実行する。図13は、図4に示すマーカー
回転角算出処理を説明するためのフローチャートであ
る。
【0080】図13に示すように、まず、ステップS4
1において、演算処理装置6は、ステップS6において
求めたマーカーMKの4個の頂点から、切り出した画像
の左上頂点に近い頂点を求め、その頂点を基準にマーカ
ー領域の外周に沿って時計周りに頂点を並べ替える。こ
こで、図14に示すように、並べ替えた各頂点をc1,
c2,c3,c4と定める。
【0081】次に、ステップS42において、演算処理
装置6は、マーカーMKの回転ベクトルを求める。すな
わち、図15に示すように、切り出された画像の中心に
座標系を設定し、マーカーMKの傾きを示す回転ベクト
ルRV(vx,vy)を求める。
【0082】ここで、マーカー領域の中心座標を(c
x,cy)、頂点c2の座標を(x2,y2)、頂点c
3の座標を(x3,y3)とすると、回転ベクトルRV
(vx,vy)は、次式により求められる。
【0083】 RV(vx,vy)=((x2+x3)/2−cx,(y2+y3)/2−c y) …(16) 次に、ステップS43において、演算処理装置6は、マ
ーカーMKの回転角θを次式により求める。
【0084】 θ=sin-1(vy/(vy2 +vx2 1/2 ) …(17) 次に、ステップS44において、演算処理装置6は、カ
メラ画像上の各頂点の座標とマーカーMKの3次元ロー
カル座標系における頂点座標から射影行列を求める。
【0085】ここで、上記の回転角θだけでは、実際の
マーカーMKの回転角は分からないため、マーカーMK
に設けられたマークMAの向きを考慮する。すなわち、
マークMAの向きを求めるため、図16に示すように、
マーカー座標系として、マーカーMKの中心に3次元ロ
ーカル座標系を設定する。このとき、マーカーMKの各
頂点C1,C2,C3,C4の3次元ローカル座標は、
次式により求められる。
【0086】 C1=[−HS,HS,0]T …(18) C2=[HS,HS,0]T …(19) C3=[−HS,−HS,0]T …(20) C4=[HS,−HS,0]T …(21) 上記の3次元ローカル座標を、ステップS6において既
に求めたカメラ画像上の各頂点の座標へ写像する射影行
列を、
【0087】
【数3】 とすると、以下の関係が成り立ち、この連立方程式を解
いて射影行列を求める。
【0088】
【数4】
【0089】次に、ステップS45において、演算処理
装置6は、求めた射影行列を用いて、図17に示す4つ
のパターンをカメラ画像上に写像する。ここで、図17
の(a)に示すパターンがパターン1であり、図17の
(b)に示すパターンがパターン2であり、図17の
(c)に示すパターンがパターン3であり、図17の
(d)に示すパターンがパターン4である。
【0090】次に、ステップS46において、演算処理
装置6は、写像された各パターンとマーカー領域とのマ
ッチングを行い、図17に示す各パターンからマッチす
るパターンを特定する。
【0091】次に、ステップS47において、演算処理
装置6は、マッチしたパターンを基にマーカーMKの回
転角を求める。すなわち、マッチしたパターンに対応す
る角度を上記θに加え、マーカーMKの回転角を求め
る。ここで、図17に示すパターン1を0度とし、マッ
チしたパターンの番号(1〜4)をPNとすると、マー
カーMKの回転角θmは、下式により求められる。
【0092】 θm=θ+(PN−1)・90 …(24) 上記の処理によりマーカーMKの回転角θmを求めた
後、図4に示すステップS9へ移行する。
【0093】再び図4を参照して、ステップS9におい
て、演算処理装置6は、上記の処理により求めた対象物
OBの3次元位置と姿勢を表す主軸ベクトルおよび回転
角とを用い、3次元コンピュータ・グラッフィクによる
仮想空間における仮想対象物を対象物OBの3次元位置
および姿勢に応じて描画するためのデータを作成して表
示部3へ出力し、処理を終了する。
【0094】上記の処理により、本実施の形態では、対
象物OBの3次元位置が測定されるとともに、対象物O
BのマーカーMKが撮影され、対象物OBの3次元位置
および撮影されたマーカーMKの画像から対象物OBの
姿勢が算出され、対象物OBの3次元位置および姿勢に
応じて仮想空間における仮想対象物の表示状態が変化さ
れる。
【0095】このように、対象物OBのマーカーMKの
画像のみならず、対象物OBの3次元位置を測定してい
るので、世界座標系を規定することができ、仮想対象物
を他の視点から見る場合でも、その視点に相当するカメ
ラ座標系を得ることができる。したがって、3次元コン
ピュータ・グラフィックスによる仮想世界における仮想
対象物を現実世界の対象物OBの操作に応じた状態で任
意の視点から表示することができる。
【0096】なお、本実施の形態では、正方形のマーカ
ーMKを用いたが、マーカーの形状はこの例に特に限定
されず、種々の変更が可能である、また、マーカーMK
の中心位置から偏在してマークMAを設けたが、マーカ
ー自体の形状から大まかな回転角を検出できる場合は、
マークMAを省略してもよい。また、対象物OBに直接
蛍光塗料を塗布し、対象物OBを直接カメラ5により撮
影する場合は、マーカーMKを省略してもよい。
【図面の簡単な説明】
【図1】本発明の一実施の形態による仮想対象物操作装
置の構成を示すブロック図である。
【図2】現実世界の対象物と3次元位置測定装置および
カメラ等との位置関係を示す概略斜視図である。
【図3】現実世界の対象物とマーカー等との位置関係を
示す概略斜視図である。
【図4】図1に示す仮想対象物操作装置の演算処理装置
により実行される仮想対象物操作処理を説明するための
フローチャートである。
【図5】図4に示すマーカー領域特定処理を説明するた
めのフローチャートである。
【図6】図4に示すマーカー頂点特定処理を説明するた
めのフローチャートである。
【図7】マーカー領域として特定した領域の二値画像の
一例を示す図である。
【図8】図7に示す二値画像にPerimeterオペ
レータを適用した後の画像を示す図である。
【図9】切り出したマーカー領域の画像に設定した座標
系を示す図である。
【図10】図9に示す画像をハフ変換した後の極大点を
示す図である。
【図11】図4に示す主軸ベクトル算出処理を説明する
ためのフローチャートである。
【図12】対象物の主軸ベクトルを示す図である。
【図13】図4に示すマーカー回転角算出処理を説明す
るためのフローチャートである。
【図14】特定したマーカーの各頂点を並べ替えた状態
を示す図である。
【図15】マーカー領域の中心に設定した座標系を示す
図である。
【図16】マーカーの中心に設定した3次元ローカル座
標系を示す図である。
【図17】マーカーの回転状態に対応した4つのパター
ンを示す図である。
【符号の説明】
1 発信器 2 3次元位置測定装置 3 I/F部 4 ブラックライト 5 カメラ 6 演算処理装置 7 入力部 8 ROM 9 RAM 10 記憶装置 11 表示部 61 画像切り出し部 62 対象物切り出し部 63 主軸取得部 64 回転角取得部 65 仮想対象物描画部
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 手術ナビゲーションにおける光磁気ハ イブリッド3次元センサの構築,電子情 報通信学会論文誌D−II,日本,社団 法人電子情報通信学会,2000年 1月25 日,VOL.J83−D−2 NO.1, 396−403 (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 G06T 15/00 - 17/50 G06F 3/00 - 3/033

Claims (7)

    (57)【特許請求の範囲】
  1. 【請求項1】 現実世界の対象物を操作することによ
    り、3次元コンピュータ・グラフィックスによる仮想世
    界において前記対象物に対応付けられた仮想対象物を操
    作する仮想対象物操作装置であって、 前記対象物の3次元位置を測定する位置測定手段と、 前記対象物を撮影する撮影手段と、 前記位置測定手段により測定された前記対象物の3次元
    位置を用いて、前記撮影手段により撮影された前記対象
    物の画像から前記対象物の姿勢を算出する姿勢算出手段
    と、 前記位置測定手段により測定された前記対象物の3次元
    位置および前記姿勢算出手段により算出された前記対象
    物の姿勢に応じて、前記仮想空間における前記仮想対象
    物の表示状態を変化させる表示手段とを備えることを特
    徴とする仮想対象物操作装置。
  2. 【請求項2】 前記位置測定手段は、前記対象物の3次
    元位置を無線により測定する無線位置測定手段を含むこ
    とを特徴とする請求項1記載の仮想対象物操作装置。
  3. 【請求項3】 前記無線位置測定手段は、 前記対象物に取り付けられ、前記対象物を識別するため
    の識別情報を無線により送信する送信手段と、 前記送信手段から送信される識別情報を受信する複数の
    受信手段とを含むことを特徴とする請求項2記載の仮想
    対象物操作装置。
  4. 【請求項4】 前記対象物には、紫外線により発光する
    蛍光材料からなる所定形状のマーカーが取り付けられ、 前記撮影手段は、 前記マーカーに紫外線を照射する照射手段と、 前記照射手段により紫外線が照射されたマーカーを撮影
    するマーカー撮影手段とを含むことを特徴とする請求項
    1〜3のいずれかに記載の仮想対象物操作装置。
  5. 【請求項5】 現実世界の対象物を操作することによ
    り、3次元コンピュー タ・グラフィックスによる仮想世
    界において前記対象物に対応付けられた仮想対象物を操
    作する仮想対象物操作装置であって、 前記対象物の3次元位置を測定する位置測定手段と、 前記対象物を撮影する撮影手段と、 前記位置測定手段により測定された前記対象物の3次元
    位置を用いて、前記撮影手段により撮影された前記対象
    物の画像から前記対象物の姿勢を算出する姿勢算出手段
    と、 前記位置測定手段により測定された前記対象物の3次元
    位置および前記姿勢算出手段により算出された前記対象
    物の姿勢に応じて、前記仮想空間における前記仮想対象
    物の表示状態を変化させる表示手段とを備え、 前記対象物は所定形状のマーカーと、該マーカー上にそ
    中心位置から偏在したマークを有し、 前記姿勢算出手段は、前記位置測定手段により測定され
    た前記対象物の3次元位置、前記撮影手段により撮影さ
    れた前記マーカーの画像および前記マーカー上のマーク
    の位置から前記対象物の姿勢を算出することを特徴とす
    る仮想対象物操作装置
  6. 【請求項6】 現実世界の対象物を操作することによ
    り、3次元コンピュータ・グラフィックスによる仮想世
    界において前記対象物に対応付けられた仮想対象物を操
    作する仮想対象物操作方法であって、 前記対象物の3次元位置を測定するステップと、 前記対象物を撮影するステップと、 測定された前記対象物の3次元位置を用いて、撮影され
    た前記対象物の画像から前記対象物の姿勢を算出するス
    テップと、 測定された前記対象物の3次元位置および算出された前
    記対象物の姿勢に応じて、前記仮想空間における前記仮
    想対象物の表示状態を変化させるステップとを備えるこ
    とを特徴とする仮想対象物操作方法。
  7. 【請求項7】 現実世界の対象物を操作することによ
    り、3次元コンピュータ・グラフィックスによる仮想世
    界において前記対象物に対応付けられた仮想対象物を操
    作する仮想対象物操作方法であって、 前記対象物の3次元位置を測定するステップと、 前記対象物を撮影するステップと、 測定された前記対象物の3次元位置を用いて、撮影され
    た前記対象物の画像から前記対象物の姿勢を算出するス
    テップと、 測定された前記対象物の3次元位置および算出された前
    記対象物の姿勢に応じて、前記仮想空間における前記仮
    想対象物の表示状態を変化させるステップとを備え、 前記対象物は所定形状のマーカーと、該マーカー上にそ
    の中心位置から偏在したマークを有し、 前記対象物の姿勢の算出においては、測定された前記対
    象物の3次元位置、撮影された前記マーカーの画像およ
    び前記マーカー上のマークの位置から前記対象物の姿勢
    を算出することを特徴とする仮想対象物操作方法。
JP2000218323A 2000-07-19 2000-07-19 仮想対象物操作装置および仮想対象物操作方法 Expired - Fee Related JP3423676B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000218323A JP3423676B2 (ja) 2000-07-19 2000-07-19 仮想対象物操作装置および仮想対象物操作方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000218323A JP3423676B2 (ja) 2000-07-19 2000-07-19 仮想対象物操作装置および仮想対象物操作方法

Publications (2)

Publication Number Publication Date
JP2002032784A JP2002032784A (ja) 2002-01-31
JP3423676B2 true JP3423676B2 (ja) 2003-07-07

Family

ID=18713292

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000218323A Expired - Fee Related JP3423676B2 (ja) 2000-07-19 2000-07-19 仮想対象物操作装置および仮想対象物操作方法

Country Status (1)

Country Link
JP (1) JP3423676B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG115546A1 (en) * 2003-06-23 2005-10-28 Affineon Technologies Pte Ltd Computer input device tracking six degrees of freedom
AT501442B1 (de) * 2005-02-22 2007-07-15 Thomas Dipl Ing Kienzl Computergestütztes schnittstellensystem
US7911444B2 (en) * 2005-08-31 2011-03-22 Microsoft Corporation Input method for surface of interactive display
US9323055B2 (en) 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
US20080218331A1 (en) 2007-03-08 2008-09-11 Itt Manufacturing Enterprises, Inc. Augmented reality-based system and method to show the location of personnel and sensors inside occluded structures and provide increased situation awareness
JP4678428B2 (ja) * 2008-06-23 2011-04-27 パナソニック電工株式会社 仮想空間内位置指示装置
JP6229386B2 (ja) * 2013-09-12 2017-11-15 富士通株式会社 シミュレーション方法、シミュレーションプログラム及びシミュレーション装置
EP3048555B1 (en) 2013-09-20 2020-07-15 Fujitsu Limited Image processing device, image processing method, and image processing program
JP6295296B2 (ja) * 2016-08-01 2018-03-14 大豊精機株式会社 複合システム及びターゲットマーカ
JP2021086163A (ja) * 2019-11-25 2021-06-03 株式会社NejiLaw 個体識別システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
手術ナビゲーションにおける光磁気ハイブリッド3次元センサの構築,電子情報通信学会論文誌D−II,日本,社団法人電子情報通信学会,2000年 1月25日,VOL.J83−D−2 NO.1,396−403

Also Published As

Publication number Publication date
JP2002032784A (ja) 2002-01-31

Similar Documents

Publication Publication Date Title
US8081815B2 (en) Marker arrangement information measuring apparatus and method
US6516099B1 (en) Image processing apparatus
JP5248806B2 (ja) 情報処理装置、情報処理方法
US7746377B2 (en) Three-dimensional image display apparatus and method
JP4278979B2 (ja) ジェスチャーに基づいた入力及びターゲット指示のための単一カメラシステム
US7529387B2 (en) Placement information estimating method and information processing device
JP2001524228A (ja) 機械視覚較正標的並びに画像内で標的の位置及び方向を決定する方法
Pulli et al. Acquisition and visualization of colored 3D objects
JP3423676B2 (ja) 仮想対象物操作装置および仮想対象物操作方法
JP2000097636A (ja) 非接触3次元測定装置の測定ヘッドの位置決めのための装置及び方法
CN110751681B (zh) 一种增强现实的配准方法、装置、设备及存储介质
JP2007064684A (ja) マーカ配置補助方法及び装置
US20210374978A1 (en) Capturing environmental scans using anchor objects for registration
KR20020035652A (ko) 3 차원적인 복구를 위한 스트랩다운 시스템
JP2004094653A (ja) 情報入力システム
JP3690581B2 (ja) 位置検出装置及びその方法、平面姿勢検出装置及びその方法
JP2007286715A (ja) 画像合成装置及び画像合成プログラム
CN112082486B (zh) 一种手持式智能3d信息采集设备
CN113786228A (zh) 一种基于ar增强现实的辅助穿刺导航系统
CN114926542A (zh) 基于光学定位系统的混合现实固定参考系校准方法
CN112308933B (zh) 相机内参标定的方法、装置及计算机存储介质
US11467400B2 (en) Information display method and information display system
CN112254671B (zh) 一种多次组合式3d采集系统及方法
JP7431220B2 (ja) 基準位置設定方法及び操作検出装置
JP2022191000A (ja) 寸法測定装置および寸法測定方法

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030404

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090425

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090425

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100425

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110425

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130425

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130425

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140425

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees