JP2003308514A - 情報処理方法及び情報処理装置 - Google Patents

情報処理方法及び情報処理装置

Info

Publication number
JP2003308514A
JP2003308514A JP2003037406A JP2003037406A JP2003308514A JP 2003308514 A JP2003308514 A JP 2003308514A JP 2003037406 A JP2003037406 A JP 2003037406A JP 2003037406 A JP2003037406 A JP 2003037406A JP 2003308514 A JP2003308514 A JP 2003308514A
Authority
JP
Japan
Prior art keywords
marker
image
camera
player
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003037406A
Other languages
English (en)
Other versions
JP3793158B2 (ja
Inventor
Kiyohide Sato
清秀 佐藤
Hiroyuki Yamamoto
裕之 山本
Toshiichi Oshima
登志一 大島
Takasato Taniguchi
尚郷 谷口
Akihiro Katayama
昭宏 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003037406A priority Critical patent/JP3793158B2/ja
Publication of JP2003308514A publication Critical patent/JP2003308514A/ja
Application granted granted Critical
Publication of JP3793158B2 publication Critical patent/JP3793158B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 広い範囲で移動するプレーヤを精度良く補足
して複合現実感を提示する。 【解決手段】 既知の位置に配置された複数のマーカを
有する作業台(1000)と、プレーヤの頭部姿勢を検
出するためにプレーヤに装着される姿勢センサ(22
0)と、前記複数のマーカのうちの少なくとも1つが視
野に入るように設定されたカメラ(240)とを具備
し、前記姿勢センサからの出力に基づいて前記頭部位置
を検出すると共に、検出された頭部位置信号を、前記カ
メラの画像信号を画像処理してカメラの位置を検出する
ことにより補正して、この補正された頭部位置に応じた
視点位置に複合現実感を提示するように仮想画像を生成
する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、例えばコンピュー
タグラフィックスによる仮想画像を現実の空間に結合さ
せた複合現実感を作業者に提示する技術に関する。
【0002】
【従来の技術】近年、現実空間と仮想空間の繋ぎ目のな
い(seemless)結合を目的とした複合現実感(以下、「M
R」(Mixed Reality)と称す)に関する研究が盛んにな
っている。MRは、従来、現実空間と切り離された状況
でのみ体験可能であったバーチャルリアリティ(以下V
Rと略す)の世界と現実空間との共存を目的とし、VR
を増強する技術として注目されている。
【0003】MRの応用としては、患者の体内の様子を
透視しているように医師に提示する医療補助の用途や、
工場において製品の組み立て手順を実物に重ねて表示す
る作業補助の用途など、今までのVRとは質的に全く異
なった新たな分野が期待されている。これらの応用に対
して共通に要求されるのは、現実空間と仮想空間の間の
“ずれ”をいかにして取り除くかという技術である。
“ずれ”は、位置ずれ、時間ずれ、質的ずれに分類可能
であり、この中でも最も基本的な要求といえる位置ずれ
の解消(即ち、位置合わせ)については、従来から多く
の取り組みが行われてきた。
【0004】ビデオカメラで撮影された映像に仮想物体
を重畳するビデオシースルー(Video-See-Through)方式
のMRの場合、位置合せの問題は、そのビデオカメラの
3次元位置を正確に求める問題に帰結される。半透過型
のHMD(Head Mount Display)を用いる光学シースルー
(Optic-See-Through)方式のMRの場合における位置合
せの問題は、ユーザーの視点の3次元位置を求める問題
といえ、それらの計測法としては、磁気センサや超音波
センサ、ジャイロといった3次元位置方位センサ利用が
一般的であるが、これらの精度は必ずしも十分とはいえ
ず、その誤差が位置ずれの原因となる。
【0005】一方、ビデオシースルー方式の場合には、
このようなセンサを用いずに画像情報を元に画像上での
位置合わせを直接行う手法も考えられる。この手法では
位置ずれを直接取り扱えるために、位置合わせが精度よ
く行える反面、実時間性や信頼性の欠如などの問題があ
った。近年になって、位置方位センサと画像情報の併用
により、両者の欠点を互いに補って精度よい位置合わせ
を実現する試みが報告されている。
【0006】1つの試みとして、「Dynamic Registrati
on Correction in Video-Based-Augmented Reality Sys
tems」(Bajura MichaelとUlrich Neuman, IEEE Compute
r Graphics and Applications 15, 5, pp. 52-60, 199
5)(以下、第1文献と呼ぶ)は、ビデオシースルー方式
のMRにおいて、磁気センサの誤差によって生じる位置
ずれを画像情報によって補正する手法を提案した。
【0007】また、「Superior Augmented Reality Reg
istration by Integrating Landmark Tracking and Mag
netic Tracking」(State Andrei等, Proc. of SIGGRAPH
96,pp. 429-438, 1996)(以下、第2文献と呼ぶ)は、
さらにこの手法を発展させ、画像情報による位置推定の
曖昧性をセンサ情報によって補う手法を提案した。上記
第2文献は、位置方位センサposition-azimuth sensor
のみを用いてビデオシースルー方式のMR提示システム
を構築した場合において、そのセンサの誤差が原因とな
って画像上に発生する位置ずれを解消するために、3次
元位置が既知であるランドマークを現実空間に設定す
る。このランドマークは、その位置ずれを画像情報から
検出するための手掛かりとなる。
【0008】位置方位センサの出力に誤差が含まれてい
ないとすると、画像上で実際に観測されるランドマーク
の座標(QIとする)と、そのセンサ出力に基づいて得
られるカメラ位置とランドマークの3次元位置とから導
きだされるランドマークの観測予測座標(PIとする)
とは、同一となるはずである。しかし、実際にはセンサ
出力に基づいて得られたカメラ位置は正確ではないた
め、ランドマークの座標QIと観測予測座標PIは一致し
ない。このPIとQIのずれは、ランドマーク位置におけ
る仮想空間と現実空間の位置ずれを表しており、このた
めに、画像からランドマーク位置を抽出することで、ず
れの向きと大きさが算出できる。
【0009】このように、画像上での位置ずれを定量的
に計測することにより、位置ずれを解消するようなカメ
ラ位置の補正が可能となる。方位センサと画像を併用す
る最も単純な位置合わせ方式は、1点のランドマークを
用いたセンサ誤差の補正と考えられ、画像上のランドマ
ークの位置ずれに応じてカメラ位置を平行移動または回
転させる手法が第1文献によって提案されている。
【0010】第1図に、1点のランドマークを用いた位
置ずれ補正の基本的な考え方を示す。以下では、カメラ
の内部パラメータを既知として、歪みなどの影響を除外
した理想的な撮像系によって画像撮影が行われているも
のと仮定する。カメラの視点位置をC、画像上でのラン
ドマークの観測座標をQI 、現実空間のランドマーク位
置をQIとすると、点QIは点Cと点QIを結ぶ直線lQ
に存在する。一方、位置方位センサによって与えられる
カメラ位置からは、カメラ座標系におけるランドマーク
位置PCと、その画像上での観測座標PIとが推測でき
る。以下では、点Cから点QI、点PIへの3次元ベクト
ルを、それぞれv1、v2と表記する。この方法では、補
正後のランドマークの観測予測座標符P'IがQIに一致
するように(すなわち、カメラ座標系における補正後の
ランドマーク予測位置P'Cが、直線lQ上に乗るよう
に)、カメラと物体の相対的な位置情報を修正する事に
よって、位置ずれが補正される。
【0011】ランドマークの位置ずれを、カメラ位置の
回転によって補正することを考える。これは、二つのベ
クトルv1、v2の成す角θだけカメラが回転するよう
に、カメラの位置情報に修正を加えることにより実現で
きる。実際の計算では、上記ベクトルv1、v2を正規化
したベクトルv1n、v2nを用いて、その外積v1n×v2n
を回転軸に、内積v1n・v2nを回転角として、点Cを中
心にカメラを回転させる。
【0012】ランドマークの位置ずれを、カメラ位置の
相対的な平行移動によって補正することを考える。これ
は、仮想世界中の物体位置をv=n(v1−v2)だけ平
行移動させることで実現できる。ここでnは、次式によ
って定義されるスケールファクタである。
【0013】
【数1】
【0014】ここで、|AB|は点Aと点Bの間の距離
を示す記号とする。また、カメラが−vだけ平行移動す
るようにカメラの位置情報に修正を加えることでも、同
様の補正が可能となる。これは、この操作によって、相
対的に仮想物体がvだけ移動したことに等しくなるため
である。以上の2つの手法は、ランドマーク上での位置
ずれを2次元的に一致させる手法であり、3次元的に正
しい位置にカメラ位置を補正することではない。しか
し、センサ誤差が小さい場合には十分な効果が期待でき
るものであり、また、補正のための計算コストは非常に
小さなものであり、実時間性に優れた手法である。
【0015】
【発明が解決しようとする課題】しかしながら、上記文
献に示された手法では、唯一のマーカの撮像画像内での
位置を捕捉することが必要であるから、そのマーカが常
にカメラに撮影されていなくてはならないという制約が
あるため、ごく限られた範囲の空間しか見ることができ
なかった。
【0016】ましてや、複数の作業者が共通の複合現実
空間を共有する場合には、1つのマーカのみでは上記制
約は致命的である。
【0017】本発明は、このような事態に鑑みてなされ
たもので、補正値の急激な変化が緩和され、三次元仮想
画像の急激な変化による不自然な移動を解消することが
できる情報処理方法及び情報処理装置を提供することを
目的とする。
【0018】
【課題を解決するための手段】上記課題を解決するた
め、本発明は、被写体の位置姿勢に応じた仮想画像を生
成し、現実画像と合成することにより複合現実感を提示
する情報処理方法において、複数のマーカが配置された
シーンをカメラによって撮影することによって得られる
撮影画像を入力する入力工程と、前記撮影画像から所定
のマーカを検出する検出工程と、前記所定のマーカを基
準マーカとして前記カメラの位置の補正値を算出する算
出工程と、前記補正値を用いて前記被写体の位置姿勢を
演算する演算工程とを有する情報処理方法であって、現
フレームの撮影画像に基づいて算出された補正値と前フ
レームの補正値とを用いて前記現フレームの補正値を生
成する生成工程をさらに有することを特徴とする。
【0019】また、上記情報処理方法は、前記現フレー
ムの撮影画像からマーカを検出する領域を、現フレーム
の撮影画像より前のフレームの撮影画像におけるマーカ
の検出結果を用いて特定することを特徴とする。
【0020】さらに、上記情報処理方法は、前記検出工
程が、現フレームの撮影画像よりも前のフレームの撮影
画像において検出されたマーカと同一のマーカを検出す
ることを特徴とする。
【0021】さらにまた、上記情報処理方法は、前記被
写体の位置姿勢を検出するセンサの検出結果をさらに入
力し、前記現フレームの補正値を用いて前記検出結果を
補正することにより、前記被写体の位置姿勢を求めるこ
とを特徴とする。
【0022】さらにまた、本発明は、被写体の位置姿勢
に応じた仮想画像を生成し、現実画像と合成することに
より複合現実感を提示する情報処理装置において、複数
のマーカが配置されたシーンをカメラによって撮影する
ことによって得られる撮影画像を入力する入力手段と、
前記撮影画像から所定のマーカを検出する検出手段と、
前記所定のマーカを基準マーカとして前記カメラの位置
の補正値を算出する算出手段と、前記補正値を用いて前
記被写体の位置姿勢を演算する演算手段とを備える情報
処理装置であって、現フレームの撮影画像に基づいて算
出された補正値と前フレームの補正値とを用いて前記現
フレームの補正値を生成する生成手段をさらに備えるこ
とを特徴とする。
【0023】
【発明の実施の形態】以下、本発明の、複合現実感の提
示手法及びHMDを、エアーホッケーゲーム装置に適用
した実施形態に係わるシステムを説明する。エアーホッ
ケーゲームは相手の存在する対戦型のゲームであり、通
常、下部から圧縮空気を供給してパックを浮かして、こ
のパックを打ち合い、相手のゴールにパックを入れたら
得点が入る。得点の多い方を勝者とするゲームである。
本実施形態のMRを適用したエアホッケーゲームは、仮
想のパックを仮想3次元画像として現実環境のテーブル
の上に重畳表示してプレーヤーに提示して、その仮想パ
ックをプレーヤに現実のマレットで仮想的に打ち合わせ
るものである。
【0024】このゲーム装置の特徴は、 :共通のカメラで複数の作業者に共通の現実世界を撮
影し、その共通の画像の中に複数の作業者によって操作
される作業用アクチュエータ(本実施形態ではマレッ
ト)を特定することによって、1つの複合現実世界を現
出させ、複数人で共有可能ならしめる。 :広範な現実空間内で大きく移動する作業者の視点位
置を精度良く検出するために、頭部の位置と姿勢とを検
出する磁気センサの他に、カメラを作業者の頭部に装着
し、このカメラが、ゲームプレー用テーブルの上に設け
られた複数のマーカの中の少なくとも1つのマーカを撮
像ならしめ、この撮像されたマーカの画像座標とそのマ
ーカの既知の位置との差異から、上記磁気センサが検出
した頭部の位置/姿勢(即ち、作業者の視点の位置及び
姿勢)を補正するものである。
【0025】〈ゲーム装置の構成〉第2図は、本実施形
態のシステムのゲーム装置部分を側面から見た図であ
る。複合現実感のエアーホッケーゲームは、テーブル1
000を挟んで、二人の対戦者2000,3000が手
にマレット(260L,260R)をもって向かい合
う。二人の対戦者2000,3000は頭部にヘッドマ
ウントデイスプレイ(以下HMDと略す)210L,2
10Rを装着する。本実施形態のマレットは、その先端
に赤外線発光器を有している。後述するように、本実施
形態では、画像処理によりマレット位置を検出するが、
マレットの形状や色に特徴があるのであれば、それらの
特徴を用いたパターン認識によるマレット位置の検出も
可能である。
【0026】実施形態のHMD210は、第4図に示す
ようにシースルー型である。両対戦者2000,300
0は、HMD210L,210Rを装着していても、テ
ーブル1000の表面を観察することができる。HMD
210には後述の画像処理システムから三次元仮想画像
が入力される。従って、対戦者2000,3000は、
HMD210の光学系(第2図には不図示)を通した現
実空間の映像に重ねて、HMD210の表示画面に表示
された三次元画像を見ることとなる。
【0027】第3図は、左側プレーヤ2000が自身の
HMD210Lからみた映像を示す。二人のプレーヤ2
000,3000は仮想のパック1500を打ち合う。
パック1500を打つのはプレーヤ2000(プレーヤ
3000)が手に握っている現実のマレット260L
(260R)を用いる。プレーヤ2000は手にマレッ
ト260Lを握っている。相手プレーヤ3000の直前
にはゴール1200Rが見える。後述の画像処理システ
ム(第3図には不図示)は、ゴール1200Rが相手方
近傍に見えるように、三次元CGを生成してHMD21
0Lに表示する。
【0028】対するプレーヤ3000も、HMD210
Rを介してプレーヤ3000の近傍にゴール1200L
を見ることとなる。パック1500も後述の画像処理シ
ステムにより生成されて、各々のHMDに表示される。
【0029】〈磁気センサ付きHMD〉第4図は、HM
D210の構成を示す。このHMD210は、例えば特
開平7−333551号のHMDの本体に、磁気センサ
220を支柱221を介して取り付けたものである。図
中、211はLCD表示パネルである。LCD表示パネ
ルからの光は、光学部材212に入射し、全反射面21
4にて反射して、凹面ミラー213の全反射面にて反射
して、全反射面214を透過して観察者の目に届く。
【0030】磁気センサ220は、本実施形態では、Po
lhemus社の磁気センサFastrackを用いた。磁気センサは
磁気ノイズに弱いので、プラスティック製の支柱221
により、ノイズ発生源である表示パネル211及びカメ
ラ240から離間した。尚、第4図に示したHMDに磁
気センサ及び(又は)カメラを取り付ける構成は、光学
的シースルー方式の(透視型の)HMDに限られず、ビ
デオシースルー方式の(遮蔽型の)HMDであっても、
磁気センサ及び(又は)カメラを、頭部位置及び姿勢を
正確に検出する目的で、そのHMDに装着することは可
能である。
【0031】第2図において、夫々のHMD210はバ
ンド(不図示)によってプレーヤの頭部に固定される。
プレーヤの夫々の頭部には、第4図に示すように磁気セ
ンサ220が、第2図に示すようにCCDカメラ240
(240L,240R)が、それぞれ固定されている。
カメラ240の視界はプレーヤの前方方向に設定されて
いる。このような磁気センサ220とカメラ240とを
備えたHMDをエアホッケーゲームに用いる場合には、
プレーヤはそれぞれテーブル1000の上面を見ること
となるので、カメラ240もテーブル1000の表面の
画像を撮像する。磁気センサ220(220L,220
R)は、交流磁界発生源250が発する交流磁界の変化
をセンスする。
【0032】後述するように、カメラ240が撮影した
画像は、磁気センサ220が検出した頭部の位置/姿勢
を補正するために用いられる。プレーヤがテーブル10
00の表面を見るために斜め下方を向くと、HMD21
0を通した視界には、テーブル1000の表面と、前述
の仮想のパック1500、現実のマレット260(26
0L,260R)、仮想のゴール1200(1200
L,1200R)が見える。また、プレーヤが、頭部
を、水平二次元平面内において水平移動させ、あるいは
ティルティング運動、ヨー運動、ローリング運動を行わ
せると、その変化は先ず磁気センサ220によって検出
され、併せて、頭部の姿勢変化に伴ってCCDカメラ2
40が撮像する画像の変化として観測される。即ち、磁
気センサ220からの頭部位置を表す信号はカメラ24
0の画像を画像処理することによって補正される。
【0033】〈複数のマーカ〉夫々のプレーヤに把持さ
れる夫々のマレット260はその先端に赤外線発光器を
有しており、各マレットのテーブル1000上の位置
(二次元平面位置)は各マレットからの赤外線を検出す
るCCDカメラ230によって知られる。即ち、カメラ
230は各プレーヤの手の位置(マレットの位置)を検
出するためにある。マレット位置を検出することによ
り、本ホッケーゲームの進行を判断することができる。
【0034】他方、CCDカメラ240はマーカ画像と
呼ばれる画像を出力する。第5図はテーブル1000上
に配置されたマーカの一例を示す。第5図において、○
印で示した5つのランドマーク即ちマーカ(1600〜
1604)はプレーヤ2000の頭部位置を補助的に検
出するために用いられるマーカを示し、□印で示した5
つのランドマーク即ちマーカ(1650〜1654)は
プレーヤ3000の頭部位置を補助的に検出するために
用いられるマーカを示す。マーカを第5図のように複数
配置すると、頭部の位置、特に姿勢によって、どのマー
カが見えるかが決まる。換言すれば、各々のプレーヤに
装着されたCCDカメラ240が写す画像中におけるマ
ーカを特定し、画像内での位置を検出することにより、
プレーヤの頭部姿勢を検出する磁気センサの出力信号の
補正を行うことができる。
【0035】尚、第5図の○印と□印とは図示のために
採用したものであり、その形状に特徴があるわけではな
く、任意の形状であってもよい。二人のプレーヤ(20
00,3000)に対してそれぞれ割り当てられたマー
カ群(1600〜1608)とマーカ群(1650〜1
658)とは、それぞれ、異なる色に着色されている。
本実施形態では、左側プレーヤ(#1プレーヤ)のため
のマーカは赤色に、右側プレーヤ(#2プレーヤ)のた
めのマーカは緑色に着色されている。画像処理における
マーカの区別を容易にするためである。尚、色でなく形
状やテクスチャによってマーカを区別することも可能で
ある。
【0036】本実施形態の大きな特徴は、マーカを複数
配置した点にある。複数配置することによって、プレー
ヤがテーブル1000上で本エアホッケーゲームの動作
範囲内で行動する限りにおいて、少なくとも1つのマー
カがCCDカメラ240の視野内に入ることが保証され
る。第6図は、プレーヤが頭部を色々と移動した場合に
おいて、頭部の移動に伴って、マーカを検出する画像処
理範囲が移動する様子が描かれてる。同図に示すよう
に、1つの画像には少なくとも1つのマーカが入ってい
る。換言すれば、マーカの数、マーカ間の間隔等は、テ
ーブル1000の大きさ、カメラ240の視野角、ゲー
ムの性質に基づくプレーヤの移動範囲の大きさに応じて
設定されるべきである。第5図の場合、プレーヤから遠
方であればあるほど、広い範囲が視野に入るので、マー
カ間の間隔を広くしなければならない。これは、近傍に
あるマーカ間の画像中での間隔距離と、遠方にあるマー
カ間の画像中での距離とを同じくすることにより、遠方
の視野の画像中に取り込まれるマーカの数を低く抑えて
マーカ検出精度の低下を防止するためである。このよう
にすることにより、画像中に取り込まれるマーカの密度
が遠方マーカでも近隣のマーカでも実質的に等しくする
ことができ、同じフレーム内に不必要に複数のマーカが
撮像されるのを防ぐことができる。
【0037】後述するように、本システムでは、カメラ
240L(240R)が得た画像中に少なくとも1つの
マーカが存在し、そのマーカを特定できれば十分であ
る。従って、特定のマーカをプレーヤが頭を移動させる
間(カメラ240を移動させる間)において追跡し続け
る必要はない。
【0038】〈MR画像生成システム〉第7図は、第2
図に示したゲーム装置における三次元画像の生成提示シ
ステムの構成を示す。この画像生成提示システムは、左
側プレーヤ2000のHMD210L及び右側プレーヤ
3000のHMD210Rの夫々の表示装置に、三次元
の仮想画像(第3図のパック1500,ゴール120
0)を出力するものである。三次元仮想画像のための左
右の視差画像の生成は、画像生成部5050L,505
0Rに拠って行われる。本実施形態では、画像生成部5
050の夫々に米国SiliconGraphics社製のコンピュー
タシステム「ONYX2」を用いた。
【0039】画像生成部5050は、ゲーム状態管理部
5030が生成するパック位置情報等と、2つの補正処
理部5040L,5040Rが生成する補正後の視点位
置・頭部方向に関する情報とを入力する。ゲーム状態管
理部5030および補正処理部5040L,5040R
の夫々はコンピュータシステムONYX2により構成され
た。
【0040】テーブル1000の中央上空に固定された
CCDカメラ230は、テーブル1000の表面を全て
視野に納める。カメラ230によって取得されたマレッ
ト情報はマレット位置計測部5010に入力される。こ
の計測部5010は、同じく、SiliconGraphics社製「O
2」コンピュータシステムにより構成された。計測部5
010は、二名のプレーヤのマレット位置、即ち、手の
位置を検出する。手の位置に関する情報はゲーム状態管
理部5030に入力されて、ここで、ゲーム状態が管理
される。即ち、ゲーム状態・ゲームの進行は基本的には
マレットの位置によって決定される。
【0041】SiliconGraphics社製コンピュータシステ
ムO2により構成された位置姿勢検出部5000は、2つ
の磁気センサ220L,220Rの夫々の出力(センサ
220自体の位置及び姿勢)を入力して、各プレーヤに
装着されたカメラ(240L,240R)での視点位置
(X,Y,Z)及び姿勢(p,r,φ)を検出し、補正
処理部5040L,5040Rに出力する。
【0042】一方、各プレーヤの頭部に固定されたCC
Dカメラ240L,240Rはマーカ画像を取得し、こ
のマーカ画像は、夫々、マーカ位置検出部5060L,
5060Rにおいて処理され、夫々のカメラ240の視
野に納まっている夫々のプレーヤについての追跡マーカ
の位置が検出される。追跡マーカ位置に関する情報は補
正処理部5040(5040L,5040R)に入力さ
れる。
【0043】尚、マーカを追跡するマーカ位置検出部5
060(5060L,5060R)はO2コンピュータシ
ステムにより構成された。
【0044】〈マレット位置計測〉第8図乃至第10図
は、マレット位置を計測する制御手順を示すフローチャ
ートである。1つの共通カメラでマレットを追跡するこ
とにより、複数作業者による共通の複合現実感を提示す
ることが可能となる。第8図乃至第10図のフローチャ
ートにより、本実施形態のマレット位置の計測について
説明する。
【0045】エアホッケーゲームでは、プレーヤは自身
のマレットを他のプレーヤの領域まで進めることはな
い。そのために、左側プレーヤ2000(右側プレーヤ
3000)のマレット260L(260R)を探索する
処理は、第11図に示すように、左側フィールドの画像
データIL(画像データIR)に処理を集中すればよい。
固定位置にあるCCDカメラ230が取得した画像を第
11図に示すように2つの領域に分割することは容易で
ある。
【0046】従って、第8図のフローチャートにおい
て、プレーヤ#1(プレーヤ2000)のマレット26
0Lの探索についてはステップS100で、プレーヤ#
2(プレーヤ3000)のマレット260Rの探索につ
いてはステップS200で、夫々の処理が行われる。そ
こで、便宜上、右側プレーヤのマレットの探索(ステッ
プS200)を例にして説明する。
【0047】先ず、ステップS210で、TVカメラ2
30が撮像したテーブル1000表面の多値画像を取得
する。ステップS212では、その多値画像の右半分の
画像データIRについて、サブルーチン「ローカル領域
での探索」を施す。「ローカル領域での探索」処理の詳
細は第9図に示される。ステップS212で画像座標系
でのマレット位置の座標(x,y)が見つかると、ステ
ップS214からステップS220に進み、画像座標系
でのマレット位置座標(x,y)を次式に従ってテーブ
ル1000の座標系(第13図を参照)の座標位置
(x’,y’)に変換する。
【0048】
【数2】
【0049】ここで、マトリクスMTは画像座標系とテ
ーブル座標系とをキャリブレーションするための3×3
の変換行列で、既知である。ステップS220で得られ
た座標位置(x’,y’)(第3図では、(x’,
y’)は「手の位置」としてしめされている)はゲーム
状態管理部5030に送られる。ローカル領域でマレッ
トがみつからなかったならば、ステップS216で「グ
ローバル領域での探索」を行う。「グローバル領域での
探索」でマレットが見つかったならば、ステップS22
0でその座標位置をテーブル座標系に変換する。尚、ロ
ーカル又はグローバル領域で探索された座標位置は、次
のフレームでのローカル領域におけるマレットの探索に
用いられる。
【0050】第9図はマレットをローカル領域で探索す
る処理(ステップS212の詳細)を示す。但し、この
処理は便宜上右側フィールドにおける探索処理を示す
が、左側フィールドにおけるマレットの探索処理につい
ても実質的に同様である。ステップS222で、次式で
定義される大きさ(2A+1)×(2B+1)画素の矩
形領域を抽出する。
【0051】
【数3】 ここで、上記式中の、I'x,I'yは前フレームで検出さ
れたマレットの座標値であり、A,Bは探索領域の大き
さを決める定数であって、かかる探索領域は第12図の
ようになる。
【0052】ステップS230は、ステップS222で
定義された矩形領域中の全ての画素(x,y)につい
て、特徴の評値値IS(x,y)が一定の条件を満足す
る画素を抽出する工程である。マレットを探索する目的
では、特徴量とは、画素値(赤外光の強度値)の類似度
が好適である。本実施形態では、マレットには赤外線発
光器を用いているので、その赤外光の強度の特徴を有す
るものは、一応マレットと判断する。
【0053】即ち、ステップS232では、類似度IS
が所定の閾値以上にマレットに近い画素を見つける。そ
のような画素を見つけると、カウンタNに発生度数の累
積値を記憶する。また、そのような画素のx座標値及び
y座標値をレジスタSUMx及びSUMyに累積記憶する。即
ち、
【0054】
【数4】 とする。ステップS230を終了した時点で、第12図
の領域中でマレットからの赤外光のパターンに類似して
いる全ての画素の個数N、及び座標値の累積値SUMx,SU
Myが得られる。N=0であればステップS236で結果
“Not Found”が出力される。N>0であれば、マレッ
トらしいものが見つかったのであり、ステップS238
で、マレットの位置(Ix,Iy)を、
【0055】
【数5】 に従って演算する。そして、この演算されたマレット位
置(Ix,Iy)をステップS220(第8図)でテーブ
ル座標系に変換し、この変換値を「手の位置」を表す信
号として管理部5030に渡す。第10図は、ステップ
S216のグローバル領域探索の詳細手順を示す。第1
0図のステップS240で、右側フィールドの画像IR
中の、
【0056】
【数6】 を満足する画素の中で、特徴の評値値ISの最大値をレ
ジスタMaxに記憶する。ここで、C,Dは探索の粗さを
決める定数であり、WidthおよびHeightはその定義を第
15図に示す。即ち、ステップS242で、特徴量IS
が閾値記憶レジスタMaxに記憶されている閾値を超える
か否かを判断する。そのような画素が見つかったなら
ば、ステップS244で、その特徴量を新たな閾値とす
べく、ステップS244で、
【0057】
【数7】 とする。ステップS246では、グローバル探索で見つ
かった最もマレットらしい画素(Ix,Iy )の座標値
をステップS220に渡す。
【0058】このようにして、マレットを画像中で見つ
け、その座標値をテーブル座標系に変換したものをゲー
ム状態管理部5030に渡す。
【0059】〈ゲーム状態管理〉第13図は、本実施形
態のエアホッケーゲームのゲームフィールドを示す。こ
のフィールドは、テーブル1000の上の2次元平面上
に定義され、x,y軸を有する。また、左右の2つの仮
想的ゴールライン1200L,1200Rと、第13図
の上下方向に設けられた仮想的壁1300a,1300
bとを有する。仮想的ゴールライン1200L,120
0Rと仮想的壁1300a,1300bとは、その座標
値は既知であり、移動することはない。このフィールド
の中で、マレット260R,260Lの移動に応じて、
パック1500の仮想画像が移動する。
【0060】パック1500は、現在位置の座標情報P
pと速度情報vpとを有し、左マレット260Lは現在位
置の座標情報PSLと速度情報vSLとを有し、右マレット
260Rは現在位置の座標情報PSRと速度情報vSRとを
有する。第14図は、ゲーム状態管理部5030におけ
る処理手順を説明するフローチャートである。
【0061】ステップS10において、パック1500
の初期位置Pp0及び初期速度vp0を設定する。尚、パッ
クは速度vpで等速度運動を行う。また、パックは、壁
又はマレットに当たると完全弾性衝突を行う、即ち、速
度方向が反転するものとする。ゲーム状態管理部503
0は、マレット位置計測部5010が計測した各マレッ
トの位置情報PSから速度情報vSを得る。
【0062】ステップS12は、ゲームでの勝敗が決定
する(ステップS50で一方が3点を先取する)迄の間
は、Δt時間毎に実行される。すると、ステップS12
では、パックの位置は、
【0063】
【数8】 に更新される。初期位置及び初期速度設定後におけるパ
ックの位置は、一般には、
【0064】
【数9】 で表される。ステップS14では、更新されたパック位
置Ppがプレーヤの#1側(左プレーヤ)のフィールド
にあるか否かを調べる。パック1500が左プレーヤ側
にある場合について説明する。
【0065】ステップS16では、現在のパック位置が
左プレーヤのマレット1100Lと干渉する位置にある
か否かを調べる。パック1500がマレット1100L
と干渉する位置にあるとは、左プレーヤ2000がマレ
ット260Lをパックに衝突させるようなマレット操作
を行ったことを意味するから、パック1500の運動を
反転させるために、ステップS18で、パック1500
の速度vpのx方向速度成分vpxの符号を反転させて、
ステップS20に進む。
【0066】尚、単に速度vpのx方向速度成分vpx
符号を反転させる代わりに、
【0067】
【数10】 として、パックの動作を、パックのx方向速度vpxにマ
レットのx方向の操作速度vSLxを重畳して、反対方向
に進ませるようにしても良い。一方、現在のパック位置
が左プレーヤのマレット1100Lと干渉する位置にな
い場合(ステップS16でNO)には、そのままステッ
プS20に進む。
【0068】ステップS20では、パックの位置Pp
仮想壁1300a又は1300bと衝突する位置にある
か否かを調べる。ステップS20の判断がYESの場合
には、ステップS22でパックの速度のy成分を反転さ
せる。次ぎにステップS24で、現在のパック位置が左
プレーヤのゴールライン内にあるか否かを調べる。YE
Sの場合には、ステップS26で相手側のプレーヤ、即
ち、右(#2)プレーヤの得点を加算する。ステップS
50では、いずれかの得点が3点以上先取したかを調べ
る。3点以上であればゲームを終了する。
【0069】ステップS14での判断で、パックの位置
pが右プレーヤ側(#2プレーヤ側)にある場合に
は、ステップS30以下を実行する。ステップS30〜
ステップS40は、ステップS16〜ステップS26と
実質的に動作は同じである。かくして、ゲームの進行状
態は管理される。ゲームの進行状態は、パックの位置、
マレットの位置であり、前述したように、画像生成部5
050(5050L,5050R)に入力される。
【0070】〈頭部位置の補正〉第16図は、補正処理
部5040(5040L,5040R)における処理の
制御手順の全体を示す。補正処理部5040における補
正とは、磁気センサ220の出力は誤差を伴うものであ
り、そのような出力に基づいて計測部5000が演算し
た視点位置データ及び頭部姿勢データを、CCDカメラ
240から得られた画像中のマーカ位置に基づいて補正
する処理をいう。即ち、この補正処理は、カメラ240
が取得した画像中のマーカ位置から、カメラ240の位
置(頭部の位置に密接に関連するものでもある)の補正
値を求め、その補正値を用いて、視点のビューイング変
換行列を変更する。変更されたビューイング変換行列は
補正された視点の位置及び姿勢データを表すものであ
り、換言すれば、この補正されたビューイング変換行列
は補正された視点位置での仮想画像を与える。
【0071】第26図は、第1実施形態における観察者
の視点位置/姿勢の補正の原理を説明する。ここで、実
施形態における観察者の視点位置/姿勢の補正とは、補
正されたビューイング変換行列を求めることと等値であ
る。第26図において、プレーヤのカメラ240がマー
カ1603を画像300に捉えているとする。マーカ1
603の位置はこの画像300内では画像座標系で例え
ば(x0,y0)と表される。一方、画像300が捉えて
いるマーカが1603であることが分かれば、そのマー
カ1603の世界座標系での座標(X0,Y0,Z0)は
既知である。(x0,y0)は画像座標値であり(X0
0,Z0)は世界座標であるから、これらの座標同士を
比較することはできない。第1実施形態では、磁気セン
サ220の出力からカメラ240のビューイング変換行
列MCを求め、世界座標系での座標(X0,Y0,Z0)を
このビューイング変換行列MCを用いて画像座標系の座
標(x'0,y'0)に変換する。そして、(x0,y0)と
(x'0,y'0)との誤差が磁気センサ22の出力の誤差
を表現するものであるから、これを補正する補正行列Δ
Cを求める。
【0072】尚、第26図から明らかなように、画像3
00内に捉えられたマーカがマーカ1603であること
を特定する必要があるが、第1実施形態では、後述する
ように、全てのマーカの世界座標系での三次元位置を上
記ビューイング変換行列MCにより画像座標系に変換し
て、変換後のカメラ座標値が上記(x0,y0)に最も近
いマーカを画像300内に捉えられたマーカと特定す
る。この処理は第19図及び第20図によって説明され
るであろう。
【0073】第16図に従って補正処理部5040の処
理手順を詳細に説明する。即ち、ステップS400で
は、磁気センサ220の出力に基づいて、カメラ240
のビューイング変換行列(4×4)を計算する。ステッ
プS410では、ステップS400で求めたビューイン
グ変換行列と、カメラ240の理想的透視変換行列(既
知)と、各マーカの三次元位置(既知)とに基づいて、
各マーカが観測されるべき位置座標(画像座標系での)
を予測する。
【0074】一方、マーカ位置検出部5060(506
0L,5060R)は、プレーヤの頭部に取り付けられ
たカメラ240(240L,240R)から得た画像中
でマーカを追跡している。マーカ位置検出部5060
は、検出したマーカ位置を、補正処理部5040(ステ
ップS420において)に渡す。補正処理部5040
(5040L,5040R)は、ステップS420にお
いて、渡されたマーカ位置情報に基づいて、現在観測し
ているマーカ、即ち補正の基準となるマーカを判別す
る。ステップS430では、ステップS410で演算さ
れたマーカの予測座標値とマーカ位置検出部5060が
検出したマーカの観測座標値との差異に基づいて、磁気
センサ220が検出したカメラ240の位置姿勢を補正
するための補正行列ΔMcを求める。カメラ240の位
置姿勢の補正ができるのは、マーカ位置検出部5060
が観測したマーカ(第26図の例ではマーカ1603)
の座標値と磁気センサが検出した頭部位置に基づくマー
カ座標とは、センサ出力が正確であれば一致している筈
であるから、ステップS430で演算する上記の差異は
磁気センサ220の誤差を反映するからである。カメラ
の位置姿勢と視点の位置姿勢との相対関係は既知であ
り、その関係は三次元座標変換で表される。従って、こ
のカメラの位置姿勢の補正行列ΔMcに基づいて、ステ
ップS440で、ステップS400で演算した視点のビ
ューイング変換行列を補正し、この補正された変換行列
を画像生成部5050(5050L,5050R)に渡
す。
【0075】第17図はマーカ位置検出部5060にお
ける、マーカの位置検出のための処理手順である。ステ
ップS500では、カメラ240が取得したカラー画像
を取り込む。その後に、ステップS502では、「ロー
カル領域探索」を、ステップS506では「グローバル
領域探索」を行って、画像座標系によって表されたマー
カ位置(x,y)を検出する。ステップS502の「ロ
ーカル領域探索」、ステップS506の「グローバル領
域探索」は、手順としては、マレット探索における「ロ
ーカル領域探索」(第9図)、「グローバル領域探索」
(第10図)に実質的に同じであるので、この「ローカ
ル領域探索」(第9図)と「グローバル領域探索」(第
10図)とを援用することとし、図示を省略する。但
し、援用された制御手順(ステップS232)におけ
る、マーカ探索のための特徴量ISとして、プレーヤ#
1(左)について、注目画素の画素値の、
【0076】
【数11】 を用いる。プレーヤ#1については、マーカ(1600
〜1604)には赤色を用いているので、この特徴量は
赤らしさの程度を表す。また、プレーヤ#2(右)につ
いては緑色のマーカ(1650〜1654)を用いてい
るので、
【0077】
【数12】 を用いる。また、グローバル探索における特徴量I
S(x,y)についても上記2つの量を用いる。ステッ
プS502及びステップS506で得られたマーカの座
標値は、ステップS510で、歪みを補正するための行
列M(例えば3×3の大きさを有する)を用いて歪みの
ない理想的な画像座標系に変換する。この時の変換式
は、
【0078】
【数13】 である。次ぎに、第16図のステップS410の処理の
詳細について第18図を用いて説明する。前述したよう
に、ステップS400では世界座標系からカメラ座標系
への変換行列MC(4×4のビューイング変換行列)が
得られている。一方、カメラ座標系から画像座標系への
変換行列PC(4×4)も既知の値として与えられてい
る。また、注目するマーカの三次元座標位置(X,Y,
Z)も既知として与えられている。
【0079】即ち、角度rをカメラ240の位置でのZ
軸方向の回転(roll)とし、角度pをカメラ240の位置
でのX軸方向の回転(pitch)とし、角度φをカメラ24
0の位置でのZ軸方向の回転(yaw)とし、カメラ240
の位置を(X0,Y0,Z0)すると、カメラ240のビ
ューイング変換行列(即ち、世界座標系からカメラ座標
系への変換行列)Mcは、
【0080】
【数14】 であり、dをカメラ240の焦点距離、wをカメラの撮
像面の幅、hを同じく高さとすると、カメラ座標系から
画像座標系への変換行列PCは、
【0081】
【数15】 で表される。従って、第18図のステップS520(即
ち第16図のステップS410)では、注目マーカの座
標位置(X,Y,Z)を、次式に従って、画像面上での
位置(xh,yh,zh)に変換する。
【0082】
【数16】
【0083】ステップS522では、画像座標系におけ
るマーカの観測予測座標値x、yとして、
【0084】
【数17】 を得る。かくして、ステップS410により、各マーカ
iの画像座標系での観測予測座標値(xi,yi)を得る
ことができる。次ぎに、ステップS420における「マ
ーカ判別」の処理を説明する。第19図は、テーブル1
000上において、一方のプレーヤのカメラ240が画
像600を取得した場合を示す。
【0085】テーブル1000上に設けられているマー
カを、例えばM1〜M7とし、△印で表す。このマーカの
三次元位置Miは既知である。画像600内には、マー
カM2,M3,M6,M7が含まれている。一方、各マーカ
iの観測予測位置はステップS520で求められたも
のであり、それをPiとする。また、Qは、マーカ位置
検出部5060が検出し、検出部5060から渡された
マーカ位置を示す。
【0086】ステップS420の「マーカの判別」は、
マーカ位置検出部5060が検出したマーカ位置Qが、
どのPi(即ち、どのMi)に対応するかを判断するもの
である。第19図において、ベクトルeiを、検出され
たマーカ位置Qから各マーカの予測位置Piに向かうベ
クトルの長さ、即ち、距離を表すものとする。ステップ
S420の詳細を第20図に示す。即ち、第20図の処
理は、画像6000内に入るマーカi(i=0〜n)の
距離eiのうち、最小値を示すマーカを探索し、そのマ
ーカの識別子iを出力するものである。即ち、
【0087】
【数18】 である。第19図の例では、P2間での距離e2が一番短
いので、マーカM2を磁気センサ出力の補正に用いるデ
ータとする。かくして、プレーヤがどのように移動して
も、その活動範囲(フィールド)内では、カメラ240
は少なくとも1つのマーカを画像中に捉えるので、従来
のように、フィールドの大きさを狭く限定する必要が無
くなる。
【0088】次に、ステップS430では、第1図にお
いて説明した処理と同じであって、式18に基づいて得
られた誤差距離eminに基づいて、カメラの位置方位の
補正を表す変換行列ΔMcを求める。一方、ステップS
432では、磁気センサ出力に基づいて、プレーヤの視
点位置でのビューイング変換行列MVを求める。また、
vcをカメラ座標系から視点座標系への変換行列(既知
である)とすると、ステップS440では、このMvc
用いて、次式によって補正後の視点のビューイング変換
行列Mv’を導出する。
【0089】
【数19】
【0090】尚、第26図から明らかであり、また後述
の第2実施形態からも明らかになることであるが、第1
実施形態(第16図の処理)では、画像座標系に変換し
て、誤差距離eを求めたが、反対に世界座標系に変換し
て誤差距離eを求めても同じように補正後の視点のビュ
ーイング変換行列を得ることができる。
【0091】〈頭部位置の検出精度の向上〉…第2実施
形態 上記第1実施形態では、HMD210L(210R)に
は前方モニタ用の1つのカメラ240L(240R)が
設けられていた。このカメラ240により取得されたテ
ーブル1000上のマーカの画像を、処理部5060が
処理して、画像中のマーカを特定(ステップS420)
して、プレーヤの頭部の姿勢、即ち、頭部に装着された
カメラの姿勢、換言すれば、この姿勢を有するカメラに
よるビューイング変換を表す行列を決定するというもの
であった。しかしながら、第1実施形態では画像座標系
での誤差のみを利用しているため、カメラとマーカの位
置関係に三次元的なずれが残ってしまう。
【0092】また、複合現実感を提示するための用途に
よっては、マーカが3次元空間の任意位置におかれる場
合もあり、このような場合は第1実施形態での第16図
に示されたマーカの同定手法は信頼性が低くなる。次に
提案する第2実施形態は、この三次元的なずれの問題を
解消する。即ち、一人のプレーヤに2台のカメラを装着
してマーカの検出を世界座標系で行うことで、上記の問
題を解消する。また、第2実施形態は、マーカが平面上
に配置されなくてはならないという拘束も緩和する。
【0093】具体的には、2つのカメラが左右に配置装
着された2台のHMDを二人のプレーヤに用いるもので
ある。即ち、第21図に示すように、プレーヤ2000
(3000)のHMD210L(210R)には、2台
のカメラ240LR,240LL(240RR,240
RL)を装着し、このカメラ240LR,240LL
(240RR,240RL)から得たステレオ画像か
ら、カメラ240LR,240LL(240RR,24
0RL)の姿勢を補正するものである。
【0094】尚、第2実施形態のシステムは、マーカが
3次元的に配置された場合にも対処できるものである
が、第1実施形態の処理手順との異同を明瞭にするため
に、第1実施形態と同じく、平面上に配置された複数の
マーカを用いるエアホッケーゲームに適用する。第22
図は、第2実施形態に関わる画像処理システムの一部を
示す。即ち、第22図は、第1実施形態の画像処理シス
テム(第7図)のうちの変更部分を示す。即ち、第7図
と第22図とを対比すると、第2実施形態の画像処理シ
ステムは、各プレーヤに2台のカメラが設けられている
点のほかに、マーカ位置検出部5060L’(5060
R’)と、補正処理部5040L’(5040R’)と
を有する点で第1実施形態と異なるものの、第2実施形
態のマーカ位置検出部5060L’(5060R’)
と、補正処理部5040L’(5040R’)は第1実
施形態のマーカ位置検出部5060L(5060R)
と、補正処理部5040L(5040R)とソフトウエ
アの処理において異なっているに過ぎない。
【0095】第23図は、第2実施形態の処理手順のう
ちの特に左側プレーヤ2000のための制御手順を示
し、特に、第1実施形態の第16図の制御手順に対応す
る部分であって、マーカ位置検出部5060’と位置・
姿勢検出部5000と補正処理部5040L’との連係
動作を説明する。第23図に於いて、第1実施形態と同
じところの位置・姿勢検出部5000は、ステップS3
98で磁気センサ220Lの出力に基づいて、視点のビ
ューイング変換行列を算出する。ステップS400’で
は、磁気センサ220Lの出力に基づいて、カメラ24
0LRのビューイング変換行列の逆行列を算出する。こ
の変換行列は補正処理部5040’に送られる。
【0096】2台のカメラ240LL(240LR)か
らの画像はマーカ位置検出部5060L’に送られる。
即ち、ステップS402では、検出部5060’が右側
カメラ240LRからの画像R中にマーカ画像mRを抽
出する。抽出されたマーカの座標(即ち、観測座標)を
mRで表す。ステップS404では、検出部5060’
が右側カメラ240LLからの画像L中に対応マーカ画
像mLを抽出する。抽出されたマーカの座標をImLで表
す。マーカ画像mRとマーカ画像mLとは本来同じマーカ
mXのものであるから、ステップS406では、観測さ
れた1組のマーカ座標(ImR,ImL)から、三角測量の
原理に基づいて、カメラ240LRの座標系における抽
出された観測マーカの三次元位置Cmを導出する。
【0097】尚、ステップS404では、一般的なステ
レオ視による手法を用いてマーカ画像mLの対応点探索
を行うが、処理を高速に行うために、周知のエピポーラ
拘束epipolar bindを用いて探索範囲を限定してもよ
い。第23図のステップS410’,ステップS42
0’,ステップS422,ステップS430’は補正処
理部5040L’における処理を示す。
【0098】まず、ステップS410’では、観測され
たマーカのカメラ座標系における三次元位置Cmを、ス
テップS400’において導出された透視変換行列を用
いて、世界座標系の三次元位置Wmに変換する。ステッ
プS420’では、全てのマーカmiの世界座標系にお
ける3次元位置Wmi(既知)を所定のメモリから取り出
して、個々のマーカmiと観測マーカmXとのユークリッ
ド距離|Wmi−Wm|を最小とするようなWmiを決定す
る。即ち、観測マーカmX最も近い位置にある既知のマ
ーカを同定する。
【0099】WmiとWmとは本来的には同じ位置ではあ
るが、センサの誤差によって誤差ベクトルD(第1実施
形態のeに相当)が発生しているものである。そこで、
ステップS420’では、観測された(追跡された)マ
ーカの3次元座標(世界座標)に最も近い座標値Wmi
有するマーカを決定し、ステップS430’では、観測
マーカと決定されたマーカとの距離差ベクトルDを、
【0100】
【数20】 により演算して、カメラ位置をこのベクトル量だけ移動
させるための変換行列ΔMcを求め、ステップS44
0’では、第1実施形態と同じ手法で視点のビューイン
グ変換行列を補正する。
【0101】かくして、本発明は、2台のカメラを装着
したHMDを用いることにより、観測マーカの位置検出
を三次元的に行うことができ、このために、より正確な
視点の位置姿勢が検出可能となり、MRの仮想画像と実
画像とのつなぎが滑らかとなる。
【0102】〈変形例1〉本発明は上述の第1実施形態
や第2実施形態にのみ適用されるものではない。
【0103】上記第1実施形態では、画像中にマーカを
検出する処理は、第17図に示すように、最初に見つか
ったものを追跡対象のマーカとしていた。そのために、
例えば、第24図に示すように、あるフレームでマーカ
1を含む画像800が得られた場合に、その後のフレ
ームの画像領域810には、マーカが領域810の端部
ではあるがその領域810内に含まれている場合には、
マーカMiを補正処理の基準用のマーカとして決定する
ことに不都合はない。しかし、その後のフレームで、例
えば画像820が得られ、その領域内にはマーカMi
外れ、代わりにマーカM2を含む場合には、補正のため
の基準マーカはそのマーカM2に変更せざるを得ない。
このようなマーカの変更は追跡に失敗した場合にも必要
となり、位置ずれの補正には、新たに追跡されたマーカ
が利用される。
【0104】このように補正に使用するマーカを切り替
えることの問題点として、その切り替わりの際に、補正
値の急激な変化が原因となって、仮想物体が不自然に移
動してしまう場合がある。そこで、補正値の時間的整合
性を保つために、前フレームまでの補正値を次の補正値
の設定に反映させることを変形例として提案する。
【0105】即ち、あるフレームでの補正値(世界座標
系での平行移動を表す3次元ベクトル)をvt、前フレ
ームでの補正値をv't-1としたとき、次式で求められる
v'tを新たな補正値とする。
【0106】
【数21】 ここでαは、過去の情報の影響の度合いを定義する0≦
α<1の定数である。上記式の意味するところは、前フ
レームでの補正値v't-1に拠る寄与度をαとし、今回の
フレームで得られた補正値vtを(1−α)の寄与度で
用いるというものである。
【0107】このようにすることにより、補正値の急激
な変化が緩和され、三次元仮想画像の急激な変化(不自
然な移動)が解消する。新たな補正値αを適当な値に設
定することで、マーカの切り替わりによる不自然な物体
の移動を防ぐことができる。
【0108】〈変形例2〉上記実施形態では、画像中に
マーカを検出する処理は、第17図に示すように、ロー
カル探索でマーカを発見できなかった場合、前回のフレ
ームでのマーカの位置に関わらず、全画面中で最も類似
度の高い点を追跡対象のマーカとしていた。ここで、マ
ーカの探索を、前のフレームで見つかったマーカの位置
を中心にして、マーカ探索を行う変形例を提案する。こ
れは、プレーヤの移動に伴う画像フレームの移動があっ
ても、マーカは前フレームに存在した位置から大きくず
れていない位置に存在する可能性が高いからである。
【0109】第25図は、前回のフレームにおいて見つ
かったマーカを今回のフレームに探索する原理を説明す
る。このような探索経路で探索を行い、ある閾値以上の
類似度を持つ点を見つけたら、この点を追跡対象のマー
カとするのである。
【0110】〈変形例3〉上記実施形態は光学式HMD
を用いたものであったが、本発明は光学式HMDの適用
に限定されるものではなく、ビデオシースルー方式のH
MDにも適用可能である。
【0111】〈変形例4〉上記実施形態は、エアホッケ
ーゲームに適用したものであったが、本発明はエアホッ
ケーゲームに限られない。本発明は、複数人の作業(例
えばマレット操作)を、1つのカメラ手段により撮像し
て捉えるので、その複数人の作業を1つの仮想空間に再
現することが可能である。従って、本発明は、2人以上
の作業者を前提とした協調作業(例えば、複数人による
設計作業のMRプレゼンテーション、あるいは複数人の
対戦型ゲーム)の実施例にも好適である。
【0112】本発明の、複数のマーカに基づいた頭部姿
勢位置を補正する処理は、複数人の協調作業にのみ好適
であることはない。一人の作業者(あるいはプレーヤ)
に複合現実感を提示するシステムにも適用可能である。
【0113】〈他の変形例〉第2実施形態では、2台の
カメラを用いていたが、3台以上のカメラを用いてもよ
い。
【0114】前述したように、マーカはプレーヤのカメ
ラ240の少なくとも1つ捉えられれば十分である。マ
ーカの数が多すぎると、画像に捕捉されるマーカの数が
多くなり、第16図のS430や第23図のS430’
の追跡マーカの同定処理で、マーカを誤って同定してし
まう可能性が高くなる。従って、作業がカメラ240の
移動をある程度規制できるものであれば、そのカメラに
常に1つのマーカだけが捕捉されるように、マーカの数
を少なくすることも可能である。
【0115】また、前述の実施形態としての位置姿勢検
出装置は、プレーヤの視点位置での補正されたビューイ
ング変換行列を出力するものであったが、本発明はこれ
に限定されず、プレーヤの視点位置を補正された値
(X,Y,Z,r,p,φ)の形式で出力する装置にも
適用できる。また、マーカは、上述のシステムがマーカ
若しくはマークとして認識できるものであれば、いかな
る形状を有してもよく、また、マークではなく、もので
あってもよい。
【0116】
【発明の効果】以上説明したように、本発明によれば、
補正値の急激な変化が緩和され、三次元仮想画像の急激
な変化(不自然な移動)が解消する。また、新たな補正
値αを適当な値に設定することで、マーカの切り替わり
による不自然な物体の移動を防ぐことができる。
【図面の簡単な説明】
【図1】従来技術において、および本発明の実施形態に
適用されている、カメラ位置の補正の原理を説明する
図。
【図2】本発明の実施形態に用いられているゲーム装置
の構成を示す側面図。
【図3】第2図のゲーム装置で左側プレーヤの視界に見
えるシーンを説明する図。
【図4】第2図のゲーム装置に用いられているHMDの
構成を説明する図。
【図5】第2図のゲーム装置のテーブルに設けられたマ
ーカの配置を説明する図。
【図6】第5図のテーブル上で、プレーヤの移動につれ
て、プレーヤの頭部に装着されたカメラに捉えられる画
像中に含まれるマーカの変遷を説明する図。
【図7】実施形態のゲーム装置のための、三次元画像生
成装置の構成を説明する図。
【図8】実施形態のマレット位置計測部に因る処理手順
を説明するフローチャート。
【図9】実施形態のマレット位置計測部に因る処理手順
の一部サブルーチン(ローカル探索)を説明するフロー
チャート。
【図10】実施形態のマレット位置計測部に因る処理手
順の一部サブルーチン(グローバル探索)を説明するフ
ローチャート。
【図11】第8図のフローチャートの処理において用い
られる処理対象領域の分割を説明する図。
【図12】第8図のフローチャートの処理において用い
られる対象領域の設定手法を示す図。
【図13】本実施形態のゲームにおける仮想ゲームフィ
ールドの構成を説明する図。
【図14】実施形態のゲーム状態管理部におけるゲーム
管理の制御手順を説明するフローチャート。
【図15】マレット検出ための手法を説明する図。
【図16】実施形態における補正処理部の処理手順を全
体的に説明するフローチャート。
【図17】第16図のフローチャートの一部(マーカの
追跡)を詳細に説明するフローチャート。
【図18】第16図のフローチャートの一部(マーカ位
置の予測)を詳細に説明するフローチャート。
【図19】補正のために使用される基準となるマーカの
検出の原理を説明する図。
【図20】基準となるマーカの検出の原理を説明するフ
ローチャート。
【図21】第2の実施形態に用いられるHMDの構成を
示す図。
【図22】第2実施形態の画像処理システムの主要の構
成を示すブロック図。
【図23】第2実施形態の画像処理システムの制御の一
部を示すフローチャート。
【図24】実施形態の変形例に適用される基準マーカの
変遷を説明する図。
【図25】実施形態の変形例に適用されるマーカ探索の
原理を説明する図。
【図26】第1実施形態の補正処理の原理を説明する
図。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06F 3/03 330 G06F 3/03 330Z G06T 7/20 G06T 7/20 B 7/60 150 7/60 150B 17/40 17/40 G (72)発明者 大島 登志一 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 (72)発明者 谷口 尚郷 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 (72)発明者 片山 昭宏 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 Fターム(参考) 2C001 AA03 BA02 BA03 BA05 BA06 BB01 BC01 BC03 BC05 CA08 CA09 CB01 CC01 5B050 BA06 BA08 BA13 DA07 EA05 EA19 EA24 EA27 FA06 5B057 AA20 BA02 CA08 CA13 CA16 CA17 CB08 CB13 CB16 CE08 DA07 DB02 DC05 DC08 5B068 AA21 BB18 BC07 BD09 DD11 5L096 BA18 CA04 CA05 FA67 FA69 HA05

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 被写体の位置姿勢に応じた仮想画像を生
    成し、現実画像と合成することにより複合現実感を提示
    する情報処理方法において、 複数のマーカが配置されたシーンをカメラによって撮影
    することによって得られる撮影画像を入力する入力工程
    と、 前記撮影画像から所定のマーカを検出する検出工程と、 前記所定のマーカを基準マーカとして前記カメラの位置
    の補正値を算出する算出工程と、 前記補正値を用いて前記被写体の位置姿勢を演算する演
    算工程とを有する情報処理方法であって、 現フレームの撮影画像に基づいて算出された補正値と前
    フレームの補正値とを用いて前記現フレームの補正値を
    生成する生成工程をさらに有することを特徴とする情報
    処理方法。
  2. 【請求項2】 前記現フレームの撮影画像からマーカを
    検出する領域を、現フレームの撮影画像より前のフレー
    ムの撮影画像におけるマーカの検出結果を用いて特定す
    ることを特徴とする請求項1に記載の情報処理方法。
  3. 【請求項3】 前記検出工程が、現フレームの撮影画像
    よりも前のフレームの撮影画像において検出されたマー
    カと同一のマーカを検出することを特徴とする請求項1
    に記載の情報処理方法。
  4. 【請求項4】 前記被写体の位置姿勢を検出するセンサ
    の検出結果をさらに入力し、 前記現フレームの補正値を用いて前記検出結果を補正す
    ることにより、前記被写体の位置姿勢を求めることを特
    徴とする請求項1に記載の情報処理方法。
  5. 【請求項5】 被写体の位置姿勢に応じた仮想画像を生
    成し、現実画像と合成することにより複合現実感を提示
    する情報処理装置において、 複数のマーカが配置されたシーンをカメラによって撮影
    することによって得られる撮影画像を入力する入力手段
    と、 前記撮影画像から所定のマーカを検出する検出手段と、 前記所定のマーカを基準マーカとして前記カメラの位置
    の補正値を算出する算出手段と、 前記補正値を用いて前記被写体の位置姿勢を演算する演
    算手段とを備える情報処理装置であって、 現フレームの撮影画像に基づいて算出された補正値と前
    フレームの補正値とを用いて前記現フレームの補正値を
    生成する生成手段をさらに備えることを特徴とする情報
    処理装置。
JP2003037406A 1997-09-01 2003-02-14 情報処理方法及び情報処理装置 Expired - Fee Related JP3793158B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003037406A JP3793158B2 (ja) 1997-09-01 2003-02-14 情報処理方法及び情報処理装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP9-236375 1997-09-01
JP23637597 1997-09-01
JP2003037406A JP3793158B2 (ja) 1997-09-01 2003-02-14 情報処理方法及び情報処理装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP06582498A Division JP3450704B2 (ja) 1997-09-01 1998-03-16 位置姿勢検出装置及び情報処理方法

Publications (2)

Publication Number Publication Date
JP2003308514A true JP2003308514A (ja) 2003-10-31
JP3793158B2 JP3793158B2 (ja) 2006-07-05

Family

ID=29404583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003037406A Expired - Fee Related JP3793158B2 (ja) 1997-09-01 2003-02-14 情報処理方法及び情報処理装置

Country Status (1)

Country Link
JP (1) JP3793158B2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006154937A (ja) * 2004-11-25 2006-06-15 Olympus Corp 画像情報処理装置、判定方法、及びコンピュータプログラム
JP2007163367A (ja) * 2005-12-15 2007-06-28 Nippon Hoso Kyokai <Nhk> カメラ情報解析装置
WO2007108100A1 (ja) * 2006-03-20 2007-09-27 Olympus Corporation 画像情報処理装置、判定方法、及びコンピュータプログラム
JP2008040913A (ja) * 2006-08-08 2008-02-21 Canon Inc 情報処理方法、情報処理装置
JP2010170479A (ja) * 2009-01-26 2010-08-05 Nintendo Co Ltd 情報処理装置、情報処理プログラム
JP2012000193A (ja) * 2010-06-15 2012-01-05 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
KR20140052524A (ko) * 2012-10-24 2014-05-07 삼성전자주식회사 환자의 자세 변화에 따른 의료 영상을 보정하는 방법, 장치 및 시스템
JP2015115848A (ja) * 2013-12-13 2015-06-22 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
WO2016024698A1 (ko) * 2014-08-11 2016-02-18 주식회사 에스.제이테크 파노라마 영상을 이용한 동작패턴 분석방법
CN107995481A (zh) * 2017-11-30 2018-05-04 贵州颐爱科技有限公司 一种混合现实的显示方法及装置
WO2021235193A1 (ja) * 2020-05-21 2021-11-25 ソニーグループ株式会社 情報処理システム、情報処理方法およびプログラム
JP7386255B2 (ja) 2019-03-19 2023-11-24 マイクロソフト テクノロジー ライセンシング,エルエルシー モバイル装置の相対的な空間位置決め

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6723743B2 (ja) 2015-12-28 2020-07-15 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006154937A (ja) * 2004-11-25 2006-06-15 Olympus Corp 画像情報処理装置、判定方法、及びコンピュータプログラム
JP2007163367A (ja) * 2005-12-15 2007-06-28 Nippon Hoso Kyokai <Nhk> カメラ情報解析装置
WO2007108100A1 (ja) * 2006-03-20 2007-09-27 Olympus Corporation 画像情報処理装置、判定方法、及びコンピュータプログラム
JP2008040913A (ja) * 2006-08-08 2008-02-21 Canon Inc 情報処理方法、情報処理装置
US8847927B2 (en) 2009-01-26 2014-09-30 Nintendo Co., Ltd. Information processing apparatus and computer-readable storage medium having stored therein information processing program
JP2010170479A (ja) * 2009-01-26 2010-08-05 Nintendo Co Ltd 情報処理装置、情報処理プログラム
US8963955B2 (en) 2010-06-15 2015-02-24 Nintendo Co., Ltd. Information processing program, information processing apparatus, information processing system, and information processing method
JP2012000193A (ja) * 2010-06-15 2012-01-05 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
KR20140052524A (ko) * 2012-10-24 2014-05-07 삼성전자주식회사 환자의 자세 변화에 따른 의료 영상을 보정하는 방법, 장치 및 시스템
KR101993384B1 (ko) 2012-10-24 2019-06-26 삼성전자주식회사 환자의 자세 변화에 따른 의료 영상을 보정하는 방법, 장치 및 시스템
JP2015115848A (ja) * 2013-12-13 2015-06-22 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
WO2016024698A1 (ko) * 2014-08-11 2016-02-18 주식회사 에스.제이테크 파노라마 영상을 이용한 동작패턴 분석방법
CN107995481A (zh) * 2017-11-30 2018-05-04 贵州颐爱科技有限公司 一种混合现实的显示方法及装置
CN107995481B (zh) * 2017-11-30 2019-11-15 贵州颐爱科技有限公司 一种混合现实的显示方法及装置
JP7386255B2 (ja) 2019-03-19 2023-11-24 マイクロソフト テクノロジー ライセンシング,エルエルシー モバイル装置の相対的な空間位置決め
WO2021235193A1 (ja) * 2020-05-21 2021-11-25 ソニーグループ株式会社 情報処理システム、情報処理方法およびプログラム

Also Published As

Publication number Publication date
JP3793158B2 (ja) 2006-07-05

Similar Documents

Publication Publication Date Title
JP3450704B2 (ja) 位置姿勢検出装置及び情報処理方法
EP0899690B1 (en) Apparatus and method for presenting mixed virtual reality shared among operators
JP3486536B2 (ja) 複合現実感提示装置および方法
JPH1184307A (ja) 頭部装着型の光学装置
JP3631151B2 (ja) 情報処理装置、複合現実感提示装置及びその方法並びに記憶媒体
US6781618B2 (en) Hand-held 3D vision system
US7529387B2 (en) Placement information estimating method and information processing device
CN107274438B (zh) 支持移动虚拟现实应用的单Kinect多人跟踪系统及方法
Neumann et al. A self-tracking augmented reality system
US9671876B2 (en) Perspective tracking system
US7671875B2 (en) Information processing method and apparatus
JP4708752B2 (ja) 情報処理方法および装置
US8144238B2 (en) Image processing apparatus and method
US7671916B2 (en) Motion sensor using dual camera inputs
Satoh et al. A hybrid registration method for outdoor augmented reality
JP3793158B2 (ja) 情報処理方法及び情報処理装置
US20200364900A1 (en) Point marking using virtual fiducial elements
JP2021105887A (ja) 3dポーズ取得方法及び装置
JP4205004B2 (ja) キャリブレーション方法
JP2013120150A (ja) 人間位置検出システム及び人間位置検出方法
JPH07302341A (ja) 姿勢検出装置および方法
JP4810403B2 (ja) 情報処理装置、情報処理方法
JP2024513328A (ja) 打撃されて移動するゴルフボールのスピン算出方法及びこれを用いたスピン算出装置
Davis et al. Foveated observation of shape and motion
Lee et al. An efficient method for robust height and position estimation of moving objects

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060406

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090414

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100414

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110414

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120414

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130414

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130414

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140414

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees