JP2006293485A - 指標表示方法及び画像表示装置 - Google Patents
指標表示方法及び画像表示装置 Download PDFInfo
- Publication number
- JP2006293485A JP2006293485A JP2005110060A JP2005110060A JP2006293485A JP 2006293485 A JP2006293485 A JP 2006293485A JP 2005110060 A JP2005110060 A JP 2005110060A JP 2005110060 A JP2005110060 A JP 2005110060A JP 2006293485 A JP2006293485 A JP 2006293485A
- Authority
- JP
- Japan
- Prior art keywords
- index
- display
- identification
- image
- failed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Position Input By Displaying (AREA)
- Image Analysis (AREA)
Abstract
【課題】同定に失敗した指標をユーザにわかりやすくて維持することを可能とし、指標の同定に関するミスをユーザが容易に発見できるようにする。
【解決手段】撮像装置により撮影された画像中より指標を検出する。また、予め指標位置が登録された指標について、撮像装置の位置姿勢の計測結果に基づいて当該画像中における指標の位置を推定する。推定された指標の位置と検出された指標の位置に基づいて指標の同定を行い、位置が推定された指標のうち同定に失敗した指標を他の指標と区別して表示する。
【選択図】 図11
【解決手段】撮像装置により撮影された画像中より指標を検出する。また、予め指標位置が登録された指標について、撮像装置の位置姿勢の計測結果に基づいて当該画像中における指標の位置を推定する。推定された指標の位置と検出された指標の位置に基づいて指標の同定を行い、位置が推定された指標のうち同定に失敗した指標を他の指標と区別して表示する。
【選択図】 図11
Description
本発明は複合現実感システム(MR(Mixed Reality)システム)において必要な実写画像とCG画像との位置合わせに用いられる指標の検出、表示に関する。
近年HMD(Head Mount Display)と小型カメラを組み合わせ、実写映像とCG映像を合成してHMDに表示するMR技術が現れている。MR技術を使用することで、あたかも現実世界の中に仮想の物体が現れたかのように見せることができるようになってきた。
このMR技術を実現するためには、実写映像中の意図した位置に正確にCG映像を表示する必要がある。即ち、実写映像とCG映像の正確な位置合わせが要求される。このような位置合わせは実写映像を取り込む、HMDに搭載されたビデオカメラの位置、姿勢を3次元センサにより検出し、その検出値に基づいて行われる。しかしながら、センサ検出値は誤差を含むため、その検出値を補正する必要がある。そこで取り込んだ実写映像の中にCG映像を描画する際に、実写映像に写った指標を元にCGの表示位置を微調整することで実写映像とCG映像の位置合わせを行っていた。或いは、専ら映像中の指標位置に基づいてビデオカメラの位置、姿勢を検出することも可能であり、そのような方法で位置合わせを行うMRシステムも提案されている。
S. Uchiyama, K. Takemoto, K. Satoh, H. Yamamoto, and H. Tamura:"MR Platform: A basic body on which mixed reality applications are built," Proc. IEEE/ACM Int'l Symp. on Mixed and Augmented Reality (ISMAR 2002), pp.246-253, 2002
S. Uchiyama, K. Takemoto, K. Satoh, H. Yamamoto, and H. Tamura:"MR Platform: A basic body on which mixed reality applications are built," Proc. IEEE/ACM Int'l Symp. on Mixed and Augmented Reality (ISMAR 2002), pp.246-253, 2002
上記のような映像中の指標による位置合わせを正常に行うためには、指標を適切に配置する必要がある。指標はよく見える位置に配置しなければならないし、予め指標の位置を正確に計測してMRシステムに設定しなければならないことは言うまでもない。
しかしこのような作業は間違いが生じやすい。例えば次のような問題が生じることがあった。
(a) 通常の使用では陰になってほとんど指標を検出できない位置に指標を張ってしまう。
(b) 指標の位置を測り損ねてMRシステムに間違った位置データを設定してしまう。
(c)MRシステムに入力した位置に指標を張ったつもりが張り忘れてしまう。
(a) 通常の使用では陰になってほとんど指標を検出できない位置に指標を張ってしまう。
(b) 指標の位置を測り損ねてMRシステムに間違った位置データを設定してしまう。
(c)MRシステムに入力した位置に指標を張ったつもりが張り忘れてしまう。
本発明は上記の課題に鑑みてなされたものであり、同定に失敗した指標をユーザにわかりやすく提示することを可能とし、指標の同定に関するミスをユーザが容易に発見できるようにすることを目的とする。
上記の目的を達成するための本発明による指標表示方法は、
撮像装置により撮影された画像中より指標を検出する検出工程と、
予め指標位置が登録された指標について、前記撮像装置の位置姿勢の計測結果に基づいて前記画像中における前記指標の位置を推定する推定工程と、
前記推定工程で推定された前記指標の位置と前記検出工程で検出された指標の位置に基づいて指標を同定する同定工程と、
前記推定工程で位置が推定された指標のうち前記同定工程で同定に失敗した指標を他の指標と区別して表示する表示工程とを備える。
撮像装置により撮影された画像中より指標を検出する検出工程と、
予め指標位置が登録された指標について、前記撮像装置の位置姿勢の計測結果に基づいて前記画像中における前記指標の位置を推定する推定工程と、
前記推定工程で推定された前記指標の位置と前記検出工程で検出された指標の位置に基づいて指標を同定する同定工程と、
前記推定工程で位置が推定された指標のうち前記同定工程で同定に失敗した指標を他の指標と区別して表示する表示工程とを備える。
また、上記の目的を達成するための本発明の他の態様による画像形成装置は以下の構成を備える。即ち、
撮像装置により撮影された画像中より指標を検出する検出手段と、
予め指標位置が登録された指標について、前記撮像装置の位置姿勢の計測結果に基づいて前記画像中における前記指標の位置を推定する推定手段と、
前記推定手段で推定された前記指標の位置と前記検出手段で検出された指標の位置に基づいて指標を同定する同定手段と、
前記推定手段で位置が推定された指標のうち前記同定手段で同定に失敗した指標を他の指標と区別して表示する表示手段とを備える。
撮像装置により撮影された画像中より指標を検出する検出手段と、
予め指標位置が登録された指標について、前記撮像装置の位置姿勢の計測結果に基づいて前記画像中における前記指標の位置を推定する推定手段と、
前記推定手段で推定された前記指標の位置と前記検出手段で検出された指標の位置に基づいて指標を同定する同定手段と、
前記推定手段で位置が推定された指標のうち前記同定手段で同定に失敗した指標を他の指標と区別して表示する表示手段とを備える。
本発明によれば、同定に失敗した指標をユーザにわかりやすく提示することが可能となるので、指標の同定に関するミスをユーザが容易に発見できる。
以下、添付の図面を参照して本発明の好適な実施形態を説明する。
図1は本実施形態による複合現実感システム(以下、MRシステム)の構成を説明する図である。また、図2は本実施形態のMRシステムの機器構成を示すブロック図である。図1、図2に示すようなMRシステムによれば、MR技術を利用したゲーム装置等を実現できる。
図1に示すように、MRシステムは、ヘッドマウントディスプレイ(HMD)100、3次元センサ本体200、3次元センサ固定局210、計算機300、ディスプレイ340、ゲームフィールド400により構成される。HMD100はビデオシースルー方式を採用している。図3に示すように、HMD100は右目カメラ110、左目カメラ111、3次元センサ移動局としてのHMD内蔵位置センサ120、右目LCD130、左目LCD131を備えている。
以上のような構成により、プレイヤーはHMD100を装着してゲームをプレーすることができる。例えば、図4に示されるように、HMD100内の右目LCD130及び左目LCD131には、右目カメラ110及び左目カメラ111で撮影された実写映像401とCG画像402が合成された合成画像403が表示される。
HMD100内の右目LCD130及び左目LCD131に表示される映像は、図2のブロック図に示されるように、計算機300により作成される。計算機300はCPU301、メモリ302、PCIブリッジ303、シリアルI/O310、ビデオキャプチャカード320,321、ビデオカード330〜332を具備する。ディスプレイ340は、CPU301の制御下で動作するビデオカード332の出力に従って可視像を表示する。例えば、図11に示すような、計算機300がHMD100からの映像を画像処理した結果等を表示する(図11の表示内容については後述する)。
図1のゲームフィールド400には、図5に示すようにブロック410〜413が置かれており、それぞれのブロックの側面には指標450〜453が貼付されている。ゲームフィールド400の位置はブロック410〜413と指標450〜453の位置を含めて正確に測定してある。
3次元位置センサは、3次元位置センサ本体200、3次元位置センサ固定局210及びHMD内蔵位置センサ120からなる。3次元位置センサ本体200は磁気により3次元位置センサ固定局210とHMD内蔵位置センサ120との相対位置を測定する。得られる位置情報はx,y,z,roll,pitch,yawの6自由度に関する測定結果である。3次元位置センサ200は計算機300とシリアルI/O310を介して通信する。3次元位置センサ固定局210の位置は事前に正確に測定してある。よって、HMD内蔵位置センサ120の3次元位置センサ固定局210に対する相対位置が得られれば、HMD100の絶対位置を得ることができる。なお、図1のMRシステムにおいて、絶対値とはゲームフィールド400の中心を原点とした位置であるとする。
なお、上記の構成では3次元位置センサを用いてHMD100の位置を取得したが、これは本発明を制限するものではない。例えば、HMD100が備えるカメラ110,111によって得られる映像中に存在する絶対位置が既知である指標(例えば指標450〜453)からHMD100の姿勢を推定してもよい。なお、映像中の指標450〜453から、HMD100の姿勢を推定する方法はよく知られているので、ここでは説明を省略する。また、本実施形態のMRシステムでは、3次元位置センサを用いて取得したHMD100(右目カメラ110,左目カメラ111)の位置、姿勢を、映像中の指標位置を用いて補正するものとする。
計算機300のHMD100への表示スレッドのフローチャートを図6に示す。左右のLCDに対する処理は基本的に同じなので、ここでは右目LCD130への表示処理について説明する。なお、図6に示した処理は、CPU301がメモリ302に格納されている制御プログラムを実行することによって実現される。
計算機300はステップS100において、右目カメラ110からの実写映像はビデオキャプチャカード320を介してに取り込む。そして、ステップS101において、取り込んだ実写映像をメモリ302上のビデオバッファに映像データとして書き込む。このビデオバッファは、作成途中の映像を格納するための作業領域としてメモリ302に確保されたものである。取り込んだ実写映像をメモリ302に書き込むことで、当該実写映像をコンピュータグラフィックス画像(CG画像)の背景画像とすることができる。
次に、ステップS102において、シリアルI/O310を介して3次元位置センサ本体200からHMD100の位置情報を得る。なお、HMD100の位置はワールド座標に変換してから格納する。ワールド座標は、ゲームフィールド400の中心を原点とした座標系であり、本実施形態全体で使用される。ワールド座標への変換は、あらかじめ測定してあるゲームフィールド400、3次元位置センサ固定局210の位置を用いることにより、周知の方法で実現できる。
次に、ステップS103において、計算機300はCGの描画に使用する射影変換のための行列(射影変換行列)と、モデリング変換のための行列(モデリング変換行列)を作成する。モデリング変換行列はHMDのワールド座標を用いて作成される。射影変換行列は、あらかじめ測定しておいたカメラの焦点距離などのパラメータから作成される。但し、射影変換行列の作成は最初の1回のみでよく、以降は最初に作成された射影変換行列を再利用して表示処理を行う。
ステップS104において、ビデオカメラ100に写ったゲームフィールド400上の指標450,451…を使ってCG画像と実写映像の位置合わせをする。ここで、位置の補正はカメラの方向を補正する変換行列を作成し、これをモデリング変換行列に乗ずる。位置合わせの詳細については後述する。
ステップS105では、出来上がったモデリング変換行列を用いてCGデータをメモリ302の上記ビデオバッファにCG画像を描画する。CG画像をビデオバッファに上書き描画することで、実写映像中にCGが描画されることになる。なお、CGデータは別スレッドが必要に応じて作成しているものとする。本実施形態では図4に示したように魚とロケットのCG画像402を動かすものとするが、このようなCG画像の動かし方は周知であり、説明を省略する。ステップS106では、CGデータの描画が終わると、ビデオバッファ内のデータをビデオボード330上のフレームバッファに転送されることによって、HMD100内のLCD130に映像が描画される。
実写映像とCG画像との位置合わせ方法の概略を図7を用いて説明する。補正は、ゲームフィールド400が写っている実写映像700をn値化(後述する)して得られた指標450〜453の位置と、HMD100の内蔵位置センサ120によって得られた位置情報から予測される指標位置(指標750〜753の位置)との差分(760〜763)を用いて行われる。位置情報から予測される指標位置とは、内蔵位置センサ120から得られた位置及び姿勢であり、カメラを置いた場合に、座標が既知の指標が見えると予測される位置である。実際の補正は、カメラの方向をずらすことにより行われる。この補正の結果、CGの描画位置が図7の780に示されるように補正される。各指標位置に関して得られる差分値からCG画像の補正値を求める手順については図13を参照して後述する。
以上説明した位置合わせのアルゴリズムのフローチャートを図8に示す。まず、ステップS200、S201により、3次元位置センサからの位置情報と指標の位置情報(指標の位置情報は予めMRシステムのメモリ302に登録されている)から指標が見えると予測される位置を求める。まず、ステップS200において、HMD内蔵位置センサ120からの位置情報から得られるカメラ位置に基づいてモデリング変換行列を作成する。また、あらかじめ測定しておいたカメラの画角情報などから射影変換行列を作成する。各指標はゲームフィールド400上に固定されているので座標は既知である。従って、ステップS201において、上記作成したモデリング変換行列と射影変換行列を使ってこれら指標の座標を変換し、指標が画面上で表示される予想位置を求める。以上の処理により、図7の720に示されるように、各指標の画面上の予測位置が750〜753のように求まる。
次に、実写映像700から指標を探す。本実施形態では、6色(赤、紫、青、緑、黄、橙)の指標を使用しており、これらのいずれかの色を有する画像領域を映像中より抽出して、映像中の指標を同定する。以下、具体的に説明する。
指標の識別においては、まず、各画素の色をCb、Crで表し、CbCr平面のどの領域の色であるかを判定する。図9は、本実施形態の指標色として識別する領域をCb、Cr平面に表した図である。本実施形態では、原点から放射状に伸びる長方形として、赤、紫、青、緑、黄、橙の領域を定めている。ステップS202では、まず、カメラから取り込んだ実写映像の各画素の色値をY,Cb,Crに変換し、得られたCb,Crの値が図9に示した各色の長方形領域のいずれかに入っているかを判定する。Cb,Crの値がいずれかの指標色の長方形領域に入っている場合、その画素の色を指標色として認識する。こうして得られた認識結果を用いて映像をn値化する。
n値化について図10を参照して説明する。例えば、指標色がn−1色の場合、各指標色に1〜n−1の値を割り当て、その他の色を0として各画素に値を割り当てる。図9の例では6色あるので、1〜6が各指標色に割り当てられ、その他の色に0が割り当てられる。こうして、実写映像が7値化される。図10(A),(B)では、青に1、赤に2、黄に3が割り当てられている。図10の(A)において、白、黒、茶等の画素は色値が何れの長方形領域にも属さない画素であり、図10(B)に示されるように「0」が割り当てられる。
次に、ステップS203において、n値化した映像をブロックに分割するために、映像をラベリングする。ラベリングのアルゴリズムは一般に知られているのでここでは説明を省略する。ラベリングが終了したら、ステップS204において、一定以上の面積(本実施例では10ドット以上)を有するブロックについてその重心を求める。ブロックの重心は、ブロックを構成する画素の座標の平均値を求めることで得ることができる。このブロックの重心(中心座標)が実写映像から検出した指標の画面上の位置となる。
次に、ステップS205において、ステップS201において得られた各指標の予想位置に関して、同じ色で、重心が最も近い位置にあるブロックを抽出する。そして、指標の予想位置と当該指標に関して抽出されたブロックの重心との距離が所定距離内にある場合には、それらを対応付けて、その対応関係を記録する。ステップS206では、ステップS205で求めた指標の対応関係をディスプレイ340に表示する。そして、ユーザの指示に応じて指標の位置情報を修正、または指標の登録を行う。図11は、ディスプレイ340に表示されるプレビュー画面1100の例を示す図である。なお、図示の簡略化と説明のしやすさから、図11に示されるプレビューはテーブル1101上に指標が配置されている様子を示している。
図11では、RED-0、YELLOW-0、YELLOW-1、BLUE-0の各指標が検出、同定されている。RED-1はその上に置かれたキーボード1102によって隠されており、検出に失敗している。GREEN-0は検出されているものの予想位置とは離れた位置に見えており、同定に失敗している。
なお、本実施形態では、図11のプレビューに応じて、図14のユーザインターフェース701を用いて指標の位置情報を修正することができる。図11のプレビュー表示の後、ユーザの所定の操作に応じてユーザインターフェース701が表示される。ユーザインターフェース701において702は指標の一覧を示す表示領域であり、指標の座標の位置関係に基づきツリー上で表示される。図14の例では世界座標系(基準座標系)で指標の位置座標が設定されていることを示している。そして、表示領域702の上で選択された指標(図14ではGREEN-0)の情報(指標名703、位置情報704)が表示される。また、新規の指標の情報を登録することも可能である。
指標の対応関係を示すプレビュー映像は、ディスプレイ340に表示される実写映像の上に、各指標について図12のフローチャートに示した処理を行うことで得られる。
ステップS301において、指標と同じ色のブロックを探す。ただし同じ色のブロックが複数あった場合には、指標の予測位置から最も近いブロックを選ぶ。ステップS302では、ステップS301で選んだブロックと上記指標の予測位置が第1の距離内にあるかを判断する。指標の予測位置と選ばれたブロックとの距離が第1の距離以内にあった場合には、ステップS303へ進み、当該指標とラベリングされたブロックを対応付ける。これは図8のステップS205と同じ処理を行っていることに相当する。そして、ステップS304において、その指標が検出、同定されたことを示すために、ディスプレイ340のプレビュー画像上の当該ブロックの座標に円を表示する。以上の処理により、図11のRED-0,YELLOW-0,YELLOW-0,BLUE-0という指標名および同定結果(円)を表示することができる。
一方、ステップS302において、ステップS301で選ばれたブロックが対応する指標の予測位置から第1の距離内にない場合は、ステップS305へ進む。ステップS305では、その指標が同定されていないことを示すために、ディスプレイ340のプレビュー画像上の対応する指標の予測位置に×を表示する。図11のRED-1,GREEN-0に関しては、このステップS305の処理結果として×が表示されている。
なお、この「×」の表示を点滅させて、より利用者の注意を促すようにしてもよい。「×」の点滅は、例えば、周期的にステップS305による「×」の表示を行わないようにすることで実現できる。
次に、ステップS306において、上記選ばれたブロックと指標の予測位置の距離がステップS302で用いた第1の距離よりも大きい第2の距離の範囲内であるかを判定する。第2の距離の範囲内であった場合は、ステップS307へ進み、当該選ばれたブロックから対応する指標の予想位置に向けて矢印を描画する。これは図11のGREEN-0に対する処理に相当する。
以上のステップS301〜S307の処理を各指標に対して行うことにより、ステップS206でのプレビュー表示を実現することが出来る。なお、上記実施形態では、予測位置に最も近い指標の重心位置と予測位置との距離が第1の距離内にあれば同定に成功したものとし、それ以外の指標は同定に失敗したものとしている。これは、予測位置から所定距離(第1の距離)内に対応する指標の重心位置があるか否かを探索し、所定距離内に指標の重心位置が存在すれば同定に成功したものと判定することと等価である。所定距離内に2つ以上の指標が検出された場合に、それらのうち最も予測位置に近いものを選択するようにすれば図12に示した処理と結果は全く同じになる。或いは、所定距離内に2つ以上の指標が検出された場合に、他の条件を加味して、たとえばブロックの大きさが指標に最も近いものを選択するようにしてもよい。また、同定には失敗したが、矢印等により対応が推測される指標との関連付けを示す場合においても、予測された指標位置から第1の距離の範囲外であって第2の距離の範囲内である指標を探索して対応を示すようにすればよい。この場合も、複数の指標が検出された場合に、最も予測位置に近い指標に対して矢印を表示するようにすれば図12で示した処理と全く同じ結果になるが、検出された全ての指標に向かって矢印を表示してもよいし、ブロックのサイズ等の別の条件に基づいて指標を決定し、これに向かって矢印を表示するようにしてもよい。
本実施形態によれば、プレビュー表示に基づき、指標の位置情報の修正または新規指標の登録を行うことができる。よって、指標の位置設定に関する間違いを低減させることができる。
さらに、プレビュー表示において、同定に失敗した指標の予測位置および指標名が表示される。よって、ユーザが位置情報を修正すべき指標を簡単に把握することができる。そして、図14のユーザインターフェース701を用いて指標の位置情報を修正することができる。
また、プレビュー表示において、撮影画像から検出された指標と、指標の予測位置との対応関係が矢印によって表示される。よって、ユーザは、指標の位置情報をどのように修正すればいいのかを簡単に把握することができる。
図8に戻り、ステップS207において、対応の取れた指標について各指標について予想位置とラベリングしたブロックとの変位を求める。より具体的には、「対応の取れた指標表示予測位置すべての座標をベクトルとみなしたときの平均ベクトル」と「対応の取れた実写映像から検出した指標位置すべての座標をベクトルとみなしたときの平均ベクトル」を計算する。こうして得られた2つの平均ベクトルの差異は、予想位置と実際の指標位置との間の変位を表す。
ステップS208では、指標表示予想位置の平均ベクトルと、実写映像から検出した指標位置の平均ベクトルから、補正のためにカメラを回転する方向を求める。カメラ位置の補正のための回転方向と角度の求め方を図13に示す。
図13において、指標表示予測位置の平均ベクトルを(mx, my)、実写映像から検出した指標位置の平均ベクトルを(lx, ly)としたとき、カメラの焦点距離(正確には焦点距離[mm]を1画素のサイズ[mm/pixel]で割った値)をdとして、ベクトルM,L、
M = (mx, my, d)
L = (lx, ly, d)
のなす角度θを求める。このθがカメラ位置を回転させる角度となる。なお、θはベクトルMとLの内積、
|M|・|L|・cosθ = M・L
を解くことで求めることができる。
M = (mx, my, d)
L = (lx, ly, d)
のなす角度θを求める。このθがカメラ位置を回転させる角度となる。なお、θはベクトルMとLの内積、
|M|・|L|・cosθ = M・L
を解くことで求めることができる。
また回転軸は、回転軸と平行するベクトルをMとLの外積(M×L)により求めることができる。以上の方法により求めた回転方向と角度を元に、カメラ位置補正のための回転行列を作成し、これをカメラ位置の補正行列とする。なお、厳密に言えば、本実施形態では、カメラ自体を回転させる代わりに世界全体を回転させている。
ステップS209では、以上のようにして得られた補正行列をモデリング変換行列に乗ずる。
以上の構成により、プレビュー画面にて、画像中に写っているはずだが認識できていない指標や、同定に失敗した指標がユーザに提示される。このため、指標の張り忘れや、指標に関する位置姿勢の誤入力等のミスをユーザが早期に発見できるようになる。特に、同定に失敗した指標について画像中の指標が存在すると予想される位置に「×」のような所定の印を表示し、これをハイライト表示したり、もしくは点滅表示するので、ユーザは即座に異常のあった指標を発見できる。
また、同定に失敗した指標について、指標があると予想される場所の近隣に同種の指標が認識されている場合に、それらの関連を、例えば矢印等で明示している。このため、ユーザは修正すべき指標を容易に発見でき、操作性が向上する。
なお、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
Claims (7)
- 撮像装置により撮影された画像中より指標を検出する検出工程と、
予め指標位置が登録された指標について、前記撮像装置の位置姿勢の計測結果に基づいて前記画像中における前記指標の位置を推定する推定工程と、
前記推定工程で推定された前記指標の位置と前記検出工程で検出された指標の位置に基づいて指標を同定する同定工程と、
前記推定工程で位置が推定された指標のうち前記同定工程で同定に失敗した指標を他の指標と区別して表示する表示工程とを備えることを特徴とする指標表示方法。 - 前記表示工程は、前記同定工程において同定に失敗した指標を、ハイライト表示もしくは点滅表示することを特徴とする請求項1に記載の指標表示方法。
- 前記同定工程による同定に失敗した指標に関して、前記推定工程で推定された位置から所定の距離の範囲内に存在する指標を特定する特定工程を更に備え、
前記表示工程は、前記特定工程で指標が特定された場合には、前記同定に失敗した指標と前記特定工程で特定された指標とを関連付けた表示を行うことを特徴とする請求項1に記載の指標表示方法。 - 前記表示工程は、前記同定に失敗した指標と前記特定工程で特定された指標とを矢印で結ぶように表示することを特徴とする請求項3に記載の指標表示方法。
- 請求項1乃至4のいずれかに記載の指標表示方法を実現するためのプログラム。
- 請求項1乃至4のいずれかに記載の指標表示方法を実現するためのプログラムを記録した記録媒体。
- 撮像装置により撮影された画像中より指標を検出する検出手段と、
予め指標位置が登録された指標について、前記撮像装置の位置姿勢の計測結果に基づいて前記画像中における前記指標の位置を推定する推定手段と、
前記推定手段で推定された前記指標の位置と前記検出手段で検出された指標の位置に基づいて指標を同定する同定手段と、
前記推定手段で位置が推定された指標のうち前記同定手段で同定に失敗した指標を他の指標と区別して表示する表示手段とを備えることを特徴とする画像表示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005110060A JP2006293485A (ja) | 2005-04-06 | 2005-04-06 | 指標表示方法及び画像表示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005110060A JP2006293485A (ja) | 2005-04-06 | 2005-04-06 | 指標表示方法及び画像表示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006293485A true JP2006293485A (ja) | 2006-10-26 |
Family
ID=37414026
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005110060A Withdrawn JP2006293485A (ja) | 2005-04-06 | 2005-04-06 | 指標表示方法及び画像表示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006293485A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1918818A2 (en) | 2006-10-30 | 2008-05-07 | Hitachi, Ltd. | Information system and data transfer method of information system |
JP2011081453A (ja) * | 2009-10-02 | 2011-04-21 | Toshiba Corp | 映像再生装置及び映像再生方法 |
JP2011234388A (ja) * | 2011-06-10 | 2011-11-17 | Toshiba Corp | 映像再生装置及び映像再生方法 |
CN104714302A (zh) * | 2013-12-17 | 2015-06-17 | 精工爱普生株式会社 | 头部佩戴型显示装置 |
-
2005
- 2005-04-06 JP JP2005110060A patent/JP2006293485A/ja not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1918818A2 (en) | 2006-10-30 | 2008-05-07 | Hitachi, Ltd. | Information system and data transfer method of information system |
JP2011081453A (ja) * | 2009-10-02 | 2011-04-21 | Toshiba Corp | 映像再生装置及び映像再生方法 |
JP2011234388A (ja) * | 2011-06-10 | 2011-11-17 | Toshiba Corp | 映像再生装置及び映像再生方法 |
CN104714302A (zh) * | 2013-12-17 | 2015-06-17 | 精工爱普生株式会社 | 头部佩戴型显示装置 |
JP2015119237A (ja) * | 2013-12-17 | 2015-06-25 | セイコーエプソン株式会社 | 頭部装着型表示装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4599184B2 (ja) | 指標配置計測方法、指標配置計測装置 | |
JP4522140B2 (ja) | 指標配置情報推定方法および情報処理装置 | |
US7558403B2 (en) | Information processing apparatus and information processing method | |
JP4926817B2 (ja) | 指標配置情報計測装置および方法 | |
EP1596330A2 (en) | Estimating position and orientation of markers in digital images | |
JP4914039B2 (ja) | 情報処理方法および装置 | |
US7519218B2 (en) | Marker detection method and apparatus, and position and orientation estimation method | |
JP5196825B2 (ja) | 画像処理装置、画像処理方法 | |
JP4739004B2 (ja) | 情報処理装置及び情報処理方法 | |
EP2562719A2 (en) | Information processing apparatus and method | |
US7680336B2 (en) | Information processing method and apparatus | |
US20080266416A1 (en) | Information processing apparatus and information processing method | |
JP2006267879A (ja) | 画像処理方法、画像処理装置、マーカ | |
JP2008070267A (ja) | 位置姿勢計測方法及び装置 | |
JP4367926B2 (ja) | 画像合成システムおよび画像合成方法、および画像合成装置 | |
JP2013113805A (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
JP2006293485A (ja) | 指標表示方法及び画像表示装置 | |
JP2007048068A (ja) | 情報処理方法および装置 | |
JP2008046749A (ja) | 画像処理方法および装置 | |
JP4926598B2 (ja) | 情報処理方法、情報処理装置 | |
JP4810403B2 (ja) | 情報処理装置、情報処理方法 | |
JP3817505B2 (ja) | 情報処理方法及び情報処理装置 | |
JP2008140047A (ja) | 情報処理方法、情報処理装置 | |
JP2005227929A (ja) | 対象物の撮影画像の処理方法、画像表示システム、プログラム、および、記録媒体 | |
JP2006064585A (ja) | 画像処理方法、画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20080701 |