JP4574473B2 - 情報処理装置および方法 - Google Patents

情報処理装置および方法 Download PDF

Info

Publication number
JP4574473B2
JP4574473B2 JP2005201605A JP2005201605A JP4574473B2 JP 4574473 B2 JP4574473 B2 JP 4574473B2 JP 2005201605 A JP2005201605 A JP 2005201605A JP 2005201605 A JP2005201605 A JP 2005201605A JP 4574473 B2 JP4574473 B2 JP 4574473B2
Authority
JP
Japan
Prior art keywords
image
display
information processing
unit
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005201605A
Other languages
English (en)
Other versions
JP2007018426A (ja
JP2007018426A5 (ja
Inventor
隆明 遠藤
晋二 内山
隆 麻生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005201605A priority Critical patent/JP4574473B2/ja
Priority to EP06253527.3A priority patent/EP1744280B1/en
Priority to EP12192557.2A priority patent/EP2562719B1/en
Priority to US11/482,400 priority patent/US8330800B2/en
Priority to CN200610101908A priority patent/CN100588270C/zh
Publication of JP2007018426A publication Critical patent/JP2007018426A/ja
Publication of JP2007018426A5 publication Critical patent/JP2007018426A5/ja
Application granted granted Critical
Publication of JP4574473B2 publication Critical patent/JP4574473B2/ja
Priority to US13/674,680 priority patent/US9508147B2/en
Priority to US15/280,872 priority patent/US10140723B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、画像中の指標の誤検出を防止するための技術に関するものである。
[従来技術1]
現実空間を撮像するカメラなどの撮像部(以下適宜カメラと言い換える)の位置姿勢計測は、例えば現実空間と仮想空間とを融合表示する複合現実感システムにおいて必要となる。このような従来技術として、特許文献1乃至2および非特許文献1において開示されているように、現実空間に配置した位置が既知のマーカ、または現実空間中の位置が既知の特徴点(以下、マーカと特徴点を合わせて指標という)を用いて、カメラの位置姿勢を測定する位置姿勢センサの計測誤差を補正する方法がある。
言い換えると、これらの方法は、カメラの位置姿勢を測定する位置姿勢センサと、カメラで撮像した指標とを利用して、カメラの位置姿勢を推定する方法である。このような方法で利用される指標としては、色領域の重心や同心円等がある。また、指標は同時に複数利用されることが多いが、カメラが撮像した画像から検出した指標が、現実空間に複数個配置した指標のどれに対応するのかを求める手段のひとつとして、画像から検出した指標の座標と、指標の絶対位置を位置姿勢センサの計測値を基にして投影して得られる、画像面上での指標の座標との間の関係を利用することが知られている。
[従来技術2]
一方で、非特許文献2乃至3において開示されているように、位置姿勢センサを用いず、カメラで撮像した指標のみを利用してカメラの位置姿勢推定を行う方法も知られている。そして、これら非特許文献においては、正方形の指標を利用し、正方形の4頂点の座標を基にして、カメラの位置姿勢を推定している。ただし、正方形はその中心点(対角線の交点)を通り、面に垂直な軸を回転軸として90°毎の回転対称形であることから、頂点の座標からだけでは上下左右の判定を行うことができない。そのため、正方形の指標内部に、上下左右の判定を行うためのさらなる画像特徴が設けられている。さらに、指標を複数利用する場合に、カメラで撮像した画像のみに基づいて複数の指標のどれを捉えているのかを識別する必要があるため、指標の内部にはさらに指標毎に異なる固有のパターンや符号などの図形情報が埋め込まれている。
[従来技術3]
従来技術1で説明したような複合現実感の提示を行う画像表示装置は、カメラによって撮影された現実空間の画像に、撮像装置の位置及び姿勢に応じて生成した仮想空間(たとえばコンピュータ・グラフィックスにより描画された仮想物体や文字情報など)の画像を重畳描画してそれを観察者の頭部に装着されたディスプレイに表示するビデオシースルー方式によって実現される。
ここで、観察者が観察している情景を第三者に提示する目的で、カメラによって撮影された現実空間の画像、またはその画像に仮想空間の画像を重畳描画した画像を、情景中に配した表示装置に表示する場合があった。
特開平11−084307号公報 特開2000−041173号公報 A.State,G.Hirota,D.T.Chen,B.Garrett,and M.Livingston: Superior augmented reality registration by integrating landmark tracking and magnetic tracking,Proc.SIGGRAPH‘96,pp.429−438,July 1996. 加藤,Billinghurst,浅野,橘:マーカー追跡に基づく拡張現実感システムとそのキャリブレーション,日本バーチャルリアリティ学会論文誌,vol.4,no.4,pp.607−616,Dec.1999. X.Zhang,S.Fronz,N.Navab: Visual marker detection and decoding in AR systems:A comparative study,Proc.of International Symposium on Mixed and Augmented Reality(ISMAR‘02),2002. R.M.Haralick,C.Lee,K.Ottenberg,and M.Nolle:Review and analysis of solutions of the three point perspective pose estimation problem,International Journal of Computer Vision,vol.13,no.3,pp.331−356,1994. D.G.Lowe:Fitting parameterized three−dimensional models to images,IEEE Transactions on PAMI,vol.13,no.5,pp.441−450,1991. 藤井博文,神原誠之,岩佐英彦,竹村治雄,横矢直和,拡張現実のためのジャイロセンサを併用したステレオカメラによる位置合わせ,電子情報通信学会技術研究報告PRMU99−192(信学技報vol.99,no.574,pp.1−8)
従来技術1のカメラの位置姿勢を推定する方法において、ある特定の色の小さな円形のシート状の物体を指標とすることができる。この場合、指標のもつ情報は、3次元位置(座標)と色である。位置姿勢センサの計測値を利用し、指標の3次元位置をカメラの画像面へと投影し、一方で、画像からのその指標の色を検出する色領域検出処理を行い、画像中での重心位置を計算する。そして、画像面上へ投影した3次元位置と、画像から計算した重心位置を比較し、例えば最も近いものを同じ指標であると判定することによって、画像中の指標を同定することができる。
また、従来技術2で利用されている正方形マーカのような図形的な拡がりのある指標を利用する方法がある。従来技術2では完全に画像のみから個々のマーカを識別する必要が生じるため、指標に符号情報やテンプレートとなりうる記号情報などを埋め込んでいる。図10は、非特許文献2および非特許文献3にて開示されている従来技術2で利用されている具体的な正方形マーカの例である。
いずれの従来技術においても、原理上、カメラが撮影する現実空間の中に、指標以外に指標と同じ色や図形が存在すると、それらを誤って同定してしまう。例えば、従来技術3において、カメラによって撮影された現実空間の画像(またはその画像に仮想空間の画像を重畳描画した画像)を表示する表示装置が情景中に配されている場合には、その表示画面がカメラによって撮影されてしまう状況が発生することがあった。そして、その表示画面内の指標を誤って情景中の指標として検出してしまうという問題があった。
本発明はこのような従来技術の問題点を解決することを目的とする。
上記課題を解決するために、本発明に係る情報処理装置は、撮像手段によって情景を撮影することにより得られた画像を入力する画像入力手段と、前記撮影された画像から前記情景中の指標を検出する検出手段と、前記検出手段により検出された指標を用いて前記撮像手段の位置姿勢を推定する推定手段と、前記撮像手段により撮影された画像から表示画像を生成する生成手段と、前記生成手段により生成された表示画像を表示手段に表示させる出力手段と、前記表示手段が前記撮像手段により撮影されるときに該表示手段上に表示される情景中の指標が前記検出手段により検出されることを防止する誤検出防止手段とを備え、前記誤検出防止手段は、前記表示手段のリフレッシュレート及び/又は前記撮像手段のフレームレートを、夫々が異なる値となるように設定することを特徴とする。
本発明の他の態様によれば、撮像手段によって情景を撮影することにより得られた画像を入力する画像入力手段と、前記撮影された画像から前記情景中の指標を検出する検出手段と、前記検出手段により検出された指標を用いて前記撮像手段の位置姿勢を推定する推定手段と、前記撮像手段により撮影された画像から表示画像を生成する生成手段と、前記生成手段により生成された表示画像を表示手段に表示させる出力手段と、前記表示手段が前記撮像手段により撮影されるときに該表示手段上に表示される情景中の指標が前記検出手段により検出されることを防止する誤検出防止手段とを備え、前記誤検出防止手段は、前記表示手段及び前記撮像手段に夫々の偏光の向きが異なるように取り付けた偏光フィルタを用いることを特徴とする。
本発明の他の態様によれば、情報処理装置が行う情報処理方法であって、前記情報処理装置の入力手段が、表示装置が配置されている情景を撮像装置により撮影することにより得られた撮影画像を入力する入力工程と、前記情報処理装置の検出手段が、前記撮影画像から前記情景中の指標を検出する検出工程と、前記情報処理装置の推定手段が、前記検出工程で検出された指標を用いて前記撮像装置の位置姿勢を推定する推定工程と、前記情報処理装置の生成手段が、前記撮影画像から前記表示装置に表示するための表示画像を生成する生成工程と、前記情報処理装置の出力手段が、前記生成手段により生成された表示画像を前記表示装置に表示させる出力工程と、前記情報処理装置の誤検出防止手段が、前記表示装置に表示される情景中の指標が前記検出工程で検出されることを防止する誤検出防止工程とを備え、前記誤検出防止工程では、前記表示手段のリフレッシュレート及び/又は前記撮像手段のフレームレートを、夫々が異なる値となるように設定することを特徴とする。
本発明の他の態様によれば、情報処理装置が行う情報処理方法であって、前記情報処理装置の入力手段が、表示装置が配置されている情景を撮像装置により撮影することにより得られた撮影画像を入力する入力工程と、前記情報処理装置の検出手段が、前記撮影画像から前記情景中の指標を検出する検出工程と、前記情報処理装置の推定手段が、前記検出工程で検出された指標を用いて前記撮像装置の位置姿勢を推定する推定工程と、前記情報処理装置の生成手段が、前記撮影画像から前記表示装置に表示するための表示画像を生成する生成工程と、前記情報処理装置の出力手段が、前記生成手段により生成された表示画像を前記表示装置に表示させる出力工程と、前記情報処理装置の誤検出防止手段が、前記表示装置に表示される情景中の指標が前記検出工程で検出されることを防止する誤検出防止工程とを備え、前記誤検出防止工程では、前記表示手段及び前記撮像手段に夫々の偏光の向きが異なるように取り付けた偏光フィルタを用いることを特徴とする。
本発明によれば、現実空間に配された指標を撮影画像から検出する際に、現実空間に存在する表示装置の表示画面に表示されている指標を、現実空間に存在する指標として誤検出することを防止することができる。
以下、添付図面を参照して、本発明をその好適な実施形態に従って詳細に説明する。
[第1の実施形態]
本実施形態に係る情報処理装置は、画像から検出された指標領域に局所的に図形又は小画像を重畳表示することによって指標の誤検出を防止する。以下、本実施形態に係る情報処理装置及び情報処理方法について説明する。
図1は、本実施形態における情報処理装置の構成を示している。同図に示したように、本実施形態における情報処理装置100は、画像入力部160、データ記憶部170、指標検出部110、誤検出防止処理部140、画像生成部150、及び画像出力部190によって構成されており、撮像装置130及び表示装置180に接続されている。
現実空間中の複数の位置には、撮像装置130によって撮影するための複数個の指標Q(k=1,,,K)が配置されている。図1の例は、2個の指標Q,Qが設定されており、そのうちの1個の指標Qが撮像装置130の視野内に含まれている状況を示している。
なお、指標Qは、例えば、それぞれが異なる色を有する円形状のマーカによって構成してもよいし、それぞれが異なるテクスチャ特徴を有する自然特徴等の特徴点によって構成してもよい。また、ある程度の面積を有する四角形の単色領域によって形成されるような、四角形指標を用いることも可能である。撮像画像上における投影像の画像座標が検出可能であって、かついずれの指標であるかが何らかの方法で識別可能であるような指標であれば、何れの形態であってもよい。指標は、故意に設定されたものであってもよいし、故意に設定されたものではない、情景に元来存在する特徴であってもよい。
撮像装置130が出力する画像(以下、これを撮像画像と呼ぶ)は、画像入力部160に入力される。
画像入力部160は、情報処理装置100へ入力される撮像画像をデジタルデータに変換し、データ記憶部170に保存する。
指標検出部110は、データ記憶部170より撮像画像を入力し、入力した画像中に撮影されている指標の画像座標を検出する。例えば、指標の各々が異なる色を有するマーカによって構成されている場合には、画像上から各々のマーカ色に対応する領域を検出し、その重心位置を指標の検出座標とする。また、指標の各々が異なるテクスチャ特徴を有する特徴点によって構成されている場合には、既知の情報として予め保持している各々の指標のテンプレート画像によるテンプレートマッチングを画像上に施すことにより、指標の位置を検出する。また、四角形指標を用いる場合は、画像に2値化処理を施した後にラベリングを行い、4つの直線によって形成されている領域を指標候補として検出する。さらに、候補領域の中に特定のパターンがあるか否かを判定することによって誤検出を排除し、また、指標の識別子を取得する。なお、このようにして検出される四角形指標は、本明細書では、4つの頂点の個々によって形成される4つの指標であると考える。
指標検出部110は、さらに、検出された指標の画像座標とその指標の識別子をデータ記憶部170へと出力する。なお、以下では、撮像画像上で検出された指標を、検出された指標の夫々に付けられた識別子n(n=1,,,N)を用いて、Qknと表記する。ここで、Nは撮像画像上で検出された指標の数を表している。また、検出された指標Qknの画像座標をuQknと表記する。例えば図1の場合には、N=1であり、指標の識別子k=1と、これらに対応する画像座標uQk1が出力される。
誤検出防止処理部140は、表示装置180が撮像装置130によって撮影されるときに、表示装置180に表示された指標(図1の場合にはQ’)が指標検出部110で検出されることを防止するために、撮影画像における指標検出部110によって検出された指標の位置に、局所的に図形又は小画像を重畳表示する。
ここで、小画像とは、撮影画像よりも小さなサイズの画像のことを指すものとする。
画像生成部150は、表示装置180に表示するための表示画像を生成し、画像出力部190は、画像生成部150で生成された表示画像を表示装置180に出力するデータに変換し、表示装置へ出力する。
データ記憶部170は、画像入力部160から入力される画像、指標検出部110から入力される各々の指標の画像座標及び識別子、撮像装置130のカメラパラメータ等のデータを保持し、必要に応じてこれらを入出力する。
なお、図1に示した画像入力部160、データ記憶部170、指標検出部110、誤検出防止処理部140、画像生成部150、及び画像出力部190の夫々は、独立した装置として扱ってもよいし、夫々ソフトウェアとして1つもしくは複数のコンピュータにインストールし、夫々のコンピュータのCPUにより実行することで、その機能を実現するようにしてもよい。本実施形態では、各部(画像入力部160、データ記憶部170、指標検出部110、誤検出防止処理部140、画像生成部150、及び画像出力部190)は1台のコンピュータ内で実行対象となるソフトウェアとして扱う。
図2は画像入力部160、データ記憶部170、指標検出部110、誤検出防止処理部140、画像生成部150、及び画像出力部190の夫々をソフトウェアとして実行するコンピュータの基本構成を示す図である。
1001はCPUで、RAM1002やROM1003に格納されたプログラムやデータを用いてコンピュータ全体の制御を行うと共に、画像入力部160、データ記憶部170、指標検出部110、誤検出防止処理部140、画像生成部150、及び画像出力部190の夫々のソフトウェアの実行を制御して、各部の機能を実現する。
1002はRAMで、外部記憶装置1007や記憶媒体ドライブ1008からロードされたプログラムやデータを一時的に記憶するエリアを備えると共に、CPU1001が各種の処理を行うために必要とするワークエリアを備える。データ記憶部170の機能は、RAM1002によって実現される。
1003はROMで、一般にコンピュータの記憶プログラムや設定データなどが格納されている。1004、1005は夫々キーボード、マウスで、操作者は夫々を用いて、各種の指示をCPU1001に入力することができる。
1006は表示部で、CRTや液晶画面などにより構成されており、例えば、撮像装置130の位置姿勢計測のために表示すべきメッセージ等を表示することができる。
1007は外部記憶装置で、ハードディスクなどの大容量情報記憶装置として機能する装置であって、ここにOS(オペレーティングシステム)やソフトウェアのプログラム等を保存する。また本実施形態の説明において、既知であると説明する情報はここに保存されており、必要に応じてRAM1002にロードされる。
1008は記憶媒体ドライブで、CD−ROMやDVD−ROMなどの記憶媒体に記憶されているプログラムやデータをCPU1001からの指示に従って読み出して、RAM1002や外部記憶装置1007に出力する。
1009はI/Fで、撮像装置130を接続するためのアナログビデオポートあるいはIEEE1394等のデジタル入出力ポート、姿勢センサ140を接続するためのRS232CあるいはUSBシリアルポート、また、識別した指標に関わる情報を外部へ出力するためのイーサネット(登録商標)ポート等によって構成される。夫々が入力したデータはI/F1009を介してRAM1002に取り込まれる。画像入力部160の機能の一部は、I/F1009によって実現される。
1010は上述の各部を繋ぐバスである。
図3は、表示装置180に表示された指標の誤検出を防止する処理のフローチャートであり、CPU1001が誤検出防止処理部140のソフトウェアのプログラムを実行することで行われる。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、RAM1002に既にロードされているものとする。
図3の処理では、誤検出防止処理部540を用いて、表示装置180に表示する表示画像における指標部分に対して図形または小画像を重畳する。
ステップS3000において、誤検出防止処理部140は、指標検出部110において検出された夫々の指標Qの画像座標uQnをデータ記憶部170から入力する。
ステップS3010において、誤検出防止処理部140は、指標検出部110が指標検出処理を行った撮像画像上の画像座標uQmの位置に、局所的に図形又は小画像を重畳表示する。
例えば、指標の各々が異なる色を有するマーカによって構成されている場合には、マーカ色として登録されていない色の図形(例えば円)を画像座標uQmの位置に重畳表示してマーカを覆い隠す。また、指標の各々が異なるテクスチャ特徴を有する特徴点によって構成されている場合には、テクスチャ特徴の一部を覆い隠すように、図形又は小画像を重畳表示する。また、四角形指標を用いるような場合は、四角形指標として認識されなくなるように、図形又は小画像を重畳表示する。
図4は、四角形指標の指標領域400中の特定パターンの一部を覆い隠すように四角形410を重畳表示した場合を示す図である。図4に示した例では、四角形指標の内部に設けられた上下左右の判別を行うための画像特徴を覆い隠している。
ステップS3020において、誤検出防止処理部140は、撮像画像に局所的に図形又は小画像を重畳表示した画像をデータ記憶部170に出力する。局所的に図形又は小画像が重畳された画像は、画像生成部150を介して表示装置180によって表示される。
以上の処理によって、局所的に図形又は小画像を重畳された画像が、表示装置180上に表示される。よって、表示画像が撮像装置130により撮影されたとしても、表示画像上に表示された指標が指標として検出されることはなくなる。
以上のように、本実施形態に係る情報処理装置及び情報処理方法によると、現実空間に存在する表示装置が撮像装置により撮影されても、表示装置上に表示された指標には図形又は小画像が重畳表示されているため、指標として検出されることを防止することができる。
なお、上記実施形態では、指標に重畳する画像として、図形又は小画像を用いたが、仮想物体画像などの他の画像を用いても構わない。
[第2の実施形態]
本実施形態に係る情報処理装置は、指標検出部110によって検出された各々の指標の情報に基づいて撮像装置130の位置及び姿勢を算出する位置姿勢算出部を、第1の実施形態の情報処理装置にさらに追加した構成となっている。以下、本実施形態に係る情報処理装置及び情報処理方法について説明する。
図5は、本実施形態に係る情報処理装置の構成を示す図である。なお、図1と同じ部分については同じ番号、記号を付けており、その説明を省略する。図5に示したように、本実施形態における情報処理装置500は、画像入力部160、データ記憶部170、指標検出部110、位置姿勢算出部520、誤検出防止処理部540、画像生成部150、及び画像出力部190によって構成されており、撮像装置130及び表示装置180に接続されている。
現実空間中の複数の位置には、撮像装置130によって撮影するための指標として、世界座標系(現実空間の1点を原点として定義し、更に互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系)における位置x Qkが既知である複数個の指標Q(k=1,,,K)が配置されている。本実施形態においては、指標Qは、撮像装置130によって取得される撮像画像上において、少なくとも3個以上の指標が常に観測されるように設定されていることが望ましい。図5の例は、4個の指標Q,Q,Q,Qが設定されており、そのうちの3個の指標Q,Q,Qが撮像装置130の視野内に含まれている状況を示している。この場合、N(撮像画像上で検出された指標の数)=3であり、指標の識別子k=1,k=3,k=4と、これらに対応する画像座標uQk1,uQk2,uQk3が指標検出部110から出力される。
位置姿勢算出部520は、指標検出部110によって検出された各々の主観視点指標の画像座標uQknと、既知な情報として予め保持されている世界座標x Qknの組をデータ記憶部170から入力し、これらの情報に基づいて撮像装置130の位置及び姿勢を算出する。算出した位置及び姿勢は、例えば、位置を表す3次元ベクトルx と姿勢を表す3×3行列RWCとの組の形態によってデータ記憶部170に出力する。
主観視点指標の世界座標と画像座標の組から撮像装置の位置及び姿勢を算出する方法は、写真測量等の分野において古くから提案されている(例えば、非特許文献4、非特許文献5を参照)ので、その詳細な説明は省略する。
誤検出防止処理部540は、表示装置180が撮像装置130によって撮影されるときに、表示装置180に表示された指標(図5の場合にはQ’,Q’,Q’)が指標検出部110で検出されることを防止するために、指標の推定位置に3次元仮想物体を重畳表示する。重畳する画像は、3次元仮想物体に限らず、他の図形又は小画像でも構わない。
なお、図5に示した画像入力部160、データ記憶部170、指標検出部110、位置姿勢算出部520、誤検出防止処理部540、画像生成部150、及び画像出力部190の夫々は、独立した装置として扱ってもよいし、夫々ソフトウェアとして1つもしくは複数のコンピュータにインストールし、夫々のコンピュータのCPUにより実行することで、その機能を実現するようにしてもよい。本実施形態では、各部(画像入力部160、データ記憶部170、指標検出部110、位置姿勢算出部520、誤検出防止処理部540、画像生成部150、及び画像出力部190)は1台のコンピュータ内で実行対象となるソフトウェアとして扱う。またこのコンピュータの基本構成は図2に示した構成とする。
図6は、表示装置180に表示された情景中の指標の誤検出を防止する処理のフローチャートであり、CPU1001が誤検出防止処理部540のソフトウェアのプログラムを実行することで行われる。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、RAM1002に既にロードされているものとする。
ステップS6000において、誤検出防止処理部540は、位置姿勢算出部520が算出した撮像装置130の位置及び姿勢と、既知な情報として予め保持されている指標の世界座標x Qknを、データ記憶部170から入力する。
ステップS6010において、誤検出防止処理部540は、撮像装置130の位置及び姿勢に基づいて、指標の世界座標x Qknを透視投影変換し、その位置に3次元仮想物体を重畳表示する。
ステップS6020において、誤検出防止処理部540は、撮像画像に3次元仮想物体を重畳表示した画像をデータ記憶部170に出力する。
以上の処理によって、撮像画像に3次元仮想物体を重畳表示した画像を、画像出力部190から出力して表示装置180に表示すれば、表示装置180が撮像装置130により撮影されても、表示装置180上に表示された指標が検出されることはなくなる。
なお、本実施形態において、撮像装置に位置姿勢センサを装着することによって、撮像装置の位置及び姿勢を計測してもよい。この場合には、画像情報を用いる場合と比較して、撮像装置の位置及び姿勢を安定的に推定することができる。
また、本実施形態において、撮像装置に慣性センサを装着して、例えば非特許文献6の手法によって、撮像装置の位置及び姿勢を算出してもよい。この場合、撮像装置によって取得される撮像画像上において、少なくとも2個以上の指標が常に観測されるように設定されていればよい。そして、この場合にも、画像情報のみを用いる場合と比較して、撮像装置の位置及び姿勢を安定的に推定することができる。
以上のように、本実施形態に係る情報処理装置及び情報処理方法によれば、指標の検出に失敗したような場合でも、指標があると予想される位置に3次元仮想物体を重畳表示することができる。すなわち、情景が薄暗いなどの理由によって撮像画像では指標として検出されなかった指標領域が、表示装置180に表示して撮像装置130で撮影した際には指標として検出されてしまうような場合を防止することができる。
[第3の実施形態]
上記の実施形態の夫々における指標検出部では、撮影画像の全領域に対して指標の検出処理を行っていた。これに対し、表示装置の設置場所を、そもそも指標の検出処理を行わない領域として設定してもよい。そうすれば、表示装置に指標が表示されていても、その指標の検出処理は行われないため、誤検出を防止することができる。以下、本実施形態に係る情報処理装置及び情報処理方法について説明する。
本実施形態に係る情報処理装置の構成は、第2の実施形態における情報処理装置の構成と同じく図5に示した通りであるが、誤検出防止処理部540および指標検出部110の機能が第2の実施形態とは異なる。
誤検出防止処理部540では、表示装置180が撮像装置130によって撮影されるときに、撮像装置130の位置及び姿勢、及び表示装置180の位置及び姿勢に基づいて、撮影画像中のどの領域が表示装置180に相当するかを算出し、その領域の情報をデータ記憶部170に出力する。
指標検出部110では、表示装置180に相当する画像中の領域の情報をデータ記憶部170より入力し、指標の検出処理をその領域以外の領域に対して行う。
図7は、撮影画像中の表示装置180に相当する領域を算出する処理のフローチャートであり、CPU1001が誤検出防止処理部540のソフトウェアのプログラムを実行することで行われる。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、RAM1002に既にロードされているものとする。
ステップS7000において、誤検出防止処理部540は、位置姿勢算出部520が算出した撮像装置130の位置及び姿勢と、既知な情報として予め保持されている表示装置の位置及び姿勢と(概略の)3次元モデルを、データ記憶部170から入力する。なお、初期状態においては、未だ指標検出部110で指標の検出が行われておらず、位置姿勢算出部520で撮像装置130の位置及び姿勢が算出されていないため、例えば、既知な情報として予め保持されている撮像装置130の初期位置及び初期姿勢をデータ記憶部170から入力する。
ステップS7010において、誤検出防止処理部540は、撮像装置130の位置及び姿勢と、表示装置180の位置及び姿勢とに基づいて、表示装置180の(概略の)3次元モデルを撮影画像上に透視投影変換する。
ステップS7020において、誤検出防止処理部540は、透視投影変換された表示装置180の(概略の)3次元モデルが占める画像中の領域を算出し、例えば、その領域の画素値を1、それ以外の領域の画素値を0としたマスク画像を生成する。
ステップS7030において、誤検出防止処理部540は、ステップS7020において作成したマスク画像をデータ記憶部170に出力する。
以上のようにして出力されたマスク画像を指標検出部110において入力し、指標の検出処理をマスク画像の画素値が0の領域のみに対して行えば、表示装置に指標が表示されていても、その指標の検出処理は行われないことになる。
なお、本実施形態において、撮像装置に位置姿勢センサを装着することによって、撮像装置の位置及び姿勢を計測してもよい。この場合には、撮像装置130の初期位置及び初期姿勢をデータ記憶部170に保持しておかなくてもよい。
また、本実施形態において、表示装置が移動するような場合には、既知な情報として予め保持されている表示装置の位置及び姿勢をデータ記憶部170から入力する代わりに、上記の第2の実施形態における撮像装置の位置及び姿勢の算出処理と同様な手法によって、表示装置の位置及び姿勢を算出すればよい。
以上のように、本実施形態に係る情報処理装置及び情報処理方法によると、現実空間に存在する表示装置が撮像装置により撮影されても、表示装置上に表示された指標については検出処理が行われないため、誤検出を防止することができる。
[第4の実施形態]
上記の実施形態の夫々における誤検出防止処理部では、指標上に図形等を重畳描画することによって誤検出を防止していたが,表示装置の表示画面が撮像装置によって正常に撮影されないようにしても誤検出を防止することができる。以下、本実施形態に係る情報処理装置及び情報処理方法について説明する。
図8は、本実施形態に係る情報処理装置の構成を示す図である。なお、図1と同じ部分については同じ番号、記号を付けており、その説明を省略する。図8に示したように、本実施形態における情報処理装置800は、画像入力部160、データ記憶部170、指標検出部110、画像生成部150、及び画像出力部190によって構成されており、撮像装置130及び表示装置180に接続されている。そして、誤検出防止手段として、撮像装置130に偏光フィルタ840が、そして表示装置180に偏光フィルタ845が取り付けられている。例えば、撮像装置130及び表示装置180に、夫々の回転方向が異なる円偏光フィルタを配置すれば、すなわち、例えば撮像装置130に右回りの円偏光フィルタ840、表示装置180に左回りの円偏光フィルタ845を配置すれば、表示装置の表示画面は、撮像装置と表示装置の相対的な向きに関係なく、撮像装置によってほぼ真っ暗に撮影される。すなわち、撮影画像において、表装置の表示画面はほぼ真っ黒の画像になる。
よって、指標検出部110において、表示画面内に表示された指標は、検出されなくなる。
なお、偏光フィルタ840、845を使用する代わりに、表示装置180のリフレッシュレート及び/又は撮像装置130のフレームレートを、夫々が異なる値となるように設定して、表示装置180の表示画面(図9左)が撮像装置130によって正常に撮影されないようにしてもよい。例えば、撮像装置130のフレームレートを100fps(シャッタースピードを1/100秒)に設定し、表示装置180のリフレッシュレートを60Hzに設定すれば、図9右に示すように、撮像装置130によって撮影される表示画面180には黒い縞模様が映り込むため、指標Q’の一部が黒い縞模様によって隠されることになる。そうすれば、指標Q’がテクスチャ特徴を有する特徴点によって構成されている場合や図10に示すような四角形指標を用いる場合には、表示画面内のそれらを誤って情景中の指標として検出してしまうことがなくなる。この場合の情報処理装置の構成は、図8から偏光フィルタ840及び845を除いたものとなる。
以上のように、本実施形態に係る情報処理装置及び情報処理方法によると、現実空間に存在する表示装置の表示画面は撮像装置によって正常に撮影されないため、誤検出を防止することができる。
[その他の実施形態]
上記の第1および第2の実施形態における誤検出防止処理部では、指標の3次元位置上に画像を重畳することにより指標を変更または隠していたが、撮影画像における表示装置が撮影された画像領域に他の画像を重畳することによって、表示装置全体を隠すようにしてもよい。ここで、表示装置全体ではなく、表示装置の画面部分のみに3次元仮想物体を配してもよいことは言うまでもない。
なお、表示装置が移動するような場合には、上記の第2の実施形態における撮像装置の位置及び姿勢の算出処理と同様な手法によって、表示装置の位置及び姿勢を算出し、それに基づいて表示装置の3次元位置上に3次元仮想物体を配すればよい。この場合には、図5にさらに表示装置位置姿勢算出部が追加された構成となる。
なお、上述した実施形態をビデオシースルー方式ヘッドマウントディスプレイを用いた複合現実感を提示するシステムに適用することもできる。この場合、例えば、ヘッドマウントディスプレイの撮影部が撮像装置130に相当する。そして、指標を用いてヘッドマウントディスプレイの位置および姿勢を求め、求められた位置および姿勢に応じた仮想画像を生成し、仮想画像を撮影部で撮影された撮影画像に合成する。これにより、ユーザに複合現実感を提示することができる。さらに、ヘッドマウントディスプレイに表示されている画像に相当する画像を表示装置180に表示することにより、複合現実感を体験しているユーザ以外の観客に対してユーザが体験している状況を提示することができる。
上記各実施形態によれば、このようなシステムにおいて、表示画像における指標を指標として誤検出することにより、複合現実感の精度が低下することを防ぐことができる。
第1の実施形態に係る情報処理装置の概略構成を示す図である。 情報処理装置の各部をソフトウェアにより実現することのできるコンピュータの基本構成を示す図である。 第1の実施形態における、指標の誤検出を防止する処理を説明するフローチャートである。 第1の実施形態における、四角形指標の一部を覆い隠すように図形を重畳表示した例を示す図である。 第2の実施形態に係る情報処理装置の概略構成を示す図である。 第2の実施形態における、指標の誤検出を防止する処理を説明するフローチャートである。 第3の実施形態における、指標の誤検出を防止する処理を説明するフローチャートである。 第4の実施形態に係る情報処理装置の概略構成を示す図である。 表示装置のリフレッシュレート又は撮像装置フレームレートを制御することによって得られる表示画像上の指標の一例を示すである。 従来技術で利用されている指標の例である。

Claims (12)

  1. 撮像手段によって情景を撮影することにより得られた画像を入力する画像入力手段と、
    前記撮影された画像から前記情景中の指標を検出する検出手段と、
    前記検出手段により検出された指標を用いて前記撮像手段の位置姿勢を推定する推定手段と、
    前記撮像手段により撮影された画像から表示画像を生成する生成手段と、
    前記生成手段により生成された表示画像を表示手段に表示させる出力手段と、
    前記表示手段が前記撮像手段により撮影されるときに該表示手段上に表示される情景中の指標が前記検出手段により検出されることを防止する誤検出防止手段と
    を備え
    前記誤検出防止手段は、前記表示手段のリフレッシュレート及び/又は前記撮像手段のフレームレートを、夫々が異なる値となるように設定することを特徴とする情報処理装置。
  2. 撮像手段によって情景を撮影することにより得られた画像を入力する画像入力手段と、
    前記撮影された画像から前記情景中の指標を検出する検出手段と、
    前記検出手段により検出された指標を用いて前記撮像手段の位置姿勢を推定する推定手段と、
    前記撮像手段により撮影された画像から表示画像を生成する生成手段と、
    前記生成手段により生成された表示画像を表示手段に表示させる出力手段と、
    前記表示手段が前記撮像手段により撮影されるときに該表示手段上に表示される情景中の指標が前記検出手段により検出されることを防止する誤検出防止手段と
    を備え、
    前記誤検出防止手段は、前記表示手段及び前記撮像手段に夫々の偏光の向きが異なるように取り付けた偏光フィルタを用いることを特徴とする請求項1に記載の情報処理装置。
  3. 前記誤検出防止手段は、前記撮像手段により撮影される画像の上に局所的に画像を重畳することを特徴とする、請求項1又は2に記載の情報処理装置。
  4. 前記誤検出防止手段は、前記表示手段上に表示される情景中の指標が該表示手段上で検出されないように、該検出手段により検出された指標の画像上の検出位置に画像を重畳することを特徴とする請求項に記載の情報処理装置。
  5. 前記撮像手段の位置姿勢を計測する位置姿勢計測手段をさらに備え、
    前記誤検出防止手段は、該位置姿勢計測手段により求められた該撮像手段の位置姿勢および前記指標の3次元位置に基づき、前記画像における指標の位置に3次元仮想物体画像を重畳することを特徴とする請求項に記載の情報処理装置。
  6. 前記誤検出防止手段は、前記表示手段上に表示される情景中の該表示手段を隠すように、該表示手段の画像上での位置に局所的に画像を重畳することを特徴とする請求項に記載の情報処理装置。
  7. さらに、前記表示手段の位置姿勢を求める第2の位置姿勢計測手段を備え、
    前記誤検出防止手段は、該第2の位置姿勢計測手段で計測された該表示手段の位置姿勢に基づき、前記画像における表示手段の位置に仮想物体画像を重畳することを特徴とする請求項に記載の情報処理装置。
  8. 前記検出手段により検出された指標を用いて前記撮像装置の位置姿勢を推定する推定手段と
    を有することを特徴とする請求項1又は2に記載の情報処理装置。
  9. 情報処理装置が行う情報処理方法であって、
    前記情報処理装置の入力手段が、表示装置が配置されている情景を撮像装置により撮影することにより得られた撮影画像を入力する入力工程と、
    前記情報処理装置の検出手段が、前記撮影画像から前記情景中の指標を検出する検出工程と、
    前記情報処理装置の推定手段が、前記検出工程で検出された指標を用いて前記撮像装置の位置姿勢を推定する推定工程と、
    前記情報処理装置の生成手段が、前記撮影画像から前記表示装置に表示するための表示画像を生成する生成工程と、
    前記情報処理装置の出力手段が、前記生成手段により生成された表示画像を前記表示装置に表示させる出力工程と、
    前記情報処理装置の誤検出防止手段が、前記表示装置に表示される情景中の指標が前記検出工程で検出されることを防止する誤検出防止工程と
    を備え
    前記誤検出防止工程では、前記表示手段のリフレッシュレート及び/又は前記撮像手段のフレームレートを、夫々が異なる値となるように設定することを特徴とする情報処理方法。
  10. 情報処理装置が行う情報処理方法であって、
    前記情報処理装置の入力手段が、表示装置が配置されている情景を撮像装置により撮影することにより得られた撮影画像を入力する入力工程と、
    前記情報処理装置の検出手段が、前記撮影画像から前記情景中の指標を検出する検出工程と、
    前記情報処理装置の推定手段が、前記検出工程で検出された指標を用いて前記撮像装置の位置姿勢を推定する推定工程と、
    前記情報処理装置の生成手段が、前記撮影画像から前記表示装置に表示するための表示画像を生成する生成工程と、
    前記情報処理装置の出力手段が、前記生成手段により生成された表示画像を前記表示装置に表示させる出力工程と、
    前記情報処理装置の誤検出防止手段が、前記表示装置に表示される情景中の指標が前記検出工程で検出されることを防止する誤検出防止工程と
    を備え、
    前記誤検出防止工程では、前記表示手段及び前記撮像手段に夫々の偏光の向きが異なるように取り付けた偏光フィルタを用いることを特徴とする情報処理方法。
  11. 前記情報処理装置の仮想画像生成手段が、前記推定工程で推定された位置姿勢に基づき仮想画像を生成する仮想画像生成工程と、
    前記情報処理装置の合成手段が、前記仮想画像を前記撮影画像に合成する合成工程とを有することを特徴とする請求項9または10記載の情報処理方法。
  12. 請求項乃至11のいずれか1項に記載の情報処理方法の各工程コンピュータに実行させるためのコンピュータ読み取り可能なプログラム。
JP2005201605A 2005-07-11 2005-07-11 情報処理装置および方法 Expired - Fee Related JP4574473B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2005201605A JP4574473B2 (ja) 2005-07-11 2005-07-11 情報処理装置および方法
EP06253527.3A EP1744280B1 (en) 2005-07-11 2006-07-05 Information processing apparatus and method
EP12192557.2A EP2562719B1 (en) 2005-07-11 2006-07-05 Information processing apparatus and method
US11/482,400 US8330800B2 (en) 2005-07-11 2006-07-07 Information processing apparatus and method
CN200610101908A CN100588270C (zh) 2005-07-11 2006-07-11 信息处理设备和方法
US13/674,680 US9508147B2 (en) 2005-07-11 2012-11-12 Information processing apparatus and method
US15/280,872 US10140723B2 (en) 2005-07-11 2016-09-29 Information processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005201605A JP4574473B2 (ja) 2005-07-11 2005-07-11 情報処理装置および方法

Publications (3)

Publication Number Publication Date
JP2007018426A JP2007018426A (ja) 2007-01-25
JP2007018426A5 JP2007018426A5 (ja) 2008-08-28
JP4574473B2 true JP4574473B2 (ja) 2010-11-04

Family

ID=37027040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005201605A Expired - Fee Related JP4574473B2 (ja) 2005-07-11 2005-07-11 情報処理装置および方法

Country Status (4)

Country Link
US (3) US8330800B2 (ja)
EP (2) EP2562719B1 (ja)
JP (1) JP4574473B2 (ja)
CN (1) CN100588270C (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8327279B2 (en) * 2004-12-14 2012-12-04 Panasonic Corporation Information presentation device and information presentation method
JP4574473B2 (ja) * 2005-07-11 2010-11-04 キヤノン株式会社 情報処理装置および方法
US9058764B1 (en) * 2007-11-30 2015-06-16 Sprint Communications Company L.P. Markers to implement augmented reality
US8542906B1 (en) 2008-05-21 2013-09-24 Sprint Communications Company L.P. Augmented reality image offset and overlay
JP5443085B2 (ja) * 2009-07-28 2014-03-19 株式会社エルモ社 資料提示装置
WO2011038402A2 (en) * 2009-09-28 2011-03-31 Bryan Dangott Apparatus, system, and method for simulating physical movement of a digital image
CN104252270A (zh) * 2010-06-25 2014-12-31 林卓毅 电子装置
US8913085B2 (en) 2010-12-22 2014-12-16 Intel Corporation Object mapping techniques for mobile augmented reality applications
JP5505729B2 (ja) * 2011-01-27 2014-05-28 アイシン・エィ・ダブリュ株式会社 案内装置、案内方法、および、案内プログラム
JP5799516B2 (ja) * 2011-02-03 2015-10-28 セイコーエプソン株式会社 ロボット装置、検査装置、検査プログラム、および検査方法
US9251562B1 (en) 2011-08-04 2016-02-02 Amazon Technologies, Inc. Registration of low contrast images
US9785839B2 (en) * 2012-11-02 2017-10-10 Sony Corporation Technique for combining an image and marker without incongruity
US9535496B2 (en) * 2013-03-15 2017-01-03 Daqri, Llc Visual gestures
US9191620B1 (en) 2013-12-20 2015-11-17 Sprint Communications Company L.P. Voice call using augmented reality
US9570019B2 (en) * 2014-03-20 2017-02-14 Dell Products, Lp System and method for coordinating image capture in a camera hidden behind a display device
US10187587B2 (en) * 2016-04-13 2019-01-22 Google Llc Live updates for synthetic long exposures
US9686539B1 (en) * 2016-06-12 2017-06-20 Apple Inc. Camera pair calibration using non-standard calibration objects
US11875757B2 (en) 2018-03-02 2024-01-16 Nec Corporation Information processing system
US10902680B2 (en) * 2018-04-03 2021-01-26 Saeed Eslami Augmented reality application system and method
CN112955851A (zh) * 2018-10-09 2021-06-11 谷歌有限责任公司 基于场境线索选择增强现实对象以供显示
CN109900331A (zh) * 2019-03-08 2019-06-18 浙江新再灵科技股份有限公司 基于深度相机特征跟踪的河流流量在线检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10210473A (ja) * 1997-01-16 1998-08-07 Toshiba Corp 動きベクトル検出装置
JP2000350860A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実感装置及び複合現実空間画像の生成方法
JP2001126051A (ja) * 1999-10-27 2001-05-11 Olympus Optical Co Ltd 関連情報呈示装置及び関連情報呈示方法

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5510833A (en) * 1994-06-13 1996-04-23 Display Laboratories Inc. Method and apparatus for transforming coordinate systems in an automated video monitor alignment system
US6122541A (en) * 1995-05-04 2000-09-19 Radionics, Inc. Head band for frameless stereotactic registration
US6064749A (en) * 1996-08-02 2000-05-16 Hirota; Gentaro Hybrid tracking for augmented reality using both camera motion detection and landmark tracking
JPH1184307A (ja) 1997-09-01 1999-03-26 M R Syst Kenkyusho:Kk 頭部装着型の光学装置
US6522312B2 (en) * 1997-09-01 2003-02-18 Canon Kabushiki Kaisha Apparatus for presenting mixed reality shared among operators
JP3976900B2 (ja) 1998-07-23 2007-09-19 キヤノン株式会社 視点位置姿勢の決定方法及びカメラ装置
CA2304605A1 (en) * 1998-07-30 2000-02-10 Matsushita Electric Industrial Co., Ltd. A moving image combining apparatus
US6310650B1 (en) * 1998-09-23 2001-10-30 Honeywell International Inc. Method and apparatus for calibrating a tiled display
JP3241020B2 (ja) 1999-03-26 2001-12-25 日本電気株式会社 半導体装置の製造方法
US7084887B1 (en) * 1999-06-11 2006-08-01 Canon Kabushiki Kaisha Marker layout method, mixed reality apparatus, and mixed reality space image generation method
JP2001306254A (ja) * 2000-02-17 2001-11-02 Seiko Epson Corp 打音検出による入力機能
JP3467017B2 (ja) * 2000-11-30 2003-11-17 キヤノン株式会社 位置姿勢の決定方法及び装置並びに記憶媒体
JP3796449B2 (ja) * 2002-01-31 2006-07-12 キヤノン株式会社 位置姿勢決定方法および装置並びにコンピュータプログラム
EP1349114A3 (en) * 2002-03-19 2011-06-15 Canon Kabushiki Kaisha Sensor calibration apparatus, sensor calibration method, program, storage medium, information processing method, and information processing apparatus
US6982744B2 (en) * 2002-04-15 2006-01-03 Radiant Imaging, Inc. Multi-point calibration method for imaging light and color measurement device
US20040001074A1 (en) * 2002-05-29 2004-01-01 Hideki Oyaizu Image display apparatus and method, transmitting apparatus and method, image display system, recording medium, and program
US7190331B2 (en) * 2002-06-06 2007-03-13 Siemens Corporate Research, Inc. System and method for measuring the registration accuracy of an augmented reality system
JP2004198211A (ja) * 2002-12-18 2004-07-15 Aisin Seiki Co Ltd 移動体周辺監視装置
JP2004213355A (ja) * 2002-12-27 2004-07-29 Canon Inc 情報処理方法
JP4532856B2 (ja) 2003-07-08 2010-08-25 キヤノン株式会社 位置姿勢計測方法及び装置
JP3946676B2 (ja) 2003-08-28 2007-07-18 株式会社東芝 撮影画像処理装置及びその方法
JP4401727B2 (ja) * 2003-09-30 2010-01-20 キヤノン株式会社 画像表示装置及び方法
JP4447896B2 (ja) * 2003-11-25 2010-04-07 キヤノン株式会社 画像処理装置および方法
JP4537104B2 (ja) * 2004-03-31 2010-09-01 キヤノン株式会社 マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法
JP2006067272A (ja) * 2004-08-27 2006-03-09 Matsushita Electric Ind Co Ltd カメラキャリブレーション装置及びカメラキャリブレーション方法
JP4689380B2 (ja) * 2004-09-28 2011-05-25 キヤノン株式会社 情報処理方法および装置
JP4574473B2 (ja) * 2005-07-11 2010-11-04 キヤノン株式会社 情報処理装置および方法
US7995098B2 (en) * 2005-09-09 2011-08-09 Radiant Imaging, Inc. Systems and methods for measuring spatial and angular performance of a visual display
JP4847192B2 (ja) * 2006-04-14 2011-12-28 キヤノン株式会社 画像処理システム、画像処理装置、撮像装置、及びそれらの制御方法
US8842217B2 (en) * 2008-08-04 2014-09-23 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2010134649A (ja) * 2008-12-03 2010-06-17 Canon Inc 情報処理装置、その処理方法及びプログラム
JP5247590B2 (ja) * 2009-05-21 2013-07-24 キヤノン株式会社 情報処理装置及びキャリブレーション処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10210473A (ja) * 1997-01-16 1998-08-07 Toshiba Corp 動きベクトル検出装置
JP2000350860A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実感装置及び複合現実空間画像の生成方法
JP2001126051A (ja) * 1999-10-27 2001-05-11 Olympus Optical Co Ltd 関連情報呈示装置及び関連情報呈示方法

Also Published As

Publication number Publication date
EP1744280B1 (en) 2016-09-07
EP1744280A3 (en) 2012-08-15
US20070008341A1 (en) 2007-01-11
US8330800B2 (en) 2012-12-11
JP2007018426A (ja) 2007-01-25
US10140723B2 (en) 2018-11-27
US9508147B2 (en) 2016-11-29
CN1905689A (zh) 2007-01-31
EP2562719A3 (en) 2013-09-25
US20170018072A1 (en) 2017-01-19
EP2562719B1 (en) 2017-11-01
CN100588270C (zh) 2010-02-03
EP2562719A2 (en) 2013-02-27
US20130064454A1 (en) 2013-03-14
EP1744280A2 (en) 2007-01-17

Similar Documents

Publication Publication Date Title
JP4574473B2 (ja) 情報処理装置および方法
US7519218B2 (en) Marker detection method and apparatus, and position and orientation estimation method
JP4532982B2 (ja) 配置情報推定方法および情報処理装置
JP4926817B2 (ja) 指標配置情報計測装置および方法
EP1596329B1 (en) Marker placement information estimating method and information processing device
US9325969B2 (en) Image capture environment calibration method and information processing apparatus
EP1739622B1 (en) Image feature identification with two cameras
JP2006214832A (ja) 指標配置計測方法、位置姿勢推定方法、指標配置計測装置、位置姿勢推定装置
JP2005326282A (ja) 位置姿勢計測方法および装置
JP2006267879A (ja) 画像処理方法、画像処理装置、マーカ
JP4502361B2 (ja) 指標姿勢検出方法および装置
JP2006293485A (ja) 指標表示方法及び画像表示装置
JP4810403B2 (ja) 情報処理装置、情報処理方法
JP2005107964A (ja) 指標識別方法および装置
JP2010118002A (ja) 情報処理装置及び情報処理方法
JP5127165B2 (ja) 情報処理方法および装置
JP4497880B2 (ja) 指標識別方法および装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080711

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080711

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100608

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100817

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100818

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130827

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees