JP2010118002A - Information processing apparatus and information processing method - Google Patents

Information processing apparatus and information processing method Download PDF

Info

Publication number
JP2010118002A
JP2010118002A JP2008292585A JP2008292585A JP2010118002A JP 2010118002 A JP2010118002 A JP 2010118002A JP 2008292585 A JP2008292585 A JP 2008292585A JP 2008292585 A JP2008292585 A JP 2008292585A JP 2010118002 A JP2010118002 A JP 2010118002A
Authority
JP
Japan
Prior art keywords
index
image
information
orientation
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008292585A
Other languages
Japanese (ja)
Inventor
Naohito Nakamura
直仁 中村
Kenji Morita
憲司 守田
Takaaki Endo
隆明 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008292585A priority Critical patent/JP2010118002A/en
Publication of JP2010118002A publication Critical patent/JP2010118002A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Digital Computer Display Output (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To precisely prevent an index displayed on a display screen of a display device present in a real space from being detected wrongly as an index present in the real space. <P>SOLUTION: An index detection unit 1040 acquires an index and image coordinates from an captured image data outputted from an imaging device 1010, and a position and orientation calculation unit 1050 calculates a position and an orientation of the imaging device 1010 using the acquired image coordinates, u<SP>Qkn</SP>, and world coordinates x<SB>W</SB><SP>Qkn</SP>which is retained as known information in advance. Furthermore, a wrong detection prevention processing unit 1060 searches candidate index regions using the calculated position and orientation of the imaging device 1010 and the world coordinates x<SB>W</SB><SP>Qkn</SP>which is retained in advance, detects an index which has not been detected in the index detection unit 1040, and overlays a graphic or a small image on the index portion. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は情報処理装置、情報処理方法、プログラム及び記憶媒体に関し、特に、画像中の指標の誤検出を防止するために用いて好適な技術に関する。   The present invention relates to an information processing apparatus, an information processing method, a program, and a storage medium, and more particularly to a technique suitable for use in preventing erroneous detection of an index in an image.

現実空間を撮像するカメラなどの撮像部(以下、カメラと称す)の位置及び姿勢(位置姿勢)を計測する技術は、例えば、現実空間と仮想空間とを融合して表示する複合現実感システムにおいて必要となる。このような従来技術としては、例えば、特許文献1、特許文献2及び非特許文献1において開示されている。具体的には、現実空間に配置した位置である既知のマーカを用いたり、または現実空間中の位置である既知の特徴点を用いたりして、カメラの位置姿勢を測定する位置姿勢センサの計測誤差を補正している。以下、マーカ及び特徴点を合わせて指標と称す。   A technique for measuring the position and orientation (position and orientation) of an imaging unit (hereinafter referred to as a camera) such as a camera that captures a real space is, for example, in a mixed reality system that displays a fusion of a real space and a virtual space. Necessary. Such conventional techniques are disclosed in Patent Document 1, Patent Document 2, and Non-Patent Document 1, for example. Specifically, a position / orientation sensor that measures the position / orientation of the camera by using a known marker that is a position in the real space or using a known feature point that is a position in the real space. The error is corrected. Hereinafter, the marker and the feature point are collectively referred to as an index.

これらの方法は、カメラの位置姿勢を測定する位置姿勢センサと、カメラで撮像した指標とを利用して、カメラの位置姿勢を推定する方法である。このような方法で利用される指標としては、色領域の重心や同心円等がある。   These methods are methods for estimating the position and orientation of the camera using a position and orientation sensor that measures the position and orientation of the camera and an index captured by the camera. As indices used in such a method, there are a center of gravity of a color region, a concentric circle, and the like.

また、指標は同時に複数利用されることが多く、カメラが撮像した画像から検出した指標が、現実空間に複数個配置した指標のどれに対応するのかを求める必要がある。その手段の1つとして、画像から検出した指標の座標と、指標の絶対位置として位置姿勢センサの計測値を基にして投影して得られる画像面上での指標の座標との間の関係を利用することが知られている。   In addition, a plurality of indices are often used at the same time, and it is necessary to determine which of the indices arranged in the real space corresponds to the indices detected from the image captured by the camera. As one of the means, the relationship between the coordinates of the index detected from the image and the coordinates of the index on the image plane obtained by projecting based on the measurement value of the position and orientation sensor as the absolute position of the index It is known to use.

このようなカメラの位置姿勢を推定する方法においては、ある特定の色の小さな円形のシート状の物体を指標とすることができる。この場合、指標が有する情報は、3次元位置(座標)及び色である。位置姿勢センサの計測値を利用して、指標の3次元位置をカメラの画像面へ投影し、一方で、その指標の色を画像から検出する色領域検出処理を行い、画像中における重心位置を計算する。そして、画像面上へ投影した3次元位置と、画像から計算した重心位置とを比較し、例えば最も近いものを同じ指標であると判定することによって、画像中の指標を同定することができる。   In such a method for estimating the position and orientation of the camera, a small circular sheet-like object having a specific color can be used as an index. In this case, the information included in the index is a three-dimensional position (coordinates) and a color. Using the measured values of the position and orientation sensor, the three-dimensional position of the index is projected onto the image plane of the camera, and on the other hand, color area detection processing is performed to detect the color of the index from the image, and the position of the center of gravity in the image is determined. calculate. Then, the index in the image can be identified by comparing the three-dimensional position projected on the image plane with the barycentric position calculated from the image and determining that the closest one is the same index, for example.

一方、例えば、非特許文献2及び3において開示されているように、位置姿勢センサを用いず、カメラで撮像した指標のみを利用してカメラの位置姿勢を推定する方法も知られている。そして、これらの非特許文献2及び3においては、正方形の指標を利用して、正方形の4頂点の座標を基に、カメラの位置姿勢を推定している。   On the other hand, for example, as disclosed in Non-Patent Documents 2 and 3, there is also known a method for estimating the position and orientation of a camera using only an index imaged by the camera without using a position and orientation sensor. In these Non-Patent Documents 2 and 3, the position and orientation of the camera are estimated based on the coordinates of the four vertices of the square using a square index.

但し、正方形はその中心点(対角線の交点)を面に垂直に通る軸を回転軸として90°毎の回転対称形であることから、頂点の座標のみからは上下左右の判定を行うことができない。そのため、正方形の指標の内部に、上下左右の判定を行うための更なる画像特徴が設けられている。さらに、指標を複数利用する場合には、カメラで撮像した画像のみに基づいて複数の指標のどれを捉えているのかを識別する必要がある。このため、指標の内部にはさらに指標毎に異なる固有のパターンや符号などの図形情報が埋め込まれている。   However, since the square is rotationally symmetric at every 90 ° with the axis passing through the center point (intersection of diagonal lines) perpendicular to the plane as the rotation axis, it is not possible to make an up / down / left / right determination only from the coordinates of the vertex. . Therefore, a further image feature for performing up / down / left / right determination is provided inside the square index. Furthermore, when using a plurality of indices, it is necessary to identify which of the plurality of indices is captured based only on the image captured by the camera. For this reason, graphic information such as a unique pattern or code that is different for each index is embedded in the index.

正方形マーカのように図形的な拡がりのある指標を利用する方法では、完全に画像のみから個々のマーカを識別する必要が生じる。このため、符号情報やテンプレートとなりうる記号情報などを指標に埋め込んでいる。図8は、記号情報などが埋め込まれた指標である具体的な正方形マーカの例を示す図である。   In a method that uses an index having a graphic expansion such as a square marker, it is necessary to completely identify each marker from only the image. For this reason, code information and symbol information that can be a template are embedded in the index. FIG. 8 is a diagram illustrating an example of a specific square marker that is an index in which symbol information or the like is embedded.

また、前述したような複合現実感の提示を行う画像表示装置は、カメラによって撮影された現実空間の画像に、カメラの位置及び姿勢に応じて生成した仮想空間の画像を重畳描画する。そして、観察者の頭部に装着されたディスプレイにその重畳描画した画像を表示するビデオシースルー方式が用いられる。なお、仮想空間としては、例えば、コンピュータ・グラフィックスにより描画された仮想物体や文字情報などがある。   Further, the image display device that presents the mixed reality as described above superimposes and draws a virtual space image generated according to the position and orientation of the camera on the real space image captured by the camera. Then, a video see-through method is used in which the superimposed and drawn image is displayed on a display attached to the observer's head. Examples of the virtual space include a virtual object drawn by computer graphics and character information.

さらに、観察者が観察している情景を第三者に提示するために、カメラによって撮影された現実空間の画像、またはその現実空間の画像に仮想空間の画像を重畳描画した画像を、情景中に配した表示装置に表示する場合もある。   Furthermore, in order to present the scene that the observer is observing to a third party, the real space image captured by the camera, or an image in which the virtual space image is superimposed on the real space image, is displayed in the scene. In some cases, the image is displayed on a display device arranged on the screen.

以上説明したいずれの従来技術においても、原理上、カメラが撮影する現実空間の中に、指標以外のものであって指標と同じ色や図形のものが存在すると、それらを誤って指標と同定してしまうことがある。例えば、カメラによって撮影された現実空間の画像、またはその画像に仮想空間の画像を重畳描画した画像を表示する表示装置が情景中に配されている場合には、その表示画面がカメラによって撮影されてしまう状況が発生することがあった。したがって、情景中に配されている表示画面に表示されている指標を、誤って情景中の指標として検出してしまうという問題があった。   In any of the conventional techniques described above, in principle, if there is something other than an index and the same color or figure as the index in the real space photographed by the camera, these are erroneously identified as the index. May end up. For example, when a display device that displays an image of a real space photographed by a camera or an image obtained by superimposing a virtual space image on the image is arranged in a scene, the display screen is photographed by the camera. There was a situation that would occur. Therefore, there is a problem that the index displayed on the display screen arranged in the scene is erroneously detected as the index in the scene.

そこで、現実空間に存在する表示装置の表示画面に表示されている指標を現実空間に存在する指標として誤検出することを防止するために、様々な提案がなされている。例えば、検出された指標の画像領域に対して図形又は小画像を重畳表示する方法、または指標の世界座標の組とカメラの位置姿勢の情報とから推定される指標の位置に図形又は小画像を重畳表示する方法が特許文献3に開示されている。   Therefore, various proposals have been made to prevent erroneous detection of an index displayed on the display screen of a display device existing in the real space as an index existing in the real space. For example, a method of superimposing and displaying a graphic or small image on the image area of the detected index, or a graphic or small image at the position of the index estimated from the set of world coordinates of the index and information on the position and orientation of the camera Japanese Patent Application Laid-Open No. 2004-228688 discloses a method for displaying in a superimposed manner.

特開平11−84307号公報Japanese Patent Laid-Open No. 11-84307 特開2000−41173号公報JP 2000-41173 A 特開2007−18426号公報JP 2007-18426 A A.State, G.Hirota, D.T.Chen, B.Garrett, and M.Livingston: Superior augmented reality registration by integrating landmark tracking and magnetic tracking, Proc. SIGGRAPH'96, pp. 429-438, July 1996.A. State, G. Hirota, D. T. Chen, B. Garrett, and M. Livingston: Superior augmented reality registration by integrating landmark tracking and magnetic tracking, Proc. SIGGRAPH'96, pp. 429-438, July 1996. 加藤,Billinghurst,浅野,橘:マーカー追跡に基づく拡張現実感システムとそのキャリブレーション,日本バーチャルリアリティ学会論文誌,vol.4, no.4, pp.607-616, Dec.1999.Kato, Billinghurst, Asano, Tachibana: Augmented reality system based on marker tracking and its calibration, Transactions of the Virtual Reality Society of Japan, vol.4, no.4, pp.607-616, Dec.1999. X.Zhang, S.Fronz, N.Navab: Visual marker detection and decoding in AR systems: A comparative study, Proc. of International Symposium on Mixed and Augmented Reality (ISMAR'02), 2002.X. Zhang, S. Fronz, N. Navab: Visual marker detection and decoding in AR systems: A comparative study, Proc. Of International Symposium on Mixed and Augmented Reality (ISMAR'02), 2002. R.M.Haralick, C.Lee, K.Ottenberg, and M.Nolle: Review and analysis of solutions of the three point perspective pose estimation problem, International Journal of Computer Vision, vol.13, no.3, pp.331-356, 1994.RMHaralick, C. Lee, K. Ottenberg, and M. Nolle: Review and analysis of solutions of the three point perspective pose estimation problem, International Journal of Computer Vision, vol.13, no.3, pp.331-356, 1994. D.G.Lowe: Fitting parameterized three-dimensional models to images, IEEE Transactions on PAMI, vol.13, no.5, pp.441-450, 1991.D.G.Lowe: Fitting parameterized three-dimensional models to images, IEEE Transactions on PAMI, vol.13, no.5, pp.441-450, 1991. 藤井博文,神原誠之,岩佐英彦,竹村治雄,横矢直和,拡張現実のためのジャイロセンサを併用したステレオカメラによる位置合わせ,電子情報通信学会技術研究報告PRMU99−192(信学技報vol.99, no.574, pp.1-8)Hirofumi Fujii, Noriyuki Kanbara, Hidehiko Iwasa, Haruo Takemura, Naokazu Yokoya, alignment with stereo camera combined with gyro sensor for augmented reality, IEICE Technical Report PRMU99-192 (Science Tech Vol.99) , no.574, pp.1-8)

しかしながら、特許文献3に記載されている方法では、必ずしも有効ではない状況が発生する。   However, in the method described in Patent Document 3, a situation that is not necessarily effective occurs.

例えば、検出された指標の画像領域に対して図形又は小画像を重畳表示する方法では、指標が検出できる場合は、表示装置に指標の誤認識防止のための重畳表示が行われる。ところが、カメラによって撮影された指標が照明環境など何らかの原因によって検出されなかった場合は、図形または小画像が重畳表示されない。このため、再度指標が検出できる環境下になった時に、表示装置に表示されている指標を誤って指標と検出してしまう問題がある。また、情景が薄暗いなどの理由によって撮像画像では指標として検出されなかった指標が、表示装置に表示された時に指標として検出してしまう問題がある。   For example, in the method of superimposing and displaying a figure or a small image on the image area of the detected index, when the index can be detected, superimposed display for preventing erroneous recognition of the index is performed on the display device. However, when an index photographed by the camera is not detected for some reason such as an illumination environment, a figure or a small image is not superimposed and displayed. For this reason, there is a problem that, when an environment in which an index can be detected again is obtained, the index displayed on the display device is erroneously detected as the index. In addition, there is a problem that an index that is not detected as an index in a captured image due to a dark scene is detected as an index when displayed on a display device.

さらに、指標の世界座標の組とカメラの位置姿勢の情報とから推定される指標の位置に図形又は小画像を重畳表示する方法では、現実物によって指標の一部又は全部が隠され、カメラに撮影されない状態になっても、指標の誤認識防止のための重畳表示が行われる。つまり、不要な重畳表示を行ってしまうことがある。また、何らかの原因によってカメラの位置姿勢が本来の値とずれてしまった時には、指標の存在する位置と異なる場所に指標の誤認識防止のための重畳表示が行われ、表示装置に表示されている指標を誤って指標と検出してしまう問題がある。   Furthermore, in the method of superimposing and displaying a figure or a small image on the position of the index estimated from the set of world coordinates of the index and the position and orientation information of the camera, part or all of the index is hidden by the real object, Even when shooting is not performed, superimposed display is performed to prevent erroneous recognition of the index. That is, unnecessary superimposed display may be performed. Also, when the camera position and orientation deviates from the original values for some reason, superimposed display is performed on the display device to prevent misrecognition of the index at a location different from the position where the index exists. There is a problem that an index is erroneously detected as an index.

本発明は前述の問題点に鑑み、現実空間に存在する表示装置の表示画面に表示されている指標を、現実空間に存在する指標として誤検出することを精度良く防止できるようにすることを目的としている。   The present invention has been made in view of the above-described problems, and it is an object of the present invention to accurately prevent an indicator displayed on a display screen of a display device existing in a real space from being erroneously detected as an indicator existing in the real space. It is said.

本発明の情報処理装置は、情景を撮影する撮像手段によって取得された画像データを入力する画像入力手段と、前記画像入力手段によって入力された画像データから前記情景に含まれる指標を検出する第1の検出手段と、前記情景に含まれる指標の世界座標の情報を記憶する記憶手段と、前記記憶手段に記憶された指標の世界座標の情報と、前記第1の検出手段によって検出された指標の画像上における画像座標の情報とに基づいて、前記撮像手段の位置及び姿勢を算出する位置姿勢算出手段と、前記記憶手段に記憶された指標の世界座標の情報と、前記位置姿勢算出手段によって算出された前記撮像手段の位置及び姿勢の情報とに基づいて、前記第1の検出手段によって検出された指標とは異なる前記情景に含まれる指標を前記画像データから検出する第2の検出手段と、前記画像入力手段によって入力された画像データに含まれる前記第1の検出手段及び第2の検出手段によって検出された指標を修正した画像を生成する画像生成手段と、前記画像生成手段により生成された画像を表示手段に表示する表示制御手段とを備えることを特徴とする。
また、本発明の情報処理装置の他の特徴とするところは、情景を撮影する複数の撮像手段によって取得されたそれぞれの画像データを入力する画像入力手段と、前記画像入力手段によって入力された複数の画像データの中の1つから前記情景に含まれる指標を検出する第1の検出手段と、前記情景に含まれる指標の世界座標の情報と、前記複数の撮像手段の間の位置及び姿勢の関係の情報とを記憶する記憶手段と、前記記憶手段に記憶された前記情景に含まれる指標の世界座標の情報と、前記複数の撮像手段の間の位置及び姿勢の関係の情報と、前記第1の検出手段によって検出された指標の画像上における画像座標の情報とに基づいて、前記複数の撮像手段の位置及び姿勢を算出する位置姿勢算出手段と、前記記憶手段に記憶された指標の世界座標の情報と、前記位置姿勢算出手段によって算出された前記複数の撮像手段の位置及び姿勢の情報とに基づいて、前記第1の検出手段によって検出された指標とは異なる前記情景に含まれる指標を前記複数の画像データから検出する第2の検出手段と、前記画像入力手段によって入力された各画像データに含まれる前記第1の検出手段及び第2の検出手段によって検出された指標を修正した画像をそれぞれ生成する画像生成手段と、前記画像生成手段によって生成された各画像を前記各画像に対応する複数の表示手段に表示する表示制御手段とを備えることを特徴とする。
An information processing apparatus according to the present invention includes an image input unit that inputs image data acquired by an imaging unit that captures a scene, and a first index that detects an index included in the scene from the image data input by the image input unit. Detection means, storage means for storing world coordinate information of the index included in the scene, information on world coordinates of the index stored in the storage means, and the index detected by the first detection means Based on information on image coordinates on the image, position and orientation calculation means for calculating the position and orientation of the imaging means, information on world coordinates of the index stored in the storage means, and calculation by the position and orientation calculation means An index included in the scene different from the index detected by the first detection unit based on the information on the position and orientation of the imaging unit that has been performed is used as the image data. Second detection means for detecting the image data, and image generation means for generating an image in which the index detected by the first detection means and the second detection means included in the image data input by the image input means is corrected. And display control means for displaying on the display means the image generated by the image generating means.
Another feature of the information processing apparatus according to the present invention is that an image input unit that inputs image data acquired by a plurality of imaging units that capture a scene, and a plurality of images that are input by the image input unit. First detection means for detecting an index included in the scene from one of the image data, information on world coordinates of the index included in the scene, and positions and orientations between the plurality of imaging means Storage means for storing relationship information, information on world coordinates of indices included in the scene stored in the storage means, information on relationship between position and orientation between the plurality of imaging means, and the first Position and orientation calculation means for calculating the positions and orientations of the plurality of imaging means based on the information of the image coordinates on the image of the index detected by one detection means; and the index stored in the storage means Based on field coordinate information and position and orientation information of the plurality of imaging means calculated by the position and orientation calculation means, the scene is included in the scene different from the index detected by the first detection means. Second detection means for detecting an index from the plurality of image data, and correction of the indices detected by the first detection means and the second detection means included in each image data input by the image input means The image generation means for generating each of the images, and the display control means for displaying each image generated by the image generation means on a plurality of display means corresponding to the images.

本発明の情報処理方法は、情景を撮影する撮像手段によって取得された画像データを入力する画像入力工程と、前記画像入力工程において入力された画像データから前記情景に含まれる指標を検出する第1の検出工程と、記憶手段に記憶された指標の世界座標の情報と、前記第1の検出工程において検出された指標の画像上における画像座標の情報とに基づいて、前記撮像手段の位置及び姿勢を算出する位置姿勢算出工程と、前記記憶手段に記憶された指標の世界座標の情報と、前記位置姿勢算出工程において算出された前記撮像手段の位置及び姿勢の情報とに基づいて、前記第1の検出工程において検出された指標とは異なる前記情景に含まれる指標を前記画像データから検出する第2の検出工程と、前記画像入力工程において入力された画像データに含まれる前記第1の検出工程及び第2の検出工程において検出された指標を修正した画像を生成する画像生成工程と、前記画像生成工程において生成された画像を表示手段に表示する表示制御工程とを備えることを特徴とする。
また、本発明の情報処理方法の他の特徴とするところは、情景を撮影する複数の撮像手段によって取得されたそれぞれの画像データを入力する画像入力工程と、前記画像入力工程において入力された複数の画像データの中の1つから前記情景に含まれる指標を検出する第1の検出工程と、記憶手段に記憶された前記情景に含まれる指標の世界座標の情報と、前記複数の撮像手段の間の位置及び姿勢の関係の情報と、前記第1の検出工程において検出された指標の画像上における画像座標の情報とに基づいて、前記複数の撮像手段の位置及び姿勢を算出する位置姿勢算出工程と、前記記憶手段に記憶された指標の世界座標の情報と、前記位置姿勢算出工程において算出された前記複数の撮像手段の位置及び姿勢の情報とに基づいて、前記第1の検出工程において検出された指標とは異なる前記情景に含まれる指標を前記複数の画像データから検出する第2の検出工程と、前記画像入力工程において入力された各画像データに含まれる前記第1の検出工程及び第2の検出工程において検出された指標を修正した画像をそれぞれ生成する画像生成工程と、前記画像生成工程において生成された各画像を前記各画像に対応する複数の表示手段に表示する表示制御工程とを備えることを特徴とする。
An information processing method according to the present invention includes an image input step of inputting image data acquired by an imaging unit that captures a scene, and a first indicator that detects an index included in the scene from the image data input in the image input step. The position and orientation of the image pickup means based on the detection step, the world coordinate information of the index stored in the storage means, and the image coordinate information on the image of the index detected in the first detection step Based on the position and orientation calculation step of calculating the position, the world coordinate information of the index stored in the storage means, and the position and orientation information of the imaging means calculated in the position and orientation calculation step. A second detection step of detecting from the image data an index included in the scene different from the index detected in the detection step, and input in the image input step An image generation step for generating an image in which the index detected in the first detection step and the second detection step included in the image data is corrected, and a display for displaying the image generated in the image generation step on a display means And a control step.
Another feature of the information processing method according to the present invention is that an image input step for inputting respective image data acquired by a plurality of imaging means for shooting a scene, and a plurality of images input in the image input step. A first detection step of detecting an index included in the scene from one of the image data, information of world coordinates of the index included in the scene stored in a storage unit, and a plurality of imaging units Position and orientation calculation for calculating the positions and orientations of the plurality of imaging means based on the information on the relationship between the positions and orientations between them and the information on the image coordinates on the image of the index detected in the first detection step Based on the step, the world coordinate information of the index stored in the storage means, and the position and orientation information of the plurality of imaging means calculated in the position and orientation calculation step. A second detection step of detecting from the plurality of image data an indicator included in the scene different from the indicator detected in the output step; and the first detection step included in each image data input in the image input step. An image generation step for generating an image in which the index detected in the detection step and the second detection step is corrected, and each image generated in the image generation step is displayed on a plurality of display means corresponding to the images. And a display control step.

本発明のプログラムは、情景を撮影する撮像手段によって取得された画像データを入力する画像入力工程と、前記画像入力工程において入力された画像データから前記情景に含まれる指標を検出する第1の検出工程と、記憶手段に記憶された指標の世界座標の情報と、前記第1の検出工程において検出された指標の画像上における画像座標の情報とに基づいて、前記撮像手段の位置及び姿勢を算出する位置姿勢算出工程と、前記記憶手段に記憶された指標の世界座標の情報と、前記位置姿勢算出工程において算出された前記撮像手段の位置及び姿勢の情報とに基づいて、前記第1の検出工程において検出された指標とは異なる前記情景に含まれる指標を前記画像データから検出する第2の検出工程と、前記画像入力工程において入力された画像データに含まれる前記第1の検出工程及び第2の検出工程において検出された指標を修正した画像を生成する画像生成工程と、前記画像生成工程において生成された画像を表示手段に表示する表示制御工程とをコンピュータに実行させることを特徴とする。
本発明のプログラムの他の特徴とするところは、情景を撮影する複数の撮像手段によって取得されたそれぞれの画像データを入力する画像入力工程と、前記画像入力工程において入力された複数の画像データの中の1つから前記情景に含まれる指標を検出する第1の検出工程と、記憶手段に記憶された前記情景に含まれる指標の世界座標の情報と、前記複数の撮像手段の間の位置及び姿勢の関係の情報と、前記第1の検出工程において検出された指標の画像上における画像座標の情報とに基づいて、前記複数の撮像手段の位置及び姿勢を算出する位置姿勢算出工程と、前記記憶手段に記憶された指標の世界座標の情報と、前記位置姿勢算出工程において算出された前記複数の撮像手段の位置及び姿勢の情報とに基づいて、前記第1の検出工程において検出された指標とは異なる前記情景に含まれる指標を前記複数の画像データから検出する第2の検出工程と、前記画像入力工程において入力された各画像データに含まれる前記第1の検出工程及び第2の検出工程において検出された指標を修正した画像をそれぞれ生成する画像生成工程と、前記画像生成工程において生成された各画像を前記各画像に対応する複数の表示手段に表示する表示制御工程とをコンピュータに実行させることを特徴とする。
The program according to the present invention includes an image input step for inputting image data acquired by an imaging means for photographing a scene, and a first detection for detecting an index included in the scene from the image data input in the image input step. Calculating the position and orientation of the imaging means based on the step, the information on the world coordinates of the index stored in the storage means, and the information on the image coordinates on the image of the index detected in the first detection step The first detection based on the position and orientation calculation step, the information on the world coordinates of the index stored in the storage means, and the position and orientation information of the imaging means calculated in the position and orientation calculation step A second detection step for detecting an index included in the scene different from the index detected in the step from the image data; and an image input in the image input step. An image generation step for generating an image in which the index detected in the first detection step and the second detection step included in the data is corrected, and display control for displaying the image generated in the image generation step on a display means The process is executed by a computer.
Another feature of the program of the present invention is that an image input step for inputting respective image data acquired by a plurality of image pickup means for shooting a scene, and a plurality of image data input in the image input step. A first detection step of detecting an index included in the scene from one of the information, information on world coordinates of the index included in the scene stored in a storage unit, a position between the plurality of imaging units, and A position and orientation calculation step of calculating the positions and orientations of the plurality of imaging means based on the information on the relationship of the posture and the information of the image coordinates on the image of the index detected in the first detection step; Based on the information on the world coordinates of the index stored in the storage means and the information on the positions and orientations of the plurality of imaging means calculated in the position and orientation calculation step, the first detection step A second detection step of detecting, from the plurality of image data, an index included in the scene that is different from the index detected in the first detection, and the first detection included in each image data input in the image input step An image generation step for generating an image obtained by correcting the index detected in the step and the second detection step, and a display for displaying the images generated in the image generation step on a plurality of display means corresponding to the images. The control process is executed by a computer.

本発明の記憶媒体は、前記の何れかに記載のプログラムを記憶したことを特徴とする。   A storage medium according to the present invention stores any one of the programs described above.

本発明によれば、指標を直接検出できなかった場合や撮像装置の位置及び姿勢がずれている場合でも、表示装置に表示される指標を現実空間に存在する指標として検出されることを精度良く防止することができる。   According to the present invention, it is possible to accurately detect that an index displayed on the display device is detected as an index existing in the real space even when the index cannot be directly detected or the position and orientation of the imaging device are shifted. Can be prevented.

(第1の実施形態)
以下、添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。
本実施形態に係る情報処理装置は、画像から検出された指標領域及び指標候補領域に図形又は小画像を局所的に重畳表示することによって指標の誤検出を防止する。なお、指標候補領域とは、撮像装置の位置及び姿勢を算出するために用いる指標としては扱わないものであるが、指標に特徴が近い領域のものを指す。以下、本実施形態に係る情報処理装置及び情報処理方法について説明する。
(First embodiment)
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
The information processing apparatus according to the present embodiment prevents erroneous detection of an index by locally superimposing and displaying a graphic or a small image on an index area and an index candidate area detected from an image. The index candidate area is not treated as an index used for calculating the position and orientation of the imaging apparatus, but refers to an area having features close to the index. Hereinafter, an information processing apparatus and an information processing method according to the present embodiment will be described.

図1は、本実施形態における情報処理装置1000の構成例を示すブロック図である。
図1に示すように、本実施形態における情報処理装置1000は、画像入力部1020、データ記憶部1030、指標検出部1040、位置姿勢算出部1050、誤検出防止処理部1060、画像生成部1070、及び画像出力部1080を有している。また、情報処理装置1000は、撮像装置1010及び表示装置1090に接続されている。
FIG. 1 is a block diagram illustrating a configuration example of the information processing apparatus 1000 according to the present embodiment.
As shown in FIG. 1, the information processing apparatus 1000 according to the present embodiment includes an image input unit 1020, a data storage unit 1030, an index detection unit 1040, a position / orientation calculation unit 1050, an erroneous detection prevention processing unit 1060, an image generation unit 1070, And an image output unit 1080. The information processing apparatus 1000 is connected to the imaging apparatus 1010 and the display apparatus 1090.

現実空間中の複数の位置には、撮像装置1010によって撮影するための指標として、複数個の指標Qk(k=1,2,,,KQ)が配置されている。なお、複数個の指標Qkは位置情報が既知のものである。位置情報では、現実空間の1点を原点として定義し、更に互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系(世界座標系)によって位置xW Qkが定義されている。 A plurality of indices Q k (k = 1, 2,..., K Q ) are arranged at a plurality of positions in the real space as indices for photographing with the imaging device 1010. Note that the position information of the plurality of indices Q k is known. In the position information, the position x W Qk is defined by a coordinate system (world coordinate system) in which one point in the real space is defined as the origin, and three orthogonal axes are defined as the X axis, the Y axis, and the Z axis, respectively. Yes.

本実施形態においては、指標Qkは、撮像装置1010によって取得される撮像画像上において、少なくとも3個以上の指標が常に観測されるように設定されていることが望ましい。図1に示す例では、4個の指標Q1,Q2,Q3,Q4が設定されており、そのうちの3個の指標Q1,Q3,Q4が撮像装置1010の視野内に含まれている状況を示している。 In the present embodiment, it is desirable that the index Q k is set so that at least three or more indices are always observed on the captured image acquired by the imaging device 1010. In the example shown in FIG. 1, four indexes Q 1 , Q 2 , Q 3 , and Q 4 are set, and three of the indexes Q 1 , Q 3 , and Q 4 are within the field of view of the imaging device 1010. Indicates an included situation.

なお、指標Qkは、例えば、それぞれが異なる色を有する円形状のマーカによって構成されてもよいし、それぞれが異なるテクスチャ特徴を有する自然特徴等の特徴点によって構成されてもよい。また、ある程度の面積を有する四角形の単色領域によって形成されるような、四角形指標を用いてもよい。撮像画像上に投影された像の座標が検出可能であって、かついずれの指標であるかが何らかの方法で識別可能であるような指標であれば、何れの形態であってもよい。さらに、指標は、故意に設定されたものであってもよいし、故意に設定されたものではない、情景に元来存在する特徴であってもよい。 Note that the index Q k may be configured by, for example, circular markers having different colors, or may be configured by feature points such as natural features having different texture characteristics. Further, a square index formed by a rectangular single color area having a certain area may be used. Any form may be used as long as the coordinates of the image projected on the captured image can be detected and the index can be identified by any method. Furthermore, the indicator may be intentionally set, or may be a characteristic originally existing in the scene that is not intentionally set.

以下、本実施形態における情報処理装置1000の各構成について説明する。
撮像装置1010から出力される画像データ(以下、撮像画像データと呼ぶ)が、画像入力部1020に入力されると、画像入力部1020は、撮像画像データをデジタルデータに変換し、データ記憶部1030に保存する。
Hereinafter, each configuration of the information processing apparatus 1000 in the present embodiment will be described.
When image data output from the imaging device 1010 (hereinafter referred to as captured image data) is input to the image input unit 1020, the image input unit 1020 converts the captured image data into digital data, and a data storage unit 1030. Save to.

指標検出部1040は第1の検出手段として機能し、データ記憶部1030より撮像画像データを読み出し、画像の中に含まれている主観視点による指標の画像座標を検出する。例えば、各々の指標が互いに異なる色のマーカによって構成されている場合には、画像上から各々のマーカ色に対応する領域を検出し、その重心位置を指標の画像座標とする。また、各々の指標が互いに異なるテクスチャを有する特徴点によって構成されている場合には、既知の情報として予め保持している各々の指標のテンプレート画像を用いて画像上でテンプレートマッチングを行う。これにより、指標の位置を検出する。   The index detection unit 1040 functions as a first detection unit, reads captured image data from the data storage unit 1030, and detects image coordinates of the index based on the subjective viewpoint included in the image. For example, when each index is composed of markers of different colors, an area corresponding to each marker color is detected from the image, and the position of the center of gravity is used as the image coordinates of the index. When each index is composed of feature points having different textures, template matching is performed on the image using a template image of each index that is held in advance as known information. Thereby, the position of the index is detected.

また、四角形指標を用いる場合は、画像データに2値化処理を施した後にラベリングを行い、4つの直線によって形成されている領域を指標候補領域として検出する。さらに、指標候補領域の中に特定のパターンがあるか否かを判定することによって誤検出を防止して、指標の識別子を取得する。なお、このようにして検出される四角形指標は、本実施形態では、4つの頂点の個々によって形成される4つの指標であるものとする。   In addition, when a quadratic index is used, labeling is performed after binarizing the image data, and an area formed by four straight lines is detected as an index candidate area. Further, by detecting whether or not there is a specific pattern in the index candidate area, false detection is prevented and an index identifier is acquired. In this embodiment, the quadrangular indices detected in this way are four indices formed by four vertices.

指標検出部1040は、さらに、検出された指標の画像座標とその指標の識別子との情報をデータ記憶部1030へ出力する。以下、撮像画像上で検出された指標を、検出された各々の指標に付けられた識別子n(n=1,2,,,N)を用いて、Qknと表記する。ここで、Nは撮像画像上で検出された指標の数を表している。また、検出された指標Qknの画像座標をuQknと表記する。例えば、図1に示す例の場合には、N=3であり、指標の識別子k1=1,k2=3,k3=4と、これらに対応する画像座標uQk1,uQk2,uQk3との情報が指標検出部1040から出力される。 The index detection unit 1040 further outputs information about the image coordinates of the detected index and the identifier of the index to the data storage unit 1030. Hereinafter, an index detected on the captured image is denoted as Q kn using an identifier n (n = 1, 2,..., N) attached to each detected index. Here, N represents the number of indices detected on the captured image. Further, the image coordinate of the detected index Q kn is expressed as u Qkn . For example, in the example shown in FIG. 1, N = 3, index identifiers k 1 = 1, k 2 = 3, k 3 = 4 and corresponding image coordinates u Qk1 , u Qk2 , u Information about Qk3 is output from the index detection unit 1040.

位置姿勢算出部1050は、指標検出部1040によって検出された各々の指標の画像座標uQknと、既知な情報として予め保持されている世界座標xW Qknとの情報をデータ記憶部1030から読み出す。そして、これらの情報に基づいて、撮像装置1010の位置及び姿勢を算出する。算出した位置及び姿勢の情報は、例えば、位置を表す3次元ベクトルxW Cと、姿勢を表す3×3行列RWCとの組合せの情報としてデータ記憶部1030に出力される。 The position / orientation calculation unit 1050 reads, from the data storage unit 1030, information on the image coordinates u Qkn of each index detected by the index detection unit 1040 and world coordinates x W Qkn held in advance as known information. Based on these pieces of information, the position and orientation of the imaging device 1010 are calculated. Calculated position and orientation information, for example, is output and the three-dimensional vector x W C representing the position, the data storage unit 1030 as information of the combination of the 3 × 3 matrix R WC representing the orientation.

なお、指標の世界座標と画像座標との組から撮像装置の位置及び姿勢を算出する方法は、写真測量等の分野において提案されている(例えば、非特許文献4及び非特許文献5参照)。したがって、その詳細な説明は省略する。   Note that a method for calculating the position and orientation of an imaging device from a set of world coordinates and image coordinates of an index has been proposed in the field of photogrammetry and the like (see, for example, Non-Patent Document 4 and Non-Patent Document 5). Therefore, the detailed description is abbreviate | omitted.

誤検出防止処理部1060は、表示装置1090が撮像装置1010によって撮影されるときに、指標検出部1040によって検出された撮影画像の指標の位置に、図形又は小画像を局所的に重畳する。これは、表示装置1090に表示された指標(例えば、図1に示すQ1',Q3',Q4')が指標検出部1040で検出されることを防止するために行うものである。 The erroneous detection prevention processing unit 1060 locally superimposes a graphic or a small image on the index position of the captured image detected by the index detection unit 1040 when the display device 1090 is imaged by the imaging device 1010. This is performed in order to prevent the index (for example, Q 1 ′, Q 3 ′, Q 4 ′ shown in FIG. 1) displayed on the display device 1090 from being detected by the index detection unit 1040.

さらに、誤検出防止処理部1060は第2の検出手段として機能し、指標検出部1040によって検出されなかった指標に関して、指標候補領域が存在するか否か領域探索を行う。そして、指標候補領域が存在する場合は、指標候補領域に図形または小画像を局所的に重畳する。ここで、小画像とは、撮影画像よりも小さなサイズの画像のことを指すものとする。また、重畳する画像は3次元仮想物体などのほかの図形でも構わない。   Further, the erroneous detection prevention processing unit 1060 functions as a second detection unit, and performs an area search for an index candidate area for an index that is not detected by the index detection unit 1040. If the index candidate area exists, a graphic or small image is locally superimposed on the index candidate area. Here, the small image refers to an image having a size smaller than the captured image. The superimposed image may be another figure such as a three-dimensional virtual object.

画像生成部1070は、表示装置1090に表示するための表示画像データを生成する。画像出力部1080は表示制御手段として機能し、画像生成部1070で生成された表示画像データを表示装置1090に出力するためのデータに変換して、表示装置1090へ出力する。   The image generation unit 1070 generates display image data to be displayed on the display device 1090. The image output unit 1080 functions as a display control unit, converts display image data generated by the image generation unit 1070 into data for output to the display device 1090, and outputs the data to the display device 1090.

データ記憶部1030は、画像入力部1020から出力される撮影画像データ、指標検出部1040から出力される各々の指標の画像座標及び識別子の情報を記憶する。また、既知の情報としての指標Qkの世界座標xW Qkの情報、及び撮像装置1010のカメラパラメータ等のデータも記憶する。そして、必要に応じてこれらのデータを出力する。 The data storage unit 1030 stores the captured image data output from the image input unit 1020 and the image coordinates and identifier information of each index output from the index detection unit 1040. In addition, information on the world coordinates x W Qk of the index Q k as known information, and data such as camera parameters of the imaging device 1010 are also stored. And these data are output as needed.

なお、図1に示した画像入力部1020、データ記憶部1030、指標検出部1040、位置姿勢算出部1050、誤検出防止処理部1060、画像生成部1070、及び画像出力部1080の夫々の構成については、独立した装置として扱ってもよい。また、夫々ソフトウェアとして1つもしくは複数のコンピュータにインストールし、夫々のコンピュータのCPUにより実行することにより、その機能を実現するようにしてもよい。本実施形態では、画像入力部1020、データ記憶部1030、指標検出部1040、位置姿勢算出部1050、誤検出防止処理部1060、画像生成部1070、及び画像出力部1080の各部を1台のコンピュータ内で実行対象となるソフトウェアとして扱う。   Note that each configuration of the image input unit 1020, the data storage unit 1030, the index detection unit 1040, the position / orientation calculation unit 1050, the false detection prevention processing unit 1060, the image generation unit 1070, and the image output unit 1080 shown in FIG. May be treated as an independent device. Alternatively, the function may be realized by installing the software on one or a plurality of computers and executing the software by the CPU of each computer. In this embodiment, the image input unit 1020, the data storage unit 1030, the index detection unit 1040, the position / orientation calculation unit 1050, the erroneous detection prevention processing unit 1060, the image generation unit 1070, and the image output unit 1080 are combined into one computer. It is treated as software to be executed in

図2は、図1における画像入力部1020〜画像出力部1080の夫々をソフトウェアとして実行する情報処理装置1000の基本構成例を示す図である。
図2において、2001はCPUであり、RAM2002やROM2003に格納されたプログラムやデータを用いて情報処理装置1000全体の制御を行う。さらに、画像入力部1020、データ記憶部1030、指標検出部1040、位置姿勢算出部1050、誤検出防止処理部1060、画像生成部1070、及び画像出力部1080の夫々のソフトウェアの実行を制御して、各部の機能を実現する。
FIG. 2 is a diagram illustrating a basic configuration example of the information processing apparatus 1000 that executes each of the image input unit 1020 to the image output unit 1080 in FIG. 1 as software.
In FIG. 2, reference numeral 2001 denotes a CPU, which controls the entire information processing apparatus 1000 using programs and data stored in a RAM 2002 and a ROM 2003. Furthermore, the execution of software of each of the image input unit 1020, the data storage unit 1030, the index detection unit 1040, the position / orientation calculation unit 1050, the erroneous detection prevention processing unit 1060, the image generation unit 1070, and the image output unit 1080 is controlled. Realize the function of each part.

2002はRAMであり、外部記憶装置2007や記憶媒体ドライブ2008から読み出されたプログラムやデータを一時的に記憶するエリアを備えるとともに、CPU2001が各種の処理を行うために必要とするワークエリアを備える。本実施形態では、データ記憶部1030の機能は、RAM2002によって実現される。   A RAM 2002 includes an area for temporarily storing programs and data read from the external storage device 2007 and the storage medium drive 2008, and also includes a work area necessary for the CPU 2001 to perform various processes. . In the present embodiment, the function of the data storage unit 1030 is realized by the RAM 2002.

2003はROMであり、情報処理装置1000の記憶プログラムや設定データなどが格納されている。2004はキーボードであり、2005はマウスである。操作者は、キーボード2004及びマウス2005を用いて、各種の指示をCPU2001に入力することができる。   Reference numeral 2003 denotes a ROM that stores a storage program, setting data, and the like of the information processing apparatus 1000. Reference numeral 2004 denotes a keyboard, and 2005 denotes a mouse. An operator can input various instructions to the CPU 2001 using the keyboard 2004 and the mouse 2005.

2006は表示部であり、CRTや液晶画面などにより構成されている。例えば、撮像装置1010の位置姿勢計測のために表示すべきメッセージ等を表示することができる。   Reference numeral 2006 denotes a display unit, which includes a CRT, a liquid crystal screen, and the like. For example, a message to be displayed for measuring the position and orientation of the imaging apparatus 1010 can be displayed.

2007は外部記憶装置であり、ハードディスクなどの大容量情報記憶装置として機能する装置である。外部記憶装置2007は、OS(オペレーティングシステム)やソフトウェアのプログラム等を保存している。また、本実施形態において、その他の必要な情報が外部記憶装置2007に保存されており、必要に応じてRAM2002に読み出される。   An external storage device 2007 is a device that functions as a large-capacity information storage device such as a hard disk. The external storage device 2007 stores an OS (Operating System), software programs, and the like. In the present embodiment, other necessary information is stored in the external storage device 2007 and is read into the RAM 2002 as necessary.

2008は記憶媒体ドライブであり、CD−ROMやDVD−ROMなどの記憶媒体に記憶されているプログラムやデータをCPU2001からの指示に従って読み出して、RAM2002や外部記憶装置2007に出力する。   Reference numeral 2008 denotes a storage medium drive that reads programs and data stored in a storage medium such as a CD-ROM or DVD-ROM in accordance with instructions from the CPU 2001 and outputs them to the RAM 2002 or the external storage device 2007.

2009はI/Fであり、撮像装置1010を接続するためのアナログビデオポート、IEEE1394等のデジタル入出力ポート、識別した指標に関わる情報を外部へ出力するためのイーサネット(登録商標)ポート等によって構成されている。入力したデータはI/F2009を介してRAM2002に取り込まれる。なお、画像入力部1020の機能の一部は、I/F2009によって実現される。2010は図2に示した各構成を繋ぐバスである。   An I / F 2009 includes an analog video port for connecting the imaging apparatus 1010, a digital input / output port such as IEEE1394, and an Ethernet (registered trademark) port for outputting information related to the identified index to the outside. Has been. The input data is taken into the RAM 2002 via the I / F 2009. A part of the function of the image input unit 1020 is realized by the I / F 2009. 2010 is a bus that connects the components shown in FIG.

図3は、本実施形態において、表示装置1090に表示された指標の誤検出を防止するための処理手順の一例を示すフローチャートである。なお、図3に示す各処理は、CPU2001が誤検出防止処理部1060のソフトウェアのプログラムを実行することにより行われる。なお、以下の処理を行う前段として、図3のフローチャートに従ったプログラムコードは、RAM2002に既にロードされているものとする。図3では、誤検出防止処理部1060により、表示装置1090に表示する表示画像における指標部分及び指標候補領域に対して図形または小画像を重畳する処理手順について説明する。   FIG. 3 is a flowchart illustrating an example of a processing procedure for preventing erroneous detection of an index displayed on the display device 1090 in the present embodiment. Each process shown in FIG. 3 is performed by the CPU 2001 executing a software program of the erroneous detection prevention processing unit 1060. Note that it is assumed that the program code according to the flowchart of FIG. In FIG. 3, a processing procedure for superimposing a graphic or a small image on the index portion and the index candidate area in the display image displayed on the display device 1090 by the erroneous detection prevention processing unit 1060 will be described.

まず、ステップS3010において、誤検出防止処理部1060は、位置姿勢算出部1050により算出した撮像装置1010の位置及び姿勢の情報をデータ記憶部1030から読み出す。さらに、既知な情報として予め保持されている指標Qk及びその世界座標xW Qkの情報と、指標検出部1040において検出された指標Qkn及びその画像座標uQknの情報とをデータ記憶部1030から読み出す。 First, in step S3010, the erroneous detection prevention processing unit 1060 reads out information on the position and orientation of the imaging device 1010 calculated by the position and orientation calculation unit 1050 from the data storage unit 1030. Further, the data storage unit 1030 stores the information of the index Q k and its world coordinate x W Qk that are held in advance as known information, and the information of the index Q kn and its image coordinate u Qkn detected by the index detection unit 1040. Read from.

次に、ステップS3020において、誤検出防止処理部1060は、初期設定としてk=1と定める。そして、ステップS3030において、誤検出防止処理部1060は、指標Qknの中に指標Qkが存在するか、つまり指標Qkが検出されているか否かを判定する。この判定の結果、指標Qkが検出されている場合は、ステップS3040へ進み、指標Qkが検出されていない場合は、ステップS3050へ進む。 Next, in step S3020, the erroneous detection prevention processing unit 1060 determines k = 1 as an initial setting. In step S3030, the erroneous detection prevention processing unit 1060 determines whether or not the index Q k exists in the index Q kn , that is, whether or not the index Q k is detected. If the index Q k is detected as a result of the determination, the process proceeds to step S3040. If the index Q k is not detected, the process proceeds to step S3050.

ステップS3040においては、誤検出防止処理部1060は、指標検出部1040により指標検出処理を行った撮像画像上の画像座標uQknの位置に、図形又は小画像を局所的に重畳する。そして、ステップS3090へ進む。 In step S3040, the erroneous detection prevention processing unit 1060 locally superimposes a graphic or a small image on the position of the image coordinate u Qkn on the captured image on which the index detection process has been performed by the index detection unit 1040. Then, the process proceeds to step S3090.

例えば、各々の指標が異なる色を有するマーカによって構成されている場合には、マーカ色として登録されていない色の図形(例えば、円)を画像座標uQknの位置に重畳してマーカを覆い隠す。また、各々の指標が異なるテクスチャを有する特徴点によって構成されている場合には、テクスチャの一部を覆い隠すように、図形又は小画像を重畳する。また、四角形指標を用いるような場合は、四角形指標として認識されなくなるように、図形又は小画像を重畳する。 For example, when each index is composed of markers having different colors, a color figure (for example, a circle) that is not registered as a marker color is superimposed on the position of the image coordinate u Qkn to cover the marker. . When each index is composed of feature points having different textures, a figure or a small image is superimposed so as to cover a part of the texture. In addition, when a quadrangle index is used, a graphic or a small image is superimposed so that it is not recognized as a quadrangle index.

図4は、四角形指標の指標領域400中の特定パターンの一部を覆い隠すように四角形410を重畳表示した場合の一例を示す図である。図4に示す例では、四角形指標の内部に設けられた上下左右の判別を行うための画像特徴を覆い隠している。   FIG. 4 is a diagram illustrating an example of a case where a rectangle 410 is superimposed and displayed so as to cover a part of the specific pattern in the index region 400 of the rectangle index. In the example shown in FIG. 4, the image feature for determining the up, down, left, and right provided inside the quadrangular index is obscured.

一方、ステップS3050においては、誤検出防止処理部1060は、撮像装置1010の位置及び姿勢に基づいて、指標Qkの世界座標xW Qkを透視投影変換して指標の探索領域を定める。なお、探索領域としては、例えば指標の推定位置を中心として予め定めておいた領域の大きさや形状(矩形・円形等)を探索領域としてもよい。また、探索領域の大きさを、指標Qkの世界座標xW Qkを透視投影変換した結果から推定される撮像装置1010から撮影される指標の大きさにある一定量を増加した大きさとして、指標の推定位置情報に基づいて探索領域を定めてもよい。さらに、その他の何れの手法を用いて指標の探索領域を求めてもよい。 On the other hand, in step S3050, the erroneous detection prevention processing unit 1060 performs perspective projection conversion on the world coordinates x W Qk of the index Q k based on the position and orientation of the imaging device 1010 to determine the index search area. As the search area, for example, the size or shape (rectangle, circle, etc.) of a predetermined area centered on the estimated position of the index may be used as the search area. Further, the size of the search area is set to a size obtained by increasing a certain amount in the size of the index photographed from the imaging device 1010 estimated from the result of perspective projection transformation of the world coordinates x W Qk of the index Q k . The search area may be determined based on the estimated position information of the index. Further, the index search region may be obtained using any other method.

次に、ステップS3060において、誤検出防止処理部1060は、ステップS3050の処理において定めた探索領域内において指標候補領域を探索する。指標候補領域の探索については、例えば、四角形指標の場合、探索領域内のエッジを抽出して三方以上がエッジに囲まれている領域を指標候補領域とする等の方法によって探索を行う。   Next, in step S3060, the erroneous detection prevention processing unit 1060 searches for an index candidate region within the search region determined in the processing of step S3050. For example, in the case of a quadrangular index, the index candidate region is searched by a method such as extracting an edge in the search region and setting a region surrounded by edges on three or more sides as the index candidate region.

そして、ステップS3070において、誤検出防止処理部1060は、ステップS3060の処理により指標候補領域が存在したか否かを判定する。この判定の結果、指標候補領域が存在した場合は、ステップS3080へ進み、指標候補領域が存在しなかった場合は、ステップS3090へ進む。   In step S3070, the erroneous detection prevention processing unit 1060 determines whether or not an index candidate region exists by the processing in step S3060. If the index candidate area exists as a result of this determination, the process proceeds to step S3080, and if the index candidate area does not exist, the process proceeds to step S3090.

次に、ステップS3080において、誤検出防止処理部1060は、ステップS3060において探索された指標候補領域に、図形又は小画像を局所的に重畳する。   Next, in step S3080, the erroneous detection prevention processing unit 1060 locally superimposes a graphic or a small image on the index candidate region searched in step S3060.

図5は、四角形指標の指標候補領域の特定パターンを覆い隠すように図形を重畳表示した場合の一例を示す図である。
図5(a)において、四角形指標の指標候補領域500は、現実物510によって指標の一部が隠されているため指標候補領域として扱う。そして、四角形520を重畳することにより四角形指標の内部に設けられた上下左右の判別を行うための画像特徴を覆い隠して修正する。また、図5(b)において、四角形指標の指標候補領域530は、撮影画像に四角形指標の一部しか映っていないため、指標候補領域として扱う。そして、四角形540を重畳することにより四角形指標の内部に設けられた上下左右の判別を行う為の画像特徴を覆い隠して修正する。
FIG. 5 is a diagram illustrating an example in which a graphic is superimposed and displayed so as to obscure the specific pattern of the index candidate area of the rectangular index.
In FIG. 5A, a rectangular index candidate area 500 is treated as an index candidate area because a part of the index is hidden by the real object 510. Then, by superimposing the quadrangle 520, the image feature for discrimination between up, down, left, and right provided inside the quadrangle index is covered and corrected. Further, in FIG. 5B, the index candidate area 530 for the square index is treated as an index candidate area because only a part of the square index is shown in the captured image. Then, by superimposing the quadrangle 540, the image feature for discrimination between up, down, left and right provided inside the quadrangle index is covered and corrected.

次に、ステップS3090において、誤検出防止処理部1060は、kの数値を1増加する。そして、ステップS3100において、誤検出防止処理部1060は、kがKQ以下であるか否か判定する。この判定の結果、kがKQ以下である場合は、ステップS3030に戻り、kがKQよりも大きい場合は、ステップS3110に進む。 Next, in step S3090, the false detection prevention processing unit 1060 increments the numerical value of k by one. Then, in step S3100, the erroneous-detection prevention processing section 1060, k determines whether less than K Q. As a result of the determination, if k is equal to or less than K Q , the process returns to step S3030. If k is greater than K Q , the process proceeds to step S3110.

そして、ステップS3110において、誤検出防止処理部1060は、撮像画像に図形又は小画像を重畳した画像のデータをデータ記憶部1030に出力する。図形又は小画像が局所的に重畳された画像は、データとして画像生成部1070及び画像出力部1080を介して、表示装置1090において表示される。   In step S <b> 3110, the erroneous detection prevention processing unit 1060 outputs image data in which a figure or a small image is superimposed on the captured image to the data storage unit 1030. An image in which a figure or a small image is locally superimposed is displayed as data on the display device 1090 via the image generation unit 1070 and the image output unit 1080.

以上の処理により、指標領域及び指標候補領域に対して図形又は小画像を局所的に重畳した画像が表示装置1090に表示されるため、表示画像が撮像装置1010により撮影されたとしても、表示画像上に表示された指標が指標として検出されない。なお、本実施形態において、撮像装置1010に位置姿勢センサを装着することにより撮像装置1010の位置及び姿勢を計測してもよい。この場合には、画像情報を用いる場合と比較して、撮像装置1010の位置及び姿勢を安定的に推定することができる。   With the above processing, an image in which a graphic or a small image is locally superimposed on the index region and the index candidate region is displayed on the display device 1090. Therefore, even if the display image is captured by the imaging device 1010, the display image The indicator displayed above is not detected as an indicator. In the present embodiment, the position and orientation of the imaging apparatus 1010 may be measured by attaching a position and orientation sensor to the imaging apparatus 1010. In this case, the position and orientation of the imaging device 1010 can be stably estimated as compared to the case where image information is used.

また、本実施形態において、撮像装置1010に慣性センサを装着して、例えば非特許文献6に開示されている手法によって、撮像装置1010の位置及び姿勢を算出してもよい。この場合、撮像装置1010によって取得される撮像画像上において、少なくとも2個以上の指標が常に観測されるように設定されていればよい。そして、この場合においても、画像情報のみを用いる場合と比較して、撮像装置1010の位置及び姿勢を安定的に推定することができる。   In the present embodiment, an inertial sensor may be attached to the imaging apparatus 1010, and the position and orientation of the imaging apparatus 1010 may be calculated by a method disclosed in Non-Patent Document 6, for example. In this case, it is only necessary that at least two or more indices are always observed on the captured image acquired by the imaging device 1010. Also in this case, the position and orientation of the imaging device 1010 can be stably estimated as compared with the case where only image information is used.

以上のように本実施形態によれば、指標の世界座標と、検出された指標の画像上における画像座標とに基づいて、撮像装置の位置及び姿勢を算出する。また、このように算出した撮像装置の位置及び姿勢に基づいて、検出できなかった指標を指標候補領域として検出し、図形又は小画像を重畳表示するようにした。これにより、指標を直接検出できなかった場合や撮像装置の位置及び姿勢がずれている場合でも、表示装置に表示される指標を現実空間に存在する指標として検出されることを精度良く防止することができる。   As described above, according to the present embodiment, the position and orientation of the imaging apparatus are calculated based on the world coordinates of the index and the image coordinates of the detected index on the image. Further, based on the calculated position and orientation of the imaging apparatus, an index that could not be detected is detected as an index candidate area, and a graphic or small image is superimposed and displayed. As a result, even when the index cannot be directly detected or when the position and orientation of the imaging device are deviated, it is possible to accurately prevent the index displayed on the display device from being detected as an index existing in the real space. Can do.

(第2の実施形態)
第1の実施形態では、撮像装置及び表示装置が1台であったが、撮像装置同士の相対位置及び姿勢の関係が既知である場合には、撮像装置が複数台であっても、表示装置が複数台の構成であってもよい。以下、本実施形態に係る情報処理装置及び情報処理方法について説明する。
(Second Embodiment)
In the first embodiment, there is one imaging device and one display device. However, when the relationship between the relative positions and orientations of the imaging devices is known, the display device can be used even if there are a plurality of imaging devices. May have a plurality of units. Hereinafter, an information processing apparatus and an information processing method according to the present embodiment will be described.

図6は、本実施形態に係る情報処理装置6000の構成例を示すブロック図である。なお、図1と同じ構成については同じ番号、記号を付しているため、その説明は省略する。
図6に示すように、本実施形態における情報処理装置6000は、画像入力部6020、データ記憶部1030、指標検出部1040、位置姿勢算出部6030、誤検出防止処理部6040、画像生成部6050、及び画像出力部6060を有している。また、情報処理装置6000は、第1の撮像装置6010、第2の撮像装置6011、第1の表示装置6070、第2の表示装置6071に接続されている。なお、第1の撮像装置6010は図1の撮像装置1010と同一であり、第1の表示装置6070は図1の表示装置1090と同一であるため、説明は省略する。
FIG. 6 is a block diagram illustrating a configuration example of the information processing apparatus 6000 according to the present embodiment. The same components as those in FIG. 1 are given the same numbers and symbols, and the description thereof is omitted.
As shown in FIG. 6, the information processing apparatus 6000 in the present embodiment includes an image input unit 6020, a data storage unit 1030, an index detection unit 1040, a position / orientation calculation unit 6030, an erroneous detection prevention processing unit 6040, an image generation unit 6050, And an image output unit 6060. In addition, the information processing device 6000 is connected to the first imaging device 6010, the second imaging device 6011, the first display device 6070, and the second display device 6071. Note that the first imaging device 6010 is the same as the imaging device 1010 in FIG. 1, and the first display device 6070 is the same as the display device 1090 in FIG.

現実空間中の複数の位置には、第1の撮像装置6010によって撮影するための指標として、複数個の指標Qk(k=1,2,,,KQ)が配置されている。なお、複数個の指標Qkは位置情報が既知のものであり、世界座標系によって位置xW Qkが定義されている。 A plurality of indices Q k (k = 1, 2,..., K Q ) are arranged at a plurality of positions in the real space as indices for photographing with the first imaging device 6010. Note that the position information of the plurality of indices Q k is known, and the position x W Qk is defined by the world coordinate system.

本実施形態においては、指標Qkは、第1の撮像装置6010によって取得される撮像画像上において、少なくとも3個以上の指標が常に観測されるように設定されていることが望ましい。図6に示す例では、4個の指標Q1,Q2,Q3,Q4が設定されており、そのうちの3個の指標Q1,Q3,Q4が撮像装置1010の視野内に含まれている状況を示している。 In the present embodiment, it is desirable that the index Q k is set so that at least three or more indices are always observed on the captured image acquired by the first imaging device 6010. In the example shown in FIG. 6, four indexes Q 1 , Q 2 , Q 3 , and Q 4 are set, and three of the indexes Q 1 , Q 3 , and Q 4 are within the field of view of the imaging device 1010. Indicates an included situation.

以下、本実施形態における情報処理装置6000の各構成について説明する。
第1の撮像装置6010及び第2の撮像装置6011から出力される撮影画像データが、画像入力部6020に入力されると、画像入力部6020は、撮像画像データをデジタルデータに変換し、データ記憶部1030に保存する。
Hereinafter, each configuration of the information processing apparatus 6000 in the present embodiment will be described.
When captured image data output from the first imaging device 6010 and the second imaging device 6011 is input to the image input unit 6020, the image input unit 6020 converts the captured image data into digital data, and stores the data. Stored in the unit 1030.

位置姿勢算出部6030は、指標検出部1040によって検出された各々の指標の画像座標uQknと、既知な情報として予め保持されている世界座標xW Qknとの情報をデータ記憶部1030から読み出す。そして、これらの情報に基づいて、第1の撮像装置6010の位置及び姿勢を算出する。 The position / orientation calculation unit 6030 reads from the data storage unit 1030 information on the image coordinates u Qkn of each index detected by the index detection unit 1040 and the world coordinates x W Qkn previously stored as known information. Based on these pieces of information, the position and orientation of the first imaging device 6010 are calculated.

さらに、第1の撮像装置6010と第2の撮像装置6011との相対的な位置及び姿勢の情報をデータ記憶部1030から読み出し、これらの情報に基づいて、第2の撮像装置6011の相対的な位置及び姿勢を算出する。算出した位置及び姿勢の情報は、例えば、位置を表す3次元ベクトルxW Cと姿勢を表す3×3行列RWCとの組合せの情報としてデータ記憶部1030に出力される。 Further, information on the relative positions and orientations of the first imaging device 6010 and the second imaging device 6011 is read from the data storage unit 1030, and based on these information, the relative information of the second imaging device 6011 is read. Calculate the position and orientation. Calculated information of the position and orientation, for example, is output to the data storage unit 1030 as information of the combination of the 3 × 3 matrix R WC representing a three-dimensional vector x W C and attitude representing the position.

誤検出防止処理部6040は、第1の表示装置6070及び第2の表示装置6071が第1の撮像装置6010及び第2の撮像装置6011によって撮影されるときに、指標検出部1040によって検出された指標の位置に図形又は小画像を局所的に重畳する。これは、第1の表示装置6070に表示された指標(例えば、図6のQ1',Q3',Q4')及び第2の表示装置6071に表示される指標(例えば、図6のQ1",Q3",Q4")が指標検出部1040で検出されることを防止するために行うものである。 The erroneous detection prevention processing unit 6040 is detected by the index detection unit 1040 when the first display device 6070 and the second display device 6071 are photographed by the first imaging device 6010 and the second imaging device 6011. A graphic or small image is locally superimposed on the position of the index. This is because the index displayed on the first display device 6070 (for example, Q 1 ′, Q 3 ′, Q 4 ′ in FIG. 6) and the index displayed on the second display device 6071 (for example, FIG. 6). Q 1 ″, Q 3 ″, Q 4 ″) is performed in order to prevent detection by the index detection unit 1040.

さらに、誤検出防止処理部6040は、さらに、第1の撮像装置6010から出力された撮影画像に対しては、指標検出部1040によって検出されなかった指標に関して、指標候補領域が存在するか否か領域探索を行う。また、第2の撮像装置6011から出力された撮影画像に対しては、全ての指標に関して、指標候補領域が存在するか否か領域探索を行う。そして、指標候補領域が存在する場合は、指標候補領域に図形または小画像を局所的に重畳する。ここで、小画像とは、撮影画像よりも小さなサイズの画像のことを指すものとする。また、重畳する画像は3次元仮想物体などのほかの図形でも構わない。   Further, the erroneous detection prevention processing unit 6040 further determines whether or not there is an index candidate region for the index that is not detected by the index detection unit 1040 for the captured image output from the first imaging device 6010. Perform area search. In addition, for the captured image output from the second imaging device 6011, an area search is performed to determine whether or not an index candidate area exists for all indices. If the index candidate area exists, a graphic or small image is locally superimposed on the index candidate area. Here, the small image refers to an image having a size smaller than the captured image. The superimposed image may be another figure such as a three-dimensional virtual object.

画像生成部6050は、第1の表示装置6070及び第2の表示装置6071に表示するための表示画像データを生成する。画像出力部6060は、画像生成部6050で生成された表示画像データを第1の表示装置6070または第2の表示装置6071に出力するためのデータに変換し、第1の表示装置6070または第2の表示装置6071へ出力する。   The image generation unit 6050 generates display image data to be displayed on the first display device 6070 and the second display device 6071. The image output unit 6060 converts the display image data generated by the image generation unit 6050 into data to be output to the first display device 6070 or the second display device 6071, and the first display device 6070 or the second display device 6070. To the display device 6071.

なお、図6に示した画像入力部6020、データ記憶部1030、指標検出部1040、位置姿勢算出部6030、誤検出防止処理部6040、画像生成部6050、及び画像出力部6060の夫々の構成については、独立した装置として扱ってもよい。また、夫々ソフトウェアとして1つもしくは複数のコンピュータにインストールし、夫々のコンピュータのCPUにより実行することにより、その機能を実現するようにしてもよい。本実施形態では、画像入力部6020、データ記憶部1030、指標検出部1040、位置姿勢算出部6030、誤検出防止処理部6040、画像生成部6050、及び画像出力部6060の各部を1台のコンピュータ内で実行対象となるソフトウェアとして扱う。また、このコンピュータのハード構成は図2に示した構成と同様であるため、説明は省略する。   Note that each configuration of the image input unit 6020, the data storage unit 1030, the index detection unit 1040, the position / orientation calculation unit 6030, the erroneous detection prevention processing unit 6040, the image generation unit 6050, and the image output unit 6060 illustrated in FIG. May be treated as an independent device. Alternatively, the function may be realized by installing the software on one or a plurality of computers and executing the software by the CPU of each computer. In the present embodiment, the image input unit 6020, the data storage unit 1030, the index detection unit 1040, the position / orientation calculation unit 6030, the false detection prevention processing unit 6040, the image generation unit 6050, and the image output unit 6060 are included in one computer. It is treated as software to be executed in Further, the hardware configuration of this computer is the same as the configuration shown in FIG.

図7は、本実施形態において、第1の表示装置6070及び第2の表示装置6071に表示された指標の誤検出を防止するための処理手順の一例を示すフローチャートである。なお、図7に示す各処理は、CPU2001が誤検出防止処理部6040のソフトウェアのプログラムを実行することで行われる。なお、以下の処理を行う前段で、図7のフローチャートに従ったプログラムコードは、RAM2002に既にロードされているものとする。   FIG. 7 is a flowchart illustrating an example of a processing procedure for preventing erroneous detection of an index displayed on the first display device 6070 and the second display device 6071 in the present embodiment. Each process illustrated in FIG. 7 is performed by the CPU 2001 executing a software program of the erroneous detection prevention processing unit 6040. Note that it is assumed that the program code according to the flowchart of FIG.

まず、ステップS7010において、誤検出防止処理部6040は、位置姿勢算出部6030により算出した第1の撮像装置6010の位置及び姿勢と第2の撮像装置6011の位置及び姿勢との情報をデータ記憶部1030から読み出す。さらに、既知な情報として予め保持されている指標Qk及びその世界座標xW Qkの情報と、指標検出部1040において検出された指標Qkn及びその画像座標uQknの情報とをデータ記憶部1030から読み出す。 First, in step S7010, the erroneous detection prevention processing unit 6040 stores information on the position and orientation of the first imaging device 6010 calculated by the position and orientation calculation unit 6030 and the position and orientation of the second imaging device 6011 as a data storage unit. Read from 1030. Further, the data storage unit 1030 stores the information of the index Q k and its world coordinate x W Qk that are held in advance as known information, and the information of the index Q kn and its image coordinate u Qkn detected by the index detection unit 1040. Read from.

次に、ステップS7020において、誤検出防止処理部6040は、初期設定としてk=1と定める。そして、ステップS7030において、誤検出防止処理部6040は、指標Qknの中に指標Qkが存在するか、つまり指標Qkが検出されているか否かを判定する。この判定の結果、指標Qkが検出されている場合は、ステップS7040へ進み、指標Qkが検出されていない場合は、ステップS7050へ進む。 Next, in step S7020, the erroneous detection prevention processing unit 6040 determines k = 1 as an initial setting. Then, in step S7030, the detection prevention processing section 6040 erroneously, if there is an index Q k in the index Q kn, i.e. whether the index Q k are detected. If the index Q k is detected as a result of the determination, the process proceeds to step S7040, and if the index Q k is not detected, the process proceeds to step S7050.

ステップS7040においては、誤検出防止処理部6040は、指標検出部1040により指標検出処理を行った第1の撮像装置6010の撮像画像上の画像座標uQknの位置に、図形又は小画像を局所的に重畳する。そして、ステップS7090へ進む。 In step S7040, the erroneous detection prevention processing unit 6040 locally applies a graphic or small image to the position of the image coordinate u Qkn on the captured image of the first imaging device 6010 that has undergone the index detection processing by the index detection unit 1040. Superimpose on. Then, the process proceeds to step S7090.

一方、ステップS7050においては、誤検出防止処理部6040は、第1の撮像装置6010の位置及び姿勢に基づいて、指標Qkの世界座標xW Qkを透視投影変換して第1の撮像装置6010の撮影画像における指標の探索領域を定める。そして、ステップS7060において、誤検出防止処理部6040は、ステップS7050の処理において定めた探索領域内において指標候補領域を探索する。 On the other hand, in step S7050, the erroneous detection prevention processing unit 6040 performs perspective projection conversion of the world coordinates x W Qk of the index Q k based on the position and orientation of the first imaging device 6010, and the first imaging device 6010. The search area of the index in the captured image is determined. In step S7060, the erroneous detection prevention processing unit 6040 searches for the index candidate area within the search area determined in the process of step S7050.

次に、ステップS7070において、誤検出防止処理部6040は、ステップS7060の処理により指標候補領域が存在したか否かを判定する。この判定の結果、指標候補領域が存在した場合は、ステップS7080へ進み、指標候補領域が存在しなかった場合は、ステップS7090へ進む。   Next, in step S7070, the erroneous detection prevention processing unit 6040 determines whether or not an index candidate region exists by the processing in step S7060. If the index candidate area exists as a result of this determination, the process proceeds to step S7080, and if the index candidate area does not exist, the process proceeds to step S7090.

次に、ステップS7080において、誤検出防止処理部6040は、ステップS7060において探索された指標候補領域に、図形又は小画像を局所的に重畳する。そして、ステップS7090において、誤検出防止処理部6040は、kの数値を1増加する。   Next, in step S7080, the erroneous detection prevention processing unit 6040 locally superimposes a graphic or a small image on the index candidate region searched in step S7060. In step S7090, the erroneous detection prevention processing unit 6040 increments the numerical value of k by 1.

そして、ステップS7100において、誤検出防止処理部6040は、kがKQ以下であるか否かを判定する。この判定の結果、kがKQ以下である場合は、ステップS7030に戻り、kがKQよりも大きい場合は、ステップS7110へ進む。そして、ステップS7110において、誤検出防止処理部6040は、初期設定として再度k=1と定める。 Then, in step S7100, the erroneous-detection prevention processing section 6040, k is equal to or less than K Q. As a result of the determination, if k is equal to or less than K Q , the process returns to step S7030, and if k is greater than K Q , the process proceeds to step S7110. In step S7110, the erroneous detection prevention processing unit 6040 sets k = 1 again as an initial setting.

次に、ステップS7120において、誤検出防止処理部6040は、第2の撮像装置6011の位置及び姿勢に基づいて、指標Qkの世界座標xW Qkを透視投影変換して第2の撮像装置6011の撮影画像における指標の探索領域を定める。そして、ステップS7130において、誤検出防止処理部6040は、ステップS7120の処理において定めた探索領域内において指標候補領域を探索する。 Next, in step S7120, the erroneous detection prevention processing unit 6040 performs perspective projection conversion of the world coordinates x W Qk of the index Q k based on the position and orientation of the second imaging device 6011, and the second imaging device 6011. The search area of the index in the captured image is determined. In step S7130, the erroneous detection prevention processing unit 6040 searches for an index candidate area within the search area determined in the process of step S7120.

次に、ステップS7140において、誤検出防止処理部6040は、ステップS7130の処理により指標候補領域が存在したか否かを判定する。この判定の結果、指標候補領域が存在した場合は、ステップS7150へ進み、指標候補領域が存在しなかった場合は、ステップS7160へ進む。   Next, in step S7140, the misdetection prevention processing unit 6040 determines whether or not an index candidate region exists by the process of step S7130. If the index candidate area exists as a result of this determination, the process proceeds to step S7150, and if the index candidate area does not exist, the process proceeds to step S7160.

次に、ステップS7150において、誤検出防止処理部6040は、ステップS7130の処理において探索された指標候補領域に、図形又は小画像を局所的に重畳する。そして、ステップS7160において、誤検出防止処理部6040は、kの数値を1増加する。   Next, in step S7150, the erroneous detection prevention processing unit 6040 locally superimposes a graphic or a small image on the index candidate region searched in the process of step S7130. In step S7160, the erroneous detection prevention processing unit 6040 increments the numerical value of k by one.

次に、ステップS7170において、誤検出防止処理部6040は、kがKQ以下であるか否かを判定する。この判定の結果、kがKQ以下である場合は、ステップS7120に戻り、kがKQよりも大きい場合は、ステップS7180へ進む。 Next, in step S7170, the erroneous-detection prevention processing section 6040, k is equal to or less than K Q. As a result of this determination, if k is equal to or less than K Q , the process returns to step S7120, and if k is greater than K Q , the process proceeds to step S7180.

そして、ステップS7180において、誤検出防止処理部6040は、第1の撮像装置6010から出力された撮像画像及び第2の撮像装置6011から出力された撮像画像に図形又は小画像を重畳した画像のデータをデータ記憶部1030に出力する。図形又は小画像が局所的に重畳された画像は、画像生成部1070及び画像出力部1080を介して、それぞれ第1の表示装置6070及び第2の表示装置6071において表示される。このとき、第1の撮像装置6010において撮影された撮像画像に対応する画像データは、第1の表示装置6070に表示され、第2の撮像装置6011において撮影された撮像画像に対応する画像データは、第2の表示装置6071に表示される。   In step S7180, the erroneous detection prevention processing unit 6040 superimposes a captured image output from the first imaging device 6010 and a captured image output from the second imaging device 6011 with image data or a superposed image data. Is output to the data storage unit 1030. An image in which a graphic or a small image is locally superimposed is displayed on a first display device 6070 and a second display device 6071 via an image generation unit 1070 and an image output unit 1080, respectively. At this time, the image data corresponding to the captured image captured by the first imaging device 6010 is displayed on the first display device 6070, and the image data corresponding to the captured image captured by the second imaging device 6011 is Are displayed on the second display device 6071.

以上の処理により、指標領域及び指標候補領域に対して図形又は小画像を局所的に重畳した画像が表示されるため、表示画像が第1の撮像装置6010により撮影されたとしても、表示画像上の指標及び指標候補領域が現実空間上の指標として検出されない。   With the above processing, an image in which a graphic or a small image is locally superimposed on the index region and the index candidate region is displayed. Therefore, even if the display image is captured by the first imaging device 6010, the display image Are not detected as indices in the real space.

以上のように本実施形態によれば、撮像装置や表示装置が複数台接続されている場合であっても、第1の実施形態と同様に、表示装置に表示される指標を現実空間に存在する指標として検出されることを精度良く防止することができる。つまり、指標を検出できなかった場合や撮像装置の位置及び姿勢がずれている場合でも、表示装置に表示される指標を現実空間に存在する指標として検出されることを精度良く防止することができる。   As described above, according to the present embodiment, even when a plurality of imaging devices and display devices are connected, the indicators displayed on the display device exist in the real space, as in the first embodiment. It is possible to prevent the detection as an index to be performed with high accuracy. That is, even when the index cannot be detected or when the position and orientation of the imaging device are deviated, it is possible to accurately prevent the index displayed on the display device from being detected as an index existing in the real space. .

(本発明に係る他の実施形態)
前述した第1及び第2の実施形態は、ビデオシースルー方式ヘッドマウントディスプレイを用いた複合現実感を提示するシステムにも適用することもできる。この場合、例えば、ヘッドマウントディスプレイの撮影部が、例えば、図1に示す撮像装置1010に相当する。そして、指標を用いてヘッドマウントディスプレイの位置及び姿勢を求め、求められた位置及び姿勢に応じた仮想画像を生成し、仮想画像を撮影部で撮影された撮影画像に合成する。これにより、ユーザに複合現実感を提示することができる。
(Other embodiments according to the present invention)
The first and second embodiments described above can also be applied to a system that presents a mixed reality using a video see-through head mounted display. In this case, for example, the imaging unit of the head mounted display corresponds to, for example, the imaging device 1010 illustrated in FIG. Then, the position and orientation of the head mounted display are obtained using the index, a virtual image corresponding to the obtained position and orientation is generated, and the virtual image is combined with the captured image captured by the imaging unit. Thereby, mixed reality can be presented to the user.

さらに、ヘッドマウントディスプレイに表示されている画像に相当する画像を、例えば図1に示すような表示装置1090に表示することにより、複合現実感を体験しているユーザ以外の観客に対しても、ユーザが体験している状況を提示することができる。さらには、このようなシステムにおいて、表示画像に表示されている指標を現実空間に存在する指標として誤検出することにより複合現実感の精度が低下することを防ぐことができる。   Furthermore, by displaying an image corresponding to the image displayed on the head mounted display on, for example, a display device 1090 as shown in FIG. 1, for audiences other than the user who is experiencing mixed reality, The situation that the user is experiencing can be presented. Furthermore, in such a system, it is possible to prevent the accuracy of mixed reality from being lowered by erroneously detecting the index displayed in the display image as an index existing in the real space.

前述した本発明の実施形態における情報処理装置を構成する各手段、並びに情報処理方法の各工程は、コンピュータのRAMやROMなどに記憶されたプログラムが動作することによって実現できる。このプログラム及び前記プログラムを記憶したコンピュータ読み取り可能な記憶媒体は本発明に含まれる。   Each unit constituting the information processing apparatus and each step of the information processing method in the embodiment of the present invention described above can be realized by operating a program stored in a RAM or a ROM of a computer. This program and a computer-readable storage medium storing the program are included in the present invention.

また、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。   In addition, the present invention can be implemented as, for example, a system, apparatus, method, program, storage medium, or the like. Specifically, the present invention may be applied to a system including a plurality of devices. The present invention may be applied to an apparatus composed of a single device.

なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図3、図7に示すフローチャートに対応したプログラム)を、システムまたは装置に直接、または遠隔から供給する場合も含む。そして、そのシステムまたは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。   In the present invention, a software program for realizing the functions of the above-described embodiments (in the embodiment, a program corresponding to the flowcharts shown in FIGS. 3 and 7) may be supplied directly or remotely to a system or apparatus. Including. This includes the case where the system or the computer of the apparatus is also achieved by reading and executing the supplied program code.

したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, and the like.

プログラムを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどがある。さらに、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM、DVD−R)などもある。   Examples of the storage medium for supplying the program include a flexible disk, a hard disk, an optical disk, and a magneto-optical disk. Further, there are MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R) and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する方法がある。そして、前記ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記憶媒体にダウンロードすることによっても供給できる。   As another program supply method, there is a method of connecting to a homepage on the Internet using a browser of a client computer. It can also be supplied by downloading the computer program itself of the present invention or a compressed file including an automatic installation function from a homepage to a storage medium such as a hard disk.

また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

また、その他の方法として、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   As another method, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and encrypted from a homepage via the Internet to users who have cleared predetermined conditions. Download the key information to be solved. It is also possible to execute the encrypted program by using the key information and install the program on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。さらに、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Further, the functions of the above-described embodiments are realized by the computer executing the read program. Furthermore, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can be realized by the processing.

さらに、その他の方法として、まず記憶媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。そして、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現される。   As another method, a program read from a storage medium is first written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Then, based on the instructions of the program, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are also realized by the processing.

本発明の第1の実施形態における情報処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the information processing apparatus in the 1st Embodiment of this invention. 本発明の第1の実施形態における情報処理装置のハード構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of the information processing apparatus in the 1st Embodiment of this invention. 本発明の第1の実施形態において、表示装置に表示された指標の誤検出を防止するための処理手順の一例を示すフローチャートである。5 is a flowchart illustrating an example of a processing procedure for preventing erroneous detection of an index displayed on a display device in the first embodiment of the present invention. 本発明の第1の実施形態において、四角形指標の指標領域中の特定パターンの一部を覆い隠すように四角形を重畳表示した場合の一例を示す図である。FIG. 10 is a diagram illustrating an example of a case where a quadrangle is superimposed and displayed so as to cover a part of a specific pattern in the index region of the quadrangle index in the first embodiment of the present invention. 本発明の第1の実施形態において、四角形指標の指標候補領域の特定パターンを覆い隠すように図形を重畳表示した場合の一例を示す図である。In the 1st Embodiment of this invention, it is a figure which shows an example at the time of displaying a figure superimposed so that the specific pattern of the parameter | index candidate area | region of a square parameter | index may be covered. 本発明の第2の実施形態における情報処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the information processing apparatus in the 2nd Embodiment of this invention. 本発明の第2の実施形態において、第1の表示装置及び第2の表示装置に表示された指標の誤検出を防止するための処理手順の一例を示すフローチャートである。10 is a flowchart illustrating an example of a processing procedure for preventing erroneous detection of an index displayed on the first display device and the second display device in the second embodiment of the present invention. 記号情報などが埋め込まれた指標である具体的な正方形マーカの例を示す図である。It is a figure which shows the example of the concrete square marker which is the parameter | index with which symbol information etc. were embedded.

符号の説明Explanation of symbols

1000 情報処理装置
1010 撮像装置
1020 画像入力部
1030 データ記憶部
1040 指標検出部
1050 位置姿勢算出部
1060 誤検出防止処理部
1070 画像生成部
1080 画像出力部
1090 表示装置
2001 CPU
2002 RAM
2003 ROM
2004 キーボード
2005 マウス
2006 表示部
2007 外部記憶装置
2008 記憶媒体ドライブ
2009 I/F
2010 バス
1000 Information processing apparatus 1010 Imaging apparatus 1020 Image input unit 1030 Data storage unit 1040 Index detection unit 1050 Position and orientation calculation unit 1060 False detection prevention processing unit 1070 Image generation unit 1080 Image output unit 1090 Display device 2001 CPU
2002 RAM
2003 ROM
2004 keyboard 2005 mouse 2006 display unit 2007 external storage device 2008 storage medium drive 2009 I / F
2010 Bus

Claims (11)

情景を撮影する撮像手段によって取得された画像データを入力する画像入力手段と、
前記画像入力手段によって入力された画像データから前記情景に含まれる指標を検出する第1の検出手段と、
前記情景に含まれる指標の世界座標の情報を記憶する記憶手段と、
前記記憶手段に記憶された指標の世界座標の情報と、前記第1の検出手段によって検出された指標の画像上における画像座標の情報とに基づいて、前記撮像手段の位置及び姿勢を算出する位置姿勢算出手段と、
前記記憶手段に記憶された指標の世界座標の情報と、前記位置姿勢算出手段によって算出された前記撮像手段の位置及び姿勢の情報とに基づいて、前記第1の検出手段によって検出された指標とは異なる前記情景に含まれる指標を前記画像データから検出する第2の検出手段と、
前記画像入力手段によって入力された画像データに含まれる前記第1の検出手段及び第2の検出手段によって検出された指標を修正した画像を生成する画像生成手段と、
前記画像生成手段により生成された画像を表示手段に表示する表示制御手段とを備えることを特徴とする情報処理装置。
Image input means for inputting image data acquired by an imaging means for photographing a scene;
First detection means for detecting an index included in the scene from image data input by the image input means;
Storage means for storing information of world coordinates of an index included in the scene;
A position for calculating the position and orientation of the imaging means based on the information on the world coordinates of the index stored in the storage means and the information on the image coordinates on the image of the index detected by the first detection means Attitude calculation means;
The index detected by the first detection means based on the information on the world coordinates of the index stored in the storage means and the information on the position and orientation of the imaging means calculated by the position and orientation calculation means; A second detecting means for detecting an index included in the different scenes from the image data;
Image generation means for generating an image in which the index detected by the first detection means and the second detection means included in the image data input by the image input means is corrected;
An information processing apparatus comprising: a display control unit configured to display an image generated by the image generation unit on a display unit.
情景を撮影する複数の撮像手段によって取得されたそれぞれの画像データを入力する画像入力手段と、
前記画像入力手段によって入力された複数の画像データの中の1つから前記情景に含まれる指標を検出する第1の検出手段と、
前記情景に含まれる指標の世界座標の情報と、前記複数の撮像手段の間の位置及び姿勢の関係の情報とを記憶する記憶手段と、
前記記憶手段に記憶された前記情景に含まれる指標の世界座標の情報と、前記複数の撮像手段の間の位置及び姿勢の関係の情報と、前記第1の検出手段によって検出された指標の画像上における画像座標の情報とに基づいて、前記複数の撮像手段の位置及び姿勢を算出する位置姿勢算出手段と、
前記記憶手段に記憶された指標の世界座標の情報と、前記位置姿勢算出手段によって算出された前記複数の撮像手段の位置及び姿勢の情報とに基づいて、前記第1の検出手段によって検出された指標とは異なる前記情景に含まれる指標を前記複数の画像データから検出する第2の検出手段と、
前記画像入力手段によって入力された各画像データに含まれる前記第1の検出手段及び第2の検出手段によって検出された指標を修正した画像をそれぞれ生成する画像生成手段と、
前記画像生成手段によって生成された各画像を前記各画像に対応する複数の表示手段に表示する表示制御手段とを備えることを特徴とする情報処理装置。
Image input means for inputting respective image data acquired by a plurality of imaging means for capturing a scene;
First detection means for detecting an index included in the scene from one of a plurality of image data input by the image input means;
Storage means for storing world coordinate information of an index included in the scene, and positional and orientation information between the plurality of imaging means;
Information on the world coordinates of the index included in the scene stored in the storage unit, information on the relationship between the position and orientation between the plurality of imaging units, and an image of the index detected by the first detection unit Position and orientation calculation means for calculating the positions and orientations of the plurality of imaging means based on the information on the image coordinates above;
Based on the world coordinate information of the index stored in the storage means and the position and orientation information of the plurality of imaging means calculated by the position / orientation calculation means, detected by the first detection means. Second detection means for detecting an index included in the scene different from the index from the plurality of image data;
Image generation means for generating an image obtained by correcting the index detected by the first detection means and the second detection means included in each image data input by the image input means;
An information processing apparatus comprising: a display control unit configured to display each image generated by the image generation unit on a plurality of display units corresponding to the images.
前記第2の検出手段は、前記位置姿勢算出手段によって算出された前記撮像手段の位置及び姿勢に基づいて指標の探索領域を設定し、前記設定した探索領域において前記情景に含まれる指標を検出することを特徴とする請求項1又は2に記載の情報処理装置。   The second detection unit sets an index search region based on the position and orientation of the imaging unit calculated by the position / orientation calculation unit, and detects an index included in the scene in the set search region. The information processing apparatus according to claim 1 or 2. 前記画像生成手段は、前記指標が四角形指標である場合は、前記四角形指標の内部の特徴を修正した画像を生成することを特徴とする請求項1〜3の何れか1項に記載の情報処理装置。   4. The information processing according to claim 1, wherein, when the index is a quadratic index, the image generating unit generates an image in which a feature inside the quadrangular index is corrected. 5. apparatus. 情景を撮影する撮像手段によって取得された画像データを入力する画像入力工程と、
前記画像入力工程において入力された画像データから前記情景に含まれる指標を検出する第1の検出工程と、
記憶手段に記憶された指標の世界座標の情報と、前記第1の検出工程において検出された指標の画像上における画像座標の情報とに基づいて、前記撮像手段の位置及び姿勢を算出する位置姿勢算出工程と、
前記記憶手段に記憶された指標の世界座標の情報と、前記位置姿勢算出工程において算出された前記撮像手段の位置及び姿勢の情報とに基づいて、前記第1の検出工程において検出された指標とは異なる前記情景に含まれる指標を前記画像データから検出する第2の検出工程と、
前記画像入力工程において入力された画像データに含まれる前記第1の検出工程及び第2の検出工程において検出された指標を修正した画像を生成する画像生成工程と、
前記画像生成工程において生成された画像を表示手段に表示する表示制御工程とを備えることを特徴とする情報処理方法。
An image input step of inputting image data acquired by an imaging means for capturing a scene;
A first detection step of detecting an index included in the scene from the image data input in the image input step;
Position and orientation for calculating the position and orientation of the imaging means based on information on the world coordinates of the index stored in the storage means and information on image coordinates on the image of the index detected in the first detection step A calculation process;
Based on the world coordinate information of the index stored in the storage unit and the position and orientation information of the imaging unit calculated in the position and orientation calculation step, the index detected in the first detection step A second detection step of detecting an index included in the different scenes from the image data;
An image generation step for generating an image in which the index detected in the first detection step and the second detection step included in the image data input in the image input step is corrected;
A display control step of displaying on the display means the image generated in the image generation step.
情景を撮影する複数の撮像手段によって取得されたそれぞれの画像データを入力する画像入力工程と、
前記画像入力工程において入力された複数の画像データの中の1つから前記情景に含まれる指標を検出する第1の検出工程と、
記憶手段に記憶された前記情景に含まれる指標の世界座標の情報と、前記複数の撮像手段の間の位置及び姿勢の関係の情報と、前記第1の検出工程において検出された指標の画像上における画像座標の情報とに基づいて、前記複数の撮像手段の位置及び姿勢を算出する位置姿勢算出工程と、
前記記憶手段に記憶された指標の世界座標の情報と、前記位置姿勢算出工程において算出された前記複数の撮像手段の位置及び姿勢の情報とに基づいて、前記第1の検出工程において検出された指標とは異なる前記情景に含まれる指標を前記複数の画像データから検出する第2の検出工程と、
前記画像入力工程において入力された各画像データに含まれる前記第1の検出工程及び第2の検出工程において検出された指標を修正した画像をそれぞれ生成する画像生成工程と、
前記画像生成工程において生成された各画像を前記各画像に対応する複数の表示手段に表示する表示制御工程とを備えることを特徴とする情報処理方法。
An image input step of inputting respective image data acquired by a plurality of imaging means for capturing a scene;
A first detection step of detecting an index included in the scene from one of a plurality of image data input in the image input step;
On the image of the index detected in the first detection step, information on the world coordinates of the index included in the scene stored in the storage unit, information on the relationship between the position and orientation between the plurality of imaging units A position and orientation calculation step of calculating the position and orientation of the plurality of imaging means based on the image coordinate information in
Detected in the first detection step based on the world coordinate information of the index stored in the storage unit and the position and orientation information of the plurality of imaging units calculated in the position and orientation calculation step. A second detection step of detecting an index included in the scene different from the index from the plurality of image data;
An image generation step for generating images obtained by correcting the indices detected in the first detection step and the second detection step included in each image data input in the image input step;
An information processing method comprising: a display control step of displaying each image generated in the image generation step on a plurality of display means corresponding to the images.
前記第2の検出工程においては、前記位置姿勢算出工程において算出された前記撮像手段の位置及び姿勢に基づいて指標の探索領域を設定し、前記設定した探索領域において前記情景に含まれる指標を検出することを特徴とする請求項5又は6に記載の情報処理方法。   In the second detection step, an index search region is set based on the position and orientation of the imaging unit calculated in the position and orientation calculation step, and an index included in the scene is detected in the set search region. The information processing method according to claim 5 or 6, wherein: 前記画像生成工程においては、前記指標が四角形指標である場合は、前記四角形指標の内部の特徴を修正した画像を生成することを特徴とする請求項5〜7の何れか1項に記載の情報処理方法。   The information according to any one of claims 5 to 7, wherein, in the image generation step, when the index is a square index, an image in which a feature inside the square index is corrected is generated. Processing method. 情景を撮影する撮像手段によって取得された画像データを入力する画像入力工程と、
前記画像入力工程において入力された画像データから前記情景に含まれる指標を検出する第1の検出工程と、
記憶手段に記憶された指標の世界座標の情報と、前記第1の検出工程において検出された指標の画像上における画像座標の情報とに基づいて、前記撮像手段の位置及び姿勢を算出する位置姿勢算出工程と、
前記記憶手段に記憶された指標の世界座標の情報と、前記位置姿勢算出工程において算出された前記撮像手段の位置及び姿勢の情報とに基づいて、前記第1の検出工程において検出された指標とは異なる前記情景に含まれる指標を前記画像データから検出する第2の検出工程と、
前記画像入力工程において入力された画像データに含まれる前記第1の検出工程及び第2の検出工程において検出された指標を修正した画像を生成する画像生成工程と、
前記画像生成工程において生成された画像を表示手段に表示する表示制御工程とをコンピュータに実行させることを特徴とするプログラム。
An image input step of inputting image data acquired by an imaging means for capturing a scene;
A first detection step of detecting an index included in the scene from the image data input in the image input step;
Position and orientation for calculating the position and orientation of the imaging means based on information on the world coordinates of the index stored in the storage means and information on image coordinates on the image of the index detected in the first detection step A calculation process;
Based on the world coordinate information of the index stored in the storage unit and the position and orientation information of the imaging unit calculated in the position and orientation calculation step, the index detected in the first detection step A second detection step of detecting an index included in the different scenes from the image data;
An image generation step for generating an image in which the index detected in the first detection step and the second detection step included in the image data input in the image input step is corrected;
A program causing a computer to execute a display control step of displaying an image generated in the image generation step on a display unit.
情景を撮影する複数の撮像手段によって取得されたそれぞれの画像データを入力する画像入力工程と、
前記画像入力工程において入力された複数の画像データの中の1つから前記情景に含まれる指標を検出する第1の検出工程と、
記憶手段に記憶された前記情景に含まれる指標の世界座標の情報と、前記複数の撮像手段の間の位置及び姿勢の関係の情報と、前記第1の検出工程において検出された指標の画像上における画像座標の情報とに基づいて、前記複数の撮像手段の位置及び姿勢を算出する位置姿勢算出工程と、
前記記憶手段に記憶された指標の世界座標の情報と、前記位置姿勢算出工程において算出された前記複数の撮像手段の位置及び姿勢の情報とに基づいて、前記第1の検出工程において検出された指標とは異なる前記情景に含まれる指標を前記複数の画像データから検出する第2の検出工程と、
前記画像入力工程において入力された各画像データに含まれる前記第1の検出工程及び第2の検出工程において検出された指標を修正した画像をそれぞれ生成する画像生成工程と、
前記画像生成工程において生成された各画像を前記各画像に対応する複数の表示手段に表示する表示制御工程とをコンピュータに実行させることを特徴とするプログラム。
An image input step of inputting respective image data acquired by a plurality of imaging means for capturing a scene;
A first detection step of detecting an index included in the scene from one of a plurality of image data input in the image input step;
On the image of the index detected in the first detection step, information on the world coordinates of the index included in the scene stored in the storage unit, information on the relationship between the position and orientation between the plurality of imaging units A position and orientation calculation step of calculating the position and orientation of the plurality of imaging means based on the image coordinate information in
Detected in the first detection step based on the world coordinate information of the index stored in the storage unit and the position and orientation information of the plurality of imaging units calculated in the position and orientation calculation step. A second detection step of detecting an index included in the scene different from the index from the plurality of image data;
An image generation step for generating images obtained by correcting the indices detected in the first detection step and the second detection step included in each image data input in the image input step;
A program that causes a computer to execute a display control step of displaying each image generated in the image generation step on a plurality of display means corresponding to the images.
請求項9又は10に記載のプログラムを記憶したことを特徴とするコンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 9 or 10.
JP2008292585A 2008-11-14 2008-11-14 Information processing apparatus and information processing method Pending JP2010118002A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008292585A JP2010118002A (en) 2008-11-14 2008-11-14 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008292585A JP2010118002A (en) 2008-11-14 2008-11-14 Information processing apparatus and information processing method

Publications (1)

Publication Number Publication Date
JP2010118002A true JP2010118002A (en) 2010-05-27

Family

ID=42305625

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008292585A Pending JP2010118002A (en) 2008-11-14 2008-11-14 Information processing apparatus and information processing method

Country Status (1)

Country Link
JP (1) JP2010118002A (en)

Similar Documents

Publication Publication Date Title
US10140723B2 (en) Information processing apparatus and method
US9325969B2 (en) Image capture environment calibration method and information processing apparatus
JP4926817B2 (en) Index arrangement information measuring apparatus and method
US7519218B2 (en) Marker detection method and apparatus, and position and orientation estimation method
EP1596330B1 (en) Estimating position and orientation of markers in digital images
JP4739004B2 (en) Information processing apparatus and information processing method
EP1739622B1 (en) Image feature identification with two cameras
JP5196825B2 (en) Image processing apparatus and image processing method
JP2008070267A (en) Method for measuring position and attitude, and device
JP4502361B2 (en) Index attitude detection method and apparatus
JP4282067B2 (en) Index identification method and apparatus
JP2006293485A (en) Index display method and image display device
JP2010118002A (en) Information processing apparatus and information processing method
JP4810403B2 (en) Information processing apparatus and information processing method
JP4497880B2 (en) Index identification method and apparatus
JP2007040980A (en) Information processing method and device
JP2014215821A (en) Information processing apparatus, information processing method and program