JP2006267879A - Image processing method, image processing apparatus and marker - Google Patents

Image processing method, image processing apparatus and marker Download PDF

Info

Publication number
JP2006267879A
JP2006267879A JP2005088929A JP2005088929A JP2006267879A JP 2006267879 A JP2006267879 A JP 2006267879A JP 2005088929 A JP2005088929 A JP 2005088929A JP 2005088929 A JP2005088929 A JP 2005088929A JP 2006267879 A JP2006267879 A JP 2006267879A
Authority
JP
Japan
Prior art keywords
image
identification information
index
identifier
observed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005088929A
Other languages
Japanese (ja)
Inventor
Daisuke Kotake
大輔 小竹
Shinji Uchiyama
晋二 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005088929A priority Critical patent/JP2006267879A/en
Publication of JP2006267879A publication Critical patent/JP2006267879A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique for reading identification information written on an index even in observing the identification information from either of a plurality of prescribed viewing points, for example, in observing the information from an oblique direction, and then, for rightly discriminating the read identification information. <P>SOLUTION: The image in a real cavity is obtained, where a plurality of indexes having a lenticular lens for optically changing the observation image of an identifier are arranged so that the observation images become almost the same, even when the identifier is viewed from a plurality of prescribed viewing points and the projected index image is detected in the image (S201), then, the index is discriminated by reading the identifier from the projected image with the detected index (S204). <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、複数の指標が配された現実空間の画像に係る画像処理技術に関するものである。   The present invention relates to an image processing technique related to an image of a real space in which a plurality of indices are arranged.

近年、複合現実感(Mixed Reality; MR)技術の研究が盛んに行われている。MR技術は、現実空間と、コンピュータによって作られる仮想空間と、を継ぎ目なく融合する技術である。MR技術の中でも、現実空間に仮想空間を重ね合わせて表示するAugmented Reality(AR、拡張現実感、増強現実感とも呼ばれる)技術が特に注目を集めている。   In recent years, research on mixed reality (MR) technology has been actively conducted. MR technology is a technology that seamlessly fuses real space and virtual space created by computers. Among MR technologies, Augmented Reality (also called AR, augmented reality, augmented reality) technology that displays virtual space superimposed on real space is attracting particular attention.

ARの画像表示装置は、ビデオカメラなどの撮像装置によって撮影された現実空間の画像に、この撮像装置の位置及び姿勢に応じて生成された仮想空間(コンピュータグラフィクスにより描画された仮想物体や文字情報など)の画像を重畳描画した合成画像を表示するビデオシースルー方式か、あるいは観察者の頭部に装着された光学シースルー型ディスプレイに、観察者の視点の位置及び姿勢に応じて生成された仮想空間の画像を表示する光学シースルー方式によって実現される。   An AR image display device uses a virtual space (virtual object or character information drawn by computer graphics) generated in accordance with the position and orientation of the imaging device in an image of a real space taken by an imaging device such as a video camera. A virtual space generated according to the position and orientation of the observer's viewpoint on a video see-through method that displays a composite image with a superimposed image of the image or the like, or an optical see-through display mounted on the observer's head This is realized by an optical see-through method for displaying the image.

AR技術は、患者の体表面に体内の様子を重畳表示する手術支援や、空き地に仮想のビルを重畳表示する建築シミュレーション、組立作業時に作業手順を重畳表示する組み立て支援など様々な分野への応用が期待される。   AR technology is applied to various fields such as surgery support that superimposes the state of the body on the patient's body surface, architectural simulation that superimposes a virtual building on a vacant lot, and assembly support that superimposes and displays work procedures during assembly work. There is expected.

AR技術において最も重要な課題の一つは、現実空間と仮想空間の間の位置合わせをいかに正確に行うかということであり、従来より多くの取り組みが行われてきた。ARにおける位置合わせの問題は、ビデオシースルー方式の場合はシーン中における(すなわち世界座標系における)撮像装置の位置及び姿勢を求める問題に帰結する。同様に、光学シースルー方式の場合は、シーン中における観察者の視点あるいはディスプレイの位置及び姿勢を求める問題に帰結する。   One of the most important issues in AR technology is how to accurately align the real space and the virtual space, and many efforts have been made. In the case of the video see-through method, the alignment problem in the AR results in a problem of obtaining the position and orientation of the imaging device in the scene (that is, in the world coordinate system). Similarly, the optical see-through method results in the problem of obtaining the observer's viewpoint or display position and orientation in the scene.

前者の問題を解決する方法として、シーン中に複数の指標を配置あるいは設定し、撮像装置が撮影した画像内における指標の投影像の座標を検出することで、シーン中における撮像装置の位置及び姿勢を求めることが一般的に行われている。また、後者の問題を解決する方法として、計測対象物(すなわち観察者の頭部あるいはディスプレイ)に撮像装置を装着し、前者と同様な方法によって撮像装置の位置及び姿勢を求め、それに基いて計測対象物の位置及び姿勢を求めることが一般的に行われている。   As a method for solving the former problem, the position and orientation of the imaging apparatus in the scene are determined by arranging or setting a plurality of indices in the scene and detecting the coordinates of the projected image of the index in the image captured by the imaging apparatus. It is generally done to ask for. As a method for solving the latter problem, an imaging device is attached to a measurement object (that is, an observer's head or display), and the position and orientation of the imaging device are obtained by the same method as the former, and measurement is performed based on the obtained device. In general, the position and orientation of an object are obtained.

図1を用いて、撮像装置が撮影した画像から指標を検出することで、この撮像装置の位置及び姿勢を計測する位置姿勢計測装置の従来例について説明する。図1は、従来の位置姿勢計測装置の機能構成を示すブロック図である。   A conventional example of a position and orientation measurement apparatus that measures the position and orientation of an imaging apparatus by detecting an index from an image captured by the imaging apparatus will be described with reference to FIG. FIG. 1 is a block diagram showing a functional configuration of a conventional position and orientation measurement apparatus.

同図に示す如く、従来の位置姿勢計測装置100は、指標検出部110及び位置姿勢算出部120によって構成されており、指標検出部110には撮像装置130が接続されている。   As shown in the figure, the conventional position / orientation measurement apparatus 100 includes an index detection unit 110 and a position / orientation calculation unit 120, and an imaging device 130 is connected to the index detection unit 110.

また、現実空間中の複数の位置には、撮像装置130によって撮影するための指標として、世界座標系における位置が既知である複数個の指標Qk(k=1,2,・・・,K1)が配置されている。図1では、4個の指標Q1、Q2、Q3、Q4が配置されており、そのうちの3個Q1、Q3、Q4が撮像装置130の視野内に含まれている。   Further, at a plurality of positions in the real space, a plurality of indices Qk (k = 1, 2,..., K1) whose positions in the world coordinate system are known as indices for photographing by the imaging device 130. Is arranged. In FIG. 1, four indexes Q1, Q2, Q3, and Q4 are arranged, and three of them, Q1, Q3, and Q4, are included in the field of view of the imaging device 130.

指標Qkは、例えばそれぞれが異なる色を有する円形状のマーカなど、撮影画像上における投影像の画像座標が検出可能であって、かつ何れの指標であるかが同定可能であるような指標であれば何れの形態であってもよい。   The index Qk is an index that can detect the image coordinates of the projected image on the captured image and can identify which index, for example, circular markers having different colors. Any form may be used.

撮像装置130が出力する画像は、指標検出部110に入力される。指標検出部110は、撮像装置130から入力した画像上に撮影されている指標Qkの画像座標を検出する。例えば、指標Qkの各々が異なる色を有するマーカによって構成されている場合には、入力画像上から各々のマーカ色に対応する領域を検出し、その重心位置を指標の検出座標とする。   An image output from the imaging device 130 is input to the index detection unit 110. The index detection unit 110 detects the image coordinates of the index Qk photographed on the image input from the imaging device 130. For example, when each of the indices Qk is composed of markers having different colors, an area corresponding to each marker color is detected from the input image, and the position of the center of gravity is set as a detected coordinate of the index.

さらに指標検出部110は、検出された各々の指標Qknの画像座標uQknとその識別子knを位置姿勢算出部120へと出力する。ここで、n(=1,・・・,N)は検出された指標の通し番号を表す変数であり、Nは検出された指標の総数を表している。例えば図1の場合には、N=3であり、指標検出部110は、識別子k1=1、k2=3、k3=4と、これらに対応する画像座標uQk1、uQk2、uQk3を位置姿勢算出部120に出力する。 Furthermore, the index detection unit 110 outputs the detected image coordinates u Qkn of each index Qkn and its identifier kn to the position / orientation calculation unit 120. Here, n (= 1,..., N) is a variable representing the serial number of the detected index, and N represents the total number of detected indices. For example, in the case of FIG. 1, N = 3, and the index detection unit 110 positions the identifiers k1 = 1, k2 = 3, k3 = 4 and the corresponding image coordinates u Qk1 , u Qk2 , u Qk3 . Output to the posture calculation unit 120.

位置姿勢算出部120は、検出された各々の指標Qknの画像座標uQknと、既知な情報として予め保持している指標Qknの世界座標との対応関係に基いて、撮像装置130の位置及び姿勢を算出する。指標の世界座標と画像座標の組から撮像装置の位置及び姿勢を算出する方法は、写真測量の分野において古くから提案されている(例えば、非特許文献1、非特許文献2を参照)。位置姿勢算出部120は、例えば非特許文献1に記載の手法によって、撮像装置130の位置及び姿勢を算出する。 The position and orientation calculation unit 120, based on the correspondence between the image coordinates u Qkn of the index Qkn of each detected, and advance the held index Qkn world coordinates as known information, the position and orientation of the imaging device 130 Is calculated. A method for calculating the position and orientation of an imaging device from a set of world coordinates and image coordinates of an index has been proposed for a long time in the field of photogrammetry (for example, see Non-Patent Document 1 and Non-Patent Document 2). The position / orientation calculation unit 120 calculates the position and orientation of the imaging device 130 by the method described in Non-Patent Document 1, for example.

以上の方法によって、撮像装置が撮影した画像に基づいて、この撮像装置の位置及び姿勢を取得することが従来からなされてきた。   Conventionally, the position and orientation of the imaging device have been acquired based on the image captured by the imaging device by the above method.

一方、例えば特許文献1、2および非特許文献3で開示されているように、計測対象である撮像装置に磁気センサや超音波センサなどの6自由度位置姿勢センサを取り付け、前述のような画像処理による指標の検出との併用によって位置及び姿勢を計測することも行われている。この方法では、特にセンサによる計測値を画像情報によって補正するという枠組みで処理を行うことで、真の解から大きく外れた解が得られることを避けることができるため、安定した動作が期待できる。   On the other hand, as disclosed in, for example, Patent Documents 1 and 2 and Non-Patent Document 3, a 6-DOF position / orientation sensor such as a magnetic sensor or an ultrasonic sensor is attached to an imaging apparatus that is a measurement object, and the above-described image The position and orientation are also measured by using in combination with detection of an index by processing. In this method, it is possible to avoid a solution greatly deviating from the true solution by performing processing in a framework of correcting the measurement value obtained by the sensor using image information, and stable operation can be expected.

ところで、前述のような、指標を利用して撮像装置の位置及び姿勢を算出する場合には、指標の識別子を正しく同定し、画像内の指標がどの指標であるかを正しく知る必要がある。   By the way, when calculating the position and orientation of the imaging apparatus using the index as described above, it is necessary to correctly identify the index identifier and know exactly which index is the index in the image.

前述のような、異なる色を有する円形状のマーカを指標として用いる場合で、似た色のマーカが存在する場合には、照明条件などにより一意に同定することができなくなる。また、前フレームにおける指標の画像座標や、6自由度位置姿勢センサの計測値を利用して予測される指標の画像座標を用いて指標の追跡を行う場合でも、撮像装置の位置または姿勢の変動が大きかったり、指標の数が多かったりする場合には一意に同定することができなくなる。   In the case where circular markers having different colors as described above are used as an index and there are markers with similar colors, they cannot be uniquely identified due to illumination conditions or the like. In addition, even when the index is tracked using the image coordinates of the index in the previous frame or the image coordinates of the index predicted using the measurement values of the 6-DOF position and orientation sensor, the position or orientation of the imaging apparatus varies. Cannot be uniquely identified when the number of indicators is large or the number of indicators is large.

これに対して、2次元パターンが描かれたマーカを指標として用いることによって、利用できる指標の数を増やし、撮影画像上に投影された指標の2次元パターンを読み取ることによって、撮影画像だけをもとに指標の識別子を一意に同定することが行われている(例えば非特許文献4、非特許文献5を参照)。非特許文献4では、2次元マトリクスコードを2次元パターンとして用いており、識別子の同定は画像上に投影されたパターンからビット情報を直接読み取ることで行っている。また、非特許文献5では、任意の2次元パターンをパターンマッチングによって同定することにより、指標の同定を行っている。
特開平11-084307号公報 特開2000-041173号公報 R. M. Haralick, C. Lee, K. Ottenberg, and M. Nolle: Review and analysis of solutions of the three point perspective pose estimation problem, International Journal of Computer Vision, vol.13, no.3, pp.331-356, 1994. D. G. Lowe: Fitting parameterized three-dimensional models to images, IEEE Transactions on PAMI, vol.13, no.5, pp.441-450, 1991. A. State, G. Hirota, D. T. Chen, W. F. Garrett and M. A. Livingston: Superior augmented reality registration by integrating landmark tracking and magnetic tracking, Proc. SIGGRAPH’96, pp.429-438, 1996. 暦本純一: 2次元マトリックスコードを利用した拡張現実感の構成手法,インタラクティブシステムとソフトウェア IV,近代科学社,1996. 加藤博一,M. Billinghurst,浅野浩一,橘啓八郎: マーカー追跡に基づく拡張現実感システムとそのキャリブレーション, 日本バーチャルリアリティ学会論文誌,vol.4, no.4, pp.607-616,1999.
On the other hand, by using a marker on which a two-dimensional pattern is drawn as an index, the number of usable indices is increased, and by reading the two-dimensional pattern of the index projected on the photographed image, only the photographed image is obtained. In other words, the identifier of the index is uniquely identified (see, for example, Non-Patent Document 4 and Non-Patent Document 5). In Non-Patent Document 4, a two-dimensional matrix code is used as a two-dimensional pattern, and identification of an identifier is performed by directly reading bit information from a pattern projected on an image. In Non-Patent Document 5, an index is identified by identifying an arbitrary two-dimensional pattern by pattern matching.
Japanese Patent Laid-Open No. 11-084307 JP 2000-041173 A RM Haralick, C. Lee, K. Ottenberg, and M. Nolle: Review and analysis of solutions of the three point perspective pose estimation problem, International Journal of Computer Vision, vol.13, no.3, pp.331-356, 1994. DG Lowe: Fitting parameterized three-dimensional models to images, IEEE Transactions on PAMI, vol.13, no.5, pp.441-450, 1991. A. State, G. Hirota, DT Chen, WF Garrett and MA Livingston: Superior augmented reality registration by integrating landmark tracking and magnetic tracking, Proc.SIGGRAPH '96, pp.429-438, 1996. Junichi Kakimoto: Augmented Reality Construction Method Using 2D Matrix Code, Interactive System and Software IV, Modern Science, 1996. Kato Hirokazu, M. Billinghurst, Asano Koichi, Tachibana Keihachiro: Augmented Reality System Based on Marker Tracking and Its Calibration, Transactions of the Virtual Reality Society of Japan, vol.4, no.4, pp.607-616, 1999 .

前述のような2次元パターンが描かれた指標は、斜め方向から観察した場合(指標の法線ベクトルと視線ベクトルのなす角度が90°に近くなる場合)、射影変換の影響によって指標が画像面上で奥行き方向につぶれて観察され、正しく2次元パターンを読み取れずに同定ができなくなるという問題があった。   When an index on which a two-dimensional pattern is drawn as described above is observed from an oblique direction (when the angle formed by the normal vector of the index and the line-of-sight vector is close to 90 °), the index is displayed on the image plane due to the influence of projective transformation. There is a problem that the image is crushed and observed in the depth direction, and the identification cannot be performed without correctly reading the two-dimensional pattern.

また、2次元パターンが読み取れた場合でも、誤った読み取りを行って指標の同定を間違えるため、位置姿勢算出において正しい位置姿勢が求められないという問題があった。   Further, even when a two-dimensional pattern can be read, there is a problem that a correct position and orientation cannot be obtained in the position and orientation calculation because incorrect reading is performed and an index is incorrectly identified.

また、観察された指標の中から実際に位置姿勢算出に用いる指標を決定する際の基準がなかった。   Further, there was no reference for determining an index that is actually used for position and orientation calculation from among the observed indices.

本発明は以上の問題に鑑みてなされたものであり、指標に記されている識別情報を所定の複数の視点の何れから観察しても、例えば斜め方向から観察した場合でも、この識別情報を読み取り、読み取った識別情報を正しく識別するための技術を提供することを目的とする。   The present invention has been made in view of the above problems, and even if the identification information written on the index is observed from any of a plurality of predetermined viewpoints, for example, when observed from an oblique direction, the identification information is used. It is an object of the present invention to provide a technique for correctly identifying read and read identification information.

また、更に、識別情報の識別を誤ってしまった場合であっても、その誤りを検出できるようにする。   Furthermore, even if the identification information is erroneously identified, the error can be detected.

また、更に、観察される多数の指標の中から、実際に位置姿勢算出に用いる指標を、優先度を基準として決定する。   Furthermore, an index that is actually used for position / orientation calculation is determined based on the priority from among a large number of observed indices.

本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing method of the present invention comprises the following arrangement.

即ち、識別情報が記されており、且つ当該識別情報を所定の複数の視点の何れから観察しても略同じ像となるべく、当該識別情報の観察像を光学的に変化させる構成を有する指標、が複数配された現実空間の画像を取得する取得工程と、
前記取得工程で取得した画像における指標の投影像を検出する検出工程と、
前記検出工程で検出した指標の投影像から識別情報を読み取ることで、当該指標を識別する識別工程と
を備えることを特徴とする。
In other words, an index having a configuration in which identification information is written and an observation image of the identification information is optically changed so that the identification information is substantially the same even if the identification information is observed from any of a plurality of predetermined viewpoints. An acquisition step of acquiring an image of a physical space in which a plurality of are arranged,
A detection step of detecting a projected image of the index in the image acquired in the acquisition step;
An identification step of identifying the index by reading the identification information from the projected image of the index detected in the detection step.

本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing method of the present invention comprises the following arrangement.

即ち、第1の識別情報、第2の識別情報が記されており、当該第1の識別情報を所定の複数の視点の何れから観察しても略同じ像となるべく、当該第1の識別情報の観察像を光学的に変化させる構成、及び当該第2識別情報を観察する視点が存在する観察領域に応じて当該第2の識別情報の像を異ならせるべく、当該第2の識別情報の観察像を光学的に変化させる構成、を有する指標、が複数配された現実空間の画像を取得する取得工程と、
前記取得工程で取得した画像における指標の投影像を検出する検出工程と、
前記検出工程で検出した指標の投影像から前記第1の識別情報を読み取ることで、当該指標を識別する識別工程と、
前記検出工程で検出した指標の投影像から前記第2の識別情報を読み取ることで、前記視点の位置を推定する推定工程と、
前記推定工程で推定した位置の視点から見える画像上の指標の位置と、前記検出工程で検出した当該指標の位置とを用いて、当該指標に対する前記識別工程における識別処理をチェックするチェック工程と
を備えることを特徴とする。
In other words, the first identification information and the second identification information are written, and the first identification information should be substantially the same when viewed from any of a plurality of predetermined viewpoints. Observation of the second identification information in order to vary the image of the second identification information in accordance with a configuration for optically changing the observation image of the second identification information and an observation region where a viewpoint for observing the second identification information exists. An acquisition step of acquiring an image of a real space in which a plurality of indicators having a configuration for optically changing an image is arranged;
A detection step of detecting a projected image of the index in the image acquired in the acquisition step;
An identification step for identifying the index by reading the first identification information from the projected image of the index detected in the detection step;
An estimation step of estimating the position of the viewpoint by reading the second identification information from the projected image of the index detected in the detection step;
Using the position of the index on the image seen from the viewpoint of the position estimated in the estimation process and the position of the index detected in the detection process, a check process for checking the identification process in the identification process for the index; It is characterized by providing.

本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing method of the present invention comprises the following arrangement.

即ち、第1の識別情報、第2の識別情報が記されており、当該第1の識別情報を所定の複数の視点の何れから観察しても略同じ像となるべく、当該第1の識別情報の観察像を光学的に変化させる構成、及び当該第2識別情報を観察する視点が存在する観察領域に応じて当該第2の識別情報の像を異ならせるべく、当該第2の識別情報の観察像を光学的に変化させる構成、を有する指標、が複数配された現実空間の画像を取得する取得工程と、
前記取得工程で取得した画像における指標の投影像を検出する検出工程と、
前記検出工程で検出した指標の投影像から前記第1の識別情報を読み取ることで、当該指標を識別する識別工程と、
前記検出工程で検出した指標の投影像から前記第2の識別情報を読み取り、読み取った前記第2の識別情報に基づいて、前記検出工程で検出した指標に優先度を設定する設定工程と
を備えることを特徴とする。
In other words, the first identification information and the second identification information are written, and the first identification information should be substantially the same when viewed from any of a plurality of predetermined viewpoints. Observation of the second identification information in order to vary the image of the second identification information in accordance with a configuration for optically changing the observation image of the second identification information and an observation region where a viewpoint for observing the second identification information exists. An acquisition step of acquiring an image of a real space in which a plurality of indicators having a configuration for optically changing an image is arranged;
A detection step of detecting a projected image of the index in the image acquired in the acquisition step;
An identification step for identifying the index by reading the first identification information from the projected image of the index detected in the detection step;
A setting step of reading the second identification information from the projected image of the index detected in the detection step, and setting a priority for the index detected in the detection step based on the read second identification information. It is characterized by that.

本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement.

即ち、識別情報が記されており、且つ当該識別情報を所定の複数の視点の何れから観察しても略同じ像となるべく、当該識別情報の観察像を光学的に変化させる構成を有する指標、が複数配された現実空間の画像を取得する取得手段と、
前記取得手段が取得した画像における指標の投影像を検出する検出手段と、
前記検出手段が検出した指標の投影像から識別情報を読み取ることで、当該指標を識別する識別手段と
を備えることを特徴とする。
In other words, an index having a configuration in which identification information is written and an observation image of the identification information is optically changed so that the identification information is substantially the same even if the identification information is observed from any of a plurality of predetermined viewpoints. Acquisition means for acquiring an image of a real space in which a plurality of are arranged,
Detecting means for detecting a projected image of the index in the image acquired by the acquiring means;
And identifying means for identifying the index by reading the identification information from the projected image of the index detected by the detecting means.

本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement.

即ち、第1の識別情報、第2の識別情報が記されており、当該第1の識別情報を所定の複数の視点の何れから観察しても略同じ像となるべく、当該第1の識別情報の観察像を光学的に変化させる構成、及び当該第2識別情報を観察する視点が存在する観察領域に応じて当該第2の識別情報の像を異ならせるべく、当該第2の識別情報の観察像を光学的に変化させる構成、を有する指標、が複数配された現実空間の画像を取得する取得手段と、
前記取得手段が取得した画像における指標の投影像を検出する検出手段と、
前記検出手段が検出した指標の投影像から前記第1の識別情報を読み取ることで、当該指標を識別する識別手段と、
前記検出手段が検出した指標の投影像から前記第2の識別情報を読み取ることで、前記視点の位置を推定する推定手段と、
前記推定手段が推定した位置の視点から見える画像上の指標の位置と、前記検出手段が検出した当該指標の位置とを用いて、当該指標に対する前記識別手段による識別処理をチェックするチェック手段と
を備えることを特徴とする。
In other words, the first identification information and the second identification information are written, and the first identification information should be substantially the same when viewed from any of a plurality of predetermined viewpoints. Observation of the second identification information in order to vary the image of the second identification information in accordance with a configuration for optically changing the observation image of the second identification information and an observation region where a viewpoint for observing the second identification information exists. An acquisition means for acquiring an image of a real space in which a plurality of indicators having a configuration for optically changing an image is arranged;
Detecting means for detecting a projected image of the index in the image acquired by the acquiring means;
Identification means for identifying the index by reading the first identification information from the projected image of the index detected by the detection means;
Estimating means for estimating the position of the viewpoint by reading the second identification information from the projected image of the index detected by the detecting means;
Checking means for checking identification processing by the identification means for the index using the position of the index seen from the viewpoint of the position estimated by the estimation means and the position of the index detected by the detection means; It is characterized by providing.

本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement.

即ち、第1の識別情報、第2の識別情報が記されており、当該第1の識別情報を所定の複数の視点の何れから観察しても略同じ像となるべく、当該第1の識別情報の観察像を光学的に変化させる構成、及び当該第2識別情報を観察する視点が存在する観察領域に応じて当該第2の識別情報の像を異ならせるべく、当該第2の識別情報の観察像を光学的に変化させる構成、を有する指標、が複数配された現実空間の画像を取得する取得手段と、
前記取得手段が取得した画像における指標の投影像を検出する検出手段と、
前記検出手段が検出した指標の投影像から前記第1の識別情報を読み取ることで、当該指標を識別する識別手段と、
前記検出手段が検出した指標の投影像から前記第2の識別情報を読み取り、読み取った前記第2の識別情報に基づいて、前記検出手段が検出した指標に優先度を設定する設定手段と
を備えることを特徴とする。
In other words, the first identification information and the second identification information are written, and the first identification information should be substantially the same when viewed from any of a plurality of predetermined viewpoints. Observation of the second identification information in order to vary the image of the second identification information in accordance with a configuration for optically changing the observation image of the second identification information and an observation region where a viewpoint for observing the second identification information exists. An acquisition means for acquiring an image of a real space in which a plurality of indicators having a configuration for optically changing an image is arranged;
Detecting means for detecting a projected image of the index in the image acquired by the acquiring means;
Identification means for identifying the index by reading the first identification information from the projected image of the index detected by the detection means;
Setting means for reading the second identification information from the projected image of the index detected by the detection means, and setting a priority for the index detected by the detection means based on the read second identification information. It is characterized by that.

本発明の目的を達成するために、例えば、本発明のマーカは以下の構成を備える。   In order to achieve the object of the present invention, for example, the marker of the present invention comprises the following arrangement.

即ち、撮影画像内のマーカ位置に基づき撮影部の位置を求めるためのマーカであって、
マーカを識別するための識別子画像を有する物体と、
前記物体上に配置されたレンズと
を有することを特徴とする。
That is, a marker for obtaining the position of the photographing unit based on the marker position in the photographed image,
An object having an identifier image for identifying the marker;
And a lens disposed on the object.

本発明の構成により、指標に記されている識別情報を所定の複数の視点の何れから観察しても、例えば斜め方向から観察した場合でも、この識別情報を読み取り、読み取った識別情報を正しく識別することができる。   According to the configuration of the present invention, even if the identification information written on the index is observed from any of a plurality of predetermined viewpoints, for example, when observed from an oblique direction, the identification information is read and the read identification information is correctly identified. can do.

また、更に、識別情報の識別を誤ってしまった場合であっても、その誤りを検出することができる。   Furthermore, even if the identification information is erroneously identified, the error can be detected.

また、更に、観察される多数の指標の中から、実際に位置姿勢算出に用いる指標を、優先度を基準として決定することができる。   Furthermore, from among a number of observed indices, an index that is actually used for position and orientation calculation can be determined based on priority.

以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。   Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.

[第1の実施形態]
図2は、現実空間と仮想空間とを合成した複合現実空間の画像を観察者に提示するための、本実施形態に係るシステムの機能構成を示すブロック図である。同図に示す如く、本実施形態に係るシステムは、撮像部210と、複合現実感体験装置2とで構成されている。
[First Embodiment]
FIG. 2 is a block diagram illustrating a functional configuration of a system according to the present embodiment for presenting an observer with an image of a mixed reality space obtained by synthesizing a real space and a virtual space. As shown in the figure, the system according to the present embodiment includes an imaging unit 210 and a mixed reality experience device 2.

先ず、撮像部210について説明する。撮像部210は、例えばカメラであり、現実空間の動画像を撮像し、撮像した各フレームの画像を後段の複合現実感体験装置2に送出する。なお、現実空間中には後述する指標(マーカ)が複数配されている。従って、撮像部210が撮像した画像内には複数の指標が写っていることになる。   First, the imaging unit 210 will be described. The imaging unit 210 is, for example, a camera, captures a moving image of the real space, and sends the captured image of each frame to the subsequent mixed reality experience device 2. A plurality of indices (markers) described later are arranged in the real space. Therefore, a plurality of indices are shown in the image captured by the image capturing unit 210.

次に、複合現実感体験装置2について説明する。複合現実感体験装置2は、画像取り込み部220、指標同定部230、位置姿勢算出部240、画像合成部260、仮想空間描画部250により構成されている。   Next, the mixed reality experience device 2 will be described. The mixed reality experience device 2 includes an image capturing unit 220, an index identification unit 230, a position / orientation calculation unit 240, an image composition unit 260, and a virtual space drawing unit 250.

画像取り込み部220は、撮像部210によって撮影された各フレームの画像を本装置内に入力し、画像合成部260、指標同定部230にそれぞれ出力する。   The image capturing unit 220 inputs an image of each frame captured by the imaging unit 210 into the apparatus, and outputs the image to the image composition unit 260 and the index identification unit 230, respectively.

指標同定部230は、画像取り込み部220から受けた画像内に写っている指標の投影像を検出する。ここで「指標の投影像を検出する」とは、画像内における指標の画像座標値と、この指標を識別する為の情報(識別情報)とを検出することである。そして、識別情報を検出すると、この指標を同定する処理を行う。そして、指標を同定すると、この指標を識別するための識別子と、この指標の画像座標とを位置姿勢算出部240に送出する。   The index identifying unit 230 detects a projected image of the index shown in the image received from the image capturing unit 220. Here, “detecting the projected image of the index” means detecting an image coordinate value of the index in the image and information (identification information) for identifying the index. And if identification information is detected, the process which identifies this parameter | index will be performed. When the index is identified, an identifier for identifying the index and the image coordinates of the index are sent to the position / orientation calculation unit 240.

位置姿勢算出部240は、それぞれの指標の世界座標系(現実空間中の1点を原点とし、この原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする座標系)における位置を保持しているので、指標同定部230から、指標の識別子とこの指標の画像座標とを受けると、受けた識別子で特定される指標の世界座標系を読み出し、これと、指標同定部230から受けた画像座標とを用いて周知の技術でもって、撮像部210の位置姿勢を算出する。   The position / orientation calculation unit 240 is a position of each index in the world coordinate system (a coordinate system in which one point in the real space is an origin and three axes orthogonal to each other at the origin are an x axis, a y axis, and a z axis). When the index identifier and the image coordinates of the index are received from the index identification unit 230, the world coordinate system of the index specified by the received identifier is read out from the index identification unit 230. Using the received image coordinates, the position and orientation of the imaging unit 210 are calculated by a known technique.

仮想空間描画部250は、位置姿勢算出部240が算出した撮像部210の位置姿勢を用いて、この撮像部210から見えるであろう仮想空間の画像を生成する。   The virtual space drawing unit 250 uses the position and orientation of the imaging unit 210 calculated by the position and orientation calculation unit 240 to generate an image of the virtual space that can be seen from the imaging unit 210.

画像合成部260は、画像取り込み部220から受けた現実空間の画像上に、仮想空間描画部250が生成した仮想空間の画像を重畳させた合成画像、即ち、複合現実空間の画像を生成し、表示部270に出力する。   The image composition unit 260 generates a composite image obtained by superimposing the virtual space image generated by the virtual space drawing unit 250 on the real space image received from the image capturing unit 220, that is, an image of the mixed reality space. The data is output to the display unit 270.

これにより、表示部270には、撮像部210から見える複合現実空間の画像を表示することができる。   Thereby, an image of the mixed reality space that can be seen from the imaging unit 210 can be displayed on the display unit 270.

図3は、上記複合現実感体験装置2に適用可能なコンピュータ、及びその周辺機器のハードウェア構成を示すブロック図である。   FIG. 3 is a block diagram showing a hardware configuration of a computer applicable to the mixed reality experience apparatus 2 and its peripheral devices.

301はCPUで、RAM307やROM306に格納されているプログラムやデータを用いて、本コンピュータ全体の制御を行うと共に、本コンピュータが行う後述の各処理を実行する。即ち、図2に示した指標同定部230、位置姿勢算出部240、仮想空間描画部250、画像合成部260のそれぞれの機能(若しくは制御機能)を実行する。   A CPU 301 controls the entire computer using programs and data stored in the RAM 307 and the ROM 306 and executes each process described later performed by the computer. That is, the respective functions (or control functions) of the index identification unit 230, the position / orientation calculation unit 240, the virtual space drawing unit 250, and the image composition unit 260 shown in FIG.

302はグラフィックアクセラレータで、仮想空間の画像生成処理や、複合現実空間の画像生成処理など、画像処理の一部を処理する。そして生成した複合現実空間の画像をHMD(ヘッドマウントディスプレイ)304に送出する。なお、このグラフィックアクセラレータ302は、CPU301による制御に従って動作する。   A graphic accelerator 302 processes part of image processing such as image generation processing in a virtual space and image generation processing in a mixed reality space. The generated mixed reality space image is sent to an HMD (head mounted display) 304. The graphic accelerator 302 operates according to control by the CPU 301.

304はHMDで、周知の如く、観察者の頭部に装着すると、上記表示部270に相当する表示装置がこの観察者の眼前に位置するように設けられている。   304 is an HMD, and as is well known, when it is mounted on the head of an observer, a display device corresponding to the display unit 270 is provided in front of the eyes of the observer.

305は外部記憶装置で、ハードディスクドライブ装置等に代表される大容量情報記憶装置であり、ここにOS(オペレーティングシステム)や、CPU301に、コンピュータが行う後述の各処理を実行させるためのプログラムやデータが保存されており、これらはCPU301による制御に従って適宜RAM307にロードされる。   Reference numeral 305 denotes an external storage device, which is a large-capacity information storage device typified by a hard disk drive device or the like. Here, an OS (Operating System) or a program or data for causing the CPU 301 to execute each process described later performed by the computer. Are stored in the RAM 307 as needed under the control of the CPU 301.

306はROMで、本コンピュータの設定データやブートプログラムなどを格納する。   Reference numeral 306 denotes a ROM that stores setting data and a boot program of the computer.

307はRAMで、外部記憶装置305からロードされたプログラムやデータを一時的に記憶するためのエリア、画像取り込み器310を介してカメラ311から受信した画像データを一時的に記憶するためのエリア、センサ312から受信した位置姿勢データを一時的に記憶するためのエリア、CPU301が各種の処理を実行する際に用いるワークエリア等、各種のエリアを適宜提供することができる。   Reference numeral 307 denotes a RAM, an area for temporarily storing programs and data loaded from the external storage device 305, an area for temporarily storing image data received from the camera 311 via the image capturing device 310, Various areas such as an area for temporarily storing the position and orientation data received from the sensor 312 and a work area used when the CPU 301 executes various processes can be provided as appropriate.

308,309はそれぞれマウス、キーボードで、本コンピュータの操作者が操作することで、各種の指示をCPU301に対して入力することができる。   Reference numerals 308 and 309 are a mouse and a keyboard, respectively, and various instructions can be input to the CPU 301 when operated by an operator of the computer.

310は画像取り込み器で、例えばビデオキャプチャボードであり、カメラ311が撮像した現実空間の画像のデータを本コンピュータに入力するためのI/Fとして機能するものである。即ち、画像取り込み部220として機能する。   Reference numeral 310 denotes an image capturing device, for example, a video capture board, which functions as an I / F for inputting real space image data captured by the camera 311 to the computer. That is, it functions as the image capturing unit 220.

カメラ311は、HMD304を頭部に装着する観察者の視点位置近傍に位置するように、HMD304に取り付けられるものであり、現実空間の動画像を撮像し、撮像した各フレームの画像は画像取り込み器310に出力する。カメラ311は、上記撮像部210として機能するものである。   The camera 311 is attached to the HMD 304 so as to be positioned in the vicinity of the viewpoint position of the observer wearing the HMD 304 on the head. The camera 311 captures a moving image of the real space, and the captured image of each frame is an image capturing device. It outputs to 310. The camera 311 functions as the imaging unit 210.

センサ312(6自由度センサ、姿勢センサ、慣性センサなど)は、HMD304を頭部に装着する観察者の視点位置近傍に位置するように、HMD304に取り付けられるものであり、自身の位置姿勢を計測する。計測した結果はRAM307に入力される。なお、センサ312による自身の位置姿勢の計測方法については特に限定するものではない。   A sensor 312 (6-degree-of-freedom sensor, posture sensor, inertial sensor, etc.) is attached to the HMD 304 so as to be positioned in the vicinity of the viewpoint position of the observer wearing the HMD 304 on the head, and measures its own position and posture. To do. The measured result is input to the RAM 307. Note that the method for measuring the position and orientation of the sensor 312 is not particularly limited.

次に、現実空間中に複数配される指標について説明する。   Next, a plurality of indexes arranged in the real space will be described.

図4は、本実施形態で用いる指標を説明する図である。図4(a)は、指標の上面図で、同図に示す如く、指標は、この指標を固有に識別するための識別子が画像(識別子画像)として記された識別子領域と、これを囲む境界領域とで構成されており、例えば紙にこのような各領域をプリントすることで得られる。なお、本実施形態では同図に示す如く、識別子として2次元マトリクスパターンを用いるが、識別子として用いることができるのはこれに限定するものではなく、これ以外にも考えられる。   FIG. 4 is a diagram for explaining indices used in the present embodiment. FIG. 4A is a top view of the index. As shown in the figure, the index includes an identifier area in which an identifier for uniquely identifying the index is described as an image (identifier image) and a boundary surrounding the identifier area. For example, it is obtained by printing each such area on paper. In the present embodiment, a two-dimensional matrix pattern is used as an identifier as shown in the figure. However, the identifier can be used as an identifier, but is not limited thereto.

図4(b)は、指標の一辺に沿った、指標の断面図で、同図に示す如く、識別子領域はレンチキュラによって構成されている。即ち、識別子領域内に記された2次元マトリクスパターンを有する物体(例えば2次元マトリクスパターンが記された面を有する平面物体)上にレンチキュラレンズが配置されている。   FIG. 4B is a cross-sectional view of the index along one side of the index. As shown in FIG. 4B, the identifier region is composed of lenticulars. That is, the lenticular lens is disposed on an object having a two-dimensional matrix pattern written in the identifier area (for example, a planar object having a surface on which the two-dimensional matrix pattern is written).

通常レンチキュラは、視点ごとに異なる像が観察されるようにすることによって三次元画像表示を実現するものであるが、本実施形態では、異なる視点から観察したときでも、識別子領域の投影像がほぼ同じであるようにする。   Usually, a lenticular realizes a three-dimensional image display by allowing a different image to be observed for each viewpoint, but in this embodiment, even when viewed from different viewpoints, the projected image of the identifier region is almost the same. To be the same.

図5(a)は、正面から見た指標(指標を見る観察者の視線ベクトルと指標の法線ベクトルとが略平行となる場合に、この観察者に見える指標)を示す図で、図5(b)は、斜めから見た指標(指標を見る観察者の視線ベクトルと、レンチキュラレンズの長手方向とが略直交している場合に、この観察者に見える指標)を示す図である。それぞれに示すように、指標そのものの画像上での投影像は透視変換の影響を受けているが、識別子領域部分はレンチキュラによってほぼ同一の投影像として観察される。   FIG. 5A is a diagram showing an index viewed from the front (an index that can be seen by an observer when the line-of-sight vector of the observer viewing the index and the normal vector of the index are substantially parallel). (B) is a diagram showing an index viewed from an oblique direction (an index that can be seen by an observer when the line-of-sight vector of the observer viewing the index and the longitudinal direction of the lenticular lens are substantially orthogonal to each other). As shown in each of the figures, the projected image of the index itself on the image is affected by the perspective transformation, but the identifier region portion is observed as almost the same projected image by the lenticular.

図6は、指標の一辺に沿った、指標の断面図である。識別子領域は、レンチキュラレンズと識別子画像から構成される。観察領域v1、v2、v3では、それぞれ異なる画像が観察されるが、同一領域内では同じ画像が観察される。各観察領域は同図に示す如く四角形となる。四角形がレンズ中心から結像面への方向(奥行き方向)に向かって伸びるほど、同じ画像を観察できる領域が奥行き方向に広がる。レンチキュラレンズの焦点距離をf、画像とレンズ中心との距離をa、レンズ中心と結像面との距離をbとした場合、次の式が成り立つ。   FIG. 6 is a cross-sectional view of the index along one side of the index. The identifier area is composed of a lenticular lens and an identifier image. Different images are observed in the observation areas v1, v2, and v3, but the same image is observed in the same area. Each observation area is a quadrangle as shown in FIG. As the quadrangle extends in the direction from the lens center to the imaging plane (depth direction), the region where the same image can be observed expands in the depth direction. When the focal length of the lenticular lens is f, the distance between the image and the lens center is a, and the distance between the lens center and the imaging plane is b, the following equation holds.

1/f=1/a+1/b
観察領域を奥行き方向に広げるためにはレンズ中心と結像面との距離bを大きくする必要があるため、焦点距離fが固定の場合には識別子画像とレンズ中心との距離aを小さく、つまりレンチキュラレンズと画像とを近づける。また、識別子画像とレンズ中心との距離aが固定の場合には、レンチキュラレンズの焦点距離fを大きくする。一方、bは指標を観察する視点位置によって決まるものでもあるため、想定される観察位置でのbを決めてからa、fを調整してもよい。また、識別子領域の大きさLを変えることによっても、奥行き方向の観察領域の広さを変えることが可能である。Lを小さくすることで奥行き方向の観察領域を広げることが出来るが、通常カメラの解像度は有限なので、撮影画像の解像度とのトレードオフになる。
1 / f = 1 / a + 1 / b
In order to widen the observation area in the depth direction, it is necessary to increase the distance b between the lens center and the imaging plane. Therefore, when the focal length f is fixed, the distance a between the identifier image and the lens center is decreased. Bring the lenticular lens closer to the image. When the distance a between the identifier image and the lens center is fixed, the focal length f of the lenticular lens is increased. On the other hand, since b is also determined by the viewpoint position at which the index is observed, a and f may be adjusted after determining b at the assumed observation position. It is also possible to change the size of the observation area in the depth direction by changing the size L of the identifier area. Although the observation area in the depth direction can be expanded by reducing L, the resolution of the captured image is a trade-off because the resolution of the camera is usually finite.

水平方向(結像面に平行な方向)の観察領域を広げるためには、画像とレンズ中心との距離aを小さくするか、または識別子画像を大きくしなければならない。しかし、単純に識別子画像を大きくすると、隣のレンズに写りこむ場合があるため、レンズも同時に大きくしなければならない。これは識別子領域の大きさLを固定とした場合には、レンチキュラレンズの数を減らすことにつながる。また、画像面上での画像位置とレンズ中心とのずれを大きくすることによっても、水平方向(結像面に平行な方向)の観察領域を広げることができる。   In order to widen the observation region in the horizontal direction (direction parallel to the imaging plane), the distance a between the image and the center of the lens must be reduced or the identifier image must be enlarged. However, if the identifier image is simply enlarged, it may appear in the adjacent lens, so the lens must also be enlarged at the same time. This leads to a reduction in the number of lenticular lenses when the size L of the identifier area is fixed. In addition, the observation region in the horizontal direction (direction parallel to the imaging plane) can be expanded by increasing the deviation between the image position on the image plane and the center of the lens.

観察可能な視点の数(図6では3個)は、任意に設定できるが、識別子領域の大きさLと同様に撮影画像の解像度とのトレードオフになる。   The number of viewpoints that can be observed (three in FIG. 6) can be set arbitrarily, but it is a trade-off between the resolution of the captured image and the size L of the identifier area.

本実施形態では、観察領域v1、v2、v3のどの領域から指標を観察しても、識別子領域の投影像がほぼ同じになるように識別子画像を生成しなければならない。観察領域内のすべての点において識別子領域の投影像が同じになるようにすることはできないので、各観察領域内で代表となる点を一つ選び、この代表点において観察する場合に、識別子領域の投影像が同じになるようにする。図6において601〜603で示す各点は結像面上の点であり、観察される指標のフォーカスが各観察領域内で最も合っている点である。本実施形態では、601〜603で示される点を代表点として用いる。   In the present embodiment, the identifier image must be generated so that the projected image of the identifier region is almost the same no matter which of the observation regions v1, v2, and v3 is observed. Since the projected image of the identifier area cannot be the same at all points in the observation area, when one representative point is selected in each observation area and observation is performed at this representative point, the identifier area So that the projected images are the same. In FIG. 6, each point indicated by 601 to 603 is a point on the imaging plane, and the observed index is the best point in each observation region. In the present embodiment, points indicated by 601 to 603 are used as representative points.

図7は識別子画像の構成方法を説明する図である。観察領域内の結像面上の点p1、p2、p3にカメラを置き、指標中心方向を向けて指標を撮影する。点p1、p2、p3において撮影される画像はそれぞれ画像1、画像2、画像3である。図7において、点p2と指標中心を結ぶ方向がレンチキュラと垂直であるとすると、指標を撮影したときの投影像が元の指標と同じ形状となる。そこで、点p1、p3において撮影される指標の識別子領域の投影像が、点p2で撮影された画像2における指標の識別子領域の投影像と略同じ形状になるように識別子画像を構成する。各レンズごとに生成しなければならない観察領域v1、v2、v3用の画像のうち、観察領域v2用の画像は、識別子領域のパターンをそのまま用いる。観察領域v1、v3用の画像は、それぞれ画像1、画像3と、点p1、点p3とレンズ中心を結ぶ線分の交点を求め、その交点座標と同じ画像2上の点の画素を用いる。   FIG. 7 is a diagram for explaining a method for constructing an identifier image. A camera is placed at points p1, p2, and p3 on the imaging plane in the observation area, and the index is photographed with the index center direction directed. Images taken at points p1, p2, and p3 are image 1, image 2, and image 3, respectively. In FIG. 7, assuming that the direction connecting the point p2 and the index center is perpendicular to the lenticular, the projected image when the index is photographed has the same shape as the original index. Therefore, the identifier image is configured such that the projected image of the identifier area of the index photographed at the points p1 and p3 has substantially the same shape as the projected image of the identifier area of the index in the image 2 photographed at the point p2. Of the images for the observation areas v1, v2, and v3 that must be generated for each lens, the image for the observation area v2 uses the pattern of the identifier area as it is. As the images for the observation areas v1 and v3, intersection points of line segments connecting the image centers of the image 1 and the image 3 and the points p1 and p3 and the lens center are obtained, and the pixels of the same point on the image 2 as the intersection coordinates are used.

本実施形態では、以上のようにして構成された指標を複数現実空間中に配する。また、外部記憶装置305内には、指標の識別子とこの指標の世界座標系における位置(指標の位置としては、例えば、指標の重心位置を用いる)のセットが指標毎に予め登録されている。従って、ある識別子を指定すると、この指標の世界座標系における位置は外部記憶装置305内を検索すれば得られる。   In the present embodiment, the indicators configured as described above are arranged in a plurality of real spaces. In the external storage device 305, a set of an identifier of the index and a position of the index in the world coordinate system (for example, the position of the index center of gravity is used as the index position) is registered in advance for each index. Accordingly, when a certain identifier is designated, the position of this index in the world coordinate system can be obtained by searching the external storage device 305.

次に、上記コンピュータが行う処理について説明する。上述の通り、現実空間中には上述のような指標が複数配されている。HMD304に取り付けられているカメラ311は、このような現実空間を撮像するので、撮像した画像は画像取り込み器310を介してRAM307に入力され、そこに一時的に記憶される。   Next, processing performed by the computer will be described. As described above, a plurality of such indicators are arranged in the real space. Since the camera 311 attached to the HMD 304 images such a real space, the captured image is input to the RAM 307 via the image capturing device 310 and temporarily stored therein.

次に、CPU301は、指標同定部230として機能し、RAM307に入力した画像から、指標と思われる投影像を検出し、検出した投影像が何れの指標の投影像であるのかを同定する処理を行う。図8は、このような処理、即ち、指標と思われる投影像を検出し、検出した投影像が何れの指標の投影像であるのかを同定する処理のフローチャートである。   Next, the CPU 301 functions as the index identification unit 230, detects a projected image that is considered to be an index from the image input to the RAM 307, and identifies which index is the detected projection image. Do. FIG. 8 is a flowchart of such a process, that is, a process for detecting a projected image that seems to be an index and identifying which index the detected projected image is.

先ず、画像から、指標と思われる投影像(指標領域)を検出する処理を行う(ステップS201)。このような検出処理としては、例えば、画像を構成する各画素値を参照し、特定の色を表す画素をYUV色空間画像の特定領域にあるかどうかで抽出し、連結している画素をラベリングすることによって、指標の境界領域を検出する。なお、本ステップにおける検出処理では、検出した指標領域の画像座標をも検出する。なお、本ステップにおける処理は周知のものであるので、これ以上の説明は省略する。   First, a process of detecting a projected image (index area) that seems to be an index from an image is performed (step S201). As such detection processing, for example, each pixel value constituting an image is referred to, a pixel representing a specific color is extracted based on whether or not it is in a specific region of the YUV color space image, and the connected pixels are labeled. By doing so, the boundary region of the index is detected. In the detection process in this step, the image coordinates of the detected index area are also detected. Since the processing in this step is well known, further explanation is omitted.

このようにして、画像から指標領域の検出処理を行う。そして検出すると、変数nを1つインクリメントする。即ち変数nには、現在検出した指標領域の数が格納されていることになる。なお、この変数nは本処理の開始時には0に初期化されている。   In this way, the index region is detected from the image. When detected, the variable n is incremented by one. That is, the number of index areas detected at present is stored in the variable n. This variable n is initialized to 0 at the start of this process.

次に、以上の検出処理を終えると、変数nの値を参照し、0であるか否かをチェックする(ステップS202)。チェックの結果、変数nの値が0である場合、即ち、画像中に1つも指標領域が検出されなかった場合には、本処理を終了するのであるが、変数nの値が1以上である場合には処理をステップS203に進め、変数iを1に初期化する(ステップS203)。変数iは、検出した指標領域に対するインデックスを示すものである。   Next, when the above detection processing is completed, the value of the variable n is referred to and it is checked whether or not it is 0 (step S202). As a result of the check, when the value of the variable n is 0, that is, when no index area is detected in the image, the present process is terminated, but the value of the variable n is 1 or more. In this case, the process proceeds to step S203, and variable i is initialized to 1 (step S203). The variable i indicates an index for the detected index region.

そして、指標領域i内の識別子を読み出す処理を行う(ステップS204)。識別子の読み出しは、例えばパターンマッチングなどによって行う。また、識別子のパターンが2次元マトリクスコードである場合には、マトリクス領域を検出し、画像から直接画素を読み出すことで識別子の読み出しを行う。なお、撮像画像に写っているパターンを読み出し、そのパターンを解析する処理については周知のものであるので、これに関する説明は省略する。   And the process which reads the identifier in the parameter | index area | region i is performed (step S204). The identifier is read by, for example, pattern matching. When the identifier pattern is a two-dimensional matrix code, the matrix area is detected, and the identifier is read by reading the pixels directly from the image. In addition, since the process which reads the pattern reflected in the captured image and analyzes the pattern is a well-known thing, description regarding this is abbreviate | omitted.

ここで、レンチキュラの視点数や、実際の視点と観察領域の代表点(図7におけるp1、p2、p3)とのずれによって、必ずしも透視投影の影響がなくなるわけではないが、指標の大きさLに比べて観察距離(レンチキュラのレンズ中心から結像面までの距離)bが十分に大きいと仮定して、透視投影の影響を無視する。指標の識別子領域が透視投影の影響を受けていないとすると、カメラ311で撮影される画像中の識別子領域の投影像をそのまま識別子の読み出しに用いることが出来る。   Here, although the number of viewpoints of the lenticular and the deviation between the actual viewpoint and the representative points of the observation area (p1, p2, and p3 in FIG. 7) do not necessarily eliminate the influence of the perspective projection, the index size L Assuming that the observation distance (distance from the lens center of the lenticular lens to the image plane) b is sufficiently larger than that of FIG. If the identifier area of the index is not affected by perspective projection, the projected image of the identifier area in the image captured by the camera 311 can be used as it is for reading the identifier.

次に、変数iの値が変数nの値と同じであるか否か、即ち、検出した全ての指標領域についてステップS204による識別子読み出し処理を行ったか否かを判断し(ステップS205)、i=n、即ち、検出した全ての指標領域についてステップS204による識別子読み出し処理を行った場合には本処理を終了するのであるが、i≠nの場合、即ち、検出した全ての指標領域についてステップS204による識別子読み出し処理を行っていない場合には処理をステップS206に進め、変数iを1つインクリメントし、未だ識別子読み取り処理を行っていない次の指標領域についてステップS204以降の処理を行う。   Next, it is determined whether or not the value of the variable i is the same as the value of the variable n, that is, whether or not the identifier reading process in step S204 has been performed for all detected index areas (step S205). When the identifier reading process in step S204 is performed for n, that is, for all detected index areas, this process ends. However, in the case of i ≠ n, that is, for all detected index areas, the process proceeds to step S204. If the identifier reading process has not been performed, the process proceeds to step S206, the variable i is incremented by 1, and the processes after step S204 are performed for the next index region that has not yet been subjected to the identifier reading process.

このように、レンチキュラレンズを用いることによって、指標に対するカメラ311の撮影角度に関係なく、指標に記された識別子を読み取ることができる。   As described above, by using the lenticular lens, the identifier written on the index can be read regardless of the shooting angle of the camera 311 with respect to the index.

次に、CPU301は位置姿勢算出部240として機能し、カメラ311の位置姿勢を算出する。そのために先ず、CPU301は、上記ステップS204で読み出したそれぞれの識別子に対応して外部記憶装置305に保存されている世界座標系における位置を読み出す。そして、ステップS201で検出した「それぞれの指標領域の画像面上における座標位置と、それぞれの指標の世界座標系における位置と、を用いて周知の方法により、カメラ311の位置姿勢を算出する。   Next, the CPU 301 functions as the position / orientation calculation unit 240 and calculates the position / orientation of the camera 311. For this purpose, first, the CPU 301 reads the position in the world coordinate system stored in the external storage device 305 corresponding to each identifier read in step S204. Then, the position / orientation of the camera 311 is calculated by a known method using the “coordinate positions on the image plane of the respective index regions and the positions of the respective indices in the world coordinate system” detected in step S201.

例えば、非特許文献2の方法を利用してカメラ311の世界座標系における位置姿勢を求める場合について説明する。非特許文献2の方法では、カメラとカメラによって撮影されるオブジェクトの相対位置姿勢をモデルフィッティングによって求めている。つまり、撮影されるオブジェクトのモデルデータがコンピュータ内に保持されており、相対位置姿勢をもとに計算される画像面上でのモデルの位置と、オブジェクトの実際に撮影された画像上での位置との誤差が最小になるように、ニュートン法による繰り返し演算によってモデルの位置姿勢を最適化する。本実施形態では、複数の指標をまとめて一つのグループ(モデル)とすることによって、指標のグループのカメラに対する相対位置姿勢を求め、さらに既知である指標の世界座標系における位置をもとにカメラの世界座標系における位置姿勢を求める。なお、相対位置姿勢には初期値が必要であるが、ここでは前フレームでのカメラの位置姿勢を用いる。この場合、初期フレームでは固定位置にカメラを置くなどして、初期値を設定する。   For example, a case where the position and orientation of the camera 311 in the world coordinate system is obtained using the method of Non-Patent Document 2 will be described. In the method of Non-Patent Document 2, the relative position and orientation of a camera and an object photographed by the camera are obtained by model fitting. In other words, the model data of the object to be photographed is held in the computer, the model position on the image plane calculated based on the relative position and orientation, and the position of the object on the actually photographed image The position and orientation of the model are optimized by iterative calculation using the Newton method so that the error between the model and the model is minimized. In the present embodiment, a plurality of indices are combined into one group (model) to obtain a relative position and orientation of the index group with respect to the camera, and the camera based on the position of the known index in the world coordinate system. Find the position and orientation in the world coordinate system. Note that an initial value is required for the relative position and orientation, but here the position and orientation of the camera in the previous frame is used. In this case, the initial value is set by placing the camera at a fixed position in the initial frame.

また、センサ312の出力を利用できる場合には、例えば特許文献1に開示されている方法などを用いてカメラ311の世界座標系における位置姿勢を算出する。センサ312として6自由度センサを用いている場合を想定すると、6自由度センサの出力値をカメラ311の位置姿勢として、世界座標系での位置が既知のマーカの画像上での投影位置を計算し、実際の画像における投影位置とのずれを、カメラ311の姿勢または位置を補正することによって修正することによって、カメラ311の位置姿勢を求める。   When the output of the sensor 312 can be used, the position and orientation of the camera 311 in the world coordinate system is calculated using, for example, the method disclosed in Patent Document 1. Assuming that a 6-DOF sensor is used as the sensor 312, the projection position on the image of the marker whose position in the world coordinate system is known is calculated using the output value of the 6-DOF sensor as the position and orientation of the camera 311 Then, the position and orientation of the camera 311 are obtained by correcting the deviation from the projection position in the actual image by correcting the orientation or position of the camera 311.

次に、CPU301はグラフィックアクセラレータ302を制御して、上述の処理で求めたカメラ311の世界座標系における位置姿勢と、予めキャリブレーション済みのカメラ311の内部パラメータ(焦点距離、主点位置など)に基づいて、このカメラ311から見える仮想空間の画像を生成する。   Next, the CPU 301 controls the graphic accelerator 302 so that the position and orientation of the camera 311 in the world coordinate system obtained by the above processing and the internal parameters (focal length, principal point position, etc.) of the camera 311 that have been calibrated in advance. Based on this, an image of the virtual space that can be seen from the camera 311 is generated.

次に、CPU301は、画像合成部260として機能し、先にRAM307に格納された現実空間の画像上に、仮想空間の画像を重畳させることで、複合現実空間の画像を生成する。そして、生成した画像をHMD304に出力する。   Next, the CPU 301 functions as the image composition unit 260 and generates a mixed reality space image by superimposing a virtual space image on the real space image previously stored in the RAM 307. Then, the generated image is output to the HMD 304.

以上の説明により、本実施形態によって、複数の異なる観察視点における指標の識別子領域の投影像がほぼ同一となるように構成された指標を用いて、斜め方向から指標を観察した場合でも指標を正しく同定することが可能になる。   As described above, according to the present embodiment, the index is correctly set even when the index is observed from an oblique direction using the index configured so that the projected images of the identifier areas of the index at a plurality of different observation viewpoints are substantially the same. It becomes possible to identify.

[第2の実施形態]
本実施形態で用いる指標は、第1の実施形態で用いた指標に更に、指標領域内の識別子を誤って識別することを防ぐ為の構成を付加したものを用いる。
[Second Embodiment]
The index used in the present embodiment is the index used in the first embodiment to which a configuration for preventing the identifier in the index area from being erroneously identified is added.

図9は、本実施形態で用いる指標を説明する図である。図9(a)は、指標の上面図で、同図に示す如く、本実施形態に係る指標は、識別子領域に加え、どの観察領域から指標を観察しているか(例えば、図6に示した観察領域代表点601〜603の何れから観察しているのか)を示す識別子(視点識別子)を記した領域(視点識別子領域)が境界領域内に設けられている。なお、本実施形態では同図に示す如く、視点識別子として1次元マトリクスパターンを用いるが、視点識別子として用いることができるのはこれに限定するものではなく、これ以外にも考えられる。   FIG. 9 is a diagram for explaining an index used in the present embodiment. FIG. 9A is a top view of the index. As shown in FIG. 9, the index according to the present embodiment is from which observation area the index is observed in addition to the identifier area (for example, as shown in FIG. 6). An area (viewpoint identifier area) in which an identifier (viewpoint identifier) indicating which of the observation area representative points 601 to 603 is observed) is provided in the boundary area. In the present embodiment, a one-dimensional matrix pattern is used as the viewpoint identifier as shown in the figure. However, the viewpoint identifier is not limited to this, and other viewpoints can be considered.

図9(b)は、指標の一辺に沿った、指標の断面図で、同図に示す如く、識別子領域、視点識別子領域はレンチキュラによって構成されている。即ち、識別子領域内に記された2次元マトリクスパターン、視点識別子領域内に記された1次元マトリクスパターン上にレンチキュラレンズが配置されている。本実施形態では、異なる視点から観察したときでも、識別子領域の投影像がほぼ同じであるようにするのは第1の実施形態と同じであるが、視点識別子領域については、上述の通り、この領域内に記される視点識別子が、どの観察領域から指標を観察しているかを示すものであるので、異なる視点から観察した場合には、その視点が属する観察領域に応じたパターンが観察されるようにする。   FIG. 9B is a cross-sectional view of the index along one side of the index. As shown in the figure, the identifier area and the viewpoint identifier area are configured by lenticulars. That is, the lenticular lens is arranged on the two-dimensional matrix pattern written in the identifier area and the one-dimensional matrix pattern written in the viewpoint identifier area. In the present embodiment, even when observed from different viewpoints, the projected image of the identifier area is substantially the same as in the first embodiment, but the viewpoint identifier area is as described above. Since the viewpoint identifier written in the area indicates from which observation area the index is observed, when observing from a different viewpoint, a pattern corresponding to the observation area to which the viewpoint belongs is observed Like that.

図10(a)は、正面から見た指標(指標を見る観察者の視線ベクトルと指標の法線ベクトルとが略平行となる場合に、この観察者に見える指標)を示す図で、図10(b)は、斜めから見た指標(指標を見る観察者の視線ベクトルと、レンチキュラレンズの長手方向とが略直交している場合に、この観察者に見える指標)を示す図である。それぞれに示すように、指標そのものの画像上での投影像は透視変換の影響を受けているが、識別子領域部分はレンチキュラによってほぼ同一の投影像として観察される。しかし、視点識別子領域部分については、視点を変化させると、それに応じて異なる投影像が観察される。   FIG. 10A is a diagram showing an index viewed from the front (an index that can be seen by an observer when the observer's line-of-sight vector viewing the index and the normal vector of the index are substantially parallel). (B) is a diagram showing an index viewed from an oblique direction (an index that can be seen by an observer when the line-of-sight vector of the observer viewing the index and the longitudinal direction of the lenticular lens are substantially orthogonal to each other). As shown in each of the figures, the projected image of the index itself on the image is affected by the perspective transformation, but the identifier region portion is observed as almost the same projected image by the lenticular. However, regarding the viewpoint identifier area portion, when the viewpoint is changed, different projection images are observed accordingly.

図11は、指標と思われる投影像を検出し、検出した投影像が何れの指標の投影像であるのかを同定すると共に、同定した結果が誤ったものであるのか否かをチェックする処理のフローチャートである。なお、同図のフローチャートに従った処理を、上記図8のフローチャートに従った処理の代わりに行うことで、より高精度な指標検出に基いて、カメラ311の位置姿勢算出処理を行うことができる。   FIG. 11 shows a process of detecting a projected image that seems to be an index, identifying which index the detected projection image is, and checking whether the identified result is incorrect. It is a flowchart. In addition, by performing the process according to the flowchart of FIG. 9 instead of the process according to the flowchart of FIG. 8, the position / orientation calculation process of the camera 311 can be performed based on the detection of the index with higher accuracy. .

先ず、画像から、指標と思われる投影像(指標領域)を検出する処理を行う(ステップS301)。本ステップにおける処理は、上記ステップS201と同様にして行う。そして検出すると、変数nを1つインクリメントする。なお、この変数nは本処理の開始時には0に初期化されている。   First, a process of detecting a projected image (index area) that seems to be an index from an image is performed (step S301). The processing in this step is performed in the same manner as in step S201. When detected, the variable n is incremented by one. This variable n is initialized to 0 at the start of this process.

次に、以上の検出処理を終えると、変数nの値を参照し、0であるか否かをチェックする(ステップS302)。チェックの結果、変数nの値が0である場合、即ち、画像中に1つも指標領域が検出されなかった場合には、本処理を終了するのであるが、変数nの値が1以上である場合には処理をステップS303に進め、以降の処理で使用するフラグFi(i=1,2,3,、、、n)をFALSEに初期化する(ステップS303)。このフラグは検出された指標が正しく同定されて位置姿勢算出において利用可能かを示すフラグである。   Next, when the above detection processing is completed, the value of the variable n is referred to and it is checked whether or not it is 0 (step S302). As a result of the check, when the value of the variable n is 0, that is, when no index area is detected in the image, the present process is terminated, but the value of the variable n is 1 or more. In this case, the process proceeds to step S303, and flags Fi (i = 1, 2, 3,..., N) used in the subsequent processes are initialized to FALSE (step S303). This flag indicates whether or not the detected index is correctly identified and can be used in position and orientation calculation.

次に、変数iを1に初期化する(ステップS304)。変数iは、検出した指標領域に対するインデックスを示すものである。そして、指標領域i内の識別子を読み出す処理を行う(ステップS305)。本ステップにおける処理は、上記ステップS204と同様にして行う。   Next, the variable i is initialized to 1 (step S304). The variable i indicates an index for the detected index region. And the process which reads the identifier in the parameter | index area | region i is performed (step S305). The processing in this step is performed in the same manner as in step S204.

次に、変数iの値が変数nの値と同じであるか否か、即ち、検出した全ての指標領域についてステップS305による識別子読み出し処理を行ったか否かを判断し(ステップS306)、i=n、即ち、検出した全ての指標領域についてステップS305による識別子読み出し処理を行った場合には処理をステップS308に進めるのであるが、i≠nの場合、即ち、検出した全ての指標領域についてステップS305による識別子読み出し処理を行っていない場合には処理をステップS307に進め、変数iを1つインクリメントし、未だ識別子読み取り処理を行っていない次の指標領域についてステップS305以降の処理を行う。   Next, it is determined whether or not the value of the variable i is the same as the value of the variable n, that is, whether or not the identifier reading process in step S305 has been performed for all detected index areas (step S306). If the identifier reading process in step S305 is performed for n, that is, all detected index areas, the process proceeds to step S308. If i ≠ n, that is, step S305 is performed for all detected index areas. If the identifier reading process is not performed, the process proceeds to step S307, the variable i is incremented by 1, and the process from step S305 onward is performed for the next index area for which the identifier reading process is not yet performed.

以上の処理により、指標検出処理を行うことができる。次に、ステップS308以降の処理によって、この検出したそれぞれの指標が正しく同定されて位置姿勢算出において利用可能かをチェックする。   The index detection process can be performed by the above process. Next, it is checked whether or not each detected index is correctly identified and can be used in position and orientation calculation by the processing after step S308.

先ず、以降の処理で用いる変数iを1に初期化する(ステップS308)。そして、指標領域i内の視点識別子を読み出す処理を行う(ステップS309)。本ステップにおける処理は、上記ステップS204と同様にして行う。なお、視点識別子の読み出しは識別子の読み出しと同時に行ってもよい。   First, the variable i used in the subsequent processing is initialized to 1 (step S308). And the process which reads the viewpoint identifier in the parameter | index area | region i is performed (step S309). The processing in this step is performed in the same manner as in step S204. Note that the viewpoint identifier may be read simultaneously with the reading of the identifier.

次に、指標領域iが正しく同定されたか否かをチェックする(ステップS310)。このチェック処理は、識別子と視点識別子の双方が正しく読み出されているかどうかを判定することによって行われる。   Next, it is checked whether or not the index area i has been correctly identified (step S310). This check process is performed by determining whether both the identifier and the viewpoint identifier are read correctly.

より具体的には、先ず、読み出された視点識別子から、カメラ311のおおまかな位置姿勢を求める。視点識別子は、複数の観察領域の何れから指標を観察しているのかを示すものであるので、この視点識別子を読み取れば、この視点識別子を観察しているカメラ311が配置されている観察領域を特定することができる。ここでは、特定した観察領域内の代表点にカメラ311が配置されているものとする。例えば、読み取った視点識別子が観察領域v1を示すものである場合には、カメラ311は601で示す位置に配置されていると大まかに推定する。   More specifically, first, an approximate position and orientation of the camera 311 is obtained from the read viewpoint identifier. Since the viewpoint identifier indicates from which of the plurality of observation areas the index is being observed, if this viewpoint identifier is read, the observation area where the camera 311 observing the viewpoint identifier is arranged is displayed. Can be identified. Here, it is assumed that the camera 311 is arranged at a representative point in the specified observation area. For example, when the read viewpoint identifier indicates the observation region v1, it is roughly estimated that the camera 311 is arranged at the position indicated by 601.

また、カメラ311の姿勢については、大まかに推定したカメラ311の配置位置から、指標領域i内の識別子で特定される指標の世界座標系における位置に向かう方向をカメラ311の姿勢とする。   Regarding the posture of the camera 311, the direction from the roughly estimated placement position of the camera 311 toward the position in the world coordinate system of the index specified by the identifier in the index area i is defined as the posture of the camera 311.

よって、外部記憶装置305には予め、視点識別子と、この視点識別子が示す観察領域内の代表点の位置とをセットにして、視点識別子毎に登録しておく。これにより、視点識別子が決まると、代表点の位置が一意に決まる。また、求めた代表点の位置から、指標への方向をカメラ311の姿勢として求めることができる。   Therefore, the viewpoint identifier and the position of the representative point in the observation area indicated by the viewpoint identifier are registered in advance in the external storage device 305 for each viewpoint identifier. Thus, when the viewpoint identifier is determined, the position of the representative point is uniquely determined. Further, the direction to the index can be obtained as the posture of the camera 311 from the obtained position of the representative point.

そして、大まかに決めたカメラ311の位置姿勢と、既知である指標の世界座標における位置、カメラ311の内部パラメータをもとに、大まかに推定した位置姿勢を有するカメラ311から見える画像面上での指標の座標位置を計算で求める。よって、この座標位置と、ステップS301で検出した指標領域iの座標位置とを比べ、両方とも画像内に位置し、且つ所定距離以内に位置する場合には、指標領域iの指標については誤った同定は行っていないものとして判断する。   Then, based on the roughly determined position and orientation of the camera 311, the position of the known index in the world coordinates, and the internal parameters of the camera 311, the image on the image plane that can be seen from the camera 311 having the roughly estimated position and orientation. Calculate the coordinate position of the index. Therefore, if this coordinate position is compared with the coordinate position of the index region i detected in step S301 and both are located in the image and within a predetermined distance, the index of the index region i is incorrect. It is judged that identification has not been performed.

なお、指標領域iが正しく同定されたか否かをチェックする処理についてはこれ以外にも考えられ、以上の処理に限定するものではない。   In addition, the process for checking whether or not the index region i is correctly identified can be considered other than this, and is not limited to the above process.

そして以上のチェック処理の結果、指標領域iが正しく同定された場合には処理をステップS311に進め、フラグFiをTRUEにセットする(ステップS311)。   If the index region i is correctly identified as a result of the above check processing, the processing proceeds to step S311 and the flag Fi is set to TRUE (step S311).

次に、変数iの値が変数nの値と同じであるか否か、即ち、検出した全ての指標領域についてステップS309〜ステップS311の処理を行ったか否かを判断し(ステップS312)、i=n、即ち、検出した全ての指標領域についてステップS309〜ステップS311の処理を行った場合には本処理を終了するのであるが、i≠nの場合、即ち、検出した全ての指標領域についてステップS309〜ステップS311の処理を行っていない場合には処理をステップS313に進め、変数iを1つインクリメントし、未だステップS309〜ステップS311の処理を行っていない次の指標領域についてステップS309以降の処理を行う。   Next, it is determined whether or not the value of the variable i is the same as the value of the variable n, that is, whether or not the processing of steps S309 to S311 has been performed for all detected index regions (step S312). = N, i.e., if the processing of steps S309 to S311 is performed for all the detected index regions, this processing is terminated. If i ≠ n, that is, the steps are performed for all detected index regions. If the process from S309 to S311 has not been performed, the process proceeds to step S313, the variable i is incremented by 1, and the process after step S309 is performed for the next index region that has not yet been subjected to the process from step S309 to step S311. I do.

次に、CPU301は位置姿勢算出部240として機能し、第1の実施形態と同様にしてカメラ311の位置姿勢を算出するのであるが、その際、用いる指標は、フラグFiがTRUEであるもののみを用いる。   Next, the CPU 301 functions as the position / orientation calculation unit 240 and calculates the position / orientation of the camera 311 in the same manner as in the first embodiment. In this case, the only indicator used is that whose flag Fi is TRUE. Is used.

以上の説明により、本実施形態によって、指標が空間中のどのあたりから撮影されたかを同定するために、視点識別子領域を加えることで、誤った同定が行われた指標を検出することができる。   As described above, according to the present embodiment, it is possible to detect an erroneously identified index by adding a viewpoint identifier region in order to identify where in the space the index was taken.

なお、本実施形態において指標領域について誤った同定処理が行われたのかのチェック処理は、上述したようにチェック対象の指標領域の画像面上での位置に基づいて行ってもよいし、複数の指標領域の画像面上での位置に基づいて行ってもよい。   In the present embodiment, the check processing as to whether the erroneous identification processing has been performed for the index region may be performed based on the position of the index region to be checked on the image surface as described above, or a plurality of processing may be performed. You may perform based on the position on the image surface of a parameter | index area | region.

[第3の実施形態]
本実施形態では、第2の実施形態で用いた指標と同じものを用いて、指標の優先度を決定する。即ち、コンピュータのCPUパワーなどの問題から、位置姿勢算出に用いる指標の数を限定したい場合、またはなるべく信頼性の高い指標だけを使って位置姿勢算出を行いたい場合には、信頼性をもとに利用する指標に優先度を与え、優先度の高いものから利用する。
[Third Embodiment]
In the present embodiment, the priority of the index is determined using the same index as that used in the second embodiment. That is, if you want to limit the number of indices used for position / orientation calculation due to problems such as computer CPU power, or if you want to perform position / orientation calculation using only reliable indices as much as possible, use reliability. Give priority to the index used for, and use from the highest priority.

レンチキュラを用いた指標を観察する場合、指標を真上から観察するよりも、斜め方向から観察する方が観察領域から外れやすい。そのため、真上から観察されている指標の優先度を最も高くし、視線方向と指標の法線方向が垂直に近くなればなるほど優先度を低くすることによって、観察された指標に優先度を与えることができる。   When observing an index using a lenticular, observing from an oblique direction is more likely to be out of the observation region than observing the index from directly above. Therefore, give priority to the observed index by making the priority of the index observed from directly above the highest, and lowering the priority as the line-of-sight direction and the normal direction of the index become closer to vertical. be able to.

図12は、指標と思われる投影像を検出し、検出した投影像が何れの指標の投影像であるのかを同定すると共に、同定した指標に対して優先度を設定するための処理のフローチャートである。   FIG. 12 is a flowchart of processing for detecting a projected image that is considered to be an index, identifying which index the detected projection image is, and setting a priority for the identified index. is there.

先ず、ステップS201と同様にして、画像から、指標と思われる投影像(指標領域)を検出する処理を行う(ステップS401)。そして検出すると、変数nを1つインクリメントする。即ち変数nには、現在検出した指標領域の数が格納されていることになる。なお、この変数nは本処理の開始時には0に初期化されている。   First, similarly to step S201, a process of detecting a projected image (index area) that is considered to be an index from an image is performed (step S401). When detected, the variable n is incremented by one. That is, the number of index areas detected at present is stored in the variable n. This variable n is initialized to 0 at the start of this process.

次に、以上の検出処理を終えると、変数nの値を参照し、0であるか否かをチェックする(ステップS402)。チェックの結果、変数nの値が0である場合、即ち、画像中に1つも指標領域が検出されなかった場合には、本処理を終了するのであるが、変数nの値が1以上である場合には処理をステップS403に進め、変数iを1に初期化する(ステップS403)。変数iは、検出した指標領域に対するインデックスを示すものである。   Next, when the above detection processing is completed, the value of the variable n is referred to and it is checked whether or not it is 0 (step S402). As a result of the check, when the value of the variable n is 0, that is, when no index area is detected in the image, the present process is terminated, but the value of the variable n is 1 or more. In this case, the process proceeds to step S403, and the variable i is initialized to 1 (step S403). The variable i indicates an index for the detected index region.

そして、ステップS309と同様にして、指標領域i内の視点識別子を読み出す処理を行う(ステップS404)。そして、読み出した視点識別子を用いて、指標領域iに対する優先度を設定する(ステップS405)。この優先度の設定について、図13を用いて説明する。図13は、優先度の設定について説明する図である。上述の通り、指標中心の真上の観察領域を最も優先度を高くし、観察領域が指標中心からずれるに従って優先度を低くしていく。   Then, similarly to step S309, a process of reading the viewpoint identifier in the index area i is performed (step S404). Then, the priority for the index area i is set using the read viewpoint identifier (step S405). This priority setting will be described with reference to FIG. FIG. 13 is a diagram for explaining setting of priority. As described above, the highest priority is given to the observation area directly above the index center, and the priority is lowered as the observation area is shifted from the index center.

上述の通り、視点識別子は、複数の観察領域の何れから指標を観察しているのかを示すものであるので、この視点識別子を読み取れば、これに対応する観察領域が、指標中心に近いものであるのか否かをチェックすることができる。例えば、視点識別子として、指標領域を真上から見た場合に見える視点識別子をパターン1、指標領域を真上から斜め45°から見た場合に見える視点識別子をパターン2、指標領域を真上から斜め60°から見た見た場合に見える視点識別子をパターン3とすると、パターン1、パターン2、パターン3の順に高い優先度を外部記憶装置305に登録しておく。   As described above, since the viewpoint identifier indicates from which of the plurality of observation areas the index is observed, if the viewpoint identifier is read, the corresponding observation area is close to the index center. You can check if there is. For example, as a viewpoint identifier, a viewpoint identifier that is visible when the index area is viewed from directly above is pattern 1, a viewpoint identifier that is visible when the index area is viewed from obliquely 45 ° from directly above is pattern 2, and the index area is directly from above If the viewpoint identifier that can be seen when viewed from an oblique angle of 60 ° is pattern 3, the higher priority of pattern 1, pattern 2, and pattern 3 is registered in the external storage device 305 in this order.

これにより、ステップS404で指標領域i内の識別子領域としてパターン2が読み取られると、この指標領域iに対しては2番目に高い優先度を設定する。   Thus, when the pattern 2 is read as the identifier area in the index area i in step S404, the second highest priority is set for the index area i.

次に、変数iの値が変数nの値と同じであるか否か、即ち、検出した全ての指標領域についてステップS404,S405の処理を行ったか否かを判断し(ステップS406)、i=n、即ち、検出した全ての指標領域についてステップS404,S405による処理を行った場合には処理をステップS408に進めるのであるが、i≠nの場合、即ち、検出した全ての指標領域についてステップS404,S405による処理を行っていない場合には処理をステップS407に進め、変数iを1つインクリメントし、未だステップS404,S405の処理を行っていない次の指標領域についてステップS404以降の処理を行う。   Next, it is determined whether or not the value of the variable i is the same as the value of the variable n, that is, whether or not the processing of steps S404 and S405 has been performed for all detected index areas (step S406). If n is performed, that is, if the processing in steps S404 and S405 is performed for all detected index regions, the process proceeds to step S408. If i ≠ n, that is, step S404 is performed for all detected index regions. , S405 is not performed, the process proceeds to step S407, the variable i is incremented by one, and the process after step S404 is performed for the next index region that has not been subjected to the processes of steps S404, S405.

以上の処理により、それぞれの指標領域に対して、読み取られた視点識別子に基づいて優先度を設定することができる。次に、ステップS408以降の処理によって、優先度に基づいて、実際に使用する指標を選択する処理について説明する。   Through the above processing, priority can be set for each index region based on the read viewpoint identifier. Next, a process of selecting an index to be actually used based on the priority by the process after step S408 will be described.

次に、設定された優先度が高いもの順にそれぞれの指標領域をソートする(ステップS408)。次に、以降の処理で用いる変数jを1に初期化する(ステップS409)。そして、次に、上記ステップS204と同様にして、指標領域j内の識別子を読み出す処理を行う(ステップS410)。即ち、ステップS410で最初に読み出されるものは、最も優先度が高い指標領域内の識別子となる。なお、識別子の読み出しは、視点識別子読出しと同時に行ってもよい。   Next, the index areas are sorted in descending order of the set priority (step S408). Next, the variable j used in the subsequent processing is initialized to 1 (step S409). Then, similarly to the above step S204, a process for reading the identifier in the index region j is performed (step S410). That is, the first read out in step S410 is the identifier in the index area with the highest priority. The reading of the identifier may be performed simultaneously with the reading of the viewpoint identifier.

次に、変数jの値が、カメラ311の位置姿勢算出のために用いる指標の数として予め決めた値mと同じであるのか否かを判断し(ステップS411)、j=mである場合には本処理を終了するのであるが、j≠mである場合には、処理をステップS412に進め、変数jの値が画像中の指標領域の数nに同じであるか否かを判断し(ステップS412)、同じである場合には本処理を終了するのであるが、同じではない場合には処理をステップS413に進め、変数jの値を1つインクリメントし(ステップS413)、ステップS410以降の処理を繰り返す。   Next, it is determined whether or not the value of the variable j is the same as the value m determined in advance as the number of indices used for calculating the position and orientation of the camera 311 (step S411), and when j = m. Ends this process, but if j ≠ m, the process proceeds to step S412 to determine whether or not the value of the variable j is equal to the number n of index regions in the image ( If they are the same, the process is terminated. If they are not the same, the process proceeds to step S413 and the value of variable j is incremented by 1 (step S413). Repeat the process.

なお、以上の処理では、カメラ311の位置姿勢算出に用いる指標の数をあらかじめ決めておいたが、優先度に対して閾値を設定し、閾値以上の(または閾値より大きい)優先度を持つ指標だけを位置姿勢算出に用いるようにしてもよい。   In the above processing, the number of indices used for calculating the position and orientation of the camera 311 is determined in advance. However, a threshold is set for the priority, and the index has a priority equal to or greater than (or greater than) the threshold. Only the position / orientation calculation may be used.

以上の説明により、本実施形態によれば、視点識別子領域から読み出される視点識別子を用いて指標の優先度を設定し、設定した優先度に基づいて位置姿勢算出に用いる指標を決定するので、より信頼度の高い指標のみを用いてカメラ311の位置姿勢を算出することができ、より精度の高い位置姿勢算出処理を行うことができる。   As described above, according to the present embodiment, the priority of the index is set using the viewpoint identifier read from the viewpoint identifier area, and the index used for position and orientation calculation is determined based on the set priority. The position and orientation of the camera 311 can be calculated using only the highly reliable index, and more accurate position and orientation calculation processing can be performed.

[第4の実施形態]
第2,3の実施形態では、識別子領域、視点識別子領域を別個に設けているので、識別子の読み取りと、視点識別子の読み取りを別個に行っていた。本実施形態では、これらを1つにまとめ、識別子、視点識別子をまとめて読み取る。以下では、識別子と視点識別子とをまとめた1つの識別子を統一識別子と呼称する。
[Fourth Embodiment]
In the second and third embodiments, since the identifier area and the viewpoint identifier area are provided separately, the reading of the identifier and the reading of the viewpoint identifier are performed separately. In the present embodiment, these are combined into one, and the identifier and the viewpoint identifier are read together. Hereinafter, one identifier obtained by combining the identifier and the viewpoint identifier is referred to as a unified identifier.

図14は、本実施形態で用いる指標を説明する図である。図14(a)は、指標の上面図である。図14(b)は、指標の一辺に沿った、指標の断面図である。それぞれの図に示すように、統一識別子のうち、識別子については何れの視点から見ても略同じパターンが観察されるが、視点識別子については視点に応じて、観察されるパターンが異なる。よって、それぞれのパターン、及びレンチキュラレンズを上述のように調整する必要がある。   FIG. 14 is a diagram for explaining indices used in the present embodiment. FIG. 14A is a top view of the index. FIG. 14B is a cross-sectional view of the index along one side of the index. As shown in each figure, among the unified identifiers, substantially the same pattern is observed from any viewpoint, but the observed pattern differs depending on the viewpoint. Therefore, it is necessary to adjust each pattern and the lenticular lens as described above.

図15は統一識別子の構成を示す図である。以下、同図を用いて、統一識別子から識別子と視点識別子とを得る処理について説明する。同図では統一識別子は4×4の16ビットからなる。同図では、このうち12ビットを指標識別子に、4ビットを視点識別子に与えており、読み出された16ビットの統一識別子からそれぞれ12ビット、4ビットずつ取り出すことで指標識別子、視点識別子を得る。   FIG. 15 is a diagram showing a configuration of a unified identifier. Hereinafter, processing for obtaining an identifier and a viewpoint identifier from a unified identifier will be described with reference to FIG. In the figure, the unified identifier consists of 4 × 4 16 bits. In this figure, 12 bits are assigned to the index identifier and 4 bits are assigned to the view identifier, and the index identifier and view identifier are obtained by extracting 12 bits and 4 bits respectively from the read 16-bit unified identifier. .

本実施形態における指標同定及び誤同定指標検出の手順は、上述の方法で指標識別子、視点識別子を得る以外は、第2,3の実施形態と同じである。   The procedure of index identification and erroneous identification index detection in the present embodiment is the same as that in the second and third embodiments except that the index identifier and the viewpoint identifier are obtained by the above-described method.

以上の説明により、本実施形態によれば、視点識別子領域と指標識別子領域をまとめて一つの識別子領域とすることで、識別子の読出し処理を一つにまとめて処理を簡略化することが可能になる。   As described above, according to the present embodiment, by combining the viewpoint identifier area and the index identifier area into one identifier area, it is possible to simplify the process by combining identifier reading processing into one. Become.

[第5の実施形態]
上記各実施形態では、異なる視点から観察したときでも、識別子領域の投影像がほぼ同じとなるように、また、視点識別子が、観察している視点が属する観察領域に応じて異なるパターンで観察されるように、それぞれの識別子の観察像を光学的に変換するために、レンチキュラを用いたが、本実施形態ではインテグラルフォトグラフィーを用いる。
[Fifth Embodiment]
In each of the above embodiments, even when observed from different viewpoints, the projected image of the identifier area is substantially the same, and the viewpoint identifier is observed in a different pattern depending on the observation area to which the observed viewpoint belongs. As described above, in order to optically convert the observation image of each identifier, a lenticular is used. In this embodiment, integral photography is used.

図16は、本実施形態で用いる指標を説明する図である。図16(a)は、指標の上面図で、第1の実施形態と同様の領域構成を有する。図16(b)は、指標の一辺に沿った、指標の断面図で、同図に示す如く、識別子領域はインテグラルフォトグラフィーによって構成されている。即ち、識別子領域内に記された2次元マトリクスパターン上に蝿の目レンズ(インテグラルフォトグラフィーレンズ)が配置されている。   FIG. 16 is a diagram for explaining an index used in the present embodiment. FIG. 16A is a top view of the index and has the same region configuration as that of the first embodiment. FIG. 16B is a cross-sectional view of the index along one side of the index. As shown in the figure, the identifier region is configured by integral photography. That is, the eyelet lens (integral photography lens) is arranged on the two-dimensional matrix pattern written in the identifier region.

図17は、蝿の目レンズの構成を示す図である。図17(a)は、蝿の目レンズの上面図で、同図に示す如く、蝿の目レンズとは小さいレンズを縦横に並べたレンズアレイである。インテグラルフォトグラフィーは、蝿の目レンズを通して画像を観察することで三次元画像表示を行う。レンチキュラでは視点変化は一次元であるが、インテグラルフォトグラフィーでは二次元の視点変化が可能になっている。   FIG. 17 is a diagram illustrating a configuration of a eyelet lens. FIG. 17A is a top view of the eyelet lens. As shown in FIG. 17, the eyelet lens is a lens array in which small lenses are arranged vertically and horizontally. Integral photography displays a three-dimensional image by observing the image through the eye lens. In lenticular, the viewpoint change is one-dimensional, but in integral photography, a two-dimensional viewpoint change is possible.

また図17(b)は、蝿の目レンズの切断面l,mにおける断面図を示している。同図に示す如く、蝿の目レンズを一方向から見た場合、レンチキュラレンズの断面と同等のものである。このインテグラルフォトグラフィーを用いることで、複数の異なる観察視点における指標の識別子領域の投影像がほぼ同一になるようにする。   FIG. 17B is a cross-sectional view taken along the cut surfaces 1 and m of the eyelet lens. As shown in the figure, when the eyelet lens is viewed from one direction, it is equivalent to the cross section of the lenticular lens. By using this integral photography, the projected images of the indicator identifier areas at a plurality of different observation viewpoints are made substantially the same.

レンチキュラレンズと異なり、インテグラルフォトグラフィーは図18に示す如く、体積を持つ観察領域が2次元的に並ぶ。図18は、インテグラルフォトグラフィーを用いた場合の観察領域を示す図である。   Unlike lenticular lenses, integral photography has a volumetric observation region arranged two-dimensionally as shown in FIG. FIG. 18 is a diagram showing an observation region when integral photography is used.

この各観察領域の代表点において指標を観察する場合に、識別子領域の投影像が同じになるようにする。具体的には、図7を用いて説明した上述の方法を二次元的に並ぶ観察領域すべてについて行い、識別子画像上には蝿の目レンズの各レンズごとに2次元のパターンが並ぶようにする。   When the index is observed at the representative point of each observation area, the projected image of the identifier area is made the same. Specifically, the above-described method described with reference to FIG. 7 is performed for all observation regions arranged two-dimensionally, and a two-dimensional pattern is arranged for each lens of the eyelet lens on the identifier image. .

なお、インテグラルフォトグラフィーは、視点識別子に対しても用いても良い。   Integral photography may also be used for viewpoint identifiers.

[第6の実施形態]
上記各実施形態では、異なる視点から観察したときでも、識別子領域の投影像がほぼ同じとなるように、また、視点識別子が、観察している視点が属する観察領域に応じて異なるパターンで観察されるように、それぞれの識別子の観察像を光学的に変換するために、レンチキュラを用いたが、本実施形態ではホログラムを用いる。
[Sixth Embodiment]
In each of the above embodiments, even when observed from different viewpoints, the projected image of the identifier area is substantially the same, and the viewpoint identifier is observed in a different pattern depending on the observation area to which the observed viewpoint belongs. As described above, in order to optically convert the observation image of each identifier, a lenticular is used. In this embodiment, a hologram is used.

ホログラムは光の干渉を利用して、記録材料に光の強さだけでなく光が飛来した方向をも記録することによって三次元表示を実現する技術である。この技術を用いて、視点を変えても観察される識別子領域の投影像が同じになるようにする。   Hologram is a technology that realizes three-dimensional display by recording not only the intensity of light but also the direction in which light has traveled on a recording material by utilizing interference of light. Using this technique, the projected image of the identifier region is the same even when the viewpoint is changed.

具体的には、図19に示すように、識別子領域の正面像をフィルムに焼き付け、そのフィルムにレーザを照射してスクリーンに投影し、視点位置ごとにスリットを移動させながら記録材料に記録していくことによって識別子領域のホログラムを生成する。これにより、視点を変えても、識別子領域の投影像は同じになる。図19は、識別子領域のホログラムを作成する様子を示す模式図である。   Specifically, as shown in FIG. 19, a front image of the identifier region is printed on a film, the film is irradiated with a laser, projected onto a screen, and recorded on a recording material while moving a slit for each viewpoint position. The hologram of the identifier area is generated by going. Thereby, even if a viewpoint is changed, the projection image of an identifier area | region becomes the same. FIG. 19 is a schematic diagram showing how to create a hologram of an identifier area.

なお、ホログラムは、視点識別子に対しても用いても良い。   Note that the hologram may also be used for the viewpoint identifier.

[その他の実施形態]
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
[Other Embodiments]
Also, an object of the present invention is to supply a recording medium (or storage medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded to a system or apparatus, and the computer (or CPU or Needless to say, this can also be achieved when the MPU) reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program code read from the recording medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。   When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.

従来の位置姿勢計測装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the conventional position and orientation measuring apparatus. 現実空間と仮想空間とを合成した複合現実空間の画像を観察者に提示するための、本発明の第1の実施形態に係るシステムの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the system which concerns on the 1st Embodiment of this invention for showing the observer the image of the mixed reality space which synthesize | combined real space and virtual space. 複合現実感体験装置2に適用可能なコンピュータ、及びその周辺機器のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the computer applicable to the mixed reality experience apparatus 2, and its peripheral device. 本発明の第1の実施形態で用いる指標を説明する図である。It is a figure explaining the parameter | index used in the 1st Embodiment of this invention. (a)は、正面から見た指標を示す図で、(b)は、斜めから見た指標を示す図である。(A) is a figure which shows the parameter | index seen from the front, (b) is a figure which shows the parameter | index seen from diagonally. 指標の一辺に沿った、指標の断面図である。It is sectional drawing of the parameter | index along the one side of the parameter | index. 識別子画像の構成方法を説明する図である。It is a figure explaining the structure method of an identifier image. 指標と思われる投影像を検出し、検出した投影像が何れの指標の投影像であるのかを同定する処理のフローチャートである。It is a flowchart of the process which detects the projection image which seems to be a parameter | index, and identifies which projection image is the detected projection image. 本発明の第2の実施形態で用いる指標を説明する図である。It is a figure explaining the parameter | index used by the 2nd Embodiment of this invention. (a)は、正面から見た指標を示す図で、(b)は、斜めから見た指標を示す図である。(A) is a figure which shows the parameter | index seen from the front, (b) is a figure which shows the parameter | index seen from diagonally. 指標と思われる投影像を検出し、検出した投影像が何れの指標の投影像であるのかを同定すると共に、同定した結果が誤ったものであるのか否かをチェックする処理のフローチャートである。It is a flowchart of the process which detects the projection image considered as a parameter | index, identifies whether the detected projection image is a projection image of the detected index, and checks whether the identified result is incorrect. 指標と思われる投影像を検出し、検出した投影像が何れの指標の投影像であるのかを同定すると共に、同定した指標に対して優先度を設定するための処理のフローチャートである。10 is a flowchart of processing for detecting a projected image that is considered to be an index, identifying which index the detected projection image is, and setting a priority for the identified index. 優先度の設定について説明する図である。It is a figure explaining the setting of a priority. 本発明の第4の実施形態で用いる指標を説明する図である。It is a figure explaining the parameter | index used by the 4th Embodiment of this invention. 統一識別子の構成を示す図である。It is a figure which shows the structure of a unified identifier. 本発明の第5の実施形態で用いる指標を説明する図である。It is a figure explaining the parameter | index used by the 5th Embodiment of this invention. 蝿の目レンズの構成を示す図である。It is a figure which shows the structure of the eyelid lens. インテグラルフォトグラフィーを用いた場合の観察領域を示す図である。It is a figure which shows the observation area | region at the time of using integral photography. 識別子領域のホログラムを作成する様子を示す模式図である。It is a schematic diagram which shows a mode that the hologram of an identifier area | region is created.

Claims (15)

識別情報が記されており、且つ当該識別情報を所定の複数の視点の何れから観察しても略同じ像となるべく、当該識別情報の観察像を光学的に変化させる構成を有する指標、が複数配された現実空間の画像を取得する取得工程と、
前記取得工程で取得した画像における指標の投影像を検出する検出工程と、
前記検出工程で検出した指標の投影像から識別情報を読み取ることで、当該指標を識別する識別工程と
を備えることを特徴とする画像処理方法。
A plurality of indices having a configuration in which the identification information is written and the observation image of the identification information is optically changed so that the identification information is substantially the same even when the identification information is observed from any of a plurality of predetermined viewpoints. An acquisition step of acquiring an image of the arranged physical space;
A detection step of detecting a projected image of the index in the image acquired in the acquisition step;
An image processing method comprising: an identification step of identifying the index by reading identification information from a projected image of the index detected in the detection step.
前記指標にはレンチキュラレンズが備わっており、
当該レンチキュラレンズ、及び当該指標に記されている識別情報は、当該識別情報を所定の複数の視点の何れから観察しても略同じ像となるべく構成されていることを特徴とする請求項1に記載の画像処理方法。
The indicator is equipped with a lenticular lens,
2. The identification information written on the lenticular lens and the index is configured to be substantially the same image when the identification information is observed from any of a plurality of predetermined viewpoints. The image processing method as described.
前記指標に記されている識別情報はホログラムによって記されており、
当該ホログラムは、当該識別情報を所定の複数の視点の何れから観察しても略同じ像となるべく構成されていることを特徴とする請求項1に記載の画像処理方法。
The identification information written on the indicator is written by a hologram,
The image processing method according to claim 1, wherein the hologram is configured to have substantially the same image even when the identification information is observed from any of a plurality of predetermined viewpoints.
前記指標にはインテグラルフォトグラフィーレンズが備わっており、
当該インテグラルフォトグラフィーレンズ、及び当該指標に記されている識別情報は、当該識別情報を所定の複数の視点の何れから観察しても略同じ像となるべく構成されていることを特徴とする請求項1に記載の画像処理方法。
The indicator is equipped with an integral photography lens,
The identification information described on the integral photography lens and the index is configured to be substantially the same image when the identification information is observed from any of a plurality of predetermined viewpoints. Item 8. The image processing method according to Item 1.
第1の識別情報、第2の識別情報が記されており、当該第1の識別情報を所定の複数の視点の何れから観察しても略同じ像となるべく、当該第1の識別情報の観察像を光学的に変化させる構成、及び当該第2識別情報を観察する視点が存在する観察領域に応じて当該第2の識別情報の像を異ならせるべく、当該第2の識別情報の観察像を光学的に変化させる構成、を有する指標、が複数配された現実空間の画像を取得する取得工程と、
前記取得工程で取得した画像における指標の投影像を検出する検出工程と、
前記検出工程で検出した指標の投影像から前記第1の識別情報を読み取ることで、当該指標を識別する識別工程と、
前記検出工程で検出した指標の投影像から前記第2の識別情報を読み取ることで、前記視点の位置を推定する推定工程と、
前記推定工程で推定した位置の視点から見える画像上の指標の位置と、前記検出工程で検出した当該指標の位置とを用いて、当該指標に対する前記識別工程における識別処理をチェックするチェック工程と
を備えることを特徴とする画像処理方法。
The first identification information and the second identification information are recorded, and the first identification information is observed so that the first identification information can be substantially the same even if the first identification information is observed from any of a plurality of predetermined viewpoints. In order to change the image of the second identification information according to the configuration in which the image is optically changed and the observation region where the viewpoint for observing the second identification information is present, the observation image of the second identification information is changed. An acquisition step of acquiring an image of a real space in which a plurality of indicators having a configuration that is optically changed is arranged;
A detection step of detecting a projected image of the index in the image acquired in the acquisition step;
An identification step for identifying the index by reading the first identification information from the projected image of the index detected in the detection step;
An estimation step of estimating the position of the viewpoint by reading the second identification information from the projected image of the index detected in the detection step;
Using the position of the index on the image seen from the viewpoint of the position estimated in the estimation process and the position of the index detected in the detection process, a check process for checking the identification process in the identification process for the index; An image processing method comprising:
第1の識別情報、第2の識別情報が記されており、当該第1の識別情報を所定の複数の視点の何れから観察しても略同じ像となるべく、当該第1の識別情報の観察像を光学的に変化させる構成、及び当該第2識別情報を観察する視点が存在する観察領域に応じて当該第2の識別情報の像を異ならせるべく、当該第2の識別情報の観察像を光学的に変化させる構成、を有する指標、が複数配された現実空間の画像を取得する取得工程と、
前記取得工程で取得した画像における指標の投影像を検出する検出工程と、
前記検出工程で検出した指標の投影像から前記第1の識別情報を読み取ることで、当該指標を識別する識別工程と、
前記検出工程で検出した指標の投影像から前記第2の識別情報を読み取り、読み取った前記第2の識別情報に基づいて、前記検出工程で検出した指標に優先度を設定する設定工程と
を備えることを特徴とする画像処理方法。
The first identification information and the second identification information are recorded, and the first identification information is observed so that the first identification information can be substantially the same even if the first identification information is observed from any of a plurality of predetermined viewpoints. In order to change the image of the second identification information according to the configuration in which the image is optically changed and the observation region where the viewpoint for observing the second identification information is present, the observation image of the second identification information is changed. An acquisition step of acquiring an image of a real space in which a plurality of indicators having a configuration that is optically changed is arranged;
A detection step of detecting a projected image of the index in the image acquired in the acquisition step;
An identification step for identifying the index by reading the first identification information from the projected image of the index detected in the detection step;
A setting step of reading the second identification information from the projected image of the index detected in the detection step, and setting a priority for the index detected in the detection step based on the read second identification information. An image processing method.
識別情報が記されており、且つ当該識別情報を所定の複数の視点の何れから観察しても略同じ像となるべく、当該識別情報の観察像を光学的に変化させる構成を有する指標、が複数配された現実空間の画像を取得する取得手段と、
前記取得手段が取得した画像における指標の投影像を検出する検出手段と、
前記検出手段が検出した指標の投影像から識別情報を読み取ることで、当該指標を識別する識別手段と
を備えることを特徴とする画像処理装置。
A plurality of indices having a configuration in which the identification information is written and the observation image of the identification information is optically changed so that the identification information is substantially the same even when the identification information is observed from any of a plurality of predetermined viewpoints. An acquisition means for acquiring an image of the arranged real space;
Detecting means for detecting a projected image of the index in the image acquired by the acquiring means;
An image processing apparatus comprising: an identification unit that identifies an index by reading identification information from a projected image of the index detected by the detection unit.
第1の識別情報、第2の識別情報が記されており、当該第1の識別情報を所定の複数の視点の何れから観察しても略同じ像となるべく、当該第1の識別情報の観察像を光学的に変化させる構成、及び当該第2識別情報を観察する視点が存在する観察領域に応じて当該第2の識別情報の像を異ならせるべく、当該第2の識別情報の観察像を光学的に変化させる構成、を有する指標、が複数配された現実空間の画像を取得する取得手段と、
前記取得手段が取得した画像における指標の投影像を検出する検出手段と、
前記検出手段が検出した指標の投影像から前記第1の識別情報を読み取ることで、当該指標を識別する識別手段と、
前記検出手段が検出した指標の投影像から前記第2の識別情報を読み取ることで、前記視点の位置を推定する推定手段と、
前記推定手段が推定した位置の視点から見える画像上の指標の位置と、前記検出手段が検出した当該指標の位置とを用いて、当該指標に対する前記識別手段による識別処理をチェックするチェック手段と
を備えることを特徴とする画像処理装置。
The first identification information and the second identification information are recorded, and the first identification information is observed so that the first identification information can be substantially the same even if the first identification information is observed from any of a plurality of predetermined viewpoints. In order to change the image of the second identification information according to the configuration in which the image is optically changed and the observation region where the viewpoint for observing the second identification information is present, the observation image of the second identification information is changed. An acquisition means for acquiring an image of a real space in which a plurality of indices having a configuration that is optically changed is arranged;
Detecting means for detecting a projected image of the index in the image acquired by the acquiring means;
Identification means for identifying the index by reading the first identification information from the projected image of the index detected by the detection means;
Estimating means for estimating the position of the viewpoint by reading the second identification information from the projected image of the index detected by the detecting means;
Checking means for checking identification processing by the identification means for the index using the position of the index seen from the viewpoint of the position estimated by the estimation means and the position of the index detected by the detection means; An image processing apparatus comprising:
第1の識別情報、第2の識別情報が記されており、当該第1の識別情報を所定の複数の視点の何れから観察しても略同じ像となるべく、当該第1の識別情報の観察像を光学的に変化させる構成、及び当該第2識別情報を観察する視点が存在する観察領域に応じて当該第2の識別情報の像を異ならせるべく、当該第2の識別情報の観察像を光学的に変化させる構成、を有する指標、が複数配された現実空間の画像を取得する取得手段と、
前記取得手段が取得した画像における指標の投影像を検出する検出手段と、
前記検出手段が検出した指標の投影像から前記第1の識別情報を読み取ることで、当該指標を識別する識別手段と、
前記検出手段が検出した指標の投影像から前記第2の識別情報を読み取り、読み取った前記第2の識別情報に基づいて、前記検出手段が検出した指標に優先度を設定する設定手段と
を備えることを特徴とする画像処理装置。
The first identification information and the second identification information are recorded, and the first identification information is observed so that the first identification information can be substantially the same even if the first identification information is observed from any of a plurality of predetermined viewpoints. In order to change the image of the second identification information according to the configuration in which the image is optically changed and the observation region where the viewpoint for observing the second identification information is present, the observation image of the second identification information is changed. An acquisition means for acquiring an image of a real space in which a plurality of indices having a configuration that is optically changed is arranged;
Detecting means for detecting a projected image of the index in the image acquired by the acquiring means;
Identification means for identifying the index by reading the first identification information from the projected image of the index detected by the detection means;
Setting means for reading the second identification information from the projected image of the index detected by the detection means, and setting a priority for the index detected by the detection means based on the read second identification information. An image processing apparatus.
コンピュータに請求項1乃至6の何れか1項に記載の画像処理方法を実行させることを特徴とするプログラム。   A program causing a computer to execute the image processing method according to any one of claims 1 to 6. 請求項10に記載のプログラムを格納したことを特徴とする、コンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 10. 撮影画像内のマーカ位置に基づき撮影部の位置を求めるためのマーカであって、
マーカを識別するための識別子画像を有する物体と、
前記物体上に配置されたレンズと
を有することを特徴とするマーカ。
A marker for determining the position of the imaging unit based on the marker position in the captured image,
An object having an identifier image for identifying the marker;
And a lens disposed on the object.
前記識別子画像、及び前記レンズは、前記識別子画像を所定の複数の視点の何れから観察しても略同じ像となるべく、前記識別子画像の観察像を光学的に変化させるよう構成されていることを特徴とする請求項12に記載のマーカ。   The identifier image and the lens are configured to optically change the observation image of the identifier image so that the identifier image becomes substantially the same even when viewed from any of a plurality of predetermined viewpoints. The marker according to claim 12, characterized in that: 前記識別子画像は、2次元マトリクスパターンであることを特徴とする請求項13に記載のマーカ。   The marker according to claim 13, wherein the identifier image is a two-dimensional matrix pattern. 前記レンズは、レンチキュラレンズであることを特徴とする請求項13に記載のマーカ。   The marker according to claim 13, wherein the lens is a lenticular lens.
JP2005088929A 2005-03-25 2005-03-25 Image processing method, image processing apparatus and marker Withdrawn JP2006267879A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005088929A JP2006267879A (en) 2005-03-25 2005-03-25 Image processing method, image processing apparatus and marker

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005088929A JP2006267879A (en) 2005-03-25 2005-03-25 Image processing method, image processing apparatus and marker

Publications (1)

Publication Number Publication Date
JP2006267879A true JP2006267879A (en) 2006-10-05

Family

ID=37203889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005088929A Withdrawn JP2006267879A (en) 2005-03-25 2005-03-25 Image processing method, image processing apparatus and marker

Country Status (1)

Country Link
JP (1) JP2006267879A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009139063A1 (en) * 2008-05-15 2009-11-19 富士通マイクロエレクトロニクス株式会社 Pattern generating method and pattern generating program
JP2012145559A (en) * 2010-12-24 2012-08-02 National Institute Of Advanced Industrial & Technology Marker
JP2015194732A (en) * 2014-03-18 2015-11-05 株式会社エンプラス Image display body
WO2016024555A1 (en) * 2014-08-12 2016-02-18 国立研究開発法人産業技術総合研究所 Marker and attitude estimation method using marker
WO2017013873A1 (en) * 2015-07-23 2017-01-26 日本電気株式会社 Dimension measurement device, dimension measurement system, and dimension measurement method
WO2017138441A1 (en) * 2016-02-10 2017-08-17 株式会社エンプラス Marker
WO2017212853A1 (en) * 2016-06-09 2017-12-14 株式会社エンプラス Marker
WO2018030063A1 (en) * 2016-08-09 2018-02-15 株式会社エンプラス Marker
JP2018025531A (en) * 2016-08-09 2018-02-15 コー・ヤング・テクノロジー・インコーポレーテッド Marker for optical tracking, optical tracking system, and optical tracking method
WO2018110114A1 (en) * 2016-12-12 2018-06-21 国立研究開発法人産業技術総合研究所 Marker and marker manufacturing method
WO2018135063A1 (en) * 2017-01-17 2018-07-26 国立研究開発法人産業技術総合研究所 Marker, and posture estimation method and position and posture estimation method using marker
WO2018135491A1 (en) * 2017-01-17 2018-07-26 株式会社エンプラス Marker

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009139063A1 (en) * 2008-05-15 2009-11-19 富士通マイクロエレクトロニクス株式会社 Pattern generating method and pattern generating program
JP5077432B2 (en) * 2008-05-15 2012-11-21 富士通セミコンダクター株式会社 Pattern creation method and pattern creation program
US8713505B2 (en) 2008-05-15 2014-04-29 Fujitsu Semiconductor Limited Pattern generation method and pattern generation program
JP2012145559A (en) * 2010-12-24 2012-08-02 National Institute Of Advanced Industrial & Technology Marker
JP2015194732A (en) * 2014-03-18 2015-11-05 株式会社エンプラス Image display body
WO2016024555A1 (en) * 2014-08-12 2016-02-18 国立研究開発法人産業技術総合研究所 Marker and attitude estimation method using marker
WO2017013873A1 (en) * 2015-07-23 2017-01-26 日本電気株式会社 Dimension measurement device, dimension measurement system, and dimension measurement method
US10776945B2 (en) 2015-07-23 2020-09-15 Nec Corporation Dimension measurement device, dimension measurement system, and dimension measurement method
WO2017138441A1 (en) * 2016-02-10 2017-08-17 株式会社エンプラス Marker
CN108603746A (en) * 2016-02-10 2018-09-28 恩普乐股份有限公司 Marker
JPWO2017138441A1 (en) * 2016-02-10 2018-12-06 株式会社エンプラス Marker
WO2017212853A1 (en) * 2016-06-09 2017-12-14 株式会社エンプラス Marker
CN109313012A (en) * 2016-06-09 2019-02-05 恩普乐股份有限公司 Marker
JP2018025531A (en) * 2016-08-09 2018-02-15 コー・ヤング・テクノロジー・インコーポレーテッド Marker for optical tracking, optical tracking system, and optical tracking method
US10108833B2 (en) 2016-08-09 2018-10-23 Koh Young Technology Inc. Marker for optical tracking, optical tracking system, and optical tracking method
CN109642790A (en) * 2016-08-09 2019-04-16 恩普乐股份有限公司 Marker
WO2018030063A1 (en) * 2016-08-09 2018-02-15 株式会社エンプラス Marker
WO2018110114A1 (en) * 2016-12-12 2018-06-21 国立研究開発法人産業技術総合研究所 Marker and marker manufacturing method
US11391565B2 (en) 2016-12-12 2022-07-19 National Institute Of Advanced Industrial Science And Technology Marker and marker manufacturing method
WO2018135491A1 (en) * 2017-01-17 2018-07-26 株式会社エンプラス Marker
WO2018135063A1 (en) * 2017-01-17 2018-07-26 国立研究開発法人産業技術総合研究所 Marker, and posture estimation method and position and posture estimation method using marker
US10928191B2 (en) 2017-01-17 2021-02-23 National Institute Of Advanced Industrial Science And Technology Marker, and posture estimation method and position and posture estimation method using marker

Similar Documents

Publication Publication Date Title
JP2006267879A (en) Image processing method, image processing apparatus and marker
JP4926817B2 (en) Index arrangement information measuring apparatus and method
JP4599184B2 (en) Index placement measurement method, index placement measurement device
JP4532982B2 (en) Arrangement information estimation method and information processing apparatus
US7657065B2 (en) Marker placement information estimating method and information processing device
JP4434890B2 (en) Image composition method and apparatus
JP4976756B2 (en) Information processing method and apparatus
JP4574473B2 (en) Information processing apparatus and method
US8472703B2 (en) Image capture environment calibration method and information processing apparatus
EP1521215B1 (en) Image display method and image display system
JP2005293141A (en) Method and device for detecting marker, and method for estimating position and attitude
JP2008309631A (en) Information processing method and information processor
JP2006285788A (en) Mixed reality information generation device and method
JP2007233971A (en) Image compositing method and device
JP2008046749A (en) Image processing method and device
JP5726024B2 (en) Information processing method and apparatus
JP4926598B2 (en) Information processing method and information processing apparatus
JP6109213B2 (en) Information processing apparatus and method, program
JP6073123B2 (en) Stereoscopic display system, stereoscopic image generating apparatus, and stereoscopic image generating program
JP2006293485A (en) Index display method and image display device
JP4810403B2 (en) Information processing apparatus and information processing method
JP6073121B2 (en) 3D display device and 3D display system
JP2006064585A (en) Image processing method and image processing device
JP2008140047A (en) Information processing method and information processor
JP4817631B2 (en) Information processing apparatus, information processing method, and program thereof

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080603