JP2010033397A - Image composition device and method - Google Patents
Image composition device and method Download PDFInfo
- Publication number
- JP2010033397A JP2010033397A JP2008195734A JP2008195734A JP2010033397A JP 2010033397 A JP2010033397 A JP 2010033397A JP 2008195734 A JP2008195734 A JP 2008195734A JP 2008195734 A JP2008195734 A JP 2008195734A JP 2010033397 A JP2010033397 A JP 2010033397A
- Authority
- JP
- Japan
- Prior art keywords
- marker
- image
- coordinate system
- copy
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、実写映像にコンピュータグラフィックスを合成する拡張現実感(Augmented Reality)技術に関し、更に詳しくは、拡張現実感の技術を利用して、コンピュータグラフィックスを合成するときに邪魔になる物体の画像を、実写画像から仮想的に消去する技術に関する。 The present invention relates to augmented reality technology for synthesizing computer graphics with live-action images, and more particularly, to an object that interferes when synthesizing computer graphics using augmented reality technology. The present invention relates to a technology for virtually erasing an image from a photographed image.
拡張現実感(AR: Augmented Reality)とは、実写画像にコンピュータグラフィックス(CG: Computer Graphics)を合成することによって、人の知覚を補助したり、臨場感ある画像体験を実現したりするのに用いられる技術である。 Augmented Reality (AR) is a technique for assisting human perception and realizing a realistic image experience by combining computer graphics (CG) with live-action images. The technology used.
非特許文献1および非特許文献2などに記載されているように、拡張現実感を実施する一般的なコンピュータ装置では、模様が印刷されたマーカを含むように実写画像をカメラで撮影し、コンピュータ装置が、マーカの模様からマーカの位置や傾きを演算し、マーカの位置とマーカの傾きに合わせてカメラが撮影した実写画像にCGを合成する。 As described in Non-Patent Document 1, Non-Patent Document 2, and the like, in a general computer device that implements augmented reality, a photographed image is captured by a camera so as to include a marker on which a pattern is printed. The apparatus calculates the position and inclination of the marker from the pattern of the marker, and synthesizes the CG with the actual image captured by the camera according to the position of the marker and the inclination of the marker.
しかし、マーカに対してCGのサイズが小さいと、CGを合成した後に実写画像において、マーカがCGからはみ出して見えてしまうため、特許文献1では、マーカを消去するためのマーカ隠蔽用画像を予め用意しておき、カメラが撮影画像中のマーカ位置にCGを合成する際に、マーカ隠蔽用画像を撮影画像のマーカ位置に合成した上にCGを合成することで、マーカがCGからはみ出して見えてしまうことを防止する発明が開示されている。 However, if the size of the CG is small with respect to the marker, the marker appears to protrude from the CG after the CG is synthesized. In Patent Document 1, a marker concealing image for deleting the marker is previously stored. When the camera synthesizes the CG at the marker position in the captured image, the marker appears to protrude from the CG by synthesizing the marker concealing image at the marker position of the captured image and then combining the CG. An invention for preventing this is disclosed.
しかしながら、CGからはみ出して見えて困る画像はマーカだけではなく、実写画像に含まれる物体(例えば、机)の代わりにCGを合成させたいとき、実写画像に撮影されている物体の画像がCGからはみ出して見えてしまうことがある。 However, not only the marker is an image that is troublesome to see out of the CG, but also when the CG is combined instead of the object (for example, a desk) included in the photographed image, the image of the object photographed in the photographed image is captured from the CG. It may appear out of the way.
例えば、拡張現実感を利用して、何もない広い床面に机のCGを合成した場合、机のCGは床面に自然に合成されて見えるが、マーカ付近に実物の机や椅子など実在する物体が存在している場合、机のCGを合成した後の画像に実在する物体の画像の一部が残ってしまうと、不自然な印象を与えてしまう。 For example, if a desk CG is synthesized on a wide floor with nothing, using augmented reality, the desk CG appears to be naturally synthesized on the floor, but there is a real desk or chair near the marker. When an object to be present exists, if a part of the image of the actual object remains in the image after combining the CG of the desk, an unnatural impression is given.
実物の机や椅子などの物体を移動させることができれば問題ないが、実在する物体を移動させることは困難な場合も多くあるため、実写画像にCGを合成するときには、CGを合成するときに邪魔になる物体の画像を仮想的に実写画像から消去できることが望ましい。 If an object such as a real desk or chair can be moved, there is no problem, but it is often difficult to move an actual object. Therefore, when synthesizing CG with a live-action image, it is a hindrance when synthesizing CG. It is desirable that the image of the object to be can be virtually erased from the photographed image.
そこで、本発明は、拡張現実感(AR: Augmented Reality)の技術を利用して、カメラで撮影された実写画像に含まれる対象物体の画像を実写画像から仮想的に消去することのできる画像合成装置および画像合成方法を提供することを目的とする。 Therefore, the present invention uses an augmented reality (AR) technology to synthesize an image of a target object included in a photographed image taken by a camera from the photographed image virtually. It is an object to provide an apparatus and an image composition method.
上述した課題を解決する第1の発明は、拡張現実感(AR: Augmented Reality)で利用されるマーカの模様を記憶し、マーカの模様を利用して、カメラで撮影された実写画像に含まれる前記マーカを認識するマーカ認識手段と、前記マーカ認識手段が認識したマーカの模様から、前記マーカ認識手段が認識したマーカのマーカ座標系を演算し、それぞれのマーカ座標系からカメラ座標系への変換行列を演算する変換行列演算手段と、コピー元の画像を指定する前記マーカ(コピーマーカ)の位置と定められたオフセット値を利用して、前記コピーマーカのマーカ座標系のXY平面に所定サイズのサンプリング領域を設定し、前記コピーマーカのマーカ座標系からカメラ座標系への変換行列を利用して、前記サンプリング領域に含まれる前記実写画像の画素から、定められたサイズのテクスチャを生成するテクスチャ生成手段と、ペースト先を指定する前記マーカ(ペーストマーカ)の座標原点を利用して、前記実写画像に合成する仮想平面を配置する前記コピーマーカのマーカ座標系上の座標点を演算する配置座標演算手段と、前記配置座標演算手段が演算した座標点を中心点とし、前記テクスチャ生成手段が生成した前記テクスチャを貼り付けた所定サイズの仮想平面を形成する仮想平面形成手段と、前記コピーマーカのマーカ座標系からカメラ座標系への変換行列を利用して、前記仮想平面形成手段が形成した前記仮想平面を前記実写画像に合成する画像合成手段と、を備えたことを特徴とする画像合成装置である。 A first invention that solves the above-described problem is stored in a marker image used in augmented reality (AR) and is included in a photographed image taken by a camera using the marker pattern. From the marker recognition means for recognizing the marker and the marker pattern recognized by the marker recognition means, the marker coordinate system of the marker recognized by the marker recognition means is calculated and converted from each marker coordinate system to the camera coordinate system. Using a transformation matrix calculation means for calculating a matrix and an offset value determined as the position of the marker (copy marker) for designating a copy source image, the XY plane of the marker coordinate system of the copy marker has a predetermined size. A sampling area is set, and a transformation matrix from the marker coordinate system to the camera coordinate system of the copy marker is used, and the photographed image included in the sampling area is The copy marker that arranges a virtual plane to be combined with the live-action image using a texture generation unit that generates a texture of a predetermined size from the source and a coordinate origin of the marker (paste marker) that specifies a paste destination An arrangement coordinate calculation means for calculating a coordinate point on the marker coordinate system, and a virtual plane of a predetermined size pasted by the texture generation means with the coordinate point calculated by the arrangement coordinate calculation means as a central point A virtual plane forming unit for forming the virtual plane, and an image synthesis unit for synthesizing the virtual plane formed by the virtual plane forming unit with the photographed image using a conversion matrix from a marker coordinate system to a camera coordinate system of the copy marker And an image synthesizing apparatus.
第1の発明によれば、前記実写画像から仮想的に消去する対象物体(例えば、机)の上などに前記ペーストマーカを置き、対象物体の画像を仮想的に消去するときに利用する物体(例えば、床面)に前記コピーマーカを置けば、前記コピーマーカ近傍の画像(例えば、床面の画像)から生成される前記テクスチャが貼り付けられた前記仮想平面が、前記ペーストマーカ近辺に合成されるため、対象物体(例えば、机)の画像を前記実写画像から仮想的に消去することが可能になる。 According to the first invention, the paste marker is placed on a target object (for example, a desk) that is virtually erased from the photographed image, and an object (when used to virtually erase the image of the target object) For example, if the copy marker is placed on a floor surface, the virtual plane on which the texture generated from an image near the copy marker (for example, an image of the floor surface) is pasted is synthesized in the vicinity of the paste marker. Therefore, the image of the target object (for example, a desk) can be virtually erased from the photographed image.
更に、第2の発明は、第1の発明に記載の画像合成装置であって、前記配置座標演算手段は、前記仮想平面を配置する前記コピーマーカのマーカ座標系上の座標点として、前記ペーストマーカの座標原点と前記カメラの座標原点を通過する直線が前記コピーマーカのXY座標面面と同一平面と交差する点を演算することを特徴とする画像合成装置である。 Furthermore, the second invention is the image composition device according to the first invention, wherein the arrangement coordinate calculation means uses the paste as a coordinate point on a marker coordinate system of the copy marker on which the virtual plane is arranged. An image synthesizing apparatus that calculates a point where a straight line passing through a coordinate origin of a marker and a coordinate origin of the camera intersects the same plane as an XY coordinate plane of the copy marker.
第2の発明によれば、前記ペーストマーカの座標原点と前記カメラの座標原点を通過する直線が前記コピーマーカのXY座標面面と同一平面と交差する点を、前記仮想平面を配置する前記コピーマーカのマーカ座標系上の座標点とすることで、仮想平面を実写映像に合成したとき、実写映像に対する仮想平面の奥行きを合わせることができるようになる。 According to the second invention, the copy in which the virtual plane is arranged at a point where a straight line passing through the coordinate origin of the paste marker and the coordinate origin of the camera intersects the same plane as the XY coordinate plane of the copy marker By using the coordinate point of the marker on the marker coordinate system, when the virtual plane is combined with the real image, the depth of the virtual plane with respect to the real image can be adjusted.
例えば、前記コピーマーカが床面に置かれているとき、前記コピーマーカのマーカ座標系におけるXY平面は床面になるため、カメラの視点からペーストマーカの中心点に向かう延長線が、前記コピーマーカのマーカ座標系のXY平面と交差する点を中心に仮想平面を形成すれば、前記カメラの視点から奥行き感が調整された位置に前記仮想平面が形成されることになる。 For example, when the copy marker is placed on the floor surface, the XY plane in the marker coordinate system of the copy marker is the floor surface, so that an extension line from the camera viewpoint to the center point of the paste marker is the copy marker. If a virtual plane is formed around a point intersecting the XY plane of the marker coordinate system, the virtual plane is formed at a position where the sense of depth is adjusted from the viewpoint of the camera.
更に、第3の発明は、第1の発明または第2の発明に記載の画像合成装置であって、前記変換行列演算手段は、前記マーカ認識手段が認識した前記マーカのマーカ座標系からカメラ座標系への変換行列に加え、前記コピーマーカと前記ペーストマーカのマーカ座標系相互間の変換行列を演算・記憶し、前記コピーマーカと前記ペーストマーカのマーカ座標系間の変換行列を演算・記憶した後に、前記マーカ認識手段が、前記コピーマーカ或いは前記ペーストマーカのいずれ一つしか前記実写画像から検出できないとき、前記変換行列演算手段は、前記コピーマーカと前記ペーストマーカのマーカ座標系相互間の変換行列を用いて、前記実写画像から検出できなかった前記マーカに係わる変換行列を演算することを特徴とする画像合成装置である。 Furthermore, a third invention is the image composition device according to the first invention or the second invention, wherein the transformation matrix calculation means is configured to determine a camera coordinate from a marker coordinate system of the marker recognized by the marker recognition means. In addition to the transformation matrix to the system, the transformation matrix between the marker coordinate system of the copy marker and the paste marker is computed and stored, and the transformation matrix between the marker coordinate system of the copy marker and the paste marker is computed and stored. Later, when the marker recognizing unit can detect only one of the copy marker or the paste marker from the photographed image, the conversion matrix computing unit converts the copy marker and the paste marker between the marker coordinate systems. An image synthesizing apparatus that uses a matrix to calculate a transformation matrix related to the marker that could not be detected from the photographed image. .
第3の発明によれば、例えば、前記画像合成装置が映像を処理するとき、人影などで、前記コピーマーカと前記ペーストマーカのいずれか一つが前記実写画像に含まれていなくとも、処理を実行することができるようになる。 According to the third invention, for example, when the image synthesizing apparatus processes a video, even if one of the copy marker and the paste marker is not included in the photographed image due to a human figure or the like, the process is executed. Will be able to.
更に、第4の発明は、拡張現実感(AR: Augmented Reality)を利用した画像合成方法であって、コンピュータ装置画、拡張現実感で利用されるマーカに印刷された模様を利用して、カメラで撮影された実写画像に含まれる前記マーカを認識するステップaと、前記コンピュータ装置が、認識したマーカの模様から、前記マーカ認識手段が認識したマーカのマーカ座標系を演算し、それぞれのマーカ座標系からカメラ座標系への変換行列を演算するステップbと、前記コンピュータ装置が、コピー元の画像を指定する前記マーカ(コピーマーカ)の位置と定められたオフセット値を利用して、前記コピーマーカのマーカ座標系のXY平面に所定サイズのサンプリング領域を設定し、前記コピーマーカのマーカ座標系からカメラ座標系への変換行列を利用して、前記サンプリング領域に含まれる前記実写画像の画素から、定められたサイズのテクスチャを生成するステップcと、前記コンピュータ装置が、ペースト先を指定する前記マーカ(ペーストマーカ)の座標原点を利用して、前記実写画像に合成する仮想平面を配置する前記コピーマーカのマーカ座標系上の座標点を演算するステップdと、前記コンピュータ装置が、前記ステップdで演算した座標点を中心点とし、前記テクスチャ生成手段が生成した前記テクスチャを貼り付けた所定サイズの仮想平面を形成するステップeと、前記コンピュータ装置が、前記コピーマーカのマーカ座標系からカメラ座標系への変換行列を利用して、前記仮想平面形成手段が形成した前記仮想平面を前記実写画像に合成するステップfと、を備えたことを特徴とする画像合成方法である。 Furthermore, the fourth invention is an image composition method using augmented reality (AR), which uses a computer device image and a pattern printed on a marker used in augmented reality, Recognizing the marker included in the photographed image taken in step a, and calculating the marker coordinate system of the marker recognized by the marker recognizing means from the recognized marker pattern by the computer device. A step b for calculating a transformation matrix from the system to the camera coordinate system, and the computer apparatus using the offset value determined as the position of the marker (copy marker) for designating the copy source image; A sampling area of a predetermined size is set on the XY plane of the marker coordinate system, and a conversion matrix from the marker coordinate system to the camera coordinate system of the copy marker is used. Then, a step c for generating a texture of a predetermined size from pixels of the photographed image included in the sampling area, and the computer device uses the coordinate origin of the marker (paste marker) for specifying the paste destination A step d for calculating a coordinate point on the marker coordinate system of the copy marker for arranging a virtual plane to be combined with the photographed image, and the computer device having the coordinate point calculated in the step d as a center point; A step e of forming a virtual plane of a predetermined size to which the texture generated by the texture generation unit is pasted, and the computer device uses a conversion matrix from the marker coordinate system of the copy marker to the camera coordinate system, Synthesizing the virtual plane formed by the virtual plane forming means with the photographed image. Which is the image composition method according to claim.
更に、第5の発明は、第4の発明に記載の画像合成方法であって、前記ステップdにおいて、前記コンピュータ装置は、前記仮想平面を配置する前記コピーマーカのマーカ座標系上の座標点として、前記ペーストマーカの座標原点と前記カメラの座標原点を通過する直線が前記コピーマーカのXY座標面面と同一平面と交差する点を演算することを特徴とする画像合成方法である。 Furthermore, a fifth invention is the image composition method according to the fourth invention, wherein, in the step d, the computer apparatus uses coordinate points on the marker coordinate system of the copy marker on which the virtual plane is arranged. The image composition method is characterized in that a point where a straight line passing through the coordinate origin of the paste marker and the coordinate origin of the camera intersects the same plane as the XY coordinate plane of the copy marker is calculated.
更に、第6の発明は、第4の発明または第5の発明に記載の画像合成方法であって、前記ステップbにおいて、前記コンピュータ装置は、前記マーカのマーカ座標系からカメラ座標系への変換行列に加え、前記コピーマーカと前記ペーストマーカのマーカ座標系相互間の変換行列を演算・記憶し、前記コピーマーカと前記ペーストマーカのマーカ座標系間の変換行列を演算・記憶した後に、前記ステップaにおいて、前記コピーマーカ或いは前記ペーストマーカのいずれ一つしか前記実写画像から検出できないとき、前記コンピュータ装置は、前記ステップbにおいて、前記コピーマーカと前記ペーストマーカのマーカ座標系相互間の変換行列を用いて、前記実写画像から検出できなかった前記マーカに係わる変換行列を演算することを特徴とする画像合成方法である。 Furthermore, a sixth invention is the image composition method according to the fourth invention or the fifth invention, wherein in the step b, the computer device converts the marker from a marker coordinate system to a camera coordinate system. In addition to the matrix, the conversion matrix between the marker coordinate system of the copy marker and the paste marker is calculated and stored, and after the conversion matrix between the marker coordinate system of the copy marker and the paste marker is calculated and stored, the step When only one of the copy marker and the paste marker can be detected from the photographed image in a, the computer device calculates a conversion matrix between the marker coordinate systems of the copy marker and the paste marker in the step b. And calculating a transformation matrix related to the marker that could not be detected from the photographed image. An image synthesizing method for.
上述した第4の発明から第6の発明によれば、第1の発明から第3の発明と同様の効果を得ることができる。 According to the fourth to sixth inventions described above, the same effects as those of the first to third inventions can be obtained.
上述したように、本発明によれば、ARの技術を利用して、カメラで撮影された実写画像に含まれる対象物体の画像を実写画像から仮想的に消去することのできる画像合成装置および画像合成方法を提供できる。 As described above, according to the present invention, an image synthesizing device and an image that can virtually erase an image of a target object included in a photographed image captured by a camera from the photographed image using the AR technique. A synthesis method can be provided.
ここから、本発明に係わる画像合成装置1および画像合成方法について、図を参照しながら詳細に説明する。図1は、本発明に係わる画像合成装置1の利用形態を説明する図である。 From here, the image composition device 1 and the image composition method according to the present invention will be described in detail with reference to the drawings. FIG. 1 is a diagram for explaining a usage form of an image composition apparatus 1 according to the present invention.
図1で図示したように、パーソナルコンピュータやサーバなどのコンピュータ装置で実現される画像合成装置1には、実写画像を撮影するカメラ1aが接続され、画像合成装置1には、コンピュータプログラムとして、カメラ1aで撮影された画像の中から、特殊な模様が印刷されたマーカを検出し、検出したマーカの位置にマーカの向きに合わせて、予め用意された3次元コンピュータグラッフィクス(3DGC: 3 Dimensional Computer Graphics)を合成する一般的な拡張現実感(AR: Augmented Reality)の機能を実現するコンピュータプログラムに加え、3DCGを合成するときに邪魔になる対象物体4(図1では机)の画像を、AR技術を利用して実写画像から仮想的に消去する機能を実現させるためのコンピュータプログラムが実装されている。 As shown in FIG. 1, a camera 1a that captures a photographed image is connected to an image composition device 1 that is realized by a computer device such as a personal computer or a server, and the image composition device 1 has a camera as a computer program. 3DC: 3 Dimensional Computer Graphics (3DGC: 3 Dimensional Computer Graphics) prepared in advance by detecting a marker printed with a special pattern from the image taken in 1a and matching the marker position to the detected marker position. In addition to a computer program that realizes a general augmented reality (AR) function for synthesizing graphics (AR), an image of the target object 4 (desk in FIG. 1) that becomes an obstacle when synthesizing 3DCG A computer program for realizing a function of virtually erasing from a photographed image using technology is implemented.
本実施形態において、画像合成装置1は、実写画像の一部の領域であるサンプリング領域に含まれる画像からテクスチャを生成し、このテクスチャがシームレス化されて貼り付けられた仮想平面を形成し、形成した仮想平面を実写画像の指定された位置に合成することで、対象物体の画像を実写画像から仮想的に消去する。 In the present embodiment, the image composition device 1 generates a texture from an image included in a sampling region that is a partial region of a live-action image, forms a virtual plane on which the texture is seamlessly pasted, and forms By synthesizing the virtual plane at the designated position of the photographed image, the image of the target object is virtually erased from the photographed image.
対象物体の画像を実写画像から仮想的に消去するときに利用されるマーカは、コピーマーカ2とペーストマーカ3の2つのマーカで、コピーマーカ2は、サンプリング領域を指定するために利用されるマーカで、ペーストマーカ3は、仮想平面の合成する位置を指定するために利用されるマーカである。コピーマーカ2とペーストマーカ3は、それぞれAR技術で利用される一般的なマーカで、特別な技術的な特徴を有するものではないが、それぞれのマーカを画像合成装置1が認識できる様に、コピーマーカ2とペーストマーカ3に印刷されている模様は異なっている。 The markers used when virtually erasing the image of the target object from the photographed image are two markers, the copy marker 2 and the paste marker 3, and the copy marker 2 is a marker used for designating a sampling area. The paste marker 3 is a marker used for designating the position where the virtual plane is to be synthesized. The copy marker 2 and the paste marker 3 are general markers used in the AR technology, and do not have special technical characteristics. However, the copy marker 2 and the paste marker 3 are copied so that the image synthesizer 1 can recognize each marker. The patterns printed on the marker 2 and the paste marker 3 are different.
図1に図示したように、カメラ1a、コピーマーカ2およびペーストマーカ3はそれぞれ3次元の座標系(Coordinate)を有し、今後、カメラ1aの座標系をカメラ座標系と記し、コピーマーカ2の座標系をコピーマーカ座標系と記し、ペーストマーカ3の座標系をペーストマーカ座標系と記す。 As shown in FIG. 1, each of the camera 1a, the copy marker 2 and the paste marker 3 has a three-dimensional coordinate system (Coordinate). In the future, the coordinate system of the camera 1a will be referred to as a camera coordinate system. The coordinate system is referred to as a copy marker coordinate system, and the coordinate system of the paste marker 3 is referred to as a paste marker coordinate system.
ここから、画像合成装置1が、カメラ1aが撮影した実写画像から対象物体の画像を仮想的に消去する処理について詳細に説明する。図2は、対象物体を画像から仮想的に消去するときの処理を説明するときのフロー図で、この説明は、本発明に関わる画像合成方法の説明も兼ねている。 From here, the process in which the image composition device 1 virtually deletes the image of the target object from the actual image captured by the camera 1a will be described in detail. FIG. 2 is a flowchart for explaining processing when a target object is virtually erased from an image. This explanation also serves as explanation of an image composition method according to the present invention.
画像合成装置1は、まず、カメラ1aが撮影した実写画像から対象物体4の画像を仮想的に消去する処理を実施するときに必要なパラメータを取得する(図2のS1)。画像合成装置1がパラメータを取得する手法は任意でよく、キーボード類による入力、ファイルからの読み込み、その併用などが挙げられる。 First, the image synthesizing apparatus 1 acquires parameters necessary for performing a process of virtually erasing the image of the target object 4 from a real image captured by the camera 1a (S1 in FIG. 2). The method by which the image synthesizing apparatus 1 obtains the parameters may be arbitrary, and examples include input with a keyboard, reading from a file, and a combination thereof.
図3は、画像合成装置1が、カメラ1aが撮影した実写画像から対象物体4の画像を仮想的に消去する処理を実施するときに必要なパラメータの一例を説明する図である。 FIG. 3 is a diagram for explaining an example of parameters required when the image composition device 1 performs a process of virtually erasing the image of the target object 4 from the actual image captured by the camera 1a.
図3において、画像合成装置1が取得するパラメータには、テクスチャに係わる項目として、画像合成装置1が生成するテクスチャのサイズ、テクスチャとなる画像を取得するサンプリング領域の大きさ(ここでは、半径r1)、コピーマーカ2の中心からサンプリング領域の中心までのオフセット値、テクスチャをシームレス化処理するための重なりサイズが含まれる。 In FIG. 3, the parameters acquired by the image synthesizing apparatus 1 include, as items related to texture, the size of the texture generated by the image synthesizing apparatus 1 and the size of the sampling area for acquiring the texture image (here, the radius r1). ), An offset value from the center of the copy marker 2 to the center of the sampling area, and an overlap size for seamlessly processing the texture.
更に、図3において、画像合成装置1が取得するパラメータには、仮想平面に係わる項目として、仮想平面のサイズが含まれる。仮想平面のサイズは、仮想平面の形状に依存し、仮想平面の形状が一意に決定付けられるように記述される。例えば、仮想平面の形状が長方形ならば、長方形のサイズを決定付けるデータとして、長方形の縦横サイズ(単位はピクセル)が記述されるが、ここでは、仮想平面の形状は円形で、円形のサイズを決定付けるデータとして、画像合成装置1は、仮想平面の半径r2(単位は、ピクセル)を取得する。 Further, in FIG. 3, the parameters acquired by the image composition device 1 include the size of the virtual plane as an item related to the virtual plane. The size of the virtual plane depends on the shape of the virtual plane, and is described so that the shape of the virtual plane is uniquely determined. For example, if the shape of the virtual plane is a rectangle, the vertical and horizontal size (unit: pixels) of the rectangle is described as data for determining the size of the rectangle. Here, the shape of the virtual plane is a circle, and the size of the circle is As data to be determined, the image composition device 1 acquires a radius r2 (unit: pixel) of the virtual plane.
なお、図3は、画像合成装置1が取得するパラメータの一例示にしか過ぎず、当然のことながら、画像合成装置1の実現内容によって異なる。 Note that FIG. 3 is merely an example of parameters acquired by the image composition device 1 and, of course, differs depending on the contents of the image composition device 1.
画像合成装置1は、カメラ1aが撮影した実写画像から対象物体4の画像を仮想的に消去する処理を実施するときに必要なパラメータを取得すると、カメラが撮影している実写画像をリアルタイムで読み込んだり、カメラ1aが撮影した実写画像が記憶されているファイルを読み込みなどして、画像合成装置1は、処理対象となる実写画像を取得する(図2のS2)。 When the image synthesizing apparatus 1 obtains parameters necessary for performing a process of virtually erasing the image of the target object 4 from the actual image captured by the camera 1a, the image synthesizing device 1 reads the actual image captured by the camera in real time. The image synthesizing apparatus 1 acquires a real image to be processed (S2 in FIG. 2) by reading a file storing a real image taken by the camera 1a.
図4は、実写画像の一例を説明する図である。図4で図示した実写画像には、消去対象となる対象物体4の画像(ここでは、机の画像)に加え、コピーマーカ2とペーストマーカ3が含まれ、図4では、ペーストマーカ3は机の上に置かれ、コピーマーカ2は机が設置されている床面に置かれている。 FIG. 4 is a diagram for explaining an example of a live-action image. The real image shown in FIG. 4 includes a copy marker 2 and a paste marker 3 in addition to an image of the target object 4 to be erased (here, a desk image). In FIG. The copy marker 2 is placed on the floor on which the desk is installed.
図5は、コピーマーカ2とペーストマーカ3を説明する図で、図5(a)はコピーマーカ2で、図5(b)はペーストマーカ3である。図5に図示したように、コピーマーカ2およびペーストマーカ3で印刷される模様は異なり、図5(a)に図示したように、コピーマーカ2の模様を文字「C」を囲む四角枠とし、図5(b)に図示したように、ペーストマーカ3の模様を文字「P」を囲む四角枠としている。画像合成装置1は、コピーマーカ2およびペーストマーカ3で印刷される模様を予め記憶し、これらの模様を利用して実写画像を解析し、実写画像に含まれるマーカを認識する。 5A and 5B are diagrams for explaining the copy marker 2 and the paste marker 3. FIG. 5A shows the copy marker 2, and FIG. As shown in FIG. 5, the patterns printed by the copy marker 2 and the paste marker 3 are different. As shown in FIG. 5A, the pattern of the copy marker 2 is a square frame surrounding the character “C”. As shown in FIG. 5B, the pattern of the paste marker 3 is a square frame surrounding the character “P”. The image composition device 1 stores patterns printed by the copy marker 2 and the paste marker 3 in advance, analyzes a photographed image using these patterns, and recognizes a marker included in the photographed image.
画像合成装置1は、実写画像を取得すると、初期化処理が実施済みであるか確認し、初期化処理が実施済みであるか否かによって処理を分岐させる(図2のS3)。まず、初期化処理を実施するときの流れについて説明する。図2のS3で、初期化処理が未実施と判断した場合、図2のS10に進み、画像合成装置1は初期化処理を実施開始する。 When the actual image is acquired, the image composition device 1 checks whether the initialization process has been performed, and branches the process depending on whether the initialization process has been performed (S3 in FIG. 2). First, a flow when the initialization process is performed will be described. When it is determined in S3 of FIG. 2 that the initialization process has not been performed, the process proceeds to S10 of FIG. 2 and the image composition device 1 starts performing the initialization process.
本実施形態において、画像合成装置1は初期化処理として、コピーマーカ2とペーストマーカ3の相対位置関係を演算・記憶する処理と、テクスチャを生成・記憶する処理を実施する。後述するように、対象物体の画像を実写画像から仮想的に消去するためには、コピーマーカ2およびペースマーカの2つが必要になるが、コピーマーカ2とペーストマーカ3の相対位置関係が既知であれば、コピーマーカ2或いはペーストマーカ3のいずれが実写画像に含まれていれば、対象物体の画像を仮想的に消去する処理が可能になる。 In the present embodiment, as an initialization process, the image composition device 1 performs a process for calculating / storing the relative positional relationship between the copy marker 2 and the paste marker 3 and a process for generating / storing a texture. As will be described later, in order to virtually erase the image of the target object from the photographed image, two of the copy marker 2 and the pace marker are required, but the relative positional relationship between the copy marker 2 and the paste marker 3 is known. If there is, if either the copy marker 2 or the paste marker 3 is included in the live-action image, it is possible to virtually erase the image of the target object.
図2のS3で、初期化処理が未実施と判断した場合、画像合成装置1は、コピーマーカ2とペーストマーカ3の2つが共に実写画像に含まれているか確認し、確認した内容によって処理を分岐させる(図2のS10)。 When it is determined in S3 of FIG. 2 that the initialization process has not been performed, the image composition device 1 confirms whether both the copy marker 2 and the paste marker 3 are included in the live-action image, and performs processing according to the confirmed content. Branch (S10 in FIG. 2).
画像合成装置1が、コピーマーカ2とペーストマーカ3の2つが同時に存在するか確認する手法は、AR技術で利用されている一般的な手法で、画像合成装置1は、例えば、図5(a)、(b)で図示した四角枠を利用して、実写画像に含まれるマーカを認識し、更に、この四角枠内に含まれる文字(ここでは、「P」或いは「C」)から、実写画像に含まれるマーカの種別を認識する。 The method in which the image composition device 1 confirms whether the copy marker 2 and the paste marker 3 exist at the same time is a general method used in the AR technology. ) And (b) are used to recognize the markers included in the live-action image, and from the characters (in this case, “P” or “C”) included in the live-action image, Recognize the type of marker included in the image.
コピーマーカ2とペーストマーカ3の2つが共に実写画像に存在する場合は、画像合成装置1は初期化処理の実施が可能と判断し、図2のS11に進む。また、コピーマーカ2とペーストマーカ3の2つが共に存在しない場合は、画像合成装置1は初期化処理の実施が不可能と判断し、図2のS2に戻る。 If both of the copy marker 2 and the paste marker 3 are present in the photographed image, the image composition device 1 determines that the initialization process can be performed, and proceeds to S11 in FIG. If neither the copy marker 2 nor the paste marker 3 exists, the image composition device 1 determines that the initialization process cannot be performed, and returns to S2 in FIG.
初期化処理として、まず、画像合成装置1は、コピーマーカ2とペーストマーカ3の相対位置関係を示す情報として、コピーマーカ座標系からペーストマーカ座標系への変換行列Tcpおよびペーストマーカ座標系からコピー座標系への変換行列Tpcを演算し、演算した変換行列Tcp、Tpcを記憶する(図2のS11)。 As initialization processing, first, the image synthesizing apparatus 1 copies, as information indicating the relative positional relationship between the copy marker 2 and the paste marker 3, the conversion matrix Tcp from the copy marker coordinate system to the paste marker coordinate system and the paste marker coordinate system. A transformation matrix Tpc for the coordinate system is calculated, and the calculated transformation matrices Tcp and Tpc are stored (S11 in FIG. 2).
図6は、図2のS11の処理を説明するためのフロー図で、変換行列Tcpと変換行列Tpcを算出する処理のフロー図である。画像合成装置1は、変換行列Tcpと変換行列Tpcを算出するために、コピーマーカ座標系からカメラ座標系への変換行列Tceと、コピーマーカ座標系からカメラ座標系への変換行列Tpeを演算する(図6のS40)。 FIG. 6 is a flowchart for explaining the processing of S11 of FIG. 2, and is a flowchart of processing for calculating the transformation matrix Tcp and the transformation matrix Tpc. The image synthesis apparatus 1 calculates a conversion matrix Tce from the copy marker coordinate system to the camera coordinate system and a conversion matrix Tpe from the copy marker coordinate system to the camera coordinate system in order to calculate the conversion matrix Tcp and the conversion matrix Tpc. (S40 in FIG. 6).
画像合成装置1は、一般的なAR技術を利用して、コピーマーカ2に印刷された模様(ここでは、四角枠)から、コピーマーカ座標系からカメラ座標系への変換行列Tceと、コピーマーカ座標系からカメラ座標系への変換行列Tpeを演算する。 The image synthesizing apparatus 1 uses a general AR technique to convert a copy matrix (Tce in this case) from a pattern printed on the copy marker 2 into a camera coordinate system Tce and a copy marker. A transformation matrix Tpe from the coordinate system to the camera coordinate system is calculated.
なお、本実施形態において、画像合成装置1は、一般的な3DCGを扱うときと同様に、3次元座標系値の次元を一つ繰り上げ4次元として取り扱うため、変換行列Tceおよび変換行列Tpeは4行4列の行列となる。例えば、コピーマーカ座標系からカメラ座標系への変換式は数式1で表記される。
次に、画像合成装置1は、逆行列の演算を用いて、カメラ座標系からコピーマーカ座標系への変換行列Tecとカメラ座標系からペーストマーカ座標系への変換行列Tepを、数式2に従い演算する(図6のS41)。
そして、画像合成装置1は、これまで演算した変換行列を用い、数式3に従い、コピーマーカ座標系からペーストマーカ座標系への変換行列Tcpとペーストマーカ座標系からコピーマーカ座標系への変換行列Tpcを演算し、変換行列Tcpと変換行列Tpcを記憶する(図6のS42)。
ここから、図2の説明に戻る。画像合成装置1は、コピーマーカ2とペーストマーカ3の相対位置関係を示す情報として、コピーマーカ座標系からペーストマーカ座標系への変換行列Tcpと、ペーストマーカ座標系からコピーマーカ座標系への変換行列Tpcを演算し記憶すると、次に、画像合成装置1は、仮想平面に貼り付けるテクスチャを生成する(図2のS12)。 From here, it returns to description of FIG. The image synthesizer 1 uses, as information indicating the relative positional relationship between the copy marker 2 and the paste marker 3, a conversion matrix Tcp from the copy marker coordinate system to the paste marker coordinate system, and conversion from the paste marker coordinate system to the copy marker coordinate system. After calculating and storing the matrix Tpc, the image composition device 1 next generates a texture to be pasted on the virtual plane (S12 in FIG. 2).
画像合成装置1が、仮想領域に貼り付けるテクスチャを生成するときに、図2のS1で取得したパラメータが用いられる。画像合成装置1は、コピーマーカ座標の原点から、パラメータに含まれるオフセット値だけずれた点を中心とし、半径r1内の領域をサンプリング領域としてコピーマーカ座標系に設定する。 When the image synthesizing apparatus 1 generates a texture to be pasted on the virtual area, the parameters acquired in S1 of FIG. 2 are used. The image synthesizing apparatus 1 sets the area within the radius r1 as a sampling area in the copy marker coordinate system with the point shifted by the offset value included in the parameter from the origin of the copy marker coordinates as the center.
そして、画像合成装置1は、変換行列Tceを用いて、サンプリング領域から抽出した実写画像の画素から、パラメータのテクスチャサイズと重なりサイズを用いて、コンピュータ分野において広く知られる既知技術によってシームレス化したテクスチャを生成する。 Then, the image synthesizing apparatus 1 uses the transformation matrix Tce, and from the pixels of the real image extracted from the sampling area, uses the texture size and the overlap size of the parameter to make the texture seamless by a known technique widely known in the computer field. Is generated.
画像合成装置1は、テクスチャを生成すると、初期化処理済みであることを示すフラグを記憶し(図2のS13)、初期化処理を終了する。 When generating the texture, the image synthesizing apparatus 1 stores a flag indicating that the initialization process has been completed (S13 in FIG. 2), and ends the initialization process.
画像合成装置1は、初期化処理を実施すると、コピーマーカ座標系における仮想平面の中心点となる座標点を演算する(図2のS30)。コピーマーカ座標系における仮想平面の中心点は任意の座標点でよいが、ここでは、画像合成装置1は、カメラの視点からペーストマーカ3の中心を通過する線が、コピーマーカ座標系におけるXY平面と交差する点を、仮想平面の中心点となる座標点して求める。コピーマーカ座標系におけるXY平面上に仮想平面を形成することで、仮想平面を実写映像に合成したとき、実写映像に対する仮想平面の奥行きを合わせることができるようになる。 When performing the initialization process, the image composition device 1 calculates a coordinate point that is the center point of the virtual plane in the copy marker coordinate system (S30 in FIG. 2). Although the center point of the virtual plane in the copy marker coordinate system may be an arbitrary coordinate point, here, the image composition device 1 is configured such that the line passing through the center of the paste marker 3 from the viewpoint of the camera is the XY plane in the copy marker coordinate system. Is obtained as a coordinate point that becomes the center point of the virtual plane. By forming the virtual plane on the XY plane in the copy marker coordinate system, the depth of the virtual plane with respect to the actual captured image can be matched when the virtual plane is combined with the actual captured image.
例えば、図4では、コピーマーカ2が床面に置かれているため、コピーマーカ座標系におけるXY平面は床面になる。よって、カメラの視点からペーストマーカ3の中心点に向かう延長線が、コピーマーカ座標系のXY平面と交差する点を中心に仮想平面を形成すれば、カメラの視点から奥行き感が調整された位置に仮想平面が形成されることになる。 For example, in FIG. 4, since the copy marker 2 is placed on the floor surface, the XY plane in the copy marker coordinate system is the floor surface. Therefore, if the extension line from the camera viewpoint to the center point of the paste marker 3 forms a virtual plane centering on the point intersecting the XY plane of the copy marker coordinate system, the position where the sense of depth is adjusted from the camera viewpoint Thus, a virtual plane is formed.
図7は、仮想平面の中心点となるコピーマーカ座標系の座標点を演算する内容を説明するためのフロー図である。画像合成装置1は、ペーストマーカ座標系からコピーマーカ座標系への変換行列Tpcから、ARの技術分野で良く知られた理論を用いて、コピーマーカ座標系におけるペーストマーカ座標系の原点座標Vp〔px、py、pz〕を数式4に従い抽出する(図7のS50)。
次に、画像合成装置1は、カメラ座標系からコピーマーカ座標系への変換行列Tecから、ARの技術分野で良く知られた理論を用いて、コピーマーカ座標系におけるカメラ座標系の原点座標Ve〔ex、ey、ez〕を数式5に従い抽出する(図7のS51)。
そして、コピーマーカ座標系におけるペーストマーカ座標系の原点座標Vp〔px、py、pz〕とコピーマーカ座標系におけるカメラ座標系の原点座標Ve〔ex、ey、ez〕から、画像合成装置1は、仮想平面を配置するコピーマーカ座標系による座標Vf〔fx、fy、fz〕を数式6に従い演算する(図7のS52)。
図2の説明に戻る。画像合成装置1は、仮想平面の中心点となるコピーマーカ座標系における座標点を演算すると、コピーマーカ座標系のXY平面に仮想平面を生成する(図2のS31)。例えば、画像合成装置1は、中心点が座標Vf、図2のS1で取得した半径r2の領域内に、テクスチャをシームレス化処理して貼り付けることで、画像合成装置1は、コピーマーカ座標系のXY平面に仮想平面を生成する。 Returning to the description of FIG. When calculating the coordinate point in the copy marker coordinate system that is the center point of the virtual plane, the image composition device 1 generates a virtual plane on the XY plane of the copy marker coordinate system (S31 in FIG. 2). For example, the image synthesizing apparatus 1 performs the seamless processing and pastes the texture into the area of the radius r2 acquired at S1 in FIG. A virtual plane is generated on the XY plane.
そして、画像合成装置1は、仮想平面を生成すると、コピーマーカ座標系のXY平面に形成した仮想平面に含まれる座標点を、コピーマーカ座標系からカメラ座標系への変換行列 Tceを用いて、カメラ座標系の座標点に変換することで、実写画像に仮想平面をレンダリングし、仮想平面を合成した実写画像を画像合成装置1のディスプレイに出力する(図2のS32)。 Then, when generating the virtual plane, the image composition device 1 uses the transformation matrix Tce from the copy marker coordinate system to the camera coordinate system to convert the coordinate points included in the virtual plane formed on the XY plane of the copy marker coordinate system, By converting the coordinate point of the camera coordinate system, the virtual plane is rendered on the real image, and the real image obtained by synthesizing the virtual plane is output to the display of the image composition device 1 (S32 in FIG. 2).
仮想平面を合成した実写画像を画像合成装置1のディスプレイに出力した後、次の処理を実施するか確認し、次の処理を実施するときは図2のS2に戻り、次の処理を実施しないときは、図2で図示したフローを終了する(図2のS33)。 After outputting the real image combined with the virtual plane to the display of the image synthesizing apparatus 1, it is confirmed whether or not the next process is to be performed. When the next process is performed, the process returns to S2 in FIG. 2 and the next process is not performed. If so, the flow illustrated in FIG. 2 is terminated (S33 in FIG. 2).
ここから、初期化処理が実施済みのとき処理について説明する。図2のステップS3において、画像合成装置1が、初期化処理が実施済みであると判断した場合、すなわち、初期化処理済みのフラグが立っている場合、画像合成装置1は、コピーマーカ2に印刷された模様を利用して、実写画像にコピーマーカ2が含まれているかどうかを判定する(図2のS20)。 From here, the process when the initialization process has been performed will be described. In step S <b> 3 of FIG. 2, when the image composition device 1 determines that the initialization process has been performed, that is, when the initialization process flag has been set, the image composition device 1 sets the copy marker 2. Using the printed pattern, it is determined whether or not the copy marker 2 is included in the photographed image (S20 in FIG. 2).
実写画像にコピーマーカ2が含まれている場合、画像合成装置1は、コピーマーカ2に印刷された模様から、コピーマーカ座標系からカメラ座標系への変換行列Tceを演算する(図2のS21)。 When the copy marker 2 is included in the photographed image, the image composition device 1 calculates a conversion matrix Tce from the copy marker coordinate system to the camera coordinate system from the pattern printed on the copy marker 2 (S21 in FIG. 2). ).
また、実写画像にコピーマーカ2が含まれていないと判定した場合、画像合成装置1は、ペーストマーカ3に印刷された模様を利用して、実写画像にペーストマーカ3が含まれているか判定し(図2のS22)、実写画像にペーストマーカ3が含まれていない場合は、図2のステップS2に戻る。 If it is determined that the copy marker 2 is not included in the photographed image, the image composition device 1 determines whether the paste marker 3 is included in the photographed image using the pattern printed on the paste marker 3. (S22 in FIG. 2) If the paste marker 3 is not included in the photographed image, the process returns to step S2 in FIG.
実写画像にペーストマーカ3が含まれている場合、画像合成装置1は、初期化処理で生成・記憶している変換行列Tpcを利用して、コピーマーカ座標系からカメラ座標系への変換行列Tceを算出する(図2のS23)。 When the photographed image includes the paste marker 3, the image composition device 1 uses the conversion matrix Tpc generated and stored in the initialization process to convert the copy marker coordinate system to the camera coordinate system Tce. Is calculated (S23 in FIG. 2).
図8は、図2のS22の詳細内容を説明するフロー図である。初期化処理で生成・記憶している変換行列Tpcを利用して、コピーマーカ座標系からカメラ座標系への変換行列Tceを算出するとき、まず、画像合成装置1は、ペーストマーカ3に印刷された模様から、ペーストマーカ座標系からカメラ座標系への変換行列Tpeを算出する(図8のS60)。 FIG. 8 is a flowchart for explaining the detailed contents of S22 of FIG. When calculating the transformation matrix Tce from the copy marker coordinate system to the camera coordinate system using the transformation matrix Tpc generated and stored in the initialization process, first, the image composition device 1 is printed on the paste marker 3. The transformation matrix Tpe from the paste marker coordinate system to the camera coordinate system is calculated from the pattern (S60 in FIG. 8).
そして、初期化処理によって演算・記憶したペーストマーカ座標系からコピーマーカ座標系への変換行列Tpcを利用してコピーマーカ座標系からカメラ座標系への変換行列TTceを数式7に従い演算する(図8のS61)。
図2のS21或いは図2のS23を実施した後、画像合成装置1は、図2のS30に進み、仮想平面を形成した後、実写画像に仮想平面を合成する。 After performing S21 in FIG. 2 or S23 in FIG. 2, the image composition apparatus 1 proceeds to S30 in FIG. 2, forms a virtual plane, and then synthesizes the virtual plane with the photographed image.
次に、本発明に係わる画像合成装置1に備えられた機能について説明する。図9は、画像合成装置1のハードウェアブロック図で、図10は、画像合成装置1の機能ブロック図である。画像合成装置1は、パーソナルコンピュータやサーバなどのコンピュータ装置で実現され、図9に図示したように、画像合成装置1は、画像合成装置1全体を制御するCPU10と、メインメモリであるRAM11と、大容量のデータ記憶装置であるハードディスク12と、カメラ1aから取得した実写画像を処理するための画像処理ボード13を備え、カメラ1a、キーボード1bおよびディプレイ1cなどが接続されている。 Next, functions provided in the image composition apparatus 1 according to the present invention will be described. FIG. 9 is a hardware block diagram of the image composition device 1, and FIG. 10 is a functional block diagram of the image composition device 1. The image composition device 1 is realized by a computer device such as a personal computer or a server. As illustrated in FIG. 9, the image composition device 1 includes a CPU 10 that controls the entire image composition device 1, a RAM 11 that is a main memory, A hard disk 12 that is a large-capacity data storage device and an image processing board 13 for processing a real image acquired from the camera 1a are provided, and a camera 1a, a keyboard 1b, a display 1c, and the like are connected.
図10に図示したように、3DCGを合成するときに邪魔になる対象物体4の画像を、ARの技術を利用して実写画像から仮想的に消去するために、画像合成装置1は、対象物体4の画像を仮想的に実写映像から消去するときに利用するパラメータを取得するパラメータ取得手段101と、実写画像を取得する実写画像取得手段102と、拡張現実感で利用されるマーカの模様を記憶し、マーカの模様を利用して、カメラ1aで撮影された実写画像に含まれるマーカを認識するマーカ認識手段103と、マーカ認識手段103が認識したマーカの模様から、マーカ認識手段103が認識したマーカのマーカ座標系を演算し、それぞれのマーカ座標系からカメラ座標系への変換行列を演算する変換行列演算手段104と、コピー元の画像を指定するコピーマーカ2の位置と定められたオフセット値を利用して、コピーマーカ2のマーカ座標系のXY平面に所定サイズのサンプリング領域を設定し、コピーマーカ2のマーカ座標系からカメラ座標系への変換行列を利用して、サンプリング領域に含まれる実写画像の画素から、定められたサイズのテクスチャを生成するテクスチャ生成手段105と、ペースト先を指定するペーストマーカ3の座標原点を利用して、実写画像に合成する仮想平面を配置するコピーマーカのマーカ座標系上の座標点を演算する配置座標演算手段106と、配置座標演算手段106が演算した座標点を中心点とし、テクスチャ生成手段105が生成したテクスチャを貼り付けた所定サイズの仮想平面を形成する仮想平面形成手段107と、コピーマーカ2のマーカ座標系からカメラ座標系への変換行列を利用して、仮想平面形成手段107が形成した仮想平面を実写画像に合成する画像合成手段108と、これらの手段を制御し、図2で図示した手順を実行する制御手段100を備えている。 As illustrated in FIG. 10, in order to virtually erase the image of the target object 4 that becomes an obstacle when combining 3DCG from the actual image using the AR technique, the image composition device 1 Parameter acquisition means 101 for acquiring parameters used when virtually erasing the four images from the live-action video, real-action image acquisition means 102 for acquiring the real-action image, and a marker pattern used for augmented reality is stored. Then, using the marker pattern, the marker recognizing unit 103 for recognizing the marker included in the photographed image taken by the camera 1a, and the marker recognizing unit 103 recognized from the marker pattern recognized by the marker recognizing unit 103. Calculation of marker coordinate system of marker, conversion matrix calculation means 104 for calculating conversion matrix from each marker coordinate system to camera coordinate system, and designation of copy source image A sampling area of a predetermined size is set on the XY plane of the marker coordinate system of the copy marker 2 by using the offset value determined as the position of the copy marker 2 to be copied, and the marker coordinate system of the copy marker 2 to the camera coordinate system is set. Using the transformation matrix, the texture generation means 105 that generates a texture of a predetermined size from the pixels of the actual image included in the sampling area and the coordinate origin of the paste marker 3 that specifies the paste destination, The coordinate generation unit 106 that calculates the coordinate point on the marker coordinate system of the copy marker that arranges the virtual plane to be combined with the image, and the coordinate point calculated by the arrangement coordinate calculation unit 106 are used as the center point, and the texture generation unit 105 generates the coordinate point. Virtual plane forming means 107 for forming a virtual plane of a predetermined size to which the texture is pasted, and the copy marker 2 Using the transformation matrix from the coordinate system to the camera coordinate system, the image synthesis means 108 for synthesizing the virtual plane formed by the virtual plane formation means 107 into a real image, and these means are controlled and shown in FIG. Control means 100 for executing the procedure is provided.
画像合成装置1のパラメータ取得手段101は、図2のS1を実行するための手段で、画像合成装置1のパラメータ取得手段101は様々な形態で実現可能である。例えば、ディスプレイ1cにパラメータを入力するための画面を表示させ、キーボード1bから入力されたデータを取得する形態や、ディスプレイ1cにファイル名を入力するための画面を表示させ、ハードディスク12に記憶されたファイルの中から、ファイル名で特定されるファイルからデータを読み込む形態などで実現される。 The parameter acquisition means 101 of the image composition apparatus 1 is a means for executing S1 in FIG. 2, and the parameter acquisition means 101 of the image composition apparatus 1 can be realized in various forms. For example, a screen for inputting parameters is displayed on the display 1c and data input from the keyboard 1b is acquired, or a screen for inputting a file name is displayed on the display 1c and stored in the hard disk 12. This is realized by reading data from a file specified by a file name.
画像合成装置1の実写画像取得手段102は、図2のS2を実行するための手段で、画像合成装置1に接続されたカメラ1aから実写画像をリアルタイムでRAM11に読み込む形態や、ハードディスク12に記憶されている画像ファイルをRAM11に読み込む形態などで実現される。 The photographed image acquisition means 102 of the image composition apparatus 1 is a means for executing S2 of FIG. 2, in which a photographed image is read into the RAM 11 in real time from the camera 1a connected to the image composition apparatus 1, or stored in the hard disk 12. This is realized in the form of reading the image file being read into the RAM 11.
画像合成装置1のマーカ認識手段103は、図2のS10、S20およびS22を実行するための手段で、一般的なAR技術と同様に、図5(a)、(b)で図示したような四角枠を認識することで、実写画像に含まれるマーカを認識し、更に、この四角枠内に含まれる文字(ここでは、「P」或いは「C」)から、実写画像に含まれるマーカの種別を認識する手段である。 The marker recognizing means 103 of the image synthesizing apparatus 1 is a means for executing S10, S20 and S22 of FIG. 2, and as shown in FIGS. 5 (a) and 5 (b) as in the general AR technique. By recognizing the square frame, the marker included in the live-action image is recognized, and further, the type of the marker included in the live-action image is determined from the characters (in this case, “P” or “C”) included in the square frame. It is a means to recognize.
画像合成装置1の変換行列演算手段104は、図2のS11、S21およびS23を実行するための手段で、図2のS11、S21およびS23を実行するとき、一般的なAR技術と同様に、マーカ認識手段が認識したマーカに印刷された模様(ここでは、四角枠)から、マーカ座標系からカメラ座標系への変換行列Tceや変換行列Tpeを演算する。 2 is a means for executing S11, S21 and S23 of FIG. 2, and when executing S11, S21 and S23 of FIG. 2, the transformation matrix calculation means 104 is similar to the general AR technique. A conversion matrix Tce and a conversion matrix Tpe from the marker coordinate system to the camera coordinate system are calculated from a pattern (here, a square frame) printed on the marker recognized by the marker recognition means.
更に、変換行列演算手段104は、図2のS11を実行するときに、コピーマーカ座標系からカメラ座標系への変換行列Tceと、ペーストマーカ座標系からカメラ座標系への変換行列Tpeを用いて行列演算を行い、カメラ座標系からコピーマーカ座標系への変換行列Tecとカメラ座標系からペーストマーカ座標系への変換行列Tepを演算する。 Furthermore, the transformation matrix calculation means 104 uses the transformation matrix Tce from the copy marker coordinate system to the camera coordinate system and the transformation matrix Tpe from the paste marker coordinate system to the camera coordinate system when executing S11 of FIG. Matrix calculation is performed to calculate a conversion matrix Tec from the camera coordinate system to the copy marker coordinate system and a conversion matrix Tep from the camera coordinate system to the paste marker coordinate system.
画像合成装置1のテクスチャ生成手段105は、図2のS12を実行する手段で、コピーマーカ座標の原点から、パラメータ取得手段101が取得したパラメータに含まれるオフセット値だけずれた点を中心とし、パラメータに含まれるサイズ(例えば、半径r1)の領域をサンプリング領域としてコピーマーカ座標系に設定し、変換行列Tceを用いて、サンプリング領域から抽出した実写画像の画素から、パラメータのテクスチャサイズと重なりサイズを用いて、コンピュータ分野において広く知られる既知技術によってシームレス化したテクスチャを生成する手段である。 The texture generation unit 105 of the image composition apparatus 1 is a unit that executes S12 of FIG. 2, and is centered on a point that is shifted from the origin of the copy marker coordinates by the offset value included in the parameter acquired by the parameter acquisition unit 101. Is set in the copy marker coordinate system as a sampling area, and the texture size and overlap size of the parameter are determined from pixels of the captured image extracted from the sampling area using the transformation matrix Tce. Used to create a texture that is seamless by known techniques widely known in the computer field.
画像合成装置1の配置座標演算手段106は、図2のS30を実行する手段で、図7で示した手順に従い、コピーマーカ座標系のXY平面において、仮想平面の中心点となる座標点を演算する手段である。 The arrangement coordinate calculation means 106 of the image synthesizing apparatus 1 is a means for executing S30 of FIG. 2, and calculates a coordinate point that becomes the center point of the virtual plane in the XY plane of the copy marker coordinate system according to the procedure shown in FIG. It is means to do.
画像合成装置1の仮想平面形成手段107は、図2のS31を実行する手段で、テクスチャ生成手段107が生成したテクスチャをシームレス化処理して貼り付けることで、配置座標演算手段106が演算したコピーマーカ座標系のXY平面の座標点を中心に、定められたサイズの仮想平面を生成する手段である。 The virtual plane forming unit 107 of the image synthesizing apparatus 1 is a unit that executes S31 of FIG. 2 and a copy calculated by the arrangement coordinate calculating unit 106 by pasting the texture generated by the texture generating unit 107 by performing a seamless process. This is a means for generating a virtual plane of a predetermined size around the coordinate point of the XY plane of the marker coordinate system.
画像合成装置1の画像合成手段108は、図2のS32を実行する手段で、コピーマーカ座標系からカメラ座標系への変換行列 Tceを用いて、仮想平面形成手段107が形成した仮想平面を、カメラ座標系の座標点に変換することで、実写画像に仮想平面をレンダリングし、仮想平面を合成した実写画像を画像合成装置1のディスプレイに出力する手段である。 The image synthesizing unit 108 of the image synthesizing apparatus 1 is a unit that executes S32 of FIG. 2, and uses the transformation matrix Tce from the copy marker coordinate system to the camera coordinate system to create the virtual plane formed by the virtual plane forming unit 107. This is a means for rendering a virtual plane on a live-action image by converting it into a coordinate point in the camera coordinate system, and outputting the real-image obtained by synthesizing the virtual plane to the display of the image composition device 1.
画像合成装置1の制御手段100は、上述した手段を制御し、図2で図示した手順を実行するための手段である。 The control unit 100 of the image composition apparatus 1 is a unit for controlling the above-described units and executing the procedure illustrated in FIG.
画像合成装置1に備えられた各手段は、画像合成装置1を各手段として機能させるためのコンピュータプログラムで実現され、画像合成装置1のハードディスク12や画像処理ボード13には、このコンピュータプログラムのプログラムコードが実装されている。なお、画像合成装置1の制御手段100は、コンピュータプログラムのメインルーチンに相当し、制御手段100以外の手段は、メインルーチンから呼び出されるサブルーチンに相当する。 Each means provided in the image composition apparatus 1 is realized by a computer program for causing the image composition apparatus 1 to function as each means. The hard disk 12 and the image processing board 13 of the image composition apparatus 1 have the program of this computer program. The code is implemented. The control means 100 of the image composition apparatus 1 corresponds to a main routine of a computer program, and means other than the control means 100 correspond to a subroutine called from the main routine.
これまで述べた様に、画像合成装置1が、3DCGを合成するときに邪魔になる対象物体4の画像を実写画像から仮想的に消去した後に、ARの技術を用いて3DCGを合成すれば、自然さを失うことなく3DCGを実写画像に合成することが可能になる。 As described above, if the image composition device 1 virtually erases the image of the target object 4 that becomes an obstacle when composing 3DCG from the actual image, and then composes 3DCG using the AR technology, It is possible to synthesize 3DCG into a real image without losing naturalness.
1 画像合成装置
2 コピーマーカ
3 ペーストマーカ
4 対象物体
1 Image composition device 2 Copy marker 3 Paste marker 4 Target object
Claims (6)
6. The image synthesizing method according to claim 4, wherein, in the step b, the computer device adds the copy marker and the paste in addition to a conversion matrix from the marker coordinate system to the camera coordinate system of the marker. After calculating / storing the conversion matrix between the marker coordinate systems of the markers and calculating / storing the conversion matrix between the marker coordinate systems of the copy marker and the paste marker, in step a, the copy marker or the paste marker The computer device cannot detect from the photographed image using the transformation matrix between the marker coordinate systems of the copy marker and the paste marker in step b. An image synthesizing method comprising calculating a transformation matrix related to the marker.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008195734A JP2010033397A (en) | 2008-07-30 | 2008-07-30 | Image composition device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008195734A JP2010033397A (en) | 2008-07-30 | 2008-07-30 | Image composition device and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010033397A true JP2010033397A (en) | 2010-02-12 |
Family
ID=41737772
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008195734A Pending JP2010033397A (en) | 2008-07-30 | 2008-07-30 | Image composition device and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010033397A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011096227A (en) * | 2010-06-11 | 2011-05-12 | Nintendo Co Ltd | Program, device, system and method of image recognition |
JP2012018663A (en) * | 2010-06-10 | 2012-01-26 | Nintendo Co Ltd | Image processing program, image processing apparatus, image processing system and image processing method |
KR101338700B1 (en) | 2011-01-27 | 2013-12-06 | 주식회사 팬택 | Augmented reality system and method that divides marker and shares |
CN103473746A (en) * | 2013-09-16 | 2013-12-25 | 浙江工业大学 | Real-time removing method for augmented reality calibration plate |
JP2017192106A (en) * | 2016-04-15 | 2017-10-19 | キヤノン株式会社 | Imaging apparatus and control method of the same |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000350860A (en) * | 1999-06-11 | 2000-12-19 | Mr System Kenkyusho:Kk | Composite reality feeling device and method for generating composite real space picture |
JP2005157611A (en) * | 2003-11-25 | 2005-06-16 | Canon Inc | Image processor and image processing method |
-
2008
- 2008-07-30 JP JP2008195734A patent/JP2010033397A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000350860A (en) * | 1999-06-11 | 2000-12-19 | Mr System Kenkyusho:Kk | Composite reality feeling device and method for generating composite real space picture |
JP2005157611A (en) * | 2003-11-25 | 2005-06-16 | Canon Inc | Image processor and image processing method |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012018663A (en) * | 2010-06-10 | 2012-01-26 | Nintendo Co Ltd | Image processing program, image processing apparatus, image processing system and image processing method |
JP2011096227A (en) * | 2010-06-11 | 2011-05-12 | Nintendo Co Ltd | Program, device, system and method of image recognition |
KR101338700B1 (en) | 2011-01-27 | 2013-12-06 | 주식회사 팬택 | Augmented reality system and method that divides marker and shares |
CN103473746A (en) * | 2013-09-16 | 2013-12-25 | 浙江工业大学 | Real-time removing method for augmented reality calibration plate |
JP2017192106A (en) * | 2016-04-15 | 2017-10-19 | キヤノン株式会社 | Imaging apparatus and control method of the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7231306B2 (en) | Method, Apparatus and System for Automatically Annotating Target Objects in Images | |
CN107251101B (en) | Scene modification for augmented reality using markers with parameters | |
JP7337104B2 (en) | Model animation multi-plane interaction method, apparatus, device and storage medium by augmented reality | |
US9495802B2 (en) | Position identification method and system | |
JP4401727B2 (en) | Image display apparatus and method | |
KR101135186B1 (en) | System and method for interactive and real-time augmented reality, and the recording media storing the program performing the said method | |
JP5299173B2 (en) | Image processing apparatus, image processing method, and program | |
US20080204453A1 (en) | Method and apparatus for generating three-dimensional model information | |
KR101410273B1 (en) | Method and apparatus for environment modeling for ar | |
JP2006072903A (en) | Image compositing method and device | |
JP2006120166A (en) | Perspective editing tool for 2-d image | |
JP2015082830A (en) | Guide method, information processing apparatus, and guide program | |
Viyanon et al. | AR furniture: Integrating augmented reality technology to enhance interior design using marker and markerless tracking | |
JP2010033397A (en) | Image composition device and method | |
JP2016071682A (en) | Object arrangement device, object arrangement method, and program | |
JP2007034981A (en) | Image processing system, and image processing device | |
JP6555755B2 (en) | Image processing apparatus, image processing method, and image processing program | |
CN113486941A (en) | Live image training sample generation method, model training method and electronic equipment | |
JP2006311080A (en) | Texture image generation method, image processor, program, and recording medium | |
JP2832463B2 (en) | 3D model reconstruction method and display method | |
KR20120118462A (en) | Concave surface modeling in image-based visual hull | |
KR101285111B1 (en) | Conversion device for two dimensional image to three dimensional image, and method thereof | |
JP5865092B2 (en) | Image processing apparatus, image processing method, and program | |
JP2005107968A (en) | Image display device and method, and information processing method | |
JP2005339363A (en) | Device and method for automatically dividing human body part |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110520 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120424 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120821 |