JP2004288148A - Image processing method, system and device, and computer program - Google Patents

Image processing method, system and device, and computer program Download PDF

Info

Publication number
JP2004288148A
JP2004288148A JP2003305383A JP2003305383A JP2004288148A JP 2004288148 A JP2004288148 A JP 2004288148A JP 2003305383 A JP2003305383 A JP 2003305383A JP 2003305383 A JP2003305383 A JP 2003305383A JP 2004288148 A JP2004288148 A JP 2004288148A
Authority
JP
Japan
Prior art keywords
image
captured
pattern
captured image
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003305383A
Other languages
Japanese (ja)
Inventor
Xu Gang
剛 徐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyoto Robotics Corp
Original Assignee
3D Media Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 3D Media Co Ltd filed Critical 3D Media Co Ltd
Priority to JP2003305383A priority Critical patent/JP2004288148A/en
Priority to PCT/JP2004/002677 priority patent/WO2004079653A1/en
Publication of JP2004288148A publication Critical patent/JP2004288148A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing method for eliminating the distortion of an image, an image processing system, an image processing device and a computer program. <P>SOLUTION: An imaged object is placed on a sheet having a specific pattern, to take its image, and the obtained image is read in the image processing device (S1). Then the features on the image and the features on the pattern are corresponded to each other (S3) after performing the correction of an imaging device (S2), and an initial value of each element of a projective transformation row is calculated (S4). The evaluation function relating to a position coordinate of converting destination is determined (S5), then each element of the projective transformation row is optimized on the basis of the determined evaluation function (S6), and the composite processing of a front image is performed (S7) to produce the front image free from the distortion. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、撮像画像に生じる歪みを除去する画像処理方法、画像処理システム、画像処理装置、及び該画像処理装置を実現させるためのコンピュータプログラムに関する。   The present invention relates to an image processing method for removing distortion generated in a captured image, an image processing system, an image processing device, and a computer program for realizing the image processing device.

近年、アパレル分野においては、衣類等のデザインを効率的に行うために実寸大の型紙をスキャナ装置等の光学式読取装置で読取り、読取って得られたデジタルの画像データをコンピュータ上で編集する作業が行われている。   In recent years, in the field of apparel, in order to efficiently design clothes and the like, the work of reading digital image data obtained by reading a full-size pattern with an optical reading device such as a scanner device and reading the same on a computer. Has been done.

しかしながら、実寸大の大きさの型紙を読取るためには、大型の光学式読取装置が必要となり、導入コストが上昇するという問題点を有していた。また、入力作業にも手間がかかるため、このような装置の導入が容易に実現できないという問題点を有していた。   However, in order to read the actual size of the paper pattern, a large-sized optical reader is required, and there is a problem that the introduction cost is increased. In addition, there is a problem in that it takes time and effort to perform the input operation, so that introduction of such a device cannot be easily realized.

そこで、従来では、デジタルカメラ等の撮像装置で型紙を撮像し、撮像して得られた画像データを光学式読取装置で読込んだ画像データの代わりに利用することが提案されている(例えば、特許文献1参照)。   Therefore, conventionally, it has been proposed to take an image of a pattern with an imaging device such as a digital camera and use the image data obtained by imaging instead of the image data read by an optical reading device (for example, Patent Document 1).

このように、デジタルカメラ等の撮像装置で撮像して得られた画像データを利用する場合、撮像対象物に対して真正面から撮像しない限り、得られた撮像画像には、撮像した際の撮像装置の位置及び姿勢に起因する歪みが生じることとなる。そこで、特許文献1に記載されたシステムでは、撮像して得られた画像を画像処理装置内に取込み、画像処理を行うことによって撮像画像の歪みを除去することを行っている。
特開2002−366947号公報
As described above, when using image data obtained by imaging with an imaging device such as a digital camera, an obtained imaging image includes an imaging device at the time of imaging unless the imaging object is imaged directly from the front. Will result in distortion due to the position and orientation. Therefore, in the system described in Patent Literature 1, an image obtained by capturing an image is taken into an image processing apparatus, and image processing is performed to remove distortion of the captured image.
JP-A-2002-366947

特許文献1に記載されたシステムでは、格子画像が描画された透明シートを撮像対象物の上に載置し、その状態で撮像装置で撮像し、得られた画像に写っている格子画像の歪みを元に撮像画像の歪みを補正する構成となっている。したがって、このような手法により得られた撮像画像には、必ず撮像対象物の上に格子画像が印加されていることとなり、光学式読取装置で得られる画像と同じ画像を得ることができないという問題点を有している。   In the system described in Patent Literature 1, a transparent sheet on which a grid image is drawn is placed on an imaging target, and an image is captured by an imaging device in that state, and distortion of the grid image in the obtained image is obtained. Is used to correct the distortion of the captured image. Therefore, in a captured image obtained by such a method, a lattice image is always applied to an imaging target, and the same image as an image obtained by an optical reading device cannot be obtained. Have a point.

本発明は斯かる事情に鑑みてなされたものであり、所定のパターンを形成してある載置面上に載置した撮像対象物の撮像画像を取込み、予め記憶させておいたパターン上の複数の特徴点の位置情報と対応する撮像画像上での対応点の位置情報とに基づき、前記撮像対象物を撮像した際の撮像画像と載置面との間の幾何学的関係を定め、定めた幾何学的関係に基づいて撮像画像の歪みを補正する構成とすることにより、撮像対象物の画像に影響を与えることなく、歪みを補正した画像を生成することができる画像処理方法、画像処理システム、画像処理装置、及びコンピュータプログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and takes in a captured image of an imaging target placed on a mounting surface on which a predetermined pattern is formed, and stores a plurality of images on the pattern stored in advance. Based on the position information of the feature points and the position information of the corresponding points on the corresponding captured image, determine the geometric relationship between the captured image and the mounting surface when capturing the imaging target, and determine Image processing method and image processing capable of generating a distortion-corrected image without affecting the image of the imaging target object by using a configuration that corrects the distortion of the captured image based on the geometric relationship It is an object to provide a system, an image processing device, and a computer program.

第1発明に係る画像処理方法は、撮像対象物を撮像して得られた撮像画像を画像処理装置に取込み、取込んだ撮像画像の歪みを補正した補正画像を生成する画像処理方法において、前記撮像画像は、所定のパターンを形成してある載置面上に載置した撮像対象物を前記パターンと共に撮像して得られた画像であり、前記パターン上の複数の特徴点の位置情報を予め記憶しておき、前記特徴点に対応する前記撮像画像上の対応点の位置情報を受付け、前記特徴点の位置情報と前記対応点の位置情報とに基づき、前記載置面と前記撮像対象物を撮像した際の撮像画像との間の幾何学的関係を定め、定めた幾何学的関係に基づいて前記撮像画像の歪みを補正することを特徴とする。   An image processing method according to a first aspect of the present invention is the image processing method according to claim 1, wherein a captured image obtained by capturing an imaging target object is captured by an image processing apparatus, and a distortion-corrected image of the captured captured image is generated. The captured image is an image obtained by capturing an image of an imaging target placed on a mounting surface on which a predetermined pattern is formed, together with the pattern, and preliminarily stores position information of a plurality of feature points on the pattern. Receiving the position information of the corresponding point on the captured image corresponding to the feature point, and based on the position information of the feature point and the position information of the corresponding point, the placement surface and the imaging object A geometric relationship between the captured image and the captured image is determined, and distortion of the captured image is corrected based on the determined geometric relationship.

第2発明に係る画像処理方法は、撮像対象物を撮像装置により撮像して得られた撮像画像を画像処理装置に取込み、取込んだ撮像画像の歪みを補正した補正画像を生成する画像処理方法において、前記撮像画像は、所定のパターンを形成してある載置面上に載置した撮像対象物を撮像して得られた画像であり、前記撮像対象物を撮像した際の前記撮像装置の姿勢を同一にして前記パターンを撮像した基準画像を前記画像処理装置に取込み、前記パターン上の複数の特徴点の位置情報を予め記憶しておき、前記特徴点に対応する前記基準画像上の対応点の位置情報を受付け、前記特徴点の位置情報と前記対応点の位置情報とに基づき、前記載置面と前記パターンを撮像した際の撮像画像との間の幾何学的関係を定め、定めた幾何学的関係に基づいて前記撮像画像の歪みを補正することを特徴とする。   An image processing method according to a second aspect of the present invention is an image processing method for capturing a captured image obtained by capturing an image of an object to be captured by an image capturing apparatus into an image processing apparatus, and generating a corrected image in which the captured captured image is corrected for distortion. In the captured image is an image obtained by capturing an image of an imaging target placed on a mounting surface on which a predetermined pattern is formed, and the imaging device of the imaging device when the imaging target is imaged. A reference image obtained by capturing the pattern with the same posture is taken into the image processing apparatus, and position information of a plurality of feature points on the pattern is stored in advance, and a correspondence on the reference image corresponding to the feature point is stored. Accepting the position information of the point, based on the position information of the feature point and the position information of the corresponding point, determine the geometric relationship between the mounting surface described above and the captured image when capturing the pattern, and determine Based on the geometric relationship And correcting distortion of the captured image Te.

第3発明に係る画像処理ステムは、撮像対象物を載置するための載置面を有する載置部と、前記載置面上に載置した撮像対象物を撮像する撮像装置と、該撮像装置により得られた撮像画像を取込み、取込んだ撮像画像の歪みを補正した補正画像を生成する画像処理装置とを備える画像処理システムにおいて、前記載置面には所定のパターンを形成してあり、前記画像処理装置は、前記載置面に載置した撮像対象物を前記パターンと共に撮像して得られた撮像画像を取込むべくなしてあり、前記パターン上の複数の特徴点の位置情報を予め記憶する手段と、前記特徴点に対応する前記撮像画像上の対応点の位置情報を受付ける手段と、前記特徴点の位置情報と前記対応点の位置情報とに基づき、前記載置面と前記撮像対象物を撮像した際の撮像画像との間の幾何学的関係を定める手段と、定めた幾何学的関係に基づいて前記撮像画像の歪みを補正する手段とを備えることを特徴とする。   An image processing stem according to a third aspect of the present invention includes: a mounting section having a mounting surface for mounting an imaging target; an imaging device configured to image the imaging target mounted on the mounting surface; An image processing system comprising: a captured image obtained by the device; and an image processing device configured to generate a corrected image in which a distortion of the captured image is corrected. The image processing apparatus is configured to capture a captured image obtained by capturing an image of an imaging target mounted on the mounting surface together with the pattern, and obtain position information of a plurality of feature points on the pattern. A means for storing in advance, a means for receiving position information of a corresponding point on the captured image corresponding to the feature point, and the placement surface described above based on the position information of the feature point and the position information of the corresponding point. Imaging when capturing an image of an object Characterized in that it comprises means for determining the geometric relationship between the image, and means for correcting distortion of the captured image based on the geometrical relationship determined.

第4発明に係る画像処理システムは、撮像対象物を載置するための載置面を有する載置部と、前記載置面上に載置した撮像対象物を撮像する撮像装置と、該撮像装置により得られた撮像画像を取込み、取込んだ撮像画像の歪みを補正した補正画像を生成する画像処理装置とを備える画像処理システムにおいて、前記載置面には所定のパターンを形成してあり、前記画像処理装置は、前記載置面上に載置した撮像対象物を前記撮像装置により撮像した撮像画像と、前記撮像対象物を撮像した際の前記撮像装置の姿勢を同一にして前記パターンを撮像した基準画像とを取込むべくなしてあり、前記パターン上の複数の特徴点の位置情報を予め記憶する手段と、前記特徴点に対応する前記基準画像上の対応点の位置情報を受付ける手段と、前記特徴点の位置情報と前記対応点の位置情報とに基づき、前記載置面と前記パターンを撮像した際の撮像画像との間の幾何学的関係を定める手段と、定めた幾何学的関係に基づいて前記撮像画像の歪みを補正する手段とを備えることを特徴とする。   An image processing system according to a fourth aspect of the present invention provides a mounting section having a mounting surface on which an imaging target is mounted, an imaging device configured to image the imaging target mounted on the mounting surface, An image processing system comprising: a captured image obtained by the device; and an image processing device configured to generate a corrected image in which a distortion of the captured image is corrected. The image processing apparatus may be configured such that the captured image obtained by capturing the imaging target placed on the mounting surface by the imaging device and the orientation of the imaging device when capturing the imaging target are the same and the pattern is Means for pre-storing position information of a plurality of feature points on the pattern, and receiving position information of a corresponding point on the reference image corresponding to the feature point. Means and said features Means for determining a geometric relationship between the placement surface and the captured image when the pattern is captured, based on the location information and the location information of the corresponding point, based on the determined geometric relationship. Means for correcting distortion of the captured image.

第5発明に係る画像処理システムは、第3発明又は第4発明に係る画像処理システムにおいて、前記幾何学的関係は、前記特徴点と前記対応点との間の射影変換により表されることを特徴とする。   An image processing system according to a fifth invention is the image processing system according to the third invention or the fourth invention, wherein the geometric relationship is represented by projective transformation between the feature point and the corresponding point. Features.

第6発明に係る画像処理システムは、第3発明乃至第5発明の何れかの画像処理システムにおいて、生成すべき補正画像上の点を前記幾何学的関係に従って変換する手段と、変換した点の色情報を前記撮像画像から取得する手段とを更に備え、取得した色情報に基づいて補正画像を生成すべくなしてあることを特徴とする。   An image processing system according to a sixth aspect of the present invention is the image processing system according to any of the third to fifth aspects, wherein: a means for converting a point on the corrected image to be generated in accordance with the geometric relationship; Means for acquiring color information from the captured image, wherein a corrected image is generated based on the acquired color information.

第7発明に係る画像処理システムは、第3発明乃至第6発明の何れかの画像処理システムにおいて、前記パターン画像は格子状の画像であることを特徴とする。   An image processing system according to a seventh aspect of the present invention is the image processing system according to any of the third to sixth aspects, wherein the pattern image is a grid-like image.

第8発明に係る画像処理装置は、撮像対象物の撮像画像を取込み、取込んだ撮像画像の歪みを補正した補正画像を生成する画像処理装置において、所定のパターンを形成してある載置面上に載置した撮像対象物を前記パターンと共に撮像して得られた撮像画像を取込むべくなしてあり、前記パターン上の複数の特徴点の位置情報を予め記憶する手段と、前記特徴点に対応する前記撮像画像上の対応点の位置情報を受付ける手段と、前記特徴点の位置情報と前記対応点の位置情報とに基づき、前記載置面と前記撮像対象物を撮像した際の撮像画像との間の幾何学的関係を定める手段と、定めた幾何学的関係に基づいて前記撮像画像の歪みを補正する手段とを備えることを特徴とする。   An image processing apparatus according to an eighth aspect of the present invention is an image processing apparatus which captures a captured image of an imaging target object and generates a corrected image in which distortion of the captured image is corrected. Means for pre-storing positional information of a plurality of feature points on the pattern, the means for capturing a captured image obtained by capturing an image of the imaging object mounted on the pattern together with the pattern; Means for receiving position information of a corresponding point on the corresponding captured image, and a captured image when the mounting surface and the imaging target are imaged, based on the position information of the feature point and the position information of the corresponding point. And means for correcting distortion of the captured image based on the determined geometric relationship.

第9発明に係る画像処理装置は、撮像装置により得られた撮像対象物の撮像画像を取込み、取込んだ撮像画像の歪みを補正した補正画像を生成する画像処理装置において、所定のパターンを形成してある載置面上に載置した撮像対象物を撮像して得られた撮像画像と、前記撮像対象物を撮像した際の前記撮像装置の姿勢を同一にして前記パターンを撮像した基準画像とを取込むべくなしてあり、前記パターン上の複数の特徴点の位置情報を予め記憶する手段と、前記特徴点に対応する前記基準画像上の対応点の位置情報を受付ける手段と、前記特徴点の位置情報と前記対応点の位置情報とに基づき、前記載置面と前記パターンを撮像した際の撮像画像との間の幾何学的関係を定める手段と、定めた幾何学的関係に基づいて前記撮像画像の歪みを補正する手段とを備えることを特徴とする。   An image processing apparatus according to a ninth aspect of the present invention is an image processing apparatus which captures a captured image of an imaging target obtained by an imaging apparatus and generates a corrected image in which distortion of the captured image is corrected. A captured image obtained by capturing an image of the imaging target placed on the mounting surface, and a reference image obtained by capturing the pattern with the same orientation of the imaging device when the imaging target is imaged. Means for pre-storing position information of a plurality of feature points on the pattern, means for receiving position information of a corresponding point on the reference image corresponding to the feature point, Means for determining a geometric relationship between the placement surface and a captured image when the pattern is captured, based on the positional information of the point and the positional information of the corresponding point, based on the determined geometric relationship Distortion of the captured image Characterized in that it comprises a means for correcting.

第10発明に係るコンピュータプログラムは、コンピュータに、受付けた画像の歪みを補正した補正画像を生成させるステップを有するコンピュータプログラムにおいて、前記画像は、所定のパターンを形成してある載置面上に載置した撮像対象物を前記パターンと共に撮像して得られた撮像画像であり、コンピュータに、前記パターン上の特徴点に対応した撮像画像上の対応点の位置情報を受付けさせるステップと、コンピュータに、前記対応点の位置情報と予め記憶された前記特徴点の位置情報とに基づき、前記載置面と前記撮像対象物を撮像した際の撮像画像との間の幾何学的関係を定めさせるステップと、コンピュータに、定めた幾何学的関係に基づいて前記撮像画像の歪みを補正させるステップとを有することを特徴とする。   A computer program according to a tenth aspect is a computer program having a step of causing a computer to generate a corrected image in which a distortion of a received image is corrected, wherein the image is mounted on a mounting surface on which a predetermined pattern is formed. A captured image obtained by capturing the placed imaging target together with the pattern, and causing the computer to receive position information of a corresponding point on the captured image corresponding to a feature point on the pattern; and Based on the position information of the corresponding point and the position information of the feature point stored in advance, a step of determining a geometric relationship between the mounting surface and the captured image when the imaging target is imaged. And causing the computer to correct the distortion of the captured image based on the determined geometric relationship.

第11発明に係るコンピュータプログラムは、コンピュータに、受付けた画像の歪みを補正した補正画像を生成させるステップを有するコンピュータプログラムにおいて、前記画像は、所定のパターンを形成してある載置面上に載置した撮像対象物を撮像装置により撮像して得られた撮像画像、及び前記撮像画像を撮像した際の前記撮像装置の姿勢を同一にして前記パターンを撮像した基準画像であり、コンピュータに、前記パターン上の特徴点に対応する前記基準画像上の対応点の位置情報を受付けさせるステップと、コンピュータに、前記対応点の位置情報と予め記憶された前記特徴点の位置情報とに基づき、前記載置面と前記パターンを撮像した際の撮像画像との間の幾何学的関係を定めさせるステップと、コンピュータに、定めた幾何学的関係に基づいて前記撮像画像の歪みを補正させるステップとを有することを特徴とする。   A computer program according to an eleventh aspect of the present invention is a computer program having a step of causing a computer to generate a corrected image in which a distortion of a received image is corrected, wherein the image is mounted on a mounting surface on which a predetermined pattern is formed. A captured image obtained by capturing the placed imaging target by an imaging device, and a reference image of the pattern captured with the same orientation of the imaging device when capturing the captured image. Receiving the position information of the corresponding point on the reference image corresponding to the characteristic point on the pattern; and causing a computer to perform the processing based on the position information of the corresponding point and the position information of the characteristic point stored in advance. Causing the computer to determine a geometric relationship between the mounting surface and the captured image of the pattern. And having a step of correcting distortion of the captured image on the basis of histological relationship.

第1発明、第3発明、第8発明、及び第10発明にあっては、所定のパターンを形成してある載置面上に載置した撮像対象物の撮像画像を取込み、パターン上の特徴点に対応する撮像画像上の対応点の位置情報を受付け、前記特徴点の位置情報と前記対応点の位置情報とに基づき、前記撮像対象物を撮像した際の撮像画像と載置面との間の幾何学的関係を定め、定めた幾何学的関係に基づいて撮像画像の歪みを補正するようにしている。したがって、撮像画像に歪みが生じている場合には、撮像画像に写されているパターンの歪みに基づいて補正することが容易となり、パターンを形成した載置面上に撮像対象物を載置した状態で撮像しているため、生成する補正画像において撮像対象物の画像上には余分な画像が印加されることがなくなる。   In the first invention, the third invention, the eighth invention, and the tenth invention, a captured image of an imaging object mounted on a mounting surface on which a predetermined pattern is formed is captured, and the feature on the pattern is obtained. Position information of the corresponding point on the captured image corresponding to the point is received, and based on the position information of the feature point and the position information of the corresponding point, the captured image and the mounting surface when the imaging target is imaged are captured. The geometrical relationship between them is determined, and the distortion of the captured image is corrected based on the determined geometrical relationship. Therefore, when distortion is generated in the captured image, it is easy to correct based on the distortion of the pattern shown in the captured image, and the imaging target is placed on the mounting surface on which the pattern is formed. Since the image is captured in the state, no extra image is applied to the image of the imaging target in the generated corrected image.

第2発明、第4発明、第9発明、及び第11発明にあっては、所定のパターンを形成してある載置面上に載置した撮像対象物の撮像画像と、撮像装置の姿勢を同一にした状態で前記パターンを撮像した基準画像とを取込み、パターン上の特徴点に対応する撮像画像上の対応点の位置情報を受付け、前記特徴点の位置情報と前記対応点の位置情報とに基づき、前記撮像対象物を撮像した際の撮像画像と載置面との間の幾何学的関係を定め、定めた幾何学的関係に基づいて撮像画像の歪みを補正するようにしている。したがって、撮像画像に歪みが生じている場合には、撮像画像に写されているパターンの歪みに基づいて補正することが容易となり、パターンを形成した載置面上に撮像対象物を載置した状態で撮像しているため、生成する補正画像において撮像対象物の画像上には余分な画像が印加されることがなくなり、また、画像面積を有効に活用できる。   In the second invention, the fourth invention, the ninth invention, and the eleventh invention, the image of the imaging object mounted on the mounting surface on which the predetermined pattern is formed, and the posture of the imaging device are changed. A reference image obtained by capturing the pattern in the same state is taken, and position information of a corresponding point on a captured image corresponding to a feature point on the pattern is received, and the position information of the feature point and the position information of the corresponding point are received. The geometric relationship between the captured image when the imaging object is captured and the mounting surface is determined based on the geometrical relationship, and the distortion of the captured image is corrected based on the determined geometric relationship. Therefore, when distortion is generated in the captured image, it is easy to correct based on the distortion of the pattern shown in the captured image, and the imaging target is placed on the mounting surface on which the pattern is formed. Since imaging is performed in the state, no extra image is applied to the image of the imaging target in the generated corrected image, and the image area can be effectively used.

第5発明にあっては、パターン上の特徴点と撮像画像上の対応点との射影変換により、載置面と撮像画像との幾何学的関係を定めるようにしている。したがって、両画像において対応する点の位置情報を受付けるだけで、両画像間に成立つ幾何学的関係を定めることができ、撮像画像の歪みを除去した補正画像の生成が容易となる。   In the fifth invention, the geometric relationship between the mounting surface and the captured image is determined by projective transformation between the feature points on the pattern and the corresponding points on the captured image. Therefore, only by accepting the position information of the corresponding points in the two images, a geometrical relationship established between the two images can be determined, and it becomes easy to generate a corrected image in which the distortion of the captured image has been removed.

第6発明にあっては、生成する補正画像上の点の色情報は、補正画像上の点を幾何学的関係に従って変換し、変換した点の色情報を撮像画像から取得するようにしているため、補正画像を構成するすべての点の色情報を定めることができ、補正画像が容易に生成される。   In the sixth aspect, the color information of the point on the corrected image to be generated is such that the point on the corrected image is converted according to a geometric relationship, and the color information of the converted point is obtained from the captured image. Therefore, color information of all points constituting the corrected image can be determined, and the corrected image is easily generated.

第7発明にあっては、載置面上に形成するパターンとして格子状の画像を用いているため、パターン上の特徴点を容易に定義することができ、載置面上のパターンと撮像画像に写されているパターンの画像との対応付けが容易となる。   In the seventh aspect, since a grid-like image is used as a pattern formed on the mounting surface, feature points on the pattern can be easily defined, and the pattern on the mounting surface and the captured image Is easily associated with the image of the pattern shown in FIG.

第1発明、第3発明、第8発明、及び第10発明による場合は、所定のパターンが形成してある載置面上に載置した撮像対象物の撮像画像を取得し、予め記憶させておいたパターン上の複数の特徴点の位置情報と対応する撮像画像上での対応点の位置情報を受付け、パターン上の特徴点の位置情報と撮像画像上の対応点の位置情報とに基づき、前記撮像対象物を撮像した際のパターンと撮像画像との間の幾何学的関係を定め、定めた幾何学的関係に基づいて撮像画像の歪みを補正するようにしている。したがって、撮像画像に歪みが生じている場合には、撮像画像に写されているパターンの歪みに基づいて容易に補正が可能となるとともに、パターンを形成した載置面上に撮像対象物を載置した状態で撮像しているため、撮像対象物の画像上に余分な画像を印加することなく補正画像を生成することができる。   According to the first, third, eighth, and tenth aspects of the present invention, a captured image of an imaging target mounted on a mounting surface on which a predetermined pattern is formed is acquired and stored in advance. Based on the position information of the corresponding points on the captured image corresponding to the position information of the plurality of feature points on the placed pattern, based on the position information of the feature points on the pattern and the position information of the corresponding points on the captured image, A geometric relationship between a pattern when the imaging object is imaged and the captured image is determined, and distortion of the captured image is corrected based on the determined geometric relationship. Therefore, when the captured image is distorted, the correction can be easily performed based on the distortion of the pattern shown in the captured image, and the object to be imaged is placed on the mounting surface on which the pattern is formed. Since the image is taken while the camera is placed, a corrected image can be generated without applying an extra image to the image of the object to be imaged.

第2発明、第4発明、第9発明、及び第11発明による場合は、所定のパターンを形成してある載置面上に載置した撮像対象物の撮像画像と、撮像装置の姿勢を同一にした状態で前記パターンを撮像した基準画像とを取込み、パターン上の特徴点に対応する撮像画像上の対応点の位置情報を受付け、前記特徴点の位置情報と前記対応点の位置情報とに基づき、前記撮像対象物を撮像した際の撮像画像と載置面との間の幾何学的関係を定め、定めた幾何学的関係に基づいて撮像画像の歪みを補正するようにしている。したがって、撮像画像に歪みが生じている場合には、撮像画像に写されているパターンの歪みに基づいて補正することが容易となり、パターンを形成した載置面上に撮像対象物を載置した状態で撮像しているため、撮像対象物の画像上に余分な画像を印加することなく補正画像を生成することができ、また、画像面積を有効に使用することができる。   According to the second, fourth, ninth, and eleventh aspects of the present invention, the captured image of the imaging target mounted on the mounting surface on which the predetermined pattern is formed is the same as the attitude of the imaging device. In this state, a reference image obtained by capturing the pattern is taken in, and position information of a corresponding point on a captured image corresponding to a feature point on the pattern is received, and the position information of the feature point and the position information of the corresponding point are received. Based on the geometric relationship between the captured image and the mounting surface when the imaging target is captured, distortion of the captured image is corrected based on the determined geometric relationship. Therefore, when distortion is generated in the captured image, it is easy to correct based on the distortion of the pattern shown in the captured image, and the imaging target is placed on the mounting surface on which the pattern is formed. Since the image is captured in the state, the corrected image can be generated without applying an extra image to the image of the imaging target, and the image area can be effectively used.

第5発明による場合は、パターン上の特徴点と撮像画像上の対応点との射影変換により、パターンと撮像画像との幾何学的関係を定めるようにしている。したがって、両画像において対応する点の位置情報を受付けるだけで、両画像間に成り立つ幾何学的関係を定めることができ、撮像画像の歪みを除去した補正画像を容易に生成することができる。   In the case of the fifth aspect, the geometrical relationship between the pattern and the captured image is determined by projective transformation between the feature points on the pattern and the corresponding points on the captured image. Therefore, only by accepting the position information of the corresponding points in the two images, the geometric relationship that holds between the two images can be determined, and a corrected image in which the distortion of the captured image has been removed can be easily generated.

第6発明による場合は、生成する補正画像上の点の色情報は、補正画像上の点を幾何学的関係に従って変換し、変換した点の色情報を撮像画像から取得するようにしているため、補正画像を構成するすべての点の色情報を定めることができ、補正画像を容易に生成することが可能となる。   In the case of the sixth aspect, the color information of the point on the corrected image to be generated is such that the point on the corrected image is converted according to the geometrical relationship, and the color information of the converted point is obtained from the captured image. The color information of all points constituting the corrected image can be determined, and the corrected image can be easily generated.

第7発明による場合は、パターンとして格子状の画像を用いているため、パターン上の特徴点を容易に定義することができ、撮像画像との対応付けを容易に行うことが可能となる。   In the case of the seventh aspect, since a grid-like image is used as a pattern, feature points on the pattern can be easily defined, and association with a captured image can be easily performed.

以下、本発明をその実施の形態を示す図面に基づいて具体的に説明する。   Hereinafter, the present invention will be specifically described with reference to the drawings showing the embodiments.

実施の形態1.
図1は本実施の形態に係る画像処理システムの構成を示す模式図である。図中Tは撮像対象物であり、該撮像対象物TをシートS上に載置した状態で撮像装置20により撮像し、撮像して得られた撮像画像を画像処理装置10に読込む。撮像対象物Tは、例えば、衣服等を作製する際の型紙、原稿、地図等のシート状のものである。シートSは合成樹脂、金属、木材、紙等の材料により長方形又は正方形に形成されており、その表面には等間隔のピッチで配した格子線からなる格子状のパターンが描かれている。また、撮像装置20はデジタル形式の画像データを生成することができるデジタルカメラである。画像処理装置10はパーソナルコンピュータ等で構成され、撮像装置20が生成した画像データを取得して画像処理を行う。ここで、画像データは、夫々が色情報を持つ画素の集合からなるデータをいう。
Embodiment 1 FIG.
FIG. 1 is a schematic diagram illustrating a configuration of an image processing system according to the present embodiment. In the drawing, T is an imaging target, and the imaging target T is imaged by the imaging device 20 in a state where the imaging target T is placed on the sheet S, and a captured image obtained by the imaging is read into the image processing device 10. The imaging target T is a sheet-like object such as a pattern, a manuscript, a map, or the like when fabricating clothes or the like. The sheet S is formed in a rectangular or square shape from a material such as synthetic resin, metal, wood, paper, or the like, and has a grid pattern formed by grid lines arranged at equal intervals on the surface. The imaging device 20 is a digital camera that can generate digital image data. The image processing device 10 is configured by a personal computer or the like, acquires image data generated by the imaging device 20, and performs image processing. Here, the image data refers to data composed of a set of pixels each having color information.

撮像装置20により得られた撮像画像を画像処理装置10内で衣服のデザイン用の画像、又は文字情報の読取用の画像として利用する場合、撮像対象物Tに対して真正面から撮像した撮像画像が得られることが望ましい。そのためには、撮像装置20を撮像対象物Tに対して真正面に固定して撮像することも考えられるが、利便性に欠けるという問題点を有している。そこで、本実施の形態では、撮像した際の撮像装置20の位置及び姿勢のずれに伴う撮像画像の歪みを後述するような画像処理によって除去し、正面から撮像したような正面画像を合成する。   When the captured image obtained by the imaging device 20 is used as an image for clothing design or an image for reading character information in the image processing device 10, the captured image captured directly in front of the imaging target T is It is desirable to be able to obtain. For this purpose, it is conceivable to fix the imaging device 20 directly in front of the imaging target T for imaging, but there is a problem that it lacks convenience. Therefore, in the present embodiment, the distortion of the captured image due to the displacement of the position and orientation of the imaging device 20 when the image is captured is removed by image processing as described later, and a front image as if captured from the front is synthesized.

図2はシートS上に形成されたパターンについて説明する模式図である。シートSの表面には前述したように等間隔のピッチで配した格子線からなる格子状のパターンが描かれている。図2に示した例では、6行8列の正方格子(縦方向に6つ、横方向に8つとする)によるパターンが描かれており、画像処理装置10にはこのパターンの幾何学的形状に関する情報が予め記憶されている。前記幾何学的形状に関する情報は、各格子点の位置座標、格子点間の距離の実測値等が含まれる。ここで、各格子点の位置座標は、紙面左下の格子点の位置座標を(0,0)、右下の格子点の位置座標を(1,0)、右上の格子点の位置座標を(1,1)、左上の格子点の位置座標を(0,1)とした相対座標系により表すことができる。また、格子間の距離については、例えば、位置座標(0,0)と位置座標(1,0)との間の距離、及び位置座標(0,0)と位置座標(0,1)との間の距離を予め計測して画像処理装置10に記憶させておく。   FIG. 2 is a schematic diagram illustrating a pattern formed on the sheet S. On the surface of the sheet S, a grid-like pattern composed of grid lines arranged at equal intervals as described above is drawn. In the example shown in FIG. 2, a pattern formed by a square grid of 6 rows and 8 columns (six in the vertical direction and eight in the horizontal direction) is drawn, and the image processing apparatus 10 has a geometric shape of this pattern. Is stored in advance. The information on the geometric shape includes position coordinates of each grid point, measured values of the distance between the grid points, and the like. Here, the position coordinates of each grid point are (0, 0) the position coordinates of the lower left grid point, (1, 0) the position coordinates of the lower right grid point, and (1, 0) the position coordinates of the upper right grid point. 1,1), and a relative coordinate system in which the position coordinates of the upper left grid point are (0,1). The distance between the grids is, for example, the distance between the position coordinates (0,0) and the position coordinates (1,0), and the distance between the position coordinates (0,0) and the position coordinates (0,1). The distance between them is measured in advance and stored in the image processing device 10.

なお、本実施の形態では6行8列の正方格子をパターンとして用いる構成としたが、格子の配列は必ずしも6行8列に限定されず、少なくとも4つ以上の格子点が撮像対象物Tとともに撮像される構成であれば良い。また、各格子の形状は正方形に限定されず、長方形、三角形等の形状を有する格子の画像を利用することも可能である。また、格子線を描画せずに格子点のみを描画して利用する形態であっても良い。   In the present embodiment, a configuration is used in which a square grid of 6 rows and 8 columns is used as a pattern, but the array of the grid is not necessarily limited to 6 rows and 8 columns, and at least four or more grid points together with the imaging object T What is necessary is just a structure which can be imaged. Further, the shape of each grid is not limited to a square, and it is also possible to use a grid image having a shape such as a rectangle or a triangle. Further, a mode may be used in which only grid points are drawn and used without drawing grid lines.

図3は画像処理装置10に読込まれた撮像画像とパターンとの関係を説明する模式図である。撮像装置20を用いて適宜の位置及び姿勢から前述のシートS及び撮像対象物Tを撮像した場合、撮像対象物Tに対して真正面から撮像しない限り、図3(a)に示したような歪み(台形歪み)が生じた撮像画像20Aが得られることとなる。本実施の形態ではこのような歪みを補正するために、図3(b)に示したパターン20B上の特徴点P1 〜P4 と、これらの特徴点P1 〜P4 に対応する撮像画像20A上の特徴点との間の対応付けを行って対応点Q1 〜Q4 を定め、両者の間に成立する幾何学的関係を求める。具体的には特徴点P1 〜P4 の位置座標を対応点Q1 〜Q4 の位置座標に移すような射影変換行列を求める。そして、歪みを補正した補正画像(正面画像)を得るために、パターン20B上の各画素の位置座標を前記射影変換行列により変換し、変換先の色情報を取得することによって正面画像の各画素の色情報を定める。すなわち、パターン20B上の全ての画素について色情報を定めることにより、歪みを除去した画像を生成するようにしている。 FIG. 3 is a schematic diagram illustrating a relationship between a captured image read by the image processing apparatus 10 and a pattern. When the above-described sheet S and the imaging target T are imaged from an appropriate position and posture using the imaging device 20, the distortion as illustrated in FIG. A captured image 20A in which (trapezoidal distortion) has occurred is obtained. For the present embodiment corrects such distortion, Figure 3, wherein points P1 to P4 are brought on pattern 20B shown (b), the on the captured image 20A corresponding to these feature points P 1 to P 4 The corresponding points Q 1 to Q 4 are determined by associating with the feature points of the above, and a geometrical relationship established between them is obtained. Specifically, a projective transformation matrix that moves the position coordinates of the feature points P 1 to P 4 to the position coordinates of the corresponding points Q 1 to Q 4 is obtained. Then, in order to obtain a corrected image (front image) in which the distortion has been corrected, the position coordinates of each pixel on the pattern 20B are converted by the projection conversion matrix, and color information of the conversion destination is obtained, thereby obtaining each pixel of the front image. Determine the color information of That is, an image from which distortion has been removed is generated by defining color information for all pixels on the pattern 20B.

図4は画像処理装置10の内部構成を説明するブロック図である。画像処理装置10はCPU11を備えており、該CPU11にはROM13、RAM14、操作部15、表示部16、画像入力部17、補助記憶部18、記憶部19等の各種ハードウェアがバス12を介して接続されている。CPU11は、ROM13に格納された各種制御プログラムに従って前述のハードウェアを制御するとともに、外部から受付けた撮像画像に対して画像処理を施して歪みを補正する。なお、当該画像処理は必ずしもCPU11が行う必要はなく、画像処理専用のASIC(Application Specifide Integrated Circiut)を設けて、CPU11から指示を与えることにより、画像処理専用のASICに画像処理を行わせる形態であってもよい。RAM14はSRAM又はフラッシュメモリ等で構成され、ROM13に格納された制御プログラムの実行時に発生するデータ等を記憶する。   FIG. 4 is a block diagram illustrating an internal configuration of the image processing apparatus 10. The image processing apparatus 10 includes a CPU 11. Various hardware such as a ROM 13, a RAM 14, an operation unit 15, a display unit 16, an image input unit 17, an auxiliary storage unit 18, and a storage unit 19 are connected to the CPU 11 via a bus 12. Connected. The CPU 11 controls the above-described hardware according to various control programs stored in the ROM 13, and performs image processing on a captured image received from outside to correct distortion. Note that the image processing need not necessarily be performed by the CPU 11, but an ASIC (Application Specified Integrated Circiut) dedicated to image processing is provided, and the ASIC dedicated to image processing performs image processing by giving an instruction from the CPU 11. There may be. The RAM 14 is configured by an SRAM, a flash memory, or the like, and stores data and the like generated when the control program stored in the ROM 13 is executed.

操作部15は、キーボード、マウス、タブレット等の入力装置からなり、画像処理をする際の指示、選択操作等を受付ける。表示部16は、CRTディスプレイ又は液晶ディスプレイ等の表示装置からなり、操作部15を通じて入力された各種の情報が表示されるとともに、外部から入力された撮像画像、及び画像処理中の画像等が表示される。   The operation unit 15 includes input devices such as a keyboard, a mouse, and a tablet, and receives an instruction, a selection operation, and the like when performing image processing. The display unit 16 includes a display device such as a CRT display or a liquid crystal display. The display unit 16 displays various information input through the operation unit 15 and displays a captured image input from outside, an image being processed, and the like. Is done.

画像入力部17は、撮像装置20が生成した画像データを入力するための入力装置を備えている。前記入力装置として、USB(Universal Serial Bus)の規格に準拠した接続ポート、可搬型の半導体メモリに記憶された画像データを読取るための読取装置等を採用することができる。撮像装置20がUSBのインタフェースを持ち、通信ケーブルを介して外部に画像データを送出できるようになっている場合には、前述の接続ポートに通信ケーブルを接続して画像データを通信により受信する。また、撮像装置20がUSBのインタフェースを持たず、可搬型の半導体メモリにより画像データの受渡しが行われる場合には、前述の読取装置が利用される。なお、この読取装置は画像処理装置10に内蔵したものであってもよく、外付けにしたものであってもよい。画像入力部17から入力された画像データはHDD装置等から構成される記憶部19に記憶される。   The image input unit 17 includes an input device for inputting image data generated by the imaging device 20. As the input device, a connection port conforming to the USB (Universal Serial Bus) standard, a reading device for reading image data stored in a portable semiconductor memory, and the like can be used. When the imaging device 20 has a USB interface and can send image data to the outside via a communication cable, the communication cable is connected to the above-described connection port to receive the image data by communication. When the imaging device 20 does not have a USB interface and the image data is transferred by a portable semiconductor memory, the above-described reading device is used. Note that this reading device may be built in the image processing device 10 or may be externally attached. Image data input from the image input unit 17 is stored in a storage unit 19 including an HDD device or the like.

補助記憶部18は、本発明のコンピュータプログラムを記録したFD、CD−ROM等の記録媒体Mからコンピュータプログラムを読取るFDドライブ、CD−ROMドライブ等からなり、読取られたコンピュータプログラムは記憶部19に記憶される。CPU11が当該コンピュータプログラムを実行する場合、記憶部19に記憶されたコンピュータプログラムを一旦RAM14上に展開し、CPU11が前記コンピュータプログラムに含まれる命令コードをデコードすることによって一連のプログラムとして解釈し、前記コンピュータプログラムを実行する。   The auxiliary storage unit 18 includes an FD drive, a CD-ROM drive, and the like that read a computer program from a recording medium M such as an FD or a CD-ROM that stores the computer program of the present invention. It is memorized. When the CPU 11 executes the computer program, the computer program stored in the storage unit 19 is temporarily expanded on the RAM 14, and the CPU 11 decodes an instruction code included in the computer program and interprets the computer program as a series of programs. Run a computer program.

図5は本実施の形態に係る画像処理システムによる画像処理の処理手順を説明するフローチャートである。まず、画像処理装置10は、撮像装置20により撮像して得られた撮像画像の読込みを行う(ステップS1)。撮像画像の読込みは、画像入力部17を通じて入力された撮像画像を読込む形態であってもよく、また、予め記憶部19に記憶させておいた撮像画像を読込む形態であってもよい。読込んだ画像は、RAM14にて一時的に保持される。   FIG. 5 is a flowchart illustrating a processing procedure of image processing by the image processing system according to the present embodiment. First, the image processing apparatus 10 reads a captured image obtained by capturing an image using the imaging apparatus 20 (Step S1). The reading of the captured image may be a mode of reading a captured image input through the image input unit 17 or a mode of reading a captured image stored in the storage unit 19 in advance. The read image is temporarily stored in the RAM 14.

次いで、撮像装置20の校正を行い(ステップS2)、撮像装置20の内部パラメータに起因する歪みの除去を行う。一般に、撮像装置によって得られる画像には、撮像装置のレンズ系等の影響を受けて円形歪み、樽型歪み等の種々の歪みが発生する。そこで、本実施の形態ではこれらの歪みを除去した上で、撮像した際の位置及び姿勢に伴う撮像画像の歪みの除去を行う。撮像装置20の校正には公知の手法を用いることができる。例えば、既知のパターンを撮像し、撮像して得られた画像とパターンとに基づいて撮像装置20の内部パラメータ(焦点距離、主点の位置座標等)、及び歪み量を規定するパラメータを予め算出する。そして、校正の際には予め求めておいたこれらのパラメータを利用して校正を行う。   Next, calibration of the imaging device 20 is performed (Step S2), and distortion caused by internal parameters of the imaging device 20 is removed. Generally, various distortions such as circular distortion and barrel distortion are generated in an image obtained by an imaging device under the influence of a lens system of the imaging device. Therefore, in the present embodiment, after removing these distortions, the distortion of the captured image due to the position and orientation at the time of imaging is removed. A known method can be used to calibrate the imaging device 20. For example, a known pattern is imaged, and based on the image and the pattern obtained by the imaging, the internal parameters (focal length, position coordinates of the principal point, and the like) of the imaging device 20 and parameters defining the distortion amount are calculated in advance. I do. Then, at the time of calibration, calibration is performed using these parameters obtained in advance.

なお、予め校正を行った撮像装置20を利用して撮像する場合、本ステップを省略することも可能である。   Note that when imaging is performed using the imaging device 20 that has been calibrated in advance, this step can be omitted.

次いで、画像処理装置10は撮像画像の特徴点とシートS上のパターンの特徴点との間の対応付けを受付ける(ステップS3)。具体的には、図3に示したような撮像画像(20A)及びパターン(20B)を画像処理装置10の表示部16に表示させ、各画像(20A,20B)で互いに対応する特徴点を、操作部15が備えるマウス等によりユーザに選択させる。   Next, the image processing apparatus 10 receives the association between the feature points of the captured image and the feature points of the pattern on the sheet S (Step S3). Specifically, the captured image (20A) and the pattern (20B) as shown in FIG. 3 are displayed on the display unit 16 of the image processing apparatus 10, and the feature points corresponding to each other in each image (20A, 20B) are determined. The user is caused to select by a mouse or the like provided in the operation unit 15.

次いで、画像処理装置10のCPU11は、射影変換行列の各要素の初期値を求める(ステップS4)。射影変換行列の各要素の初期値は、以下のようにして求めることができる。   Next, the CPU 11 of the image processing apparatus 10 obtains an initial value of each element of the projective transformation matrix (Step S4). The initial value of each element of the projective transformation matrix can be obtained as follows.

撮像画像上の特徴点の位置座標(ui ,vi )は、パターン上の特徴点の位置座標(xi ,yi )、及び射影変換行列Hを用いて次式のように表すことができる。 Position coordinates (u i, v i) of feature points of the captured image, the position coordinates (x i, y i) of the feature points on pattern, and using the projection transformation matrix H is given by the following formula it can.

Figure 2004288148
Figure 2004288148

ここで、右辺のH11,H12,…,H33は射影変換行列Hの各要素を表している。また、数式(1)においてはスケール因子を考慮していない。ui 及びvi について展開した場合、数式(2)及び数式(3)のように表すことができる。 Here, H 11 , H 12 ,..., H 33 on the right side represent each element of the projective transformation matrix H. Further, in the equation (1), the scale factor is not considered. When expanded with respect to u i and v i , they can be expressed as Expression (2) and Expression (3).

Figure 2004288148
Figure 2004288148

Figure 2004288148
Figure 2004288148

更に、射影変換行列Hの各要素についてまとめた場合、以下の行列式で表すことができる。   Furthermore, when each element of the projective transformation matrix H is summarized, it can be represented by the following determinant.

Figure 2004288148
Figure 2004288148

ここで、左辺の2n行×9列の行列をAで表し、射影変換行列Hの各要素H11,H12,…,H33で表されるベクトルをhで表した場合、数式(4)は、 Here, when a matrix of 2n rows × 9 columns on the left side is represented by A, and a vector represented by each element H 11 , H 12 ,..., H 33 of the projective transformation matrix H is represented by h, Equation (4) Is

Figure 2004288148
Figure 2004288148

となる。このときベクトルhは、AT Aの最小固有値に対応する固有ベクトルとして求めることができる。 It becomes. At this time, the vector h can be obtained as an eigenvector corresponding to the minimum eigenvalue of A T A.

次いで、画像処理装置10のCPU11は、射影変換行列Hの各要素H11,H12,…,H33を最適化するために評価関数の設定を行う(ステップS5)。ここで、撮像画像上の点の位置座標(ui ,vi )とステップS4で求めた射影変換行列による変換先の位置座標との間の距離の二乗和を評価関数として設定し(数式(6))、当該評価関数が最小となるように射影変換行列の各要素H11,H12,…,H33の最適化を行う(ステップS6)。 Next, the CPU 11 of the image processing apparatus 10 sets an evaluation function for optimizing the elements H 11 , H 12 ,..., H 33 of the projection transformation matrix H (Step S5). Here, setting the square sum of the distance between the destination coordinates according to the projective transformation matrix obtained positional coordinates (u i, v i) of the points on the captured image and in step S4 as the evaluation function (Equation ( 6)), the elements H 11 , H 12 ,..., H 33 of the projective transformation matrix are optimized so that the evaluation function is minimized (step S6).

Figure 2004288148
Figure 2004288148

次いで、画像処理装置10のCPU11は、最適化して得られた射影変換行列Hを用いて歪みを補正し、正面画像の合成処理を行う(ステップS7)。   Next, the CPU 11 of the image processing device 10 corrects the distortion using the projection transformation matrix H obtained by the optimization, and performs a front image combining process (Step S7).

図6は正面画像の合成処理を説明する模式図である。前述したフローチャートのステップS6により最適化した射影変換行列Hが求まるため、この射影変換行列Hの逆行列により撮像画像上の各点の位置座標を変換することによって、歪みがない正面画像(補正画像)が得られることとなる。しかしながら、撮像画像は元々歪んだものであるからパターンと比較した場合、画素が足りない領域及び画素が過剰な領域が存在している。したがって、撮像画像を元に射影変換行列Hの逆行列を用いて変換した場合、隙間のない完全な正面画像が得られない場合が生じる。   FIG. 6 is a schematic diagram illustrating the process of synthesizing a front image. Since the projection transformation matrix H optimized in step S6 of the above-described flowchart is obtained, the position coordinates of each point on the captured image are transformed by the inverse matrix of the projection transformation matrix H to obtain a front image (corrected image) having no distortion. ) Is obtained. However, since the captured image is originally distorted, when compared with the pattern, there are a region with insufficient pixels and a region with excessive pixels. Accordingly, when the captured image is transformed using the inverse matrix of the projection transformation matrix H, a complete front image without any gap may not be obtained.

そこで、本実施の形態では、撮像画像(20A)を出発点とするのではなく、元のパターン(20B)を出発点とし、パターン上の任意の画素の位置座標(ai ,bj )を射影変換行列Hにより変換し、撮像画像上で対応する点の位置座標(αi ,βj )を求め、変換後の点の色情報を取得し、取得した色情報を生成すべき正面画像上の点の色情報として記憶する。 Thus, in the present embodiment, the original pattern (20B) is used as a starting point, and the position coordinates (a i , b j ) of an arbitrary pixel on the pattern are used instead of using the captured image (20A) as a starting point. The transformation is performed by the projection transformation matrix H, the position coordinates (α i , β j ) of the corresponding point on the captured image are obtained, the color information of the converted point is obtained, and the obtained color information is generated on the front image to be generated. Is stored as the color information of the point.

図7は正面画像の合成処理ルーチンの処理手順を説明するフローチャートである。まず、画像処理装置10のCPU11は、インデックスi,jを0に設定し(ステップS11)、復元先の画像(正面画像)上の点の位置座標(ai ,bj )を射影変換行列Hにより変換する(ステップS12)。変換後の点は撮像画像上の点に移るため、変換後の点の位置座標(αi ,βj )に対応する色情報を取得する(ステップS13)。そして取得した色情報を復元先の画像の点の位置座標(ai ,bj )の色情報として記憶する(ステップS14)。 FIG. 7 is a flowchart for explaining the processing procedure of the front image combining processing routine. First, the CPU 11 of the image processing apparatus 10 sets the indices i and j to 0 (step S11), and converts the position coordinates (a i , b j ) of the point on the restoration destination image (front image) into the projection transformation matrix H. (Step S12). Since the converted point moves to a point on the captured image, color information corresponding to the position coordinates (α i , β j ) of the converted point is obtained (step S13). Then, the acquired color information is stored as the color information of the position coordinates (a i , b j ) of the point of the image of the restoration destination (step S14).

次いで、CPU11はインデックスiがX以上であるか否かを判断する(ステップS15)。ここで、Xは生成すべき正面画像の横方向の総画素数を表す。iがX以上でないと判断した場合(S15:NO)、インデックスiを1つだけ増やして(ステップS16)、処理をステップS12へ戻す。   Next, the CPU 11 determines whether or not the index i is equal to or greater than X (step S15). Here, X represents the total number of pixels in the horizontal direction of the front image to be generated. If it is determined that i is not greater than or equal to X (S15: NO), the index i is increased by one (step S16), and the process returns to step S12.

インデックスiがX以上であると判断した場合(S15:YES)、インデックスiの値を0に設定し(ステップS17)、インデックスjがY以上であるか否かを判断する(ステップS18)。ここで、Yは生成すべき正面画像の縦方向の総画素数を表す。jがY以上でないと判断した場合(S18:NO)、インデックスjを1つだけ増やして(ステップS19)、処理をステップS12へ戻し、jがY以上であると判断した場合(S18:YES)、本ルーチンを終了する。   When it is determined that the index i is greater than or equal to X (S15: YES), the value of the index i is set to 0 (step S17), and it is determined whether or not the index j is greater than or equal to Y (step S18). Here, Y represents the total number of pixels in the vertical direction of the front image to be generated. When it is determined that j is not greater than or equal to Y (S18: NO), the index j is increased by one (step S19), the process returns to step S12, and when it is determined that j is greater than or equal to Y (S18: YES). Then, this routine ends.

このように、本実施の形態では復元先(正面画像)を出発点として、各画素の色情報を逐次的に定めるため、隙間のない完全な正面画像が得られる。   As described above, in the present embodiment, since the restoration destination (front image) is set as the starting point, the color information of each pixel is sequentially determined, so that a complete front image without gaps can be obtained.

なお、本実施の形態では、シートS上に載置した撮像対象物Tを撮像する構成としたが、撮像対象物Tを載置するものは必ずしもシートに限定されず、テーブル等の台状のものであっても良く、また、床面、壁面等にパターンを形成して利用する構成であっても良い。   In the present embodiment, the imaging target T placed on the sheet S is configured to be imaged. However, the placement of the imaging target T is not necessarily limited to a sheet, and may be a table-like table or the like. Alternatively, a configuration in which a pattern is formed on a floor surface, a wall surface, or the like and used may be used.

また、本実施の形態では、撮像装置20としてデジタルカメラを利用する構成としたが、デジタルカメラの代わりに銀塩カメラを利用することも可能である。銀塩カメラは撮像した画像をフィルム又は印画紙上に形成するため、画像処理装置10の内部で利用するためにデジタルの画像データに変換する必要があり、例えば、フィルムスキャナ、イメージスキャナ等を利用することができる。   In the present embodiment, a digital camera is used as the imaging device 20, but a silver halide camera can be used instead of the digital camera. Since a silver halide camera forms a captured image on a film or a photographic paper, it is necessary to convert the image into digital image data for use inside the image processing apparatus 10. For example, a film scanner, an image scanner, or the like is used. be able to.

実施の形態2.
実施の形態1では、シートS上に撮像対象物Tを載置した状態で撮像装置20により撮像し、撮像装置20が取得した撮像画像を画像処理装置10内に取込み、シートS上に描かれている格子点のうち撮像対象物Tの周囲に現れている格子点の位置情報に基づいて撮像画像の歪みを除去するようにしていた。すなわち、実施の形態1では任意の位置及び姿勢から撮像して得られた1枚の撮像画像を利用して歪みを除去できるため、撮像対象物Tを撮像する際の自由度が大きいという利点を有する。しかしながら、シートSに対して載置した撮像対象物Tの占有面積が大きく、撮像対象物Tの周囲に少なくとも4点以上の格子点が現れない場合には前述した手法により歪みを除去することができないこととなる。
Embodiment 2 FIG.
In the first embodiment, an image is captured by the imaging device 20 in a state where the imaging target T is placed on the sheet S, the captured image acquired by the imaging device 20 is taken into the image processing device 10, and the image is drawn on the sheet S. The distortion of the captured image is removed based on the positional information of the lattice points appearing around the imaging target T among the lattice points. That is, in the first embodiment, since distortion can be removed by using one captured image obtained by capturing an image from an arbitrary position and posture, the advantage that the degree of freedom in capturing the image of the imaging target T is large. Have. However, when the occupied area of the imaging target T placed on the sheet S is large and at least four or more lattice points do not appear around the imaging target T, the distortion can be removed by the above-described method. It will not be possible.

本実施の形態では、撮像対象物Tよりも十分に大きなシートSを準備できない場合の対処方法として、シートSを単体で撮像した撮像画像(以下では、基準画像と称する)と、撮像装置20の位置及び姿勢を同一に保ちながらシートS上に撮像対象物Tを載置して撮像した撮像画像とを用いて撮像画像の歪みを除去する手法について説明する。なお、本実施の形態における画像処理システム及び画像処理装置10の構成は、実施の形態1と全く同様であるためその説明を省略することとする。   In the present embodiment, as a method for coping with a case where a sheet S sufficiently larger than the imaging target T cannot be prepared, a captured image (hereinafter, referred to as a reference image) of the sheet S alone and a A description will be given of a method of removing distortion of a captured image using a captured image obtained by mounting the imaging target T on the sheet S while maintaining the same position and orientation. Note that the configurations of the image processing system and the image processing apparatus 10 according to the present embodiment are completely the same as those in the first embodiment, and thus description thereof will be omitted.

図8は画像処理装置10に取込むべき画像を説明する説明図である。本実施の形態では、まず、等間隔のピッチで配した格子線からなる格子状のパターンがその表面に描かれているシートSを撮像装置20により撮像する。このとき、三脚等の固定具を用いて撮像装置20の位置及び姿勢を固定した後に撮像する。撮像して得られた画像は基準画像21Aとして画像処理装置10内に取込まれ、画像処理装置10内の記憶部19に保存される(図8(a)参照)。次いで、撮像対象物TをシートS上に載置し、撮像装置20の位置及び姿勢を同一に保った状態にて撮像装置20により撮像する。撮像して得られた撮像画像21Bは画像処理装置10内に取込まれ、画像処理装置10内の記憶部19に保存される(図8(b)参照)。   FIG. 8 is an explanatory diagram illustrating an image to be captured by the image processing apparatus 10. In the present embodiment, first, the imaging device 20 captures an image of the sheet S on which a lattice-like pattern composed of lattice lines arranged at equal intervals is drawn. At this time, the image is taken after the position and orientation of the imaging device 20 are fixed using a fixture such as a tripod. The captured image is taken into the image processing apparatus 10 as the reference image 21A and stored in the storage unit 19 in the image processing apparatus 10 (see FIG. 8A). Next, the image capturing target T is placed on the sheet S, and the image capturing apparatus 20 captures an image while maintaining the same position and orientation of the image capturing apparatus 20. The captured image 21B obtained by capturing the image is taken into the image processing apparatus 10 and stored in the storage unit 19 in the image processing apparatus 10 (see FIG. 8B).

図9は画像処理装置10による画像処理の手順を説明する説明図である。本実施の形態では、まず、シートSのみを撮像した基準画像21AからシートS上のパターンと基準画像21Aとの間に成り立つ幾何学的関係を求め、次いで、シートS上に撮像対象物Tを載置して撮像した撮像画像21Bに前記幾何学的関係を適用して変換することにより正面画像を合成する。シートS上のパターンと基準画像21Aとの間の幾何学的関係は実施の形態1と同様にして求めることができる。すなわち、パターン上の特徴点を示す格子点の位置座標(xi ,yi )と基準画像21A上において前記格子点に対応する対応点の位置座標(ui ,vi )との間に成立つ関係式を射影変換行列Hを用いて数式(1)のように表したとき、射影変換行列Hによる格子点の位置座標(xi ,yi )の変換先と対応点の位置座標(ui ,vi )との間の距離に関する評価関数は数式(6)のように表すことができ、当該評価関数を最適化することによって射影変換行列Hの各要素を求めることができる。また、基準画像21A及び撮像画像21Bは、撮像装置20の位置及び姿勢を同一にして撮像された画像であるため、基準画像21AとシートS上のパターンとの間に成立つ関係は、撮像画像21Bと該撮像画像21BをシートS上に投影した画像との間にも適用することができ、前記関係に基づいて撮像画像21Bを変換することにより正面画像を合成するこができる。 FIG. 9 is an explanatory diagram illustrating a procedure of image processing performed by the image processing apparatus 10. In the present embodiment, first, a geometric relationship that holds between the pattern on the sheet S and the reference image 21A is obtained from the reference image 21A obtained by imaging only the sheet S, and then the imaging target T is placed on the sheet S. The front image is synthesized by applying the geometric relationship to the captured image 21 </ b> B that is mounted and captured. The geometric relationship between the pattern on the sheet S and the reference image 21A can be obtained in the same manner as in the first embodiment. That is, established between the position coordinates (x i, y i) of the lattice point that indicates the feature points on pattern position coordinates of the corresponding point corresponding to the grid points on the reference image 21A (u i, v i) When the relational expression is expressed as in equation (1) using the projective transformation matrix H, the position coordinates (x i , y i ) of the grid point and the position coordinates (u i , v i ) can be expressed by Expression (6), and each element of the projective transformation matrix H can be obtained by optimizing the evaluation function. Further, since the reference image 21A and the captured image 21B are images captured with the same position and orientation of the imaging device 20, the relationship that is established between the reference image 21A and the pattern on the sheet S is as follows. The present invention can be applied between the image 21B and the image obtained by projecting the captured image 21B on the sheet S, and the front image can be synthesized by converting the captured image 21B based on the relationship.

図10は本実施の形態に係る画像処理システムによる画像処理の処理手順を説明するフローチャートである。まず、画像処理装置10は、撮像装置20により撮像して得られた基準画像及び撮像画像を読込む(ステップS21)。撮像画像の読込みは、画像入力部17を通じて入力された撮像画像を読込む形態であってもよく、また、予め記憶部19に記憶させておいた撮像画像を読込む形態であってもよい。読込んだ画像はRAM14により一時的に保持される。   FIG. 10 is a flowchart illustrating a processing procedure of image processing by the image processing system according to the present embodiment. First, the image processing apparatus 10 reads a reference image and a captured image obtained by imaging with the imaging device 20 (Step S21). The reading of the captured image may be a mode of reading a captured image input through the image input unit 17 or a mode of reading a captured image stored in the storage unit 19 in advance. The read image is temporarily stored in the RAM 14.

次いで、撮像装置20の校正を行い(ステップS22)、撮像装置20の内部パラメータに起因する歪みの除去を行う。なお、予め校正を行った撮像装置20を利用して撮像する場合、本ステップを省略することも可能である。   Next, calibration of the imaging device 20 is performed (Step S22), and distortion caused by internal parameters of the imaging device 20 is removed. Note that when imaging is performed using the imaging device 20 that has been calibrated in advance, this step can be omitted.

次いで、画像処理装置10は基準画像の特徴点とパターンの特徴点との間の対応付けを受付ける(ステップS23)。具体的には、図9(a)に示したように基準画像(21A)とパターンの画像とを画像処理装置10の表示部16に表示させ、各画像で互いに対応する特徴点を操作部15が備えるマウス等によりユーザに選択させる。   Next, the image processing apparatus 10 receives the association between the feature points of the reference image and the feature points of the pattern (Step S23). Specifically, as shown in FIG. 9A, the reference image (21A) and the image of the pattern are displayed on the display unit 16 of the image processing apparatus 10, and the corresponding feature points of each image are displayed on the operation unit 15. Is made to be selected by the user using a mouse or the like provided in the device.

次いで、画像処理装置10のCPU11は、射影変換行列の各要素の初期値を求める(ステップS24)。基準画像上の特徴点の位置座標(ui ,vi )は、パターン上の特徴点の位置座標(xi ,yi )、及び射影変換行列Hを用いて数式(1)のように表すことができ、n組の特徴点に対し、射影変換行列Hの各要素についてまとめた場合、数式(4)に示したように表すことができる。すなわち、射影変換行列Hの各要素の初期値は、数式(4)の左辺の2n行×9列の行列をAで表した場合、AT Aの最小固有値に対応する固有ベクトルとして求めることができる。 Next, the CPU 11 of the image processing device 10 obtains the initial value of each element of the projective transformation matrix (Step S24). Position coordinates of the feature points on the reference image (u i, v i) is expressed as Equation (1) using the position coordinates (x i, y i), and the projective transformation matrix H of feature points on pattern When each element of the projective transformation matrix H is summarized for n sets of feature points, it can be expressed as shown in Expression (4). That is, the initial value of each element of the projective transformation matrix H can be obtained as an eigenvector corresponding to the minimum eigenvalue of A T A when a matrix of 2n rows × 9 columns on the left side of Expression (4) is represented by A. .

次いで、画像処理装置10のCPU11は、射影変換行列Hの各要素を最適化するために評価関数の設定を行う(ステップS25)。ここで、基準画像上の点の位置座標(ui ,vi )とステップS24で求めた射影変換行列による変換先の位置座標との間の距離の二乗和を評価関数として設定し(数式(6))、当該評価関数が最小となるように射影変換行列の各要素の最適化を行う(ステップS26)。次いで、画像処理装置10のCPU11は、最適化して得られた射影変換行列Hを用いて歪みを補正し、正面画像の合成処理を行う(ステップS27)。正面画像の合成処理は、実施の形態1と同様の手法を用いることができる。すなわち、算出した射影変換行列に従って生成すべき正面画像の各画素を変換し、変換先に対応する撮像画像21B上の画素の色情報を取得することによって、各画素の色情報を定めて正面画像を生成することができる。 Next, the CPU 11 of the image processing apparatus 10 sets an evaluation function to optimize each element of the projection transformation matrix H (Step S25). Here, the set position coordinates (u i, v i) of the points on the reference image square sum of the distance between the destination coordinates according to the projective transformation matrix determined in Step S24 as the evaluation function (Equation ( 6)), each element of the projective transformation matrix is optimized such that the evaluation function is minimized (step S26). Next, the CPU 11 of the image processing apparatus 10 corrects the distortion using the projective transformation matrix H obtained by the optimization, and performs a front image combining process (Step S27). The same method as in the first embodiment can be used for the synthesis processing of the front image. That is, by converting each pixel of the front image to be generated according to the calculated projective transformation matrix, and acquiring the color information of the pixel on the captured image 21B corresponding to the conversion destination, the color information of each pixel is determined and the front image is determined. Can be generated.

なお、本実施の形態では、シートSを単体で撮像した後、撮像対象物TをそのシートS上に載置して撮像するようにしたが、まず、シートS上に撮像対象物Tを載置した状態で撮像し、その後、撮像対象物Tを取り除いて撮像するようにしても良いことは勿論のことである。また、本実施の形態では、撮像対象物Tを撮像する際に撮像装置20の位置及び姿勢を保っていれば、基準画像21Aに基づいて算出した射影変換行列Hを利用して撮像画像21Bの歪みを除去することが可能であるため、撮像対象物Tを撮像する際に、必ずしもシートS上に撮像対象物Tを載置した状態で撮像する必要はない。すなわち、背景を無地にして撮像することも可能であるため、歪みを除去した正面画像には格子線等の余分な画像が印可されることがなくなるという利点も有する。   In the present embodiment, after the sheet S is imaged alone, the imaging target T is placed on the sheet S for imaging. First, the imaging target T is placed on the sheet S. It is needless to say that an image may be taken in a state where it is placed, and thereafter, the image taking object T may be removed to take an image. Further, in the present embodiment, if the position and orientation of the imaging device 20 are maintained when the imaging target T is imaged, the captured image 21B is captured using the projection transformation matrix H calculated based on the reference image 21A. Since the distortion can be removed, it is not always necessary to take an image of the imaging target T with the imaging target T placed on the sheet S when imaging the imaging target T. That is, since it is possible to take an image with a plain background, there is also an advantage that an extra image such as a grid line is not applied to the front image from which distortion has been removed.

本実施の形態に係る画像処理システムの構成を示す模式図である。FIG. 1 is a schematic diagram illustrating a configuration of an image processing system according to an embodiment. シート上に形成されたパターンについて説明する模式図である。FIG. 3 is a schematic diagram illustrating a pattern formed on a sheet. 画像処理装置に読み込まれた撮像画像とパターンとの関係を説明する模式図である。FIG. 2 is a schematic diagram illustrating a relationship between a captured image read by an image processing apparatus and a pattern. 画像処理装置の内部構成を説明するブロック図である。FIG. 2 is a block diagram illustrating an internal configuration of the image processing apparatus. 本実施の形態に係る画像処理システムによる画像処理の処理手順を説明するフローチャートである。5 is a flowchart illustrating a processing procedure of image processing by the image processing system according to the present embodiment. 正面画像の合成処理を説明する模式図である。FIG. 9 is a schematic diagram illustrating a process of synthesizing a front image. 正面画像の合成処理ルーチンの処理手順を説明するフローチャートである。It is a flowchart explaining the processing procedure of the synthesis processing routine of a front image. 画像処理装置に取込むべき画像を説明する説明図である。FIG. 4 is an explanatory diagram illustrating an image to be captured by the image processing apparatus. 画像処理装置による画像処理の手順を説明する説明図である。FIG. 9 is an explanatory diagram illustrating a procedure of image processing performed by the image processing apparatus. 本実施の形態に係る画像処理システムによる画像処理の処理手順を説明するフローチャートである。5 is a flowchart illustrating a processing procedure of image processing by the image processing system according to the present embodiment.

符号の説明Explanation of reference numerals

10 画像処理装置
11 CPU
12 バス
13 ROM
14 RAM
15 操作部
16 表示部
17 画像入力部
18 補助記憶部
19 記憶部
20 撮像装置
S シート
T 撮像対象物
10 Image processing device 11 CPU
12 bus 13 ROM
14 RAM
Reference Signs List 15 operation unit 16 display unit 17 image input unit 18 auxiliary storage unit 19 storage unit 20 imaging device S sheet T imaging target

Claims (11)

撮像対象物を撮像して得られた撮像画像を画像処理装置に取込み、取込んだ撮像画像の歪みを補正した補正画像を生成する画像処理方法において、
前記撮像画像は、所定のパターンを形成してある載置面上に載置した撮像対象物を前記パターンと共に撮像して得られた画像であり、前記パターン上の複数の特徴点の位置情報を予め記憶しておき、前記特徴点に対応する前記撮像画像上の対応点の位置情報を受付け、前記特徴点の位置情報と前記対応点の位置情報とに基づき、前記載置面と前記撮像対象物を撮像した際の撮像画像との間の幾何学的関係を定め、定めた幾何学的関係に基づいて前記撮像画像の歪みを補正することを特徴とする画像処理方法。
An image processing method for capturing a captured image obtained by capturing an imaging target object into an image processing apparatus and generating a corrected image in which distortion of the captured image captured is corrected,
The captured image is an image obtained by capturing an image of an imaging target placed on a mounting surface on which a predetermined pattern is formed, together with the pattern, and stores position information of a plurality of feature points on the pattern. It is stored in advance and receives position information of the corresponding point on the captured image corresponding to the feature point, and based on the position information of the feature point and the position information of the corresponding point, the placement surface and the imaging target An image processing method comprising: determining a geometric relationship between a captured image of an object and a captured image; and correcting distortion of the captured image based on the determined geometric relationship.
撮像対象物を撮像装置により撮像して得られた撮像画像を画像処理装置に取込み、取込んだ撮像画像の歪みを補正した補正画像を生成する画像処理方法において、
前記撮像画像は、所定のパターンを形成してある載置面上に載置した撮像対象物を撮像して得られた画像であり、前記撮像対象物を撮像した際の前記撮像装置の姿勢を同一にして前記パターンを撮像した基準画像を前記画像処理装置に取込み、前記パターン上の複数の特徴点の位置情報を予め記憶しておき、前記特徴点に対応する前記基準画像上の対応点の位置情報を受付け、前記特徴点の位置情報と前記対応点の位置情報とに基づき、前記載置面と前記パターンを撮像した際の撮像画像との間の幾何学的関係を定め、定めた幾何学的関係に基づいて前記撮像画像の歪みを補正することを特徴とする画像処理方法。
An image processing method of capturing a captured image obtained by capturing an imaging target object by an imaging device into an image processing device and generating a corrected image in which the captured captured image is corrected for distortion.
The captured image is an image obtained by capturing an image of an imaging target placed on a mounting surface on which a predetermined pattern is formed, and indicates a posture of the imaging device when capturing the imaging target. A reference image obtained by capturing the pattern in the same manner is taken into the image processing apparatus, and position information of a plurality of feature points on the pattern is stored in advance, and a corresponding point on the reference image corresponding to the feature point is stored. Position information is received, and based on the position information of the feature points and the position information of the corresponding points, a geometric relationship between the placement surface and the captured image when the pattern is captured is determined, and the determined geometry is determined. An image processing method for correcting distortion of the captured image based on a logical relationship.
撮像対象物を載置するための載置面を有する載置部と、前記載置面上に載置した撮像対象物を撮像する撮像装置と、該撮像装置により得られた撮像画像を取込み、取込んだ撮像画像の歪みを補正した補正画像を生成する画像処理装置とを備える画像処理システムにおいて、
前記載置面には所定のパターンを形成してあり、前記画像処理装置は、前記載置面に載置した撮像対象物を前記パターンと共に撮像して得られた撮像画像を取込むべくなしてあり、前記パターン上の複数の特徴点の位置情報を予め記憶する手段と、前記特徴点に対応する前記撮像画像上の対応点の位置情報を受付ける手段と、前記特徴点の位置情報と前記対応点の位置情報とに基づき、前記載置面と前記撮像対象物を撮像した際の撮像画像との間の幾何学的関係を定める手段と、定めた幾何学的関係に基づいて前記撮像画像の歪みを補正する手段とを備えることを特徴とする画像処理システム。
A mounting portion having a mounting surface for mounting an imaging target, and an imaging device that images the imaging target mounted on the mounting surface described above, and captures an image captured by the imaging device. An image processing system comprising: an image processing device that generates a corrected image in which the captured image is corrected for distortion.
The mounting surface has a predetermined pattern formed thereon, and the image processing apparatus is configured to capture a captured image obtained by imaging the imaging target mounted on the mounting surface together with the pattern. Means for storing in advance position information of a plurality of feature points on the pattern; means for receiving position information of a corresponding point on the captured image corresponding to the feature point; Means for determining a geometric relationship between the placement surface and the captured image when the imaging target is imaged, based on the position information of the points, and Means for correcting distortion.
撮像対象物を載置するための載置面を有する載置部と、前記載置面上に載置した撮像対象物を撮像する撮像装置と、該撮像装置により得られた撮像画像を取込み、取込んだ撮像画像の歪みを補正した補正画像を生成する画像処理装置とを備える画像処理システムにおいて、
前記載置面には所定のパターンを形成してあり、前記画像処理装置は、前記載置面上に載置した撮像対象物を前記撮像装置により撮像した撮像画像と、前記撮像対象物を撮像した際の前記撮像装置の姿勢を同一にして前記パターンを撮像した基準画像とを取込むべくなしてあり、前記パターン上の複数の特徴点の位置情報を予め記憶する手段と、前記特徴点に対応する前記基準画像上の対応点の位置情報を受付ける手段と、前記特徴点の位置情報と前記対応点の位置情報とに基づき、前記載置面と前記パターンを撮像した際の撮像画像との間の幾何学的関係を定める手段と、定めた幾何学的関係に基づいて前記撮像画像の歪みを補正する手段とを備えることを特徴とする画像処理システム。
A mounting portion having a mounting surface for mounting an imaging target, and an imaging device that images the imaging target mounted on the mounting surface described above, and captures an image captured by the imaging device. An image processing system comprising: an image processing device that generates a corrected image in which the captured image is corrected for distortion.
The mounting surface has a predetermined pattern formed thereon, and the image processing apparatus captures an image of the imaging target placed on the mounting surface by the imaging device, and captures the imaging target. Means for pre-storing positional information of a plurality of feature points on the pattern, wherein the orientation of the imaging device at the time of the capturing is the same as the reference image obtained by capturing the pattern, Means for receiving the position information of the corresponding point on the corresponding reference image, based on the position information of the feature point and the position information of the corresponding point, the image of the mounting surface and the image captured when the pattern is imaged. An image processing system comprising: means for determining a geometric relationship between the images; and means for correcting distortion of the captured image based on the determined geometric relationship.
前記幾何学的関係は、前記特徴点と前記対応点との間の射影変換により表されることを特徴とする請求項3又は請求項4に記載の画像処理システム。   The image processing system according to claim 3, wherein the geometric relationship is represented by projective transformation between the feature point and the corresponding point. 前記画像処理装置は、生成すべき補正画像上の点を前記幾何学的関係に従って変換する手段と、変換した点の色情報を前記撮像画像から取得する手段とを更に備え、取得した色情報に基づいて補正画像を生成すべくなしてあることを特徴とする請求項3乃至請求項5の何れかに記載の画像処理システム。   The image processing apparatus further includes: a unit configured to convert a point on the corrected image to be generated according to the geometric relationship; and a unit configured to obtain color information of the converted point from the captured image. The image processing system according to claim 3, wherein a corrected image is generated based on the corrected image. 前記パターン画像は格子状の画像であることを特徴とする請求項3乃至請求項6の何れかに記載の画像処理システム。   7. The image processing system according to claim 3, wherein the pattern image is a lattice image. 撮像対象物の撮像画像を取込み、取込んだ撮像画像の歪みを補正した補正画像を生成する画像処理装置において、
所定のパターンを形成してある載置面上に載置した撮像対象物を前記パターンと共に撮像して得られた撮像画像を取込むべくなしてあり、前記パターン上の複数の特徴点の位置情報を予め記憶する手段と、前記特徴点に対応する前記撮像画像上の対応点の位置情報を受付ける手段と、前記特徴点の位置情報と前記対応点の位置情報とに基づき、前記載置面と前記撮像対象物を撮像した際の撮像画像との間の幾何学的関係を定める手段と、定めた幾何学的関係に基づいて前記撮像画像の歪みを補正する手段とを備えることを特徴とする画像処理装置。
In an image processing apparatus that captures a captured image of an imaging target object and generates a corrected image in which distortion of the captured image is corrected,
The apparatus is configured to capture a captured image obtained by capturing an image of an imaging target mounted on a mounting surface on which a predetermined pattern is formed, together with the pattern, and obtain position information of a plurality of feature points on the pattern. Means for storing in advance, means for receiving position information of the corresponding point on the captured image corresponding to the feature point, based on the position information of the feature point and the position information of the corresponding point, Means for determining a geometric relationship between the image and the captured image when the image of the object is captured, and means for correcting distortion of the captured image based on the determined geometric relationship. Image processing device.
撮像装置により得られた撮像対象物の撮像画像を取込み、取込んだ撮像画像の歪みを補正した補正画像を生成する画像処理装置において、
所定のパターンを形成してある載置面上に載置した撮像対象物を撮像して得られた撮像画像と、前記撮像対象物を撮像した際の前記撮像装置の姿勢を同一にして前記パターンを撮像した基準画像とを取込むべくなしてあり、前記パターン上の複数の特徴点の位置情報を予め記憶する手段と、前記特徴点に対応する前記基準画像上の対応点の位置情報を受付ける手段と、前記特徴点の位置情報と前記対応点の位置情報とに基づき、前記載置面と前記パターンを撮像した際の撮像画像との間の幾何学的関係を定める手段と、定めた幾何学的関係に基づいて前記撮像画像の歪みを補正する手段とを備えることを特徴とする画像処理装置。
In an image processing device that captures a captured image of an imaging target obtained by an imaging device and generates a corrected image in which distortion of the captured image is corrected,
An image obtained by imaging an imaging target placed on a mounting surface on which a predetermined pattern is formed is the same as the captured image, and the pattern of the imaging device is the same when the imaging device is imaged. Means for pre-storing position information of a plurality of feature points on the pattern, and receiving position information of a corresponding point on the reference image corresponding to the feature point. Means, based on the position information of the feature points and the position information of the corresponding points, means for determining a geometric relationship between the placement surface and the captured image when the pattern is captured, Means for correcting distortion of the captured image based on a logical relationship.
コンピュータに、受付けた画像の歪みを補正した補正画像を生成させるステップを有するコンピュータプログラムにおいて、
前記画像は、所定のパターンを形成してある載置面上に載置した撮像対象物を前記パターンと共に撮像して得られた撮像画像であり、コンピュータに、前記パターン上の特徴点に対応した撮像画像上の対応点の位置情報を受付けさせるステップと、コンピュータに、前記対応点の位置情報と予め記憶された前記特徴点の位置情報とに基づき、前記載置面と前記撮像対象物を撮像した際の撮像画像との間の幾何学的関係を定めさせるステップと、コンピュータに、定めた幾何学的関係に基づいて前記撮像画像の歪みを補正させるステップとを有することを特徴とするコンピュータプログラム。
A computer program having a step of causing a computer to generate a corrected image in which a distortion of a received image has been corrected,
The image is a captured image obtained by capturing an image of an imaging target mounted on a mounting surface on which a predetermined pattern has been formed, together with the pattern, and a computer corresponding to feature points on the pattern. Receiving the position information of the corresponding point on the captured image, and causing the computer to image the placement surface and the imaging target based on the position information of the corresponding point and the position information of the feature point stored in advance. A computer program, comprising the steps of: determining a geometric relationship between the captured image and the captured image; and causing a computer to correct distortion of the captured image based on the determined geometric relationship. .
コンピュータに、受付けた画像の歪みを補正した補正画像を生成させるステップを有するコンピュータプログラムにおいて、
前記画像は、所定のパターンを形成してある載置面上に載置した撮像対象物を撮像装置により撮像して得られた撮像画像、及び前記撮像画像を撮像した際の前記撮像装置の姿勢を同一にして前記パターンを撮像した基準画像であり、コンピュータに、前記パターン上の特徴点に対応する前記基準画像上の対応点の位置情報を受付けさせるステップと、コンピュータに、前記対応点の位置情報と予め記憶された前記特徴点の位置情報とに基づき、前記載置面と前記パターンを撮像した際の撮像画像との間の幾何学的関係を定めさせるステップと、コンピュータに、定めた幾何学的関係に基づいて前記撮像画像の歪みを補正させるステップとを有することを特徴とするコンピュータプログラム。

A computer program having a step of causing a computer to generate a corrected image in which a distortion of a received image has been corrected,
The image is a captured image obtained by capturing an imaging target placed on a mounting surface on which a predetermined pattern is formed by an imaging device, and a posture of the imaging device when the captured image is captured. Is a reference image obtained by imaging the pattern with the same, and causing a computer to receive position information of a corresponding point on the reference image corresponding to a feature point on the pattern; and Causing the computer to determine a geometric relationship between the placement surface and the captured image when the pattern is captured based on the information and the position information of the feature point stored in advance. Correcting the distortion of the captured image based on a logical relationship.

JP2003305383A 2003-03-05 2003-08-28 Image processing method, system and device, and computer program Withdrawn JP2004288148A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003305383A JP2004288148A (en) 2003-03-05 2003-08-28 Image processing method, system and device, and computer program
PCT/JP2004/002677 WO2004079653A1 (en) 2003-03-05 2004-03-03 Image processing method, image processing system, image processing device, and computer program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003059081 2003-03-05
JP2003305383A JP2004288148A (en) 2003-03-05 2003-08-28 Image processing method, system and device, and computer program

Publications (1)

Publication Number Publication Date
JP2004288148A true JP2004288148A (en) 2004-10-14

Family

ID=33302101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003305383A Withdrawn JP2004288148A (en) 2003-03-05 2003-08-28 Image processing method, system and device, and computer program

Country Status (1)

Country Link
JP (1) JP2004288148A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006053411A2 (en) * 2004-11-18 2006-05-26 Audaces Automaçao E Informática Industrial Ltda. Template based digital image correction system and magnetic pattern holder
JP2007034985A (en) * 2005-07-29 2007-02-08 Canon Inc Information processing method and device
WO2016163492A1 (en) * 2015-04-10 2016-10-13 日本電気株式会社 Position determining device, position determining method, and program
JP2017093654A (en) * 2015-11-19 2017-06-01 株式会社ユニバーサルエンターテインメント Game machine
JP2018106349A (en) * 2016-12-26 2018-07-05 京セラドキュメントソリューションズ株式会社 Image processing system
CN109983531A (en) * 2016-09-23 2019-07-05 堺显示器制品株式会社 Generation system, generation method and computer program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006053411A2 (en) * 2004-11-18 2006-05-26 Audaces Automaçao E Informática Industrial Ltda. Template based digital image correction system and magnetic pattern holder
WO2006053411A3 (en) * 2004-11-18 2006-09-28 Audaces Automacao E Informatic Template based digital image correction system and magnetic pattern holder
JP2007034985A (en) * 2005-07-29 2007-02-08 Canon Inc Information processing method and device
US7821535B2 (en) 2005-07-29 2010-10-26 Canon Kabushiki Kaisha Information processing method and apparatus
WO2016163492A1 (en) * 2015-04-10 2016-10-13 日本電気株式会社 Position determining device, position determining method, and program
JPWO2016163492A1 (en) * 2015-04-10 2018-03-15 日本電気株式会社 Position specifying device, position specifying method and program
US10433119B2 (en) 2015-04-10 2019-10-01 Nec Corporation Position determination device, position determining method, and storage medium
JP2017093654A (en) * 2015-11-19 2017-06-01 株式会社ユニバーサルエンターテインメント Game machine
CN109983531A (en) * 2016-09-23 2019-07-05 堺显示器制品株式会社 Generation system, generation method and computer program
JP2018106349A (en) * 2016-12-26 2018-07-05 京セラドキュメントソリューションズ株式会社 Image processing system

Similar Documents

Publication Publication Date Title
JP4832878B2 (en) Image composition processing apparatus and method
US7317558B2 (en) System and method for image processing of multiple images
JP4556813B2 (en) Image processing apparatus and program
JP4715527B2 (en) Imaging apparatus, image processing method and program for captured image
JP2014131257A (en) Image correction system, image correction method, and program
JP4470930B2 (en) Image processing apparatus, image processing method, and program
JP4010754B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
JP6253280B2 (en) Imaging apparatus and control method thereof
CN108965742A (en) Abnormity screen display method, apparatus, electronic equipment and computer readable storage medium
JP2007074578A (en) Image processor, photography instrument, and program
JP4902568B2 (en) Electronic document generation apparatus, electronic document generation method, computer program, and storage medium
JP2004342067A (en) Image processing method, image processor and computer program
JP5644461B2 (en) Image processing apparatus and program
JP2007324655A (en) Image data acquisition system, image processor and image data acquisition method
JP7218614B2 (en) Diagnostic imaging system, diagnostic imaging apparatus, and diagnostic imaging method
JP2004288148A (en) Image processing method, system and device, and computer program
JPWO2009090727A1 (en) Display device
JP4860431B2 (en) Image generation device
JP2010026734A (en) Image processor and its method
CN115086631A (en) Image generation method and information processing apparatus
JP2004220371A (en) Image processing method, image processor, image processing program, and recording medium recorded with image processing program
JP5538809B2 (en) How to calibrate the scanner
WO2004079653A1 (en) Image processing method, image processing system, image processing device, and computer program
CN110692235A (en) Image processing apparatus, image processing program, and image processing method
US20230370562A1 (en) Image recording device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20061107