JP2011095131A - Image processing method - Google Patents

Image processing method Download PDF

Info

Publication number
JP2011095131A
JP2011095131A JP2009250092A JP2009250092A JP2011095131A JP 2011095131 A JP2011095131 A JP 2011095131A JP 2009250092 A JP2009250092 A JP 2009250092A JP 2009250092 A JP2009250092 A JP 2009250092A JP 2011095131 A JP2011095131 A JP 2011095131A
Authority
JP
Japan
Prior art keywords
image data
imaging
dimensional
data
processing method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009250092A
Other languages
Japanese (ja)
Other versions
JP2011095131A5 (en
JP5336325B2 (en
Inventor
Shigeo Murakami
繁男 村上
Toshibumi Inoue
俊文 井上
Hiroyuki Onishi
浩之 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dainippon Screen Manufacturing Co Ltd
Original Assignee
Dainippon Screen Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dainippon Screen Manufacturing Co Ltd filed Critical Dainippon Screen Manufacturing Co Ltd
Priority to JP2009250092A priority Critical patent/JP5336325B2/en
Publication of JP2011095131A publication Critical patent/JP2011095131A/en
Publication of JP2011095131A5 publication Critical patent/JP2011095131A5/ja
Application granted granted Critical
Publication of JP5336325B2 publication Critical patent/JP5336325B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing method for determining a variation region of luminances observed in an image, which is a problem in three-dimensional measurement of a three-dimensional object. <P>SOLUTION: The image processing method includes: a first photographing step for illuminating an object Q with an illumination device F1 and acquiring a two-dimensional image data FD12 photographed by a camera C1; a second photographing step for acquiring two-dimensional image data FD13 photographed by the same camera C1 by illuminating the same object Q with an illumination device F2 from a different illumination position; and an extraction step for generating difference data of the luminances of reflection light amounts from the two-dimensional image data FD12 and FD13, and determining, using the standard deviation as a threshold value based on the average value of the difference data, difference data indicating the luminances more than the threshold value as a variation region of the image data of the object Q. The method provides an effect of accurately generating three-dimensional data of the object Q. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、対象物の2次元画像からステレオ相関法で3次元形状データを生成する画像処理方法に関する。そして本発明は、物品検査、ロボットの視覚、個人認証、監視カメラ、衛星画像解析、医療画像解析、顕微鏡画像解析などに利用できる。   The present invention relates to an image processing method for generating three-dimensional shape data from a two-dimensional image of an object by a stereo correlation method. The present invention can be used for article inspection, robot vision, personal authentication, surveillance camera, satellite image analysis, medical image analysis, microscope image analysis, and the like.

3次元物体の対象物に対して、非接触でその3次元距離データを計測する場合、例えば特開平2−29878号公報(特許文献1)に示されているように、光軸及び座標系(撮像面)が平行な2台のカメラを使用することが提案されている。これは、その2台のカメラで同一対象物を撮像し、各撮像画像の同一領域を構成する画素についてそれぞれ対応付けを行い、その結果から視差を抽出することにより対象物までの距離を演算するようにしたものである。   When measuring the three-dimensional distance data of a three-dimensional object in a non-contact manner, for example, as disclosed in JP-A-2-29878 (Patent Document 1), an optical axis and a coordinate system ( It has been proposed to use two cameras whose imaging surfaces are parallel. This is to calculate the distance to the object by capturing the same object with the two cameras, associating the pixels constituting the same area of each captured image, and extracting the parallax from the result. It is what I did.

一方、対象物の3次元形状データを生成する方法として、ステレオ相関法がしばしば用いられる。ステレオ相関法では、複数台のカメラを備えた撮像装置によって対象物を撮影し、視点の異なる複数の2次元画像を得る。それら複数の2次元画像について、相関法または勾配法などを用いて対応点を探索する。探索結果を合成し、3次元再構成を行って3次元形状データを生成する。   On the other hand, a stereo correlation method is often used as a method for generating three-dimensional shape data of an object. In the stereo correlation method, an object is photographed by an imaging device having a plurality of cameras, and a plurality of two-dimensional images having different viewpoints are obtained. Corresponding points are searched for the plurality of two-dimensional images using a correlation method or a gradient method. The search results are combined and three-dimensional reconstruction is performed to generate three-dimensional shape data.

更に詳しく、ステレオ相関法は、輝度画像から物体の形状を計測する簡便な3次元計測手法である。基本的な原理は、2台のカメラから対象物体上の同一点を探し、画像中の2次元座標から各カメラからの方向ベクトルを得て三角測量の原理で3次元座標を計算する。計算に用いるカメラの位置と画像中の2次元位置から方向ベクトルに変換する変換式および式のパラメータは、あらかじめキャリブレーションを行って計測しておく。   More specifically, the stereo correlation method is a simple three-dimensional measurement method for measuring the shape of an object from a luminance image. The basic principle is to find the same point on the target object from two cameras, obtain the direction vector from each camera from the two-dimensional coordinates in the image, and calculate the three-dimensional coordinates by the principle of triangulation. The conversion formula for converting the position of the camera used for the calculation and the two-dimensional position in the image into a direction vector and the parameters of the formula are measured by performing calibration in advance.

ステレオ相関法においては、第一のカメラ画像の各画素内に一点を選び、その周囲に近傍の微小領域(以下近傍領域という)のウィンドウを設ける。多くの場合、近傍領域は注目点を中心とする矩形である。次に、第二のカメラにおいても同様に対応点の候補となる点の周辺に同じ形状のウィンドウを設ける。これらのウィンドウ間で輝度分布の類似度を計算する。類似度の評価方法にはさまざまな方法がある。一例として、SAD(Sum of Absolute Difference)と呼ばれる方法では相対的位置が等しい画素同士の輝度の差の絶対値のウィンドウ全体における総和を計算する。この場合、計算結果が小さいものほど類似度は高くなる。対応点が決定すれば,2台のカメラからそれぞれの画像上の点への方向ベクトルが決まり、対象物体上の点の3次元座標値が計算できる。   In the stereo correlation method, one point is selected in each pixel of the first camera image, and a window of a nearby minute region (hereinafter referred to as a nearby region) is provided around the selected point. In many cases, the neighboring region is a rectangle centered on the point of interest. Next, in the second camera, similarly, a window having the same shape is provided around a point that is a candidate for a corresponding point. The similarity of the luminance distribution is calculated between these windows. There are various methods for evaluating similarity. As an example, in a method called SAD (Sum of Absolute Difference), the sum of the absolute values of luminance differences between pixels having the same relative position is calculated over the entire window. In this case, the smaller the calculation result, the higher the similarity. When the corresponding points are determined, the direction vectors from the two cameras to the points on the respective images are determined, and the three-dimensional coordinate values of the points on the target object can be calculated.

ここで対象物が立体的でその側面画像は、異なるカメラで撮像された異なる2次元画像中の対象物体上の同一点に観測されることは稀で、一般に異なる位置に現れたり、片方の画像にしか存在しなかったりする。即ち、一方のカメラから見えており撮像される領域が視線の異なる他方のカメラから見えず撮像されない領域が存在する。以後、この領域をオクルージョン領域(Occulusion)と称す。この結果,誤って対応付けられた点から計算された三次元座標値は、正しい値を持たない。   Here, the object is three-dimensional and its side image is rarely observed at the same point on the target object in different two-dimensional images captured by different cameras, and generally appears at a different position or one of the images. It only exists in In other words, there is a region that is visible from one camera and is not imaged because the imaged region is not visible from the other camera with a different line of sight. Hereinafter, this area is referred to as an occlusion area. As a result, the three-dimensional coordinate value calculated from the points that are incorrectly associated does not have a correct value.

そのため、対応点の探索が困難であり、生成された3次元形状データが不正確となる。よって、対応点はカメラに向いた対象物の正面の平面領域内から選ぶのが好ましい。従って、対象物に対して、ステレオ相関法を正しく行うためには、カメラに向かって対象物画像に現れる側面領域を含むオクルージョン領域を検出し、さらに可能であれば正面の平面領域を判定する必要がある。そして、既存の対象物の正面の領域を判定する方法は、対象物のエッジを検出する方法(特許文献2)などがある。   Therefore, it is difficult to search for corresponding points, and the generated three-dimensional shape data becomes inaccurate. Therefore, it is preferable to select the corresponding point from the plane area in front of the object facing the camera. Therefore, in order to correctly perform a stereo correlation method on an object, it is necessary to detect an occlusion area including a side area appearing in the object image toward the camera, and to determine a front plane area if possible. There is. And the method (patent document 2) etc. which detect the area | region of the front of the existing target object include the edge of a target object.

特開平2−29878号公報JP-A-2-29878 特開平7−299782号公報Japanese Patent Laid-Open No. 7-299782

しかし、上に述べた従来の方法によってもオクルージョン領域の判定をより精度良く行うことは出来ない。対象物が不特定形状で乱雑に配置されているような場合や、乱雑に積層されているような場合は、エッジ検出だけでカメラに向かって正面の平面領域は特定出来ない。例えば、カメラからの視野に積層された上部の対象物の平面に連続して下部の対象物の側面が見えることもあれば、右側の対象物の側面に連続して左側の対象物の平面が見えることもある。そのため、やはり対応点の探索が正確に行われない部分が生じ、正確な3次元形状データを生成することが困難である。   However, the conventional method described above cannot determine the occlusion area with higher accuracy. When the object is randomly arranged in an unspecified shape or is randomly stacked, the plane area in front of the camera cannot be specified only by edge detection. For example, the side surface of the lower object may be visible continuously from the plane of the upper object stacked in the field of view from the camera, or the plane of the left object may be continuous from the side of the right object. Sometimes it can be seen. For this reason, there is a portion where the corresponding point search is not accurately performed, and it is difficult to generate accurate three-dimensional shape data.

本発明は、ステレオ相関法を用いて物体の3次元形状を計測する際に問題となる画像中に観測されるオクルージョン領域成分の判定を行うことを目的とする。   An object of the present invention is to determine an occlusion region component observed in an image that becomes a problem when measuring a three-dimensional shape of an object using a stereo correlation method.

本発明は上記課題を解決するために、光を照射する照射手段で対象物を照明し、少なくとも1つの撮像手段によって撮像した第一2次元画像データを得る第一撮像工程と、第一撮像工程と同一の撮像手段によって同一の対象物を異なる照明位置から照射手段で照明して撮像した第二2次元画像データを得る第二撮像工程と、第一2次元画像データと第二2次元画像データとから反射光量による輝度値の変動領域を判定する抽出工程と、前記撮像手段を含む複数の撮像手段で対象物を異なる視点から撮像して得た複数の2次元画像データから3次元形状データを生成する時に、前記抽出工程で変動領域を判定した前記撮像手段による2次元画像データにおいて変動領域以外の画像から3次元形状データを生成する生成工程と、を具備するようにしたものである。   In order to solve the above-described problems, the present invention provides a first imaging step of illuminating an object with an irradiation unit that emits light and obtaining first two-dimensional image data captured by at least one imaging unit, and a first imaging step A second imaging step of obtaining second 2D image data obtained by illuminating the same object from different illumination positions with an illuminating unit by the same imaging unit, and first 2D image data and second 2D image data 3D shape data from a plurality of two-dimensional image data obtained by imaging a target object from different viewpoints by a plurality of imaging units including the imaging unit A generation step of generating three-dimensional shape data from an image other than the fluctuation region in the two-dimensional image data by the imaging means that has determined the fluctuation region in the extraction step when generating. Those were.

また本発明の請求項1記載の画像処理方法において、前記抽出工程は第一2次元画像データと第二2次元画像データとから反射光量による輝度値の差分データを生成し、この差分データの平均値を基準に設定した閾値以上の輝度を示す画像データを対象物の画像データの変動領域と判定するようにしたものである。   Further, in the image processing method according to claim 1 of the present invention, the extraction step generates difference data of luminance values based on the amount of reflected light from the first two-dimensional image data and the second two-dimensional image data, and an average of the difference data The image data indicating the luminance equal to or higher than the threshold value set with reference to the value is determined as the fluctuation region of the image data of the object.

また本発明の請求項2記載の画像処理方法において、前記閾値は差分データの平均値から標準偏差の値を離した値であるようにしたものである。   Further, in the image processing method according to claim 2 of the present invention, the threshold value is a value obtained by separating a standard deviation value from an average value of difference data.

また本発明の請求項1記載の画像処理方法において、前記第一撮像工程と前記第二撮像工程は照明手段による照明位置の対象物からの角度が異なるようにしたものである。   Also, in the image processing method according to claim 1 of the present invention, the first imaging step and the second imaging step are configured such that the angle of the illumination position by the illumination means from the object is different.

本発明は上記課題を解決するために、第一撮像手段のオクルージョン領域成分を判定する第一抽出工程と、第二撮像手段のオクルージョン領域成分を判定する第二抽出工程と、前記第一撮像手段と第二撮像手段によって対象物を撮像して得た2次元画像データから3次元形状データを生成する時に、前記第一抽出工程と第二抽出工程で判定したオルクージョン領域成分を除外して画像処理する3次元形状データを生成する生成工程と、を具備するようにしたものである。   In order to solve the above problems, the present invention provides a first extraction step for determining an occlusion region component of the first imaging means, a second extraction step for determining an occlusion region component of the second imaging means, and the first imaging means. When the three-dimensional shape data is generated from the two-dimensional image data obtained by imaging the object by the second imaging means, image processing is performed by excluding the occlusion region component determined in the first extraction step and the second extraction step. And a generating step for generating the three-dimensional shape data.

また本発明の請求項5記載の画像処理方法において、前記第一と第二抽出工程は、第一撮像手段が照明手段による照明位置の対象物からの角度が異なる第一撮像工程と第二撮像工程と、を備え、前記第一撮像工程と第二撮像工程にて得た第一と第二2次元画像データからオクルージョン領域を判定するようにしたものである。   Further, in the image processing method according to claim 5 of the present invention, in the first and second extraction steps, the first image pickup step and the second image pickup step in which the first image pickup unit is different in angle from the object at the illumination position by the illumination unit. And an occlusion region is determined from the first and second two-dimensional image data obtained in the first imaging step and the second imaging step.

また本発明の請求項6記載の画像処理方法において、前記第一と第二抽出工程は第一と第二2次元画像データとから反射光量による輝度値の差分データを生成し、この差分データの平均値を基準に設定した閾値以上の輝度を示す画像データを対象物の画像データの変動領域と判定するようにしたものである。   Further, in the image processing method according to claim 6 of the present invention, the first and second extraction steps generate difference data of luminance values according to the amount of reflected light from the first and second two-dimensional image data. The image data indicating the luminance equal to or higher than the threshold value set based on the average value is determined as the fluctuation region of the image data of the target object.

また本発明の請求項7記載の画像処理方法において、前記閾値は差分データの平均値から標準偏差の値を離した値であるようにしたものである。   Further, in the image processing method according to claim 7 of the present invention, the threshold value is a value obtained by separating a standard deviation value from an average value of difference data.

本発明の請求項1に係る画像処理方法によれば、画像データ中の変動領域分が簡単に判定される。その結果、正確な3次元形状データを生成することができる。   According to the image processing method of the first aspect of the present invention, the fluctuation region in the image data is easily determined. As a result, accurate three-dimensional shape data can be generated.

また本発明の請求項2に係る画像処理方法によれば、2次元画像データ中の変動領域を高い精度で特定することができる効果を奏する。   In addition, according to the image processing method of the present invention, it is possible to specify the fluctuation region in the two-dimensional image data with high accuracy.

また本発明の請求項3に係る画像処理方法によれば、第一撮像工程と第二撮像工程にて得られた2次元画像データによる変動領域をより高い精度でを特定することができる効果を奏する。   In addition, according to the image processing method of the third aspect of the present invention, there is an effect that it is possible to specify the fluctuation region by the two-dimensional image data obtained in the first imaging step and the second imaging step with higher accuracy. Play.

また本発明の請求項4に係る画像処理方法によれば、第一撮像工程と第二撮像工程にて2次元画像データの変動領域をより高い精度で特定することができる効果を奏する。   In addition, according to the image processing method of the present invention, it is possible to specify the fluctuation region of the two-dimensional image data with higher accuracy in the first imaging step and the second imaging step.

また本発明の請求項5に係る画像処理方法によれば、2次元画像データのオクルージョン領域成分を除外して画像処理することで正確な3次元形状データを生成することができる。   According to the image processing method of the fifth aspect of the present invention, accurate three-dimensional shape data can be generated by performing image processing while excluding the occlusion region component of the two-dimensional image data.

また本発明の請求項6に係る画像処理方法によれば、第一撮像工程と第二撮像工程にて2次元画像データのオクルージョン領域成分をより高い精度で特定することができる効果を奏する。   According to the image processing method of the sixth aspect of the present invention, there is an effect that the occlusion region component of the two-dimensional image data can be specified with higher accuracy in the first imaging step and the second imaging step.

また本発明の請求項7に係る画像処理方法によれば、2次元画像データ中のオクルージョン領域成分を高い精度で特定することができる効果を奏する。   Further, according to the image processing method of the seventh aspect of the present invention, there is an effect that the occlusion region component in the two-dimensional image data can be specified with high accuracy.

また本発明の請求項8に係る画像処理方法によれば、第一抽出工程と第二抽出工程にて得られた2次元画像データによるオクルージョン領域成分をより高い精度でを特定することができる。   According to the image processing method of the present invention, the occlusion region component based on the two-dimensional image data obtained in the first extraction step and the second extraction step can be specified with higher accuracy.

本発明の第1の実施形態の3次元形状生成装置1の機能的な構成を示すブロック図The block diagram which shows the functional structure of the three-dimensional shape production | generation apparatus 1 of the 1st Embodiment of this invention. 撮像装置および照明装置の配置の例を示す図The figure which shows the example of arrangement | positioning of an imaging device and an illuminating device 3次元形状生成装置1の処理工程を示す図The figure which shows the process of the three-dimensional shape production | generation apparatus 1 変動領域の判定手段の他の実施形態を説明する説明図Explanatory drawing explaining other embodiment of the determination means of a fluctuation area 本発明の第2の実施形態である第1の実施形態の3次元形状生成装置1を産業用ロボットのアーム部に配置した状態を示す図The figure which shows the state which has arrange | positioned the three-dimensional shape production | generation apparatus 1 of 1st Embodiment which is the 2nd Embodiment of this invention in the arm part of an industrial robot.

以下、本発明の実施例を図1乃至図3に基づいて説明する。   Embodiments of the present invention will be described below with reference to FIGS.

図1は本発明に係る第1の実施形態の3次元形状生成装置1の機能的な構成を示すブロック図、図2は撮像装置および照明装置の配置の例を示す図である。   FIG. 1 is a block diagram illustrating a functional configuration of a three-dimensional shape generation apparatus 1 according to the first embodiment of the present invention, and FIG. 2 is a diagram illustrating an example of an arrangement of an imaging device and an illumination device.

本発明では、2台のカメラで同時に例えば床面に置かれた立体形状の対象物Qを撮像し、1対のステレオ視対を用意し、そのステレオ視対で距離を計算する。まず個々のステレオ視の画像についてオクルージョン領域が存在している変動領域を抽出し、ついでステレオ視対において3次元形状画像データを生成する。   In the present invention, for example, a three-dimensional object Q placed on the floor surface is simultaneously imaged by two cameras, a pair of stereo vision pairs is prepared, and a distance is calculated using the stereo vision pair. First, a fluctuation region where an occlusion region exists is extracted from each stereo vision image, and then three-dimensional shape image data is generated in a stereo vision pair.

これらの図において、3次元形状生成装置1は、撮像装置M1、照明装置F1,F2、および処理装置10からなる。撮像装置M1は、2台のカメラC1,C2を一体的に備える。これらのカメラC1,C2は、光学系を介して結像する対象物Qの2次元画像を撮像(撮影)するCCDやCMOSなどを有する公知のデジタルカメラである。2つのカメラC1,C2は、床面に置かれた対象物Qに対して互いに視点が異なるように配置され、互いに視差のある2次元画像データFDを取得する。   In these drawings, the three-dimensional shape generation device 1 includes an imaging device M1, illumination devices F1 and F2, and a processing device 10. The imaging device M1 is integrally provided with two cameras C1 and C2. These cameras C1 and C2 are known digital cameras having a CCD, a CMOS, or the like that captures (captures) a two-dimensional image of the object Q that is imaged via an optical system. The two cameras C1 and C2 are arranged so that their viewpoints are different from each other with respect to the object Q placed on the floor, and acquire two-dimensional image data FD having parallax with each other.

2台のカメラC1,C2の配置に関して、図2を参照して詳述する。カメラC1とC2は互いに所定の距離(視間)を離れて配置され、対象部Qに向かって傾斜される。よって、カメラC1とC2は互いに異なる方向に傾斜している。この配置によるとカメラC1の投影中心C11から見て対象物Qの側面Q1と平面Q2は撮像領域となり、側面Q3はカメラC1からは見えないオクルージョン領域となる。一方、カメラC2の投影中心C21から見て対象物Qの側面Q3と平面Q2は撮像領域となり、側面Q1はカメラC2からは見えないオクルージョン領域となる。即ち、カメラC1とカメラC2の両方の撮像領域に入るのは平面Q2となる。ここで、カメラC1とカメラC2の視間が広くなるとそれぞれのカメラC1とC2との傾斜角度が床面と平行に近づくため、カメラC1とカメラC2との間で平面Q2の撮像画像が小さくなり、オルクージョン領域が広くなるので対応点の設定が限られてしまう。そのため、平面Qが適宜の大きさに撮像される視間が設定される。   The arrangement of the two cameras C1 and C2 will be described in detail with reference to FIG. The cameras C1 and C2 are arranged at a predetermined distance (between eyes) and are inclined toward the target portion Q. Therefore, the cameras C1 and C2 are inclined in different directions. According to this arrangement, when viewed from the projection center C11 of the camera C1, the side surface Q1 and the plane Q2 of the object Q are imaging regions, and the side surface Q3 is an occlusion region that is not visible from the camera C1. On the other hand, when viewed from the projection center C21 of the camera C2, the side surface Q3 and the plane Q2 of the object Q are imaging regions, and the side surface Q1 is an occlusion region that is not visible from the camera C2. That is, the plane Q2 enters both the imaging areas of the cameras C1 and C2. Here, when the distance between the cameras C1 and C2 is widened, the inclination angles of the cameras C1 and C2 approach the parallel to the floor surface, so the captured image of the plane Q2 between the camera C1 and the camera C2 becomes small. Since the orchestration area becomes wide, the setting of corresponding points is limited. For this reason, the interval between which the plane Q is imaged to an appropriate size is set.

カメラC1,C2により取得された視差を有する2つの2次元画像データFD1、FD2に基づいて、処理装置10において、ステレオ相関法によって3次元形状画像データDTが生成される。なお、3つ以上のカメラCを用い、それらから得られる2つの2次元画像データFDに基づいて3次元形状画像データDTを生成し、他の1つの2次元画像データFDを各点の信頼性データの取得に用いることも可能である。このようにすると、データの欠落部分の評価が容易である。   Based on the two two-dimensional image data FD1 and FD2 having parallax acquired by the cameras C1 and C2, the processing device 10 generates three-dimensional shape image data DT by the stereo correlation method. Three or more cameras C are used, three-dimensional shape image data DT is generated based on two two-dimensional image data FD obtained from them, and the other one-dimensional image data FD is used as the reliability of each point. It can also be used for data acquisition. In this way, it is easy to evaluate missing portions of data.

照明装置F1,F2は、対象物Qに照明光を照射するもので、本発明の照射手段に相当する。本実施例において、対象物Qの撮像が室内で行なわれるため、撮像における適正露出が得られる撮像環境を得るために撮像装置M1による撮像時に光を照射するものである。なお、この照射装置F1,F2による光量は撮像環境によって変わるもので、対象物Qの撮像が室外で行なわれるときには、天候にもよるが自然光による光量が多い環境では適正露出を得るのに照射装置F1,F2による光量は少なくとも良い。   The illuminating devices F1 and F2 irradiate the object Q with illumination light and correspond to the irradiating means of the present invention. In this embodiment, since the object Q is imaged indoors, light is emitted during imaging by the imaging device M1 in order to obtain an imaging environment in which appropriate exposure in imaging is obtained. The amount of light emitted by the irradiation devices F1 and F2 varies depending on the imaging environment. When the object Q is imaged outdoors, the irradiation device is used to obtain an appropriate exposure in an environment where there is a large amount of natural light depending on the weather. The amount of light by F1 and F2 is at least good.

次に、各照明装置F1,F2は、対象物Qに対して互いに異なる角度で照明光を照射する。照明装置F1,F2は撮像装置M1を挟んで左右に配置され、撮像装置M1に対向配置された対象物Qに向かうように互いに逆向きに傾斜される。これら照明装置F1,F2は、撮像装置M1による撮影に際して、1回目は照明装置F1により、2回目は照明装置F2によりそれぞれ照明が行なわれる動作と、両方を同時に点灯する動作が可能である。これら、撮像装置M1および照明装置F1,F2の動作は、処理装置10によって制御される。   Next, each illuminating device F1, F2 irradiates illumination light with respect to the target object Q at mutually different angles. The illuminating devices F1 and F2 are arranged on the left and right sides with the imaging device M1 interposed therebetween, and are inclined in opposite directions so as to face the object Q arranged to face the imaging device M1. These illuminating devices F1 and F2 can perform an operation in which illumination is performed by the illuminating device F1 for the first time and by the illuminating device F2 for the second time, and an operation for simultaneously lighting both. The operations of the imaging device M1 and the illumination devices F1 and F2 are controlled by the processing device 10.

撮像装置M1で得られる2次元画像データFDにおいて、オルクージョン領域があった場合、いずれの照明装置F1,F2がオンしているかによって照明光が照射されるオクルージョン領域の位置が異なる。図2に示すように、照明装置F1によって照明される時、対象物Qの側面Q1と平面Q2は照明されるが、側面Q3は照明されず影となる。一方、照明装置F2によって照明される時、対象物Qの側面Q3と平面Q2は照明されるが、側面Q1は照明されず影となる。よって、照明装置F1とF2の点灯状態によってオクルージョン領域は照明状態が変動するが、共通撮像領域は照明状態の変動が小さくなる。   In the two-dimensional image data FD obtained by the imaging device M1, when there is an occlusion region, the position of the occlusion region to which the illumination light is irradiated differs depending on which illumination device F1, F2 is on. As shown in FIG. 2, when illuminated by the illumination device F1, the side surface Q1 and the plane Q2 of the object Q are illuminated, but the side surface Q3 is not illuminated and becomes a shadow. On the other hand, when illuminated by the illumination device F2, the side surface Q3 and the plane Q2 of the object Q are illuminated, but the side surface Q1 is not illuminated and becomes a shadow. Therefore, the illumination state of the occlusion area varies depending on the lighting state of the illumination devices F1 and F2, but the variation of the illumination state is small in the common imaging area.

処理装置10は、制御部11、記憶部12、変動領域判定部13、および3次元形状画像生成部15などを有する。制御部11には、撮像制御部21および照明制御部22が設けられる。撮像制御部21は、撮像装置M1を制御する。例えば、撮像装置M1のシャッタを制御し、露出タイミング、露出時間などを制御する。照明制御部22は、各照明装置F1,F2を制御する。例えば、撮像装置M1による撮影に際して、照明装置F1,F2を順次オンするように切り換える。   The processing device 10 includes a control unit 11, a storage unit 12, a fluctuation region determination unit 13, a three-dimensional shape image generation unit 15, and the like. The control unit 11 is provided with an imaging control unit 21 and an illumination control unit 22. The imaging control unit 21 controls the imaging device M1. For example, the shutter of the imaging device M1 is controlled to control the exposure timing, the exposure time, and the like. The illumination control unit 22 controls each illumination device F1, F2. For example, when photographing by the imaging device M1, the lighting devices F1 and F2 are switched so as to be sequentially turned on.

その他、制御部11は処理装置10の全体を制御する。記憶部12は、撮像装置M1から出力される複数組みの2次元画像データFD、その他のデータおよびプログラムを記憶する。また、制御部11からの指令によって、記憶した2次元画像データFDを変動領域判定部13に出力する。   In addition, the control unit 11 controls the entire processing apparatus 10. The storage unit 12 stores a plurality of sets of two-dimensional image data FD output from the imaging apparatus M1, other data, and programs. Further, the stored two-dimensional image data FD is output to the fluctuation region determination unit 13 in accordance with a command from the control unit 11.

変動領域判定部13は、2次元画像データFD1、FD2の中からオクルージョン成分領域を検出する。その方法として次の方法がある。画像データ中の1画素ごとの輝度値を基準に所定の閾値との比較でもって画素または領域をオクルージョン成分領域として抽出する。具体的には、撮像装置M1の一方のカメラC1で撮像される対象物Qに含まれるオクルージョン領域とカメラC2により撮像されるオクルージョン領域は異なる。また、それぞれのカメラC1,C2による撮像領域において照明装置F1,F2により光照射領域も異なる。この場合、撮像装置M1に対向する対象物Qの正面の平面Q2領域はほぼ均等に照明されることとなるが、略垂直面の側面Q1、Q3であるオルクージョン領域は、カメラC1に撮像される側面Q1は照明装置F1に照明されるが照明装置F2によっては照明されない位置関係となる。一方、カメラC2に撮像される側面Q3は照明装置F2に照明されるが照明装置F1によっては照明されない位置関係となる。即ち、一方のカメラC1で撮像する際に照明装置F1のみを用いた画像と照明装置F2のみを用いた画像では側面Q1とQ3で大きくその明るさが変動する。これはカメラC2でも同様である。そこでこの変動の大きな領域を抽出することで対象物Qのオルクージョン領域成分と判定する。   The fluctuation region determination unit 13 detects an occlusion component region from the two-dimensional image data FD1 and FD2. There are the following methods. A pixel or region is extracted as an occlusion component region by comparison with a predetermined threshold value based on the luminance value for each pixel in the image data. Specifically, the occlusion area included in the object Q imaged by one camera C1 of the imaging device M1 is different from the occlusion area imaged by the camera C2. In addition, in the imaging areas of the respective cameras C1 and C2, the light irradiation areas are different depending on the illumination devices F1 and F2. In this case, the plane Q2 area in front of the object Q facing the imaging device M1 is illuminated almost evenly, but the occlusion areas which are the side surfaces Q1 and Q3 of the substantially vertical plane are imaged by the camera C1. The side surface Q1 is illuminated by the illumination device F1, but is not illuminated by the illumination device F2. On the other hand, the side surface Q3 imaged by the camera C2 is in a positional relationship that is illuminated by the illumination device F2, but not illuminated by the illumination device F1. In other words, the brightness of the image using only the illumination device F1 and the image using only the illumination device F2 vary greatly on the side surfaces Q1 and Q3 when taking an image with one camera C1. The same applies to the camera C2. Therefore, by extracting a region having a large fluctuation, it is determined as an orcinal region component of the object Q.

更に具体的には、一方のカメラC1で使用する照明装置F1とF2を異ならせた2つの画像を撮像する。通常のカメラにおいては撮像素子に入射する光量を積算し、その値をA/D変換によって整数値に変換し画像フォーマットの形式で保持するが、A/D変換あるいは画像フォーマットの制限により、この際に画素で表現可能な輝度の最大値が存在する。たとえば輝度を8bitで表現する画像フォーマットであれば、最大値は255となり最小値は0となる。したがって、そのようなカメラの使用においては、2つの画像における輝度値の差分画像を得ることで、その差分値が大きい値ほど2つの画像で明るさがことなる点、即ちオクルージョン領域と判定できる。詳細は後述するが本実施例では、差分画像において、全輝度値の平均値から全輝度値の標準偏差を減算した値を閾値として、オクルージョン領域成分の有無を設定する。   More specifically, two images with different illumination devices F1 and F2 used in one camera C1 are taken. In a normal camera, the amount of light incident on the image sensor is integrated, and the value is converted into an integer value by A / D conversion and held in the form of an image format. There is a maximum luminance value that can be expressed by pixels. For example, in the case of an image format that expresses luminance in 8 bits, the maximum value is 255 and the minimum value is 0. Therefore, when using such a camera, by obtaining a difference image of luminance values between the two images, it can be determined that the brightness of the two images differs as the difference value increases, that is, an occlusion region. Although details will be described later, in the present embodiment, in the difference image, the presence / absence of an occlusion region component is set using a value obtained by subtracting the standard deviation of all luminance values from the average value of all luminance values as a threshold value.

このような変動領域判定部13によって、2次元画像データFD1、FD2の中のオクルージョン領域成分を自動的に検出することが可能である。なお、2次元画像データFD1におけるオクルージョン領域成分の位置と、2次元画像データFD2におけるオクルージョン領域成分の位置とは異なる。照明装置F1,F2とカメラC1、C2との位置が異なるためである。   Such a fluctuation region determination unit 13 can automatically detect occlusion region components in the two-dimensional image data FD1 and FD2. Note that the position of the occlusion region component in the two-dimensional image data FD1 is different from the position of the occlusion region component in the two-dimensional image data FD2. This is because the positions of the illumination devices F1, F2 and the cameras C1, C2 are different.

3次元形状画像生成部15は、2次元画像データFD1、FD2に基づいて、3次元形状画像データDTを生成する。また、複数の3次元形状画像データDTを統合して1つの3次元形状画像データDTとする。3次元形状画像生成部13のこのような機能は、従来から公知である。この3次元形状画像データDTを生成する基となる2次元画像データFD1、FD2の対応点は変動領域判定部13にて検出された情報を元にオクルージョン領域成分以外の画像から探索される。   The three-dimensional shape image generation unit 15 generates three-dimensional shape image data DT based on the two-dimensional image data FD1 and FD2. Also, a plurality of three-dimensional shape image data DT is integrated into one three-dimensional shape image data DT. Such a function of the three-dimensional shape image generation unit 13 is conventionally known. Corresponding points of the two-dimensional image data FD1 and FD2, which are the basis for generating the three-dimensional shape image data DT, are searched from images other than the occlusion region components based on the information detected by the fluctuation region determination unit 13.

このような処理装置10は、CPU、RAM、ROM、磁気ディスク装置、光磁気ディスク装置、媒体ドライブ装置、入力装置、ディスプレイ装置、および適当なインタフェースなどを用い、CPUがプログラムを実行することによって実現することができる。パーソナルコンピュータなどを用いて構成することも可能である。そのようなプログラムは、適当な記録媒体によって供給することが可能であり、また、ネットワークを介して他のサーバからダウンロードすることも可能である。   Such a processing device 10 is realized by the CPU executing a program using a CPU, RAM, ROM, magnetic disk device, magneto-optical disk device, medium drive device, input device, display device, and an appropriate interface. can do. It is also possible to configure using a personal computer or the like. Such a program can be supplied by an appropriate recording medium, and can also be downloaded from another server via a network.

次に、3次元形状生成装置1の動作の流れを、タイムチャートを参照して説明する。図3は3次元形状生成装置1の処理工程を示すタイムチャートである。横軸は時間(t)、縦軸には対応する構成のONとOFFを示す。3次元形状生成装置1で対象物Qの3次元形状画像データDTを作成したい場合、操作者は3次元形状生成装置1の図示しない動作スイッチをオンする。そのオンに続いて、3次元形状生成装置1は制御部11によって自動的に以下の動作を行なう。   Next, an operation flow of the three-dimensional shape generation apparatus 1 will be described with reference to a time chart. FIG. 3 is a time chart showing processing steps of the three-dimensional shape generation apparatus 1. The horizontal axis shows time (t), and the vertical axis shows ON and OFF of the corresponding configuration. When the three-dimensional shape generation apparatus 1 wants to create the three-dimensional shape image data DT of the object Q, the operator turns on an operation switch (not shown) of the three-dimensional shape generation apparatus 1. Following the turn-on, the three-dimensional shape generation apparatus 1 automatically performs the following operation by the control unit 11.

図3において、照明装置F1、F2の両方を消灯して撮像装置M1による1回目の撮像を行う。この時、照明装置F1、F2による照明光量が無いので、対象物Qを室内において外来光のみで撮像される。ここで撮像装置M1による撮影時間は以後の処理工程と同じでよく、特に変更する必要はない。   In FIG. 3, both of the illumination devices F1 and F2 are turned off, and the first imaging by the imaging device M1 is performed. At this time, since there is no illumination light quantity by the illuminating devices F1 and F2, the object Q is imaged with only extraneous light indoors. Here, the imaging time by the imaging device M1 may be the same as the subsequent processing steps, and does not need to be changed.

カメラC1、C2を介して得られた2つの2次元画像データFD11、FD21を、記憶部12の所定のメモリ領域に記憶し、後述する変動領域の抽出工程において用いられる2次元画像データにおいて外来光の影響を無くす処理が実行される時に利用される(工程S1)。即ち、照明装置F1、F2による照明光量が無いので2次元画像データFD11、FD21の輝度値は外来光のみによるものなるので、照明装置F1、F2による照明光量がある場合は、その外来光の輝度値を引き算することで、仮に外来光にムラがあった場合に、そのムラの影響を少なくすることが出来る。ただし、このプレ撮像工程は外来光が均一な環境であれば無くても良い。   Two pieces of two-dimensional image data FD11 and FD21 obtained via the cameras C1 and C2 are stored in a predetermined memory area of the storage unit 12, and extraneous light is used in the two-dimensional image data used in the variable area extraction process described later. This is used when a process for eliminating the influence of is performed (step S1). That is, since there is no illumination light amount by the illumination devices F1 and F2, the luminance values of the two-dimensional image data FD11 and FD21 are only due to the external light. Therefore, when there is an illumination light amount by the illumination devices F1 and F2, the luminance of the external light By subtracting the value, if the extraneous light is uneven, the influence of the unevenness can be reduced. However, this pre-imaging process may be omitted if the external light is in a uniform environment.

次に、照明装置F1をON、照明装置F2をOFFにして撮像装置M1による2回目の撮像を行う。この時、照明装置F1による初期露光時間T1と初期照明光量は、対象物Qを室内において撮像装置M1で撮影する際の通常の撮像条件が設定される。即ち、一般的にカメラは対象物を撮影するのに適正露出となるよう公知の自動露出機能を有している。本発明では、撮影装置M1に自動露出により適正露出が設定されることで、初期露光時間T1と初期照射光量が設定される。カメラC1、C2を介して得られた2つの2次元画像データFD12、FD22を、記憶部12の所定のメモリ領域に記憶される。これは本発明の第一撮像工程に相当する(工程S2)。   Next, the illumination device F1 is turned on and the illumination device F2 is turned off, and the second imaging by the imaging device M1 is performed. At this time, the normal exposure conditions for photographing the object Q indoors with the imaging device M1 are set for the initial exposure time T1 and the initial illumination light quantity by the illumination device F1. That is, generally, a camera has a known automatic exposure function so as to obtain an appropriate exposure for photographing an object. In the present invention, the initial exposure time T1 and the initial irradiation light quantity are set by setting appropriate exposure to the photographing apparatus M1 by automatic exposure. Two two-dimensional image data FD12 and FD22 obtained via the cameras C1 and C2 are stored in a predetermined memory area of the storage unit 12. This corresponds to the first imaging step of the present invention (step S2).

次に、照明装置F1をOFF、照明装置F2をONにして撮像装置M1による3回目の撮像を行う。この時、照明装置F1による初期露光時間T1と初期照明光量は、工程S2と同じく対象物Qを室内において撮像装置M1で撮影する際の通常の撮像条件が設定される。そして、カメラC1、C2を介して得られた2つの2次元画像データFD13、FD23を、記憶部12の所定のメモリ領域に記憶される。これは本発明の第二冊増工程に相当する(工程S3)。   Next, the illumination device F1 is turned off and the illumination device F2 is turned on to perform the third imaging by the imaging device M1. At this time, as for the initial exposure time T1 and the initial illumination light amount by the illuminating device F1, normal imaging conditions when the object Q is imaged indoors by the imaging device M1 are set as in step S2. Then, the two two-dimensional image data FD13 and FD23 obtained through the cameras C1 and C2 are stored in a predetermined memory area of the storage unit 12. This corresponds to the second volume increasing step of the present invention (step S3).

カメラC1、C2を介して得られた4つの2次元画像データFD12、FD13、FD22、FD23を用いて、それぞれの画像に対して変動領域判定部13によって分析される。   Using the four two-dimensional image data FD12, FD13, FD22, and FD23 obtained through the cameras C1 and C2, each image is analyzed by the fluctuation region determination unit 13.

次に、変動領域の判定に関して説明する。判定処理は、4つの2次元画像データから同一のカメラによって撮像され照明装置が異なる2つの画像データを用いて行われる。ここでは、まずカメラC1によって撮像された2次元画像データFD12とFD13を用いて判定を行う。   Next, determination of the fluctuation region will be described. The determination process is performed using two pieces of image data captured by the same camera from four pieces of two-dimensional image data and having different illumination devices. Here, a determination is first made using the two-dimensional image data FD12 and FD13 captured by the camera C1.

2次元画像データFD12とFD13の全画素における256階調で表した輝度値の差分データを求める。1画素ごとの階調値の差分を計算することで、2次元画像データFD12とFD13との間で照射光の照射される領域の状態が大きく異なる領域ほど差分値が「0(ゼロ)」から離れる。即ち、カメラC1での撮影領域において対象物Qの側面Q1は照明装置F1で照射された2次元画像データFD12ではその輝度値が「0」に近くなる。一方、同じ側面Q1は照明装置F2で照射された2次元画像データFD13ではその輝度値が「255」に近くなる。そのため、差分値は「0」よりも負側のマイナスの値を示す。逆の場合は、差分値は「0」よりも正側のプラスの値を示す。即ち、2次元画像データFD12とFD13との間で照射光の照射される領域が異ならない領域ほど、即ち平面Q2は画素の輝度値が等しくなるので差分値が「0(ゼロ)」に近づく。   Difference data of luminance values represented by 256 gradations in all pixels of the two-dimensional image data FD12 and FD13 is obtained. By calculating the difference in gradation value for each pixel, the difference value from “0 (zero)” becomes larger in the region where the state of the region irradiated with irradiation light is greatly different between the two-dimensional image data FD12 and FD13. Leave. That is, the luminance value of the side surface Q1 of the object Q in the imaging region of the camera C1 is close to “0” in the two-dimensional image data FD12 irradiated by the illumination device F1. On the other hand, the brightness value of the same side surface Q1 is close to “255” in the two-dimensional image data FD13 irradiated by the illumination device F2. Therefore, the difference value indicates a negative value on the negative side of “0”. In the opposite case, the difference value is a positive value on the positive side of “0”. That is, the area where the irradiation light is not different between the two-dimensional image data FD12 and FD13, that is, the difference value approaches “0 (zero)” because the luminance value of the pixel is equal in the plane Q2.

ここで、この差分データから所定の閾値をもってオクルージョン領域成分を判定する。差分データ中においてその値が「0」に近いほど2次元画像データFD12とFD13において対象物Qにおける照明装置F1とF2による照明状態に変動がなかった領域と言える。言い換えるとカメラC1に対向する正面である平面Q2領域が相当する。そのため、逆にマイナスまたはプラスの値が大きいほど、照射状態の変更によって照射光量が変動する側面等の略垂直面を含むオクルージョン領域と考えられる。よって、所定の閾値をオクルージョン領域が示す照射光量の変動に相当する境界値とすることで良好にオクルージョン領域成分を判定することができる。   Here, the occlusion region component is determined from the difference data with a predetermined threshold. In the difference data, the closer the value is to “0”, it can be said that in the two-dimensional image data FD12 and FD13, there is no change in the illumination state of the object Q by the illumination devices F1 and F2. In other words, it corresponds to the plane Q2 region that is the front surface facing the camera C1. Therefore, conversely, the larger the negative or positive value, the more likely it is an occlusion region including a substantially vertical surface such as a side surface in which the amount of irradiation light varies as the irradiation state changes. Therefore, the occlusion region component can be satisfactorily determined by setting the predetermined threshold value as a boundary value corresponding to the fluctuation of the irradiation light amount indicated by the occlusion region.

詳細に説明すると、所定の閾値は、まず差分データの全画像データの平均値と標準偏差を求める。そして、平均値から標準偏差を減算または加算することで、平均値から標準偏差の値を離した値を閾値とする。差分データの全データの標準偏差を求めることで、2次元画像データFD12とFD13における照射光量の変動のバラツキが求められるので、その値を超える照射光量の変動を示すことは、2次元画像データFD12とFD13において光照射が変動しているものと言える。対象物Qのオクルージョン領域は照明装置F1とF2による光照射の状態が異なり大きく輝度値が変動する。よって、差分データにおける値も差分データの平均値から標準偏差の値を超えたて離れた値である場合、オクルージョン領域成分と判断する。なお、このカメラC1に対する工程S3が本発明の第一抽出工程に相当する。   More specifically, as the predetermined threshold, first, an average value and a standard deviation of all image data of difference data are obtained. Then, by subtracting or adding the standard deviation from the average value, a value obtained by separating the standard deviation value from the average value is set as a threshold value. By obtaining the standard deviation of all the difference data, variation in the amount of irradiation light in the two-dimensional image data FD12 and FD13 is obtained. Therefore, indicating the variation in the amount of irradiation light exceeding that value is the two-dimensional image data FD12. It can be said that the light irradiation fluctuates in the FD 13. The occlusion area of the object Q is different in the state of light irradiation by the illuminating devices F1 and F2, and has a large luminance value. Therefore, if the value in the difference data is also a value that is far from the average value of the difference data beyond the standard deviation value, it is determined as an occlusion region component. The process S3 for the camera C1 corresponds to the first extraction process of the present invention.

次に、2次元画像データFD22とFD23を用いて同様にオクルージョン領域成分の判定が繰り返される。なお、このカメラC2に対する工程S3が本発明の第二抽出工程に相当する。そして、それぞれの画像に対して変動領域判定部13によって分析された結果が制御部11に与えられる。制御部11では、カメラC1,C2による2次元画像領域にオクルージョン領域成分であることを示すフラグを個別に記憶するようにして、両方の画像データにおいて対応点の探索時に利用して3次元形状画像データDTを生成する基とすればよい。なお、これら第一抽出工程と第二抽出工程は、それぞれ本発明の第一発明の抽出工程にも相当する(工程S3)。   Next, the determination of the occlusion region component is repeated using the two-dimensional image data FD22 and FD23. The process S3 for the camera C2 corresponds to the second extraction process of the present invention. Then, the result analyzed by the fluctuation region determination unit 13 for each image is given to the control unit 11. In the control unit 11, a flag indicating an occlusion region component is individually stored in the two-dimensional image region by the cameras C1 and C2, and the three-dimensional shape image is used when searching for corresponding points in both image data. What is necessary is just to make it the group which produces | generates data DT. In addition, these 1st extraction processes and 2nd extraction processes are also corresponded to the extraction process of 1st invention of this invention, respectively (process S3).

次に、照明装置F1をON、照明装置F2をONにして撮像装置M1による4回目の撮像を行う。この時、照明装置F1,F2による初期露光時間T1と初期照明光量は、工程S2と同じく対象物Qを室内において撮像装置M1で撮影する際の通常の撮像条件が設定される。そして、カメラC1、C2を介して得られた2つの2次元画像データFD14、FD24を、記憶部12の所定のメモリ領域に記憶される(工程S4)。   Next, the illumination device F1 is turned on and the illumination device F2 is turned on to perform the fourth imaging by the imaging device M1. At this time, as for the initial exposure time T1 and the initial illumination light amount by the illuminating devices F1 and F2, normal imaging conditions when the object Q is imaged indoors by the imaging device M1 are set as in step S2. Then, the two two-dimensional image data FD14 and FD24 obtained through the cameras C1 and C2 are stored in a predetermined memory area of the storage unit 12 (step S4).

3次元形状画像生成部15は、2次元画像データFD14、FD24に基づいて、3次元形状画像データDTを画像処理で生成する。また、複数の3次元形状画像データDTを統合して1つの3次元形状画像データDTとする。3次元形状画像生成部13のこのような機能は、従来から公知である。この3次元形状画像データDTを生成する基となる2次元画像データFD14、FD24の対応点は変動領域判定部13にて検出された情報を元にオクルージョン領域成分以外の画像から探索される。なお、これは本発明の生成工程に相当する。   The three-dimensional shape image generation unit 15 generates three-dimensional shape image data DT by image processing based on the two-dimensional image data FD14 and FD24. Also, a plurality of three-dimensional shape image data DT is integrated into one three-dimensional shape image data DT. Such a function of the three-dimensional shape image generation unit 13 is conventionally known. Corresponding points of the two-dimensional image data FD14 and FD24, which are the basis for generating the three-dimensional shape image data DT, are searched from images other than the occlusion region components based on the information detected by the fluctuation region determination unit 13. This corresponds to the generation process of the present invention.

このように、上記第1の実施形態によれば、オクルージョン領域を示すオクルージョン領域成分を2次元画像データ中で判定することで、その領域成分以外の画像データから3次元形状画像データを生成する対応点を設定し探索することで正確な3次元形状データを生成することができる。   As described above, according to the first embodiment, the occlusion region component indicating the occlusion region is determined in the two-dimensional image data, thereby generating the three-dimensional shape image data from the image data other than the region component. By setting and searching for points, accurate three-dimensional shape data can be generated.

次に、本発明の第2の実施形態を図4に基づいて説明する。上記実施形態では、オクルージョン領域成分領域の抽出を2つの2次元画像データFDの差分データの中から、輝度値が所定の閾値以上になっている画素または領域を変動領域であるオクルージョン領域成分として抽出しているが、その方法として他に次の方法がある。図4は本発明に係る第2の実施形態の変動領域の判定方法を示す図である。   Next, a second embodiment of the present invention will be described with reference to FIG. In the above-described embodiment, the occlusion region component region is extracted from the difference data of the two two-dimensional image data FD as a pixel or region whose luminance value is equal to or greater than a predetermined threshold value as an occlusion region component that is a variable region. However, there are the following other methods. FIG. 4 is a diagram showing a method for determining a fluctuation region according to the second embodiment of the present invention.

差分データの画素値である0から255の値がオクルージョン領域成分である可能性を示す値と関係付けを行う。具体的には、差分データが201から255までを80%の可能性、151から200までを70%の可能性、101から150までを50%の可能性、残りの0から100までを0%の可能性と設定するテーブル30を生成する。この関係テーブル30でもって図4に示すように差分データのマトリクス表31を画素ごとに可能性を示す数値に置き換えたデータのマトリクス表32を変動領域判定部13に生成する。こうすることで、オクルージョン領域と見做される状態の領域を以後の処理で省くようにフラグを立てたい時は、可能性の閾値を50%として設定する。そして、50%以上の値を示す画素を全てオクルージョン領域成分と判定するようにすればよい。   A value from 0 to 255, which is a pixel value of the difference data, is correlated with a value indicating the possibility of being an occlusion region component. Specifically, if the difference data is 201 to 255, the probability is 80%, 151 to 200 is 70%, 101 to 150 is 50%, the remaining 0 to 100 is 0% And the table 30 to be set is generated. With this relationship table 30, as shown in FIG. 4, a data matrix table 32 in which the difference data matrix table 31 is replaced with a numerical value indicating the possibility for each pixel is generated in the variable region determination unit 13. In this way, when it is desired to set a flag so as to omit an area regarded as an occlusion area in the subsequent processing, the possibility threshold is set to 50%. Then, all the pixels showing a value of 50% or more may be determined as occlusion area components.

また、よりオクルージョン領域の可能性が高い状態の領域を以後の処理で省くようにフラグを立てたい時は、可能性の閾値を80%として設定する。そして、80%以上の値を示す画素を全てオクルージョン領域成分と判定するようにすればよい。この可能性の閾値は任意に設定できるようにしてもよく、対象物Qの高さが低い形状の場合は、閾値を80%に設定してもよい。また、テーブル30の可能性の閾値を更に細かく設定してもよい。   Further, when it is desired to set a flag so that an area with a higher possibility of an occlusion area is omitted in the subsequent processing, the possibility threshold is set to 80%. Then, all the pixels showing a value of 80% or more may be determined as occlusion region components. The threshold value of this possibility may be set arbitrarily, and the threshold value may be set to 80% when the shape of the object Q is low. Further, the threshold value of the possibility of the table 30 may be set more finely.

次に、本発明に係る第3の実施形態を図5に基づいて説明する。図5は、第1の実施形態の3次元形状生成装置1を産業用ロボットのアーム部に配置した状態を示す図である。産業用ロボット200は、回転自在のロボット本体201と、ロボット本体201に装着されたアーム202より構成される。   Next, a third embodiment according to the present invention will be described with reference to FIG. FIG. 5 is a diagram illustrating a state in which the three-dimensional shape generation apparatus 1 according to the first embodiment is arranged on an arm portion of an industrial robot. The industrial robot 200 includes a rotatable robot body 201 and an arm 202 attached to the robot body 201.

アーム202は、伸縮自在の多間接アームより構成され、その先端に装着された対象物Qを挟むことが可能な挟持動作をするハンド203より構成され、このハンド203に3次元形状生成装置1の照明装置F1、F2と撮像装置M1がユニットとして装着される。   The arm 202 is configured by a retractable multi-indirect arm, and is configured by a hand 203 that performs a clamping operation capable of sandwiching the object Q attached to the tip thereof, and the hand 203 includes the three-dimensional shape generation device 1. The illumination devices F1, F2 and the imaging device M1 are mounted as a unit.

この産業用ロボット200によれば、対象物Qをハンド203で掴む動作の開始にあたって、3次元形状生成装置1が第1の実施形態と同様の変動領域の判定を行なった上で、2次元画像データを生成する。その2次元画像データに基づいて,3次元形状画像データが形成され、対象物Qの画像上の点の三次元座標値が計算できる。その結果、アーム202の対象物Qまでの動作距離が計算されることで正確にハンド203が対象物Qを掴むことが可能となる。   According to this industrial robot 200, the two-dimensional image is obtained after the three-dimensional shape generation device 1 determines the same fluctuation region as in the first embodiment before starting the operation of grasping the object Q with the hand 203. Generate data. Based on the two-dimensional image data, three-dimensional shape image data is formed, and the three-dimensional coordinate values of the points on the image of the object Q can be calculated. As a result, the operating distance of the arm 202 to the object Q is calculated, so that the hand 203 can accurately grasp the object Q.

工業製品をロボット等の自動機械で取り扱おうとする場合、工業製品の計測や認識を自動的に行う必要がある。従来の2次元あるいは3次元の画像による物体の3次元計測および認識技術では、画像中にオクルージョン領域があると、カメラによる撮像結果が著しく異なるので対応点の探索が困難になる。そのため、生産ラインの自動化は限られていた。   When an industrial product is to be handled by an automatic machine such as a robot, it is necessary to automatically measure and recognize the industrial product. In the conventional three-dimensional measurement and recognition technology of an object using a two-dimensional or three-dimensional image, if there is an occlusion area in the image, the result of imaging by the camera is significantly different, and it is difficult to search for corresponding points. For this reason, production line automation has been limited.

本発明により立体的な対象物体の位置姿勢を計測できるようになれば、生産ラインにおいて対象を選ばない自動化が可能になる。これは、生産コストの削減と同時に、従来法では自動化が難しかったため労働条件が悪くても人間による作業が必要だった分野においても作業を機械化できることで、労働者を悪条件から解放する効果がある。   If it becomes possible to measure the position and orientation of a three-dimensional target object according to the present invention, it becomes possible to automate the selection of a target in a production line. In addition to reducing production costs, this has the effect of freeing workers from unfavorable conditions by enabling mechanization of work even in areas where human work was necessary even if working conditions were poor because it was difficult to automate with conventional methods. .

上に述べた実施形態において、照明装置Fとして、キセノン管、その他の発光素子を用いたフラッシュ装置、ランプを用いた照明装置、マスクシャッタを備えた照明装置など、公知の種々のものを用いることができる。1つの撮影装置M1を用いたが、複数セットの撮影装置M1を用いてもよい。   In the embodiment described above, various known devices such as a xenon tube, a flash device using other light emitting elements, an illumination device using a lamp, and an illumination device equipped with a mask shutter are used as the illumination device F. Can do. Although one photographing apparatus M1 is used, a plurality of sets of photographing apparatuses M1 may be used.

上に述べた実施形態において、撮影装置M1としてデジタルカメラを用いたが、銀塩式カメラを用いて撮影し、得られた2次元画像データをスキャナーを用いてデジタル化してもよい。その他、3次元形状生成装置1の全体または各部の構成、個数、処理内容または処理順序などは、本発明の趣旨に沿って適宜変更することができる。   In the embodiment described above, a digital camera is used as the photographing apparatus M1, but it is also possible to photograph using a silver halide camera and digitize the obtained two-dimensional image data using a scanner. In addition, the configuration, number, processing contents, processing order, etc. of the whole or each part of the three-dimensional shape generation apparatus 1 can be appropriately changed in accordance with the spirit of the present invention.

1 3次元形状生成装置
M1 撮像装置
F1、F2 照明装置
10 処理装置
C1、C2 カメラ
Q 対象物
11 制御部
12 記憶部
13 変動領域判定部
15 3次元形状画像生成部
21 撮像制御部
22 照明制御部
FD、FD1、FD11、FD12、FD13、FD14、FD2、FD21、FD22、FD23、FD24 2次元画像データ
DT 3次元形状データ
DESCRIPTION OF SYMBOLS 1 3D shape production | generation apparatus M1 Imaging device F1, F2 Illumination device 10 Processing apparatus C1, C2 Camera Q Target object 11 Control part 12 Storage part 13 Fluctuation area determination part 15 3D shape image generation part 21 Imaging control part 22 Illumination control part FD, FD1, FD11, FD12, FD13, FD14, FD2, FD21, FD22, FD23, FD24 2D image data DT 3D shape data

Claims (8)

光を照射する照射手段で対象物を照明し、少なくとも1つの撮像手段によって撮像した第一2次元画像データを得る第一撮像工程と、
第一撮像工程と同一の撮像手段によって同一の対象物を異なる照明位置から照射手段で照明して撮像した第二2次元画像データを得る第二撮像工程と、
第一2次元画像データと第二2次元画像データとから反射光量による輝度値の変動領域を判定する抽出工程と、
前記撮像手段を含む複数の撮像手段で対象物を異なる視点から撮像して得た複数の2次元画像データから3次元形状データを生成する時に、前記抽出工程で変動領域を判定した前記撮像手段による2次元画像データにおいて変動領域以外の画像から3次元形状データを生成する生成工程と、
を具備するようにしたことを特徴とする画像処理方法。
A first imaging step of illuminating an object with irradiation means for irradiating light and obtaining first two-dimensional image data imaged by at least one imaging means;
A second imaging step of obtaining the second two-dimensional image data obtained by illuminating the same object with the irradiation unit from different illumination positions by the same imaging unit as the first imaging step;
An extraction step of determining a fluctuation region of a luminance value due to the amount of reflected light from the first two-dimensional image data and the second two-dimensional image data;
When the three-dimensional shape data is generated from a plurality of two-dimensional image data obtained by imaging a target object from different viewpoints by a plurality of imaging means including the imaging means, by the imaging means that has determined the fluctuation region in the extraction step A generating step of generating three-dimensional shape data from an image other than the fluctuation region in the two-dimensional image data;
An image processing method comprising the steps of:
請求項1記載の画像処理方法において、前記抽出工程は第一2次元画像データと第二2次元画像データとから反射光量による輝度値の差分データを生成し、この差分データの平均値を基準に設定した閾値以上の輝度を示す画像データを対象物の画像データの変動領域と判定することを特徴とする画像処理方法。   2. The image processing method according to claim 1, wherein the extraction step generates difference data of luminance values based on a reflected light amount from the first two-dimensional image data and the second two-dimensional image data, and uses an average value of the difference data as a reference. An image processing method characterized in that image data showing luminance equal to or higher than a set threshold value is determined as a fluctuation region of image data of an object. 請求項2記載の画像処理方法において、前記閾値は差分データの平均値から標準偏差の値を離した値であることを特徴とする画像処理方法。   3. The image processing method according to claim 2, wherein the threshold value is a value obtained by separating a standard deviation value from an average value of difference data. 請求項1記載の画像処理方法において、前記第一撮像工程と前記第二撮像工程は照明手段による照明位置の対象物からの角度が異なることを特徴とする画像処理方法。   The image processing method according to claim 1, wherein the first imaging step and the second imaging step are different from each other in an angle of an illumination position by an illumination unit from an object. 第一撮像手段のオクルージョン領域成分を判定する第一抽出工程と、
第二撮像手段のオクルージョン領域成分を判定する第二抽出工程と、
前記第一撮像手段と第二撮像手段によって対象物を撮像して得た2次元画像データから3次元形状データを生成する時に、前記第一抽出工程と第二抽出工程で判定したオルクージョン領域成分を除外して画像処理する3次元形状データを生成する生成工程と、
を具備するようにしたことを特徴とする画像処理方法。
A first extraction step of determining an occlusion region component of the first imaging means;
A second extraction step of determining an occlusion region component of the second imaging means;
When the three-dimensional shape data is generated from the two-dimensional image data obtained by imaging the object by the first imaging unit and the second imaging unit, the orchestration region component determined in the first extraction step and the second extraction step is used. A generation step of generating three-dimensional shape data to be image-processed by exclusion;
An image processing method comprising the steps of:
請求項5記載の画像処理方法において、前記第一と第二抽出工程は、第一撮像手段が照明手段による照明位置の対象物からの角度が異なる第一撮像工程と第二撮像工程と、を備え、
前記第一撮像工程と第二撮像工程にて得た第一と第二2次元画像データからオクルージョン領域を判定するようにしたことを特徴とする画像処理方法。
6. The image processing method according to claim 5, wherein the first and second extraction steps include a first imaging step and a second imaging step in which the first imaging unit has different angles from the object at the illumination position by the illumination unit. Prepared,
An occlusion region is determined from first and second two-dimensional image data obtained in the first imaging step and the second imaging step.
請求項6記載の画像処理方法において、前記第一と第二抽出工程は第一と第二2次元画像データとから反射光量による輝度値の差分データを生成し、この差分データの平均値を基準に設定した閾値以上の輝度を示す画像データを対象物の画像データの変動領域と判定することを特徴とする画像処理方法。   7. The image processing method according to claim 6, wherein the first and second extraction steps generate difference data of luminance values based on the amount of reflected light from the first and second two-dimensional image data, and an average value of the difference data is used as a reference. An image processing method characterized in that image data showing luminance equal to or higher than a threshold value set in the above is determined as a fluctuation region of image data of an object. 請求項7記載の画像処理方法において、前記閾値は差分データの平均値から標準偏差の値を離した値であることを特徴とする画像処理方法。   8. The image processing method according to claim 7, wherein the threshold value is a value obtained by separating a standard deviation value from an average value of difference data.
JP2009250092A 2009-10-30 2009-10-30 Image processing method Expired - Fee Related JP5336325B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009250092A JP5336325B2 (en) 2009-10-30 2009-10-30 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009250092A JP5336325B2 (en) 2009-10-30 2009-10-30 Image processing method

Publications (3)

Publication Number Publication Date
JP2011095131A true JP2011095131A (en) 2011-05-12
JP2011095131A5 JP2011095131A5 (en) 2012-05-17
JP5336325B2 JP5336325B2 (en) 2013-11-06

Family

ID=44112206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009250092A Expired - Fee Related JP5336325B2 (en) 2009-10-30 2009-10-30 Image processing method

Country Status (1)

Country Link
JP (1) JP5336325B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013105381A1 (en) * 2012-01-10 2013-07-18 コニカミノルタ株式会社 Image processing method, image processing apparatus, and image processing program
KR101327433B1 (en) 2011-12-08 2013-11-11 주식회사 엔티리서치 Apparatus for monitoring three-dimensional shape of target object
CN104115203A (en) * 2012-03-01 2014-10-22 日产自动车株式会社 Three-dimensional object detection device
JP2019211264A (en) * 2018-06-01 2019-12-12 日立Geニュークリア・エナジー株式会社 Structure difference extraction device, structure difference extraction method and program
WO2021258273A1 (en) * 2020-06-23 2021-12-30 广东省航空航天装备技术研究所 Processing method, apparatus and device based on three-dimensional imaging, and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04329344A (en) * 1991-05-01 1992-11-18 Elmo Co Ltd Mounted board inspecting device
JP2001208522A (en) * 2000-01-24 2001-08-03 Sony Corp Distance image generator, distance image generation method and program supply medium
JP2003150940A (en) * 2001-11-16 2003-05-23 Komatsu Ltd Stereo image processor
JP2006132947A (en) * 2004-11-02 2006-05-25 Hitachi High-Technologies Corp Inspection device and inspection method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04329344A (en) * 1991-05-01 1992-11-18 Elmo Co Ltd Mounted board inspecting device
JP2001208522A (en) * 2000-01-24 2001-08-03 Sony Corp Distance image generator, distance image generation method and program supply medium
JP2003150940A (en) * 2001-11-16 2003-05-23 Komatsu Ltd Stereo image processor
JP2006132947A (en) * 2004-11-02 2006-05-25 Hitachi High-Technologies Corp Inspection device and inspection method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101327433B1 (en) 2011-12-08 2013-11-11 주식회사 엔티리서치 Apparatus for monitoring three-dimensional shape of target object
WO2013105381A1 (en) * 2012-01-10 2013-07-18 コニカミノルタ株式会社 Image processing method, image processing apparatus, and image processing program
JPWO2013105381A1 (en) * 2012-01-10 2015-05-11 コニカミノルタ株式会社 Image processing method, image processing apparatus, and image processing program
US9542733B2 (en) 2012-01-10 2017-01-10 Konica Minolta, Inc. Image processing method, imaging processing apparatus and image processing program for correcting density values between at least two images
CN104115203A (en) * 2012-03-01 2014-10-22 日产自动车株式会社 Three-dimensional object detection device
JP2019211264A (en) * 2018-06-01 2019-12-12 日立Geニュークリア・エナジー株式会社 Structure difference extraction device, structure difference extraction method and program
JP7093680B2 (en) 2018-06-01 2022-06-30 日立Geニュークリア・エナジー株式会社 Structure difference extraction device, structure difference extraction method and program
WO2021258273A1 (en) * 2020-06-23 2021-12-30 广东省航空航天装备技术研究所 Processing method, apparatus and device based on three-dimensional imaging, and storage medium

Also Published As

Publication number Publication date
JP5336325B2 (en) 2013-11-06

Similar Documents

Publication Publication Date Title
JP6855587B2 (en) Devices and methods for acquiring distance information from a viewpoint
JP5342413B2 (en) Image processing method
JP6363863B2 (en) Information processing apparatus and information processing method
WO2014044126A1 (en) Coordinate acquisition device, system and method for real-time 3d reconstruction, and stereoscopic interactive device
TW201724026A (en) Generating a merged, fused three-dimensional point cloud based on captured images of a scene
JP2019194616A (en) Position detection method, device and equipment based upon image, and storage medium
US9704255B2 (en) Three-dimensional shape measurement device, three-dimensional shape measurement method, and three-dimensional shape measurement program
JP2012215394A (en) Three-dimensional measuring apparatus and three-dimensional measuring method
JP2011123071A (en) Image capturing device, method for searching occlusion area, and program
EP3382645A2 (en) Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images
JP5336325B2 (en) Image processing method
US9245375B2 (en) Active lighting for stereo reconstruction of edges
JP2010133751A (en) Shape measuring device and program
JP2014112043A (en) Stereoscopic shape recognition device and light source position estimation method for stereoscopic shape recognition device
JP2009211122A (en) Image processor and object estimation program
JP2008275366A (en) Stereoscopic 3-d measurement system
US20210256729A1 (en) Methods and systems for determining calibration quality metrics for a multicamera imaging system
JP6409769B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
KR101578891B1 (en) Apparatus and Method Matching Dimension of One Image Up with Dimension of the Other Image Using Pattern Recognition
JP5342977B2 (en) Image processing method
KR102410300B1 (en) Apparatus for measuring position of camera using stereo camera and method using the same
CN111536895B (en) Appearance recognition device, appearance recognition system, and appearance recognition method
WO2019016879A1 (en) Object detection device and object detection method
JP2009250777A (en) Surface inspection device and surface inspection method
JP2013190938A (en) Stereo image processing device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120328

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130423

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130801

R150 Certificate of patent or registration of utility model

Ref document number: 5336325

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees