JP2020193867A - Image processing device, control method, control program, and computer-readable recording medium - Google Patents

Image processing device, control method, control program, and computer-readable recording medium Download PDF

Info

Publication number
JP2020193867A
JP2020193867A JP2019099479A JP2019099479A JP2020193867A JP 2020193867 A JP2020193867 A JP 2020193867A JP 2019099479 A JP2019099479 A JP 2019099479A JP 2019099479 A JP2019099479 A JP 2019099479A JP 2020193867 A JP2020193867 A JP 2020193867A
Authority
JP
Japan
Prior art keywords
image
image processing
light
distance
wavelength
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019099479A
Other languages
Japanese (ja)
Inventor
健吉 山本
Kenkichi Yamamoto
健吉 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019099479A priority Critical patent/JP2020193867A/en
Publication of JP2020193867A publication Critical patent/JP2020193867A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

To allow an image inspection such as quality judgment of parts can be performed stably and at high speed even in an environment where a complicated background is reflected in a camera.SOLUTION: An image processing device is provided with: a grayscale image acquisition lighting device 102 that radiates a first illumination light including a first wavelength, and a distance image acquisition lighting device 103 that radiates a second illumination light including a second wavelength different from the first wavelength. An imaging device 101 takes an image of an object in a state where the object is illuminated by irradiating the object with the first illumination light and the second illumination light from the respective lighting devices. A grayscale image generation unit 110 generates a grayscale image composed of pixels imaged through a first optical filter that transmits the first wavelength. A distance image generation unit 111 generates a distance image including pixels imaged through a second optical filter that transmits the second wavelength. An image processing unit 104 determines an inspection area of the grayscale image or the distance image by using distance information of the object of the distance image.SELECTED DRAWING: Figure 1

Description

本発明は、対象物を撮像した画像データに対する画像処理の結果に応じて前記対象物を検査する画像処理装置、制御方法、制御プログラムおよびコンピュータ読み取り可能な記録媒体に関する。 The present invention relates to an image processing apparatus, a control method, a control program, and a computer-readable recording medium that inspect the object according to the result of image processing on the image data obtained by capturing the object.

従来、各種工業製品の製造工程において、部品を撮像して取得した画像データを画像処理し、その処理結果を用いて部品の有無検査、表裏検査、位置検査、姿勢検査、外観検査などの各種画像検査が行われている。 Conventionally, in the manufacturing process of various industrial products, image data acquired by imaging parts is image-processed, and the processing results are used to perform various images such as presence / absence inspection, front / back inspection, position inspection, posture inspection, and appearance inspection of parts. Inspection is being carried out.

これらの画像検査で用いる画像処理では、部品を撮像して取得した画像データに対して部品の良否を判定可能な特性を表現する画像特徴量、例えば、輝度平均値、特徴点/特徴エッジの位置、エッジ強度などを計算する。例えば、良否判定の場合は、部品の良否を定量的に判定可能な画像特徴量の閾値を設定しておき、画像処理によって得た画像特徴量が閾値を超えるか否かにより良否を判定する。 In the image processing used in these image inspections, the image feature amount expressing the characteristic that can judge the quality of the component with respect to the image data acquired by imaging the component, for example, the brightness average value and the position of the feature point / feature edge. , Edge strength, etc. are calculated. For example, in the case of quality determination, a threshold value of an image feature amount capable of quantitatively determining the quality of a component is set, and the quality is determined by whether or not the image feature amount obtained by image processing exceeds the threshold value.

一方、実際の部品を撮像して取得した画像データにおいては、本来検査の対象となるべき部品だけではなく、検査治具表面の模様、部品を搬送する機械の構造物、部品が置かれているトレイなど、複雑な模様を持つ様々な物体が背景として写り込むことが多い。このような複雑な背景が写り込むと、画像検査で誤判定を生じる可能性がある。例えば、このような誤判定は、部品の表面や端部の画像情報から計算される本来良否を判定するために用いるべき画像特徴量に対して、背景の画像情報から計算される画像特徴量が重畳された画像特徴量が計算されることにより生じる。 On the other hand, in the image data obtained by imaging the actual parts, not only the parts that should be inspected originally, but also the pattern on the surface of the inspection jig, the structure of the machine that conveys the parts, and the parts are placed. Various objects with complicated patterns such as trays are often reflected as the background. If such a complicated background is reflected, an erroneous judgment may occur in the image inspection. For example, in such an erroneous judgment, the image feature amount calculated from the background image information is compared with the image feature amount that should be originally used to judge the quality calculated from the image information of the surface or the end of the part. It is generated by calculating the superimposed image feature amount.

複雑な背景が写り込んだ画像から部品の良否を安定的に検査する技術として、下記の特許文献1のような構成が提案されている。特許文献1の装置では、通常の濃淡画像を撮像して取得するとともに、距離に応じた濃淡値を有する距離画像を取得する。その上で、濃淡画像と距離画像の一方の画像情報により、他方の画像情報に基づいた検査を行うための検査領域を特定する。このような構成により、例えば濃淡画像では互いの区別のつかない複雑な背景が写り込むような環境での部品検査でも、距離画像により部品の領域を特定し、特定された部品の領域に対してのみ、濃淡画像を用いた検査を実施することができる。このような構成では、濃淡画像と距離画像は、同じ位置および同じスケールで領域情報を扱う必要があり、同一のカメラで取得できるのが望ましい。 As a technique for stably inspecting the quality of parts from an image in which a complicated background is reflected, a configuration as shown in Patent Document 1 below has been proposed. In the apparatus of Patent Document 1, a normal shading image is captured and acquired, and a distance image having a shading value according to a distance is acquired. Then, the inspection area for performing the inspection based on the other image information is specified by the image information of one of the shading image and the distance image. With such a configuration, for example, even in a component inspection in an environment where complex backgrounds that cannot be distinguished from each other are reflected in a shade image, the area of the component is specified by the distance image, and the area of the identified component is covered. Only can the inspection using the shade image be carried out. In such a configuration, the grayscale image and the distance image need to handle the area information at the same position and the same scale, and it is desirable that they can be acquired by the same camera.

特開2012−21914号公報Japanese Unexamined Patent Publication No. 2012-21914

ここで、特許文献1に記載の従来技術による部品の検査を、実際の工場内の環境で安定的に実施するためには、部品の領域の特定、あるいは部品の良否の検査に用いる画像特徴量を強調するような、適切な照明光の照射が必要である。また、上述のように濃淡画像と距離画像は同一のカメラで取得できることが望ましい。 Here, in order to stably inspect the parts by the conventional technique described in Patent Document 1 in the environment in the actual factory, the image feature amount used for specifying the area of the parts or inspecting the quality of the parts. It is necessary to irradiate with appropriate illumination light to emphasize. Further, as described above, it is desirable that the shading image and the distance image can be acquired by the same camera.

しかしながら、濃淡画像の取得時と距離画像の取得時とでは、適切な照明の照射方法は必ずしも同一であるとは限らない。例えば、濃淡画像中の所定部位の特定、良否検査などの場合、部品の輪郭や凹凸のエッジ部分のみを強調するような照明光や、部品の表面が均一に白く光るような照明光、表面の凹凸を強調するような照明光が好ましい。これにより、後段の画像処理で用いる画像特徴量が安定的に計算されるようになる。一方、距離画像で部品の領域の特定や部品の良否の検査を行う場合には、カメラと部品の距離情報が正確かつ安定的に求まるような照明光が用いられる場合がある。パッシブステレオ方式では左右のカメラの対応付けが容易になる模様を補助的に照射する、あるいはアクティブステレオ方式ではレーザや集光によりスリット光やパターン光を照射することで画像上の位置と距離情報との関連づけの精度を向上できる。 However, the appropriate illumination method is not always the same when the shading image is acquired and when the distance image is acquired. For example, in the case of identifying a predetermined part in a shading image, quality inspection, etc., an illumination light that emphasizes only the outline of the part or the edge part of the unevenness, an illumination light that makes the surface of the part glow uniformly white, or a surface surface. Illumination light that emphasizes unevenness is preferable. As a result, the image feature amount used in the subsequent image processing can be calculated stably. On the other hand, when identifying the area of a component or inspecting the quality of a component using a distance image, illumination light may be used so that the distance information between the camera and the component can be obtained accurately and stably. In the passive stereo method, the pattern that makes it easier to associate the left and right cameras is irradiated as an auxiliary, or in the active stereo method, slit light or pattern light is irradiated by laser or condensing to obtain position and distance information on the image. The accuracy of the association can be improved.

このように濃淡画像と距離画像とでは好適な照明光の態様が異なっている。そのため、濃淡画像に適した照明光を用いた一度目の撮像、距離画像に適した照明光を用いた二度目の撮像、のように少なくとも二回の撮像を行う必要があり、撮像に時間がかかる問題がある。また、複数回の撮像を行う方式では、二回の撮像の間に衝撃や振動などで部品が動いて、濃淡画像と距離画像の間で検査領域がずれてしまい、良否の検査が失敗する可能性がある。 As described above, the preferred mode of illumination light differs between the shading image and the distance image. Therefore, it is necessary to perform at least two imaging such as the first imaging using the illumination light suitable for the grayscale image and the second imaging using the illumination light suitable for the distance image, and the imaging takes time. There is such a problem. In addition, in the method of performing multiple imaging, the parts move due to impact or vibration between the two imaging, and the inspection area shifts between the grayscale image and the distance image, and the quality inspection may fail. There is sex.

本発明の課題は、上記の問題点に鑑み、複雑な背景がカメラに写り込むような環境においても、確実に背景分離を行え、部品の良否判定などの画像検査を安定的かつ高速に実行できるようにすることにある。 In view of the above problems, the subject of the present invention is that the background can be reliably separated even in an environment where a complicated background is reflected in the camera, and image inspection such as quality determination of parts can be performed stably and at high speed. To do so.

上記課題を解決するため、本発明においては、第1の波長を含む第1の光を照射する第1の照明装置と、前記第1の波長とは異なる第2の波長を含む第2の光を照射する第2の照明装置と、対象物を撮像する撮像装置と、前記第1の照明装置および前記第2の照明装置から前記対象物に前記第1の光および前記第2の光を照射した状態で前記撮像装置を用いて前記対象物を撮像するコントローラと、を備えた構成を採用した。 In order to solve the above problems, in the present invention, in the present invention, a first illuminating device that irradiates a first light including the first wavelength and a second light including a second wavelength different from the first wavelength. The object is irradiated with the first light and the second light from the second lighting device for irradiating the object, the imaging device for imaging the object, and the first lighting device and the second lighting device. A configuration including a controller for imaging the object using the imaging device in this state was adopted.

上記構成によれば、第1の光と第2の光との波長分離によって、濃淡画像ないし距離画像に相当する第1の画像ないし第2の画像を一回の撮像によって取得できる。そのため、例えば、複雑な背景がカメラに写り込むような環境においても、確実に背景分離を行え、部品の良否判定などの画像検査を安定的かつ高速に実行することができる。 According to the above configuration, by wavelength separation of the first light and the second light, a first image or a second image corresponding to a grayscale image or a distance image can be acquired by one imaging. Therefore, for example, even in an environment where a complicated background is reflected in the camera, the background can be reliably separated, and image inspection such as quality determination of parts can be performed stably and at high speed.

本発明の実施形態1に係る画像処理装置のシステム構成を示した説明図である。It is explanatory drawing which showed the system structure of the image processing apparatus which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る部品の外観を示した説明図である。It is explanatory drawing which showed the appearance of the part which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る同軸落射型のLED照明装置の構造を示した説明図である。It is explanatory drawing which showed the structure of the coaxial epi-illumination type LED lighting apparatus which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係るリング型のLED照明装置を示した説明図である。It is explanatory drawing which showed the ring type LED lighting apparatus which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る波長フィルタの構造を示した説明図である。It is explanatory drawing which showed the structure of the wavelength filter which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る波長フィルタを通して撮像された画像上でのフィルタ順序を示した説明図である。It is explanatory drawing which showed the filter order on the image imaged through the wavelength filter which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る濃淡画像の生成方法を示した説明図である。It is explanatory drawing which showed the method of generating the shade image which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る距離画像の生成方法を示した説明図である。It is explanatory drawing which showed the method of generating the distance image which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る濃淡画像の例を示した説明図である。It is explanatory drawing which showed the example of the shading image which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る距離画像の例を示した説明図である。It is explanatory drawing which showed the example of the distance image which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係るマスク画像の例を示した説明図である。It is explanatory drawing which showed the example of the mask image which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係るマスクされた濃淡画像の例を示した説明図である。It is explanatory drawing which showed the example of the masked shading image which concerns on Embodiment 1 of this invention. 本発明の実施形態2に係る画像処理装置のシステム構成を示した説明図である。It is explanatory drawing which showed the system structure of the image processing apparatus which concerns on Embodiment 2 of this invention. 本発明の実施形態2に係るプロジェクタにより投影するパターン光の例を示した説明図である。It is explanatory drawing which showed the example of the pattern light projected by the projector which concerns on Embodiment 2 of this invention. 本発明の実施形態3に係る波長フィルタの構造を示した説明図である。It is explanatory drawing which showed the structure of the wavelength filter which concerns on Embodiment 3 of this invention. 本発明の実施形態3に係る波長フィルタを通して撮像された画像上でのフィルタ順序を示した説明図である。It is explanatory drawing which showed the filter order on the image imaged through the wavelength filter which concerns on Embodiment 3 of this invention. 本発明の実施形態3に係る濃淡画像の生成方法を示した説明図である。It is explanatory drawing which showed the method of generating the shade image which concerns on Embodiment 3 of this invention. 本発明の実施形態3に係る距離画像の生成方法を示した説明図である。It is explanatory drawing which showed the method of generating the distance image which concerns on Embodiment 3 of this invention. 本発明の実施形態4に係る画像処理装置の構成を示した説明図である。It is explanatory drawing which showed the structure of the image processing apparatus which concerns on Embodiment 4 of this invention. 本発明の実施形態5に係る画像処理装置の構成を示した説明図である。It is explanatory drawing which showed the structure of the image processing apparatus which concerns on Embodiment 5 of this invention. 本発明の実施形態6に係るマスクされた距離画像の例を示した説明図である。It is explanatory drawing which showed the example of the masked distance image which concerns on Embodiment 6 of this invention. 本発明の実施形態2に係るプロジェクタによりパターン光を投影して得た画像の例を示した説明図である。It is explanatory drawing which showed the example of the image obtained by projecting the pattern light by the projector which concerns on Embodiment 2 of this invention. 本発明の実施形態1〜6に係る画像処理装置の画像検査の処理手順を示したフローチャート図である。It is a flowchart which showed the processing procedure of the image inspection of the image processing apparatus which concerns on Embodiments 1-6 of this invention. 本発明の実施形態1〜6に係る画像処理装置の画像処理部の構成例を示したブロック図である。It is a block diagram which showed the structural example of the image processing part of the image processing apparatus which concerns on Embodiments 1-6 of this invention.

以下、添付図面を参照して本発明を実施するための形態につき説明する。なお、以下に示す構成はあくまでも一例であり、例えば細部の構成については本発明の趣旨を逸脱しない範囲において当業者が適宜変更することができる。また、本実施形態で取り上げる数値は、参考数値であって、本発明を限定するものではない。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the accompanying drawings. The configuration shown below is merely an example. For example, a person skilled in the art can appropriately change the detailed configuration without departing from the spirit of the present invention. Further, the numerical values taken up in the present embodiment are reference numerical values and do not limit the present invention.

<実施形態1>
本発明に係る画像処理装置の実施形態1について説明する。
<Embodiment 1>
The first embodiment of the image processing apparatus according to the present invention will be described.

図1に、本実施形態に係る画像処理装置の全体構成を示す。同図に示すように、この画像処理装置は、撮像装置101、画像処理部104、濃淡画像取得用照明装置102、距離画像取得用照明装置103、およびコントローラ106を備える。 FIG. 1 shows the overall configuration of the image processing apparatus according to the present embodiment. As shown in the figure, this image processing device includes an image pickup device 101, an image processing unit 104, a shading image acquisition lighting device 102, a distance image acquisition lighting device 103, and a controller 106.

撮像装置101は、2つの撮像素子107、107、2つの波長フィルタ108、108、2つのレンズ109、109、濃淡画像生成部110、距離画像生成部111を備える。 The image pickup device 101 includes two image pickup elements 107 and 107, two wavelength filters 108 and 108, two lenses 109 and 109, a shading image generation unit 110, and a distance image generation unit 111.

画像処理部104は、検査領域特定部112、および検査処理部113を備える。コントローラ106は、撮像指令によって撮像装置101の動作を、また、照明制御指令によって濃淡画像取得用照明装置102、および距離画像取得用照明装置103の動作を制御する。コントローラ106は、画像処理部104の処理結果に応じて、ロボット制御指令によって搬送ロボット116の動作を制御する。搬送ロボット116は、架台115上に配置された置き台114上あるいはその周辺に載置された部品105を操作する。この搬送ロボット116(ロボット装置)の操作によって、部品105から工業製品ないしその部品アセンブリなどの物品が製造される。 The image processing unit 104 includes an inspection area specifying unit 112 and an inspection processing unit 113. The controller 106 controls the operation of the imaging device 101 by the imaging command, and controls the operation of the shading image acquisition lighting device 102 and the distance image acquisition lighting device 103 by the lighting control command. The controller 106 controls the operation of the transfer robot 116 by a robot control command according to the processing result of the image processing unit 104. The transfer robot 116 operates a component 105 placed on or around a stand 114 arranged on the stand 115. By operating the transfer robot 116 (robot device), an article such as an industrial product or its component assembly is manufactured from the component 105.

本実施形態では、撮像装置101は2つの撮像素子107、107、波長フィルタ108、108、レンズ109、109を備えた例えばステレオカメラの形態で実装される。ただし、これらの撮像装置101の構成部材は、3つずつ、4つずつなど、より多くの撮像素子、波長フィルタ、レンズにより撮像装置を構成されていてもよい。 In the present embodiment, the image pickup device 101 is implemented in the form of, for example, a stereo camera including two image pickup elements 107, 107, wavelength filters 108, 108, and lenses 109, 109. However, the constituent members of these image pickup devices 101 may be composed of more image pickup elements, wavelength filters, and lenses, such as three or four.

本実施形態の画像検査ユニットは、1台の撮像装置101を用いた1回のステレオ撮影によって、画像処理に用いる濃淡画像と距離画像を取得できるよう構成されている。そのために、本実施形態では濃淡画像取得用照明装置102、距離画像取得用照明装置103を、それぞれ異なる波長の照明光を照射するよう構成する。また、濃淡画像取得用照明装置102、距離画像取得用照明装置103は後述するように、それぞれの用途に適した照明光の照射形態となるよう構成する。そして、例えば、撮像素子107、107からR、G、B各色の画素単位で読み出しを行い、上記各照明装置の分光スペクトラムを有する画素データを取得する。このような読み出しは、撮像素子107、107がそのような読み出し機構を備えていれば、その読み出し機構を用いて実施してもよい。 The image inspection unit of the present embodiment is configured to be able to acquire a grayscale image and a distance image used for image processing by one stereo shooting using one imaging device 101. Therefore, in the present embodiment, the shading image acquisition lighting device 102 and the distance image acquisition lighting device 103 are configured to irradiate illumination light having different wavelengths. Further, the shading image acquisition illuminating device 102 and the distance image acquisition illuminating device 103 are configured to have an illumination light irradiation form suitable for each application, as will be described later. Then, for example, the image sensors 107 and 107 are read out in pixel units of each of the R, G, and B colors, and pixel data having the spectral spectrum of each of the above lighting devices is acquired. If the image pickup devices 107 and 107 have such a read-out mechanism, such read-out may be performed using the read-out mechanism.

波長フィルタ108、108は、通常、撮像素子107、107の前方、対象物側に配置され、1つのカラー画素につき、それぞれR、G、Bの各分光強度を取得するセンサの前方でそれぞれの波長を通過させるフィルタアレイとして構成される。 The wavelength filters 108 and 108 are usually arranged in front of the image pickup devices 107 and 107 and on the object side, and have their respective wavelengths in front of the sensor that acquires the R, G, and B spectral intensities for each color pixel. It is configured as a filter array through which.

ここで、図23を参照しつつ、上記構成において、部品を検査する処理の流れを説明する。まず、コントローラ106の照明制御指令により、濃淡画像取得用照明装置102と距離画像取得用照明装置103の両方を点灯する(図23、S10)。この状態で、撮像装置101は、コントローラ106の撮像指令に応じて2つの撮像素子107、107で同時に画像を撮像し、2枚の画像データを得る(図23、S12:撮像工程)。 Here, with reference to FIG. 23, the flow of the process of inspecting the parts in the above configuration will be described. First, both the shading image acquisition lighting device 102 and the distance image acquisition lighting device 103 are turned on by the lighting control command of the controller 106 (FIGS. 23 and S10). In this state, the image pickup apparatus 101 simultaneously captures an image with the two image pickup elements 107 and 107 in response to the image pickup command of the controller 106, and obtains two image data (FIGS. 23, S12: imaging step).

ここで、例えば濃淡画像取得用照明装置102は青色(B)の波長(第1の波長)を照射し、距離画像取得用照明装置103は赤色(R)の波長(第2の波長)を照射する照明形態とする。撮像装置101は、2枚の画像データに基づき、濃淡画像取得用照明装置102および距離画像取得用照明装置103のそれぞれの照明光で得た濃淡画像と距離画像を画像処理部104の濃淡画像生成部110および距離画像生成部111に転送する。 Here, for example, the shading image acquisition lighting device 102 irradiates the blue (B) wavelength (first wavelength), and the distance image acquisition lighting device 103 irradiates the red (R) wavelength (second wavelength). The lighting form is to be used. Based on the two image data, the image pickup device 101 generates a shading image and a distance image obtained by the illumination light of the shading image acquisition illuminating device 102 and the distance image acquisition illuminating device 103 by the shading image generation of the image processing unit 104. Transfer to unit 110 and distance image generation unit 111.

図23のステップS14では、波長フィルタ108、108の内、青色光が透過する第1の光学フィルタのみを通過した撮像光で撮像された第1の画素データの集合を用いて濃淡画像を生成する。また、赤色光が透過する第2の光学フィルタのみを通過した撮像光で撮像された第2の画素データの集合を用いて距離画像を生成する。 In step S14 of FIG. 23, a grayscale image is generated using a set of first pixel data captured by the imaging light that has passed through only the first optical filter through which blue light is transmitted among the wavelength filters 108 and 108. .. In addition, a distance image is generated using a set of second pixel data captured by the imaging light that has passed only through the second optical filter through which red light is transmitted.

画像処理部104の検査領域特定部112は、生成された距離画像の画像情報に基づき、検査領域を特定する(図23、S16)。例えば、距離画像から得られる特定の撮像距離の対象物のみが撮影されている画像の範囲を検査領域として特定する。撮像されている対象物の撮像距離は、例えば撮像素子107、107でステレオ撮像したそれぞれの画像の視差から演算することができる。 The inspection area specifying unit 112 of the image processing unit 104 identifies the inspection area based on the image information of the generated distance image (FIGS. 23 and S16). For example, the range of an image in which only an object having a specific imaging distance obtained from a distance image is captured is specified as an inspection area. The imaging distance of the imaged object can be calculated from, for example, the parallax of each of the images stereo-imaged by the image sensors 107 and 107.

また、検査処理部113は、濃淡画像の中で、検査領域特定部112が特定した検査領域に対してのみ検査処理を実施し、部品の良否を判定する(図23、S18:検査工程)。その判定結果はコントローラ106へ転送され、転送された良否判定結果に基づいて後段の工程で搬送ロボット116あるいはその他の生産機器(詳細不図示)が制御される(図23、S20)。本実施形態の画像処理装置を用いることにより、以上のようなロボットシステムを構成することができる。 Further, the inspection processing unit 113 performs inspection processing only on the inspection area specified by the inspection area specifying unit 112 in the grayscale image, and determines the quality of the part (FIGS. 23, S18: inspection step). The determination result is transferred to the controller 106, and the transfer robot 116 or other production equipment (details not shown) is controlled in the subsequent process based on the transferred quality determination result (FIGS. 23 and S20). By using the image processing device of the present embodiment, the robot system as described above can be configured.

以上のように、本実施形態では、濃淡画像と距離画像を一回の撮像で取得することができるので、濃淡画像と距離画像を使用した部品の良否の検査を、高速に実施することができる。また、複数回撮像ではないため、前述のような撮像のタイムラグによって検査エラーを生じる可能性も極めて低い。以下では、各構成要素につきさらに詳細に説明する。 As described above, in the present embodiment, since the shading image and the distance image can be acquired by one imaging, the quality inspection of the component using the shading image and the distance image can be performed at high speed. .. Further, since the imaging is not performed multiple times, it is extremely unlikely that an inspection error will occur due to the time lag of imaging as described above. In the following, each component will be described in more detail.

部品105は、製品たる物品を構成する物体である。本実施形態では、図2に示すように、部品は例えば歯車状の形状を有するものとする。また、部品は架台115上に配置された置き台114の上に例えば人の手によって載置され、図1の画像検査ユニットにより歯車状の形状にカケ等の欠損が無いか否かを検査されるものとする。 The part 105 is an object that constitutes an article that is a product. In this embodiment, as shown in FIG. 2, the parts have, for example, a gear-like shape. Further, the parts are placed on the pedestal 114 arranged on the gantry 115, for example, by hand, and the image inspection unit of FIG. 1 inspects the gear-like shape for defects such as chips. It shall be.

部品105は、図2に示すように置き台114に、撮像装置101からは歯車が円状に見えるように配置される。部品105の表面には模様(テクスチャ)があるものとする。図2の例では、部品105が置かれた置き台114の周辺には、部品105とよく似た形状の物体105a、105b…が多数配置されている。このため、部品105を撮像し画像データを得る時、背景に部品とよく似た形状が多数映り込む状態であるものとする。部品105および部品105が載置される置き台114の位置は不定であり、様々な位置に変化する可能性があるものとする。そして、コントローラ106は、例えば、部品105の画像検査の結果が良品であれば、搬送ロボットにより後工程へ搬送され、部品105の検査結果が不良品であれば、システムを停止して警告音を発生させるものとする。 As shown in FIG. 2, the component 105 is arranged on the stand 114 so that the gears can be seen as a circle from the image pickup apparatus 101. It is assumed that the surface of the component 105 has a pattern (texture). In the example of FIG. 2, a large number of objects 105a, 105b, etc. having a shape similar to that of the component 105 are arranged around the table 114 on which the component 105 is placed. Therefore, when the component 105 is imaged and image data is obtained, it is assumed that a large number of shapes similar to the component are reflected in the background. It is assumed that the positions of the component 105 and the stand 114 on which the component 105 is placed are indefinite and may change to various positions. Then, for example, if the result of the image inspection of the component 105 is a good product, the controller 106 is transported to a subsequent process by the transfer robot, and if the inspection result of the component 105 is a defective product, the system is stopped and a warning sound is emitted. It shall be generated.

図1のコントローラ106は、画像処理部104の画像処理結果を利用する側の装置である。コントローラ106の実装形態は種々考えられるが、生産ラインを統合的に制御する例えば、PLC(Programmable Logic Controller)などが挙げられる。あるいは、コントローラ106の機能は、搬送ロボット116を制御するロボット制御装置などに実装されていてもよい。コントローラ106がPLCの場合、図中の他のブロックに対するIO信号の入出力は、EthernetやRS−232C通信のような通信インタフェースを用いて行なわれる。図1中に括弧書きで示した各種の指令は、この通信インタフェースを介して送受信される。 The controller 106 in FIG. 1 is a device that uses the image processing result of the image processing unit 104. Various mounting forms of the controller 106 can be considered, and examples thereof include PLC (Programmable Logical Controller) that controls the production line in an integrated manner. Alternatively, the function of the controller 106 may be implemented in a robot control device or the like that controls the transfer robot 116. When the controller 106 is a PLC, the input / output of the IO signal to the other blocks in the figure is performed by using a communication interface such as Ethernet or RS-232C communication. Various commands shown in parentheses in FIG. 1 are transmitted and received via this communication interface.

コントローラ106は、濃淡画像取得用照明装置102と距離画像取得用照明装置103に対して照明制御指令を発行し、2種類の照明を発光させる。次に、コントローラ106は、撮像装置101に対して撮像指令を発行し、撮像装置101に濃淡画像および距離画像を生成させ、さらに画像処理部104で検査処理を実行させ、画像処理部104から処理結果を受信する。そして、コントローラ106は、画像処理部104から受信した画像処理結果に基づき、搬送ロボット116に対して処理結果に応じたロボット制御指令を発行する。例えば、良否検査の場合は、良品判定では搬送ロボット116が部品105を後段の工程に搬送するよう、また不良品判定では搬送ロボット116が部品105をラインから除去するよう制御される。 The controller 106 issues a lighting control command to the shading image acquisition lighting device 102 and the distance image acquisition lighting device 103 to emit two types of lighting. Next, the controller 106 issues an imaging command to the imaging device 101, causes the imaging device 101 to generate a grayscale image and a distance image, further causes the image processing unit 104 to execute an inspection process, and the image processing unit 104 processes the image. Receive the result. Then, the controller 106 issues a robot control command according to the processing result to the transfer robot 116 based on the image processing result received from the image processing unit 104. For example, in the case of a good / bad inspection, the transfer robot 116 is controlled to convey the component 105 to the subsequent process in the non-defective product determination, and the transfer robot 116 is controlled to remove the component 105 from the line in the defective product determination.

なお、本実施形態ではコントローラ106が撮像装置101に対して撮像指令を発行することにより撮像を開始する。しかしながら、コントローラ106が撮像装置101ではなく画像処理部104に対して撮像指令を発行し、画像処理部104を介して撮像装置101に撮像指令を発行してもよい。 In this embodiment, the controller 106 issues an imaging command to the imaging device 101 to start imaging. However, the controller 106 may issue an imaging command to the image processing unit 104 instead of the image processing device 101, and may issue an imaging command to the imaging device 101 via the image processing unit 104.

濃淡画像取得用照明装置102は、例えば、図3に示すような同軸落射型のLED照明装置である。この種の同軸落射型のLED照明装置は、図示のように側面に配置されたLED素子1021の照明光を、ハーフミラー1023により反射させ、下部に配置した物体を照明する。LED素子1021の前方には、必要に応じて拡散板1022などを配置することができる。なお、光源にはLED素子のみならず他の発光素子、例えば半導体レーザ素子のようなレーザ光源を用いてもよい。 The shading image acquisition lighting device 102 is, for example, a coaxial epi-illumination type LED lighting device as shown in FIG. In this type of coaxial epi-illumination type LED lighting device, the illumination light of the LED element 1021 arranged on the side surface as shown in the drawing is reflected by the half mirror 1023 to illuminate the object arranged below. A diffuser plate 1022 or the like can be arranged in front of the LED element 1021 if necessary. As the light source, not only the LED element but also another light emitting element, for example, a laser light source such as a semiconductor laser element may be used.

図3のような同軸落射型のLED照明装置を用いることにより、撮像装置101は、ハーフミラーを介して、その撮像光軸とほぼ平行な照明方向を有する平行光の照明光で照明したものと同等の画像データが得られる。そのため、対象物表面を正反射させ、その正反射光を撮像する場合などに特に有効である。本実施形態では、濃淡画像取得用照明装置102のLED素子1021の発光波長(発光色)は、例えば青色(B)とする。ただし、後述のように、濃淡画像生成では、撮像素子107から赤色(R)を除く青色(B)および緑色(G)の画素を読み出して用いる。従って、LED素子1021の発光波長(発光色)は例えば緑色(G)のスペクトルを含んでいてもよい。 By using the coaxial epi-illumination type LED lighting device as shown in FIG. 3, the image pickup device 101 is illuminated with parallel light illumination light having an illumination direction substantially parallel to the image pickup optical axis via a half mirror. Equivalent image data can be obtained. Therefore, it is particularly effective when the surface of an object is specularly reflected and the specularly reflected light is imaged. In the present embodiment, the emission wavelength (emission color) of the LED element 1021 of the shading image acquisition lighting device 102 is, for example, blue (B). However, as will be described later, in the shading image generation, the blue (B) and green (G) pixels excluding the red (R) are read out from the image sensor 107 and used. Therefore, the emission wavelength (emission color) of the LED element 1021 may include, for example, a spectrum of green (G).

濃淡画像取得用照明装置102は、部品の検査の際に、撮像に先立ってコントローラ106から送信される照明制御指令に基づいて所定の輝度で部品を照明する。本実施形態では、濃淡画像取得用照明装置102は、上記のように同軸落射型のLED照明装置により部品の正反射光を撮像する構成とする。しかしながら、濃淡画像取得用照明装置102は、表面の模様やキズなどを強調するためにローアングルの照明光を照射するリング型LED照明装置で構成してもよい。また、濃淡画像取得用照明装置102には、特定の画像検査のために最適な形状、最適な配置位置を選ぶことができる。また、発光素子としては、発光波長帯が選択できるものであれば、LED素子1021以外の任意の方式の発光素子を用いてもよい。 When inspecting a component, the shading image acquisition lighting device 102 illuminates the component with a predetermined brightness based on a lighting control command transmitted from the controller 106 prior to imaging. In the present embodiment, the shading image acquisition lighting device 102 is configured to capture the specularly reflected light of the component by the coaxial epi-illumination type LED lighting device as described above. However, the shading image acquisition lighting device 102 may be configured by a ring-type LED lighting device that irradiates low-angle illumination light in order to emphasize patterns and scratches on the surface. Further, for the shading image acquisition lighting device 102, the optimum shape and the optimum arrangement position can be selected for a specific image inspection. Further, as the light emitting element, any type of light emitting element other than the LED element 1021 may be used as long as the light emitting wavelength band can be selected.

一方、距離画像取得用照明装置103は、本実施形態では、例えば、図4の上半部に示すようなリング形状のLED照明装置で構成する。このLED照明装置は、同図の下半部に示すような断面形状を有している。即ち、金属やプラスチックから、内周と下部とを開口させたリング形状の筐体部に、照射方向が下方の対象物の方向を向くようにLED素子1031を多数配置する。そして、好ましくはLED素子1031の前方はリング状の拡散板1033で覆う。 On the other hand, in the present embodiment, the distance image acquisition lighting device 103 is composed of, for example, a ring-shaped LED lighting device as shown in the upper half of FIG. This LED lighting device has a cross-sectional shape as shown in the lower half of the figure. That is, a large number of LED elements 1031 are arranged in a ring-shaped housing portion in which the inner circumference and the lower portion are opened from metal or plastic so that the irradiation direction faces the direction of the object below. The front of the LED element 1031 is preferably covered with a ring-shaped diffuser plate 1033.

本実施形態では、図4のようなリング型のLED照明装置で、距離画像取得用照明装置103を構成し、これを例えば図1に示すように対象物の部品105に近い高さに配置する。これにより、部品105を周囲側方、あるいは真横に近い角度から照明する。このような構成により、照明光の正反射光を撮像装置101の方向に反射させないよう制御し、主に物体の拡散反射光で撮像を行うことができる。本実施形態では、距離画像取得用照明装置103の発光波長(発光色)は、例えば赤色(R)とする。 In the present embodiment, the ring-shaped LED lighting device as shown in FIG. 4 constitutes the distance image acquisition lighting device 103, and is arranged at a height close to the component 105 of the object, for example, as shown in FIG. .. As a result, the component 105 is illuminated from an angle close to the side or the side of the periphery. With such a configuration, it is possible to control the specular reflection light of the illumination light so as not to be reflected in the direction of the image pickup apparatus 101, and to perform imaging mainly by the diffuse reflection light of the object. In the present embodiment, the emission wavelength (emission color) of the distance image acquisition lighting device 103 is, for example, red (R).

距離画像取得用照明装置103は、部品の検査の際に、撮像の際、コントローラ106から送信される照明制御指令に基づいて所定の輝度で部品を照明する。撮像装置101が撮像を行う時の照明の状態は、濃淡画像取得用照明装置102と距離画像取得用照明装置103の両方により部品が照明されているものとする。 The distance image acquisition lighting device 103 illuminates the component with a predetermined brightness based on the illumination control command transmitted from the controller 106 at the time of imaging at the time of inspecting the component. It is assumed that the lighting state when the image pickup device 101 performs imaging is that the parts are illuminated by both the shading image acquisition lighting device 102 and the distance image acquisition lighting device 103.

なお、本実施形態では、距離画像取得用照明装置103は、リング型のLED照明装置を用いるが、検査対象の部品105に応じて、表面の模様を強調して撮像するために最適な形状、最適な位置で使用可能なその他のLED照明装置を用いることができる。また、距離画像取得用照明装置103の場合も、発光素子としては、発光波長帯が選択できるものであれば、LED以外の任意の方式の発光素子を用いることができる。 In the present embodiment, the distance image acquisition lighting device 103 uses a ring-shaped LED lighting device, but has an optimum shape for emphasizing the surface pattern according to the component 105 to be inspected. Other LED lighting devices that can be used in the optimum position can be used. Further, also in the case of the distance image acquisition lighting device 103, as the light emitting element, any type of light emitting element other than the LED can be used as long as the emission wavelength band can be selected.

撮像装置101は、2つの撮像素子107、107、2つの波長フィルタ108、108、2つのレンズ109、109、濃淡画像生成部110(第1の画像生成部)、距離画像生成部111(第2の画像生成部)から構成される。好ましくは撮像装置101は、単一筐体にこれらの部材を組み込んだ例えば一体のカメラとしての形態で製造する。しかしながら、それぞれ2つの撮像素子、波長フィルタ、レンズの部分は例えば別体のカメラ装置を用いて構成してもよい。以下では、撮像装置101の構成要素を詳細に説明する。 The image pickup device 101 includes two image pickup elements 107, 107, two wavelength filters 108, 108, two lenses 109, 109, a grayscale image generation unit 110 (first image generation unit), and a distance image generation unit 111 (second image generation unit). Image generator). Preferably, the image pickup apparatus 101 is manufactured in the form of, for example, an integral camera in which these members are incorporated in a single housing. However, each of the two image pickup elements, the wavelength filter, and the lens portion may be configured by using, for example, a separate camera device. Hereinafter, the components of the image pickup apparatus 101 will be described in detail.

例えば、撮像素子107、107は、各画素で8bitのbit深度を持つCMOSイメージセンサで構成し、LVDS信号により画像データを素子外へ出力する。撮像素子107、107とレンズ109、109を組み合わせた撮像光学系は、撮像素子107、107の撮像視野に関して水平方向および垂直方向について、例えば部品の直径の2倍程度の撮影視野(画角)を持つよう構成する。この種の撮像素子107、107は、SPIやI2CといったIO仕様の通信を介して撮像素子107、107に内蔵するレジスタへ設定値を書込んだ上で画像データを読み出すことができる。 For example, the image pickup devices 107 and 107 are configured by a CMOS image sensor having a bit depth of 8 bits for each pixel, and output image data to the outside of the element by an LVDS signal. The image pickup optical system that combines the image pickup elements 107 and 107 and the lenses 109 and 109 has an image pickup field of view (angle of view) that is about twice the diameter of the component in the horizontal and vertical directions with respect to the image pickup field of view of the image pickup elements 107 and 107. Configure to have. This type of image sensor 107, 107 can read image data after writing a set value to a register built in the image sensor 107, 107 via IO specification communication such as SPI or I2C.

撮像素子107、107は、素子内部あるいは外部で発行された撮影トリガに応じて画像の撮像動作を開始する。撮像素子107、107は、濃淡画像取得用照明装置102および距離画像取得用照明装置103が所定の点灯状態となった後、コントローラ106から発行される撮像指令のタイミングで2枚の画像を撮像する。また、撮像素子107、107はレジスタへの設定値書き込みにより、間引き撮像やビニング撮像を行うことができるものとする。2つの撮像素子107、107は、例えば図1に示すように水平方向に並ぶように回路基板上に配置する。 The image pickup devices 107, 107 start the image pickup operation in response to a shooting trigger issued inside or outside the device. The image pickup elements 107 and 107 take two images at the timing of an imaging command issued from the controller 106 after the shading image acquisition lighting device 102 and the distance image acquisition lighting device 103 are in a predetermined lighting state. .. Further, it is assumed that the image pickup elements 107 and 107 can perform thinning imaging and binning imaging by writing the set value to the register. The two image pickup elements 107, 107 are arranged on the circuit board so as to be arranged in the horizontal direction, for example, as shown in FIG.

波長フィルタ108、108は、例えば撮像素子107、107の各画素に位置が対応するように、これら撮像素子に対してオンチップで配置されるカラーフィルタである。例えば、波長フィルタ108、108を構成するカラーフィルタは、撮像素子107、107の2×2画素毎に、例えば、図5に108R、108G、108Bで示すように、R(赤)、G(緑)、G(緑)、B(青)順で配列したベイヤー配置である。このカラーフィルタを通して撮像された画像データは、図5、図6に示すように、2×2画素毎に、R(赤)成分(左上)、G(緑)成分(左下)、G(緑)成分(右上)、B(青)成分(右下)のパターンの波長に相当する画素データが得られる。なお、上記のフィルタ配列パターンは一例に過ぎない。カラーフィルタのR(赤)G(緑)B(青)の配置パターンは、本実施形態とは異なる任意の順番や組合せをとっても構わない。本実施形態では、2つの撮像素子107、107に対してオンチップでそれぞれ同一の波長フィルタ108、108を配置するものとする。 The wavelength filters 108 and 108 are color filters that are arranged on-chip with respect to the image pickup elements 107 and 107 so that the positions correspond to the pixels of the image pickup elements 107 and 107, for example. For example, the color filters constituting the wavelength filters 108 and 108 are R (red) and G (green) for each 2 × 2 pixel of the image pickup elements 107 and 107, for example, as shown by 108R, 108G and 108B in FIG. ), G (green), B (blue) are arranged in the order of Bayer arrangement. As shown in FIGS. 5 and 6, the image data captured through this color filter has R (red) component (upper left), G (green) component (lower left), and G (green) for each 2 × 2 pixel. Pixel data corresponding to the wavelength of the pattern of the component (upper right) and the B (blue) component (lower right) can be obtained. The above filter array pattern is only an example. The arrangement patterns of R (red), G (green), and B (blue) of the color filters may be in any order or combination different from those in the present embodiment. In the present embodiment, the same wavelength filters 108 and 108 are arranged on-chip for the two image sensors 107 and 107, respectively.

濃淡画像生成部110は、図7に示すように撮像で得られた2枚の画像データのうち、どちらか1枚の画像に対して(1071)、R(赤)成分の画素を無視し、G(緑)成分およびB(青)成分の画素のみを抽出する(1072)。なお、撮像素子の機能によりカラーフィルタの2×2画素を1ブロックとして、間引きもしくはビニングをした上で画像を出力する場合にも、同様にR(赤)、G(緑)ないしB(青)の所望の画素のみを抽出することができる。その後、濃淡画像生成部110は、抽出した画像に対して既知のベイヤー現像処理を施した上でグレースケール化し、濃淡画像を生成する。 As shown in FIG. 7, the grayscale image generation unit 110 ignores the pixels of the R (red) component for either one of the two image data obtained by imaging (1071). Only the pixels of the G (green) component and the B (blue) component are extracted (1072). In addition, when the image is output after thinning or binning with 2 × 2 pixels of the color filter as one block by the function of the image sensor, R (red), G (green) to B (blue) are similarly obtained. Only the desired pixels of can be extracted. After that, the grayscale image generation unit 110 performs a known Bayer development process on the extracted image, grayscales it, and generates a grayscale image.

図2の状態で、部品105を載置した置き台114とその周辺を撮像した場合、濃淡画像生成部110により図9のような濃淡画像が生成される。図9において、画像302は置き台114の画像、画像303は検査対象の図2の部品105の画像、画像304、305は置き台114の周囲の物体105a、105b…の画像である。 When the stand 114 on which the component 105 is placed and its surroundings are imaged in the state of FIG. 2, the shade image generation unit 110 generates a shade image as shown in FIG. In FIG. 9, the image 302 is an image of the pedestal 114, the image 303 is an image of the component 105 of FIG. 2 to be inspected, and the images 304 and 305 are images of the objects 105a, 105b ... Around the pedestal 114.

なお、ここでは濃淡画像生成部110を撮像装置101の中に設けた構成を示しているが濃淡画像生成手段を画像処理部104の中に設ける構成でも構わない。その場合、撮像装置101で撮像した画像をそのまま画像処理部104へ転送し、画像処理部104の中で濃淡画像を生成してもよい。なお濃淡画像生成部110で生成する濃淡画像は、データとして、容量削減のため、少なくともG(緑)とB(青)の2ch分のデータを保持する形式とするのが望ましい。しかしながら、データ処理の流用性などのためにR(赤)、G(緑)、B(青)の3ch分のデータを保持する形式としてもよい。また、さらに容量を削減するためには、B(青)の1ch分のデータを保持する形式であってもよい。 Although the configuration in which the grayscale image generation unit 110 is provided in the image pickup apparatus 101 is shown here, a configuration in which the grayscale image generation unit is provided in the image processing unit 104 may be used. In that case, the image captured by the image pickup apparatus 101 may be transferred to the image processing unit 104 as it is, and a shade image may be generated in the image processing unit 104. It is desirable that the shade image generated by the shade image generation unit 110 is in a format that holds at least 2 channels of G (green) and B (blue) as data in order to reduce the capacity. However, in order to divert data processing, a format may be used in which data for 3 channels of R (red), G (green), and B (blue) are retained. Further, in order to further reduce the capacity, a format may be used in which data for one channel of B (blue) is held.

一方、距離画像生成部111は、図8に示すように、撮像で得られた2枚の画像データの両方について、G(緑)成分およびB(青)成分の画素を無視し、R(赤)成分の画素のみを抽出する(1071、1073)。なお、撮像素子の機能によりカラーフィルタの2×2画素を1ブロックとして、間引きもしくはビニングをした上で画像を出力する場合にも、同様にして、R(赤)、G(緑)ないしB(青)の所定の画素のみを抽出することができる。その後、抽出した画像に対して既知のベイヤー現像処理を施した上でグレースケール化し、2枚のグレースケール画像を得る。さらに、既知のステレオ法を用い、2枚のグレースケール画像のステレオ対応付けを行って各画素について視差を算出し、距離画像を生成する。 On the other hand, as shown in FIG. 8, the distance image generation unit 111 ignores the pixels of the G (green) component and the B (blue) component for both of the two image data obtained by imaging, and R (red). ) Only the pixel of the component is extracted (1071, 1073). In addition, when the image is output after thinning or binning with 2 × 2 pixels of the color filter as one block by the function of the image sensor, R (red), G (green) to B ( Only the predetermined pixels of blue) can be extracted. Then, the extracted image is subjected to a known Bayer development process and grayscaled to obtain two grayscale images. Further, using a known stereo method, two grayscale images are associated with each other in stereo, parallax is calculated for each pixel, and a distance image is generated.

ここで生成される距離画像は、例えば、図10に示すように撮像装置101からの距離が遠いほど明るく、距離が近いほど暗い輝度値で表現される(図10:301)。本実施形態における距離画像は、各画素毎に距離データとして、32bitの浮動小数点データを持つものとする。なお、本実施形態では距離画像生成部111を撮像装置101の中に設ける例を示しているが、距離画像生成部111を画像処理部104の中に設ける構成を用いてもよい。その場合、撮像装置101で撮像した画像をそのまま画像処理部104へ転送し、画像処理部104の側で距離画像を生成することができる。 As shown in FIG. 10, the distance image generated here is represented by a brightness value that is brighter as the distance from the image pickup apparatus 101 is longer and darker as the distance is shorter (FIG. 10: 301). The distance image in this embodiment has 32 bits of floating point data as distance data for each pixel. Although the present embodiment shows an example in which the distance image generation unit 111 is provided in the image pickup apparatus 101, a configuration in which the distance image generation unit 111 is provided in the image processing unit 104 may be used. In that case, the image captured by the image pickup apparatus 101 can be transferred to the image processing unit 104 as it is, and the distance image can be generated on the side of the image processing unit 104.

また、本実施形態では濃淡画像に青色(B)の波長帯の照明光を用い、距離画像に赤色(R)の波長帯の照明光を用いている。しかしながら、濃淡画像生成部110および距離画像生成部111が取り扱う照明光(撮影光)の波長(照明の発光色)の割り当ては任意であり、上記と異なる割り当てを採用しても構わない。要するに、濃淡画像と距離画像で互いに照明光(撮影光)の波長帯(照明の発光色)が異なっていればよく、濃淡画像と距離画像の各々について、他の照明光(撮影光)の波長帯(照明の発光色)が割り当てられていて構わない。 Further, in the present embodiment, the illumination light of the blue (B) wavelength band is used for the shade image, and the illumination light of the red (R) wavelength band is used for the distance image. However, the assignment of the wavelength (emission color of the illumination) of the illumination light (photographed light) handled by the grayscale image generation unit 110 and the distance image generation unit 111 is arbitrary, and an assignment different from the above may be adopted. In short, it suffices that the wavelength band (emission color of the illumination) of the illumination light (photographed light) is different between the shade image and the distance image, and the wavelengths of the other illumination light (photographed light) for each of the shade image and the distance image. A band (emission color of lighting) may be assigned.

画像処理部104は、検査領域特定部112と検査処理部113を備えている。撮像装置101から入力した濃淡画像及び距離画像を用いて検査領域特定部112は検査領域を決定し、検査処理部113は検査領域特定部112が特定した検査領域に対して検査処理のための画像処理を行う。画像処理部104は、例えばCPUを搭載したPC、ボードコンピュータ、GPU、FPGA等の演算装置などによって実装可能である。 The image processing unit 104 includes an inspection area specifying unit 112 and an inspection processing unit 113. The inspection area specifying unit 112 determines the inspection area using the grayscale image and the distance image input from the image pickup apparatus 101, and the inspection processing unit 113 determines the inspection processing for the inspection area specified by the inspection area specifying unit 112. Perform processing. The image processing unit 104 can be mounted by, for example, a PC equipped with a CPU, a board computer, an arithmetic unit such as a GPU or FPGA.

ここで、図24に図1の画像処理部104の具体的なハードウェア構成の一例を示しておく。同図のような制御系は、例えばいわゆるPCフォームの実装形態で実現できる。 Here, FIG. 24 shows an example of a specific hardware configuration of the image processing unit 104 of FIG. The control system as shown in the figure can be realized, for example, by implementing a so-called PC form.

図24の制御系は、主制御手段としてのCPU1601、記憶装置としてのROM1602、およびRAM1603を備えたPCハードウェアなどによって構成することができる。ROM1602には、本実施形態の製造手順を実現するためのCPU1601の制御プログラムや定数情報などを格納しておくことができる。また、RAM1603は、その制御手順を実行する時にCPU1601のワークエリアなどとして使用される。また、図24の制御系には、外部記憶装置1606が接続されている。外部記憶装置1606は、本発明の実施には必ずしも必要ではないが、HDDやSSD、ネットワークマウントされた他のシステムの外部記憶装置などから構成することができる。 The control system of FIG. 24 can be configured by a CPU 1601 as a main control means, a ROM 1602 as a storage device, and PC hardware including a RAM 1603. The ROM 1602 can store a control program of the CPU 1601 and constant information for realizing the manufacturing procedure of the present embodiment. Further, the RAM 1603 is used as a work area of the CPU 1601 when executing the control procedure. Further, an external storage device 1606 is connected to the control system of FIG. 24. The external storage device 1606 is not necessarily necessary for the practice of the present invention, but can be configured from an HDD, an SSD, an external storage device of another network-mounted system, or the like.

本実施形態の画像処理、例えば検査領域特定部112と検査処理部113の処理を実現するためのCPU1601の制御プログラムは、上記の外部記憶装置1606やROM1602の(例えばEEPROM領域)のような記憶部に格納しておく。その場合、本実施形態の制御手順を実現するためのCPU1601の制御プログラムは、ネットワークインターフェース1607(NIF)を介して、上記の各記憶部に供給し、また新しい(別の)プログラムに更新することができる。あるいは、後述の制御手順を実現するためのCPU1601の制御プログラムは、各種の磁気ディスクや光ディスク、フラッシュメモリなどの記憶手段と、そのためのドライブ装置を経由して、上記の各記憶部に供給し、またその内容を更新することができる。本実施形態の制御手順を実現するためのCPU1601の制御プログラムを格納した状態における各種の記憶手段、記憶部、ないし記憶デバイスは、本発明の制御手順を格納したコンピュータ読み取り可能な記録媒体を構成することになる。 The control program of the CPU 1601 for realizing the image processing of the present embodiment, for example, the processing of the inspection area specifying unit 112 and the inspection processing unit 113, is a storage unit such as the above-mentioned external storage device 1606 or ROM 1602 (for example, EEPROM area). Store in. In that case, the control program of the CPU 1601 for realizing the control procedure of the present embodiment is supplied to each of the above-mentioned storage units via the network interface 1607 (NIF), and is updated to a new (another) program. Can be done. Alternatively, the control program of the CPU 1601 for realizing the control procedure described later is supplied to each of the above storage units via storage means such as various magnetic disks, optical disks, and flash memories, and a drive device for that purpose. The contents can also be updated. Various storage means, storage units, or storage devices in a state in which the control program of the CPU 1601 for realizing the control procedure of the present invention is stored constitutes a computer-readable recording medium in which the control procedure of the present invention is stored. It will be.

ネットワークインターフェース1607は、例えばIEEE 802.3のような有線通信、IEEE 802.11、802.15のような無線通信による通信規格を用いて構成することができる。CPU1601は、ネットワークインターフェース1607を介して、他の装置1104と通信することができる。この装置1104は、例えば、物品の製造に係るコントローラ106統轄制御装置、あるいは他の管理サーバなどに相当する。図1の搬送ロボット116、ないし搬送ロボット116に配置された生産ラインの他の生産機器との通信も、ネットワークインターフェース1607を介して行うことができる。 The network interface 1607 can be configured using, for example, a wired communication standard such as IEEE 802.3 or a wireless communication standard such as IEEE 802.11, 802.11. The CPU 1601 can communicate with another device 1104 via the network interface 1607. The device 1104 corresponds to, for example, a controller 106 controlling control device for manufacturing an article, another management server, or the like. Communication with the transfer robot 116 of FIG. 1 or other production equipment on the production line arranged in the transfer robot 116 can also be performed via the network interface 1607.

また、図24の制御装置は、ユーザインターフェース装置400(UI装置)を備える。ユーザインターフェース装置400としては、LCDディスプレイ、キーボード、ポインティングデバイス(マウス、ジョイスティックなど)などから成るGUI装置を配置してもよい。このようなユーザインターフェース装置400を介して、画像処理の進行状況をユーザに報知したり、画像処理を制御する各種パラメータの設定などを行うことができる。 Further, the control device of FIG. 24 includes a user interface device 400 (UI device). As the user interface device 400, a GUI device including an LCD display, a keyboard, a pointing device (mouse, joystick, etc.) and the like may be arranged. Through such a user interface device 400, it is possible to notify the user of the progress of image processing, set various parameters for controlling image processing, and the like.

画像処理部104は次のような機能要素を備える。これらの機能要素は、上述の図24に示した制御系のハードウェアおよびソフトウェアによって実現することができる。 The image processing unit 104 includes the following functional elements. These functional elements can be realized by the hardware and software of the control system shown in FIG. 24 described above.

検査領域特定部112は、距離画像生成部111が生成した距離画像に基づき、撮像装置101で撮像された画像データ中の特定の距離範囲にある画像領域を検査領域として決定する。 The inspection area specifying unit 112 determines an image area in a specific distance range in the image data captured by the image pickup apparatus 101 as an inspection area based on the distance image generated by the distance image generation unit 111.

ここでは、例えば図10に示す距離画像の各画素を閾値処理により二値化した上で、画素値を論理反転(「1」⇔「0」)し、図11のような二値画像を得る。この二値化の閾値の選び方としては、例えば距離画像の各画素の距離情報の最大値を抽出し、最大値の半分の値を閾値とする手法が考えられる。図2のような部品配置では、図11に示すように置き台114の上面に相当する撮像距離より近い画像の領域が検査領域307として決定される。この検査領域307は「1」の画素値を有する。また、検査領域307以外の撮像距離がより遠い領域306は、背景に相当する領域で、この領域306は「0」の画素値を有する。なお、距離画像の二値化を行う前に、画像データにノイズを低減する既知のフィルタをかけてもよい。以上のようにして図11のように得られる二値画像を、以下では「マスク画像」と呼ぶ。後段の検査処理部113は、以上のようにして決定された検査領域307に対して良否検査などの種々の検査のための画像処理を実行する。 Here, for example, each pixel of the distance image shown in FIG. 10 is binarized by threshold processing, and then the pixel value is logically inverted (“1” ⇔ “0”) to obtain a binary image as shown in FIG. .. As a method of selecting the threshold value for this binarization, for example, a method of extracting the maximum value of the distance information of each pixel of the distance image and setting a value half of the maximum value as the threshold value can be considered. In the component arrangement as shown in FIG. 2, as shown in FIG. 11, the region of the image closer to the imaging distance corresponding to the upper surface of the stand 114 is determined as the inspection region 307. This inspection area 307 has a pixel value of "1". Further, the region 306 other than the inspection region 307, which has a longer imaging distance, is a region corresponding to the background, and this region 306 has a pixel value of “0”. Before binarizing the distance image, the image data may be filtered with a known filter to reduce noise. The binary image obtained as shown in FIG. 11 as described above is hereinafter referred to as a "mask image". The subsequent inspection processing unit 113 executes image processing for various inspections such as a quality inspection on the inspection area 307 determined as described above.

検査処理部113は、例えば距離画像から生成されたマスク画像(図11)、および濃淡画像(図9:301)を用いて検査を実行する。ここでは、まず濃淡画像(図9:301)に対して、検査領域特定部112が生成したマスク画像(図11)に基づき、マスキング処理を行う。このマスキング処理では、マスク画像(図11)の輝度値が「1」の画素では濃淡画像(図9:301)の輝度値をそのまま採用し、マスク画像(図11)の輝度値が「0」の画素では輝度値を0とする。このマスキング処理により、図12のように、検査対象の部品105の画像308が存在する検査領域307に有意な画像が存在し、それ以外の背景に相当する領域306が輝度値「0」(黒)である画像が得られる。 The inspection processing unit 113 executes an inspection using, for example, a mask image (FIG. 11) generated from a distance image and a shading image (FIG. 9: 301). Here, first, the shading image (FIG. 9: 301) is masked based on the mask image (FIG. 11) generated by the inspection area specifying unit 112. In this masking process, the luminance value of the shading image (FIG. 9: 301) is adopted as it is for the pixels whose luminance value of the mask image (FIG. 11) is "1", and the luminance value of the mask image (FIG. 11) is "0". The brightness value is set to 0 for the pixel of. By this masking process, as shown in FIG. 12, a significant image exists in the inspection area 307 where the image 308 of the component 105 to be inspected exists, and the area 306 corresponding to the other background has a brightness value “0” (black). ) Is obtained.

次に、図12のように部品105(308)のみが存在する画像に対する、検査処理部113は、適当な画像処理を行うことによって、例えば部品105(308)の良否判定結果を得る。この検査画像処理としては、例えば画像を二値化して二値画像を生成し、二値画像の面積が閾値以上であれば良品と判定する方法などが考えられる。あるいは、テンプレートマッチングにより予め用意した部品画像とのマッチングスコアを計算し、マッチングスコアが閾値以上であれば良品と判定する方法などを利用してもよい。また、画像のエッジ成分を検出し、形状マッチングにより、予め用意した形状情報とのマッチングスコアを計算し、マッチングスコアが閾値以上であれば良品と判定する方法、既知の良品学習方法などを用いてもよい。検査処理部113で得られた良否判定結果は、コントローラ106に出力する。 Next, as shown in FIG. 12, the inspection processing unit 113 obtains, for example, a quality determination result of the component 105 (308) by performing appropriate image processing on the image in which only the component 105 (308) exists. As this inspection image processing, for example, a method of binarizing an image to generate a binary image and determining that the product is non-defective if the area of the binary image is equal to or larger than the threshold value can be considered. Alternatively, a method of calculating a matching score with a component image prepared in advance by template matching and determining that the product is non-defective if the matching score is equal to or higher than the threshold value may be used. In addition, a method of detecting an edge component of an image, calculating a matching score with shape information prepared in advance by shape matching, and determining a non-defective product if the matching score is equal to or higher than a threshold value, a known non-defective product learning method, or the like is used. May be good. The quality determination result obtained by the inspection processing unit 113 is output to the controller 106.

コントローラ106は、良否判定結果に基づき、搬送ロボット116に送信する指令内容を生成する。例えば、良否検査の場合には、部品の検査結果が良品であれば、コントローラ106は搬送ロボット116に部品を把持して生産ライン上の後工程へ搬送する動作を行なわせる指令を行う。また、部品の検査結果が不良品であれば、搬送ロボット116に部品を把持して生産ラインから排出させるような指令を行う。この時、不図示の音声発生手段などによって、警告音を発生させてもよい。あるいは、不良品判定の場合には、搬送ロボット116を含む生産システムを停止して警告音を発生させるようなエラー処理を行ってもよい。 The controller 106 generates a command content to be transmitted to the transfer robot 116 based on the pass / fail determination result. For example, in the case of a quality inspection, if the inspection result of the parts is a good product, the controller 106 issues a command to the transfer robot 116 to perform an operation of grasping the parts and transporting them to a subsequent process on the production line. If the inspection result of the part is defective, the transfer robot 116 is instructed to grasp the part and discharge it from the production line. At this time, a warning sound may be generated by a voice generating means (not shown). Alternatively, in the case of determining a defective product, an error process may be performed so as to stop the production system including the transfer robot 116 and generate a warning sound.

本実施形態によれば、一度の撮像によって、それぞれの撮像に適した適切な照明状態で濃淡画像(第1の画像)と距離画像(第2の画像)を取得することができる。そして、距離画像の距離情報を用いて濃淡画像に対する画像処理を行う検査領域を決定することができる。例えば、複雑な背景がカメラに写り込むような環境における検査でも、距離画像の距離情報を用いて背景部分を除いた検査領域を設定することができ、対象物、例えば部品の画像検査、例えば、良否判定を安定的かつ高速に検査することができる。 According to the present embodiment, it is possible to acquire a shade image (first image) and a distance image (second image) in an appropriate lighting state suitable for each imaging by one imaging. Then, the inspection area for performing image processing on the grayscale image can be determined by using the distance information of the distance image. For example, even in an inspection in an environment where a complicated background is reflected in a camera, an inspection area excluding the background portion can be set by using the distance information of the distance image, and an image inspection of an object, for example, a part, for example, The pass / fail judgment can be inspected stably and at high speed.

<実施形態2>
実施形態1では、撮像装置101がステレオカメラであって、ステレオ撮影により距離画像(第2の画像)を取得したが、別の構成を有する撮像装置101によっても距離情報を取得することができる。本実施形態では、パターン光による照明光(第2の光)を用いて距離画像(第2の画像)を取得する例を示す。なお、以下では、上述と同様の構成部材、機能には同一の参照符号を用い、特に必要がなければその詳細な説明は省略するものとする。
<Embodiment 2>
In the first embodiment, the image pickup device 101 is a stereo camera, and the distance image (second image) is acquired by stereo shooting, but the distance information can also be acquired by the image pickup device 101 having another configuration. In this embodiment, an example of acquiring a distance image (second image) using illumination light (second light) by pattern light is shown. In the following, the same reference numerals will be used for the same components and functions as described above, and detailed description thereof will be omitted unless otherwise required.

実施形態1の構成では、例示した歯車のように、部品の表面に模様(テクスチャ)があるのが望ましく、ステレオ撮像により2つの画像のステレオ対応付けをした上で距離画像を生成することができる。しかしながら実際の部品は、表面に模様(テクスチャ)がなく、ステレオ撮像してもステレオ対応付けができず、従って視差が計測できず、距離画像が生成できないような形態のものがある。 In the configuration of the first embodiment, it is desirable that there is a pattern (texture) on the surface of the component like the illustrated gear, and a distance image can be generated after stereo-associating the two images by stereo imaging. .. However, some actual parts have no pattern (texture) on the surface and cannot be associated with stereo even if stereo imaging is performed. Therefore, parallax cannot be measured and a distance image cannot be generated.

本実施形態2の構成では、検査対象の対象物に模様(テクスチャ)がないような場合でも、距離画像(第2の画像)を取得することができる。 In the configuration of the second embodiment, the distance image (second image) can be acquired even when the object to be inspected does not have a pattern (texture).

図13は、本実施形態に係る画像検査システムの構成を示している。図13の画像検査システムでは、撮像装置101は撮像素子107、波長フィルタ108、レンズ109、濃淡画像生成部110、距離画像生成部111から構成されている。しかしながら、図13の撮像装置101は、ステレオ構成ではなく、いわゆる単眼の撮像装置である。撮像装置101の撮像素子107、波長フィルタ108、レンズ109などの構成は実施形態1の単眼の構成と同様である。 FIG. 13 shows the configuration of the image inspection system according to the present embodiment. In the image inspection system of FIG. 13, the image pickup device 101 includes an image pickup element 107, a wavelength filter 108, a lens 109, a grayscale image generation unit 110, and a distance image generation unit 111. However, the image pickup device 101 of FIG. 13 is not a stereo configuration but a so-called monocular image pickup device. The configuration of the image sensor 107, the wavelength filter 108, the lens 109, and the like of the image pickup device 101 is the same as the configuration of the monocular of the first embodiment.

濃淡画像取得用照明装置102は、実施形態1のものと同様に撮像装置101の撮像光軸とほぼ平行な平行光として照明光を照射する構成である。距離画像取得用照明装置103は、例えば、周知のDMDデバイスを搭載したプロジェクタである。 The shading image acquisition lighting device 102 is configured to irradiate the illumination light as parallel light substantially parallel to the imaging optical axis of the imaging device 101, as in the case of the first embodiment. The distance image acquisition lighting device 103 is, for example, a projector equipped with a well-known DMD device.

検査領域特定部112、検査処理部113を備えた画像処理部104、およびコントローラ106の構成は上記実施形態1と同様である。また、部品を検査する処理の流れについては、実施形態1と同様(図23)であり、詳細な説明を省略する。 The configuration of the inspection area specifying unit 112, the image processing unit 104 including the inspection processing unit 113, and the controller 106 is the same as that of the first embodiment. Further, the flow of the process of inspecting the parts is the same as that of the first embodiment (FIG. 23), and detailed description thereof will be omitted.

部品105は、実施形態1と同様に架台115に設置された置き台114上に配置され、搬送ロボット116によって操作される。本実施形態では部品105の表面には模様(テクスチャ)がないものとする。 The component 105 is arranged on the pedestal 114 installed on the gantry 115 as in the first embodiment, and is operated by the transfer robot 116. In this embodiment, it is assumed that there is no pattern (texture) on the surface of the component 105.

距離画像取得用照明装置103は、例えば既知のDMDデバイスを搭載したプロジェクタである。この種のプロジェクタは、既知の空間コード化法を実施可能な所定の明暗パターンを有するパターン光を、撮像装置とは異なる角度、例えば撮像装置101の撮像光軸に対して傾斜した方向から照明する。 The distance image acquisition lighting device 103 is, for example, a projector equipped with a known DMD device. This type of projector illuminates a pattern light having a predetermined light-dark pattern capable of performing a known spatial coding method from an angle different from that of the imaging device, for example, from a direction inclined with respect to the imaging optical axis of the imaging device 101. ..

図14において、401、402、403、404(…)は、パターンの異なる本実施形態のプロジェクタから成る距離画像取得用照明装置103により投影する種々のパターン光(第2の光)の例を示している。本実施形態では、例えば距離画像取得用照明装置103の照明光(第2の光)の発光波長は赤色であるものとする。距離画像取得用照明装置103は、部品105の検査の際に、撮像に先立ってコントローラからの照明制御指令に基づいて点灯され、所定の輝度で部品を照明する。 In FIG. 14, 401, 402, 403, 404 (...) show examples of various pattern lights (second light) projected by the distance image acquisition lighting device 103 composed of the projectors of the present embodiment having different patterns. ing. In the present embodiment, for example, the emission wavelength of the illumination light (second light) of the distance image acquisition illumination device 103 is assumed to be red. When inspecting the component 105, the distance image acquisition lighting device 103 is turned on based on a lighting control command from the controller prior to imaging, and illuminates the component with a predetermined brightness.

撮像装置101による撮像時には、濃淡画像取得用照明装置102(第1の照明装置)と、距離画像取得用照明装置103(第2の照明装置)の両方により部品105が照明されている状態を形成する。なお、濃淡画像取得用照明装置102(第1の照明装置)の照明光(第1の光)の発光波長は青色であるものとする。 At the time of imaging by the imaging device 101, the component 105 is illuminated by both the shading image acquisition lighting device 102 (first lighting device) and the distance image acquisition lighting device 103 (second lighting device). To do. It is assumed that the emission wavelength of the illumination light (first light) of the illumination device 102 (first illumination device) for acquiring a shade image is blue.

本実施形態でも、濃淡画像生成部110は、図7に示すように、画像データに対して、R(赤)成分の画素を無視し、G(緑)成分およびB(青)成分の画素のみを抽出する。なお、撮像素子の機能によりカラーフィルタの2×2画素を1ブロックとして、間引きもしくはビニングをした上で画像を出力する場合にも、同様にR(赤)、G(緑)ないしB(青)の所望の画素のみを抽出することができる。その後、抽出した画像に対して既知のベイヤー現像処理を施した上でグレースケール化し、濃淡画像を生成する。濃淡画像は、実施形態1と同様に図9のような形態で生成される。 Also in this embodiment, as shown in FIG. 7, the shading image generation unit 110 ignores the pixels of the R (red) component and only the pixels of the G (green) component and the B (blue) component with respect to the image data. Is extracted. In addition, when the image is output after thinning or binning with 2 × 2 pixels of the color filter as one block by the function of the image sensor, R (red), G (green) to B (blue) are similarly obtained. Only the desired pixels of can be extracted. Then, the extracted image is subjected to a known Bayer development process and then grayscaled to generate a grayscale image. The shade image is generated in the form shown in FIG. 9 as in the first embodiment.

なお、濃淡画像生成部110を撮像装置101ではなく、画像処理部104に配置する変形例は、本実施形態においても実施できる。その場合、撮像装置101で撮像した画像をそのまま画像処理部104へ転送し、画像処理部104で濃淡画像を生成することができる。また、濃淡画像生成部110で生成する濃淡画像データは、容量削減のため、G(緑)とB(青)の2ch分のデータを保持する形式とするのが望ましい。しかしながら、データ処理の流用性などのため、R(赤)G(緑)B(青)の3ch分のデータを保持する形式としてもよい。また、さらに容量を削減するためには、B(青)の1ch分のデータを保持する形式であってもよい。 A modified example in which the shading image generation unit 110 is arranged not in the image pickup apparatus 101 but in the image processing unit 104 can also be implemented in this embodiment. In that case, the image captured by the image pickup apparatus 101 can be transferred to the image processing unit 104 as it is, and the image processing unit 104 can generate a shading image. Further, it is desirable that the grayscale image data generated by the grayscale image generation unit 110 is in a format that holds data for 2 channels of G (green) and B (blue) in order to reduce the capacity. However, for the sake of diversion of data processing and the like, a format may be used in which data for 3 channels of R (red) G (green) B (blue) is retained. Further, in order to further reduce the capacity, a format may be used in which data for one channel of B (blue) is held.

一方、距離画像生成部111は、図8に示すように、撮像で得られた画像データについて、G(緑)成分およびB(青)成分の画素を無視し、R(赤)成分の画素のみを抽出する。なお、撮像素子の機能によりカラーフィルタの2×2画素を1ブロックとして、間引きもしくはビニングをした上で画像を出力する場合にも、同様にして、R(赤)、G(緑)ないしB(青)の所定の画素のみを抽出することができる。その後、距離画像生成部111は、抽出した画像に対して既知のベイヤー現像処理を施した上でグレースケール化し、周知の空間コード化法を用いて距離画像を生成する。 On the other hand, as shown in FIG. 8, the distance image generation unit 111 ignores the pixels of the G (green) component and the B (blue) component of the image data obtained by imaging, and only the pixels of the R (red) component. Is extracted. In addition, when the image is output after thinning or binning with 2 × 2 pixels of the color filter as one block by the function of the image sensor, R (red), G (green) to B ( Only the predetermined pixels of blue) can be extracted. After that, the distance image generation unit 111 performs a known Bayer development process on the extracted image, grayscales it, and generates a distance image using a well-known spatial coding method.

図22は、実施形態1と同様の図2のような対象物を撮像装置101で撮像し、R(赤)成分の画素のみを抽出して得た画像を示している。図22において、画像2302は置き台114の画像、画像2303は検査対象の図2の部品105の画像、画像2304、2305は置き台114の周囲の物体105a、105b…の画像である。2301、2401は、距離画像取得用照明装置103のプロジェクタから照射されたストライプ状のパターン光の明、暗の部分をそれぞれ示している。このストライプ状のパターン光の明、暗の部分のずれ方は、距離画像取得用照明装置103の照明光の照射角度(既知)と、対象物の高低差(形状)に依存する。従って、距離画像生成部111は、空間コード化法を用いて、明、暗の部分のずれ方から当該の対象物がパターン光で照明された部位の高さ、即ち、距離画像を生成する。このようにして、図13の構成においても、実施形態1と同様に、検査領域特定部112が検査領域特定処理で用いる距離情報を含む距離画像を生成することができる。 FIG. 22 shows an image obtained by imaging an object as in FIG. 2 similar to the first embodiment with the image pickup apparatus 101 and extracting only the pixels of the R (red) component. In FIG. 22, image 2302 is an image of the pedestal 114, image 2303 is an image of the component 105 of FIG. 2 to be inspected, and images 2304 and 2305 are images of objects 105a, 105b ... Around the pedestal 114. Reference numerals 2301 and 2401 indicate bright and dark portions of the striped pattern light emitted from the projector of the distance image acquisition lighting device 103, respectively. The deviation of the bright and dark portions of the striped pattern light depends on the irradiation angle (known) of the illumination light of the distance image acquisition illumination device 103 and the height difference (shape) of the object. Therefore, the distance image generation unit 111 uses the spatial coding method to generate the height of the portion where the object is illuminated by the pattern light, that is, the distance image from the deviation of the bright and dark portions. In this way, also in the configuration of FIG. 13, a distance image including the distance information used by the inspection area specifying unit 112 in the inspection area specifying process can be generated as in the first embodiment.

実施形態1と同様に、生成される距離画像は、例えば、図10に示すように撮像装置101からの距離が遠いほど明るく、距離が近いほど暗い輝度値で表現される(図10:301)。本実施形態における距離画像は、各画素毎に距離データとして、32bitの浮動小数点データを持つものとする。なお、本実施形態では距離画像生成部111を撮像装置101の中に設ける例を示しているが、距離画像生成部111を画像処理部104の中に設ける構成を用いてもよい。その場合、撮像装置101で撮像した画像をそのまま画像処理部104へ転送し、画像処理部104の側で距離画像を生成することができる。 Similar to the first embodiment, the generated distance image is represented by, for example, a brightness value that is brighter as the distance from the image pickup apparatus 101 is longer and darker as the distance is shorter (FIG. 10: 301). .. The distance image in this embodiment has 32 bits of floating point data as distance data for each pixel. Although the present embodiment shows an example in which the distance image generation unit 111 is provided in the image pickup apparatus 101, a configuration in which the distance image generation unit 111 is provided in the image processing unit 104 may be used. In that case, the image captured by the image pickup apparatus 101 can be transferred to the image processing unit 104 as it is, and the distance image can be generated on the side of the image processing unit 104.

なお、本実施形態でも、濃淡画像に青色(B)の波長帯の照明光を用い、距離画像に赤色(R)の波長帯の照明光を用いている。しかしながら、照明光(撮影光)の波長(照明の発光色)の割り当ては実施形態1と同様、任意である。要するに、濃淡画像と距離画像で互いに照明光(撮影光)の波長帯(照明の発光色)が異なっていればよく、濃淡画像と距離画像の各々について、他の照明光(撮影光)の波長帯(照明の発光色)が割り当てられていて構わない。 Also in this embodiment, the illumination light of the blue (B) wavelength band is used for the shade image, and the illumination light of the red (R) wavelength band is used for the distance image. However, the assignment of the wavelength of the illumination light (shooting light) (emission color of the illumination) is arbitrary as in the first embodiment. In short, it suffices that the wavelength band (emission color of the illumination) of the illumination light (photographed light) is different between the shade image and the distance image, and the wavelengths of the other illumination light (photographed light) for each of the shade image and the distance image. A band (emission color of lighting) may be assigned.

搬送ロボット116は良否判定結果に基づいてコントローラが指令する指令内容に基づき動作させることができる。具体的には、部品の検査結果が良品の場合は、搬送ロボットが部品を把持して後工程へ搬送し、部品の検査結果が不良品であれば、システムを停止して警告音を発生させるような制御を行うことができる。 The transfer robot 116 can be operated based on the command content commanded by the controller based on the quality determination result. Specifically, if the inspection result of the part is non-defective, the transfer robot grabs the part and transfers it to the subsequent process, and if the inspection result of the part is defective, the system is stopped and a warning sound is generated. Such control can be performed.

なお、本実施形態ではプロジェクタを利用した空間コード化法により、部品に模様(テクスチャ)が無い場合に、能動的に部品表面にテクスチャを投影する方法について説明した。しかしながら、空間コード化法以外に、距離画像取得用照明装置を単一またはマルチラインのスリットレーザ、あるいは多点のポイントレーザとして構成し、既知の三角測量や光切断法により各所の距離情報を計算し、距離画像を生成してもよい。また、プロジェクタにより能動的に部品表面にランダムなテクスチャを投影し、ステレオ対応付けの特徴点として活用し、実施形態1で記載したステレオ法により距離画像を生成してもよい。 In this embodiment, a method of actively projecting a texture on the surface of a component when there is no pattern (texture) on the component has been described by a spatial coding method using a projector. However, in addition to the spatial coding method, the lighting device for distance image acquisition is configured as a single or multi-line slit laser or a multi-point point laser, and the distance information of each place is calculated by a known triangulation or optical cutting method. Then, a distance image may be generated. Alternatively, a projector may actively project a random texture onto the surface of the component, utilize it as a feature point of stereo association, and generate a distance image by the stereo method described in the first embodiment.

本実施形態によれば、部品に模様(テクスチャ)が無い場合においても、一度の撮像で、それぞれ適切な照明態様で濃淡画像と距離画像を取得できる。従って、例えば複雑な背景がカメラに写り込むような環境での部品の良否判定を安定的かつ高速に検査することができる。 According to this embodiment, even when there is no pattern (texture) on the part, it is possible to acquire a shade image and a distance image in appropriate lighting modes by one imaging. Therefore, for example, it is possible to stably and quickly inspect the quality of parts in an environment where a complicated background is reflected in the camera.

<実施形態3>
前述した実施形態1では、それぞれ濃淡画像と距離画像に適した方向を有する照明光の波長帯を、R(赤)、G(緑)、B(青)のうちそれぞれいずれか1つ、例えばR(赤)、B(青)に分離した。そして、波長フィルタを使用して濃淡画像と距離画像で照明光の波長帯を分離して濃淡画像と距離画像を取得するようにしている。これにより、それぞれ適切な照明態様を有する照明光によって濃淡画像と距離画像を撮像することができた。しかしながら実際の検査においては、濃淡画像にR(赤)、G(緑)、B(青)全ての色情報が必要になる検査もあり得る。また、検査環境における蛍光灯などの外乱光の波長成分にはR(赤)、G(緑)、ないしB(青)の波長帯が含まれることがあり、例えば距離画像に対して影響のある外乱となり、距離画像が正常に生成できない可能性がある。
<Embodiment 3>
In the above-described first embodiment, the wavelength band of the illumination light having a direction suitable for the grayscale image and the distance image is set to any one of R (red), G (green), and B (blue), for example, R. It was separated into (red) and B (blue). Then, a wavelength filter is used to separate the wavelength band of the illumination light between the grayscale image and the distance image to acquire the grayscale image and the distance image. As a result, it was possible to capture a shade image and a distance image with illumination light having an appropriate illumination mode. However, in an actual inspection, there may be an inspection in which all the color information of R (red), G (green), and B (blue) is required for the shade image. Further, the wavelength component of ambient light such as a fluorescent lamp in an inspection environment may include a wavelength band of R (red), G (green), or B (blue), which has an influence on a distance image, for example. There is a possibility that the distance image cannot be generated normally due to disturbance.

そこで、本実施形態では、濃淡画像にR(赤)、G(緑)、B(青)の全ての色情報を使用でき、かつ画像検査を安定的かつ高速に実行できる構成を考える。そのため、本実施例では、距離画像のためにR(赤)、G(緑)、B(青)以外の波長、例えば赤外線(Ir)の波長帯を割り当てる。なお、本実施形態に係る画像処理装置の構成は、実施形態1の図1と同様であるものとする。即ち、この構成は、距離情報を利用するための距離画像をステレオカメラで生成する構成である。 Therefore, in the present embodiment, a configuration is considered in which all the color information of R (red), G (green), and B (blue) can be used for the shade image, and the image inspection can be executed stably and at high speed. Therefore, in this embodiment, wavelengths other than R (red), G (green), and B (blue), for example, infrared (Ir) wavelength bands are assigned for the distance image. The configuration of the image processing device according to the present embodiment is the same as that of FIG. 1 of the first embodiment. That is, this configuration is a configuration in which a stereo camera generates a distance image for using the distance information.

本実施形態で部品を検査する処理の流れは次のようなものとなる。まず、コントローラ106の照明制御指令により濃淡画像取得用照明装置102と距離画像取得用照明装置103の両方を点灯した状態とする(図23、S10)。そして、コントローラの撮像指令によりステレオ構成を有する撮像装置101の撮像素子107、107で画像を撮像し、左右視差を有する2枚の画像データを得る(図23、S12)。 The flow of processing for inspecting parts in this embodiment is as follows. First, both the shading image acquisition lighting device 102 and the distance image acquisition lighting device 103 are turned on by the lighting control command of the controller 106 (FIGS. 23 and S10). Then, an image is taken by the image pickup elements 107 and 107 of the image pickup device 101 having a stereo configuration according to the image pickup command of the controller, and two image data having left-right parallax are obtained (FIGS. 23 and S12).

本実施形態では、濃淡画像取得用照明装置102は、赤色、緑色、青色の波長帯を含む可視光を照射する。一方、距離画像取得用照明装置103は赤外光を照射する。これらの照明光の波長帯の設定は、それぞれの照明装置の照明光源に用いる例えばLED素子の選定、あるいは適当なフィルタを各照明光源の前方に配置することにより行える。 In the present embodiment, the shading image acquisition lighting device 102 irradiates visible light including wavelength bands of red, green, and blue. On the other hand, the distance image acquisition lighting device 103 irradiates infrared light. The wavelength band of these illumination lights can be set by selecting, for example, an LED element to be used as an illumination light source of each illumination device, or by arranging an appropriate filter in front of each illumination light source.

濃淡画像生成部110、距離画像生成部111は、上述と同様にステレオ撮像され2枚の画像データに基づき、濃淡画像と距離画像を生成し、これら濃淡画像と距離画像を画像処理部104に転送する。濃淡画像の生成では、撮像装置101の波長フィルタ108のうち、赤色(R)、緑色(G)、青色(B)の波長帯の光が透過するフィルタに対応する画素を用いる。また、距離画像の生成では、赤外光(Ir)が透過するフィルタに対応する画素を用いる(図23、S14)。画像処理部104では、検査領域特定部112により、距離画像の画像情報に基づき、画像検査を行う検査領域を特定する(図23、S16)。また、検査処理部113において、濃淡画像の中で、検査領域特定部が特定した検査領域に対してのみ、検査処理、例えば対象物として撮像した部品の良否判定を行う(図23、S18)。この判定結果はコントローラ106へ転送され、判定結果に基づいて後段の工程の搬送ロボット116などの生産機器の動作が制御される(図23、S20)。 The grayscale image generation unit 110 and the distance image generation unit 111 are stereo-imaged in the same manner as described above, generate a grayscale image and a distance image based on the two image data, and transfer the grayscale image and the distance image to the image processing unit 104. To do. In the generation of the grayscale image, among the wavelength filters 108 of the image pickup apparatus 101, the pixels corresponding to the filters that transmit the light in the wavelength bands of red (R), green (G), and blue (B) are used. Further, in the generation of the distance image, pixels corresponding to the filter through which infrared light (Ir) is transmitted are used (FIGS. 23 and S14). The image processing unit 104 specifies an inspection area for image inspection based on the image information of the distance image by the inspection area specifying unit 112 (FIGS. 23 and S16). In addition, the inspection processing unit 113 performs inspection processing, for example, quality determination of a component imaged as an object, only for the inspection area specified by the inspection area specifying unit in the shade image (FIGS. 23 and S18). This determination result is transferred to the controller 106, and the operation of the production equipment such as the transfer robot 116 in the subsequent process is controlled based on the determination result (FIGS. 23 and S20).

以上のように、本実施形態でも、濃淡画像と距離画像を一度の撮像で取得することができ、濃淡画像と距離画像を使用した部品の良否の検査を高速に実施することができる。 As described above, also in the present embodiment, the shading image and the distance image can be acquired by one imaging, and the quality inspection of the component using the shading image and the distance image can be performed at high speed.

続いて、以下では本実施形態の構成をより詳細に説明する。前記のように本実施形態における検査システムの構成は図1と同様であり、部品105、コントローラ106、画像処理部104などの構成は、実施形態1と同様である。実施形態1と異なるのは、以下の照明装置および波長フィルタの構成である。 Subsequently, the configuration of the present embodiment will be described in more detail below. As described above, the configuration of the inspection system in the present embodiment is the same as that in FIG. 1, and the configurations of the parts 105, the controller 106, the image processing unit 104, and the like are the same as those in the first embodiment. The difference from the first embodiment is the configuration of the following lighting device and wavelength filter.

濃淡画像取得用照明装置102の部材配置は実施形態1(図3)と同様であるが、例えばLED素子の発光波長は青色(B)、緑色(G)、赤色(R)の波長帯を含む白色とする。距離画像取得用照明装置103の部材配置は実施形態1(図4)と同様であるが、例えばLED素子の発光波長は赤外線(Ir)の波長域とする。 The member arrangement of the shading image acquisition lighting device 102 is the same as that of the first embodiment (FIG. 3), but the emission wavelength of the LED element includes, for example, the wavelength bands of blue (B), green (G), and red (R). Make it white. The member arrangement of the distance image acquisition lighting device 103 is the same as that of the first embodiment (FIG. 4), but for example, the emission wavelength of the LED element is in the infrared (Ir) wavelength range.

撮像装置101は、2つの撮像素子107、107、2つの波長フィルタ108、108、2つのレンズ109、109、濃淡画像生成部110、距離画像生成部111から構成される。撮像装置101は、例えば一体のカメラとしての形態で製造されていてよい。撮像素子107およびレンズ109の構成は実施形態1と同様でよい。 The image pickup device 101 is composed of two image pickup elements 107, 107, two wavelength filters 108, 108, two lenses 109, 109, a grayscale image generation unit 110, and a distance image generation unit 111. The image pickup apparatus 101 may be manufactured, for example, in the form of an integrated camera. The configuration of the image sensor 107 and the lens 109 may be the same as in the first embodiment.

本実施形態の波長フィルタ108は、R(赤)G(緑)B(青)の組合せで構成される一般的なカラーフィルタとは少々、異なる。本実施形態の波長フィルタ108は、例えば図15に示すように、撮像素子の2×2画素毎に、R(赤)、G(緑)、Ir(赤外)、B(青)が配置されている。この構成は、図5の波長フィルタ108の2つ配置されたG(緑)のフィルタの1つをIr(赤外)に置換した構成に相当する。 The wavelength filter 108 of the present embodiment is slightly different from a general color filter composed of a combination of R (red) G (green) B (blue). In the wavelength filter 108 of the present embodiment, for example, as shown in FIG. 15, R (red), G (green), Ir (infrared), and B (blue) are arranged for every 2 × 2 pixels of the image sensor. ing. This configuration corresponds to a configuration in which one of the two arranged G (green) filters of the wavelength filter 108 of FIG. 5 is replaced with Ir (infrared).

この波長フィルタ108を通して撮像素子107により撮像された画像データでは、図16に示すように2×2画素毎に上段はR(赤)成分とG(緑)成分、下段はIr(赤外)成分、B(青)成分の波長帯の画素が並ぶ。なお、この色配置は一例であって、フィルタのR(赤)、G(緑)、B(青)、Ir(赤外)の配置は上記と異なる任意の順番や組合せであってもよい。また、本実施形態では、カラー1画素毎に波長成分を異ならせる波長フィルタを用いるが、2×2画素分を1波長にする、あるいは所定のサイズの領域を1波長にするなど、波長を異ならせる単位を変更して波長フィルタを構成してもよい。2つの撮像素子107、107のそれぞれに同一の波長フィルタ108、108を配置する。 In the image data captured by the image sensor 107 through the wavelength filter 108, as shown in FIG. 16, the upper row shows the R (red) component and the G (green) component, and the lower row shows the Ir (infrared) component for each 2 × 2 pixel. , B (blue) component wavelength band pixels are lined up. Note that this color arrangement is an example, and the arrangement of R (red), G (green), B (blue), and Ir (infrared) of the filter may be in any order or combination different from the above. Further, in the present embodiment, a wavelength filter having a different wavelength component for each color pixel is used, but if the wavelengths are different, such as setting 2 × 2 pixels to one wavelength or setting a predetermined size region to one wavelength. The wavelength filter may be configured by changing the unit to be set. The same wavelength filters 108 and 108 are arranged on the two image pickup devices 107 and 107, respectively.

濃淡画像生成部110は、図17に示すように、撮像された2枚の画像データのうち、どちらか1枚の画像(1071)に対してIr(赤外)成分の画素を無視し、R(赤)、G(緑)、B(青)成分の画素のみを抽出する(1076)。撮像素子の機能によりフィルタの2×2画素を1ブロックとして、間引きもしくはビニングをした上で画像を出力する場合は、同様にR(赤)G(緑)B(青)Ir(赤外)の所定の画素のみを抽出することができる。その後、抽出した画像に対して既知のベイヤー現像処理を施した上でグレースケール化し、濃淡画像を生成することができる。この濃淡画像は、カラー画像であるが、図9のような構成となる。なお、本実施形態では濃淡画像生成部110を撮像装置101に設けているが、濃淡画像生成部110は画像処理部104の側に設けてもよい。その場合、撮像装置101で撮像した画像はそのまま画像処理部104へ転送し、画像処理部104の側で濃淡画像を生成してもよい。 As shown in FIG. 17, the grayscale image generation unit 110 ignores the pixels of the Ir (infrared) component with respect to either one of the two captured image data (1071), and R Only the pixels of the (red), G (green), and B (blue) components are extracted (1076). When the 2x2 pixels of the filter are set as one block by the function of the image sensor and the image is output after thinning or binning, the same applies to R (red) G (green) B (blue) Ir (infrared). Only a predetermined pixel can be extracted. After that, the extracted image can be subjected to a known Bayer development process and then grayscaled to generate a grayscale image. Although this shade image is a color image, it has the configuration shown in FIG. In the present embodiment, the shading image generation unit 110 is provided in the image pickup apparatus 101, but the shading image generation unit 110 may be provided on the side of the image processing unit 104. In that case, the image captured by the image pickup apparatus 101 may be transferred to the image processing unit 104 as it is, and a shading image may be generated on the side of the image processing unit 104.

一方、距離画像生成部111は、図18に示すように、撮像で得られた2枚の画像データの両方について、R(赤)、G(緑)、B(青)成分の画素を無視し、Ir(赤外)成分の画素のみを抽出する(1071、1077)。なお、撮像素子の機能によりフィルタの2×2画素を1ブロックとして、間引きもしくはビニングをした上で画像を出力する場合にも、同様にR(赤)G(緑)B(青)Ir(赤外)の所定の画素のみを抽出することができる。その後、抽出した画像に対して既知のベイヤー現像処理を施した上でグレースケール化し、ステレオ処理可能な2枚のグレースケール画像を得る。さらに、既知のステレオ法を用い、2枚のグレースケール画像のステレオ対応付けを行って各画素について視差を算出し、距離画像を生成する。この距離画像は撮像されている対象物の距離情報を有する。 On the other hand, as shown in FIG. 18, the distance image generation unit 111 ignores the pixels of the R (red), G (green), and B (blue) components for both of the two image data obtained by imaging. , Only the pixels of the Ir (infrared) component are extracted (1071, 1077). In addition, when the image is output after thinning or binning the 2 × 2 pixels of the filter as one block by the function of the image sensor, R (red) G (green) B (blue) Ir (red) is also used. Only predetermined pixels (outside) can be extracted. Then, the extracted image is subjected to a known Bayer development process and then grayscaled to obtain two grayscale images capable of stereo processing. Further, using a known stereo method, two grayscale images are associated with each other in stereo, parallax is calculated for each pixel, and a distance image is generated. This distance image has distance information of the object being imaged.

距離画像は、図10のように、例えば撮像装置からの距離が遠いほど明るく、距離が近いほど暗い輝度値で表現された画像として生成する。本実施形態における距離画像は、各画素に対する距離データとして32bitの浮動小数点データを持つものとする。なお、本実施形態では距離画像生成部111を撮像装置101の中に設けたが、距離画像生成部111を画像処理部104に設けてもよい。その場合、撮像装置101で撮像した画像をそのまま画像処理部104へ転送し、画像処理部の側で距離画像を生成することができる。 As shown in FIG. 10, the distance image is generated as an image represented by a brightness value that is brighter as the distance from the image pickup apparatus is longer and darker as the distance is shorter. The distance image in the present embodiment has 32 bits of floating point data as the distance data for each pixel. Although the distance image generation unit 111 is provided in the image pickup apparatus 101 in the present embodiment, the distance image generation unit 111 may be provided in the image processing unit 104. In that case, the image captured by the image pickup apparatus 101 can be transferred to the image processing unit 104 as it is, and the distance image can be generated on the image processing unit side.

なお、本実施形態では濃淡画像の撮像に白色の照明光を用い、距離画像の撮像に赤外波長の照明光を用いている。しかしながら、それぞれ異なる照明態様の濃淡画像と距離画像で互いに照明光の波長帯が異なっていれば、濃淡画像と距離画像の各々について、他の波長帯の照明光を用い、それに対応した波長フィルタを用いることができる。 In this embodiment, white illumination light is used for capturing a grayscale image, and infrared wavelength illumination light is used for imaging a distance image. However, if the wavelength bands of the illumination light are different between the shade image and the distance image of different illumination modes, the illumination light of another wavelength band is used for each of the shade image and the distance image, and the corresponding wavelength filter is used. Can be used.

搬送ロボット116は、例えば良否判定結果に基づいてコントローラ106が指令する指令内容に基づき動作させる。例えば部品の検査結果が良品の場合は、搬送ロボットが部品を把持して後工程へ搬送し、部品の検査結果が不良品であれば、システムを停止して警告音を発生させる。 The transfer robot 116 is operated based on a command content commanded by the controller 106 based on, for example, a quality determination result. For example, if the inspection result of the part is a non-defective product, the transfer robot grasps the part and conveys it to a subsequent process, and if the inspection result of the part is a defective product, the system is stopped and a warning sound is generated.

以上のように、本実施形態によれば、濃淡画像をR(赤)、G(緑)、B(青)の全ての成分を使って生成することができる。従って、良否判定などのための画像処理に、多くの色情報が必要な場合でも、所期の画像検査を適切に実施できる。そして、実施形態1で説明したのと同様に、複雑な背景がカメラに写り込むような環境での部品の良否判定を安定的かつ高速に検査することができる。 As described above, according to the present embodiment, a shade image can be generated by using all the components of R (red), G (green), and B (blue). Therefore, even when a large amount of color information is required for image processing for quality determination, the desired image inspection can be appropriately performed. Then, as described in the first embodiment, it is possible to stably and quickly inspect the quality of the component in an environment where a complicated background is reflected in the camera.

<実施形態4>
前述した実施形態1および実施形態3では、距離画像(距離情報)を取得するために撮像装置101がステレオ構成であり、2つの撮像素子、2つの波長フィルタ、2つのレンズを備える。この構成はいわゆる単眼構成のカメラ、例えば単一の撮像素子、波長フィルタおよびレンズを使用する構成と比較してシステムが複雑であり高価になりがちである。また、実施形態2はプロジェクタを用いており、やはりシステムが複雑であり高価になる可能性がある。
<Embodiment 4>
In the first and third embodiments described above, the image pickup device 101 has a stereo configuration for acquiring a distance image (distance information), and includes two image pickup elements, two wavelength filters, and two lenses. This configuration tends to be more complex and expensive than a so-called monocular camera, eg, a configuration using a single image sensor, wavelength filter and lens. Further, the second embodiment uses a projector, and the system may be complicated and expensive.

そこで、本実施形態では、よりシンプルな構成、背景除去などのための距離画像(距離情報)を取得し、かつ部品の良否判定などの画像検査を安定的かつ高速に実行できる構成を考える。本実施形態では、例えば、撮像装置101に撮像面位相差センサで構成した撮像素子を用い、距離画像(距離情報)を取得する。 Therefore, in the present embodiment, a configuration is considered in which a simpler configuration, a distance image (distance information) for background removal, etc. can be acquired, and an image inspection such as a quality judgment of a part can be performed stably and at high speed. In the present embodiment, for example, a distance image (distance information) is acquired by using an image sensor composed of an image pickup surface phase difference sensor in the image pickup device 101.

図19に本実施形態に係る画像処理装置の構成を示す。同図に示すように、この画像処理装置は、撮像装置101、画像処理部104、濃淡画像取得用照明装置102、距離画像取得用照明装置103、およびコントローラ106を備える。 FIG. 19 shows the configuration of the image processing apparatus according to the present embodiment. As shown in the figure, this image processing device includes an image pickup device 101, an image processing unit 104, a shading image acquisition lighting device 102, a distance image acquisition lighting device 103, and a controller 106.

撮像装置101は、撮像素子107、波長フィルタ108、レンズ109、濃淡画像生成部110、距離画像生成部111を備える。図示のように、撮像装置101は単眼構成であり、図1のようなステレオカメラ構成ではない。また、画像処理部104は、検査領域特定部112、および検査処理部113を備える。 The image pickup device 101 includes an image pickup element 107, a wavelength filter 108, a lens 109, a grayscale image generation unit 110, and a distance image generation unit 111. As shown in the figure, the image pickup apparatus 101 has a monocular configuration, not a stereo camera configuration as shown in FIG. Further, the image processing unit 104 includes an inspection area specifying unit 112 and an inspection processing unit 113.

図19の制御系周りの構成は、図1と同等である。コントローラ106は、撮像指令によって撮像装置101の動作を、また、照明制御指令によって濃淡画像取得用照明装置102、および距離画像取得用照明装置103の動作を制御する。コントローラ106は、画像処理部104の処理結果に応じて、ロボット制御指令によって搬送ロボット116の動作を制御する。搬送ロボット116は、架台115上に配置された置き台114上あるいはその周辺に載置された部品105を操作する。この搬送ロボット116の操作によって、部品105から工業製品ないしその部品アセンブリなどの物品が製造される。 The configuration around the control system of FIG. 19 is the same as that of FIG. The controller 106 controls the operation of the imaging device 101 by the imaging command, and controls the operation of the shading image acquisition lighting device 102 and the distance image acquisition lighting device 103 by the lighting control command. The controller 106 controls the operation of the transfer robot 116 by a robot control command according to the processing result of the image processing unit 104. The transfer robot 116 operates a component 105 placed on or around a stand 114 arranged on the stand 115. By the operation of the transfer robot 116, an article such as an industrial product or a component assembly thereof is manufactured from the component 105.

部品を検査する処理の全体の流れは、これまでに図23を参照して説明してきた態様と同等である。次に、各構成要素の詳細を説明する。 The overall flow of the process of inspecting the parts is the same as that described so far with reference to FIG. Next, the details of each component will be described.

撮像装置101は、例えば撮像素子107、波長フィルタ108、レンズ109、濃淡画像生成部110、距離画像生成部111から構成される。撮像装置101は、例えば例えば一体のカメラとしての形態で製造されるものであってよい。 The image pickup device 101 is composed of, for example, an image pickup element 107, a wavelength filter 108, a lens 109, a grayscale image generation unit 110, and a distance image generation unit 111. The image pickup apparatus 101 may be manufactured, for example, in the form of an integrated camera.

本実施形態の撮像装置101において、撮像素子107とレンズ109は、撮像面位相差方式のカメラと同様に構成されている。周知のように撮像面位相差方式では、撮像素子107の複数画素が、それぞれ2つの光電変換部(フォトダイオード)を備える。この2つの光電変換部(フォトダイオード)を備えた複数の画素は、撮像素子107の受光面に一定のパターンで規則的に配置されるか、あるいは可能であれば全画素が2つの光電変換部を備えた構成であってもよい。 In the image pickup apparatus 101 of the present embodiment, the image pickup device 107 and the lens 109 are configured in the same manner as the camera of the imaging surface phase difference type. As is well known, in the image pickup surface phase difference method, each of a plurality of pixels of the image pickup device 107 includes two photoelectric conversion units (photodiodes). A plurality of pixels provided with these two photoelectric conversion units (photodiodes) are regularly arranged in a constant pattern on the light receiving surface of the image sensor 107, or if possible, all the pixels are two photoelectric conversion units. It may be a configuration including.

撮像面位相差方式では、カメラ光学系の射出瞳における異なる2つの領域(部分瞳)を通過した光束によって形成される一対の画像(以下、A像、B像と呼ぶことがある)が得られる。従って、本実施形態の撮像装置101は、実施形態1、3などのステレオカメラと同様に、A像、B像から視差を求め、当該視差から三角測量の原理に基づいて対象物上の特定の計測点の撮像距離を測定することができる。 In the imaging surface phase difference method, a pair of images (hereinafter, may be referred to as A image and B image) formed by light flux passing through two different regions (partial pupils) in the exit pupil of the camera optical system can be obtained. .. Therefore, the image pickup device 101 of the present embodiment obtains the parallax from the A image and the B image, and is specific on the object based on the principle of triangulation from the parallax, like the stereo cameras of the first and third embodiments. The imaging distance of the measurement point can be measured.

図19の撮像素子107は、例えば上記の2つの光電変換部を備えるCMOSイメージセンサであり、各々の光電変換部では例えば8bitのビット深度を持つ画像データが得られる。撮像した画像データの入出力は、例えばLVDS方式により行うことができ、A像、B像の2つの画像データを素子外へ出力する。撮像素子107とレンズ109を組み合わせた撮像光学系は、撮像画像データ状の水平方向および垂直方向について、部品の寸法、例えば直径の2倍程度の撮影視野を持つよう構成される。撮像素子107は、SPIやI2C等の通信を介して、内蔵するレジスタへ設定値を書込んだ上で画像データを読み出す。また、撮像素子107は、素子内部あるいは外部で発行された撮影トリガを受信し、画像の撮像を開始することができる。 The image sensor 107 of FIG. 19 is, for example, a CMOS image sensor including the above two photoelectric conversion units, and each photoelectric conversion unit can obtain image data having, for example, an 8-bit bit depth. The input / output of the captured image data can be performed by, for example, the LVDS method, and two image data of the A image and the B image are output to the outside of the element. The image pickup optical system in which the image pickup element 107 and the lens 109 are combined is configured to have a shooting field of about twice the size of the component, for example, the diameter in the horizontal direction and the vertical direction of the captured image data. The image sensor 107 reads the image data after writing the set value to the built-in register via communication such as SPI or I2C. Further, the image pickup device 107 can receive a shooting trigger issued inside or outside the device and start capturing an image.

撮像装置101は、濃淡画像取得用照明装置102および距離画像取得用照明装置103が点灯状態となった後、コントローラ106から発行される撮像指令により、画像の撮像を行う。また、撮像素子107はレジスタへの設定値書き込みにより、間引き撮像やビニング撮像を行うことができるものとする。 After the light-shade image acquisition lighting device 102 and the distance image acquisition lighting device 103 are turned on, the image pickup device 101 captures an image by an imaging command issued from the controller 106. Further, the image sensor 107 can perform thinning imaging and binning imaging by writing a set value to a register.

濃淡画像生成部110、距離画像生成部111は、濃淡画像と距離画像を生成し、画像処理部104に転送する。濃淡画像生成部110の処理は、実施形態1や3の場合と同等で、濃淡画像は、実施形態1と同様に図9のような形態で生成される。一方、距離画像生成部111は、A像、B像の2つの画像データを実施形態1のステレオ撮像の場合と同等に取り扱うことができ、A像、B像の視差から距離情報を有する距離画像を生成することができる。距離画像生成部111が生成する距離画像は、実施形態1と同様に、例えば、図10に示すように撮像装置101からの距離が遠いほど明るく、距離が近いほど暗い輝度値で表現された形態とすることができる。 The shading image generation unit 110 and the distance image generation unit 111 generate a shading image and a distance image and transfer them to the image processing unit 104. The processing of the grayscale image generation unit 110 is the same as that of the first and third embodiments, and the grayscale image is generated in the same manner as in the first embodiment as shown in FIG. On the other hand, the distance image generation unit 111 can handle the two image data of the A image and the B image in the same manner as in the case of the stereo imaging of the first embodiment, and has the distance information from the parallax of the A image and the B image. Can be generated. Similar to the first embodiment, the distance image generated by the distance image generation unit 111 is represented by a brightness value that is brighter as the distance from the image pickup apparatus 101 is longer and darker as the distance is shorter, for example, as shown in FIG. Can be.

以降の画像処理による部品105の画像検査は、上述同様に実施でき、例えば部品105の良否判定結果に応じて部品105を扱う生産ラインに配置された生産機器、例えば搬送ロボット116の動作を制御することができる。例えば、良否判定結果に基づいてコントローラ106が指令する指令内容に基づき搬送ロボット116を動作させることができる。例えば部品の検査結果が良品の場合は、搬送ロボットが部品を把持して後工程へ搬送し、部品の検査結果が不良品であれば、システムを停止して警告音を発生させる。 The subsequent image inspection of the component 105 by image processing can be performed in the same manner as described above. For example, the operation of the production equipment arranged on the production line handling the component 105, for example, the transfer robot 116, is controlled according to the quality determination result of the component 105. be able to. For example, the transfer robot 116 can be operated based on the command content commanded by the controller 106 based on the pass / fail determination result. For example, if the inspection result of the part is a non-defective product, the transfer robot grasps the part and conveys it to a subsequent process, and if the inspection result of the part is a defective product, the system is stopped and a warning sound is generated.

本実施形態によれば、一組の撮像素子、波長フィルタ、レンズで撮像装置を構成でき、簡単安価な構成によって、一度の撮像で、それぞれ適切な照明態様で濃淡画像と距離画像を取得できる。従って、例えば複雑な背景がカメラに写り込むような環境での部品の良否判定を安定的かつ高速に検査することができる。 According to the present embodiment, an image pickup device can be configured with a set of image pickup elements, a wavelength filter, and a lens, and with a simple and inexpensive configuration, it is possible to acquire a shade image and a distance image in appropriate lighting modes by one imaging. Therefore, for example, it is possible to stably and quickly inspect the quality of parts in an environment where a complicated background is reflected in the camera.

<実施形態5>
前述した実施形態1では、撮像装置101、濃淡画像取得用照明装置102、距離画像取得用照明装置103、画像処理部104が別体の構成で設置手順が複雑になりがちである。本実施形態では、これらの構成部材を一体ユニットとして設ける構成を示す。
<Embodiment 5>
In the above-described first embodiment, the image pickup device 101, the shading image acquisition lighting device 102, the distance image acquisition lighting device 103, and the image processing unit 104 are separately configured, and the installation procedure tends to be complicated. In the present embodiment, a configuration in which these constituent members are provided as an integrated unit is shown.

図20に、本実施形態の画像処理装置の構成を示す。同図に示すように、この画像処理装置は撮像装置101、濃淡画像取得用照明装置102、距離画像取得用照明装置103、画像処理部104を一体の筐体に収容した検査ユニット117を備える。これらの個々の構成部材の機能は、上述の実施形態のものと同等である。この検査ユニット117をコントローラ106に接続することにより検査システムが構成される。 FIG. 20 shows the configuration of the image processing apparatus of this embodiment. As shown in the figure, this image processing device includes an imaging device 101, a shading image acquisition lighting device 102, a distance image acquisition lighting device 103, and an inspection unit 117 in which an image processing unit 104 is housed in an integrated housing. The functions of these individual components are equivalent to those of the embodiments described above. An inspection system is configured by connecting the inspection unit 117 to the controller 106.

撮像装置101と濃淡画像取得用照明装置102と距離画像取得用照明装置103と画像処理部104は、検査ユニット117の筐体に位置を固定される。ただし、濃淡画像取得用照明装置102と距離画像取得用照明装置103などについては、各々、位置や角度を調整可能にするための調整機構を備えてもよい。また、濃淡画像取得用照明装置102と距離画像取得用照明装置103は、各々、着脱可能とし、照明装置の種類・サイズ・発光波長を変更できるようにしてもよい。 The positions of the image pickup device 101, the shading image acquisition lighting device 102, the distance image acquisition lighting device 103, and the image processing unit 104 are fixed to the housing of the inspection unit 117. However, the shading image acquisition lighting device 102, the distance image acquisition lighting device 103, and the like may each be provided with an adjustment mechanism for making the position and angle adjustable. Further, the shading image acquisition lighting device 102 and the distance image acquisition lighting device 103 may be detachably attached to each other so that the type, size, and emission wavelength of the lighting device can be changed.

部品を検査する処理の全体の流れは、これまでに図23を参照して説明してきた態様と同等である。次に、各構成要素の詳細を説明する。 The overall flow of the process of inspecting the parts is the same as that described so far with reference to FIG. Next, the details of each component will be described.

本実施形態では、一体の筐体に各部を収容できるよう、特に照明装置については次のような構成を採用している。 In the present embodiment, the following configuration is adopted especially for the lighting device so that each part can be housed in an integrated housing.

本実施形態では距離画像生成部111に実施形態2で示した濃淡画像取得用照明装置102は、実施形態1、3などで距離画像取得用照明装置103として用いた例えば、図4に示す形態を有するLED照明装置である。本実施形態では、下記のように距離画像取得用照明装置103に実施形態2のようなプロジェクタを用いるため、必ずしも実施形態1、3などのような平行光照明でなくても構わない。逆に、上記の実施形態2でも、濃淡画像取得用照明装置102に例えば、図4のようなLED照明装置を用いることも考えられる。本実施形態では、濃淡画像取得用照明装置102の発光波長は例えば青色(B)とする。濃淡画像取得用照明装置102は、部品の検査の際、撮像に先立ってコントローラ106からの照明制御指令に基づいて所定の輝度で部品を照明する。 In the present embodiment, the shading image acquisition lighting device 102 shown in the second embodiment in the distance image generation unit 111 is used as the distance image acquisition lighting device 103 in the first and third embodiments, for example, the embodiment shown in FIG. It is an LED lighting device having. In the present embodiment, since the projector as in the second embodiment is used for the distance image acquisition lighting device 103 as described below, the parallel light illumination as in the first and third embodiments is not necessarily required. Conversely, also in the second embodiment, it is conceivable to use, for example, the LED lighting device as shown in FIG. 4 for the light and shade image acquisition lighting device 102. In the present embodiment, the emission wavelength of the shading image acquisition lighting device 102 is, for example, blue (B). When inspecting a component, the shading image acquisition lighting device 102 illuminates the component with a predetermined brightness based on a lighting control command from the controller 106 prior to imaging.

距離画像取得用照明装置103は、実施形態2で示したような例えば既知のDMDデバイスを搭載したプロジェクタ構成である。プロジェクタの照明態様は、実施形態2において図14や図22で説明した通りで、部品表面にランダムなテクスチャを投影することによりステレオ対応付けの特徴点を得ることができる。本実施形態では、距離画像取得用照明装置103の発光波長は赤色(R)とする。距離画像取得用照明装置103は、部品の検査の際に、撮像に先立ってコントローラ106からの照明制御指令に基づいて所定の輝度で部品を照明する。撮像時は、1回の撮像で濃淡画像と距離画像を取得すべく、濃淡画像取得用照明装置102と距離画像取得用照明装置103の両方により部品が照明されている状態とすることができる。 The distance image acquisition lighting device 103 has a projector configuration equipped with, for example, a known DMD device as shown in the second embodiment. The illumination mode of the projector is as described with reference to FIGS. 14 and 22 in the second embodiment, and the feature points of the stereo association can be obtained by projecting a random texture on the surface of the component. In the present embodiment, the emission wavelength of the distance image acquisition lighting device 103 is red (R). When inspecting a component, the distance image acquisition lighting device 103 illuminates the component with a predetermined brightness based on a lighting control command from the controller 106 prior to imaging. At the time of imaging, the parts can be illuminated by both the shading image acquisition lighting device 102 and the distance image acquisition lighting device 103 in order to acquire the shading image and the distance image in one imaging.

実際の検査の手順は、プロジェクタによる距離画像取得用照明装置103を用いた実施形態2のものと同様であるため、ここでは重複した説明は省略する。本実施形態によれば、画像処理装置をシンプルなシステム構成とすることができ、上述の実施形態と同様にそれぞれに適切な照明態様で取得した濃淡画像と距離画像に基づき、部品の良否判定などの画像検査を安定的かつ高速に検査することができる。また、撮像装置や照明装置が一体の検査ユニット117として構成されており、検査ユニット117をコントローラ106に接続するだけで短時間で簡単にシステムを設置することができる。 Since the actual inspection procedure is the same as that of the second embodiment using the lighting device 103 for acquiring a distance image by a projector, a duplicate description will be omitted here. According to this embodiment, the image processing device can have a simple system configuration, and the quality of parts can be determined based on the shading image and the distance image acquired in the appropriate lighting modes as in the above-described embodiment. Image inspection can be performed stably and at high speed. Further, the imaging device and the lighting device are configured as an integrated inspection unit 117, and the system can be easily installed in a short time simply by connecting the inspection unit 117 to the controller 106.

<実施形態6>
前述の実施形態1では、最終的な検査処理を2次元の濃淡画像(第1の画像)により行うものとし、距離画像(第2の画像)によって濃淡画像(第1の画像)に対して行う画像検査の検査領域を決定する例を示した。
<Embodiment 6>
In the above-described first embodiment, the final inspection process is performed on the two-dimensional shading image (first image) and on the shading image (first image) by the distance image (second image). An example of determining the inspection area for image inspection is shown.

しかしながら、特定の画像検査方式、あるいは対象物の部品の形態などによっては、撮像されている対象物の奥行情報が検査に重要な情報である場合なども考えられ、距離画像(第2の画像)を用いて画像検査処理を行いたい、という需要も存在し得る。また、画像検査処理に、濃淡画像(第1の画像)および距離画像(第2の画像)の双方を利用したい、という需要も考えられる。 However, depending on the specific image inspection method or the form of the parts of the object, the depth information of the object being imaged may be important information for inspection, and the distance image (second image). There may also be a demand for performing image inspection processing using. In addition, there may be a demand for using both a shading image (first image) and a distance image (second image) for the image inspection process.

一般化すれば、本明細書で扱う画像処理は、濃淡画像(第1の画像)および/または距離画像(第2の画像)から取得した対象物の距離情報を用いて、濃淡画像(第1の画像)および/または距離画像(第2の画像)の検査領域を決定するものであってよい。 Generally speaking, the image processing dealt with in the present specification uses the distance information of the object acquired from the grayscale image (first image) and / or the distance image (second image), and the grayscale image (first image). Image) and / or distance image (second image) may determine the inspection area.

そこで、以下では、一例として、検査領域特定部112で濃淡画像を用いた上で、検査処理部113では特定した検査領域に対して距離画像により画像検査処理を行う例につき説明する。 Therefore, in the following, as an example, an example will be described in which the inspection area specifying unit 112 uses a shading image and then the inspection processing unit 113 performs image inspection processing on the specified inspection area using a distance image.

本実施形態に係る画像検査システムの構成は、例えば図1と同様でよい。本実施形態における実際に部品を検査する処理の流れ(図23)は次のようなものである。 The configuration of the image inspection system according to the present embodiment may be the same as that shown in FIG. 1, for example. The flow of the process of actually inspecting the parts in the present embodiment (FIG. 23) is as follows.

まず、コントローラの照明制御指令により濃淡画像取得用照明装置102と距離画像取得用照明装置103の両方を点灯した状態とする(図23のS10)。この状態で、コントローラの撮像指令により2つの撮像装置101で画像を撮像し、2枚の画像データを得る(図23のS12)。この時、例えば、濃淡画像取得用照明装置102は、青色(B)の照明光を照射し、距離画像取得用照明装置103は、赤色(R)の照明光を照射するものとする。 First, both the shading image acquisition lighting device 102 and the distance image acquisition lighting device 103 are turned on by the lighting control command of the controller (S10 in FIG. 23). In this state, an image is imaged by the two image pickup devices 101 according to the image pickup command of the controller, and two image data are obtained (S12 in FIG. 23). At this time, for example, the shading image acquisition illuminating device 102 irradiates the blue (B) illumination light, and the distance image acquisition illuminating device 103 irradiates the red (R) illumination light.

撮像装置101は、実施形態1と同様に、ステレオ撮像した2枚の画像データに基づき濃淡画像と距離画像を生成し(図23のS14)、濃淡画像と距離画像を画像処理部104に転送する。濃淡画像の生成(第1の画像生成工程)では、撮像装置101の波長フィルタ108のうち、青色(B)が透過するフィルタに対応する画素を使って濃淡画像を生成する。距離画像の生成(第2の画像生成工程)では、赤色(R)が透過するフィルタに対応する画素を使って距離画像を生成する。 Similar to the first embodiment, the image pickup apparatus 101 generates a shade image and a distance image based on the two image data captured in stereo (S14 in FIG. 23), and transfers the shade image and the distance image to the image processing unit 104. .. In the generation of the grayscale image (first image generation step), the grayscale image is generated by using the pixels corresponding to the filter through which the blue color (B) is transmitted among the wavelength filters 108 of the image pickup apparatus 101. In the generation of the distance image (second image generation step), the distance image is generated using the pixels corresponding to the filter through which the red color (R) is transmitted.

本実施形態では、画像処理部104では、検査領域特定部112が濃淡画像の画像情報に基づき、検査領域を特定する(図23のS16)。また、検査処理部113では、検査領域特定部112が特定した距離画像の検査領域に対してのみ、画像検査を実施(図23のS18)し、部品の良否を判定する。その画像検査の結果はコントローラ106へ転送され、コントローラ106は判定結果に基づいて搬送ロボット116などの生産機器を制御する(図23のS20)。 In the present embodiment, in the image processing unit 104, the inspection area specifying unit 112 specifies the inspection area based on the image information of the shading image (S16 in FIG. 23). Further, the inspection processing unit 113 performs an image inspection only on the inspection area of the distance image specified by the inspection area specifying unit 112 (S18 in FIG. 23), and determines the quality of the component. The result of the image inspection is transferred to the controller 106, and the controller 106 controls the production equipment such as the transfer robot 116 based on the determination result (S20 in FIG. 23).

以上の処理により、濃淡距離画像と距離画像を一度の撮像で取得することができ、濃淡画像と距離画像を使用して、画像検査、例えば部品の良否判定を、安定して、かつ高速に実施することができる。 By the above processing, the shading distance image and the distance image can be acquired by one imaging, and the image inspection, for example, the quality judgment of the part can be performed stably and at high speed by using the shading image and the distance image. can do.

続いて、画像処理装置の各構成要素の動作につき詳細に説明する。本実施形態における部品105、コントローラ106、濃淡画像取得用照明装置102、距離画像取得用照明装置103、撮像装置101は、実施形態1と同様の構成であるものとする。 Subsequently, the operation of each component of the image processing apparatus will be described in detail. The component 105, the controller 106, the shading image acquisition lighting device 102, the distance image acquisition lighting device 103, and the image pickup device 101 in this embodiment have the same configurations as those in the first embodiment.

画像処理部104は、検査領域特定部112と検査処理部113から構成され、撮像装置101から入力した濃淡画像及び距離画像を用い、検査領域特定および検査処理を実行する。実際の画像処理部104は、前述同様、例えばCPUを搭載したPC、ボードコンピュータ、GPU、FPGA等の演算装置などにより実装可能である。 The image processing unit 104 is composed of an inspection area specifying unit 112 and an inspection processing unit 113, and executes the inspection area identification and inspection processing using the grayscale image and the distance image input from the image pickup apparatus 101. As described above, the actual image processing unit 104 can be mounted by, for example, a PC equipped with a CPU, a board computer, an arithmetic unit such as a GPU or FPGA.

本実施形態の検査領域特定部112は、濃淡画像生成部110が生成した濃淡画像に基づき、矩形形状となる画像領域を検査領域として特定する。ここでは、図2のような部品105とその周囲の物体から成る対象物につき、部品105の画像検査を行うものとする。その場合、検査領域は、濃淡画像から、部品105が搭載された置き台114の上面の矩形形状を検出、ないし特定することにより決定できる。 The inspection area specifying unit 112 of the present embodiment specifies an image area having a rectangular shape as an inspection area based on the shade image generated by the shade image generation unit 110. Here, it is assumed that an image inspection of the component 105 is performed on an object composed of the component 105 and an object around the component 105 as shown in FIG. In that case, the inspection area can be determined by detecting or specifying the rectangular shape of the upper surface of the stand 114 on which the component 105 is mounted from the shade image.

置き台114の上面の矩形形状を検出するのであれば、例えばまず、濃淡画像(図9:301)の複数の直線エッジ成分を検出する。次に、検出した直線エッジ成分に基づき、公知の矩形検出処理を行うことにより濃淡画像中の矩形形状を検出する。これにより、矩形の内側を「1」、矩形の外側を「0」とした、図11のような二値画像を生成することができる。なお、濃淡画像から直線エッジ成分を検出する前に、ノイズを低減するための既知のフィルタをかけてもよい。このようにして得られる二値画像を、以降では「マスク画像」と呼び、後段の画像処理の検査領域として用いる。 If the rectangular shape of the upper surface of the stand 114 is to be detected, for example, first, a plurality of linear edge components of a shading image (FIG. 9: 301) are detected. Next, based on the detected linear edge component, a known rectangular shape detection process is performed to detect the rectangular shape in the grayscale image. As a result, it is possible to generate a binary image as shown in FIG. 11, in which the inside of the rectangle is "1" and the outside of the rectangle is "0". Before detecting the linear edge component from the shading image, a known filter for reducing noise may be applied. The binary image obtained in this way is hereinafter referred to as a "mask image" and is used as an inspection area for image processing in the subsequent stage.

検査処理部113は、上記のようにして検査領域特定部112が濃淡画像から生成したマスク画像、および距離画像を用いて画像検査を実行することができる。まず、距離画像に対して、検査領域特定部112が生成したマスク画像に基づき、マスキング処理を行う。具体的には、マスク画像の輝度値が「1」の画素では距離画像の輝度値をそのまま採用し、マスク画像の輝度値が「0」の画素では輝度値を0とする。 The inspection processing unit 113 can perform an image inspection using the mask image and the distance image generated by the inspection area specifying unit 112 from the shading image as described above. First, the distance image is masked based on the mask image generated by the inspection area specifying unit 112. Specifically, the brightness value of the distance image is adopted as it is for the pixel having the brightness value of "1" in the mask image, and the brightness value is set to 0 in the pixel having the brightness value of "0" in the mask image.

このようなマスキング処理により、図21のように部品のみが存在する距離画像が得られる。図21において、1301は上記マスク画像の輝度値の「0」に対応する領域で、置き台114の周囲の背景に相当する部位である。1303は上記マスク画像の輝度値の「1」に対応する領域で、置き台114上面の矩形形状に相当する部位である。1302は部品105の距離画像に相当する。 By such a masking process, a distance image in which only the parts are present can be obtained as shown in FIG. In FIG. 21, 1301 is a region corresponding to the brightness value “0” of the mask image, and is a portion corresponding to the background around the stand 114. Reference numeral 1303 is a region corresponding to the brightness value “1” of the mask image, and is a portion corresponding to a rectangular shape on the upper surface of the stand 114. 1302 corresponds to the distance image of the component 105.

このように生成された部品105のみが存在する距離画像(図21)に対して画像検査を行うことができる。距離画像を用いた画像検査としては、例えば部品105の良否検査として、部品105の高さ、即ち距離画像の奥行き方向に相当する厚みが、一定以上の大きさであるか否かを判定する処理などが考えられる。 An image inspection can be performed on a distance image (FIG. 21) in which only the component 105 thus generated exists. As an image inspection using a distance image, for example, as a quality inspection of a part 105, a process of determining whether or not the height of the part 105, that is, the thickness corresponding to the depth direction of the distance image is a certain size or more. And so on.

このような部品105の高さの検査では、例えば、部品105のみが存在する距離画像(図21)に対し、距離情報に基づく閾値処理を行い、距離画像を二値化する。 In such an inspection of the height of the component 105, for example, a threshold value process based on the distance information is performed on the distance image (FIG. 21) in which only the component 105 exists, and the distance image is binarized.

ここで、例えば置き台114の架台115からの高さが100mm、部品105の上面の特定部位の高さ(厚み)が20mmの仕様とし、仮にその特定部位の高さ(厚み)が10mm以下の部品105は不良品と判定するものとする。その場合、例えば閾値を架台115からの高さ110mmに相当する撮像距離に設定し、撮像されている部品105上面の高さに相当する撮像距離と閾値を比較することにより、部品105の仕上がりの寸法を判定することができる。 Here, for example, the height of the stand 114 from the gantry 115 is 100 mm, the height (thickness) of the specific portion on the upper surface of the component 105 is 20 mm, and the height (thickness) of the specific portion is 10 mm or less. Part 105 shall be determined to be defective. In that case, for example, the threshold value is set to an imaging distance corresponding to a height of 110 mm from the gantry 115, and the imaging distance corresponding to the height of the upper surface of the component 105 being imaged is compared with the threshold value to finish the component 105. The dimensions can be determined.

そして、例えば上記の閾値判定によって、架台115からの高さ110mmを超える画素の輝度値を「1」、高さ110mm以下の画素の輝度値を「0」、とする二値画像を取得する。この場合、生成した二値画像に対して、例えば「1」の画素値の面積(例えば「1」の画素値の数)を求め、面積が面積閾値よりも大きければ良品と判定し、面積閾値以下であれば不良品と判定するような良否判定を行うことができる。このようにして取得した良否判定結果は、コントローラ106に出力される。 Then, for example, by the above threshold value determination, a binary image is acquired in which the brightness value of the pixel having a height of more than 110 mm from the gantry 115 is "1" and the brightness value of the pixel having a height of 110 mm or less is "0". In this case, for example, the area of the pixel value of "1" (for example, the number of pixel values of "1") is obtained from the generated binary image, and if the area is larger than the area threshold value, it is determined as a non-defective product, and the area threshold value is determined. If it is as follows, it is possible to make a quality judgment such that it is judged as a defective product. The quality determination result obtained in this way is output to the controller 106.

搬送ロボット116は良否判定結果に基づいてコントローラが指令する指令内容に基づき動作させることができる。具体的には、部品の検査結果が良品の場合は、搬送ロボットが部品を把持して後工程へ搬送し、部品の検査結果が不良品であれば、システムを停止して警告音を発生させる、といった機器制御を行うことができる。 The transfer robot 116 can be operated based on the command content commanded by the controller based on the quality determination result. Specifically, if the inspection result of the part is non-defective, the transfer robot grabs the part and transfers it to the subsequent process, and if the inspection result of the part is defective, the system is stopped and a warning sound is generated. It is possible to control devices such as.

以上のように、本実施形態によれば、距離情報を用いた画像検査を行う場合でも適切な照明環境での濃淡画像と距離画像を一度の撮像で取得することができる。そのため、複雑な背景がカメラに写り込むような環境においても、確実に背景分離が可能で、部品の良否判定などの画像検査を安定的かつ高速に検査することができる。 As described above, according to the present embodiment, even when performing an image inspection using distance information, it is possible to acquire a shade image and a distance image in an appropriate lighting environment by one imaging. Therefore, even in an environment where a complicated background is reflected in the camera, the background can be reliably separated, and image inspection such as quality judgment of parts can be inspected stably and at high speed.

なお、ロボット装置が複数の関節を有する多関節ロボットアームを用いる場合を説明したが、関節の駆動源はサーボモータに限らず、例えば人工筋肉などであってもよい。また、上述した種々の実施形態は、制御装置に設けられる記憶装置の情報に基づき、伸縮、屈伸、上下移動、左右移動もしくは旋回の動作またはこれらの複合動作を自動的に行うことができる機械に適用可能である。 Although the case where the robot device uses an articulated robot arm having a plurality of joints has been described, the drive source of the joints is not limited to the servomotor, and may be, for example, an artificial muscle. Further, the various embodiments described above are for machines capable of automatically performing expansion / contraction, bending / stretching, up / down movement, left / right movement, turning operation, or a combined operation thereof based on information of a storage device provided in the control device. Applicable.

本発明は上述の実施例の1以上の機能を実現するプログラムをネットワーク又は記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. But it is feasible. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101…撮像装置、102…濃淡画像取得用照明装置、103…距離画像取得用照明装置、104…画像処理部、105…部品、106…コントローラ、107…撮像素子、108…波長フィルタ、109…レンズ、110…濃淡画像生成部、111…距離画像生成部、112…検査領域特定部、113…検査処理部、114…置き台、115…架台、116…搬送ロボット、117…検査ユニット。 101 ... image pickup device, 102 ... shading image acquisition lighting device, 103 ... distance image acquisition lighting device, 104 ... image processing unit, 105 ... parts, 106 ... controller, 107 ... image sensor, 108 ... wavelength filter, 109 ... lens , 110 ... shade image generation unit, 111 ... distance image generation unit, 112 ... inspection area identification unit, 113 ... inspection processing unit, 114 ... stand, 115 ... stand, 116 ... transfer robot, 117 ... inspection unit.

Claims (22)

第1の波長を含む第1の光を照射する第1の照明装置と、
前記第1の波長とは異なる第2の波長を含む第2の光を照射する第2の照明装置と、
対象物を撮像する撮像装置と、
前記第1の照明装置および前記第2の照明装置から前記対象物に前記第1の光および前記第2の光を照射した状態で前記撮像装置を用いて前記対象物を撮像するコントローラと、を備えた画像処理装置。
A first illuminating device that irradiates a first light including a first wavelength,
A second illuminating device that irradiates a second light containing a second wavelength different from the first wavelength,
An imaging device that captures an object and
A controller that uses the image pickup device to image the object in a state where the object is irradiated with the first light and the second light from the first lighting device and the second lighting device. An image processing device equipped.
請求項1に記載の画像処理装置において、
前記撮像装置の出力から、前記第1の波長を透過させる第1の光学フィルタを介して撮像された第1の画像を生成する第1の画像生成部と、
前記撮像装置の出力から、前記第2の波長を透過させる第2の光学フィルタを介して撮像された第2の画像を生成する第2の画像生成部と、を備えた画像処理装置。
In the image processing apparatus according to claim 1,
A first image generation unit that generates a first image captured through a first optical filter that transmits the first wavelength from the output of the image pickup apparatus.
An image processing device including a second image generation unit that generates a second image captured through a second optical filter that transmits the second wavelength from the output of the image pickup device.
請求項2に記載の画像処理装置において、
前記第2の画像および/または前記第1の画像から取得した前記対象物の距離情報を用いて前記第1の画像および/または前記第2の画像の検査領域を決定し、前記検査領域に対して画像処理を行うことにより、前記対象物を検査する画像処理部と、を備えた画像処理装置。
In the image processing apparatus according to claim 2,
The inspection area of the first image and / or the second image is determined using the distance information of the object obtained from the second image and / or the first image, and the inspection area is determined. An image processing device including an image processing unit that inspects the object by performing image processing.
請求項2または3に記載の画像処理装置において、前記撮像装置が、前記第1の光学フィルタを通過した撮像光で撮像された第1の画素データ、または、前記第2の光学フィルタを通過した撮像光で撮像された第2の画素データを出力する読み出し機構を備える画像処理装置。 In the image processing device according to claim 2 or 3, the image pickup device has passed through the first pixel data captured by the image pickup light that has passed through the first optical filter or the second optical filter. An image processing device including a readout mechanism that outputs second pixel data captured by the imaging light. 請求項2から4のいずれか1項に記載の画像処理装置において、前記第1の光学フィルタ、および前記第2の光学フィルタは、赤色を透過するフィルタ、緑色を透過するフィルタ、青色を透過するフィルタ、赤外線を透過するフィルタのうち、互いに異なるいずれか1つを、それぞれ備える画像処理装置。 In the image processing apparatus according to any one of claims 2 to 4, the first optical filter and the second optical filter are a filter that transmits red, a filter that transmits green, and a filter that transmits blue. An image processing device including one of a filter and a filter that transmits infrared rays, which are different from each other. 請求項1から3のいずれか1項に記載の画像処理装置において、前記撮像装置がステレオカメラであり、前記撮像装置が前記第2の画像としてステレオ撮像した画像データから前記対象物の距離情報が取得される画像処理装置。 In the image processing device according to any one of claims 1 to 3, the image pickup device is a stereo camera, and the distance information of the object is obtained from the image data stereo-captured by the image pickup device as the second image. Image processing device to be acquired. 請求項2から6のいずれか1項に記載の画像処理装置において、前記撮像装置の撮像素子が、2つの光電変換部を備える撮像面位相差センサを備え、前記第2の波長を含む撮像光により前記撮像面位相差センサが前記第2の画像として撮像した画像データから前記対象物の距離情報が取得される画像処理装置。 In the image processing apparatus according to any one of claims 2 to 6, the image pickup device of the image pickup device includes an image pickup surface phase difference sensor including two photoelectric conversion units, and the image pickup light including the second wavelength. An image processing device that acquires distance information of the object from image data captured by the image pickup surface phase difference sensor as the second image. 請求項6または7に記載の画像処理装置において、前記第1の照明装置が、前記撮像装置の撮像光軸と平行な照明光によって前記対象物に対して前記第1の光を照射する画像処理装置。 In the image processing apparatus according to claim 6 or 7, the image processing in which the first illumination device irradiates the object with the first light by illumination light parallel to the imaging optical axis of the imaging apparatus. apparatus. 請求項6から8のいずれか1項に記載の画像処理装置において、前記第2の照明装置が、前記対象物の周囲から前記対象物に対して前記第2の光を照射する照明装置である画像処理装置。 In the image processing device according to any one of claims 6 to 8, the second lighting device is a lighting device that irradiates the object with the second light from the surroundings of the object. Image processing device. 請求項1から5のいずれか1項に記載の画像処理装置において、前記第2の照明装置が、前記対象物に対して所定の明暗パターンを有するパターン光を照射するプロジェクタである画像処理装置。 The image processing device according to any one of claims 1 to 5, wherein the second lighting device is a projector that irradiates the object with pattern light having a predetermined light / dark pattern. 請求項10に記載の画像処理装置において、前記撮像装置が前記第2の画像として撮像した画像データの前記パターン光の画像から前記対象物の距離情報が取得される画像処理装置。 The image processing device according to claim 10, wherein the distance information of the object is acquired from the image of the pattern light of the image data captured by the image pickup device as the second image. 請求項1から11のいずれか1項に記載の画像処理装置において、前記第1の照明装置および/または前記第2の照明装置の照明光源がLED素子である画像処理装置。 The image processing device according to any one of claims 1 to 11, wherein the lighting light source of the first lighting device and / or the second lighting device is an LED element. 請求項1から11のいずれか1項に記載の画像処理装置において、前記第1の照明装置および/または前記第2の照明装置の照明光源がレーザ光源である画像処理装置。 The image processing device according to any one of claims 1 to 11, wherein the lighting light source of the first lighting device and / or the second lighting device is a laser light source. 請求項1から13のいずれか1項に記載の画像処理装置において、前記画像処理部は、前記検査領域に対する画像処理において、前記第1の画像および前記第2の画像を用いて前記対象物を検査する画像処理装置。 In the image processing apparatus according to any one of claims 1 to 13, the image processing unit uses the first image and the second image in image processing for the inspection area to perform the object. Image processing device to inspect. 請求項1から14のいずれか1項に記載の画像処理装置と、ロボット装置と、前記ロボット装置を制御し、前記ロボット装置に部品を操作させて物品の製造を実行させる制御装置と、を備えたロボットシステムにおいて、
前記画像処理装置が前記対象物としての前記部品を検査した検査結果に応じて、前記制御装置が前記ロボット装置を制御し物品の製造を行うロボットシステム。
The image processing device according to any one of claims 1 to 14, a robot device, and a control device that controls the robot device and causes the robot device to operate parts to execute manufacturing of an article. In the robot system
A robot system in which the control device controls the robot device to manufacture an article according to an inspection result in which the image processing device inspects the component as an object.
請求項15に記載のロボットシステムにおいて、
前記コントローラは、前記ロボット装置が前記対象物としての前記部品を操作している際に、前記第1の照明装置および前記第2の照明装置を用いて前記部品に前記第1の光および前記第2の光を照射し、前記撮像装置を用いて前記部品を撮像するロボットシステム。
In the robot system according to claim 15,
When the robot device operates the component as the object, the controller uses the first lighting device and the second lighting device to emit the first light and the first light to the component. A robot system that irradiates the light of 2 and images the component using the image pickup device.
請求項1から14のいずれか1項に記載の画像処理装置と、ロボット装置と、前記ロボット装置を制御し、前記ロボット装置に部品を操作させて物品の製造を実行させる制御装置と、を備えたロボットシステムにより物品を製造する物品の製造方法において、
前記画像処理装置が前記対象物としての前記部品を検査した検査結果に応じて、前記制御装置が前記ロボット装置を制御し物品の製造を行う物品の製造方法。
The image processing device according to any one of claims 1 to 14, a robot device, and a control device that controls the robot device and causes the robot device to operate parts to execute manufacturing of an article. In the manufacturing method of goods, which manufactures goods by a robot system
A method for manufacturing an article in which the control device controls the robot device to manufacture the article according to an inspection result in which the image processing device inspects the part as the object.
撮像装置により対象物を撮像した画像に画像処理を行う画像処理装置の制御方法において、
第1の照明装置および第2の照明装置を用いて第1の波長を含む第1の光と、前記第1の波長とは異なる第2の波長を含む第2の光と、を照射した状態で、前記撮像装置により前記対象物を撮像する撮像工程と、を含む制御方法。
In a control method of an image processing device that performs image processing on an image obtained by capturing an object with an image pickup device,
A state in which the first illuminating device and the second illuminating device are used to irradiate the first light including the first wavelength and the second light including the second wavelength different from the first wavelength. A control method comprising an imaging step of imaging the object with the imaging apparatus.
請求項18に記載の制御方法において、
前記撮像装置の出力から、前記第1の波長を透過させる第1の光学フィルタを介して撮像された第1の画像を生成する第1の画像生成工程と、
前記撮像装置の出力から、前記第2の波長を透過させる第2の光学フィルタを介して撮像された第2の画像を生成する第2の画像生成工程と、を含む制御方法。
In the control method according to claim 18,
A first image generation step of generating a first image captured through a first optical filter that transmits the first wavelength from the output of the image pickup apparatus.
A control method including a second image generation step of generating a second image captured through a second optical filter that transmits the second wavelength from the output of the image pickup apparatus.
請求項19に記載の制御方法において、
前記第2の画像および/または前記第1の画像から取得した前記対象物の距離情報を用いて前記第1の画像および/または前記第2の画像の検査領域を決定し、前記検査領域に対して前記画像処理を行うことにより、前記対象物を検査する検査工程と、を含む制御方法。
In the control method according to claim 19,
The inspection area of the first image and / or the second image is determined by using the distance information of the object obtained from the second image and / or the first image, and the inspection area is determined. A control method including an inspection step of inspecting the object by performing the image processing.
請求項17に記載の物品の製造方法、または請求項18から20のいずれか1項に記載の制御方法における各工程をコンピュータに実行させる制御プログラム。 A control program for causing a computer to execute each step in the method for manufacturing an article according to claim 17 or the control method according to any one of claims 18 to 20. 請求項21に記載の制御プログラムを格納した、コンピュータで読み取り可能な記録媒体。 A computer-readable recording medium containing the control program according to claim 21.
JP2019099479A 2019-05-28 2019-05-28 Image processing device, control method, control program, and computer-readable recording medium Pending JP2020193867A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019099479A JP2020193867A (en) 2019-05-28 2019-05-28 Image processing device, control method, control program, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019099479A JP2020193867A (en) 2019-05-28 2019-05-28 Image processing device, control method, control program, and computer-readable recording medium

Publications (1)

Publication Number Publication Date
JP2020193867A true JP2020193867A (en) 2020-12-03

Family

ID=73547529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019099479A Pending JP2020193867A (en) 2019-05-28 2019-05-28 Image processing device, control method, control program, and computer-readable recording medium

Country Status (1)

Country Link
JP (1) JP2020193867A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023162675A1 (en) * 2022-02-25 2023-08-31 パナソニックIpマネジメント株式会社 Imaging device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007294576A (en) * 2006-04-24 2007-11-08 Shibuya Kogyo Co Ltd Testing apparatus and testing method
JP2008064715A (en) * 2006-09-11 2008-03-21 Omron Corp Defect inspection device and defect inspection method
JP2012021914A (en) * 2010-07-15 2012-02-02 Keyence Corp Image processing system and visual inspection method
JP2017173259A (en) * 2016-03-25 2017-09-28 キヤノン株式会社 Measurement device, system, and goods manufacturing method
JP2019009511A (en) * 2017-06-20 2019-01-17 キヤノン株式会社 Distance information generating apparatus, imaging apparatus, distance information generating method, and program
JP2019027882A (en) * 2017-07-28 2019-02-21 マクセル株式会社 Object distance detector

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007294576A (en) * 2006-04-24 2007-11-08 Shibuya Kogyo Co Ltd Testing apparatus and testing method
JP2008064715A (en) * 2006-09-11 2008-03-21 Omron Corp Defect inspection device and defect inspection method
JP2012021914A (en) * 2010-07-15 2012-02-02 Keyence Corp Image processing system and visual inspection method
JP2017173259A (en) * 2016-03-25 2017-09-28 キヤノン株式会社 Measurement device, system, and goods manufacturing method
JP2019009511A (en) * 2017-06-20 2019-01-17 キヤノン株式会社 Distance information generating apparatus, imaging apparatus, distance information generating method, and program
JP2019027882A (en) * 2017-07-28 2019-02-21 マクセル株式会社 Object distance detector

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023162675A1 (en) * 2022-02-25 2023-08-31 パナソニックIpマネジメント株式会社 Imaging device

Similar Documents

Publication Publication Date Title
JP6945245B2 (en) Visual inspection equipment
CN108445007B (en) Detection method and detection device based on image fusion
KR102178903B1 (en) Visual inspection device and illumination condition setting method of visual inspection device
US11830179B2 (en) Food inspection assisting system, food inspection assisting apparatus and computer program
JP4514007B2 (en) Method and apparatus for inspecting appearance of subject
US20160267647A1 (en) Information processing apparatus, information processing method, and storage medium
JP7222796B2 (en) Image inspection system and image inspection method
JP2017198612A (en) Inspection device, inspection system, and method for manufacturing article
JP2008209211A (en) Foreign matter inspection apparatus and method
JP2009115613A (en) Foreign matter inspecting apparatus
JP2017207341A (en) Visual inspection method and visual inspection device of inspected object
JP2001229381A (en) Image processing check system and its method
JP2018138902A (en) Appearance inspection device and illumination device for appearance inspection
JP6771905B2 (en) Inspection equipment, inspection method and manufacturing method of goods
JP2020193867A (en) Image processing device, control method, control program, and computer-readable recording medium
JP2020169961A (en) Image inspection system and image inspection method
JP2009236648A (en) Visual inspection device
JP2008064715A (en) Defect inspection device and defect inspection method
JP5959430B2 (en) Bottle cap appearance inspection device and appearance inspection method
US11756186B2 (en) Workpiece inspection and defect detection system utilizing color channels
KR101740087B1 (en) Illumination device and illumination method for external quality inspection apparatus for agricultural produce
JP2004271205A (en) Defect inspection device of container mouth part
JP7231461B2 (en) Image inspection system and image inspection method
TWI655412B (en) Light source detection system and method
WO2024034261A1 (en) Solid-state imaging device and solid-state imaging system

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200206

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230125

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230718