JP2014035261A - Information processing method, information processor, program, imaging apparatus, inspection method, inspection device, and method of manufacturing substrate - Google Patents
Information processing method, information processor, program, imaging apparatus, inspection method, inspection device, and method of manufacturing substrate Download PDFInfo
- Publication number
- JP2014035261A JP2014035261A JP2012176432A JP2012176432A JP2014035261A JP 2014035261 A JP2014035261 A JP 2014035261A JP 2012176432 A JP2012176432 A JP 2012176432A JP 2012176432 A JP2012176432 A JP 2012176432A JP 2014035261 A JP2014035261 A JP 2014035261A
- Authority
- JP
- Japan
- Prior art keywords
- color component
- color
- images
- image
- component images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 149
- 230000010365 information processing Effects 0.000 title claims abstract description 75
- 238000003672 processing method Methods 0.000 title claims abstract description 45
- 239000000758 substrate Substances 0.000 title claims description 108
- 238000007689 inspection Methods 0.000 title claims description 96
- 238000000034 method Methods 0.000 title claims description 43
- 238000004519 manufacturing process Methods 0.000 title claims description 10
- 230000003287 optical effect Effects 0.000 claims abstract description 65
- 239000002131 composite material Substances 0.000 claims abstract description 43
- 238000012937 correction Methods 0.000 claims description 102
- 230000004075 alteration Effects 0.000 claims description 19
- 230000005540 biological transmission Effects 0.000 claims description 18
- 230000035945 sensitivity Effects 0.000 claims description 11
- 238000005286 illumination Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 15
- 238000005516 engineering process Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 15
- 238000005259 measurement Methods 0.000 description 10
- 229910000679 solder Inorganic materials 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 9
- 238000003702 image correction Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 230000032258 transport Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000005856 abnormality Effects 0.000 description 6
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 5
- 239000011889 copper foil Substances 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000011179 visual inspection Methods 0.000 description 5
- 230000002950 deficient Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000003705 background correction Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000011109 contamination Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000004304 visual acuity Effects 0.000 description 1
Landscapes
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Color Television Image Signal Generators (AREA)
- Studio Devices (AREA)
Abstract
Description
本技術は、例えば基板の外観検査等に用いられる情報処理方法、情報処理装置、プログラム、撮像装置、検査方法、検査装置、及び基板の製造方法に関する。 The present technology relates to an information processing method, an information processing device, a program, an imaging device, an inspection method, an inspection device, and a substrate manufacturing method used for, for example, an appearance inspection of a substrate.
電子部品が実装されるプリント配線基板などの被検査物を検査する外観検査装置が用いられている。このような外観検査装置として、1枚のプリント配線基板の全体を撮像装置によって撮像し、得られたカラー画像に基づいて被検査物を検査する外観検査装置が提案されている。 An appearance inspection apparatus that inspects an inspection object such as a printed wiring board on which electronic components are mounted is used. As such an appearance inspection apparatus, an appearance inspection apparatus has been proposed in which an entire image of a printed wiring board is imaged by an imaging apparatus, and an inspection object is inspected based on the obtained color image.
例えば特許文献1に記載の外観検査装置では、撮像光学系の色収差が補正された被検査物のカラー画像データが生成される。そしてこのカラー画像データと検査用データとを照合することで外観検査が行われる。これにより外観検査に要する手間やコストが低減されている(特許文献1の段落[0006]等参照)。 For example, in the appearance inspection apparatus described in Patent Document 1, color image data of an inspection object in which chromatic aberration of the imaging optical system is corrected is generated. An appearance inspection is performed by comparing the color image data with the inspection data. This reduces labor and cost required for appearance inspection (see paragraph [0006] of Patent Document 1).
上記のような基板の外観検査等においては、撮像装置により高画質のカラー画像が撮影されることが望ましい。例えば面積の大きい基板等であってもコストをかけることなく高画質のカラー画像が取得されることが求められる。 In the above-described substrate visual inspection or the like, it is desirable that a high-quality color image be captured by the imaging device. For example, a high-quality color image is required to be acquired without cost even for a substrate having a large area.
以上のような事情に鑑み、本技術の目的は、被写体の高画質のカラー画像を低コストで取得することが可能となる情報処理方法、情報処理装置、プログラム、撮像装置、検査方法、検査装置、及び基板の製造方法を提供することにある。 In view of the circumstances as described above, an object of the present technology is to provide an information processing method, an information processing apparatus, a program, an imaging apparatus, an inspection method, and an inspection apparatus that can acquire a high-quality color image of a subject at low cost. And a method of manufacturing a substrate.
上記目的を達成するため、本技術の一形態に係る情報処理方法は、被写体の光から複数の色成分の光をそれぞれ選択可能な光学素子を有し前記選択された色成分光による画像である色成分画像を前記色成分ごとに撮影可能な撮像装置により撮影された、前記被写体の第1の領域の前記色成分ごとの前記色成分画像である複数の第1の色成分画像と、前記第1の領域に隣接する第2の領域の前記色成分ごとの前記色成分画像である複数の第2の色成分画像とを取得することを含む。
前記複数の第1の色成分画像が前記色成分ごとにそれぞれ補正され、前記複数の第2の色成分画像が前記色成分ごとにそれぞれ補正される。
前記補正された前記複数の第1の色成分画像と前記複数の第2の色成分画像とが合成されて、前記第1及び前記第2の領域を含む全体領域の前記複数の色成分を有する色合成画像が生成される。
In order to achieve the above object, an information processing method according to an aspect of the present technology is an image based on the selected color component light, which includes an optical element that can select light of a plurality of color components from light of a subject. A plurality of first color component images, which are the color component images for each of the color components in the first region of the subject, photographed by an imaging device capable of photographing a color component image for each of the color components; Obtaining a plurality of second color component images that are the color component images for each of the color components in a second region adjacent to one region.
The plurality of first color component images are corrected for each of the color components, and the plurality of second color component images are corrected for each of the color components.
The corrected plurality of first color component images and the plurality of second color component images are combined to have the plurality of color components in the entire area including the first and second areas. A color composite image is generated.
この情報処理方法では、被写体の第1の領域についての複数の第1の色成分画像と、第1の領域に隣接する第2の領域についての複数の第2の色成分画像とがそれぞれ取得される。複数の第1の色成分画像は色成分ごとに補正され、また複数の第2の色成分画像も色成分ごとに補正される。これらの補正された複数の第1の色成分画像と複数の第2の色成分画像とが合成されることで、第1及び第2の領域を含む全体領域のカラー画像である色合成画像が生成される。これにより被写体の高画質のカラー画像を低コストで取得することが可能となる。 In this information processing method, a plurality of first color component images for the first region of the subject and a plurality of second color component images for the second region adjacent to the first region are respectively acquired. The The plurality of first color component images are corrected for each color component, and the plurality of second color component images are also corrected for each color component. By combining the plurality of corrected first color component images and the plurality of second color component images, a color composite image that is a color image of the entire region including the first and second regions is obtained. Generated. This makes it possible to obtain a high-quality color image of the subject at a low cost.
前記撮像装置は、前記被写体のモノクロ画像を撮影可能であってもよい。この場合、前記色成分画像は、前記選択された色成分光によるモノクロ画像であってもよい。
この情報処理方法では、選択された色成分光によるモノクロ画像が色成分画像として撮影される。従って色合成画像として高画質のカラー画像が生成される。
The imaging device may be capable of capturing a monochrome image of the subject. In this case, the color component image may be a monochrome image by the selected color component light.
In this information processing method, a monochrome image by the selected color component light is photographed as a color component image. Therefore, a high-quality color image is generated as the color composite image.
前記複数の第1の色成分画像は、前記第1の領域を撮影する第1の撮像装置により撮影された画像であってもよい。この場合、前記複数の第2の色成分画像は、前記第2の領域を撮影する、前記第1の撮像装置と異なる第2の撮像装置により撮影された画像であってもよい。
2つの撮像装置が用いられて第1及び第2の領域がそれぞれ撮影される場合、例えば面積の大きい範囲を全体領域として撮影することが容易となる。そのように撮影された第1及び第2の色成分画像を合成して、全体領域の高画質なカラー画像を低コストで生成することが可能である。
The plurality of first color component images may be images captured by a first imaging device that captures the first region. In this case, the plurality of second color component images may be images captured by a second imaging device that captures the second region and is different from the first imaging device.
When the first and second regions are photographed using two imaging devices, for example, it is easy to photograph a large area as the entire region. It is possible to generate a high-quality color image of the entire area at a low cost by combining the first and second color component images thus captured.
前記補正ステップは、前記第1の撮像装置の撮像特性と、前記第2の撮像装置の撮像特性との違いによる、前記複数の第1の色成分画像と前記複数の第2の色成分画像との差を補正してもよい。
これにより2つの撮像装置を用いて撮影された全体領域の高画質なカラー画像を生成することが可能となる。
In the correction step, the plurality of first color component images and the plurality of second color component images due to the difference between the imaging characteristics of the first imaging device and the imaging characteristics of the second imaging device The difference may be corrected.
As a result, it is possible to generate a high-quality color image of the entire area photographed using the two imaging devices.
前記撮像特性は、色感度、歪曲収差、及びシェーディングのうちのいずれか1つを含んでもよい。
このように色感度、歪曲収差、及びシェーディングのいずれか1つの差が補正されることで、高画質のカラー画像が生成される。
The imaging characteristic may include any one of color sensitivity, distortion, and shading.
In this way, by correcting any one of color sensitivity, distortion, and shading, a high-quality color image is generated.
前記生成ステップは、同じ色成分の前記第1及び前記第2の色成分画像が互いに接続された色成分接続画像を前記色成分ごとに生成し、前記生成された複数の色成分接続画像を合成することで前記色合成画像を生成してもよい。この場合、前記補正ステップは、前記複数の色成分接続画像を前記色成分ごとにそれぞれ補正することを含んでもよい。
このように色成分ごとに色成分接続画像が生成され、それらの画像が合成されることで色合成画像が生成されてもよい。この場合、補正ステップにより、色成分接続画像が色成分ごとに補正されてもよい。
The generating step generates a color component connection image in which the first and second color component images having the same color component are connected to each other, and synthesizes the plurality of generated color component connection images. Thus, the color composite image may be generated. In this case, the correcting step may include correcting the plurality of color component connection images for each color component.
In this way, a color component connection image may be generated for each color component, and a color composite image may be generated by combining these images. In this case, the color component connection image may be corrected for each color component by the correction step.
前記補正ステップは、前記色成分の違いによる前記色成分接続画像間の差を補正してもよい。
これにより高画質のカラー画像を生成することができる。
The correction step may correct a difference between the color component connected images due to the difference in the color component.
As a result, a high-quality color image can be generated.
前記補正ステップは、色収差による前記色成分接続画像間の差を補正してもよい。
このように色収差が補正されることで高画質のカラー画像を生成することができる。
The correction step may correct a difference between the color component connection images due to chromatic aberration.
By correcting chromatic aberration in this way, a high-quality color image can be generated.
前記情報処理方法は、さらに、所定のパターンを有する校正用被写体の前記複数の第1の色成分画像及び前記複数の第2の色成分画像をもとに補正用データを算出することを含んでもよい。この場合、前記補正ステップは、前記算出された補正用データを用いて補正を実行してよい。
このように校正用被写体の画像から算出された補正用データが適宜用いられてもよい。
The information processing method may further include calculating correction data based on the plurality of first color component images and the plurality of second color component images of a calibration subject having a predetermined pattern. Good. In this case, the correction step may perform correction using the calculated correction data.
In this way, correction data calculated from the image of the calibration subject may be used as appropriate.
前記情報処理方法は、さらに、前記補正用データを用いて、前記第1及び第2の撮像装置のそれぞれの撮影条件を調整することを含んでもよい。
このように補正用データをもとに各撮像装置の撮影条件が調整されてもよい。これにより全体領域の高画質なカラー画像を生成することが可能となる。
The information processing method may further include adjusting each imaging condition of the first and second imaging devices using the correction data.
In this way, the shooting conditions of each imaging device may be adjusted based on the correction data. As a result, a high-quality color image of the entire area can be generated.
前記撮影条件は、コントラスト及び焦点距離のうちのいずれか1つを含んでもよい。
このようにコントラスト及び焦点距離のいずれか1つが調整されることで、高画質のカラー画像が生成される。
The photographing condition may include any one of contrast and focal length.
By adjusting either one of the contrast and the focal length in this way, a high-quality color image is generated.
本技術の一形態に係る情報処理装置は、取得部と、補正部と、生成部とを具備する。
前記取得部は、被写体の光から複数の色成分の光をそれぞれ選択可能な光学素子を有し前記選択された色成分光による画像である色成分画像を前記色成分ごとに撮影可能な撮像装置により撮影された、前記被写体の第1の領域の前記色成分ごとの前記色成分画像である複数の第1の色成分画像と、前記第1の領域に隣接する第2の領域の前記色成分ごとの前記色成分画像である複数の第2の色成分画像とを取得する。
前記補正部は、前記複数の第1の色成分画像を前記色成分ごとにそれぞれ補正し、前記複数の第2の色成分画像を前記色成分ごとにそれぞれ補正する。
前記生成部は、前記補正された前記複数の第1の色成分画像と前記複数の第2の色成分画像とを合成して、前記第1及び前記第2の領域を含む全体領域の前記複数の色成分を有する色合成画像を生成する。
An information processing apparatus according to an embodiment of the present technology includes an acquisition unit, a correction unit, and a generation unit.
The acquisition unit includes an optical element that can select light of a plurality of color components from light of a subject, and can capture a color component image that is an image of the selected color component light for each color component A plurality of first color component images, which are the color component images for each of the color components in the first area of the subject, and the color components in the second area adjacent to the first area. A plurality of second color component images, which are the color component images for each, are acquired.
The correction unit corrects the plurality of first color component images for each color component, and corrects the plurality of second color component images for each color component.
The generating unit synthesizes the plurality of corrected first color component images and the plurality of second color component images, and the plurality of entire regions including the first and second regions. A color composite image having the following color components is generated.
本技術の一形態に係るプログラムは、以下のステップをコンピュータに実行させる。
被写体の光から複数の色成分の光をそれぞれ選択可能な光学素子を有し前記選択された色成分光による画像である色成分画像を前記色成分ごとに撮影可能な撮像装置により撮影された、前記被写体の第1の領域の前記色成分ごとの前記色成分画像である複数の第1の色成分画像と、前記第1の領域に隣接する第2の領域の前記色成分ごとの前記色成分画像である複数の第2の色成分画像とを取得するステップ。
前記複数の第1の色成分画像を前記色成分ごとにそれぞれ補正し、前記複数の第2の色成分画像を前記色成分ごとにそれぞれ補正するステップ。
前記補正された前記複数の第1の色成分画像と前記複数の第2の色成分画像とを合成して、前記第1及び前記第2の領域を含む全体領域の前記複数の色成分を有する色合成画像を生成するステップ。
A program according to an embodiment of the present technology causes a computer to execute the following steps.
Photographed by an imaging device that has an optical element that can select light of a plurality of color components from the light of the subject and that can capture a color component image that is an image of the selected color component light for each color component, A plurality of first color component images that are the color component images for each color component in the first region of the subject, and the color components for each color component in a second region adjacent to the first region. Obtaining a plurality of second color component images which are images;
Correcting each of the plurality of first color component images for each of the color components, and correcting each of the plurality of second color component images for each of the color components;
The corrected plurality of first color component images and the plurality of second color component images are combined to have the plurality of color components in the entire area including the first and second areas. Generating a color composite image;
本技術の一形態に係る撮像装置は、光学素子と、1以上の撮像部と、取得部と、補正部と、生成部とを具備する。
前記光学素子は、被写体の光から複数の色成分の光をそれぞれ選択可能である。
前記1以上の撮像部は、前記選択された色成分光による画像である色成分画像を前記色成分ごとに撮影可能である。
前記取得部は、前記撮像部により撮影された、前記被写体の第1の領域の前記色成分ごとの前記色成分画像である複数の第1の色成分画像と、前記第1の領域に隣接する第2の領域の前記色成分ごとの前記色成分画像である複数の第2の色成分画像とを取得する。
前記補正部は、前記複数の第1の色成分画像を前記色成分ごとにそれぞれ補正し、前記複数の第2の色成分画像を前記色成分ごとにそれぞれ補正する。
前記生成部は、前記補正された前記複数の第1の色成分画像と前記複数の第2の色成分画像とを合成して、前記第1及び前記第2の領域を含む全体領域の前記複数の色成分を有する色合成画像を生成する。
An imaging device according to an embodiment of the present technology includes an optical element, one or more imaging units, an acquisition unit, a correction unit, and a generation unit.
The optical element can select light of a plurality of color components from the light of the subject.
The one or more imaging units can capture a color component image, which is an image of the selected color component light, for each color component.
The acquisition unit is adjacent to the first region and a plurality of first color component images, which are the color component images for each of the color components of the first region of the subject, captured by the imaging unit. A plurality of second color component images that are the color component images for each of the color components in the second region are acquired.
The correction unit corrects the plurality of first color component images for each color component, and corrects the plurality of second color component images for each color component.
The generating unit synthesizes the plurality of corrected first color component images and the plurality of second color component images, and the plurality of entire regions including the first and second regions. A color composite image having the following color components is generated.
前記1以上の撮像部は、前記複数の第1の色成分画像を撮影する第1の撮像部と、前記複数の第2の色成分画像を撮影する、前記第1の撮像部と異なる第2の撮像部とを有してもよい。 The one or more imaging units are different from the first imaging unit that captures the plurality of first color component images and the first imaging unit that captures the plurality of second color component images. You may have an imaging part.
前記撮像装置は、さらに、前記第1の領域からの光を前記第1の撮像部へ反射し、前記第2の領域からの光を前記第2の撮像部へ反射する反射素子を具備してもよい。
このような反射素子が備えられることで、第1及び第2の撮像部の配置を適宜設定することができる。例えば反射素子と第1及び第2の撮像部との配置を適宜設定することで、撮像装置全体の小型化を図ることが可能となる。
The imaging apparatus further includes a reflective element that reflects light from the first region to the first imaging unit and reflects light from the second region to the second imaging unit. Also good.
By providing such a reflective element, the arrangement of the first and second imaging units can be set as appropriate. For example, by appropriately setting the arrangement of the reflective element and the first and second imaging units, it is possible to reduce the size of the entire imaging apparatus.
前記光学素子は、赤色成分光を透過させる赤色フィルタと、緑色成分光を透過させる緑色フィルタと、青色成分光を透過させる青色フィルタとを含むカラーフィルタであってもよい。 The optical element may be a color filter including a red filter that transmits red component light, a green filter that transmits green component light, and a blue filter that transmits blue component light.
前記赤色フィルタ、前記緑色フィルタ、及び前記青色フィルタの光の透過方向におけるそれぞれの厚みは、各フィルタを透過する前記赤色成分光、前記緑色成分光、及び前記青色成分光の各焦点距離が互いに等しくなるように調整されてもよい。
これにより各色成分による色成分画像が合成されることで生成される色合成画像の質を向上させることができる。
The thicknesses of the red filter, the green filter, and the blue filter in the light transmission direction are such that the focal lengths of the red component light, the green component light, and the blue component light transmitted through the filters are equal to each other. It may be adjusted to be.
Thereby, the quality of the color composite image produced | generated by synthesize | combining the color component image by each color component can be improved.
前記光学素子は、前記被写体からの光を当該光の焦点距離が前記赤色成分光、前記緑色成分光、及び前記青色成分光の各焦点距離と等しくなるように透過させる透過部を有してもよい。
これにより被写体からの光による画像及び色合成画像の両方を高い精度で生成することが可能となる。
The optical element may include a transmission unit that transmits light from the subject so that a focal length of the light is equal to each focal length of the red component light, the green component light, and the blue component light. Good.
As a result, it is possible to generate both an image based on light from the subject and a color composite image with high accuracy.
本技術の一形態に係る検査方法は、検査対象である被写体の光から複数の色成分の光をそれぞれ選択可能な光学素子を有し前記選択された色成分光による画像である色成分画像を前記色成分ごとに撮影可能な撮像装置により撮影された、前記被写体の第1の領域の前記色成分ごとの前記色成分画像である複数の第1の色成分画像と、前記第1の領域に隣接する第2の領域の前記色成分ごとの前記色成分画像である複数の第2の色成分画像とを取得することを含む。
前記複数の第1の色成分画像が前記色成分ごとにそれぞれ補正され、前記複数の第2の色成分画像が前記色成分ごとにそれぞれ補正される。
前記補正された前記複数の第1の色成分画像と前記複数の第2の色成分画像とが合成されて、前記第1及び前記第2の領域を含む全体領域の前記複数の色成分を有する色合成画像が生成される。
前記生成された色合成画像をもとに前記被写体が検査される。
An inspection method according to an aspect of the present technology includes an optical element that can select light of a plurality of color components from light of a subject to be inspected, and a color component image that is an image of the selected color component light. A plurality of first color component images, which are the color component images for each color component of the first region of the subject, photographed by an imaging device capable of photographing for each color component, and the first region Obtaining a plurality of second color component images which are the color component images for each of the color components in the adjacent second region.
The plurality of first color component images are corrected for each of the color components, and the plurality of second color component images are corrected for each of the color components.
The corrected plurality of first color component images and the plurality of second color component images are combined to have the plurality of color components in the entire area including the first and second areas. A color composite image is generated.
The subject is inspected based on the generated color composite image.
本技術の一形態に係る検査装置は、光学素子と、1以上の撮像部と、取得部と、補正部と、生成部と、検査部とを具備する。
前記光学素子は、検査対象である被写体の光から複数の色成分の光をそれぞれ選択可能である。
前記1以上の撮像部は、前記選択された色成分光による画像である色成分画像を前記色成分ごとに撮影可能である。
前記取得部は、前記撮像部により撮影された、前記被写体の第1の領域の前記色成分ごとの前記色成分画像である複数の第1の色成分画像と、前記第1の領域に隣接する第2の領域の前記色成分ごとの前記色成分画像である複数の第2の色成分画像とを取得する。
前記補正部は、前記複数の第1の色成分画像を前記色成分ごとにそれぞれ補正し、前記複数の第2の色成分画像を前記色成分ごとにそれぞれ補正する。
前記生成部は、前記補正された前記複数の第1の色成分画像と前記複数の第2の色成分画像とを合成して、前記第1及び前記第2の領域を含む全体領域の前記複数の色成分を有する色合成画像を生成する。
前記検査部は、前記生成された色合成画像をもとに前記被写体を検査する。
An inspection apparatus according to an embodiment of the present technology includes an optical element, one or more imaging units, an acquisition unit, a correction unit, a generation unit, and an inspection unit.
The optical element can select light of a plurality of color components from light of a subject to be inspected.
The one or more imaging units can capture a color component image, which is an image of the selected color component light, for each color component.
The acquisition unit is adjacent to the first region and a plurality of first color component images, which are the color component images for each of the color components of the first region of the subject, captured by the imaging unit. A plurality of second color component images that are the color component images for each of the color components in the second region are acquired.
The correction unit corrects the plurality of first color component images for each color component, and corrects the plurality of second color component images for each color component.
The generating unit synthesizes the plurality of corrected first color component images and the plurality of second color component images, and the plurality of entire regions including the first and second regions. A color composite image having the following color components is generated.
The inspection unit inspects the subject based on the generated color composite image.
本技術の一形態に係る基板の製造方法は、検査対象である被写体としての基板の光から複数の色成分の光をそれぞれ選択可能な光学素子を有し前記選択された色成分光による画像である色成分画像を前記色成分ごとに撮影可能な撮像装置により撮影された、前記基板の第1の領域の前記色成分ごとの前記色成分画像である複数の第1の色成分画像と、前記第1の領域に隣接する第2の領域の前記色成分ごとの前記色成分画像である複数の第2の色成分画像とを取得することを含む。
前記複数の第1の色成分画像が前記色成分ごとにそれぞれ補正され、前記複数の第2の色成分画像が前記色成分ごとにそれぞれ補正される。
前記補正された前記複数の第1の色成分画像と前記複数の第2の色成分画像とが合成されて、前記第1及び前記第2の領域を含む全体領域の前記複数の色成分を有する色合成画像が生成される。
前記生成された色合成画像をもとに前記基板が検査される。
前記検査の結果をもとに前記基板の良否が判定される。
A substrate manufacturing method according to an aspect of the present technology includes an optical element that can select light of a plurality of color components from light of a substrate as a subject to be inspected, and an image based on the selected color component light. A plurality of first color component images, which are the color component images for each of the color components in the first region of the substrate, photographed by an imaging device capable of photographing a certain color component image for each of the color components; Obtaining a plurality of second color component images that are the color component images for each of the color components in a second region adjacent to the first region.
The plurality of first color component images are corrected for each of the color components, and the plurality of second color component images are corrected for each of the color components.
The corrected plurality of first color component images and the plurality of second color component images are combined to have the plurality of color components in the entire area including the first and second areas. A color composite image is generated.
The board is inspected based on the generated color composite image.
The quality of the substrate is determined based on the result of the inspection.
以上のように、本技術によれば、被写体の高画質のカラー画像を低コストで取得することが可能となる。 As described above, according to the present technology, a high-quality color image of a subject can be acquired at low cost.
以下、本技術に係る実施形態を、図面を参照しながら説明する。 Hereinafter, embodiments according to the present technology will be described with reference to the drawings.
[外観検査装置の構成]
本技術の一実施形態に係る外観検査装置を説明する。本実施形態の外観検査装置は、所定の電子部品が実装される回路基板(以下、単に基板という)の画像を撮影し、その画像を用いて基板の外観を検査することが可能である。従って本実施形態では、基板が、検査対象である被写体となる。
[Configuration of visual inspection equipment]
An appearance inspection apparatus according to an embodiment of the present technology will be described. The appearance inspection apparatus according to the present embodiment can take an image of a circuit board (hereinafter simply referred to as a board) on which a predetermined electronic component is mounted, and use the image to inspect the appearance of the board. Therefore, in this embodiment, the substrate is a subject to be inspected.
図1は、本実施形態に係る外観検査装置の概略的なシステム構成を示す模式的なブロック図である。図2は、外観検査装置の撮像ユニットの構成例を主に示す模式的な図である。 FIG. 1 is a schematic block diagram showing a schematic system configuration of an appearance inspection apparatus according to the present embodiment. FIG. 2 is a schematic diagram mainly illustrating a configuration example of an imaging unit of the appearance inspection apparatus.
外観検査装置100は、撮像ユニット10と、照明ユニット20と、搬送ユニット30と、検査ステージ40と、情報処理部50とを有する。撮像ユニット10は、撮像装置としてのカメラ11と、レンズ12と、光学フィルタホイール13と、反射素子としての反射ミラー14を有する。情報処理部50は、操作表示部51と、入出力制御部52と、演算制御記憶部53とを有する。 The appearance inspection apparatus 100 includes an imaging unit 10, an illumination unit 20, a transport unit 30, an inspection stage 40, and an information processing unit 50. The imaging unit 10 includes a camera 11 as an imaging device, a lens 12, an optical filter wheel 13, and a reflection mirror 14 as a reflection element. The information processing unit 50 includes an operation display unit 51, an input / output control unit 52, and an arithmetic control storage unit 53.
検査ステージ40は、平坦な載置面41を有し、この載置面41に基板1が載置される。基板1は、搬送ユニット30により検査ステージ40に搬送される。また搬送ユニット30は、外観検査が終了した基板1を検査ステージ40の載置面41から取り出して搬送する。搬送ユニット30の構成や搬送方法は限定されず、任意の構成や方法が用いられてよい。 The inspection stage 40 has a flat placement surface 41, and the substrate 1 is placed on the placement surface 41. The substrate 1 is transported to the inspection stage 40 by the transport unit 30. In addition, the transport unit 30 transports the substrate 1 that has undergone the appearance inspection from the mounting surface 41 of the inspection stage 40. The configuration and the transport method of the transport unit 30 are not limited, and any configuration or method may be used.
照明ユニット20は、不図示のフレームを介して検査ステージ40の上方に支持され、検査ステージ40に載置された基板1の実装面に向けて照明光を照射する。照明光を出射する光源としては、例えばLED(Light Emitting Diode)等が用いられる。照明ユニット20の構成は限定されず、他の光源が用いられてもよい。照明ユニット20が適宜制御されることで、基板1への照明光の色や光量等が調整される。 The illumination unit 20 is supported above the inspection stage 40 via a frame (not shown), and irradiates illumination light toward the mounting surface of the substrate 1 placed on the inspection stage 40. As a light source that emits illumination light, for example, an LED (Light Emitting Diode) or the like is used. The configuration of the illumination unit 20 is not limited, and other light sources may be used. By appropriately controlling the illumination unit 20, the color, light amount, and the like of illumination light to the substrate 1 are adjusted.
図3は、本実施形態の外観検査装置100により検査される基板1の一例を示す模式的な平面図である。 FIG. 3 is a schematic plan view showing an example of the substrate 1 inspected by the appearance inspection apparatus 100 of the present embodiment.
本実施形態では、矩形の基板1が検査対象となる。なお、検査対象となる基板1の形状は限定されず、例えば円形等の他の形状を有する基板も検査可能である。 In the present embodiment, the rectangular substrate 1 is an inspection target. In addition, the shape of the board | substrate 1 used as a test object is not limited, For example, the board | substrate which has other shapes, such as a circle, is also testable.
基板1の少なくとも一方の面は電子部品2が実装される実装面3として形成され、実装面3には複数のアライメントマーク4が設けられている。アライメントマーク4は、外観検査装置100による外観検査を行う際に、座標位置の基準点となるものである。本実施形態では、4つのアライメントマーク4が形成されるが、アライメントマーク4の数は限定されない。典型的には、3つ以上のアライメントマーク4が形成される。 At least one surface of the substrate 1 is formed as a mounting surface 3 on which the electronic component 2 is mounted, and a plurality of alignment marks 4 are provided on the mounting surface 3. The alignment mark 4 is a reference point for the coordinate position when the appearance inspection is performed by the appearance inspection apparatus 100. In the present embodiment, four alignment marks 4 are formed, but the number of alignment marks 4 is not limited. Typically, three or more alignment marks 4 are formed.
基板1は、基板1の実装面3に形成された銅箔5と、銅箔5を覆うレジスト6とを有する。アライメントマーク4は、銅箔5を覆うレジスト6に設けられた開口7の内側に位置する銅箔5の部分によって形成される。アライメントマーク4の形成方法は任意である。 The substrate 1 includes a copper foil 5 formed on the mounting surface 3 of the substrate 1 and a resist 6 that covers the copper foil 5. The alignment mark 4 is formed by a portion of the copper foil 5 located inside the opening 7 provided in the resist 6 covering the copper foil 5. The method for forming the alignment mark 4 is arbitrary.
本実施形態では、開口7の形状、すなわち、アライメントマーク4の形状は、円形であるが、アライメントマーク4の形状としては矩形、三角形、多角形など種々の形状が使用可能であり、アライメントマーク4の形状は限定されない。ここで、銅箔5は、オレンジ色を呈しており、レジスト6は、緑色と青色が混じった色を呈している。 In the present embodiment, the shape of the opening 7, that is, the shape of the alignment mark 4 is circular, but various shapes such as a rectangle, a triangle, and a polygon can be used as the shape of the alignment mark 4. The shape of is not limited. Here, the copper foil 5 has an orange color, and the resist 6 has a mixed color of green and blue.
本実施形態では、撮像ユニット10のカメラ11として、被写体のデジタル画像を撮影することが可能なデジタルカメラが用いられる。またカメラ11として、被写体のモノクロ画像を撮影するモノクロカメラが用いられる。例えば撮像素子としてCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等を有するカメラ11が用いられる。 In the present embodiment, a digital camera that can capture a digital image of a subject is used as the camera 11 of the imaging unit 10. As the camera 11, a monochrome camera that captures a monochrome image of a subject is used. For example, a camera 11 having a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like as an image sensor is used.
図2に示すように、本実施形態では、第1及び第2のカメラ11A及び11Bの2つのカメラ11が用いられる。このように外観検査装置に1以上のカメラが設けられてもよい。第1のカメラ11Aにより、基板1の第1の領域1Aが撮影される。また第2のカメラ11Bにより、基板の第2の領域1Bが撮影される。図3に示すように、第1の領域1Aは、基板1の左半分の領域である。第2の領域1Bは、基板1の右半分の領域である。なお、基板1のどの領域を第1及び第2の領域1A及び1Bとして設定するかは限定されない。 As shown in FIG. 2, in this embodiment, the two cameras 11 of the first and second cameras 11A and 11B are used. Thus, one or more cameras may be provided in the appearance inspection apparatus. The first area 11A of the substrate 1 is photographed by the first camera 11A. Further, the second area 1B of the substrate is photographed by the second camera 11B. As shown in FIG. 3, the first area 1 </ b> A is the left half area of the substrate 1. The second region 1B is a right half region of the substrate 1. Note that which region of the substrate 1 is set as the first and second regions 1A and 1B is not limited.
第1のカメラ11Aにより撮影される領域である第1の撮影領域15Aが、上記した第1の領域1Aを含むように設定される。第2のカメラ11Bにより撮影される領域である第2の撮影領域15Bが上記した第2の領域1Bを含むように設定される。これにより第1及び第2の領域1A及び1Bが、第1及び第2のカメラ11A及び11Bによりそれぞれ撮影される。なお第1及び第2の撮影領域15A及び15Bは、所定の重なり領域15Cで、互いに重なるように設定される。 The first imaging area 15A, which is an area captured by the first camera 11A, is set to include the first area 1A. The second shooting area 15B, which is an area shot by the second camera 11B, is set so as to include the above-described second area 1B. Accordingly, the first and second regions 1A and 1B are photographed by the first and second cameras 11A and 11B, respectively. Note that the first and second imaging areas 15A and 15B are set to overlap each other in a predetermined overlapping area 15C.
図4は、第1のカメラ11Aにより撮影された画像と、第2のカメラ11Bにより撮影された画像とを示す模式的な図である。図4に示すように、基板1を2つに分ける第1及び第2の領域1A及び1Bのそれぞれの画像16A及び16Bが撮影される。本実施形態では、以下に説明するように、これらの画像16A及び16Bが色成分ごとに撮影される。なお、第1及び第2の領域1A及び1Bを含む領域を全体領域とする。全体領域は基板1の全体の領域に相当する。 FIG. 4 is a schematic diagram showing an image taken by the first camera 11A and an image taken by the second camera 11B. As shown in FIG. 4, images 16A and 16B of the first and second regions 1A and 1B dividing the substrate 1 into two are taken. In this embodiment, as will be described below, these images 16A and 16B are taken for each color component. A region including the first and second regions 1A and 1B is defined as an entire region. The entire area corresponds to the entire area of the substrate 1.
このように本実施形態では、第1及び第2のカメラ11A及び11Bにより基板1が撮影撮影されるので、第1及び第2のカメラ11A及び11Bや照明ユニット20等を移動させることなく基板1の外観検査が可能である。 Thus, in this embodiment, since the board | substrate 1 is image | photographed and image | photographed by the 1st and 2nd cameras 11A and 11B, the board | substrate 1 is moved without moving the 1st and 2nd cameras 11A and 11B, the illumination unit 20, etc. Visual inspection is possible.
レンズ12は、基板1を所定の倍率で拡大して撮影するために、第1及び第2のカメラ11A及び11Bにそれぞれ設けられる。レンズ12は、各カメラの前方に取り付けられるレンズ鏡筒121内の撮像光学系に含まれる。各レンズ鏡筒121に複数のレンズ12が設けられてもよい。レンズ12を含む撮像光学系が適宜制御されることで拡大倍率が設定される。以後、第1及び第2のカメラ11A及び11Bにそれぞれ設けられるレンズ12を、第1及び第2のレンズ12A及び12Bと記載する。 The lens 12 is provided in each of the first and second cameras 11A and 11B in order to magnify and photograph the substrate 1 at a predetermined magnification. The lens 12 is included in an imaging optical system in a lens barrel 121 attached in front of each camera. A plurality of lenses 12 may be provided in each lens barrel 121. The magnification is set by appropriately controlling the imaging optical system including the lens 12. Hereinafter, the lens 12 provided in each of the first and second cameras 11A and 11B will be referred to as first and second lenses 12A and 12B.
図2に示すように、本実施形態では、載置面41の面方向(xy平面方向)で互いに対向するように第1及び第2のカメラ11A及び11Bが配置される。図2や図3等に示すようにxyz座標が設定された場合、x方向に沿って第1及び第2のカメラ11A及び11Bがそれぞれ配置される。従って第1のカメラ11Aに入射する第1の撮影光軸17Aと、第2のカメラに入射する第2の撮影光軸17Bとが、各レンズ12A及び12B付近ではx方向に沿って設定される。 As shown in FIG. 2, in the present embodiment, the first and second cameras 11 </ b> A and 11 </ b> B are disposed so as to face each other in the surface direction (xy plane direction) of the placement surface 41. When the xyz coordinates are set as shown in FIG. 2, FIG. 3, etc., the first and second cameras 11A and 11B are arranged along the x direction, respectively. Accordingly, the first photographing optical axis 17A incident on the first camera 11A and the second photographing optical axis 17B incident on the second camera are set along the x direction in the vicinity of the lenses 12A and 12B. .
第1及び第2のカメラ11A及び11Bの間には、反射ミラー14が設けられる。反射ミラー14は、第1のカメラ11Aの第1の撮影光軸17Aを変更する第1の反射部14Aと、第2のカメラ11Bの第2の撮影光軸17Bを変更する第2の反射部14Bとを有する。 A reflection mirror 14 is provided between the first and second cameras 11A and 11B. The reflection mirror 14 includes a first reflection unit 14A that changes the first imaging optical axis 17A of the first camera 11A, and a second reflection unit that changes the second imaging optical axis 17B of the second camera 11B. 14B.
反射ミラー14が設けられることにより、第1のカメラ11Aの撮影光束18Aが、第1の撮影領域15A(図3参照)に設定される。従って基板1の第1の領域1Aの像が、第1の反射部14Aで反射されて第1のレンズ12Aに導かれる。すなわち第1の反射部14Aにより、基板1の第1の領域1Aからの光が第1のカメラ11Aへ反射される。これにより第1の領域1Aの画像16Aが第1のカメラ11Aにより撮影される。 By providing the reflection mirror 14, the photographing light beam 18A of the first camera 11A is set in the first photographing region 15A (see FIG. 3). Accordingly, the image of the first region 1A of the substrate 1 is reflected by the first reflecting portion 14A and guided to the first lens 12A. That is, the light from the first region 1A of the substrate 1 is reflected to the first camera 11A by the first reflecting portion 14A. Thereby, the image 16A of the first region 1A is taken by the first camera 11A.
第2のカメラ11Bの撮影光束18Bは、第2の撮影領域15Bに設定される。従って基板1の第2の領域1Bの像が、第2の反射部14Bで反射されて第2のレンズ12Bに導かれる。すなわち第2の反射部14Bにより、基板1の第2の領域1Bからの光が第2のカメラ11Bへ反射される。これにより第2の領域1Bの画像16Bが第2のカメラ11Bにより撮影される。 The imaging light beam 18B of the second camera 11B is set in the second imaging area 15B. Accordingly, the image of the second region 1B of the substrate 1 is reflected by the second reflecting portion 14B and guided to the second lens 12B. That is, the light from the second region 1B of the substrate 1 is reflected to the second camera 11B by the second reflecting portion 14B. Thereby, the image 16B of the second region 1B is taken by the second camera 11B.
このように反射ミラー14が備えられることで、第1及び第2のカメラ11A及び11Bの配置を適宜設定することができる。例えば基板1と各カメラ11の撮像光学系との間の光路長を確保しつつ、各カメラ11を検査ステージ40の近傍に配置することができる。すなわち反射ミラー14と第1及び第2のカメラ11A及び11Bとの配置を適宜設定することで、外観検査装置100全体の小型化を図ることが可能となる。 Since the reflection mirror 14 is provided in this manner, the arrangement of the first and second cameras 11A and 11B can be set as appropriate. For example, each camera 11 can be disposed in the vicinity of the inspection stage 40 while ensuring the optical path length between the substrate 1 and the imaging optical system of each camera 11. That is, by appropriately setting the arrangement of the reflection mirror 14 and the first and second cameras 11A and 11B, it is possible to reduce the size of the appearance inspection apparatus 100 as a whole.
第1及び第2の撮影光軸17A及び17Bをそれぞれ変更する反射素子としては、他の任意のものが用いられてよい。例えば2枚の反射ミラーが、第1及び第2の反射部14A及び14Bの位置にそれぞれ設けられてもよい。また反射素子としてプリズム等が用いられてもよい。 Other arbitrary elements may be used as reflecting elements for changing the first and second photographing optical axes 17A and 17B, respectively. For example, two reflecting mirrors may be provided at the positions of the first and second reflecting portions 14A and 14B, respectively. A prism or the like may be used as the reflective element.
光学フィルタホイール13は、被写体である基板1の光から、複数の色成分の光をそれぞれ選択可能な光学素子として、外観検査装置100に設けられる。光学フィルタホイール13には、赤色成分光を透過させる赤色フィルタ19Rと、緑色成分光を透過させる緑色フィルタ19Gと、青色成分光を透過させる青色フィルタ19Bとを含むカラーフィルタが設けられる。各色を透過させるフィルタとしては、例えばダイクロイックフィルタ等が用いられる。 The optical filter wheel 13 is provided in the appearance inspection apparatus 100 as an optical element that can select light of a plurality of color components from light of the substrate 1 that is a subject. The optical filter wheel 13 is provided with a color filter including a red filter 19R that transmits red component light, a green filter 19G that transmits green component light, and a blue filter 19B that transmits blue component light. For example, a dichroic filter or the like is used as a filter that transmits each color.
光学フィルタホイール13は、第1及び第2のカメラ11A及び11Bのそれぞれに対して設けられる。第1のカメラ11Aと反射ミラー14との間に、第1の光学フィルタホイール13Aが設けられる。第2のカメラ11Bと反射ミラー14との間には、第2の光学フィルタホイール13Bが設けられる。それぞれの光学フィルタホイール13が適宜回転することで、第1及び第2の撮影光軸17A及び17B上に所定の色のフィルタが配置される。これにより、撮影光軸に沿って進む基板1の光から赤色成分光、緑色成分光及び青色成分光のそれぞれが適宜選択される。 The optical filter wheel 13 is provided for each of the first and second cameras 11A and 11B. A first optical filter wheel 13 </ b> A is provided between the first camera 11 </ b> A and the reflection mirror 14. A second optical filter wheel 13 </ b> B is provided between the second camera 11 </ b> B and the reflection mirror 14. By rotating each optical filter wheel 13 as appropriate, filters of a predetermined color are arranged on the first and second photographing optical axes 17A and 17B. Thereby, each of red component light, green component light, and blue component light is appropriately selected from the light of the substrate 1 traveling along the photographing optical axis.
光学フィルタホイール13により選択された色成分光は、第1及び第2のカメラ11A及び11Bにそれぞれ入射する。そして第1及び第2のカメラ11A及び11Bにより、色成分光による画像である色成分画像21A及び21Bが色成分ごとに撮影される。すなわち第1のカメラ11Aにより、赤色成分画像21R1、緑色成分画像21G1、及び青色成分画像21B1が撮影される。また第2のカメラ11Bにより、赤色成分画像21R2、緑色成分画像21G2、及び青色成分画像21B2が撮影される。本実施形態では、各色成分の画像は、モノクロ画像として撮影される。 The color component light selected by the optical filter wheel 13 is incident on the first and second cameras 11A and 11B, respectively. Then, the first and second cameras 11A and 11B capture color component images 21A and 21B, which are images of color component light, for each color component. That is, a red component image 21R1, a green component image 21G1, and a blue component image 21B1 are photographed by the first camera 11A. In addition, a red component image 21R2, a green component image 21G2, and a blue component image 21B2 are photographed by the second camera 11B. In the present embodiment, each color component image is captured as a monochrome image.
上記したように、第1のカメラ11Aには第1の領域1Aからの光が入射する。第1の光学フィルタホイール13Aにより、第1の領域1Aからの光から所定の色成分光が選択される。これにより、第1のカメラ11Aにより、基板1の第1の領域1Aの色成分ごとの色成分画像21Aが撮影される。以下、第1の領域1Aの赤色成分画像21R1、緑色成分画像21G1及び青色成分画像21B1を複数の第1の色成分画像21Aとする。 As described above, the light from the first region 1A is incident on the first camera 11A. A predetermined color component light is selected from the light from the first region 1A by the first optical filter wheel 13A. Thereby, the color component image 21A for each color component in the first area 1A of the substrate 1 is photographed by the first camera 11A. Hereinafter, the red component image 21R1, the green component image 21G1, and the blue component image 21B1 in the first region 1A are referred to as a plurality of first color component images 21A.
第2のカメラ11Bには、第2の領域1Bからの光が入射する。第2の光学フィルタホイール13Bにより、第2の領域1Bからの光から所定の色成分光が選択される。これにより、第2のカメラ11Bにより、基板1の第2の領域1Bの色成分ごとの色成分画像21Bが撮影される。以下、第2の領域1Bの赤色成分画像21BR、緑色成分画像21BG及び青色成分画像21BBを複数の第2の色成分画像21Bとする。 Light from the second region 1B is incident on the second camera 11B. The second optical filter wheel 13B selects a predetermined color component light from the light from the second region 1B. Thereby, the color component image 21B for every color component of the 2nd area | region 1B of the board | substrate 1 is image | photographed with the 2nd camera 11B. Hereinafter, the red component image 21BR, the green component image 21BG, and the blue component image 21BB in the second region 1B are referred to as a plurality of second color component images 21B.
本実施形態では、第1及び第2の光学フィルタホイール13A及び13Bのそれぞれで、各フィルタの厚みが適宜調整されている。すなわち、赤色フィルタ19R、緑色フィルタ19G、青色フィルタ19Bの光の透過方向(撮影光軸17A及び17Bの各方向)におけるそれぞれの厚みは、各フィルタを透過する赤色成分光、緑色成分光、及び青色成分光の各焦点距離が互いに等しくなるように調整されている。 In the present embodiment, the thickness of each filter is appropriately adjusted in each of the first and second optical filter wheels 13A and 13B. That is, the thicknesses of the red filter 19R, the green filter 19G, and the blue filter 19B in the light transmission direction (directions of the photographing optical axes 17A and 17B) are respectively red component light, green component light, and blue light transmitted through the filters. The focal lengths of the component lights are adjusted to be equal to each other.
赤色成分光、緑色成分光、及び青色成分光は互いに波長が異なるので、第1のレンズ12A及び第2のレンズ12Bに対する各成分光の屈折率が異なる。その結果、第1のレンズ12Aの各色成分光の焦点距離に差が生じる。また第2のレンズ12Bの各色成分光の焦点距離にも差が生じる。 Since the red component light, the green component light, and the blue component light have different wavelengths, the refractive indexes of the component light with respect to the first lens 12A and the second lens 12B are different. As a result, a difference occurs in the focal length of each color component light of the first lens 12A. Further, a difference also occurs in the focal length of each color component light of the second lens 12B.
本実施形態では、色成分の違いによる焦点距離の差を、各色フィルタのそれぞれの厚みを調整することで最適化する。例えば青色フィルタ19B、緑色フィルタ19G及び赤色フィルタ19Rの順に厚みが大きくなるように設定される。その他、各色フィルタの厚みの設定は任意である。このように、厚みが調整されることで、各色成分による色成分画像が合成されたカラー画像の質を向上させることができる。 In the present embodiment, the difference in focal length due to the difference in color components is optimized by adjusting the thickness of each color filter. For example, the blue filter 19B, the green filter 19G, and the red filter 19R are set to increase in thickness in this order. In addition, the setting of the thickness of each color filter is arbitrary. Thus, by adjusting the thickness, it is possible to improve the quality of the color image in which the color component images of the respective color components are combined.
また本実施形態では、第1及び第2の光学フィルタホイール13A及び13Bのそれぞれに、基板1からの光をそのまま透過させる透過板19Tが設けられる。透過板19Tとしては、例えばガラス等からなる透明フィルタが用いられる。その他のものが用いられてもよい。透過板19Tは、透過部に相当する。 In the present embodiment, the first and second optical filter wheels 13A and 13B are each provided with a transmission plate 19T that transmits light from the substrate 1 as it is. As the transmission plate 19T, for example, a transparent filter made of glass or the like is used. Others may be used. The transmission plate 19T corresponds to a transmission part.
例えば透過板19Tとして透過フィルタ等が用いられる場合、透過フィルタの撮影光軸方向での厚みが適宜調整されてもよい。例えば透過フィルタを透過する基板1からの光の焦点距離が、上記で調整された赤色成分光、緑色成分光、及び青色成分光の各焦点距離と等しくなるように、透過フィルタの厚みが調整される。 For example, when a transmission filter or the like is used as the transmission plate 19T, the thickness of the transmission filter in the photographing optical axis direction may be adjusted as appropriate. For example, the thickness of the transmission filter is adjusted so that the focal length of the light from the substrate 1 that passes through the transmission filter becomes equal to the focal lengths of the red component light, the green component light, and the blue component light adjusted as described above. The
光学フィルタホイール13に透過板19Tを設けることで、基板1のモノラル画像を撮影することができる。透過光の焦点距離と、各色成分光の焦点距離とが等しくなるように設定されているので、基板1のモノラル画像及び各色成分画像21A及び21Bが合成されたカラー画像の両方を高い精度で生成することが可能となる。 By providing the transmission plate 19T on the optical filter wheel 13, a monaural image of the substrate 1 can be taken. Since the focal length of the transmitted light and the focal length of each color component light are set to be equal, both the monaural image of the substrate 1 and the color image obtained by combining the color component images 21A and 21B are generated with high accuracy. It becomes possible to do.
情報処理部50の操作表示部51は、外観検査装置100を操作するオペレータの操作を受け付ける入力部と、オペラータに種々の情報を表示する表示部とからなる。操作表示部51は、例えばタッチパネルである。 The operation display unit 51 of the information processing unit 50 includes an input unit that receives an operation of an operator who operates the appearance inspection apparatus 100, and a display unit that displays various information on the operator. The operation display unit 51 is, for example, a touch panel.
入出力制御部52は、第1及び第2のカメラ11A及び11Bで撮影された複数の色成分画像21A及び21Bのデータを取得して、演算制御記憶部53へ出力する。演算制御記憶部53は、出力された複数の色成分画像21A及び21Bに所定の画像処理を実行して、色合成画像としてのカラー画像を生成する。そしてカラー画像をもとに基板1の外観検査を行う。入出力制御部52は、本実施形態における取得部に相当する。演算制御記憶部53は、本実施形態における取得部、補正部、生成部及び検査部等として機能する。これらについては後にも説明する。 The input / output control unit 52 acquires data of the plurality of color component images 21A and 21B photographed by the first and second cameras 11A and 11B and outputs the data to the arithmetic control storage unit 53. The arithmetic control storage unit 53 performs predetermined image processing on the output color component images 21A and 21B to generate a color image as a color composite image. Then, an appearance inspection of the substrate 1 is performed based on the color image. The input / output control unit 52 corresponds to the acquisition unit in the present embodiment. The arithmetic control storage unit 53 functions as an acquisition unit, a correction unit, a generation unit, an inspection unit, and the like in the present embodiment. These will be described later.
本実施形態では、主に情報処理部50により、本技術に係る情報処理方法が実行される。以下、情報処理部50について詳しく説明する。図5は、情報処理部50のハードウェア構成例を示す模式的な図である。例えばこのような構成を有するPC(Personal Computer)等のコンピュータが情報処理部50として用いられてもよい。 In the present embodiment, the information processing method according to the present technology is mainly executed by the information processing unit 50. Hereinafter, the information processing unit 50 will be described in detail. FIG. 5 is a schematic diagram illustrating a hardware configuration example of the information processing unit 50. For example, a computer such as a PC (Personal Computer) having such a configuration may be used as the information processing unit 50.
情報処理部50は、CPU(Central Processing Unit)501、ROM(Read Only Memory)502、RAM(Random Access Memory)503、入出力インターフェース505、及び、これらを互いに接続するバス504を備える。 The information processing unit 50 includes a central processing unit (CPU) 501, a read only memory (ROM) 502, a random access memory (RAM) 503, an input / output interface 505, and a bus 504 that connects these components to each other.
入出力インターフェース505には、表示部506、入力部507、記憶部508、通信部509、ドライブ部510等が接続される。例えば入出力インターフェース505が入出力制御部52として機能してもよい。そして入出力インターフェース505に撮像ユニット10が接続されてもよい。 A display unit 506, an input unit 507, a storage unit 508, a communication unit 509, a drive unit 510, and the like are connected to the input / output interface 505. For example, the input / output interface 505 may function as the input / output control unit 52. Then, the imaging unit 10 may be connected to the input / output interface 505.
表示部506は、例えば液晶、EL(Electro-Luminescence)、CRT(Cathode Ray
Tube)等を用いた表示デバイスである。
The display unit 506 includes, for example, liquid crystal, EL (Electro-Luminescence), CRT (Cathode Ray).
Tube) or the like.
入力部507は、例えばポインティングデバイス、キーボード、タッチパネル、その他
の操作装置である。入力部507がタッチパネルを含む場合、そのタッチパネルは表示部
506と一体となり得る。例えば表示部506及び入力部507により操作表示部51が構成される。
The input unit 507 is, for example, a pointing device, a keyboard, a touch panel, or other operation device. When the input unit 507 includes a touch panel, the touch panel can be integrated with the display unit 506. For example, the operation display unit 51 is configured by the display unit 506 and the input unit 507.
記憶部508は、不揮発性の記憶デバイスであり、例えばHDD(Hard Disk Drive)、フラッシュメモリ、その他の固体メモリである。 The storage unit 508 is a non-volatile storage device, such as an HDD (Hard Disk Drive), a flash memory, or other solid-state memory.
ドライブ部510は、例えば光学記録媒体、フロッピー(登録商標)ディスク、磁気記録テープ、フラッシュメモリ等、リムーバブルの記録媒体511を駆動することが可能なデバイスである。これに対し上記記憶部508は、主にリムーバブルでない記録媒体を駆動する、情報処理部50に予め搭載されたデバイスとして使用される場合が多い。例えば記憶部508やドライブ部510が、演算制御記憶部53の一部として動作する。 The drive unit 510 is a device that can drive a removable recording medium 511 such as an optical recording medium, a floppy (registered trademark) disk, a magnetic recording tape, a flash memory, or the like. On the other hand, the storage unit 508 is often used as a device mounted in advance in the information processing unit 50 that mainly drives a non-removable recording medium. For example, the storage unit 508 and the drive unit 510 operate as a part of the calculation control storage unit 53.
通信部509は、LAN(Local Area Network)、WAN(Wide Area Network)等のネットワークに接続可能な、他のデバイスと通信するためのモデム、ルータ、その他の通信機器である。通信部509は、有線及び無線のどちらを利用して通信するものであってもよい。通信部509は、情報処理部50とは別体で使用される場合が多い。 The communication unit 509 is a modem, a router, or other communication equipment that can be connected to a network such as a LAN (Local Area Network) or a WAN (Wide Area Network) and communicates with other devices. The communication unit 509 may communicate using either wired or wireless communication. The communication unit 509 is often used separately from the information processing unit 50.
例えば撮像ユニット10と情報処理部50としての情報処理装置(PC等)とがLAN等を介して接続される場合、通信部509を介して画像データが取得される。その場合、通信部509が入出力制御部52の一部として動作する。 For example, when the imaging unit 10 and an information processing apparatus (PC or the like) as the information processing unit 50 are connected via a LAN or the like, image data is acquired via the communication unit 509. In that case, the communication unit 509 operates as a part of the input / output control unit 52.
上記のようなハードウェア構成を有する情報処理部50による情報処理は、記憶部508またはROM502等に記憶されたソフトウェアと、情報処理部50のハードウェア資源との協働により実現される。具体的には、CPU501が記憶部508またはROM502等に記憶された、ソフトウェアを構成するプログラムをRAM503にロードして実行することにより実現される。プログラムは、例えば記録媒体を介して情報処理部50にインストールされる。あるいは、グローバルネットワーク等を介してプログラムがインストールされてもよい。 Information processing by the information processing unit 50 having the above-described hardware configuration is realized by cooperation between software stored in the storage unit 508 or the ROM 502 and hardware resources of the information processing unit 50. Specifically, it is realized by the CPU 501 loading a program constituting the software stored in the storage unit 508 or the ROM 502 to the RAM 503 and executing it. The program is installed in the information processing unit 50 via, for example, a recording medium. Alternatively, the program may be installed via a global network or the like.
図6は、情報処理部50のソフトウェア構成例を示す模式的な図である。例えば所定のプログラムを実行するCPU501により、図6に示す各ソフトウェアブロックが実現される。そしてこれらのブロックや記憶部508等が動作することで、図1に示す演算制御記憶部53が実現される。なお各ブロックを実現するための専用のハードウェアが適宜用いられてもよい。 FIG. 6 is a schematic diagram illustrating a software configuration example of the information processing unit 50. For example, each software block shown in FIG. 6 is realized by the CPU 501 that executes a predetermined program. The operation control storage unit 53 shown in FIG. 1 is realized by operating these blocks, the storage unit 508, and the like. Note that dedicated hardware for realizing each block may be used as appropriate.
情報処理部50は、デバイス制御部512と、色成分画像補正部513と、色成分接続画像生成部(以下、接続画像生成部と記載する)514と、色収差補正部515と、合成画像生成部516と、補正用データ生成部517と、外観検査部518とを有する。 The information processing unit 50 includes a device control unit 512, a color component image correction unit 513, a color component connection image generation unit (hereinafter referred to as a connection image generation unit) 514, a chromatic aberration correction unit 515, and a composite image generation unit. 516, a correction data generation unit 517, and an appearance inspection unit 518.
記憶部508には、撮像ユニット10及び照明ユニット20の設定を行うための撮像設定データが予め記憶されている。また記憶部508には、CAE(コンピュータ支援エンジニアリング(Computer Aided Engineering))データが記憶されている。CAEデータは、基板1に実装される電子部品2の形状と当該電子部品2が実装されるべき座標位置を規定するデータを含む。またCAEデータは、基板1の形状及び寸法を規定するデータを含む。 The storage unit 508 stores in advance imaging setting data for setting the imaging unit 10 and the illumination unit 20. The storage unit 508 stores CAE (Computer Aided Engineering) data. The CAE data includes data defining the shape of the electronic component 2 mounted on the substrate 1 and the coordinate position where the electronic component 2 is to be mounted. The CAE data includes data defining the shape and dimensions of the substrate 1.
デバイス制御部512は、撮像ユニット10、照明ユニット20、搬送ユニット30、記憶部508及び表示部506等を制御する。例えばデバイス制御部512により、第1及び第2のカメラ11A及び11Bのそれぞれの撮影条件が調整される。 The device control unit 512 controls the imaging unit 10, the lighting unit 20, the transport unit 30, the storage unit 508, the display unit 506, and the like. For example, the device control unit 512 adjusts the shooting conditions of the first and second cameras 11A and 11B.
色成分画像補正部513は、撮像ユニット10から出力された第1の領域1Aの色成分ごとの色成分画像である複数の第1の色成分画像21Aを色成分ごとに補正する。また色成分画像補正部513は、第2の領域1Bの色成分ごとの色成分画像である複数の第2の色成分画像21Bを色成分ごとに補正する。 The color component image correction unit 513 corrects a plurality of first color component images 21A, which are color component images for each color component in the first area 1A output from the imaging unit 10, for each color component. The color component image correction unit 513 corrects a plurality of second color component images 21B, which are color component images for each color component in the second region 1B, for each color component.
色成分画像補正部513により、第1のカメラ11Aの撮像特性と、第2のカメラ11Bの撮像特性との違いによる、複数の第1の色成分画像21Aと複数の第2の色成分画像21Bとの差が補正される。本実施形態では第1及び第2のカメラ11A及び11Bの2つのカメラにより、基板1の第1及び第2の領域1A及び1Bが撮影されている。従って第1及び第2のカメラ11A及び11Bの各撮像特性の違いにより、撮影される画像間に差が出る場合がある。そのような差が適宜補正されるので、のちに第1及び第2の色成分画像21A及び21Bが合成されて全体領域のカラー画像が生成されるときに、高画質のカラー画像が生成可能となる。色成分画像補正部513は、本実施形態における補正部に相当する。 The color component image correction unit 513 causes a plurality of first color component images 21A and a plurality of second color component images 21B due to the difference between the imaging characteristics of the first camera 11A and the imaging characteristics of the second camera 11B. The difference from is corrected. In the present embodiment, the first and second regions 1A and 1B of the substrate 1 are photographed by the two cameras, the first and second cameras 11A and 11B. Therefore, there may be a difference between the captured images due to the difference in the imaging characteristics of the first and second cameras 11A and 11B. Since such a difference is appropriately corrected, it is possible to generate a high-quality color image when the first and second color component images 21A and 21B are combined to generate a color image of the entire area. Become. The color component image correction unit 513 corresponds to the correction unit in the present embodiment.
補正用データ生成部517は、色成分画像補正部513による補正に用いられる補正用データを算出する。補正用データは、所定のパターンを有する校正用被写体200(図8参照)を第1及び第2のカメラ11A及び11Bにより撮影することで生成される、複数の第1の色成分画像221A及び複数の第2の色成分画像221Bをもとに算出される。本実施形態では、補正用データが、デバイス制御部512による撮影条件の調整にも用いられる。補正用データの算出については、後に詳しく説明する。 The correction data generation unit 517 calculates correction data used for correction by the color component image correction unit 513. The correction data is generated by photographing the calibration subject 200 (see FIG. 8) having a predetermined pattern with the first and second cameras 11A and 11B, and the plurality of first color component images 221A and the plurality of color component images 221A. Is calculated based on the second color component image 221B. In the present embodiment, the correction data is also used for adjustment of shooting conditions by the device control unit 512. The calculation of the correction data will be described in detail later.
接続画像生成部514は、同じ色成分の第1及び第2の色成分画像21A及び21Bが互いに接続された色成分接続画像を色成分ごとに生成する。例えば赤色成分画像21R1及び21R2を接続することで赤色接続画像を生成する。また緑色成分画像21G1及び21G2を接続することで緑色接続画像を生成する。また青色成分画像21B1及び21B2を接続することで青色接続画像を生成する。 The connection image generation unit 514 generates, for each color component, a color component connection image in which the first and second color component images 21A and 21B having the same color component are connected to each other. For example, a red connection image is generated by connecting the red component images 21R1 and 21R2. A green connection image is generated by connecting the green component images 21G1 and 21G2. Further, a blue connection image is generated by connecting the blue component images 21B1 and 21B2.
第1及び第2の色成分画像21A及び21Bの接続方法は限定されず、例えば種々のスティッチング技術が用いられる。例えば図3に示す第1及び第2の撮影領域15A及び15Bの重なり領域15Cの画像をマッチング処理することで最適な接続位置(座標)が算出される。算出された接続位置をもとに、第1及び第2の色成分画像21A及び21Bが接続されることで、色成分ごとの色成分接続画像が生成される。 The connection method of the first and second color component images 21A and 21B is not limited. For example, various stitching techniques are used. For example, the optimum connection position (coordinates) is calculated by performing a matching process on the image of the overlapping region 15C of the first and second imaging regions 15A and 15B shown in FIG. Based on the calculated connection position, the first and second color component images 21A and 21B are connected to generate a color component connection image for each color component.
色収差補正部515は、赤色接続画像、緑色接続画像、及び青色接続画像を色成分ごとにそれぞれ補正する。色収差補正部515により、色成分の違いによる各色成分接続画像間の差が補正される。例えば色収差による各色成分接続画像間の差が補正される。また色成分の違いにより各接続画像の倍率が異なる場合も有り得る。そのような倍率の差等も補正される。 The chromatic aberration correction unit 515 corrects the red connection image, the green connection image, and the blue connection image for each color component. The chromatic aberration correction unit 515 corrects the difference between the color component connected images due to the difference in the color components. For example, a difference between the color component connection images due to chromatic aberration is corrected. In addition, the magnification of each connected image may be different due to the difference in color components. Such a magnification difference is also corrected.
色収差補正部515による補正は、記憶部508に記憶されたCAEデータが用いられる。CAEデータに含まれるアライメントマーク4の位置情報に基づいて、各色の色成分接続画像がそれぞれ補正される。詳しくは後述する。 For correction by the chromatic aberration correction unit 515, CAE data stored in the storage unit 508 is used. Based on the position information of the alignment mark 4 included in the CAE data, the color component connection image of each color is corrected. Details will be described later.
なお、色成分画像補正部513及び色収差補正部515は、本実施形態に係る補正部に相当する。すなわち本実施形態では、複数の第1の色成分画像21Aを色成分ごとに補正すること、及び複数の第2の色成分画像21Bを色成分ごとにそれぞれ補正することは、複数の色成分接続画像を色成分ごとにそれぞれ補正することを含む。言い換えると、第1及び第2の色成分画像21A及び21Bに対する補正は、それらの画像が接続されていない状態で行われる場合と、接続された状態で行われる場合の両方を意味する。 Note that the color component image correction unit 513 and the chromatic aberration correction unit 515 correspond to the correction unit according to the present embodiment. That is, in the present embodiment, correcting the plurality of first color component images 21A for each color component and correcting the plurality of second color component images 21B for each color component respectively include a plurality of color component connections. And correcting the image for each color component. In other words, the correction for the first and second color component images 21A and 21B means both a case where the correction is performed in a state where the images are not connected and a case where the correction is performed in a state where they are connected.
合成画像生成部516は、生成された複数の色成分接続画像を合成することで色合成画像としてのカラー画像を生成する。従って赤色接続画像、緑色接続画像、及び青色接続画像が合成され、基板1カラー画像が生成される。3つの接続画像の合成方法は限定されず任意の方法が用いられてよい。 The composite image generation unit 516 generates a color image as a color composite image by combining the plurality of generated color component connection images. Therefore, the red connection image, the green connection image, and the blue connection image are combined to generate a substrate 1 color image. The method for synthesizing the three connected images is not limited, and any method may be used.
なお、接続画像生成部514及び合成画像生成部516は、本実施形態に係る生成部に相当する。接続画像生成部514及び合成画像生成部516により、補正された複数の第1の色成分画像21Aと複数の第2の色成分画像21Bとが合成され、第1及び第2の領域1A及び1Bを含む全体領域の複数の色成分を有する色合成画像(カラー画像)が生成される。 The connection image generation unit 514 and the composite image generation unit 516 correspond to the generation unit according to the present embodiment. The connection image generation unit 514 and the composite image generation unit 516 combine the corrected first color component images 21A and the second second color component images 21B, and first and second regions 1A and 1B. A color composite image (color image) having a plurality of color components in the entire region including is generated.
外観検査部518は、生成されたカラー画像をもとに基板1を検査する。本実施形態では、外観検査部518により、合成画像生成部516で生成されたカラー画像と、CAEデータとが照合され、基板1の外観検査が実行される。なおCAEデータに含まれる外観検査の対象となる領域の情報が、カラー画像の座標系に変換配置されてもよい。 The appearance inspection unit 518 inspects the substrate 1 based on the generated color image. In the present embodiment, the appearance inspection unit 518 collates the color image generated by the composite image generation unit 516 with the CAE data, and executes the appearance inspection of the substrate 1. It should be noted that the information on the area to be subjected to the appearance inspection included in the CAE data may be converted and arranged in the color image coordinate system.
[外観検査装置の動作]
次に、図7のフローチャートを参照して外観検査装置100の動作について説明する。まず事前の処理として、例えばオペレータの指示や工場調整によってキャリブレーション処理が実行される。キャリブレーション処理とは、上記した補正用データを算出するため処理である。
[Operation of visual inspection equipment]
Next, the operation of the appearance inspection apparatus 100 will be described with reference to the flowchart of FIG. First, as a preliminary process, for example, a calibration process is executed by an operator instruction or factory adjustment. The calibration process is a process for calculating the correction data described above.
図8及び図9は、本実施形態のキャリブレーション処理を説明するための模式的な図である。本実施形態では、所定のパターンを有する校正用被写体200が第1及び第2のカメラ11A及び11Bにより撮影される。例えば図8に示すような、校正用パターンとしてドットパターン230を有する校正用被写体200が撮影される。 8 and 9 are schematic diagrams for explaining the calibration processing of this embodiment. In the present embodiment, the calibration subject 200 having a predetermined pattern is photographed by the first and second cameras 11A and 11B. For example, as shown in FIG. 8, a calibration subject 200 having a dot pattern 230 as a calibration pattern is photographed.
校正用被写体200は、検査ステージ40の載置面41に載置される。第1のカメラ11Aの第1の撮影領域15Aは、校正用被写体200の第1の領域201A(左半分の領域)を含むように設定される。第2のカメラ11Bの第2の撮影領域15Bは、校正用被写体200の第2の領域201B(右半分の領域)を含むように設定される。 The calibration subject 200 is placed on the placement surface 41 of the inspection stage 40. The first imaging region 15A of the first camera 11A is set to include the first region 201A (left half region) of the calibration subject 200. The second imaging region 15B of the second camera 11B is set so as to include the second region 201B (right half region) of the calibration subject 200.
図9に示すように、第1及び第2の光学フィルタホイール13A及び13Bが適宜制御されることで、校正用被写体200の第1の領域201Aの色成分ごとの色成分画像が撮影される。これにより校正用被写体200の複数の第1の色成分画像221Aが撮影される(221R1,221G1,221B1の3枚)。また校正用被写体200の第2の領域201Bの色成分ごとの色成分画像が撮影される。これにより校正用被写体200の複数の第2の色成分画像221Bが撮影される(221R2,221G2,221B2の3枚)。 As shown in FIG. 9, by appropriately controlling the first and second optical filter wheels 13A and 13B, a color component image for each color component in the first region 201A of the calibration subject 200 is photographed. As a result, a plurality of first color component images 221A of the calibration subject 200 are photographed (three images 221R1, 221G1, and 221B1). Further, a color component image for each color component in the second region 201B of the calibration subject 200 is photographed. As a result, a plurality of second color component images 221B of the calibration subject 200 are photographed (three images of 221R2, 221G2, and 221B2).
校正用被写体200の第1及び第2の色成分画像221A及び221Bは、図6に示す補正用データ生成部517に出力される。補正用データ生成部517は、色成分ごとに分けられた6枚の色成分画像221A及び221Bをもとに補正用データを算出する。 The first and second color component images 221A and 221B of the calibration subject 200 are output to the correction data generation unit 517 shown in FIG. The correction data generation unit 517 calculates correction data based on the six color component images 221A and 221B divided for each color component.
本実施形態では、色成分画像補正部513による第1及び第2のカメラ11A及び11Bのそれぞれの撮像特性の違いに関する補正に用いられる補正用データが算出される。例えば撮像特性としては、色感度、歪曲収差、又はシェーディング等が挙げられる。本実施形態では、これら3つの撮像特性に関して補正が行われる。これら3つのうちのいずれか1つあるいは任意の2つに関して補正が行われてもよい。このように色感度、歪曲収差、及びシェーディングのいずれか1つの差が補正されることで、高画質のカラー画像が生成される。なお、その他の撮像特性に関して補正が行われてもよい。 In the present embodiment, correction data used for correction related to the difference between the imaging characteristics of the first and second cameras 11A and 11B by the color component image correction unit 513 is calculated. For example, the imaging characteristics include color sensitivity, distortion, shading, and the like. In the present embodiment, correction is performed for these three imaging characteristics. Correction may be performed on any one or any two of these three. In this way, by correcting any one of color sensitivity, distortion, and shading, a high-quality color image is generated. Note that other imaging characteristics may be corrected.
また本実施形態では、デバイス制御部512による第1及び第2のカメラ11A及び11Bのそれぞれの撮影条件の調整に用いられる補正用データが算出される。例えば撮影条件としては、コントラスト又は焦点距離(作動距離:WD(working distance))等が挙げられる。補正用データを用いて、コントラストの調整及び焦点距離の調整のいずれか1つまたは両方が行われることで、高画質のカラー画像が生成可能となる。なお、その他の撮影条件に関して調整が実行されてもよい。 In the present embodiment, correction data used to adjust the shooting conditions of the first and second cameras 11A and 11B by the device control unit 512 is calculated. For example, imaging conditions include contrast or focal length (working distance: WD (working distance)). A high-quality color image can be generated by performing either one or both of the contrast adjustment and the focal length adjustment using the correction data. Note that adjustments may be performed regarding other imaging conditions.
例えば被検査基板1に応じて、検査ステージ40、第1及び第2のカメラ11A及び11B、第1及び第2のレンズ12A及び12B、第1及び第2の光学フィルタホイール13A及び13B、反射ミラー14、及び照明ユニット20の位置関係が適宜設定される。このときに補正用データを用いて焦点距離(作動距離)等が適宜調整される。 For example, according to the substrate 1 to be inspected, the inspection stage 40, the first and second cameras 11A and 11B, the first and second lenses 12A and 12B, the first and second optical filter wheels 13A and 13B, and the reflection mirror 14 and the lighting unit 20 are set as appropriate. At this time, the focal length (working distance) and the like are appropriately adjusted using the correction data.
図10及び図11は、補正用データの算出について説明するための模式的な図である。図10に示すように、ドットパターン230を色成分ごとに撮影すると、赤色成分画像R、緑色成分画像G、及び青色成分画像Bのそれぞれにおいて、ドットパターン230R、230G及び230Bにそれぞれ歪みが発生する。この歪みは、レンズの歪曲収差により生じる歪みであり、第1及び第2のカメラ11A及び11B間で異なるものとなる。またRGBの各色成分光の波長の差により、各色成分画像のドットパターン230R、230G及び230Bにそれぞれ生じる歪みも異なるものとなる。 10 and 11 are schematic diagrams for explaining calculation of correction data. As shown in FIG. 10, when the dot pattern 230 is photographed for each color component, distortion occurs in the dot patterns 230R, 230G, and 230B in the red component image R, the green component image G, and the blue component image B, respectively. . This distortion is a distortion caused by the distortion of the lens, and is different between the first and second cameras 11A and 11B. Further, the distortions generated in the dot patterns 230R, 230G, and 230B of the color component images are also different due to the difference in wavelength of the RGB color component lights.
ドットパターン230の各ドット231の座標情報は予め記憶されている。例えばドットパターン230の中心Oを基準点として各ドット231の座標が定められる。座標は、例えば画素単位で定められる。すなわち倍率等が考慮された状態で、歪み無く撮影された場合の各ドット231の座標情報が算出されて記憶されている。これらの記憶されている座標情報を理論的なドット座標情報と記載する。 The coordinate information of each dot 231 of the dot pattern 230 is stored in advance. For example, the coordinates of each dot 231 are determined using the center O of the dot pattern 230 as a reference point. The coordinates are determined in units of pixels, for example. That is, the coordinate information of each dot 231 when the image is taken without distortion in consideration of the magnification and the like is calculated and stored. These stored coordinate information is described as theoretical dot coordinate information.
図10に示す赤色成分画像R、緑色成分画像G、及び青色成分画像Bのそれぞれの中心座標Oが計測される。その中心座標Oを基準とした各色成分画像R、G及びB上の各ドット231R、231G及び231Bの座標が算出される。各ドットの座標は、例えば画素値の情報をもとに算出される。あるいは任意の画像分析処理により各色成分画像R、G及びB上の各ドット231R、231G及び231Bの座標が算出されてもよい。 The center coordinates O of the red component image R, the green component image G, and the blue component image B shown in FIG. 10 are measured. The coordinates of the dots 231R, 231G, and 231B on the color component images R, G, and B with respect to the center coordinate O are calculated. The coordinates of each dot are calculated based on pixel value information, for example. Alternatively, the coordinates of the dots 231R, 231G, and 231B on the color component images R, G, and B may be calculated by an arbitrary image analysis process.
赤色成分画像R、緑色成分画像G、及び青色成分画像Bのそれぞれにおいて、補正用データとしての補正ベクトルマップが算出される。補正ベクトルマップは、各色成分画像において算出されたドット座標情報と、理論的なドット座標情報とが比較されることで生成される。すなわち各色成分画像R、G及びB上の各ドット231R、231G及び231Bの位置が、理論的なドット231の位置となるような補正ベクトルマップが生成される。 In each of the red component image R, the green component image G, and the blue component image B, a correction vector map as correction data is calculated. The correction vector map is generated by comparing the dot coordinate information calculated in each color component image with the theoretical dot coordinate information. That is, a correction vector map is generated such that the positions of the dots 231R, 231G, and 231B on the color component images R, G, and B are the theoretical positions of the dots 231.
補正ベクトルマップを生成する方法は限定されない。例えば全てのドットの位置情報が用いられてもよいし、所定のドットを選択してそれらの位置情報が用いられてもよい。算出されたドット位置情報が適宜変換されたものが用いられて補正ベクトルマップが生成されてもよい。 The method for generating the correction vector map is not limited. For example, position information of all dots may be used, or predetermined dots may be selected and their position information may be used. A correction vector map may be generated by using the calculated dot position information appropriately converted.
このような処理が、図9に示す校正用被写体200の複数の第1の色成分画像221Aと、複数の第2の色成分画像221Bとに実行される。これにより第1及び第2のカメラ11A及び11Bにそれぞれ用いられる第1及び第2のレンズ12A及び12Bの歪曲収差が色成分ごとに補正可能となる。これにより第1及び第2のカメラ11A及び11B間での歪曲収差による画像間の差が補正される。またRGBの色成分の差に起因した歪曲収差も補正される。 Such processing is executed for the plurality of first color component images 221A and the plurality of second color component images 221B of the calibration subject 200 shown in FIG. Accordingly, the distortion aberration of the first and second lenses 12A and 12B used in the first and second cameras 11A and 11B can be corrected for each color component. As a result, the difference between the images due to distortion between the first and second cameras 11A and 11B is corrected. In addition, distortion due to the difference in RGB color components is also corrected.
RGBの色成分画像221A及び221Bごとに補正ベクトルを算出するので、高い精度の補正ベクトルマップを、歪曲収差を補正するための補正用データとして算出可能である。なお補正ベクトルマップにより、色成分画像21A及び21Bが色成分ごとに補正されるので、色収差の補正も行われることになる。 Since the correction vector is calculated for each of the RGB color component images 221A and 221B, a highly accurate correction vector map can be calculated as correction data for correcting distortion. Since the color component images 21A and 21B are corrected for each color component by the correction vector map, chromatic aberration is also corrected.
本実施形態では、校正用被写体200の複数の第1の色成分画像221A及び複数の第2の色成分画像221Bの6枚の画像をもとに、2つのカメラ11A及び11B間の色感度の差、及びシェーディングの差を補正するための補正用データも算出される。それらの補正用データの算出方法は任意であり、例えば公知の技術が適宜用いられてよい。 In the present embodiment, the color sensitivity between the two cameras 11A and 11B is based on the six images of the plurality of first color component images 221A and the plurality of second color component images 221B of the calibration subject 200. Correction data for correcting the difference and the shading difference is also calculated. The calculation method of these correction data is arbitrary, for example, a well-known technique may be used suitably.
図11は、第1及び第2のカメラ11A及び11Bのそれぞれのコントラスト調整に用いられる補正用データについて説明するための写真である。 FIG. 11 is a photograph for explaining correction data used for contrast adjustment of the first and second cameras 11A and 11B.
例えば第1及び第2のカメラ11A及び11Bのそれぞれのチルティング(傾斜)等により、撮影される画像内でコントラストに差が生じる場合がある。本実施形態では、第1及び第2のカメラ11A及び11B間でのコントラストの差と、同じ画像内でのコントラストのばらつきとを補正することができる。 For example, there may be a difference in contrast in the captured image due to tilting (tilting) of the first and second cameras 11A and 11B. In this embodiment, the difference in contrast between the first and second cameras 11A and 11B and the variation in contrast in the same image can be corrected.
本実施形態では、第1のカメラ11Aで撮影された第1の色成分画像221Aの4隅の領域221A1〜221A4、及び第2のカメラ11Bで撮影された第2の色成分画像221Bの4隅の領域221B1〜221B4のそれぞれのコントラストレベルが計測される。すなわちこれら8つの領域を8計測点として、コントラストレベルが数値化される。 In the present embodiment, four corner areas 221A1 to 221A4 of the first color component image 221A photographed by the first camera 11A and four corners of the second color component image 221B photographed by the second camera 11B. The respective contrast levels of the regions 221B1 to 221B4 are measured. That is, the contrast level is digitized using these eight regions as eight measurement points.
コントラスレベルを数値化する方法は任意であり、例えば2値化演算や画像内の輝度のばらつき幅の算出等を用いて数値化が行われる。ドット241のエッジ検出等により、ドット241の形状のにじみ具合が数値化されてもよい。 The method for quantifying the contrast level is arbitrary, and for example, the quantification is performed using binarization calculation or calculation of the luminance variation width in the image. The degree of blurring of the shape of the dot 241 may be digitized by detecting the edge of the dot 241 or the like.
数値化されたデータをもとに、8つの領域のコントラストレベルが均一になるように撮像ユニット10や照明ユニット20の設定を調整するための補正用データが生成される。なお生成された補正用データを用いて、撮影された第1及び第2の色成分画像21A及び21Bが補正されてもよい。 Based on the digitized data, correction data for adjusting the settings of the imaging unit 10 and the illumination unit 20 so that the contrast levels of the eight regions are uniform is generated. The captured first and second color component images 21A and 21B may be corrected using the generated correction data.
本実施形態では、色成分画像221A及び221Bごとにコントラストや焦点距離の調整に関する補正用データが算出される。これに限定されず、例えば第1及び第2の光学フィルタホイール13A及び13Bの透過板19Tを用いて撮影された2つの画像からコントラストや焦点距離の補正に関する補正用データが用いられてもよい。その他所定の色成分の画像のみを用いて補正用データが算出されてもよい。 In the present embodiment, correction data related to adjustment of contrast and focal length is calculated for each of the color component images 221A and 221B. The present invention is not limited to this, and for example, correction data relating to correction of contrast and focal length may be used from two images taken using the transmission plates 19T of the first and second optical filter wheels 13A and 13B. Other correction data may be calculated using only an image having a predetermined color component.
ドットパターン230を構成する各ドット231の大きさ、数、又はドット231間の間隔は任意である。またドット231の色も選択可能である。各色成分画像221A及び221Bの撮影に合わせて異なる色のドット231を有する複数の校正用被写体200がもちいられてもよい。1枚の校正用被写体200から複数の色成分画像221A及び221Bが撮影されてもよい。 The size and number of the dots 231 constituting the dot pattern 230 or the interval between the dots 231 is arbitrary. The color of the dot 231 can also be selected. A plurality of calibration subjects 200 having different color dots 231 may be used in accordance with the photographing of the respective color component images 221A and 221B. A plurality of color component images 221A and 221B may be taken from one calibration subject 200.
校正用被写体200としては、キャリブレーション用のターゲットチャートとして用いられるものが適宜採用可能である。校正用被写体200はドットパターンを有するものに限定されない。チェッカーパターンやMTF(Modulation Transfer Function)パターン等を校正用パターンとして有する校正用被写体200が用いられてもよい。 As the calibration subject 200, one used as a calibration target chart can be appropriately employed. The calibration subject 200 is not limited to one having a dot pattern. A calibration subject 200 having a checker pattern, an MTF (Modulation Transfer Function) pattern, or the like as a calibration pattern may be used.
上記のようにして図7に示す、コントラスト調整、WD調整、レンズ歪曲収差補正、シェーディング補正及びカメラ色感度補正のための補正用データPR0〜PR4がそれぞれ算出される。 As described above, correction data PR0 to PR4 for contrast adjustment, WD adjustment, lens distortion correction, shading correction, and camera color sensitivity correction shown in FIG. 7 are calculated.
図7のフローチャートに戻り、情報処理部50は記憶部508に予め記憶されている撮像設定データを読み込む(ステップ1)。そして、デバイス制御部512は、この撮像設定データに基づいて撮像ユニット10及び照明ユニット20の設定を行う(ステップ2)。具体的には、デバイス制御部512は、照明ユニット20の照明光の光の色や光量等を設定し、また第1及び第2のカメラ11A及び11Bのそれぞれの絞りやシャッター速度等を設定する。 Returning to the flowchart of FIG. 7, the information processing unit 50 reads imaging setting data stored in advance in the storage unit 508 (step 1). Then, the device control unit 512 sets the imaging unit 10 and the illumination unit 20 based on the imaging setting data (Step 2). Specifically, the device control unit 512 sets the color and amount of light of the illumination light of the illumination unit 20, and sets the aperture and shutter speed of each of the first and second cameras 11A and 11B. .
このデバイス制御部512による設定ステップにおいて、コントラスト調整用の補正データPR0、及びWD調整用の補正データPR1が用いられ、撮像ユニット10等の設定調整が行われる。これにより基板1の高画質のカラー画像が生成可能となる。 In the setting step by the device control unit 512, the adjustment data PR0 for contrast adjustment and the correction data PR1 for WD adjustment are used to perform setting adjustment of the imaging unit 10 and the like. As a result, a high-quality color image of the substrate 1 can be generated.
次に、デバイス制御部512は、搬送ユニット30を制御して、外観検査をすべき基板1を搬送して検査ステージ40の載置面41上に載置する(ステップ3)。基板1を載置面41上の所定の位置に位置決めするための構成や方法等は任意の技術が用いられてよい。 Next, the device control unit 512 controls the transport unit 30 to transport the substrate 1 to be visually inspected and place it on the mounting surface 41 of the inspection stage 40 (step 3). Arbitrary techniques may be used for a configuration, a method, and the like for positioning the substrate 1 at a predetermined position on the placement surface 41.
次に、デバイス制御部512は、第1のカメラ11Aと第1の光学フィルタホイール13Aを制御することで、複数の第1の色成分画像21Aを撮影する。これにより第1の領域1Aの、赤色成分画像21R1、緑色成分画像21G1、及び青色成分画像21B1が撮影される(ステップ4)。 Next, the device control unit 512 captures a plurality of first color component images 21A by controlling the first camera 11A and the first optical filter wheel 13A. As a result, the red component image 21R1, the green component image 21G1, and the blue component image 21B1 in the first region 1A are photographed (step 4).
また、デバイス制御部512は、第2のカメラ11Bと第2の光学フィルタホイール13Bを制御することで、複数の第2の色成分画像21Bを撮影する。これにより第2の領域1Bの、赤色成分画像21R2、緑色成分画像21G2、及び青色成分画像21B2が撮影される(同じくステップ4)。 In addition, the device control unit 512 captures a plurality of second color component images 21B by controlling the second camera 11B and the second optical filter wheel 13B. As a result, the red component image 21R2, the green component image 21G2, and the blue component image 21B2 in the second region 1B are photographed (also step 4).
撮影された複数の第1の色成分画像21Aと、複数の第2の色成分画像21Bは、情報処理部50に供給される(ステップ5)。 The plurality of photographed first color component images 21A and the plurality of second color component images 21B are supplied to the information processing unit 50 (step 5).
色成分画像補正部513により、複数の第1の色成分画像21Aと、複数の第2の色成分画像21Bとがそれぞれ補正される(ステップ6)。本実施形態では、上記したレンズ歪曲収差補正用のデータPR2、シェーディング補正用データPR3、及びカメラ色感度補正用データPR4がそれぞれ用いられる。このように色成分画像21A及び21Bが画像ごとに補正されることで、これらが合成された画像である基板1の全体領域のカラー画像を高画質で生成することができる。 The color component image correction unit 513 corrects the plurality of first color component images 21A and the plurality of second color component images 21B, respectively (step 6). In the present embodiment, the lens distortion aberration correction data PR2, the shading correction data PR3, and the camera color sensitivity correction data PR4 are used. Thus, by correcting the color component images 21A and 21B for each image, it is possible to generate a color image of the entire region of the substrate 1 that is a composite image of these images with high image quality.
接続画像生成部514により、赤色成分画像21R1及び21R2、緑色成分画像21G1及び21G2、青色成分画像21B1及び21B2がそれぞれ接続される。これにより色成分ごとの色成分接続画像である、赤色接続画像、緑色接続画像、及び青色接続画像がそれぞれ生成される(ステップ7)。 The connection image generation unit 514 connects the red component images 21R1 and 21R2, the green component images 21G1 and 21G2, and the blue component images 21B1 and 21B2, respectively. As a result, a red connection image, a green connection image, and a blue connection image, which are color component connection images for each color component, are generated (step 7).
記憶部208に記憶されているCAEデータが読み込まれる(ステップ8)。読み込まれたCAEデータをもとに、色収差補正部515により、色収差による各色成分接続画像間の差が補正される(ステップ9)。合成画像生成部516により、補正された各色の色成分接続画像が合成され、基板1の全体領域のカラー画像が生成される。 The CAE data stored in the storage unit 208 is read (step 8). Based on the read CAE data, the chromatic aberration correction unit 515 corrects the difference between the color component connected images due to chromatic aberration (step 9). The composite image generation unit 516 combines the corrected color component connection images of each color, and generates a color image of the entire region of the substrate 1.
図12は、図7に示すステップ5からステップ10までの処理を詳しく示したフローチャートである。すなわち図12には、複数の第1の色成分画像21Aと複数の第2の色成分画像21Bが取得されてから、基板1のカラー画像が生成されるまでの処理が示されている。 FIG. 12 is a flowchart showing in detail the processing from step 5 to step 10 shown in FIG. That is, FIG. 12 shows processing from when the plurality of first color component images 21A and the plurality of second color component images 21B are acquired until the color image of the substrate 1 is generated.
複数の第1の色成分画像21Aと、複数の第2の色成分画像21Bとが読み込まれる(ステップ51)。第1及び第2のカメラ11A及び11B間の色感度差及びシェーディングが補正される(ステップ52)。また第1及び第2のカメラ11A及び11Bに装着される第1及び第2のレンズ12A及び12Bの歪曲収差が補正される。この際に本実施形態では、第1及び第2の色成分画像21A及び21Bの接続位置が補正される。これにより第1及び第2の色成分画像21A及び21Bの最適な接続位置の情報が算出される(ステップ53)。そして第1及び第2の色成分画像21A及び21Bが接続されて色成分接続画像が生成される(ステップ54)。ステップ52〜ステップ54までの処理は、色成分ごとに行われる。 A plurality of first color component images 21A and a plurality of second color component images 21B are read (step 51). The color sensitivity difference and shading between the first and second cameras 11A and 11B are corrected (step 52). Further, the distortion aberration of the first and second lenses 12A and 12B attached to the first and second cameras 11A and 11B is corrected. At this time, in the present embodiment, the connection positions of the first and second color component images 21A and 21B are corrected. Thereby, the information of the optimal connection position of the first and second color component images 21A and 21B is calculated (step 53). Then, the first and second color component images 21A and 21B are connected to generate a color component connection image (step 54). The processing from step 52 to step 54 is performed for each color component.
記憶部508に記憶されているCAEデータが読み込まれる(ステップ55)。CAEデータに含まれるアライメントマーク4の位置情報が読み込まれる(ステップ56)。これは図3に示す4つのアライメントマーク4のそれぞれ位置について予め登録されている情報である。これらの位置情報により、画像内の4つのアライメントマーク4の位置関係や画像の大きさ等が規定される。以下、この登録された位置情報を登録位置情報と記載する。 The CAE data stored in the storage unit 508 is read (step 55). The position information of the alignment mark 4 included in the CAE data is read (step 56). This is information registered in advance for each position of the four alignment marks 4 shown in FIG. The positional information defines the positional relationship between the four alignment marks 4 in the image, the size of the image, and the like. Hereinafter, the registered position information is referred to as registered position information.
RGBの色成分ごとの色成分接続画像からアライメントマーク4の位置が抽出される(ステップ57)。これにより赤色接続画像、緑色接続画像、及び青色接続画像のそれぞれにおいて、4つのアライメントマーク4の位置情報が算出される。モノクロ画像(グレー画像)である各色成分接続画像からアライメントマーク4の位置情報を検出する方法は限定されない。例えばエッジ検出等の任意の技術が用いられてよい。以下、RGBの色成分接続画像ごとに算出された位置情報を算出位置情報と記載する。 The position of the alignment mark 4 is extracted from the color component connection image for each RGB color component (step 57). Thereby, the position information of the four alignment marks 4 is calculated in each of the red connection image, the green connection image, and the blue connection image. The method for detecting the position information of the alignment mark 4 from each color component connection image that is a monochrome image (gray image) is not limited. For example, any technique such as edge detection may be used. Hereinafter, the position information calculated for each RGB color component connection image is referred to as calculated position information.
赤色接続画像、緑色接続画像、及び青色接続画像のそれぞれが、ステップ56で読み込まれた登録位置情報と、ステップ57で算出された算出位置情報をもとに変換される。すなわち各色成分接続画像のアライメントマーク4の位置が、登録位置情報の位置となるように画像変換が行われる。これにより各色成分接続画像のアライメントマーク4の位置が、各画間で一致することになり、各画像間の倍率等の差が補正される(ステップ58)。画像変換には、例えばアフィン変換や投影変換等の座標照合が用いられる。その他の技術が用いられてもよい。なお、投影変換はProjective変換あるいは射影変換とも表記される。 Each of the red connection image, the green connection image, and the blue connection image is converted based on the registered position information read in step 56 and the calculated position information calculated in step 57. That is, image conversion is performed so that the position of the alignment mark 4 of each color component connection image is the position of the registered position information. As a result, the positions of the alignment marks 4 of the color component connection images are matched between the images, and the difference in magnification and the like between the images is corrected (step 58). For image conversion, coordinate matching such as affine transformation or projection transformation is used. Other techniques may be used. Note that the projection transformation is also expressed as a projective transformation or a projective transformation.
例えば校正用被写体200を撮影した画像(第1及び第2の色成分画像221A及び221B)からRGBの色成分接続画像を生成し、これらから色成分接続画像を補正するための補正用データが生成されてもよい。そしてこの補正用データをもとに各色の色成分接続画像がそれぞれ補正されてもよい。本実施形態において、このような補正用データを生成しないのは、基板1の波打ち変形による高さのバラツキの影響誤差を発生しにくくするためである。すなわち基板1ごとに、RGBの色成分接続画像をそれぞれ補正することで、より高画質のカラー画像が生成可能となる。 For example, RGB color component connection images are generated from images (first and second color component images 221A and 221B) taken of the calibration subject 200, and correction data for correcting the color component connection images is generated from these. May be. The color component connection image of each color may be corrected based on the correction data. In the present embodiment, the reason why such correction data is not generated is to make it difficult to generate an influence error due to the variation in height due to the wavy deformation of the substrate 1. That is, it is possible to generate a color image with higher image quality by correcting the RGB color component connection images for each substrate 1.
アライメントマーク4の位置が一致された各色成分接続画像が合成されて、基板1の全体領域のカラー画像が生成される(ステップ59)。 The color component connection images in which the positions of the alignment marks 4 are matched are combined to generate a color image of the entire region of the substrate 1 (step 59).
図7のステップ11以降で、上記で生成されたカラー画像を用いて基板1の外観検査が行われる。基板1の外観検査では、CAEデータが用いられる。例えば図13において二点鎖線で示す枠線90はCAEデータに含まれる情報であって、枠線90は各電子部品2の形状と電子部品2が実装されるべき座標位置を規定する。なお図7の枠線91は上記の処理で用いられたアライメントマーク4の登録位置情報を表している。 After step 11 in FIG. 7, an appearance inspection of the substrate 1 is performed using the color image generated as described above. In the appearance inspection of the substrate 1, CAE data is used. For example, in FIG. 13, a frame line 90 indicated by a two-dot chain line is information included in the CAE data, and the frame line 90 defines the shape of each electronic component 2 and the coordinate position where the electronic component 2 is to be mounted. A frame line 91 in FIG. 7 represents registration position information of the alignment mark 4 used in the above processing.
外観検査部518は、カラー画像の座標位置と、CAEデータの座標位置との照合を行い(ステップ11)、照合結果が一致するか否かを判定する(ステップ12)。この場合、照合対象となる座標位置は、例えば、基板1の実装面上に予め定められた箇所の指標(マーク)の座標位置である。 The appearance inspection unit 518 performs collation between the coordinate position of the color image and the coordinate position of the CAE data (step 11), and determines whether or not the collation results match (step 12). In this case, the coordinate position to be collated is, for example, the coordinate position of an index (mark) at a predetermined location on the mounting surface of the substrate 1.
ステップ12が否定ならば、リトライカウンタに1を加算し、リトライカウンタの計数値Nが基準値aを上回ったか否かを判定し(ステップ21)、その判定結果が否定ならば、リトライする。すなわち、現在検査中の基板1の姿勢や位置が何らかの原因で、位置決めされるべき位置からずれているものと判断してステップ3に戻り検査ステージ40への搬送、載置の動作をやりなおす。 If step 12 is negative, 1 is added to the retry counter, and it is determined whether or not the count value N of the retry counter exceeds the reference value a (step 21). If the determination result is negative, retry is performed. That is, it is determined that the posture or position of the substrate 1 currently being inspected is deviated from the position to be positioned for some reason, and the process returns to step 3 and the operations of carrying and placing on the inspection stage 40 are performed again.
ステップ21が肯定ならば、基板1に異常があるものとして、表示部506にアラーム表示を実行させ、オペレータに報知する(ステップ22)。このような異常の発生原因としては、例えば、検査すべき基板1と異なる基板が誤って検査ステージ40上に載置されることが挙げられる。 If step 21 is affirmative, it is assumed that there is an abnormality in the substrate 1, and an alarm is displayed on the display unit 506 to notify the operator (step 22). As a cause of the occurrence of such an abnormality, for example, a substrate different from the substrate 1 to be inspected is erroneously placed on the inspection stage 40.
基板1の異常のアラーム表示が行われると、ステップ16に移行して、異常発生を示すデータを記憶部508に記憶する。 When the alarm display of the abnormality of the substrate 1 is performed, the process proceeds to step 16 and data indicating the occurrence of the abnormality is stored in the storage unit 508.
ステップ12が肯定ならば、外観検査部518は、カラー画像と、CAEデータとを照合することにより基板1の外観検査を行う(ステップ13)。 If step 12 is positive, the appearance inspection unit 518 performs an appearance inspection of the substrate 1 by comparing the color image with the CAE data (step 13).
例えば、図13に示すように、外観検査部518は、枠線90に対する電子部品2の位置ずれの大きさを検出し、また、枠線90に電子部品2が無ければ欠品を検出する。言い換えると、電子部品2と枠線90との画像のずれ、あるいは、枠線90と電子部品2との不一致に基づいて、電子部品2の位置ずれの大きさを検出し、欠品を検出する。また例えば印刷されたペースト状ハンダのズレ量や面積、ハンダ量、異物混入などの状況が検出される。このような基板1の外観検査として従来公知のさまざまな検査が採用可能である。 For example, as shown in FIG. 13, the appearance inspection unit 518 detects the size of the positional deviation of the electronic component 2 with respect to the frame line 90, and detects a missing item if there is no electronic component 2 on the frame line 90. In other words, based on the image shift between the electronic component 2 and the frame line 90 or the mismatch between the frame line 90 and the electronic component 2, the size of the position shift of the electronic component 2 is detected and the missing item is detected. . Further, for example, a situation such as a deviation amount or an area of the printed paste-like solder, a solder amount, or a foreign matter contamination is detected. Various conventionally known inspections can be adopted as the appearance inspection of the substrate 1.
例えば外観検査として、照度差ステレオ法や縞干渉法を用いて基板1の3D情報が計測される場合がある。本実施形態では、第1及び第2のカメラ11A及び11Bや照明ユニット20等を移動させる必要がないため、3D情報を計測するときに、カメラ11と被検査基板1を全く同じ位置関係に維持することが可能である。従って、2D撮像データ(生成されたカラー画像)のレジストとペースト状ハンダの境界情報を利用して、3D計測情報の欠落(誤差大)部を高精度に補正することができる。カラー画像として高画質の画像が生成されるので、カラー画像の情報を用いた3D情報の計測に有利である。 For example, as an appearance inspection, 3D information of the substrate 1 may be measured using an illuminance difference stereo method or a fringe interference method. In the present embodiment, since it is not necessary to move the first and second cameras 11A and 11B, the illumination unit 20, and the like, the camera 11 and the substrate 1 to be inspected are maintained in exactly the same positional relationship when measuring 3D information. Is possible. Accordingly, the missing (large error) portion of the 3D measurement information can be corrected with high accuracy by using the boundary information between the resist and the paste solder of the 2D imaging data (generated color image). Since a high-quality image is generated as a color image, it is advantageous for measurement of 3D information using color image information.
またペースト状ハンダ体積を算出するプロセスにおいて、例えば事前に計測された印刷前の被検査基板(生基板)サンプルのレジストとランドの凹凸情報を用いて、検査対象領域内のペースト状ハンダ体積をそれらの差分によって高精度に算出することが可能となる。また、計測基準面をレジスト表面に設定し、色判別によってレジスト表面に異物や傷などの異常がない事を確認することが可能である。 In the process of calculating the paste solder volume, for example, the pre-printed inspected substrate (raw substrate) sample resist and land unevenness information is used to calculate the paste solder volume in the inspection target area. It is possible to calculate with high accuracy by the difference between the two. It is also possible to set the measurement reference surface to the resist surface and confirm that there is no abnormality such as foreign matter or scratches on the resist surface by color discrimination.
次いで、外観検査部518は、ステップ13で検出した電子部品2の位置ずれや欠品を示す数値から判定値を演算により求める(ステップ14)。そして、この判定値を基準値と比較して合否判定を行う(ステップ15)。 Next, the appearance inspection unit 518 calculates a determination value from the numerical value indicating the positional deviation or missing part of the electronic component 2 detected in Step 13 (Step 14). Then, the determination value is compared with a reference value to make a pass / fail determination (step 15).
ステップ15が肯定ならば、ステップ13で検出された数値やステップ14で演算された判定値を含むデータを集計して記憶部508に記憶する(ステップ16)。また、ステップ15が否定ならば、ステップ22でアラーム表示をした後、ステップ16に移行する。 If step 15 is affirmative, the data including the numerical value detected in step 13 and the determination value calculated in step 14 are aggregated and stored in the storage unit 508 (step 16). On the other hand, if step 15 is negative, an alarm is displayed in step 22, and then the process proceeds to step 16.
以上、本実施形態に係る外観検査装置では、上記した情報処理方法が実行されることにより、基板1の第1の領域1Aについての複数の第1の色成分画像21Aと、第1の領域1Aに隣接する第2の領域1Bについての複数の第2の色成分画像21Bとがそれぞれ取得される。複数の第1の色成分画像21Aは色成分ごとに補正され、また複数の第2の色成分画像21Bも色成分ごとに補正される。これらの補正された複数の第1の色成分画像21Aと複数の第2の色成分画像21Bとが合成されることで、第1及び第2の領域1A及び1Bを含む全体領域(基板1の全体領域)のカラー画像である色合成画像が生成される。これにより基板1の高画質のカラー画像を低コストで取得することが可能となる。 As described above, in the appearance inspection apparatus according to the present embodiment, by executing the information processing method described above, a plurality of first color component images 21A for the first region 1A of the substrate 1 and the first region 1A. A plurality of second color component images 21B for the second region 1B adjacent to the second region 1B are acquired. The plurality of first color component images 21A are corrected for each color component, and the plurality of second color component images 21B are also corrected for each color component. By combining the plurality of corrected first color component images 21A and the plurality of second color component images 21B, the entire region including the first and second regions 1A and 1B (of the substrate 1). A color composite image that is a color image of the entire area) is generated. As a result, a high-quality color image of the substrate 1 can be obtained at low cost.
例えば基板の画像を撮影して基板の外観検査を行う場合、以下のような問題点が生じる可能性がある。 For example, when an image of a substrate is taken to perform an appearance inspection of the substrate, the following problems may occur.
視野が狭いエリアスキャン型の撮像装置を2つ用いて基板を撮影する検査装置では、それぞれの撮像装置において高解像度の画像が得られるが、2つの画像を適切に接続するのが難しい。従ってエリア間にまたがる部品や異物の検出が困難となる。例えばエリア間のつなぎ部が視差の影響で繋がらず、異物や結果部品として誤検出される可能性がる。 In an inspection apparatus that images a substrate using two area scan type imaging devices with a narrow field of view, a high resolution image can be obtained in each imaging device, but it is difficult to properly connect the two images. Therefore, it becomes difficult to detect parts and foreign matters that span areas. For example, a connecting portion between areas is not connected due to the influence of parallax, and may be erroneously detected as a foreign object or a result component.
視野が広いラインスキャン型の撮像装置を有する検査装置では、広範囲の画像を取得できるが、光源角度の方向制約がある。このため、異物や光沢部品表面文字の検出性能が低い。またラインスキャン型の検査装置では、スキャンスピードが遅く、高価な大型レンズが必要となる。 In an inspection apparatus having a line scan type imaging apparatus with a wide field of view, a wide range of images can be acquired, but there is a restriction on the direction of the light source angle. For this reason, the detection performance of foreign matter and glossy part surface characters is low. Further, the line scan type inspection apparatus has a slow scanning speed and requires an expensive large lens.
エリアスキャン型の撮像装置を複数有する検査装置では、検査画像を保存してトレサビリティを確保する場合、データベースによる基板シリアルNoと複数のエリア画像との紐付けが必要であり、運用ロスとリスクが発生する。 In an inspection device that has multiple area scan type imaging devices, when storing inspection images and ensuring traceability, it is necessary to link the substrate serial number and multiple area images using a database, resulting in operational loss and risk. To do.
ベイヤー方式のカラーカメラが用いられる場合、モノクロカメラに較べて解像力が低い。高画素のイメージャを搭載したカラーカメラは、上記ベイヤーカラー方式以外に市場に無いので、検査装置に採用できない。また色成分ごとの焦点距離が合わずピントがぼけてしまう。カラーカメラは、モノクロカメラに比べて感度が低い。サイズが大きいイメージャを搭載したカメラは高価である。 When a Bayer color camera is used, the resolving power is lower than that of a monochrome camera. A color camera equipped with a high-pixel imager cannot be used in an inspection apparatus because there is no other market than the Bayer color system. Also, the focal length for each color component does not match and the focus is blurred. Color cameras are less sensitive than monochrome cameras. A camera with a large imager is expensive.
例えば基板の外観検査のために、カメラ及び照明ヘッドをxy平面方向で移動させる構成がとられる場合がある。このような場合に、過去の製造品質を管理する際、工程内検査時の計測データを呼び出すという手段が用いられるとする。そうすると、実際の基板の不良箇所と過去の計測データを照合するためには、動作ヘッドの座標データとその時の撮画像を紐付ける高度な管理ツールが必要であり、また、機差などによる不整合も生じる。 For example, there may be a configuration in which the camera and the illumination head are moved in the xy plane direction for visual inspection of the substrate. In such a case, when managing past manufacturing quality, it is assumed that means for calling up measurement data at the time of in-process inspection is used. Then, in order to collate the defective part of the actual board with the past measurement data, an advanced management tool that links the coordinate data of the operating head and the captured image at that time is necessary, and inconsistencies due to machine differences etc. Also occurs.
例えば「小さい基板は難度が高い」などの基板ごとの傾向性に対し、カメラやセンサの分解能を適合させるために、複数レンズ化や可変倍率化が挙げられる。しかしこのような構成では、動作軸の振動やレンズ回転などの影響で画像の位置情報が劣化し、補正不可能な撮像になってしまう可能性がある。 For example, in order to adapt the resolution of the camera or sensor to the tendency for each substrate such as “small substrates have a high degree of difficulty”, a plurality of lenses and a variable magnification can be cited. However, in such a configuration, there is a possibility that the positional information of the image deteriorates due to the influence of the vibration of the operation axis, the lens rotation, etc., and the image cannot be corrected.
基板全体を1フレーム内に撮像した場合、レンズによる色収差や歪曲収差によって画像の周辺部の情報が劣化して、CAEデータと座標を一致させることが非常に困難となる。 When the entire substrate is imaged in one frame, information on the peripheral portion of the image is deteriorated due to chromatic aberration and distortion by the lens, and it becomes very difficult to match the CAE data with the coordinates.
例えば上記のような問題に対して、本実施形態に係る外観検査装置では、複数の第1の色成分画像21Aと複数の第2の色成分画像21Bとをそれぞれ色成分ごとに補正する。従って第1の色成分画像21Aと第2の色成分画像21Bとを適正に接続することが可能となり、高画質のカラー画像を生成することが可能となる。この結果、誤検出のない高精度で高速な外観検査が可能となる。 For example, with respect to the above problems, the appearance inspection apparatus according to the present embodiment corrects the plurality of first color component images 21A and the plurality of second color component images 21B for each color component. Therefore, the first color component image 21A and the second color component image 21B can be properly connected, and a high-quality color image can be generated. As a result, high-accuracy and high-speed appearance inspection without erroneous detection becomes possible.
2つのカメラ11A及び11Bが用いられて第1及び第2の領域1A及び1Bがそれぞれ撮影されるので、例えば面積の大きい範囲を全体領域として撮影することが容易となる。そのように撮影された第1及び第2の色成分画像21A及び21Bを合成して、全体領域の高画質なカラー画像を低コストで生成することが可能である。 Since the two cameras 11A and 11B are used to photograph the first and second regions 1A and 1B, respectively, for example, it is easy to photograph a large area as an entire region. The first and second color component images 21A and 21B thus photographed can be combined to generate a high-quality color image of the entire area at a low cost.
第1及び第2のカメラ11A及び11Bで基板1を撮影するので、カメラ+照明ヘッドをXY平面上で動作する必要が無い。従って、動作精度に必要なフレーム剛性も不要となるので非常に安価にシステム筐体の構成ができる。さらに、被検査基板1を固定する機構が不要となり、搬送トラブルリスクを低減できる。 Since the board | substrate 1 is image | photographed with the 1st and 2nd cameras 11A and 11B, it is not necessary to operate | move a camera + illumination head on XY plane. Therefore, the frame rigidity necessary for the operation accuracy is not required, so that the system casing can be configured at a very low cost. Furthermore, a mechanism for fixing the substrate 1 to be inspected is not necessary, and the conveyance trouble risk can be reduced.
第1及び第2のカメラ11A及び11Bや照明ユニット20等を移動させる必要がないため、照明系に高精度な縞模様などを照射する投光機器や高精度なアクチュエータ等が不要となり、安価な構成が可能である。従って低コストで高画質のカラー画像を取得することができる。 Since there is no need to move the first and second cameras 11A and 11B, the illumination unit 20, and the like, a lighting device that irradiates the illumination system with a high-precision striped pattern, a high-precision actuator, and the like are unnecessary, and the cost is low. Configuration is possible. Therefore, a high-quality color image can be acquired at low cost.
また動作ヘッドの座標データ等を管理する必要なないので高度な管理ツールが不要となりコストを抑えることができる。また機差などによる不整合もなくすことができる。また複数レンズ化や可変倍率化等を用いることなく高精度のカラー画像を生成することができる。 Further, since it is not necessary to manage the coordinate data and the like of the operating head, an advanced management tool is not required and costs can be reduced. Inconsistencies due to machine differences can also be eliminated. In addition, a highly accurate color image can be generated without using a plurality of lenses or a variable magnification.
基板反りによって幅方法寸法が減少したときの座標ズレや、反り高さによる3D計測誤差が発生しにくい。このため例えばCAEデータから検査データを自動作成した後のデバッグ作業が低減できる。またペースト状はんだ分の体積のみを抽出できるので、多少の印刷ズレがあっても体積が規定範囲であれば良品判定したい場合、より正確な判定が可能となる。 Coordinate displacement when the width method dimension decreases due to substrate warpage and 3D measurement errors due to warpage height are less likely to occur. For this reason, for example, debugging work after automatically creating inspection data from CAE data can be reduced. In addition, since only the volume of the paste solder can be extracted, even if there is some printing deviation, more accurate determination is possible if it is desired to make a non-defective determination if the volume is within a specified range.
アライメントマークを使ってレンズによる色収差を補正すると、レンズ端部で発生する画像内の異色間境界のコントラスト劣化が改善されるため、座標補正精度が向上する。また、はんだとレジスト間の境界エッジが明瞭になるため、ペースト状はんだの面積や体積、ズレの計測精度も向上する。 When the chromatic aberration due to the lens is corrected using the alignment mark, the contrast deterioration of the boundary between different colors in the image generated at the lens end portion is improved, so that the coordinate correction accuracy is improved. In addition, since the boundary edge between the solder and the resist becomes clear, the measurement accuracy of the area, volume, and deviation of the paste solder is improved.
2台のカメラ11A及び11Bを用いて1フレームの画像を生成可能であるので、高価な大判カメラと同じ解像力を安価に得られる。また、故障時の修繕リスクが半分になる。また、 Since one frame of image can be generated using the two cameras 11A and 11B, the same resolution as an expensive large format camera can be obtained at low cost. Also, the repair risk at the time of failure is halved. Also,
例えば2台のカメラ11A及び11Bが背中合わせに煽り姿勢で配置された場合でも、コントラストが8計測点によって調整される。このため一眼の広角レンズよりも歪が小さく安定したコントラストの撮影が可能となる。 For example, even when the two cameras 11A and 11B are arranged back to back, the contrast is adjusted by 8 measurement points. Therefore, it is possible to shoot with a stable contrast with less distortion than a single-lens wide-angle lens.
本実施形態では、選択された色成分光によるモノクロ画像が色成分画像21A及び21Bとして撮影されるので、色合成画像として高画質のカラー画像が生成される。すなわちベイヤーフィルタ無しにカラー画像が得られるため、高感度/高解像度であり、広視野の画像検査に有利である。また、はんだ粒と画素サイズがおよそ一致した場合、高輝度の輝点となってはんだ粒が光ってもRGBの斑点模様にならない可能性が高い。 In the present embodiment, since the monochrome image by the selected color component light is photographed as the color component images 21A and 21B, a high-quality color image is generated as the color composite image. That is, since a color image can be obtained without a Bayer filter, it has high sensitivity / high resolution, which is advantageous for wide-field image inspection. In addition, when the solder grain and the pixel size are approximately the same, there is a high possibility that even if the solder grain becomes a bright spot with high brightness, the spot pattern of RGB does not occur.
2つのカメラ11A及び11Bにより、被検査基板1全体を1フレーム内に収めて撮像するため、基板の異常検出が容易ある。また、異物の見逃しリスクが低い。 Since the entire substrate 1 to be inspected is captured in one frame by the two cameras 11A and 11B, it is easy to detect abnormality of the substrate. In addition, the risk of missing foreign objects is low.
カメラ11A及び11Bや被検査基板1の位置を移動させずに2Dと3Dの両方を連続して計測撮像ができるので、切替え移動時間によるタクトロスがない。また、2D/3Dの位置関係を相関させるキャリブレーションも不要である。従って2D/3D両計測データ間の座標補正量を0にすることが可能となる。 Since both 2D and 3D can be continuously measured and imaged without moving the positions of the cameras 11A and 11B and the substrate 1 to be inspected, there is no tact loss due to switching movement time. Further, calibration for correlating the 2D / 3D positional relationship is not necessary. Therefore, the coordinate correction amount between the 2D / 3D measurement data can be made zero.
2Dのカラー画像から被検査基板1の色情報がわかるため、照度差ステレオ処理時の色影響レベルを補完することが可能である。 Since the color information of the substrate 1 to be inspected is known from the 2D color image, it is possible to complement the color influence level during the illuminance difference stereo process.
トレサビリティを図る際、基板1枚の画像情報が1ファイルで構成可能であるので、不良返品現物と生産時データとの照合が容易であり、データ管理システム構成も簡潔である。 When trying to achieve traceability, the image information of one board can be composed of one file, so that it is easy to collate defective returns and production data, and the configuration of the data management system is simple.
光学フィルタホイール13の各色のフィルタの焦点が一致しているため、波長域が異なる色成分画像でもコントラスト良く画像処理ができる。 Since the focal points of the filters of the respective colors of the optical filter wheel 13 are matched, image processing with high contrast can be performed even with color component images having different wavelength ranges.
[基板の製造方法]
本実施形態に係る外観検査装置100による検査の結果をもとに基板1の良否が判定され、良品として判定された基板1が選択される。これにより本実施形態に係る基板の製造方法が実現される。
[Substrate manufacturing method]
The quality of the substrate 1 is determined based on the result of the inspection by the appearance inspection apparatus 100 according to the present embodiment, and the substrate 1 determined as a non-defective product is selected. Thereby, the substrate manufacturing method according to the present embodiment is realized.
<変形例>
本技術に係る実施形態は、上記で説明した実施形態に限定されず種々変形される。
<Modification>
The embodiment according to the present technology is not limited to the embodiment described above, and various modifications are made.
上記の実施形態では、被検査物が例えばプリント配線基板等の回路基板である場合について説明したが、本技術は被検査物が回路基板以外のものであっても適用可能である。すなわち被検査物の第1及び第2の領域を色成分ごとに撮影する。それらの色成分ごとの画像を色成分ごとに補正し、合成処理によりカラー画像を生成する。これにより高画質のカラー画像を低コストで生成することができる。 In the above-described embodiment, the case in which the object to be inspected is a circuit board such as a printed wiring board has been described. That is, the first and second regions of the inspection object are photographed for each color component. The image for each color component is corrected for each color component, and a color image is generated by the synthesis process. As a result, a high-quality color image can be generated at low cost.
上記の実施形態では、本実施形態に係る外観検査装置、検査方法、情報処理装置(情報処理部)、情報処理方法、プログラム、及び基板の製造方法について説明した。上記で説明した撮像ユニット及び情報処理部により本実施形態に係る撮像装置が実現されてもよい。この場合、第1及び第2のカメラは、それぞれ第1及び第2の撮像部として機能する。このような撮像装置により被写体の高画質のカラー画像が撮影されてもよい。当該カラー画像が被写体の検査に限定されず、種々の目的で用いられてもよい。単純に被写体の高画質のカラー画像を生成するために用いられてもよい。 In the above embodiment, the appearance inspection apparatus, the inspection method, the information processing apparatus (information processing unit), the information processing method, the program, and the substrate manufacturing method according to the present embodiment have been described. The imaging device according to the present embodiment may be realized by the imaging unit and the information processing unit described above. In this case, the first and second cameras function as first and second imaging units, respectively. A high-quality color image of the subject may be taken by such an imaging device. The color image is not limited to the inspection of the subject, and may be used for various purposes. It may be used simply to generate a high-quality color image of the subject.
被写体の光から複数の色成分の光をそれぞれ選択可能な光学素子として、光学フィルタホイール以外のものが用いられてもよい。例えば光学素子としてプリズム等が用いられてものが所定の位置に配置されてもよい。1つの撮像装置に対して1つの光学素子が設けられる構成に限定されず、例えば1つの光学素子により所定の色成分光が選択され、その色成分光が複数の撮像装置に入射してもよい。 An optical element other than the optical filter wheel may be used as an optical element that can select light of a plurality of color components from the light of the subject. For example, a prism or the like may be used as an optical element, and the optical element may be disposed at a predetermined position. For example, a predetermined color component light may be selected by one optical element, and the color component light may be incident on a plurality of imaging devices. .
上記では2つのカメラにより、第1及び第2の領域がそれぞれ撮影された。これに限定されず、例えば1つの撮像装置を適宜移動させることで、第1及び第2の領域がそれぞれ撮影されてもよい。そして複数の第1の色成分画像と複数の第2の色成分画像とが撮影されてもよい。 In the above, the first and second areas were respectively photographed by two cameras. However, the present invention is not limited to this. For example, the first and second regions may be photographed by appropriately moving one imaging device. A plurality of first color component images and a plurality of second color component images may be taken.
複数の第1の色成分画像と複数の第2の色成分画像とを合成してカラー画像を生成する方法は限定されない。上記のように色成分ごとの接続画像が生成されることなく、カラー画像が生成されてもよい。例えば複数の第1の色成分画像が合成されて第1の領域のカラー画像が生成される。複数の第2の色成分画像が合成されて第2の領域のカラー画像が生成される。第1及び第2の領域のそれぞれのカラー画像が接続されることで、被写体のカラー画像が生成されてもよい。 A method of generating a color image by combining a plurality of first color component images and a plurality of second color component images is not limited. A color image may be generated without generating a connection image for each color component as described above. For example, a plurality of first color component images are combined to generate a color image of the first region. A plurality of second color component images are combined to generate a color image of the second region. A color image of the subject may be generated by connecting the color images of the first and second regions.
以上説明した各形態の特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。 It is also possible to combine at least two feature portions among the feature portions of each embodiment described above.
なお、本技術は以下のような構成も採ることができる。
(1)被写体の光から複数の色成分の光をそれぞれ選択可能な光学素子を有し前記選択された色成分光による画像である色成分画像を前記色成分ごとに撮影可能な撮像装置により撮影された、前記被写体の第1の領域の前記色成分ごとの前記色成分画像である複数の第1の色成分画像と、前記第1の領域に隣接する第2の領域の前記色成分ごとの前記色成分画像である複数の第2の色成分画像とを取得し、
前記複数の第1の色成分画像を前記色成分ごとにそれぞれ補正し、前記複数の第2の色成分画像を前記色成分ごとにそれぞれ補正し、
前記補正された前記複数の第1の色成分画像と前記複数の第2の色成分画像とを合成して、前記第1及び前記第2の領域を含む全体領域の前記複数の色成分を有する色合成画像を生成する
情報処理方法。
(2)(1)に記載の情報処理方法であって、
前記撮像装置は、前記被写体のモノクロ画像を撮影可能であり、
前記色成分画像は、前記選択された色成分光によるモノクロ画像である
情報処理方法。
(3)(1)又は(2)に記載の情報処理方法であって、
前記複数の第1の色成分画像は、前記第1の領域を撮影する第1の撮像装置により撮影された画像であり、
前記複数の第2の色成分画像は、前記第2の領域を撮影する、前記第1の撮像装置と異なる第2の撮像装置により撮影された画像である
情報処理方法。
(4)(3)に記載の情報処理方法であって、
前記補正ステップは、前記第1の撮像装置の撮像特性と、前記第2の撮像装置の撮像特性との違いによる、前記複数の第1の色成分画像と前記複数の第2の色成分画像との差を補正する
情報処理方法。
(5)(4)に記載の情報処理方法であって、
前記撮像特性は、色感度、歪曲収差、及びシェーディングのうちのいずれか1つを含む
情報処理方法。
(6)(1)から(5)のうちいずれか1つに記載の情報処理方法であって、
前記生成ステップは、同じ色成分の前記第1及び前記第2の色成分画像が互いに接続された色成分接続画像を前記色成分ごとに生成し、前記生成された複数の色成分接続画像を合成することで前記色合成画像を生成し、
前記補正ステップは、前記複数の色成分接続画像を前記色成分ごとにそれぞれ補正することを含む
情報処理方法。
(7)(6)に記載の情報処理方法であって、
前記補正ステップは、前記色成分の違いによる前記色成分接続画像間の差を補正する
情報処理方法。
(8)(7)に記載の情報処理方法であって、
前記補正ステップは、色収差による前記色成分接続画像間の差を補正する
情報処理方法。
(9)(1)から(8)のうちいずれか1つに記載の情報処理方法であって、さらに、
所定のパターンを有する校正用被写体の前記複数の第1の色成分画像及び前記複数の第2の色成分画像をもとに補正用データを算出し、
前記補正ステップは、前記算出された補正用データを用いて補正を実行する
情報処理方法。
(10)(9)に記載の情報処理方法であって、さらに、
前記補正用データを用いて、前記第1及び第2の撮像装置のそれぞれの撮影条件を調整する
情報処理方法。
(11)(10)に記載の情報処理方法であって、
前記撮影条件は、コントラスト及び焦点距離のうちのいずれか1つを含む
情報処理方法。
(12)被写体の光から複数の色成分の光をそれぞれ選択可能な光学素子と、
前記選択された色成分光による画像である色成分画像を前記色成分ごとに撮影可能な1以上の撮像部と、
前記撮像部により撮影された、前記被写体の第1の領域の前記色成分ごとの前記色成分画像である複数の第1の色成分画像と、前記第1の領域に隣接する第2の領域の前記色成分ごとの前記色成分画像である複数の第2の色成分画像とを取得する取得部と、
前記複数の第1の色成分画像を前記色成分ごとにそれぞれ補正し、前記複数の第2の色成分画像を前記色成分ごとにそれぞれ補正する補正部と、
前記補正された前記複数の第1の色成分画像と前記複数の第2の色成分画像とを合成して、前記第1及び前記第2の領域を含む全体領域の前記複数の色成分を有する色合成画像を生成する生成部と
を具備する撮像装置。
(13)(12)に記載の撮像装置であって、
前記1以上の撮像部は、前記複数の第1の色成分画像を撮影する第1の撮像部と、前記複数の第2の色成分画像を撮影する、前記第1の撮像部と異なる第2の撮像部とを有する
撮像装置。
(14)(13)に記載の撮像装置であって、さらに、
前記第1の領域からの光を前記第1の撮像部へ反射し、前記第2の領域からの光を前記第2の撮像部へ反射する反射素子を具備する
撮像装置。
(15)(12)から(14)のうちいずれか1つに記載の撮像装置であって、
前記光学素子は、赤色成分光を透過させる赤色フィルタと、緑色成分光を透過させる緑色フィルタと、青色成分光を透過させる青色フィルタとを含むカラーフィルタである
撮像装置。
(16)(15)に記載の撮像装置であって、
前記赤色フィルタ、前記緑色フィルタ、及び前記青色フィルタの光の透過方向におけるそれぞれの厚みは、各フィルタを透過する前記赤色成分光、前記緑色成分光、及び前記青色成分光の各焦点距離が互いに等しくなるように調整されている
撮像装置。
(17)(16)に記載の撮像装置であって、
前記光学素子は、前記被写体からの光を当該光の焦点距離が前記赤色成分光、前記緑色成分光、及び前記青色成分光の各焦点距離と等しくなるように透過させる透過部を有する
撮像装置。
In addition, this technique can also take the following structures.
(1) An image pickup device that has an optical element that can select light of a plurality of color components from light of a subject and that can capture a color component image that is an image of the selected color component light for each color component. A plurality of first color component images that are the color component images for each of the color components in the first region of the subject, and the color components in the second region adjacent to the first region. Obtaining a plurality of second color component images which are the color component images;
Correcting each of the plurality of first color component images for each of the color components, correcting each of the plurality of second color component images for each of the color components,
The corrected plurality of first color component images and the plurality of second color component images are combined to have the plurality of color components in the entire area including the first and second areas. An information processing method for generating a color composite image.
(2) The information processing method according to (1),
The imaging device can capture a monochrome image of the subject;
The information processing method, wherein the color component image is a monochrome image by the selected color component light.
(3) The information processing method according to (1) or (2),
The plurality of first color component images are images captured by a first imaging device that captures the first region,
The plurality of second color component images are images captured by a second imaging device different from the first imaging device that images the second region.
(4) The information processing method according to (3),
In the correction step, the plurality of first color component images and the plurality of second color component images due to the difference between the imaging characteristics of the first imaging device and the imaging characteristics of the second imaging device An information processing method that corrects the difference between the two.
(5) The information processing method according to (4),
The image pickup characteristic includes any one of color sensitivity, distortion, and shading.
(6) The information processing method according to any one of (1) to (5),
The generating step generates a color component connection image in which the first and second color component images having the same color component are connected to each other, and synthesizes the plurality of generated color component connection images. To generate the color composite image,
The correction step includes correcting each of the plurality of color component connection images for each color component.
(7) The information processing method according to (6),
The information processing method, wherein the correcting step corrects a difference between the color component connected images due to the difference in the color component.
(8) The information processing method according to (7),
The correction step corrects a difference between the color component connection images due to chromatic aberration.
(9) The information processing method according to any one of (1) to (8),
Calculating correction data based on the plurality of first color component images and the plurality of second color component images of a calibration subject having a predetermined pattern;
The information processing method, wherein the correction step performs correction using the calculated correction data.
(10) The information processing method according to (9), further comprising:
An information processing method for adjusting each imaging condition of the first and second imaging devices using the correction data.
(11) The information processing method according to (10),
The imaging condition includes any one of contrast and focal length.
(12) an optical element capable of selecting light of a plurality of color components from the light of the subject,
One or more imaging units capable of photographing a color component image, which is an image of the selected color component light, for each color component;
A plurality of first color component images, which are the color component images for each of the color components of the first area of the subject, photographed by the imaging unit; and a second area adjacent to the first area An acquisition unit that acquires a plurality of second color component images that are the color component images for each of the color components;
A correction unit that corrects each of the plurality of first color component images for each of the color components, and corrects each of the plurality of second color component images for each of the color components;
The corrected plurality of first color component images and the plurality of second color component images are combined to have the plurality of color components in the entire area including the first and second areas. An imaging device comprising: a generation unit that generates a color composite image.
(13) The imaging apparatus according to (12),
The one or more imaging units are different from the first imaging unit that captures the plurality of first color component images and the first imaging unit that captures the plurality of second color component images. An imaging device.
(14) The imaging device according to (13), further including:
An imaging apparatus comprising: a reflective element that reflects light from the first region to the first imaging unit and reflects light from the second region to the second imaging unit.
(15) The imaging apparatus according to any one of (12) to (14),
The optical element is a color filter including a red filter that transmits red component light, a green filter that transmits green component light, and a blue filter that transmits blue component light.
(16) The imaging apparatus according to (15),
The thicknesses of the red filter, the green filter, and the blue filter in the light transmission direction are such that the focal lengths of the red component light, the green component light, and the blue component light transmitted through the filters are equal to each other. An imaging device that is adjusted to be.
(17) The imaging device according to (16),
The imaging device includes: a transmission unit that transmits light from the subject so that a focal length of the light is equal to each focal length of the red component light, the green component light, and the blue component light.
PR0〜PR4…補正用データ
1…基板
1A…第1の領域
1B…第2の領域
10…撮像ユニット
11A…第1のカメラ
11A…第2のカメラ
13…光学フィルタホイール
14…反射ミラー
19R…赤色フィルタ
19G…緑色フィルタ
19B…青色フィルタ
19T…透過板
21A…第1の色成分画像
21B…第2の色成分画像
50…情報処理部
51…操作表示部
52…入出力制御部
53…演算制御記憶部
100…外観検査装置
200…校正用被写体
230…ドットパターン
PR0 to PR4 ... correction data 1 ... substrate 1A ... first area 1B ... second area 10 ... imaging unit 11A ... first camera 11A ... second camera 13 ... optical filter wheel 14 ... reflection mirror 19R ... red Filter 19G ... Green filter 19B ... Blue filter 19T ... Transmission plate 21A ... First color component image 21B ... Second color component image 50 ... Information processing unit 51 ... Operation display unit 52 ... Input / output control unit 53 ... Calculation control storage Unit 100 ... Appearance inspection apparatus 200 ... Calibration subject 230 ... Dot pattern
Claims (20)
前記複数の第1の色成分画像を前記色成分ごとにそれぞれ補正し、前記複数の第2の色成分画像を前記色成分ごとにそれぞれ補正し、
前記補正された前記複数の第1の色成分画像と前記複数の第2の色成分画像とを合成して、前記第1及び前記第2の領域を含む全体領域の前記複数の色成分を有する色合成画像を生成する
情報処理方法。 Photographed by an imaging device that has an optical element that can select light of a plurality of color components from the light of the subject and that can capture a color component image that is an image of the selected color component light for each color component, A plurality of first color component images that are the color component images for each color component in the first region of the subject, and the color components for each color component in a second region adjacent to the first region. A plurality of second color component images that are images,
Correcting each of the plurality of first color component images for each of the color components, correcting each of the plurality of second color component images for each of the color components,
The corrected plurality of first color component images and the plurality of second color component images are combined to have the plurality of color components in the entire area including the first and second areas. An information processing method for generating a color composite image.
前記撮像装置は、前記被写体のモノクロ画像を撮影可能であり、
前記色成分画像は、前記選択された色成分光によるモノクロ画像である
情報処理方法。 An information processing method according to claim 1,
The imaging device can capture a monochrome image of the subject;
The information processing method, wherein the color component image is a monochrome image by the selected color component light.
前記複数の第1の色成分画像は、前記第1の領域を撮影する第1の撮像装置により撮影された画像であり、
前記複数の第2の色成分画像は、前記第2の領域を撮影する、前記第1の撮像装置と異なる第2の撮像装置により撮影された画像である
情報処理方法。 An information processing method according to claim 1,
The plurality of first color component images are images captured by a first imaging device that captures the first region,
The plurality of second color component images are images captured by a second imaging device different from the first imaging device that images the second region.
前記補正ステップは、前記第1の撮像装置の撮像特性と、前記第2の撮像装置の撮像特性との違いによる、前記複数の第1の色成分画像と前記複数の第2の色成分画像との差を補正する
情報処理方法。 An information processing method according to claim 3,
In the correction step, the plurality of first color component images and the plurality of second color component images due to the difference between the imaging characteristics of the first imaging device and the imaging characteristics of the second imaging device An information processing method that corrects the difference between the two.
前記撮像特性は、色感度、歪曲収差、及びシェーディングのうちのいずれか1つを含む
情報処理方法。 An information processing method according to claim 4,
The image pickup characteristic includes any one of color sensitivity, distortion, and shading.
前記生成ステップは、同じ色成分の前記第1及び前記第2の色成分画像が互いに接続された色成分接続画像を前記色成分ごとに生成し、前記生成された複数の色成分接続画像を合成することで前記色合成画像を生成し、
前記補正ステップは、前記複数の色成分接続画像を前記色成分ごとにそれぞれ補正することを含む
情報処理方法。 An information processing method according to claim 1,
The generating step generates a color component connection image in which the first and second color component images having the same color component are connected to each other, and synthesizes the plurality of generated color component connection images. To generate the color composite image,
The correction step includes correcting each of the plurality of color component connection images for each color component.
前記補正ステップは、前記色成分の違いによる前記色成分接続画像間の差を補正する
情報処理方法。 An information processing method according to claim 6,
The information processing method, wherein the correcting step corrects a difference between the color component connected images due to the difference in the color component.
前記補正ステップは、色収差による前記色成分接続画像間の差を補正する
情報処理方法。 The information processing method according to claim 7,
The correction step corrects a difference between the color component connection images due to chromatic aberration.
所定のパターンを有する校正用被写体の前記複数の第1の色成分画像及び前記複数の第2の色成分画像をもとに補正用データを算出し、
前記補正ステップは、前記算出された補正用データを用いて補正を実行する
情報処理方法。 The information processing method according to claim 1, further comprising:
Calculating correction data based on the plurality of first color component images and the plurality of second color component images of a calibration subject having a predetermined pattern;
The information processing method, wherein the correction step performs correction using the calculated correction data.
前記補正用データを用いて、前記第1及び第2の撮像装置のそれぞれの撮影条件を調整する
情報処理方法。 The information processing method according to claim 9, further comprising:
An information processing method for adjusting each imaging condition of the first and second imaging devices using the correction data.
前記撮影条件は、コントラスト及び焦点距離のうちのいずれか1つを含む
情報処理方法。 The information processing method according to claim 10,
The imaging condition includes any one of contrast and focal length.
前記複数の第1の色成分画像を前記色成分ごとにそれぞれ補正し、前記複数の第2の色成分画像を前記色成分ごとにそれぞれ補正する補正部と、
前記補正された前記複数の第1の色成分画像と前記複数の第2の色成分画像とを合成して、前記第1及び前記第2の領域を含む全体領域の前記複数の色成分を有する色合成画像を生成する生成部と
を具備する情報処理装置。 Photographed by an imaging device that has an optical element that can select light of a plurality of color components from the light of the subject and that can capture a color component image that is an image of the selected color component light for each color component, A plurality of first color component images that are the color component images for each color component in the first region of the subject, and the color components for each color component in a second region adjacent to the first region. An acquisition unit that acquires a plurality of second color component images that are images;
A correction unit that corrects each of the plurality of first color component images for each of the color components, and corrects each of the plurality of second color component images for each of the color components;
The corrected plurality of first color component images and the plurality of second color component images are combined to have the plurality of color components in the entire area including the first and second areas. An information processing apparatus comprising: a generation unit that generates a color composite image.
前記複数の第1の色成分画像を前記色成分ごとにそれぞれ補正し、前記複数の第2の色成分画像を前記色成分ごとにそれぞれ補正するステップと、
前記補正された前記複数の第1の色成分画像と前記複数の第2の色成分画像とを合成して、前記第1及び前記第2の領域を含む全体領域の前記複数の色成分を有する色合成画像を生成するステップと
をコンピュータに実行させるプログラム。 Photographed by an imaging device that has an optical element that can select light of a plurality of color components from the light of the subject and that can capture a color component image that is an image of the selected color component light for each color component, A plurality of first color component images that are the color component images for each color component in the first region of the subject, and the color components for each color component in a second region adjacent to the first region. Obtaining a plurality of second color component images that are images;
Correcting each of the plurality of first color component images for each of the color components, and correcting each of the plurality of second color component images for each of the color components;
The corrected plurality of first color component images and the plurality of second color component images are combined to have the plurality of color components in the entire area including the first and second areas. A program for causing a computer to execute a step of generating a color composite image.
前記選択された色成分光による画像である色成分画像を前記色成分ごとに撮影可能な1以上の撮像部と、
前記撮像部により撮影された、前記被写体の第1の領域の前記色成分ごとの前記色成分画像である複数の第1の色成分画像と、前記第1の領域に隣接する第2の領域の前記色成分ごとの前記色成分画像である複数の第2の色成分画像とを取得する取得部と、
前記複数の第1の色成分画像を前記色成分ごとにそれぞれ補正し、前記複数の第2の色成分画像を前記色成分ごとにそれぞれ補正する補正部と、
前記補正された前記複数の第1の色成分画像と前記複数の第2の色成分画像とを合成して、前記第1及び前記第2の領域を含む全体領域の前記複数の色成分を有する色合成画像を生成する生成部と
を具備する撮像装置。 An optical element capable of selecting light of a plurality of color components from the light of the subject,
One or more imaging units capable of photographing a color component image, which is an image of the selected color component light, for each color component;
A plurality of first color component images, which are the color component images for each of the color components of the first area of the subject, photographed by the imaging unit; and a second area adjacent to the first area An acquisition unit that acquires a plurality of second color component images that are the color component images for each of the color components;
A correction unit that corrects each of the plurality of first color component images for each of the color components, and corrects each of the plurality of second color component images for each of the color components;
The corrected plurality of first color component images and the plurality of second color component images are combined to have the plurality of color components in the entire area including the first and second areas. An imaging device comprising: a generation unit that generates a color composite image.
前記1以上の撮像部は、前記複数の第1の色成分画像を撮影する第1の撮像部と、前記複数の第2の色成分画像を撮影する、前記第1の撮像部と異なる第2の撮像部とを有する
撮像装置。 The imaging device according to claim 14,
The one or more imaging units are different from the first imaging unit that captures the plurality of first color component images and the first imaging unit that captures the plurality of second color component images. An imaging device.
前記光学素子は、赤色成分光を透過させる赤色フィルタと、緑色成分光を透過させる緑色フィルタと、青色成分光を透過させる青色フィルタとを含むカラーフィルタである
撮像装置。 The imaging device according to claim 14,
The optical element is a color filter including a red filter that transmits red component light, a green filter that transmits green component light, and a blue filter that transmits blue component light.
前記赤色フィルタ、前記緑色フィルタ、及び前記青色フィルタの光の透過方向におけるそれぞれの厚みは、各フィルタを透過する前記赤色成分光、前記緑色成分光、及び前記青色成分光の各焦点距離が互いに等しくなるように調整されている
撮像装置。 The imaging device according to claim 16,
The thicknesses of the red filter, the green filter, and the blue filter in the light transmission direction are such that the focal lengths of the red component light, the green component light, and the blue component light transmitted through the filters are equal to each other. An imaging device that is adjusted to be.
前記複数の第1の色成分画像を前記色成分ごとにそれぞれ補正し、前記複数の第2の色成分画像を前記色成分ごとにそれぞれ補正し、
前記補正された前記複数の第1の色成分画像と前記複数の第2の色成分画像とを合成して、前記第1及び前記第2の領域を含む全体領域の前記複数の色成分を有する色合成画像を生成し、
前記生成された色合成画像をもとに前記被写体を検査する
検査方法。 An imaging device having an optical element capable of selecting light of a plurality of color components from light of a subject to be inspected and capable of photographing a color component image, which is an image of the selected color component light, for each color component A plurality of first color component images, which are the color component images for each color component of the first region of the subject, and the color components of the second region adjacent to the first region. A plurality of second color component images that are the color component images of
Correcting each of the plurality of first color component images for each of the color components, correcting each of the plurality of second color component images for each of the color components,
The corrected plurality of first color component images and the plurality of second color component images are combined to have the plurality of color components in the entire area including the first and second areas. Generate a color composite image,
An inspection method for inspecting the subject based on the generated color composite image.
前記選択された色成分光による画像である色成分画像を前記色成分ごとに撮影可能な1以上の撮像部と、
前記撮像部により撮影された、前記被写体の第1の領域の前記色成分ごとの前記色成分画像である複数の第1の色成分画像と、前記第1の領域に隣接する第2の領域の前記色成分ごとの前記色成分画像である複数の第2の色成分画像とを取得する取得部と、
前記複数の第1の色成分画像を前記色成分ごとにそれぞれ補正し、前記複数の第2の色成分画像を前記色成分ごとにそれぞれ補正する補正部と、
前記補正された前記複数の第1の色成分画像と前記複数の第2の色成分画像とを合成して、前記第1及び前記第2の領域を含む全体領域の前記複数の色成分を有する色合成画像を生成する生成部と
前記生成された色合成画像をもとに前記被写体を検査する検査部と
を具備する検査装置。 An optical element capable of selecting light of a plurality of color components from the light of the subject to be inspected,
One or more imaging units capable of photographing a color component image, which is an image of the selected color component light, for each color component;
A plurality of first color component images, which are the color component images for each of the color components of the first area of the subject, photographed by the imaging unit; and a second area adjacent to the first area An acquisition unit that acquires a plurality of second color component images that are the color component images for each of the color components;
A correction unit that corrects each of the plurality of first color component images for each of the color components, and corrects each of the plurality of second color component images for each of the color components;
The corrected plurality of first color component images and the plurality of second color component images are combined to have the plurality of color components in the entire area including the first and second areas. An inspection apparatus comprising: a generation unit that generates a color composite image; and an inspection unit that inspects the subject based on the generated color composite image.
前記複数の第1の色成分画像を前記色成分ごとにそれぞれ補正し、前記複数の第2の色成分画像を前記色成分ごとにそれぞれ補正し、
前記補正された前記複数の第1の色成分画像と前記複数の第2の色成分画像とを合成して、前記第1及び前記第2の領域を含む全体領域の前記複数の色成分を有する色合成画像を生成し、
前記生成された色合成画像をもとに前記基板を検査し、
前記検査の結果をもとに前記基板の良否を判定する
基板の製造方法。 An optical element that can select light of a plurality of color components from light of a substrate as an object to be inspected can be selected, and a color component image that is an image of the selected color component light can be photographed for each color component A plurality of first color component images, which are the color component images for each of the color components of the first region of the substrate, photographed by the imaging device, and the second region adjacent to the first region Obtaining a plurality of second color component images that are the color component images for each color component;
Correcting each of the plurality of first color component images for each of the color components, correcting each of the plurality of second color component images for each of the color components,
The corrected plurality of first color component images and the plurality of second color component images are combined to have the plurality of color components in the entire area including the first and second areas. Generate a color composite image,
Inspecting the substrate based on the generated color composite image,
A method for manufacturing a substrate, wherein the quality of the substrate is determined based on a result of the inspection.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012176432A JP2014035261A (en) | 2012-08-08 | 2012-08-08 | Information processing method, information processor, program, imaging apparatus, inspection method, inspection device, and method of manufacturing substrate |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012176432A JP2014035261A (en) | 2012-08-08 | 2012-08-08 | Information processing method, information processor, program, imaging apparatus, inspection method, inspection device, and method of manufacturing substrate |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014035261A true JP2014035261A (en) | 2014-02-24 |
Family
ID=50284313
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012176432A Pending JP2014035261A (en) | 2012-08-08 | 2012-08-08 | Information processing method, information processor, program, imaging apparatus, inspection method, inspection device, and method of manufacturing substrate |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014035261A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017101934A (en) * | 2015-11-30 | 2017-06-08 | キヤノン株式会社 | Processing apparatus, processing system, imaging device, processing method, processing program, and recording medium |
JP2017110915A (en) * | 2015-12-14 | 2017-06-22 | 東レエンジニアリング株式会社 | Inspection device for solid body |
WO2018163572A1 (en) * | 2017-03-10 | 2018-09-13 | 富士フイルム株式会社 | Image-processing system, image-processing device, image-processing method, and image-processing program |
WO2019188316A1 (en) * | 2018-03-30 | 2019-10-03 | キヤノン株式会社 | Image processing device, image processing method, and program |
WO2021171487A1 (en) * | 2020-02-27 | 2021-09-02 | 株式会社Fuji | Image correction method, imaging device, and inspection device |
US11769274B2 (en) | 2018-03-30 | 2023-09-26 | Canon Kabushiki Kaisha | Image processing apparatus, method and storage medium, for object color evaluation |
JP7437188B2 (en) | 2020-02-27 | 2024-02-22 | 株式会社サキコーポレーション | Inspection equipment |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004226128A (en) * | 2003-01-20 | 2004-08-12 | Saki Corp:Kk | Apparatus and method for visual inspection |
JP2006246193A (en) * | 2005-03-04 | 2006-09-14 | Matsushita Electric Ind Co Ltd | Image pickup device |
JP2010512086A (en) * | 2006-12-06 | 2010-04-15 | ソニー・ユナイテッド・キングダム・リミテッド | Image content generation method and image content generation apparatus |
JP2011038784A (en) * | 2009-08-06 | 2011-02-24 | Sony Corp | Visual examination device |
-
2012
- 2012-08-08 JP JP2012176432A patent/JP2014035261A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004226128A (en) * | 2003-01-20 | 2004-08-12 | Saki Corp:Kk | Apparatus and method for visual inspection |
JP2006246193A (en) * | 2005-03-04 | 2006-09-14 | Matsushita Electric Ind Co Ltd | Image pickup device |
JP2010512086A (en) * | 2006-12-06 | 2010-04-15 | ソニー・ユナイテッド・キングダム・リミテッド | Image content generation method and image content generation apparatus |
JP2011038784A (en) * | 2009-08-06 | 2011-02-24 | Sony Corp | Visual examination device |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017101934A (en) * | 2015-11-30 | 2017-06-08 | キヤノン株式会社 | Processing apparatus, processing system, imaging device, processing method, processing program, and recording medium |
US10712285B2 (en) | 2015-12-14 | 2020-07-14 | Toray Engineering Co., Ltd. | Three-dimensional object inspecting device |
JP2017110915A (en) * | 2015-12-14 | 2017-06-22 | 東レエンジニアリング株式会社 | Inspection device for solid body |
WO2017104271A1 (en) * | 2015-12-14 | 2017-06-22 | 東レエンジニアリング株式会社 | Three-dimensional object inspecting device |
WO2018163572A1 (en) * | 2017-03-10 | 2018-09-13 | 富士フイルム株式会社 | Image-processing system, image-processing device, image-processing method, and image-processing program |
CN110402577B (en) * | 2017-03-10 | 2021-06-22 | 富士胶片株式会社 | Image processing system, image processing apparatus, image processing method, and storage medium storing image processing program |
CN110402577A (en) * | 2017-03-10 | 2019-11-01 | 富士胶片株式会社 | Image processing system, image processing apparatus, image processing method and image processing program |
JPWO2018163572A1 (en) * | 2017-03-10 | 2019-11-21 | 富士フイルム株式会社 | Image processing system, image processing apparatus, image processing method, and image processing program |
WO2019188316A1 (en) * | 2018-03-30 | 2019-10-03 | キヤノン株式会社 | Image processing device, image processing method, and program |
JP2019178892A (en) * | 2018-03-30 | 2019-10-17 | キヤノン株式会社 | Image processor, method for processing image, and program |
US11544875B2 (en) | 2018-03-30 | 2023-01-03 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
JP7262927B2 (en) | 2018-03-30 | 2023-04-24 | キヤノン株式会社 | Image processing device, image processing method and program |
US11769274B2 (en) | 2018-03-30 | 2023-09-26 | Canon Kabushiki Kaisha | Image processing apparatus, method and storage medium, for object color evaluation |
WO2021171487A1 (en) * | 2020-02-27 | 2021-09-02 | 株式会社Fuji | Image correction method, imaging device, and inspection device |
JPWO2021171487A1 (en) * | 2020-02-27 | 2021-09-02 | ||
CN115136579A (en) * | 2020-02-27 | 2022-09-30 | 株式会社富士 | Image correction method, imaging device, and inspection device |
CN115136579B (en) * | 2020-02-27 | 2023-08-04 | 株式会社富士 | Image correction method, imaging device and inspection device |
JP7365487B2 (en) | 2020-02-27 | 2023-10-19 | 株式会社Fuji | Image correction method, imaging device and inspection device |
JP7437188B2 (en) | 2020-02-27 | 2024-02-22 | 株式会社サキコーポレーション | Inspection equipment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2014035261A (en) | Information processing method, information processor, program, imaging apparatus, inspection method, inspection device, and method of manufacturing substrate | |
KR101141345B1 (en) | Three-dimensional shape measuring device, three-dimensional shape measuring method, three-dimensional shape measuring program, and recording medium | |
TWI484283B (en) | Image measurement method, image measurement apparatus and image inspection apparatus | |
KR101064161B1 (en) | Scanning system with stereo camera set | |
KR101207198B1 (en) | Board inspection apparatus | |
WO2006100991A1 (en) | Method of and apparatus for automatically adjusting alignement of a projector with respect to a projection screen | |
JP6791631B2 (en) | Image generation method and inspection equipment | |
US9423242B2 (en) | Board-warping measuring apparatus and board-warping measuring method thereof | |
JP2015044212A (en) | Laser processing apparatus | |
JP2013243515A (en) | Image adjustment device, image adjustment system, and image adjustment method | |
JP2018081048A (en) | Three-dimensional shape measurement device | |
KR20050051535A (en) | Defect inspection system | |
US10444162B2 (en) | Method of testing an object and apparatus for performing the same | |
JP2006245891A (en) | Chart for inspecting image of camera module, and image inspecting method and image inspecting device for the camera module using the chart for inspecting image | |
CN102829956B (en) | Image detection method, image detection apparatus and image testing apparatus | |
US10614275B2 (en) | Position specifying apparatus and position specifying method | |
JP2011002401A (en) | Correction coefficient calculating method in luminance measuring apparatus, and luminance measuring apparatus | |
WO2021053852A1 (en) | Appearance inspection device, appearance inspection device calibration method, and program | |
JP7377655B2 (en) | Die bonding equipment and semiconductor device manufacturing method | |
US10269105B2 (en) | Mask inspection device and method thereof | |
JP2021127998A (en) | Distance information acquisition device and distance information acquisition method | |
JP2008154195A (en) | Method of creating pattern for calibration of lens, pattern for calibration of lens, method and device for calibrating lens utilizing pattern for calibration, and method and device for calibrating imaging apparatus | |
JP7437188B2 (en) | Inspection equipment | |
JP7139953B2 (en) | Three-dimensional shape measuring device, three-dimensional shape measuring method and program | |
TW201310985A (en) | Image high precision positioning system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20140522 |
|
A625 | Written request for application examination (by other person) |
Free format text: JAPANESE INTERMEDIATE CODE: A625 Effective date: 20150717 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160531 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20161213 |