JP2011516860A - Method and apparatus for acquiring and processing multiplexed images - Google Patents

Method and apparatus for acquiring and processing multiplexed images Download PDF

Info

Publication number
JP2011516860A
JP2011516860A JP2011503042A JP2011503042A JP2011516860A JP 2011516860 A JP2011516860 A JP 2011516860A JP 2011503042 A JP2011503042 A JP 2011503042A JP 2011503042 A JP2011503042 A JP 2011503042A JP 2011516860 A JP2011516860 A JP 2011516860A
Authority
JP
Japan
Prior art keywords
image
color
light source
article
illumination light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011503042A
Other languages
Japanese (ja)
Inventor
バレット,スペンサー,ビー.
Original Assignee
エレクトロ サイエンティフィック インダストリーズ インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エレクトロ サイエンティフィック インダストリーズ インコーポレーテッド filed Critical エレクトロ サイエンティフィック インダストリーズ インコーポレーテッド
Publication of JP2011516860A publication Critical patent/JP2011516860A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • G01N2021/8838Stroboscopic illumination; synchronised illumination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/06Illumination; Optics
    • G01N2201/062LED's

Abstract

【課題】物品を検査する方法及び装置を提供する。
【解決手段】物品を検査する方法及び装置では、物品(50)を2つ以上の方向から、イメージセンサ(10)に貼り付けたベイヤーフィルタ(12)のスペクトル応答に一致するスペクトル応答を有する光源(52,56)で照明する。画像データは色ごとに分離され、そして派生画像が生成され、次に処理されて欠陥群を検出する。
【選択図】図3a
A method and apparatus for inspecting an article is provided.
In a method and apparatus for inspecting an article, a light source having a spectral response that matches the spectral response of a Bayer filter (12) affixed to the image sensor (10) from two or more directions. Illuminate at (52, 56). The image data is separated by color and a derivative image is generated and then processed to detect defect groups.
[Selection] Figure 3a

Description

本発明は、画像認識技術を使用した製造物品の高速検査に関する。詳細には、本発明は、単一のカメラで同時に取得される物品の複数画像を、当該物品が動いている状態で取得し、そして処理する手法に関する。更に詳細には、本発明は、物品を異なる方向から照明する異なる色の光、及びセンサに取り付けたカラーフィルタ群を使用して画像群を分離して複数画像を同時に取得する手法に関する。   The present invention relates to high-speed inspection of manufactured articles using image recognition technology. Specifically, the present invention relates to a technique for acquiring and processing a plurality of images of an article acquired simultaneously with a single camera while the article is moving. More specifically, the present invention relates to a technique for separating multiple image groups and simultaneously acquiring multiple images using different color light that illuminates an article from different directions and a color filter group attached to a sensor.

多くの製造物品は、微小欠陥に関して製造プロセス中にマシンビジョンシステムにより検査される。通常の検査システムでは、2D(2次元)グレースケールカメラを使用して、物品の欠陥群をグレースケール反射率の差、または2Dモルフォロジー(表面形態)の差に基づいて検出する。グレースケール差によっては検出することができない欠陥群が存在する幾つかの場合においては、カラーカメラ群を使用して、スペクトル反射率の差により見分けることができる欠陥群を検出する。欠陥群を、どのようなグレースケールの差、またはカラー画像の差によっても見分けることができない場合においては、3D(3次元)ビジョンシステムを使用して、3Dモルフォロジーの差によって特徴付けられる欠陥群を検出することができる。   Many manufactured articles are inspected by a machine vision system for small defects during the manufacturing process. In a typical inspection system, a 2D (two-dimensional) grayscale camera is used to detect a defect group of an article based on a difference in grayscale reflectance or a difference in 2D morphology (surface morphology). In some cases where there are defect groups that cannot be detected due to gray scale differences, a color camera group is used to detect defect groups that can be distinguished by differences in spectral reflectance. If the defect group cannot be identified by any grayscale difference or color image difference, the defect group characterized by the difference in 3D morphology can be determined using a 3D (3D) vision system. Can be detected.

2Dビジョンシステムは通常、カメラ、光学系、及び照明光源から成る。カメラ技術は普通、市販のセンサ群に限定されるので、通常、光学系及び照明光源をカスタマイズして正しい倍率、視野、及び取得速度を実現する。市販のイメージセンサと、カスタム光学系と、そして照明光源と、を用いて製造されるマシンビジョンシステムの一つの例が、本特許出願の譲受人であるエレクトロサイエンティフィックインダストリーズ社製のESI Bullet(バレット)TMウェハIDリーダである。このシステムは、ビデオセンサと、光学系と、そして照明光源と、を含み、これらの構成要素は、物品の中でもとりわけ半導体ウェハに設けた識別マークを検査するように構成される。当該システムは鏡面状の表面に形成される非常に微小なマークを撮像するように構成されるが、このシステムは、本発明の主題である微小欠陥を撮像することができなかった。その理由は、問題となるこれらの欠陥は、カメラには決して、周囲との差として写ることがないからである。これらの欠陥は、物品の表面の微小な窪みとしてしか見えないので、従来の2D撮像法では撮像することができない。 A 2D vision system usually consists of a camera, an optical system, and an illumination source. Since camera technology is usually limited to commercially available sensor groups, optical systems and illumination sources are usually customized to achieve the correct magnification, field of view, and acquisition speed. One example of a machine vision system manufactured using a commercially available image sensor, custom optics, and illumination light source is an ESI Bullet (available from Electro Scientific Industries, the assignee of this patent application). Barrett) TM wafer ID reader. The system includes a video sensor, an optical system, and an illumination light source, and these components are configured to inspect identification marks provided on a semiconductor wafer, among other items. Although the system is configured to image very small marks formed on a specular surface, the system was unable to image the micro defects that are the subject of the present invention. The reason is that these flaws are not reflected in the camera as a difference from the surroundings. Since these defects can only be seen as minute dents on the surface of the article, they cannot be imaged by conventional 2D imaging methods.

欠陥群を撮像する1つの可能な方法では、物品を、当該物品に対して浅いグレージング角で少なくとも2つの異なる方向から照らす光で照明しながら撮像する。この光は、少なくとも2つの方向から照らす必要があるが、その理由は、これらの欠陥の全てが、単一の光角度から見える訳ではないからである。これらの画像の全てを処理すると、これらの欠陥を検出することができるようになるが、個別のフレーム時間が取得のたびに必要になるので、プロセスは容認できないほど遅くなる。画像は、並列に取得することができるが、これによって、各光が適切なカメラにのみ写るように、1つのセンサがフィルタ群とともに各光方向に対応して必要になる。これにより、膨大な費用がプロセスに発生することになる。   One possible way to image the defect group is to image the article while illuminating it with light that illuminates the article from at least two different directions with a shallow glazing angle. This light needs to shine from at least two directions because not all of these defects are visible from a single light angle. Processing all of these images allows these defects to be detected, but the process is unacceptably slow because a separate frame time is required for each acquisition. Images can be acquired in parallel, but this requires one sensor for each light direction along with a group of filters so that each light is captured only by the appropriate camera. This results in huge costs in the process.

微小欠陥群を撮像する際の問題に対する別の採用可能な解決策では、3D撮像法を使用する。3Dビジョンシステムでは、物品により反射される光の波長強度ではなく、物品の実際の3D形状に対応する画像データを生成する。3Dシステムは幾つかのグループに、関連技術に応じて分類することができる。第1分類は受動型3Dシステムであり、この受動型3Dシステムでは、画像群を、普通の2D画像に含まれるキュー(Cue)から得られる高さ情報で構成する。この一例が立体画像再構成であり、この立体画像再構成では、2つ以上の2D画像を取得し、複数の特徴点を各画像内に検出し、そして次に、各画像内で検出されたこれらの特徴点を一致させようとする対応問題を解く。不一致は、これらの画像の間の高さの認識度の差に起因するので、高さが推定される。これは、上述の複数の2D画像と同じ問題を孕んでいる、すなわち複数の画像を撮影するために要する時間、及び並列取得に要する機器コストの問題を孕んでいる。また、このアプローチは、本明細書における問題の欠陥群に対して効き目がないが、その理由は、これらの欠陥が、使用することにより高さを推定することができるような特徴点を示すことがないからである。   Another adoptable solution to the problem of imaging microdefects uses a 3D imaging method. The 3D vision system generates image data corresponding to the actual 3D shape of the article, not the wavelength intensity of light reflected by the article. 3D systems can be classified into several groups according to the related technology. The first classification is a passive 3D system. In this passive 3D system, an image group is composed of height information obtained from a cue included in a normal 2D image. An example of this is stereoscopic image reconstruction, in which two or more 2D images are acquired, multiple feature points are detected in each image, and then detected in each image Solve the correspondence problem to try to match these feature points. Since the discrepancy is due to a difference in height perception between these images, the height is estimated. This entails the same problem as the above-described plurality of 2D images, that is, the time required to shoot a plurality of images and the equipment cost required for parallel acquisition. Also, this approach does not work for the defect groups in question here, because the defects show feature points that can be used to estimate height. Because there is no.

別のタイプの3D撮像法では、投影ライン群、通常はレーザラインまたは他の形状を物品に投影し、そして次に撮像する必要がある。これらのラインの変位が3D凹凸を表わす。この方法では更に、取得を複数回行なう必要があるので、当該方法は、この用途に関しては許容できないほど遅い。他のタイプの3D撮像法は、焦点品質を一連の画像ステップに亘って検出する(共焦点撮像)ことにより、または特殊な投影グリッドの画像群を取得する(モアレ結像)ことにより行なわれる。これらの方法の両方の方法では、複数回の画像取得を行なって、1つの3D画像を構成する必要があり、そしてこのような理由により、これらの方法は共に、この問題に対する容認できない解決策である。更に、これらの方法では通常、物品をスキャン期間中に動かないように保持する必要があり、これは物品を段階的に移動させ、停止させ、そしてスキャン前に静止させる必要があることを意味し、これらの操作の全てが、製造プロセスを遅くしてしまう。   Another type of 3D imaging method involves projecting a group of projection lines, usually a laser line or other shape, onto an article and then imaging. The displacement of these lines represents 3D irregularities. This method further requires multiple acquisitions, so the method is unacceptably slow for this application. Other types of 3D imaging methods are performed by detecting the focus quality over a series of image steps (confocal imaging) or by acquiring a group of images of a special projection grid (Moire imaging). Both of these methods require multiple image acquisitions to construct a single 3D image, and for these reasons, both of these methods are unacceptable solutions to this problem. is there. In addition, these methods typically require that the article be held stationary during the scan period, which means that the article must be moved in stages, stopped, and stationary before scanning. All of these operations slow down the manufacturing process.

この方法の一例が、アレクサンダー(Oleksandr)らによる「カラー構造化光を用いることによる位相測定及び表面再構成に関する技術」と題する論文(Applied Optics Vol. 41, Issue 29, pp. 6104−6117 (2002))に記載されており、この例では、複数のカラーパターンを投影して、投影光を判別し、そして3D測定の精度を向上させようとしている。アレクサンダーらは、構造化光を用いて自動車風防ガラスの表面形状を、微分方程式を使用して求めることにより、3D情報を構造化光画像から抽出すると説明している。   An example of this method is a paper titled “Technology on Phase Measurement and Surface Reconstruction by Using Color Structured Light” by Alexander (Applied Optics Vol. 41, Issue 29, pp. 6104-6117 (2002). In this example, a plurality of color patterns are projected to discriminate the projection light and to improve the accuracy of 3D measurement. Alexander et al. Describe that 3D information is extracted from a structured light image by using structured light to determine the surface shape of an automotive windshield using a differential equation.

Applied Optics Vol. 41, Issue 29, pp. 6104−6117 (2002)Applied Optics Vol. 41, Issue 29, pp. 6104-6117 (2002)

これらの方法のうちの多くの方法が共通して持っているものが、物品の欠陥群を検出するために1画像よりも多くの画像を取得するための要件である。動いている部品の複数画像を取得する際の問題は、複数画像を単一のカメラで取得するために、複数回の露出が必要であるということである。当該部品はカメラの傍を通り過ぎて動いているので、複数画像を取得するために当該部品を所定の位置で停止させる必要があるか、またはカメラを当該部品と一緒に移動させる必要があるかのいずれかである。どの解決策も容認することができないが、その理由は、当該部品を停止させると、システムのスループットを低下させてしまい、そしてカメラを移動させることは難しく、かつ費用が嵩むからである。別の採用可能な解決策では、複数のカメラを使用するが、これは費用が嵩み、かつ光学系及びセンサ群を位置合わせするために特殊な作業を必要とする。   What many of these methods have in common is a requirement for acquiring more than one image in order to detect a defect group of an article. The problem with acquiring multiple images of moving parts is that multiple exposures are required to acquire multiple images with a single camera. Since the part is moving past the camera, whether it is necessary to stop the part in place to acquire multiple images or whether the camera needs to be moved with the part Either. None of the solutions are acceptable because stopping the part reduces system throughput, and moving the camera is difficult and expensive. Another possible solution uses multiple cameras, which is expensive and requires special work to align the optics and sensors.

従って、必要なのは、2D検査方法では容易に明らかにするということができない欠陥群を撮像することができる画像取得方式である。更に、この方式は、複数のカメラまたは他の更に別の高価な機器を必要とせず、かつ単一フレーム時間の一部で作動するだけであるので、物品を、取得中に静止した状態に保持するという要件を最小にすることができる、または無くすことができる。   Therefore, what is needed is an image acquisition method that can image a defect group that cannot be easily revealed by a 2D inspection method. In addition, this approach does not require multiple cameras or other additional expensive equipment and only works for a portion of a single frame time, thus keeping the article stationary during acquisition. The requirement to do can be minimized or eliminated.

本発明の目的は、方法及び装置を、2D検査手段によって明らかにすることができない物品群の欠陥を検出する機能を改良した画像取得システムの形態として提供することにある。本発明の別の目的は、当該取得を、物品群を取得中に動かないように保持する必要を伴うことなく実行することにある。本発明の目的に基づいた上述の目的及び他の目的を、本明細書において具体化され、かつ広義に記載されている通りに達成するために、方法及び装置が開示される。   An object of the present invention is to provide a method and an apparatus as a form of an image acquisition system having an improved function of detecting defects in a group of articles that cannot be revealed by 2D inspection means. Another object of the present invention is to perform the acquisition without the need to hold the group of articles so that they do not move during acquisition. In order to achieve the above and other objects in accordance with the objects of the present invention as embodied and broadly described herein, methods and apparatus are disclosed.

物品の2つ又はそれ以上の画像が単一の画像フレームで、当該物品を2つ以上の異なる色の光で照明し、そしてデータを、ベイヤーフィルタ構造を貼り付けたイメージセンサを用いて取得することにより取得される。ベイヤーフィルタは、イメージセンサに貼り付けられ、かつ赤色フィルタ、緑色フィルタ、及び青色フィルタにより構成されるカラーフィルタである。当該ベイヤーフィルタがイメージセンサに貼り付けられ、そして画像データが取得される。当該画像データを取得して、カメラ自体が内蔵するコントローラに、またはカメラに接続されるコントローラに取り込む場合、ピクセル群は、当該フィルタのどの色に当該ピクセル群が対応するのかによって変わるように分類される、すなわち赤色ピクセル群の全てが1つの画像に振り分けられ、青色ピクセル群の全てが別の画像に振り分けられ、そして緑色ピクセル群の全てが更に別の画像に振り分けられる。このようにして、単色画像を取得するセンサは、たとえ相当低い空間解像度ではあっても、カラー撮像システムを単一センサで模擬するように作製することができる。これらのカラー画像は、互いにレジストレーションが一致するように処理されるので、1つの画像の1つの特徴点は他の画像群の同じ位置に発生する。   Two or more images of an article are illuminated in a single image frame, the article is illuminated with two or more different colors of light, and data is acquired using an image sensor with a Bayer filter structure applied. Is obtained by The Bayer filter is a color filter that is attached to the image sensor and includes a red filter, a green filter, and a blue filter. The Bayer filter is attached to the image sensor, and image data is acquired. When acquiring the image data and importing it into the controller built in the camera itself or the controller connected to the camera, the pixel group is classified so as to change depending on which color of the filter the pixel group corresponds to. That is, all of the red pixel groups are allocated to one image, all of the blue pixel groups are allocated to another image, and all of the green pixel groups are further allocated to another image. In this way, a sensor that acquires a monochromatic image can be made to simulate a color imaging system with a single sensor, even at a rather low spatial resolution. Since these color images are processed so that their registrations coincide with each other, one feature point of one image is generated at the same position in another image group.

照明波長をベイヤーフィルタの透過波長に一致させることにより、3つの個別画像を、取得される単一画像から生成することができる。例えば、物品を異なる方向から3色のうちの2つ以上の色で照明する場合、これらの生成画像を処理して、これらの画像の不一致を提示することができるので、欠陥群を表わす、3Dモルフォロジーの僅かな差異を提示することができる。更に、照明を適切なタイミングで点けて、またはイメージセンサを適切なタイミングで動作させて、データを非常に短い期間内に取得することができるので、3つの画像を同時に、従ってレジストレーションが一致するように取得するだけでなく、これらの画像を、物品を停止させることなく取得することができる。   By matching the illumination wavelength to the transmission wavelength of the Bayer filter, three individual images can be generated from the acquired single image. For example, if the article is illuminated with two or more of three colors from different directions, these generated images can be processed to present inconsistencies in these images, thus representing a group of defects. Minor differences in morphology can be presented. In addition, the lighting can be turned on at the right time, or the image sensor can be operated at the right time, so that data can be acquired within a very short period of time, so that the three images are matched at the same time, and therefore the registration is matched. These images can be acquired without stopping the article.

本発明の1つの実施形態では、物品を2つの異なる方向から、ベイヤーフィルタのフィルタ群のうちの2つのフィルタの透過波長に一致する波長の光で照明する。第3画像は、ベイヤーフィルタの第3色の波長に一致する波長の拡散照明光源を使用して取得される。画像データを取得し、そしてベイヤーフィルタの3つの色に対応する3つの個別画像に分離する。次に、最初の2つの画像を減算することにより、その差異を強調化するが、その理由は、1つの画像に発生するが別の画像には発生しない特徴点群が欠陥である可能性が非常に高いからである。次に、結果として得られる画像を、従来のマシンビジョン技術を使用して処理することにより、欠陥群を特定し、そして分類する。拡散画像も従来のマシンビジョン技術を使用して処理することにより、公称値からの輪郭のずれのような他の欠陥群が含まれているかどうかを判断するが、これらの欠陥は、指向性照明により得られる画像の中には検出することができない虞がある。   In one embodiment of the invention, the article is illuminated from two different directions with light of a wavelength that matches the transmission wavelength of two filters of the filter group of the Bayer filter. The third image is acquired using a diffuse illumination source with a wavelength that matches the wavelength of the third color of the Bayer filter. Image data is acquired and separated into three individual images corresponding to the three colors of the Bayer filter. Next, the difference between the two images is emphasized by subtracting the first two images because the feature points that occur in one image but not in another image may be defective. Because it is very expensive. The resulting image is then processed using conventional machine vision techniques to identify and classify defect groups. Diffuse images are also processed using conventional machine vision techniques to determine whether other defect groups such as contour deviations from nominal values are included, but these defects are directional illumination There is a possibility that it cannot be detected in the image obtained by.

本発明の1つの実施形態では、3つの照明光源を或るタイミングで発光させる、または非常に短い期間に亘ってフラッシュさせる。これにより、センサでデータを、動いている部品から、運動による動きボケを生じることなく取得することができる。当該センサは、光を集めるように設定され、そして次に、これらの照明光源が、センサに光を集めながら或るタイミングで発光するように設定される。或るタイミングで発光させた後、センサに指示して、発光照明光源によりセンサ内に生成される画像データを読み出させてコントローラに取り込み、この場合、当該画像データは3つのカラーフィルタに対応する3つの画像に分離される。   In one embodiment of the invention, the three illumination sources are illuminated at a certain timing or flashed for a very short period of time. As a result, data can be acquired from the moving parts by the sensor without causing motion blur due to movement. The sensor is set to collect light and then these illumination sources are set to emit at some time while collecting light on the sensor. After emitting light at a certain timing, the sensor is instructed to read out image data generated in the sensor by the light emitting illumination light source and take it in the controller. In this case, the image data corresponds to three color filters. Separated into three images.

物品がセンサの視野の傍を非常に速い速度で動いている場合、当該物品の動きを、照明光源を或るタイミングで発光させるという理由だけで止めようとすることは実用的ではない。この実施形態では、物品の動きを、当該物品がセンサの視野を通過しているときに、正弦波状の速度プロファイルを、当該物品を移動させる搬送機構において実現することにより遅くする。この実施形態では、コントローラは、搬送機構に動作可能に接続されて物品群を移動させる速度を制御する。搬送機構の速度を正弦波状の速度プロファイルに従って、最低速度になるタイミングが照明光源を発光させるタイミングに一致するように上げ下げすることにより、これらの物品の速度を十分遅くして、搬送機構の速度を下げることによるスループットの低下を最小化しながら動きボケを無くすことができる。   When an article is moving near the sensor's field of view at a very high speed, it is impractical to stop the movement of the article simply because the illumination light source emits light at a certain timing. In this embodiment, the movement of the article is slowed by implementing a sinusoidal velocity profile in the transport mechanism that moves the article as it passes through the field of view of the sensor. In this embodiment, the controller is operably connected to the transport mechanism and controls the speed at which the group of articles is moved. By increasing or decreasing the speed of the transport mechanism according to a sinusoidal speed profile so that the timing when the minimum speed is reached coincides with the timing when the illumination light source emits light, the speed of these articles is sufficiently slowed down, It is possible to eliminate motion blur while minimizing a decrease in throughput due to the reduction.

RGBベイヤーフィルタ構造がどのようにしてイメージセンサに貼り付けられるかを示す模式図である。It is a schematic diagram which shows how an RGB Bayer filter structure is affixed on an image sensor. 通常のRGBベイヤーフィルタ構造のスペクトル応答を示すチャートである。It is a chart which shows the spectrum response of a normal RGB Bayer filter structure. ベイヤーフィルタを利用する指向性画像取得システムの図を示している。1 shows a diagram of a directional image acquisition system that uses a Bayer filter. FIG. ベイヤーフィルタを利用する指向性画像取得システムの図を示している。1 shows a diagram of a directional image acquisition system that uses a Bayer filter. FIG. 指向性照明画像処理を示している。The directional illumination image processing is shown. 指向性照明画像処理を示している。The directional illumination image processing is shown. 指向性照明画像処理を示している。The directional illumination image processing is shown. 拡散照明画像処理を示している。Fig. 6 illustrates diffuse illumination image processing.

本発明は、電子部品群の自動検査を支援するための画像データの取得に関するものである。このタイプの部品の一例がチップキャパシタであり、このチップキャパシタは、金属導体層及びセラミック誘電体層を交互に積層することにより形成される。これらの部品には、従来の2Dまたは3Dシステムを用いて撮像することが難しい、または不可能である欠陥群が生じる。更に、これらの部品は、極めて速い速度レートで形成される。これらの部品を製造する設備は、これらの部品を、毎時数十万個の割合で製造することができる。最終的に、これらの部品を組み付けて回路群とし、これらの回路が、現在販売されているほぼ全ての電子デバイスとなる;従って、これらの部品を、これらの部品を組み付けて回路群とする前に検査すると有利である。本発明によって画像撮影サイクルを単一回の画像露出(2ms)にまで短くすることができ、かつより高速の18msの移動プロファイルを使用することができる。20msサイクルによって毎時180,000個のスループット速度が可能になることになる。   The present invention relates to acquisition of image data for supporting automatic inspection of an electronic component group. An example of this type of component is a chip capacitor, which is formed by alternately laminating metal conductor layers and ceramic dielectric layers. These components have defects that are difficult or impossible to image using conventional 2D or 3D systems. Furthermore, these parts are formed at a very fast rate. Equipment that manufactures these parts can manufacture these parts at a rate of hundreds of thousands per hour. Eventually, these parts are assembled into a circuit group, and these circuits become almost all electronic devices currently on the market; therefore, before these parts are assembled into a circuit group, It is advantageous to inspect. With the present invention, the imaging cycle can be shortened to a single image exposure (2 ms) and a faster 18 ms movement profile can be used. A 20 ms cycle would allow 180,000 throughput rates per hour.

ベイヤーフィルタ(Bayer filters)を貼り付けた広帯域スペクトルイメージセンサは、カラー画像情報を取得するために広く使用されている。図1は、ベイヤーフィルタ12を貼り付けた半導体イメージセンサ10の模式図である。ベイヤーフィルタは、3つの異なるカラーフィルタ、すなわち赤色フィルタ14、緑色フィルタ16、及び青色フィルタ18により構成される。ベイヤーフィルタ12の各カラーセグメントがイメージセンサ10の画素またはピクセルに位置合わせされるように、ベイヤーフィルタ12をセンサ10に貼り付ける。これらの画素またはピクセルのうちの1つが番号20で指示されている。このようにして、各ピクセル20に1色のみの光を集めて、結果として得られる画像データがセンサ10からコントローラ(図示せず)によって読み出されるようにし、これらのデータは3つの個別画像に分類することができ、1つの各個別画像が1色のみで照明されるピクセル群を表わす。普通、この機能を使用してフルカラー画像群を、広帯域単色センサを用いて生成するが、本発明の1つの実施形態では、この機能を使用して個別画像群を生成し、各個別画像が1つの個別照明光源に対応する。これらの3つの画像を、サイズ、ビット深度、及びレジストレーションが一致するように作成することにより後続の処理を容易にすることができる。   A broadband spectral image sensor with Bayer filters attached thereto is widely used to acquire color image information. FIG. 1 is a schematic diagram of a semiconductor image sensor 10 with a Bayer filter 12 attached thereto. The Bayer filter is composed of three different color filters, namely a red filter 14, a green filter 16, and a blue filter 18. The Bayer filter 12 is affixed to the sensor 10 such that each color segment of the Bayer filter 12 is aligned with a pixel or pixel of the image sensor 10. One of these pixels or pixels is indicated by the numeral 20. In this way, only one color of light is collected at each pixel 20 so that the resulting image data is read from the sensor 10 by a controller (not shown), and these data are classified into three individual images. Each individual image represents a group of pixels that are illuminated with only one color. Typically, this function is used to generate a full color image group using a broadband monochromatic sensor, but in one embodiment of the invention, this function is used to generate an individual image group, each individual image being 1 Corresponds to two individual illumination sources. Subsequent processing can be facilitated by creating these three images so that the size, bit depth, and registration match.

図2は、通常のベイヤーフィルタに見られる3種類のカラーフィルタの量子効率32を波長34に対してプロットした様子を示している。量子効率は、センサによって捕捉され、そして電荷に変換される特定波長の光子の割合を示し、そしてスペクトル応答に対応する。3つの色ピークは、青色フィルタ36、緑色フィルタ38、及び赤色フィルタ40に対応する。図示のように、青色フィルタは約450nmにピークを示し、緑色フィルタは約550nmにピークを示し、そして赤色フィルタは約625nmにピークを示す。全ての3つのフィルタがスペクトルの赤外線(IR)領域(約700nm以上)のエネルギーを透過する。このタイプのほとんどのセンサは更に、この余剰エネルギーがセンサに到達するのを阻止するIRフィルタを含む。これらのタイプのイメージセンサを備えるデバイスの例として、携帯電話カメラ、及び中から低コストのほとんどのビデオカメラを挙げることができる。ベイヤーフィルタを貼り付けた例示的なイメージセンサは、日本の東京に本拠を置くソニー株式会社が販売する部品番号ICX445 EXview HAD CCDである。   FIG. 2 shows a state in which the quantum efficiency 32 of three types of color filters found in a normal Bayer filter is plotted against the wavelength 34. Quantum efficiency indicates the percentage of photons of a particular wavelength that are captured by the sensor and converted into a charge, and corresponds to the spectral response. The three color peaks correspond to the blue filter 36, the green filter 38, and the red filter 40. As shown, the blue filter shows a peak at about 450 nm, the green filter shows a peak at about 550 nm, and the red filter shows a peak at about 625 nm. All three filters transmit energy in the infrared (IR) region of the spectrum (about 700 nm and above). Most sensors of this type further include an IR filter that prevents this excess energy from reaching the sensor. Examples of devices with these types of image sensors include cell phone cameras and most medium to low cost video cameras. An exemplary image sensor with a Bayer filter attached is a part number ICX445 EXview HAD CCD sold by Sony Corporation, based in Tokyo, Japan.

本発明の1つの実施形態では、カラー画像検出のために開発された技術を用いて、3つの個別画像を1フレーム時間でベイヤーフィルタを使用することにより撮影する。この画像撮影は、部品を少なくとも2つの異なる方向から照明することにより部品の複数のビューを多重化して単一画像とすることにより、センサ露出を1回に減らして行なわれる。各照明光源は、ベイヤーフィルタの色群に一致する固有の光色または光波長を利用する。本発明の1つの実施形態では、次のカラーLED群(発光ダイオード群)を画像照明光源に使用する:
−470nm波長の青色発光ダイオード−北側にある画像照明光源に使用される
−525nm波長の緑色発光ダイオード−画像拡散照明光源に使用される(3番目の画像)
−636nm波長の赤色発光ダイオード−東側にある画像照明光源に使用される
この用途に使用することができる例示的なLEDとして:カリフォルニア州サンノゼ市に本拠を置くアバゴテクノロジー社製の470nm波長のHLMP−CB30−M0000;台湾台北市に本拠を置くライトンセミコンダクター株式会社製の525nm波長のLTST−C190TGKT;及び、イリノイ州パラタインに本拠を置くルメクス社製のSML−LX04021C−TRを挙げることができる。
In one embodiment of the present invention, using the technology developed for color image detection, three individual images are taken by using a Bayer filter in one frame time. This image capture is performed with the sensor exposure reduced to one time by illuminating the part from at least two different directions to multiplex multiple views of the part into a single image. Each illumination source utilizes a unique light color or light wavelength that matches the color group of the Bayer filter. In one embodiment of the invention, the following color LED groups (light emitting diode groups) are used for the image illumination light source:
-Blue light emitting diode with -470 nm wavelength -used for north side image illumination light source -Green light emitting diode with 525 nm wavelength -used for image diffusion illumination light source (third image)
-636 nm wavelength red light emitting diode-used in the eastern image illumination light source As an exemplary LED that can be used for this application: 470 nm wavelength HLMP from Avago Technologies, based in San Jose, California CB30-M0000; LTST-C190TGKT with a wavelength of 525 nm manufactured by Ryton Semiconductor Co., Ltd. based in Taipei, Taiwan; and SML-LX04021C-TR manufactured by Lumex, Inc. based in Palatine, Illinois.

通常のベイヤーフィルタでは、ピクセル数の50%が緑に、25%が青に、そしてピ25%が赤に使われる。このような割合になっているのは、これらのセンサが、カラー画像を単色センサから生成し、そしてヒトの眼が青色光または赤色光よりも緑色光に対する感度が高いという事実を反映するように構成されていたからである。更に注目すべきことは、この割合が、カラーフィルタの1つの特定のタイプのみを表わしているということである。単色フィルタ上の色群を分離するために使用することができる他のカラーフィルタ群には、例えばセンサ上のピクセル列群と位置が一致するカラーストライプ群を使用する。他のフィルタ群には、微妙に異なる色を使用することができる。これらの他のフィルタのうちのいずれかのフィルタを本発明の1つの実施形態によって、基本概念から逸脱しない範囲で使用することができる。   In a typical Bayer filter, 50% of the number of pixels is used for green, 25% for blue, and 25% for red. This ratio reflects the fact that these sensors produce color images from monochromatic sensors and that the human eye is more sensitive to green light than blue or red light. This is because it was configured. It should be further noted that this proportion represents only one specific type of color filter. Other color filter groups that can be used to separate the color groups on the monochromatic filter are, for example, color stripe groups whose positions coincide with the pixel column groups on the sensor. For other filter groups, slightly different colors can be used. Any of these other filters can be used in accordance with one embodiment of the present invention without departing from the basic concept.

図3a及び図3bは、本発明の1つの実施形態を示している。図3aは、上から眺めた斜視正面図を示し、そして図3bは、物品50を示す1つの実施形態の側部立面図を示し、この物品50は、カメラ60の傍を通って搬送機構51により搬送され、そして第1色のコリメート光54を第1方向から投影する第1照明光源52、第2色のコリメート光58を投影する第2照明光源56により照明される。更に、第3照明光源62は、物品50を第3色の拡散光64で照明する。ベイヤーフィルタを貼り付けた(図示せず)センサを含むカメラ60は、画像データを被照明物品50から取得する。   Figures 3a and 3b illustrate one embodiment of the present invention. FIG. 3 a shows a perspective front view from above and FIG. 3 b shows a side elevation view of one embodiment showing the article 50, the article 50 passing by the camera 60 by a transport mechanism. The first illumination light source 52 that projects the first color collimated light 54 from the first direction and the second illumination light source 56 that projects the second color collimated light 58 are illuminated. Further, the third illumination light source 62 illuminates the article 50 with the diffused light 64 of the third color. A camera 60 including a sensor with a Bayer filter attached (not shown) acquires image data from the article to be illuminated 50.

図4aは、第1照明光源72により照明される物品から、第1方向74からの第1色の光を使用して取得される画像データ70を示している。この照明方法により取得される画像データ70は1つの欠陥76を示しており、この欠陥76は、相対的に明るい色領域として写っている。図4bは、第2照明光源80により照明される物品から、第2方向82からの第2色の光を使用して取得される画像データ78を示している。この場合、当該欠陥は画像データ78中には見えないことに注目されたい。図4cは、画像データ70を画像データ78から減算することにより計算される合成画像データ84を示している。この合成画像データ84では、欠陥86は、はっきりと見える。画像データを2つの異なる指向性画像70,78に基づいて合成する目的は、両方の画像に含まれる情報を抑制し、かつこれらの画像のうちの一方の画像にしか含まれていない情報を強調することにある。この考え方は、検出対象の欠陥群は、1つの方向にのみ照明される場合に見えるということである。2つの方向に見える特徴点は通常、欠陥としては分類されない。また、減算は、画像群を合成して欠陥検出部を強調する例示的な手法であるが、他の算術演算、論理演算、最大/最小の統計演算子のような順序統計量計算、またはこれらの演算処理の組み合わせを含む他の演算を利用することもできることに留意されたい。画像合成の後、標準的なマシンビジョン技術を使用して合成画像中に欠陥を特定する。   FIG. 4 a shows image data 70 obtained using the first color light from the first direction 74 from the article illuminated by the first illumination light source 72. The image data 70 acquired by this illumination method shows one defect 76, and this defect 76 appears as a relatively bright color area. FIG. 4 b shows image data 78 acquired from the article illuminated by the second illumination light source 80 using the second color light from the second direction 82. Note that in this case, the defect is not visible in the image data 78. FIG. 4 c shows composite image data 84 calculated by subtracting image data 70 from image data 78. In the composite image data 84, the defect 86 is clearly visible. The purpose of synthesizing image data based on two different directional images 70 and 78 is to suppress information contained in both images and to emphasize information contained in only one of these images. There is to do. The idea is that a defect group to be detected is visible when illuminated in only one direction. Feature points that appear in two directions are usually not classified as defects. Subtraction is an exemplary method for emphasizing the defect detection unit by synthesizing image groups, but other arithmetic operations, logical operations, order statistic calculations such as maximum / minimum statistical operators, or these It should be noted that other operations including combinations of these operations can be used. After image composition, defects are identified in the composite image using standard machine vision techniques.

1つの欠陥が両方の指向性画像に現われる場合においては、物品の拡散画像を使用して当該欠陥を検出することができる。図5は、上方からの拡散照明で取得される物品のグレースケール画像90を示している。欠陥92は、円で囲んで示す。これらの画像データは、これらの指向性画像の一方または両方と合成することができる、またはこれらの画像データのみを、標準的なマシンビジョン技術を使用して処理することにより、存在し得る欠陥群に関する更に別の情報を生成することができる。   In the case where a defect appears in both directional images, the diffusion image of the article can be used to detect the defect. FIG. 5 shows a grayscale image 90 of the article acquired with diffuse illumination from above. Defect 92 is shown circled. These image data can be combined with one or both of these directional images, or only these image data can exist by processing using standard machine vision techniques. Further information regarding can be generated.

本発明の1つの実施形態では、1フレーム時間で取得される単一センサ上の3つの画像を多重化する手法を使用して、データを単一フレーム時間で取得する。取得時間を単一フレーム時間に限定することにより、部品を停止させ、データを取得し、そして次に、部品の動きを再開するために要する時間を最短にする。更に、センサに光を限定期間に亘ってのみ集めることが許容される場合に電子シャッター機能をセンサで実行することにより画像データを、部品を停止させることなく取得することができる。これらの照明光源は、部品がセンサの視野を通り過ぎるときに当該部品の動きを止めるときに合わせて発光させることもできる。当該部品は、当該部品の正常速度でカメラの傍を移動し続けることができるか、または電子シャッター機能を実行するのにも拘わらず、または照明光源を、タイミングを合わせて発光させるにも拘わらず、画像データが動きボケ(motion blur)を含む場合には、部品の動きをプログラムして正弦波状の動きをするようにすることにより、部品がセンサの視野を通って移動しているときの速度を遅くし、そして画像が取得されていないときの速度を速くすることができる。   In one embodiment of the invention, data is acquired in a single frame time using a technique that multiplexes three images on a single sensor acquired in one frame time. Limiting the acquisition time to a single frame time minimizes the time required to stop the part, acquire data, and then resume the movement of the part. Further, when the sensor is allowed to collect light only for a limited period, image data can be acquired without stopping the parts by executing the electronic shutter function with the sensor. These illumination light sources can also emit light when the part passes the sensor's field of view and stops moving the part. The part can continue to move beside the camera at the normal speed of the part, or the electronic light source function can be performed, or the illumination light source can emit light in a timely manner. If the image data contains motion blur, the speed at which the part is moving through the sensor's field of view by programming the movement of the part to make a sinusoidal movement And speed up when no image is acquired.

この技術分野の当業者には、多くの変更を、本発明の基本原理を逸脱しない範囲において、本発明の上述の実施形態の詳細に加え得ることが明らかであろう。従って、本発明の範囲は以下の請求項によってのみ規定されるべきである。   It will be apparent to those skilled in the art that many modifications can be made to the details of the above-described embodiments of the invention without departing from the basic principles of the invention. Accordingly, the scope of the invention should be defined only by the following claims.

10…半導体イメージセンサ、12…ベイヤーフィルタ、14…赤色フィルタ、16…緑色フィルタ、18…青色フィルタ、20…ピクセル、32…量子効率、34…波長、36…青色フィルタ、38…緑色フィルタ、40…赤色フィルタ、50…物品、51…搬送機構、52…第1照明光源、54…第1色のコリメート光、56…第2照明光源、58…第2色のコリメート光、60…カメラ、62…第3照明光源、64…第3色の拡散光、70…画像データ、72…第1照明光源、74…第1方向、76…欠陥、78…画像データ、80…第2照明光源、82…第2方向、84…合成画像データ、86…欠陥、90…グレースケール画像、92…欠陥 DESCRIPTION OF SYMBOLS 10 ... Semiconductor image sensor, 12 ... Bayer filter, 14 ... Red filter, 16 ... Green filter, 18 ... Blue filter, 20 ... Pixel, 32 ... Quantum efficiency, 34 ... Wavelength, 36 ... Blue filter, 38 ... Green filter, 40 ... red filter, 50 ... article, 51 ... transport mechanism, 52 ... first illumination light source, 54 ... first color collimated light, 56 ... second illumination light source, 58 ... second color collimated light, 60 ... camera, 62 ... 3rd illumination light source, 64 ... 3rd color diffused light, 70 ... Image data, 72 ... 1st illumination light source, 74 ... 1st direction, 76 ... Defect, 78 ... Image data, 80 ... 2nd illumination light source, 82 ... 2nd direction, 84 ... Composite image data, 86 ... Defect, 90 ... Grayscale image, 92 ... Defect

Claims (12)

物品の画像データを、第1及び第2照明光源、ベイヤーフィルタ(Bayer filters)を貼り付けたメージセンサ、及びコントローラを使用して取得する改良型方法であって、前記改良は:
前記物品を、前記第1照明光源を用いて第1方向から、前記ベイヤーフィルタの第1色のスペクトルと一致するスペクトルを有する光で照明する工程と;
前記物品を、前記第2照明光源を用いて第2方向から、前記ベイヤーフィルタの第2色のスペクトルと一致するスペクトルを有する光で照明する工程と;
画像データを、前記第1照明光源及び前記第2照明光源により照明される前記物品から前記イメージセンサを用いて取得して前記コントローラに取り込む工程と;
前記画像データを、前記コントローラを用いて前記第1照明光源に対応するデータを含む第1色の画像と、前記第2照明光源に対応するデータを含む第2色の画像とに分離する工程と;
生成画像を、前記コントローラを用いて前記第1色の画像と前記第2色の画像との間の計算により生成することにより、前記物品の画像データを取得する工程と、
を含む、方法。
An improved method for obtaining image data of an article using first and second illumination sources, a image sensor with Bayer filters attached, and a controller, wherein the improvements are:
Illuminating the article from the first direction with the first illumination light source with light having a spectrum that matches the spectrum of the first color of the Bayer filter;
Illuminating the article from the second direction with the second illumination light source with light having a spectrum that matches the spectrum of the second color of the Bayer filter;
Acquiring image data from the article illuminated by the first illumination light source and the second illumination light source by using the image sensor and importing the image data into the controller;
Separating the image data into a first color image including data corresponding to the first illumination light source and a second color image including data corresponding to the second illumination light source using the controller; ;
Obtaining image data of the article by generating a generated image by calculation between the first color image and the second color image using the controller;
Including a method.
前記第1方向及び前記第2方向は180度だけ異なる、請求項1に記載の方法。   The method of claim 1, wherein the first direction and the second direction differ by 180 degrees. 前記ベイヤーフィルタの前記第1色は、約550nmの波長光である、請求項1に記載の方法。   The method of claim 1, wherein the first color of the Bayer filter is about 550 nm wavelength light. 前記ベイヤーフィルタの前記第2色は、約635nmの波長光である、請求項1に記載の方法。   The method of claim 1, wherein the second color of the Bayer filter is about 635 nm wavelength light. 前記第1色の画像と前記第2色の画像との間の前記計算は減算である、請求項1に記載の方法。   The method of claim 1, wherein the calculation between the first color image and the second color image is a subtraction. 前記第1照明光源及び前記第2照明光源は、或るタイミングで発光させる、請求項1に記載の方法。   The method according to claim 1, wherein the first illumination light source and the second illumination light source emit light at a certain timing. 物品の画像データを、ベイヤーフィルタを貼り付けたメージセンサを使用して取得する改良型システムであって、前記システムは、ベイヤーフィルタを貼り付けたメージセンサと、そして前記イメージセンサに動作可能に接続されるコントローラと、を含み、前記改良は:
前記物品を第1方向から、前記ベイヤーフィルタの第1色のスペクトルと一致するスペクトルを有する光で照明するように動作する第1照明光源と、
前記物品を第2方向から、前記ベイヤーフィルタの第2色のスペクトルと一致するスペクトルを有する光で照明するように動作する第2照明光源と、
前記画像データを、ベイヤーフィルタを貼り付けた前記メージセンサから取得し、そして前記画像データを、前記第1照明光源により照明される画像データに対応する第1色の画像と、前記第2照明光源により照明される画像データに対応する第2色の画像とに分離するように動作する前記コントローラと、を備え、
前記コントローラは更に、生成画像を前記第1色の画像と前記第2色の画像との間の計算により生成することにより、前記物品の前記画像データを取得するように動作する、改良型システム。
An improved system for acquiring image data of an article using a image sensor with a Bayer filter attached thereto, the system being operatively connected to the image sensor with a Bayer filter attached thereto, and the image sensor A controller, wherein the improvements include:
A first illumination light source that operates to illuminate the article from a first direction with light having a spectrum that matches a spectrum of a first color of the Bayer filter;
A second illumination light source that operates to illuminate the article from a second direction with light having a spectrum that matches a spectrum of a second color of the Bayer filter;
The image data is acquired from the image sensor with a Bayer filter attached thereto, and the image data is obtained from an image of a first color corresponding to image data illuminated by the first illumination light source and the second illumination light source. The controller operative to separate into a second color image corresponding to the image data to be illuminated,
The improved system further operates to obtain the image data of the article by generating a generated image by calculation between the first color image and the second color image.
前記第1方向及び前記第2方向は180度だけ異なる、請求項7に記載のシステム。   The system of claim 7, wherein the first direction and the second direction differ by 180 degrees. 前記ベイヤーフィルタの前記第1色は、約550nmの波長光である、請求項7に記載のシステム。   The system of claim 7, wherein the first color of the Bayer filter is about 550 nm wavelength light. 前記ベイヤーフィルタの前記第2色は、約635nmの波長光である、請求項7に記載のシステム。   The system of claim 7, wherein the second color of the Bayer filter is about 635 nm wavelength light. 前記第1色の画像と前記第2色の画像との間の前記計算は減算である、請求項7に記載のシステム。   The system of claim 7, wherein the calculation between the first color image and the second color image is a subtraction. 前記第1照明光源及び前記第2照明光源は、或るタイミングで発光させる、請求項7に記載のシステム。   The system according to claim 7, wherein the first illumination light source and the second illumination light source emit light at a certain timing.
JP2011503042A 2008-03-31 2009-03-25 Method and apparatus for acquiring and processing multiplexed images Withdrawn JP2011516860A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US4110508P 2008-03-31 2008-03-31
US61/041,105 2008-03-31
PCT/US2009/038299 WO2009123901A1 (en) 2008-03-31 2009-03-25 Method and apparatus for multiplexed image acquisition and processing

Publications (1)

Publication Number Publication Date
JP2011516860A true JP2011516860A (en) 2011-05-26

Family

ID=41135905

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011503042A Withdrawn JP2011516860A (en) 2008-03-31 2009-03-25 Method and apparatus for acquiring and processing multiplexed images

Country Status (5)

Country Link
JP (1) JP2011516860A (en)
KR (1) KR20100138985A (en)
CN (1) CN101981411A (en)
TW (1) TW201003038A (en)
WO (1) WO2009123901A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010079387A (en) * 2008-09-24 2010-04-08 Omron Corp Image processing method and image processor

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103516962A (en) * 2012-06-19 2014-01-15 全友电脑股份有限公司 Image capturing system and method
DE102014201144A1 (en) * 2014-01-22 2015-07-23 Zumtobel Lighting Gmbh Method for controlling an adaptive lighting device and lighting system for carrying out the method
JP6260354B2 (en) * 2014-03-04 2018-01-17 株式会社リコー Imaging device, adjustment device, and adjustment method
KR101663518B1 (en) * 2014-07-14 2016-10-10 주식회사 제이에스티 reel tape inspection device
CN110793472B (en) * 2019-11-11 2021-07-27 桂林理工大学 Grinding surface roughness detection method based on quaternion singular value entropy index

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5000569A (en) * 1988-12-28 1991-03-19 Lamb-Weston, Inc. Light reflection defect detection apparatus and method using pulsed light-emitting semiconductor devices of different wavelengths
US5298963A (en) * 1992-02-26 1994-03-29 Mitsui Mining & Smelting Co., Ltd. Apparatus for inspecting the surface of materials
DE19643475C1 (en) * 1996-10-22 1998-06-25 Laser Applikationan Gmbh Speed measurement method based on the laser Doppler principle
US6091488A (en) * 1999-03-22 2000-07-18 Beltronics, Inc. Method of and apparatus for automatic high-speed optical inspection of semi-conductor structures and the like through fluorescent photoresist inspection

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010079387A (en) * 2008-09-24 2010-04-08 Omron Corp Image processing method and image processor

Also Published As

Publication number Publication date
KR20100138985A (en) 2010-12-31
CN101981411A (en) 2011-02-23
TW201003038A (en) 2010-01-16
WO2009123901A1 (en) 2009-10-08

Similar Documents

Publication Publication Date Title
US9350973B2 (en) Three-dimensional mapping and imaging
TWI484163B (en) Method and automated optical inspection system for scanning a surface with a number of different illumination configurations
CA2615117C (en) Apparatus and methods for inspecting a composite structure for inconsistencies
JP2011516860A (en) Method and apparatus for acquiring and processing multiplexed images
JP6052590B2 (en) Surface inspection apparatus and surface inspection method for automobile body
KR101972517B1 (en) Dual line optics inspection system for surface inspection of flexible device
CN108090890B (en) Inspection device and inspection method
JP5621178B2 (en) Appearance inspection device and printed solder inspection device
KR101679205B1 (en) Device for detecting defect of device
TW200839215A (en) Image-acquiring system with high-spectrum resolution and method for the same
CN110402386A (en) Cylinder surface examining device and cylinder surface inspecting method
CN111033566B (en) Method and system for non-destructive inspection of an aircraft part
CN115809984A (en) Workpiece inspection and defect detection system using color channels
JP5890953B2 (en) Inspection device
WO2019117802A1 (en) A system for obtaining 3d images of objects and a process thereof
TW201910748A (en) Optical inspection system and image processing method thereof
KR101996486B1 (en) Vision test device using sequential light technic
KR101269128B1 (en) Surface roughness measurement apparatus and method having intermediate view generator
JP2000258348A (en) Defect inspection apparatus
JP2020193867A (en) Image processing device, control method, control program, and computer-readable recording medium
JP4967132B2 (en) Defect inspection method for object surface
JP2007322209A (en) Visual examination device and method
US20210025698A1 (en) Device and Method for Three-dimensionally Measuring Linear Object
CN117147559A (en) Cloth flaw detection system and method
CN116523732A (en) Method and apparatus for obtaining and correlating 2D image data with 3D image data from optical triangulation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120221

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20120705

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20120705