JP2015130074A - image processing system and image processing method - Google Patents

image processing system and image processing method Download PDF

Info

Publication number
JP2015130074A
JP2015130074A JP2014001254A JP2014001254A JP2015130074A JP 2015130074 A JP2015130074 A JP 2015130074A JP 2014001254 A JP2014001254 A JP 2014001254A JP 2014001254 A JP2014001254 A JP 2014001254A JP 2015130074 A JP2015130074 A JP 2015130074A
Authority
JP
Japan
Prior art keywords
image
pixel
unit
data
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014001254A
Other languages
Japanese (ja)
Inventor
井上 靖之
Yasuyuki Inoue
靖之 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Elemex Corp
Original Assignee
Ricoh Elemex Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Elemex Corp filed Critical Ricoh Elemex Corp
Priority to JP2014001254A priority Critical patent/JP2015130074A/en
Publication of JP2015130074A publication Critical patent/JP2015130074A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system and an image processing method for easily accelerating the detection of abnormality and the execution of processing based on the abnormality.SOLUTION: An image processing system of an embodiment includes: a first device having a first calculation processing unit that creates, from image data, division data having a first pixel and a second pixel divided according to a luminance value or a luminance value distribution; and a second device having a second calculation processing unit that determines a specific area from the division data created by the first calculation processing unit and a processing execution control unit that executes predetermined processing on the basis of information indicating the specific area.

Description

本発明の実施形態は、画像処理システムおよび画像処理方法に関する。   Embodiments described herein relate generally to an image processing system and an image processing method.

従来、撮像された画像データから画像処理によって欠陥や異常等を検出する画像処理システムが知られている。   2. Description of the Related Art Conventionally, an image processing system that detects defects, abnormalities, and the like by image processing from captured image data is known.

特開2007−327789号公報JP 2007-327789 A

この種の画像処理システムでは、異常の検出や、検出された異常の表示、検出された異常に基づく処理の実行等に遅れが生じるのが好ましくない場合がある。すなわち、異常の検出や検出された異常に基づく処理の実行等をより高速化しやすい画像処理システムおよび画像処理方法を得ることができれば有意義である。   In this type of image processing system, it may not be preferable that a delay occurs in detecting an abnormality, displaying the detected abnormality, executing a process based on the detected abnormality, and the like. In other words, it would be meaningful to obtain an image processing system and an image processing method that can facilitate the detection of an abnormality and the execution of processing based on the detected abnormality.

実施形態の画像処理システムは、画像データから輝度値あるいは輝度値分布に応じて第一の画素と第二の画素とが区分された区分データを生成する第一の演算処理部を有した、第一の装置と、第一の演算処理部で生成された区分データから特定領域を決定する第二の演算処理部と、特定領域を示す情報に基づいて所定の処理を実行する処理実行制御部と、を有した第二の装置と、を備える。   The image processing system of the embodiment includes a first arithmetic processing unit that generates segment data in which the first pixel and the second pixel are segmented from the image data according to the luminance value or the luminance value distribution. One apparatus, a second arithmetic processing unit that determines a specific area from the classification data generated by the first arithmetic processing unit, and a process execution control unit that executes a predetermined process based on information indicating the specific area; And a second device.

実施形態によれば、一例としては、異常の検出や検出された異常に基づく処理の実行等をより高速化しやすい画像処理システムおよび画像処理方法を得ることができる。   According to the embodiment, as an example, it is possible to obtain an image processing system and an image processing method that can easily speed up the detection of an abnormality and the execution of a process based on the detected abnormality.

図1は、実施形態にかかる画像処理システムの一例の撮像部による撮像の様子が示された模式図である。FIG. 1 is a schematic diagram illustrating a state of imaging by an imaging unit of an example of an image processing system according to the embodiment. 図2は、実施形態にかかる画像処理システムの一例のブロック図である。FIG. 2 is a block diagram of an example of an image processing system according to the embodiment. 図3は、実施形態にかかる画像処理システムでの処理手順の一例のフローチャートである。FIG. 3 is a flowchart of an example of a processing procedure in the image processing system according to the embodiment. 図4は、実施形態にかかる画像処理システムで撮像され処理される前の画像データの一部の一例が示された模式図である。FIG. 4 is a schematic diagram illustrating an example of part of image data before being captured and processed by the image processing system according to the embodiment. 図5は、実施形態にかかる画像処理システムによるフィルタリングの一例が示された模式図である。FIG. 5 is a schematic diagram illustrating an example of filtering by the image processing system according to the embodiment. 図6は、実施形態にかかる画像処理システムで得られた特定領域を示す画像の一例が示された模式図である。FIG. 6 is a schematic diagram illustrating an example of an image showing a specific region obtained by the image processing system according to the embodiment. 図7は、実施形態にかかる画像処理システムで出力される画像データの一例が示された模式図である。FIG. 7 is a schematic diagram illustrating an example of image data output by the image processing system according to the embodiment.

以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成や制御、ならびに当該構成や制御によってもたらされる作用および結果(効果)は、あくまで一例である。本発明は、以下の実施形態に開示される構成や制御以外によっても実現可能であるとともに、基本的な構成や制御によって得られる種々の効果(派生的な効果も含む)を得ることが可能である。   Hereinafter, exemplary embodiments of the present invention are disclosed. The configuration and control of the embodiment shown below, and the operation and result (effect) brought about by the configuration and control are merely examples. The present invention can be realized by means other than the configuration and control disclosed in the following embodiments, and various effects (including derivative effects) obtained by the basic configuration and control can be obtained. is there.

本実施形態では、図1に示されるように、画像処理システム1は、撮像部2で撮像された検査対象物100の検査対象面101の二次元の画像データを画像処理することで、検査対象面101の検査を行う。検査対象物100は、一例としては、シート(紙、フィルム、膜、板等)であるが、撮像部2の撮像によって画像データが得られるものであれば、何でもよい。図1の例では、ローラ103(搬送機構の一部)によって搬送ベルト102が搬送され、搬送ベルト102上には、その長手方向に沿って、複数のシート状の検査対象物100が並べて配置されている。撮像部2は、移動する搬送ベルト102の異なる位置を、所定の(非常に短い)時間間隔で次々に撮像する。撮像部2が取得した画像には、検査対象物100の検査対象面101と、搬送ベルト102とが含まれている。検査対象面101は、検査対象領域の一例であり、搬送ベルト102は、非検査対象領域の一例である。   In the present embodiment, as illustrated in FIG. 1, the image processing system 1 performs image processing on the two-dimensional image data of the inspection target surface 101 of the inspection target 100 captured by the imaging unit 2, thereby performing an inspection target. The surface 101 is inspected. The inspection object 100 is a sheet (paper, film, film, plate, etc.) as an example, but may be anything as long as image data can be obtained by imaging by the imaging unit 2. In the example of FIG. 1, the conveyance belt 102 is conveyed by a roller 103 (part of the conveyance mechanism), and a plurality of sheet-like inspection objects 100 are arranged side by side along the longitudinal direction on the conveyance belt 102. ing. The imaging unit 2 sequentially images different positions of the moving conveyor belt 102 at predetermined (very short) time intervals. The image acquired by the imaging unit 2 includes the inspection target surface 101 of the inspection target 100 and the conveyor belt 102. The inspection target surface 101 is an example of an inspection target area, and the conveyor belt 102 is an example of a non-inspection target area.

撮像部2は、例えば、二次元に配列された光電変換素子(光電変換部)を有したエリアセンサ(固体撮像素子、例えば、CCD(charge coupled device)イメージセンサや、CMOS(complementary metal oxide semiconductor)イメージセンサ等)である。あるいは、画像処理システム1は、複数の一次元の画像データを組み合わせて構成された二次元の画像データや、複数の二次元の画像データを組み合わせて構成されたより広い二次元の画像データについて、検査対象面101(検査対象物100)の検査を行うことができる。すなわち、撮像部2は、一次元の画像データを取得するラインセンサ(ラインカメラ、イメージセンサ)であってもよいし、二次元の画像データを取得するエリアセンサであってもよい。二次元の画像データには、二次元配列された複数の画素の輝度値のデータ(以下、画素データとも称する)が含まれている。   The imaging unit 2 is, for example, an area sensor (a solid-state imaging device such as a charge coupled device (CCD) image sensor or a complementary metal oxide semiconductor (CMOS)) having two-dimensionally arranged photoelectric conversion elements (photoelectric conversion units). Image sensor). Alternatively, the image processing system 1 inspects two-dimensional image data configured by combining a plurality of one-dimensional image data and wider two-dimensional image data configured by combining a plurality of two-dimensional image data. Inspection of the target surface 101 (inspection object 100) can be performed. That is, the imaging unit 2 may be a line sensor (line camera, image sensor) that acquires one-dimensional image data, or may be an area sensor that acquires two-dimensional image data. The two-dimensional image data includes luminance value data (hereinafter also referred to as pixel data) of a plurality of pixels arranged two-dimensionally.

また、本実施形態では、一例として、図2に示されるように、画像処理システム1は、第一の装置3と第二の装置4とを備えている。第一の装置3は、例えば、複数の論理回路が集積された集積回路、一例としては、プログラマブルロジックデバイス(PLD:programmable logic device、例えば、FPGA(field-programmable gate array)や、CPLD(complex programmable logic device)等)や、ASIC(application specific integrated circuit)等を含むことができる。第一の装置3は、並列で比較的(第二の装置4より)高速な演算処理が可能である。第一の装置3がプログラマブルロジックデバイスを含む場合、第一の装置3の製造後に論理回路の書き換えが可能であるため、便利であるとともに、検査対象物100や、撮像環境、装置スペック等に合わせて論理回路を変更することで、演算(検査)の精度や速度等がより向上されやすい。   In the present embodiment, as an example, as illustrated in FIG. 2, the image processing system 1 includes a first device 3 and a second device 4. The first device 3 is, for example, an integrated circuit in which a plurality of logic circuits are integrated. For example, a programmable logic device (PLD) such as a field-programmable gate array (FPGA) or a CPLD (complex programmable) is used. logic device), ASIC (application specific integrated circuit), and the like. The first device 3 is capable of high-speed arithmetic processing in parallel (relative to the second device 4). When the first device 3 includes a programmable logic device, the logic circuit can be rewritten after the first device 3 is manufactured, which is convenient and is suitable for the inspection object 100, imaging environment, device specifications, and the like. By changing the logic circuit, the accuracy and speed of operation (inspection) can be improved more easily.

また、第二の装置4は、例えば、コンピュータプログラム(ソフトウエアプログラム)にしたがって演算(逐次処理)を実行するデバイス(制御部41、一例としては、CPU(central processing unit)や、DSP(digital signal processor)等)を含むことができる。第二の装置4は、記憶部42(例えば、RAM(random access memory)や、ROM(read only memory)、フラッシュメモリ、HDD(hard disk drive)、SSD(solid state drive)等)を含み、所謂コンピュータとして構成されうる。コンピュータプログラムは、記憶部42の一部(不揮発性の記憶部)にインストールされる(記憶される)。また、第二の装置4で演算された結果は、表示部5で表示される。表示部5は、例えば、LCD(liquid crystal display)や、OELD(organic electro-luminescent display)等である。   In addition, the second device 4 is, for example, a device (control unit 41, for example, a CPU (central processing unit), a DSP (digital signal) or the like that executes computation (sequential processing) according to a computer program (software program). processor) etc.). The second device 4 includes a storage unit 42 (for example, RAM (random access memory), ROM (read only memory), flash memory, HDD (hard disk drive), SSD (solid state drive), etc.), so-called. It can be configured as a computer. The computer program is installed (stored) in a part of the storage unit 42 (nonvolatile storage unit). The result calculated by the second device 4 is displayed on the display unit 5. The display unit 5 is, for example, an LCD (liquid crystal display) or an OELD (organic electro-luminescent display).

図2に示されるように、第一の装置3は、前処理部31や、記憶部32、背景識別部33、分配部34、区分処理部35、合成部36、圧縮部37等を備える。また、第二の装置4は、制御部41や、記憶部42等を備える。制御部41は、良否判定部43や、合成部44、表示制御部45等を有する。   As shown in FIG. 2, the first device 3 includes a preprocessing unit 31, a storage unit 32, a background identification unit 33, a distribution unit 34, a sorting processing unit 35, a combining unit 36, a compression unit 37, and the like. The second device 4 includes a control unit 41, a storage unit 42, and the like. The control unit 41 includes a quality determination unit 43, a synthesis unit 44, a display control unit 45, and the like.

以下、第一の装置3および第二の装置4の構成例ならびに動作例が説明される。図3には、第一の装置3および第二の装置4による処理の手順の一例が示されている。まずは、撮像部2で撮像が行われ、二次元の画素データ(撮像部2で撮像された画像Im、以下単に画像Imと称される、図4参照)が得られる(S1)。   Hereinafter, configuration examples and operation examples of the first device 3 and the second device 4 will be described. FIG. 3 shows an example of a processing procedure performed by the first device 3 and the second device 4. First, imaging is performed by the imaging unit 2, and two-dimensional pixel data (an image Im captured by the imaging unit 2, hereinafter simply referred to as an image Im, see FIG. 4) is obtained (S1).

次に、前処理部31は、必要に応じて、画像Imについて、前処理を実行する(S2)。このS2では、画像処理の一般的な前処理(フィルタリングや、平滑化等)の他、公知のベイヤ配列パターンにおける補間処理等が実行されうる。ベイヤ配列パターンとは、撮像部2の各画素に対応する素子(図示されず)がR(赤)、G(緑)、またはB(青)のうち一色の画素データ(輝度値)を取得する配列パターンである。撮像部2の素子がベイヤ配列パターンで配列されている場合、前処理部31は、他の色の画素データを、他の複数の画素(周囲の画素)の画素データを用いて補間することができる。記憶部32には、各画素の各色の画素データ(前処理された画素データ)が記憶されうる。   Next, the preprocessing unit 31 performs preprocessing on the image Im as necessary (S2). In S2, in addition to general preprocessing (filtering, smoothing, etc.) of image processing, interpolation processing in a known Bayer array pattern can be executed. The Bayer array pattern is an element (not shown) corresponding to each pixel of the imaging unit 2 that acquires pixel data (luminance value) of one color of R (red), G (green), or B (blue). It is an array pattern. When the elements of the imaging unit 2 are arranged in a Bayer arrangement pattern, the preprocessing unit 31 can interpolate pixel data of other colors using pixel data of other pixels (surrounding pixels). it can. The storage unit 32 can store pixel data of each color of each pixel (preprocessed pixel data).

前処理部31で前処理された画素データは、記憶部32に記憶される(S3)。記憶部32は、例えば、不揮発性の書換可能な記憶部32(例えば、補助記憶装置)である。   The pixel data preprocessed by the preprocessing unit 31 is stored in the storage unit 32 (S3). The storage unit 32 is, for example, a nonvolatile rewritable storage unit 32 (for example, an auxiliary storage device).

次に、背景識別部33は、記憶部32に記憶された検査対象面101の画素データ(前処理部31での演算処理済みのデータ、前処理済みの画像Im)から背景に対応する領域(非検出対象領域、図1の例では、搬送ベルト102)を識別する(S4)。S4では、画像Im中における背景の画像ImBは、例えば、以下の(1)〜(3)の三つの手法で識別されうる。   Next, the background identification unit 33 uses the pixel data of the inspection target surface 101 stored in the storage unit 32 (data that has been subjected to arithmetic processing in the preprocessing unit 31 and preprocessed image Im) as an area corresponding to the background ( A non-detection target area, in the example of FIG. 1, the conveyor belt 102) is identified (S4). In S4, the background image ImB in the image Im can be identified by the following three methods (1) to (3), for example.

(1)画像Im中の位置による識別
図4の例では、搬送方向(移動方向)が下方向であるが、この場合、背景識別部33は、左端(あるいは右端)の既知の略一定幅の領域を、背景の画像ImBと識別することができる。また、検査対象面101(検査対象物100、検査対象領域)の画像ImSのタイミング(すなわち、搬送ベルト102における検査対象物100の位置)が既知であるような場合、画像Imの幅方向(図4の左右方向)に一定幅で伸びた領域を、背景の画像ImBと判別することができる。
(1) Identification by Position in Image Im In the example of FIG. 4, the transport direction (movement direction) is the downward direction. In this case, the background identification unit 33 has a known substantially constant width at the left end (or right end). The region can be distinguished from the background image ImB. When the timing of the image ImS on the inspection target surface 101 (inspection target 100, inspection target region) (that is, the position of the inspection target 100 on the transport belt 102) is known, the width direction of the image Im (see FIG. The region extending with a constant width in the left-right direction (4) can be determined as the background image ImB.

(2)各画素の輝度値の大きさによる識別
図4の例では、輝度値が閾値より低い画素や、輝度値が閾値の範囲内に含まれる画素を、背景の画像ImB(に含まれる画素)と判別することができる。
(2) Identification by the magnitude of the luminance value of each pixel In the example of FIG. 4, a pixel whose luminance value is lower than the threshold value or a pixel whose luminance value falls within the threshold value range is a pixel included in the background image ImB ( ).

(3)各画素と当該画素に隣接するあるいは周囲の画素との輝度値の合計値による識別
図4の例では、背景の画像ImBでは、検査対象面101の画像ImSと比較して、当該合計値が低くなる。よって、合計値と対応する閾値との比較で、例えば、合計値が閾値より低い画素を、背景の画素ImBと決定することができる。なお、S4では、背景の画像ImBの少なくとも一部を識別できれば良い。背景識別部33は、第三の演算処理部の一例である。
(3) Identification by the total value of luminance values of each pixel and pixels adjacent to or around the pixel In the example of FIG. 4, the background image ImB is compared with the image ImS of the inspection target surface 101. The value becomes lower. Therefore, by comparing the total value with the corresponding threshold value, for example, a pixel whose total value is lower than the threshold value can be determined as the background pixel ImB. In S4, it is only necessary to identify at least a part of the background image ImB. The background identification unit 33 is an example of a third arithmetic processing unit.

図3のS6の区分処理は、図2に示されるように並列に設けられた複数(図2の例では、一例として二つ)の区分処理部35のうちいずれかが、順次交替で実行する。分配部34は、区分処理部35の割り当て(次にS6の区分処理を実行する区分処理部35)を決定する(S5)。   The sorting process of S6 in FIG. 3 is executed sequentially by one of a plurality (two in the example of FIG. 2) of the sorting processing units 35 provided in parallel as shown in FIG. . The distribution unit 34 determines the assignment of the sorting processing unit 35 (the sorting processing unit 35 that executes the sorting process of S6 next) (S5).

分配部34によって処理の実行が割り当てられた区分処理部35は、画像Imから、第一の画素と第二の画素とが区分された区分データを生成する(区分処理を実行する、S6)。S6で、区分処理部35は、例えば、各画素の画素データの閾値に対する大小によって、所謂二値化処理を実行することができる。この場合、区分処理部35は、例えば、輝度値が閾値より低い画素を第一の画素(不良推定画素)とし、輝度値が閾値以上である画素を第二の画素(良好推定画素)として、前者(不良推定画素、第一の画素)を「1」、後者(良好推定画素、第二の画素)を「0」と区分した、区分データを生成する。第一の画素は、後の第二の装置4での演算処理で用いる必要画素の一例であり、第二の画素は、後の第二の装置4での演算処理で用いられない不要画素の一例である。図4の例では、例えば、区分処理部35は、画像Im内の画像Im1,Im2,Im3中の画素の区分データを「1」(不良推定画素、必要画素)と決定し、それ以外の領域(図4中の白色領域)の画像ImS中の画素の区分データを「0」(良好推定画素、不要画素)と決定する。この例では、画像データの輝度値は、例えば「0」〜「255」の256階調であるのに対し、区分データの値は、「0」または「1」の2階調である。よって、本実施形態によれば、一例としては、第一の装置3から第二の装置4へ各画素の輝度値(画素データ)が送られる場合に比べて、第一の装置3から第二の装置4へ送られるデータ(区分データ)のサイズが小さくなり、第一の装置3から第二の装置4へのデータの転送速度や第二の装置4での演算処理速度がより高速化されやすい。よって、画像処理システム1において、より遅延の少ない演算処理が実現されやすい。区分処理部35は、輝度値に応じて区分データを生成する第一の演算処理部の一例である。   The division processing unit 35 to which the execution of the process is assigned by the distribution unit 34 generates the division data in which the first pixel and the second pixel are divided from the image Im (executes the division process, S6). In S6, the classification processing unit 35 can execute a so-called binarization process, for example, depending on the magnitude of the pixel data threshold value of each pixel. In this case, for example, the classification processing unit 35 sets a pixel whose luminance value is lower than the threshold as the first pixel (defective estimated pixel), and a pixel whose luminance value is equal to or higher than the threshold as the second pixel (good estimated pixel), Classification data is generated by classifying the former (defective estimated pixel, first pixel) as “1” and the latter (good estimated pixel, second pixel) as “0”. The first pixel is an example of a necessary pixel that is used in arithmetic processing in the second device 4 later, and the second pixel is an unnecessary pixel that is not used in arithmetic processing in the second device 4 later. It is an example. In the example of FIG. 4, for example, the classification processing unit 35 determines the classification data of the pixels in the images Im1, Im2, and Im3 in the image Im as “1” (defective estimated pixel, necessary pixel), and other areas. The division data of the pixel in the image ImS (white region in FIG. 4) is determined as “0” (good estimated pixel, unnecessary pixel). In this example, the luminance value of the image data is, for example, 256 gradations from “0” to “255”, while the value of the division data is two gradations, “0” or “1”. Therefore, according to the present embodiment, as an example, the first device 3 to the second device 4 is compared with the case where the luminance value (pixel data) of each pixel is sent from the first device 3 to the second device 4. The size of data (partition data) sent to the device 4 is reduced, and the data transfer speed from the first device 3 to the second device 4 and the processing speed of the second device 4 are further increased. Cheap. Therefore, in the image processing system 1, arithmetic processing with less delay is easily realized. The classification processing unit 35 is an example of a first arithmetic processing unit that generates classification data according to the luminance value.

また、S6で、区分処理部35は、S4で背景の画像ImBと識別された画素の区分データを、上述した良好推定画素と同じ(上述した例では「0」)にすることができる。背景の画像ImB中の画素データは、検査対象面101内の良好推定画素とともに、第二の装置4の良否判定部43での不良判定の対象とならないからである。なお、背景の画像ImB中の画素のデータは、検査対象面101内の画素に割り当てた「0」または「1」とは別の値(例えば「2」等)を割り当ててもよい。ただし、この場合、第一の装置3から第二の装置4へ転送される区分データのサイズは、2ビットとなり、「0」か「1」の1ビットの区分データの場合に比べて、大きくなりやすい。   Further, in S6, the classification processing unit 35 can set the classification data of the pixels identified as the background image ImB in S4 to be the same as the above-described good estimated pixels (“0” in the above-described example). This is because the pixel data in the background image ImB is not subject to defect determination in the pass / fail determination unit 43 of the second device 4 together with the good estimated pixels in the inspection target surface 101. The pixel data in the background image ImB may be assigned a value different from “0” or “1” assigned to the pixels in the inspection target surface 101 (for example, “2”). However, in this case, the size of the divided data transferred from the first device 3 to the second device 4 is 2 bits, which is larger than the case of 1-bit divided data of “0” or “1”. Prone.

さらに、S6で、区分処理部35は、図5に示されるような、ノイズ除去処理あるいは穴埋め処理(フィルタリング)を実行することができる。図5では(図6も同様)、縦横の破線で囲まれた四角形が画素Pである。区分処理部35は、中心の画素P1に隣接した領域F内の各画素Pの区分データ(または輝度値)の合計値と対応する閾値とを比較して、画素P1の値を決定する(変更する)。例えば、図5に例示されるように、中央の画素P1の輝度値が低く(区分データの値:「1」)、当該画素P1に隣接した領域F内の全ての画素Pの輝度値が高い(区分データの値:「0」)場合、領域F内の画素Pの区分データ(または輝度値)の合計値は「0」(または輝度値の低い値)となる。したがって、この例では、合計値と対応する閾値との比較によって、合計値が対応する閾値より低い場合に、画素P1の区分データの値を「0」に決定する(変更する)ことができる。逆に、領域F内の画素Pの輝度値がいずれも低い場合にも、合計値とこの場合に対応して設定された閾値との比較によって、合計値が対応する閾値より高い場合に、画素P1の区分データの値を「1」に決定することができる。なお、領域Fは、中央の画素P1を含んでも良いし、含まなくてもよい。また、ここで説明された処理は、前処理部31がS2で実行することができる。また、区分処理部35は、輝度値分布に応じて区分データを生成する第一の演算処理部の一例である。   Further, in S6, the classification processing unit 35 can execute noise removal processing or hole filling processing (filtering) as shown in FIG. In FIG. 5 (the same applies to FIG. 6), a rectangle surrounded by vertical and horizontal broken lines is the pixel P. The division processing unit 35 determines the value of the pixel P1 by comparing the total value of the division data (or luminance value) of each pixel P in the region F adjacent to the central pixel P1 with the corresponding threshold value (change). To do). For example, as illustrated in FIG. 5, the luminance value of the central pixel P1 is low (value of the division data: “1”), and the luminance values of all the pixels P in the region F adjacent to the pixel P1 are high. In the case of (value of the division data: “0”), the total value of the division data (or luminance value) of the pixel P in the region F is “0” (or a value having a low luminance value). Therefore, in this example, by comparing the total value with the corresponding threshold value, when the total value is lower than the corresponding threshold value, the value of the segment data of the pixel P1 can be determined (changed) to “0”. On the contrary, even when the luminance values of the pixels P in the region F are all low, if the total value is higher than the corresponding threshold value by comparing the total value with the threshold value set corresponding to this case, the pixel The value of the division data of P1 can be determined as “1”. Note that the region F may or may not include the central pixel P1. The processing described here can be executed by the preprocessing unit 31 in S2. The division processing unit 35 is an example of a first calculation processing unit that generates division data according to the luminance value distribution.

合成部36は、複数の区分処理部35で処理された区分データを当初の順番どおりに繋げて合成する(S7)。S7で合成部36が合成した区分データが、第二の装置4へ送られる。   The synthesizing unit 36 combines the segment data processed by the plurality of segment processing units 35 in the original order (S7). The division data combined by the combining unit 36 in S7 is sent to the second device 4.

S2、S4、ならびにS6では、例えば、全ての画素のそれぞれについて同一の演算処理など、複数の論理回路が集積された集積回路によって比較的高速に並列演算しやすい処理が、実行される。そして、第一の装置3での処理によって、第一の装置3から第二の装置4へ送られ、第二の装置4で処理されるデータの、サイズが小さくなるため、第一の装置3から第二の装置4へのデータの転送速度、ならびに第二の装置4でのデータの処理速度が、より高くなりやすい。   In S2, S4, and S6, for example, processing that is easy to perform parallel operations at a relatively high speed by an integrated circuit in which a plurality of logic circuits are integrated, such as the same arithmetic processing for all the pixels, is executed. Since the size of the data sent from the first device 3 to the second device 4 and processed by the second device 4 is reduced by the processing in the first device 3, the first device 3 The data transfer speed from the first apparatus 4 to the second apparatus 4 and the data processing speed of the second apparatus 4 tend to be higher.

良否判定部43は、区分データに基づいて、画像処理を実行し、良否判定を行う(S8)。S8で、良否判定部43は、例えば、参照データとのパターンマッチングによって、良否判定を実行することができる。また、良否判定部43は、例えば、不良推定画素(区分データが「1」の画素)のグルーピング、ラベリング、領域の大きさの算出、当該大きさの閾値との比較等によって、同じグループ(群)と決定された画素群(画像)の大きさが所定の閾値と同じかあるいはより大きい場合に、当該画素群(画像)を特定領域(不良(異常)箇所)として決定することができる。良否判定部43は、第二の演算処理部の一例である。   The pass / fail judgment unit 43 performs image processing based on the classification data and makes a pass / fail judgment (S8). In S8, the pass / fail determination unit 43 can execute pass / fail determination, for example, by pattern matching with reference data. In addition, the pass / fail determination unit 43 performs the same group (group) by grouping, labeling, calculating the size of the region, comparing the size with a threshold value, and the like, for example, for the defective estimated pixels (pixels whose classification data is “1”) ) And the size of the pixel group (image) determined to be equal to or greater than a predetermined threshold value, the pixel group (image) can be determined as a specific region (defective (abnormal) location). The pass / fail judgment unit 43 is an example of a second arithmetic processing unit.

また、良否判定部43は、特定領域と決定した画素群について、特定領域であることを表示するための情報を生成することができる。例えば、図6に例示されるように、良否判定部43は、特定領域と決定した画像Im3について、その重心Cと、重心Cを基準位置とした形状S(画像ImM)を算出しておくことができる。図6の例では、形状Sは、重心Cを中心として画像Im3を取り囲む大きさの(楕円または円)として算出される。形状Sの画像ImMは、特定領域を示す画像の一例である。   In addition, the pass / fail determination unit 43 can generate information for displaying that the pixel group is determined to be the specific region. For example, as illustrated in FIG. 6, the quality determination unit 43 calculates the centroid C and the shape S (image ImM) with the centroid C as a reference position for the image Im3 determined as the specific region. Can do. In the example of FIG. 6, the shape S is calculated as a size (ellipse or circle) that surrounds the image Im3 with the center of gravity C as the center. The image Imm of the shape S is an example of an image showing a specific area.

合成部44は、第一の装置3の記憶部32から圧縮部37を経て得た画像Imのデータと、良否判定部43から得た特定領域を示す画像ImMのデータとを合成する(S9)。このS9で、第一の装置3から得られる画像Imのデータは、圧縮部37での圧縮処理等によってサイズが小さくされたデータである。圧縮部37は、公知の画像圧縮処理や、間引き処理等を実行することができる。合成部44は、第四の演算処理部の一例である。   The synthesizing unit 44 synthesizes the data of the image Im obtained from the storage unit 32 of the first device 3 through the compression unit 37 and the data of the image ImM indicating the specific area obtained from the pass / fail judgment unit 43 (S9). . In step S9, the data of the image Im obtained from the first device 3 is data that has been reduced in size by the compression processing in the compression unit 37 or the like. The compression unit 37 can execute known image compression processing, thinning processing, and the like. The synthesizing unit 44 is an example of a fourth arithmetic processing unit.

表示制御部45は、図7に示されるように、合成部44で合成された画像が表示されるよう、表示部5を制御する(S10)。表示制御部45は、処理実行制御部の一例である。なお、処理実行制御部は、警報が発せられるよう表示部5や音声出力部(図示されず)を制御する警報制御部や、検査ラインや製造ラインを停止する停止制御部等であってもよい。   As shown in FIG. 7, the display control unit 45 controls the display unit 5 so that the image synthesized by the synthesis unit 44 is displayed (S10). The display control unit 45 is an example of a process execution control unit. The process execution control unit may be an alarm control unit that controls the display unit 5 and an audio output unit (not shown) so that an alarm is issued, a stop control unit that stops an inspection line and a production line, and the like. .

以上のように、本実施形態では、一例として、区分処理部35(第一の演算処理部)を有した第一の装置3と、良否判定部43(第二の演算処理部)と表示制御部45(処理実行制御部)とを有した第二の装置4と、を備える。よって、本実施形態によれば、一例としては、区分処理部35での処理によってデータサイズを小さくできるので、一例としては、第一の装置3から第二の装置4へのデータの転送速度あるいは第二の装置4でのデータの処理速度が高まりやすい。   As described above, in the present embodiment, as an example, the first device 3 having the classification processing unit 35 (first arithmetic processing unit), the pass / fail judgment unit 43 (second arithmetic processing unit), and the display control. And a second device 4 having a unit 45 (processing execution control unit). Therefore, according to the present embodiment, as an example, the data size can be reduced by the processing in the sorting processing unit 35, and as an example, the data transfer rate from the first device 3 to the second device 4 or The data processing speed in the second device 4 tends to increase.

また、本実施形態では、一例として、背景識別部33(第三の演算処理部)が背景(非検査対象領域)を除去することができる。よって、一例としては、背景を含む画像データに対して区分処理部35が処理を実行する場合に比べて、処理実行時間がより短くなりやすい。   In the present embodiment, as an example, the background identification unit 33 (third arithmetic processing unit) can remove the background (non-inspection target region). Therefore, as an example, the processing execution time is likely to be shorter than when the classification processing unit 35 executes processing on image data including a background.

また、本実施形態では、一例として、合成部44(第四の演算処理部)は、第一の装置3から得た画像データImMと、良否判定部43(第二の演算処理部)で特定された特定領域を示す画像データImとを合成する。よって、一例としては、表示部5で、良否判定結果がよりわかりやすい画像が表示されやすい。   In the present embodiment, as an example, the synthesis unit 44 (fourth arithmetic processing unit) is identified by the image data ImM obtained from the first device 3 and the pass / fail judgment unit 43 (second arithmetic processing unit). The image data Im indicating the specified specific area is synthesized. Therefore, as an example, an image in which the pass / fail determination result is easier to understand is easily displayed on the display unit 5.

さらに、本実施形態では、一例として、第一の装置3はプログラマブルロジックデバイスを含み、第二の装置4はコンピュータプログラムにしたがって動作する制御部41(デバイス)を含む。第二の装置4の良否判定部43によるS8での演算処理は、バリエーションや場合分けが多くなるため、並列演算には向かない。一方、第一の装置3の各部によるS2,S4,S6では、複数の画素について論理ゲートによる並列演算が可能である。すなわち、本実施形態では、第一の装置3で並列演算を実行するとともに、第二の装置4で並列演算に向かない演算を実行することで、本実施形態にかかる画像処理をより高速化することができる。これにより、一例としては、異常の検出や検出された異常に基づく処理の実行等の周期をより短くすることができ、ひいては、効率の向上や、製品のスループットの向上等に資する。   Furthermore, in this embodiment, as an example, the first device 3 includes a programmable logic device, and the second device 4 includes a control unit 41 (device) that operates according to a computer program. The calculation processing in S8 by the quality determination unit 43 of the second device 4 is not suitable for parallel calculation because variations and case classifications increase. On the other hand, in S2, S4, and S6 by each part of the first device 3, parallel calculation by a logic gate is possible for a plurality of pixels. That is, in the present embodiment, the first apparatus 3 performs parallel operations, and the second apparatus 4 performs operations that are not suitable for parallel operations, thereby further speeding up image processing according to the present embodiment. be able to. Thereby, as an example, it is possible to shorten the cycle of detecting an abnormality or executing a process based on the detected abnormality, which contributes to an improvement in efficiency and an improvement in product throughput.

また、本実施形態では、一例として、第一の装置3は、プログラマブルロジックデバイスを含むことができる。よって、本実施形態によれば、一例としては、検査対象物や、検査対象領域、検査環境、要求される精度や周期等に応じて第一の装置3のスペックを変更して、より不都合が少ない状態で演算処理(検査)が実行されやすい。   In the present embodiment, as an example, the first device 3 can include a programmable logic device. Therefore, according to the present embodiment, as an example, the specification of the first apparatus 3 is changed according to the inspection object, the inspection object region, the inspection environment, the required accuracy or cycle, and the inconvenience is further increased. Arithmetic processing (inspection) is easily performed in a small state.

以上、本発明の実施形態を例示したが、上記実施形態はあくまで一例である。実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、組み合わせ、変更を行うことができる。また、実施形態の構成や形状は、部分的に他の構成や形状と入れ替えて実施することも可能である。また、各構成や形状等のスペック(構造や、種類、方向、角度、形状、大きさ、長さ、幅、厚さ、高さ、数、配置、位置、材質等)は、適宜に変更して実施することができる。   As mentioned above, although embodiment of this invention was illustrated, the said embodiment is an example to the last. The embodiment can be implemented in various other forms, and various omissions, replacements, combinations, and changes can be made without departing from the scope of the invention. In addition, the configuration and shape of the embodiment can be partially replaced with other configurations and shapes. In addition, specifications (structure, type, direction, angle, shape, size, length, width, thickness, height, number, arrangement, position, material, etc.) of each configuration, shape, etc. are changed as appropriate. Can be implemented.

1…画像処理システム、3…第一の装置(プログラマブルロジックデバイス)、4…第二の装置、33…背景識別部(第三の演算処理部)、35…区分処理部(第一の演算処理部)、41…制御部(デバイス)、43…良否判定部(第二の演算処理部)、44…合成部(第四の演算処理部)、45…表示制御部(処理実行制御部)、Im2,Im3…(特定領域の)画像、ImB…(背景、非検査対象領域の)画像、ImS…(検査対象領域の)画像。   DESCRIPTION OF SYMBOLS 1 ... Image processing system, 3 ... 1st apparatus (programmable logic device), 4 ... 2nd apparatus, 33 ... Background identification part (3rd arithmetic processing part), 35 ... Classification processing part (1st arithmetic processing) Part), 41 ... control part (device), 43 ... pass / fail judgment part (second arithmetic processing part), 44 ... composition part (fourth arithmetic processing part), 45 ... display control part (process execution control part), Im2, Im3 ... (specific area) image, ImB ... (background, non-inspection area) image, ImS ... (inspection area) image.

Claims (5)

画像データから輝度値あるいは輝度値分布に応じて第一の画素と第二の画素とが区分された区分データを生成する第一の演算処理部を有した、第一の装置と、
前記第一の演算処理部で生成された前記区分データから特定領域を決定する第二の演算処理部と、前記特定領域を示す情報に基づいて所定の処理を実行する処理実行制御部と、を有した第二の装置と、
を備えた、画像処理システム。
A first apparatus having a first arithmetic processing unit that generates segmented data in which a first pixel and a second pixel are segmented according to a luminance value or luminance value distribution from image data;
A second arithmetic processing unit that determines a specific area from the classification data generated by the first arithmetic processing unit; and a process execution control unit that executes a predetermined process based on information indicating the specific area; A second device having,
An image processing system comprising:
前記第一の装置は、さらに、検査対象領域と非検査対象領域とを特定する第三の演算処理部を有した、請求項1に記載の画像処理システム。   The image processing system according to claim 1, wherein the first apparatus further includes a third arithmetic processing unit that specifies an inspection target region and a non-inspection target region. 前記第二の装置は、さらに、前記第一の装置から得た前記画像データと前記第二の演算処理部で特定された特定領域を示す画像データとを合成する第四の演算処理部を有した、請求項1または2に記載の画像処理システム。   The second device further includes a fourth arithmetic processing unit that synthesizes the image data obtained from the first device and image data indicating a specific area specified by the second arithmetic processing unit. The image processing system according to claim 1 or 2. 前記第一の装置はプログラマブルロジックデバイスを含み、前記第二の装置はコンピュータプログラムにしたがって動作するデバイスを含む、請求項1〜3のうちいずれか一つに記載の画像処理システム。   The image processing system according to claim 1, wherein the first apparatus includes a programmable logic device, and the second apparatus includes a device that operates according to a computer program. 第一の装置と第二の装置とを有した画像処理システムによる画像処理方法であって、
前記第一の装置が、輝度値あるいは輝度値分布に応じて第一の画素と第二の画素とが区分された区分データを生成し、
前記第二の装置が、前記区分データから特定領域を決定し、前記特定領域を示す情報に基づいて所定の処理を実行する、
画像処理方法。
An image processing method by an image processing system having a first device and a second device,
The first device generates segmented data in which the first pixel and the second pixel are segmented according to a luminance value or luminance value distribution,
The second device determines a specific area from the classification data, and executes a predetermined process based on information indicating the specific area;
Image processing method.
JP2014001254A 2014-01-07 2014-01-07 image processing system and image processing method Pending JP2015130074A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014001254A JP2015130074A (en) 2014-01-07 2014-01-07 image processing system and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014001254A JP2015130074A (en) 2014-01-07 2014-01-07 image processing system and image processing method

Publications (1)

Publication Number Publication Date
JP2015130074A true JP2015130074A (en) 2015-07-16

Family

ID=53760746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014001254A Pending JP2015130074A (en) 2014-01-07 2014-01-07 image processing system and image processing method

Country Status (1)

Country Link
JP (1) JP2015130074A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020176858A (en) * 2019-04-16 2020-10-29 レーザーテック株式会社 Inspection device and inspection method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09318488A (en) * 1996-05-28 1997-12-12 Omron Corp Device for testing liquid crystal display panel
JP2004286708A (en) * 2003-03-25 2004-10-14 Hitachi Chem Co Ltd Defect detection apparatus, method, and program
JP2005274172A (en) * 2004-03-23 2005-10-06 Hitachi High-Technologies Corp Pattern inspection method and pattern inspection device
JP2008041749A (en) * 2006-08-02 2008-02-21 Tokyo Seimitsu Co Ltd Device for inspecting image defect
JP2009037280A (en) * 2007-07-31 2009-02-19 Toppan Printing Co Ltd Circuit board for image data processing, and image inspection device
JP2013140468A (en) * 2012-01-04 2013-07-18 Hitachi High-Technologies Corp Pattern matching device, inspection system, and computer program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09318488A (en) * 1996-05-28 1997-12-12 Omron Corp Device for testing liquid crystal display panel
JP2004286708A (en) * 2003-03-25 2004-10-14 Hitachi Chem Co Ltd Defect detection apparatus, method, and program
JP2005274172A (en) * 2004-03-23 2005-10-06 Hitachi High-Technologies Corp Pattern inspection method and pattern inspection device
JP2008041749A (en) * 2006-08-02 2008-02-21 Tokyo Seimitsu Co Ltd Device for inspecting image defect
JP2009037280A (en) * 2007-07-31 2009-02-19 Toppan Printing Co Ltd Circuit board for image data processing, and image inspection device
JP2013140468A (en) * 2012-01-04 2013-07-18 Hitachi High-Technologies Corp Pattern matching device, inspection system, and computer program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020176858A (en) * 2019-04-16 2020-10-29 レーザーテック株式会社 Inspection device and inspection method
JP7202959B2 (en) 2019-04-16 2023-01-12 レーザーテック株式会社 Inspection device and inspection method

Similar Documents

Publication Publication Date Title
JP6666046B2 (en) Image processing apparatus and image processing method
US10964014B2 (en) Defect detecting method and defect detecting system
JP2016508295A5 (en)
JP2013232873A5 (en)
KR102559021B1 (en) Apparatus and method for generating a defect image
JP2014215163A (en) Inspection apparatus
JP6696323B2 (en) Pattern inspection apparatus and pattern inspection method
US10109045B2 (en) Defect inspection apparatus for inspecting sheet-like inspection object, computer-implemented method for inspecting sheet-like inspection object, and defect inspection system for inspecting sheet-like inspection object
US7415362B2 (en) Image defect inspection apparatus
JP6092602B2 (en) Defect inspection apparatus and defect inspection method
JP2007078663A (en) Method and device for inspecting defect
JP6026854B2 (en) Image processing system and image processing method
JP5562707B2 (en) Tire appearance inspection method and tire appearance inspection apparatus
JP5853768B2 (en) Container appearance inspection device
JP2013250188A5 (en)
JP2013036796A (en) Image processor
JP2015130074A (en) image processing system and image processing method
JP5993358B2 (en) Inspection device and PTP packaging machine
CN104198495A (en) Method for detecting step evolution abnormality of semiconductor substrate
JP2013064732A (en) Defect inspection device and image processing device
JP2013072777A (en) Different kind intrusion inspection method and different kind intrusion inspection device
JP6081775B2 (en) Image processing system
JP2008244637A (en) Inspection device, solid-state imaging apparatus, and inspection method
JP2016057068A (en) Pattern fault checkup apparatus, and pattern fault checkup method
US20220375094A1 (en) Object recognition apparatus, object recognition method and learning data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170911

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170926