JPH0744708A - Shape extraction system - Google Patents

Shape extraction system

Info

Publication number
JPH0744708A
JPH0744708A JP5188189A JP18818993A JPH0744708A JP H0744708 A JPH0744708 A JP H0744708A JP 5188189 A JP5188189 A JP 5188189A JP 18818993 A JP18818993 A JP 18818993A JP H0744708 A JPH0744708 A JP H0744708A
Authority
JP
Japan
Prior art keywords
image
processing
feature amount
picture
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5188189A
Other languages
Japanese (ja)
Other versions
JP3239196B2 (en
Inventor
Shinji Hamamoto
伸二 浜本
Yasuhiko Sugii
康彦 杉井
Kazuo Shimamoto
一夫 嶋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kao Corp
Original Assignee
Kao Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kao Corp filed Critical Kao Corp
Priority to JP18818993A priority Critical patent/JP3239196B2/en
Publication of JPH0744708A publication Critical patent/JPH0744708A/en
Application granted granted Critical
Publication of JP3239196B2 publication Critical patent/JP3239196B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To provide a shape extraction system which sharply and highly precisely extracts an object shape from an unsharp picture by mean of setting plural pieces of binary picture information to be input values for a neural network. CONSTITUTION:The neural network system is provided with the neural network 101 which sets featured values obtained by binarizing an input picture and the processing picture to be input and learns the featured values so as to obtain extracted picture data of the shape and with an output means 102 outputting the various pictures. At least one processing picture is obtained by picture- processing the picture inputted from an image pickup means 103 in a pre- processing means 104. The plural pieces of the processing pictures among the input picture and the processing pictures are binarized in a binarization processing means 105 and the feature values the calculated from the plural obtained binary pictures in a feature values calculation means 106. The calculated feature values are inputted to the neural network 101 and plural pieces of extracted picture data are obtained. Plural pieces of obtained extracted picture data are inputted to a shape extraction means 107 and one sharp extracted picture is obtained.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像処理を利用した物
体の検査・計測・認識などの装置に用いられる形状抽出
システムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a shape extraction system used in an apparatus for inspecting, measuring, recognizing an object using image processing.

【0002】[0002]

【従来の技術】従来、画像処理を利用して物体の検査・
計測・認識などを実施する際に、不鮮明な画像から鮮明
な物体の形状抽出するための方法が種々提案されてい
る。例えば、画像処理ハンドブック、株式会社 昭晃
堂、昭和62年6月8日発行、263p〜286pに種
々の画像解析の手法が記載されているように、濃度変換
(p263)、強調(p263)、鮮鋭化(p26
6)、平滑化(p269)、雑音除去(p269)、差
分型オペレータ(p280)などや2値化(p277)
等の画像解析により物体の形状を抽出していた。
2. Description of the Related Art Conventionally, inspection of an object using image processing
Various methods have been proposed for extracting the shape of a clear object from an unclear image when performing measurement and recognition. For example, as described in various image analysis methods in Image Processing Handbook, Shokoido Co., Ltd., issued June 8, 1987, 263p to 286p, density conversion (p263), emphasis (p263), Sharpening (p26
6), smoothing (p269), noise removal (p269), difference type operator (p280), and binarization (p277)
The shape of the object was extracted by image analysis such as.

【0003】また、検査対象が異なっても共通に同一の
手法で検査の実行を可能とするニューラルネットワーク
を応用した製品等の外観の良否を判定する画像検査装置
が提案されている(特開平3−242773号公報参
照)。
Further, an image inspection apparatus has been proposed which determines the quality of the appearance of a product or the like to which a neural network is applied, which enables the inspection to be executed by the same method even if the inspection objects are different (Japanese Patent Laid-Open No. 3-2980). -242773 gazette).

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上記の
画像処理ハンドブックに記載されている画像処理手法を
用いた従来の形状抽出手法では、濃度変換、強調、鮮鋭
化、雑音除去、差分オペレータ等の画像処理で2値画像
に変換していたので、照明むらを含んだ画像やコントラ
ストの悪い画像では、ノイズや欠落が発生し、鮮明にか
つ高精度に物体形状を抽出することができなかった。ま
た、特開平3−242773号公報に記載の画像検査装
置においては、ニューラルネットワークへの入力値が1
枚の画像情報であり、この画像情報から外観を判定する
ため、不鮮明な画像では、鮮明にかつ高精度に処理を行
うことができない。
However, in the conventional shape extraction method using the image processing method described in the above-mentioned image processing handbook, the image of density conversion, enhancement, sharpening, noise removal, difference operator, etc. Since the image was converted into a binary image by the processing, noise and omission occurred in an image including uneven illumination or an image with poor contrast, and it was not possible to extract the object shape clearly and with high accuracy. Further, in the image inspection apparatus described in JP-A-3-242777, the input value to the neural network is 1
Since it is the image information of one sheet, and the appearance is determined from this image information, it is impossible to perform clear and highly accurate processing on an unclear image.

【0005】本発明は以上の事情を考慮してなされたも
ので、例えば、複数の画像情報をニューラルネットワー
クへの入力値とすることにより不鮮明な画像から対象物
を鮮明にかつ高精度に抽出する形状抽出処理システムを
提供するものである。
The present invention has been made in consideration of the above circumstances. For example, by using a plurality of image information as input values to a neural network, an object can be sharply and accurately extracted from an unclear image. A shape extraction processing system is provided.

【0006】[0006]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明が講じた技術的手段は、次の通りである。
図1は本発明の基本構成を示すブロック図である。図1
において、本発明は、入力画像及びその処理画像から2
値化して求めた特徴量を入力としその特徴量を学習して
形状の抽出画像データを求めるニューラルネットワーク
101と、各種の画像を出力する出力手段102を備え
た形状抽出システムであって、物体の形状を入力画像と
して撮像する撮像手段103と、撮像された入力画像を
画像処理することにより少なくとも一つ以上の処理画像
を作成するための各種画像処理機能を有する前処理手段
104と、撮像手段103で得られた入力画像と前処理
手段104で得られた複数の処理画像とのうち複数の画
像を2値化して複数枚の2値画像に変換する2値化処理
手段105と、2値化処理手段105で得られた複数枚
の2値画像をさらにそれぞれ複数の領域に分割しその領
域の特徴量を算出する特徴量算出手段106と、特徴量
算出手段106により算出された特徴量を予め学習した
ニューラルネットワークに入力することにより得られる
複数の抽出画像データから1枚の抽出画像を作成する形
状抽出手段107とを備えてなることを特徴とする形状
抽出処理システムである。
The technical means taken by the present invention to achieve the above object are as follows.
FIG. 1 is a block diagram showing the basic configuration of the present invention. Figure 1
In the present invention, the present invention uses the input image and its processed image to
A shape extraction system comprising a neural network 101 for inputting a characteristic amount obtained by binarization and learning the characteristic amount to obtain extracted image data of a shape, and an output means 102 for outputting various images. An image capturing unit 103 that captures a shape as an input image, a pre-processing unit 104 having various image processing functions for creating at least one processed image by performing image processing on the captured input image, and an image capturing unit 103. A binarization processing unit 105 that binarizes a plurality of images out of the input image obtained in step S1 and the plurality of processed images obtained by the preprocessing unit 104 and converts the images into a plurality of binary images; A plurality of binary images obtained by the processing unit 105 are further divided into a plurality of regions, respectively, and a feature amount calculation unit 106 for calculating a feature amount of the regions and a feature amount calculation unit 106 are provided. Shape extraction processing comprising: a shape extraction unit 107 that creates one extracted image from a plurality of extracted image data obtained by inputting the calculated feature amount into a neural network that has been learned in advance. System.

【0007】前記前処理手段104は、濃度変換、強
調、鮮鋭化、雑音除去、差分オペレータなどの各種画像
処理機能から少なくとも1種以上の画像処理方法で前処
理を行うように構成することが好ましい。
The preprocessing means 104 is preferably configured to perform preprocessing by at least one image processing method from various image processing functions such as density conversion, enhancement, sharpening, noise removal, and difference operator. .

【0008】前記特徴量算出手段106は、2値画像を
n個の領域に分割しそれぞれの領域に含まれる物体の画
像面積を算出することにより特徴量を求めるように構成
することが好ましい。
It is preferable that the characteristic amount calculating means 106 is configured to obtain the characteristic amount by dividing the binary image into n areas and calculating the image area of the object contained in each area.

【0009】なお、本発明において、ニューラルネット
ワーク101は、脳の基本構成要素であるニューロン
(脳を構成する神経細胞)の結合により形成されたネッ
トワークであり、ニューロンをニューラルネットワーク
状に接続し、相互に信号をやりとりさせながら、処理ユ
ニットを並列的に動かして全体の情報処理を行うニュー
ロコンピュータ、及びこれらの機能を実施可能なプログ
ラムを記憶させたパーソナルコンピュータ等で構成され
ている。出力手段102としては、CRTディスプレイ
装置、LCD(液晶ディスプレイ)装置、ELディスプ
レイ装置等の表示装置、または、熱転写プリンタ、イン
クジェットプリンタ、レーザプリンタ等の印刷装置が用
いられる。
In the present invention, the neural network 101 is a network formed by connecting neurons (nerve cells forming the brain) which are the basic constituent elements of the brain, and the neurons are connected in a neural network form and are connected to each other. It is composed of a neuro computer which performs parallel information processing by moving processing units in parallel while exchanging signals with each other, a personal computer which stores a program capable of executing these functions, and the like. As the output unit 102, a display device such as a CRT display device, an LCD (liquid crystal display) device, an EL display device, or a printing device such as a thermal transfer printer, an inkjet printer, a laser printer, or the like is used.

【0010】撮像手段103としては、CCD(電荷結
合装置)カメラ、ITVカメラが画像入力装置として用
いられる。前処理手段104、2値化処理手段105と
しては、濃度変換、強調、鮮鋭化、雑音除去、差分オペ
レータ、2値化処理などの画像処理機能を有する画像処
理装置が用いられる。また、画像処理装置はCPU、R
OM、RAM、I/Oポート、外部記憶装置からなるマ
イクロコンピュータで構成されている。また、特徴量算
出手段106、形状抽出手段107としては、パーソナ
ルコンピュータが用いられ、ニューラルネットワーク1
01と接続される。
As the image pickup means 103, a CCD (charge coupled device) camera or an ITV camera is used as an image input device. As the preprocessing unit 104 and the binarization processing unit 105, an image processing device having an image processing function such as density conversion, enhancement, sharpening, noise removal, difference operator, and binarization process is used. Further, the image processing device is a CPU, R
It is composed of a microcomputer including an OM, a RAM, an I / O port, and an external storage device. A personal computer is used as the feature amount calculating means 106 and the shape extracting means 107, and the neural network 1
01 is connected.

【0011】[0011]

【作用】本発明によれば、図1において、撮像手段10
3より入力された画像から画像処理を前処理手段104
で画像処理をすることにより少なくとも一つの処理画像
を得、入力画像と処理画像とのうち複数の画像を2値化
処理手段105で2値化し、得られた複数枚の2値画像
を特徴量算出手段106でさらに複数の領域に分割して
その領域の特徴量を算出し、予め学習したニューラルネ
ットワーク101に算出した特徴量を入力して、複数の
抽出画像データを得て、得られた複数の抽出画像データ
を形状抽出手段107に入力し、1枚の抽出画像を得
る。すなわち、複数の2値画像の中から正しいところを
選択的に取りだし鮮明にかつ高精度に物体形状を抽出す
ることができる。
According to the present invention, the image pickup means 10 shown in FIG.
The image processing from the image input from 3 is performed by the preprocessing unit 104.
Image processing is performed to obtain at least one processed image, a plurality of images of the input image and the processed image are binarized by the binarization processing unit 105, and the obtained plurality of binary images are feature amounts. The calculating unit 106 further divides the region into a plurality of regions to calculate the feature amount of the region, inputs the calculated feature amount to the neural network 101 learned in advance, obtains a plurality of extracted image data, and obtains the plurality of obtained image data. The extracted image data of is input to the shape extraction means 107 to obtain one extracted image. That is, it is possible to selectively take out the correct portion from a plurality of binary images and extract the object shape clearly and with high accuracy.

【0012】上記構成によれば、前記前処理手段104
は、濃度変換、強調、鮮鋭化、雑音除去、差分オペレー
タなどの各種画像処理機能を有するので、少なくとも1
種以上の画像処理方法で前処理を行うことができる。
According to the above arrangement, the preprocessing means 104
Has various image processing functions such as density conversion, enhancement, sharpening, noise removal, and difference operator.
The pre-processing can be performed by more than one image processing method.

【0013】また、上記構成によれば、前記特徴量算出
手段106は、2値画像をn個の領域に分割しそれぞれ
の領域に含まれる物体の画像面積を算出することにより
特徴量を求めることができる。
Further, according to the above configuration, the feature amount calculating means 106 obtains the feature amount by dividing the binary image into n regions and calculating the image area of the object included in each region. You can

【0014】[0014]

【実施例】以下、図に示す実施例に基づいて本発明を詳
述する。なお、これによって本発明は限定されるもので
はない。また、本発明は、例えば無機粉体の微粒子の形
状抽出処理に好適であり、各構成要素は本発明の形状抽
出処理を達成する以外に、画像処理を利用した物体の検
査・計測・認識などの形状抽出装置に適用することがで
きる。
The present invention will be described in detail below based on the embodiments shown in the drawings. The present invention is not limited to this. Further, the present invention is suitable for, for example, shape extraction processing of fine particles of inorganic powder, and each constituent element achieves the shape extraction processing of the present invention, as well as inspection / measurement / recognition of objects using image processing. It can be applied to the shape extracting device.

【0015】図2は本発明の形状抽出システムの一実施
例を示すブロック図である。同図において、1はCCD
カメラ(電荷結合装置を用いたカメラ)であり、試料を
画像として捉える撮像装置である。2は光学顕微鏡であ
り、試料の像を拡大する。3は試料であり、例えば、無
機粉体(硫酸バリウム)が用いられる。4はオートステ
ージであり、試料3を乗せたステージ(載物台)を指定
された撮像位置まで移動する装置である。5は画像処理
装置であり、撮像装置により入力した画像に対し強調、
鮮鋭化、平滑化、ノイズ除去、差分オペレーションなど
により画像処理を行い処理画像を得る画像前処理機能5
Aと(例えば、文献:昭和晃堂(1987.6),“画
像処理ハンドブック”,p263−286参照)、入力
画像又は処理画像の2値化を行う2値化処理機能5Bが
あり、5A、5Bの順に処理を行う。
FIG. 2 is a block diagram showing an embodiment of the shape extraction system of the present invention. In the figure, 1 is a CCD
A camera (camera using a charge-coupled device), which is an imaging device that captures a sample as an image. 2 is an optical microscope, which magnifies the image of the sample. Reference numeral 3 is a sample, for example, inorganic powder (barium sulfate) is used. Reference numeral 4 denotes an auto stage, which is an apparatus that moves a stage (a mounting table) on which the sample 3 is placed to a designated imaging position. Reference numeral 5 denotes an image processing device, which emphasizes an image input by the image pickup device,
Image preprocessing function 5 that obtains a processed image by performing image processing such as sharpening, smoothing, noise removal, and difference operation.
A (see, for example, Reference: Showa Kyoudou (1987.6), “Image Processing Handbook”, p263-286), and a binarization processing function 5B for binarizing an input image or a processed image, 5A, Processing is performed in the order of 5B.

【0016】6はモニターTVであり、CCDカメラ1
で撮像した入力画像又は、画像処理装置5で処理を行っ
た処理画像の表示を行う表示装置である。7はオートフ
ォーカス制御装置であり、光学顕微鏡2の焦点を自動的
に試料3に合わせる制御装置である。8はパーソナルコ
ンピュータであり、画像処理装置5により得られた2値
画像から特徴量を求める特徴量演算処理機能8Aと、ニ
ューラルネットワークを用いて特徴量から抽出画像を求
める画像抽出処理機能8Bと、大きさ・形状を求める形
状演算処理機能8Cとを行うことが可能なコンピュータ
システムを備えている。9はディスプレイであり、パー
ソナルコンピュータでの計測結果を表示する表示装置で
ある。10はオートステージ制御装置であり、オートス
テージの移動量を制御する制御装置である。
Reference numeral 6 denotes a monitor TV, which is a CCD camera 1
It is a display device for displaying the input image imaged in (1) or the processed image processed by the image processing device 5. An autofocus control device 7 is a control device for automatically focusing the optical microscope 2 on the sample 3. Reference numeral 8 denotes a personal computer, which has a feature amount calculation processing function 8A for obtaining a feature amount from a binary image obtained by the image processing device 5, an image extraction processing function 8B for obtaining an extracted image from the feature amount using a neural network, A computer system capable of performing the shape calculation processing function 8C for obtaining the size and shape is provided. Reference numeral 9 denotes a display, which is a display device for displaying the measurement result of the personal computer. Reference numeral 10 denotes an auto stage control device, which is a control device for controlling the movement amount of the auto stage.

【0017】図3は本発明の形状抽出システムの画像処
理手順を示す説明図である。同図は、無機粉体(硫酸バ
リウム)の微粒子を光学顕微鏡2で撮像した不鮮明な画
像から、物体の鮮明な2値画像を抽出する処理手順を示
すものである。その処理手順を図2に示すブロック図と
図4から図8の説明図を用いて説明する。図3−1は形
状抽出する試料3の入力画像であり、オートステージ制
御装置10で設定された移動量に基づいて、オートステ
ージ4が形状抽出する試料3を乗せたステージを撮像す
る位置まで移動し、オートフォーカス制御装置7で光学
顕微鏡2の焦点が自動的に試料3に合わされ、CCDカ
メラ1が光学顕微鏡2による試料3の拡大像を撮像した
画像である。その入力画像はモニターTV6に表示され
る。
FIG. 3 is an explanatory view showing the image processing procedure of the shape extraction system of the present invention. This figure shows a processing procedure for extracting a clear binary image of an object from a blurred image obtained by capturing fine particles of inorganic powder (barium sulfate) with the optical microscope 2. The processing procedure will be described with reference to the block diagram shown in FIG. 2 and the explanatory diagrams of FIGS. 4 to 8. FIG. 3A is an input image of the sample 3 whose shape is to be extracted. Based on the movement amount set by the auto stage control device 10, the auto stage 4 moves to a position where the stage on which the sample 3 whose shape is to be extracted is mounted is imaged. Then, the focus of the optical microscope 2 is automatically focused on the sample 3 by the autofocus control device 7, and the CCD camera 1 captures an enlarged image of the sample 3 by the optical microscope 2. The input image is displayed on the monitor TV 6.

【0018】ここで、画像処理装置5は、CCDカメラ
1で撮像された入力画像、図3−1に対し、画像前処理
機能5Aにより強調、鮮鋭化、平滑化、雑音除去、差分
オペレータなどを行い、少なくとも一つの処理画像を得
る。図3−2は差分オペレータ処理画像であり、図3−
1に差分オペレータの一つであるキルシュ(“画像処理
ハンドブック”,p281のKirsch参照)を行って得ら
れる処理画像である。次に、画像処理装置5は、その2
値化処理機能5Bにより図3−2に示すような差分オペ
レータ処理画像と入力画像のうちの複数の画像から複数
の2値画像を得る。例えば、図3−3は画像処理装置5
の2値化処理機能5Bにより得られた2枚の2値画像で
あり、図3ー3aは図3−2の2値画像を示し、図3−
3bは図3−1の2値画像を示している。また、モニタ
ーTV6の表示画面には、画像処理装置5による処理画
像が表示される。
Here, the image processing device 5 applies enhancement, sharpening, smoothing, noise removal, difference operator, etc. to the input image picked up by the CCD camera 1, FIG. 3-1, by the image preprocessing function 5A. And obtain at least one processed image. FIG. 3-2 is a difference operator processing image, and FIG.
1 is a processed image obtained by performing Kirsch (see "Kirsch" in "Image Processing Handbook", p281) which is one of the difference operators. Next, the image processing device 5
The binarization processing function 5B obtains a plurality of binary images from a plurality of images of the difference operator processed image and the input image as shown in FIG. 3-2. For example, FIG.
3A is a binary image obtained by the binarization processing function 5B of FIG. 3A, and FIG. 3A shows the binary image of FIG.
3b shows the binary image of FIG. Further, the processed image by the image processing device 5 is displayed on the display screen of the monitor TV 6.

【0019】次に、パーソナルコンピュータ8が、画像
処理装置5により得られた複数の2値画像から特徴量を
求める特徴量演算処理機能8Aについて説明する。図4
は2値画像の領域分割とその領域の特徴量を示す説明図
である。図4において、図4−1a、図4−1bは、図
3−3a、図3−3bに示す2枚の2値画像をそれぞれ
拡大したものである。図4−1a、図4−1bに示すよ
うに領域の数を合計でn個に分割する。それらの領域を
順にA1、A2、……、Ai、……、Aj、……、An
とする。これらの領域は、画像を構成する最小単位であ
る画素の集合からなり、その画素は、物体の存在する場
合は白で、存在しない場合は黒で表される。
Next, a description will be given of the feature amount calculation processing function 8A in which the personal computer 8 obtains a feature amount from a plurality of binary images obtained by the image processing device 5. Figure 4
FIG. 4 is an explanatory diagram showing area division of a binary image and a feature amount of the area. In FIG. 4, FIGS. 4-1a and 4-1b are enlarged views of the two binary images shown in FIGS. 3-3a and 3-3b, respectively. As shown in FIGS. 4-1a and 4-1b, the number of regions is divided into n in total. A1, A2, ..., Ai, ..., Aj ,.
And Each of these areas is composed of a set of pixels, which is the smallest unit that constitutes an image, and the pixels are represented by white when an object exists and black when it does not exist.

【0020】次に、ある領域Ai内の物体の存在する画
素の数、つまり白い画素の数をその領域の特徴量とし、
S(Ai)で表す。このようにして、それぞれの領域毎
に合計n個の特徴量、S(A1)、S(A2)、……、
S(Ai)、……、S(Aj)、……、S(An)が求
まる。例えば、図4−2は領域Aiの拡大図である。同
図の領域Aiは16(4×4)個の画素からなり、この
領域の特徴量S(Ai)は7を示す。また、ここでは、
複数の画像の領域を均等に分割しているが、任意の大き
さ・形で分割しても構わない。また、図3−4a、図3
−4bは、図4−1a、図4−1bと同様に、図3−3
a、図3−3bに示す2枚の2値画像を領域分割してそ
の領域の特徴量を求める段階の図である。
Next, the number of pixels in which an object exists in a certain area Ai, that is, the number of white pixels is set as a feature amount of that area,
It is represented by S (Ai). In this way, a total of n feature quantities, S (A1), S (A2), ...
S (Ai), ..., S (Aj), ..., S (An) are obtained. For example, FIG. 4-2 is an enlarged view of the area Ai. The area Ai in the figure is composed of 16 (4 × 4) pixels, and the characteristic amount S (Ai) of this area indicates 7. Also here
Although the areas of a plurality of images are equally divided, they may be divided into arbitrary sizes and shapes. 3-4a and FIG.
-4b is similar to FIG. 4A and FIG.
FIG. 3A is a diagram of a stage in which two binary images shown in FIG.

【0021】図5は階層型ニューラルネットワークを示
す説明図である。また、図3−5は図5と同様に階層型
ニューラルネットワークを示す。また、図6はニューラ
ルネットワークの各層を構成するニューロンを示す説明
図であり、図7はニューラルネットワークの出力を決定
するシグモイド関数を示す説明図である。ここで、この
階層型ニューラルネットワークについて、図5から図7
を用いて説明する。図5に示すように、階層型ニューラ
ルネットワークは、入力層、中間層(1つまたは2
つ)、出力層からなる3又は4層の構成になっており、
入力層から出力層に向って1方向にのみ結合しているも
のである。
FIG. 5 is an explanatory diagram showing a hierarchical neural network. Further, FIG. 3-5 shows a hierarchical neural network as in FIG. Further, FIG. 6 is an explanatory diagram showing the neurons constituting each layer of the neural network, and FIG. 7 is an explanatory diagram showing the sigmoid function that determines the output of the neural network. Here, regarding this hierarchical neural network, FIGS.
Will be explained. As shown in FIG. 5, the hierarchical neural network includes an input layer, an intermediate layer (one or two layers).
3), it is composed of 3 or 4 layers consisting of output layers,
It is coupled only in one direction from the input layer to the output layer.

【0022】各層は、図6で示されるニューロンと呼ば
れる素子で構成されている。このニューロンは、図中の
式で示されるように各入力Xjとそれに対応する荷重W
ijとの積和を応答関数f2により変換し、出力Yiを
得るものである。この応答関数f2は図7で示されるシ
グモイド関数と呼ばれる非線形関数とする。また荷重W
ijは、バックプロパゲーション法(誤差逆伝搬法)と
呼ばれる学習方法により決定したものを用いる(文献:
海文堂、(1990.12)、“ニューロコンピューテ
ィングの基礎理論”、p48−50参照)。
Each layer is composed of elements called neurons shown in FIG. This neuron has each input Xj and the corresponding weight W as shown by the equation in the figure.
The sum of products with ij is converted by the response function f2 to obtain the output Yi. This response function f2 is a non-linear function called a sigmoid function shown in FIG. Also the load W
As ij, a value determined by a learning method called a back propagation method (error back propagation method) is used (reference:
Kaibundou, (1990.12), "Basic Theory of Neurocomputing", p. 48-50).

【0023】図8は抽出画像の一例を示す説明図であ
る。次に、パーソナルコンピュータ8が、上記のニュー
ラルネットワークを用いて、図8に示すような鮮明な抽
出画像を得る画像抽出処理機能8Bについて説明する。
具体的には、特徴量の数と同じn個のニューロンからな
る入力層、特に数が規定されていないが入力層のニュー
ロンの数の半分程度が経験的にいいとされている中間
層、抽出画像の画素数と同じm個のニューロンからなる
出力層、の3層からなるニューラルネットワークを用い
る。
FIG. 8 is an explanatory diagram showing an example of the extracted image. Next, the image extraction processing function 8B for the personal computer 8 to obtain a sharp extracted image as shown in FIG. 8 by using the neural network will be described.
Specifically, an input layer consisting of n neurons equal in number to the feature quantity, an intermediate layer whose number is not specified, but half of the number of neurons in the input layer is empirically considered to be good, extraction A neural network composed of three layers, that is, an output layer composed of m neurons having the same number of pixels as the image, is used.

【0024】特徴量S(A1)、S(A2)、……、S
(Ai)、……、S(Aj)、……、S(An)をそれ
ぞれ入力値IN1、IN2、……、INi、……、IN
j、……、INnとし、処理を行ない、その出力値OU
T1、OUT2、……、OUTj、……、OUTmがそ
れぞれ0.9以上の時、その出力値に対応する画素を
“1”すなわち物体が存在するとし、0.9未満の時、
“0”すなわち物体が存在しないとし、図8に示すよう
な物体の鮮明な抽出画像を得る。また、図3−6は図8
と同様に抽出画像を示す。さらに、パーソナルコンピュ
ータ8の形状演算処理機能8Cにより、この抽出画像よ
り大きさ・形状を求めることができる。ディスプレイ9
は、パーソナルコンピュータ8で求めた抽出画像の大き
さ・形状を表示する。
Characteristic quantities S (A1), S (A2), ..., S
(Ai), ..., S (Aj), ..., S (An) are input values IN1, IN2, ..., INi, ..., IN, respectively.
j, ..., INn, process, output value OU
When each of T1, OUT2, ..., OUTj, ..., OUTm is 0.9 or more, it is assumed that the pixel corresponding to the output value is “1”, that is, an object exists.
If "0", that is, no object exists, a clear extracted image of the object as shown in FIG. 8 is obtained. Also, FIGS.
An extracted image is shown similarly to. Further, the size / shape can be obtained from the extracted image by the shape calculation processing function 8C of the personal computer 8. Display 9
Displays the size / shape of the extracted image obtained by the personal computer 8.

【0025】図9は本発明の形状抽出システムの処理内
容を示すフローチャートである。同図において、 ステップS1:継続して形状抽出するか終了するか判断
し、終了しない場合は次のステップS2に進む。 ステップS2:ステージ4上の試料を次の計測位置に移
動する。 ステップS3:光学顕微鏡2の焦点を試料に合わせる。 ステップS4:画像をCCDカメラ1により撮像する。 ステップS5:ステップS4で取り込んだ入力画像に対
し計測処理を行う。
FIG. 9 is a flow chart showing the processing contents of the shape extraction system of the present invention. In the figure, step S1: it is judged whether shape extraction is to be continued or to end. If not, the process proceeds to the next step S2. Step S2: The sample on the stage 4 is moved to the next measurement position. Step S3: Focus the optical microscope 2 on the sample. Step S4: An image is taken by the CCD camera 1. Step S5: A measurement process is performed on the input image captured in step S4.

【0026】ステップS5−1:ステップS4で取り込
んだ画像に対し差分オペレータ(キルッシュ)を行う。 ステップS5−2:ステップS5−1で処理した画像を
2値化する。 ステップS5−3:ステップS4で取り込んだ画像を2
値化する。 ステップS5−4:ステップS5−2及びS5−3で処
理した2値画像から特徴量を算出する。 ステップS5−5:ステップS5−4で算出した特徴量
によりニューラルネットで処理する。
Step S5-1: A difference operator (Kilsch) is performed on the image captured in Step S4. Step S5-2: The image processed in step S5-1 is binarized. Step S5-3: The image captured in step S4 is set to 2
Quantify. Step S5-4: A feature amount is calculated from the binary image processed in steps S5-2 and S5-3. Step S5-5: The neural network is processed according to the feature amount calculated in step S5-4.

【0027】ステップS5−6:ステップS5−5で処
理された画像で図形ごとに番号をつける。 ステップS5−7:ステップS5−6で番号付けされた
図形ごとに大きさ・形状を求める。 ステップS6:計測結果をモニターTV6に表示する。 このように、ニューラルネットワークを用いて、画像処
理することにより、不鮮明な画像から物体を自動的に高
精度で抽出することができる。
Step S5-6: The figures processed in step S5-5 are numbered for each figure. Step S5-7: The size / shape is obtained for each figure numbered in Step S5-6. Step S6: The measurement result is displayed on the monitor TV6. Thus, by performing image processing using the neural network, it is possible to automatically and highly accurately extract an object from an unclear image.

【0028】[0028]

【発明の効果】本発明によれば、ニューラルネットワー
クを用いて、複数の画像情報を画像処理することによ
り、不鮮明な画像から物体を自動的に高精度で抽出する
ことが可能であり、検査・計測・認識を高精度に行う装
置に利用できる。
According to the present invention, it is possible to automatically and highly accurately extract an object from an unclear image by processing a plurality of image information using a neural network. It can be used for devices that perform measurement and recognition with high accuracy.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の基本構成を示すブロック図である。FIG. 1 is a block diagram showing a basic configuration of the present invention.

【図2】本発明の形状抽出システムの一実施例を示すブ
ロック図である。
FIG. 2 is a block diagram showing an embodiment of a shape extraction system of the present invention.

【図3】本発明の形状抽出システムの画像処理手順を示
す説明図である。
FIG. 3 is an explanatory diagram showing an image processing procedure of the shape extraction system of the present invention.

【図4】2値画像の領域分割とその領域の特徴量を示す
説明図である。
FIG. 4 is an explanatory diagram showing area division of a binary image and feature amounts of the area.

【図5】階層型ニューラルネットワークを示す説明図で
ある。
FIG. 5 is an explanatory diagram showing a hierarchical neural network.

【図6】ニューラルネットワークの各層を構成するニュ
ーロンを示す説明図である。
FIG. 6 is an explanatory diagram showing neurons forming each layer of a neural network.

【図7】ニューラルネットワークの出力を決定するシグ
モイド関数を示す説明図である。
FIG. 7 is an explanatory diagram showing a sigmoid function that determines the output of a neural network.

【図8】抽出画像の一例を示す説明図である。FIG. 8 is an explanatory diagram showing an example of an extracted image.

【図9】本発明の形状抽出システムの処理内容を示すフ
ローチャートである。
FIG. 9 is a flowchart showing the processing contents of the shape extraction system of the present invention.

【符号の説明】[Explanation of symbols]

1 CCDカメラ 2 光学顕微鏡 3 試料 4 オートステージ 5 画像処理装置 6 モニターTV 7 オートフォーカス制御装置 8 パーソナルコンピュータ 9 ディスプレイ 10 オートステージ制御装置 1 CCD Camera 2 Optical Microscope 3 Sample 4 Auto Stage 5 Image Processing Device 6 Monitor TV 7 Auto Focus Control Device 8 Personal Computer 9 Display 10 Auto Stage Control Device

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06T 7/60 8837−5L G06F 15/70 355 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G06T 7/60 8837-5L G06F 15/70 355

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 入力画像及びその処理画像から2値化し
て求めた特徴量を入力としその特徴量を学習して形状の
抽出画像データを求めるニューラルネットワークと、各
種の画像を出力する出力手段を備えた形状抽出システム
であって、物体の形状を入力画像として撮像する撮像手
段と、 撮像された入力画像を画像処理することにより少なくと
も一つ以上の処理画像を作成するための各種画像処理機
能を有する前処理手段と撮像手段で得られた入力画像と
前処理手段で得られた複数の処理画像とのうち複数の画
像を2値化して複数枚の2値画像に変換する2値化処理
手段と、 2値化処理手段で得られた複数枚の2値画像をさらにそ
れぞれ複数の領域に分割しその領域の特徴量を算出する
特徴量算出手段と、 特徴量算出手段により算出された特徴量を予め学習した
ニューラルネットワークに入力することにより得られる
複数の抽出画像データから1枚の抽出画像を作成する形
状抽出手段とを備えてなることを特徴とする形状抽出シ
ステム。
1. A neural network for inputting a feature amount obtained by binarizing an input image and its processed image and learning the feature amount to obtain extracted image data of a shape, and an output means for outputting various images. A shape extraction system comprising: an image pickup means for picking up the shape of an object as an input image; and various image processing functions for creating at least one or more processed images by processing the picked-up input image. Binary processing means for binarizing a plurality of images among the input image obtained by the preprocessing means and the image pickup means and the plurality of processed images obtained by the preprocessing means, and converting the plurality of images into a plurality of binary images. A plurality of binary images obtained by the binarization processing unit, each of which is further divided into a plurality of regions, and a feature amount calculation unit that calculates a feature amount of the region; and a feature amount calculated by the feature amount calculation unit A shape extraction system comprising: a shape extraction unit that creates one extracted image from a plurality of extracted image data obtained by inputting the amount into a neural network that has been learned in advance.
【請求項2】 前記前処理手段は、濃度変換、強調、鮮
鋭化、雑音除去、差分オペレータなどの各種画像処理機
能から少なくとも1種以上の画像処理方法で前処理を行
うことを特徴とする請求項1記載の形状抽出システム。
2. The preprocessing means performs preprocessing by at least one image processing method from various image processing functions such as density conversion, enhancement, sharpening, noise removal, and difference operator. The shape extraction system according to Item 1.
【請求項3】 前記特徴量算出手段は、2値画像をn個
の領域に分割しそれぞれの領域に含まれる物体の画像面
積を算出することにより特徴量を求めることを特徴とす
る請求項1記載の形状抽出システム。
3. The feature amount calculating means divides the binary image into n regions and calculates the image area of an object included in each region to obtain the feature amount. The described shape extraction system.
JP18818993A 1993-07-29 1993-07-29 Shape extraction system Expired - Lifetime JP3239196B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18818993A JP3239196B2 (en) 1993-07-29 1993-07-29 Shape extraction system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18818993A JP3239196B2 (en) 1993-07-29 1993-07-29 Shape extraction system

Publications (2)

Publication Number Publication Date
JPH0744708A true JPH0744708A (en) 1995-02-14
JP3239196B2 JP3239196B2 (en) 2001-12-17

Family

ID=16219330

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18818993A Expired - Lifetime JP3239196B2 (en) 1993-07-29 1993-07-29 Shape extraction system

Country Status (1)

Country Link
JP (1) JP3239196B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019092836A1 (en) * 2017-11-09 2019-05-16 富士通株式会社 Waveform analysis device
US11189015B2 (en) 2018-05-30 2021-11-30 Samsung Electronics Co., Ltd. Method and apparatus for acquiring feature data from low-bit image

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019092836A1 (en) * 2017-11-09 2019-05-16 富士通株式会社 Waveform analysis device
JPWO2019092836A1 (en) * 2017-11-09 2020-12-03 株式会社島津製作所 Waveform analyzer
US11189015B2 (en) 2018-05-30 2021-11-30 Samsung Electronics Co., Ltd. Method and apparatus for acquiring feature data from low-bit image
US11636575B2 (en) 2018-05-30 2023-04-25 Samsung Electronics Co., Ltd. Method and apparatus for acquiring feature data from low-bit image
US11893497B2 (en) 2018-05-30 2024-02-06 Samsung Electronics Co., Ltd. Method and apparatus for acquiring feature data from low-bit image

Also Published As

Publication number Publication date
JP3239196B2 (en) 2001-12-17

Similar Documents

Publication Publication Date Title
EP1664749B1 (en) Apparatus and method for automated web inspection
CN112862702B (en) Image enhancement method, device, equipment and storage medium
JPH0689344A (en) Pattern recognizing device
Várkonyi-Kóczy et al. Gradient-based synthesized multiple exposure time color HDR image
CN113449606B (en) Target object identification method and device, computer equipment and storage medium
JPH04346187A (en) Quality decision method for subject to be detected
CN111080683B (en) Image processing method, device, storage medium and electronic equipment
JP3239196B2 (en) Shape extraction system
Wannachai et al. Real-Time Seven Segment Display Detection and Recognition Online System Using CNN
CN109073503B (en) Unevenness evaluation method and unevenness evaluation device
WO2022044673A1 (en) Image processing device, inspection system, and inspection method
Karali et al. Multiscale contrast direction adaptive image fusion technique for MWIR-LWIR image pairs and LWIR multifocus infrared images
CN111354048A (en) Quality evaluation method and device for camera-oriented acquired pictures
Wigan Image-processing techniques applied to road problems
CN112348823A (en) Object-oriented high-resolution remote sensing image segmentation algorithm
JP5446641B2 (en) Image processing apparatus, image processing method, and image processing program
JPH0735699A (en) Method and apparatus for detecting surface defect
Okarma et al. A Hybrid Method for Objective Quality Assessment of Binary Images
CN113870255B (en) Mini LED product defect detection method and related equipment
JP3941403B2 (en) Image density unevenness detection method and inspection apparatus
CN113382134B (en) Focusing debugging method of linear array industrial camera
Çelik et al. LCD Pixel Defect Detection using Shallow CNN Based Approach
Arslan Yousaf et al. RECORDED AWARENESS ABOUT VEHICLE PLATE THROUGH MATLAB
Sierra et al. Robust detection and removal of dust artifacts in retinal images via dictionary learning and sparse-based inpainting
Noskov et al. Comparison of image focus assessment methods for multi-focused image construction

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071012

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081012

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091012

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101012

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111012

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121012

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131012

Year of fee payment: 12

EXPY Cancellation because of completion of term