JPH0744708A - Shape extraction system - Google Patents
Shape extraction systemInfo
- Publication number
- JPH0744708A JPH0744708A JP5188189A JP18818993A JPH0744708A JP H0744708 A JPH0744708 A JP H0744708A JP 5188189 A JP5188189 A JP 5188189A JP 18818993 A JP18818993 A JP 18818993A JP H0744708 A JPH0744708 A JP H0744708A
- Authority
- JP
- Japan
- Prior art keywords
- image
- processing
- feature amount
- picture
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 27
- 238000013528 artificial neural network Methods 0.000 claims abstract description 30
- 238000007781 pre-processing Methods 0.000 claims abstract description 15
- 238000004364 calculation method Methods 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 21
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000003672 processing method Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 18
- 238000000034 method Methods 0.000 description 13
- 210000002569 neuron Anatomy 0.000 description 10
- 238000005259 measurement Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 238000007689 inspection Methods 0.000 description 6
- TZCXTZWJZNENPQ-UHFFFAOYSA-L barium sulfate Chemical compound [Ba+2].[O-]S([O-])(=O)=O TZCXTZWJZNENPQ-UHFFFAOYSA-L 0.000 description 4
- 238000009499 grossing Methods 0.000 description 3
- 239000000843 powder Substances 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 239000010419 fine particle Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 235000020061 kirsch Nutrition 0.000 description 2
- 238000005316 response function Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、画像処理を利用した物
体の検査・計測・認識などの装置に用いられる形状抽出
システムに関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a shape extraction system used in an apparatus for inspecting, measuring, recognizing an object using image processing.
【0002】[0002]
【従来の技術】従来、画像処理を利用して物体の検査・
計測・認識などを実施する際に、不鮮明な画像から鮮明
な物体の形状抽出するための方法が種々提案されてい
る。例えば、画像処理ハンドブック、株式会社 昭晃
堂、昭和62年6月8日発行、263p〜286pに種
々の画像解析の手法が記載されているように、濃度変換
(p263)、強調(p263)、鮮鋭化(p26
6)、平滑化(p269)、雑音除去(p269)、差
分型オペレータ(p280)などや2値化(p277)
等の画像解析により物体の形状を抽出していた。2. Description of the Related Art Conventionally, inspection of an object using image processing
Various methods have been proposed for extracting the shape of a clear object from an unclear image when performing measurement and recognition. For example, as described in various image analysis methods in Image Processing Handbook, Shokoido Co., Ltd., issued June 8, 1987, 263p to 286p, density conversion (p263), emphasis (p263), Sharpening (p26
6), smoothing (p269), noise removal (p269), difference type operator (p280), and binarization (p277)
The shape of the object was extracted by image analysis such as.
【0003】また、検査対象が異なっても共通に同一の
手法で検査の実行を可能とするニューラルネットワーク
を応用した製品等の外観の良否を判定する画像検査装置
が提案されている(特開平3−242773号公報参
照)。Further, an image inspection apparatus has been proposed which determines the quality of the appearance of a product or the like to which a neural network is applied, which enables the inspection to be executed by the same method even if the inspection objects are different (Japanese Patent Laid-Open No. 3-2980). -242773 gazette).
【0004】[0004]
【発明が解決しようとする課題】しかしながら、上記の
画像処理ハンドブックに記載されている画像処理手法を
用いた従来の形状抽出手法では、濃度変換、強調、鮮鋭
化、雑音除去、差分オペレータ等の画像処理で2値画像
に変換していたので、照明むらを含んだ画像やコントラ
ストの悪い画像では、ノイズや欠落が発生し、鮮明にか
つ高精度に物体形状を抽出することができなかった。ま
た、特開平3−242773号公報に記載の画像検査装
置においては、ニューラルネットワークへの入力値が1
枚の画像情報であり、この画像情報から外観を判定する
ため、不鮮明な画像では、鮮明にかつ高精度に処理を行
うことができない。However, in the conventional shape extraction method using the image processing method described in the above-mentioned image processing handbook, the image of density conversion, enhancement, sharpening, noise removal, difference operator, etc. Since the image was converted into a binary image by the processing, noise and omission occurred in an image including uneven illumination or an image with poor contrast, and it was not possible to extract the object shape clearly and with high accuracy. Further, in the image inspection apparatus described in JP-A-3-242777, the input value to the neural network is 1
Since it is the image information of one sheet, and the appearance is determined from this image information, it is impossible to perform clear and highly accurate processing on an unclear image.
【0005】本発明は以上の事情を考慮してなされたも
ので、例えば、複数の画像情報をニューラルネットワー
クへの入力値とすることにより不鮮明な画像から対象物
を鮮明にかつ高精度に抽出する形状抽出処理システムを
提供するものである。The present invention has been made in consideration of the above circumstances. For example, by using a plurality of image information as input values to a neural network, an object can be sharply and accurately extracted from an unclear image. A shape extraction processing system is provided.
【0006】[0006]
【課題を解決するための手段】上記の目的を達成するた
めに、本発明が講じた技術的手段は、次の通りである。
図1は本発明の基本構成を示すブロック図である。図1
において、本発明は、入力画像及びその処理画像から2
値化して求めた特徴量を入力としその特徴量を学習して
形状の抽出画像データを求めるニューラルネットワーク
101と、各種の画像を出力する出力手段102を備え
た形状抽出システムであって、物体の形状を入力画像と
して撮像する撮像手段103と、撮像された入力画像を
画像処理することにより少なくとも一つ以上の処理画像
を作成するための各種画像処理機能を有する前処理手段
104と、撮像手段103で得られた入力画像と前処理
手段104で得られた複数の処理画像とのうち複数の画
像を2値化して複数枚の2値画像に変換する2値化処理
手段105と、2値化処理手段105で得られた複数枚
の2値画像をさらにそれぞれ複数の領域に分割しその領
域の特徴量を算出する特徴量算出手段106と、特徴量
算出手段106により算出された特徴量を予め学習した
ニューラルネットワークに入力することにより得られる
複数の抽出画像データから1枚の抽出画像を作成する形
状抽出手段107とを備えてなることを特徴とする形状
抽出処理システムである。The technical means taken by the present invention to achieve the above object are as follows.
FIG. 1 is a block diagram showing the basic configuration of the present invention. Figure 1
In the present invention, the present invention uses the input image and its processed image to
A shape extraction system comprising a neural network 101 for inputting a characteristic amount obtained by binarization and learning the characteristic amount to obtain extracted image data of a shape, and an output means 102 for outputting various images. An image capturing unit 103 that captures a shape as an input image, a pre-processing unit 104 having various image processing functions for creating at least one processed image by performing image processing on the captured input image, and an image capturing unit 103. A binarization processing unit 105 that binarizes a plurality of images out of the input image obtained in step S1 and the plurality of processed images obtained by the preprocessing unit 104 and converts the images into a plurality of binary images; A plurality of binary images obtained by the processing unit 105 are further divided into a plurality of regions, respectively, and a feature amount calculation unit 106 for calculating a feature amount of the regions and a feature amount calculation unit 106 are provided. Shape extraction processing comprising: a shape extraction unit 107 that creates one extracted image from a plurality of extracted image data obtained by inputting the calculated feature amount into a neural network that has been learned in advance. System.
【0007】前記前処理手段104は、濃度変換、強
調、鮮鋭化、雑音除去、差分オペレータなどの各種画像
処理機能から少なくとも1種以上の画像処理方法で前処
理を行うように構成することが好ましい。The preprocessing means 104 is preferably configured to perform preprocessing by at least one image processing method from various image processing functions such as density conversion, enhancement, sharpening, noise removal, and difference operator. .
【0008】前記特徴量算出手段106は、2値画像を
n個の領域に分割しそれぞれの領域に含まれる物体の画
像面積を算出することにより特徴量を求めるように構成
することが好ましい。It is preferable that the characteristic amount calculating means 106 is configured to obtain the characteristic amount by dividing the binary image into n areas and calculating the image area of the object contained in each area.
【0009】なお、本発明において、ニューラルネット
ワーク101は、脳の基本構成要素であるニューロン
(脳を構成する神経細胞)の結合により形成されたネッ
トワークであり、ニューロンをニューラルネットワーク
状に接続し、相互に信号をやりとりさせながら、処理ユ
ニットを並列的に動かして全体の情報処理を行うニュー
ロコンピュータ、及びこれらの機能を実施可能なプログ
ラムを記憶させたパーソナルコンピュータ等で構成され
ている。出力手段102としては、CRTディスプレイ
装置、LCD(液晶ディスプレイ)装置、ELディスプ
レイ装置等の表示装置、または、熱転写プリンタ、イン
クジェットプリンタ、レーザプリンタ等の印刷装置が用
いられる。In the present invention, the neural network 101 is a network formed by connecting neurons (nerve cells forming the brain) which are the basic constituent elements of the brain, and the neurons are connected in a neural network form and are connected to each other. It is composed of a neuro computer which performs parallel information processing by moving processing units in parallel while exchanging signals with each other, a personal computer which stores a program capable of executing these functions, and the like. As the output unit 102, a display device such as a CRT display device, an LCD (liquid crystal display) device, an EL display device, or a printing device such as a thermal transfer printer, an inkjet printer, a laser printer, or the like is used.
【0010】撮像手段103としては、CCD(電荷結
合装置)カメラ、ITVカメラが画像入力装置として用
いられる。前処理手段104、2値化処理手段105と
しては、濃度変換、強調、鮮鋭化、雑音除去、差分オペ
レータ、2値化処理などの画像処理機能を有する画像処
理装置が用いられる。また、画像処理装置はCPU、R
OM、RAM、I/Oポート、外部記憶装置からなるマ
イクロコンピュータで構成されている。また、特徴量算
出手段106、形状抽出手段107としては、パーソナ
ルコンピュータが用いられ、ニューラルネットワーク1
01と接続される。As the image pickup means 103, a CCD (charge coupled device) camera or an ITV camera is used as an image input device. As the preprocessing unit 104 and the binarization processing unit 105, an image processing device having an image processing function such as density conversion, enhancement, sharpening, noise removal, difference operator, and binarization process is used. Further, the image processing device is a CPU, R
It is composed of a microcomputer including an OM, a RAM, an I / O port, and an external storage device. A personal computer is used as the feature amount calculating means 106 and the shape extracting means 107, and the neural network 1
01 is connected.
【0011】[0011]
【作用】本発明によれば、図1において、撮像手段10
3より入力された画像から画像処理を前処理手段104
で画像処理をすることにより少なくとも一つの処理画像
を得、入力画像と処理画像とのうち複数の画像を2値化
処理手段105で2値化し、得られた複数枚の2値画像
を特徴量算出手段106でさらに複数の領域に分割して
その領域の特徴量を算出し、予め学習したニューラルネ
ットワーク101に算出した特徴量を入力して、複数の
抽出画像データを得て、得られた複数の抽出画像データ
を形状抽出手段107に入力し、1枚の抽出画像を得
る。すなわち、複数の2値画像の中から正しいところを
選択的に取りだし鮮明にかつ高精度に物体形状を抽出す
ることができる。According to the present invention, the image pickup means 10 shown in FIG.
The image processing from the image input from 3 is performed by the preprocessing unit 104.
Image processing is performed to obtain at least one processed image, a plurality of images of the input image and the processed image are binarized by the binarization processing unit 105, and the obtained plurality of binary images are feature amounts. The calculating unit 106 further divides the region into a plurality of regions to calculate the feature amount of the region, inputs the calculated feature amount to the neural network 101 learned in advance, obtains a plurality of extracted image data, and obtains the plurality of obtained image data. The extracted image data of is input to the shape extraction means 107 to obtain one extracted image. That is, it is possible to selectively take out the correct portion from a plurality of binary images and extract the object shape clearly and with high accuracy.
【0012】上記構成によれば、前記前処理手段104
は、濃度変換、強調、鮮鋭化、雑音除去、差分オペレー
タなどの各種画像処理機能を有するので、少なくとも1
種以上の画像処理方法で前処理を行うことができる。According to the above arrangement, the preprocessing means 104
Has various image processing functions such as density conversion, enhancement, sharpening, noise removal, and difference operator.
The pre-processing can be performed by more than one image processing method.
【0013】また、上記構成によれば、前記特徴量算出
手段106は、2値画像をn個の領域に分割しそれぞれ
の領域に含まれる物体の画像面積を算出することにより
特徴量を求めることができる。Further, according to the above configuration, the feature amount calculating means 106 obtains the feature amount by dividing the binary image into n regions and calculating the image area of the object included in each region. You can
【0014】[0014]
【実施例】以下、図に示す実施例に基づいて本発明を詳
述する。なお、これによって本発明は限定されるもので
はない。また、本発明は、例えば無機粉体の微粒子の形
状抽出処理に好適であり、各構成要素は本発明の形状抽
出処理を達成する以外に、画像処理を利用した物体の検
査・計測・認識などの形状抽出装置に適用することがで
きる。The present invention will be described in detail below based on the embodiments shown in the drawings. The present invention is not limited to this. Further, the present invention is suitable for, for example, shape extraction processing of fine particles of inorganic powder, and each constituent element achieves the shape extraction processing of the present invention, as well as inspection / measurement / recognition of objects using image processing. It can be applied to the shape extracting device.
【0015】図2は本発明の形状抽出システムの一実施
例を示すブロック図である。同図において、1はCCD
カメラ(電荷結合装置を用いたカメラ)であり、試料を
画像として捉える撮像装置である。2は光学顕微鏡であ
り、試料の像を拡大する。3は試料であり、例えば、無
機粉体(硫酸バリウム)が用いられる。4はオートステ
ージであり、試料3を乗せたステージ(載物台)を指定
された撮像位置まで移動する装置である。5は画像処理
装置であり、撮像装置により入力した画像に対し強調、
鮮鋭化、平滑化、ノイズ除去、差分オペレーションなど
により画像処理を行い処理画像を得る画像前処理機能5
Aと(例えば、文献:昭和晃堂(1987.6),“画
像処理ハンドブック”,p263−286参照)、入力
画像又は処理画像の2値化を行う2値化処理機能5Bが
あり、5A、5Bの順に処理を行う。FIG. 2 is a block diagram showing an embodiment of the shape extraction system of the present invention. In the figure, 1 is a CCD
A camera (camera using a charge-coupled device), which is an imaging device that captures a sample as an image. 2 is an optical microscope, which magnifies the image of the sample. Reference numeral 3 is a sample, for example, inorganic powder (barium sulfate) is used. Reference numeral 4 denotes an auto stage, which is an apparatus that moves a stage (a mounting table) on which the sample 3 is placed to a designated imaging position. Reference numeral 5 denotes an image processing device, which emphasizes an image input by the image pickup device,
Image preprocessing function 5 that obtains a processed image by performing image processing such as sharpening, smoothing, noise removal, and difference operation.
A (see, for example, Reference: Showa Kyoudou (1987.6), “Image Processing Handbook”, p263-286), and a binarization processing function 5B for binarizing an input image or a processed image, 5A, Processing is performed in the order of 5B.
【0016】6はモニターTVであり、CCDカメラ1
で撮像した入力画像又は、画像処理装置5で処理を行っ
た処理画像の表示を行う表示装置である。7はオートフ
ォーカス制御装置であり、光学顕微鏡2の焦点を自動的
に試料3に合わせる制御装置である。8はパーソナルコ
ンピュータであり、画像処理装置5により得られた2値
画像から特徴量を求める特徴量演算処理機能8Aと、ニ
ューラルネットワークを用いて特徴量から抽出画像を求
める画像抽出処理機能8Bと、大きさ・形状を求める形
状演算処理機能8Cとを行うことが可能なコンピュータ
システムを備えている。9はディスプレイであり、パー
ソナルコンピュータでの計測結果を表示する表示装置で
ある。10はオートステージ制御装置であり、オートス
テージの移動量を制御する制御装置である。Reference numeral 6 denotes a monitor TV, which is a CCD camera 1
It is a display device for displaying the input image imaged in (1) or the processed image processed by the image processing device 5. An autofocus control device 7 is a control device for automatically focusing the optical microscope 2 on the sample 3. Reference numeral 8 denotes a personal computer, which has a feature amount calculation processing function 8A for obtaining a feature amount from a binary image obtained by the image processing device 5, an image extraction processing function 8B for obtaining an extracted image from the feature amount using a neural network, A computer system capable of performing the shape calculation processing function 8C for obtaining the size and shape is provided. Reference numeral 9 denotes a display, which is a display device for displaying the measurement result of the personal computer. Reference numeral 10 denotes an auto stage control device, which is a control device for controlling the movement amount of the auto stage.
【0017】図3は本発明の形状抽出システムの画像処
理手順を示す説明図である。同図は、無機粉体(硫酸バ
リウム)の微粒子を光学顕微鏡2で撮像した不鮮明な画
像から、物体の鮮明な2値画像を抽出する処理手順を示
すものである。その処理手順を図2に示すブロック図と
図4から図8の説明図を用いて説明する。図3−1は形
状抽出する試料3の入力画像であり、オートステージ制
御装置10で設定された移動量に基づいて、オートステ
ージ4が形状抽出する試料3を乗せたステージを撮像す
る位置まで移動し、オートフォーカス制御装置7で光学
顕微鏡2の焦点が自動的に試料3に合わされ、CCDカ
メラ1が光学顕微鏡2による試料3の拡大像を撮像した
画像である。その入力画像はモニターTV6に表示され
る。FIG. 3 is an explanatory view showing the image processing procedure of the shape extraction system of the present invention. This figure shows a processing procedure for extracting a clear binary image of an object from a blurred image obtained by capturing fine particles of inorganic powder (barium sulfate) with the optical microscope 2. The processing procedure will be described with reference to the block diagram shown in FIG. 2 and the explanatory diagrams of FIGS. 4 to 8. FIG. 3A is an input image of the sample 3 whose shape is to be extracted. Based on the movement amount set by the auto stage control device 10, the auto stage 4 moves to a position where the stage on which the sample 3 whose shape is to be extracted is mounted is imaged. Then, the focus of the optical microscope 2 is automatically focused on the sample 3 by the autofocus control device 7, and the CCD camera 1 captures an enlarged image of the sample 3 by the optical microscope 2. The input image is displayed on the monitor TV 6.
【0018】ここで、画像処理装置5は、CCDカメラ
1で撮像された入力画像、図3−1に対し、画像前処理
機能5Aにより強調、鮮鋭化、平滑化、雑音除去、差分
オペレータなどを行い、少なくとも一つの処理画像を得
る。図3−2は差分オペレータ処理画像であり、図3−
1に差分オペレータの一つであるキルシュ(“画像処理
ハンドブック”,p281のKirsch参照)を行って得ら
れる処理画像である。次に、画像処理装置5は、その2
値化処理機能5Bにより図3−2に示すような差分オペ
レータ処理画像と入力画像のうちの複数の画像から複数
の2値画像を得る。例えば、図3−3は画像処理装置5
の2値化処理機能5Bにより得られた2枚の2値画像で
あり、図3ー3aは図3−2の2値画像を示し、図3−
3bは図3−1の2値画像を示している。また、モニタ
ーTV6の表示画面には、画像処理装置5による処理画
像が表示される。Here, the image processing device 5 applies enhancement, sharpening, smoothing, noise removal, difference operator, etc. to the input image picked up by the CCD camera 1, FIG. 3-1, by the image preprocessing function 5A. And obtain at least one processed image. FIG. 3-2 is a difference operator processing image, and FIG.
1 is a processed image obtained by performing Kirsch (see "Kirsch" in "Image Processing Handbook", p281) which is one of the difference operators. Next, the image processing device 5
The binarization processing function 5B obtains a plurality of binary images from a plurality of images of the difference operator processed image and the input image as shown in FIG. 3-2. For example, FIG.
3A is a binary image obtained by the binarization processing function 5B of FIG. 3A, and FIG. 3A shows the binary image of FIG.
3b shows the binary image of FIG. Further, the processed image by the image processing device 5 is displayed on the display screen of the monitor TV 6.
【0019】次に、パーソナルコンピュータ8が、画像
処理装置5により得られた複数の2値画像から特徴量を
求める特徴量演算処理機能8Aについて説明する。図4
は2値画像の領域分割とその領域の特徴量を示す説明図
である。図4において、図4−1a、図4−1bは、図
3−3a、図3−3bに示す2枚の2値画像をそれぞれ
拡大したものである。図4−1a、図4−1bに示すよ
うに領域の数を合計でn個に分割する。それらの領域を
順にA1、A2、……、Ai、……、Aj、……、An
とする。これらの領域は、画像を構成する最小単位であ
る画素の集合からなり、その画素は、物体の存在する場
合は白で、存在しない場合は黒で表される。Next, a description will be given of the feature amount calculation processing function 8A in which the personal computer 8 obtains a feature amount from a plurality of binary images obtained by the image processing device 5. Figure 4
FIG. 4 is an explanatory diagram showing area division of a binary image and a feature amount of the area. In FIG. 4, FIGS. 4-1a and 4-1b are enlarged views of the two binary images shown in FIGS. 3-3a and 3-3b, respectively. As shown in FIGS. 4-1a and 4-1b, the number of regions is divided into n in total. A1, A2, ..., Ai, ..., Aj ,.
And Each of these areas is composed of a set of pixels, which is the smallest unit that constitutes an image, and the pixels are represented by white when an object exists and black when it does not exist.
【0020】次に、ある領域Ai内の物体の存在する画
素の数、つまり白い画素の数をその領域の特徴量とし、
S(Ai)で表す。このようにして、それぞれの領域毎
に合計n個の特徴量、S(A1)、S(A2)、……、
S(Ai)、……、S(Aj)、……、S(An)が求
まる。例えば、図4−2は領域Aiの拡大図である。同
図の領域Aiは16(4×4)個の画素からなり、この
領域の特徴量S(Ai)は7を示す。また、ここでは、
複数の画像の領域を均等に分割しているが、任意の大き
さ・形で分割しても構わない。また、図3−4a、図3
−4bは、図4−1a、図4−1bと同様に、図3−3
a、図3−3bに示す2枚の2値画像を領域分割してそ
の領域の特徴量を求める段階の図である。Next, the number of pixels in which an object exists in a certain area Ai, that is, the number of white pixels is set as a feature amount of that area,
It is represented by S (Ai). In this way, a total of n feature quantities, S (A1), S (A2), ...
S (Ai), ..., S (Aj), ..., S (An) are obtained. For example, FIG. 4-2 is an enlarged view of the area Ai. The area Ai in the figure is composed of 16 (4 × 4) pixels, and the characteristic amount S (Ai) of this area indicates 7. Also here
Although the areas of a plurality of images are equally divided, they may be divided into arbitrary sizes and shapes. 3-4a and FIG.
-4b is similar to FIG. 4A and FIG.
FIG. 3A is a diagram of a stage in which two binary images shown in FIG.
【0021】図5は階層型ニューラルネットワークを示
す説明図である。また、図3−5は図5と同様に階層型
ニューラルネットワークを示す。また、図6はニューラ
ルネットワークの各層を構成するニューロンを示す説明
図であり、図7はニューラルネットワークの出力を決定
するシグモイド関数を示す説明図である。ここで、この
階層型ニューラルネットワークについて、図5から図7
を用いて説明する。図5に示すように、階層型ニューラ
ルネットワークは、入力層、中間層(1つまたは2
つ)、出力層からなる3又は4層の構成になっており、
入力層から出力層に向って1方向にのみ結合しているも
のである。FIG. 5 is an explanatory diagram showing a hierarchical neural network. Further, FIG. 3-5 shows a hierarchical neural network as in FIG. Further, FIG. 6 is an explanatory diagram showing the neurons constituting each layer of the neural network, and FIG. 7 is an explanatory diagram showing the sigmoid function that determines the output of the neural network. Here, regarding this hierarchical neural network, FIGS.
Will be explained. As shown in FIG. 5, the hierarchical neural network includes an input layer, an intermediate layer (one or two layers).
3), it is composed of 3 or 4 layers consisting of output layers,
It is coupled only in one direction from the input layer to the output layer.
【0022】各層は、図6で示されるニューロンと呼ば
れる素子で構成されている。このニューロンは、図中の
式で示されるように各入力Xjとそれに対応する荷重W
ijとの積和を応答関数f2により変換し、出力Yiを
得るものである。この応答関数f2は図7で示されるシ
グモイド関数と呼ばれる非線形関数とする。また荷重W
ijは、バックプロパゲーション法(誤差逆伝搬法)と
呼ばれる学習方法により決定したものを用いる(文献:
海文堂、(1990.12)、“ニューロコンピューテ
ィングの基礎理論”、p48−50参照)。Each layer is composed of elements called neurons shown in FIG. This neuron has each input Xj and the corresponding weight W as shown by the equation in the figure.
The sum of products with ij is converted by the response function f2 to obtain the output Yi. This response function f2 is a non-linear function called a sigmoid function shown in FIG. Also the load W
As ij, a value determined by a learning method called a back propagation method (error back propagation method) is used (reference:
Kaibundou, (1990.12), "Basic Theory of Neurocomputing", p. 48-50).
【0023】図8は抽出画像の一例を示す説明図であ
る。次に、パーソナルコンピュータ8が、上記のニュー
ラルネットワークを用いて、図8に示すような鮮明な抽
出画像を得る画像抽出処理機能8Bについて説明する。
具体的には、特徴量の数と同じn個のニューロンからな
る入力層、特に数が規定されていないが入力層のニュー
ロンの数の半分程度が経験的にいいとされている中間
層、抽出画像の画素数と同じm個のニューロンからなる
出力層、の3層からなるニューラルネットワークを用い
る。FIG. 8 is an explanatory diagram showing an example of the extracted image. Next, the image extraction processing function 8B for the personal computer 8 to obtain a sharp extracted image as shown in FIG. 8 by using the neural network will be described.
Specifically, an input layer consisting of n neurons equal in number to the feature quantity, an intermediate layer whose number is not specified, but half of the number of neurons in the input layer is empirically considered to be good, extraction A neural network composed of three layers, that is, an output layer composed of m neurons having the same number of pixels as the image, is used.
【0024】特徴量S(A1)、S(A2)、……、S
(Ai)、……、S(Aj)、……、S(An)をそれ
ぞれ入力値IN1、IN2、……、INi、……、IN
j、……、INnとし、処理を行ない、その出力値OU
T1、OUT2、……、OUTj、……、OUTmがそ
れぞれ0.9以上の時、その出力値に対応する画素を
“1”すなわち物体が存在するとし、0.9未満の時、
“0”すなわち物体が存在しないとし、図8に示すよう
な物体の鮮明な抽出画像を得る。また、図3−6は図8
と同様に抽出画像を示す。さらに、パーソナルコンピュ
ータ8の形状演算処理機能8Cにより、この抽出画像よ
り大きさ・形状を求めることができる。ディスプレイ9
は、パーソナルコンピュータ8で求めた抽出画像の大き
さ・形状を表示する。Characteristic quantities S (A1), S (A2), ..., S
(Ai), ..., S (Aj), ..., S (An) are input values IN1, IN2, ..., INi, ..., IN, respectively.
j, ..., INn, process, output value OU
When each of T1, OUT2, ..., OUTj, ..., OUTm is 0.9 or more, it is assumed that the pixel corresponding to the output value is “1”, that is, an object exists.
If "0", that is, no object exists, a clear extracted image of the object as shown in FIG. 8 is obtained. Also, FIGS.
An extracted image is shown similarly to. Further, the size / shape can be obtained from the extracted image by the shape calculation processing function 8C of the personal computer 8. Display 9
Displays the size / shape of the extracted image obtained by the personal computer 8.
【0025】図9は本発明の形状抽出システムの処理内
容を示すフローチャートである。同図において、 ステップS1:継続して形状抽出するか終了するか判断
し、終了しない場合は次のステップS2に進む。 ステップS2:ステージ4上の試料を次の計測位置に移
動する。 ステップS3:光学顕微鏡2の焦点を試料に合わせる。 ステップS4:画像をCCDカメラ1により撮像する。 ステップS5:ステップS4で取り込んだ入力画像に対
し計測処理を行う。FIG. 9 is a flow chart showing the processing contents of the shape extraction system of the present invention. In the figure, step S1: it is judged whether shape extraction is to be continued or to end. If not, the process proceeds to the next step S2. Step S2: The sample on the stage 4 is moved to the next measurement position. Step S3: Focus the optical microscope 2 on the sample. Step S4: An image is taken by the CCD camera 1. Step S5: A measurement process is performed on the input image captured in step S4.
【0026】ステップS5−1:ステップS4で取り込
んだ画像に対し差分オペレータ(キルッシュ)を行う。 ステップS5−2:ステップS5−1で処理した画像を
2値化する。 ステップS5−3:ステップS4で取り込んだ画像を2
値化する。 ステップS5−4:ステップS5−2及びS5−3で処
理した2値画像から特徴量を算出する。 ステップS5−5:ステップS5−4で算出した特徴量
によりニューラルネットで処理する。Step S5-1: A difference operator (Kilsch) is performed on the image captured in Step S4. Step S5-2: The image processed in step S5-1 is binarized. Step S5-3: The image captured in step S4 is set to 2
Quantify. Step S5-4: A feature amount is calculated from the binary image processed in steps S5-2 and S5-3. Step S5-5: The neural network is processed according to the feature amount calculated in step S5-4.
【0027】ステップS5−6:ステップS5−5で処
理された画像で図形ごとに番号をつける。 ステップS5−7:ステップS5−6で番号付けされた
図形ごとに大きさ・形状を求める。 ステップS6:計測結果をモニターTV6に表示する。 このように、ニューラルネットワークを用いて、画像処
理することにより、不鮮明な画像から物体を自動的に高
精度で抽出することができる。Step S5-6: The figures processed in step S5-5 are numbered for each figure. Step S5-7: The size / shape is obtained for each figure numbered in Step S5-6. Step S6: The measurement result is displayed on the monitor TV6. Thus, by performing image processing using the neural network, it is possible to automatically and highly accurately extract an object from an unclear image.
【0028】[0028]
【発明の効果】本発明によれば、ニューラルネットワー
クを用いて、複数の画像情報を画像処理することによ
り、不鮮明な画像から物体を自動的に高精度で抽出する
ことが可能であり、検査・計測・認識を高精度に行う装
置に利用できる。According to the present invention, it is possible to automatically and highly accurately extract an object from an unclear image by processing a plurality of image information using a neural network. It can be used for devices that perform measurement and recognition with high accuracy.
【図1】本発明の基本構成を示すブロック図である。FIG. 1 is a block diagram showing a basic configuration of the present invention.
【図2】本発明の形状抽出システムの一実施例を示すブ
ロック図である。FIG. 2 is a block diagram showing an embodiment of a shape extraction system of the present invention.
【図3】本発明の形状抽出システムの画像処理手順を示
す説明図である。FIG. 3 is an explanatory diagram showing an image processing procedure of the shape extraction system of the present invention.
【図4】2値画像の領域分割とその領域の特徴量を示す
説明図である。FIG. 4 is an explanatory diagram showing area division of a binary image and feature amounts of the area.
【図5】階層型ニューラルネットワークを示す説明図で
ある。FIG. 5 is an explanatory diagram showing a hierarchical neural network.
【図6】ニューラルネットワークの各層を構成するニュ
ーロンを示す説明図である。FIG. 6 is an explanatory diagram showing neurons forming each layer of a neural network.
【図7】ニューラルネットワークの出力を決定するシグ
モイド関数を示す説明図である。FIG. 7 is an explanatory diagram showing a sigmoid function that determines the output of a neural network.
【図8】抽出画像の一例を示す説明図である。FIG. 8 is an explanatory diagram showing an example of an extracted image.
【図9】本発明の形状抽出システムの処理内容を示すフ
ローチャートである。FIG. 9 is a flowchart showing the processing contents of the shape extraction system of the present invention.
1 CCDカメラ 2 光学顕微鏡 3 試料 4 オートステージ 5 画像処理装置 6 モニターTV 7 オートフォーカス制御装置 8 パーソナルコンピュータ 9 ディスプレイ 10 オートステージ制御装置 1 CCD Camera 2 Optical Microscope 3 Sample 4 Auto Stage 5 Image Processing Device 6 Monitor TV 7 Auto Focus Control Device 8 Personal Computer 9 Display 10 Auto Stage Control Device
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06T 7/60 8837−5L G06F 15/70 355 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G06T 7/60 8837-5L G06F 15/70 355
Claims (3)
て求めた特徴量を入力としその特徴量を学習して形状の
抽出画像データを求めるニューラルネットワークと、各
種の画像を出力する出力手段を備えた形状抽出システム
であって、物体の形状を入力画像として撮像する撮像手
段と、 撮像された入力画像を画像処理することにより少なくと
も一つ以上の処理画像を作成するための各種画像処理機
能を有する前処理手段と撮像手段で得られた入力画像と
前処理手段で得られた複数の処理画像とのうち複数の画
像を2値化して複数枚の2値画像に変換する2値化処理
手段と、 2値化処理手段で得られた複数枚の2値画像をさらにそ
れぞれ複数の領域に分割しその領域の特徴量を算出する
特徴量算出手段と、 特徴量算出手段により算出された特徴量を予め学習した
ニューラルネットワークに入力することにより得られる
複数の抽出画像データから1枚の抽出画像を作成する形
状抽出手段とを備えてなることを特徴とする形状抽出シ
ステム。1. A neural network for inputting a feature amount obtained by binarizing an input image and its processed image and learning the feature amount to obtain extracted image data of a shape, and an output means for outputting various images. A shape extraction system comprising: an image pickup means for picking up the shape of an object as an input image; and various image processing functions for creating at least one or more processed images by processing the picked-up input image. Binary processing means for binarizing a plurality of images among the input image obtained by the preprocessing means and the image pickup means and the plurality of processed images obtained by the preprocessing means, and converting the plurality of images into a plurality of binary images. A plurality of binary images obtained by the binarization processing unit, each of which is further divided into a plurality of regions, and a feature amount calculation unit that calculates a feature amount of the region; and a feature amount calculated by the feature amount calculation unit A shape extraction system comprising: a shape extraction unit that creates one extracted image from a plurality of extracted image data obtained by inputting the amount into a neural network that has been learned in advance.
鋭化、雑音除去、差分オペレータなどの各種画像処理機
能から少なくとも1種以上の画像処理方法で前処理を行
うことを特徴とする請求項1記載の形状抽出システム。2. The preprocessing means performs preprocessing by at least one image processing method from various image processing functions such as density conversion, enhancement, sharpening, noise removal, and difference operator. The shape extraction system according to Item 1.
の領域に分割しそれぞれの領域に含まれる物体の画像面
積を算出することにより特徴量を求めることを特徴とす
る請求項1記載の形状抽出システム。3. The feature amount calculating means divides the binary image into n regions and calculates the image area of an object included in each region to obtain the feature amount. The described shape extraction system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP18818993A JP3239196B2 (en) | 1993-07-29 | 1993-07-29 | Shape extraction system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP18818993A JP3239196B2 (en) | 1993-07-29 | 1993-07-29 | Shape extraction system |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0744708A true JPH0744708A (en) | 1995-02-14 |
JP3239196B2 JP3239196B2 (en) | 2001-12-17 |
Family
ID=16219330
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP18818993A Expired - Lifetime JP3239196B2 (en) | 1993-07-29 | 1993-07-29 | Shape extraction system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3239196B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019092836A1 (en) * | 2017-11-09 | 2019-05-16 | 富士通株式会社 | Waveform analysis device |
US11189015B2 (en) | 2018-05-30 | 2021-11-30 | Samsung Electronics Co., Ltd. | Method and apparatus for acquiring feature data from low-bit image |
-
1993
- 1993-07-29 JP JP18818993A patent/JP3239196B2/en not_active Expired - Lifetime
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019092836A1 (en) * | 2017-11-09 | 2019-05-16 | 富士通株式会社 | Waveform analysis device |
JPWO2019092836A1 (en) * | 2017-11-09 | 2020-12-03 | 株式会社島津製作所 | Waveform analyzer |
US11189015B2 (en) | 2018-05-30 | 2021-11-30 | Samsung Electronics Co., Ltd. | Method and apparatus for acquiring feature data from low-bit image |
US11636575B2 (en) | 2018-05-30 | 2023-04-25 | Samsung Electronics Co., Ltd. | Method and apparatus for acquiring feature data from low-bit image |
US11893497B2 (en) | 2018-05-30 | 2024-02-06 | Samsung Electronics Co., Ltd. | Method and apparatus for acquiring feature data from low-bit image |
Also Published As
Publication number | Publication date |
---|---|
JP3239196B2 (en) | 2001-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1664749B1 (en) | Apparatus and method for automated web inspection | |
CN112862702B (en) | Image enhancement method, device, equipment and storage medium | |
JPH0689344A (en) | Pattern recognizing device | |
Várkonyi-Kóczy et al. | Gradient-based synthesized multiple exposure time color HDR image | |
CN113449606B (en) | Target object identification method and device, computer equipment and storage medium | |
JPH04346187A (en) | Quality decision method for subject to be detected | |
CN111080683B (en) | Image processing method, device, storage medium and electronic equipment | |
JP3239196B2 (en) | Shape extraction system | |
Wannachai et al. | Real-Time Seven Segment Display Detection and Recognition Online System Using CNN | |
CN109073503B (en) | Unevenness evaluation method and unevenness evaluation device | |
WO2022044673A1 (en) | Image processing device, inspection system, and inspection method | |
Karali et al. | Multiscale contrast direction adaptive image fusion technique for MWIR-LWIR image pairs and LWIR multifocus infrared images | |
CN111354048A (en) | Quality evaluation method and device for camera-oriented acquired pictures | |
Wigan | Image-processing techniques applied to road problems | |
CN112348823A (en) | Object-oriented high-resolution remote sensing image segmentation algorithm | |
JP5446641B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JPH0735699A (en) | Method and apparatus for detecting surface defect | |
Okarma et al. | A Hybrid Method for Objective Quality Assessment of Binary Images | |
CN113870255B (en) | Mini LED product defect detection method and related equipment | |
JP3941403B2 (en) | Image density unevenness detection method and inspection apparatus | |
CN113382134B (en) | Focusing debugging method of linear array industrial camera | |
Çelik et al. | LCD Pixel Defect Detection using Shallow CNN Based Approach | |
Arslan Yousaf et al. | RECORDED AWARENESS ABOUT VEHICLE PLATE THROUGH MATLAB | |
Sierra et al. | Robust detection and removal of dust artifacts in retinal images via dictionary learning and sparse-based inpainting | |
Noskov et al. | Comparison of image focus assessment methods for multi-focused image construction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071012 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081012 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091012 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101012 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111012 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121012 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131012 Year of fee payment: 12 |
|
EXPY | Cancellation because of completion of term |