JPH0534712B2 - - Google Patents

Info

Publication number
JPH0534712B2
JPH0534712B2 JP58091309A JP9130983A JPH0534712B2 JP H0534712 B2 JPH0534712 B2 JP H0534712B2 JP 58091309 A JP58091309 A JP 58091309A JP 9130983 A JP9130983 A JP 9130983A JP H0534712 B2 JPH0534712 B2 JP H0534712B2
Authority
JP
Japan
Prior art keywords
spatial filter
data
pixels
image
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP58091309A
Other languages
Japanese (ja)
Other versions
JPS59216283A (en
Inventor
Tsugihito Maruyama
Takashi Uchama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP58091309A priority Critical patent/JPS59216283A/en
Publication of JPS59216283A publication Critical patent/JPS59216283A/en
Publication of JPH0534712B2 publication Critical patent/JPH0534712B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)

Description

【発明の詳細な説明】 〔発明の技術分野〕 本発明は、画像処理装置に係り、特に濃淡画像
に対して平滑化、グラジエント演算やラプラシア
ン演算、極点抽出、閾値処理及び雑音除去処理等
を行つて、対象の輪郭線を2値画像として抽出す
る一連の処理をTVカメラの水平走査信号に同期
してリアルタイムで高速に実行する画像処理装置
に関するものである。
[Detailed Description of the Invention] [Technical Field of the Invention] The present invention relates to an image processing device, and particularly to an image processing device that performs smoothing, gradient operation, Laplacian operation, pole extraction, threshold processing, noise removal processing, etc. on grayscale images. The present invention relates to an image processing apparatus that executes a series of processes for extracting the outline of an object as a binary image in real time and at high speed in synchronization with the horizontal scanning signal of a TV camera.

〔技術の背景〕[Technology background]

最近各方面に工業用ロボツトが使用されている
が、例えば機械組立用ロボツトの場合には、ロボ
ツトが螺子緩め等の1動作が終るまでの短かい間
に、次の工程のためにある物体が何であるか認識
しておかないと動作が連続しない。そのためにロ
ボツトの目としてTVカメラから入力された多値
レベルの画像信号を高速処理してその物体が何で
あるかを高速に認識処理する必要がある。そのた
めに高速で明るさの急変している部分を抽出し、
物体の輪郭をとらえることが必要となる。
Recently, industrial robots have been used in various fields. For example, in the case of machine assembly robots, an object is moved for the next process in a short period of time until the robot finishes one operation, such as loosening a screw. If you don't recognize what it is, you won't be able to continue the action. To achieve this, the robot's eyes must process multilevel image signals input from a TV camera at high speed to quickly recognize what the object is. To do this, we extract parts with rapid changes in brightness,
It is necessary to capture the outline of an object.

〔従来技術と問題点〕[Conventional technology and problems]

一般にTVカメラ等を使つて得られる画像デー
タは、一画面が例えば256×256(あるいは128×
128)画素の2次元の,8ビツトの濃淡レベルで
あるため、その情報量が非常に膨大なものとな
る。そのために従来、このような画像データを取
り扱かおうとする場合は、一度TVカメラからの
画像信号を1フレーム分画像メモリに記憶し、そ
のデータを大型計算機に転送して処理するか、あ
るいはTVカメラからの映像信号を何らかの方法
でスライスレベルをきめて2値化してデータを圧
縮し、メモリに記憶し、そのデータに対して論理
演算処理を行う等の手法が取られてきた。
In general, image data obtained using a TV camera etc. has a screen size of, for example, 256 x 256 (or 128 x
128) Since it is a two-dimensional, 8-bit gray level of pixels, the amount of information is extremely large. Conventionally, when attempting to handle such image data, the image signal from the TV camera is stored in an image memory for one frame, and the data is transferred to a large computer for processing, or Techniques have been used such as determining the slice level of a video signal from a camera using some method, converting it into a binary value, compressing the data, storing it in a memory, and performing logical operations on the data.

それ故、前者では高度の画像処理を行うことが
できる反面、高速処理を実現するには大容量のメ
モリと高速の大型計算機が必要となりコスト高と
なる欠点を有しており、また後者では2値化にす
るための適切なスライスレベルの決定が難かしく
しかも多値レベル情報を2値レベル情報に省略し
たので情報量としては欠如しているものとなるた
め、これを処理しても高度な処理ができない、例
えば濃淡変化の複雑な画像の処理ができないとい
う欠点を有している。
Therefore, while the former can perform advanced image processing, it has the disadvantage of requiring large memory and high-speed large-scale computers to achieve high-speed processing, resulting in high costs. It is difficult to determine the appropriate slice level for digitization, and since multilevel information is omitted to binary level information, the amount of information is missing, so even if this is processed, it is difficult to It has the disadvantage that it cannot process, for example, images with complex gradation changes.

また最近、汎用画像処理装置として各画素ある
いは複数画素単位に1つの基本演算モジユールを
配置し並列演算することにより画像処理の高速化
を計つているものがみられるが、1フレーム分の
画像を処理するために、数多くの基本演算モジユ
ールを配置しなければならないので、処理装置自
体が大型化し、コスト高となり、しかもアドレス
制御が複雑になるという欠点をもつている。
Recently, some general-purpose image processing devices have been designed to speed up image processing by arranging one basic calculation module for each pixel or multiple pixels and performing parallel calculations. In order to do this, it is necessary to arrange a large number of basic arithmetic modules, which has the drawbacks that the processing device itself becomes large and costly, and address control becomes complicated.

それ故、このような欠点を改善するために、濃
淡画像から対象の輪郭線画を抽出する装置とし
て、第1図に示す如く、輪郭抽出すべき対象の物
体を例えばTVカメラ1で撮影し、この撮影画像
をADコンバータ2で多値レベルのデイジタル濃
淡画像に変換した後、このデイジタル濃淡画像を
2値画像抽出回路3で物体の輪郭を表わした2値
画像に変換するものを、出願人は特願昭57−
104742号として出願している。
Therefore, in order to improve such drawbacks, as shown in FIG. 1, an apparatus for extracting a contour line drawing of an object from a grayscale image is used, as shown in FIG. The applicant has developed a system in which the AD converter 2 converts a photographed image into a multilevel digital grayscale image, and then the binary image extraction circuit 3 converts this digital grayscale image into a binary image representing the outline of an object. Gansho 57-
It has been filed as No. 104742.

この場合、2値画像抽出回路3としては、乗
算・加算・割算回路からなる空間フイルタ演算部
を使用し、この空間フイルタ演算部の荷重係数を
適当に選ぶことにより雑音の低減と画像の強調を
行い、そのデータに対し水平及び垂直方向の極点
抽出によつて対象の輪郭線を2値画像として抽出
するものである。
In this case, as the binary image extraction circuit 3, a spatial filter calculation unit consisting of multiplication, addition, and division circuits is used, and by appropriately selecting the weight coefficient of this spatial filter calculation unit, noise reduction and image enhancement are performed. The object's contour line is extracted as a binary image by extracting horizontal and vertical poles from the data.

この方法は対象が単一物体で、背景が一様の濃
淡レベルを有し、対象と背景とに高いコントラス
トがある場合には大変有効である。
This method is very effective when the target is a single object, the background has a uniform gray level, and there is a high contrast between the target and the background.

しかし通常の画像データ取り込み系では対象物
体の表面状態、色、形状、照明条件、レンズの明
るさ、絞り等の要因で、濃淡レベルにむらが生じ
たり、対象と背景とに高いコントラストが得られ
なかつたりする。そのような場合、背景にくさび
形の紋様が現われS/N比が低下する。この背景
ノイズを消去するために、まず閾値処理が必要と
なる。また対象が重なつていて、3つ以上の領域
が交わつている場合には、平滑化処理+ラプラシ
アン処理後のデータから水平および垂直方向の極
点を抽出するだけでは、第2図のように、交点で
N0として示す如く途切れ部分が生ずる(理由後
述)。さらに第3図に示す如く、輪郭線から分岐
したひげ状ノイズN1や、外的要因による数画素
以下の孤立ノイズN2等は除去できずに残つてし
まう。
However, with normal image data acquisition systems, the surface condition, color, shape, lighting conditions, lens brightness, aperture, etc. of the target object can cause uneven shading levels, and it is difficult to obtain high contrast between the target and the background. Nakatari. In such a case, a wedge-shaped pattern appears in the background and the S/N ratio decreases. In order to eliminate this background noise, threshold processing is first required. Furthermore, if the objects overlap and three or more regions intersect, it is not enough to simply extract the horizontal and vertical poles from the data after smoothing and Laplacian processing, as shown in Figure 2. at the intersection
A discontinuous portion occurs as shown as N 0 (the reason will be explained later). Further, as shown in FIG. 3, whisker-like noise N1 branching from the contour line, isolated noise N2 of several pixels or less due to external factors, etc. cannot be removed and remain.

〔発明の目的〕[Purpose of the invention]

本発明の目的は、上記の如き問題を改善するた
めに、空間フイルタやFFT適用後の濃淡画像デ
ータに対して水平、垂直方向で極点抽出のみなら
ず45°及び135°の斜方向の極点抽出処理を行うこ
とにより原画上の明るさの急変部を抽出して途切
れ部分の発生を解消し、閾値処理により背景ノイ
ズを消し、さらに2値画像に対する雑音除去処理
によるひげ状ノイズと孤立ノイズの除去を行なつ
て、対象の輪郭線のみを一連のつながりとして抽
出し、S/Nの良い画像を得ることのできる画像
処理装置を提供することにある。
In order to improve the above-mentioned problems, it is an object of the present invention to extract not only polar points in the horizontal and vertical directions but also polar points in diagonal directions of 45° and 135° for grayscale image data after applying a spatial filter or FFT. By performing processing, we extract sudden changes in brightness on the original image and eliminate the occurrence of discontinuous parts, eliminate background noise by threshold processing, and further remove whisker-like noise and isolated noise by noise removal processing for binary images. It is an object of the present invention to provide an image processing device capable of extracting only the outline of an object as a series of connections and obtaining an image with a good S/N ratio.

〔発明の構成〕[Structure of the invention]

この目的を達成するため、本発明の画像処理装
置では、濃淡画像を画素単位で処理してその輪郭
を抽出するために、一定長のデータを保持格納す
るデータシフト回路と、保持されたデータと予め
設定されている荷重係数との掛け算を行う乗算回
路と、その結果をたし合わせる加算回路および乗
算・加算によつて増加したレベルを適当な範囲に
収まるようにする割算回路を具備する空間フイル
タ演算部と、水平および垂直方向の極点を抽出す
る極点抽出部を有する画像処理装置において、隣
り合う画素の濃淡レベルの比較により水平および
垂直方向の極点抽出とともに斜め方向の極点をも
抽出する極点抽出部と、背景ノイズを除去するた
めの閾値処理部と、ひげ状のノイズと数画素以下
の孤立ノイズを除去する雑音除去部を備え、ま
た、上記空間フイルタ演算部として第1の空間フ
イルタ演算手段と第2の空間フイルタ演算手段を
設け、これら第1の空間フイルタ演算手段と第2
の空間フイルタ演算手段を直列状態または並列状
態に選択的に接続できるように構成し、TVカメ
ラの水平走査信号に同期してリアルタイムで濃淡
画像の輪郭を2値画素として抽出するようにした
ことを特徴とする。
To achieve this purpose, the image processing device of the present invention includes a data shift circuit that holds and stores a certain length of data, and a data shift circuit that holds and stores a certain length of data, in order to process a grayscale image pixel by pixel and extract its outline. A space equipped with a multiplication circuit that performs multiplication by a preset load coefficient, an addition circuit that adds the results, and a division circuit that keeps the increased level due to multiplication and addition within an appropriate range. In an image processing device that has a filter operation unit and a pole extraction unit that extracts pole points in the horizontal and vertical directions, a pole point extraction unit that extracts pole points in the horizontal and vertical directions and also extracts pole points in the diagonal direction by comparing the gray levels of adjacent pixels. It includes an extraction section, a threshold processing section for removing background noise, and a noise removal section for removing whisker-like noise and isolated noise of several pixels or less, and a first spatial filter operation as the spatial filter operation section. means and a second spatial filter calculating means, the first spatial filter calculating means and the second spatial filter calculating means are provided.
The spatial filter calculation means of the invention are configured so that they can be selectively connected in series or in parallel, and the outline of a grayscale image is extracted as binary pixels in real time in synchronization with the horizontal scanning signal of a TV camera. Features.

〔発明の要点〕[Key points of the invention]

本発明の要点は、空間フイルタやFFT適用後
の濃淡画像データから局部的に濃淡レベルの高い
画素を、対象物体の輪郭線の候補点として抽出す
るために、水平方向、垂直方向、45°対角および
135°対角方向における各極点処理を行い、3つ以
上の領域が交つている場合でも途切れのない輪郭
線を抽出するようにしたこと、閾値処理を行い低
レベルの背景ノイズを除去したこと、さらに2値
画像として抽出された輪郭線が少なくても例えば
8連結のつながりで閉ループを構成していると仮
定し、局所ウインド内の論理演算によつてひげ状
ノイズや孤立ノイズを除去すること等の処理によ
り、対象の輪郭線だけを原画から抽出するように
したものである。
The key point of the present invention is to extract pixels with locally high gray levels from gray scale image data after applying a spatial filter or FFT as candidate points for the contour line of a target object. corners and
Processing of each pole in the 135° diagonal direction was performed to extract an uninterrupted contour even when three or more areas intersect, and threshold processing was performed to remove low-level background noise. Furthermore, even if the number of contour lines extracted as a binary image is small, it is assumed that a closed loop is formed by, for example, 8 connections, and whisker-like noise and isolated noise can be removed by logical operations within the local window. Through this process, only the outline of the object is extracted from the original image.

〔発明の実施例〕[Embodiments of the invention]

本発明の一実施例を第4図以下の添付図面によ
り説明する。
An embodiment of the present invention will be described with reference to the accompanying drawings starting from FIG.

第4図は本発明の画像処理装置の簡単な構成図
を示したものである。
FIG. 4 shows a simple configuration diagram of the image processing apparatus of the present invention.

その基本構成は、第1空間フイルタ演算部1
2、第2空間フイルタ演算部13、極点抽出部1
4、閾値処理部15、雑音除去部16であり、第
1空間フイルタ演算部12と第2空間フイルタ演
算部13は切換スイツチ部17により直列または
並列に接続され、並列接続状態の場合には絶対値
演算部18が挿入される。
Its basic configuration is a first spatial filter calculation section 1
2. Second spatial filter calculation unit 13, pole extraction unit 1
4, a threshold processing unit 15 and a noise removal unit 16, the first spatial filter calculation unit 12 and the second spatial filter calculation unit 13 are connected in series or in parallel by a changeover switch unit 17, and in the case of a parallel connection state, the absolute A value calculation section 18 is inserted.

いま第5図a−1の物体4を上方からみたとき
第5図a−2の画像が得られ、これを線X−Yで
走査すれば第5図a−3の出力信号が得られる。
これを微分処理すれば第5図b−3の出力が得ら
れる。この微分出力よりスライスレベルA,B,
Cにすれば、第6図a,b,cの出力が得られる
が、理想的な第6図bの輪郭を得るためにスライ
スレベルBの選定がむづかしい。したがつて第5
図a−3の信号を微分処理して得られた第5図b
−3より極点抽出を行えば、特にスライスレベル
を設定しなくとも第6図bの如き出力を得ること
ができる。なお第5図、第6図についてはさらに
後で詳述する。
When the object 4 in FIG. 5 a-1 is viewed from above, the image shown in FIG. 5 a-2 is obtained, and if this is scanned along the line X-Y, the output signal shown in FIG. 5 a-3 is obtained.
If this is subjected to differential processing, the output shown in FIG. 5b-3 can be obtained. From this differential output, slice levels A, B,
If it is set to C, the outputs shown in FIG. 6a, b, and c can be obtained, but it is difficult to select the slice level B in order to obtain the ideal contour shown in FIG. 6b. Therefore, the fifth
Figure 5b obtained by differential processing of the signal in Figure a-3
By extracting the extreme points from -3, it is possible to obtain an output as shown in FIG. 6b without particularly setting the slice level. Note that FIGS. 5 and 6 will be described in detail later.

第1空間フイルタ演算部12及び第2空間フイ
ルタ演算部13は同一構成であり、その詳細は第
1空間フイルタ演算部12により代表的に説明す
る。
The first spatial filter calculating section 12 and the second spatial filter calculating section 13 have the same configuration, and the details thereof will be explained using the first spatial filter calculating section 12 as a representative example.

空間フイルタ演算では、次式(1)で与えられる演
算をハード的に行うものである。
In the spatial filter calculation, the calculation given by the following equation (1) is performed in hardware.

Yn,o1i=-1 1j=-1 Xn+i,o+j・fi,j/H ……(1) ここでXn,o、Yn,oは、第7図に示す如く、各々
画面状m行n列の画素の濃淡レベル値のフイルタ
リング前後の値を示し、fi,jは荷重係数、Hは正規
化係数である。このフイルタはYn,oの値を、注目
画素Xn,oとその周囲8画素Xn+i,o+j(i=1、0、
−1、j=1、0、−1ただしi=j=0を除く)
との重み(fi,j)付け演算によつて決定するもので
あり、第13図に示す如く、fi,jの値の選び方によ
つてフイルタの特性を様々に変えることができ
る。
Y n,o = 1i=-1 1j=-1 X n+i,o+j・f i,j /H ...(1) Here, X n,o and Y n,o are As shown in FIG. 7, the gray level values of pixels in m rows and n columns of the screen are shown before and after filtering, where f i,j is a weighting coefficient and H is a normalization coefficient. This filter converts the value of Y n,o to the pixel of interest X n,o and its surrounding eight pixels X n+i,o+j (i=1, 0,
-1, j=1, 0, -1 except i=j=0)
As shown in FIG. 13, the characteristics of the filter can be changed in various ways by selecting the value of f i,j .

したがつて荷重係数fi,jを第7図ロの如く定め、
正規化係数HをH=16と定めるとき、Yn,oは次式
(2)により求められる。
Therefore, the load coefficient f i,j is determined as shown in Figure 7 (b),
When the normalization coefficient H is set as H=16, Y n,o is given by the following formula
Required by (2).

Yn,o=1/16〔Xn-1,o-1×1+Xn,o-1×2+Xn+1,o-1×
1+Xn-1,o×2+Xn,o×4+Xn+1,o×2+Xn-1,o+1×1
+Xn,o+1×2+Xn+1,o+1×1〕 ……(2) 第4図の状態では第1空間フイルタ演算部12
と第2空間フイルタ演算部13は切換スイツチ部
17による直列接続されている。この場合では、
1段目の第1空間フイルタ演算部12を平滑化フ
イルタ用に、2段目の第2空間フイルタ演算部1
3を画像強調フイルタ(ハイパス、ラプラシア
ン)用に用いることによつて、リアルタイムで画
像雑音の低減と対象の輪郭線抽出を行うためであ
る。
Y n,o =1/16 [X n-1,o-1 ×1+X n,o-1 ×2+X n+1,o-1 ×
1+X n-1,o ×2+X n,o ×4+X n+1,o ×2+X n-1,o+1 ×1
+X n,o+1 ×2 +X n+1,o+1 ×1〕...(2) In the state shown in Fig. 4, the first spatial filter calculation unit 12
and the second spatial filter calculation section 13 are connected in series by a changeover switch section 17. In this case,
The first spatial filter calculation unit 12 in the first stage is used as a smoothing filter, and the second spatial filter calculation unit 1 in the second stage is used as a smoothing filter.
3 for an image enhancement filter (high pass, Laplacian) to reduce image noise and extract the outline of the object in real time.

さて上記(1)式の演算を実現するハード構成につ
いて説明する。この空間フイルタ演算部は第8図
に示す如く、データシフト回路30、乗算回路3
1、加算回路32、割算回路33の4つの部分か
ら構成される。
Now, the hardware configuration that realizes the calculation of the above equation (1) will be explained. As shown in FIG. 8, this spatial filter operation section includes a data shift circuit 30, a multiplication circuit 3,
1, an adder circuit 32, and a divider circuit 33.

データシフト回路30は1画面分の画像データ
に対して3×3の空間フイルタリング処理を実行
するために、第9図に示す如く、2行+3画素の
データをシフトレジスタを用いて記録格納し、次
段の乗算回路にXn+i,o+j(i=−1、0、1、J=
−1、0、1)の9画素を送出する機能を持つて
いる。
The data shift circuit 30 records and stores data of 2 rows + 3 pixels using a shift register, as shown in FIG. 9, in order to perform 3×3 spatial filtering processing on image data for one screen. , X n+i,o+j (i=-1, 0, 1, J=
It has the function of transmitting nine pixels (-1, 0, 1).

第9図において、1行p画素、2q濃淡レベルの
画面データの場合について説明する。第8図の
A/Dコンバータ11により、1画素qビツトで
表示されたデータを1段目は3画素分、2段目及
び3段目はp画素分のシフトレジスタを用いて保
持する。そして格段の最後の3画素については、
次段の乗算回路へ同時に各画素のデータを送出で
きるようにラツチまたはフリツプフロツクR1〜
R9を縦続接続するかシリアル・イン−パラレ
ル・アウトのシフトレジスタを使用することによ
り9画素の送出が実現できる。そして2段目及び
3段目は(p−3)画素分のシフトレジスタ3
4,35を使用して送出分以外の画素のデータを
保持する。そしてこのデータシフト回路は、TV
カメラ10の走査信号により1画素ずつシフトす
るものである。
In FIG. 9, the case of screen data with 1 row of p pixels and 2 q gray levels will be described. The data displayed by the A/D converter 11 in FIG. 8 with q bits per pixel is held using shift registers for 3 pixels in the first stage and p pixels in the second and third stages. And regarding the last three pixels,
The latch or flip-flop circuit R1~
By cascading R9 or using a serial-in-parallel-out shift register, nine pixels can be transmitted. The second and third stages are shift registers 3 for (p-3) pixels.
4 and 35 are used to hold data of pixels other than those sent out. And this data shift circuit is
It is shifted pixel by pixel according to the scanning signal of the camera 10.

乗算回路31は、第10図に示す如く、データ
シフト回路30から送出された9画素の各々に対
してあらかじめ設定した荷重係数fi,j(i=−1、
0、1、j=−1、0、1)を乗じて次式(3)を求
める機能を持つている。
As shown in FIG. 10, the multiplication circuit 31 applies a weighting coefficient f i,j (i=-1,
It has a function to obtain the following equation (3) by multiplying by 0, 1, j=-1, 0, 1).

Wn+i,o+j=Xn+i,o+j×fi,j ……(3) (i=−1、0、1、j=−1、0、1) そのために、第10図に示す如く、第1乗算器
36〜第9乗算器44の9個の乗算器を用い、第
1乗算器36には荷重係数f-1-1が設定されてお
りデータシフト回路より創出された画素Xn-1,o-1
との乗算が行なわれる。そして第2乗算器37に
は荷重係数f-10が設定されておりデータシフト
回路より送出された画素Xn-1,oとの乗算が行なわ
れる。このようにして第10図に示す乗算回路に
より前記(3)式における乗算を行うことができる。
W n+i,o+j =X n+i,o+j ×f i,j ...(3) (i=-1, 0, 1, j=-1, 0, 1) Therefore, the As shown in FIG. 10, nine multipliers from the first multiplier 36 to the ninth multiplier 44 are used, and the first multiplier 36 is set with load coefficients f -1 and -1 , and the data shift circuit Created pixel X n-1,o-1
Multiplication is performed. The second multiplier 37 is set with a weighting coefficient f -1,0 , and is multiplied by the pixel X n-1,o sent out from the data shift circuit. In this way, the multiplication in equation (3) can be performed using the multiplication circuit shown in FIG.

加算回路32は、前記乗算回路31で演算され
た9個の値Wn+i,o+j(i=−1、0、1、j=−
1、0、1)から、これらの和である次式(4)を求
める加算機能を有する。
The adder circuit 32 calculates the nine values W n+i,o+j (i=-1, 0, 1, j=-
1, 0, 1), it has an addition function that calculates the following equation (4), which is the sum of these.

Zn,o1i=-1 1j=-1 Wn+i,n+j ……(4) (i=−1、0、1、j=−1、0、1) そのために第11図に示す如く、第1加算器4
5〜第8加算器52を使用している。
Z n,o = 1i=-1 1j=-1 W n+i,n+j ...(4) (i=-1, 0, 1, j=-1, 0, 1) Therefore As shown in FIG. 11, the first adder 4
The fifth to eighth adders 52 are used.

さらに割算回路33は、前記乗算回路31及び
加算回路32における乗算演算、加算演算により
増加した濃淡レベルZn,oを、第4図の画像メモリ
19及びモニタ用TVの濃淡レベルの範囲に収ま
るように、正規化系係数Hで割り、 Yn,o=Zn,o/H(=(1)式) ……(5) を求めるものである。ここで正規化係数Hは、実
現し易さから1i=-1 1j=-1 fi,jに近くそれより大きな2k
(k=0、1、2…)の値に選ぶ。この割算回路
33は第12図に示す如く、第1データセレクタ
53〜第8データセレクタ60により構成されて
おり、上記(5)式の塩酸を行うことにより上記(1)式
の最終演算結果のYn,oが得られるものである。こ
の第12図は、8ビツトの濃淡画素を前記の如く
乗算演算及び加算演算により16ビツトの濃淡レベ
ルのデータZn,oになつたものを8ビツトデータ
Yn,oに減らすときの例であつて、第1データセレ
クタ53には16ビツトデータZn,oのうち2〜9ビ
ツトを入力し、第2データセレクタ54には16ビ
ツトデータZn,oのうち3〜10ビツトを入力し、以
下同様に第3データセレクタ55には4〜11ビツ
トを入力し、第4データセレクタ56には5〜12
ビツトを、第5データセレクタ57には6〜13ビ
ツトを、第6データセレクタ58には7〜14ビツ
トを、第7データセレクタ59には8〜15ビツト
を、第8データセレクタ60に9〜16ビツトをそ
れぞれ入力する。そしてセレクタラインSLより
伝達された3ビツトの選択信号に応じて各データ
セレクタ53〜60は、前記8ビツト入力のうち
第1番目〜第8番目のいずれか1つのビツトを選
択出力する。例えば27でZn,oを商する場合にはそ
れぞれのデータセレクタ53〜60より第1番目
のビツトを出力するように各データセレクタ53
〜60が制御されるので、第1データセレクタ5
3からは2〜9ビツトのうちの第1番目のビツト
すなわち16ビツトのうちの2ビツト目が出力さ
れ、第2データセレクタ54からは3〜10ビツト
のうちの第1番目のビツトすなわち16ビツトのう
ちの3ビツト目が出力され、第3データセレクタ
55からは4〜11ビツトのうちの第1番目のビツ
トすなわち16ビツトのうちの4ビツト目が出力さ
れ、以下同様にして第8データセレクタ60から
は9〜16ビツトのうちの第1番目のビツトすなわ
ち16ビツトのうちの9ビツト目が出力されること
になり、この結果各データセレクタ53〜60よ
り16ビツトのZn,oを27で商した値である2〜9ビ
ツトを出力することになる。同様にしてZn,oを26
で商する場合には各データセレクタ53〜60か
ら第2番目のビツト、すなわち16ビツトのデータ
よりその3〜10ビツトを出力すればよく、25で商
する場合には各データセレクタ53〜60より第
3番目のビツトを出力させて16ビツトのデータよ
りその4〜11ビツトを出力させればよい。このよ
うにしてN番目のデータセレクタには16ビツトデ
ータのうち215-N〜28-Nビツト目を入力し、割る
数2kに対応してセレクタラインにkの値をセツト
することにより割算を高速に実現することができ
る。このように、データセレクタを用いることに
より割算の高速化をはかることができる。
Furthermore, the division circuit 33 adjusts the gray level Z n,o increased by the multiplication and addition operations in the multiplication circuit 31 and the addition circuit 32 to fit within the gray level range of the image memory 19 and the monitor TV shown in FIG. By dividing by the normalization coefficient H, Y n,o =Z n,o /H (=Equation (1)) ...(5) is obtained. Here, the normalization coefficient H is 1i=-1 1j=-1 f close to i,j and larger than 2 k
(k=0, 1, 2...). As shown in FIG. 12, this division circuit 33 is composed of a first data selector 53 to an eighth data selector 60, and by performing the hydrochloric acid calculation of the above equation (5), the final calculation result of the above equation (1) is obtained. Y n,o is obtained. This figure 12 shows 8-bit data obtained by multiplying and adding 8-bit gray pixels to 16-bit gray level data Zn,o.
In this example , 2 to 9 bits of the 16-bit data Z n,o are input to the first data selector 53, and the 16-bit data Z n, o is input to the second data selector 54. 3 to 10 bits of o are input, 4 to 11 bits are similarly input to the third data selector 55, and 5 to 12 bits are input to the fourth data selector 56.
6 to 13 bits to the fifth data selector 57, 7 to 14 bits to the sixth data selector 58, 8 to 15 bits to the seventh data selector 59, and 9 to 13 bits to the eighth data selector 60. Input 16 bits each. Each data selector 53-60 selects and outputs any one of the first to eighth bits among the 8-bit inputs in response to a 3-bit selection signal transmitted from the selector line SL. For example, when quoting Z n,o by 2 7 , each data selector 53 is set so that the first bit is output from each data selector 53 to 60.
~60 is controlled, so the first data selector 5
3 outputs the first bit of 2 to 9 bits, that is, the 2nd bit of 16 bits, and the second data selector 54 outputs the first bit of 3 to 10 bits, that is, 16 bits. The third data selector 55 outputs the first bit of the 4th to 11th bits, that is, the 4th bit of the 16 bits. 60 outputs the first bit of 9 to 16 bits, that is, the 9th bit of 16 bits, and as a result, each data selector 53 to 60 outputs 16 bits Z n,o by 2. It will output 2 to 9 bits, which is the value divided by 7 . Similarly, Z n,o is 2 6
When quotient by 25, it is sufficient to output the second bit from each data selector 53 to 60, that is, 3 to 10 bits of 16 bit data; when quotient by 25 , each data selector 53 to 60 It is only necessary to output the third bit and output the 4th to 11th bits from the 16-bit data. In this way, the 215-N to 28-N bits of the 16-bit data are input to the Nth data selector, and the value of k is set in the selector line corresponding to the dividing number 2k . Division can be realized at high speed. In this way, by using the data selector, it is possible to speed up division.

第4図における第1空間フイルタ演算部12と
第2空間フイルタ演算部13の荷重系数を適当に
選ぶことにより画像上のランダムな雑音の低減と
明るさを急変部の強調に行うことができる。この
荷重係数は、例えば荷重係数保持部22の荷重係
数テーブルよりCPU21によつて取出すことか
できる。
By appropriately selecting the weighting systems of the first spatial filter calculation unit 12 and the second spatial filter calculation unit 13 in FIG. 4, random noise on the image can be reduced and brightness can be enhanced to emphasize sudden changes. This load coefficient can be retrieved by the CPU 21 from the load coefficient table of the load coefficient holding section 22, for example.

例えば第5図aの原画に対して平滑化+ラプラ
シアン処理を施した後の様子を同bに示す。第5
図a−1は光が右斜め上方から円柱の物体4に当
つている場合であり、同a−2はそれを真上から
見たときの図、同a−3は、同a−2のX−Y1
次元方向の明るさの変化を示したものである。ま
た第5図b−1は平滑化+ラプラシアン演算後の
濃淡レベルの3次元表示であり、同b−2はそれ
を真上から眺めたときの等明線を示している。さ
らに第5図b−3は同b−2のX−Y1次元方向
の断面を示している。
For example, FIG. 5b shows the state after smoothing and Laplacian processing are applied to the original image in FIG. 5a. Fifth
Figure a-1 shows the case where the light is hitting the cylindrical object 4 from diagonally above the right, Figure a-2 shows the view from directly above, and Figure a-3 shows the case where the light hits the cylindrical object 4 from the upper right side. X-Y1
It shows the change in brightness in the dimensional direction. Further, Fig. 5 b-1 is a three-dimensional display of the gray level after smoothing + Laplacian calculation, and Fig. 5 b-2 shows isobright lines when viewed from directly above. Furthermore, FIG. 5 b-3 shows a cross section of FIG. 5 b-2 in the X-Y one-dimensional direction.

ここで閾値処理によつて第5図b−1から対象
の輪郭線を抽出することを考えてみる。スライス
レベルとして、A,B,C3のレベルを選び2値
化すると、第6図a〜cに示すように各々異なつ
た輪郭線が得られる。第6図aではレベルが高過
ぎて輪郭に途切れが生じるし、同cではレベルが
低過ぎて太くなつてしまう。そのため得られた輪
郭線に対して改めて途切れの修復あるいは細線化
処理が必要になる。これらの処理はアルゴリズム
が複雑で時間のかかるものであるため、リアルタ
イム処理には適さない。また第6図bのように丁
度良いスライスレベルが設定できれば都合が良い
が、原画の濃淡レベルは対象物体の表面状態・
色・形、照明条件、レンズの明るさ、絞り等で毎
回異なるため、適当なスライスレベルを見つける
ことは難かしい。結局閾値処理だけで対象を一連
の線画として抽出しS/Nのよい画像を得ること
は困難である。
Let us now consider extracting the outline of the object from FIG. 5 b-1 by threshold processing. When levels A, B, and C3 are selected as slice levels and binarized, different contour lines are obtained as shown in FIGS. 6a to 6c. In Figure 6a, the level is too high and the outline is interrupted, and in Figure 6c, the level is too low and the outline becomes thick. Therefore, it is necessary to repair the discontinuity or thin the contour line again. These processes are not suitable for real-time processing because their algorithms are complex and time-consuming. It would be convenient if the slice level could be set just right as shown in Figure 6b, but the shading level of the original image depends on the surface condition of the target object.
It is difficult to find an appropriate slicing level because the color, shape, lighting conditions, lens brightness, aperture, etc. vary each time. After all, it is difficult to extract an object as a series of line drawings and obtain an image with a good S/N ratio only by threshold processing.

そこで本発明ではまず極点抽出処理により輪郭
候補点の抽出を行う。この拠点抽出動作原理を第
14図により説明する。説明の簡略化のため、第
14図イの原画像Pが図示状態の1次元方向の濃
度分布を有する場合においてそと極点Rを求める
例について説明する。原画像Pを左に一画素Δだ
けシフトした左シフト画像をPLとし、右に一画
素Δだけシフトした右シフト画像をPRとする。
そして原画像Pと左シフト画像PLを比較して原
画像の方が濃度が大きいか等しい(以下これをP
≧PLとする)部分QLを抽出し、また原画像Pと
右シフト画像PRを比較して原画像の方が濃度が
大きいか等しい(以下これをP≧PRとする)部
分QRを抽出する。このとき求める極点(極大点)
Rは少なくとも両隣りの画素より大きいか等しい
レベルであると考えられるので、第14図ホのよ
うに部分QLでかつQRのところを抽出することに
より極点Rを求めることができる。ただし、P=
PL=PLのときは除外する。
Therefore, in the present invention, contour candidate points are first extracted by extreme point extraction processing. The principle of this location extraction operation will be explained with reference to FIG. To simplify the explanation, an example will be described in which the extreme point R is determined when the original image P shown in FIG. 14A has the density distribution in the one-dimensional direction as shown. Let P L be a left-shifted image obtained by shifting the original image P by one pixel Δ to the left, and P R be a right-shifted image obtained by shifting the original image P by one pixel Δ to the right.
Then, compare the original image P and the left-shifted image P L and the density of the original image is greater or equal (hereinafter referred to as P
≧P L ) Extract the part Q L , and compare the original image P and the right-shifted image P R to find the part Q where the density of the original image is greater or equal (hereinafter this will be referred to as P≧P R ). Extract R. The extreme point (maximum point) found at this time
Since R is considered to be at least at a level greater than or equal to the pixels on both sides, the extreme point R can be found by extracting the part Q L and Q R as shown in FIG. 14E. However, P=
Exclude when P L = P L.

ところで第14図ヘのLに示す如きパターンで
極点が存在するとき、X方向の走査のみではパタ
ーンLの極点辺l1,I3は抽出できるものの、極点
辺I2,I4は抽出することができないので、これを
Y方向にも走査することにより極点辺I2,I4を抽
出することができる。したがつて、例えば第14
図トに示す如き画素A〜Iを有する抽出ウインド
ウW′を使用すればD,E,Fにより2次元の濃
淡画像のX方向の極点を、B,E,Hにより同じ
くY方向の極点を、C,E,Gにより45°の斜方
向の極点を、A,E,Iにより135°の斜方向の極
点をそれぞれ抽出できる。
By the way, when there is a pole in a pattern as shown in L in Fig. 14, the pole sides l 1 and I 3 of the pattern L can be extracted by scanning only in the X direction, but the pole sides I 2 and I 4 cannot be extracted. Since this is not possible, the pole sides I 2 and I 4 can be extracted by scanning this in the Y direction as well. Therefore, for example, the 14th
If we use the extraction window W' having pixels A to I as shown in the figure, we can use D, E, and F to determine the extreme point in the X direction of the two-dimensional gray image, and B, E, and H to determine the extreme point in the Y direction. C, E, and G can be used to extract a 45° diagonal pole, and A, E, and I can be used to extract a 135° diagonal pole.

いま、第14図チに示す1フレームを第4図の
走査信号発生部20より抽出された同期信号に応
じて走査h0,h1,h2…により順次走査し、各画素
を上記の如く比較処理することにより水平、垂
直、45°、135°方向の極点を順次抽出することが
できる。
Now, one frame shown in FIG. 14H is sequentially scanned by scanning h 0 , h 1 , h 2 . By performing comparison processing, it is possible to sequentially extract pole points in the horizontal, vertical, 45°, and 135° directions.

この第4図に示す極点抽出部14は、第15図
に示す如くデータシフト回路62とデータ比較回
路63から構成されている。
The pole extractor 14 shown in FIG. 4 is composed of a data shift circuit 62 and a data comparison circuit 63, as shown in FIG.

データシフト回路62は、第16図に詳記する
ように、2行+3画素のデータをシフトレジスタ
を用いて順次保持し、次段のデータ比較回路63
に対して画素A〜Iの9画素を送出する機能を有
し、第9図に示すデータシフト回路を同様に構成
されている。第1空間フイルタ演算部12及び第
2空間フイルタ演算部13よりなる空間フイルタ
61の出力は、レジスタr1〜r9、N−3ビツト長
のシフトレジスタ64,65により構成されるデ
ータシフト回路62に入力され、これにより各レ
ジスタr1〜r9より画素A〜Iが出力され、データ
比較回路63に入力されることになる。
As detailed in FIG. 16, the data shift circuit 62 sequentially holds data of 2 rows + 3 pixels using a shift register, and the data comparison circuit 63 of the next stage
It has a function of transmitting nine pixels A to I relative to each other, and is configured in the same manner as the data shift circuit shown in FIG. The output of the spatial filter 61 made up of the first spatial filter calculation section 12 and the second spatial filter calculation section 13 is transferred to a data shift circuit 62 comprising registers r 1 to r 9 and N-3 bit length shift registers 64 and 65. As a result, pixels A to I are output from each register r 1 to r 9 and input to the data comparison circuit 63 .

このデータ比較回路63は、第17図に示す如
く、比較器C−1〜C−8、オア回路OR−1〜
OR−9、アンド回路AN−1〜AN−4、ナンド
回路NAN−1〜NAN−4、ピーク・レジスタ
RP等により構成されている。そして比較器C−
1により空間フイルタ処理データであるレジスタ
r4,r5の画素DとEが比較され、比較器C−2に
より同じく画素F,Eが比較される。したがつて
画素Eが水平方向(X方向)の極点の場合にはE
>D,E>F,D≠E≠FでらるのでOR−2,
OR−3及びNMN−1よりいずれも「1」が出
力され、OR−1より「1」が出力されるので、
ピークレジスタPRに水平方向のピーク値として
画素Eが保持され、これが極点として出力される
ことになる。
As shown in FIG. 17, this data comparison circuit 63 includes comparators C-1 to C-8, OR circuits OR-1 to
OR-9, AND circuit AN-1 to AN-4, NAND circuit NAN-1 to NAN-4, peak register
It is composed of RP, etc. and comparator C-
1 is the register that is the spatially filtered data.
Pixels D and E of r 4 and r 5 are compared, and pixels F and E are also compared by comparator C-2. Therefore, if pixel E is the pole in the horizontal direction (X direction), E
>D, E>F, D≠E≠F, so OR-2,
Since "1" is output from both OR-3 and NMN-1, and "1" is output from OR-1,
Pixel E is held in the peak register PR as a horizontal peak value, and this is output as an extreme point.

また比較器C−3には画素BとEが比較され、
比較器C−4には画素EとHが比較されるので、
画素Eが垂直方向の極点の場合にはAN−2より
「1」が出力され、OR−1より「1」が出力さ
れるのでピークレジスタPRに画素Eが保持され
ることになる。同様に比較器C−5,C−6によ
り45°対角方向の画素C,E,Gが比較され画素
Eが極点の場合にはAN−3から「1」が出力さ
れ、比較器C−7,C−8により135°対角方向の
画素A,E,Iが比較され画素Eがその135°対角
方向での極点の場合にはAN−4から「1」が出
力されることになる。したがつて画素Eが、水
平、垂直、45°、135°対角方向のいずれか1つの
方向で極点の場合にはOR−1は「1」を出力
し、ピークレジスタPRに画素Eが保持され、極
点として出力されることになる。このようにして
注目画素Eが極点の場合、これを抽出することが
できる。
Also, the comparator C-3 compares pixels B and E,
Since pixels E and H are compared in comparator C-4,
When pixel E is a vertical pole, AN-2 outputs "1" and OR-1 outputs "1", so pixel E is held in the peak register PR. Similarly, pixels C, E, and G in a 45° diagonal direction are compared by comparators C-5 and C-6, and if pixel E is the pole, "1" is output from AN-3, and comparator C- 7. C-8 compares pixels A, E, and I in the 135° diagonal direction, and if pixel E is the pole in the 135° diagonal direction, "1" is output from AN-4. Become. Therefore, if pixel E is at the pole in any one of the horizontal, vertical, 45°, and 135° diagonal directions, OR-1 outputs "1" and pixel E is held in the peak register PR. and will be output as an extreme point. In this way, if the pixel of interest E is an extreme point, it can be extracted.

閾値処理部15は、第18図に示す如く、デー
タシフト回路と閾値回路からなり、データシフト
回路62は極点抽出処理部のそれと同じ回路を用
いる。後者は比較器66、アンド回路67、レジ
スタ68を有し、比較器66にて予め設定したス
ライスレベルと注目画素(例えばE)との比較を
行い、注目画素がスライスレベルより大きな濃度
のときに比較器66は「1」を出力し、アンド回
路67をオン状態にする。この信号により注目画
素Eのレベルを制御することによつてあるレベル
以上で水平、垂直、45°、135°の各方向に極点に
なつている画素だけを抽出することができる。
As shown in FIG. 18, the threshold processing section 15 consists of a data shift circuit and a threshold circuit, and the data shift circuit 62 uses the same circuit as that of the pole extraction processing section. The latter has a comparator 66, an AND circuit 67, and a register 68, and the comparator 66 compares a preset slice level with the pixel of interest (for example, E), and when the pixel of interest has a density greater than the slice level, Comparator 66 outputs "1" and turns on AND circuit 67. By controlling the level of the pixel of interest E using this signal, it is possible to extract only those pixels that are at the extremes in each of the horizontal, vertical, 45°, and 135° directions at a certain level or higher.

このようにして、本発明では極点抽出部14に
より輪郭候補点の抽出を行い、閾値処理部15に
より閾値処理を行う。
In this way, in the present invention, the extreme point extraction section 14 extracts contour candidate points, and the threshold processing section 15 performs threshold processing.

すなわち輪郭抽出対象物体の輪郭は、原理上で
明るさの急変している部分に対応していると考え
られる。したがつてラプラシアン・フイルタ(2
次微分)又はグラジエント・フイルタ(1次微
分、境界線抽出)適用後のデータでは、対象の輪
郭に対応している部分は他の部分よりもレベルが
高い。そこでフイルタリング後のデータに対し
て、水平、垂直、45°対角及び135°対角方向の極
点処理を行い、原画上で明るさの急変している輪
郭候補点の抽出をする。これだけであると、外的
要因による背景ノイズが沢山抽出されてしまう。
しかし背景ノイズのレベルは、通常、対象の輪郭
点より低いレベルであるので、しきい値処理によ
つて除去することができる。本発明におけるしき
い値処理は、フイルタリング後のデータから直接
輪郭点を抽出することが目的ではないので、その
スライスレベルは極点抽出処理によつて抽出され
た輪郭候補点列が途切れない程度で、背景ノイズ
が除去できる位でよい。
In other words, the contour of the object to be contour extracted is considered to correspond to a portion where the brightness changes suddenly, in principle. Therefore, the Laplacian filter (2
In the data after applying a gradient filter (first-order differentiation, boundary line extraction), the portion corresponding to the contour of the object has a higher level than other portions. Therefore, polar point processing is performed on the filtered data in horizontal, vertical, 45° diagonal, and 135° diagonal directions to extract contour candidate points whose brightness changes suddenly on the original image. If this is all that is done, a lot of background noise due to external factors will be extracted.
However, since the level of background noise is usually lower than the contour points of interest, it can be removed by thresholding. Since the purpose of the threshold processing in the present invention is not to directly extract contour points from the data after filtering, the slice level is such that the sequence of contour candidate points extracted by the extreme point extraction process is not interrupted. , it is sufficient that background noise can be removed.

この処理は極点抽出処理と並行して行えるた
め、極点抽出部14と閾値処理部15を並列に配
置することによつて高速化できる。この結果、水
平、垂直45°対角および135°対角方向の極点で、
かつ一定のスライスレベル以上の点が2値画像と
して輪郭候補点として抽出できる。
Since this process can be performed in parallel with the extreme point extraction process, the speed can be increased by arranging the extreme point extracting section 14 and the threshold value processing section 15 in parallel. As a result, at the horizontal, vertical 45° diagonal and 135° diagonal poles,
In addition, points above a certain slice level can be extracted as contour candidate points as a binary image.

ところで閾値処理部15における閾値処理にお
いてスライスレベルを輪郭候補点列が途切れない
ように設定したので、第3図に示した如く、多少
のひげ状のノイズや数画素以下の孤立ノイズが残
つてしまう。そこで2値画素として抽出された輪
郭候補点列が少なくても8連結のつながりで閉ル
ープを構成していると仮定し、3×3の局所ウイ
ンド内の論理演算によつて、ひげ状ノイズや孤立
ノイズの除去を行う。これらの各ノイズの除去は
雑音除去部16により行う。
By the way, in the threshold processing in the threshold processing unit 15, the slice level was set so that the contour candidate point sequence was not interrupted, so some whisker-like noise and isolated noise of several pixels or less remained as shown in FIG. . Therefore, assuming that the contour candidate point sequence extracted as binary pixels constitutes a closed loop with at least 8 connections, whisker-like noise and isolated Perform noise removal. Removal of each of these noises is performed by the noise removal section 16.

雑音除去部16の詳細構造を説明するに先立ち
その動作原理について説明する。
Before explaining the detailed structure of the noise removal section 16, its operating principle will be explained.

第19図〜に示す如く、3×3のウインド
ウWの中心における注目画素Eが雑音でない場合
には必らず閉レープ画像である。そして閉ループ
画像は連続的であることからこの閉ループ画像は
ウインドウWを必らず横切ることになり、ウイン
ドウW内の周辺画素のうち少くとも2つは閉ルー
プ画像上の画素でなければならないといえる。そ
して上記前提条件を加味すると、上記閉ループ画
像上の二つの周辺画素は相隣接しない位置関係に
なつていなければならないといえる。これらのこ
とから、注目画素Eが閉ループ画像上の画素であ
るためには、注目画素Eが状態1である場合にお
いて少くとも相隣接しない二つの周辺画素が状態
1であることが必要になる。この条件に該当する
ものは16通りであり、各場合をウインドウWによ
つて表わしたものが第19図に示されている。こ
の場合において、説明を単純化するために、閉ル
ープ画像が角部を備えているものについては前記
角部に対応した画素は閉ループ画像上の画素でな
いものとして扱うことを前提とする。
As shown in FIGS. 19 to 19, if the pixel of interest E at the center of the 3×3 window W is not noise, it is always a closed rape image. Since the closed-loop image is continuous, the closed-loop image necessarily crosses the window W, and it can be said that at least two of the surrounding pixels within the window W must be pixels on the closed-loop image. Considering the above preconditions, it can be said that the two peripheral pixels on the closed loop image must be in a non-adjacent positional relationship. From these facts, in order for the pixel of interest E to be a pixel on a closed-loop image, when the pixel of interest E is in state 1, at least two neighboring pixels that are not adjacent to each other must be in state 1. There are 16 cases that meet this condition, and each case is represented by a window W in FIG. 19. In this case, in order to simplify the explanation, it is assumed that if the closed-loop image has a corner, the pixel corresponding to the corner is treated as not a pixel on the closed-loop image.

この後、第19図に示すウインドウW内の基本
パターンが生じないパターンを調べ、数画素程度
の雑音やひげ状の雑音を除去するための雑音除去
条件として設定する。この場合、第一の雑音除去
条件としては、第20図aのウインドウWにおい
て、同bの〜に示すように、注目画素Eが状
態1である場合において、少くともウインドウW
の相隣接する二辺に沿う周辺画素が状態0である
こと、即ち、ウインドウWの上辺I1及び左辺I2
沿う周辺画素A、B、C、D、Gが状態0,ウイ
ンドウWの左辺I2及び下辺I3に沿う周辺画素A、
D、G、H、Iが状態0、ウインドウWの下辺I3
及び右辺I4に沿う周辺画素G、H、I、F、Cが
状態0、ウインドウWの右辺I4及び上辺I1に沿う
周辺画素I、F、C、B、Aが状態0のいずれか
であることが挙げられる。第二の除去条件として
は、第20図c〜に示すように、注目画素が
状態1である場合において、少くともウインドウ
Wの一辺に沿う周辺画素とこれに隣接する周辺画
素とが状態0であり且つ上記ウインドウWの対向
辺中央に位置する周辺画素が状態1であること、
例えば、ウインドウWの上辺I1に沿う周辺画素
A、B、C及びこれに隣接する周辺画素D、Fが
状態0であり且つウインドウWの下辺I3中央に位
置する周辺画素Hが状態1であること等が挙げら
れる。尚、第20図において×印を付した画素は
状態1若しくは状態0のいずれでもよいことを示
している。
Thereafter, a pattern in which the basic pattern does not occur within the window W shown in FIG. 19 is examined and set as a noise removal condition for removing noise of several pixels or whisker-like noise. In this case, the first noise removal condition is that when the pixel E of interest is in state 1 in the window W of FIG.
The surrounding pixels along the two adjacent sides of the window W are in the state 0, that is, the surrounding pixels A, B, C, D, and G along the upper side I1 and the left side I2 of the window W are in the state 0, and the left side of the window W is in the state 0. Peripheral pixels A along I 2 and the lower side I 3 ,
D, G, H, I are in state 0, bottom edge of window W I 3
The surrounding pixels G, H, I, F, and C along the right side I4 are in the state 0, and the surrounding pixels I, F, C, B, and A along the right side I4 and the top side I1 of the window W are in the state 0. One example is that. The second removal condition is as shown in FIG. Yes, and the surrounding pixels located at the center of the opposite side of the window W are in state 1;
For example, peripheral pixels A, B, and C along the upper side I1 of the window W and peripheral pixels D and F adjacent thereto are in state 0, and peripheral pixel H located at the center of the lower side I3 of the window W is in state 1. There are certain things that can be mentioned. Note that the pixels marked with an x in FIG. 20 indicate that they may be in either state 1 or state 0.

従つて、2値画素を移動するウインドウW内の
パターンが上記第一及び第二の雑音除去条件のい
ずれかに合致したとすれば、注目画素Eが状態1
であるとしても、当該注目画素Eは閉ループ画像
の画素ではなく、雑音として検出されることにな
り、これを「0」とすることによりこの雑音は有
効に除去されることになる。例えば、第3図に示
すように、4画素以下の画素がかたまつた雑音
N2が存在する場合には、第一の雑音除去条件で
取除かれ、閉ループ画像から延びるひげ状の雑音
N1が存在する場合には、第二の雑音除去条件で
取除かれることになる。
Therefore, if the pattern within the window W in which binary pixels are moved matches either of the first and second noise removal conditions described above, the pixel E of interest is in state 1.
Even so, the pixel E of interest is not a pixel of a closed-loop image, but is detected as noise, and by setting this to "0", this noise can be effectively removed. For example, as shown in Figure 3, noise is caused by clusters of 4 or fewer pixels.
If N 2 is present, the whisker-like noise that is removed by the first denoising condition and extends from the closed-loop image
If N 1 exists, it will be removed under the second noise removal condition.

上述したような雑音除去方法を実施するための
回路の一例を以下に示す。
An example of a circuit for implementing the above-described noise removal method is shown below.

この雑音除去部16は、第21図に示す如く、
空間フイルタ・閾値処理部69からの2値画素が
入力されるデータシフト回路70と論理演算回路
71ら構成されている。
As shown in FIG. 21, this noise removal section 16
It is comprised of a data shift circuit 70 to which binary pixels from the spatial filter/threshold processing section 69 are input, and a logic operation circuit 71.

第1空間フイルタ演算部12、第2空間フイル
タ演算部13、極点抽出部14、閾値処理部15
等よりなる空間フイルタ・閾値処理部69の出力
は、第22図に示す如くレジスタR1′〜R9′、N−
3ビツト長のシフトレジスタ72,73より構成
されるデータシフト回路70に入力され、これに
より各レジスタR1′〜R9′に画素A〜Iが出力さ
れ、論理演算回路71に入力される。
First spatial filter calculation unit 12, second spatial filter calculation unit 13, pole extraction unit 14, threshold processing unit 15
The output of the spatial filter/ threshold processing unit 69 consisting of
The data is input to a data shift circuit 70 composed of 3-bit shift registers 72 and 73, and thereby pixels A to I are output to each register R 1 ' to R 9 ', and input to a logic operation circuit 71.

ここで論理演算回路71は、第23図の如く構
成され、第20図b,cの第一の雑音除去条件若
しくは第二の雑音除去条件を満足したときに注目
画素Eのレベルを状態0として出力し、それ以外
のときには注目画素Eのレベルを状態1のまま出
力するものであり、論理演算回路71からは雑音
を除去した2値画素データが順次得られることに
なる。そして、上記論理演算回路71は、具体的
には、以下の論理式(a)乃至(d)を満足するように構
成されている。
Here, the logic operation circuit 71 is configured as shown in FIG. 23, and sets the level of the target pixel E to the state 0 when the first noise removal condition or the second noise removal condition shown in FIGS. 20b and 20c is satisfied. At other times, the level of the pixel E of interest is output as it is in state 1, and the logical operation circuit 71 sequentially obtains binary pixel data from which noise has been removed. Specifically, the logical operation circuit 71 is configured to satisfy the following logical expressions (a) to (d).

E^1={(A∪B∪C∪D∪G)∩(A∪D∪G∪H∪
I)∩(G∪H∪I∪F∪C)∩(A∪B∪C∪F
∪I)}∩E ={(A∪B∪C∪A∪D∪G)∩(A∪D∪G∪G
∪H∪I)∩(G∪H∪I∪C∪F∪I) ∩(A∪B∪C∪C∪F∪I)}∩E ={(X1∪X2)∩(X2∪X3)∩(X3∪X4)∩(X4∪X1
)}∩E……(a) E^2=〔{(A∪B∪C∪D∪F)∪H−}∩{(A∪
D∪G∪B∪H)∩F−}∩{(D∪F∪G∪H∪I)

B−} ∩{(C∪F∪I∪B∪H)∪D−}〕∩E =〔{(X1∪D∪F)∪H−}∩{(X2∪B∪H)∪
F−}∩{(X3∪D∪F)∪B−}∩{(X4∪B∪H)

D−}〕∩E ……(b) E^=E^1∩E^2 ……(c) =X1A∪B∪C,X2=A∪D∪G,X3=G∪H∪I,X
4=C∪F∪I……(d) (a)乃至(d)式においてA乃至Iは画素A乃至Iの
データを示し、B−、D−、F−、H−は画素B,D,
F,Hの反転データを示し、E∧1及びE∧2は夫々第
一の雑音除去条件及び第二の雑音除去条件を満足
するか否かを示す指標値、E∧は注目レベルEが雑
音であるか否かを示す指標値である。
E^ 1 = {(A∪B∪C∪D∪G)∩(A∪D∪G∪H∪
I)∩(G∪H∪I∪F∪C)∩(A∪B∪C∪F
∪I)}∩E = {(A∪B∪C∪A∪D∪G)∩(A∪D∪G∪G
∪H∪I)∩(G∪H∪I∪C∪F∪I) ∩(A∪B∪C∪C∪F∪I)}∩E = {(X 1 ∪X 2 )∩(X 2 ∪ X 3 )∩(X 3 ∪X 4 )∩(X 4 ∪X 1
)}∩E……(a) E^ 2 = [{(A∪B∪C∪D∪F)∪H−}∩{(A∪
D∪G∪B∪H)∩F−}∩{(D∪F∪G∪H∪I)

B-} ∩{(C∪F∪I∪B∪H)∪D-}]∩E = [{(X 1 ∪D∪F)∪H-}∩{(X 2 ∪B∪H)∪
F−}∩{(X 3 ∪D∪F)∪B−}∩{(X 4 ∪B∪H)

D−}〕∩E ……(b) E^=E^ 1 ∩E^ 2 ……(c) =X 1 A∪B∪C, X 2 = A∪D∪G, X 3 = G∪H ∪I,X
4 =C∪F∪I...(d) In equations (a) to (d), A to I represent data of pixels A to I, and B-, D-, F-, and H- represent pixels B and D. ,
Indicates the inverted data of F and H, E∧ 1 and E∧ 2 are index values indicating whether the first noise removal condition and the second noise removal condition are satisfied, respectively, and E∧ is whether the attention level E is noise. This is an index value indicating whether or not.

この論理式を満足する論理演算回路71の具体
的構成を第23図に示す。第23図において、
OR−1′乃至OR−14′はオア回路、AN−1′
乃至AN−3′はアンド回路、NT−1′乃至NT
−4′はノツト回路である。
A specific configuration of the logical operation circuit 71 that satisfies this logical formula is shown in FIG. In Figure 23,
OR-1' to OR-14' are OR circuits, AN-1'
AN-3' to AN-3' are AND circuits, NT-1' to NT
-4' is a knot circuit.

例えば注目画素Eと他の画素が、第20図b
に示す条件の場合には、OR−1′,OR−2′か
らそれぞれ「0」が出力されるので、OR−7′
も「0」を出力し、この結果AN−1′,AN−
3′が「0」を出力し、それ故注目画素Eは「0」
となつて出力される。
For example, if the pixel of interest E and other pixels are
In the case of the condition shown in , "0" is output from OR-1' and OR-2', so OR-7'
also outputs “0”, resulting in AN−1′, AN−
3' outputs "0", therefore the pixel of interest E is "0"
is output as follows.

また第20図Cに示す条件の場合には、OR
−1′,OR−5′がそれぞれ「0」を出力し、ノ
ツト回路NT−1′も「0」を出力するのでオア
回路OR−11′が「0」を出力する。この結果
AN−2′,AN−3′が「0」を出力するので、
注目画素Eは「0」となつて出力されることにな
る。このような制御は、上記他の回路と同様に、
第4図の走査信号発生部20より出力される水平
同期信号に同期して順次行われることになる。
In addition, in the case of the conditions shown in Figure 20C, OR
-1' and OR-5' each output "0", and the NOT circuit NT-1' also outputs "0", so the OR circuit OR-11' outputs "0". As a result
Since AN-2′ and AN-3′ output “0”,
The pixel of interest E will be output as "0". Such control, like the other circuits above,
This is performed sequentially in synchronization with the horizontal synchronizing signal output from the scanning signal generator 20 shown in FIG.

このようにして論理演算回路71により、第2
0図b,cに示す条件、すなわちウインドウWの
上辺と右辺、右辺と下辺、下辺と左辺あるいは左
辺と上辺に画素が存在しない場合(雑音除去条件
1)、また上辺と左右に画素がなく下にある、左
辺と上下に画素がなくて右になる、下辺と左右に
画素がなくて上にある、あるいは右辺と上下に画
素がなくて左にある場合(雑音除去条件2)に注
目画素を雑音とみなしてこれを除去することがで
きる。このようにして雑音の除去された対象の輪
郭像を画像メモリ19に記憶することができる。
In this way, the logic operation circuit 71 performs the second
The conditions shown in Figure 0 b and c, that is, when there are no pixels on the top and right sides of the window W, on the right and bottom sides, on the bottom and left sides, or on the left and top sides (noise removal condition 1); , there are no pixels on the left side and above and below and it is on the right, there are no pixels on the bottom and left and right and there are pixels on the top, or there are no pixels on the right side and above and below and it is on the left (noise removal condition 2). This can be considered as noise and removed. In this way, the contour image of the object from which noise has been removed can be stored in the image memory 19.

切換スイツチ部17は第1空間フイルタ演算部
12及び第2空間フイルタ演算部13を直列接続
または並列接続するものであり、例えばオペレー
タがパネルからこれを主動的に切換てもよく、自
動的に切換制御するようにしてもよい。第4図の
状態では直列接続状態の場合を示している。
The changeover switch section 17 connects the first spatial filter calculation section 12 and the second spatial filter calculation section 13 in series or in parallel.For example, the operator may actively switch this from the panel, or the switch may be switched automatically. It may also be controlled. The state in FIG. 4 shows a case of series connection.

第1空間フイルタ演算部12と第2空間フイル
タ演算部13とをシリーズに接続すれば、例えば
内部バスを経由してCPU21から荷重係数テー
ブル22に格納されている、第13図に示す荷重
係数のうち、例えば第1空間フイルタ演算部12
に平滑化フイルタ用の荷重係数を送出し、第2空
間フイルタ演算部13に2次微分フイルタ用の荷
重係数を送出してラプラシアン演算 H=∂2h(x,y)/Δx2+∂2h(x,y)/
Δy2 を行えば、対象の輪郭を浮き上がつてみえるよう
な処理を行うことができる。
If the first spatial filter calculation unit 12 and the second spatial filter calculation unit 13 are connected in series, for example, the load coefficients shown in FIG. Among them, for example, the first spatial filter calculation unit 12
The loading coefficient for the smoothing filter is sent to the second spatial filter calculation unit 13, and the loading coefficient for the second-order differential filter is sent to the second spatial filter calculation unit 13 to perform Laplacian calculation H=∂ 2 h(x,y)/Δx 2 +∂ 2 h(x,y)/
By performing Δy 2 , it is possible to perform processing that makes the outline of the object appear raised.

また第1空間フイルタ演算部12と第2空間フ
イルタ演算部13を並列的に絶対値演算部18に
接続し、例えば第1空間フイルタ演算部12に第
13図の荷重係数(B−1)を、第2空間フイル
タ演算部13に荷重係数(B−2)を送出すれ
ば、グラジエント演算 H=|∂h(x,y)/∂x|+|∂h(x,y)
/∂y| を行うことができ、方向性のある直線を抽出した
いようなときに有効である。例えば斜方向の線の
抽出等がよくできる。
In addition, the first spatial filter calculating section 12 and the second spatial filter calculating section 13 are connected in parallel to the absolute value calculating section 18, and, for example, the loading coefficient (B-1) in FIG. 13 is applied to the first spatial filter calculating section 12. , by sending the weighting coefficient (B-2) to the second spatial filter calculation unit 13, gradient calculation H=|∂h(x,y)/∂x|+|∂h(x,y)
/∂y|, which is effective when you want to extract a directional straight line. For example, you can easily extract diagonal lines.

なお本発明により、第2図における途切れ部分
N0の発生を抑制できるのは次の理由による。
In addition, according to the present invention, the interrupted portion in FIG.
The reason why the generation of N 0 can be suppressed is as follows.

すなわち、第2図に示す如く、3つ以上の領域
が1点で交叉しているとき、交叉画素レベルより
高いレベルが周囲画素に現われることがある。例
えば第24図において、画素DまたはHがEより
高いレベルになる可能性がある。この場合、画素
Eは画素A,Iよりはレベルが高い筈であり(す
なわち画素A,Iは内部画素であるから)、斜め
方向に極点抽出を行うことによりこのような場合
をカバーできる。
That is, as shown in FIG. 2, when three or more areas intersect at one point, a level higher than the intersecting pixel level may appear in surrounding pixels. For example, in FIG. 24, pixels D or H may be at a higher level than E. In this case, pixel E should have a higher level than pixels A and I (that is, pixels A and I are internal pixels), and such a case can be covered by performing polar point extraction in the diagonal direction.

例えば第25図に示す如き、原画像データがあ
るとき、これをラブラシアン変換処理して第26
図に示す如きデータを得る。これを従来の水平、
垂直方向でのみ極点抽出すれば丸印の部分が抽出
される。このとき、第26図のウインドウW内の
51は本来極点であるのにその水平方向の比較で
は極点として抽出できないが、本発明のように斜
め方向に極点抽出処理すれば、(8),(51),(−58)
の比較により極点としてこれを抽出できるので、
3領域が交叉しているところでも途切れ部分を生
ずることなく、極点を正しく抽出できることにな
る。
For example, when there is original image data as shown in FIG.
Obtain data as shown in the figure. This is compared to the conventional horizontal
If the poles are extracted only in the vertical direction, the circled portions will be extracted. At this time, although 51 in the window W in FIG. 26 is originally a pole, it cannot be extracted as a pole when compared in the horizontal direction, but if the pole is extracted diagonally as in the present invention, (8), ( 51), (-58)
This can be extracted as an extreme point by comparing
Even where the three regions intersect, the extreme points can be extracted correctly without creating any discontinuities.

本発明の画像処理装置では、データシフト回路
のデータシフトを、TVカメラの水平走査信号と
同期させることによつて、1フレーム分の濃淡画
像処理を、例えば16.7msで完了することができ
る。また雑音除去部の後にアドレス生成部を設け
ることによつてその画素が、水平、垂直、45°対
角および135°対角方向の極点で、あるスライスレ
ベル以上でかつ雑音除去条件1、2を満足しない
場合のみそのアドレス情報を計画機側に転送すれ
ば必要とする輪郭部分のみメモリに格納すること
ができ、メモリの飛躍的な節約が可能となる。
In the image processing device of the present invention, by synchronizing the data shift of the data shift circuit with the horizontal scanning signal of the TV camera, grayscale image processing for one frame can be completed in, for example, 16.7 ms. In addition, by providing an address generation section after the noise removal section, the pixel can be set at a certain slice level or higher at the horizontal, vertical, 45° diagonal, and 135° diagonal directions and satisfy noise removal conditions 1 and 2. If the address information is transferred to the planning machine only when the information is not satisfied, only the necessary contour portion can be stored in the memory, and the memory can be dramatically saved.

なお上記の説明ではフイルタを3×3の空間フ
イルタを用いた場合について述べたが、フイルタ
の大きさを5×5、7×7等と大きくすることに
よりきめ細かい処理を行うことが可能となる。
In the above description, a case has been described in which a 3×3 spatial filter is used, but by increasing the size of the filter to 5×5, 7×7, etc., detailed processing can be performed.

またこの画像処理装置を、1チツプのVLSIに
することにより、物体の分類、選別、製品の検査
等の視覚認識を必要とする分野で、マイコンレベ
ルの計算機による2次元図形の認識ができるよう
になる。
In addition, by making this image processing device a one-chip VLSI, it will be possible to recognize two-dimensional shapes using a microcomputer-level computer in fields that require visual recognition, such as object classification, sorting, and product inspection. Become.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、物体の輪郭を、TVカメラの
水平走査信号に同期して、リアルタイムで高速に
抽出することができるのみならず、斜め方向に極
点抽出を行うことができ、とぎれがない輪郭線を
抽出することが可能となる。しかもヒゲ状ノイズ
や孤立ノイズ等も除去することができる。そして
2つの空間フイルタ演算部を直列あるいは並列に
選択的に接続できるので、直列に接続すれば対象
の輪郭を浮き上がつてみえるような処理を行うこ
とができ、並列に接続すれば方向性のある直線の
抽出、例えば斜め方向の線の抽出などが可能とな
り、その使用目的に適した処理を行うことが可能
となる。
According to the present invention, the contour of an object can not only be extracted in real time and at high speed in synchronization with the horizontal scanning signal of a TV camera, but also can extract polar points in diagonal directions, resulting in an uninterrupted contour. It becomes possible to extract lines. Furthermore, it is possible to remove whisker-like noise, isolated noise, and the like. In addition, the two spatial filter calculation units can be selectively connected in series or in parallel, so if they are connected in series, it is possible to perform processing that makes the outline of the object appear to be highlighted, and if they are connected in parallel, it is possible to perform processing that makes the outline of the object appear raised. It becomes possible to extract a certain straight line, for example, a diagonal line, and perform processing appropriate for the purpose of use.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は従来の画像処理装置の概略図、第2
図、第3図はその問題点説明図、第4図は本発明
の一実施例構成図、第5図は物体及びその輪郭抽
出状態説明図、第6図はスライスレベルを変えた
ときの出力説明図、第7図は空間フイルタの原理
的説明図、第8図は空間フイルタ演算部説明図、
第9図はデータシフト回路説明図、第10図は乗
算回路説明図、第11図は加算回路説明図、第1
2図は割算回路説明図、第13図は空間フイルタ
の用途とその荷重係数説明図、第14図は極点抽
出部の基本動作説明図、第15図は極点抽出部の
構成図、第16図はデータシフト回路、第17図
はデータ比較回路、第18図は閾値処理部、第1
9図は輪郭部データ説明図、第20図は雑音除去
条件説明図、第21図は雑音除去部、第22図は
データシフト回路、第23図は論理演算回路、第
24図、第25図、第26図は途切れ部分説明図
である。 図中、10はTVカメラ、11はA/Dコンバ
ータ、12は第1空間フイルタ演算部、13は第
2空間フイルタ演算部、14は極点抽出部、15
は閾値処理部、16は雑音除去部、17は切換ス
イツチ部、18は絶対値演算部、19は画像メモ
リ、20は走査信号発生部、21はCPU、22
は荷重係数保持部、30はデータシフト回路、3
1は乗算回路、32は加算回路、33は割算回路
である。
Figure 1 is a schematic diagram of a conventional image processing device; Figure 2 is a schematic diagram of a conventional image processing device;
Fig. 3 is a diagram explaining the problem, Fig. 4 is a configuration diagram of an embodiment of the present invention, Fig. 5 is an illustration of an object and its contour extraction state, and Fig. 6 is an output when changing the slice level. An explanatory diagram, Fig. 7 is an explanatory diagram of the principle of the spatial filter, and Fig. 8 is an explanatory diagram of the spatial filter calculation section.
Fig. 9 is an explanatory diagram of the data shift circuit, Fig. 10 is an explanatory diagram of the multiplication circuit, Fig. 11 is an explanatory diagram of the addition circuit, and
Figure 2 is a diagram explaining the division circuit, Figure 13 is a diagram explaining the use of the spatial filter and its load coefficient, Figure 14 is a diagram explaining the basic operation of the pole extractor, Figure 15 is a configuration diagram of the pole extractor, and Figure 16 is a diagram explaining the basic operation of the pole extractor. The figure shows the data shift circuit, Fig. 17 shows the data comparison circuit, Fig. 18 shows the threshold processing section, and the first
9 is an explanatory diagram of contour data, FIG. 20 is an explanatory diagram of noise removal conditions, FIG. 21 is a noise removal section, FIG. 22 is a data shift circuit, FIG. 23 is a logic operation circuit, and FIGS. 24 and 25. , FIG. 26 is an explanatory diagram of the interrupted portion. In the figure, 10 is a TV camera, 11 is an A/D converter, 12 is a first spatial filter calculation section, 13 is a second spatial filter calculation section, 14 is a pole extraction section, 15
16 is a threshold processing section, 16 is a noise removal section, 17 is a changeover switch section, 18 is an absolute value calculation section, 19 is an image memory, 20 is a scanning signal generation section, 21 is a CPU, 22
3 is a load coefficient holding unit, 30 is a data shift circuit, 3
1 is a multiplication circuit, 32 is an addition circuit, and 33 is a division circuit.

Claims (1)

【特許請求の範囲】 1 濃淡画像を画素単位で処理してその輪郭を抽
出するために、一定長のデータを保持格納するデ
ータシフト回路と、保持されたデータと予め設定
されている荷重係数との掛け算を行う乗算回路
と、その結果をたし合わせる加算回路および乗
算・加算によつて増加したレベルを適当な範囲に
収まるようにする割算回路を具備する空間フイル
タ演算部と、水平および垂直方向の極点を抽出す
る極点抽出部を有する画像処理装置において、 隣り合う画素の濃淡レベルの比較により水平お
よび垂直方向の極点抽出とともに斜め方向の極点
をも抽出する極点抽出部と、背景ノイズを除去す
るための閾値処理部と、ひげ状のノイズと数画素
以下の孤立ノイズを除去する雑音除去部を備え、
また、上記空間フイルタ演算部として第1の空間
フイルタ演算手段と第2の空間フイルタ演算手段
を設け、これら第1の空間フイルタ演算手段と第
2の空間フイルタ演算手段を直列状態または並列
状態に選択的に接続できるように構成し、TVカ
メラの水平走査信号に同期してリアルタイムで濃
淡画像の輪郭を2値画像として抽出するようにし
たことを特徴とする。
[Claims] 1. In order to process a grayscale image pixel by pixel and extract its outline, a data shift circuit that holds and stores a certain length of data, and a weight coefficient that is set in advance with the held data is provided. A spatial filter calculation unit includes a multiplication circuit that performs multiplication of In an image processing device that has a polar point extraction section that extracts polar points in a direction, the polar point extraction section extracts horizontal and vertical polar points as well as diagonal polar points by comparing the gray levels of adjacent pixels, and a polar point extraction section that removes background noise. Equipped with a threshold processing unit to remove whisker-like noise and isolated noise of several pixels or less,
Further, a first spatial filter calculating means and a second spatial filter calculating means are provided as the spatial filter calculating section, and the first spatial filter calculating means and the second spatial filter calculating means are selected to be in a series state or a parallel state. The present invention is characterized in that it is configured so that it can be connected to a TV camera, and extracts the outline of a grayscale image as a binary image in real time in synchronization with the horizontal scanning signal of a TV camera.
JP58091309A 1983-05-24 1983-05-24 Picture processing device Granted JPS59216283A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP58091309A JPS59216283A (en) 1983-05-24 1983-05-24 Picture processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP58091309A JPS59216283A (en) 1983-05-24 1983-05-24 Picture processing device

Publications (2)

Publication Number Publication Date
JPS59216283A JPS59216283A (en) 1984-12-06
JPH0534712B2 true JPH0534712B2 (en) 1993-05-24

Family

ID=14022865

Family Applications (1)

Application Number Title Priority Date Filing Date
JP58091309A Granted JPS59216283A (en) 1983-05-24 1983-05-24 Picture processing device

Country Status (1)

Country Link
JP (1) JPS59216283A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4874749A (en) * 1971-12-24 1973-10-08
JPS51141536A (en) * 1975-05-31 1976-12-06 Toshiba Corp Image-paralleling calculation processing device
JPS57111786A (en) * 1980-12-29 1982-07-12 Fujitsu Ltd Profile coordinate pickup system for figure

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4874749A (en) * 1971-12-24 1973-10-08
JPS51141536A (en) * 1975-05-31 1976-12-06 Toshiba Corp Image-paralleling calculation processing device
JPS57111786A (en) * 1980-12-29 1982-07-12 Fujitsu Ltd Profile coordinate pickup system for figure

Also Published As

Publication number Publication date
JPS59216283A (en) 1984-12-06

Similar Documents

Publication Publication Date Title
CN1973304B (en) Method of and scaling unit for scaling a three-dimensional model
CN100568281C (en) Create depth map
JPH06245113A (en) Equipment for improving picture still more by removing noise and other artifact
CN110097522B (en) Single outdoor image defogging method based on multi-scale convolution neural network
WO2007041429B1 (en) Method and system for generating display data
CN109214996A (en) A kind of image processing method and device
US4641356A (en) Apparatus and method for implementing dilation and erosion transformations in grayscale image processing
DE602004012341T2 (en) Method and system for providing a volume rendering of a three-dimensional object
EP0069542B1 (en) Data processing arrangement
CN109118434A (en) A kind of image pre-processing method
Poon et al. A robust vision system for vehicle licence plate recognition using grey-scale morphology
CN115326809A (en) Apparent crack detection method and detection device for tunnel lining
Pham et al. Low-light image enhancement for autonomous driving systems using DriveRetinex-Net
Soni et al. Removal of high density salt and pepper noise removal by modified median filter
JPH0222421B2 (en)
CN111563517A (en) Image processing method, image processing device, electronic equipment and storage medium
CN103595933A (en) Method for image noise reduction
JPH0534712B2 (en)
Shao et al. An adaptive image contrast enhancement algorithm based on retinex
CN112767548B (en) Three-dimensional threshold value stereo graph unfolding method
JP5169926B2 (en) Image processing device
CN111985535A (en) Method and device for optimizing human body depth map through neural network
Yue et al. Deep joint noise estimation and removal for high ISO JPEG images
Lee et al. Efficient algorithm and architecture for post-processor in HDTV
CN117557784B (en) Target detection method, target detection device, electronic equipment and storage medium