JPS59216283A - Picture processing device - Google Patents

Picture processing device

Info

Publication number
JPS59216283A
JPS59216283A JP58091309A JP9130983A JPS59216283A JP S59216283 A JPS59216283 A JP S59216283A JP 58091309 A JP58091309 A JP 58091309A JP 9130983 A JP9130983 A JP 9130983A JP S59216283 A JPS59216283 A JP S59216283A
Authority
JP
Japan
Prior art keywords
image
spatial filter
data
noise
circuit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP58091309A
Other languages
Japanese (ja)
Other versions
JPH0534712B2 (en
Inventor
Tsuguto Maruyama
次人 丸山
Takashi Uchiyama
隆 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP58091309A priority Critical patent/JPS59216283A/en
Publication of JPS59216283A publication Critical patent/JPS59216283A/en
Publication of JPH0534712B2 publication Critical patent/JPH0534712B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Picture Signal Circuits (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE:To improve a signal-to-noise ratio by extracting the outline of a light and shade picture as a binary picture in real time in synchronization with horizontal scanning signals of a TV camera. CONSTITUTION:A pole extracting section 14 that extracts the pole of oblique direction, a threshold value processing section 15 that removes background noises and a noise removing section 16 that removes whiskerlike noises and isolated noises other than several picture elements are provided. By selecting load coefficients of the first space filter arithmetic section 12 and second space filter arithmetic section 13 properly, random noises on the picture can be reduced and sudden change of brightness can be emphasized. The load coefficient is taken out from a load coefficient table 22 by a CPU21. By extracting the outline of light and shade picture as a binary picture in real time in synchronization with horizontal scanning signals of a TV camera, generation of interrupted part is prevented, background noises are eliminated and whiskerlike and isolated noises are removed.

Description

【発明の詳細な説明】 〔発明の技術分町〕 本発明は1画像処理装置に係り9%に濃淡画像に対して
平滑化、グラジェント演算や2グ2シアン演算、極点抽
出、閾値処理及び雑音除去処理等を行って、対象の輪郭
線を2値画像として抽出する一連の処理をTVカメラの
水平走査信号に同期してリアルタイムで高速に実行ヂる
画像処理装置に関するものである。
[Detailed Description of the Invention] [Technical details of the invention] The present invention pertains to one image processing device that can perform smoothing, gradient calculation, 2-g, 2-cyan calculation, extreme point extraction, threshold processing, and The present invention relates to an image processing apparatus that executes a series of processes for extracting the outline of an object as a binary image by performing noise removal processing and the like at high speed in real time in synchronization with the horizontal scanning signal of a TV camera.

〔技術の背景〕[Technology background]

最近各方面に工業用ロボットが使用されているが1例え
は機械組立用ロボットの場合には、ロボットが螺子締め
等の1動作が終るまでの短かい間に2次の工程のために
ある物体が何であるか認識しておかないと動作が連続し
ない。そのためにロボットの目としてTV右カメラら入
力された多イ直レベルの画像信号を高速処理してその物
体が何であるかを高速に認識処理する必要がある。その
ために高速で明るさの急変している部分を抽出し。
Recently, industrial robots have been used in various fields. For example, in the case of mechanical assembly robots, robots can move objects for a second process in a short period of time until the end of one operation, such as tightening a screw. If you don't recognize what it is, you won't be able to continue the action. For this purpose, it is necessary for the robot's eyes to process the multi-level image signals input from the TV right camera at high speed to quickly recognize what the object is. To do this, we extract parts where the brightness changes suddenly at high speed.

物体の輪郭をとらえることが必要となる。It is necessary to capture the outline of an object.

〔従来技術と問題点〕[Prior art and problems]

一般KTVカメラ等を使って得られる画像データは、一
画面が例えば256X 256 (あるいは128 X
 12B )画素の2次元の、8ビツトの濃淡レベルで
あるため、その情報量が非常に膨大なものY−する。そ
のために従来、このような画像データを取り扱かおうと
する場合は、一度TVカメラからの画像信号を1フレ一
ム分画像メモリに記憶し、そのデータを大型計算機に転
送して処理するか、あるいはTV右カメラらの映像信号
を何らかの方法でスライスレベルをきめて2値化してデ
ータを圧縮し、メモリに記憶し、そのデータに対して論
理演算処理を行う等の手法が取られてきた。
For image data obtained using a general KTV camera, one screen is, for example, 256 x 256 (or 128
12B) Since it is a two-dimensional 8-bit gray level of pixels, the amount of information is extremely large. Conventionally, when trying to handle such image data, the image signals from the TV camera are stored in an image memory for one frame, and then the data is transferred to a large computer for processing. Alternatively, techniques have been used in which the slice level of the video signal from the TV right camera is determined by some method, the data is binarized, the data is compressed, the data is stored in a memory, and the data is subjected to logical operation processing.

それ故、前者では高度の画像処理を行うことができる反
面、高速処理を実現するには大容量のメモリと高速の大
型計算機が必要となりコスト高となる欠点を有しており
、また後者では2値化にするための適切なスライスレベ
ルの決定が難かしくしかも多値レベル情報を2値レベル
情報に省略したので情報量としては欠如しているものと
なるため、これを処理しても高度な処理ができない7例
えば濃淡変化の複雑な画像の処理ができないという欠点
を有している。
Therefore, while the former can perform advanced image processing, it has the disadvantage of requiring large memory and high-speed large-scale computers to achieve high-speed processing, resulting in high costs. It is difficult to determine the appropriate slice level for digitization, and since multilevel information is omitted to binary level information, the amount of information is missing, so even if this is processed, it is difficult to Inability to process 7 For example, it has the disadvantage of not being able to process images with complex changes in shading.

また最近、汎用画像処理装置として各画素あるいは複数
画素単位に1つの基本演算モジュールを配置し並列演算
することにより画像処理の高速化を計っているものがみ
られるが、1フ・レーム分の画像を処理するために、数
多くの基本演算モジュールを配置しなければならないの
で、処理装置自体が大型化し、コスト高となり、しかも
アドレス制御が複雑になるという欠点をもっている。
Recently, some general-purpose image processing devices are designed to speed up image processing by arranging one basic calculation module for each pixel or multiple pixels and performing parallel calculations. Since a large number of basic arithmetic modules must be arranged in order to process , the processing device itself becomes large and costly, and address control becomes complicated.

それ故、このような欠点を改善するために、濃淡画像か
ら対象の輪郭線画を抽出する装置として。
Therefore, in order to improve such drawbacks, the present invention provides a device for extracting a contour line drawing of an object from a grayscale image.

第1図に示す如く2輪郭抽出すべき対象の物体を例えば
TVカメ51で撮影し、この撮影画像をADコンバータ
2で多値レベルのディジタル濃淡画像に変換した後、こ
のディジタル濃淡画像を2値画像抽出回路3で物体の輪
郭を表わした2値画像に変換するものを、出願人は%願
昭57−104742号として出願している。
As shown in FIG. 1, an object whose two contours are to be extracted is photographed using, for example, a TV camera 51, and this photographed image is converted into a multilevel digital grayscale image using an AD converter 2, and then this digital grayscale image is converted into a binary grayscale image. The applicant has filed application No. 57-104742 for converting the image extraction circuit 3 into a binary image representing the outline of an object.

この場合、2値画像抽出回路3としては1乗算・加算・
割算回路からなる空間フィルタ演算部を使用し、この空
間フィルタ演算部の荷重係数を適当に選ぶことにより雑
音の低減と画像の強調を行い。
In this case, the binary image extraction circuit 3 performs 1 multiplication, addition,
A spatial filter calculation section consisting of a division circuit is used, and noise reduction and image enhancement are performed by appropriately selecting the weighting coefficients of this spatial filter calculation section.

そのデータに対し水平及び垂直方向の極点抽出によって
対象の輪郭線を2値画像として抽出するものである。
The outline of the object is extracted as a binary image by extracting the horizontal and vertical poles from the data.

この方法は対象が単一物体で、背景が一様の濃淡レベル
を有し、対象と背景とに高いコントラストがある場合に
杜大変有効である。
This method is very effective when the target is a single object, the background has a uniform gray level, and there is a high contrast between the target and the background.

しかし通常の画像データ取り込み系では対象物体の表面
状態9色、形状、照明条件、レンズの明るさ、絞り等の
要因で、濃淡レベルにむらが生じたり、対象と背景とに
高いコントラストが得られなかったりする。そのような
場合、背景にくさび形の紋様が現われS/N比が低下す
る。この背景ノイズを消去するために、まず閾値処理が
必要となる。また対象が重なっていて、5つ以上の領域
が交わっている場合には、平滑化処理子ラプラシアン処
理後のデータから水平および垂直方向の極点を抽出する
だけでは、第2図のように、交点でNoとして示す如く
途切れ部分が生ずる(理由後述)。
However, with normal image data capture systems, the surface condition of the target object (9 colors, shape, lighting conditions, lens brightness, aperture, etc.) can cause uneven shading levels and make it difficult to obtain high contrast between the target and the background. There may be none. In such a case, a wedge-shaped pattern appears in the background and the S/N ratio decreases. In order to eliminate this background noise, threshold processing is first required. In addition, if the objects overlap and five or more regions intersect, it is not possible to simply extract the horizontal and vertical poles from the data after the smoothing processor Laplacian processing. An interrupted portion occurs as shown by No (the reason will be explained later).

さらに第6図に示す如く2輪郭線から分岐したひげ状ノ
イズNlや、外的要因による数画素以下の孤立ノイズN
!等は除去できずに残ってしまう。
Furthermore, as shown in Fig. 6, whisker-like noise Nl branched from two contour lines and isolated noise Nl of several pixels or less due to external factors.
! etc., cannot be removed and remains.

〔発明の目的〕[Purpose of the invention]

本発明の目的は、上記の如き問題を改善するために、空
間フィルタや1” F ’I’適用後の濃淡画像データ
に対して水平、垂直方向での極点抽出のみならず45°
及び165°の斜方向の極点抽出処理を行うことにより
原画上の明るさの急変部を抽出して途切れ部分の発生を
解消し、閾値処理にょシ背景ノイズを消し、さらに2値
画像に対する雑音除去処理によるひげ状ノイズと孤立ノ
イズの除去を行なって、対象の輪郭線のみを一連のつな
がりとして抽出し、S/N比の良い画像を得ることので
きる画像処理装置を提供することにある。
An object of the present invention is to solve the above-mentioned problems by not only extracting extreme points in the horizontal and vertical directions, but also extracting polar points at 45°
Then, by performing polar point extraction processing in the diagonal direction of 165°, sudden changes in brightness on the original image are extracted, the occurrence of discontinuous parts is eliminated, background noise is eliminated by threshold processing, and noise is removed from the binary image. An object of the present invention is to provide an image processing device that can remove whisker-like noise and isolated noise through processing, extract only the outline of an object as a series of connections, and obtain an image with a good S/N ratio.

〔発明の構成〕[Structure of the invention]

この目的を達成するため2本発明の画像処理装置では、
濃淡画像を画素単位で処理してその輪郭を抽出するため
に、一定長のデータを保持格納するデータシフト回路と
、保持されたデータと予め設定されている荷重係数との
掛は算を行う乗算回路と、その結果をたし合わせる加算
回路および乗算φ加算によって増加したレベルを適尚な
範囲に収まるようにする酌算回路を具備する空間フィル
タ演算部と、水平および垂直方向の極点を抽出する極点
抽出部を有する画像処理装置において、斜め方向の極点
を抽出する極点抽出部と、背景ノイズを除去するための
閾値処理部と、ひけ状のノイズと数画素以下の孤立ノイ
ズを除去する雑音除去部を備え、TVカメラの水平走査
信号に同期してリアルタイムで濃淡画像の輪郭を2値1
iiIl像とじて抽出できるようにしたことを特徴とす
る。
In order to achieve this purpose, the image processing device of the present invention has two steps:
In order to process a grayscale image pixel by pixel and extract its outline, a data shift circuit holds and stores a certain length of data, and a multiplier that multiplies the held data by a preset weight coefficient. a spatial filter operation unit that includes a circuit, an addition circuit that adds the results, a factoring circuit that keeps the level increased by multiplication φ addition within an appropriate range, and extracts horizontal and vertical poles. In an image processing device having a pole point extraction unit, a pole point extraction unit extracts pole points in an oblique direction, a threshold processing unit removes background noise, and a noise removal unit removes sink-like noise and isolated noise of several pixels or less. The contour of the grayscale image is calculated in binary 1 in real time in synchronization with the horizontal scanning signal of the TV camera.
It is characterized by being able to extract the iiiI image as well.

〔発明の要点〕[Key points of the invention]

本発明の要点は、空間フィルタやFFT適用後の濃淡画
像データから局部的に濃淡レベルの高い画素を、対象物
体の輪郭線の候補点として抽出するために、水平方向、
垂直方向、45°対角および135°対角方向における
各極点処理を行い、3つ以上の領域が交っている場合で
も途切れのない輪郭線を抽出するようにしたこと、閾値
処理を行い低レベルの背景ノイズを除去したこと、さら
に2値画像として抽出された輪郭線が少なくても例えば
8連結のつながりで閉ループを構成していると仮定し9
局所ウィンド内の論理演算によってひげ状ノイズや孤立
ノイズを除去すること等の処理により、対象の輪郭線だ
けを原画から抽出するようにしたものである。
The gist of the present invention is to extract pixels with locally high gray levels from gray scale image data after applying a spatial filter or FFT as candidate points for the outline of a target object.
Pole processing is performed in the vertical direction, 45° diagonal direction, and 135° diagonal direction to extract an uninterrupted contour line even when three or more areas intersect, and threshold processing is performed to reduce the It is assumed that the level background noise has been removed, and that even if the number of contour lines extracted as a binary image is small, it constitutes a closed loop with, for example, 8 connections.9
Only the outline of the object is extracted from the original image by processing such as removing whisker-like noise and isolated noise through logical operations within the local window.

〔発明の実施例〕[Embodiments of the invention]

本発明の一実施例を第4図以下の添付図面によシ説明す
る。
An embodiment of the present invention will be explained with reference to the accompanying drawings starting from FIG.

第4図は本発明の画像処理装置の簡単な構成図を示した
ものである。
FIG. 4 shows a simple configuration diagram of the image processing apparatus of the present invention.

その基本構成は、第1空間フィルタ演算部12゜第2空
間フィルタ演算部16.極点抽出部14゜閾値処理部1
5.雑音除去部16であり、第1空間フィルタ演算部1
2と第2空間フィルタ演算部16は切換スイッチ部17
により直列または並列に接続され、並列接続状態の場合
には絶対値演算部18が挿入される。
Its basic configuration is: first spatial filter calculation section 12, second spatial filter calculation section 16. Pole point extraction section 14゜Threshold processing section 1
5. A noise removal unit 16, which is a first spatial filter calculation unit 1
2 and the second spatial filter calculation section 16 are the changeover switch section 17.
are connected in series or in parallel, and in the case of parallel connection, an absolute value calculation unit 18 is inserted.

いま第5図(a−1)の物体4を上方からみたとき第5
図(a−2)の画像が得られ、これを線X−Yで走介す
れば第5図(a−3)の出力信号が得られる。これを微
分処理すれば第5図(b−3)の出力が祷られる。この
微分出力よりスライスレベルA、B、Cにずれば、第6
図1a’l 、 (bl 、 (clの出力が得られる
が、理想的な第6図1blの輪郭を得るためにスライス
レベルBの選定がむづかしい。したかつて4源((1,
−3)の信号を微分処理して得られた第5図(b−3)
より極点抽出を行えば、特にスライスレベルを設定しな
くとも第6図1blの如き出力を得ることができる。な
お第5図、第6図についてはさらに後で詳述する。
Now, when object 4 in Figure 5 (a-1) is viewed from above,
The image shown in FIG. 5(a-2) is obtained, and by passing the image along the line X-Y, the output signal shown in FIG. 5(a-3) is obtained. If this is differentiated, the output shown in FIG. 5 (b-3) can be obtained. If the differential output shifts to slice levels A, B, and C, the 6th
Although the output of Fig. 1a'l, (bl, (cl) is obtained, it is difficult to select the slice level B to obtain the ideal contour of Fig. 6 1bl.
Figure 5 (b-3) obtained by differential processing of the signal of -3)
If more extreme point extraction is performed, an output like that shown in FIG. 6 1bl can be obtained without particularly setting the slice level. Note that FIGS. 5 and 6 will be described in detail later.

第1空間フィルタ演算部12及び第2空間フィルタ演算
部16は同−構成であり、その詳細社第1空間フィルタ
演算部12により代表的に説明する。
The first spatial filter calculating section 12 and the second spatial filter calculating section 16 have the same configuration, and the details thereof will be representatively explained using the first spatial filter calculating section 12.

空間フィルタ演算部では9次式(1)で与えられる演算
をハード的に行うものである。
The spatial filter calculation unit performs the calculation given by the ninth-order equation (1) in a hardware manner.

ym、n=  Σ Σ Xm+l+n+j・ft、1/
H−・−−1it1−−1 j−−1 ここでXff1+l’l l Ym、nは、第7図に示
す如く、各々画面上m行n列の画素の濃淡レベル値のフ
ィルタリング前後の値を示しr  ’1.1は荷重係数
、Hは正規化係数である。このフィルりはYm、nの値
を、注目画素Xl、1.flとその周囲8画素Xm+I
 toil (i=1 、0 。
ym, n= Σ Σ Xm+l+n+j・ft, 1/
H-・--1it1--1 j--1 Here, Xff1+l'l l Ym,n is the value before and after filtering of the gray level value of the pixel in m rows and n columns on the screen, respectively, as shown in FIG. In the figure, r'1.1 is a weighting coefficient, and H is a normalization coefficient. This filling changes the value of Ym,n to the pixel of interest Xl,1. fl and its surrounding 8 pixels Xm+I
toil (i=1,0.

−1,j=1 、0、−1だだし1−j−0を除く)と
の重み(ft、+)付は演算によって決定するものであ
り。
-1, j=1, 0, -1 (excluding 1-j-0), the weighting (ft, +) is determined by calculation.

第13図に示す如<+’I*+の値の選び方によってフ
ィルタの特性を様々に変えることができる。
As shown in FIG. 13, the characteristics of the filter can be varied in various ways by selecting the value of <+'I**.

したがって荷重係数’tdを第7図(ロ)の如く定め。Therefore, the load coefficient 'td is determined as shown in Figure 7 (b).

正規化係数HをH−16と定めるときHYm+ 11は
次式(2)により求められる。
When the normalization coefficient H is defined as H-16, HYm+11 is obtained by the following equation (2).

Ym、−16(XlTl−1,n−I X 1 +Xm
、n−t X 2 + Xm+1.n−+ X 1+X
In−1,nx 2+Xm、nX 4 +Xrn+1.
nX 2 十Xm−1,n+tX 1+Xm、n+I×
2+Xm+1.n+1×1〕・・・叩・・曲・・・曲・
(2)第4図の状態では第1空間フィルタ演算部12と
第2空間フィルタ演算部13は切換スイッチ部17によ
り直列接続されている。この場合では。
Ym, -16(XlTl-1, n-I X 1 +Xm
, n-t X 2 + Xm+1. n-+X 1+X
In-1, nx 2+Xm, nX 4 +Xrn+1.
nX 2 10Xm-1, n+tX 1+Xm, n+I×
2+Xm+1. n+1×1〕...beat...song...song...
(2) In the state shown in FIG. 4, the first spatial filter calculation section 12 and the second spatial filter calculation section 13 are connected in series by the changeover switch section 17. In this case.

1段目の第1空間フィルタ演算部12を平滑化フィルタ
用に、2段目の第2空間フィルタ演算部13を画像強調
フィルタ(バイパス、ラグラジアン)用に用いることに
よって、リアルタイムで画像雑音の低減と対象の輪郭線
抽出を行うためである。
By using the first spatial filter calculation unit 12 in the first stage for a smoothing filter and the second spatial filter calculation unit 13 in the second stage for an image enhancement filter (bypass, Lagrangian), image noise can be reduced in real time. This is to extract the outline of the object.

さて上記(1)式の演算を実現するハード構成について
説明する。この空間フィルタ演詩部は第8図に示す如く
、データシフト回路30.乗算回路31゜加算回$32
.割算回路36の4つの部分がら構成される。
Now, the hardware configuration for realizing the calculation of the above equation (1) will be explained. As shown in FIG. 8, this spatial filter section includes a data shift circuit 30. Multiplication circuit 31° Addition circuit $32
.. The divider circuit 36 is composed of four parts.

データシフト回路3oは1画面分の画像データに対して
6×3の空間フィルタリング処理を実行するために、第
9図に示す如く、2行+3ii!j素のデータをシフト
レジスタを用いて記憶格納し9次段の乗算回路にXm+
l+n+l(+−−’ +0+1 + J=  ’ +
0.1)の9画素を送出する機能を持っている。
The data shift circuit 3o executes 6×3 spatial filtering processing on image data for one screen, as shown in FIG. 9, as shown in FIG. The j-element data is memorized and stored using a shift register and sent to the 9th stage multiplication circuit as Xm+
l+n+l(+--' +0+1 + J=' +
It has the function of transmitting 9 pixels of 0.1).

第9図において、1行p画素、2q#淡レベルの画面デ
ータの場合について説明する。第8図のA/Dコンバー
タ11により、1画素qビットで表示されたデータを1
段目は3画素分、2段目及び3段目は9画素分のシフト
レジスタを用いて保持する。そして各段の最後の6画素
については9次段の乗算回路へ同時に各画素のデータを
送出できるようにラッチまたはフリラグフロップR1〜
R9を縦続接続するかシリアル・インーノ;ラレル・ア
ウトのシフトレジスタを使用することにより9画素の送
出が実現できる。そして2段目及び3段目は(p−3)
画素分のシフトレジスタ54.55を使用して送出分以
外の画素のデータを保持する。
In FIG. 9, the case of screen data with 1 row of p pixels and 2q# light level will be described. The A/D converter 11 shown in FIG. 8 converts data displayed by 1 pixel and q bits into
The data is held using a shift register for 3 pixels in the first stage, and 9 pixels in the second and third stages. For the last six pixels of each stage, latches or free lag flops R1~
By cascading R9 or using a serial-in/rallel-out shift register, nine pixels can be transmitted. And the second and third rows are (p-3)
Shift registers 54 and 55 for pixels are used to hold data for pixels other than those for transmission.

そしてこのデータシフト回路は、TVカメ210の走査
信号により1画素ずつシフトするものである。
This data shift circuit shifts one pixel at a time in response to a scanning signal from the TV camera 210.

乗算回路31は、第10図に示す如く、データシフト回
路30から送出された9画素の各々に対してあらかじめ
設定した荷重係数f+、1 (1−−1。
As shown in FIG. 10, the multiplication circuit 31 has a weighting coefficient f+,1 (1--1) preset for each of the nine pixels sent from the data shift circuit 30.

0.1 、j=−1,0,1)を乗じて次式(3)を求
める機能を持っている。
0.1, j=-1, 0, 1) to obtain the following equation (3).

Wm+i,n+j=Xm+i,n+j×fi,j  ・
・・・・・・・・・・・・・・・・・・・・(3)(+
=−1+0*1+ j=−1,0,1)そのために、第
10図に示す如く、第1乗算器36〜第9乗算器44の
9個の乗算器を用い、第1乗算器66には荷重係数f−
1,−1が設定されておりデータシフト回路より送出さ
れた画素x、、、−,,n−1との乗算が行なわれる。
Wm+i, n+j=Xm+i, n+j×fi,j ・
・・・・・・・・・・・・・・・・・・・・・(3)(+
=-1+0*1+j=-1,0,1) For this purpose, as shown in FIG. is the load factor f-
1, -1 are set, and multiplication with pixels x, , -, , n-1 sent from the data shift circuit is performed.

そして第2乗り、器37には荷重係数f−1,G  が
設定されておりデータシフト回路より送出された画素X
m−1,nとの乗算が行なわれる。このようにして第1
0図に示す乗算回路により前記(3)式における乗算を
行うことができる。
A weighting coefficient f-1,G is set in the second multiplier 37, and the pixel X sent out from the data shift circuit
Multiplication by m-1,n is performed. In this way the first
The multiplication circuit shown in FIG. 0 can perform the multiplication in equation (3) above.

加算回路32は、前記乗算回路31で演算された9個の
値Wm+I、n+j(1””’  1 +0.1+  
J−1*o*1)から、これらの和である次式(4)を
求める加η機能を有する。
The adder circuit 32 calculates the nine values Wm+I, n+j(1""' 1 +0.1+) calculated by the multiplier circuit 31.
J-1*o*1), it has an addition η function that calculates the following equation (4), which is the sum of these.

(1””’  1+0+1+  J−1to、1)その
ために第11図に示す如く、第1加算器45〜第8加算
器5りを使用している。
(1""' 1+0+1+J-1to, 1) For this purpose, as shown in FIG. 11, first adder 45 to eighth adder 5 are used.

さらに割算回路33は、前記乗算回路61及び加算回路
32における乗算演算、加算演算により増加した濃淡レ
ベルZm、nを、第4図の画像メモリ19及びモニタ用
TVの濃淡レベルの範囲に収まるように、正規化係数H
で割り。
Furthermore, the division circuit 33 adjusts the gray levels Zm and n increased by the multiplication and addition operations in the multiplication circuit 61 and the addition circuit 32 so that they fall within the gray level range of the image memory 19 and the monitor TV shown in FIG. , the normalization coefficient H
Divide by.

を求めるものである。ここで正規化係数Hは、実回路3
3は第12図に示す如く、第1データセレクタ53〜第
8データセレクタ6oにより構成されており、上記(5
)式の演算を行うことにより上記(1)式の最終演算結
果のY。、nが得られるものでらる。
This is what we seek. Here, the normalization coefficient H is the actual circuit 3
3 is composed of a first data selector 53 to an eighth data selector 6o, as shown in FIG.
), Y is the final calculation result of the above equation (1). , n can be obtained.

この第12図は、8ビツトの濃淡画素を前記の如く乗算
演算及び加算演算により16ビツトの濃淡レベルのデー
タ2.、、。になつたものを8ビツトデ一タYm、nに
減らすときの例でちって、第1データセレクタ53には
16ビツトデータZ□、0のうち2〜9ピツトを入力し
、第2データセレクタ54には16ピツトデ一タZm、
nのうち3〜10ビツトを入力し、以下同様に第3デー
タセレクタ55には4〜11ビツトを入力し、第4デー
タセレクタ56には5〜12ビツトを、第5データセレ
クタ57には6〜16ビツトを、第6データセレクタ5
Bには7〜14ビツトを、第7データセレクタ59には
8〜15ビツトを、第8データセレクタ6゜には9〜1
6ビツトをそれぞれ入力する。そしてセレクタライン8
Lより伝達された3ビツトの選択信号に応じて各データ
セレクタ56〜6oは、前記8ビツト入力のうち第1番
目〜第8番目のいずれか1つのビットを選択出方する。
FIG. 12 shows 16-bit gray level data 2.2 by multiplying and adding 8-bit gray pixels as described above. ,,. In the example of reducing the data to 8-bit data Ym, n, input 2 to 9 pits of 16-bit data Z□, 0 to the first data selector 53, and There are 16 pit data Zm,
3 to 10 bits of n are input, and similarly 4 to 11 bits are input to the third data selector 55, 5 to 12 bits are input to the fourth data selector 56, and 6 bits are input to the fifth data selector 57. ~16 bits to the sixth data selector 5
7 to 14 bits to B, 8 to 15 bits to the seventh data selector 59, and 9 to 1 bits to the eighth data selector 6°.
Input 6 bits each. and selector line 8
In response to the 3-bit selection signal transmitted from L, each data selector 56-6o selects and outputs any one of the first to eighth bits among the 8-bit inputs.

例えば27でzm、nを商する場合にはそれぞれのデー
タセレクタ53〜60より第1番目のビットを出力する
ように各データセレクタ56〜6oが制御されるので、
第1データセレクタ56がらは2〜9ピツトのうちの第
1番目のビットすなわち16ビツトのうちの2ビツト目
が出力され、第2データセレクタ54からは3〜10ビ
ツトのうちの第1番目のビットすなわち16ビツトのう
ちの6ビツト目が出力され、i¥!6データセレクタ5
5からは4〜11ビツトのうちの第1番目のビットすな
わち16ビツトのうちの4ビツト目が出力され、以下同
様にして第8データセレクタ6oからは9〜16ピツト
のうちの第1番目のビットすなわち16ビツトのうちの
9ビツト目が出力されることになり、この結果釜データ
セレクタ53〜60より16ビツトのZm、nを2で商
した値である2〜9ピツトを出力することになる。同&
Kしてzm、nを26で商する場合には各データセレク
タ56〜60から第2番目のビット、すなわち16ビツ
トのデータよりその3〜10ビツトを出力すればより、
28で商する場合には各データセレクタ53〜60より
第3番目のビットを出力させて16ビツトのデータより
その4〜11ビツトを出力させればよい。このようにし
てN番目のデータセレクタには16ビツトデータのうち
21′′−N〜28−Nビット目を入力し2割る数2k
に対応してセレクタラインにkの値をセットすることに
より割算を高速に実現することができる。このように、
データセレクタを用いることにより割算の高速化をはか
ることができる。
For example, when quoting zm and n by 27, each data selector 56 to 6o is controlled so that the first bit is output from each data selector 53 to 60.
The first data selector 56 outputs the first bit of 2 to 9 bits, that is, the 2nd bit of 16 bits, and the second data selector 54 outputs the first bit of 3 to 10 bits. The 6th bit out of 16 bits is output, i\! 6 data selector 5
5 outputs the first bit of bits 4 to 11, that is, the 4th bit of 16 bits, and similarly, the eighth data selector 6o outputs the first bit of bits 9 to 16. That is, the 9th bit out of 16 bits will be output, and as a result, the pot data selectors 53 to 60 will output 2 to 9 pits, which is the value obtained by dividing the 16 bits Zm and n by 2. Become. same&
When dividing K and zm and n by 26, it is better to output the second bit from each data selector 56 to 60, that is, 3 to 10 bits from the 16 bit data.
In the case of quotient by 28, it is sufficient to output the third bit from each data selector 53-60 and output the 4th to 11th bits from the 16-bit data. In this way, the 21''-N to 28-N bits of the 16-bit data are input to the N-th data selector, and the number divided by 2 is 2k.
By setting the value of k in the selector line corresponding to , division can be realized at high speed. in this way,
By using a data selector, the speed of division can be increased.

第4図における第1空間フィルタ演算部12と第2空間
フィルタ演算部16の荷重係数を適当に選ぶことにより
画像上のランダムな雑音の低減と明るさの急変部の強調
を行うことができる。この荷重係数は2例えば荷重係数
保持部22の荷重係数テーブルよりCPU21によって
取出すことができる。
By appropriately selecting the weighting coefficients of the first spatial filter calculation unit 12 and the second spatial filter calculation unit 16 in FIG. 4, it is possible to reduce random noise on the image and emphasize sudden changes in brightness. This load factor can be taken out by the CPU 21 from the load factor table of the load factor holding section 22, for example.

例えば第5図(alの原画に対して平滑化子ラプラシア
ン処理を施した後の様子を同[blに示す。第5図(a
−1)は光が右斜め上方から円柱の物体4に当っている
場合であり、同(a−2)はそれを真上から見たときの
図、同(a−3)は、同(a−2)のx−yi次元方向
の明るさの変化を示したものである。また第5図(b−
1)は平滑化子ラグラジアン演算後の濃淡レベルの3次
元表示であり、同(b−2)はそれを真上から眺めたと
きの等明線を示している。さらに第5図(b−3)は同
(b−2)のX−Y1次元方向の断面を示している。
For example, the state after smoothing Laplacian processing is applied to the original image of Fig. 5 (al) is shown in [bl]. Fig. 5 (a
-1) is the case where the light hits the cylindrical object 4 from diagonally above the right side, (a-2) is the view when it is viewed from directly above, and (a-3) is the case where the light is hitting the cylindrical object 4 from diagonally above the right side. It shows the change in brightness in the x-yi dimension direction of a-2). Also, Fig. 5 (b-
1) is a three-dimensional representation of the gray scale level after smoothing Lagrangian operation, and (b-2) shows isobright lines when viewed from directly above. Furthermore, FIG. 5(b-3) shows a cross section in the X-Y one-dimensional direction of FIG. 5(b-2).

ここで閾値処理によって第5図(b−1)から対象の輪
郭線を抽出することを考えてみる。スライスレベルとし
て、A、B、Cの5レベルff選ヒ2値化すると、第6
図(al〜(clに示すように各々異なった輪郭線が得
られる。第6図(alではレベルが高過ぎて輪郭に途切
れが生じるし、同fclではレベルが低過ぎて太くなっ
てしまう。そのため得られた輪郭線に対して改めて途切
れの修復あるいは細線化処理が必要になる。これらの処
理はアルゴリズムが複雑で時間のかかるものでらるため
、リアルタイム処理には適さない。また第6図(blの
ように丁度良いスライスレベルが設定できれば都合が良
いが、原画の濃淡レベルは対象物体の表面状態・色・形
、照明条件、レンズの明るさ、絞り等で毎回具なるため
、過当なスライスレベルを見つけることは難かしい。結
局閾値処理だけで対象を一連の線画として抽出しS/N
のよい画像を得ることは困難である。
Let us now consider extracting the contour of the object from FIG. 5(b-1) by threshold processing. When five levels of FF are selected as slice levels, A, B, and C, and binarized, the 6th
As shown in Figures (al to (cl), different contour lines are obtained. In Figure 6 (al), the level is too high and the contours are interrupted, and in the same fcl, the level is too low and the contours become thick. Therefore, it is necessary to repair the discontinuity or thin the obtained contour line again.These processes require complicated algorithms and take time, so they are not suitable for real-time processing. (It would be convenient if you could set just the right slice level like bl, but the shading level of the original image varies depending on the surface condition, color, shape of the target object, lighting conditions, lens brightness, aperture, etc.) It is difficult to find the slice level.In the end, the target is extracted as a series of line drawings only by threshold processing and the S/N is
It is difficult to obtain a good image of.

そこで本発明ではまず極点抽出処理により輪郭候補点の
抽出を行う。この極点抽出動作原理を第14図により説
明する。説明の簡略化のため、第14図(イ)の原画像
Pが図示状態の1次元方向の濃度分布を有する場合にお
いてその極点Rを求める例について説明する。原画像P
を左に一画素△だけシフトした左シフト画像をPLとし
、右に−Ii!II索△だ・けシフトした右シフト画像
をPRとする。そして原画像Pと左シフト画像PLを比
較して原画像の方が濃度が大きいか等しい(以下これを
P≧PLとする)部分QLを抽出し、iた原画像Pと右
シフト画像PRを比較して原画像の方が濃度が大きいか
等しい(以下これをP≧PRとする)部分QBを抽出す
る。このとき求める極点(極大点)°Rは少なくとも両
隣りの画素より大きいか等しいレベルであると考えられ
るので、第14図(ホ)のように部分Qt。
Therefore, in the present invention, contour candidate points are first extracted by extreme point extraction processing. The principle of this polar point extraction operation will be explained with reference to FIG. To simplify the explanation, an example will be described in which the extreme point R is determined when the original image P shown in FIG. 14(a) has the one-dimensional density distribution as shown. Original image P
The left-shifted image obtained by shifting one pixel △ to the left is set as PL, and -Ii! to the right! The right-shifted image shifted by Δ is set as PR. Then, the original image P and the left-shifted image PL are compared, and a portion QL in which the density of the original image is higher or equal (hereinafter referred to as P≧PL) is extracted, and the i-divided original image P and right-shifted image PR are extracted. A portion QB in which the density of the original image is greater than or equal to that of the original image (hereinafter referred to as P≧PR) is extracted. Since the extreme point (maximum point) °R found at this time is considered to be at least at a level greater than or equal to the pixels on both sides, the portion Qt is determined as shown in FIG. 14(E).

でかつQRのところを抽出することにより極点Rを求め
ることができる。ただし、P=PL!PRのときは除外
する。
The extreme point R can be found by extracting the point R and QR. However, P=PL! Exclude when doing PR.

ところで第14図(へ)のLに示す如きパターンで極点
が存在するとき、X方向の走査のみではノ(ターンLの
極点辺g、 、 l!、は抽出できるものの、極点辺I
!、 、 g、は抽出することができないので、これを
Y方向にも走査することにより極点辺g、 、 g4を
抽出することができる。したがって2例えば第14図(
ト)に示す如き画素A〜■を有する抽出ウィンドウW′
を使用すればl)、E、Fにより2次元の濃淡画像のX
方向の極点を、B、E、Hにより同じくY方向の極点を
、C,E、Gにより45°の斜方向の極点を、A、E、
Iによシ135°の斜方向の極点をそれぞれ抽出できる
By the way, when a pole exists in a pattern like the one shown in FIG.
! , , g cannot be extracted, so by scanning this also in the Y direction, the pole sides g, , g4 can be extracted. Therefore, 2 For example, Fig. 14 (
An extraction window W′ having pixels A to ■ as shown in g)
If you use l), E, and F, you can obtain
The poles in the direction are the poles in the Y direction by B, E, and H, the poles in the 45° diagonal direction by C, E, and G, A, E,
According to I, the diagonal poles of 135° can be extracted.

いま、第14図(チ)に示す1フレームを第4図の走査
信号発生部20より出力された同期信号に応じて走査線
h(1111! * h@・・・により順次走査し、各
画素を上記の如く比較処理することにより水平、垂直、
45°、135°方向の極点を順次抽出することができ
る。
Now, one frame shown in FIG. 14 (H) is sequentially scanned by the scanning line h (1111! * h@...) according to the synchronization signal output from the scanning signal generator 20 in FIG. By comparing and processing as above, horizontal, vertical,
Pole points in the 45° and 135° directions can be sequentially extracted.

この第4図に示す極点抽出部14は、第15図に示す如
くデータシフト回路62とデータ比較回路63から構成
されている。
The pole extractor 14 shown in FIG. 4 is composed of a data shift circuit 62 and a data comparison circuit 63, as shown in FIG.

データシフト回路62は、第16図に詳記するように、
2行+3iijI素のデータをシフトレジスタを用いて
順次保持し9次段のデータ比較回路63に対して画素A
〜Iの9画素を送出する機能を有し、第9図に示すデー
タシフト回路と同様に構成されている。第1空間フィル
タ演算部12及び第2空間フィルタ演算部13よりなる
空間フィルタ61の出力は、レジスタrl〜r9 、 
N −3ビツト長のシフトレジスタ64.65により構
成されるデータシフト回路62に入力され、これにより
各レジスタr、M+ reより画素A〜■が出力され、
データ比較回路65に入力されることになる。
The data shift circuit 62, as detailed in FIG.
The data of 2 rows + 3 iijI elements are held sequentially using a shift register, and the pixel A is sent to the data comparison circuit 63 of the 9th stage.
It has a function of sending out nine pixels of .about.I, and is configured similarly to the data shift circuit shown in FIG. The output of the spatial filter 61 consisting of the first spatial filter calculation unit 12 and the second spatial filter calculation unit 13 is stored in registers rl to r9,
The data is input to a data shift circuit 62 composed of shift registers 64 and 65 with a length of N-3 bits, and pixels A to ■ are outputted from each register r and M+re.
It will be input to the data comparison circuit 65.

このデータ比較回路66は、第17図に示す如く、比較
器C−1〜C−8,オア回路0R−1〜0R−9、アン
ド回路AN−1〜AN−4.ナンド回路NAN−1〜N
AN−4,ビークφレジスタPR等により構成されてい
る。そして比較器C−1により空間フィルタ処理データ
であるレジスタr4er5の画素りとEが比較され、比
較器C−2により同じく画素FとEが比較される。した
がって画素Bが水平方向(X方向)の極点の場合にはE
>D、E)F。
As shown in FIG. 17, this data comparison circuit 66 includes comparators C-1 to C-8, OR circuits 0R-1 to 0R-9, AND circuits AN-1 to AN-4. NAND circuit NAN-1~N
It is composed of an AN-4, a beak φ register PR, and the like. The comparator C-1 compares pixels F and E in the register r4er5, which are spatially filtered data, and the comparator C-2 similarly compares pixels F and E. Therefore, if pixel B is the pole in the horizontal direction (X direction), E
>D, E)F.

D〜E〜Fであるので0R−2,0R−3及びNAN 
−1よりいずれも「1」が出力され、0R−iより「1
」が出力されるので、ピークレジスタPRに水平方向の
ピーク値としての画素Eが保持され、これが極点として
出力されることになる。
Since D~E~F, 0R-2, 0R-3 and NAN
-1 outputs “1” in both cases, and 0R-i outputs “1”.
'' is output, the pixel E as the horizontal peak value is held in the peak register PR, and this is output as the extreme point.

また比較器C−5には画素BとEが比較され。Also, pixels B and E are compared in the comparator C-5.

比較器C−4には画素EとHが比較されるので。Since pixels E and H are compared in comparator C-4.

画素Eが垂直方向の極点の場合にはAN−2より「1」
が出力され、0R−1より「1」が出方されるのでピー
クレジスタP Rに画素Eが保持されることになる。同
様に比較器C−s、C−6により45°対角方向の画素
C,E、Gが比較され画素Eが極点の場合にはAN−5
から「1」が出方され、比較器C−7,C−8により1
35°対角方向の画素A、Fi。
If pixel E is a vertical pole, it is set to “1” from AN-2.
is output, and since "1" is output from 0R-1, pixel E is held in the peak register PR. Similarly, pixels C, E, and G in a 45° diagonal direction are compared by comparators C-s and C-6, and if pixel E is the pole, AN-5
"1" is output from the comparator C-7 and C-8.
35° diagonal pixel A, Fi.

■が比較され画素Eがこの135°対角方向での極点の
場合にはAN−4から「1」が出力されることKなる。
(2) is compared, and if pixel E is the pole in this 135° diagonal direction, "1" is output from AN-4.

したがってr[!II素Eが、水平、垂直、45°。Therefore r[! II element E is horizontal, vertical, 45°.

135°対角方向のいずれか1つの方向で極点の場合に
は0R−1は「1」を出力し、ピークレジスタPRに画
素Eが保持され、極点として出力されることKなる。こ
のようにして注目画素Eが極点の場合、これを抽出する
ことができる。
In the case of an extreme point in any one of the 135° diagonal directions, 0R-1 outputs "1", the pixel E is held in the peak register PR, and is output as an extreme point K. In this way, if the pixel of interest E is an extreme point, it can be extracted.

閾値処理部15は、第18図に示す如く、データシフト
回路と閾値回路からなり、データシフト回路62は極点
抽出処理部のそれと同じ回路を用いる。後者は比較器6
6、アンド回路67、レジスタ68を有し、比較器66
にて予め設定したスライスレベルと注目画素(例えばF
I)との比較を行い、注目画素がスライスレベルよシ大
きな濃度のときに比較器66は「1」を出力し、アンド
回路67をオン状態にする。この信号により注目画素E
のレベルを制御することによっであるレベル以上で水平
、垂直、45°、135°の各方向に極点になっている
画素だけを抽出することができる。
As shown in FIG. 18, the threshold processing section 15 consists of a data shift circuit and a threshold circuit, and the data shift circuit 62 uses the same circuit as that of the pole extraction processing section. The latter is comparator 6
6, has an AND circuit 67, a register 68, and a comparator 66
The slice level set in advance and the pixel of interest (for example, F
I), and when the pixel of interest has a density greater than the slice level, the comparator 66 outputs "1" and turns on the AND circuit 67. This signal causes the pixel of interest E
By controlling the level of , it is possible to extract only pixels that are at the extreme points in each of the horizontal, vertical, 45°, and 135° directions at a certain level or higher.

このようにして1本発明では極点抽出部14により輪郭
候補点の抽出を行い、閾値処理部15により閾値処理を
行う。
In this way, in the present invention, the extremal point extracting section 14 extracts contour candidate points, and the threshold processing section 15 performs threshold processing.

すなわち輪郭抽出対象物体の輪郭は、原理上で明るさの
急変している部分に対応していると考えられる。したが
ってラプラシアン・フィルタ(2次微分)又はグラジェ
ント・フィルタ(1次微分。
In other words, the contour of the object to be contour extracted is considered to correspond to a portion where the brightness changes suddenly, in principle. Therefore, a Laplacian filter (second-order differential) or a gradient filter (first-order differential) is used.

境界線抽出)適用後のデータでは、対象の輪郭に対応し
ている部分は他の部分よりもレベルが高い。
In the data after applying boundary line extraction), the part that corresponds to the outline of the object has a higher level than other parts.

そこでフィルタリング後のデータに対して、水平。So, for the data after filtering, horizontally.

垂直、45°対角及び135°対角方向の極点処理を行
い、原画上で明るさの急変している輪郭候補点の抽出を
する。これだけであると、外的要因による背景ノイズが
沢山抽出されてしまう。しかし背景ノイズのレベルは1
通常、対象の輪郭点よシ低いレベルであるので、しきい
値処理によって除去することができる。本発明における
しきい値処理は、フィルタリング後のデータから直接輪
郭点を抽出することが目的ではないので、″そのスライ
スレベルは極点抽出処理によって抽出された輪郭候補点
列が途切れない程度で、背景ノイズが除去できる位でよ
い。
Pole processing is performed in the vertical, 45° diagonal, and 135° diagonal directions to extract contour candidate points whose brightness suddenly changes on the original image. If this is all that is done, a lot of background noise due to external factors will be extracted. However, the background noise level is 1
Since they are usually at a lower level than the target contour points, they can be removed by threshold processing. The purpose of the threshold processing in the present invention is not to directly extract contour points from the data after filtering. It is enough to remove noise.

この処理は極点抽出処理と並行して行えるため。This process can be performed in parallel with the polar point extraction process.

極点抽出部14と閾値処理部15を並列に配置すること
Kよって高速化できる。この結果、水平。
By arranging the extreme point extraction section 14 and the threshold value processing section 15 in parallel, the processing speed can be increased. The result is horizontal.

垂直、45°対角および155°対角方向の極点で。At the vertical, 45° diagonal and 155° diagonal poles.

かつ一定のスライスレベル以上の点が2値画像として輪
郭候補点として抽出できる。
In addition, points above a certain slice level can be extracted as contour candidate points as a binary image.

ところで閾値処理部15における閾値処理においてスラ
イスレベルを輪郭候補点列が途切れないように設定した
ので、第3図に示した如く、多少のひげ状のノイズや数
画素以下の孤立ノイズが残ってしまう。そこで2値画像
として抽出された輪郭候補点列が少なくても8連結のつ
ながりで閉ループを構成していると仮定し、5×3の局
所ウィンド内の論理演算によって、ひけ状ノイズや孤立
ノイズの除去を行う。これらの各ノイズの除去は雑音除
去部16により行う。
By the way, in the threshold processing in the threshold processing unit 15, the slice level was set so that the sequence of contour candidate points is not interrupted, so some whisker-like noise and isolated noise of several pixels or less remain as shown in FIG. . Therefore, assuming that the contour candidate point sequence extracted as a binary image constitutes a closed loop with at least 8 connections, sink-like noise and isolated noise can be eliminated by logical operations within a 5 x 3 local window. Perform removal. Removal of each of these noises is performed by the noise removal section 16.

雑音除去部16の詳細構造を説明するに先立ちその動作
原理につiて説明する。
Before explaining the detailed structure of the noise removal section 16, its operating principle will be explained.

第19図■〜0に示す如<+  3X5のウィンドウW
の中心における注目画素Eが雑音でない場合には必らず
閉ループ画像である。そして閉ループ画像は連続的であ
ることからこの閉ループ画像はウィンドウWを必らず横
切ることになり、ウィンドウW内の周辺画素のうち少く
とも2つは閉ループ画像上の画素でなければならないと
いえる。そして上記前提条件を加味すると、上記閉ルー
プ画像上の二つの周辺画素は相隣接しない位置関係にな
っていなければならないといえる。これらのことから、
注目画素Eが閉ループ画像上の画素であるためには、注
目画素Eが状#1である場合において少くとも相隣接し
ない二つの周辺画素が状態1であることが必要になる。
As shown in Figure 19 - 0 <+ 3×5 window W
If the pixel of interest E at the center of is not noise, it is always a closed loop image. Since the closed-loop image is continuous, this closed-loop image necessarily crosses the window W, and it can be said that at least two of the surrounding pixels within the window W must be pixels on the closed-loop image. Taking the above preconditions into account, it can be said that the two peripheral pixels on the closed loop image must have a positional relationship that is not adjacent to each other. from these things,
In order for the pixel of interest E to be a pixel on a closed-loop image, when the pixel of interest E is in state #1, at least two surrounding pixels that are not adjacent to each other must be in state 1.

この条件に該当するものは16通りあり、各場合をウィ
ンドウWによって表わしたものが第19図に示されてい
る。この場合において、説明を単純化するために、閉ル
ープ画像が角部を備えているものについては前記角部に
対応した画素は閉ループ画像上の画素でないものとして
扱うことを前提とする。
There are 16 cases that meet this condition, and each case is represented by a window W in FIG. 19. In this case, in order to simplify the explanation, it is assumed that if the closed-loop image has a corner, the pixel corresponding to the corner is treated as not a pixel on the closed-loop image.

この後、第19図に示すウィンドウW内の基本パターン
が生じないパターンを調べ、数画素程度の雑音やひげ状
の雑音を除去するための雑音除去条件として設定する。
Thereafter, a pattern in which the basic pattern does not occur within the window W shown in FIG. 19 is examined and set as a noise removal condition for removing noise of several pixels or whisker-like noise.

この場合、第一の雑音除去条件としては、第20図(a
)のウィンドウWにおいて、同fblの■〜■に示すよ
うに、注目画素Eが状態1である場合において、少くと
もウィンドウWの相隣接する二辺に沿う周辺画素が状態
0であること、即ち、ウィンドウWの上辺e1及び左辺
12に沿う周辺画素A、B、C,D、Gが状態0.ウィ
ンドウWの左辺12及び下辺13に清う周辺画素A、D
、G。
In this case, the first noise removal condition is as shown in FIG.
), when the pixel of interest E is in the state 1, as shown in fbl (■ to ■), at least the surrounding pixels along two adjacent sides of the window W are in the state 0, i.e. , peripheral pixels A, B, C, D, and G along the upper side e1 and left side 12 of the window W are in the state 0. Surrounding pixels A and D that appear on the left side 12 and bottom side 13 of window W
,G.

H、Iが状態0.ウィンドウWの下辺e3及び右辺14
に沿う周辺画素G、H,I、F、Cが状態0.ウィンド
ウWの右辺I!4及び上辺l工に沿う周辺画素l。
H, I are in state 0. Lower side e3 and right side 14 of window W
The peripheral pixels G, H, I, F, and C along the line are in state 0. Right side I of window W! 4 and the surrounding pixels along the upper edge.

F、C,B、Aが状態0のいずれかであることが挙げら
れる。第二の除去条件としては、第20図(C)■〜■
に示すように、注目画素が状態1である場合において、
少くともウィンドウWの一辺に沿う周辺画素とこれに隣
接する周辺画素とが状態0であり且つ上記ウィンドウW
の対向辺中央に位置する周辺画素が状態1であること9
例えば、ウィンドウWの上辺11に沿う周辺画素A、B
、C及びこれに隣接する周辺画素り、Fが状態0であり
且つウィンドウWの下辺13中央に位置する周辺画素H
が状態1でおること等が挙げられる。尚、第20図にお
いてX印を付した画素は状態1若しくは状態0のいずれ
でもよいことを示している。
One example is that F, C, B, and A are in state 0. As the second removal condition, Fig. 20 (C) ■~■
As shown in , when the pixel of interest is in state 1,
At least the peripheral pixels along one side of the window W and the peripheral pixels adjacent thereto are in the state 0, and the window W
The peripheral pixels located at the center of the opposite sides of are in state 19
For example, peripheral pixels A and B along the upper side 11 of the window W
, C and the surrounding pixels adjacent thereto, F are in state 0, and the surrounding pixel H is located at the center of the lower side 13 of the window W.
For example, the state remains in state 1. Note that the pixels marked with an X in FIG. 20 indicate that they may be in either state 1 or state 0.

従って、2値画像を移動するウィンドウW内のパターン
が上記第−及び第二の雑音除去条件のいずれかに合致し
たとすれば、注目画素Eが状態1であるとしても、当該
注目動索Eは閉ループ画像の画素ではなく、雑音として
検出されることになり、これを「0」とすることにより
この雑音は有効に除去されることになる。例えば、第3
図に示すように、4画素以下の画素がかたまった雑音N
2が存在する場合には、第一の雑音除去条件で取除かれ
、閉ループ画像から処びるひげ状の雑音N1が存在する
場合には、第二の雑音除去条件で取除かれることになる
Therefore, if the pattern within the window W that moves the binary image matches either of the above-mentioned first and second noise removal conditions, even if the pixel of interest E is in state 1, the pixel of interest E is not a pixel of a closed-loop image, but is detected as noise, and by setting it to "0", this noise can be effectively removed. For example, the third
As shown in the figure, noise N is a cluster of 4 or fewer pixels.
If the noise N1 exists, it will be removed under the first noise removal condition, and if the whisker-like noise N1 from the closed-loop image exists, it will be removed under the second noise removal condition.

上述したような雑音除去方法を実施するだめの回路の一
例を以下に示す。
An example of a circuit for implementing the above-described noise removal method is shown below.

この雑音除去部16は、第21図に示す如く。This noise removing section 16 is as shown in FIG.

空間フィルタ・閾値処理部69からの2値画像が入力さ
れるデータシフト回路70と論理演算回路71から構成
されている。
It is comprised of a data shift circuit 70 to which the binary image from the spatial filter/threshold processing section 69 is input, and a logic operation circuit 71.

第1空間フィルタ演算部12.第2空間フィルタ演算部
16.極点抽出部14.閾値処理部15ジスタフ2,7
5により構成されるデータシフト回路70に入力され、
これにより各レジスタR;〜JにiiijgA−Iが出
力され、論理演算回路71に入力される。
First spatial filter calculation unit 12. Second spatial filter calculation unit 16. Pole extraction unit 14. Threshold processing unit 15 distaff 2, 7
5 is input to the data shift circuit 70 configured by
As a result, iiijgA-I is output to each register R; to J, and input to the logic operation circuit 71.

ここで論理演算回路71は、第26図の如く構成され、
第20図(b) 、 (C1の第一の雑音除去条件若し
くは第二の雑音除去条件を満足したときに注目画素Eの
レベルを状態υとして出方し、それ以外のときKは注目
画素Eのレベルを状態1のまま出力するものであり、論
理演算回路71がらは雑音を除去した2値th像データ
が順次得られることになる。そして、上記論理演算回路
71は、具体的には、以下の論理式fal乃至tdlを
満足するように構成されている。
Here, the logic operation circuit 71 is configured as shown in FIG.
FIG. 20(b), (When the first noise removal condition or the second noise removal condition of C1 is satisfied, the level of the target pixel E is output as the state υ; otherwise, K is the level of the target pixel E. The logic operation circuit 71 outputs the level of 1 as it is in state 1, and the logic operation circuit 71 sequentially obtains binary th image data from which noise has been removed.Specifically, the logic operation circuit 71 It is configured to satisfy the following logical expressions fal to tdl.

E、−((AuBuClJDl、1G)A (At/D
UGIJHLj I)凸(GtJHLIILJFUC)
11 (AIJBIJCυFリエ))rlB((AIJ
BllCtJAUDUG)(1(ljDUGL3Gυ)
IIJI)凸(ouHuIucuFuI)n(AuBu
CuCυFUI))nE −((XIUX2)n(X2tlX3)n(X3LjX
t)11(X4LIX1) )nE・・・・・・・・・
・・・・・・ (a)E2=(((AtJBtJCLI
DUF)UH)II((AtJDtJGUBLJH)I
JF)n((DIJFtJGIJHLII)LJB)n
((CuFLJItJBLIH)tJD))nE=((
(X、tJDLIF)tJH)n((X、tlBtlH
)1.IP)n((XsvDup)up)n((x、u
Bun)IJD))へE          叩・・・
・・叩・・(blE−E、fih2         
       ・・・・川・・・・山・ fc)Xl−
Au BυC、X2=A’J DLI G 、 X5=
(J* HOI 。
E, -((AuBuClJDl, 1G)A (At/D
UGIJHLj I) Convex (GtJHLIILJFUC)
11 (AIJBIJCυFrie))rlB((AIJ
BllCtJAUDUG) (1(ljDUGL3Gυ)
IIJI) convex (ouHuIucuFuI) n (AuBu
CuCυFUI))nE −((XIUX2)n(X2tlX3)n(X3LjX
t)11(X4LIX1))nE・・・・・・・・・
・・・・・・ (a) E2=(((AtJBtJCLI
DUF)UH)II((AtJDtJGUBLJH)I
JF)n((DIJFtJGIJHLII)LJB)n
((CuFLJItJBLIH)tJD))nE=((
(X, tJDLIF) tJH) n((X, tlBtlH
)1. IP)n((XsvDup)up)n((x, u
Bun) IJD)) to E Hit...
...Tap...(blE-E, fih2
...river...mountain fc)Xl-
Au BυC, X2=A'J DLI G, X5=
(J*HOI.

XケC%JFUI            叩・・・・
・・・川(dl(al乃至(dJ式においてA乃至Iは
画素A乃至Iのデータを示し、 B 、 D 、 F 
、 Hは画素B、D、F。
XkeC%JFUI Hit...
... River (dl(al to (dJ formula), A to I indicate the data of pixels A to I, B, D, F
, H is pixels B, D, F.

Hの反転データを示し+ ”1及びE2は夫々第一の雑
音除去条件及び第二の雑音除去条件を満足するが否かを
示す指標値、Eは注目レベルEが雑音であるか否かを示
す指標値である。
Indicates the inverted data of H + "1 and E2 are index values that indicate whether the first noise removal condition and the second noise removal condition are satisfied, respectively, and E indicates whether or not the attention level E is noise. This is the index value shown.

この論理式を満足する論理演算回路71の具体的構成を
第25図に示す。第26図において、0R−1′乃至0
R−14’はオア回路、AN−1’  乃至AN−3′
はアンド回路、NT−i’乃至N T −4’はノット
回路である。
FIG. 25 shows a specific configuration of the logical operation circuit 71 that satisfies this logical formula. In Figure 26, 0R-1' to 0
R-14' is an OR circuit, AN-1' to AN-3'
is an AND circuit, and NT-i' to NT-4' are NOT circuits.

例えば注目画素Eと他の画素が、第20図(bl■に示
す条件の場合には、 0R−j’、0R−2’からそれ
ぞれ「0」が出力されるので、0R−7’もrOJを出
力し、この結果AN −1’ 、 AN −3’がro
Jを出方し、それ故注目画素Eは「0」となって出力さ
れる。
For example, if the target pixel E and other pixels are under the conditions shown in FIG. As a result, AN -1' and AN -3' are ro
Therefore, the pixel of interest E is output as "0".

また第20図(cl■に示す条件の場合には、0R−1
’、0R−5’がそれぞれ「0」を出力し、ノット回路
NT−1’も「0」を出力するのでオア回路0R−11
’が「0」を出力する。コノ結果AN −2’、 AN
 −6’がrOJを出力するので、注目画素EはrOJ
となって出力されることになる。このような制御は、上
記他の回路と同様に、第4図の走査信号発生部2oより
出力される水平同期信号に同期して順次行われることに
なる。
In addition, in the case of the conditions shown in Figure 20 (cl■), 0R-1
', 0R-5' output '0', and NOT circuit NT-1' also outputs '0', so OR circuit 0R-11
' outputs "0". Kono result AN -2', AN
-6' outputs rOJ, so the pixel of interest E is rOJ
This will be output as follows. Similar to the other circuits mentioned above, such control is sequentially performed in synchronization with the horizontal synchronizing signal output from the scanning signal generating section 2o in FIG. 4.

このようにして論理演算回路71により、第20図(b
l 、 (C1に示す条件、すなわちウィンドウWの上
辺と右辺、右辺と下辺、下辺と左辺あるいは左辺と上辺
に画素が存在しない場合(雑音除去条件1)。
In this way, the logic operation circuit 71 operates as shown in FIG.
l, (condition shown in C1, that is, when there are no pixels on the upper and right sides, the right and lower sides, the lower and left sides, or the left and upper sides of window W (noise removal condition 1).

また上辺と左右に画素がなく下にある。左辺と上下に画
素がなくて右にある。下辺と左右に画素がなくて上にあ
る。あるいは右辺と上下に画素がなくて左にある場合(
雑音除去条件2)に注目画素を雑音とみなしてこれを除
去することができる。
Also, there are no pixels on the top side, left or right, and there are pixels at the bottom. There are no pixels on the left side, top or bottom, and there are pixels on the right side. There are no pixels on the bottom and left and right sides, and there are pixels on the top. Or if there are no pixels on the right side, top or bottom, but on the left (
Under noise removal condition 2), the pixel of interest can be regarded as noise and removed.

このようにして雑音の除去された対象の輪郭像を画像メ
モリ19に記憶することができる。
In this way, the contour image of the object from which noise has been removed can be stored in the image memory 19.

切換スイッチ部17は第1空間フィルタ演算部12及び
第2空間フィルタ演算部13を直列接続または並列接続
するものであり2例えばオペレータがパネルからこれを
手動的に切換てもよく、自動的に切換制御するようにし
てもよい。第4図の状態では直列接続状態の場合を示し
ている。
The changeover switch unit 17 connects the first spatial filter calculation unit 12 and the second spatial filter calculation unit 13 in series or in parallel.2For example, the operator may manually switch this from the panel, or the switch may be switched automatically. It may also be controlled. The state in FIG. 4 shows a case of series connection.

第1空間フィルタ演算部12と第2空間フィルタ演算部
13とをシリーズに接続すれば2例えば内部パスを経由
してCPU21から荷重係数テーブル22に格納されて
いる。第13図に示す荷重係数のうち2例えば第1空間
フィルタ演算部12に平滑化フィルタ用の荷重係数を送
出し、第2空間フィルタ演算部16に2次微分フィルタ
用の荷重係数を送出して2プ2シアン演算 を行えば、対象の輪郭を浮き上がってみえるような処理
を行うことができる。
If the first spatial filter calculation unit 12 and the second spatial filter calculation unit 13 are connected in series, the data is stored in the load coefficient table 22 from the CPU 21 via an internal path, for example. Two of the weight coefficients shown in FIG. 13, for example, the weight coefficient for the smoothing filter is sent to the first spatial filter calculation unit 12, and the weight coefficient for the second-order differential filter is sent to the second spatial filter calculation unit 16. By performing 2p2cyan calculation, it is possible to perform processing that makes the outline of the object appear raised.

また第1空間フィルタ演算部12と第2空間フィルタ演
算部13とを並列的に絶対値演算部18に接続し7例え
ば第1空間フィルタ演算部12に第16図の荷重係数(
B−1)を、@22空フィルタ演算部13に荷重係数1
B−2)を送出すれは。
In addition, the first spatial filter calculating section 12 and the second spatial filter calculating section 13 are connected in parallel to the absolute value calculating section 18.
B-1) to the @22 empty filter calculation unit 13 with a weighting coefficient of 1.
B-2) is sent.

グラジェント演算 を行うことができ、方向性のある直線を抽出したいよう
なときに有効である。例えば斜方向の線の抽出等がよく
できる。
It can perform gradient calculations and is effective when you want to extract directional straight lines. For example, you can easily extract diagonal lines.

なお本発明により、第2図における途切れ部分Noの発
生を抑制できるのは次の理由による。
The reason why the present invention can suppress the occurrence of the discontinuous portion No. in FIG. 2 is as follows.

すなわち、第2図に示す如く、3つ以上の領域が1点で
交叉しているとき、交叉画素レベルより高いレベルが周
囲画素に現われることがある。例えば第24図において
2画素りまたはHがEより高いレベルになる可能性があ
る。この場合9画素Eは画素A、Iよりはレベルが高い
筈であり(すなわち画素A、Iは内部画素であるから)
、斜め方向に極点抽出を行うことによりこのような場合
をカバーできる。
That is, as shown in FIG. 2, when three or more areas intersect at one point, a level higher than the intersecting pixel level may appear in surrounding pixels. For example, in FIG. 24, two pixels or H may be at a higher level than E. In this case, the 9th pixel E should have a higher level than pixels A and I (that is, since pixels A and I are internal pixels)
, such a case can be covered by performing polar point extraction in an oblique direction.

例えば第25図に示す如き、原画像データがあるとき、
これをンプラシア/変換処理して第26図に示す如きデ
ータを得る。これを従来の水平。
For example, when there is original image data as shown in FIG.
This is subjected to amplasia/conversion processing to obtain data as shown in FIG. This is the conventional horizontal.

垂直方向でのみ極点抽出すれば丸印の部分が抽出される
。このとき、第26図のウィンドウW内の51は本来極
点であるのにその水平方向の比較では極点として抽出で
きないが9本発明のように斜め方向に極点抽出処理すれ
ば+ (e)、(51)、(−*s)の比較により極点
としてこれを抽出できるので。
If the poles are extracted only in the vertical direction, the circled portions will be extracted. At this time, although 51 in the window W in FIG. 26 is originally a pole, it cannot be extracted as a pole when compared in the horizontal direction, but if the pole is extracted diagonally as in the present invention, + (e), ( 51), this can be extracted as an extreme point by comparing (-*s).

3領域が交叉しているところでも途切れ部分を生ずるこ
となく、極点を正しく抽出できることになる。
Even where the three regions intersect, the extreme points can be extracted correctly without creating any discontinuities.

本発明の画像処理装置では、データシフト回路のデータ
シフトを、TVカメラの水平走査信号と同期させること
によって、1フレ一ム分の濃淡画像処理を2例えば16
.7msで完了することができる。また雑音除去部の後
にアドレス生成部を設けることによってその画素が、水
平、垂直、450対角および135°対角方向の極点で
、あるスライスレベル以上でかつ雑音除去条件1.2を
満足しない場合のみそのアドレス情報を計算機側に転送
すれば必要とする輪郭部分のみメモリに格納することが
でき、メモリの飛開的な節約が可能となる。
In the image processing apparatus of the present invention, by synchronizing the data shift of the data shift circuit with the horizontal scanning signal of the TV camera, the grayscale image processing for one frame can be performed by 2, for example, 16
.. It can be completed in 7ms. In addition, by providing an address generation section after the noise removal section, if the pixel is at a pole in the horizontal, vertical, 450 diagonal, and 135 degree diagonal directions, is at a certain slice level or higher, and does not satisfy noise removal condition 1.2. If only the address information is transferred to the computer side, only the necessary contour parts can be stored in the memory, making it possible to dramatically save memory.

なお上記の説明ではフィルタを6×6の空間フィルタを
用いた場合について述べたが、フィルタの大きさを5X
5.787等と大きくすることによりきめ細かい処理を
行うことが可能となる。
In addition, in the above explanation, the case where a 6×6 spatial filter was used was described, but the size of the filter was changed to 5×
By increasing the number to 5.787, etc., detailed processing can be performed.

またこの画像処理装置を、1チツプのVLS Iにする
ことにより、物体の分類1選別、製品の検査等の視覚認
識を必要とする分野で、マイコンレベルの計算機による
2次元図形の認識ができるようになる。
In addition, by making this image processing device a one-chip VLSI, it will be possible to recognize two-dimensional shapes using a microcomputer-level computer in fields that require visual recognition, such as object classification and product inspection. become.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、物体の輪郭Q、’rvカメ2の水平走
査信号に同期して、リアルタイムで高速に抽出すること
ができるのみならず、とぎれがない輪郭線を抽出するこ
とが可能となる。しかもヒゲ状ノイズや孤立ノイズ等も
除去することができる。
According to the present invention, it is not only possible to extract the outline Q of an object at high speed in real time in synchronization with the horizontal scanning signal of the RV camera 2, but also to extract an uninterrupted outline. . Furthermore, it is possible to remove whisker-like noise, isolated noise, and the like.

そして2つの空間フィルタ演算部を直列あるいは並列に
選択的に接続できるので、その使用目的に適した処理を
行うことが可能となる。
Since the two spatial filter calculation units can be selectively connected in series or parallel, it is possible to perform processing suitable for the purpose of use.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は従来の画像処理装置の概略図、第2図。 第3図はその問題点説明図、第4図は本発明の一実施例
構成図、第5図は物体及びその輪郭抽出状態説明図、第
6図はスライスレベルを変えたときの出力説明図、第7
図は空間フィルタの原理的説明図、第8図は空間フィル
タ演算部説明図、第9図はデータシフト回路説明図、第
10図は乗算回路説明図、第11図は加算回路説明図、
第12図は割算回路説明図、第13図は空間フィルタの
用途とその荷重係数説明図、第14図は極点抽出部の基
本動作説明図、第15図は極点抽出部の構成図、第16
図はデータシフト回路、第17図はデータ比較回路、第
18図は閾値処理部、第19図は輪郭部データ説明図、
第20図は雑音除去条件説明図、第21図は雑音除去部
、第22図はデータシフト回路、第23図は論理演算回
路、第24図、第25図、第26図は途切れ部分説明図
である。 図中、10はTVカメラ、11はA/Dコンバータ、1
2は第1空間フィルタ演算部、13は第2空間フィルタ
演詐部、14は極点抽出部、15は閾値処理部、16は
雑音除去部、17は切換スイッチ部、18は絶対値演算
部、19は1iki像メモリ、20は走査信号発生部、
21はCPtJ、22は荷重係数保持部、30はデータ
シフト回路。 31は乗算回路、62は加算回路、36は割算回路であ
る。 特許出願人 富士通株式会社 代理人弁理士 山 谷 晧 榮 才18用 f+q閃 ■    ■   ■    ■ ■    [相]    ■    @0    [相
]   ■   ■
FIG. 1 is a schematic diagram of a conventional image processing device, and FIG. 2 is a schematic diagram of a conventional image processing device. Fig. 3 is a diagram explaining the problem, Fig. 4 is a configuration diagram of an embodiment of the present invention, Fig. 5 is an illustration of an object and its contour extraction state, and Fig. 6 is an illustration of output when changing the slice level. , 7th
The figure is an explanatory diagram of the principle of a spatial filter, FIG. 8 is an explanatory diagram of the spatial filter calculation section, FIG. 9 is an explanatory diagram of the data shift circuit, FIG. 10 is an explanatory diagram of the multiplication circuit, and FIG. 11 is an explanatory diagram of the addition circuit.
Fig. 12 is an explanatory diagram of the division circuit, Fig. 13 is an explanatory diagram of the purpose of the spatial filter and its weighting coefficient, Fig. 14 is an explanatory diagram of the basic operation of the pole extractor, Fig. 15 is a configuration diagram of the pole extractor, 16
The figure shows a data shift circuit, FIG. 17 shows a data comparison circuit, FIG. 18 shows a threshold processing section, and FIG. 19 shows an explanation of contour data.
Fig. 20 is an explanatory diagram of noise removal conditions, Fig. 21 is a noise removal section, Fig. 22 is a data shift circuit, Fig. 23 is a logic operation circuit, and Figs. 24, 25, and 26 are illustrations of interrupted parts. It is. In the figure, 10 is a TV camera, 11 is an A/D converter, 1
2 is a first spatial filter calculation section, 13 is a second spatial filter manipulation section, 14 is a pole extraction section, 15 is a threshold processing section, 16 is a noise removal section, 17 is a changeover switch section, 18 is an absolute value calculation section, 19 is a 1iki image memory, 20 is a scanning signal generator,
21 is a CPtJ, 22 is a load coefficient holding section, and 30 is a data shift circuit. 31 is a multiplication circuit, 62 is an addition circuit, and 36 is a division circuit. Patent Applicant Fujitsu Ltd. Representative Patent Attorney Akira Yamatani Eisai 18 f+q flash ■ ■ ■ ■ ■ [Phase] ■ @0 [Phase] ■ ■

Claims (2)

【特許請求の範囲】[Claims] (1)  濃淡画像を画素単位で処理してその輪郭を抽
出するために、一定長のデータを保持格納するデータシ
フト回路と、保持されたデータと予め設定されている荷
重係数との掛けη、を行う乗算回路と、その結果をたし
合わせる加算回路および乗算・加算によって増加したレ
ベルを適当な範囲に収筐るようにする割算回路を具備す
る空間フィルタ演算部と、水平および垂直方向の極点を
抽出する極点抽出部を有する画像処理装置において、 
fFめ方向の極点を抽出する極点抽出部と、背景ノイズ
を除去するための閾値処理部と、ひげ状のノイズと数画
素以下の孤立ノイズを除去する雑音除去部を備え、TV
カメラの水平走査信号に同期してリアルタイムで磯淡画
像の輪郭を2値画像として抽出するようにしたことを特
徴とする画像処理装置。
(1) In order to process a grayscale image pixel by pixel and extract its outline, a data shift circuit that holds and stores a certain length of data, a multiplication of the held data by a preset weighting coefficient η, A spatial filter calculation unit includes a multiplication circuit that performs the multiplication, an addition circuit that adds the results, and a division circuit that keeps the increased level due to multiplication and addition within an appropriate range; In an image processing device having a pole point extracting unit that extracts pole points,
The TV is equipped with a polar point extraction unit that extracts the polar point in the fF direction, a threshold processing unit that removes background noise, and a noise removal unit that removes whisker-like noise and isolated noise of several pixels or less.
An image processing device characterized in that the contour of an Isodan image is extracted as a binary image in real time in synchronization with a horizontal scanning signal of a camera.
(2)  上記空間フィルタ演算部として第1の空間フ
ィルタ演算手段と第2の空間フィルタ演算手段を設け、
これら第1の空間フィルり演尊手段と第2の空間フィル
タ演算手段を直列状態または並列状態に選択的に接続で
きるようにしたことを特徴とする特許請求の範囲第(1
)項記載の画像処理装置4゜
(2) providing a first spatial filter calculating means and a second spatial filter calculating means as the spatial filter calculating section;
Claim 1 (1) characterized in that the first spatial filter performance means and the second spatial filter calculation means can be selectively connected in series or in parallel.
) Image processing device described in section 4゜
JP58091309A 1983-05-24 1983-05-24 Picture processing device Granted JPS59216283A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP58091309A JPS59216283A (en) 1983-05-24 1983-05-24 Picture processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP58091309A JPS59216283A (en) 1983-05-24 1983-05-24 Picture processing device

Publications (2)

Publication Number Publication Date
JPS59216283A true JPS59216283A (en) 1984-12-06
JPH0534712B2 JPH0534712B2 (en) 1993-05-24

Family

ID=14022865

Family Applications (1)

Application Number Title Priority Date Filing Date
JP58091309A Granted JPS59216283A (en) 1983-05-24 1983-05-24 Picture processing device

Country Status (1)

Country Link
JP (1) JPS59216283A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4874749A (en) * 1971-12-24 1973-10-08
JPS51141536A (en) * 1975-05-31 1976-12-06 Toshiba Corp Image-paralleling calculation processing device
JPS57111786A (en) * 1980-12-29 1982-07-12 Fujitsu Ltd Profile coordinate pickup system for figure

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4874749A (en) * 1971-12-24 1973-10-08
JPS51141536A (en) * 1975-05-31 1976-12-06 Toshiba Corp Image-paralleling calculation processing device
JPS57111786A (en) * 1980-12-29 1982-07-12 Fujitsu Ltd Profile coordinate pickup system for figure

Also Published As

Publication number Publication date
JPH0534712B2 (en) 1993-05-24

Similar Documents

Publication Publication Date Title
US6119048A (en) Integrated circuit for processing digital signal
US5488674A (en) Method for fusing images and apparatus therefor
RU2020582C1 (en) Device for selecting edges for image processing system
EP0009345B1 (en) Apparatus for whole picture image processing
JP2003018398A (en) Method for generating a super-resolution image from pixel image
JPS60502023A (en) Transformation processing method to reduce noise in images
CN110097106A (en) The low-light-level imaging algorithm and device of U-net network based on deep learning
CN112750201B (en) Three-dimensional reconstruction method, related device and equipment
CN102243711A (en) Neighbor embedding-based image super-resolution reconstruction method
Yee et al. Segmentation and adaptive assimilation for detail-preserving display of high-dynamic range images
CN112801925A (en) Underwater image enhancement method for maximally eliminating water ripple influence based on information entropy
EP0547881B1 (en) Method and apparatus for implementing two-dimensional digital filters
JPS58222383A (en) Picture processing system
JPS59216283A (en) Picture processing device
US4760607A (en) Apparatus and method for implementing transformations in grayscale image processing
JP2002015327A (en) Image type discrimination device, image processor using the same, and image type discrimination method
JP3017239B2 (en) Image generation method
JP5169926B2 (en) Image processing device
Lee et al. Efficient algorithm and architecture for post-processor in HDTV
CN113763294B (en) Quick preprocessing method and system for weld image based on dynamic CLAHE
JPS60118979A (en) Peak extracting processing device
JPH05135169A (en) Two-dimensional spatial filter circuit
JP2806436B2 (en) Arithmetic circuit
Brox et al. Image enlargement using the Fuzzy-ELA algorithm
Saitoh Local contrast enhancement by optimizing image separation using genetic algorithm