JPH0222421B2 - - Google Patents

Info

Publication number
JPH0222421B2
JPH0222421B2 JP57104742A JP10474282A JPH0222421B2 JP H0222421 B2 JPH0222421 B2 JP H0222421B2 JP 57104742 A JP57104742 A JP 57104742A JP 10474282 A JP10474282 A JP 10474282A JP H0222421 B2 JPH0222421 B2 JP H0222421B2
Authority
JP
Japan
Prior art keywords
data
image
circuit
pixel
level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP57104742A
Other languages
Japanese (ja)
Other versions
JPS58222383A (en
Inventor
Tsuguhito Maruyama
Takashi Uchama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP57104742A priority Critical patent/JPS58222383A/en
Publication of JPS58222383A publication Critical patent/JPS58222383A/en
Publication of JPH0222421B2 publication Critical patent/JPH0222421B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

【発明の詳細な説明】 (1) 発明の技術分野 本発明は画像処理方式に係り、特に多値レベル
の濃淡画像信号に対して平滑化演算、2次微分演
算及び粗輪郭線抽出等の画像処理を高速で行うよ
うにして明るさの急変している部分を高速抽出
し、TVカメラの同期信号によりリアルタイム処
理可能となるようにしたものに関する。
[Detailed Description of the Invention] (1) Technical Field of the Invention The present invention relates to an image processing method, and particularly to image processing methods such as smoothing operations, quadratic differential operations, and coarse contour line extraction for multilevel gray image signals. This technology performs processing at high speed to extract areas with sudden changes in brightness at high speed, and enables real-time processing using synchronization signals from TV cameras.

(2) 技術の背景 最近各方面に工業用ロボツトが使用されている
が、例えば機械組立用ロボツトの場合には、ロボ
ツトが螺子締め等の1動作が終るまでの短かい間
に、次の工程のためにある物体が何であるか認識
しておかないと動作が連続しない。そのためにロ
ボツトの目としてTVカメラから入力された多値
レベルの画像信号を高速処理してその物体が何で
あるかを高速に認識処理する必要がある。そのた
めに高速で明るさの急変している部分を抽出し、
物体の輪郭をとらえることが必要となる。
(2) Background of the technology Recently, industrial robots have been used in various fields. For example, in the case of mechanical assembly robots, the robot can quickly move on to the next process in a short period of time until it finishes one operation, such as tightening a screw. If you don't recognize what the object is, you won't be able to continue the action. To achieve this, the robot's eyes must process multilevel image signals input from a TV camera at high speed to quickly recognize what the object is. To do this, we extract parts with rapid changes in brightness,
It is necessary to capture the outline of an object.

(3) 従来技術と問題点 一般にTVカメラ等を使つて得られる画像デー
タは、一画面が例えば256×256(あるいは128×
128)画素の2次元の、8ビツトの濃淡レベルで
あるため、その情報量が非常に大きいものであ
る。そのために従来、このような画像データを取
り扱かおうとする場合は、一度TVカメラからの
画像信号を1フレーム分画像メモリに記憶し、そ
のデータを大型計算機に転送して処理するか、あ
るいはTVカメラからの映像信号を何らかの方法
でスライスレベルをきめて2値化してデータを圧
縮し、メモリに記憶し、そのデータに対して論理
演算処理を行う等の手法が取られてきた。
(3) Conventional technology and problems In general, image data obtained using a TV camera etc. has a screen size of, for example, 256 x 256 (or 128
128) Since it is a two-dimensional, 8-bit gray level of pixels, the amount of information is extremely large. Conventionally, when attempting to handle such image data, the image signal from the TV camera is stored in an image memory for one frame, and the data is transferred to a large computer for processing, or Techniques have been used such as determining the slice level of a video signal from a camera using some method, converting it into a binary value, compressing the data, storing it in a memory, and performing logical operations on the data.

それ故、前者では高度の画像処理を行うことが
できる反面、高速処理を実現するには大容量のメ
モリと高速の大型計算機が必要となりコスト高と
なる欠点を有しており、また後者では2値化にす
るため適切なスライスレベルの決定が難かしくし
かも多値レベル情報を2値レベル情報に省略した
ので情報量としては欠如しているものとなるた
め、これを処理しても高度な処理ができない、例
えば濃淡変化の複雑な画像の処理ができないとい
う欠点を有している。
Therefore, while the former can perform advanced image processing, it has the disadvantage of requiring large memory and high-speed large-scale computers to achieve high-speed processing, resulting in high costs. It is difficult to determine the appropriate slice level for digitization, and since multi-level information is omitted to binary level information, the amount of information is missing, so even if this is processed, advanced processing is not required. For example, it cannot process images with complex changes in shading.

また最近、汎用画像処理装置として各画素ある
いは複数画素単位に1つの基本演算モジユールを
配置し並列演算することにより画像処理の高速化
を計つているものがみられるが、1フレーム分の
画像を処理するために、数多くの基本演算モジユ
ールを配置しなければならないので、処理装置自
体が大型化し、コスト高となり、しかもアドレス
制御が複雑になるという欠点をもつている。
Recently, some general-purpose image processing devices have been designed to speed up image processing by arranging one basic calculation module for each pixel or multiple pixels and performing parallel calculations. In order to do this, it is necessary to arrange a large number of basic arithmetic modules, which has the drawbacks that the processing device itself becomes large and costly, and address control becomes complicated.

(4) 発明の目的 本発明の目的は、前記の如き問題点を改善する
ために、多値レベルの濃淡画像データに対して、
空間フイルタを使用して平滑化演算、2次微分演
算、画像強調、粗輪郭線の抽出等の画像処理を
TVカメラと同期させてリアルタイムで高速に実
行することにより、ハード構成の簡単な多値レベ
ルの濃淡画像データを高速処理できる画像処理方
式を提供することにある。
(4) Purpose of the Invention The purpose of the present invention is to improve the above-mentioned problems by providing a
Perform image processing such as smoothing operations, quadratic differential operations, image enhancement, and coarse contour extraction using spatial filters.
The object of the present invention is to provide an image processing method capable of high-speed processing of multi-level grayscale image data with a simple hardware configuration by synchronizing with a TV camera and executing the processing in real time at high speed.

(5) 発明の構成 このような目的を遂行するため本発明の画像処
理方式では、濃淡画像を画素単位で処理してその
粗輪郭を抽出する画像処理方式において、一定長
のデータを該データシフト回路に保持するデータ
シフト回路と、保持されたデータとあらかじめ設
定されている荷重係数との乗算を行う乗算回路
と、その結果をすべて加算する加算回路と、乗
算・加算によつて増加したレベルを適当な範囲に
収まるように割算を行う割算回路により構成され
る空間フイルタを使用して画像データに重畳する
ランダムな雑音を低減する平滑化演算手段と、同
様に構成された空間フイルタを用いて画像データ
の明るさの急変部分を強調する2次微分演算手段
と、これらの処理により得られたデータについ
て、隣り合う画素の濃淡レベルの比較により極点
を抽出する極点抽出手段とを具備し多値レベルの
濃淡画像の粗輪郭を2値画像として抽出するよう
にしたことを特徴とする。
(5) Structure of the Invention In order to achieve the above object, the image processing method of the present invention processes a grayscale image pixel by pixel and extracts its rough outline, and in this image processing method, a certain length of data is shifted by the data shift method. A data shift circuit that is held in the circuit, a multiplication circuit that multiplies the held data by a preset weighting coefficient, an addition circuit that adds all the results, and a level increased by multiplication and addition. A smoothing calculation means that reduces random noise superimposed on image data by using a spatial filter configured with a division circuit that performs division so that the division falls within an appropriate range, and a spatial filter configured in the same manner. The system is equipped with a second-order differential calculation means for emphasizing sudden changes in brightness in image data, and an extreme point extraction means for extracting extreme points by comparing the gray levels of adjacent pixels from the data obtained through these processes. The present invention is characterized in that the coarse outline of a value-level grayscale image is extracted as a binary image.

(6) 発明の実施例 本発明の一実施例を詳述するに先立ち、第1図
及び第2図にもとづき本発明の概略構成について
説明する。ここで第1図は本発明の画像処理方式
の簡単な構成図を示し、第2図はaの原画像に対
してbの画像データの得られることを示す。そし
て第1図において、1はTVカメラ、2はA/D
コンバータ、3は平滑化演算部、4は2次微分演
算部、5は極点抽出部、6は画像メモリ、7は走
査信号発生部であり、また第2図において、8は
認識すべき対象となる物体である。
(6) Embodiment of the Invention Before describing an embodiment of the present invention in detail, a schematic configuration of the present invention will be explained based on FIGS. 1 and 2. Here, FIG. 1 shows a simple configuration diagram of the image processing method of the present invention, and FIG. 2 shows that image data b is obtained from an original image a. In Figure 1, 1 is a TV camera, 2 is an A/D
Converter, 3 is a smoothing calculation unit, 4 is a second-order differential calculation unit, 5 is a pole extraction unit, 6 is an image memory, 7 is a scanning signal generation unit, and in FIG. 2, 8 is an object to be recognized. It is an object.

第1図において、TVカメラ1より入力された
アナログ画像信号はA/Dコンバータ2により、
例えば8ビツトの多値レベルの画像信号に変換さ
れる。そしてこの画像信号は、平滑化演算部3に
おいて照明のチラツキ、背景ノイズ、外部環境の
変化等のノイズが低減され、それから2次微分演
算部4によりその濃淡画像信号の2次微分が演算
され画像の明るさの急変した部分が抽出される。
このようにして、例えば第2図a―1の物体8に
対する画像信号より、第2図b―1に示すような
2次微分出力が得られる。したがつて、この2次
微分出力を極点抽出部5によりその極点を抽出す
れば、特にスライスレベルを設けることなく、物
体の粗輪郭を抽出することが可能となる。それ
故、この極点抽出部5の出力を画像メモリ6にセ
ツトすれば、特別なスライスレベルを設定するこ
となく、物体の輪郭を抽出できる。そしてこのよ
うな画像信号処理制御を、走査信号発生部7の走
査信号と同期させて処理を行うようにすれば、
TVカメラと同期してリアルタイムで高速にこの
画像処理を遂行させることができる。
In FIG. 1, an analog image signal input from a TV camera 1 is sent to an A/D converter 2.
For example, it is converted into an 8-bit multilevel image signal. Then, noise such as flickering of lighting, background noise, and changes in the external environment is reduced from this image signal in a smoothing calculation section 3, and then a second derivative of the grayscale image signal is calculated in a second-order differential calculation section 4 to form an image. The parts where the brightness suddenly changes are extracted.
In this way, for example, a second-order differential output as shown in FIG. 2 b-1 can be obtained from the image signal for the object 8 in FIG. 2 a-1. Therefore, by extracting the extrema of this second-order differential output using the extrema extracting section 5, it becomes possible to extract the rough outline of the object without particularly providing a slice level. Therefore, by setting the output of the extreme point extraction section 5 in the image memory 6, the outline of the object can be extracted without setting a special slice level. If such image signal processing control is performed in synchronization with the scanning signal of the scanning signal generating section 7,
This image processing can be performed at high speed in real time by synchronizing with the TV camera.

以下、本発明の一実施例を第3図〜第12図に
もとづき、他図を参照しつつ説明する。
Hereinafter, one embodiment of the present invention will be described based on FIGS. 3 to 12 and with reference to other figures.

第3図は平滑化演算部3や2次微分演算部4等
を構成する3×3の空間フイルタの説明図、第4
図は空間フイルタの用途とその荷重係数の説明
図、第5図は本発明の一実施例の具体的構成図、
第6図はデータシフト回路の一例の説明図、第7
図は乗算回路の説明図、第8図は加算回路の説明
図、第9図は割算回路の説明図、第10図は極点
抽出部を構成するデータシフト回路及び極点抽出
部の一例の説明図、第11図は極点抽出部の基本
動作説明図、第12図はスライスレベルに応じて
異なる粗輪郭が得られることを示す2値化画像図
である。
FIG. 3 is an explanatory diagram of a 3×3 spatial filter that constitutes the smoothing calculation unit 3, the second-order differential calculation unit 4, etc.
The figure is an explanatory diagram of the use of the spatial filter and its load coefficient, and Figure 5 is a specific configuration diagram of an embodiment of the present invention.
FIG. 6 is an explanatory diagram of an example of a data shift circuit, and FIG.
FIG. 8 is an explanatory diagram of the multiplication circuit, FIG. 8 is an explanatory diagram of the addition circuit, FIG. 9 is an explanatory diagram of the division circuit, and FIG. 10 is an explanation of an example of the data shift circuit and the extremum extraction section that constitute the extremity extraction section. 11 is an explanatory diagram of the basic operation of the extreme point extracting section, and FIG. 12 is a binarized image diagram showing that different rough contours can be obtained depending on the slice level.

平滑化演算部3と2次微分演算部4は3×3の
空間フイルタで構成され、その荷重係数のみが異
なるものである。したがつて先ず、簡単のために
3×3の空間フイルタについて、第3図により説
明する。
The smoothing calculation unit 3 and the second-order differential calculation unit 4 are composed of 3×3 spatial filters, and differ only in their weighting coefficients. Therefore, first, for the sake of simplicity, a 3.times.3 spatial filter will be explained with reference to FIG.

その空間フイルタとは、次式でm列n行の画素
の濃淡レベル値を求めるものである。
The spatial filter calculates the gray level value of a pixel in m columns and n rows using the following equation.

Yn,o1i=-1 1j=-1 Xn+i,o+ji,j1i=-1 1j=-1 i,j …… ここでXn,o及びYn,oはそれぞれ画面M上のm行
n列の画素の濃淡レベル値のフイルタリング前及
びフイルタリング後の値を示し、またi,jは荷重
係数を示している。したがつて荷重係数i,jを第
3図ロに示す如く定めるとき、Yn,oは Yn,o=1/16〔Yn-1,o-1×1+Xn,o-1×2+ Xn+1,o-1×1+Xn-1,o×2+Xn,o×4+
Xn+1,o×2+Xn-1,o×1+1+Xn,o+1×2+
Xn+1,o+1〕 により求められる。
Y n,o = 1i=-1 1j=-1 X n+i,o+ji,j1i=-1 1j=-1 i,j …… Here X n,o and Yn ,o respectively represent the gray level value of the pixel in m rows and n columns on the screen M before and after filtering, and i,j represent the weighting coefficients. Therefore, when the load coefficients i,j are determined as shown in Figure 3B, Y n, o = 1/16 [Y n-1,o-1 ×1 + X n,o-1 ×2+ X n+1,o-1 ×1+X n-1,o ×2+X n,o ×4+
X n+1,o ×2+X n-1,o×1 +1+X n,o+1 ×2+
X n+1,o+1 ].

この空間フイルタは、Yn,oの値をXn,oとその周
囲の8画素Xn+i,o+j(i=−1,0,1:j=−
1,0,1ただしi=0,j=0を除く)に注目
して、あらかじめ設定したi,jとの乗算によつて
決定されるものである。したがつてi,jの値の選
び方によつてこのフイルタの特性をいろいろと変
えることができ、遂行すべき処理内容に応じた値
の設定が可能である。
This spatial filter converts the value of Y n,o to X n,o and the surrounding 8 pixels X n+i,o+j (i=-1,0,1:j=-
1, 0, 1 (excluding i=0, j=0), and is determined by multiplying by i, j set in advance. Therefore, the characteristics of this filter can be changed in various ways by selecting the values of i and j , and the values can be set according to the processing content to be performed.

なおここで前記式ではその分母を1i=-1 1j=-1 i,j
で示しているが、この分母は後述の割算回路にお
いて記述するように、演算データの大きさ(Yn,o
のビツト長)がそのデータ処理装置におけるダイ
ナミツクレンジの範囲内にあるようにするための
ものであり、適当な係数に置換してもよく、また
1i=-1 1j=-1 i,j が零の場合にはこれを1にすることが
できる。
In addition, in the above formula, the denominator is 1i=-1 1j=-1 i,j
The denominator is the size of the operation data (Y n,o
(bit length) is within the dynamic range of the data processing device, and may be replaced with an appropriate coefficient.
1i=-1 1j=-1 If i,j are zero, this can be set to 1.

第4図に空間フイルタの用途とそれに対応する
荷重係数の例を示す。もし画面上のランダム雑音
を低減するための平滑化フイルタとして使用する
場合には平滑化用の(L―2)〜(L―4)を用
いれば効果的であるし、画面上の明るさの変化が
急な部分を強調したい場合には2次微分フイルタ
用の(LP―1),(LP―2)や強調用の(H―
3),(H―4)等が有効である。また境界線を検
出した場合には(B―1),(B―2)等を使用す
ればよい。第1図における平滑化演算部3として
は(L―2)または(L―4)を使用し、2次微
分演算部4としては(LP―1)または(LP―
2)を使用している。
FIG. 4 shows examples of uses of spatial filters and corresponding load coefficients. If it is used as a smoothing filter to reduce random noise on the screen, it is effective to use smoothing filters (L-2) to (L-4), and it also reduces the brightness on the screen. If you want to emphasize parts with sudden changes, use (LP-1), (LP-2) for second-order differential filters or (H-) for emphasis.
3), (H-4), etc. are valid. Furthermore, when a boundary line is detected, (B-1), (B-2), etc. may be used. In FIG. 1, (L-2) or (L-4) is used as the smoothing calculation unit 3, and (LP-1) or (LP-4) is used as the second-order differential calculation unit 4.
2) is used.

次に前記式の演算を実現するハード構成につ
いて説明する。
Next, the hardware configuration for realizing the calculation of the above equation will be explained.

前述の如く、式により平滑化演算や2次微分
演算を行うものであるが、第5図に示す如く、平
滑化演算部3はデータシフト回路3―1、乗算回
路3―2、加算回路3―3及び割算回路3―4等
で構成され、また2次微分演算部4はこれまたデ
ータシフト回路4―1、乗算回路4―2、加算回
路4―3及び割算回路4―4等で構成されてい
る。したがつてこの式の演算を実現するための
空間フイルタはデータシフト回路、乗算回路、加
算回路及び割算回路等により構成されるものであ
る。
As mentioned above, smoothing calculations and second-order differential calculations are performed using formulas, and as shown in FIG. -3, a division circuit 3-4, etc., and the second-order differential operation section 4 also includes a data shift circuit 4-1, a multiplication circuit 4-2, an addition circuit 4-3, a division circuit 4-4, etc. It consists of Therefore, a spatial filter for realizing the calculation of this equation is composed of a data shift circuit, a multiplication circuit, an addition circuit, a division circuit, and the like.

データシフト回路は1画面分の画像データに対
して3×3の空間フイルタリング処理を実行する
ために、第6図に示す如く、2行+3画素のデー
タをシフトレジスタを用いて記憶格納し、次段の
乗算回路にXn+i,o+j(i=−1,0,1;j=−
1,0,1)の9画素を送出する機能を持つ。第
6図において、1行p画素、2q濃淡レベルの画面
データの場合ついて説明すると、1画素qビツト
で表示されたデータを1段目は3画素分、2段目
及び3段目はp画素分のシフトレジスタを用いて
保持する。そして各段の最後の3画素について
は、次段の乗算回路へ同時に各画素のデータを送
出できるようにラツチまたはフリツプフロツプR
1〜R9を縦続接続するかシリアル・イン―パラ
レル・アウトのシフトレジスタを使用することに
より9画素の送出が実現できる。そして2段目及
び3段目は(p―3)画素分のシフトレジスタ1
1,12を使用して送出分以外の画素のデータを
保持する。そしてこのデータシフト回路はTVカ
メラの走査信号により1画素ずつシフトするもの
である。
In order to perform 3×3 spatial filtering processing on image data for one screen, the data shift circuit stores and stores data of 2 rows + 3 pixels using a shift register, as shown in FIG. X n+i,o+j (i=-1,0,1;j=-
It has the function of transmitting nine pixels (1, 0, 1). In Fig. 6, the case of screen data with p pixels in 1 row and 2q gray level will be explained.The data displayed in 1 pixel and q bits is divided into three pixels in the first row, and p in the second and third rows. It is held using a shift register for pixels. For the last three pixels of each stage, a latch or flip-flop R is installed so that the data of each pixel can be simultaneously sent to the multiplier circuit of the next stage.
By cascade-connecting pixels 1 to R9 or using a serial-in-parallel-out shift register, nine pixels can be transmitted. The second and third stages are shift registers 1 for (p-3) pixels.
1 and 12 are used to hold data of pixels other than those sent out. This data shift circuit shifts one pixel at a time according to the scanning signal of the TV camera.

乗算回路は、第7図に示す如く、前記データシ
フト回路から送出された9画素の各々に対してあ
らかじめ設定した荷重係数i,j(i=−1,0,
1;j=−1,0,1)を乗じて Wn+i,o+j=Xn+i,o+j×i,j …… (i=−1,0,1;j=−1,0,1) を求める乗算機能を持つている。そのために、第
7図に示す如く、第1乗算器13〜第9乗算器2
1の9個の乗算器を用い、第1乗算器13には荷
重係数-1,-1が設定されておりデータシフト回路
より送出された画素Xn-1,o-1との乗算が行なわれ
る。そして第2乗算器14には荷重係数-1,0が設
定されておりデータシフト回路より送出された画
素Xn-1,oとの乗算が行なわれる。このようにして
第7図に示す乗算回路により前記式における乗
算を行うことができる。
As shown in FIG. 7, the multiplication circuit applies weight coefficients i,j (i=-1, 0,
1; j=-1,0,1) W n+i,o+j =X n+i,o+j × i,j ... (i=-1,0,1; j=- 1, 0, 1). For this purpose, as shown in FIG. 7, the first multiplier 13 to the ninth multiplier 2
1, nine multipliers are used, and the first multiplier 13 is set with a weighting coefficient of -1,-1 , and is multiplied by the pixel Xn-1,o-1 sent from the data shift circuit. It will be done. A weighting coefficient of -1,0 is set in the second multiplier 14, and multiplication with the pixel X n-1,o sent from the data shift circuit is performed. In this way, the multiplication in the above equation can be performed by the multiplication circuit shown in FIG.

加算回路は、第8図に示す的く、前記乗算回路
で演算された9個の値Wn+i,o+j(i=−1,0,
1,;=−1,0,1)からこれらの和 Zn,o1i=-1 1j=-1 Wn+i,o+j …… (i=1,0,1;j=−1,0,1) を求める加算機能を有するものである。そのため
に第8図に示す如く、第1加算器22〜第8加算
器29を使用している。
As shown in FIG. 8, the adder circuit calculates the nine values W n+i,o+j (i=-1, 0,
1,;=-1,0,1), the sum of these Z n,o = 1i=-1 1j=-1 W n+i,o+j …… (i=1,0,1 ; j=-1, 0, 1). For this purpose, as shown in FIG. 8, first to eighth adders 22 to 29 are used.

また割算回路は、前記乗算回路及び加算回路に
おける乗算演算、加算演算により増加した濃淡レ
ベルZn,oを、画像メモリ及びモニタ用TVの階調
レベルの範囲に収まるように正規化係数Hで割
り、 Yn,o=Zn,o/H …… を求めるものであつて、第9図に示す如く、第1
データセレクタ30〜第8データセレクタ37に
より構成されており、前記式の演算を行うこと
により前記式の最終演算結果のYn,oが得られる
ものである。この第9図は、8ビツトの濃淡画素
を前記の如く乗算演算及び加算演算により16ビツ
トの濃淡レベルのデータZn,oになつたものを8ビ
ツトデータYn,oに減らすときの例であつて、第1
データセレクタ30には16ビツトデータのZn,o
うち2〜9ビツトを入力し、第2データセレクタ
31には16ビツトデータZn,oのうち3〜10ビツト
を入力し、以下同様に第3データセレクタ32に
は4〜11ビツトを入力し、第4データセレクタ3
3には5〜12ビツトを、第5データセレクタ34
には6〜13ビツトを、第6データセレクタ35に
は7〜14ビツトを、第7データセレクタ36には
8〜15ビツトを、第8データセレクタ37には9
〜16ビツトをそれぞれ入力する。そしてセレクタ
ラインSLより伝達された3ビツトの選択信号に
応じて各データセレクタ30〜37は、前記8ビ
ツトの入力のうち第1番目〜第8番目のいずれか
1つのビツトを選択出力する。例えば27でZn,o
商する場合にはそれぞれデータセレクタ30〜3
7より第1番目のビツトを出力するように各デー
タセレクタ30〜37が制御されるので、第1デ
ータセレクタ30からは2〜9ビツトのうちの第
1番目のビツトすなわち16ビツトのうちの2ビツ
ト目が出力され、第2データセレクタ31からは
3〜10ビツトのうちの第1番目のビツトすなわち
16ビツトのうちの3ビツト目が出力され、第3デ
ータセレクタ32からは4〜11ビツトのうちの第
1番目のビツトすなわち16ビツトのうちの4ビツ
ト目が出力され、以下同様にして第8データセレ
クタ37からは9〜16ビツトのうちの第1番目の
ビツトすなわち16ビツトのうちの9ビツト目が出
力されることになり、この結果各データセレクタ
30〜37より16ビツトのZn,oを27で商した値で
ある2〜9ビツトを出力することになる。同様に
してZn,oを26で商する場合には各データセレクタ
30〜37から第2番目のビツト、すなわち16ビ
ツトのデータよりその3〜10ビツトを出力すれば
よく、25で商する場合には各データセレクタ30
〜37より第3番目のビツトを出力させて16ビツ
トのデータよりその4〜11ビツトを出力させれば
よい。このようにしてN番目のデータセレクタに
は16ビツトデータのうち215-N〜28-Nビツト目を
入力し、割る数2kに対応してセレクタラインにk
の値をセツトすることにより割算を高速に実現す
ることができる。ここで正規化係数Hとして1i=-1 1j=-1 i,j に近い2k(k=0,1,2…)の値を選んで
いる。このように、データセレクタを用いること
により割算の高速化をはかることができる。
Furthermore, the division circuit uses a normalization coefficient H to adjust the gray level Z n,o increased by the multiplication and addition operations in the multiplication circuit and the addition circuit so that it falls within the range of the gray level of the image memory and the monitor TV. The purpose is to divide Y n,o = Z n,o /H... as shown in Figure 9.
It is composed of a data selector 30 to an eighth data selector 37, and by calculating the above equation, Y n,o, which is the final calculation result of the above equation, can be obtained. FIG. 9 is an example of reducing the 16-bit gray level data Z n,o to 8-bit data Y n,o by multiplying and adding 8-bit gray pixels as described above. First, first
2 to 9 bits of the 16-bit data Z n,o are input to the data selector 30, 3 to 10 bits of the 16-bit data Z n,o are input to the second data selector 31, and so on. 4 to 11 bits are input to the third data selector 32, and the fourth data selector 3
3, 5 to 12 bits, fifth data selector 34
6 to 13 bits to the 6th data selector 35, 7 to 14 bits to the 7th data selector 36, 9 to 15 bits to the 8th data selector 37.
~16 bits each. Each data selector 30-37 selects and outputs any one of the first to eighth bits of the 8-bit input in response to a 3-bit selection signal transmitted from the selector line SL. For example, when quotient Z n,o by 2 7 , data selectors 30 to 3 are used.
Since each data selector 30 to 37 is controlled to output the first bit from bit 7, the first data selector 30 outputs the first bit from bits 2 to 9, that is, 2 out of 16 bits. The second data selector 31 outputs the first bit of the 3rd to 10th bits, i.e.
The third bit out of the 16 bits is output, and the third data selector 32 outputs the first bit out of the 4th to 11th bits, that is, the 4th bit out of the 16 bits. The data selector 37 outputs the first bit of 9 to 16 bits, that is, the 9th bit of 16 bits, and as a result, each data selector 30 to 37 outputs 16 bits Z n,o It will output 2 to 9 bits, which is the value obtained by multiplying by 27 . Similarly, when Zn ,o is multiplied by 26 , it is sufficient to output the second bit from each data selector 30 to 37, that is, 3 to 10 bits from the 16-bit data, and the quotient is multiplied by 25 . If so, each data selector 30
It is sufficient to output the third bit from .about.37 and output the 4th to 11th bits from the 16-bit data. In this way, the 215-N to 28-N bits of the 16-bit data are input to the Nth data selector, and k is input to the selector line corresponding to the dividing number 2k .
By setting the value of , division can be realized at high speed. Here, a value of 2 k (k=0, 1, 2...) close to 1i=-1 1j=-1 i,j is selected as the normalization coefficient H. In this way, by using the data selector, it is possible to speed up division.

極点抽出部5は、第10図イに示すデータシフ
ト回路5―1及び第10図ロに示すデータ比較回
路5―2により構成されているが、その動作原理
を第11図により説明する。説明の簡略化のた
め、第11図イの原画像Pが図示状態の1次元方
向の濃度分布を有する場合においてその極点Rを
求める例について説明する。原画像Pを左に一画
素Δだけシフトした左シフト画像をPLとし、右
に一画素Δだけシフトした右シフト画像をPR
する。そして原画像Pと左シフト画像PLを比較
して原画像の方が濃度が大きいか等しい(以下こ
れをP≧PLとする)部分QLを抽出し、また原画
像Pと右シフト画像PRを比較して原画像の方が
濃度が大きいか等しい(以下これをP≧PRとす
る)部分QRを抽出する。このとき求める極点
(極大点)Rは少なくとも両隣りの画素より大き
いか等しいレベルであると考えられるので、第1
1図ホのように部分QLでかつQRのところを抽出
することにより極点Rを求めることができる。た
だし、P=PL=PRのときは除外する。
The pole extractor 5 is composed of a data shift circuit 5-1 shown in FIG. 10A and a data comparison circuit 5-2 shown in FIG. 10B, and the principle of operation thereof will be explained with reference to FIG. To simplify the explanation, an example will be described in which the extreme point R is determined when the original image P shown in FIG. 11A has the one-dimensional density distribution as shown. Let P L be a left-shifted image obtained by shifting the original image P by one pixel Δ to the left, and P R be a right-shifted image obtained by shifting the original image P by one pixel Δ to the right. Then, the original image P and the left-shifted image P L are compared, and the original image has a higher or equal density (hereinafter referred to as P≧ PL ), a portion Q L is extracted, and the original image P and the right-shifted image P R is compared and a portion Q R in which the density of the original image is greater or equal (hereinafter referred to as P≧P R ) is extracted. The extreme point (maximum point) R found at this time is considered to be at least at a level greater than or equal to that of the pixels on both sides, so the first
The extreme point R can be found by extracting the part Q L and Q R as shown in Figure 1 E. However, the case where P=P L =P R is excluded.

ところで第11図ヘのLに示す如きパターンで
極点が存在するとき、X方向の走査のみではパタ
ーンLの極点辺l1,l3は抽出できるものの、極点
辺l2,l4は抽出することができないので、これを
Y方向にも走査することにより極点辺l2,l4を抽
出することができる。したがつて、例えば第11
図トに示す如き画素B,D,E,F,Hを有する
抽出ウインドウW′を使用すれば2次元の濃淡画
像のX方向あるいはY方向の極点を抽出できる。
By the way, when there is a pole in a pattern as shown in L in Fig. 11, the pole sides l 1 and l 3 of the pattern L can be extracted by scanning only in the X direction, but the pole sides l 2 and l 4 cannot be extracted. Since this is not possible, the pole sides l 2 and l 4 can be extracted by scanning this in the Y direction as well. Therefore, for example, the 11th
By using an extraction window W' having pixels B, D, E, F, and H as shown in the figure, it is possible to extract the extreme points in the X direction or Y direction of a two-dimensional grayscale image.

いま第11図チに示す1フレームを、走査信号
発生部7より出力された同期信号に応じて走査線
h0,h1,h2……により順次走査して平滑化演算部
3、2次微分演算部4を経由して得られた2次微
分演算データをレジスタr1,r2……r7及び(p―
3)データ長のシフトレジスタ11,12により
構成されるデータシフト回路5―1に伝達する。
レジスタr1〜r7及びシフトレジスタ11,12は
8ビツト幅で構成され、これにより画素Eとその
左右上下の各画素D,F及びB,Hに対する2次
微分演算データが出力されることになる。これら
のデータは、第10図ロに示す如く、比較器C―
1〜C―4、アンド・ゲートAN―1,AN―2,
オア・ゲートOR―1〜OR―5,ナンドゲート
NAND―1〜NAND―2,ピーク・レジスタ
PM等を具備するデータ比較回路5―2に伝達さ
れる。そして比較器C―1により画素EとDの2
次微分演算データが比較され、比較器C―2によ
り画素EとFの2次微分演算データが比較され、
比較器C―3により画素EとBの2次微分演算デ
ータが比較され、比較器C―4により画素EとH
の2次微分演算データが比較される。したがつて
画素Eが水平方向における極点の場合には比較器
C―1,C―2よりそれぞれ「1」が出力される
のでアンド・ゲートAN―1より「1」が出力さ
れ、また画素Eが垂直方向における極点の場合に
は比較器C―3,C―4よりそれぞれ「1」が出
力されるので、アンド・ゲートAN―2より
「1」が出力される。それ故、オア・ゲートOR
―1は画素Eが水平方向あるいは垂直方向の少な
くとも一方において極点であるとき「1」を出力
し、いずれの方向においても極点でないとき
「0」を出力する。それ故、オア・ゲートOR―
1の出力Xを指標としてピークフラグを求めるこ
とができる。そしてピーク・レジスタPMにその
ときの画素Eの8ビツトの原画像データを印加し
ておけば、極点のときの画素Eの実際のピーク値
を出力させることが可能となる。
Now, one frame shown in FIG.
The second-order differential operation data obtained by sequentially scanning h 0 , h 1 , h 2 ... and passing through the smoothing operation section 3 and the second-order differential operation section 4 are stored in registers r 1 , r 2 ... r 7 and (p-
3) It is transmitted to the data shift circuit 5-1 constituted by the data length shift registers 11 and 12.
Registers r 1 to r 7 and shift registers 11 and 12 are configured with an 8-bit width, so that the second-order differential calculation data for pixel E and each of the pixels D, F, B, and H on the left, right, upper, and lower sides thereof are output. Become. These data are input to the comparator C-- as shown in FIG. 10B.
1~C-4, AND gate AN-1, AN-2,
OR Gate OR-1 ~ OR-5, Nand Gate
NAND-1 ~ NAND-2, peak register
The data is transmitted to the data comparison circuit 5-2, which includes a PM and the like. Then, by comparator C-1, two of pixels E and D are detected.
The second-order differential calculation data are compared, and the second-order differential calculation data of pixels E and F are compared by comparator C-2.
Comparator C-3 compares the second-order differential calculation data of pixels E and B, and comparator C-4 compares the data of pixels E and H.
The second-order differential calculation data of are compared. Therefore, when pixel E is at the pole in the horizontal direction, comparators C-1 and C-2 each output "1", so AND gate AN-1 outputs "1", and pixel E When is the pole in the vertical direction, comparators C-3 and C-4 each output "1", and therefore AND gate AN-2 outputs "1". Therefore, OR GATE OR
-1 outputs "1" when the pixel E is at the extreme point in at least one of the horizontal direction or the vertical direction, and outputs "0" when it is not at the extreme point in either direction. Therefore, OR Gate OR-
The peak flag can be determined using the output X of 1 as an index. By applying the 8-bit original image data of pixel E at that time to the peak register PM, it becomes possible to output the actual peak value of pixel E at the extreme point.

このように、空間フイルタを2段使用して荷重
係数を適当に選ぶことにより、画像上のランダム
な雑音の低減と明るさの急変部の強調を行うこと
ができる。
In this way, by using two stages of spatial filters and appropriately selecting the weighting coefficients, it is possible to reduce random noise on the image and emphasize sudden changes in brightness.

第2図aの原画像に対して平滑化用のフイルタ
として第4図のL―2の荷重係数を用い、2次微
分用のフイルタとしてLP―2の荷重係数を用い
たときの様子を第2図bに示す。第2図において
a―1は物体8である円柱に右斜め上方から光が
当つている場合であり、a―2はそれを上方より
みたときの図である。またa―3は前記a―2の
X―Y1次元方向の明るさの変化を示したもので
ある。これを前記の各フイルタを使用して平滑化
演算及び2次微分演算後の濃淡レベルを3次元的
に表示したものがb―1であり、b―2はそれの
濃淡レベルを等明線で示したものである。そして
b―3はb―2のX―Y1次元方向の断面を示し
たものである。
Figure 2 shows the situation when using the weighting coefficient L-2 in Figure 4 as a smoothing filter and the loading coefficient LP-2 as a second-order differentiation filter for the original image in Figure 2a. It is shown in Figure 2b. In FIG. 2, a-1 shows a case in which light is shining on the cylinder, which is the object 8, from diagonally upward to the right, and a-2 shows the case when it is viewed from above. Further, a-3 shows the change in brightness in the XY one-dimensional direction of a-2. b-1 is a three-dimensional display of the shading level after smoothing calculation and second-order differential calculation using each of the above-mentioned filters, and b-2 is a three-dimensional display of the shading level using isobright lines. This is what is shown. And b-3 shows a cross section of b-2 in the X-Y one-dimensional direction.

濃淡画像において明るさが急変している点は物
体の面の縁点に対応して重要な点である。いま、
第2図b―3に示すように、平滑化演算及び2次
微分演算という2段の空間フイルタによつて強調
された明るさの急変部を適当なスライスレベルで
2値化して抽出する場合を考える。スライスレベ
ルとして第2図b―3のA,B,Cの3レベルを
選んで2値化すると、第12図a,b,cに示す
ようにそれぞれ異なつた粗輪郭が得られる。スラ
イスレベルAでは、第12図aに示す如く、レベ
ルが高すぎて輪郭に途切れが生じてしまうし、ス
ライスレベルCでは、第12図cに示す如く、輪
郭線が太くなつてしまう。そのため得られた輪郭
線に対して改めて途切れの修復処理あるいは細線
化処理を行なわなければならない。またスライス
レベルBの場合のように丁度よいスライスレベル
が設定できれば第12図bの如き輪郭線が得られ
るので、前記のような途切れの修復処理あるいは
細線化処理を行わずに済み都合がよいが、しかし
前記の2段の空間フイルタリング処理によつて得
られる場合の濃淡レベルは、そのときの対象物の
表面状態、色、形、照明条件、レンズの明るさ、
絞り等で毎回異なるために丁度良いスライスレベ
ルを常時決めることは非常に困難である。
The points where the brightness changes suddenly in the grayscale image are important points corresponding to the edge points of the surface of the object. now,
As shown in Fig. 2b-3, the case where a sudden change in brightness emphasized by a two-stage spatial filter of smoothing calculation and second-order differential calculation is extracted by binarizing it at an appropriate slice level. think. When three levels A, B, and C in FIG. 2 b-3 are selected as slice levels and binarized, different coarse contours are obtained as shown in FIG. 12 a, b, and c. At slice level A, as shown in FIG. 12a, the level is too high and breaks occur in the contour, and at slice level C, the contour line becomes thick, as shown in FIG. 12c. Therefore, it is necessary to perform another process of repairing the discontinuity or thinning the contour line. Furthermore, if an appropriate slice level can be set as in the case of slice level B, a contour line as shown in FIG. , However, the gray level obtained by the above two-stage spatial filtering process depends on the surface condition of the object at that time, color, shape, lighting conditions, lens brightness,
It is very difficult to always determine an appropriate slicing level because the slicing level differs each time due to the aperture, etc.

それ故、第2図b―1の尾根の部分のみを抽出
することができればスライスレベルの設定という
面倒な作業をすることなしに原画像の特徴点を一
連の線画として取出すことができる。この尾根部
分抽出処理を実行するために、前記の如き極点抽
出部5を使用する。この極点抽出部5は前記の如
く、水平方向及び垂直方向の極点を抽出してこれ
をハイレベル「1」に、その他の点をローレベル
「0」にするので、スライスレベルを必要とする
2値化処理部を設けることなく、例えば第2図b
―1の尾根部分のみをハイレベル「1」として抽
出することができる。そのためにこ画像処理方式
は2値化するときのスライスレベルの設定といつ
た主観的で、外部環境に強く影響される作業を行
うことなく、極点部分を抽出することができる。
Therefore, if only the ridge portion shown in FIG. 2b-1 can be extracted, the feature points of the original image can be extracted as a series of line drawings without the troublesome task of setting the slice level. In order to execute this ridge portion extraction process, the above-mentioned extreme point extraction unit 5 is used. As described above, this pole point extraction unit 5 extracts the pole points in the horizontal and vertical directions and sets them to high level "1" and sets the other points to low level "0", so two slice levels are required. For example, without providing a value processing section,
Only the ridge portion of -1 can be extracted as high level "1". Therefore, this image processing method can extract the extreme point portions without performing operations such as setting the slice level during binarization, which are subjective and strongly influenced by the external environment.

また、この画像処理方式におけるデータシフト
回路のデータのシフト、乗算回路へのXn+i,o+j(i
=−1,0,1;j=−1,0,1)の入力およ
び演算結果Wn+i,o+j(i=−1,0,1;j=−
1,0,1)の出力をTVカメラの水平走査信号
に同期した制御信号を用いることにより、1フレ
ームの濃淡画像処理を1/60秒、すなわち約
16.7msで完了することができる。
In addition, in this image processing method, data shift of the data shift circuit and X n+i,o+j (i
=-1,0,1;j=-1,0,1) input and operation result W n+i,o+j (i=-1,0,1;j=-
By using a control signal that synchronizes the output of 1, 0, 1) with the horizontal scanning signal of the TV camera, one frame of grayscale image processing can be processed in 1/60 seconds, or approximately
It can be completed in 16.7ms.

さらに極点抽出部の後にアドレス生成部を設け
ることによつて、その画素が極点のときのみその
アドレス情報を計算機に転送すれば、メモリの飛
躍的な節約が可能となる。
Furthermore, by providing an address generating section after the extreme point extracting section and transferring the address information to the computer only when the pixel is at the extreme point, it is possible to dramatically save memory.

なお前記説明では3×3の空間フイルタを用い
た場合について述べたが、フイルタの大きさを5
×5,7×7等と大きくすることによりハード装
置は大きくなるがそれだけきめ細かな画像処理が
可能になる。そして極点抽出部手段としてはハー
ドの代りにソフト的手段によつても実行すること
ができる。
In addition, in the above explanation, the case was described using a 3×3 spatial filter, but the size of the filter was changed to 5×3.
By increasing the size to x5, 7x7, etc., the hardware device becomes larger, but finer image processing becomes possible. The extreme point extracting means can also be executed by software instead of hardware.

そしてこの画像処理方式を1チツプのVLSIに
より構成することにより、物体の分類、選別、製
品の検査等の視覚認識を必要とする分野で、マイ
コンレベルのコンピユータによる2次元図形の認
識が可能になる。
By configuring this image processing method using a single-chip VLSI, it becomes possible to recognize two-dimensional shapes using a microcomputer-level computer in fields that require visual recognition, such as object classification, sorting, and product inspection. .

(7) 発明の効果 本発明によれば、空間フイルタにより構成され
た平滑化演算部と2次微分演算部を使用したので
高速に画像処理を行うことが可能となつた。そし
て極点抽出部をハード構成にすれば、更に高速処
理することができ、TVカメラの走査信号に同期
して、オンライン的に画像処理を行うことが可能
となる。しかもさらに極点抽出により特別なスラ
イスレベルを設定することなく、正確に物体の粗
輪郭を抽出することが可能となつた。
(7) Effects of the Invention According to the present invention, it has become possible to perform image processing at high speed because the smoothing calculation section and the second-order differential calculation section are used, each of which is composed of a spatial filter. If the pole point extraction section is configured as a hardware, even higher processing speed can be achieved, and image processing can be performed online in synchronization with the scanning signal of the TV camera. Furthermore, by extracting extreme points, it is now possible to accurately extract the rough outline of an object without setting a special slice level.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の画像処理方式の簡単な構成
図、第2図は本発明の動作説明図、第3図は空間
フイルタの説明図、第4図は空間フイルタの用途
とその荷重係数説明図、第5図は本発明の一実施
例の具体的構成図、第6図はデータシフト回路の
一例の説明図、第7図は乗算回路の一例の説明
図、第8図は加算回路の一例の説明図、第9図は
割算回路の一例の説明図、第10図は極点抽出部
を構成するデータシフト回路及び極点抽出部の一
例の説明図、第11図は極点抽出部の基本動作説
明図、第12図はスライスレベルに応じて異なる
粗輪郭が得られることを示す2値化画像図であ
る。 図中、1はTVカメラ、2はA/Dコンバー
タ、3は平滑化演算部、4は2次微分演算部、5
は極点抽出部、6は画像メモリ、7は走査信号発
生部、8は物体である。
Fig. 1 is a simple configuration diagram of the image processing method of the present invention, Fig. 2 is an explanatory diagram of the operation of the present invention, Fig. 3 is an explanatory diagram of the spatial filter, and Fig. 4 is an explanation of the use of the spatial filter and its loading coefficient. 5 is a specific configuration diagram of an embodiment of the present invention, FIG. 6 is an explanatory diagram of an example of a data shift circuit, FIG. 7 is an explanatory diagram of an example of a multiplication circuit, and FIG. 8 is an explanatory diagram of an example of a multiplication circuit. An explanatory diagram of an example, FIG. 9 is an explanatory diagram of an example of a division circuit, FIG. 10 is an explanatory diagram of an example of the data shift circuit and the extrema extractor that constitute the extrema extractor, and FIG. 11 is the basics of the extrema extractor. The operation explanatory diagram, FIG. 12, is a binarized image diagram showing that different coarse contours can be obtained depending on the slice level. In the figure, 1 is a TV camera, 2 is an A/D converter, 3 is a smoothing calculation unit, 4 is a second-order differential calculation unit, and 5
6 is an image memory, 7 is a scanning signal generator, and 8 is an object.

Claims (1)

【特許請求の範囲】[Claims] 1 濃淡画像を画素単位で処理してその粗輪郭を
抽出する画像処理方式において、一定長のデータ
を保持するデータシフト回路と、該データシフト
回路に保持されたデータとあらかじめ設定されて
いる荷重係数との乗算を行う乗算回路と、その結
果をすべて加算する加算回路と、乗算・加算によ
つて増加したレベルを適当な範囲に収まるように
割算を行う割算回路により構成される空間フイル
タを使用して画像データを重畳するランダムな雑
音を低減する平滑化演算手段と、同様に構成され
た空間フイルタを用いて画像データの明るさの急
変部分を強調する2次微分演算手段と、これらの
処理により得られたデータについて、隣り合う画
素の濃淡レベルの比較により極点を抽出する極点
抽出手段とを具備し多値レベルの濃淡画像の粗輪
郭を2値画像として抽出するようにしたことを特
徴とする画像処理方式。
1 In an image processing method that processes a grayscale image pixel by pixel and extracts its rough contour, a data shift circuit that holds data of a certain length, and a preset weighting coefficient and the data held in the data shift circuit are used. A spatial filter consists of a multiplication circuit that performs multiplication with , an addition circuit that adds all the results, and a division circuit that divides the level increased by multiplication and addition so that it falls within an appropriate range. a smoothing calculation means for reducing random noise superimposed on the image data; a second-order differential calculation means for emphasizing sudden changes in brightness of the image data using a similarly configured spatial filter; The present invention is characterized in that it is equipped with an extreme point extracting means for extracting an extreme point by comparing the gray levels of adjacent pixels from the data obtained by the processing, and extracts a rough outline of a multi-level gray image as a binary image. An image processing method that
JP57104742A 1982-06-18 1982-06-18 Picture processing system Granted JPS58222383A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP57104742A JPS58222383A (en) 1982-06-18 1982-06-18 Picture processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP57104742A JPS58222383A (en) 1982-06-18 1982-06-18 Picture processing system

Publications (2)

Publication Number Publication Date
JPS58222383A JPS58222383A (en) 1983-12-24
JPH0222421B2 true JPH0222421B2 (en) 1990-05-18

Family

ID=14388943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP57104742A Granted JPS58222383A (en) 1982-06-18 1982-06-18 Picture processing system

Country Status (1)

Country Link
JP (1) JPS58222383A (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60189375A (en) * 1984-03-08 1985-09-26 Sony Corp Video signal processing method
JPS60200111A (en) * 1984-03-26 1985-10-09 Hitachi Ltd Apparatus for recognizing three-dimensional object
JPS6288075A (en) * 1985-10-15 1987-04-22 Nippon Telegr & Teleph Corp <Ntt> Picture processor
JPS62221076A (en) * 1986-03-20 1987-09-29 Toshiba Eng Co Ltd Picture processor
JPS62263577A (en) * 1986-05-09 1987-11-16 Fujitsu Ltd Air brush system by picture processor
JP2623089B2 (en) * 1987-01-08 1997-06-25 株式会社鷹山 Video processing system
JP2549647B2 (en) * 1987-02-27 1996-10-30 株式会社東芝 SEM image restoration processing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4874749A (en) * 1971-12-24 1973-10-08
JPS5273747A (en) * 1975-12-17 1977-06-21 Hitachi Ltd Image processing device
JPS5582378A (en) * 1978-12-18 1980-06-21 Ricoh Co Ltd Edge processing method in picture processing
JPS568140A (en) * 1979-07-02 1981-01-27 Dainippon Screen Mfg Co Ltd Emphasizing method of sharpness in image scanning and recording apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4874749A (en) * 1971-12-24 1973-10-08
JPS5273747A (en) * 1975-12-17 1977-06-21 Hitachi Ltd Image processing device
JPS5582378A (en) * 1978-12-18 1980-06-21 Ricoh Co Ltd Edge processing method in picture processing
JPS568140A (en) * 1979-07-02 1981-01-27 Dainippon Screen Mfg Co Ltd Emphasizing method of sharpness in image scanning and recording apparatus

Also Published As

Publication number Publication date
JPS58222383A (en) 1983-12-24

Similar Documents

Publication Publication Date Title
US4783833A (en) Method of extracting an image of a moving object
CN108154502B (en) Through hole welding spot identification method based on convolutional neural network
US5325200A (en) Apparatus and method for transforming a digitized signal of an image into a reflective surface
Otte et al. Estimation of optical flow based on higher-order spatiotemporal derivatives in interlaced and non-interlaced image sequences
Yasri et al. Performance analysis of FPGA based Sobel edge detection operator
US4290049A (en) Dynamic data correction generator for an image analyzer system
EP0177160A2 (en) Apparatus and method for implementing dilation and erosion transformation in grayscale image processing
Foresti et al. A change-detection method for multiple object localization in real scenes
JPH0222421B2 (en)
Pham et al. Low-light image enhancement for autonomous driving systems using DriveRetinex-Net
Chen et al. Classification and Positioning of Circuit Board Components Based on Improved YOLOv5
CN108960285B (en) Classification model generation method, tongue image classification method and tongue image classification device
CN110728692A (en) Image edge detection method based on Scharr operator improvement
CN112116561B (en) Power grid transmission line detection method and device based on image processing fusion network weight
Shao et al. An adaptive image contrast enhancement algorithm based on retinex
Tammana et al. An Exploration on Competent Video Processing Architectures
Chen et al. Hcsam-Net: Multistage Network with a Hybrid of Convolution and Self-Attention Mechanism for Low-Light Image Enhancement
Patanavijit Computational scrutiny of image denoising method found on DBAMF under SPN surrounding
JPH0534712B2 (en)
Lee et al. Efficient algorithm and architecture for post-processor in HDTV
JP7436752B2 (en) Detection device and detection method
CN1893550A (en) Image noise filtering system and method
Caroline et al. VLSI implementation and performance evaluation of adaptive filters for impulse noise removal
JP2806436B2 (en) Arithmetic circuit
Mal et al. Modified Contrast Enhancement using Laplacian and Gaussians Fusion Technique