JPS59125474A - Picture processing method - Google Patents

Picture processing method

Info

Publication number
JPS59125474A
JPS59125474A JP57233915A JP23391582A JPS59125474A JP S59125474 A JPS59125474 A JP S59125474A JP 57233915 A JP57233915 A JP 57233915A JP 23391582 A JP23391582 A JP 23391582A JP S59125474 A JPS59125474 A JP S59125474A
Authority
JP
Japan
Prior art keywords
pixel
data
pole
pixels
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP57233915A
Other languages
Japanese (ja)
Other versions
JPH0143348B2 (en
Inventor
Tsugito Maruyama
次人 丸山
Takashi Uchiyama
隆 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP57233915A priority Critical patent/JPS59125474A/en
Publication of JPS59125474A publication Critical patent/JPS59125474A/en
Publication of JPH0143348B2 publication Critical patent/JPH0143348B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To extract assuredly a pole and to recognize accurately an object by extracting a picture element having a larger difference in variable density level than any adjacent picture elements set horizontally, vertically or diagonally as a pole. CONSTITUTION:The variable density picture signal sent from a TV camera 1 is converted into a digital picture data signal by an A/D converter 2 and then applied with the primary or secondary differentiation through a space filter 3. The output of the filter 3 is supplied to a data shift circuit 4, and the circuit 4 stores and shifts the data signal needed for extraction of a pole. Then a data processing circuit 5 extracts a picture element having a larger difference in variable density level than any adjacent two picture elements which set horizontally, vertically or diagonally as a pole.

Description

【発明の詳細な説明】 (1)発明の技術分野 本発明は、画像処理方法に係り、特に、濃淡画像の極点
を抽出する上で有効な画像処理方法の改良に関する。
DETAILED DESCRIPTION OF THE INVENTION (1) Technical Field of the Invention The present invention relates to an image processing method, and particularly to an improvement in an image processing method that is effective in extracting extreme points of a grayscale image.

(2)技術の背景 一般に、TVカメラ等より得られた画像では、明るさの
急変している部分が物体の面の線点に対応して重要な点
であると考えられておシ、それらの点を一連のつなが9
として抽出することは物体のパターン認識を行う上で重
要な処理である。
(2) Background of the technology In general, in images obtained from TV cameras, etc., parts where the brightness changes suddenly are considered to be important points corresponding to line points on the object's surface. Connect the dots in a series of 9
This is an important process for pattern recognition of objects.

(3)従来技術と問題点 上述した考え方から、本件出願人は、先に、次のような
画像処理方法を提案している(特願昭57−10471
4号)。これは、例えば、前処理によって得た多値レベ
ルの濃淡画像を画素単位に細分し、注目画素とこれに水
平及び垂直方向において隣箋する画素との濃淡レベルを
夫々比較した後、いずれか一方の方向に並ぶ二画素のう
ち注目画素が高レベルであるときに当該注目画素を極点
として抽出するというものである。この方法によれば、
上記極点を一連のつながシとして求めることによシ、物
体の輪郭を認識することが可能になる。
(3) Prior art and problems Based on the above-mentioned concept, the applicant has previously proposed the following image processing method (Japanese Patent Application No. 57-10471).
No. 4). For example, after subdividing the multilevel grayscale image obtained through preprocessing into pixel units, and comparing the grayscale levels of the pixel of interest and pixels adjacent to it in the horizontal and vertical directions, either When a pixel of interest out of two pixels lined up in the direction of is at a high level, the pixel of interest is extracted as an extremum. According to this method,
By finding the above-mentioned extreme points as a series of connected lines, it becomes possible to recognize the outline of the object.

然しなから、このような画像処理方法にあっては、例え
ば、重なった物体の輪郭を認識する場合や角部を備えた
物体の輪郭を認識する場合に、輪郭の分岐点に対応した
画素は二つの輪郭線上に位置することから、仮に、当該
画素部分近傍において夫々の輪郭線が水平及び垂直方向
に延びるものとすれば、当該輪郭の分岐点に対応した画
素が極点として抽出され得ない事態を生じ、これに伴っ
て、物体の輪郭が途切れてしまい、その分、物体の認識
が不正確なものになってしまう。
However, in such an image processing method, for example, when recognizing the outline of overlapping objects or the outline of an object with corners, the pixels corresponding to the branching points of the outline are Since the pixel is located on two contour lines, if the respective contour lines were to extend horizontally and vertically in the vicinity of the pixel portion, the pixel corresponding to the branching point of the contour could not be extracted as an extremity. As a result, the outline of the object is interrupted, and the recognition of the object becomes inaccurate accordingly.

(4)発明の目的 本発明は以上の観点に立って為されたものであって、そ
の目的とするところは、物体の輪郭の途切れをなくシ、
もって、正確な物体の認識を可能とした画像処理方法を
提供することにある。
(4) Purpose of the Invention The present invention has been made from the above point of view, and its purpose is to eliminate discontinuities in the contours of objects;
Therefore, it is an object of the present invention to provide an image processing method that enables accurate object recognition.

(5)発明の構成 本発明の基本的構成は、受像機等より得られた画像をマ
トリックス状にを列した複数の画素に分割し、該複数の
画素のうち、隣接する周囲の水平、垂直及びち右対角方
向に並ぶいずれか二つの画素よりも濃淡レベルの差が大
きい画素を極点として抽出するようにした画像処理方法
にある。
(5) Structure of the Invention The basic structure of the present invention is to divide an image obtained from a receiver or the like into a plurality of pixels arranged in a matrix, and among the plurality of pixels, adjacent horizontal and vertical Furthermore, there is an image processing method in which a pixel having a larger difference in gray level than any two pixels lined up in the right diagonal direction is extracted as an extreme point.

(6)発明の実施例 以下、添付図面に示す実施例に基づいて本発明の詳細な
説明する。
(6) Embodiments of the Invention Hereinafter, the present invention will be described in detail based on embodiments shown in the accompanying drawings.

先ず、第1図に基づいて本発明に係る極点抽出処理の基
本原理を説明する。今、説明を単純化するために、原画
像の一次元方向の濃度分布が第1図(、)に示すように
Pである場合において、その極点Rを求める。先ず、第
1図(b)に示すように、原画像Pを左方向に一画素△
だけシフトした画像パターンをPLとし、第1図(C)
に示すように、この左シフト画像パターンPLと原画像
Pとを比較して原画像Pの濃度が大きいか等しい(以下
これをP≧Px、とする)部分QLを抽出し、また、第
1図(d)に示すように、原画像Pを右方向に一画素△
だけシフトした画像パターンをPRとし、第1図(e)
に示すように、この右シフト画像パターンPRと原画像
Pとを比較して原画像Pの濃度が大きいか等しい(以下
これをP≧PRとする)部分QRを抽出する。次いで、
求める極点Rは少くとも両隣シの画素よシも大きいか等
しいレベルであると考えられることから、第1図(f)
に示すように、上記抽出部分QLとQRとのシップ部分
(以下QL QRとする)を抽出することによシ極点R
を得ることができるのである。ただし、P=PL=PR
のときは極点Rは存在しないため除外する。
First, the basic principle of the extreme point extraction process according to the present invention will be explained based on FIG. Now, in order to simplify the explanation, when the density distribution in the one-dimensional direction of the original image is P as shown in FIG. First, as shown in FIG. 1(b), move the original image P by one pixel △ to the left.
The image pattern shifted by
As shown in , this left-shifted image pattern PL and the original image P are compared to extract a portion QL in which the density is greater than or equal to that of the original image P (hereinafter referred to as P≧Px), and the first As shown in figure (d), the original image P is moved one pixel △ to the right.
The image pattern shifted by the amount is set as PR, and Fig. 1(e)
As shown in FIG. 1, this right-shifted image pattern PR and the original image P are compared to extract a portion QR where the density of the original image P is greater than or equal to that of the original image P (hereinafter, this will be referred to as P≧PR). Then,
Since the sought extreme point R is considered to be at least as large as or equal to the pixels on both sides, it can be seen in Figure 1(f).
As shown in FIG.
can be obtained. However, P=PL=PR
In this case, the pole R does not exist and is therefore excluded.

今、二次元画像をマトリックス状、即ち水平方向及び垂
直方向に整列した画素単位に細分して把握すると、上述
した基本原理を用いてこの二次元画像の注目画素が水平
方向、垂直方向、左対角方向(水平方向に対して左上多
方向)若しくは右対角方向(水平方向に対して右上多方
向)において夫々極点であるか否かを個別に判断するこ
とが可能である。この場合、注目画素Eが夫々の方向に
おいて極点であるか否かを判断するだめに、第2図に示
すように、注目画素Eとこれを囲繞するへ画素A、B、
C,D、F、G。
Now, if we subdivide a two-dimensional image into a matrix, that is, into pixel units aligned in the horizontal and vertical directions, we can use the basic principle described above to divide the pixel of interest in the two-dimensional image into horizontal, vertical, and left-aligned pixels. It is possible to individually judge whether the point is the extreme point in the corner direction (multiple directions in the upper left with respect to the horizontal direction) or in the right diagonal direction (multiple directions in the upper right with respect to the horizontal direction). In this case, in order to determine whether or not the pixel of interest E is a pole in each direction, as shown in FIG.
C, D, F, G.

H,I  とでウイ、ンドウWが設定されている。Window W is set with H and I.

第3図は上述したウィンドウWを用いて極点を抽出する
ための具体的なアルゴリズムを示すものである。
FIG. 3 shows a specific algorithm for extracting extreme points using the window W described above.

先ず、二次元画像の注目画素Eが水平方向において極点
でちるか否かを判断する場合について説明すると、注目
画素Eとこの注目画素Eの両隣シの画素り及びFとの濃
淡レベルを比較し、E≧D(画素Eの濃度が画素りの濃
度よシ大きいか等しいこと、以下同様である)ならば5
L−1、そうでなければ5L=Oとし、またE≧Fなら
ば5R=1、そうでなければ5R=0とし、ただし、E
=D=Fならば濃淡レベルが変化しないことから5N−
0、そうでないときは5N=1とする。そして、上記注
目画素Eが水平方向において極点であるか否かの指標S
は、SL、SR及びSNの論理積演算、即ちS = S
L X SRX SNによって得られ、S=1のとき画
素Eが極点であることを示し、S=0のとき画素Eが極
点でないことを示している。
First, to explain the case of determining whether or not a pixel of interest E in a two-dimensional image falls at a pole in the horizontal direction, the gray level of the pixel of interest E and the pixels F and F on both sides of this pixel of interest E are compared. , if E≧D (the density of pixel E is greater than or equal to the density of pixel A, the same applies hereafter), then 5.
L-1, otherwise 5L=O, and if E≧F, 5R=1, otherwise 5R=0, but E
If =D=F, the density level does not change, so 5N-
0, otherwise 5N=1. Then, an index S indicating whether or not the pixel of interest E is a pole in the horizontal direction
is the AND operation of SL, SR and SN, i.e. S = S
L X SRX SN is obtained, and when S=1, it indicates that the pixel E is a pole, and when S=0, it indicates that the pixel E is not a pole.

次に、二次元画像の注目画素Eが垂直方向において極点
であるか否かを判断する場合について説明すると、上述
したのと略同様に、注目画素Eとこの注目画素Eの上下
の画素B及びHとの濃淡レベルを比較し、E≧Bならば
TL=1、そうでなければTL=0とし、まだE≧Hな
らばTR−1、そうでなければTR=0とし、ただし、
E=B =HならばTN=0、そうでなければTN =
 1とする。そして、上記注目画素Eが垂直方向におい
て極点であるか否かの指標Tは、TL、TR及びTNの
論理積演算、即ちT:TL XTRXTNで得られ、T
=1のとき画素Eが極点であることを示し、T−0のと
き画素Eが極点でないことを示している。
Next, to explain the case of determining whether or not the pixel of interest E of a two-dimensional image is a pole in the vertical direction, the pixel of interest E, the pixels B above and below this pixel of interest E, and the pixels B above and below this pixel E and Compare the gray level with H, and if E≧B then TL=1, otherwise TL=0, if E≧H then TR-1, otherwise TR=0, however,
If E=B=H then TN=0, otherwise TN=
Set to 1. Then, an index T indicating whether or not the pixel of interest E is an extreme point in the vertical direction is obtained by a logical product operation of TL, TR, and TN, that is, T:TL XTRXTN, and T
=1 indicates that the pixel E is the extreme point, and T-0 indicates that the pixel E is not the extreme point.

また、二次元画素Eが右対角方向において極点であるか
否かを判断する場合について説明する(尚、左対角方向
についても同様であるので、以下カッコ書きで示すこと
にする。)と、上述したのと略同様に、注目画素Eとこ
の注目画素Eに右対角方向(左対角方向)において隣接
する画素C及びG(A及びI)との濃淡レベルを比較し
、E≧C(IN≧A)ならばUL=1(Vr、=1)、
そうでなければUr、= O(VL= 0 )とし、ま
たはE≧G(E≧1)ならばUL= 1 (Vt、=1
 )、そうでなければUL=O(VL=0 )とし、た
だし、E=C=G (E=A=I )ならばUN=12
(VN=ρ)、そうでなければUN=l (VN−/)
とする。
In addition, we will explain the case of determining whether or not the two-dimensional pixel E is a pole in the right diagonal direction (the same applies to the left diagonal direction, so it will be indicated in parentheses below). , substantially in the same way as described above, compare the gray levels of the pixel of interest E and the pixels C and G (A and I) adjacent to the pixel of interest E in the right diagonal direction (left diagonal direction), and find that E≧ If C(IN≧A), UL=1(Vr,=1),
Otherwise, Ur, = O (VL = 0), or if E≧G (E≧1), then UL = 1 (Vt, = 1
), otherwise UL=O (VL=0), but if E=C=G (E=A=I) then UN=12
(VN=ρ), otherwise UN=l (VN-/)
shall be.

そして、上記注目画素Eが右対角方向(左対角方向)に
おいて極点であるか否かの指標U(V)は、UL、UR
及びUN (VL、VR及びVN)の論理積演算、即ち
U=ULXURXUN (V=Vt、 XVRXVN 
)によって得られ、U(V)=1若しくはOのとき画素
Eが極点若しくは極点でないことを示している。
Then, the index U(V) indicating whether or not the pixel of interest E is the extreme point in the right diagonal direction (left diagonal direction) is UL, UR
and UN (VL, VR and VN), i.e. U=ULXURXUN (V=Vt, XVRXVN
), and when U(V)=1 or O, it indicates that the pixel E is a pole or not a pole.

更に、上記注目画素Eが画面上でいずれかの方向におい
て極点であるか否かの指標Xは、S IT、U及びvの
論理和演算、即ちX=S+T+U+Vによって得られ、
X=1のとき画素Eがいずれかの方向において極点であ
ることを示し、X−0のとき画素Eがいずれの方向にお
いても極点でないことを示してお、b、x=iのときの
値をハイレベルにすると共に、X−〇のときの値をロー
レベルにして極点が抽出されるのである。そして、この
ようなアルゴリズムを利用して上記ウィンドウWを画面
上で移動させると、二次元画像上のすべての極点が抽出
されることになる。
Furthermore, an index X indicating whether the pixel of interest E is a pole in any direction on the screen is obtained by a logical sum operation of SIT, U, and v, that is, X=S+T+U+V,
When X = 1, it indicates that pixel E is a pole in either direction, and when X-0, it indicates that pixel E is not a pole in either direction, and the value when b, x = i is set to a high level, and the value at X-0 is set to a low level to extract the extreme point. When the window W is moved on the screen using such an algorithm, all the extreme points on the two-dimensional image will be extracted.

上述したような画像処理方法を物体認識装置に適用した
一例を以下に示す。
An example in which the above-described image processing method is applied to an object recognition device will be shown below.

この物体認識装置の基本的構成は、第4図にTV右カメ
ラからの濃淡画像信号をディジタル化−j−るADコン
バータ2と、このADコンバータ2からのディジタル画
像データ信号を一次微分若しくは二次微分演算する空間
フィルタ3と、この空間フィルタ3からのディジタル画
像データ信号のうち極点抽出処理に必要なデータ信号を
記憶格納し且つTV右カメラの水平走査信号に同期して
データ信号をシフトさせるデータシフト回路4と、この
データシフト回路4に記憶格納したデータ信号に基づい
て極点抽出処理のための演算を行うデータ処理回路5と
から成る。
The basic configuration of this object recognition apparatus is shown in FIG. A spatial filter 3 that performs differential calculations, and data that stores and stores data signals necessary for pole point extraction processing among the digital image data signals from the spatial filter 3, and that shifts the data signals in synchronization with the horizontal scanning signal of the TV right camera. It consists of a shift circuit 4 and a data processing circuit 5 that performs calculations for pole point extraction processing based on data signals stored in the data shift circuit 4.

今、第5図に示すように、テーブル6上に円形状の物体
7aと三角形状の物体7bを重なシ合わせて載置し、こ
れらの物体7a、7bをTV右カメラで撮影すると、こ
のTVカメ;71からは濃淡画像信号がTV右カメラの
水平走査信号に同期して出力され、多値レベルの濃淡画
像が画素単位に細分化された状態でp(られる。そして
、上記TV左カメラからの出力信号はADコンバータ2
を介して例えば8ピントのディジタル画像データ信号に
変換される。この場合において、第6図に示すように、
TV右カメラの撮影画像のうち特に物体γa、7bの輪
郭の分岐部分(一点鎖線で囲む部分)に着目すると、上
記ディジタル画像データ信号に基づくディジタル濃淡画
像は、第7図に示すように表われ、各データ値は各画素
における濃淡レベルを示している。そして、上記ADコ
ンバータ2からの出力信号は空間フィルタ3を通過して
濃淡レベルを強調したディジタル画像データ信号に変換
され、この場合のディジタル濃淡画像は、例えば第8図
に示すように表われる。尚、第8図中の各デ−夕値は各
画素における濃淡レベルを示している。
Now, as shown in Fig. 5, if a circular object 7a and a triangular object 7b are placed on the table 6, overlapping each other, and these objects 7a and 7b are photographed with the TV right camera, this A grayscale image signal is output from the TV camera 71 in synchronization with the horizontal scanning signal of the TV right camera, and the multilevel grayscale image is subdivided into pixel units. The output signal from AD converter 2
The image data is converted into, for example, an 8-pin digital image data signal. In this case, as shown in Figure 6,
If we pay particular attention to the branching part of the outline of objects γa and 7b (the part surrounded by the dashed line) in the image taken by the TV right camera, the digital grayscale image based on the digital image data signal appears as shown in FIG. , each data value indicates the gray level at each pixel. Then, the output signal from the AD converter 2 passes through a spatial filter 3 and is converted into a digital image data signal with emphasized gray level. In this case, the digital gray image appears as shown in FIG. 8, for example. It should be noted that each data value in FIG. 8 indicates the gray level of each pixel.

上記データシフト回路4は、第4図及び第9図に示すよ
うに、TV左カメラの撮影画像画面の水平方向に並ぶ画
素数をNと仮定すれば、2N+3個の画素に対応したデ
ータを記憶格納するものであって、例えば、8ピントデ
一タ幅のレジスタR6を乃至R6c+と、N−3個の画
素に対応したデータを記憶格納する同じく8ビツトデー
タ幅のシフトレジスタS1.S2とで構成されておシ、
レジスタR61乃至Re9内に記憶格納されたデータが
第2図のウィンドウWで示す画素工乃至Aに対応したも
のになっている。即ち、第10図に赤すように、TV左
カメラの撮影画像画面を上方から下方に向けて水平走査
線hl、h2.h3・・・で順次走査していくと、走査
線hx、h2による走査が終シ、走査線h3による初め
の二画素までの走査が終ったb階においで、データシフ
ト回路4には2N−3個の画素データが記憶格納される
ことになシ、レジスタRel乃至Re9には夫々画素g
33(撮影画像画面上第3行第3列目に位置する画素、
以下同様である)、g32. g31. g23・・・
gllに対応したデータが記憶格納され、各データがウ
ィンドウWの画素I乃至Aのデータとして用いられるの
である。そして、走査線h3による画素g34の走査が
終ると、画素g34に対応したデータが新たにレジスタ
R61に記憶格納されると共に、各レジスタ内のデータ
が全体的にシフトすることにナシ、この段階にお7いて
、レジスタRBt乃至Re9には夫々画素g34 、 
g33 、 g32 。
As shown in FIGS. 4 and 9, the data shift circuit 4 stores data corresponding to 2N+3 pixels, assuming that the number of pixels arranged in the horizontal direction of the image screen shot by the TV left camera is N. For example, registers R6 to R6c+ each have an 8-bit data width, and shift registers S1 . It is composed of S2,
The data stored in the registers R61 to Re9 correspond to the pixels A to A shown in window W in FIG. That is, as shown in red in FIG. 10, horizontal scanning lines hl, h2, . When scanning is performed sequentially with h3..., the scanning by the scanning lines hx and h2 ends, and at the b floor where the scanning of the first two pixels by the scanning line h3 is completed, the data shift circuit 4 receives 2N- Three pieces of pixel data are stored in registers Rel to Re9, respectively.
33 (pixel located in the third row and third column on the photographed image screen,
The same shall apply hereinafter), g32. g31. g23...
The data corresponding to gll is stored and each data is used as data for pixels I to A of window W. When the scanning of the pixel g34 by the scanning line h3 is completed, the data corresponding to the pixel g34 is newly stored in the register R61, and at this stage, the data in each register is not entirely shifted. In addition, pixels g34 and 7 are stored in registers RBt to Re9, respectively.
g33, g32.

g24 ・・・g12に対応したデータが記憶格納され
ることになシ、ウィンドウWが一列右に移動した状態に
なる。更に、走査線h3による走査が進むと、上記ウィ
ンドウWは走査信号に同期して順次右方ヘシフトしてい
き、走査線h4による走査に移ると、上記ウィンドウW
は一行下に下がった後、左方から右方へと順次移動1−
てぃく。
g24...The data corresponding to g12 is not stored and the window W is moved one column to the right. Further, as the scanning by the scanning line h3 progresses, the window W shifts to the right in synchronization with the scanning signal, and as the scanning by the scanning line h4 progresses, the window W shifts to the right in synchronization with the scanning signal.
moves down one line, then moves sequentially from left to right 1-
Teak.

このように、走査線による走査に伴って上記ウィンドウ
Wは順次移動していき、走査線mによる走査が終了した
段階において、上記ウィンドウWは撮影画像の全範囲を
画素単位で移動することになり、これにより、極点抽出
処理に必要なデータはすべて読み込まれることになシ、
夫々のデータは順次データ処理回路5に送出される。
In this way, the window W moves sequentially as the scanning line m scans, and at the end of the scanning line m, the window W moves across the entire range of the photographed image pixel by pixel. , this means that all the data necessary for the pole extraction process will be loaded.
Each data is sequentially sent to the data processing circuit 5.

また、データ処理回路5は、第4図及び第11図に示す
ように、注目画素Eとこの注目画素Eに水平方向におい
て隣接する画素り及びFとのデータを比較する水平方向
比較部5aと、注目画素Eとこの注目画素Eに垂直方向
において隣接する画素B及びHとのデータを比較する垂
直方向比較部5bと、注目画素Eとこの注目画素Eに右
対角方向において隣接する画素C及びGとのデータを比
較する右対角方向比較部5cと、注目画素Eとこの注目
画素Eに左対角方向において隣接する画素A及び工との
データを比較する左対角方向比較部5dと、比較結果を
出力する出力部5eによシ構成されており、比較器C0
1・参・Co8、アンド・ゲートAN1. AN2、オ
アデー) OR1・・・OR9ナントゲートNA1・・
・NA4及び注目画素Eのデータがセントされ該注目画
素Eが極点であるとき前記データを出方するピークレジ
スタPMを備えていて、第3図に示すアルゴリズムを実
行するように回路構成されている。即ち、比較器C(H
は画素EとDとのデー″りを比較してE≧Dのとき[1
jを出方するものであシ、比較器CO2は画素E(!:
Fとのデータを比較してE≧Fのとき「1」を出方する
ものであシ、比較器Co3は画素EとBとのデータを比
較してE≧Bのとき「1」を出力するものであシ、比較
器CO4は画素EとHとのデータを比較してE≧Hのと
きrlJを出力するものであシ、比較器C□sは画素E
とCとのデータを比較してE≧Cのとき「1」を出力す
るものであシ、比較器co6は画素EとGとのデータを
比較してE≧Gのとき「1」を出力するものであシ、比
較器CO7は画素EとAとのデータを比較してE≧Aの
ときrlJを出力するものであシ、比較器c08は画素
Eと■とのデータを比較してE≧1のときrlJを出方
するものである。そして、比較器COI、CO2がいず
れも「1」を出力し且つE =D =Fでない場合、言
い換えれば、画素Eが水平方向の極点である場合アンド
ゲートANIはrlJを出力し、他も同様に、画素Eが
垂直方向の極点である場合にはアンドゲートAN2は「
1」を出力し、画素Eが右対角方向の極点である場合に
はアントゲ−)、AN3は「1」を出力し、画素Eが左
対角方向の極点である場合にはアンドゲートAN4は「
1」を出力する。従って、オアデー) OR9は、画素
Eが水平方向、垂直方向若しくは左右対角方向のいずれ
かで極点であるとき「1」を出力することになシ、この
出力信号を指標Xとして極点の抽出が行なわれるのであ
る。また同時にオアデー) OR9が「IJを出力した
ときにはピークレジスタPMから極点のデータがそのま
ま得られることになる。
As shown in FIGS. 4 and 11, the data processing circuit 5 also includes a horizontal comparison unit 5a that compares data between the pixel E of interest and the pixels F and F adjacent to the pixel E in the horizontal direction. , a vertical comparison unit 5b that compares data between the pixel of interest E and pixels B and H adjacent to the pixel of interest E in the vertical direction; and a pixel C of interest and the pixel C adjacent to the pixel of interest E in the right diagonal direction. and G, and a left diagonal comparison unit 5d that compares data between the target pixel E and the pixels A and G adjacent to the target pixel E in the left diagonal direction. and an output section 5e that outputs the comparison result, and a comparator C0
1.Co8, and gate AN1. AN2, orday) OR1...OR9 Nantes Gate NA1...
・Equipped with a peak register PM that outputs the data when the data of NA4 and the pixel E of interest is sent and the pixel of interest E is at the extreme point, and the circuit is configured to execute the algorithm shown in FIG. 3. . That is, comparator C(H
compares the data between pixels E and D, and when E≧D, [1
The comparator CO2 outputs pixel E (!:
Comparator Co3 compares data between pixels E and B and outputs "1" when E≧F, and comparator Co3 compares data between pixels E and B and outputs "1" when E≧B. The comparator CO4 compares the data of pixels E and H and outputs rlJ when E≧H, and the comparator C□s compares the data of pixels E and H.
The comparator co6 compares the data of pixels E and C and outputs "1" when E≧C, and the comparator co6 compares the data of pixels E and G and outputs "1" when E≧G. The comparator CO7 compares the data of pixels E and A and outputs rlJ when E≧A, and the comparator c08 compares the data of pixels E and ■. When E≧1, rlJ is output. If the comparators COI and CO2 both output "1" and E = D = F, in other words, if pixel E is the horizontal pole, the AND gate ANI outputs rlJ, and the others do the same. If pixel E is the vertical pole, the AND gate AN2 is "
1", and if pixel E is the extreme point in the right diagonal direction, AN3 outputs "1", and if pixel E is the extreme point in the left diagonal direction, AND gate AN4 teeth"
1" is output. Therefore, OR9 should output "1" when pixel E is a pole in either the horizontal direction, vertical direction, or left/right diagonal direction, and the pole point can be extracted using this output signal as index X. It will be done. At the same time, when OR9 outputs IJ, the data at the extreme point will be obtained as is from the peak register PM.

この場合、この例における物体認識装置においてディジ
タル濃淡画像データをシントさせているので、リアルタ
イムで極点を抽出することが可能になっている。
In this case, since the digital grayscale image data is shinted in the object recognition device in this example, it is possible to extract the extreme points in real time.

このよう圧して、濃淡画像の極点は抽出されるが、第8
図に示すディジタル濃淡画像において実際に極点を抽出
してみると、図中丸印及び四角印で囲んだ点が極点にな
っている。この場合において、丸印で囲んだ極点は水平
若しくは垂直方向における極点として抽出されるのに対
し、四角印で囲んだ極点は水平、垂直方向における極点
としては抽出されず、左若しくは右対角方向における極
点として始めて抽出されるものになっている。上記四角
印で囲んだ極点部分は、例えば、重なった物体γa、7
bの輪郭分岐点に対応した部分であシ、この部分の極点
が抽出されることにより、従前の画像処理方法において
生じていた物体7a、7bの輪郭分岐点での途切れ(d
)(第12図参照)を確実になくすことができ、その分
、重なった物体の輪郭等を正確に認識することができる
By pressing in this way, the extreme points of the grayscale image are extracted, but the 8th
When the poles are actually extracted from the digital grayscale image shown in the figure, the points surrounded by circles and squares in the figure are the poles. In this case, the poles surrounded by circles are extracted as poles in the horizontal or vertical direction, whereas the poles surrounded by squares are not extracted as poles in the horizontal or vertical direction, but in the left or right diagonal direction. This is the first time that it has been extracted as an extreme point. The pole part surrounded by the square mark above is, for example, the overlapping object γa, 7
By extracting the extrema of this part, the discontinuity (d
) (see FIG. 12) can be reliably eliminated, and the contours of overlapping objects can be recognized accordingly.

尚、上記実施例では、空間フィルタ3r通過したディジ
タル濃淡画像について本発明を適用しているが、TV左
カメラがらの直接的なディジタル濃淡画像について本発
明を適用しても差支えない。又、本発明に係る画像処理
方法を用いた具体的手段については、上記実施例に限ら
れるものではなく、適宜設計変更してよいことは勿論で
ある。
In the above embodiment, the present invention is applied to the digital grayscale image that has passed through the spatial filter 3r, but the present invention may also be applied to the digital grayscale image directly from the TV left camera. Further, the specific means using the image processing method according to the present invention is not limited to the above-mentioned embodiment, and it goes without saying that the design may be changed as appropriate.

(7)発明の詳細 な説明してきたように、本発明に係る画像処理方法によ
れば、受像機等より得られた画像をマIIツクス状に整
列した複数の画素に分割し、該複数の画素のうち、隣接
する周囲の水平、垂直及び左右対角方向に並ぶいずれか
二つの画素よりも濃淡レベルの差が大きい画素を極点と
して抽出するようにしたので、極点の抽出が確実になり
、重なった物体等の輪郭を認識する場合においても、物
体の輪郭が途中で途切れる虞れはなくなシ、その分、物
体を正確に認識することができる。
(7) As described above in detail, according to the image processing method of the present invention, an image obtained from a receiver or the like is divided into a plurality of pixels arranged in a matrix, and the plurality of pixels are Among the pixels, a pixel with a larger difference in gray level than any two neighboring pixels arranged horizontally, vertically, and left/right diagonally is extracted as a pole, so that the pole can be extracted reliably. Even when recognizing the outlines of overlapping objects, etc., there is no risk that the outlines of the objects will be interrupted, and the objects can be recognized more accurately.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図(a)乃至(f)は−次元画像の極点を抽出する
基本原理を示す説明図、第2図は二次元画像の極点を抽
出する際に用いられるウィンドウの一例を示す説明図、
第3図は本発明に係る画像処理方法のアルゴリズムを示
す説明図、第4図は本発明に係る画像処理方法を適用し
た物体認識装置の一例金示す模式図、第5図はTV右カ
メラ撮影する物体の状態を示す斜視図、第6図はTV右
カメラ撮影画像を表わす図、第7図はTV右カメラ撮影
画像葡ディジタル化したディジタル画像データの一例を
示す図、第8図は空間フィルタを通過したディジクル画
像データの一例を示す図、第9図は第4図に示すデータ
シフト回路の具体例を示す回路図、第10図はTV力°
メラの撮影画像画面古査方式の一例を示す説明図、第1
1図は第4図に示すデータ処理回路の具体例を示す回路
図、第12図は従来((おける画像処理方法を用いて極
点を抽出した際に得られる画像状態を示す参考説明図で
ある。 W・・・ウィンドウ   A乃至■・・・画素1・・・
TV右カメラ  2・・・ADコンバータ4・・・デー
タシフト回路 5・・・データ処理回路第[@ (0) 年月図    第1図 (bl                FC)第1図 (f鑓 LIIOR 第2図 第1図 第s図 第9図 第toyA
FIGS. 1(a) to (f) are explanatory diagrams showing the basic principle of extracting the extreme points of a -dimensional image; FIG. 2 is an explanatory diagram showing an example of a window used when extracting the extreme points of a two-dimensional image;
Fig. 3 is an explanatory diagram showing the algorithm of the image processing method according to the present invention, Fig. 4 is a schematic diagram showing an example of an object recognition device to which the image processing method according to the present invention is applied, and Fig. 5 is a photograph taken by the TV right camera. Figure 6 is a diagram showing an image taken by the TV right camera, Figure 7 is a diagram showing an example of digital image data obtained by digitizing the image taken by the TV right camera, and Figure 8 is a diagram showing a spatial filter. FIG. 9 is a circuit diagram showing a specific example of the data shift circuit shown in FIG. 4, and FIG. 10 is a diagram showing an example of the digital image data that has passed through the
Explanatory diagram illustrating an example of the camera photographed image screen review method, Part 1
1 is a circuit diagram showing a specific example of the data processing circuit shown in FIG. W...Window A~■...Pixel 1...
TV right camera 2...AD converter 4...Data shift circuit 5...Data processing circuit [@ (0) Year/month diagram Figure 1 (bl FC) Figure 1 (f LIIOR Figure 2 Figure 1 Figure s Figure 9 Figure toyA

Claims (1)

【特許請求の範囲】[Claims] 受像機等よシ得られた画像をマトリックス状に整列した
複数の画素に分割し、該複数の画素のうち、隣接する周
囲の水平、垂直、及び左右対角方向に並ぶいずれか二つ
の画素よシも濃淡レベルの差が大きい画素を極点として
抽出する事を特徴とする画像処理方法。
An image obtained by a television receiver or the like is divided into a plurality of pixels arranged in a matrix, and from among the plurality of pixels, any two of the adjacent pixels arranged in the horizontal, vertical, and left/right diagonal directions are An image processing method characterized by extracting pixels having a large difference in gray level as extreme points.
JP57233915A 1982-12-29 1982-12-29 Picture processing method Granted JPS59125474A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP57233915A JPS59125474A (en) 1982-12-29 1982-12-29 Picture processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP57233915A JPS59125474A (en) 1982-12-29 1982-12-29 Picture processing method

Publications (2)

Publication Number Publication Date
JPS59125474A true JPS59125474A (en) 1984-07-19
JPH0143348B2 JPH0143348B2 (en) 1989-09-20

Family

ID=16962583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP57233915A Granted JPS59125474A (en) 1982-12-29 1982-12-29 Picture processing method

Country Status (1)

Country Link
JP (1) JPS59125474A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6288075A (en) * 1985-10-15 1987-04-22 Nippon Telegr & Teleph Corp <Ntt> Picture processor

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
COMPUTER GRAPHICS AND IMAGE PROCESSING=1980 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6288075A (en) * 1985-10-15 1987-04-22 Nippon Telegr & Teleph Corp <Ntt> Picture processor

Also Published As

Publication number Publication date
JPH0143348B2 (en) 1989-09-20

Similar Documents

Publication Publication Date Title
US6304298B1 (en) Method and apparatus for determining the position of a TV camera for use in a virtual studio
US5832110A (en) Image registration using projection histogram matching
CN1117478C (en) Apparatus for tracing contours of segmented regions
JP4489848B2 (en) Method for correcting image steadyness error in television film scanning, method for changing the motion sequence of a predetermined image object in a television image, and apparatus for performing the method
JP2018137636A (en) Image processing device and image processing program
CN114187363A (en) Method and device for obtaining radial distortion parameter value and mobile terminal
CN111767752B (en) Two-dimensional code identification method and device
JPH04198741A (en) Shape defect detecting device
JP3442163B2 (en) Positioning method and apparatus
JPH07147309A (en) Detector for pattern defect
US6650362B1 (en) Movement detecting apparatus with feature point extractor based on luminance gradient in current frame
JPS59125474A (en) Picture processing method
EP0498462B1 (en) Method and apparatus for inspecting wiring pattern on printed board
JP3627249B2 (en) Image processing device
JP4605582B2 (en) Stereo image recognition apparatus and method
JPH08161508A (en) Pattern detecting method
JPH07101455B2 (en) Line detection method and apparatus
JP2001243479A (en) Method and device for image processing and recording medium having image processing program recorded thereon
JPH06281421A (en) Image processing method
JP2998443B2 (en) Character recognition method and device therefor
JPS63180178A (en) Edge emphasizing device
JPS61114381A (en) Stereoscopic viewing device
CN115578383A (en) Thick copper PCB detection method based on panoramic image
JP3061899B2 (en) Inspection equipment for printed matter
JPH02138677A (en) Detecting device for picture feature point