JPH0143348B2 - - Google Patents

Info

Publication number
JPH0143348B2
JPH0143348B2 JP57233915A JP23391582A JPH0143348B2 JP H0143348 B2 JPH0143348 B2 JP H0143348B2 JP 57233915 A JP57233915 A JP 57233915A JP 23391582 A JP23391582 A JP 23391582A JP H0143348 B2 JPH0143348 B2 JP H0143348B2
Authority
JP
Japan
Prior art keywords
pixel
data
image
pixels
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired
Application number
JP57233915A
Other languages
Japanese (ja)
Other versions
JPS59125474A (en
Inventor
Tsuguhito Maruyama
Takashi Uchama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP57233915A priority Critical patent/JPS59125474A/en
Publication of JPS59125474A publication Critical patent/JPS59125474A/en
Publication of JPH0143348B2 publication Critical patent/JPH0143348B2/ja
Granted legal-status Critical Current

Links

Description

【発明の詳細な説明】 (1) 発明の技術分野 本発明は、画像処理方法に係り、特に、濃淡画
像の極点を抽出する上で有効な画像処理方法の改
良に関する。
DETAILED DESCRIPTION OF THE INVENTION (1) Technical Field of the Invention The present invention relates to an image processing method, and particularly to an improvement of an image processing method that is effective in extracting extreme points of a grayscale image.

(2) 技術の背景 一般に、TVカメラ等より得られた画像では、
明るさの急変している部分が物体の面の縁点に対
応して重要な点であると考えられており、それら
の点を一連のつながりとして抽出することは物体
のパターン認識を行う上で重要な処理である。
(2) Background of the technology In general, images obtained from TV cameras, etc.
It is believed that the parts where the brightness changes suddenly are important points corresponding to the edge points of the object's surface, and extracting these points as a series of connections is useful for pattern recognition of the object. This is an important process.

(3) 従来技術と問題点 上述した考え方から、本件出願人は、先に、次
のような画像処理方法を提案している(特願昭57
−104714号)。これは、例えば、前処理によつて
得た多値レベルの濃淡画像を画素単位に細分し、
注目画素とこれに水平及び垂直方向において隣接
する画素との濃淡レベルを夫々比較した後、いず
れか一方の方向に並ぶ三画素のうち注目画素が高
レベルであるときに当該注目画素を極点として抽
出するというものである。この方法によれば、上
記極点を一連のつながりとして求めることによ
り、物体の輪郭を認識することが可能になる。
(3) Prior art and problems Based on the above-mentioned idea, the applicant had previously proposed the following image processing method (Patent Application No. 1983).
−104714). For example, this can be done by subdividing the multilevel grayscale image obtained through preprocessing into pixel units.
After comparing the gray levels of the pixel of interest and the pixels adjacent to it in the horizontal and vertical directions, if the pixel of interest has a high level among the three pixels lined up in either direction, the pixel of interest is extracted as the extreme point. The idea is to do so. According to this method, by finding the above-mentioned extreme points as a series of connections, it is possible to recognize the outline of an object.

然しながら、このような画像処理方法にあつて
は、例えば、重なつた物体の輪郭を認識する場合
や角部を備えた物体の輪郭を認識する場合に、輪
郭の分岐点に対応した画素は二つの輪郭線上に位
置することから、仮に、当該画素部分近傍におい
て夫々の輪郭線が水平及び垂直方向に延びるもの
とすれば、当該輪郭の分岐点に対応した画素が極
点として抽出され得ない事態を生じ、これに伴つ
て、物体の輪郭が途切れてしまい、その分、物体
の認識が不正確なものになつてしまう。
However, in such image processing methods, for example, when recognizing the contours of overlapping objects or when recognizing the contour of an object with corners, the pixels corresponding to the branching points of the contours are divided into two. Therefore, if the respective contour lines were to extend horizontally and vertically in the vicinity of the pixel, there would be a situation where the pixel corresponding to the branch point of the contour could not be extracted as an extremity. As a result, the outline of the object is interrupted, and recognition of the object becomes inaccurate accordingly.

(4) 発明の目的 本発明は以上の観点に立つて為されたものであ
つて、その目的とするところは、物体の輪郭の途
切れをなくし、もつて、正確な物体の認識を可能
とした画像処理方法を提供することにある。
(4) Purpose of the Invention The present invention has been made based on the above-mentioned viewpoints, and its purpose is to eliminate discontinuities in the contours of objects, thereby making it possible to accurately recognize objects. An object of the present invention is to provide an image processing method.

(5) 本発明の構成 本発明の基本的構成は、受像機等より得られた
画像をマトリツクス状に整列した複数の画素に分
割し、該複数の画素のうち、隣接する周囲の水
平、垂直及び左右対角方向に並ぶいずれか二つの
画素よりも濃淡レベルの差が大きい画素を極点と
して抽出するようにした画像処理方法にある。
(5) Structure of the present invention The basic structure of the present invention is to divide an image obtained from a receiver or the like into a plurality of pixels arranged in a matrix, and to and an image processing method in which a pixel having a larger difference in gray level than any two pixels lined up in the left and right diagonal directions is extracted as an extreme point.

(6) 発明の実施例 以下、添付図面に示す実施例に基づいて本発明
を詳細に説明する。
(6) Embodiments of the invention Hereinafter, the present invention will be described in detail based on embodiments shown in the accompanying drawings.

先ず、第1図に基づいて本発明に係る極点抽出
処理の基本原理を説明する。今、説明を単純化す
るために、原画像の一次元方向の濃度分布が第1
図aに示すようにPである場合において、その極
点Rを求める。先ず、第1図bに示すように、原
画像Pを左方向に一画素△だけシフトした画像パ
ターンをPLとし、第1図cに示すように、この
左シフト画像パターンPLと原画像Pとを比較し
て原画像Pの濃度が大きいか等しい(以下これを
P≧PLとする)部分QLを抽出し、また、第1図
dに示すように、原画像Pを右方向に一画素△だ
けシフトした画像パターンをPRとし、第1図e
に示すように、この右シフト画像パターンPR
原画像Pとを比較して原画像Pの濃度が大きいか
等しい(以下これをP≧PRとする)部分QRを抽
出する。次いで、求める極点Rは少くとも両隣り
の画素よりも大きいか等しいレベルであると考え
られることから、第1図fに示ように、上記抽出
部分QLとQRとのラツプ部分(以下QL QRとす
る)を抽出することにより極点Rを得ることがで
きるのである。ただし、P=PL=PRのときは極
点Rは存在しないため除外する。
First, the basic principle of the extreme point extraction process according to the present invention will be explained based on FIG. Now, to simplify the explanation, the density distribution in the one-dimensional direction of the original image is
As shown in Figure a, in the case of P, find the extreme point R. First, as shown in Fig. 1b, an image pattern obtained by shifting the original image P by one pixel △ to the left is set as P L , and as shown in Fig. 1c, this left-shifted image pattern P L and the original image are A portion Q L of which the density of the original image P is greater than or equal to that of the original image P (hereinafter referred to as P≧P L ) is extracted by comparing the original image P with The image pattern shifted by one pixel △ is P R , and Fig. 1 e
As shown in FIG. 2, this right-shifted image pattern P R and the original image P are compared to extract a portion Q R in which the density of the original image P is greater than or equal to that of the original image P (hereinafter, this will be referred to as P≧P R ). Next, since the sought extreme point R is considered to be at least larger than or at the same level as the pixels on both sides, as shown in FIG. By extracting L Q R ), we can obtain the extreme point R. However, when P=P L =P R , the pole R does not exist and is therefore excluded.

今、二次元画像をマトリツクス状、即ち水平方
向及び垂直方向に整列した画素単位に細分して把
握すると、上述した基本原理を用いてこの二次元
画像の注目画素が水平方向、垂直方向、左対角方
向(水平方向に対して左上り方向)若しくは右対
角方向(水平方向に対して右上り方向)において
夫々極点であるか否かを個別に判断することが可
能である。この場合、注目画素Eが夫々の方向に
おいて極点であるか否かを判断するために、第2
図に示すように、注目画素Eとこれを囲繞する八
画素A、B、C、D、F、G、H、Iとでウイン
ドウWが設定されている。
Now, if we subdivide a two-dimensional image into a matrix, that is, into pixel units aligned in the horizontal and vertical directions, we can use the basic principle described above to divide the pixel of interest in the two-dimensional image into horizontal, vertical, and left-aligned pixels. It is possible to individually determine whether the point is the extreme point in the corner direction (upward left direction with respect to the horizontal direction) or the right diagonal direction (upward rightward direction with respect to the horizontal direction). In this case, in order to determine whether the pixel of interest E is a pole in each direction, the second
As shown in the figure, a window W is set up by a pixel of interest E and eight pixels A, B, C, D, F, G, H, and I surrounding it.

第3図は上述したウインドウWを用いて極点を
抽出するための具体的なアルゴリズムを示すもの
である。
FIG. 3 shows a specific algorithm for extracting extreme points using the window W described above.

先ず、二次元画像の注目画素Eが水平方向にお
いて極点であるか否かを判断する場合について説
明すると、注目画素Eとこの注目画素Eの両隣り
の画素D及びFとの濃淡レベルを比較し、E≧D
(画素Eの濃度が画素Dの濃度より大きいか等し
いこと、以下同様である)ならばSL=1、そうで
なければSL=0とし、またE≧FならばSR=1、
そうでなければSR=0とし、ただし、E=D=F
ならば濃淡レベルが変化しないことからSN=0、
そうでないときはSN=1とする。そして、上記
注目画素Eが水平方向において極点であるか否か
の指標Sは、SL、SR及びSNの論理積演算、即ち
S=SL×SR×SNによつて得られ、S=1のとき
画素Eが極点であることを示し、S=0のとき画
素Eが極点でないことを示している。
First, to explain the case of determining whether or not a pixel of interest E of a two-dimensional image is a polar point in the horizontal direction, the density levels of the pixel of interest E and pixels D and F on both sides of this pixel of interest E are compared. ,E≧D
(The density of pixel E is greater than or equal to the density of pixel D, and the same applies hereafter), then S L = 1, otherwise S L = 0, and if E≧F, S R = 1,
Otherwise, let S R = 0, where E=D=F
Then, since the gray level does not change, S N =0,
Otherwise, S N =1. Then, the index S indicating whether or not the pixel of interest E is a pole in the horizontal direction is obtained by the AND operation of S L , S R and S N , that is, S = S L ×S R ×S N. , S=1 indicates that the pixel E is a pole, and S=0 indicates that the pixel E is not a pole.

次に、二次元画像の注目画素Eが垂直方向にお
いて極点であるか否かを判断する場合について説
明すると、上述したのと略同様に、注目画素Eと
この注目画素Eの上下の画素B及びHとの濃淡レ
ベルを比較し、E≧BならばTL=1、そうでな
ければTL=0とし、またE≧HならばTR=1、
そうでなければTR=0とし、ただし、E=B=
HならばTN=0、そうでなければTN=1とす
る。そして、上記注目画素Eが垂直方向において
極点であるか否かの指標Tは、TL、TR及びTN
論理積演算、即ちT=TL×TR×TNで得られ、T
=1のとき画素Eが極点であることを示し、T=
0のとき画素Eが極点でないことを示している。
Next, to explain the case of determining whether or not the pixel of interest E of a two-dimensional image is a pole in the vertical direction, the pixel of interest E, the pixels B above and below this pixel of interest E, and the pixels B above and below this pixel E and Compare the shading level with H, and if E≧B, T L = 1, otherwise, T L = 0, and if E≧H, T R = 1,
Otherwise, let T R =0, where E=B=
If H, T N =0, otherwise T N =1. Then, the index T indicating whether or not the pixel of interest E is a pole in the vertical direction is obtained by the AND operation of T L , T R and T N , that is, T = T L ×T R ×T N , and T
= 1 indicates that pixel E is the pole, and T =
When it is 0, it indicates that the pixel E is not at the extreme point.

また、二次元画素Eが右対角方向において極点
であるか否かを判断する場合について説明する
(尚、左対角方向についても同様であるので、以
下カツコ書きで示すことにする。)と、上述した
のと略同様に、注目画素Eとこの注目画素Eに右
対角方向(左対角方向)において隣接する画素C
及びG(A及びI)との濃淡レベルを比較し、E
≧C(E≧A)ならばUL=1(VL=1)、そうでな
ければUL=0(VL=0)とし、またはE≧G(E
≧1)ならばUL=1(VL=1)、そうでなければ
UL=0(VL=0)とし、ただし、E=C=G(E
=A=I)ならばUN=0(VN=0)、そうでなけ
ればUN=1(VN=1)とする。そして、上記注
目画素Eが右対角方向(左対角方向)において極
点であるか否かの指標U(V)は、UL、UR及び
UN(VL、VR及びVN)の論理積演算、即ちU=UL
×UR×UN(V=VL×VR×VN)によつて得られ、
U(V)=1若しくは0のとき画素Eが極点若しく
は極点でないことを示している。
Also, a case will be explained in which it is determined whether or not the two-dimensional pixel E is a pole in the right diagonal direction (the same applies to the left diagonal direction, so it will be indicated in brackets below). , substantially in the same way as described above, a pixel of interest E and a pixel C adjacent to this pixel of interest E in the right diagonal direction (left diagonal direction).
and G (A and I), and compare the shading levels with E
If ≧C (E≧A), then U L =1 (V L =1), otherwise, U L =0 (V L =0), or E≧G (E
≧1), then U L =1 (V L =1), otherwise
Let U L = 0 (V L = 0), but E = C = G (E
=A=I), then U N =0 (V N =0), otherwise, U N =1 (V N =1). Then, the index U(V) indicating whether or not the pixel of interest E is a pole in the right diagonal direction (left diagonal direction) is U L , U R and
The conjunction operation of U N (V L , V R and V N ), i.e. U = U L
×U R ×U N (V=V L ×V R ×V N ),
When U(V)=1 or 0, it indicates that the pixel E is a pole or not a pole.

更に、上記注目画素Eが画面上でいずれかの方
向において極点であるか否かの指標Xは、S、
T、U及びVの論理和演算、即ちX=S+T+U
+Vによつて得られ、X=1のとき画素Eがいず
れかの方向において極点であることを示し、X=
0のとき画素Eがいずれの方向においても極点で
ないことを示しており、X=1のときの値をハイ
レベルにすると共に、X=0のときの値をローレ
ベルにして極点が抽出されるのである。そして、
このようなアルゴリズムを利用して上記ウインド
ウWを画面上で移動させると、二次元画像上のす
べての極点が抽出されることになる。
Furthermore, an index X indicating whether or not the pixel of interest E is an extreme point in any direction on the screen is S,
OR operation of T, U and V, i.e. X=S+T+U
+V, and when X=1, it indicates that pixel E is a pole in either direction, and X=
When it is 0, it indicates that the pixel E is not a pole in any direction, and the value when X = 1 is set to high level, and the value when X = 0 is set to low level to extract the pole. It is. and,
When the window W is moved on the screen using such an algorithm, all the extreme points on the two-dimensional image will be extracted.

上述したような画像処理方法を物体認識装置に
適用した一例を以下に示す。
An example in which the above-described image processing method is applied to an object recognition device will be shown below.

この物体認識装置の基本的構成は、第4図に示
すように、視覚センサとしてのテレビジヨンカメ
ラ(以下TVカメラという)1と、このTVカメ
ラ1からの濃淡画像信号をデイジタル化するAD
コンバータ2と、このADコンバータ2からのデ
イジタル画像データ信号を一次微分若しくは二次
微分演算する空間フイルタ3と、この空間フイル
タ3からのデイジタル画像データ信号のうち極点
抽出処理に必要なデータ信号を記憶格納し且つ
TVカメラ1の水平走査信号に同期してデータ信
号をシフトさせるデータシフト回路4と、このデ
ータシフト回路4に記憶格納したデータ信号に基
づいて極点抽出処理のための演算を行うデータ処
理回路5とから成る。
The basic configuration of this object recognition device, as shown in FIG.
A converter 2, a spatial filter 3 that performs first-order or second-order differential calculations on the digital image data signal from the AD converter 2, and stores data signals necessary for polar point extraction processing among the digital image data signals from the spatial filter 3. Store and
A data shift circuit 4 that shifts a data signal in synchronization with the horizontal scanning signal of the TV camera 1; and a data processing circuit 5 that performs calculations for polar point extraction processing based on the data signal stored in the data shift circuit 4. Consists of.

今、第5図に示すように、テーブル6上に円形
状の物体7aと三角形状の物体7bを重なり合わ
せて載置し、これらの物体7a,7bをTVカメ
ラ1で撮影すると、このTVカメラ1からは濃淡
画像信号がTVカメラ1の水平走査信号に同期し
て出力され、多値レベルの濃淡画像が画素単位に
細分化された状態で得られる。そして、上記TV
カメラ1からの出力信号はADコンバータ2を介
して例えば8ビツトのデイジタル画像データ信号
に変換される。この場合において、第6図に示す
ように、TVカメラ1の撮影画像のうち特に物体
7a,7bの輪郭の分岐部分(一点鎖線で囲む部
分)に着目すると、上記デイジタル画像データ信
号に基づくデイジタル濃淡画像は、第7図に示す
ように表われ、各データ値は各画素における濃淡
レベルを示している。そして、上記ADコンバー
タ2からの出力信号は空間フイルタ3を通過して
濃淡レベルを強調したデイジタル画像データ信号
に変換され、この場合のデイジタル濃淡画像は、
例えば第8図に示すように表わされる。尚、第8
図中の各データ値は各画素における濃淡レベルを
示している。
Now, as shown in FIG. 5, if a circular object 7a and a triangular object 7b are placed on top of each other on the table 6 and these objects 7a and 7b are photographed by the TV camera 1, the TV camera 1, a grayscale image signal is output in synchronization with the horizontal scanning signal of the TV camera 1, and a multilevel grayscale image is obtained subdivided into pixel units. And the above TV
The output signal from the camera 1 is converted to, for example, an 8-bit digital image data signal via an AD converter 2. In this case, as shown in FIG. 6, if we pay particular attention to the divergent parts of the contours of the objects 7a and 7b (the part surrounded by the dashed line) in the photographed image of the TV camera 1, we can see that the digital shading based on the digital image data signal is The image appears as shown in FIG. 7, with each data value indicating the gray level at each pixel. Then, the output signal from the AD converter 2 passes through the spatial filter 3 and is converted into a digital image data signal with enhanced gray level. In this case, the digital gray image is as follows:
For example, it is expressed as shown in FIG. Furthermore, the 8th
Each data value in the figure indicates the gray level at each pixel.

上記データシフト回路4は、第4図及び第9図
に示すように、TVカメラ1の撮影画像画面の水
平方向に並ぶ画素数をNと仮定すれば、2N+3
個の画素に対応したデータを記憶格納するもので
あつて、例えば、8ビツトデータ幅のレジスタ
Re1乃至Re9と、N−3個の画素に対応したデー
タを記憶格納する同じく8ビツトデータ幅のシフ
トレジスタS1,S2とで構成されており、レジスタ
Re1乃至Re9内に記憶格納されたデータが第2図
のウインドウWで示す画素I乃至Aに対応したも
のになつている。即ち、第10図に示すように、
TVカメラ1の撮影画像画面を上方から下方に向
けて水平走査線h1,h2,h3……で順次走査してい
くと、走査線h1,h2による走査が終り、走査線h3
による初めの三画素までの走査が終つた段階にお
いて、データシフト回路4には2N−3個の画素
データが記憶格納されることになり、レジスタ
Re1乃至Re9には夫々画素g33(撮影画像画面
上第3行第3列目に位置する画素、以下同様であ
る)、g32,g31,g23……g11に対応
したデータが記憶格納され、各データがウインド
ウWの画素I乃至Aのデータとして用いられるの
である。そして、走査線h3による画素g34の走
査が終ると、画素g34に対応したデータが新た
にレジスタRe1に記憶格納されると共に、各レジ
スタ内のデータが全体的にシフトすることにな
り、この段階において、レジスタRe1乃至Re9
は夫々画素g34,g33,g32,g24……
g12に対応したデータが記憶格納されることに
なり、ウインドウWが一列右に移動した状態にな
る。更に、走査線h3による走査が進むと、上記ウ
インドウWは走査信号に同期して順次右方へシフ
トしていき、走査線h4による走査に移ると、上記
ウインドウWは一行下に下がつた後、左方から右
方へと順次移動していく。このように、走査線に
よる走査に伴つて上記ウインドウWは順次移動し
ていき、走査線mによる走査が終了した段階にお
いて、上記ウインドウWは撮影画像の全範囲を画
素単位で移動することになり、これにより、極点
抽出処理に必要なデータはすべて読み込まれるこ
とになり、夫々のデータは順次データ処理回路5
に送出される。
As shown in FIGS. 4 and 9, if the number of pixels arranged in the horizontal direction of the captured image screen of the TV camera 1 is assumed to be N, the data shift circuit 4 has a function of 2N+3.
A register that stores data corresponding to each pixel, for example, an 8-bit data width register.
It consists of R e1 to R e9 and shift registers S 1 and S 2 , which also have an 8-bit data width and store data corresponding to N-3 pixels.
The data stored in R e1 to R e9 correspond to pixels I to A shown in window W in FIG. 2. That is, as shown in FIG.
When the photographed image screen of the TV camera 1 is sequentially scanned from above to below by horizontal scanning lines h 1 , h 2 , h 3 . 3
At the stage when the scanning of the first three pixels is completed, the data shift circuit 4 stores 2N-3 pixel data, and the register
Data corresponding to pixels g33 (the pixel located in the third row and third column on the photographed image screen, the same applies hereinafter), g32, g31, g23...g11 is stored in R e1 to R e9 , respectively. Each piece of data is used as data for pixels I to A of window W. When the scanning of pixel g34 by scanning line h3 is completed, the data corresponding to pixel g34 is newly stored in register R e1 , and the data in each register is shifted as a whole. At this stage, pixels g34, g33, g32, g24, . . . are stored in registers R e1 to R e9 , respectively.
The data corresponding to g12 will be stored, and the window W will be moved one row to the right. Furthermore, as scanning by scanning line h3 progresses, the window W shifts to the right in synchronization with the scanning signal, and when scanning by scanning line h4 progresses, the window W moves down one line. After that, it moves sequentially from left to right. In this way, the window W moves sequentially as the scanning line m scans, and at the stage when the scanning line m has finished, the window W has moved over the entire range of the photographed image pixel by pixel. , As a result, all the data necessary for the pole point extraction process are read, and each data is sequentially sent to the data processing circuit 5.
sent to.

また、データ処理回路5は、第4図及び第11
図に示すように、注目画素Eとこの注目画素Eに
水平方向において隣接する画素D及びFとのデー
タを比較する水平方向比較部5aと、注目画素E
とこの注目画素Eに垂直方向において隣接する画
素B及びHとのデータを比較する垂直方向比較部
5bと、注目画素Eとこの注目画素Eに右対角方
向において隣接する画素C及びGとのデータを比
較する右対角方向比較部5cと、注目画素Eとこ
の注目画素Eに左対角方向において隣接する画素
A及びIとのデータを比較する左対角方向比較部
5dと、比較結果を出力する出力部5eにより構
成されており、比較器Cp1……Cp8、アンド・ゲー
トAN1、AN2、オアゲートOR1……OR9ナンドゲ
ートNA1……NA4及び注目画素Eのデータがセ
ツトされ該注目画素Eが極点であるとき前記デー
タを出力するピークレジスタPMを備えていて、
第3図に示すアルゴリズムを実行するように回路
構成されている。即ち、比較器Cp1は画素EとD
とのデータを比較してE≧Dのとき「1」を出力
するものであり、比較器Cp2は画素EとFとのデ
ータを比較してE≧Fのとき「1」を出力するも
のであり、比較器Cp3は画素EとBとのデータを
比較してE≧Bのとき「1」を出力するものであ
り、比較器Cp4は画素EとHとのデータを比較し
てE≧Hのとき「1」を出力するものであり、比
較器Cp5は画素EとCとのデータを比較してE≧
Cのとき「1」を出力するものであり、比較器
Cp6は画素EとGとのデータを比較してE≧Gの
とき「1」を出力するものであり、比較器Cp7
画素EとAとのデータを比較してE≧Aのとき
「1」を出力するものであり、比較器Cp8は画素E
とIとのデータを比較してE≧Iのとき「1」を
出力するものである。そして、比較器Cp1,Cp2
いずれも「1」を出力し且つE=D=Fでない場
合、言い換えれば、画素Eが水平方向の極点であ
る場合アンドゲートAN1は「1」を出力し、他
も同様に、画素Eが垂直方向の極点である場合に
はアンドゲートAN2は「1」を出力し、画素E
が右対角方向の極点である場合にはアンドゲート
AN3は「1」を出力し、画素Eが左対角方向の
極点である場合にはアンドゲートAN4は「1」
を出力する。従つて、オアゲートOR9は、画素E
が水平方向、垂直方向若しくは左右対角方向のい
ずれかで極点であるとき「1」を出力することに
なり、この出力信号を指標Xとして極点の抽出が
行なわれるのである。また同時にオアゲートOR9
が「1」を出力したときにはピークレジスタPM
から極点のデータがそのまま得られることにな
る。この場合、この例における物体認識装置にお
いては、TVカメラ1の水平走査信号に同期させ
てデイジタル濃淡画像データをシフトさせている
ので、リアルタイムで極点を抽出することが可能
になつている。
Further, the data processing circuit 5 is shown in FIGS. 4 and 11.
As shown in the figure, a horizontal comparison unit 5a that compares data between a pixel of interest E and pixels D and F adjacent to the pixel of interest E in the horizontal direction;
A vertical comparison unit 5b compares data between the pixel E and pixels B and H adjacent to the pixel E in the vertical direction, and a pixel C and G adjacent to the pixel E in the right diagonal direction. A right diagonal comparison unit 5c that compares data, a left diagonal comparison unit 5d that compares data between a pixel of interest E and pixels A and I adjacent to the pixel of interest E in the left diagonal direction, and a comparison result. Comparators C p1 ... C p8 , AND gates AN 1 , AN 2 , OR gates OR 1 ... OR 9, NAND gates NA 1 ... NA 4 , and data of the target pixel E is set and the pixel of interest E is at the extreme point, the peak register PM outputs the data,
The circuit is configured to execute the algorithm shown in FIG. That is, comparator C p1 compares pixels E and D
The comparator C p2 compares the data of pixels E and F and outputs "1" when E≧D, and the comparator C p2 compares the data between pixels E and F and outputs "1" when E≧F. The comparator C p3 compares the data of pixels E and B and outputs "1" when E≧B, and the comparator C p4 compares the data of pixels E and H and outputs "1". It outputs "1" when E≧H, and comparator C p5 compares the data of pixels E and C and determines that E≧
It outputs "1" when C, and the comparator
C p6 compares the data of pixels E and G and outputs "1" when E≧G, and comparator C p7 compares the data of pixels E and A and outputs "1" when E≧A. The comparator C p8 outputs "1", and the comparator C p8 is connected to the pixel E
It compares the data of and I and outputs "1" when E≧I. Then, if the comparators C p1 and C p2 both output "1" and E=D=F is not the case, in other words, if the pixel E is the horizontal pole, the AND gate AN 1 outputs "1". Similarly, if pixel E is the vertical pole, AND gate AN 2 outputs "1" and pixel E
and gate if is the right diagonal pole
AN 3 outputs "1", and if pixel E is the left diagonal pole, AND gate AN 4 outputs "1"
Output. Therefore, the OR gate OR 9 is the pixel E
When is a pole in either the horizontal direction, the vertical direction, or the left and right diagonal directions, "1" is output, and this output signal is used as the index X to extract the pole. Also at the same time or gate OR 9
When outputs “1”, peak register PM
The data at the poles can be obtained as is. In this case, in the object recognition device in this example, the digital grayscale image data is shifted in synchronization with the horizontal scanning signal of the TV camera 1, so that it is possible to extract the extreme points in real time.

このようにして、濃淡画像の極点は抽出される
が、第8図に示すデイジタル濃淡画像において実
際に極点を抽出してみると、図中丸印及び四角印
で囲んだ点が極点になつている。この場合におい
て、丸印で囲んだ極点は水平若しくは垂直方向に
おける極点として抽出されるのに対し、四角印で
囲んだ極点は水平、垂直方向における極点として
は抽出されず、左若しくは右対角方向における極
点として始めて抽出されるものになつている。上
記四角印で囲んだ極点部分は、例えば、重なつた
物体7a,7bの輪郭分岐点に対応した部分であ
り、この部分の極点が抽出されることにより、従
前の画像処理方法において生じていた物体7a,
7bの輪郭分岐点での途切れd(第12図参照)
を確実になくすことができ、その分、重なつた物
体の輪郭等を正確に認識することができる。
In this way, the extreme points of the grayscale image are extracted, but when we actually extract the extremes from the digital grayscale image shown in Figure 8, we find that the points surrounded by circles and squares in the figure are the extremes. . In this case, the poles surrounded by circles are extracted as poles in the horizontal or vertical direction, whereas the poles surrounded by squares are not extracted as poles in the horizontal or vertical direction, but in the left or right diagonal direction. This is the first time that it has been extracted as an extreme point. The extreme point portion surrounded by the square mark above corresponds to, for example, the contour branching point of the overlapping objects 7a and 7b, and by extracting the extreme point of this portion, the problem that occurred in the previous image processing method Object 7a,
Discontinuation d at the contour branching point of 7b (see Figure 12)
This allows the contours of overlapping objects to be recognized more accurately.

尚、上記実施例では、空間フイルタ3を通過し
たデイジタル濃淡画像について本発明を適用して
いるが、TVカメラ1からの直接的なデイジタル
濃淡画像について本発明を適用しても差支えな
い。又、本発明に係る画像処理方法を用いた具体
的手段については、上記実施例に限られるもので
はなく、適宜設計変更してよいことは勿論であ
る。
In the above embodiment, the present invention is applied to the digital grayscale image that has passed through the spatial filter 3, but the present invention may also be applied to the digital grayscale image directly from the TV camera 1. Further, the specific means using the image processing method according to the present invention is not limited to the above embodiment, and it goes without saying that the design may be changed as appropriate.

(7) 発明の効果 以上説明してきたように、本発明に係る画像処
理方法によれば、受像機等より得られた画像をマ
トリツクス状に整列した複数の画素に分割し、該
複数の画素のうち、隣接する周囲の水平、垂直及
び左右対角方向に並ぶいずれか二つの画素よりも
濃淡レベルの差が大きい画素を極点として抽出す
るようにしたので、極点の抽出が確実になり、重
なつた物体等の輪郭を認識する場合においても、
物体の輪郭が途中で途切れる虞れはなくなり、そ
の分、物体を正確に認識することができる。
(7) Effects of the Invention As explained above, according to the image processing method of the present invention, an image obtained from a receiver or the like is divided into a plurality of pixels arranged in a matrix, and each of the plurality of pixels is Among them, pixels with a larger difference in gray level than any two neighboring pixels arranged horizontally, vertically, and left/right diagonally are extracted as extreme points, so that the extraction of extreme points is reliable and it is possible to avoid overlapping. Even when recognizing the outline of objects, etc.
There is no possibility that the outline of the object will be interrupted, and the object can be recognized more accurately.

【図面の簡単な説明】[Brief explanation of drawings]

第1図a乃至fは一次元画像の極点を抽出する
基本原理を示す説明図、第2図は二次元画像の極
点を抽出する際に用いられるウインドウの一例を
示す説明図、第3図は本発明に係る画像処理方法
のアルゴリズムを示す説明図、第4図は本発明に
係る画像処理方法を適用した物体認識装置の一例
を示す模式図、第5図はTVカメラで撮影する物
体の状態を示す斜視図、第6図はTVカメラの撮
影画像を表わす図、第7図はTVカメラの撮影画
像をデイジタル化したデイジタル画像データの一
例を示す図、第8図は空間フイルタを通過したデ
イジタル画像データの一例を示す図、第9図は第
4図に示すデータシフト回路の具体例を示す回路
図、第10図はTVカメラの撮影画像画面上の走
査方式の一例を示す説明図、第11図は第4図に
示すデータ処理回路の具体例を示す回路図、第1
2図は従来における画像処理方法を用いて極点を
抽出した際に得られる画像状態を示す参考説明図
である。 W……ウインドウ、A乃至I……画素、1……
TVカメラ、2……ADコンバータ、4……デー
タシフト回路、5……データ処理回路。
Figures 1 a to f are explanatory diagrams showing the basic principle of extracting the poles of a one-dimensional image, Figure 2 is an explanatory diagram showing an example of a window used when extracting the poles of a two-dimensional image, and Figure 3 is an explanatory diagram showing the basic principle of extracting the poles of a two-dimensional image. An explanatory diagram showing an algorithm of the image processing method according to the present invention, FIG. 4 is a schematic diagram showing an example of an object recognition device to which the image processing method according to the present invention is applied, and FIG. 5 is a state of an object photographed by a TV camera. FIG. 6 is a diagram showing an image captured by a TV camera, FIG. 7 is a diagram showing an example of digital image data obtained by digitizing an image captured by a TV camera, and FIG. 8 is a diagram showing an example of digital image data obtained by digitizing an image captured by a TV camera. 9 is a circuit diagram showing a specific example of the data shift circuit shown in FIG. 4; FIG. 10 is an explanatory diagram showing an example of a scanning method on the captured image screen of a TV camera; FIG. 11 is a circuit diagram showing a specific example of the data processing circuit shown in FIG.
FIG. 2 is a reference explanatory diagram showing an image state obtained when polar points are extracted using a conventional image processing method. W...Window, A to I...Pixel, 1...
TV camera, 2...AD converter, 4...data shift circuit, 5...data processing circuit.

Claims (1)

【特許請求の範囲】[Claims] 1 受像機等より得られた画像をマトリツクス状
に整列した複数の画素に分割し、該複数の画素の
うち、隣接する周囲の水平、垂直、及び左右対角
方向に並ぶいずれか二つの画素よりも濃淡レベル
の差が大きい画素を極点として抽出する事を特徴
とする画像処理方法。
1 An image obtained from a television receiver, etc. is divided into a plurality of pixels arranged in a matrix, and from among the plurality of pixels, any two of the adjacent pixels arranged in the horizontal, vertical, and left/right diagonal directions are An image processing method characterized by extracting pixels with a large difference in gray level as extreme points.
JP57233915A 1982-12-29 1982-12-29 Picture processing method Granted JPS59125474A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP57233915A JPS59125474A (en) 1982-12-29 1982-12-29 Picture processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP57233915A JPS59125474A (en) 1982-12-29 1982-12-29 Picture processing method

Publications (2)

Publication Number Publication Date
JPS59125474A JPS59125474A (en) 1984-07-19
JPH0143348B2 true JPH0143348B2 (en) 1989-09-20

Family

ID=16962583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP57233915A Granted JPS59125474A (en) 1982-12-29 1982-12-29 Picture processing method

Country Status (1)

Country Link
JP (1) JPS59125474A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6288075A (en) * 1985-10-15 1987-04-22 Nippon Telegr & Teleph Corp <Ntt> Picture processor

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
COMPUTER GRAPHICS AND IMAGE PROCESSING=1980 *

Also Published As

Publication number Publication date
JPS59125474A (en) 1984-07-19

Similar Documents

Publication Publication Date Title
JPS5892070A (en) Dynamic regulator
JP2010016812A (en) Image processing apparatus and method, and computer-readable medium
CN110717935A (en) Image matching method, device and system based on image characteristic information
JPH10271326A (en) Image processor
US6650362B1 (en) Movement detecting apparatus with feature point extractor based on luminance gradient in current frame
JPH0143348B2 (en)
JP2001243479A (en) Method and device for image processing and recording medium having image processing program recorded thereon
JPS61114381A (en) Stereoscopic viewing device
JPH10283478A (en) Method for extracting feature and and device for recognizing object using the same method
US20020159654A1 (en) Method for processing an image of a concrete construction
JPH05300372A (en) High speed sorting method for median filter
JPH0454263B2 (en)
JPS5914782B2 (en) Binary pattern digitization processing method
JPH04157577A (en) Positioning device
JP2981383B2 (en) Position detection method
JP3109237B2 (en) Line segment constituent pixel extraction method and line segment judgment method in image
JP3430506B2 (en) Image processing method and license plate search method using the same
JPH0143350B2 (en)
JPH053627B2 (en)
JPS60101676A (en) Picture processing method
JPH08336115A (en) Frame interpolating method
CN111292233A (en) Lens array image splicing method and device and storage medium
JPS595945B2 (en) Pattern recognition method
JPS60189368A (en) Picture variable power method
JPH0143349B2 (en)