JPH05210736A - Method for extracting contour of image - Google Patents

Method for extracting contour of image

Info

Publication number
JPH05210736A
JPH05210736A JP4016717A JP1671792A JPH05210736A JP H05210736 A JPH05210736 A JP H05210736A JP 4016717 A JP4016717 A JP 4016717A JP 1671792 A JP1671792 A JP 1671792A JP H05210736 A JPH05210736 A JP H05210736A
Authority
JP
Japan
Prior art keywords
image
edge
pixel
operator
registered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP4016717A
Other languages
Japanese (ja)
Inventor
Toshiyuki Ebihara
利行 海老原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP4016717A priority Critical patent/JPH05210736A/en
Publication of JPH05210736A publication Critical patent/JPH05210736A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To recognize a contour position highly accurately coincident with a practical contour position by registering edge components on picture element positions existing in a fixed direction in respective areas of picture element boundaries having density differences. CONSTITUTION:An image to be processed is divided into several areas and an operator appropriate for the status of an image to be processed in each divided area is applied to the area. Namely when a personal image is divided into right and left parts through its center, edge components detected on the right, lower and lower right picture element positions of respective image boundaries having density differences are registered in the left half image and edge components detected on the left, lower and lower left picture element positions of respective boundaries having density differences are registered in the right half image. In this case, a difference of density values between a remarked picture element and its adjacent picture element is found out, and when the absolute value of the difference exceeds a prescribed value, the remarked picture element is recognized as an edge component and an edge mark is registered in the remarked picture element.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は画像のエッジ成分の抽出
方法に関するものであり、特に人物画像の認識や画像の
強調その他の画像認識に有用な画像輪郭抽出方法に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for extracting an edge component of an image, and more particularly to an image contour extracting method useful for recognizing a human image, emphasizing an image and other image recognition.

【0002】[0002]

【従来の技術】画像の輪郭抽出を行うにあたっては、対
象となる画像のエッジ成分の抽出を行うが、画像のエッ
ジ成分の抽出方法としては近代科学社刊「ディジタル画
像信号処理」頁106に示されるように、種々知られて
おり、ここには図10に示すように方向微分オペレータ
や等方的な微分オペレータであるラプラシアン(2次微
分)オペレータが開示されている。
2. Description of the Related Art In extracting an edge of an image, the edge component of the image to be extracted is extracted. As a method of extracting the edge component of the image, see "Digital Image Signal Processing" page 106 published by Modern Science Co., Ltd. As shown in FIG. 10, a directional differentiation operator and a Laplacian (second derivative) operator, which is an isotropic differentiation operator, are disclosed.

【0003】今、離散平面上での画像をf(x,y)
(但しx,yは整数)と表わすと、その画像のエッジの
強度は画素(x,y)とその近傍の画素の濃度値に各々
対応する重みをかけて足し合わせることによって計算す
ることができる。なお、重みを配列したものはオペレー
タと呼ばれている。
Now, the image on the discrete plane is f (x, y)
(Where x and y are integers), the edge strength of the image can be calculated by adding the weights corresponding to the density values of the pixel (x, y) and the pixels in the vicinity thereof and adding them together. .. An array of weights is called an operator.

【0004】エッジ成分の抽出方法に一番最初に導入さ
れたオペレータとしては式1および式2または式1´お
よび式2´に示すRoberts のオペレータがあるが、この
オペレータは2×2の大きさで、対角方向(45°,1
35°)の濃度変化Δを検出する。 Δ45 =f(x+1,y+1)−(x,y) …(1) Δ135 =f(x,y+1)−(x+1,y) …(2) または
The operator first introduced into the method of extracting the edge component is Roberts 'operator shown in Equation 1 and Equation 2 or Equation 1'and Equation 2', and this operator has a size of 2 × 2. In the diagonal direction (45 °, 1
The density change Δ of 35 °) is detected. Δ45 = f (x + 1, y + 1)-(x, y) (1) Δ135 = f (x, y + 1)-(x + 1, y) (2) or

【0005】[0005]

【数1】 [Equation 1]

【0006】また、方向微分オペレータは図10に示す
ように、エッジの方向対応に設けた8個のオペレータに
より、8方向のエッジを検出し、エッジ強度が最も大き
い方向をその点のエッジ方向、その方向でのエッジ強度
をその点のエッジ強度としている。また、ラプラシアン
(2次微分)オペレータは等方的なオペレータである。
As shown in FIG. 10, the directional differential operator detects edges in eight directions by eight operators provided corresponding to the direction of the edge, and the direction having the highest edge strength is the edge direction of that point. The edge strength at that point is defined as the edge strength at that point. The Laplacian (second derivative) operator is an isotropic operator.

【0007】[0007]

【発明が解決しようとする課題】従来のエッジ抽出方法
はその計算方法により、エッジ成分が実際の輪郭(濃度
境界)の濃い側か淡い側の固定したいずれか片側、ある
いは両側に発生する。実際の輪郭は画素上ではなく、隣
接する2画素間に存在すると考える。
According to the conventional edge extraction method, an edge component is generated on one side or both sides fixed on the dark side or the light side of the actual contour (density boundary) depending on the calculation method. It is considered that the actual contour exists not between pixels but between two adjacent pixels.

【0008】従って、濃度がほぼ一定の背景の中に、こ
れと異なる濃淡を有する対象物がある場合に、従来のエ
ッジ成分の計算方法によると、ある部分では対象物の実
際の輪郭の内側に、また、ある部分では対象物の実際の
輪郭の外側にエッジ成分が発生することになる。
Therefore, when there is an object having different shades in the background of which density is almost constant, according to the conventional method of calculating the edge component, in a part, the inside of the actual contour of the object is detected. In addition, an edge component is generated outside the actual contour of the object in a certain portion.

【0009】例えば図11に示すような各画素の濃度分
布を呈する画像を考えた場合、ある濃度の画素領域と別
の濃度の画素領域との境界が輪郭部分であると考える
と、ある計算方法では濃度の高い側の画素にエッジ成分
が登録されることにより、図11に白丸の印を付けた画
素位置の画素にエッジ成分が登録されることになり、こ
の結果、対象物の画素濃度が背景の濃度よりも淡い部分
では対象物側の画素ではなく、背景部分の画素にエッジ
成分が登録されることになる。
For example, when an image having a density distribution of each pixel as shown in FIG. 11 is considered, if a boundary between a pixel area having a certain density and a pixel area having another density is an outline portion, a certain calculation method is used. Then, since the edge component is registered in the pixel with the higher density, the edge component is registered in the pixel at the pixel position marked with a white circle in FIG. 11, and as a result, the pixel density of the object is In the portion lighter than the background density, the edge component is registered in the pixel in the background portion, not in the pixel on the object side.

【0010】そして、このエッジ成分をもとに画像認識
を行い、例えば、背景部分を任意の色で塗り潰す処理を
行うとすると、輪郭の一部分で対象物と塗り潰した部分
の間に、隙間を生じるおそれがある(図12)。
If image recognition is performed based on this edge component and, for example, the background portion is filled with an arbitrary color, a gap is created between the object and the filled portion at a part of the contour. May occur (Fig. 12).

【0011】すなわち、本来は背景部分となる領域の画
素であるにも係わらず、対象物の画素の濃度が、背景画
素の濃度よりも淡い濃度であるが故に、エッジ成分の登
録がなされて輪郭線の画素として処理されてしまうため
に、この部分の画素が塗り潰されずに元の色のまま残っ
てしまう。
That is, since the density of the pixel of the object is lighter than the density of the background pixel even though it is the pixel of the area that is originally the background portion, the edge component is registered and the contour is registered. Since it is processed as a line pixel, the pixel in this portion is not filled and remains in the original color.

【0012】このように、対象物以外の全領域すなわ
ち、背景部分を自動認識しようとする場合などでは、エ
ッジ成分が登録される画素が対象物の内側か外側に一定
していないと、画像の状況によっては1画素分ほどの幅
の部分が一部取り残されるおそれがあった。そして、こ
のような事態が生じると、背景の塗り潰しムラとなるの
で、得られた画像の品位が損なわれることになる。
As described above, in the case of automatically recognizing the entire area other than the object, that is, the background portion, if the pixels in which the edge component is registered are not constant inside or outside the object, Depending on the situation, there is a possibility that a part having a width of about one pixel may be left behind. Then, when such a situation occurs, the background becomes unevenly filled, and the quality of the obtained image is impaired.

【0013】特にIDカードなどに使用する人物画像
は、画像品位の高いことが望まれるから、背景部分の自
動認識を行った場合、人物画像と背景部分の間に塗り潰
しむらが生ずることは問題となる。
In particular, since it is desired that a person image used for an ID card or the like has a high image quality, it may be a problem that when the background portion is automatically recognized, uneven filling occurs between the person image and the background portion. Become.

【0014】そこで、この発明の目的とするところは、
画像の状況により、エッジ成分の登録が、あるところで
は実際の輪郭の内側であったり、外側であったりするよ
うな不規則な事態となることを防止し、対象物の実際の
輪郭の内側のみか、または外側のみのいずれか側寄りに
エッジ成分登録することができるようにして、実際の輪
郭位置に対して高い精度で一致する輪郭位置の認識が行
い得るようにした画像輪郭抽出方法を提供することにあ
る。
Therefore, the object of the present invention is to
Depending on the situation of the image, it is possible to prevent the registration of edge components from becoming irregular inside or outside the actual contour in some places, and only inside the actual contour of the object. Provide an image contour extraction method that enables edge components to be registered either on the outer side or on the outer side only so that the contour position that matches the actual contour position can be recognized with high accuracy. To do.

【0015】[0015]

【課題を解決するための手段】上記目的を達成するた
め、本発明は次のようにした。すなわち、ディジタル化
された二次元画像についてエッジ成分抽出オペレータに
よりデ−タ処理して画像輪郭を抽出する画像輪郭抽出方
法として、処理対象画像を複数の矩形領域に分割する分
割工程と、この分割工程により分割された各分割領域毎
に予め設定され、注目画素とこの注目画素の周囲の各画
素における濃度値との差分値よりエッジ成分を抽出する
ためのエッジ成分抽出オペレータにより、エッジ成分を
求めて注目画素にエッジ登録することによりエッジ抽出
するエッジ成分抽出工程とを具備する。
In order to achieve the above object, the present invention is as follows. That is, as a method of extracting an image contour by performing data processing on an edge component extraction operator for a digitized two-dimensional image, a dividing step of dividing an image to be processed into a plurality of rectangular areas and this dividing step. The edge component extraction operator for extracting the edge component from the difference value between the pixel of interest and the density value of each pixel around the pixel of interest is set in advance for each divided area to obtain the edge component. An edge component extracting step of extracting an edge by registering an edge in the pixel of interest.

【0016】また、エッジ抽出オペレータは2×2画素
を対象とし、その一つを注目画素とすると共に、注目画
素と該注目画素に隣接する3画素各々との差の絶対値の
うち、最大かつ所定値を越えるものをエッジ成分として
返すものを用いる。
The edge extraction operator targets 2 × 2 pixels, one of which is the target pixel, and the maximum absolute value of the difference between the target pixel and each of the three pixels adjacent to the target pixel is the maximum value. An edge component that exceeds a predetermined value is returned.

【0017】[0017]

【作用】本発明では処理対象の画像をいくつかの領域に
分割し、この分割したそれぞれの領域については当該領
域の処理対象画像の状況に適したオペレータを作用させ
ることにより、対象物の実際の輪郭のすぐ内側の画素に
エッジ成分が発生するような計算方法を採用している。
例えば、人物画像は略左右対称であるので、人物画像を
中央から左右に分けた場合、左側の画像においてはエッ
ジ成分の右側がまた、右側の画像においてはエッジ成分
の左側が対象物であると考えることができる。
According to the present invention, the image to be processed is divided into several areas, and an operator suitable for the situation of the image to be processed in the area is applied to each of the divided areas, so that the actual object is processed. The calculation method is adopted so that the edge component occurs in the pixel immediately inside the contour.
For example, since the human image is substantially bilaterally symmetric, when the human image is divided into the left and right from the center, the right side of the edge component is the left image and the left side of the edge component is the right image. I can think.

【0018】そこで、エッジ成分の計算方法としてはエ
ッジのどちら側が高濃度でどちら側が低濃度であるかを
問わず、常に一定の方向(左下方向とか、右下方向と
か)寄りにエッジ成分を発生させる方法を採用した。
Therefore, as a method of calculating the edge component, regardless of which side of the edge has a high density and which side has a low density, the edge component is always generated in a fixed direction (lower left direction, lower right direction). The method of letting is adopted.

【0019】すなわち、人物画像を中央から左右に分け
たとき、左半分の画像においては濃度差がある画像境界
に対して右、下、または右下の画素位置に検出されたエ
ッジ成分を登録し、右半分の画像においては濃度差があ
る画素境界に対して左、下または左下の画素位置に検出
されたエッジ成分を登録する。
That is, when the human image is divided into the left and right from the center, the edge components detected are registered at the right, lower, or lower right pixel positions with respect to the image boundary where there is a density difference in the left half image. In the right half image, the edge components detected are registered at the pixel positions on the left, the bottom, or the bottom left with respect to the pixel boundary having the density difference.

【0020】ここで注目画素と、その隣接画素それぞれ
との濃度値の差をそれぞれ求め、その絶対値が最大で所
定値を越えるのものであればエッジ成分と認識し、注目
画素にエッジ登録する。
Here, the difference in density value between the pixel of interest and each of its adjacent pixels is obtained, and if the absolute value of the pixel is maximum and exceeds a predetermined value, it is recognized as an edge component and the edge is registered in the pixel of interest. ..

【0021】このように、濃度差がある画素境界に対
し、各領域内で一定した方向にある画素位置にエッジ成
分を登録してゆくことにより、実際の輪郭の両側にエッ
ジ成分が登録されることを防ぐ作用がある。この結果、
実際のエッジ位置に高精度で一致したシャープな輪郭を
得ることができる。
As described above, the edge components are registered on both sides of the actual contour by registering the edge components at the pixel positions in a constant direction in each area with respect to the pixel boundary having the density difference. There is an action to prevent that. As a result,
It is possible to obtain a sharp contour that matches the actual edge position with high accuracy.

【0022】[0022]

【実施例】以下、本発明の一実施例について、図面を参
照して説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings.

【0023】(実施例1)図1はIDカードなどに使用
する目的で作成された人物のディジタル画像を表わして
いる。このディジタル画像は人物をビデオカメラで撮影
して得られるビデオ信号をA/Dコンバータでディジタ
ル化したり、人物写真をイメージスキャナで読み込んで
ディジタル化したりすることで得られる。IDカードな
どに使用する人物画像は品格の高いことが望まれること
から、人物画像の背景部分に照明むらや壁の汚れなどが
写っていることは問題である。
(Embodiment 1) FIG. 1 shows a digital image of a person created for use in an ID card or the like. This digital image can be obtained by digitizing a video signal obtained by photographing a person with a video camera with an A / D converter or reading a person photograph with an image scanner and digitizing the photograph. Since it is desired that a person image used for an ID card or the like is of high quality, it is a problem that unevenness of illumination or stains on the wall are reflected in the background portion of the person image.

【0024】ディジタル画像はコンピュータを用いるこ
とによって様々な画像処理を施すことができる。上記の
如き背景部分に問題のある画像も、画像処理によって修
正すれば使用可能である。ID用の画像であれば背景部
分を単一色で塗り潰したり、任意のパターンで置き換え
たりすれば良い。
Various image processing can be performed on the digital image by using a computer. An image having a problem in the background portion as described above can also be used if it is corrected by image processing. In the case of an ID image, the background portion may be filled with a single color or replaced with an arbitrary pattern.

【0025】そのためには、まず、背景部分を認識しな
ければならない。ここで、認識した背景の範囲は実際の
背景の領域に高い精度で一致させることが肝要である。
さもなくば、修正後の画像における対象物(目的像)の
境界付近が不自然になってしまう。画像認識の技術は種
々あるが、エッジ抽出を行う方法が一般的である。
For that purpose, first, the background portion must be recognized. Here, it is important to match the recognized background range with the actual background area with high accuracy.
Otherwise, the vicinity of the boundary of the object (target image) in the corrected image will be unnatural. Although there are various image recognition techniques, the method of performing edge extraction is generally used.

【0026】本実施例ではエッジ成分を抽出するため
に、2つのオペレータを使用する。一つは人物画像の左
半分専用であり、もう一つは右半分専用である。従っ
て、以後はそれぞれ左側用オペレータ、右側用オペレー
タと呼ぶことにする。ここで、左半分について説明す
る。
In this embodiment, two operators are used to extract the edge component. One is for the left half of the person image, and the other is for the right half. Therefore, the operator for the left side and the operator for the right side will be respectively referred to hereinafter. Here, the left half will be described.

【0027】左側用オペレータを図2(a)に示す。図
中の各文字の意味は前述のオペレータ等と異なり、オペ
レータを画像に重ねたときに対応する各画素の濃度デ−
タを表わしている。
The left operator is shown in FIG. The meaning of each character in the figure is different from the above-mentioned operator, etc., and the density data of each pixel corresponding to the operator when superimposed on the image.
Represents the data.

【0028】P1〜P4なる4つの画素位置のうち、P
4なる画素位置がエッジ成分計算の対象となる画素であ
る。すなわち、計算対象となるP4位置の画素の濃度デ
ータを「x」,その左上の画素位置P1の画素の濃度デ
ータを「a」、真上の画素位置P2の画素の濃度デ−タ
を「b」、左の画素位置P3の画素の濃度データを
「c」と表わすことを意味している。P4位置の画素の
エッジ成分Eは次のように計算する。
Of the four pixel positions P1 to P4, P
The pixel position of 4 is the pixel for which the edge component calculation is performed. That is, the density data of the pixel at the P4 position to be calculated is "x", the density data of the pixel at the upper left pixel position P1 is "a", and the density data of the pixel immediately above the pixel position P2 is "b". ”Means that the density data of the pixel at the left pixel position P3 is represented as“ c ”. The edge component E of the pixel at the P4 position is calculated as follows.

【0029】[0029]

【数2】 [Equation 2]

【0030】すなわち、注目画素とその左上、左および
上の3画素(P1〜P3)を一塊として考えた場合に、
注目画素に対する上記3画素それぞれの濃度差を調べ、
最も大きい濃度差を示すものを注目画素のエッジの強さ
(エッジらしさ、濃度差部分らしさ)とする。
That is, when the pixel of interest and the three pixels (P1 to P3) on the upper left, left and upper thereof are considered as one block,
Check the density difference of each of the three pixels with respect to the pixel of interest,
The edge strength of the pixel of interest (edge-likeness, density-like difference portion likeness) indicates the largest density difference.

【0031】そして、エッジと認められる場合に、すな
わち、所定以上の値をとるエッジの強さを持つ画素であ
る場合に、その注目画素にエッジ成分登録をする。注目
画素位置を1画素分ずつ移動させて画像の左側半分の全
画素についてエッジの強さを調べてゆく。なお、エッジ
の登録は画像と同じ大きさのエッジ登録用メモリを用意
し、これに対して行う。
If the pixel is recognized as an edge, that is, if the pixel has an edge strength of a predetermined value or more, the edge component is registered in the target pixel. The position of the pixel of interest is moved by one pixel at a time, and the edge strength is checked for all the pixels on the left half of the image. Note that the edge registration is performed for an edge registration memory of the same size as the image.

【0032】この結果、横に伸びているエッジについて
はそのエッジの下の画素に、縦に伸びているエッジはそ
のエッジの右の画素に、また、右上がりの斜め線のエッ
ジはそのエッジの右下の画素に登録される(図3参
照)。
As a result, the edge extending horizontally is located below the edge of the edge, the edge extending vertically is located to the right of the edge, and the edge of the diagonal line rising to the right is located below the edge. It is registered in the lower right pixel (see FIG. 3).

【0033】また、差の絶対値の最大値を用いているの
で、エッジに敏感なオペレータである。さらに8方向を
調べるのではなく、3方向で済むので、比較的高速なオ
ペレータでもある。
Since the maximum absolute difference is used, the operator is sensitive to edges. It is also a relatively high-speed operator because it is not necessary to check 8 directions but 3 directions.

【0034】一方、人物画像において対象物である人物
は一般的に画面の中央に位置している。従って、画面を
中央から左右に分けた場合、左側の画像では対象物は右
下寄りとなる。対象物の輪郭よりも概略右下側は対象物
で、左上側は背景部分となる。このような左側画像に前
述の左側用オペレータを作用させ、エッジ成分を抽出す
ると、ほぼ対象物の内側にのみ、エッジ成分が登録され
る(図5参照)。
On the other hand, the person who is the object in the person image is generally located at the center of the screen. Therefore, when the screen is divided from the center to the left and right, the target object is closer to the lower right in the image on the left. The lower right side of the outline of the object is the object, and the upper left side is the background portion. When the aforementioned left-side operator is applied to such a left-side image to extract the edge component, the edge component is registered almost only inside the object (see FIG. 5).

【0035】この左側画像の左上の部分から最初のエッ
ジ成分の手前の画素までの範囲を背景部分として認識す
ることによって、対象物と背景部分とを鮮やかにすなわ
ち、明瞭に分離することができる(図6参照)。
By recognizing the range from the upper left portion of the left side image to the pixel before the first edge component as the background portion, the object and the background portion can be vividly or clearly separated ( (See FIG. 6).

【0036】そして、背景として認識した部分を均一な
色で塗り潰したり、任意のパターンで置き換えることに
よって、背景部分に存在する照明むらなどの問題を除去
することができる。しかも、認識した背景の範囲と実際
の背景範囲が良く一致しているので、違和感の少ない修
正を行うことができる。
Then, by filling the part recognized as the background with a uniform color or replacing it with an arbitrary pattern, it is possible to eliminate problems such as uneven illumination existing in the background part. Moreover, since the recognized background range and the actual background range are in good agreement, it is possible to make a correction with less discomfort.

【0037】右半分についても同様であるがオペレータ
には図2(b)に示す右側用オペレータを用いる。この
場合、注目画素の位置が、オペレータの対象とする2×
2画素マトリックス構成のブロックにおける画素のう
ち、P3位置であることを除けば上述した左側用オペレ
ータでの説明と同じである。但し、注目画素がP3位置
であることから、縦に伸びているエッジはそのエッジの
左の画素にエッジ登録される(図4参照)。そのため、
対象物の右側の輪郭では下部輪郭を除いて対象物の外側
に位置する画素にエッジ登録されることが殆どなくな
る。
The same applies to the right half, but the operator for the right side shown in FIG. 2B is used as the operator. In this case, the position of the pixel of interest is 2 ×
Of the pixels in the block having the two-pixel matrix structure, the description is the same as the above description for the left-side operator except that it is at the P3 position. However, since the pixel of interest is at the P3 position, the vertically extending edge is registered in the pixel to the left of that edge (see FIG. 4). for that reason,
In the contour on the right side of the object, edges are almost never registered in pixels located outside the object except for the lower contour.

【0038】従って、IDカードの人物像などのよう
に、対象物である人物像が画像の中央に位置し、周囲は
単調な背景部分となるような画像の背景部分の塗り潰し
を行う場合に、画像の右半分の領域については、右側用
のオペレータを使用し、画像の左半分の領域について
は、左側用のオペレータを使用したことで、対象物内側
画素にエッジ登録して、背景側画素にエッジ登録されに
くくすることができるようになり、背景部分の塗り残し
を最小限にとどめることができるようになる。
Therefore, when the background portion of the image is filled in such a manner that the person image as the object is located at the center of the image and the surroundings become a monotonous background portion, such as the person image on the ID card, For the right half area of the image, the operator for the right side was used, and for the left half area of the image, the operator for the left side was used. It becomes possible to make it difficult to register the edge, and it becomes possible to minimize the unpainted portion of the background portion.

【0039】(実施例2)上述の実施例1では画像を左
右の領域に分けているだけであるから処理が簡単である
と云う利点はあるものの、画像の一部でエッジ抽出の効
果が万全であるとは云えない。すなわち、下記のような
理由により画像の一部でエッジ登録が背景側の画素にな
されてしまう恐れがある。
(Embodiment 2) In Embodiment 1 described above, the image is simply divided into the left and right regions, so that there is an advantage that the processing is simple, but the effect of edge extraction is fully achieved in a part of the image. It cannot be said that That is, there is a possibility that the edge registration may be performed on the pixel on the background side in a part of the image for the following reason.

【0040】すなわち、人物画像では主に耳から首に至
る部分でエッジ方向が左側画像では概略右下がり、右側
画像では概略左下がりとなっている。しかし、これらは
それぞれ実施例1で述べた左側用オペレータ、右側用オ
ペレータでは十分効果的な処理を行うことができない。
なぜならば、これらの部分で望まれるオペレータはそれ
ぞれエッジより右上寄り、左上寄りにエッジを登録して
おくオペレータであるが、実際にはそれぞれ右下寄り、
左下寄りにエッジ成分を登録してゆくからである。本実
施例ではこの問題についての対策として、画像を6つの
領域に分け、それぞれ適したオペレータを用いることと
した。
That is, in the person image, the edge direction in the portion mainly from the ear to the neck is approximately right downward in the left image and approximately left downward in the right image. However, these cannot be sufficiently effectively processed by the left operator and the right operator described in the first embodiment.
Because, the operators desired in these parts are the operators who register the edges to the upper right and the upper left, respectively, in reality, but in reality, they move to the lower right,
This is because the edge component is registered in the lower left direction. In this embodiment, as a measure against this problem, the image is divided into six areas, and an operator suitable for each is used.

【0041】まず、一般的なエッジ抽出手法などによ
り、図7に示すようにエッジを抽出し、人物の頭の最も
幅の広い部分W1と首の最も幅の狭い部分W2を認識す
る。その2つの部分W1,W2のy座標それぞれで水平
分割することによってまず、画像を縦に3分割する。ま
た、中央で画像を垂直分割することによって横に2分割
する。
First, an edge is extracted by a general edge extraction method as shown in FIG. 7, and the widest portion W1 of the person's head and the narrowest portion W2 of the neck are recognized. The image is first vertically divided into three parts by horizontally dividing the y parts of the two parts W1 and W2. Further, the image is vertically divided at the center to be horizontally divided into two.

【0042】この結果、図7に示すように画像は6分割
され、A1〜A6の領域に領域分けされる。このように
分割された各領域A1〜A6を第1領域〜第6領域を呼
ぶことにする。それぞれの領域A1〜A6で用いられる
オペレータを図9(a)〜(d)に示す。計算式は第2
1式と同じである。
As a result, as shown in FIG. 7, the image is divided into six areas and divided into areas A1 to A6. The areas A1 to A6 divided in this way will be referred to as first to sixth areas. The operators used in the respective areas A1 to A6 are shown in FIGS. Calculation formula is second
It is the same as Formula 1.

【0043】図9の(a)および(b)のオペレータは
実施例1で使用したオペレータと同一のオペレータであ
り、上述した特性を持つ。図9の(c)および(d)の
オペレータはこの実施例で新たに追加したオペレータで
あり、(c)は2×2画素の構成のブロックのうち、P
2位置の画素を注目画素とし、これとP1,P3,P4
それぞれの画素位置の画素との濃度差を求めて、最大の
濃度差のものをエッジの強さとして求め、また、(d)
は2×2画素の構成のブロックのうち、P1位置の画素
を注目画素とし、これとP2,P3,P4それぞれの画
素位置の画素との濃度差を求めて、最大の濃度差のもの
をエッジの強さとして求め、エッジ成分と認識される場
合に注目画素にエッジの登録を行うと云った処理を行う
ためのオペレータである。
The operators shown in FIGS. 9A and 9B are the same as the operators used in the first embodiment and have the above-mentioned characteristics. The operators shown in (c) and (d) of FIG. 9 are operators newly added in this embodiment, and (c) shows P among blocks having a configuration of 2 × 2 pixels.
The pixel at the two positions is set as the pixel of interest, and P1, P3, P4
The density difference with the pixel at each pixel position is calculated, and the one with the maximum density difference is calculated as the edge strength, and (d)
Is a block of 2 × 2 pixels, the pixel at the P1 position is the pixel of interest, the density difference between this pixel and the pixels at the pixel positions of P2, P3, and P4 is calculated, and the pixel with the maximum density difference is the edge. Is an operator for performing a process of registering an edge in a pixel of interest when the edge component is recognized as an edge component.

【0044】実施例1での手法を採用すれば(c)のオ
ペレータはエッジの右上寄りにエッジ成分を登録すると
云う特性を持ち、(d)のオペレータはエッジの左上寄
りにエッジ成分を登録すると云う特性を持つ。
If the method of the first embodiment is adopted, the operator in (c) has a characteristic that the edge component is registered in the upper right part of the edge, and the operator in (d) is registered in the upper left part of the edge. It has the characteristics to say.

【0045】この結果、図9のオペレータを採用するこ
とにより、(a)のオペレータではエッジの右下寄りに
エッジ成分を登録することができ、(b)のオペレータ
ではエッジの左下寄りにエッジ成分を登録することがで
き、(c)のオペレータではエッジの右上寄りにエッジ
成分を登録することができ、(d)のオペレータではエ
ッジの左上寄りにエッジ成分を登録することができる。
As a result, by adopting the operator of FIG. 9, the operator of (a) can register the edge component in the lower right part of the edge, and the operator of (b) can register the edge component in the lower left part of the edge. Can be registered, the operator of (c) can register the edge component to the upper right of the edge, and the operator of (d) can register the edge component to the upper left of the edge.

【0046】そして、IDカードの人物像においての特
徴からすれば、背景領域の画素にエッジ成分の登録がな
されないようにするためには、 第1領域(A1),第3領域(A3);エッジの右下寄りにエッ
ジ成分を登録する。 第2領域(A2) ;エッジの右上寄りにエッ
ジ成分を登録する。 第4領域(A4),第6領域(A6);エッジの左下寄りにエッ
ジ成分を登録する。 第5領域(A5) ;エッジの左上寄りにエッ
ジ成分を登録する。 と云ったことを行えばよい。
From the characteristics of the person image of the ID card, the first area (A1), the third area (A3); The edge component is registered near the lower right of the edge. Second area (A2): An edge component is registered near the upper right of the edge. Fourth area (A4), sixth area (A6): An edge component is registered near the lower left of the edge. Fifth area (A5): An edge component is registered near the upper left of the edge. You can do what you said.

【0047】従って、第1領域(A1)に対しては図9の
(a)のオペレータを、第2領域(A2)に対しては図9の
(c)のオペレータを、第3領域(A3)に対しては図9の
(a)のオペレータを、第4領域(A4)に対しては図9の
(b)のオペレータを、第5領域(A5)に対しては図9の
(d)のオペレータを、第6領域(A6)に対しては図9の
(b)のオペレータをそれぞれ用いて処理することによ
って、全体として対象物である人物の内側寄りにエッジ
成分を登録してゆくことができるようになる。あとの手
順は実施例1と同様である。
Therefore, for the first area (A1), the operator of FIG. 9 (a), for the second area (A2), the operator of FIG. 9 (c), and for the third area (A3). 9) for the fourth area (A4), (d) in FIG. 9 for the fifth area (A5). ) Are processed using the operators in FIG. 9B for the sixth area (A6), respectively, so that the edge components are registered on the inner side of the person who is the object as a whole. Will be able to. The rest of the procedure is the same as in the first embodiment.

【0048】ここで用いた4種のオペレータは斜め方向
を中心とした3方向のエッジ成分を抽出するようになっ
ているため、領域を縦・横に分けて処理するのに向いて
いると云う利点もある。もし、オペレータが縦・横方向
を中心とした3方向(例えば、左と左上と左下の3方
向)のみのエッジを抽出するものであるとすると、領域
分けを45度の斜め線で行わねばならない。さもなく
ば、縦方向や横方向のエッジに対する感度が弱くなる部
分が発生するおそれがある。
Since the four types of operators used here are designed to extract edge components in three directions centered on the diagonal direction, they are said to be suitable for processing the regions separately vertically and horizontally. There are also advantages. If the operator extracts edges in only three directions (for example, left, upper left, and lower left) centering on the vertical and horizontal directions, the area must be divided by 45-degree diagonal lines. .. Otherwise, there may be a portion where the sensitivity to the edges in the vertical direction and the horizontal direction becomes weak.

【0049】(実施例3)上記第2実施例では、まず画
像内の人物の幅の局所的に広い部分と狭い部分を検出し
てこの位置で画像を縦に3分割した。これは人物が線対
称形に収まっているならば、何等問題がないが、非対称
となっているような場合では状況によっては背景側画素
にエッジ登録される部分が生じる懸念がある。本実施例
では画像の形状的特徴抽出を、さらに1歩進めて、次の
ように分割することで、より適切な処理が行えるように
なる。
(Embodiment 3) In the second embodiment, first, a locally wide portion and a narrow portion of the width of the person in the image are detected, and the image is vertically divided into three at this position. This is not a problem if the person is in line symmetry, but if the person is asymmetric, there is a concern that an edge may be registered in the background side pixel depending on the situation. In this embodiment, the extraction of the geometrical feature of the image is further advanced by one step, and the following division is performed, so that more appropriate processing can be performed.

【0050】図8を参照して実施例3を説明する。まず
人物の輪郭の登頂部における最も高い位置にある画素P
aを見つける。これは実施例2で採用したものと同様な
方法で見つければ良い。
The third embodiment will be described with reference to FIG. First, the pixel P at the highest position on the top of the contour of the person
find a. This may be found by a method similar to that adopted in the second embodiment.

【0051】見つかったならば、画素Paに隣接する縦
境界線LYで仕切って、画像を横に2分割する。次に耳
の付近および首の付近の局所的に最大・最小のx座標を
有している画素Pb〜Peを見つける。見つかったなら
ば、これらの画素の上若しくは下に隣接する横境界線L
X1〜LX4で仕切り、縦に分割する。このときの分割
線は上記の縦境界線LYに達したところで止める。この
結果、画像は6つの領域A1´〜A6´に分割される。
以下の手順は実施例2と同様である。
If found, the image is divided into two by dividing it by a vertical boundary line LY adjacent to the pixel Pa. Next, find the pixels Pb to Pe having the local maximum and minimum x-coordinates near the ears and near the neck. If found, the horizontal boundary line L adjacent above or below these pixels
Partition at X1 to LX4 and divide vertically. The dividing line at this time is stopped when the vertical boundary line LY is reached. As a result, the image is divided into six areas A1 'to A6'.
The following procedure is the same as in the second embodiment.

【0052】この分割方法によれば、図8に示す領域A
1´、A3´およびA5´ではエッジが右上がりに、領
域A2´,A4´およびA6´では右下がりになってい
る度合が大きいので、実施例2に示した4種類のオペレ
ータ(図15)で効果的にエッジ検出が行える。
According to this division method, the area A shown in FIG.
Since the edges 1 ′, A3 ′, and A5 ′ are rising to the right and the areas A2 ′, A4 ′, and A6 ′ are descending to the right, the four types of operators shown in the second embodiment (FIG. 15) are shown. Can effectively detect edges.

【0053】以上のように、この発明によれば、従来の
輪郭線の両側に登録されていたエッジ形成を、輪郭線の
片側のみに登録されるようにしたものであるから、実際
の輪郭位置に良く一致した輪郭位置の認識ができるよう
になると云う利点が得られる。また、エッジ抽出に用い
るオペレータは検出するエッジの方向を限っているた
め、全方向を調べるオペレータに比べて短い時間で調べ
ることができると云う効果がある。さらに縦・横・斜め
のうち、最大のエッジ成分を検出しているので、感度の
高いエッジ検出ができると云う効果もある。
As described above, according to the present invention, the conventional edge formation registered on both sides of the contour line is registered only on one side of the contour line. It is possible to obtain the advantage that it is possible to recognize the contour position that is in good agreement with. Further, since the operator used for edge extraction has limited edge directions to be detected, there is an effect that it is possible to perform the search in a shorter time than an operator who searches all directions. Further, since the maximum edge component is detected among the vertical, horizontal, and diagonal directions, there is also an effect that edge detection with high sensitivity can be performed.

【0054】なお、本発明は上述した実施例に限定する
ことなく、その要旨を変更しない範囲で適宜変形して実
施し得ることは勿論であり、例えば、実施例1では左右
に2分割した画像を右側については右側用の、そして、
左側については左側用のオペレータで処理するようにし
たが、これを2分割した画像の右側については図9の第
5領域用オペレータで、そして、左側については図9の
第2領域用のオペレータで処理するようにすることによ
り、対象物の実際の輪郭の外側のみにエッジ成分登録す
ることができるようになる。
It is needless to say that the present invention is not limited to the above-described embodiment, and can be appropriately modified and implemented without changing the gist of the present invention. For the right side is for the right side, and
The left side was processed by the operator for the left side. The right side of the image divided into two is the operator for the fifth area in FIG. 9, and the left side is the operator for the second area in FIG. By performing the processing, the edge component can be registered only outside the actual contour of the object.

【0055】[0055]

【発明の効果】以上詳述したように、本発明によれば、
画像の状況により、エッジ成分の登録が、状況によって
あるところでは実際の輪郭の内側であったり、外側であ
ったりするような不規則な事態となることを防止し、対
象物の実際の輪郭の内側のみか、または外側のみのいず
れか側寄りにエッジ成分登録することができるようにな
り、実際の輪郭位置に対して高い精度で一致する輪郭位
置の認識が行い得るようにした画像輪郭抽出方法が得ら
れる。
As described in detail above, according to the present invention,
Depending on the situation of the image, it is possible to prevent the registration of the edge component from becoming an irregular situation such as being inside or outside the actual contour depending on the situation. An image contour extraction method capable of registering an edge component only on the inner side or only on the outer side so that a contour position that matches an actual contour position can be recognized with high accuracy. Is obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】輪郭抽出の処理対象画像の例を示す図。FIG. 1 is a diagram showing an example of a processing target image for contour extraction.

【図2】本発明の実施例1で用いるオペレータの例を示
す図であって、(a)は左側用オペレータを、また、
(b)は右側用オペレータを示す図。
FIG. 2 is a diagram showing an example of an operator used in Example 1 of the present invention, in which (a) is an operator for the left side,
FIG. 6B is a diagram showing a right operator.

【図3】図2の左側用オペレータにより検出したエッジ
登録画素位置を説明するための図。
FIG. 3 is a diagram for explaining an edge registration pixel position detected by an operator for the left side of FIG.

【図4】図2の右側用オペレータにより検出したエッジ
登録画素位置を説明するための図。
FIG. 4 is a diagram for explaining an edge registration pixel position detected by an operator for the right side of FIG.

【図5】無地背景の人物像についてその左側画像に左側
用オペレータを作用させた場合のエッジ成分登録状態例
を示す図。
FIG. 5 is a diagram showing an example of an edge component registration state when a left-side operator is applied to a left-side image of a human image on a plain background.

【図6】図5に示すエッジ成分登録後の画像について、
エッジ成分登録情報を用いて背景部分と対象物との分離
を行った場合を視覚的に分かり易く示した図。
6 is an image after the edge component registration shown in FIG.
The figure which showed visually the case where the background part was isolate | separated using the edge component registration information in an easy-to-understand manner.

【図7】本発明の実施例2で採用する輪郭抽出処理対象
画像の分割例を示す図。
FIG. 7 is a diagram showing an example of division of a contour extraction processing target image adopted in the second embodiment of the present invention.

【図8】本発明の実施例3で採用する輪郭抽出処理対象
画像の分割例を示す図。
FIG. 8 is a diagram showing an example of division of a contour extraction processing target image adopted in the third embodiment of the present invention.

【図9】本発明の実施例2および実施例3で使用する領
域別オペレータの例を示す図。
FIG. 9 is a diagram showing an example of area-specific operators used in the second and third embodiments of the present invention.

【図10】従来使用されている輪郭抽出処理に使用する
各種オペレータの例を示す図。
FIG. 10 is a diagram showing examples of various operators used in the conventionally used contour extraction processing.

【図11】従来手法を用いた場合のエッジ成分登録例を
示す図。
FIG. 11 is a diagram showing an example of edge component registration when a conventional method is used.

【図12】図11のようなエッジ成分登録がなされた画
像の場合の背景塗り潰し結果を説明するための図。
FIG. 12 is a diagram for explaining a background filling result in the case of an image in which edge components are registered as in FIG. 11.

【符号の説明】[Explanation of symbols]

a,b,c…画素濃度値(デ−タ)、x…注目画素の濃
度値、P1〜P4…画素位置。
a, b, c ... Pixel density value (data), x ... Density value of target pixel, P1 to P4 ... Pixel position.

─────────────────────────────────────────────────────
─────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成5年4月30日[Submission date] April 30, 1993

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0001[Correction target item name] 0001

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0001】[0001]

【産業上の利用分野】本発明は画像のエッジ成分の抽出
方法に関するものであり、特に人物画像の認識やその他
の画像認識に有用な画像輪郭抽出方法に関するものであ
る。
The present invention relates is related to method for extracting an edge component of an image, and more particularly to a useful image contour extraction method in addition to the image recognition of the recognition eighty human image.

【手続補正2】[Procedure Amendment 2]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0007[Correction target item name] 0007

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0007】[0007]

【発明が解決しようとする課題】ディジタル化された画
像において、濃度差のある画素と画素の境界線の位置を
実際の輪郭位置と呼ぶことにする。また、通常良く行わ
れる画像の認識方法のひとつは、輪郭成分が登録された
画素位置を含めてこれらの内側を対象物と看做すことで
ある。このようにすると、背景部分のみを、別の色で塗
り潰すような処理を行う場合、背景の任意の位置からエ
ッジ成分が登録された画素の直前までを塗り潰せば、背
景部分を塗り潰したことになるので都合が良い。従来の
エッジ抽出方法はその計算方法により、実際の輪郭に対
して画素濃度が濃い側か淡い側のいずれか片側、あるい
は両側の画素位置にエッジ成分を検出する。
The present invention is to provide a digitized image
In the image, the position of the boundary line between the pixels with the density difference
It will be called the actual contour position. Also usually well done
One of the recognized image recognition methods is to register contour components.
By considering the inside of these including the pixel position as an object
is there. In this way, only the background part will be painted in a different color.
When performing processing such as crushing, you can start from any position on the background.
If you fill up just before the pixel where the edge component is registered,
It is convenient because it means that the scenery is filled. The conventional edge extraction method the calculation method, versus the contour of the actual
Detecting the edge component in the pixel-enriched side or light side Neu displacement or one or both sides of the pixel positions, and.

【手続補正3】[Procedure 3]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0008[Correction target item name] 0008

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0008】従って、濃度がほぼ一定の背景の中に、
景より濃い部分と淡い部分との両方を持つ対象物がある
ような画像を考えると、従来のエッジ抽出方法では対象
物の実際の輪郭の両側の画素位置にエッジ成分が登録さ
れるので、背景の任意の位置からエッジ成分が登録され
た画素の直前までを塗り潰しても、実際の輪郭位置を境
にして塗り潰すことにはならない。
[0008] Thus, in the almost constant background concentration, back
There is an object that has both dark and light parts of the scene
Considering such an image , conventional edge extraction methods register edge components at pixel positions on both sides of the actual contour of the object.
Therefore, the edge component is registered from any position on the background.
Even if you fill the area just before the pixel
It doesn't mean to fill it.

【手続補正4】[Procedure amendment 4]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0009[Correction target item name] 0009

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0009】例えば図11に示すような濃度分布を呈す
る画像を考える。ある輪郭成分抽出オペレータを用いて
計算を行うと、濃度の高い側の画素にエッジ成分が登録
されることにより、図11に白丸の印を付けた画素位
エッジ成分が登録される。この結果、対象物の画素濃
度が背景の濃度よりも淡い部分では実際の輪郭位置に対
して、対象物側の画素ではなく、背景部分の画素にエッ
ジ成分が登録されることになる。
[0009] us consider an image exhibiting concentration distribution as shown in FIG. 11 for example. Using a contour component extraction operator
Doing calculations by pixel to the edge component of the high density side is registered, the pixel position location marked in white circle in FIG. 11
Edge component Ru is registered in. As a result, in the part where the pixel density of the object is lighter than the background density ,
Then , the edge component is registered not in the pixel on the object side but in the pixel in the background portion.

【手続補正5】[Procedure Amendment 5]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0010[Correction target item name] 0010

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0010】そして、このエッジ成分をもとに、背景部
分を任意の色で塗り潰す処理を行うと、図12に示すよ
うに輪郭の一部分で塗り潰した部分が、実際の輪郭の位
置に達しないため、塗り潰した背景部分と対象物との間
に、隙間を生じるおそれがある。
When the background portion is filled with an arbitrary color based on this edge component, it is shown in FIG.
Uni portion coated Ri crushed part of the contour, the actual contour of the position
Since they not reach the location, between the filled background portion and the object, Ru danger resulting gaps.

【手続補正6】[Procedure correction 6]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0011[Correction target item name] 0011

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0011】すなわち、本来は実際の輪郭の位置で背景
部分と対象物とを分けたいにもかかわらず、エッジ成分
が実際の輪郭の両側の画素位置に登録されてしまうため
に、正確に実際の輪郭位置で分けることができなかっ
た。
[0011] That is, without straw also written want to separate the background portion and the object at the original position of the actual edge, edge components
Is registered at the pixel positions on both sides of the actual contour.
In addition, it was not possible to divide the actual contour position accurately .

【手続補正7】[Procedure Amendment 7]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0037[Name of item to be corrected] 0037

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0037】右半分についても同様であるがオペレータ
には図2(b)に示す右側用オペレータを用いる。この
場合、注目画素の位置が、オペレータの対象とする2×
2画素マトリックス構成のブロックにおける画素のう
ち、P3位置であることを除けば上述した左側用オペレ
ータでの説明と同じである。但し、注目画素がP3位置
であることから、縦に伸びているエッジはそのエッジの
左の画素に、また、左上がりの斜め線のエッジはその左
下の画素に、エッジ登録される(図4参照)。
The same applies to the right half, but the operator for the right side shown in FIG. 2B is used as the operator. In this case, the position of the pixel of interest is 2 ×
Of the pixels in the block having the two-pixel matrix structure, the description is the same as the above description for the left-side operator except that it is at the P3 position. However, since the pixel of interest is at the P3 position, the vertically extending edge is the pixel to the left of that edge, and the edge of the diagonal line rising to the left is its left.
An edge is registered in the lower pixel (see FIG. 4).

【手続補正8】[Procedure Amendment 8]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0048[Correction target item name] 0048

【補正方法】削除[Correction method] Delete

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 ディジタル化された二次元画像について
エッジ成分抽出オペレータによりデ−タ処理して画像輪
郭を抽出する画像輪郭抽出方法として、 処理対象画像を複数の矩形領域に分割する分割工程と、 この分割工程により分割された各分割領域毎に予め設定
され、注目画素とこの注目画素の周囲の各画素における
濃度値との差分値よりエッジ成分を抽出するためのエッ
ジ成分抽出オペレータにより、エッジ成分を求めて注目
画素にエッジ登録することによりエッジ抽出するエッジ
成分抽出工程と、を有することを特徴とする画像輪郭抽
出方法。
1. A dividing step of dividing an image to be processed into a plurality of rectangular areas as an image contour extracting method for extracting an image contour by data processing of a digitized two-dimensional image by an edge component extracting operator. The edge component extraction operator for extracting the edge component from the difference value between the density value of the pixel of interest and the density value of each pixel around the pixel of interest is set in advance for each of the divided areas divided by this dividing step. And an edge component extracting step of extracting an edge by registering the edge in the pixel of interest.
JP4016717A 1992-01-31 1992-01-31 Method for extracting contour of image Withdrawn JPH05210736A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4016717A JPH05210736A (en) 1992-01-31 1992-01-31 Method for extracting contour of image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4016717A JPH05210736A (en) 1992-01-31 1992-01-31 Method for extracting contour of image

Publications (1)

Publication Number Publication Date
JPH05210736A true JPH05210736A (en) 1993-08-20

Family

ID=11924023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4016717A Withdrawn JPH05210736A (en) 1992-01-31 1992-01-31 Method for extracting contour of image

Country Status (1)

Country Link
JP (1) JPH05210736A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006117932A1 (en) * 2005-04-27 2006-11-09 Olympus Medical Systems Corp. Image processing device, image processing method, and image processing program
JP2006304993A (en) * 2005-04-27 2006-11-09 Olympus Medical Systems Corp Image processing apparatus, image processing method and image processing program
JP2006304995A (en) * 2005-04-27 2006-11-09 Olympus Medical Systems Corp Image processing apparatus, image processing method and image processing program
JP2008257574A (en) * 2007-04-06 2008-10-23 Fujitsu Ltd Image processing method, image processing device, image processing system and computer program
JP2012518223A (en) * 2009-02-13 2012-08-09 アリババ・グループ・ホールディング・リミテッド Image feature extraction method and system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006117932A1 (en) * 2005-04-27 2006-11-09 Olympus Medical Systems Corp. Image processing device, image processing method, and image processing program
JP2006304993A (en) * 2005-04-27 2006-11-09 Olympus Medical Systems Corp Image processing apparatus, image processing method and image processing program
JP2006304995A (en) * 2005-04-27 2006-11-09 Olympus Medical Systems Corp Image processing apparatus, image processing method and image processing program
US20100316273A1 (en) * 2005-04-27 2010-12-16 Olympus Medical Systems Corp. Image processing apparatus, image processing method and image processing program
US7907775B2 (en) 2005-04-27 2011-03-15 Olympus Medical Systems Corp. Image processing apparatus, image processing method and image processing program
US8204287B2 (en) * 2005-04-27 2012-06-19 Olympus Medical Systems Corp. Image processing apparatus, image processing method and image processing program
JP2008257574A (en) * 2007-04-06 2008-10-23 Fujitsu Ltd Image processing method, image processing device, image processing system and computer program
JP2012518223A (en) * 2009-02-13 2012-08-09 アリババ・グループ・ホールディング・リミテッド Image feature extraction method and system
US9865063B2 (en) 2009-02-13 2018-01-09 Alibaba Group Holding Limited Method and system for image feature extraction

Similar Documents

Publication Publication Date Title
US6898316B2 (en) Multiple image area detection in a digital image
CN108230252B (en) Image processing method and device and electronic equipment
US6757444B2 (en) Image extraction apparatus and method
US7362918B2 (en) System and method for de-noising multiple copies of a signal
US7444017B2 (en) Detecting irises and pupils in images of humans
Ahn et al. A novel depth-based virtual view synthesis method for free viewpoint video
CN105339951B (en) Method for detecting document boundaries
US8494297B2 (en) Automatic detection and mapping of symmetries in an image
EP3644599B1 (en) Video processing method and apparatus, electronic device, and storage medium
US20050196044A1 (en) Method of extracting candidate human region within image, system for extracting candidate human region, program for extracting candidate human region, method of discerning top and bottom of human image, system for discerning top and bottom, and program for discerning top and bottom
US10255490B2 (en) Method and apparatus for human detection in images
US20080247649A1 (en) Methods For Silhouette Extraction
JPH0997342A (en) Tree interval distance measurement system
JP2001274990A (en) Image processing method and image processor
JP3576654B2 (en) Exposure determination method, figure extraction method, and face area determination method
JP3814353B2 (en) Image segmentation method and image segmentation apparatus
JPH05210736A (en) Method for extracting contour of image
JP3516118B2 (en) Object recognition method and object recognition device
JP4328259B2 (en) Moving object tracking method, moving object tracking program and recording medium thereof, and moving object tracking apparatus
JP6006675B2 (en) Marker detection apparatus, marker detection method, and program
JP3100383B2 (en) Character region separation method and apparatus
JP3787783B2 (en) Object traveling direction detection method
JP4831344B2 (en) Eye position detection method
WO2015080321A1 (en) Method for detecting object having excessive disparity
JP2005309870A (en) Image processor

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19990408