JPH041863A - Method and device for detecting mouth split line - Google Patents

Method and device for detecting mouth split line

Info

Publication number
JPH041863A
JPH041863A JP2101836A JP10183690A JPH041863A JP H041863 A JPH041863 A JP H041863A JP 2101836 A JP2101836 A JP 2101836A JP 10183690 A JP10183690 A JP 10183690A JP H041863 A JPH041863 A JP H041863A
Authority
JP
Japan
Prior art keywords
image
line
edge
mouth
lines
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2101836A
Other languages
Japanese (ja)
Other versions
JP2671556B2 (en
Inventor
Shizuo Sakamoto
坂本 靜生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2101836A priority Critical patent/JP2671556B2/en
Publication of JPH041863A publication Critical patent/JPH041863A/en
Application granted granted Critical
Publication of JP2671556B2 publication Critical patent/JP2671556B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To detect a mouth split line with the simple processing and in a small number of parameters by detecting a picture element darker than the upper and lower picture elements of an image, searching another edge line out of the detected edge lines in the linear direction, and connecting the corresponding edge lines if exist to each other in order to detect the mouth split line out of the image. CONSTITUTION:A face image storage means 10 is provided to store an image obtained by photographing a normal human face together with a mouth part image segmenting means 20 which segments only the mouth part out of the image, and a V-shape edge detection means 30 which detects a picture element darker than the upper and lower picture elements of a gradation image. Furthermore a right/left mouth split line connection means 70 is added to connect the segment connected to the right side of the mouth to the segment connected to the left side of the mouth together with a split line image storage means 80, etc. If the similar connection lines are searched in the direction of an axis (x), they are judged as the mouth split lines and connected together. If such connection lines are not searched, the existence of a mouth split line is judged and the search of the connection lines is finished. Thus the mouth split line is detected with the simple processing and in a small number of parameters.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、人物平常顔画像から上唇と下唇とが合わさっ
た部位である1裂を示す口裂線を検出する技術に関する
ものである。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a technique for detecting a cleft line, which is the region where the upper and lower lips meet, from an image of a normal human face.

〔従来の技術〕[Conventional technology]

人物平常顔画像から口裂線を検出する従来方式の一例と
して、文献[R,Buhr、 ”ENTWICKLUN
G EINESADAPTIVEN EXTRAKTI
ONS−UND KLASSIFIKATIONS−5
YSTEMS ZURERKENNUNG VON B
ILDERN (GESICHTER)″ヨハネス・グ
ーテンベルブ大学生物研究課程への理学博士請求論文、
(1984) ]に基づいて説明する。
As an example of a conventional method for detecting cleft lines from normal human face images, the document [R. Buhr, "ENTWICKLUN"]
G EINESADAPTIVEN EXTRAKTI
ONS-UND KLASSI FIKATIONS-5
YSTEMS ZURERKENNUNG VON B
ILDERN (GESICHTER) ``Doctor of Science dissertation for biology research program at Johannes Gutenberg University,
(1984)].

第2図に示すように、まず、既にある手法で顔画像から
目領域201の画像A(x、y)が切り出されていると
する。また、画像本来の座標をX。
As shown in FIG. 2, it is assumed that an image A (x, y) of the eye area 201 has already been cut out from the face image using a certain method. Also, the original coordinates of the image are X.

yとし、瞳を結ぶ線分を含む直線を顔のy′軸、その線
分の2等分線をy′軸とする。
y, the straight line including the line segment connecting the pupils is the y' axis of the face, and the bisector of that line segment is the y' axis.

この日領域201に比較的大きめのσを持つΔGフィル
タ(参考文献[D、Marr、“Vision 、 W
、H。
A ΔG filter with relatively large σ in this day region 201 (Reference [D. Marr, “Vision, W.
,H.

Freea+an and Co11pany+ (1
9B2) ] )を適用し、画像B(x、y)を得る。
Free+an and Co11pany+ (1
9B2) ] ) to obtain image B(x,y).

ΔGフィルタは次の式で表される。The ΔG filter is expressed by the following formula.

二の関数の1次元の場合を第3図に示す(前記り、Ma
rr+ ”Vision + 5.4ページ、第2−9
図より引用)。
Figure 3 shows the one-dimensional case of the two functions (see above, Ma
rr+ “Vision + 5.4 page, 2-9
(quoted from the figure).

唇領域はその回りの肌と際だった色の違いがないので、
エツジ強度は余り強くない。このため、エツジ強度で唇
を判別することが難しい。σを小さくすると、不要で複
雑な輪郭線が多く現れるので、この後の処理が難しくな
る。
There is no noticeable difference in color between the lip area and the surrounding skin, so
Edge strength is not very strong. For this reason, it is difficult to distinguish lips based on edge intensity. If σ is made small, many unnecessary and complicated contour lines appear, making subsequent processing difficult.

次に、低域濾過フィルタを同様に適用し、画像C(x、
y)を得る。この画像C(x、y)は、原画像をぼかし
たもので、画像A(x、y)の周りの大体の明るさに相
当する。各画素においてB (x、y)をC(x、y)
で割り、画像D (x。
Next, a low-pass filter is similarly applied, and the image C(x,
y) is obtained. This image C (x, y) is a blurred version of the original image, and corresponds to the approximate brightness around the image A (x, y). At each pixel, B (x, y) becomes C (x, y)
Divide by, image D (x.

y)を得る。これにより、暗い領域である0裂付近が強
調できる。この画像D(x、y)から適当な閾値で2値
化することにより輪郭線画像E (x。
y) is obtained. This makes it possible to emphasize the dark region near the 0 fissure. This image D (x, y) is binarized using an appropriate threshold to create a contour image E (x, y).

y)を生成する。闇値はバーセンタイル法を用いて求め
る。バーセンタイル法を第4図を参照して説明する。バ
ーセンタイル法とは目的の画像における濃度分布ヒスト
グラムを作り、そのヒストグラムの面積をaパーセント
で分割するような閾値401を定める方法である。
y). The darkness value is determined using the percentile method. The percentile method will be explained with reference to FIG. The percentile method is a method of creating a density distribution histogram in a target image and determining a threshold value 401 that divides the area of the histogram by a percent.

画像E(x、y)において、第5図に示すように、y軸
方向に加算投影をとり、適当な閾値を定めて、それを超
えるピークの数が3つ(上唇1口裂、下唇)近接して存
在し、最大面積のピークの幅が設定した値以上であれば
そこが0裂であるとし、0裂の中心座標y□を定める。
In the image E(x, y), as shown in Figure 5, an additive projection is taken in the y-axis direction, an appropriate threshold is determined, and the number of peaks exceeding the threshold is 3 (one cleft upper lip, one cleft lower lip). ) If they exist close to each other and the width of the peak with the maximum area is equal to or greater than the set value, it is considered a zero fissure, and the center coordinate y□ of the zero fissure is determined.

X座標値xwsは顔の座標軸X/   、Lにおいて、
0となるようにとる。この条件が満たされなければ、閾
値を段階的に下げて調べていく。最初の闇値は、最大ピ
ーク値に比例した値で与える。
The X coordinate value xws is the face coordinate axis X/, L,
Take it so that it becomes 0. If this condition is not met, the threshold value is lowered step by step. The initial darkness value is given as a value proportional to the maximum peak value.

0裂中心座標(X□、  yxs)をもとに、元の画像
A(x、y)から自製線を抽出する。まず(x、4s、
  V□)の近傍において、明るさの平均値m M S
を求める。0裂の画素はこの値と同じ様な値を持ち、近
傍の画素と比べると一番暗いと仮定して左右に曲線追跡
を行ってゆく。
A homemade line is extracted from the original image A (x, y) based on the zero fissure center coordinates (X□, yxs). First (x, 4s,
In the vicinity of V□), the average brightness value m M S
seek. It is assumed that the 0-fiber pixel has a value similar to this value and is the darkest compared to neighboring pixels, and curve tracing is performed left and right.

まず、ある座標(xa、ya)が既に自製上の点である
ことがわかっているとする。このとき(XA−1,7a
−to) 、  (XA−1,3’A−9) 、 ・”
(XA−In ’j a++o)を候補として、次の処
理で自製点として求める。
First, it is assumed that certain coordinates (xa, ya) are already known to be a homemade point. At this time (XA-1, 7a
-to), (XA-1, 3'A-9), ・”
Using (XA-In'j a++o) as a candidate, it is obtained as a homemade point in the next process.

1)一番暗い候補点(xA−4,yA、わ)(但しn=
−10,−・・、10の内どれかの値をとる)において
画素近傍の平均値m0を求める。
1) Darkest candidate point (xA-4, yA, wa) (where n=
-10, -..., 10), the average value m0 in the vicinity of the pixel is determined.

2)全ての候補点において明るさの標準偏差を求め、そ
れをm。、で正規化した値σ、を算出する。
2) Find the standard deviation of brightness at all candidate points and calculate it as m. Calculate the value σ, normalized by .

3)m、がm□以下であるとき、それを自製上の点とし
、更に追跡を続ける。
3) When m is less than or equal to m□, set it as a homemade point and continue tracking.

4)それ以外でσ9が1/3よりも大きい場合、0裂は
まだ続いていると考えて、それを自製上の点として追跡
を続ける。
4) Otherwise, if σ9 is larger than 1/3, consider that the 0-fissure is still continuing, and continue to track it as a self-made point.

5)どれにも当てはまらない場合、自製端に達したと考
えて追跡を終了する。
5) If none of the conditions apply, consider that the homemade end has been reached and stop tracking.

これにより、自製線を得ることができる。In this way, a homemade wire can be obtained.

しかし、適当な閾値を設定せねばならない場面が何回も
登場することがわかる。また画素の近傍もその度毎に適
当に定めなければならない。この様な処理で様々な画像
から0裂を抽出できるようにするためには、パラメータ
の調節も厄介であり、更に処理時間もかかる。
However, it can be seen that there are many situations in which it is necessary to set an appropriate threshold value. Furthermore, the vicinity of the pixel must be appropriately determined each time. In order to be able to extract zero fissures from various images through such processing, it is difficult to adjust parameters and it also takes processing time.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

従来法では一般画像に適用するオペレータを用いている
ために、煩雑な処理と、多くのパラメータを設定する必
要があった。
In the conventional method, since an operator applied to general images is used, it is necessary to perform complicated processing and set many parameters.

本発明の目的は、口周辺の形状に応じたオペレータを適
用することによって処理とパラメータを削減し、簡単で
効果的な自製線検出方法及び装置を捉供することにある
An object of the present invention is to reduce processing and parameters by applying an operator according to the shape of the mouth area, and to provide a simple and effective homemade line detection method and device.

〔課題を解決するための手段〕[Means to solve the problem]

本発明の自製線検出方法は、 人物の平常顔を撮影した画像において、この画像の上下
画素のいずれよりも暗い画素を検出し、検出したエツジ
線から線方向に別のエツジ線を探索し、対応するエツジ
線が存在すればそれを連結することによって、前記画像
から自製線を検出することを特徴とする。
The homemade line detection method of the present invention includes detecting a pixel darker than any of the upper and lower pixels of this image in an image of a person's normal face, searching for another edge line in the line direction from the detected edge line, The method is characterized in that if corresponding edge lines exist, the homemade lines are detected from the image by connecting them.

本発明の口型線検出装置は、 人物の平常顔を撮影した画像を入力とし、前記画像の上
下画素いずれよりも暗い画素を検出するV字エツジ検出
手段と、 このV字エツジ検出手段から出力されるエツジ画像を記
憶するエツジ画像記憶手段と、このエツジ画像記憶手段
内に保存されているエツジ画像から連結し2ているエツ
ジ線を検索するエツジ線検索手段と、 エツジ線方向へ別のエツジ線を探索し、探索範囲に存在
すればそれを連結するエツジ線探索・連結手段と、 連結されたエツジ線の中から自製線を選び出す自製線抽
出手段とからなることを特徴とする。
The mouth-shaped line detection device of the present invention receives an image of a person's normal face as input and detects a pixel darker than any of the upper and lower pixels of the image, and an output from the V-shaped edge detection device. edge image storage means for storing edge images stored in the edge image storage means; edge line search means for searching for two connected edge lines from the edge images stored in the edge image storage means; The present invention is characterized by comprising an edge line search/connection means for searching for lines and connecting them if they exist within the search range, and a homemade line extraction means for selecting a homemade line from the connected edge lines.

〔作用] 本発明の原理を以下に説明する。[Effect] The principle of the present invention will be explained below.

口は上唇と下唇から構成されている。上唇及び下唇はy
軸方向には周辺と比べて急峻な凸状、X軸方向には緩や
かな凸状を成している。また詳細にみると、それぞれは
縦に細かい皺が走っている。
The mouth consists of an upper lip and a lower lip. Upper and lower lips are y
It has a steep convex shape in the axial direction compared to the surrounding area, and a gentle convex shape in the X-axis direction. If you look closely, you can see that each one has fine wrinkles running vertically.

自製は上唇と下唇が合わさった部位であり、唇が十分滑
らかであるとすると、y軸方向では0裂位置が一番暗(
、その前後はそれよりも明るい。また、唇においてX軸
方向に走っている皺は自製と比べて深くなく、隣合った
皺との間には相関はない。また、口周辺の他の部位でX
軸方向に構造を持ったものはない。
The homemade version is the part where the upper and lower lips meet, and assuming the lips are smooth enough, the 0 cleft position is the darkest in the y-axis direction (
, before and after is brighter than that. Furthermore, the wrinkles running in the X-axis direction on the lips are not as deep as those made in-house, and there is no correlation between adjacent wrinkles. Also, in other parts around the mouth
There is no structure in the axial direction.

これらのことから、以下の処理で簡単に自製線が得られ
る。まず、従来技術により、既に口周辺が切り出せてい
る画像があるとする。
For these reasons, a homemade wire can be easily obtained by the following process. First, assume that there is an image in which the area around the mouth has already been extracted using the conventional technology.

1)y軸方向にのみ感度がある7字エツジオペレータを
原画像に対して適用し、エツジが存在する。しないで2
値化する。
1) A 7-character edge operator that is sensitive only in the y-axis direction is applied to the original image, and an edge exists. Don't do it 2
Value.

2)x軸方向に連結しているもので一番長いものを自製
線の一部だと仮定する。
2) Assume that the longest one connected in the x-axis direction is part of the homemade wire.

3)x軸方向に同様な連結線を探索し、もし存在すれば
それを自製線であると考えて連結する。
3) Search for a similar connection line in the x-axis direction, and if it exists, consider it to be a homemade line and connect it.

なければ自製端に達したと判断してそこで探索を終了す
る。
If not, it is determined that the homemade end has been reached and the search ends there.

ここでパラメータとなるものは、エツジオペレータの形
と探索する範囲だけであり、従来法に比べて非常に少な
い。また処理手順も非常に簡略化されている。
The parameters here are only the shape of the edge operator and the range to be searched, which are much smaller than in the conventional method. The processing procedure is also very simplified.

[実施例〕 以下に、図面を用いて本発明の実施例を示す。[Example〕 Examples of the present invention will be shown below using the drawings.

第1図は口型線検出装置の一実施例を示すブロック図で
ある。
FIG. 1 is a block diagram showing an embodiment of a mouth line detection device.

この0裂線検出装置は、人物の平常顔を撮影した画像を
記憶する顔画像記憶手段10と、画像中の口の部分だけ
を切り出す口部分画像切り出し手段20と、濃淡画像の
上下画素いずれよりも暗い画素を検出するV字エツジ検
出手段30と、このV字エツジ検出手段から出力される
エツジ画像を記憶するエツジ画像記憶手段40と、この
エツジ画像記憶手段内に保存されているエツジ画像から
連結しているエツジを検出する部分口型線検出手段50
と、部分自製線方向へ左側及び右側で別の部分自製線を
探索し、探索範囲に存在すればそれを連結する線分探索
・連結手段60.61と、左側に連結した線分と右側に
連結した線分とを連結して自製線とする左右自製線連結
手段70と、自製線を記憶する自製線画像記憶手段80
とを備えている。
This zero fissure line detection device includes a face image storage means 10 for storing an image of a person's normal face, a mouth part image cutting means 20 for cutting out only the mouth part in the image, and a top and bottom pixel of a grayscale image. A V-shaped edge detection means 30 that detects dark pixels, an edge image storage means 40 that stores an edge image output from this V-shaped edge detection means, and an edge image stored in this edge image storage means. Partial opening type line detection means 50 for detecting connected edges
Then, a line segment search/connection means 60 and 61 searches for another partially homemade line on the left and right side in the direction of the partially homemade line, and connects it if it exists in the search range, and a line segment connected on the left side and the right side. Left and right homemade line connecting means 70 that connects the connected line segments to create a homemade line, and homemade line image storage means 80 that stores the homemade line.
It is equipped with

顔画像記憶手段10に顔画像(濃淡画像)が蓄えられて
おり、この顔画像から口部分画像切り出し手段20によ
り濃淡画像中の口の部分だけを取り出す。これは従来方
式により実現できる(例えば、前記した文献[R,Bu
hr、  ”ENTWICKLUNG EFNESAD
APTIVEN EXTRAKTIONS−UND K
LASSIFIKATIONSSYSTEMS ZUR
ERKENNUNG VON BILDERN (GE
SICI(TER)’。
Face images (shaded images) are stored in a face image storage means 10, and only the mouth part in the grayscale image is extracted from this face image by a mouth part image cutting means 20. This can be realized by conventional methods (for example, the above-mentioned document [R, Bu
hr, ”ENTWICKLUNG EFNESAD
APTIVEN EXTRAKTIONS-UND K
LASSIFIKATIONSSYSTEMS ZUR
ERKENNUNG VON BILDERN (GE
SICI(TER)'.

ヨハネス・グーテンベルブ大学生物研究課程への理学博
士請求論文、(1984) ]に詳しく述べられている
)。
(described in detail in Johannes Gutenberg University's Doctor of Science thesis for Biology Research Program, (1984)).

切り出した濃淡画像A(x、y)に対して、y軸方向の
V字状エツジを検出するV字エツジ検出手段30を適用
し、エツジ画像F (x、y)を得る。
A V-shaped edge detection means 30 for detecting V-shaped edges in the y-axis direction is applied to the cut out grayscale image A(x, y) to obtain an edge image F (x, y).

これは、例えば次のような簡単なオペレータが考えられ
る。
For example, a simple operator such as the following can be considered.

F (x、y) 一部(A (x、y+1)−A (x、y))Xθ (
A (x、y−1) −A (x、y))    (2
)ここで、θ()は階段関数であり、そのグラフを第6
図に示す、(2)式は、第7図に示すように画像をy軸
に平行な直線で切ったときに、注目画素の濃度がr谷1
になっている位置701.702.703では1、そう
でない場合には0となる。このオペレータを適用して得
られた画像は、第8図に示すように、X′軸方向に延び
た自製線の要素AO−A8と、唇の皺等が原因となる比
較的孤立したノイズBO〜B12から構成される。この
エツジ画像F (x、y)は、部分自製線検出手段50
、線分探索・連結手段60.61、左右自製線連結手段
70で参照するために、エツジ画像記憶手段40に蓄え
られる。
F (x, y) Partial (A (x, y+1) - A (x, y)) Xθ (
A (x, y-1) -A (x, y)) (2
) Here, θ() is a step function, and its graph is
Equation (2) shown in the figure shows that when the image is cut by a straight line parallel to the y-axis as shown in Figure 7, the density of the pixel of interest is r valley 1.
It is 1 at positions 701, 702, and 703 where , and 0 otherwise. As shown in FIG. 8, the image obtained by applying this operator includes a self-made line element AO-A8 extending in the X'-axis direction and a relatively isolated noise BO caused by lip wrinkles, etc. ~B12. This edge image F (x, y) is
, the line segment search/connection means 60, 61, and the left and right homemade line connection means 70 are stored in the edge image storage means 40 for reference.

エツジ画像F (x、y)における線分を、第9図を用
いて説明する。領域901にエツジ点が存在したとき、
その回りの領域902〜907に他のエツジ点が存在す
ると、それらはつながっているとする0部分0裂線検出
手段50はこの様な関係でつながっている線分の中で一
番長いものを探し、それを自製線の一部であると仮定す
る。第8図においては線分A7が自製線の一部であると
判定される。
Line segments in the edge image F (x, y) will be explained using FIG. 9. When an edge point exists in region 901,
If other edge points exist in the surrounding areas 902 to 907, the 0-section 0-break line detection means 50 determines that they are connected, and detects the longest one among the line segments connected in this manner. Look for it and assume it's part of the homemade wire. In FIG. 8, line segment A7 is determined to be part of the homemade line.

このような判定結果は、エツジ連結情報として、線分探
索・連結手段60.61に送られる。
Such a determination result is sent as edge connection information to the line segment search/connection means 60 and 61.

抽出した線分A7から、線分探索・連結手段60゜61
によって、それぞれ左側、右側に連結するものを探索す
る。探索は線分の方向に重みをおいた範囲について行う
、もし連結する線分が見つかれば、その線分端から更に
探索する。また、そうでなければ自製線の端点に達した
と判断し、探索を終了する。
From the extracted line segment A7, line segment search/connection means 60°61
Search for items connected to the left and right sides, respectively. The search is performed in a range weighted in the direction of the line segment. If a connecting line segment is found, the search is performed further from the end of the line segment. If not, it is determined that the end point of the homemade line has been reached, and the search is terminated.

第8図の例においては、線分A7から右の方向に探索す
ると、線分A8が近くに存在するため、これを接続する
。線分A8より右には近くにエツジが無いため、探索を
終了する。線分A7から左方向には順に線分A6.A5
.A4.A3.A2゜A1と連結してゆき、探索を終了
する。探索の結果は、エツジ達、結情報として、左右自
製線連結手段70に送られる。
In the example of FIG. 8, when searching in the right direction from line segment A7, line segment A8 is found nearby, so it is connected. Since there is no edge close to the right of line segment A8, the search is terminated. To the left from line segment A7, line segment A6. A5
.. A4. A3. A2° is connected to A1, and the search ends. The search results are sent to the left and right homemade line connecting means 70 as edge information.

最終的に線分A7を中心に左右の自製線A8゜A6−A
5−A4−A3−A2−AIを左右自製線連結手段70
により連結し、自製線を得、その画像は0裂線画像記憶
手段80に送られる。
Finally, the left and right homemade lines A8゜A6-A centering on line segment A7
5-A4-A3-A2-AI with left and right homemade wire connecting means 70
A self-made line is obtained, and its image is sent to the 0-fiber line image storage means 80.

作用の項でも述べたように、パラメータとなるものはオ
ペレータの大きさと線分探索範囲だけであり、また処理
自体も非常に簡略化されている。
As mentioned in the section on effects, the only parameters are the size of the operator and the line segment search range, and the processing itself is extremely simplified.

オペレータは式(2)に示したものの代わりに、顔の座
標軸y′にほぼ平行な方向のプロファイルが7字状を成
していることを検出するものであれば、いかなるオペレ
ータを用いてもよい、また、線分探索範囲も部分口型線
の線方向に重み付けされたものであればよい。
Instead of the operator shown in equation (2), any operator may be used as long as it detects that the profile in the direction approximately parallel to the facial coordinate axis y' forms a figure 7 shape. In addition, the line segment search range may be one that is weighted in the line direction of the partial mouth type line.

部分口型線の検出も、実施例ではr一番長い線分1とし
たが、特にそうしな(ともこの発明に同等影響を与える
ものではない。例えば、各エツジ線分について線分探索
・連結手段を順次適用し、最後に0裂判定を行えば良い
。この判定は、例えば、従来技術で述べた方法により行
うことができる。
In the embodiment, the longest line segment 1 was used for detecting the partial opening type line. It is sufficient to apply the connecting means one after another and finally perform a zero-fissure determination.This determination can be performed, for example, by the method described in the prior art.

〔発明の効果〕〔Effect of the invention〕

人物の口周辺の構造を考慮した処理を行う本発明により
、従来よりも簡単な処理と少ないパラメータ数で自製線
を検出することができる。
According to the present invention, which performs processing that takes into account the structure around a person's mouth, homemade lines can be detected with simpler processing and fewer parameters than conventional methods.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は、本発明の0裂線検出装置の一実施例を示す図
、 第2図は、処理対象となる顔画像の説明図、第3図は、
ΔGオペレータの1次元の場合のグラフを示す図、 第4図は、バーセンタイル法の説明図、第5図は、従来
技術における、輪郭線位置をy軸に加算投影したものを
示す図、 第6図は、階段関数のグラフを示す図、第7図は、本発
明の実施例で示した7字エツジ検出オペレータを適用時
の結果の説明図、第8図は、実施例における線分探索・
結合処理の説明図、 第9図は、実施例におけるエツジ点間の連結判定領域を
示す図である。 10・・・・・顔画像記憶手段 20・・・・・口部分画像切り出し手段30・・・・・
V字エツジ検出手段 40・・・・・エツジ画像記憶手段 50・・・・・部分0裂線検出手段 60、61・・・線分探索・連結手段 70・・・・・左右自製線連結手段 80・・・・・口裂線画像記憶手段
FIG. 1 is a diagram showing an embodiment of the zero fissure line detection device of the present invention, FIG. 2 is an explanatory diagram of a face image to be processed, and FIG.
A diagram showing a graph of the one-dimensional case of the ΔG operator, FIG. 4 is an explanatory diagram of the percentile method, and FIG. 5 is a diagram showing the contour line position added and projected onto the y-axis in the prior art. FIG. 6 is a diagram showing a graph of a step function, FIG. 7 is an explanatory diagram of the result when the 7-character edge detection operator shown in the embodiment of the present invention is applied, and FIG. 8 is a diagram showing the line segment in the embodiment. search·
FIG. 9, an explanatory diagram of the joining process, is a diagram showing a connection determination area between edge points in the embodiment. 10...Face image storage means 20...Mouth part image cutting means 30...
V-shaped edge detection means 40...Edge image storage means 50...Partial 0-fissure line detection means 60, 61...Line segment search/connection means 70...Left and right homemade line connection means 80... Cleft line image storage means

Claims (2)

【特許請求の範囲】[Claims] (1)人物の平常顔を撮影した画像において、この画像
の上下画素のいずれよりも暗い画素を検出し、検出した
エッジ線から線方向に別のエッジ線を探索し、対応する
エッジ線が存在すればそれを連結することによって、前
記画像から口裂線を検出することを特徴とする口裂線検
出方法。
(1) In an image of a person's normal face, detect a pixel that is darker than any of the upper and lower pixels of this image, search for another edge line in the line direction from the detected edge line, and find the corresponding edge line. A method for detecting a cleft line, characterized in that the cleft line is detected from the image by connecting the cleft lines.
(2)人物の平常顔を撮影した画像を入力とし、前記画
像の上下画素いずれよりも暗い画素を検出するV字エッ
ジ検出手段と、 このV字エッジ検出手段から出力されるエッジ画像を記
憶するエッジ画像記憶手段と、 このエッジ画像記憶手段内に保存されているエッジ画像
から連結しているエッジ線を検索するエッジ線検索手段
と、 エッジ線方向へ別のエッジ線を探索し、探索範囲に存在
すればそれを連結するエッジ線探索・連結手段と、 連結されたエッジ線の中から口裂線を選び出す口裂線抽
出手段とからなることを特徴とする口裂線検出装置。
(2) V-shaped edge detection means that receives an image of a person's normal face as input and detects a pixel darker than either the upper or lower pixel of the image; and stores the edge image output from this V-shaped edge detection means. an edge image storage means; an edge line search means for searching connected edge lines from edge images stored in the edge image storage means; searching for another edge line in the direction of the edge line; A cleft line detection device comprising: an edge line search/connection means for connecting edge lines if they exist; and a cleft line extraction means for selecting a cleft line from the connected edge lines.
JP2101836A 1990-04-19 1990-04-19 Cleft line detection method and device Expired - Lifetime JP2671556B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2101836A JP2671556B2 (en) 1990-04-19 1990-04-19 Cleft line detection method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2101836A JP2671556B2 (en) 1990-04-19 1990-04-19 Cleft line detection method and device

Publications (2)

Publication Number Publication Date
JPH041863A true JPH041863A (en) 1992-01-07
JP2671556B2 JP2671556B2 (en) 1997-10-29

Family

ID=14311163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2101836A Expired - Lifetime JP2671556B2 (en) 1990-04-19 1990-04-19 Cleft line detection method and device

Country Status (1)

Country Link
JP (1) JP2671556B2 (en)

Also Published As

Publication number Publication date
JP2671556B2 (en) 1997-10-29

Similar Documents

Publication Publication Date Title
Zhang et al. Fast haze removal for nighttime image using maximum reflectance prior
US5715325A (en) Apparatus and method for detecting a face in a video image
Jabri et al. Detection and location of people in video images using adaptive fusion of color and edge information
Nadernejad et al. Edge detection techniques: Evaluations and comparisons
US7747071B2 (en) Detecting and correcting peteye
US7953253B2 (en) Face detection on mobile devices
US7035461B2 (en) Method for detecting objects in digital images
KR101446975B1 (en) Automatic face and skin beautification using face detection
US7860280B2 (en) Facial feature detection method and device
JP4597391B2 (en) Facial region detection apparatus and method, and computer-readable recording medium
US8131013B2 (en) Method and detecting system for positions of facial parts
EP0365037A3 (en) Method of and apparatus for processing image signal
JP2000036052A (en) Robust tracking method for face of man when plural men exist
GB9219797D0 (en) Automatic feature detection and side scan sonar overlap navigation via sonar image matching
EP3073415B1 (en) Image processing apparatus and image processing method
JP2007272435A (en) Face feature extraction device and face feature extraction method
KR100815209B1 (en) The Apparatus and Method for Abstracting Peculiarity of Two-Dimensional Image ? The Apparatus and Method for Creating Three-Dimensional Image Using Them
JP2966084B2 (en) Local area division method in image processing
JPH041863A (en) Method and device for detecting mouth split line
JP2005141523A (en) Image processing method
CN114463814A (en) Rapid certificate photo glasses detection method based on image processing
Sandhu et al. Comparative Analysis of Edge Detection Techniques for extracting Refined Boundaries
TWI225222B (en) Robust face detection algorithm for real-time video sequence
Dawson et al. Locating objects in a complex image
JPH04225478A (en) Ones eyes detecting device