JP2671556B2 - Cleft line detection method and device - Google Patents

Cleft line detection method and device

Info

Publication number
JP2671556B2
JP2671556B2 JP2101836A JP10183690A JP2671556B2 JP 2671556 B2 JP2671556 B2 JP 2671556B2 JP 2101836 A JP2101836 A JP 2101836A JP 10183690 A JP10183690 A JP 10183690A JP 2671556 B2 JP2671556 B2 JP 2671556B2
Authority
JP
Japan
Prior art keywords
edge
cleft
line
image
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2101836A
Other languages
Japanese (ja)
Other versions
JPH041863A (en
Inventor
靜生 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2101836A priority Critical patent/JP2671556B2/en
Publication of JPH041863A publication Critical patent/JPH041863A/en
Application granted granted Critical
Publication of JP2671556B2 publication Critical patent/JP2671556B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、人物平常顔画像から上唇と下唇とが合わさ
った部位である口裂を示す口裂線を検出する技術に関す
るものである。
Description: TECHNICAL FIELD The present invention relates to a technique for detecting a cleft line showing a cleft, which is a site where an upper lip and a lower lip are combined, from a person's normal face image.

〔従来の技術〕[Conventional technology]

人物平常顔画像から口裂線を検出する従来方式の一例
として、文献[R.Buhr,“ENTWICKLUNG EINES ADAPTIVEN
EXTRAKTIONS−UND KLASSIFIKATIONS−SYSTEMS ZUR ERK
ENNUNG VON BILDERN(GESICHTER)",ヨハネス・グーテ
ンベルグ大学生物研究課程への理学博士請求論文、(19
84)]に基づいて説明する。
As an example of a conventional method for detecting a cleft line from a person's normal face image, see [R. Buhr, “ENTWICKLUNG EINES ADAPTIVEN
EXTRAKTIONS-UND KLASSIFIKATIONS-SYSTEMS ZUR ERK
ENNUNG VON BILDERN (GESICHTER) ", Johannes Gutenberg University Doctoral Thesis Request for Biological Research, (19
84)].

第2図に示すように、まず、既にある手法で顔画像か
ら口領域201の画像A(x,y)が切り出されているとす
る。また、画像本来の座標をx,yとし、瞳を結ぶ線分を
含む直線を顔のx′軸、その線分の2等分線をy′軸と
する。
As shown in FIG. 2, first, it is assumed that the image A (x, y) of the mouth region 201 is cut out from the face image by an existing method. The original coordinates of the image are x, y, the straight line including the line segment connecting the pupils is the x'axis of the face, and the bisector of the line segment is the y'axis.

この口領域201に比較的大きめのσを持つΔGフィル
タ(参考文献[D.Marr,“Vision",W.H.Freeman and Com
pany,(1982)])を適用し、画像B(x,y)を得る。Δ
Gフィルタは次の式で表される。
A ΔG filter having a relatively large σ in the mouth region 201 (reference document [D. Marr, “Vision”, WH Freeman and Com
pany, (1982)]) to obtain image B (x, y). Δ
The G filter is expressed by the following equation.

この関数の1次元の場合を第3図に示す(前記D.Mar
r,“Vision",54ページ、第2−9図より引用)。
The one-dimensional case of this function is shown in Fig. 3 (D.Mar above).
r, "Vision", page 54, quoted from Figure 2-9).

唇領域はその回りの肌と際だった色の違いがないの
で、エッジ強度は余り強くない。このため、エッジ強度
で唇を判別することが難しい。σを小さくすると、不要
で複雑な輪郭線が多く現れるので、この後の処理が難し
くなる。
The lip strength is not so different from the skin around it, so the edge strength is not very strong. Therefore, it is difficult to distinguish the lips by the edge strength. If σ is made small, many unnecessary and complicated contour lines appear, which makes subsequent processing difficult.

次に、低域濾過フィルタを同様に適用し、画像C(x,
y)を得る。この画像C(x,y)は、原画像をぼかしたも
ので、画像A(x,y)の周りの大体の明るさに相当す
る。各画素においてB(x,y)をC(x,y)で割り、画像
D(x,y)を得る。これにより、暗い領域である口裂付
近が強調できる。この画像D(x,y)から適当な閾値で
2値化することにより輪郭線画像E(x,y)を生成す
る。閾値はパーセンタイル法を用いて求める。パーセン
タイル法を第4図を参照して説明する。パーセンタイル
法とは目的の画像における濃度分布ヒストグラムを作
り、そのヒストグラムの面積をaパーセントで分割する
ような閾値401を定める方法である。
Next, a low pass filter is applied in the same way, and the image C (x,
get y). The image C (x, y) is a blurred version of the original image and corresponds to the general brightness around the image A (x, y). At each pixel, B (x, y) is divided by C (x, y) to obtain an image D (x, y). As a result, the vicinity of the cleft, which is a dark area, can be emphasized. The contour line image E (x, y) is generated by binarizing the image D (x, y) with an appropriate threshold value. The threshold is obtained by using the percentile method. The percentile method will be described with reference to FIG. The percentile method is a method of creating a density distribution histogram in a target image and determining a threshold value 401 that divides the area of the histogram by a percentage.

画像E(x,y)において、第5図に示すように、y軸
方向に加算投影をとり、適当な閾値を定めて、それを超
えるピークの数が3つ(上唇,口裂,下唇)近接して存
在し、最大面積のピークの幅が設定した値以上であれば
そこが口裂であるとし、口裂の中心座標yMSを定める。
x座標値xMSは顔の座標軸x′−y′において、0とな
るようにとる。この条件が満たされなければ、閾値を段
階的に下げて調べていく。最初の閾値は、最大ピーク値
に比例した値で与える。
In image E (x, y), as shown in FIG. 5, additional projection is performed in the y-axis direction, an appropriate threshold value is set, and the number of peaks exceeding that is three (upper lip, cleft lip, lower lip). ) If they are present close to each other and the width of the peak of the maximum area is equal to or larger than the set value, it is regarded as a cleft, and the center coordinate y MS of the cleft is determined.
The x coordinate value x MS is set to be 0 on the face coordinate axis x′-y ′. If this condition is not satisfied, the threshold value is lowered stepwise and the check is continued. The first threshold is given as a value proportional to the maximum peak value.

口裂中心座標(xMS,yMS)をもとに、元の画像A(x,
y)から口裂線を抽出する。まず(xMS,yMS)の近傍にお
いて、明るさの平均値mMSを求める。口裂の画素はこの
値と同じ様な値を持ち、近傍の画素と比べると一番暗い
と仮定して左右に曲線追跡を行ってゆく。
Based on the cleft center coordinates (x MS , y MS ), the original image A (x,
Extract the cleft line from y). First, in the vicinity of (x MS , y MS ), the average brightness m MS is obtained. The pixel of the cleft has a value similar to this value, and the curve is traced to the left and right on the assumption that it is the darkest compared to the neighboring pixels.

まず、ある座標(xA,yA)が既に口裂上の点であるこ
とがわかっているとする。このとき(xA-1,yA-10),
(xA-1,yA-9),…,(xA-1,yA+10)を候補として、次
の処理で口裂点として求める。
First, suppose that a certain coordinate (x A , y A ) is already known as a point on the cleft. At this time (x A-1 , y A-10 ),
(X A-1 , y A-9 ), ..., (x A-1 , y A + 10 ) are obtained as candidates, and are obtained as cleft points in the next process.

1)一番暗い候補点(xA-1,yA+n)(但しn=−10,…,1
0の内どれかの値をとる)において画素近傍の平均値mD
を求める。
1) The darkest candidate point (x A-1 , y A + n ) (where n = −10, ..., 1
Average value m D in the vicinity of the pixel
Ask for.

2)全ての候補点において明るさの標準偏差を求め、そ
れをmMSで正規化した値σを算出する。
2) The standard deviation of brightness is obtained at all candidate points, and the value σ N is calculated by normalizing it with m MS .

3)mDがmMS以下であるとき、それを口裂上の点とし、
更に追跡を続ける。
3) When m D is less than or equal to m MS , let it be the point on the cleft,
Continue tracking further.

4)それ以外でσが1/3よりも大きい場合、口裂はま
だ続いていると考えて、それを口裂上の点として追跡を
続ける。
4) Elsewhere if σ N is greater than 1/3, consider that the cleft is still going on and continue tracking it as a point on the cleft.

5)どれにも当てはまらない場合、口裂端に達したと考
えて追跡を終了する。
5) If none of the above is true, it is considered that the cleft edge has been reached, and the tracking is terminated.

これにより、口裂線を得ることができる。 Thereby, a cleft can be obtained.

しかし、適当な閾値を設定せねばならない場面が何回
も登場することがわかる。また画素の近傍もその度毎に
適当に定めなければならない。この様な処理で様々な画
像から口裂を抽出できるようにするためには、パラメー
タの調節も厄介であり、更に処理時間もかかる。
However, it can be seen that there are many occasions when an appropriate threshold must be set. Also, the neighborhood of the pixel must be appropriately determined each time. In order to be able to extract clefts from various images by such processing, adjustment of parameters is troublesome, and further processing time is required.

〔発明が解決しようとする課題〕[Problems to be solved by the invention]

従来法では一般画像に適用するオペレータを用いてい
るために、煩雑な処理と、多くのパラメータを設定する
必要があった。
Since the conventional method uses an operator applied to a general image, it is necessary to set complicated parameters and a lot of parameters.

本発明の目的は、口周辺の形状に応じたオペレータを
適用することによって処理とパラメータを削減し、簡単
で効果的な口裂線検出方法及び装置を提供することにあ
る。
It is an object of the present invention to provide a simple and effective cleft tear detection method and apparatus by reducing the processing and parameters by applying an operator according to the shape around the mouth.

〔課題を解決するための手段〕[Means for solving the problem]

本発明の口裂線検出方法は、 人物の平常顔を撮影した画像において、この画像の上
下画素のいずれよりも暗い画素を検出し、検出したエッ
ジ線から線方向に別のエッジ線を探索し、対応するエッ
ジ線が存在すればそれを連結することによって、前記画
像から口裂線を検出することを特徴とする。
The cleft line detection method of the present invention detects a darker pixel than any of the upper and lower pixels of an image of a normal face of a person and searches another edge line in a line direction from the detected edge line. If there is a corresponding edge line, the cleft line is detected from the image by connecting them.

本発明の口裂線検出装置は、 人物の平常顔を撮影した画像を入力とし、前記画像の
上下画素いずれよりも暗い画素を検出するV字エッジ検
出手段と、 このV字エッジ検出手段から出力されるエッジ画像を
記憶するエッジ画像記憶手段と、 このエッジ画像記憶手段内に保存されているエッジ画
像から連結しているエッジ線を検索するエッジ線検索手
段と、 エッジ線方向へ別のエッジ線を探索し、探索範囲に存
在すればそれを連結するエッジ線探索・連結手段と、 連結されたエッジ線の中から口裂線を選び出す口裂線
抽出手段とからなることを特徴とする。
The cleft detection device of the present invention receives a picture of a normal face of a person as an input, and V-shaped edge detection means for detecting a pixel darker than both upper and lower pixels of the image, and outputs from the V-shaped edge detection means. Edge image storage means for storing the edge image to be stored, edge line search means for searching the connected edge line from the edge images stored in the edge image storage means, and another edge line in the edge line direction. And edge line searching / connecting means for connecting them if present in the search range, and cleft line extracting means for selecting a cleft line from the connected edge lines.

〔作用〕[Action]

本発明の原理を以下に説明する。 The principle of the present invention will be described below.

口は上唇と下唇から構成されている。上唇及び下唇は
y軸方向には周辺と比べて急峻な凸状、x軸方向には緩
やかな凸状を成している。また詳細にみると、それぞれ
は縦に細かい皺が走っている。口裂は上唇と下唇が合わ
さった部位であり、唇が十分滑らかであるとすると、y
軸方向では口裂位置が一番暗く、その前後はそれよりも
明るい。また、唇においてx軸方向に走っている皺は口
裂と比べて深くなく、隣合った皺との間には相関はな
い。また、口周辺の他の部位でx軸方向に構造を持った
ものはない。
The mouth consists of an upper lip and a lower lip. The upper lip and the lower lip have a steep convex shape in the y-axis direction and a gentle convex shape in the x-axis direction as compared with the periphery. Also, in detail, each has fine wrinkles running vertically. The cleft is where the upper and lower lips meet, and if the lips are smooth enough, y
The cleft position is the darkest in the axial direction, and the areas before and after it are brighter than that. Further, the wrinkles running in the x-axis direction on the lips are not deeper than those of the cleft, and there is no correlation between adjacent wrinkles. Further, there is no structure in the x-axis direction in other parts around the mouth.

これらのことから、以下の処理で簡単に口裂線が得ら
れる。まず、従来技術により、既に口周辺が切り出せて
いる画像があるとする。
From these things, a cleft can be easily obtained by the following process. First, it is assumed that there is an image in which the periphery of the mouth has already been cut out by the conventional technique.

1)y軸方向にのみ感度があるV字エッジオペレータを
原画像に対して適用し、エッジが存在する,しないで2
値化する。
1) Apply a V-shaped edge operator that is sensitive only in the y-axis direction to the original image, and if there are edges, 2
Value.

2)x軸方向に連結しているもので一番長いものを口裂
線の一部だと仮定する。
2) It is assumed that the longest one connected in the x-axis direction is a part of the cleft line.

3)x軸方向に同様な連結線を探索し、もし存在すれば
それを口裂線であると考えて連結する。なければ口裂端
に達したと判断してそこで探索を終了する。
3) Search for a similar connecting line in the x-axis direction, and if it exists, consider it as a cleft and connect it. If not, it is judged that the end of the cleft has been reached, and the search ends there.

ここでパラメータとなるものは、エッジオペレータの
形と探索する範囲だけであり、従来法に比べて非常に少
ない。また処理手順も非常に簡略化されている。
Here, the only parameters are the shape of the edge operator and the range to be searched, which is much smaller than the conventional method. The processing procedure is also very simplified.

〔実施例〕〔Example〕

以下に、図面を用いて本発明の実施例を示す。第1図
は口裂線検出装置の一実施例を示すブロック図である。
Examples of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of the cleft tear detection device.

この口裂線検出装置は、人物の平常顔を撮影した画像
を記憶する顔画像記憶手段10と、画像中の口の部分だけ
を切り出す口部分画像切り出し手段20と、濃淡画像の上
下画素いずれよりも暗い画素を検出するV字エッジ検出
手段30と、このV字エッジ検出手段から出力されるエッ
ジ画像を記憶するエッジ画像記憶手段40と、このエッジ
画像記憶手段内に保存されているエッジ画像から連結し
ているエッジを検出する部分口裂線検出手段50と、部分
口裂線方向へ左側及び右側で別の部分口裂線を探索し、
探索範囲に存在するばそれを連結する線分探索・連結手
段60,61と、左側に連結した線分と右側に連結した線分
とを連結して口裂線とする左右口裂線連結手段70と、口
裂線を記憶する口裂線画像記憶手段80とを備えている。
This cleft detection device includes a face image storage unit 10 that stores an image of a normal face of a person, a mouth portion image cutout unit 20 that cuts out only the mouth portion in the image, and upper and lower pixels of a grayscale image. A V-shaped edge detecting means 30 for detecting dark pixels, an edge image storing means 40 for storing an edge image output from the V-shaped edge detecting means, and an edge image stored in the edge image storing means. Partial cleft line detecting means 50 for detecting the connected edges, and search for another partial cleft line on the left and right sides in the partial cleft line direction,
Left and right cleft line connecting means for connecting the line segment search / connection means 60, 61 for connecting the line segments connected to the left side and the line segment connected to the right side to form a cleft line if they exist in the search range 70 and a cleft line image storage means 80 for storing the cleft line.

顔画像記憶手段10に顔画像(濃淡画像)が蓄えられて
おり、この顔画像から口部分画像切り出し手段20により
濃淡画像中の口の部分だけを切り出す。これは従来方式
により実現できる(例えば、前記した文献[R.Buhr,“E
NTWICKLUNG EINES ADAPTIVEN EXTRAKTIONS−UND KLASSI
FIKATIONS−SYSTEMS ZUR ERKENNUNG VON BILDERN(GESI
CHTER)",ヨハネス・グーテンベルグ大学生物研究課程
への理学博士請求論文、(1984)]に詳しく述べられて
いる)。
A face image (grayscale image) is stored in the face image storage means 10, and only the mouth portion in the grayscale image is cut out from this face image by the mouth part image cutout means 20. This can be achieved by the conventional method (for example, the above-mentioned document [R. Buhr, “E
NTWICKLUNG EINES ADAPTIVEN EXTRAKTIONS-UND KLASSI
FIKATIONS-SYSTEMS ZUR ERKENNUNG VON BILDERN (GESI
CHTER) ", Johannes Gutenberg University Ph.D. Ph.D. Request for Biological Research, (1984)].

切り出した濃淡画像A(x,y)に対して、y軸方向の
V字状エッジを検出するV字エッジ検出手段30を適用
し、エッジ画像F(x,y)を得る。これは、例えば次の
ような簡単なオペレータが考えられる。
V-shaped edge detecting means 30 for detecting a V-shaped edge in the y-axis direction is applied to the cut-out grayscale image A (x, y) to obtain an edge image F (x, y). This can be a simple operator, for example:

F(x,y) =θ{A(x,y+1)−A(x,y)} ×θ{A(x,y−1)−A(x,y)} (2) ここで、θ{}は階段関数であり、そのグラフを第6
図に示す。(2)式は、第7図に示すように画像をy軸
に平行な直線で切ったときに、注目画素の濃度が『谷』
になっている位置701,702,703では1、そうでない場合
には0となる。このオペレータを適用して得られた画像
は、第8図に示すように、x′軸方向に延びた口裂線の
要素A0〜A8と、唇の皺等が原因となる比較的孤立したノ
イズB0〜B12から構成される。このエッジ画像F(x,y)
は、部分口裂線検出手段50、線分探索・連結手段60,6
1、左右口裂線連結手段70で参照するために、エッジ画
像記憶手段40に蓄えられる。
F (x, y) = θ {A (x, y + 1) −A (x, y)} × θ {A (x, y−1) −A (x, y)} (2) where θ { } Is the step function, and the graph is
Shown in the figure. Equation (2) shows that when the image is cut by a straight line parallel to the y-axis as shown in FIG. 7, the density of the pixel of interest is “valley”.
It is 1 at the positions 701, 702, and 703 that are set to 0, and 0 otherwise. The image obtained by applying this operator is, as shown in FIG. 8, the elements A0 to A8 of the cleft line extending in the x'axis direction and the relatively isolated noise caused by wrinkles on the lips. It consists of B0 to B12. This edge image F (x, y)
Is a partial cleft line detecting means 50, line segment searching / connecting means 60, 6
1. Stored in the edge image storage means 40 for reference by the left and right cleft palate connecting means 70.

エッジ画像F(x,y)における線分を、第9図を用い
て説明する。領域901にエッジ点が存在したとき、その
回りの領域902〜907に他のエッジ点が存在すると、それ
らはつながっているとする。部分口裂線検出手段50はこ
の様な関係でつながっている線分の中で一番長いものを
探し、それを口裂線の一部であると仮定する。第8図に
おいては線分A7が口裂線の一部であると判定される。こ
のような判定結果は、エッジ連結情報として、線分探索
・連結手段60,61に送られんる。
The line segment in the edge image F (x, y) will be described with reference to FIG. When an edge point exists in the area 901 and other edge points exist in the surrounding areas 902 to 907, it is assumed that they are connected. The partial cleft line detecting means 50 searches for the longest line segment connected by such a relationship and assumes that it is a part of the cleft line. In FIG. 8, the line segment A7 is determined to be a part of the cleft line. Such a determination result is sent to the line segment search / connection means 60, 61 as edge connection information.

抽出した線分A7から、線分探索・連結手段60,61によ
って、それぞれ左側,右側に連結するものを探索する。
探索は線分の方向に重みをおいた範囲について行う。も
し連結する線分が見つかれば、その線分端から更に探索
する。また、そうでなければ口裂線の端点に達したと判
断し、探索を終了する。
From the extracted line segment A7, line segment search / connection means 60 and 61 are searched for those connected to the left side and the right side, respectively.
The search is performed on the weighted range in the direction of the line segment. If a connecting line segment is found, further search is performed from the end of the line segment. Otherwise, it is determined that the end point of the cleft line has been reached, and the search ends.

第8図の例においては、線分A7から右の方向に探索す
ると、線分A8が近くに存在するため、これを正続する。
線分A8より右には近くにエッジが無いため、探索を終了
する。線分A7から左方向には順に線分A6,A5,A4,A3,A2,A
1と連結してゆき、探索を終了する。探索の結果は、エ
ッジ連結情報として、左右口裂線連結手段70に送られ
る。
In the example of FIG. 8, when searching in the right direction from the line segment A7, since the line segment A8 exists nearby, it is continued.
Since there is no edge near the right of the line segment A8, the search ends. Line segment A6, A5, A4, A3, A2, A in order from the line segment A7 to the left
The search is ended by connecting to 1. The result of the search is sent to the left and right cleft palate connecting means 70 as edge connection information.

最終的に線分A7を中心に左右の口裂線A8,A6−A5−A4
−A3−A2−A1を左右口裂線連結手段70により連結し、口
裂線を得、その画像は口裂線画像記憶手段80に送られ
る。
Finally, the left and right cleft lines A8, A6-A5-A4 centered on the line segment A7
-A3-A2-A1 are connected by the left and right cleft palate connecting means 70 to obtain a cleft palate, and the image thereof is sent to the cleft palate image storage means 80.

作用の項でも述べたように、パラメータとなるものは
オペレータの大きさと線分探索範囲だけであり、また処
理自体も非常に簡略化されている。
As described in the action section, the parameters are only the size of the operator and the line segment search range, and the processing itself is very simplified.

オペレータは式(2)に示したものの代わりに、顔の
座標軸y′にほぼ平行な方向のプロファイルがV字状を
成していることを検出するものであれば、いかなるオペ
レータを用いてもよい。また、線分探索範囲も部分口裂
線の線方向に重み付けされたものであればよい。
The operator may use any operator as long as it can detect that the profile in the direction substantially parallel to the coordinate axis y ′ of the face is V-shaped instead of the one shown in the equation (2). . Further, the line segment search range may be weighted in the line direction of the partial cleft line.

部分口裂線の検出も、実施例では『一番長い線分』と
したが、特にそうしなくともこの発明に何等影響を与え
るものではない。例えば、各エッジ線分について線分探
索・連結手段を順次適用し、最後に口裂判定を行えば良
い。この判定は、例えば、従来技術で述べた方法により
行うことができる。
The partial cleft line is also detected as "the longest line segment" in the embodiment, but it does not affect the present invention even if it is not so. For example, the line segment searching / connecting means may be sequentially applied to each edge line segment, and the cleft determination may be finally performed. This determination can be performed, for example, by the method described in the related art.

〔発明の効果〕〔The invention's effect〕

人物の口周辺の構造を考慮した処理を行う本発明によ
り、従来よりも簡単な処理と少ないパラメータ数で口裂
線を検出することができる。
According to the present invention, which performs processing in consideration of the structure around the mouth of a person, it is possible to detect a cleft line with simpler processing and a smaller number of parameters than in the past.

【図面の簡単な説明】[Brief description of the drawings]

第1図は、本発明の口裂線検出装置の一実施例を示す
図、 第2図は、処理対象となる顔画像の説明図、 第3図は、ΔGオペレータの1次元の場合のグラフを示
す図、 第4図は、パーセンタイル法の説明図、 第5図は、従来技術における、輪郭線位置をy軸に加算
投影したものを示す図、 第6図は、階段関数のグラフを示す図、 第7図は、本発明の実施例で示したV字エッジ検出オペ
レータを適用時の結果の説明図、 第8図は、実施例における線分探索・結合処理の説明
図、 第9図は、実施例におけるエッジ点間の連結判定領域を
示す図である。 10……顔画像記憶手段 20……口部分画像切り出し手段 30……V字エッジ検出手段 40……エッジ画像記憶手段 50……部分口裂線検出手段 60,61……線分探索・連結手段 70……左右口裂線連結手段 80……口裂線画像記憶手段
FIG. 1 is a diagram showing an embodiment of a cleft palate detection device of the present invention, FIG. 2 is an explanatory diagram of a face image to be processed, and FIG. 3 is a graph of a ΔG operator in a one-dimensional case. FIG. 4 is an explanatory view of the percentile method, FIG. 5 is a view showing a contour position on the y-axis in the prior art, and FIG. 6 is a graph showing a step function. FIG. 7 is an explanatory diagram of a result when the V-shaped edge detection operator shown in the embodiment of the present invention is applied, and FIG. 8 is an explanatory diagram of line segment search / join processing in the embodiment, FIG. FIG. 6 is a diagram showing a connection determination region between edge points in the example. 10: Face image storage means 20: Mouth portion image cut-out means 30: V-shaped edge detection means 40: Edge image storage means 50: Partial cleft line detection means 60, 61: Line segment search / connection means 70 …… Left and right cleft line connecting means 80 …… Cleft line image storage means

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】人物の平常顔を撮影した画像において、こ
の画像の上下画素のいずれよりも暗い画素を検出し、検
出したエッジ線から線方向に別のエッジ線を探索し、対
応するエッジ線が存在すればそれを連結することによっ
て、前記画像から口裂線を検出することを特徴とする口
裂線検出方法。
1. In an image of a normal face of a person, a pixel that is darker than any of the upper and lower pixels of the image is detected, another edge line is searched in the line direction from the detected edge line, and the corresponding edge line is detected. If there is a cleft, the cleft is detected from the image by connecting it, and the cleft detection method.
【請求項2】人物の平常顔を撮影した画像を入力とし、
前記画像の上下画素いずれよりも暗い画素を検出するV
字エッジ検出手段と、 このV字エッジ検出手段から出力されるエッジ画像を記
憶するエッジ画像記憶手段と、 このエッジ画像記憶手段内に保存されているエッジ画像
から連結しているエッジ線を検索するエッジ線検索手段
と、 エッジ線方向へ別のエッジ線を探索し、探索範囲に存在
すればそれを連結するエッジ線探索・連結手段と、 連結されたエッジ線の中から口裂線を選び出す口裂線抽
出手段とからなることを特徴とする口裂線検出装置。
2. An image obtained by photographing a normal face of a person is input,
V for detecting a pixel that is darker than the upper and lower pixels of the image
The character edge detection means, the edge image storage means for storing the edge image output from the V-shaped edge detection means, and the connected edge lines are searched from the edge images stored in the edge image storage means. An edge line search means, another edge line in the direction of the edge line, and an edge line search / connection means that connects them if they are in the search range, and a mouth line that selects a cleft line from the connected edge lines. A cleft tear detection device comprising a tear line extraction means.
JP2101836A 1990-04-19 1990-04-19 Cleft line detection method and device Expired - Lifetime JP2671556B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2101836A JP2671556B2 (en) 1990-04-19 1990-04-19 Cleft line detection method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2101836A JP2671556B2 (en) 1990-04-19 1990-04-19 Cleft line detection method and device

Publications (2)

Publication Number Publication Date
JPH041863A JPH041863A (en) 1992-01-07
JP2671556B2 true JP2671556B2 (en) 1997-10-29

Family

ID=14311163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2101836A Expired - Lifetime JP2671556B2 (en) 1990-04-19 1990-04-19 Cleft line detection method and device

Country Status (1)

Country Link
JP (1) JP2671556B2 (en)

Also Published As

Publication number Publication date
JPH041863A (en) 1992-01-07

Similar Documents

Publication Publication Date Title
US7679621B2 (en) Image processing apparatus and method
CN114418957B (en) Global and local binary pattern image crack segmentation method based on robot vision
US5715325A (en) Apparatus and method for detecting a face in a video image
US6389155B2 (en) Image processing apparatus
US7860280B2 (en) Facial feature detection method and device
KR100682889B1 (en) Method and Apparatus for image-based photorealistic 3D face modeling
JP4597391B2 (en) Facial region detection apparatus and method, and computer-readable recording medium
US7356185B2 (en) Preparation of a digital image with subsequent edge detection
KR20010103631A (en) System and method for biometrics-based facial feature extraction
JP2000105829A (en) Method and device for face parts image detection
EP3073415B1 (en) Image processing apparatus and image processing method
JP2007272435A (en) Face feature extraction device and face feature extraction method
JPH09185676A (en) Ruled line elimination method
Czerwinski et al. An approach to boundary detection in ultrasound imaging
Samanta et al. Development of edge detection technique for images using adaptive thresholding
US6885770B2 (en) Irradiation field extracting method and apparatus and recording medium
JP2007188407A (en) Image processing device and image processing program
JP2671556B2 (en) Cleft line detection method and device
JP2962799B2 (en) Roadside detection device for mobile vehicles
JP2004062519A (en) Lane mark detector
Chuang et al. χ2 test for feature detection
JP3230509B2 (en) Moving image processing device
JP2005165983A (en) Method for detecting jaw of human face, jaw detection system, and jaw detection program
Ng et al. Iris recognition algorithms based on texture analysis
JP3175509B2 (en) Road white line detector