JP4345440B2 - Outline determination apparatus and outline determination method - Google Patents

Outline determination apparatus and outline determination method Download PDF

Info

Publication number
JP4345440B2
JP4345440B2 JP2003374652A JP2003374652A JP4345440B2 JP 4345440 B2 JP4345440 B2 JP 4345440B2 JP 2003374652 A JP2003374652 A JP 2003374652A JP 2003374652 A JP2003374652 A JP 2003374652A JP 4345440 B2 JP4345440 B2 JP 4345440B2
Authority
JP
Japan
Prior art keywords
contour
face
face image
image
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003374652A
Other languages
Japanese (ja)
Other versions
JP2005141318A (en
Inventor
美希 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2003374652A priority Critical patent/JP4345440B2/en
Publication of JP2005141318A publication Critical patent/JP2005141318A/en
Application granted granted Critical
Publication of JP4345440B2 publication Critical patent/JP4345440B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、撮像された画像を元に被写体の身体的状態などを判断する技術に関する。   The present invention relates to a technique for determining a physical state of a subject based on a captured image.

被写体の身体的状態を判断する例として、女性あるいは男性がダイエットに成功したかどうかを判断したいということがある。女性や男性にとってダイエットの目的は、体重を減らすことそのものだけではなく、体重が減ることによって外見が痩せて見えることにある。特に、ダイエットを目指す女性にとって、ダイエットへ向けた努力により自身の外見がどのように変化しているかということは、体重や体脂肪の値そのものに対してよりもむしろ関心が高いことが多い。   An example of determining the physical state of a subject is to determine whether a woman or a man has succeeded in a diet. For women and men, the purpose of dieting is not only to lose weight itself, but also to make the appearance appear thin due to weight loss. In particular, women who seek diet are often more interested in how their appearance changes as a result of their efforts toward dieting, rather than their weight and body fat values themselves.

このような要求に対し、身体像を明暗の程度によって加工した判定用身体画像を用いて身体形状について判定を行う技術がある(特許文献1参照)。具体的には、先ず判定対象の身体が撮像され身体画像が得られる。次に、この身体画像に画像強調処理、特に明暗に関する画像強調処理が施されることにより、明るさに関して区別した複数の領域で表される判定用身体画像が作成される。そして、この判定用身体画像における前記両領域の比率や、輪郭の形状、境界線の状態などの判定要素に基づいて、身体の形状、性状、状態などの判定が行なわれる。
特開2000−37369号公報
In response to such a requirement, there is a technique for determining a body shape using a determination body image obtained by processing a body image according to the degree of brightness (see Patent Document 1). Specifically, first, the body to be determined is imaged to obtain a body image. Next, the body image is subjected to image enhancement processing, in particular, image enhancement processing relating to light and dark, thereby creating a determination body image represented by a plurality of regions distinguished in terms of brightness. Then, based on the determination factors such as the ratio of the two regions in the determination body image, the shape of the contour, the state of the boundary line, etc., the determination of the body shape, property, state, etc. is performed.
JP 2000-37369 A

ところで、女性が外見を特に気にする身体箇所として顔がある。確かに、腕、胴体、脚などについても、女性は外見を気にすることが多い。しかし、顔は、腕や胴体や脚などとは異なり衣服などによって隠すことが難しい箇所であり、女性にとって痩せて見えるか否かが特に問題となる身体箇所の一つである。このため、自身の顔が痩せて見えるか否か、又は過去に比べて痩せて見えるようになったか否かなどについて客観的な判断を得ることを望むユーザは多い。   By the way, there is a face as a body part that women particularly care about appearance. Certainly, women often care about the appearance of arms, torso and legs. However, unlike the arms, torso, legs, etc., the face is difficult to hide with clothes and the like, and one of the body parts that is particularly problematic is whether or not it appears to be thin for women. For this reason, there are many users who want to obtain an objective judgment as to whether or not their face appears to be thin, or whether or not their face has become thinner than in the past.

また、特に女性は特定の他人と自身とを比較することを望むことがある。このため、顔が痩せて見えるか否かについて、自身が特定の他人に比べてどのような状態であるか知ることを望む女性も多い。   In particular, women may wish to compare themselves with certain others. For this reason, there are many women who want to know what state they are compared to a specific other person as to whether their faces appear to be thin.

しかし、上記のような従来の技術では、入力された画像に基づいて判定が実施されるのみであり、ユーザは自身の顔が痩せて見えるか否かについて客観的な判断を得ることは出来なかった。理解を助けるために具体例を挙げると、ユーザは、例えば自身の顔が過去に比べて痩せて見えるようになったか否か等について客観的な判断を得ることができなかった。同様に、ユーザは、特定の他人に比べて自身の顔の輪郭が痩せて見えるか否か等についても客観的に判断することができなかった。   However, in the conventional techniques as described above, the determination is only performed based on the input image, and the user cannot obtain an objective determination as to whether or not his / her face looks thin. It was. For example, in order to help understanding, the user cannot obtain an objective judgment as to whether or not his / her face has become thinner than in the past. Similarly, the user cannot objectively determine whether or not the contour of his / her face appears to be thinner than a specific other person.

本発明ではこのような問題を解決し、ユーザが自身の顔が痩せて見えるか否かについて客観的な判断を得ることが可能となる装置や方法、プログラム等を提供することを目的とする。   An object of the present invention is to provide an apparatus, a method, a program, and the like that can solve such a problem and allow a user to obtain an objective determination as to whether or not his / her face appears to be thin.

上記問題を解決するため、我々は、顔が痩せて見えるか否かは顔の輪郭に因るところが大きい点に注目した。実際に、「小顔」という言葉が用いられることからわかるように、
顔の輪郭を小さくすることにより自身の顔が痩せて見えるようになることを望む者は多い。
In order to solve the above problem, we focused on the fact that whether or not the face appears to be thin depends largely on the contour of the face. As you can see from the fact that the word “small face” is used,
Many people want to make their faces appear thin by making the facial contours smaller.

しかし、上記の従来の技術では、身体の凹凸などにより生じる明暗領域の輪郭などについては考慮されていたが、顔の輪郭については考慮されていなかった。そこで、以下に説明する本発明では、顔の輪郭を考慮することによって課題を解決する。第一の態様である輪郭判断装置は、複数の顔画像において顔の輪郭を抽出し、抽出された輪郭に基づいて客観的な判断を行う。具体的には、輪郭判断装置は、抽出手段及び判断手段を含む。   However, in the above-described conventional technique, the contour of the bright and dark area caused by the unevenness of the body is considered, but the contour of the face is not considered. Therefore, in the present invention described below, the problem is solved by considering the contour of the face. The contour determination apparatus according to the first aspect extracts facial contours from a plurality of facial images, and makes an objective determination based on the extracted contours. Specifically, the contour determination apparatus includes an extraction unit and a determination unit.

抽出手段は、顔画像から、人の顔の輪郭を抽出する。「顔画像」とは、少なくとも人の顔が撮像されている画像を指す。   The extracting means extracts the outline of the human face from the face image. A “face image” refers to an image in which at least a human face is captured.

判断手段は、第一の顔画像について抽出された第一の輪郭と、第二の顔画像について抽出された第二の輪郭とを比較し、第一の顔画像と第二の顔画像との輪郭の大きさについて判断する。判断手段は、第一の顔画像と第二の顔画像とのいずれがより小さい(又は大きい)輪郭を有する顔の画像であるか判断するものであってもよい。また、判断手段は、第一の顔画像における輪郭と第二の顔画像における輪郭との差を取得するようなものであってもよい。   The judging means compares the first contour extracted for the first face image with the second contour extracted for the second face image, and compares the first face image with the second face image. Judge the size of the contour. The determining means may determine which of the first face image and the second face image is a face image having a smaller (or larger) contour. Further, the determination unit may acquire a difference between the contour in the first face image and the contour in the second face image.

判断手段は、第一の顔画像及び第二の顔画像に共通する基準点に基づいて判断を行うものであってもよい。この場合、判断手段は、各輪郭上の所定の点と基準点との距離を求め、この距離を比較することにより判断を行っても良い。上記基準点は、抽出手段によって定義されても良いし、判断手段によって定義されても良い。例えば、顔画像から検出される両目の中間点が基準点として定義される。   The determination unit may perform determination based on a reference point common to the first face image and the second face image. In this case, the determination unit may determine the distance between a predetermined point on each contour and the reference point and compare the distances. The reference point may be defined by an extraction unit or a determination unit. For example, the midpoint of both eyes detected from the face image is defined as the reference point.

第一の顔画像と第二の顔画像とは、それぞれ異なる人物の顔が撮像された顔画像であっても良いし、同一人物の顔が撮像された顔画像であっても良い。異なる人物の顔が撮像された顔画像である場合には、判断手段は、いずれの人物がより小さい輪郭の顔を有しているか判断する。このため、ユーザは、特定の人物の顔画像と現在の自身の顔画像とを入力することにより、特定の人物と自身との顔の輪郭の差について客観的な判断を得ることが可能となる。   The first face image and the second face image may be face images in which faces of different persons are captured, or face images in which faces of the same person are captured. When the face image is obtained by capturing a face of a different person, the determination unit determines which person has a face with a smaller contour. For this reason, the user can obtain an objective judgment on the difference in the facial contour between the specific person and himself / herself by inputting the face image of the specific person and the current own face image. .

一方、同一人物の顔が撮像された顔画像である場合には、判断手段は、撮像された時期などに応じてどのように顔の輪郭が変化したか判断することとなる。このような顔画像の望ましい例として、過去と現在の同一人物の顔画像がある。この場合、判断手段は、過去に比べて現在ではどのように顔の輪郭が変化したか判断する。このため、ユーザは、例えば現時点でのダイエットの効果などについて、客観的な判断を得ることが可能となる。   On the other hand, in the case of face images obtained by capturing the face of the same person, the determination means determines how the face outline has changed according to the time of image capture. A desirable example of such a face image is a face image of the same person in the past and the present. In this case, the determination means determines how the contour of the face has changed at present compared to the past. For this reason, the user can obtain an objective judgment about the effect of the diet at the present time, for example.

また、抽出手段は、人の顔の輪郭として、人の顔の輪郭上に位置する所定数の点を抽出するように構成されても良い。この場合、判断手段は、第一の輪郭上の点と、この点に対応する第二の輪郭上の点とのいずれが顔の内側に位置するかを比較するように構成される。   The extracting means may be configured to extract a predetermined number of points located on the contour of the human face as the contour of the human face. In this case, the determination means is configured to compare which of the point on the first contour and the point on the second contour corresponding to this point is located inside the face.

輪郭判断装置は、判断手段による判断結果に基づいて、ユーザに対するアドバイスを行うアドバイス手段をさらに含むように構成されても良い。   The contour determination device may be configured to further include advice means for providing advice to the user based on the determination result by the determination means.

また、輪郭判断装置は、ユーザが希望する顔の輪郭を入力することを可能とする入力手段をさらに備えるように構成されても良い。この場合、判断手段は、入力された顔画像について抽出された輪郭と、入力手段によって入力された輪郭とについて判断を行うように構成される。この結果、ユーザは、例えば自身が希望する輪郭に対して現在の自身の輪郭
がどれだけ近づいているかなどについて客観的な判断を得ることができる。
In addition, the contour determination device may be configured to further include an input unit that enables a user to input a desired facial contour. In this case, the determination unit is configured to determine the contour extracted from the input face image and the contour input by the input unit. As a result, the user can obtain an objective determination as to how close the current contour is to the contour desired by the user, for example.

また、上記のような入力手段が備えられる場合、アドバイス手段は、このような判断結果に基づいて、例えばユーザがどのように化粧をすれば、入力手段によって入力されたユーザが希望する輪郭を有する顔に見えるようになるか、化粧のアドバイスを行うこともできる。この場合、ユーザは、自身が希望する顔の輪郭を得る前であっても、そのような輪郭を有する顔に見えるような化粧方法や、そのような輪郭を有する顔になるためのダイエットの方法や健康の維持方法などについてアドバイスを得ることが可能となる。   Further, when the input means as described above is provided, the advice means has a contour desired by the user input by the input means based on such a determination result, for example, how the user applies makeup. You can make it look like your face or give makeup advice. In this case, even before the user obtains the desired facial contour, the makeup method that makes the user look like a face having such a contour, and the diet method for becoming a face having such a contour. And advice on how to maintain health.

また、抽出手段は、検出手段と正規化手段と輪郭抽出手段とを含むように構成されても良い。このように構成されることにより、輪郭判断装置は、第一の顔画像と第二の顔画像との顔の大きさや角度などが異なる場合であっても、正確に輪郭に関する判断を実施することが可能となる。   The extraction means may be configured to include a detection means, a normalization means, and a contour extraction means. By being configured in this way, the contour determination device accurately performs determination regarding the contour even when the first face image and the second face image have different face sizes or angles. Is possible.

具体的には、検出手段は、第一の顔画像及び第二の顔画像のそれぞれについて、第一の顔要素と第二の顔要素とを検出する。「顔要素」とは、顔を構成する器官などを指し、例えば目、鼻孔、鼻、口、耳、眉などである。第一の顔要素と第二の顔要素とは同種の器官である必要は無い。例えば、右目と左目であっても良いし(同種の器官の例)、右目と右鼻孔であっても良い(異種の器官の例)。   Specifically, the detection means detects the first face element and the second face element for each of the first face image and the second face image. The “face element” refers to an organ or the like constituting the face, such as eyes, nostrils, nose, mouth, ears, and eyebrows. The first face element and the second face element do not have to be the same organ. For example, the right eye and the left eye may be used (an example of the same kind of organ), or the right eye and the right nostril may be used (an example of different organs).

正規化手段は、第一の顔画像及び第二の顔画像それぞれにおける第一の顔要素と第二の顔要素の位置に基づいて画像変換を行うことにより、両顔画像の条件を一致させる。   The normalizing means performs image conversion based on the positions of the first face element and the second face element in each of the first face image and the second face image, thereby matching the conditions of both face images.

輪郭抽出手段は、画像変換後の第一の顔画像及び第二の顔画像から、人の顔の輪郭を抽出する。   The contour extracting means extracts the contour of the human face from the first face image and the second face image after image conversion.

このように構成された輪郭判断装置では、顔要素の位置に基づいて条件を統一された(例えば正規化された)顔画像について輪郭に関する判断が実施される。例えば、第一の顔画像と第二の顔画像とについて、対等の条件の下で判断が実施され、判断の精度が向上する。特に、同一人物の画像について判断が実施される際に有効である。   In the contour determination device configured as described above, the determination regarding the contour is performed on the face image whose condition is unified (for example, normalized) based on the position of the face element. For example, the first face image and the second face image are determined under equal conditions, and the accuracy of the determination is improved. This is particularly effective when a determination is made on images of the same person.

〈第二の態様〉
上記問題は、第二の態様によっても解決できる。第二の態様である輪郭表示装置は、複数の顔画像において顔の輪郭を抽出し、抽出された輪郭をそれぞれ区別可能に表示する。具体的には、輪郭表示装置は、抽出手段及び表示手段を含む。
<Second embodiment>
The above problem can also be solved by the second aspect. The contour display device according to the second aspect extracts facial contours from a plurality of facial images, and displays the extracted contours in a distinguishable manner. Specifically, the contour display device includes an extraction unit and a display unit.

抽出手段は、人の顔が撮像された顔画像から人の顔の輪郭を抽出する。表示手段は、第一の顔画像について抽出された第一の輪郭と、第二の顔画像について抽出された第二の輪郭とを、比較可能に表示する。「比較可能に表示」とは、ユーザが第一の輪郭と第二の輪郭とが表示された際に、いずれの表示要素が第一の輪郭を示し、いずれの表示要素が第二の輪郭を示すものであるかを判別可能に表示することを示す。ユーザは、このような表示を目視することにより、抽出された第一の輪郭と第二の輪郭との差を客観的に認識することが可能となる。   The extraction unit extracts the outline of the human face from the face image obtained by capturing the human face. The display means displays the first contour extracted for the first face image and the second contour extracted for the second face image so that they can be compared. “Comparably displayed” means that when the user displays the first contour and the second contour, any display element indicates the first contour, and any display element indicates the second contour. It is shown that it is possible to discriminate whether it is a display. The user can objectively recognize the difference between the extracted first contour and the second contour by viewing such a display.

また、第二の態様の抽出手段は、第一の態様における抽出手段と同様に、検出手段と正規化手段と輪郭抽出手段とを含むように構成されても良い。このように構成されることにより、表示手段によって表示される輪郭に基づいてユーザが行う判断の精度が向上する。   Further, the extraction means of the second aspect may be configured to include a detection means, a normalization means, and a contour extraction means, similarly to the extraction means in the first aspect. With this configuration, the accuracy of the determination made by the user based on the contour displayed by the display unit is improved.

〔その他〕
第一の態様及び第二の態様は、プログラムが情報処理装置によって実行されることによ
って実現されても良い。即ち、本発明は、上記した第一の態様及び第二の態様における各手段が実行する処理を、情報処理装置に対して実行させるためのプログラム、或いは当該プログラムを記録した記録媒体として特定することができる。また、第一の態様及び第二の態様における各手段が実行する処理を、情報処理装置が実行する方法として特定することができる。
[Others]
The first aspect and the second aspect may be realized by executing the program by the information processing apparatus. That is, the present invention specifies the processing executed by each unit in the first aspect and the second aspect described above as a program for causing the information processing apparatus to execute or a recording medium on which the program is recorded. Can do. Moreover, the process which each means in a 1st aspect and a 2nd aspect performs can be specified as a method which an information processing apparatus performs.

ユーザは、第一の顔画像と第二の顔画像の輪郭との差について、客観的な判断を得ることが可能となる。例えば、第一の顔画像が特定の他人の顔画像であり第二の顔画像が自身の顔画像である場合には、ユーザは、特定の人物と自身との顔の輪郭の差について客観的な判断を得ることが可能となる。   The user can obtain an objective judgment regarding the difference between the contours of the first face image and the second face image. For example, when the first face image is a face image of a specific other person and the second face image is a face image of itself, the user can objectively determine the difference in facial contour between the specific person and himself / herself. It is possible to obtain a correct judgment.

また、例えば、第一の顔画像が過去の自身の顔画像であり第二の顔画像が現在の自身の顔画像である場合には、ユーザは、例えば現時点でのダイエットの効果などについて、客観的な判断を得ることが可能となる。   Further, for example, when the first face image is a past face image and the second face image is a current face image, the user can objectively determine, for example, the current diet effect. It is possible to obtain a reasonable judgment.

次に、図を用いて輪郭判断装置及び輪郭表示装置について説明する。なお、輪郭判断装置及び輪郭表示装置についての以下の説明は例示であり、その構成は以下の説明に限定されない。   Next, the contour determination device and the contour display device will be described with reference to the drawings. In addition, the following description about an outline determination apparatus and an outline display apparatus is an illustration, The structure is not limited to the following description.

〔輪郭判断装置の第一実施形態〕
〔〔システム構成〕〕
まず、輪郭判断装置の第一実施形態である輪郭判断装置1aについて説明する。
[First embodiment of contour determination apparatus]
〔〔System configuration〕〕
First, the outline determination apparatus 1a which is 1st embodiment of an outline determination apparatus is demonstrated.

輪郭判断装置1aは、ハードウェア的には、バスを介して接続されたCPU(中央演算処理装置),主記憶装置(RAM:Random Access Memory),補助記憶装置などを備える。補助記憶装置は、不揮発性記憶装置を用いて構成される。ここで言う不揮発性記憶装置とは、いわゆるROM(Read-Only Memory:EPROM(Erasable Programmable Read-Only Memory),EEPROM(Electrically Erasable Programmable Read-Only Memory
),マスクROM等を含む),FRAM(Ferroelectric RAM),ハードディスク等を指
す。
The contour determination device 1a includes a CPU (Central Processing Unit), a main storage device (RAM: Random Access Memory), an auxiliary storage device, and the like connected via a bus in terms of hardware. The auxiliary storage device is configured using a nonvolatile storage device. The nonvolatile storage device referred to here is a so-called ROM (Read-Only Memory: EEPROM (Erasable Programmable Read-Only Memory)) or EEPROM (Electrically Erasable Programmable Read-Only Memory).
), Mask ROM, etc.), FRAM (Ferroelectric RAM), hard disk and the like.

図1は、輪郭判断装置1aの機能ブロックを示す図である。輪郭判断装置1aは、補助記憶装置に記憶された各種のプログラム(OS,アプリケーション等)が主記憶装置にロードされCPUにより実行されることによって、画像記憶部2,抽出部3,判断部4a,及び表示部5a等を含む装置として機能する。抽出部3,及び判断部4aは、プログラムがCPUによって実行されることにより実現される。また抽出部3,及び判断部4aは、それぞれが専用のチップとして構成されても良い。   FIG. 1 is a diagram illustrating functional blocks of the contour determination device 1a. The contour determination device 1a is loaded with various programs (OS, applications, etc.) stored in the auxiliary storage device and executed by the CPU, whereby the image storage unit 2, the extraction unit 3, the determination unit 4a, And functions as a device including the display unit 5a and the like. The extraction unit 3 and the determination unit 4a are realized by executing a program by the CPU. Each of the extraction unit 3 and the determination unit 4a may be configured as a dedicated chip.

〈画像記憶部〉
画像記憶部2は、いわゆるRAMやROMを用いて構成される。画像記憶部2は、輪郭判断装置1aに入力された顔画像を記憶する。輪郭判断装置1aに入力される顔画像は、人の正面の顔が撮像されていることが望ましい。画像記憶部2は、インタフェースを介して外部の記憶装置から入力される顔画像を記憶する。また、画像記憶部2は、不図示の撮像装置によって撮像された顔画像を記憶する。
<Image storage unit>
The image storage unit 2 is configured using a so-called RAM or ROM. The image storage unit 2 stores the face image input to the contour determination device 1a. It is desirable that the face image input to the contour determination device 1a is a face in front of a person. The image storage unit 2 stores a face image input from an external storage device via an interface. The image storage unit 2 stores a face image captured by an imaging device (not shown).

〈抽出部〉
抽出部3は、画像記憶部2に記憶される顔画像を読み出し、読み出された顔画像に撮像されている顔の輪郭を抽出する。抽出部3は、所定の二つの画像(以下、「片方」「他方
」等と呼ぶ)を画像記憶部2から読み出し、それぞれの画像に対して処理を行う。抽出部3が読み出す二つの画像はどのように指定されても良い。即ち、抽出部3が読み出す二つの画像は、予め定められた画像であっても、ユーザによって指定された画像であっても、他の装置から新たに入力された画像であっても、他の装置によって指定された画像であっても良い。
<Extraction part>
The extraction unit 3 reads the face image stored in the image storage unit 2 and extracts the contour of the face captured in the read face image. The extraction unit 3 reads two predetermined images (hereinafter referred to as “one side”, “the other”, etc.) from the image storage unit 2 and performs processing on each image. The two images read by the extraction unit 3 may be designated in any way. That is, the two images read out by the extraction unit 3 may be predetermined images, images specified by the user, newly input images from other devices, It may be an image designated by the apparatus.

また、抽出部3は、具体的には既存のどのような技術が適用されることにより構成されても良い。以下に、抽出部3の具体的な構成例を示す。図2は、抽出部3の機能ブロックを示す図である。抽出部3は、検出部6,正規化部7,及び輪郭抽出部8を含む。以下、抽出部3に含まれる各機能部について説明する。   In addition, the extraction unit 3 may be specifically configured by applying any existing technique. Below, the specific structural example of the extraction part 3 is shown. FIG. 2 is a diagram illustrating functional blocks of the extraction unit 3. The extraction unit 3 includes a detection unit 6, a normalization unit 7, and a contour extraction unit 8. Hereinafter, each functional unit included in the extraction unit 3 will be described.

〈〈検出部〉〉
検出部6は、入力された顔画像から人の顔を検出し、さらに検出された顔から顔要素として左右の目を検出する。具体的には、検出部6は、入力された画像から、被写体の両目の中心座標を取得する。
<<Detection unit>>
The detection unit 6 detects a human face from the input face image, and further detects left and right eyes as face elements from the detected face. Specifically, the detection unit 6 acquires the center coordinates of both eyes of the subject from the input image.

人の顔の検出は、既存のどのような技術を適用することにより実現されても良い。例えば、顔全体の輪郭に対応した基準テンプレートを用いたテンプレートマッチングによって顔が検出されても良い。また、顔の構成要素(目,鼻,耳など)に基づくテンプレートマッチングによって顔が検出されても良い。また、クロマキー処理によって頭髪の頂点が検出され、この頂点に基づいて顔が検出されても良い。また、肌の色領域の検出に基づいて顔が検出されても良い。   The detection of a human face may be realized by applying any existing technique. For example, the face may be detected by template matching using a reference template corresponding to the outline of the entire face. Further, the face may be detected by template matching based on face components (eyes, nose, ears, etc.). Further, the vertex of the hair may be detected by chroma key processing, and the face may be detected based on the vertex. Further, the face may be detected based on the detection of the skin color area.

また、両目の検出処理は、既存のどのような技術を適用することにより実現されても良い。例えば、検出された顔の領域内において横方向に特定の明度分布を有する領域が左右の目として検出されても良い。また、目のパターンを用いたパターンマッチングによって目が検出されても良い。   The detection processing for both eyes may be realized by applying any existing technique. For example, an area having a specific brightness distribution in the horizontal direction in the detected face area may be detected as the left and right eyes. The eyes may be detected by pattern matching using the eye pattern.

また、検出部6は、検出された顔が正面顔であるか否か判断する。図3は、検出された顔が正面顔であるか否かの判断処理を説明するための図である。検出部6は、検出された左右の目の中心を通る直線(以下「目軸」と呼ぶ:L1)と画像の横軸(x軸)との角度を取得する。また、検出部6は、検出された顔の領域内において口を検出し、口の中心点と左右の目の中間点(P)とを通る直線(以下「顔中心線」と呼ぶ:L2)と、左右の目の中心を通るy軸に平行な直線(以下「目垂線」と呼ぶ:L3)との角度を取得する。検出部6は、上記二つの角度が、それぞれに対応する閾値よりも小さい場合に、検出された顔が正面顔であると判断する。なお、検出部6による口の検出処理も、目の検出処理と同様に、既存のどのような技術が適用されることにより実現されても良い。   The detection unit 6 determines whether or not the detected face is a front face. FIG. 3 is a diagram for explaining a process for determining whether or not the detected face is a front face. The detection unit 6 acquires an angle between a detected straight line passing through the centers of the left and right eyes (hereinafter referred to as “eye axis”: L1) and the horizontal axis (x axis) of the image. Further, the detection unit 6 detects the mouth in the detected face region, and passes through the center point of the mouth and the middle point (P) of the left and right eyes (hereinafter referred to as “face center line”: L2). And an angle with a straight line passing through the center of the left and right eyes and parallel to the y-axis (hereinafter referred to as “vertical line”: L3). The detection unit 6 determines that the detected face is a front face when the two angles are smaller than the corresponding threshold values. Note that the mouth detection process by the detection unit 6 may also be realized by applying any existing technique as in the eye detection process.

〈〈正規化部〉〉
正規化部7は、検出部6によって正面顔であると判断された画像に対して正規化を行う。例えば、正規化部7は、入力された二つの顔画像を所定の基準に従って正規化することにより、顔の大きさや位置や向き等の条件を一致させる。または、正規化部7は、一方の顔画像における条件に一致させるように、他方の顔画像を画像変換するように構成されても良い。
<< Normalization part >>
The normalization unit 7 normalizes the image determined to be a front face by the detection unit 6. For example, the normalization unit 7 normalizes two input face images according to a predetermined standard, thereby matching conditions such as the size, position, and orientation of the face. Alternatively, the normalization unit 7 may be configured to convert the image of the other face image so as to match the condition in the one face image.

より具体的には、正規化部7は、顔要素間の距離や、二つの顔要素を結ぶ直線と画像のx軸(y軸)との角度や、各顔要素の位置に基づいて決定される点(中間点など)の位置などの条件が一致するように画像変換を実施する。   More specifically, the normalization unit 7 is determined based on the distance between the face elements, the angle between the straight line connecting the two face elements and the x-axis (y-axis) of the image, and the position of each face element. Image conversion is performed so that conditions such as the position of a point (such as an intermediate point) match.

二つの顔要素が右目と左目である場合には、その距離として具体的には左右の目尻の距
離や左右の目の中央点の距離など、どのような部位に基づいた距離が求められても良い。正規化部7は、例えばこの距離に基づいて顔画像の拡大・縮小を行う。正規化部7は、双方の画像を画像変換することにより正規化しても良いし、片方の画像を他方の画像に合わせるように画像変換しても良い。
When the two face elements are the right eye and the left eye, the distance based on any part such as the distance between the left and right corners of the eyes and the distance between the center points of the left and right eyes can be obtained. good. For example, the normalization unit 7 enlarges / reduces the face image based on the distance. The normalizing unit 7 may normalize both images by image conversion, or may perform image conversion so that one image matches the other image.

ここでは、正規化部7は、検出部6によって検出された左右の目の中心間の距離(以下、「目距離」と呼ぶ)に応じて正規化を行う。具体的には、正規化部7は、この目距離が所定の大きさとなるように、画像を拡大又は縮小する。さらに正規化部7は、片方の顔画像における左右の目の中間点及び目軸と、他方の顔画像における左右の目の中間点及び目軸とが一致するように、画像の移動や回転を実施する。   Here, the normalization unit 7 performs normalization according to the distance between the centers of the left and right eyes detected by the detection unit 6 (hereinafter referred to as “eye distance”). Specifically, the normalization unit 7 enlarges or reduces the image so that the eye distance becomes a predetermined size. Further, the normalization unit 7 moves and rotates the image so that the midpoint and eye axis of the left and right eyes in one face image coincide with the midpoint and eye axis of the left and right eyes in the other face image. carry out.

〈〈輪郭抽出部〉〉
輪郭抽出部8は、正規化部7によって正規化された顔画像から人の顔の輪郭を抽出する。輪郭抽出部8は、特に人の顔の左右の頬及び顎の輪郭を抽出する。輪郭抽出部8は、どのような輪郭抽出技術が適用されることにより実現されても良い。例えば、輪郭抽出部8に適用可能な輪郭抽出技術として以下の文献に記載された技術がある。
<< Contour Extraction Unit >>
The contour extraction unit 8 extracts the contour of the human face from the face image normalized by the normalization unit 7. The contour extracting unit 8 extracts the left and right cheeks and chin contours of the human face. The contour extraction unit 8 may be realized by applying any contour extraction technique. For example, as a contour extraction technique applicable to the contour extraction unit 8, there is a technique described in the following document.

T.F.Cootes and C.J.Taylor, “On Representing Edge Structure for Model Matching” Proc. CVPR 2001, vol. 1, pp. 1114--1119.
図4は、輪郭抽出部8の処理結果の例を示す図である。輪郭抽出部8は、例えば人の顔の輪郭を複数の点の集合として抽出する。このように複数の点の集合として抽出する方法に限らず、例えば人の顔の輪郭を線として抽出するような技術が適用されても良い。
TFCootes and CJTaylor, “On Representing Edge Structure for Model Matching” Proc. CVPR 2001, vol. 1, pp. 1114--1119.
FIG. 4 is a diagram illustrating an example of a processing result of the contour extraction unit 8. The contour extraction unit 8 extracts, for example, the contour of a human face as a set of a plurality of points. Thus, the method is not limited to the method of extracting as a set of a plurality of points, and for example, a technique of extracting the outline of a human face as a line may be applied.

〈判断部〉
判断部4aには、抽出部3によって抽出された、二つの顔画像における顔の輪郭の情報が入力される。このとき、入力される二つの顔画像における顔の輪郭の情報は、正規化部7によって左右の目の中間点及び目軸とが一致するように処理されている。判断部4aは、入力された顔画像の輪郭のうち、いずれの輪郭がより小さい輪郭であるか判断する。言い換えれば、判断部4aは、いずれの輪郭がより顔の内側に位置する輪郭であるか判断する。また、判断部4aは、この二つの輪郭の大きさの差(言い換えれば、顔の内側に位置する度合いの差)を取得する。
<Judgment part>
Information on the outline of the face in the two face images extracted by the extraction unit 3 is input to the determination unit 4a. At this time, information on the contour of the face in the two input face images is processed by the normalization unit 7 so that the midpoint and the eye axis of the left and right eyes coincide. The determination unit 4a determines which of the contours of the input face image is a smaller contour. In other words, the determination unit 4a determines which contour is a contour located more inside the face. In addition, the determination unit 4a acquires the difference between the sizes of the two contours (in other words, the difference in the degree of being located inside the face).

具体的には、判断部4aは、抽出された輪郭線上に位置する点(以下、「輪郭点」と呼ぶ)を、二つの顔画像における輪郭について取得する。輪郭抽出部8において上記の論文に記載された技術が適用された場合は、判断部4aは、抽出された複数の点のうち全て又は一部を輪郭点として取得する。判断部4aは、それぞれの顔画像における輪郭点について、その輪郭点が顔の内側に位置することを示す度合いを取得する。例えば、検出された顔に含まれる基準要素(例:顔の中心点、顔の中心線、左右の目の中間点、唇の中心点)と各輪郭点との距離が、内側に位置することを示す度合いとして取得される。又は、この基準要素から各輪郭点への位置ベクトルやその差(一方の画像における輪郭点の位置ベクトルと、他方の画像において一方の画像における輪郭点と対応する輪郭点の位置ベクトルとの差)が、内側に位置することを示す度合いとして取得される。   Specifically, the determination unit 4a acquires points (hereinafter referred to as “contour points”) located on the extracted contour lines for the contours in the two face images. When the technique described in the above paper is applied in the contour extraction unit 8, the determination unit 4a acquires all or some of the extracted points as contour points. The determination unit 4a acquires a degree indicating that the contour point is located inside the face with respect to the contour point in each face image. For example, the distance between each contour point and the reference element (eg, face center point, face center line, left and right eye midpoint, lip center point) included in the detected face is located inside It is acquired as a degree indicating. Or the position vector from this reference element to each contour point and the difference between them (the difference between the position vector of the contour point in one image and the position vector of the contour point corresponding to the contour point in one image in the other image) Is acquired as a degree indicating that it is located inside.

そして、判断部4aは、取得された度合いの値を用いて、いずれの輪郭がより顔の内側に位置する輪郭であるか判断する。このとき、判断部4aは、取得された度合いの差を算出することができる。   Then, the determination unit 4a determines which of the contours is located on the inner side of the face using the acquired degree value. At this time, the determination unit 4a can calculate the difference in the acquired degree.

図5は、判断部4aにおける処理の内容を示す図である。図5を用いて、判断部4aにおける具体的な処理例について説明する。図5では、顔の輪郭が複数の点の集合によって示される。図5は、画像Aと画像Bとについて輪郭が抽出された場合の例である。画像A
について抽出された輪郭は、An(n=1,2,・・・,13:斜線で示される円)という点(輪郭点)の集合によって示される。同様に、画像Bについて抽出された輪郭はBn(n=1,2,・・・,13:白塗りの円)という点(Anと同様に、輪郭点)の集合によって示される。
FIG. 5 is a diagram illustrating the contents of processing in the determination unit 4a. A specific processing example in the determination unit 4a will be described with reference to FIG. In FIG. 5, the outline of the face is shown by a set of points. FIG. 5 shows an example in which contours are extracted for images A and B. Image A
The contour extracted for is indicated by a set of points (contour points) An (n = 1, 2,..., 13: circles indicated by diagonal lines). Similarly, the contour extracted for the image B is indicated by a set of points (contour points as in An) Bn (n = 1, 2,..., 13: white circle).

以下に説明する輪郭点An,Bnの比較処理では、対応する輪郭点に基づいた比較が実施される。AnとBnとはどのような基準に基づいて対応付けられても良い。例えば、nの値が等しいときに、画像Aにおける輪郭点(An)と画像Bにおける輪郭点(Bn)とを、対応した輪郭点として扱っても良い。また、例えば両目の中間点を頂点として目軸に対する角度が同じ輪郭点同士を、対応した輪郭点として扱っても良い。また、例えば代表点(例えば左右の鼻孔の中間点や唇の中心点など)を頂点として任意の軸(例えばx軸,左右の鼻孔を結ぶ直線など)に対する角度が同じ輪郭点同士を、対応した輪郭点として扱っても良い。   In the comparison process of the contour points An and Bn described below, a comparison based on the corresponding contour points is performed. An and Bn may be associated based on any standard. For example, when the values of n are equal, the contour point (An) in the image A and the contour point (Bn) in the image B may be handled as corresponding contour points. Further, for example, contour points having the same angle with respect to the eye axis with the middle point of both eyes as a vertex may be treated as corresponding contour points. In addition, for example, contour points having the same angle with respect to an arbitrary axis (for example, the x-axis, a straight line connecting the right and left nostrils, etc.) with the representative point (for example, the middle point of the left and right nostrils, the center point of the lips, etc.) as the vertices corresponded. It may be treated as a contour point.

判断部4aは、輪郭点AnとBnとについて、左右の目(クロスで示される点)の中間点(黒塗りの点)との距離(それぞれDAn,DBn)を取得する。次に、判断部4aは、DAnDBnとの差をDnとして求める。判断部4aは、正の値であるDnの数(PP)と、負の値であるDnの数(NP)とを計数する。そして、NPからPPを減算した値を、ポイントとして取得する。ポイントが正の数である場合、判断部4aは、画像Aの顔の輪郭が画像Bの顔の輪郭よりも小さいと判断する。一方、ポイントが負の数である場合、判断部4aは、画像Aの顔の輪郭が画像Bの顔の輪郭よりも大きいと判断する。 The determination unit 4a acquires distances (DAn and DBn, respectively) between the contour points An and Bn and the intermediate point (black point) between the left and right eyes (points indicated by crosses). Next, the determination unit 4a obtains the difference between DAn and DBn as Dn. The determination unit 4a counts the number of positive Dn (PP) and the number of negative Dn (NP). And the value which subtracted PP from NP is acquired as a point. When the point is a positive number, the determination unit 4a determines that the face outline of the image A is smaller than the face outline of the image B. On the other hand, when the point is a negative number, the determination unit 4a determines that the face outline of the image A is larger than the face outline of the image B.

〈表示部〉
表示部5aは、CRT(Cathode Ray Tube)や液晶ディスプレイ等の表示装置を用いて構成される。表示部5aは、判断部4aによって判断されたポイントを表示する。図6は、表示部6aによる表示例を示す図である。図6では、表示部5aによる表示画面の左上にポイントが表示される。ユーザは、表示されたポイントを見ることにより、画像Aと画像Bとのいずれの顔の輪郭がどれだけ小さいかを知ることができる。
<Display section>
The display unit 5a is configured using a display device such as a CRT (Cathode Ray Tube) or a liquid crystal display. The display unit 5a displays the points determined by the determination unit 4a. FIG. 6 is a diagram showing a display example by the display unit 6a. In FIG. 6, a point is displayed on the upper left of the display screen by the display unit 5a. The user can know how small the contour of the face of the images A and B is by looking at the displayed points.

また、表示部5aは、抽出部3によって抽出された輪郭点を表示できる。このとき、表示部5aは、画像A及び/又は画像Bについて抽出された輪郭点を表示できる。画像A及び画像Bについて抽出された輪郭点を同時に表示する場合、画像Aにおける輪郭点と画像Bにおける輪郭点とは、異なる表示形態で表示される。具体的には、輪郭点を示す表示要素(点や円などの図形)の形状、色、模様などが異なるように表示される。図6では、画像A及び画像Bについて抽出された輪郭点がそれぞれ斜線で塗りつぶされた円と白塗りの円として表示されている。また、表示部5aは、画像A又は画像Bを表示できる。図6では、画像Aが表示されている。表示部5aの表示内容については、ユーザによって設定可能に構成される。   In addition, the display unit 5a can display the contour points extracted by the extraction unit 3. At this time, the display unit 5a can display the contour points extracted for the image A and / or the image B. When the contour points extracted for the images A and B are displayed at the same time, the contour points in the image A and the contour points in the image B are displayed in different display forms. Specifically, the display elements (contours, figures such as circles) indicating the contour points are displayed in different shapes, colors, patterns, and the like. In FIG. 6, the contour points extracted for the image A and the image B are displayed as a circle filled with diagonal lines and a white circle, respectively. The display unit 5a can display the image A or the image B. In FIG. 6, an image A is displayed. The display content of the display unit 5a can be set by the user.

〔〔動作例〕〕
次に、輪郭判断装置1aの動作例について説明する。図7は、輪郭判断装置1aの動作例を示すフローチャートである。以下、画像Aと画像Bとについて輪郭の大きさの判断が実施される場合について説明する。
[[Operation example]]
Next, an operation example of the contour determination device 1a will be described. FIG. 7 is a flowchart illustrating an operation example of the contour determination apparatus 1a. Hereinafter, a case where the size of the outline is determined for the image A and the image B will be described.

画像記憶部2に記憶される画像から、ユーザによって、比較する対象となる二つの画像が指定されると(S01)、抽出部3は、指定された二つの画像を読み出し、この二つの画像について顔輪郭抽出処理を開始する(S02)。なお、S01における指定の入力は、不図示のユーザインタフェースを介して入力される。図8は、抽出部3による顔輪郭抽出処理の例を示すフローチャートである。   When two images to be compared are specified by the user from the images stored in the image storage unit 2 (S01), the extraction unit 3 reads the two specified images, and about these two images The face contour extraction process is started (S02). The designation input in S01 is input via a user interface (not shown). FIG. 8 is a flowchart illustrating an example of face contour extraction processing by the extraction unit 3.

まず、検出部6は、読み出された画像から顔を検出する(S05)。次に、検出部6は、検出された顔の領域内から左右の目を検出し、左右の目それぞれの中心点を取得する(S06)。次に、検出部6は、検出された顔が正面顔であるか否か判断する。具体的には、まず検出部6は、目軸と画像の横軸との角度の大きさが閾値(ここでは10度とする)以内であるか判断する。10度より大きい場合(S07−No)、検出部6は、検出された顔が正面顔でないと判断し、エラーを出力する(S13)。この場合、表示部5は、検出された顔が正面顔でないためにエラーが発生したことを表示する。   First, the detection unit 6 detects a face from the read image (S05). Next, the detection unit 6 detects the left and right eyes from within the detected face area, and acquires the center point of each of the left and right eyes (S06). Next, the detection unit 6 determines whether or not the detected face is a front face. Specifically, the detection unit 6 first determines whether the angle between the eye axis and the horizontal axis of the image is within a threshold value (here, 10 degrees). When it is larger than 10 degrees (S07-No), the detection unit 6 determines that the detected face is not a front face, and outputs an error (S13). In this case, the display unit 5 displays that an error has occurred because the detected face is not a front face.

一方、目軸と横軸との角度の大きさが10度以内である場合(S07−Yes)、検出部6は、左右の目の中間点(P)を取得する(S08)。次に、検出部6は、検出された顔から口を検出し、検出された口の中心点を取得する(S09)。検出部6は、顔中心線と目垂線との角度の大きさが閾値(ここでは10度とする)以内であるか判断する。10度より大きい場合(S10−No)、検出部6は、検出された顔が正面顔でないと判断し、エラーを出力する。この場合も、表示部5は、検出された顔が正面顔でないためにエラーが発生したことを表示する。   On the other hand, when the magnitude of the angle between the eye axis and the horizontal axis is within 10 degrees (S07-Yes), the detection unit 6 acquires the midpoint (P) of the left and right eyes (S08). Next, the detection unit 6 detects the mouth from the detected face, and acquires the center point of the detected mouth (S09). The detection unit 6 determines whether the angle between the face center line and the vertical line is within a threshold (here, 10 degrees). When it is larger than 10 degrees (S10-No), the detection unit 6 determines that the detected face is not a front face and outputs an error. Also in this case, the display unit 5 displays that an error has occurred because the detected face is not a front face.

一方、顔中心線と目垂線との角度の大きさが10度以内である場合(S10−Yes)、正規化部7は、検出部6によって検出された左右の目における目距離の大きさに基づいて、画像を正規化する(S11)。そして、輪郭抽出部8は、正規化された画像から人の顔の輪郭を抽出する(S12)。   On the other hand, when the size of the angle between the face center line and the vertical line is within 10 degrees (S10-Yes), the normalization unit 7 determines the size of the eye distance between the left and right eyes detected by the detection unit 6. Based on this, the image is normalized (S11). Then, the contour extraction unit 8 extracts the contour of the human face from the normalized image (S12).

図7を用いた説明に戻る。抽出部3が顔輪郭抽出処理を実行した後、判断部4aは、顔輪郭抽出処理の結果に基づいて顔輪郭比較処理を実行する(S03)。図9は、判断部4aによる顔輪郭比較処理の例を示すフローチャートである。   Returning to the description using FIG. After the extraction unit 3 executes the face outline extraction process, the determination unit 4a executes a face outline comparison process based on the result of the face outline extraction process (S03). FIG. 9 is a flowchart illustrating an example of face contour comparison processing by the determination unit 4a.

判断部4aは、画像Aについて抽出された各輪郭点をAn(n=1,2,・・13)と、画像Bについて抽出された各輪郭点をBn(n=1,2,・・13)とそれぞれ定義する(S14)。次に、判断部4aは、中間点Pと各輪郭点Anとの距離DAnを取得する(S15)。同様に、判断部4aは、中間点Pと各輪郭点Bnとの距離DBnを取得する(S16)。次に、判断部4aは、対応する輪郭点について、DAnとDBnとの差であるDnを取得する(S17)。判断部4aは、取得された各Dnの符号に基づいてポイントを取得し(S18)、画像Aと画像Bとのいずれにおける顔の輪郭が顔の内側に位置する輪郭であるか判断する。そして、判断部4aは、判断結果(ポイントの値を含む)を表示部5に対して出力する(S19)。   The determination unit 4a uses An (n = 1, 2,... 13) for each contour point extracted for the image A and Bn (n = 1, 2,... 13) for each contour point extracted for the image B. ) Are defined respectively (S14). Next, the determination unit 4a acquires the distance DAn between the intermediate point P and each contour point An (S15). Similarly, the determination unit 4a acquires the distance DBn between the intermediate point P and each contour point Bn (S16). Next, the determination unit 4a acquires Dn, which is the difference between DAn and DBn, for the corresponding contour point (S17). The determination unit 4a acquires a point based on the acquired sign of each Dn (S18), and determines which of the image A and the image B is the contour located inside the face. Then, the determination unit 4a outputs the determination result (including the point value) to the display unit 5 (S19).

図7を用いた説明に戻る。表示部5は、判断部4aから判断結果を受領すると、この判断結果を表示する(S04)。   Returning to the description using FIG. When receiving the determination result from the determination unit 4a, the display unit 5 displays the determination result (S04).

〔〔作用/効果〕〕
ユーザは、輪郭判断装置1aを用いることにより、画像Aと画像Bとに撮像されている人の顔の輪郭について、客観的な評価(判断部4aによる判断結果)を得ることができる。
[[Action / Effect]]
By using the contour determination device 1a, the user can obtain an objective evaluation (determination result by the determination unit 4a) regarding the contour of the face of the person captured in the images A and B.

ここで、画像Aと画像Bの具体例を説明する。画像Aをユーザ自身の顔画像とし、画像Bをユーザ以外の人物(例えばユーザのダイエットのライバル,ユーザが希望する顔の輪郭を有した人物など)の顔画像とすることができる。この場合、ユーザは、自身の顔の輪郭が、ユーザ以外の人物の顔の輪郭と比較して小さいか否か、言い換えれば痩せて見えるか否か、又はより顔の内側に位置する輪郭であるか否かについて、客観的な判断を得ることができる。同様に、ユーザは、表示されるポイントを知ることにより、ユーザ以外の人物の顔の輪郭と比較してどれだけ小さいか、言い換えればどれだけ痩せて見えるか、又は
どれだけより顔の内側に位置する輪郭であるかについて、客観的な判断を得ることができる。
Here, specific examples of the image A and the image B will be described. The image A can be a user's own face image, and the image B can be a face image of a person other than the user (for example, a user's diet rival, a person having a face contour desired by the user). In this case, the user's face outline is smaller than the face outline of a person other than the user, in other words, whether the face appears to be thin, or is a contour located more inside the face. An objective judgment can be obtained about whether or not. Similarly, by knowing the point displayed, the user can see how much smaller, in other words how thin the face contour of the person other than the user is, or how much is located inside the face. It is possible to obtain an objective judgment as to whether the outline is to be performed.

また、画像Aと画像Bとの具体例として、画像Aをユーザの現在の顔画像とし、画像Bをユーザの過去の顔画像とすることができる。この場合、ユーザは、自身の現在の顔の輪郭が、ユーザの過去の顔の輪郭と比較して小さくなったか否かについて、客観的な判断を得ることができる。また、ユーザは、表示されるポイントを知ることにより、自身の現在の顔の輪郭がどれだけ小さくなったかについて、客観的な判断を得ることができる。この判断を元に、ユーザは、自身のダイエットの効果について客観的な判断を得ることができる。   As a specific example of the image A and the image B, the image A can be a user's current face image, and the image B can be a user's past face image. In this case, the user can obtain an objective determination as to whether or not the current face contour has become smaller than the user's past face contour. In addition, the user can obtain an objective determination as to how small the current facial contour is by knowing the displayed point. Based on this determination, the user can obtain an objective determination regarding the effect of his / her diet.

また、輪郭判断装置1aでは、正規化部7によって、画像Aと画像Bとが正規化される。このため、異なる顔の形や大きさを持った顔同士(異なる人同士や同一人物であって時期が異なる顔同士など)であっても、その輪郭について客観的な判断を正確に得ることが可能となる。   In the contour determination device 1a, the normalization unit 7 normalizes the image A and the image B. For this reason, even if faces having different face shapes and sizes (such as different people or faces of the same person but at different times), it is possible to accurately obtain an objective judgment on the contour. It becomes possible.

また、表示部5aにおいて、輪郭点Anと輪郭点Bnとは区別可能に表示される。このため、ユーザは、単にポイントを知るのみではなく、自身の輪郭の状態や変化を画像から知ることができる。従って、顔のどの部分がAnとBnとで異なるか(例えば、どの部分が痩せたのか、どの部分が他人に対して太っているのか等)を知ることができる。   In the display unit 5a, the contour point An and the contour point Bn are displayed in a distinguishable manner. For this reason, the user can know not only the point but also the state and change of his / her contour from the image. Therefore, it is possible to know which part of the face is different between An and Bn (for example, which part is thinned and which part is fat relative to others).

輪郭判断装置1aは、撮像装置を持つ情報処理装置(例:カメラ付き携帯電話機,デジタルスチル/ビデオカメラ,カメラ付きPDA,カメラ付き健康器具)に適用することができる。また、輪郭判断装置1aは、撮像装置を持たない情報処理装置であっても、他の装置と無線/有線で通信することにより、又は他の記録媒体からデータを読み出すことにより画像を取得可能な装置(例:パーソナルコンピュータ,ワークステーション,携帯電話機,PDA)であれば適用可能である。   The contour determination device 1a can be applied to an information processing device having an imaging device (for example, a mobile phone with a camera, a digital still / video camera, a PDA with a camera, a health device with a camera). Further, even if the contour determination device 1a is an information processing device that does not have an imaging device, the contour determination device 1a can acquire an image by communicating with other devices wirelessly / wiredly or by reading data from another recording medium. Any device (eg, personal computer, workstation, mobile phone, PDA) is applicable.

〔〔変形例〕〕
判断部4aは、全ての輪郭点についてDnの値を求め、その平均値を取得するように構成されても良い。平均値の値が正の値である場合、判断部4aは画像Aにおける顔の輪郭が画像Bにおける顔の輪郭に比べて大きいと判断する。一方、Dnの値が負の値である場合、判断部4aは画像Aにおける顔の輪郭が画像Bにおける顔の輪郭に比べて小さいと判断する。このとき、判断部4aは、平均値に−1を乗算した値をポイントとして取得する。
[[Modification]]
The determination unit 4a may be configured to obtain the value of Dn for all the contour points and acquire the average value thereof. When the average value is a positive value, the determination unit 4a determines that the face outline in the image A is larger than the face outline in the image B. On the other hand, when the value of Dn is a negative value, the determination unit 4a determines that the face outline in the image A is smaller than the face outline in the image B. At this time, the determination unit 4a acquires a value obtained by multiplying the average value by -1 as a point.

また、不図示のユーザインタフェースによって、ユーザが所望の輪郭点を入力可能に構成されても良い。この場合、抽出部3によって輪郭点の抽出が実施される画像は一つのみになる。判断部4aは、抽出部3によって抽出された輪郭点と、ユーザによって入力された抽出点とについて判断を実施する。このように構成された場合、ユーザは、例えば自身が希望する輪郭点(ダイエットの後にこうありたいとユーザが希望する顔の輪郭)を入力できる。そして、ユーザは、自身が希望する輪郭点に対して、現在の自分の顔の輪郭がどれだけ近いかについて客観的な判断を得ることができる。   Further, a user may input a desired contour point by a user interface (not shown). In this case, only one image is extracted from the contour point by the extraction unit 3. The determination unit 4a performs determination on the contour points extracted by the extraction unit 3 and the extraction points input by the user. When configured in this manner, the user can input, for example, a contour point desired by the user (a facial contour desired by the user if desired after a diet). Then, the user can obtain an objective determination as to how close the current contour of his / her face is to the contour point desired by the user.

また、輪郭抽出部8によって抽出される輪郭点は13点に限る必要はなく、いくつの輪郭点が抽出されても良い。判断部4aは、輪郭抽出部8によって抽出される輪郭点の数に応じて処理を実行する。   The contour points extracted by the contour extracting unit 8 need not be limited to 13 points, and any number of contour points may be extracted. The determination unit 4a performs processing according to the number of contour points extracted by the contour extraction unit 8.

また、輪郭判断装置1aは、表示部5aに代えて他の形態の出力装置を備えるように構成されても良い。このような出力装置の例として、判断部4aによって取得されたポイン
トを音声によってユーザに伝える音声出力装置(例:スピーカ,ヘッドホン)や、プリンタ等の印刷装置などがある。
Further, the contour determination device 1a may be configured to include another form of output device instead of the display unit 5a. Examples of such an output device include a voice output device (for example, a speaker and headphones) that conveys the points acquired by the determination unit 4a to the user by voice, and a printing device such as a printer.

〔輪郭判断装置の第二実施形態〕
〔〔システム構成〕〕
次に、輪郭判断装置の第二実施形態である輪郭判断装置1bについて説明する。
[Second Embodiment of Contour Determination Device]
〔〔System configuration〕〕
Next, the outline determination apparatus 1b which is 2nd embodiment of an outline determination apparatus is demonstrated.

図10は、輪郭判断装置1bの機能ブロックを示す図である。輪郭判断装置1bは、抽出結果記憶部9及び指定部10をさらに備える点で、及び判断部4aに代えて判断部4bを備える点で、輪郭判断装置1aと異なる。以下、輪郭判断装置1bについて、輪郭判断装置1aと異なる点について説明する。   FIG. 10 is a diagram illustrating functional blocks of the contour determination device 1b. The contour determination device 1b differs from the contour determination device 1a in that it further includes an extraction result storage unit 9 and a designation unit 10, and in that it includes a determination unit 4b instead of the determination unit 4a. Hereinafter, the difference between the contour determination device 1b and the contour determination device 1a will be described.

〈抽出結果記憶部〉
抽出結果記憶部9は、いわゆるRAMやROMを用いて構成される。抽出結果記憶部9は、抽出部3における処理結果を、その画像又はその画像のIDと対応付けて記憶する。具体的には、抽出結果記憶部9は、各画像について、左右の目の中間点(P)と各輪郭点とを記憶する。このとき、抽出結果記憶部9は、正規化された画像をさらに記憶できる。
<Extraction result storage unit>
The extraction result storage unit 9 is configured using a so-called RAM or ROM. The extraction result storage unit 9 stores the processing result in the extraction unit 3 in association with the image or the ID of the image. Specifically, the extraction result storage unit 9 stores the left and right eye midpoint (P) and each contour point for each image. At this time, the extraction result storage unit 9 can further store the normalized image.

〈指定部〉
指定部10は、マイク,ポインティングデバイス(マウス,トラックボール,タッチパネル等),キーボード等の入力装置を用いて構成される。指定部10は、ユーザによって、抽出結果記憶部9に抽出結果が既に記憶されている顔画像を指定するために使用される。
<Designated part>
The designation unit 10 is configured using an input device such as a microphone, a pointing device (mouse, trackball, touch panel, etc.), a keyboard, and the like. The designation unit 10 is used by the user to designate a face image whose extraction result is already stored in the extraction result storage unit 9.

〈判断部〉
判断部4bは、指定部10によって指定された顔画像に関する抽出結果を抽出結果記憶部9から読み出し、読み出された抽出結果を用いて顔輪郭比較処理を実行する点で判断部4aと異なる。
<Judgment part>
The determination unit 4b is different from the determination unit 4a in that the extraction result related to the face image designated by the designation unit 10 is read from the extraction result storage unit 9 and the face outline comparison process is executed using the read extraction result.

判断部4bは、一方の抽出結果については指定部10によって指定された顔画像に関するものを使用し、他方の抽出結果については最新の抽出結果を使用するように構成されても良い。また、判断部4bは、一方及び他方の両抽出結果について、指定部10によって指定された顔画像に関するものを使用するように構成されても良い。   The determination unit 4b may be configured to use the one related to the face image designated by the designation unit 10 for one extraction result and use the latest extraction result for the other extraction result. Further, the determination unit 4b may be configured to use the one relating to the face image designated by the designation unit 10 for both one and the other extraction results.

また、判断部4bは、指定部10によって指定された顔画像の抽出結果を指す識別子、又はこの抽出結果そのものを記憶するように構成されても良い。以下、抽出結果を指す識別子又は抽出結果そのものが判断部4bによって記憶されている画像を「指定記憶画像」と呼ぶ。この場合、判断部4bは、抽出部3によって新たな抽出結果が得られた時点で、又は指定部10によって新たな顔画像が指定された時点で、この新たな抽出結果又は新たに指定された顔画像に関する抽出結果と、自身が記憶している抽出結果とについて輪郭比較処理を実行する。   Further, the determination unit 4b may be configured to store an identifier indicating the extraction result of the face image designated by the designation unit 10, or the extraction result itself. Hereinafter, an image in which the identifier indicating the extraction result or the extraction result itself is stored by the determination unit 4b is referred to as a “designated storage image”. In this case, the determination unit 4b receives the new extraction result or a newly designated value when a new extraction result is obtained by the extraction unit 3 or when a new face image is designated by the designation unit 10. Contour comparison processing is executed for the extraction result related to the face image and the extraction result stored in itself.

判断部4bが実施する顔輪郭比較処理の内容そのものは、判断部4aが実施する同処理と同じである。   The content of the face contour comparison process performed by the determination unit 4b is the same as the process performed by the determination unit 4a.

〔〔動作例〕〕
図11は、輪郭判断装置1bの動作例を示すフローチャートである。以下、図11を用いて輪郭判断装置1bの動作例について説明する。以下の説明では、判断部4bが、一方の抽出結果については指定部10によって指定された顔画像に関するものを使用し、他方の抽出結果については最新の抽出結果を使用するように構成された場合について説明する
。さらに、以下の説明では、判断部4bが、指定記憶画像に関する抽出結果のIDを記憶するように構成された場合について説明する。さらに、以下の説明では、判断部4bが、抽出部3によって新たな抽出結果が得られた時点で輪郭比較処理を実行するように構成された場合について説明する。以下の説明を参照することにより、当業者であれば、上記システム構成において説明した判断部4bの他の動作パターンについても容易に実施することが可能である。
[[Operation example]]
FIG. 11 is a flowchart illustrating an operation example of the contour determination apparatus 1b. Hereinafter, an operation example of the contour determination device 1b will be described with reference to FIG. In the following description, when the determination unit 4b is configured to use the one related to the face image specified by the specifying unit 10 for one extraction result and use the latest extraction result for the other extraction result. Will be described. Further, in the following description, a case will be described in which the determination unit 4b is configured to store an extraction result ID related to the designated storage image. Furthermore, in the following description, a case will be described in which the determination unit 4b is configured to execute the contour comparison process when a new extraction result is obtained by the extraction unit 3. By referring to the following description, those skilled in the art can easily implement other operation patterns of the determination unit 4b described in the system configuration.

抽出部3は、画像記憶部2に新たな画像が記憶されるまで待機する(S20−No)。画像記憶部2に新たな画像が記憶されると(S20−Yes)、抽出部3は顔輪郭抽出処理を実行する(S21)。そして、抽出部3は、顔輪郭比較処理による抽出結果を抽出結果記憶部9に書き込む(S22)。   The extraction unit 3 waits until a new image is stored in the image storage unit 2 (S20-No). When a new image is stored in the image storage unit 2 (S20-Yes), the extraction unit 3 executes a face contour extraction process (S21). And the extraction part 3 writes the extraction result by a face outline comparison process in the extraction result memory | storage part 9 (S22).

次に、判断部4bは、指定記憶画像があるか否かについて判断する。指定記憶画像がない場合(S23−No)、S20の処理に戻る。一方、指定記憶画像がある場合(S23−Yes)、判断部4bは、指定記憶画像の抽出結果及び最近記憶された抽出結果(即ち最近抽出部による輪郭比較処理によって得られた抽出結果)を抽出結果記憶部9から読み出す(S24)。判断部4bは、読み出された抽出結果を用いて顔輪郭比較処理を実行する(S25)。そして、表示部5aは、判断部4bによる判断結果を表示する(S26)。   Next, the determination unit 4b determines whether there is a designated storage image. When there is no designated storage image (S23-No), the process returns to S20. On the other hand, when there is a designated storage image (S23-Yes), the determination unit 4b extracts the extraction result of the designation storage image and the recently stored extraction result (that is, the extraction result obtained by the contour comparison process by the recent extraction unit). Read from the result storage unit 9 (S24). The determination unit 4b performs a face contour comparison process using the read extraction result (S25). And the display part 5a displays the determination result by the determination part 4b (S26).

〔〔作用/効果〕〕
輪郭判断装置1bでは、ユーザによって顔輪郭抽出処理や顔輪郭比較処理の実行が指示されなくとも、新たな画像が画像記憶部2に記憶された時点で、この画像に関する顔輪郭比較処理が実行され、抽出結果が抽出結果記憶部9に記憶される。このため、ユーザが顔輪郭比較処理の実行を望む際に、既に画像記憶部2に記憶されている画像については顔輪郭抽出処理を実行する必要が無い。従って、処理時間の短縮を図ることが可能となる。例えば、ユーザが指定部10によって二つの画像を指定するような構成の場合、ユーザが指定部10によって比較すべき画像の片方を指定するような構成の場合に有効である。
[[Action / Effect]]
In the contour determination device 1b, even when the user is not instructed to perform the face contour extraction process or the face contour comparison process, the face contour comparison process for the image is performed when a new image is stored in the image storage unit 2. The extraction result is stored in the extraction result storage unit 9. For this reason, when the user desires to execute the face outline comparison process, it is not necessary to execute the face outline extraction process for the image already stored in the image storage unit 2. Therefore, it is possible to shorten the processing time. For example, when the configuration is such that the user designates two images by the designation unit 10, the configuration is effective when the user designates one of the images to be compared by the designation unit 10.

また、輪郭判断装置1bでは、ユーザが予め指定記憶画像を指定しておくことにより、新たな画像が画像記憶部2に記憶された時点(例:不図示の撮像装置によって撮像された画像が記憶された時点,不図示の外部記憶装置から画像が入力・記憶された時点)で即座に顔輪郭比較処理を実行させることができる(動作例の記載参照)。このため、ユーザは、新たな画像に対する比較対象になる画像をその都度指定する必要が無くなる。   Further, in the contour determination device 1b, when a user designates a designated storage image in advance, a point in time when a new image is stored in the image storage unit 2 (for example, an image captured by an imaging device (not shown) is stored. At the time when the image is input and stored from an external storage device (not shown), the face contour comparison process can be executed immediately (see the description of the operation example). This eliminates the need for the user to designate an image to be compared with a new image each time.

また、輪郭判断装置1bでは、ユーザが予め指定記憶画像を指定しておくことにより、指定部10によって新たに画像を指定した時点で即座に顔輪郭比較処理を実行させることができる。具体的には、輪郭判断装置1bの動作例のS20の処理において、抽出部3は、新たな画像を記憶することを検知するのではなく、指定部10によって画像が指定されたことを検知するように構成されれば良い。このように構成されることにより、ユーザは、指定した画像に対する比較対象になる画像をその都度指定する必要が無くなる。   In the contour determination device 1b, the user can designate the designated storage image in advance, so that the face contour comparison process can be executed immediately when the designation unit 10 designates a new image. Specifically, in the process of S20 of the operation example of the contour determination device 1b, the extraction unit 3 does not detect that a new image is stored, but detects that the image is specified by the specification unit 10. What is necessary is just to be comprised. With this configuration, the user does not need to designate an image to be compared with the designated image each time.

〔〔変形例〕〕
抽出部3の正規化部7によって正規化された画像は、画像記憶部2に記憶されるように構成されても良い。この場合、抽出結果記憶部9は、画像記憶部2に記憶された正規化された画像の識別子(IDやアドレスなど)を、抽出結果と対応付けて記憶する。
[[Modification]]
The image normalized by the normalization unit 7 of the extraction unit 3 may be configured to be stored in the image storage unit 2. In this case, the extraction result storage unit 9 stores the normalized image identifier (ID, address, etc.) stored in the image storage unit 2 in association with the extraction result.

また、ユーザが指定部10を用いて顔画像の指定を行う際に、指定可能な顔画像を画像記憶部2から読み出し、表示部5aに表示するように構成されても良い。   Further, when a user designates a face image using the designation unit 10, the face image that can be designated may be read from the image storage unit 2 and displayed on the display unit 5a.

また、輪郭判断装置1aの変形例において記載したようにユーザが所望の輪郭点を入力可能に構成される場合、抽出結果記憶部9は、ユーザによって入力された輪郭点を記憶するように構成されても良い。このとき、目軸及び/又は左右の目の中間点は、ユーザによって入力されても良いし、既に記憶されている他の画像の値が適用されても良い。   Further, as described in the modification of the contour determination device 1a, when the user is configured to be able to input a desired contour point, the extraction result storage unit 9 is configured to store the contour point input by the user. May be. At this time, the eye axis and / or the middle point of the left and right eyes may be input by the user, or values of other images already stored may be applied.

〔輪郭判断装置の第三実施形態〕
〔〔システム構成〕〕
次に、輪郭判断装置の第三実施形態である輪郭判断装置1cについて説明する。
[Third embodiment of contour determination apparatus]
〔〔System configuration〕〕
Next, the outline determination apparatus 1c which is 3rd embodiment of an outline determination apparatus is demonstrated.

図12は、輪郭判断装置1cの機能ブロックを示す図である。輪郭判断装置1cは、アドバイス部11を備える点、及び表示部5aに代えて表示部5bを備える点で、輪郭判断装置1aと異なる。以下、輪郭判断装置1cについて、輪郭判断装置1aと異なる点について説明する。   FIG. 12 is a diagram illustrating functional blocks of the contour determination device 1c. The contour determination device 1c is different from the contour determination device 1a in that it includes an advice unit 11 and a display unit 5b instead of the display unit 5a. Hereinafter, the difference between the contour determination device 1c and the contour determination device 1a will be described.

〈アドバイス部〉
アドバイス部11は、情報処理装置を輪郭判断装置1cとして動作させるためのプログラムがCPUによって実行されることにより実現される。アドバイス部11は、専用のチップとして構成されても良い。
<Advising Department>
The advice unit 11 is realized by the CPU executing a program for causing the information processing apparatus to operate as the contour determination apparatus 1c. The advice unit 11 may be configured as a dedicated chip.

アドバイス部11が行うアドバイスの例として、ダイエットに関するもの、化粧に関するもの、健康に関するもの、写真の取り方に関するものなどがある。アドバイス部11は、抽出部3による抽出結果及び/又は判断部4による判断結果に基づいて、ダイエットや化粧や健康や写真の撮り方などに関するアドバイスを実施する。   Examples of advice given by the advice unit 11 include diet-related items, makeup-related items, health-related items, and photo-related items. The advice unit 11 provides advice on diet, makeup, health, and how to take a photo based on the extraction result by the extraction unit 3 and / or the determination result by the determination unit 4.

以下に、このようなアドバイスの具体例を挙げる。例えば、ユーザが過去と現在との自身の顔画像を入力することにより判断結果を取得した際に、ユーザが希望したほどダイエットの効果が得られていないことが判明する場合がある。このような場合に、アドバイス部11は、判断結果に基づいて、ユーザがどのように化粧をすることにより、ユーザの顔がより痩せて見えるようになるかアドバイスを行うことができる。逆に、ユーザが痩せすぎてしまった場合に、アドバイス部11は、ユーザがより健康的にふっくらと見えるような化粧をアドバイスすることも可能である。また、例えば、ユーザによって様々な顔向きで撮影された画像が入力された場合、そのうちで最も輪郭の小さい顔画像が撮影されたときの写真の撮り方がベストな撮影方法であるとアドバイスすることが可能である。また、頬の部分が理想の輪郭よりも大きいと判断された場合、その部分を髪の毛などで覆うようにアドバイスすることが可能である。また、全体的に理想の輪郭よりも大きい場合には、フェイスラインに沿って茶色いシャドウをかけることで細く見えるようになることをアドバイスすることができる。   Specific examples of such advice are given below. For example, when the user obtains a determination result by inputting his / her own face images of the past and the present, it may be found that the diet effect is not obtained as much as the user desires. In such a case, the advice unit 11 can give advice based on the determination result as to how the user puts on the makeup so that the user's face appears to be thinner. Conversely, when the user has become too thin, the advice unit 11 can also advise makeup that makes the user look healthier and plump. In addition, for example, when an image shot with various face orientations is input by the user, it is advised that the best shooting method is to take a picture when the face image with the smallest outline is taken. Is possible. When it is determined that the cheek portion is larger than the ideal contour, it is possible to advise that the portion is covered with hair or the like. Moreover, when it is larger than the ideal outline as a whole, it can be advised that a brown shadow is applied along the face line to make it appear thin.

〈表示部〉
表示部5bは、表示部5aが表示する表示内容に加えて、アドバイス部11によって検索されたアドバイス内容をさらに表示する点で表示部5aと異なる。
<Display section>
The display unit 5b is different from the display unit 5a in that it further displays the advice content retrieved by the advice unit 11 in addition to the display content displayed by the display unit 5a.

〔〔動作例〕〕
輪郭判断装置1cは、輪郭判断装置1aの判断部4による顔輪郭比較処理(S03)と、表示部5aによる判断結果の表示(S04)との間に、アドバイス部11がアドバイス内容検索処理を実行する点で、輪郭判断装置1aの動作例と異なる。
[[Operation example]]
In the contour determination device 1c, the advice unit 11 executes the advice content search processing between the face contour comparison processing (S03) by the determination unit 4 of the contour determination device 1a and the display of the determination result by the display unit 5a (S04). This is different from the operation example of the contour determination device 1a.

〔〔作用/効果〕〕
ユーザは、輪郭判断装置1cを用いることにより、画像Aと画像Bとにおける顔輪郭抽出処理や顔輪郭比較処理の実行結果に基づいたアドバイスを受けることができる。例えば
、ユーザの現在と過去の顔画像を画像A,Bとして入力・選択することにより、過去から現在までの顔の輪郭の変化に応じたアドバイス、特にダイエットに関するアドバイスや健康に関するアドバイスを受けることができる。
[[Action / Effect]]
By using the contour determination device 1c, the user can receive advice based on the execution result of the face contour extraction process and the face contour comparison process in the images A and B. For example, by inputting / selecting the user's current and past face images as images A and B, he / she can receive advice according to changes in the contour of the face from the past to the present, particularly advice on diet and advice on health. it can.

また、輪郭判断装置1aの変形例において記載したようにユーザが所望の輪郭点を入力可能に構成される場合、以下のような効果が期待できる。即ち、ユーザの現在の顔画像と理想の輪郭点を入力・選択することにより、現在の現実の顔の輪郭と理想の輪郭との差に応じたアドバイス、特にそのような理想の輪郭に近づけるためにすべきダイエットや化粧についてアドバイスを受けることができる。   Further, when the user can input a desired contour point as described in the modification of the contour determination device 1a, the following effects can be expected. That is, by inputting / selecting the user's current face image and an ideal contour point, advice according to the difference between the current actual face contour and the ideal contour, especially for approaching such an ideal contour Get advice on dieting and makeup that should be done.

〔〔変形例〕〕
輪郭判断装置1cは、輪郭判断装置1bにおける抽出結果記憶部9をさらに含むように構成されても良い。
[[Modification]]
The contour determination device 1c may be configured to further include an extraction result storage unit 9 in the contour determination device 1b.

〔輪郭表示装置〕
〔〔システム構成〕〕
図13は、輪郭表示装置12の機能ブロックを示す図である。輪郭表示装置12は、画像記憶部2,抽出部3,及び表示部5cを備える。なお、輪郭表示装置12が備える画像記憶部2及び抽出部3は、輪郭判断装置1aが備える画像記憶部2及び抽出部3と同じ構成となる。このため、画像記憶部2及び抽出部3についての説明は省略する。
[Outline display device]
〔〔System configuration〕〕
FIG. 13 is a diagram illustrating functional blocks of the contour display device 12. The contour display device 12 includes an image storage unit 2, an extraction unit 3, and a display unit 5c. The image storage unit 2 and the extraction unit 3 included in the contour display device 12 have the same configuration as the image storage unit 2 and the extraction unit 3 included in the contour determination device 1a. For this reason, the description about the image storage part 2 and the extraction part 3 is abbreviate | omitted.

〈表示部〉
表示部5cは、抽出部3によって抽出された輪郭点のみを表示する点で、表示部5aと異なる。即ち、輪郭表示装置12は判断部4やアドバイス部11を備えないため、その表示部5cは判断部4による判断結果やユーザに対するアドバイス等を表示しない。ただし、表示部5cは、表示部5aの説明にもあるように、画像Aにおいて抽出された輪郭点Anと、画像Bにおいて抽出された輪郭点Bnとをユーザにとって区別可能に表示する。
<Display section>
The display unit 5c is different from the display unit 5a in that only the contour points extracted by the extraction unit 3 are displayed. That is, since the outline display device 12 does not include the determination unit 4 or the advice unit 11, the display unit 5c does not display the determination result by the determination unit 4, advice for the user, or the like. However, the display unit 5c displays the contour point An extracted in the image A and the contour point Bn extracted in the image B so as to be distinguishable for the user, as described in the description of the display unit 5a.

〔〔動作例〕〕
図14は、輪郭表示装置12の動作例を示すフローチャートである。図14を用いて、輪郭表示装置12の動作例について説明する。
[[Operation example]]
FIG. 14 is a flowchart illustrating an operation example of the contour display device 12. An operation example of the contour display device 12 will be described with reference to FIG.

画像記憶部2に記憶される画像から、ユーザによって、比較する対象となる二つの画像が指定されると(S27)、抽出部3は、指定された二つの画像を読み出し、この二つの画像について顔輪郭抽出処理を開始する(S28)。S28における抽出部3の具体的な処理は、輪郭判断装置1aにおける抽出部3の処理と同じである。即ち、S28における処理の内容は、図8に示される通りである。S28における顔輪郭抽出処理の後、表示部5cは、その抽出結果を表示する(S29)。   When two images to be compared are designated by the user from the images stored in the image storage unit 2 (S27), the extraction unit 3 reads the two designated images, and the two images are read out. The face contour extraction process is started (S28). The specific processing of the extraction unit 3 in S28 is the same as the processing of the extraction unit 3 in the contour determination device 1a. That is, the contents of the processing in S28 are as shown in FIG. After the face contour extraction process in S28, the display unit 5c displays the extraction result (S29).

〔〔作用/効果〕〕
輪郭表示装置12では、画像Aと画像Bとについて、抽出部3による顔輪郭抽出処理の結果が表示部5cによって表示される。このとき、表示部5cは、画像Aにおける人の顔の輪郭と画像Bにおける人の顔の輪郭とを、ユーザにとって比較可能に、異なる表示形態で表示する。このため、ユーザは画像Aと画像Bとにおける顔の輪郭を客観的に確認することができ、どちらがどれだけ小さいか等を判断することができる。
[[Action / Effect]]
In the contour display device 12, the result of face contour extraction processing by the extraction unit 3 is displayed on the display unit 5c for the images A and B. At this time, the display unit 5c displays the outline of the person's face in the image A and the outline of the person's face in the image B in different display forms so that the user can compare. For this reason, the user can objectively confirm the outline of the face in the image A and the image B, and can determine which is smaller.

また、輪郭表示装置12は、判断部4に相当する機能部を備えない。このため、輪郭表示装置12では、輪郭比較処理が実行されない。従って、処理完了までの時間が削減される。さらに、輪郭判断装置1a,1b,1cに比べて設計に要する時間やコストを削減することが可能となる。   The contour display device 12 does not include a functional unit corresponding to the determination unit 4. For this reason, the contour display device 12 does not execute the contour comparison process. Therefore, the time until the process is completed is reduced. Furthermore, the time and cost required for the design can be reduced as compared with the contour determination devices 1a, 1b, and 1c.

〔〔変形例〕〕
輪郭表示装置12は、不図示のユーザインタフェースによって、ユーザが所望の輪郭点を入力可能に構成されても良い。この場合、抽出部3によって輪郭点の抽出が実施される画像は一つのみになる。このように構成された場合、ユーザは、例えば自身が希望する輪郭点(ダイエットの後にこうありたいとユーザが希望する顔の理想の輪郭)を入力できる。そして、ユーザは、自身が希望する輪郭点と、抽出部3によって実際の画像から抽出された輪郭点とを、表示画面上で比較することができる。例えば、抽出部3によって輪郭点の抽出が実施される画像として現在の自分の顔画像を選択・入力することにより、現在の自分の顔の輪郭が理想の輪郭に対してどれだけ近いかなどを客観的に判断することができる。
[[Modification]]
The contour display device 12 may be configured such that a user can input a desired contour point by a user interface (not shown). In this case, only one image is extracted from the contour point by the extraction unit 3. When configured in this manner, the user can input, for example, a contour point desired by the user (an ideal contour of the face that the user desires to be after the diet). Then, the user can compare the contour point desired by the user with the contour point extracted from the actual image by the extraction unit 3 on the display screen. For example, by selecting and inputting the current face image as an image on which contour points are extracted by the extraction unit 3, it is possible to determine how close the current face contour is to the ideal contour, etc. Judgment can be made objectively.

また、輪郭判断装置1aと同様に、輪郭抽出部8によって抽出される輪郭点は13点に限る必要はなく、いくつの輪郭点が抽出されても良い。   Similarly to the contour determination device 1a, the contour points extracted by the contour extracting unit 8 need not be limited to 13, and any number of contour points may be extracted.

また、輪郭判断装置1cは、表示部5cに代えて他の形態の出力装置を備えるように構成されても良い。このような出力装置の例として、プリンタ等の印刷装置などがある。   The contour determination device 1c may be configured to include another form of output device instead of the display unit 5c. An example of such an output device is a printing device such as a printer.

また、輪郭表示装置12は、輪郭判断装置1bのように、抽出結果記憶部9を備えるように構成されても良い。この場合、表示部5cは、表示すべき輪郭が抽出結果記憶部9に記憶されている場合は、抽出結果記憶部9から輪郭のデータを読み出し表示する。   Moreover, the outline display apparatus 12 may be comprised so that the extraction result storage part 9 may be provided like the outline determination apparatus 1b. In this case, when the contour to be displayed is stored in the extraction result storage unit 9, the display unit 5c reads out and displays the contour data from the extraction result storage unit 9.

輪郭判断装置の第一実施形態の機能ブロックを示す図である。It is a figure which shows the functional block of 1st embodiment of an outline determination apparatus. 抽出部の機能ブロックを示す図である。It is a figure which shows the functional block of an extraction part. 検出された顔が正面顔であるか否かの判断処理を説明するための図である。It is a figure for demonstrating the judgment process whether the detected face is a front face. 輪郭抽出部の処理結果の例を示す図である。It is a figure which shows the example of the process result of an outline extraction part. 判断部における処理の内容を示す図である。It is a figure which shows the content of the process in a judgment part. 表示部による表示例を示す図である。It is a figure which shows the example of a display by a display part. 輪郭判断装置の第一実施形態の動作例を示すフローチャートである。It is a flowchart which shows the operation example of 1st embodiment of a contour judgment apparatus. 抽出部による顔輪郭抽出処理の例を示すフローチャートである。It is a flowchart which shows the example of the face outline extraction process by an extraction part. 判断部による顔輪郭比較処理の例を示すフローチャートである。It is a flowchart which shows the example of the face outline comparison process by a judgment part. 輪郭判断装置の第二実施形態の機能ブロックを示す図である。It is a figure which shows the functional block of 2nd embodiment of an outline determination apparatus. 輪郭判断装置の第二実施形態の動作例を示すフローチャートである。It is a flowchart which shows the operation example of 2nd embodiment of a contour judgment apparatus. 輪郭判断装置の第三実施形態の機能ブロックを示す図である。It is a figure which shows the functional block of 3rd embodiment of an outline determination apparatus. 輪郭表示装置の機能ブロックを示す図である。It is a figure which shows the functional block of an outline display apparatus. 輪郭表示装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of an outline display apparatus.

符号の説明Explanation of symbols

1a,1b,1c 輪郭判断装置
2 画像記憶部
3 抽出部
4 判断部
5a,5b,5c 表示部
6 検出部
7 正規化部
8 輪郭抽出部
9 抽出結果記憶部
10 指定部
11 アドバイス部
12 輪郭表示装置
1a, 1b, 1c Contour determination device 2 Image storage unit 3 Extraction unit 4 Determination unit 5a, 5b, 5c Display unit 6 Detection unit 7 Normalization unit 8 Contour extraction unit 9 Extraction result storage unit 10 Designation unit 11 Advice unit 12 Contour display apparatus

Claims (9)

人の顔が撮像された顔画像から、前記人の顔の輪郭上に位置する点を輪郭点として抽出する抽出手段と、
第一の顔画像について抽出された複数の第一の輪郭と第二の顔画像について抽出された複数の第二の輪郭とを比較し、第一の顔画像と第二の顔画像との輪郭の大きさについて判断する判断手段とを備え、
前記判断手段は、
前記複数の第一の輪郭点と前記複数の第二の輪郭点の間の対応付けを行い、
対応する第一の輪郭点と第二の輪郭点の2つの輪郭点について、顔に含まれる所定の基準要素から各輪郭点までの距離を比較することにより、いずれの輪郭点が顔の内側に位置するかを判定し、
顔の内側に位置すると判定された数が第一の輪郭点のほうが多い場合は、前記第一の顔画像の輪郭が前記第二の顔画像の輪郭よりも小さいと判断し、
顔の内側に位置すると判定された数が第二の輪郭点のほうが多い場合は、前記第一の顔画像の輪郭が前記第二の顔画像の輪郭よりも大きいと判断する
輪郭判断装置。
Extraction means for extracting a point located on the contour of the person's face as a contour point from a face image obtained by imaging a human face;
A plurality of first contour points extracted for the first face image and a plurality of second contour points extracted for the second face image are compared, and the first face image and the second face image and a determination means for determining the size of the contour,
The determination means includes
Performing an association between the plurality of first contour points and the plurality of second contour points;
By comparing the distance from a predetermined reference element included in the face to each contour point for the corresponding two contour points, the first contour point and the second contour point, which contour point is located inside the face Determine if it is located,
If the number of first contour points determined to be located inside the face is larger than the first contour point, it is determined that the contour of the first face image is smaller than the contour of the second face image;
If the number of the second contour points determined to be located inside the face is larger than that of the second face image, it is determined that the contour of the first face image is larger than the contour of the second face image. Judgment device.
前記判断手段による判断結果に基づいて、ユーザに対するアドバイスを行うアドバイス手段をさらに含む請求項1に記載の輪郭判断装置。 The contour determination apparatus according to claim 1, further comprising advice means for giving advice to a user based on a determination result by the determination means. ユーザが希望する顔の輪郭を入力することを可能とする入力手段をさらに備え、
前記判断手段は、前記入力された顔画像について抽出された輪郭と、前記入力手段によって入力された輪郭とについて判断を行う
請求項1〜のいずれかに記載の輪郭判断装置。
It further comprises an input means that allows a user to input a desired facial contour,
The determining means includes a contour which is extracted for the input facial image, the outline determination apparatus according to any one of claims 1 to 2 for determining the the inputted contour by said input means.
前記抽出手段は、
第一の顔画像及び第二の顔画像のそれぞれについて、第一の顔要素と第二の顔要素とを検出する検出手段と、
前記第一の顔画像及び第二の顔画像それぞれにおける前記第一の顔要素と前記第二の顔要
素の画像中の位置に基づいて、画像変換を行うことにより両画像における顔画像の条件を一致させる正規化手段と、
前記正規化手段による画像変換後の第一の顔画像及び第二の顔画像から、人の顔の輪郭を抽出する輪郭抽出手段と
を含む、請求項1〜のいずれかに記載の輪郭判断装置。
The extraction means includes
Detecting means for detecting the first face element and the second face element for each of the first face image and the second face image;
By performing image conversion based on the positions of the first face element and the second face element in the first face image and the second face image, respectively, the condition of the face image in both images is set. A normalization means to match,
The contour determination according to any one of claims 1 to 3 , further comprising contour extracting means for extracting a contour of a human face from the first face image and the second face image after image conversion by the normalizing means. apparatus.
一の顔画像について抽出された複数の第一の輪郭点で構成される第一の顔画像の輪郭と、第二の顔画像について抽出された複数の第二の輪郭点で構成される第二の顔画像の輪郭とを、比較可能に表示する表示手段
を含む、請求項1〜4のいずれかに記載の輪郭判断装置
A first face image composed of a plurality of first contour points extracted for the first face image and a second contour point composed of a plurality of second contour points extracted for the second face image . Display means for displaying the contour of the second face image in a comparable manner
The contour determination apparatus according to claim 1, comprising:
人の顔が撮像された顔画像から、前記人の顔の輪郭上に位置する点を輪郭点として抽出するステップと、
第一の顔画像について抽出された複数の第一の輪郭と第二の顔画像について抽出された複数の第二の輪郭とを比較し、第一の顔画像と第二の顔画像との輪郭の大きさについて判断するステップと
を情報処理装置に実行させるためのプログラムであって、
前記判断するステップは、
前記複数の第一の輪郭点と前記複数の第二の輪郭点の間の対応付けを行い、
対応する第一の輪郭点と第二の輪郭点の2つの輪郭点について、顔に含まれる所定の基準要素から各輪郭点までの距離を比較することにより、いずれの輪郭点が顔の内側に位置するかを判定し、
顔の内側に位置すると判定された数が第一の輪郭点のほうが多い場合は、前記第一の顔画像の輪郭が前記第二の顔画像の輪郭よりも小さいと判断し、
顔の内側に位置すると判定された数が第二の輪郭点のほうが多い場合は、前記第一の顔画像の輪郭が前記第二の顔画像の輪郭よりも大きいと判断するステップであることを特徴とするプログラム
Extracting a point located on the contour of the person's face as a contour point from a face image obtained by capturing the human face;
A plurality of first contour points extracted for the first face image and a plurality of second contour points extracted for the second face image are compared, and the first face image and the second face image and determining the size of the contour a program to be executed by the information processing apparatus,
The step of determining includes
Performing an association between the plurality of first contour points and the plurality of second contour points;
By comparing the distance from a predetermined reference element included in the face to each contour point for the corresponding two contour points, the first contour point and the second contour point, which contour point is located inside the face Determine if it is located,
If the number of first contour points determined to be located inside the face is larger than the first contour point, it is determined that the contour of the first face image is smaller than the contour of the second face image;
When the number determined to be located inside the face is larger in the second contour point, the step is to determine that the contour of the first face image is larger than the contour of the second face image. A featured program .
さらに、第一の顔画像について抽出された複数の第一の輪郭点で構成される第一の顔画像の輪郭と、第二の顔画像について抽出された複数の第二の輪郭点で構成される第二の顔画像の輪郭とを、比較可能に表示するステッ
を情報処理装置に実行させるための請求項6に記載のプログラム。
Furthermore, it is composed of a contour of the first face image composed of a plurality of first contour points extracted for the first face image and a plurality of second contour points extracted for the second face image. second and outline of the face image, the program according to claim 6 for performing the steps <br/> that comparably displayed on the information processing apparatus that.
情報処理装置が、人の顔が撮像された顔画像から、前記人の顔の輪郭上に位置する点を輪郭点として抽出するステップと、
情報処理装置が、第一の顔画像について抽出された複数の第一の輪郭と第二の顔画像について抽出された複数の第二の輪郭とを比較し、第一の顔画像と第二の顔画像との輪郭の大きさについて判断するステップとを含み、
前記判断するステップは、
前記複数の第一の輪郭点と前記複数の第二の輪郭点の間の対応付けを行い、
対応する第一の輪郭点と第二の輪郭点の2つの輪郭点について、顔に含まれる所定の基準要素から各輪郭点までの距離を比較することにより、いずれの輪郭点が顔の内側に位置するかを判定し、
顔の内側に位置すると判定された数が第一の輪郭点のほうが多い場合は、前記第一の顔画像の輪郭が前記第二の顔画像の輪郭よりも小さいと判断し、
顔の内側に位置すると判定された数が第二の輪郭点のほうが多い場合は、前記第一の顔画像の輪郭が前記第二の顔画像の輪郭よりも大きいと判断するステップであることを特徴とする輪郭判断方法。
An information processing device extracting, as a contour point, a point located on the contour of the human face from a face image obtained by capturing a human face;
The information processing apparatus compares the plurality of second contour points extracted for a plurality of first contour points extracted for the first face image and the second face image, and the first face image No. Determining the size of the contour between the second face image ,
The step of determining includes
Performing an association between the plurality of first contour points and the plurality of second contour points;
By comparing the distance from a predetermined reference element included in the face to each contour point for the corresponding two contour points, the first contour point and the second contour point, which contour point is located inside the face Determine if it is located,
If the number of first contour points determined to be located inside the face is larger than the first contour point, it is determined that the contour of the first face image is smaller than the contour of the second face image;
When the number determined to be located inside the face is larger in the second contour point, the step is to determine that the contour of the first face image is larger than the contour of the second face image. A characteristic contour determination method.
報処理装置が、第一の顔画像について抽出された複数の第一の輪郭点で構成される第
一の顔画像の輪郭と、第二の顔画像について抽出された複数の第二の輪郭点で構成される第二の顔画像の輪郭とを、比較可能に表示するステッ
を含む請求項8に記載の輪郭判断方法
Information processing device, first constituted by a plurality of first contour points extracted for the first face image
The contour of one face image, and the contour of the second face image composed of a plurality of second contour points extracted for a second face image, the steps <br/> that comparably displayed The contour judging method according to claim 8 including.
JP2003374652A 2003-11-04 2003-11-04 Outline determination apparatus and outline determination method Expired - Fee Related JP4345440B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003374652A JP4345440B2 (en) 2003-11-04 2003-11-04 Outline determination apparatus and outline determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003374652A JP4345440B2 (en) 2003-11-04 2003-11-04 Outline determination apparatus and outline determination method

Publications (2)

Publication Number Publication Date
JP2005141318A JP2005141318A (en) 2005-06-02
JP4345440B2 true JP4345440B2 (en) 2009-10-14

Family

ID=34686304

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003374652A Expired - Fee Related JP4345440B2 (en) 2003-11-04 2003-11-04 Outline determination apparatus and outline determination method

Country Status (1)

Country Link
JP (1) JP4345440B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008191816A (en) * 2007-02-02 2008-08-21 Sony Corp Image processor, image processing method, and computer program
JP2009123101A (en) * 2007-11-16 2009-06-04 Seiko Epson Corp Estimation of face image direction
KR101331667B1 (en) 2011-12-13 2013-11-20 한국 한의학 연구원 Apparatus and method for classifying body mass index by using facial characteristic information

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60122107U (en) * 1984-01-26 1985-08-17 竹内 久知 Human body parts comparison standard paper
JP3799633B2 (en) * 1995-06-16 2006-07-19 セイコーエプソン株式会社 Face image processing method and face image processing apparatus
JP3279913B2 (en) * 1996-03-18 2002-04-30 株式会社東芝 Person authentication device, feature point extraction device, and feature point extraction method
JPH11164965A (en) * 1997-12-04 1999-06-22 Naoki Harigai Appearance evaluating device and device for outputting fortune data from the evaluation
JP3828285B2 (en) * 1998-06-18 2006-10-04 株式会社資生堂 Face recognition system
JP2001209817A (en) * 2000-01-27 2001-08-03 Fujimikku:Kk Method and device for correcting face image
JP2004120377A (en) * 2002-09-26 2004-04-15 Nikon Corp Picture display device and method for utilizing picture display system

Also Published As

Publication number Publication date
JP2005141318A (en) 2005-06-02

Similar Documents

Publication Publication Date Title
US11775056B2 (en) System and method using machine learning for iris tracking, measurement, and simulation
CN106056064B (en) A kind of face identification method and face identification device
CN109952594B (en) Image processing method, device, terminal and storage medium
JP6685827B2 (en) Image processing apparatus, image processing method and program
JP4406547B2 (en) ID card creation device, ID card, face authentication terminal device, face authentication device and system
JP4950787B2 (en) Image processing apparatus and method
US8116517B2 (en) Action analysis apparatus
JP2007213378A (en) Method for detecting face of specific expression, imaging control method, device and program
JP2005339522A (en) Method for automatically identifying hair region
CN109937434B (en) Image processing method, device, terminal and storage medium
WO2001015086A1 (en) Image processor, image processing method, and recorded medium
JP3454726B2 (en) Face orientation detection method and apparatus
JP6969878B2 (en) Discriminator learning device and discriminator learning method
JP2020057275A (en) Biometric authentication system, biometric authentication method and program
KR102364929B1 (en) Electronic device, sever, and system for tracking skin changes
JP2007052575A (en) Metadata applying device and metadata applying method
JP2015197708A (en) Object identification device, object identification method, and program
JP2005275935A (en) Terminal device
JP2019046239A (en) Image processing apparatus, image processing method, program, and image data for synthesis
JP3970573B2 (en) Facial image recognition apparatus and method
JP4345440B2 (en) Outline determination apparatus and outline determination method
JP6741270B2 (en) Image processing apparatus, image processing method, and image processing program
JP6098133B2 (en) Face component extraction device, face component extraction method and program
CA3187876A1 (en) System and method for automatic personalized assessment of human body surface conditions
JP2005242535A (en) Image correction device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090331

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090623

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090706

R150 Certificate of patent or registration of utility model

Ref document number: 4345440

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120724

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130724

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees