JP2005165984A - Method, system and program for detecting vertex of human face - Google Patents

Method, system and program for detecting vertex of human face Download PDF

Info

Publication number
JP2005165984A
JP2005165984A JP2003407912A JP2003407912A JP2005165984A JP 2005165984 A JP2005165984 A JP 2005165984A JP 2003407912 A JP2003407912 A JP 2003407912A JP 2003407912 A JP2003407912 A JP 2003407912A JP 2005165984 A JP2005165984 A JP 2005165984A
Authority
JP
Japan
Prior art keywords
image
face
image feature
head
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003407912A
Other languages
Japanese (ja)
Inventor
Toshinori Nagahashi
敏則 長橋
Takashi Hiuga
崇 日向
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2003407912A priority Critical patent/JP2005165984A/en
Priority to US11/004,649 priority patent/US7460705B2/en
Priority to PCT/JP2004/018449 priority patent/WO2005055143A1/en
Publication of JP2005165984A publication Critical patent/JP2005165984A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Abstract

<P>PROBLEM TO BE SOLVED: To provide a new method, system and program for detecting a top of head in a robust way by detecting the boundary between the top of head and its background with precision and high speed. <P>SOLUTION: The method for detecting the top of head of the human face from within an image containing the human face includes detecting the human face, setting a crown detection window at the top of the human face, calculating the feature quantity of the image within the top of head detection window vertically, and setting a position where the feature quantity varies beyond a threshold as the top of head of the human face. Thus, the top of head of the human face can be detected with precision and high speed. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、パターン認識(Pattern recognition)やオブジェクト認識技術に係り、特に人物の顔が写っている顔画像の中から当該人物顔の頭頂部を的確に検出するための顔画像中の頭頂部検出方法及び頭頂部検出システム並びに頭頂部検出プログラムに関するものである。   The present invention relates to pattern recognition and object recognition technology, and in particular, detection of the top of a face in a face image for accurately detecting the top of the person's face from a face image in which the face of the person is reflected. The present invention relates to a method, a parietal detection system, and a parietal detection program.

近年のパターン認識技術やコンピュータ等の情報処理装置の高性能化に伴って文字や音声の認識精度は飛躍的に向上してきているが、人物や物体・景色等が映っている画像、例えば、ディジタルスチルカメラ等によって取り込まれた画像のパターン認識のうち、特にその画像中に人の顔が映っているか否かを正確且つ高速に識別するといった点に関しては未だに極めて困難な作業であることが知られている。   With recent advances in pattern recognition technology and information processing devices such as computers, the recognition accuracy of characters and voices has improved dramatically, but images that show people, objects, and scenery, such as digital Of the pattern recognition of images captured by still cameras, etc., it is still known that it is still a very difficult task, especially in terms of accurately and quickly identifying whether a human face is reflected in the image. ing.

しかしながら、このように画像中に人の顔が映っているか否か、さらにはその人物が誰であるのかをコンピュータ等によって自動的に正確に識別することは、生体認識技術の確立やセキュリティの向上、犯罪捜査の迅速化、画像データの整理・検索作業の高速化等を実現する上で極めて重要なテーマとなってきており、このようなテーマに関しては従来から多くの提案がなされている。   However, automatic identification of whether or not a person's face is reflected in the image, and who the person is, by using a computer or the like, establishes biometric recognition technology and improves security. It has become an extremely important theme for speeding up crime investigations, organizing image data and speeding up search operations, and many proposals have been made on such themes.

例えば、以下の特許文献1等では、ある入力画像について、先ず、人物肌色領域の有無を判定し、人物肌色領域に対して自動的にモザイクサイズを決定し、候補領域をモザイク化し、人物顔辞書との距離を計算することにより人物顔の有無を判定し、人物顔の切り出しを行うことによって、背景等の影響による誤抽出を減らし、効率的に画像中から人間の顔を自動的に見つけるようにしている。   For example, in the following Patent Document 1 or the like, for a certain input image, first, the presence / absence of a human skin color area is determined, a mosaic size is automatically determined for the human skin color area, the candidate areas are mosaicked, and the human face dictionary By calculating the distance to the image, the presence or absence of a human face is determined, and the human face is cut out to reduce false extraction due to the influence of the background, etc., and to efficiently find the human face in the image efficiently I have to.

また、以下の特許文献2等では、各個人やグループ(例えば、人種グループ)を区別するために用いる顔画像の特徴点抽出を所定のアルゴリズムを利用することで自動的に高速且つ簡便に実施するようにしている。
特開平9−50528号公報 特開平8−77334号公報
Further, in the following Patent Document 2, etc., feature point extraction of a face image used for distinguishing each individual or group (for example, racial group) is automatically performed at high speed and simply by using a predetermined algorithm. Like to do.
Japanese Patent Laid-Open No. 9-50528 JP-A-8-77334

ところで、パスポートや身分証明書等に不可欠な人物の顔写真(顔画像)は、そのサイズや人物の顔の向きや大きさ、位置等が細かく設定されている場合が多い。
例えば、無背景で、且つ帽子等のアクセサリーを身に付けないといった条件はいうまでもなく、写っている人物の顔が正面を向いていることや、人物顔が写真の中央にあること、写っている顔の頭頂部の位置が写真の上の枠から一定の距離にあること、…等が事細かく規定されており、原則としてその規格から外れる写真(顔画像)は採用されない。
By the way, in many cases, a face photograph (face image) of a person indispensable for a passport, an identification card, or the like is finely set in size, direction, size, position, etc. of the person's face.
For example, it goes without saying that there is no background and that you do not wear accessories such as a hat, and that the person's face is facing the front, that the person's face is in the center of the photo, The position of the top of the face being at a certain distance from the upper frame of the photo, etc. are stipulated in detail, and as a rule, photos (face images) that deviate from the standard are not adopted.

しかしながら、人物顔が正面を向いていなかったり、帽子等のアクセサリーを身に付けている等といった理由であればともかく、単に写っている顔の大きさや位置が他方ずれているという理由だけで、再度撮影し直さなければならないのは不合理であり、利用者に対して著しい労力やコストを強いるといった問題点がある。
そのため、近年発達が著しい技術分野であるディジタル画像処理技術を利用して、前記のような問題点を解決する方法が検討されている。
However, the person's face is not facing the front or wearing an accessory such as a hat, but the size and position of the face is simply shifted again, It is unreasonable to have to re-shoot, and there is a problem in that it requires significant effort and cost to the user.
For this reason, methods for solving the above-described problems using digital image processing technology, which is a technological field that has been remarkably developed in recent years, have been studied.

例えば、必要とする人物の顔画像を、CCDやCMOS等の電子撮像素子を用いたディジタルスチルカメラ等によって直接ディジタル画像データとして取得、あるいは予め人物顔が撮影されたアナログ写真(銀塩写真)をスキャナ等の電子光学画像読取装置を利用してディジタル画像データとして取得し、このディジタル画像データをPC等の汎用のコンピュータと汎用のソフトウェアからなる画像処理システムを利用してその人物本来の顔の特徴を損なうことなく、適宜、その顔画像を拡大、縮小、移動等の簡単な画像処理を施すことで前記問題を解決することが考えられている。   For example, a necessary person's face image is directly acquired as digital image data by a digital still camera using an electronic image sensor such as a CCD or CMOS, or an analog photograph (silver salt photograph) in which a person's face is photographed in advance. The digital image data is obtained as digital image data using an electro-optical image reading device such as a scanner, and this digital image data is obtained by using an image processing system including a general-purpose computer such as a PC and general-purpose software. It is considered to solve the above problem by performing simple image processing such as enlargement, reduction, and movement of the face image as appropriate without impairing the image quality.

一方、このような処理対象となる画像の数が少なければ、その処理操作は、マウスやキーボード、モニタ等の汎用の入出力装置を用いて人間が直接実施することも可能であるが、その数が膨大な場合には、前記のような従来技術を利用してその処理を自動的に行う必要が生じてくる。
しかしながら、このように人物顔の画像処理の自動化を実現するためには、顔の輪郭、特に人物顔の頭頂部の位置を正確に認識する必要があるが、人物の頭頂部は、その人物のヘアースタイルや撮影時の照明条件、その他の条件によって一般的には必ずしも明瞭な境界を持たないため、従来のエッジ検出フィルター等では明確に読み取れないことが多いため、自動的にその部分を認識することは難しい。
On the other hand, if the number of images to be processed is small, the processing operation can be performed directly by a human using a general-purpose input / output device such as a mouse, a keyboard, or a monitor. Is enormous, it becomes necessary to perform the processing automatically using the conventional technique as described above.
However, in order to realize automation of human face image processing in this way, it is necessary to accurately recognize the contour of the face, particularly the position of the top of the person's face. Generally, it does not always have a clear boundary depending on the hair style, lighting conditions at the time of shooting, and other conditions, so it is often impossible to read clearly with a conventional edge detection filter, etc., so that part is automatically recognized. It ’s difficult.

そこで、本発明はこのような課題を有効に解決するために案出されたものであり、その目的は、エッジ検出では自動的に認識し難い人物顔の頭頂部を的確、且つ高速に検出してロバスト(Robust:頑健)な人物顔の頭頂部検出を行うことができる新規な顔画像中の頭頂部検出方法及び頭頂部検出システム並びに頭頂部検出プログラムを提供するものである。   Therefore, the present invention has been devised in order to effectively solve such problems, and its purpose is to accurately and rapidly detect the top of a human face that is difficult to recognize automatically by edge detection. The present invention provides a novel method for detecting the top of the head of a face image, a system for detecting the top of the head, and a program for detecting the top of the head, which can detect the top of a human face that is robust.

〔発明1〕
上記課題を解決するために発明1の人物顔画像中の頭頂部検出方法は、
人物顔が含まれる画像中から当該人物顔の頭頂部を検出する方法であって、前記人物顔の頭頂部を含まない範囲の顔画像を検出して、検出した当該顔画像の上部に前記人物顔の頭頂部が含まれる大きさの頭頂部検出窓を設定した後、当該頭頂部検出窓内の画像特徴量を垂直方向に算出し、その画像特徴量が閾値以上に変化する位置を前記人物顔の頭頂部とするようにしたことを特徴とするものである。
[Invention 1]
In order to solve the above-described problem, a method for detecting the top of a person's face image according to the first aspect of the present invention includes:
A method for detecting a top of a person's face from an image including a person's face, wherein a face image in a range not including the top of the person's face is detected, and the person is positioned above the detected face image. After setting the top detection window having a size that includes the top of the face, the image feature amount in the top detection window is calculated in the vertical direction, and the position where the image feature amount changes to a threshold value or more is calculated. It is characterized by the fact that it is the top of the face.

このように本発明は、顔検出枠を利用して人物顔の頭頂部が含まれる可能性が極めて高い領域を選択し、その部分に頭頂部検出窓を設定した後、この頭頂部検出窓内の画像特徴量を求め、その画像特徴量の変化に基づいて人物顔の頭頂部を検出するようにしたものである。
すなわち、人物顔の頭頂部とその背景は、画像特徴量が大きく変化していることが一般的であるため、その頭頂部検出窓内の画像特徴量の変化を求めることでその頭頂部検出窓内に含まれている筈の頭頂部を容易且つ確実に検出することができる。
As described above, the present invention uses the face detection frame to select a region that is very likely to include the top of the person's face, and after setting a top detection window for that portion, Image feature amount is obtained, and the top of the human face is detected based on the change in the image feature amount.
In other words, since the image feature amount of the top of the person's face and the background generally changes greatly, the change in the image feature in the top detection window is obtained to obtain the top detection window. It is possible to easily and reliably detect the top of the heel included therein.

〔発明2〕
発明2の人物顔の頭頂部検出方法は、
発明1に記載の頭頂部検出方法において、前記画像特徴量として輝度の大きさを用いるようにしたことを特徴とするものである。
すなわち、証明写真用の顔画像は無帽状態であって、その頭部は黒色あるいは栗色等のダーク系の頭髪で覆われている場合が殆どであるため、その頭部を構成する領域の画素の輝度と背景の輝度値とは大きく異なると考えることができる。つまり、背景と頭頂部との境界部分で輝度が急激に変化することになる。
[Invention 2]
The method of detecting the top of the human face of the invention 2 includes:
In the head top detection method according to the first aspect of the invention, the magnitude of luminance is used as the image feature amount.
That is, the face image for the ID photo is in a capless state, and its head is mostly covered with dark hair such as black or maroon. It can be considered that the luminance value of the image and the luminance value of the background are greatly different. That is, the luminance changes abruptly at the boundary between the background and the top of the head.

従って、頭頂部と背景とを区別するための画像特徴量としてこのようにその領域によって顕著に異なる画素の輝度を利用すれば、その人物顔の頭頂部を容易且つ確実に検出することが可能となる。
〔発明3〕
発明3の人物顔の頭頂部検出方法は、
発明1に記載の頭頂部検出方法において、前記画像特徴量として色相角の大きさを用いるようにしたことを特徴とするものである。
Therefore, by using the luminance of the pixel that is remarkably different depending on the region as an image feature amount for distinguishing the top from the background, it is possible to easily and reliably detect the top of the human face. Become.
[Invention 3]
The method of detecting the top of the human face of the invention 3
In the head top detection method according to the first aspect of the present invention, a hue angle is used as the image feature amount.

すなわち、上記発明2は人物の頭髪の色は黒色あるいは栗色等のダーク系のものであることを前提としてなされたものであるが、人種や加齢による頭髪の色の違いや変化、あるいは染毛等によってその色はダーク系のみならず、自然に発生しないようなあらゆる色が存在する。そして、このようにダーク系以外の色の頭髪の中には、その輝度が背景とほぼ同じ(例えば、金髪)であって、輝度に基づいた画像特徴量に大きな変化が得られない場合がある。   That is, the above invention 2 is made on the assumption that the hair color of a person is dark, such as black or maroon, but the color difference or change of the hair due to race or aging, or dyeing. Depending on the hair, the color is not only dark but also any color that does not occur naturally. Further, in some hairs of a color other than dark, the luminance is almost the same as the background (for example, blond hair), and there is a case where a large change cannot be obtained in the image feature amount based on the luminance. .

そのため、本発明では、画像特徴量として色相角の大きさを利用するようにしたものであり、これによって背景の輝度を頭頂部の輝度に大きな違いが見られない場合であってもその色相角の違いによる画像特徴量の変化を求めることで人物顔の頭頂部を容易且つ確実に検出することができる。
〔発明4〕
発明4の人物顔の頭頂部検出方法は、
発明1〜3のいずれかに記載の頭頂部検出方法において、前記画像特徴量は、前記頭頂部検出窓内の水平方向の平均値を用いるようにしたことを特徴とするものである。
For this reason, in the present invention, the magnitude of the hue angle is used as the image feature amount, and even if the luminance of the background does not show a large difference in the luminance of the top, the hue angle is thus determined. By obtaining the change in the image feature amount due to the difference in the head, the top of the human face can be detected easily and reliably.
[Invention 4]
The method of detecting the top of the human face of the invention 4 includes:
In the parietal detection method according to any one of the first to third aspects, the image feature value is an average value in a horizontal direction within the parietal detection window.

これによって、仮に画像上のノイズや原画像の汚れ等によって一部の画素の特徴量がその近傍の画素の特徴量と大きく異なるような場合が発生しても、その部分で特徴量が急に変化することを回避できるため、そのようなノイズ部分等を頭頂部と誤検出するようなことがなくなって的確な頭頂部検出を行うことができる。
〔発明5〕
発明5の人物顔の頭頂部検出方法は、
発明1〜4のいずれかに記載の頭頂部検出方法において、前記画像特徴量は、輝度又は色相角のいずれか又は両方を使用する画像に応じて自動的に切り替えることを特徴とするものである。
As a result, even if there is a case where the feature quantity of a part of a pixel is significantly different from the feature quantity of a neighboring pixel due to noise on the image or contamination of the original image, the feature quantity suddenly changes in that part. Since it is possible to avoid the change, such a noise portion or the like is not erroneously detected as the top of the head, and accurate head top detection can be performed.
[Invention 5]
The method of detecting the top of the human face of the invention 5 includes:
In the method for detecting the top of the head according to any one of the first to fourth aspects, the image feature amount is automatically switched according to an image using either or both of luminance and hue angle. .

これによって、発明4と同様に画像上のノイズや原画像の汚れ等に起因する画像特徴量の急激な変化を回避して的確な頭頂部検出を行うことができる。
〔発明6〕
発明6の人物顔の頭頂部検出方法は、
発明1〜5に記載の頭頂部検出方法において、前記頭頂部検出窓としては、矩形状であって、その幅及び高さが前記人物顔の顔幅よりも幅広のものを用いるようにしたことを特徴とするものである。
As a result, similar to the fourth aspect, it is possible to avoid an abrupt change in the image feature amount due to noise on the image, contamination of the original image, or the like, and perform accurate head detection.
[Invention 6]
The method of detecting the top of the human face of the invention 6
In the method for detecting the top of the head according to any one of the first to fifth aspects of the present invention, the top detection window has a rectangular shape and has a width and height wider than the face width of the human face. It is characterized by.

これによって、検出対象となる当該人物顔の頭頂部を頭頂部検出窓内に確実に捉えることができるため、頭頂部の検出を確実に行うことができる。
〔発明7〕
発明7の人物顔の頭頂部検出システムは、
人物顔が含まれる画像中から当該人物顔の頭頂部を検出するシステムであって、前記人物顔が含まれる画像を読み取る画像読取手段と、当該画像読取手段で読み取った画像中から人物顔の頭頂部を含まない範囲の顔画像を検出して、検出した範囲に顔検出枠を設定する顔検出手段と、当該顔検出枠の上部に前記人物顔の頭頂部が含まれる大きさの頭頂部検出窓を設定する頭頂部検出窓設定手段と、当該頭頂部検出窓内の画像特徴量を垂直方向に算出する画像特徴量算出手段と、当該画像特徴量算出手段で算出された画像特徴量が閾値以上に変化する位置を前記人物顔の頭頂部とする頭頂部検出手段と、を備えたことを特徴とするものである。
Accordingly, the top of the person's face to be detected can be reliably captured in the top of the head detection window, so that the top of the head can be reliably detected.
[Invention 7]
The human face top detection system of the invention 7
A system for detecting the top of a person's face from an image including a person's face, the image reading means for reading the image including the person's face, and the head of the person's face from the image read by the image reading means Face detection means for detecting a face image in a range not including the top and setting a face detection frame in the detected range, and detection of the top of the head that includes the top of the human face above the face detection frame A vertex detection window setting means for setting a window, an image feature quantity calculation means for calculating an image feature quantity in the vertex detection window in the vertical direction, and an image feature quantity calculated by the image feature quantity calculation means is a threshold value. And a head top detection means for setting the position changing as described above to the head top of the human face.

これによって、発明1と同様にさらに人物顔の頭頂部の検出を的確、且つ高速に行うことができると共にこれら各手段を専用のハードウェアやコンピュータシステムを利用して実現することで頭頂部検出を自動化することが可能となる。
〔発明8〕
発明8の人物顔画像中の頭頂部検出システムは、
発明7に記載の人物顔の頭頂部検出システムにおいて、前記画像特徴量算出手段は、各画素の輝度を画像特徴量として算出する輝度算出部と、各画素の色相角を画像特徴量として算出する色相角算出部と、これらいずれかの画像特徴量を選択する画像特徴量選択部と、を備えたことを特徴とするものである。
As a result, the top of the head of the human face can be detected accurately and at high speed as in the first aspect of the present invention, and the top of the head can be detected by realizing each of these means by using dedicated hardware or a computer system. It becomes possible to automate.
[Invention 8]
The head part detection system in the human face image of the invention 8 is,
In the human face head top detection system according to a seventh aspect of the invention, the image feature amount calculation means calculates a luminance calculation unit that calculates the luminance of each pixel as an image feature amount, and calculates the hue angle of each pixel as an image feature amount. A hue angle calculation unit and an image feature amount selection unit that selects any one of these image feature amounts are provided.

すなわち、発明2,3に示したように、その画像特徴量は輝度のみ、あるいは色相角のみでは的確に把握することができない場合があることから、本発明では輝度及び色相角をそれぞれ算出する手段を設け、画像特徴量選択部によってこれらいずれかの手段で算出された画像特徴のうち最適な方を選択するようにしたものである。
これによって、人物顔の頭髪の色に拘わらず、最適な画像特徴量を算出して頭頂部検出を常に的確に実施することができる。
That is, as shown in the inventions 2 and 3, since the image feature amount may not be accurately grasped only by the luminance or only by the hue angle, in the present invention, means for calculating the luminance and the hue angle respectively. The image feature quantity selection unit selects an optimum one of the image features calculated by any one of these means.
As a result, regardless of the hair color of the person's face, it is possible to always calculate the optimal image feature amount and accurately detect the top of the head.

〔発明9〕
発明9の人物顔の頭頂部検出システムは、
発明7又は8に記載の人物顔の頭頂部検出システムにおいて、前記頭頂部検出手段は、前記画像特徴量の閾値を設定する閾値設定部と、前記頭頂部検出窓内の水平方向の画像特徴量の平均を求める平均値算出部と、のいずれか一方あるいは両方を備えたことを特徴とするものである。
[Invention 9]
The human face top detection system of the invention 9
In the human face head top detection system according to the seventh or eighth aspect, the head head detection means includes a threshold value setting unit for setting a threshold value of the image feature value, and a horizontal image feature value in the head head detection window. One or both of an average value calculation unit for obtaining the average of the above and the like are provided.

これによって、発明4と同様に仮に画像上のノイズや原画像の汚れ等によって一部の画素の特徴量がその近傍の画素の特徴量と大きく異なるような場合が発生しても、その部分で特徴量が急に変化することを回避できるため、そのようなノイズ部分等を頭頂部と誤検出するようなことがなくなって的確な頭頂部検出を行うことができる。
〔発明10〕
発明10の人物顔画像中の頭頂部検出プログラムは、
人物顔が含まれる画像中から当該人物顔の頭頂部を検出するプログラムであって、前記人物顔が含まれる画像を読み取る画像読取手段と、当該画像読取手段で読み取った画像中から人物顔の頭頂部を含まない範囲の顔画像を検出して、検出した範囲に顔検出枠を設定する顔検出手段と、当該顔検出枠の上部に前記人物顔の頭頂部が含まれる大きさの頭頂部検出窓を設定する頭頂部検出窓設定手段と、当該頭頂部検出窓内の画像特徴量を垂直方向に算出する画像特徴量算出手段と、当該画像特徴量算出手段で算出された画像特徴量が閾値以上に変化する位置を前記人物顔の頭頂部とする頭頂部検出手段と、をコンピュータに実現させることを特徴とするものである。
As a result, even if the feature amount of a part of a pixel is significantly different from the feature amount of a neighboring pixel due to noise on the image or contamination of the original image as in the fourth aspect, Since it is possible to avoid a sudden change in the feature amount, such a noise portion or the like is not erroneously detected as the top of the head, and accurate top detection can be performed.
[Invention 10]
The vertex detection program in the human face image of the invention 10 is
A program for detecting the top of a person's face from an image including a person's face, the image reading means for reading the image including the person's face, and the head of the person's face from the image read by the image reading means Face detection means for detecting a face image in a range not including the top and setting a face detection frame in the detected range, and detection of the top of the head that includes the top of the human face above the face detection frame A vertex detection window setting means for setting a window, an image feature quantity calculation means for calculating an image feature quantity in the vertex detection window in the vertical direction, and an image feature quantity calculated by the image feature quantity calculation means is a threshold value. It is characterized in that a computer is realized with a head-top detection means that uses the position changing as described above as the head of the person's face.

これによって、発明1と同様にその頭頂部検出窓内に含まれている筈の頭頂部を容易且つ確実に検出することができる。
また、パソコン(PC)等の汎用のコンピュータシステムを用いてソフトウェア上でこれらの各手段を実現することができるため、専用の装置を製作して実現する方法に比べて容易且つ経済的に実現することができる。また、殆どの場合プログラムの書き換えだけでその機能の変更、改良等のバージョンアップを容易に達成することができる。
As a result, similarly to the first aspect, the top of the heel included in the top detection window can be detected easily and reliably.
In addition, since each of these means can be realized on software using a general-purpose computer system such as a personal computer (PC), it can be realized more easily and economically than a method of manufacturing and realizing a dedicated device. be able to. Also, in most cases, it is possible to easily achieve version upgrades such as function changes and improvements only by rewriting the program.

〔発明11〕
発明11の人物顔の頭頂部検出プログラムは、
発明10に記載の人物顔の頭頂部検出プログラムにおいて、前記画像特徴量算出手段は、
各画素の輝度を画像特徴量として算出する輝度算出機能と、各画素の色相角を画像特徴量として算出する色相角算出機能と、これらいずれかの画像特徴量を選択する画像特徴量選択機能と、を発揮するようになっていることを特徴とするものである。
[Invention 11]
According to the eleventh aspect of the present invention, there is provided a program for detecting the top of a human face
In the human face head top detection program according to the tenth aspect of the present invention, the image feature amount calculating means includes:
A luminance calculation function for calculating the luminance of each pixel as an image feature quantity, a hue angle calculation function for calculating the hue angle of each pixel as an image feature quantity, and an image feature quantity selection function for selecting one of these image feature quantities; It is characterized by being able to demonstrate.

これによって、発明8と同様に人物顔の頭髪の色に拘わらず、最適な画像特徴量を算出して頭頂部検出を常に的確に実施することができると共に、発明1及び9と同様な効果を得ることができる。
〔発明12〕
発明12の人物顔画像中の頭頂部検出プログラムは、
発明10又は11に記載の人物顔の頭頂部検出プログラムにおいて、前記頭頂部検出手段は、前記画像特徴量の閾値を設定する閾値設定部と、前記頭頂部検出窓内の水平方向の画像特徴量の平均を求める平均値算出部と、のいずれか一方あるいは両方を備えたことを特徴とするものである。
As a result, it is possible to calculate the optimal image feature amount and always accurately detect the top of the head regardless of the color of the human face hair, as in the case of the invention 8, and to achieve the same effects as the inventions 1 and 9. Can be obtained.
[Invention 12]
The vertex detection program in the human face image of the invention 12 is
In the human face head top detection program according to the tenth or eleventh aspect, the head head detection means includes a threshold value setting unit for setting a threshold value of the image feature value, and a horizontal image feature value in the head head detection window. One or both of an average value calculation unit for obtaining the average of the above and the like are provided.

これによって、発明4と同様に仮に画像上のノイズや原画像の汚れ等があってもそのようなノイズ部分等を頭頂部と誤検出するようなことがなくなって的確な頭頂部検出を行うことができる。   As a result, even if there is noise on the image or contamination of the original image as in the fourth aspect, such a noise portion or the like is not erroneously detected as the top of the head and accurate head detection is performed. Can do.

以下、本発明を実施するための最良の形態を添付図面を参照しながら詳述する。
図1は、本発明に係る人物顔の頭頂部検出システム100の実施の一形態を示したものである。
図示するように、この頭頂部検出システム100は、前述したように証明写真用の顔画像のように人物の顔が含まれる画像を読み取る画像読取手段10と、この画像読取手段10で読み取った画像中から人物顔を検出してその部分に顔検出枠を設定する顔検出手段12と、この顔検出枠の上部に前記人物顔の頭頂部が含まれる大きさの頭頂部検出窓Wを設定する頭頂部検出窓設定手段14と、その頭頂部検出窓W内の画像特徴量を算出する画像特徴量算出手段16と、この画像特徴量算出手段16で算出された画像特徴量の変化に基づいて前記人物顔の頭頂部を検出する頭頂部検出手段18と、から主に構成されている。
Hereinafter, the best mode for carrying out the present invention will be described in detail with reference to the accompanying drawings.
FIG. 1 shows an embodiment of a human face top detection system 100 according to the present invention.
As shown in the figure, the top detection system 100 includes an image reading unit 10 that reads an image including a human face, such as a face image for an ID photo, as described above, and an image read by the image reading unit 10. A face detection means 12 for detecting a human face from the inside and setting a face detection frame at that portion, and a top detection window W having a size including the top of the human face is set above the face detection frame. On the basis of the change in the image feature amount calculated by the image feature amount calculation means 16, the image feature amount calculation means 16 that calculates the image feature amount in the crown detection window W It is mainly comprised from the top part detection means 18 which detects the top part of the said person's face.

先ず、画像読取手段10は、パスポートや運転免許証等の公的な身分証明書、あるいは、社員証や学生証、会員証等の私文書的な身分証明書等に添付される視覚的人物特定用の証明用顔写真、すなわち、その人物の正面向きの顔が唯一大きく含まれる、無帽、無背景の顔画像Gを、CCD(Charge Coupled Device:電荷結合素子)や、CMOS(Complementary Metal Oxide Semiconductor)等の撮像センサを利用して、R(赤)、G(緑)、B(青)のそれぞれの画素データからなるディジタル画像データとして取得する機能を提供するようになっている。   First, the image reading means 10 specifies a visual person attached to a public ID such as a passport or a driver's license, or a private ID such as an employee ID, a student ID, or a membership card. A proof face photo for use, that is, a face image G without a cap and without a background, which includes the face of the person in the front direction only, is charged with a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide). A function of obtaining digital image data composed of pixel data of R (red), G (green), and B (blue) by using an imaging sensor such as a semiconductor) is provided.

具体的には、ディジタルスチルカメラやディジタルビデオカメラ等のCCD、CMOSカメラやビジコンカメラ、イメージスキャナ、ドラムスキャナ等であり、前記撮像センサ光学的に読み込んだ顔画像GをA/D変換してそのディジタル画像データを顔検出手段20へ順次送る機能を提供するようになっている。
尚、この画像読取手段10にはデータ保存機能が備えられており、読み込んだ顔画像データをハードディスクドライブ装置(HDD)等の記憶装置やDVD−ROM等の記憶媒体等に適宜保存可能となっている。また、ネットワークや記憶媒体等を介して顔画像がディジタル画像データとして供給される場合には、この画像読取手段10は不要となるか、あるいは通信手段やインターフェース(I/F)等として機能することになる。
Specifically, it is a CCD such as a digital still camera or a digital video camera, a CMOS camera, a vidicon camera, an image scanner, a drum scanner, or the like. A function of sequentially sending digital image data to the face detecting means 20 is provided.
The image reading means 10 has a data storage function, and the read face image data can be appropriately stored in a storage device such as a hard disk drive (HDD) or a storage medium such as a DVD-ROM. Yes. Further, when a face image is supplied as digital image data via a network or a storage medium, the image reading means 10 is not necessary or functions as a communication means or an interface (I / F). become.

次に、顔検出手段12は、この画像読取手段10で読み取った顔画像G中から人物顔を検出して当該部分に顔検出枠Fを設定するようになっている。
この顔検出枠Fは、後述するように、人物顔の正面顔の面積よりも小さい矩形状であって、少なくとも当該人物顔の鼻を中心に両目と唇部分を含み、当該人物顔の頭頂部は含まない大きさ(領域)となっている。
Next, the face detection unit 12 detects a human face from the face image G read by the image reading unit 10 and sets a face detection frame F in the portion.
As will be described later, the face detection frame F has a rectangular shape that is smaller than the area of the front face of the human face, includes at least both eyes and lips around the nose of the human face, and the top of the human face. The size (area) does not include.

尚、このような顔検出手段12による人物顔の検出アルゴリズムは、特に限定するものではないが、例えば、以下の文献等に示すような従来の手法を利用することができる。
H.A.Rowley、S.Baluja,and T.Kanade、
“Neural network−based face detection”
IEEE Transactions on Pattern Analysis
and Machine Intelligence、
vol.20、no.1、pp.23−38、1998
この技術によれば、人物顔の両目、唇を含み、頭頂部を含まない領域の顔画像を作成し、この画像を用いてニューラルネットを訓練し、訓練したニューラルネットを用いて人物顔を検出する。開示されているこの技術によれば両目から唇までの領域を顔画像領域として検出するようになっている。
Note that the human face detection algorithm by the face detection unit 12 is not particularly limited, and for example, a conventional method as shown in the following document or the like can be used.
H. A. Rowley, S.M. Baluja, and T.R. Kanade,
“Neural network-based face detection”
IEEE Transactions on Pattern Analysis
and Machine Intelligence,
vol. 20, no. 1, pp. 23-38, 1998
According to this technology, a face image of an area including both eyes and lips of a human face but not the top of the head is created, a neural network is trained using this image, and a human face is detected using the trained neural network. To do. According to this disclosed technique, an area from both eyes to the lips is detected as a face image area.

また、この顔検出枠Fの大きさは不変的なものではなく、対象とする顔画像の大きさによって適宜増減するようになっている。頭頂部検出窓設定手段14は、この顔検出手段12で設定された顔検出枠Fの上部に前記人物顔の頭頂部が含まれる大きさの頭頂部検出窓Wを設定する機能を提供するようになっている。すなわち、人物顔の頭頂部を以後の手段で正確に検出するための対象領域をこの頭頂部検出窓Wを用いて前記顔画像G中から選択するようになっている。   Further, the size of the face detection frame F is not invariant, and is appropriately increased or decreased depending on the size of the target face image. The head detection window setting unit 14 provides a function of setting a head detection window W having a size that includes the head of the human face above the face detection frame F set by the face detection unit 12. It has become. That is, a target region for accurately detecting the top of the person's face by subsequent means is selected from the face image G using the top detection window W.

画像特徴量算出手段16は、さらに各画素の輝度を画像特徴量として算出する輝度算出部22と、各画素の色相角を画像特徴量として算出する色相角算出部24と、その特徴量の変化に応じてこれらいずれかの画像特徴量を選択する画像特徴量選択部26とから構成されている。
すなわち、後に詳しく説明するが、この画像特徴量算出手段16は、輝度算出部22で算出された輝度に基づく画像特徴量と、色相角算出部24で算出された色相角に基づく画像特徴量とのうちいずれか最適な方を画像特徴量選択部26が選択して、選択された一方の画像特徴量についての情報を頭頂部検出手段18に送るようになっている。
The image feature quantity calculating means 16 further includes a brightness calculation section 22 that calculates the brightness of each pixel as an image feature quantity, a hue angle calculation section 24 that calculates the hue angle of each pixel as an image feature quantity, and changes in the feature quantities. The image feature quantity selection unit 26 selects one of these image feature quantities according to the above.
That is, as will be described in detail later, the image feature amount calculating unit 16 includes an image feature amount based on the luminance calculated by the luminance calculation unit 22, and an image feature amount based on the hue angle calculated by the hue angle calculation unit 24. The image feature amount selection unit 26 selects the most suitable one of them, and sends information about the selected one of the image feature amounts to the top portion detection means 18.

頭頂部検出手段18は、さらに、前記画像特徴量の閾値を設定する閾値設定部32と、前記頭頂部検出窓W内の水平方向の画像特徴量の平均を求める平均値算出部34とが備えられており、閾値設定部32で設定された閾値に基づいて頭頂部と背景を切り分けると共に、平均値算出部34によって前記頭頂部検出窓Wの水平方向の画像特徴量の平均を求めることで画像のノイズや汚れ等による局所的な画像特徴量の誤差を防止するようになっている。   The vertex detection means 18 further includes a threshold value setting unit 32 that sets a threshold value of the image feature value, and an average value calculation unit 34 that calculates the average of the image feature values in the horizontal direction in the vertex detection window W. The head and the background are separated based on the threshold set by the threshold setting unit 32, and the average value calculating unit 34 calculates the average of the horizontal image feature amounts of the top detection window W. The error of the local image feature amount due to noise or dirt is prevented.

尚、この頭頂部検出システム100を構成する各手段10、12、14、16、18、22、24、26等は、実際には、CPUやRAM等からなるハードウェアと、図3に示すような専用のコンピュータプログラム(ソフトウェア)とからなるパソコン(PC)等のコンピュータシステムによって実現されるようになっている。
すなわち、この頭頂部検出システム100を実現するためのハードウェアは、例えば図2に示すように、各種制御や演算処理を担う中央演算処理装置であるCPU(Central Processing Unit)40と、主記憶装置(Main Storage)に用いられるRAM(Random Access Memory)41と、読み出し専用の記憶装置であるROM(Read Only Memory)42と、ハードディスクドライブ装置(HDD)や半導体メモリ等の補助記憶装置(Secondary Storage)43、及びモニタ(LCD(液晶ディスプレイ)やCRT(陰極線管))等からなる出力装置44、イメージスキャナやキーボード、マウス、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像センサ等からなる入力装置45と、これらの入出力インターフェース(I/F)46等との間を、PCI(Peripheral Component Interconnect)バスやISA(Industrial Standard Architecture;アイサ)バス等からなるプロセッサバス、メモリバス、システムバス、入出力バス等の各種内外バス47によってバス接続したものである。
In addition, each means 10, 12, 14, 16, 18, 22, 24, 26, etc. constituting the crown detection system 100 is actually composed of hardware such as a CPU and a RAM, as shown in FIG. It is realized by a computer system such as a personal computer (PC) comprising a dedicated computer program (software).
That is, as shown in FIG. 2, for example, a hardware for realizing the crown detection system 100 includes a CPU (Central Processing Unit) 40 that is a central processing unit that performs various types of control and arithmetic processing, and a main storage device. RAM (Random Access Memory) 41 used for (Main Storage), ROM (Read Only Memory) 42 which is a read-only storage device, and auxiliary storage devices (Secondary Storage) such as hard disk drive devices (HDD) and semiconductor memories 43, and an output device 44 including a monitor (LCD (liquid crystal display) or CRT (cathode ray tube)), an image scanner, a keyboard, a mouse, a CCD (Charge Coupled Device), and a CM. Between the input device 45 including an imaging sensor such as an OS (Complementary Metal Oxide Semiconductor) and the input / output interface (I / F) 46 and the like, a peripheral component interconnect (PCI) bus and an ISA (Industrial Standard); These are connected by various internal and external buses 47 such as a processor bus, a memory bus, a system bus, an input / output bus, and the like.

そして、例えば、CD−ROMやDVD−ROM、フレキシブルディスク(FD)等の記憶媒体、あるいは通信ネットワーク(LAN、WAN、インターネット等)Nを介して供給される各種制御用プログラムやデータを補助記憶装置43等にインストールすると共にそのプログラムやデータを必要に応じて主記憶装置94にロードし、その主記憶装置91にロードされたプログラムに従ってCPU40が各種リソースを駆使して所定の制御及び演算処理を行い、その処理結果(処理データ)をバス47を介して出力装置44に出力して表示すると共に、そのデータを必要に応じて補助記憶装置43によって形成されるデータベースに適宜記憶、保存(更新)処理するようにしたものである。   For example, various control programs and data supplied via a storage medium such as a CD-ROM, a DVD-ROM, a flexible disk (FD), or a communication network (LAN, WAN, Internet, etc.) N are stored in an auxiliary storage device. And the program and data are loaded into the main storage device 94 as necessary, and the CPU 40 performs various control and calculation processes using various resources according to the program loaded into the main storage device 91. The processing result (processing data) is output to the output device 44 via the bus 47 and displayed, and the data is appropriately stored and saved (updated) in a database formed by the auxiliary storage device 43 as necessary. It is what you do.

次に、このような構成をした頭頂部検出システム100を用いた頭頂部検出方法の一例を図3〜図9を用いて説明する。
図3は、実際に検出対象となる顔画像Gに対する頭頂部検出方法の一例を示すフローチャートである。
図示するように、先ず最初のステップS101において前述した顔検出手段12によって予め画像読取手段10で読み取った頭頂部検出対象となる顔画像Gからその顔画像Gに含まれる顔の検出を行ってから検出した人物顔上に顔検出枠Fを設定する。
Next, an example of a method for detecting the top of the head using the top of the head detecting system 100 having such a configuration will be described with reference to FIGS.
FIG. 3 is a flowchart showing an example of the method of detecting the top of the face image G that is actually a detection target.
As shown in the figure, first, after detecting the face included in the face image G from the face image G to be detected by the image reading means 10 in advance in the first step S101, the face detecting means 12 previously described. A face detection frame F is set on the detected human face.

例えば、本発明の頭頂部検出対象となる顔画像Gは、図4に示すように、一人の人物顔が写っているものに限定されることから、先ず、顔検出手段12によってその人物顔の位置を特定し、その後、図5に示すようにその人物顔の領域に矩形状の顔検出枠Fを設定する。
尚、ここで図示した顔検出枠Fの場合は、当該人物顔の面積よりも小さい矩形状であって当該人物顔の頭頂部は含まない大きさ(領域)としたものであるが、この顔検出枠Fは、当該人物顔の頭頂部を含まないものであれば、必ずしも例示するような大きさ、形状にこだわる必要はない。また、図4〜図7(a)までの各顔画像Gは、写っている人物顔の大きさ及び表示枠Yの左右方向の位置は規格内であるが、その人物顔の頭頂部の位置が低すぎて規格の位置に達していない状態を示したものである。
For example, as shown in FIG. 4, the face image G to be detected as the top of the head of the present invention is limited to that which shows one person's face. The position is specified, and then a rectangular face detection frame F is set in the human face area as shown in FIG.
In the case of the face detection frame F shown here, it is a rectangular shape smaller than the area of the human face and has a size (area) that does not include the top of the human face. As long as the detection frame F does not include the top of the person's face, it is not always necessary to stick to the size and shape as illustrated. Each face image G shown in FIGS. 4 to 7A is within the standard in terms of the size of the captured human face and the horizontal position of the display frame Y, but the position of the top of the human face. Shows a state where the value is too low to reach the standard position.

次に、このようにして顔検出枠Fを人物顔の中心に設定したならば、ステップS103に移行して図6に示すように頭頂部検出窓設定手段14によってその顔検出枠Fの上端部に矩形状の頭頂部検出窓Wを設定してその人物顔の頭頂部の領域を特定する。
ここで、この頭頂部検出窓Wの大きさや形状としては厳密なものでなく、当該人物顔の額より上方で、必ず背景と頭部との境目である頭頂部が含まれる大きさ・形状であれば、特に限定されるものではないが、あまりに大きすぎると後のエッジの検出等に多くの時間がかかってしまい、反対に小さすぎると検出対象となる頭頂部が含まれなくなってしまうことがある。従って、例えば、同図に示すように矩形状であってその幅及び高さが当該人物顔の頭幅よりも幅広のものを用いれば、余分な領域を排除しつつ、頭頂部を確実に捕捉することができるものと考えられる。尚、図6の例では顔検出枠Fの上端部に密着させて頭頂部検出窓Wを設定したものであるが、この頭頂部検出窓Wは必ずしも顔検出枠Fに密着させる必要はなく、要は顔検出枠Fに対して頭頂部検出窓Wが所定の位置関係を保っていれば良い。
Next, when the face detection frame F is set at the center of the human face in this way, the process proceeds to step S103, and the upper end of the face detection frame F is detected by the head detection window setting means 14 as shown in FIG. A rectangular top detection window W is set to the region of the top of the person's face.
Here, the size and shape of the parietal detection window W are not strict, and the size and shape include the parietal portion that is always the boundary between the background and the head above the forehead of the person's face. If there is, it is not particularly limited, but if it is too large, it will take a lot of time to detect the subsequent edges, etc. Conversely, if it is too small, the top of the head to be detected may not be included. is there. Therefore, for example, if a rectangular shape having a width and height wider than the head width of the human face is used as shown in FIG. It is thought that it can be done. In the example of FIG. 6, the crown detection window W is set in close contact with the upper end of the face detection frame F. However, the crown detection window W does not necessarily need to be in close contact with the face detection frame F. In short, it suffices that the top detection window W keeps a predetermined positional relationship with respect to the face detection frame F.

次に、このようにして対象画像に対して頭頂部検出窓Wを設定したならば、次のステップS105に移行して当該頭頂部検出窓W内の各画素の輝度を算出し、その輝度値の水平方向(図6中X方向)の平均値を各ライン毎に算出する。
例えば、この頭頂部検出窓W内の画素数が、水平方向(図6中X方向)「150(pixel)」×垂直方向(図6中Y方向)「100(pixel)」=「15000(pixel)」であったとすると、各ライン毎に全ての画素の輝度値を合計して150で除算することで各ライン毎の輝度値の平均値を求めることができ、この輝度値の平均値を各ライン毎の画像特徴量とする。
Next, if the top detection window W is set for the target image in this way, the process proceeds to the next step S105, where the brightness of each pixel in the top detection window W is calculated, and the brightness value is calculated. The average value in the horizontal direction (X direction in FIG. 6) is calculated for each line.
For example, the number of pixels in the crown detection window W is “150 (pixel)” in the horizontal direction (X direction in FIG. 6) × vertical direction (Y direction in FIG. 6) “100 (pixel)” = “15000 (pixel). ) ", The luminance values of all the pixels for each line are summed and divided by 150 to obtain the average value of the luminance values for each line. The image feature amount for each line.

このように各ライン毎の輝度値の平均値を各ライン毎の画像特徴量とするのは、前述したように、顔画像G上に発生したノイズ等による輝度値の変動による影響を回避するためである。すなわち、検索対象となる顔画像G上にノイズや原画像の汚れ等があると、その部分の画素の輝度値がその近傍の画素の輝度値と大きく異なるが、このように各ライン毎の輝度値の平均値を算出し、これを各ライン毎の画像特徴量として採用すればその部分を頭頂部等と誤検出するような不都合を回避することができる。   As described above, the average value of the luminance value for each line is used as the image feature amount for each line in order to avoid the influence of the fluctuation of the luminance value due to noise or the like generated on the face image G as described above. It is. In other words, if there is noise or dirt on the original image G on the face image G to be searched, the luminance value of the pixel in that portion is greatly different from the luminance value of the neighboring pixels. If an average value of the values is calculated and used as an image feature amount for each line, it is possible to avoid the inconvenience of erroneously detecting that portion as the top of the head.

次に、このようにして頭頂部検出窓W内の各ライン毎の平均輝度値(画像特徴量)が算出されたならば、次のステップS107に移行してさらに各ライン毎の平均輝度値を垂直方向(図中Y方向)に平滑化して前記と同様に画像上のノイズや原画像の汚れ等に起因する画像特徴量の急激な変化を回避する。この平滑化方法としては特に限定するものではないが、例えば、注目ラインを中心として垂直方向に接する上下各1〜3ライン程度の他のラインの平均輝度値を用いることが適当である。   Next, when the average luminance value (image feature amount) for each line in the crown detection window W is calculated in this way, the process proceeds to the next step S107, and the average luminance value for each line is further determined. By smoothing in the vertical direction (Y direction in the figure), abrupt changes in the image feature amount due to noise on the image, contamination of the original image, etc. are avoided as described above. Although this smoothing method is not particularly limited, for example, it is appropriate to use an average luminance value of other lines of about 1 to 3 lines above and below contacting the vertical direction with the target line as the center.

そして、このようにして各ライン毎の平均輝度値が算出されたならば、ステップS109に移行して、算出された各ライン毎の平均輝度値を頭頂部検出窓W内の上端から垂直下方(Y方向)に向かって順にプロットしてその変化量を求め、その変化量が閾値以上になった位置を頭頂部とみなすことになる。
例えば、図8に示すように、各ライン毎に算出された平均輝度値からなる画像特徴量を各ライン毎に頭頂部検出窓W内の垂直方向(Y方向)にプロットして、その変化量が初期平均値より閾値(例えば、画像特徴量の平均値の10%)以上になった位置を頭頂部とみなすことになる。
When the average luminance value for each line is calculated in this way, the process proceeds to step S109, and the calculated average luminance value for each line is vertically below the upper end in the top detection window W ( The amount of change is obtained by plotting sequentially in the direction (Y direction), and the position where the amount of change is equal to or greater than the threshold value is regarded as the top of the head.
For example, as shown in FIG. 8, the image feature amount composed of the average luminance value calculated for each line is plotted in the vertical direction (Y direction) in the top detection window W for each line, and the amount of change is plotted. A position where is more than a threshold value (for example, 10% of the average value of the image feature amount) from the initial average value is regarded as the top of the head.

ここでいう初期平均値とは、頭頂部検出窓の上底部付近ライン(例えば、6ライン程度)の画像特徴量の平均値である。
図8の場合は、Yの付近で画像特徴量が閾値を超えたことから、Y1の位置を頭頂部とみなし、Y〜Yの間は背景、Y1以上は頭部とみなすことができる。
尚、このように閾値以上になった位置を頭頂部とみなすのは、前述したように、顔画像G中に発生したノイズや汚れ等によって均一な背景であっても画像特徴量に多少の差が発生するためであり、そのバラツキによる誤検出を回避するためであるが、ノイズや汚れなどによる画像特徴量のバラツキが殆ど生じないような顔画像G等の場合は、この閾値は小さくても良いが、反対にノイズや汚れの覆い顔画像Gの場合は、その閾値はさらに大きいものとなる場合がある。
The initial average value here is an average value of image feature amounts of lines near the upper base of the top detection window (for example, about 6 lines).
In the case of FIG. 8, since the image feature amount exceeds the threshold value in the vicinity of Y 1 , the position of Y 1 can be regarded as the top of the head, the range between Y 0 and Y 1 can be regarded as the background, and the position above Y 1 can be regarded as the head. it can.
Note that the position that exceeds the threshold value in this way is regarded as the top of the head, as described above, even with a uniform background due to noise or dirt generated in the face image G, there is a slight difference in the image feature amount. This is to avoid erroneous detection due to variations, but in the case of a face image G or the like in which variations in image feature amount due to noise, dirt, etc. hardly occur, this threshold value may be small. On the contrary, in the case of the face image G covered with noise or dirt, the threshold value may be even larger.

また、図8の場合では、画像特徴量の初期平均値を設定し、その初期平均値を基準に閾値を設定したものであるが、図9に示すように少し離れた位置の画像特徴量同士を比較し、それらの距離を閾値として設定しても良い。図9の例では、Y2の位置の画像特徴量と、Y3の位置の画像特徴量を比較した場合、その距離は閾値を超えているため、Y3の付近を頭頂部とみなしている。   In the case of FIG. 8, an initial average value of image feature values is set and a threshold value is set based on the initial average value. However, as shown in FIG. And the distance between them may be set as a threshold value. In the example of FIG. 9, when the image feature amount at the position Y2 is compared with the image feature amount at the position Y3, the distance exceeds the threshold value, so the vicinity of Y3 is regarded as the top of the head.

そして、このようにして頭頂部が検出されたならば、図7(a)、(b)に示すように、その頭頂部の位置が規格の頭頂部位置と同じ高さとなるように、人物顔全体を移動させる。
図7(a)は、人物顔の頭頂部がかなり低い位置にあるため、図7(b)に示すようにそのまま人物顔を垂直上方に移動させることでその頭頂部を規格の位置に一致させることができる。尚、図7(a)等では人物の首から下側の画像が切れているが、実際にはその隠れた部分の画像もそのまま存在しており、図7(b)に示すように人物顔の移動させた結果、表示枠Y内(下部)に空白部分が生じる等といった不都合を招くことはない。
If the top of the head is detected in this way, as shown in FIGS. 7 (a) and 7 (b), the human face is positioned so that the position of the top of the head becomes the same height as the standard top of the head. Move the whole thing.
In FIG. 7 (a), since the top of the human face is at a very low position, as shown in FIG. 7 (b), the human face is moved vertically upward to match the top of the head with the standard position. be able to. In FIG. 7 (a) and the like, the image below the person's neck is cut off, but in reality, the image of the hidden portion also exists as it is, and the person's face as shown in FIG. 7 (b). As a result of the movement, there is no inconvenience that a blank portion is generated in the display frame Y (lower part).

一方、前述した実施の形態では画像特徴量として各ライン毎の平均輝度値を採用したものであるが、前述したように頭髪の色や照明条件等によっては、背景と頭頂部との輝度値に大きな変化が現れず、頭頂部付近で画像特徴量の変化量が閾値を超えないことがある。
そのため、このように輝度値に大きな変化が見られない場合は、画像特徴量として画素の輝度値に変わり、色相角の大きさを用いれば、画像特徴量に顕著な変化が見られ、当該人物の頭頂部を的確に検出することができる。
On the other hand, in the above-described embodiment, the average luminance value for each line is adopted as the image feature amount, but as described above, depending on the color of the hair, the lighting conditions, etc., the luminance value between the background and the top of the head is used. A large change does not appear, and the change amount of the image feature amount may not exceed the threshold value near the top of the head.
For this reason, when there is no significant change in the luminance value as described above, the luminance value of the pixel is changed as the image feature amount, and if the hue angle is used, the image feature amount is significantly changed, and the person is Can be accurately detected.

図10は、このように画像特徴量として色相角を用いた場合の頭頂部検出フローを示したものであり、最初のステップS101,S103は、輝度値を採用した場合と同様に、顔の検出してその頭頂部に頭頂部検出窓を設定した後、その検出窓の色相角の水平方向の平均値を求め(ステップS111)、その平均色相角を検出窓内の垂直方向に平滑化し(ステップS113)、最後にその変化量を求め、その変化量が閾値以上ならばその位置を頭頂部とみなすようにしたものである(ステップS115)。   FIG. 10 shows the top detection flow when the hue angle is used as the image feature amount as described above, and the first steps S101 and S103 detect the face in the same manner as when the luminance value is adopted. After setting the top detection window at the top of the head, the horizontal average value of the hue angle of the detection window is obtained (step S111), and the average hue angle is smoothed in the vertical direction within the detection window (step S111). S113) Finally, the amount of change is obtained, and if the amount of change is equal to or greater than the threshold value, the position is regarded as the top of the head (step S115).

これによって輝度値に基づく画像特徴量で人物の頭頂部を検出できない場合でも、当該人物の頭頂部を的確に検出することが可能となる。
尚、本発明でいう「輝度値」及び「色相角」とは、画像処理分野で一般的に定義されている意味と同じ意味である。
また、「色相」とは、色の違いを示す属性であり、「色相角」とは「マンセルの色相環」や「マンセルの色立体」等の色指標図を用いて、その背景色を基準としたときの頭髪の色の位置までの角度をいうものである。例えば、「マンセルの色相環」によれば、基準となる背景色を「Blue」とした場合、頭髪の色が「Green」よりも「Yellow」や「Red」の方が色相角が大きい(画像特徴量が大きい)ということになる。
As a result, even when the top of the person cannot be detected with the image feature amount based on the luminance value, the top of the person can be accurately detected.
Note that “luminance value” and “hue angle” in the present invention have the same meaning as generally defined in the field of image processing.
“Hue” is an attribute that indicates the difference in color. “Hue angle” is a color index diagram such as “Munsell's hue ring” or “Munsell's color solid”. Is the angle to the position of the hair color. For example, according to “Munsell's hue ring”, when the reference background color is “Blue”, “Yellow” or “Red” has a larger hue angle than “Green” (image) The feature amount is large).

図11は、前述した画像特徴量選択部26及び頭頂部検出手段34の処理フローを示したものであり、このように輝度値に基づく画像特徴量で人物の頭頂部を検出できない場合を考慮した頭頂部検出フローの一例を示したものである。
この頭頂部検出フローは、先ず図3のフローと同様に、画像に含まれる人物顔の検出を行ってからその人物顔の頭頂部に頭頂部検出窓Wを設定してからその検出窓内の輝度値の水平方向の平均値を求めた後、その平均輝度値を垂直方向に平滑化してからその平均輝度値の変化量を求める(ステップS201〜S209)。
FIG. 11 shows a processing flow of the image feature quantity selection unit 26 and the head top detection unit 34 described above, and considers the case where the top of the person cannot be detected by the image feature quantity based on the luminance value. An example of a flow for detecting the top of the head is shown.
As in the flow of FIG. 3, this head top detection flow first detects a human face included in an image, sets a head top detection window W at the head top of the human face, After obtaining the average value of the luminance values in the horizontal direction, the average luminance value is smoothed in the vertical direction and then the amount of change in the average luminance value is obtained (steps S201 to S209).

そして、次の判断ステップS211においてその変化量が閾値を超えたか否かを判断し、超えたと判断したとき(yes)は、ステップS213に移行して平均輝度値の変化量が閾値を超えた位置を頭頂部とみなして処理を終了するが、その変化量が閾値を超えないと判断したとき(No)は、ステップS215側に移行して今度は図10で示したように色相角に基づいた画像特徴量の変化量を求める(ステップS215〜S219)。そして、その後、ステップS221に移行してその変化量が閾値を超えたと判断したとき(yes)は、ステップS223に移行して平均輝度値の変化量が閾値を超えた位置を頭頂部とみなして処理を終了するが、その変化量が閾値を超えないと判断したとき(No)は、ステップS225側に移行して本システムの利用者等に対して「頭頂部が検出できない」旨の通知(表示)を行って処理を終了することになる。   Then, in the next determination step S211, it is determined whether or not the amount of change has exceeded the threshold value. When it is determined that the amount has exceeded (yes), the process proceeds to step S213 where the amount of change in the average luminance value exceeds the threshold value. Is determined to be the top of the head, but the process ends, but when it is determined that the amount of change does not exceed the threshold (No), the process proceeds to step S215 and this time based on the hue angle as shown in FIG. A change amount of the image feature amount is obtained (steps S215 to S219). Then, when it is determined that the amount of change has exceeded the threshold value (yes) after that, the process proceeds to step S223 and the position where the amount of change in the average luminance value exceeds the threshold value is regarded as the top of the head. When the process ends, but when it is determined that the amount of change does not exceed the threshold value (No), the process proceeds to step S225 to notify the user of this system that “the top of the head cannot be detected” ( Display) and the process is terminated.

ここで、ステップS225に至るケースとしては、要するに頭髪部分(頭頂部領域)の輝度値及び色相角のいずれもが背景のそれとほぼ同じ値を示した場合、例えば、青い背景に対して頭髪の色が青く、その彩度もほぼ同じである場合等が考えられるが、そのようなケースでの頭頂部検出は優れた感度を有する人間の視覚によっても困難であると思われ、また、撮影時等にカメラマンが意識的にそのようなケースが発生するのを回避するであろうと考えられる極めて稀なケースである。   Here, as a case to reach step S225, in short, when both the luminance value and the hue angle of the hair portion (the top region) show substantially the same value as that of the background, for example, the color of the hair against the blue background Is blue and the saturation is almost the same, but detection of the top of the head in such a case seems to be difficult even by human vision with excellent sensitivity, and at the time of shooting etc. This is an extremely rare case where the photographer would consciously avoid the occurrence of such a case.

従って、上記のように平均輝度及び平均色相角のいずれか又は双方を採用することで確実に頭頂部を検出することができる。
尚、図11は、先ず最初に輝度値による画像特徴量を求めた後、色相角による画像特徴量を求めるようにしたが、最初に色相角による画像特徴量を求めた後、輝度値による画像特徴量を求めるようにしても良く、さらに両者の画像特徴量を同時に併用するような形態であっても良い。
Therefore, the top of the head can be reliably detected by employing either or both of the average luminance and the average hue angle as described above.
In FIG. 11, the image feature quantity based on the luminance value is first obtained, and then the image feature quantity based on the hue angle is obtained. However, after the image feature quantity based on the hue angle is obtained first, the image based on the luminance value is obtained. The feature amount may be obtained, and the image feature amount of both may be used at the same time.

ちなみに、輝度の変化は視覚的に認識され易いことから、画像特徴量として他の画像処理技術等で頻繁に使われている。   Incidentally, since the change in luminance is easily recognized visually, it is frequently used as an image feature amount in other image processing techniques.

頭頂部検出システムの実施の一形態を示すブロック図である。It is a block diagram which shows one Embodiment of a head part detection system. 頭頂部検出システムを構成するハードウェアを示す構成図である。It is a block diagram which shows the hardware which comprises a head part detection system. 頭頂部検出方法の実施の一形態を示すフローチャート図である。It is a flowchart figure which shows one Embodiment of the top part detection method. 頭頂部検出対象となる顔画像の一例を示す図である。It is a figure which shows an example of the face image used as a head-top part detection target. 顔画像に顔検出枠を設定した状態を示す図である。It is a figure which shows the state which set the face detection frame to the face image. 顔検出枠の上部に頭頂部検出窓を設定した状態を示す図である。It is a figure which shows the state which set the top part detection window in the upper part of the face detection frame. 頭頂部を検出してその位置を修正する状態を示す図である。It is a figure which shows the state which detects a head top part and corrects the position. 画像特徴量とその変化量との関係を示す図である。It is a figure which shows the relationship between an image feature-value and its variation | change_quantity. 画像特徴量とその変化量との関係を示す図である。It is a figure which shows the relationship between an image feature-value and its variation | change_quantity. 頭頂部検出方法の他の実施の形態を示すフローチャート図である。It is a flowchart figure which shows other embodiment of the top part detection method. 頭頂部検出方法の他の実施の形態を示すフローチャート図である。It is a flowchart figure which shows other embodiment of the top part detection method.

符号の説明Explanation of symbols

10…画像読取手段、12…顔検出手段、14…頭頂部検出窓設定手段、16…画像特徴量算出手段、18…頭頂部検出手段、22…輝度算出部、24…色相角算出部、26…画像特徴量選択部、32…閾値設定部、平均値算出部、100…頭頂部検出システム、40…CPU、41…RAM、42…ROM、43…補助記憶装置、44…出力装置、45…入力装置、46…入出力インターフェース(I/F)、47…バス、F…顔検出枠、G…顔画像、M…マーカ、Y…表示枠、W…頭頂部検出窓。   DESCRIPTION OF SYMBOLS 10 ... Image reading means, 12 ... Face detection means, 14 ... Parietal part detection window setting means, 16 ... Image feature-value calculation means, 18 ... Parietal part detection means, 22 ... Luminance calculation part, 24 ... Hue angle calculation part, 26 ... Image feature amount selection unit, 32 ... Threshold setting unit, average value calculation unit, 100 ... Head detection system, 40 ... CPU, 41 ... RAM, 42 ... ROM, 43 ... Auxiliary storage device, 44 ... Output device, 45 ... Input device 46 ... Input / output interface (I / F), 47 ... Bus, F ... Face detection frame, G ... Face image, M ... Marker, Y ... Display frame, W ... Top detection window.

Claims (12)

人物顔が含まれる画像中から当該人物顔の頭頂部を検出する方法であって、
前記人物顔の頭頂部を含まない範囲の顔画像を検出して、検出した当該顔画像の上部に前記人物顔の頭頂部が含まれる大きさの頭頂部検出窓を設定した後、
当該頭頂部検出窓内の画像特徴量を垂直方向に算出し、その画像特徴量が閾値以上に変化する位置を前記人物顔の頭頂部とするようにしたことを特徴とする頭頂部検出方法。
A method for detecting the top of a human face from an image including a human face,
After detecting a face image in a range not including the top of the person's face, and setting a top detection window having a size including the top of the person's face above the detected face image,
A method for detecting the top of the head, wherein an image feature amount in the top portion detection window is calculated in the vertical direction, and a position where the image feature amount changes to a threshold value or more is set as the top portion of the human face.
請求項1に記載の頭頂部検出方法において、
前記画像特徴量として輝度の大きさを用いるようにしたことを特徴とする頭頂部検出方法。
The method of detecting the top of the head according to claim 1,
A method of detecting the top of the head, characterized in that the magnitude of luminance is used as the image feature amount.
請求項1に記載の頭頂部検出方法において、
前記画像特徴量として色相角の大きさを用いるようにしたことを特徴とする頭頂部検出方法。
The method of detecting the top of the head according to claim 1,
A method for detecting the top of a head, wherein a magnitude of a hue angle is used as the image feature amount.
請求項1〜3のいずれかに記載の頭頂部検出方法において、
前記画像特徴量は、前記頭頂部検出窓内の水平方向の平均値を用いるようにしたことを特徴とする頭頂部検出方法。
In the top detection method according to any one of claims 1 to 3,
The method of detecting the top of the head, wherein the image feature amount uses an average value in a horizontal direction within the top of the head detection window.
請求項1〜4のいずれかに記載の顔画像中の頭頂部検出方法において、
前記画像特徴量は、輝度又は色相角のいずれか又は両方を使用する画像に応じて自動的に切り替えることを特徴とする頭頂部検出方法。
In the method for detecting the top of the head in the face image according to any one of claims 1 to 4,
The method for detecting the top of the head, wherein the image feature amount is automatically switched according to an image using either or both of luminance and hue angle.
請求項1〜5に記載の頭頂部検出方法において、
前記頭頂部検出窓としては、矩形状であって、その幅及び高さが前記人物顔の顔幅よりも幅広のものを用いるようにしたことを特徴とする頭頂部検出方法。
The method for detecting the top of the head according to claim 1,
A method of detecting the top of the head, wherein the top of the head detection window is rectangular and has a width and height wider than the face width of the human face.
人物顔が含まれる画像中から当該人物顔の頭頂部を検出するシステムであって、
前記人物顔が含まれる画像を読み取る画像読取手段と、
当該画像読取手段で読み取った画像中から人物顔の頭頂部を含まない範囲の顔画像を検出して、検出した範囲に顔検出枠を設定する顔検出手段と、
当該顔検出枠の上部に前記人物顔の頭頂部が含まれる大きさの頭頂部検出窓を設定する頭頂部検出窓設定手段と、
当該頭頂部検出窓内の画像特徴量を垂直方向に算出する画像特徴量算出手段と、
当該画像特徴量算出手段で算出された画像特徴量が閾値以上に変化する位置を前記人物顔の頭頂部とする頭頂部検出手段と、を備えたことを特徴とする頭頂部検出システム。
A system for detecting the top of a human face from an image including a human face,
Image reading means for reading an image including the human face;
A face detection means for detecting a face image in a range not including the top of the human face from the image read by the image reading means, and setting a face detection frame in the detected range;
A top detection window setting means for setting a top detection window having a size including the top of the human face at the top of the face detection frame;
Image feature amount calculating means for calculating the image feature amount in the top detection window in the vertical direction;
A vertex detection system comprising: a vertex detection unit that uses the position where the image feature value calculated by the image feature value calculation unit changes to a threshold value or more as a vertex of the human face.
請求項7に記載の人物顔の頭頂部検出システムにおいて、
前記画像特徴量算出手段は、
各画素の輝度を画像特徴量として算出する輝度算出部と、
各画素の色相角を画像特徴量として算出する色相角算出部と、
これらいずれかの画像特徴量を選択する画像特徴量選択部と、を備えたことを特徴とする頭頂部検出システム。
The head detection system for a human face according to claim 7,
The image feature amount calculating means includes:
A luminance calculation unit for calculating the luminance of each pixel as an image feature amount;
A hue angle calculation unit that calculates the hue angle of each pixel as an image feature amount;
An image feature amount selection unit that selects any one of these image feature amounts;
請求項7又は8に記載の人物顔の頭頂部検出システムにおいて、
前記頭頂部検出手段は、
前記画像特徴量の閾値を設定する閾値設定部と、
前記頭頂部検出窓内の水平方向の画像特徴量の平均を求める平均値算出部と、のいずれか一方あるいは両方を備えたことを特徴とする頭頂部検出システム。
In the head detection system for a human face according to claim 7 or 8,
The crown detection means is
A threshold value setting unit for setting a threshold value of the image feature amount;
A top part detection system comprising either or both of an average value calculation part for obtaining an average of horizontal image feature amounts in the top part detection window.
人物顔が含まれる画像中から当該人物顔の頭頂部を検出するプログラムであって、
前記人物顔が含まれる画像を読み取る画像読取手段と、
当該画像読取手段で読み取った画像中から人物顔の頭頂部を含まない範囲の顔画像を検出して、検出した範囲に顔検出枠を設定する顔検出手段と、
当該顔検出枠の上部に前記人物顔の頭頂部が含まれる大きさの頭頂部検出窓を設定する頭頂部検出窓設定手段と、
当該頭頂部検出窓内の画像特徴量を垂直方向に算出する画像特徴量算出手段と、
当該画像特徴量算出手段で算出された画像特徴量が閾値以上に変化する位置を前記人物顔の頭頂部とする頭頂部検出手段と、をコンピュータに実現させることを特徴とする頭頂部検出プログラム。
A program for detecting the top of a person's face from an image including a person's face,
Image reading means for reading an image including the human face;
A face detection means for detecting a face image in a range not including the top of the human face from the image read by the image reading means, and setting a face detection frame in the detected range;
A top detection window setting means for setting a top detection window having a size including the top of the human face at the top of the face detection frame;
Image feature amount calculating means for calculating the image feature amount in the top detection window in the vertical direction;
A parietal part detection program for causing a computer to realize a parietal part detection unit that uses the position where the image feature quantity calculated by the image feature quantity calculation unit changes to a threshold value or more as the parietal part of the human face.
請求項10に記載の人物顔の頭頂部検出プログラムにおいて、
前記画像特徴量算出手段は、
各画素の輝度を画像特徴量として算出する輝度算出機能と、
各画素の色相角を画像特徴量として算出する色相角算出機能と、
これらいずれかの画像特徴量を選択する画像特徴量選択機能と、を発揮するようになっていることを特徴とする頭頂部検出プログラム。
In the human face head top detection program according to claim 10,
The image feature amount calculating means includes:
A luminance calculation function for calculating the luminance of each pixel as an image feature amount;
A hue angle calculation function for calculating the hue angle of each pixel as an image feature amount;
An image feature amount selection function for selecting any one of these image feature amounts;
請求項10又は11に記載の人物顔の頭頂部検出プログラムにおいて、
前記頭頂部検出手段は、
前記画像特徴量の閾値を設定する閾値設定部と、
前記頭頂部検出窓内の水平方向の画像特徴量の平均を求める平均値算出部と、のいずれか一方あるいは両方を備えたことを特徴とする頭頂部検出プログラム。
In the human face head top detection program according to claim 10 or 11,
The crown detection means is
A threshold value setting unit for setting a threshold value of the image feature amount;
A top part detection program comprising one or both of an average value calculation part for obtaining an average of horizontal image feature amounts in the top part detection window.
JP2003407912A 2003-12-05 2003-12-05 Method, system and program for detecting vertex of human face Pending JP2005165984A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2003407912A JP2005165984A (en) 2003-12-05 2003-12-05 Method, system and program for detecting vertex of human face
US11/004,649 US7460705B2 (en) 2003-12-05 2004-12-03 Head-top detecting method, head-top detecting system and a head-top detecting program for a human face
PCT/JP2004/018449 WO2005055143A1 (en) 2003-12-05 2004-12-03 Person head top detection method, head top detection system, and head top detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003407912A JP2005165984A (en) 2003-12-05 2003-12-05 Method, system and program for detecting vertex of human face

Publications (1)

Publication Number Publication Date
JP2005165984A true JP2005165984A (en) 2005-06-23

Family

ID=34650326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003407912A Pending JP2005165984A (en) 2003-12-05 2003-12-05 Method, system and program for detecting vertex of human face

Country Status (3)

Country Link
US (1) US7460705B2 (en)
JP (1) JP2005165984A (en)
WO (1) WO2005055143A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009086823A (en) * 2007-09-28 2009-04-23 Fujifilm Corp Top-of-head position calculating apparatus, image processing apparatus using it, and top-of-head position calculating method and program
JP2010193333A (en) * 2009-02-20 2010-09-02 Casio Computer Co Ltd Imaging apparatus, imaging method and program
JP2012528506A (en) * 2009-05-29 2012-11-12 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド Method and apparatus for separating the top of the foreground from the background
US8605955B2 (en) 2009-06-29 2013-12-10 DigitalOptics Corporation Europe Limited Methods and apparatuses for half-face detection
JP2014164343A (en) * 2013-02-21 2014-09-08 Ricoh Co Ltd Image processing apparatus, image processing system, and program
US8971628B2 (en) 2010-07-26 2015-03-03 Fotonation Limited Face detection using division-generated haar-like features for illumination invariance

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8345918B2 (en) * 2004-04-14 2013-01-01 L-3 Communications Corporation Active subject privacy imaging
US7386150B2 (en) * 2004-11-12 2008-06-10 Safeview, Inc. Active subject imaging with body identification
KR100892022B1 (en) 2005-08-12 2009-04-07 소니 컴퓨터 엔터테인먼트 인코포레이티드 Face image display, face image display method, and face image display program
US8190623B2 (en) * 2008-06-05 2012-05-29 Enpulz, L.L.C. Image search engine using image analysis and categorization
JP5547730B2 (en) * 2008-07-30 2014-07-16 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド Automatic facial and skin beautification using face detection
US20100208078A1 (en) * 2009-02-17 2010-08-19 Cisco Technology, Inc. Horizontal gaze estimation for video conferencing
US8564534B2 (en) * 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
JP6032921B2 (en) * 2012-03-30 2016-11-30 キヤノン株式会社 Object detection apparatus and method, and program
TW201407498A (en) * 2012-08-09 2014-02-16 Fan-Zhi Zeng Method for automatically credentials photograph
JP6265640B2 (en) * 2013-07-18 2018-01-24 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
CN104036237B (en) * 2014-05-28 2017-10-10 中国人民解放军海军总医院 The detection method of rotation face based on on-line prediction
US10643101B2 (en) * 2015-07-09 2020-05-05 Texas Instruments Incorporated Window grouping and tracking for fast object detection

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3298072B2 (en) * 1992-07-10 2002-07-02 ソニー株式会社 Video camera system
JP3487436B2 (en) * 1992-09-28 2004-01-19 ソニー株式会社 Video camera system
KR100276681B1 (en) * 1992-11-07 2001-01-15 이데이 노부유끼 Video camera system
JPH0877334A (en) * 1994-09-09 1996-03-22 Konica Corp Automatic feature point extracting method for face image
JP3735893B2 (en) * 1995-06-22 2006-01-18 セイコーエプソン株式会社 Face image processing method and face image processing apparatus
JPH0950528A (en) 1995-08-09 1997-02-18 Nippon Telegr & Teleph Corp <Ntt> Person detector
JP2003330097A (en) * 2002-05-16 2003-11-19 Nippon Conlux Co Ltd Automatic imaging device
JP3855939B2 (en) * 2003-01-31 2006-12-13 ソニー株式会社 Image processing apparatus, image processing method, and photographing apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009086823A (en) * 2007-09-28 2009-04-23 Fujifilm Corp Top-of-head position calculating apparatus, image processing apparatus using it, and top-of-head position calculating method and program
JP2010193333A (en) * 2009-02-20 2010-09-02 Casio Computer Co Ltd Imaging apparatus, imaging method and program
JP2012528506A (en) * 2009-05-29 2012-11-12 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド Method and apparatus for separating the top of the foreground from the background
US8633999B2 (en) 2009-05-29 2014-01-21 DigitalOptics Corporation Europe Limited Methods and apparatuses for foreground, top-of-the-head separation from background
US8605955B2 (en) 2009-06-29 2013-12-10 DigitalOptics Corporation Europe Limited Methods and apparatuses for half-face detection
US8971628B2 (en) 2010-07-26 2015-03-03 Fotonation Limited Face detection using division-generated haar-like features for illumination invariance
US8977056B2 (en) 2010-07-26 2015-03-10 Fotonation Limited Face detection using division-generated Haar-like features for illumination invariance
JP2014164343A (en) * 2013-02-21 2014-09-08 Ricoh Co Ltd Image processing apparatus, image processing system, and program

Also Published As

Publication number Publication date
US20050147304A1 (en) 2005-07-07
US7460705B2 (en) 2008-12-02
WO2005055143A1 (en) 2005-06-16

Similar Documents

Publication Publication Date Title
JP2005165984A (en) Method, system and program for detecting vertex of human face
JP4345622B2 (en) Eye color estimation device
US6526161B1 (en) System and method for biometrics-based facial feature extraction
EP1596573B1 (en) Image correction apparatus
JP5538909B2 (en) Detection apparatus and method
US8836777B2 (en) Automatic detection of vertical gaze using an embedded imaging device
US7580587B2 (en) Device and method for correcting image including person area
US20050196044A1 (en) Method of extracting candidate human region within image, system for extracting candidate human region, program for extracting candidate human region, method of discerning top and bottom of human image, system for discerning top and bottom, and program for discerning top and bottom
JP4739870B2 (en) Sunglasses detection device and face center position detection device
WO2009098894A1 (en) Electronic camera and image processing method
US10079974B2 (en) Image processing apparatus, method, and medium for extracting feature amount of image
JP2000105829A (en) Method and device for face parts image detection
JP2005190400A (en) Face image detection method, system, and program
JP2007114029A (en) Face center position detector, face center position detection method, and program
JP2007272435A (en) Face feature extraction device and face feature extraction method
JP2000105819A (en) Face image area detecting device
JPWO2017061106A1 (en) Information processing apparatus, image processing system, image processing method, and program
JP2005134966A (en) Face image candidate area retrieval method, retrieval system and retrieval program
JP2005165983A (en) Method for detecting jaw of human face, jaw detection system, and jaw detection program
JP6098133B2 (en) Face component extraction device, face component extraction method and program
JP2009237627A (en) Image processing method, image processor, image processing program, and printer
JP4878273B2 (en) Glasses detection device, image processing device, glasses detection method, and computer program
JP2767814B2 (en) Face image detection method and apparatus
JP2005266981A (en) Race estimation device
JP2004030006A (en) Eye detection apparatus, eye detection program, recording medium for recording the program, and eye detection method

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060131