WO2005055143A1 - 人物顔の頭頂部検出方法及び頭頂部検出システム並びに頭頂部検出プログラム - Google Patents

人物顔の頭頂部検出方法及び頭頂部検出システム並びに頭頂部検出プログラム Download PDF

Info

Publication number
WO2005055143A1
WO2005055143A1 PCT/JP2004/018449 JP2004018449W WO2005055143A1 WO 2005055143 A1 WO2005055143 A1 WO 2005055143A1 JP 2004018449 W JP2004018449 W JP 2004018449W WO 2005055143 A1 WO2005055143 A1 WO 2005055143A1
Authority
WO
WIPO (PCT)
Prior art keywords
face
image
image feature
feature amount
detection
Prior art date
Application number
PCT/JP2004/018449
Other languages
English (en)
French (fr)
Inventor
Toshinori Nagahashi
Takashi Hyuga
Original Assignee
Seiko Epson Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corporation filed Critical Seiko Epson Corporation
Publication of WO2005055143A1 publication Critical patent/WO2005055143A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Definitions

  • the present invention relates to pattern recognition, pattern recognition, and object recognition technology, and more particularly, to a face image for accurately detecting the top of a person's face from a face image of the person's face.
  • parietal detection method and parietal detection system, and c bACKGROUND relates parietal detection program in
  • the presence or absence of a flesh-color area is determined, the mosaic size is automatically determined for the flesh-color area, and the mosaic is performed. It is possible to determine the presence or absence of a human face by calculating the distance from the human face dictionary, and to extract the human face. Thus, false extraction due to the influence of the background and the like is reduced, and human faces are automatically and efficiently detected from images.
  • a face photograph (face image) of a person which is indispensable for a passport or an ID card, has its size, direction, size, and position of the person's face set in detail.
  • a required face image of a person is directly obtained as digital image data by a digital still camera using an electronic image pickup device such as a CCD or a CMOS, or an analog photograph (silver image) in which a person's face has been photographed in advance.
  • Salt photograph as digital image data using an electro-optical image reading device such as a scanner, and using this image data using an image processing system consisting of a 3 ⁇ 4FL computer such as a PC and general-purpose software.
  • the person's original It is conceivable to solve the above problem by appropriately performing simple image processing such as enlargement, reduction, or movement of the face image without deteriorating the features of the face.
  • the processing operation can be directly performed by a human using a general-purpose input / output device such as a mouse, a keyboard, or a monitor.
  • a general-purpose input / output device such as a mouse, a keyboard, or a monitor.
  • the number is huge, it is necessary to perform the processing automatically using the above-described conventional technology.
  • the present invention has been devised to effectively determine such a problem, and its purpose is to accurately and quickly detect the top of a human face which is difficult to automatically recognize by edge detection. It is intended to provide a new method for detecting a crown in a face image, a crown detection system, and a crown detection program in a face image capable of detecting a crown of a human face with a mouth paste (R obust: robustness). Disclosure of the invention
  • a method for detecting the top of a person's face in an image of a person's face is a method of detecting the top of a person's face from an image including a person's face. After detecting a face image in a range that does not include the face image and setting a top detection window having a size including the top of the human face above the detected face image, the image feature amount in the top detection window is set. Is calculated in the vertical direction, and the position where the image feature value changes to a threshold value or more is set as the top of the head of the human face.
  • the top of a human face can be included using the face detection frame. After selecting a region with extremely high performance and setting a crown detection window in that part, the image feature in the crown detection window is determined, and the crown of the human face is determined based on the change in the image feature. This is to detect.
  • the change of the image feature amount in the top detection window is obtained to obtain the top detection window. It is possible to easily and reliably detect the head part of the answer contained in.
  • Invention 2 The method for detecting the top of a person's face is:
  • the face image for the ID photo is in a hatless state, and its head is mostly covered with dark hair such as black or maroon, so that it constitutes the head It can be considered that the luminance of the pixel in the region and the luminance value of the background are significantly different. In other words, the luminance changes rapidly at the boundary between the background and the top.
  • the top of the person's face can be easily and reliably detected. Become.
  • Invention 2 described above is based on the premise that the color of the hair of a person is dark, such as black or chestnut.However, differences or changes in hair color due to race or aging, Or, due to hair dyeing, the color is not only dark, but also any color that does not occur naturally. In this way, in the hair of a color other than dark, the brightness is almost the same as that of the background (for example, blonde hair), and a large change in the image feature amount based on the brightness cannot be obtained. Sometimes.
  • the magnitude of the hue angle is used as the image feature amount, whereby the luminance of the background does not significantly differ from the luminance of the top of the head even if it is not seen.
  • the top-of-top detection method according to any one of Inventions 1 to 3, wherein the image feature amount uses an average value in the horizontal direction within the top-of-top detection window.
  • the image feature amount is automatically switched according to an image using one or both of luminance and hue angle.
  • the head detection P detection window is rectangular, and has a width and height wider than the face width of the human face. It is characterized by having done.
  • a system for detecting the top of a person's face from an image containing a person's face comprising: an image reading means for reading an image containing the person's face; and a person's face from an image read by the image reading means.
  • Face detection means for detecting a face image in a range not including the top of the head and setting a face detection frame in the detected range; and a top of a size including the top of the human face above the face detection frame.
  • a top-of-the-head detecting means for setting a position at which the value changes to a threshold value or more as a top of the person's face.
  • the top of the person's face can be detected more accurately and at a higher speed, as in the first invention, and each of these means can be realized by using a dedicated hard disk computer system. It is possible to automate top detection.
  • Invention 8 The system for detecting a crown in a human face image
  • the image feature value calculation means calculates a brightness value of each pixel as an image feature value, and calculates a hue angle of each pixel as an image feature value. It is characterized by comprising: a hue angle calculation unit; and an image feature amount selection unit that selects any one of these image feature amounts.
  • the image feature amount may not be accurately grasped only by luminance or hue angle alone.
  • the luminance and the hue angle are respectively determined.
  • a means for calculating is provided, and an image feature amount selecting unit selects an optimum one of the image features calculated by any of these means.
  • the head detection means includes: a threshold setting unit that sets a threshold value of the image feature; and a horizontal image feature in the head detection window. It is characterized by comprising an average value calculation unit for obtaining the average of, and one or both of.
  • the feature amount of some pixels greatly differs from the feature amount of neighboring pixels due to noise on the image or contamination of the original image, etc. Since the feature amount can be prevented from suddenly changing at that portion, such a noise portion or the like is not erroneously detected as a top portion, and accurate top portion detection can be performed.
  • the top detection program in the human face image of Invention 10 is
  • a program for detecting the top of a person's face from an image containing a person's face comprising: an image reading step for reading an image containing the person's face; and a person's face from the image read in the image reading step.
  • the top detection window setting step for setting the top detection window, the image feature calculation step for calculating the image feature in the top detection window in the vertical direction, and the rain image feature calculation step are performed.
  • the method is characterized in that a computer implements a head detecting step in which the position where the image feature amount changes to a threshold value or more is the head of the person's face.
  • the top of the answer included in the top detection window can be easily and reliably detected as in the first invention.
  • each of these means can be realized on software using a general-purpose computer system such as a personal computer (PC), it is easier and more economical than a method of manufacturing and realizing a dedicated device. can do. In most cases, only rewriting of the program will change or improve its functions. Version upgrade can be easily achieved.
  • PC personal computer
  • the image feature quantity calculating step includes: a brightness calculation step of calculating brightness of each pixel as an image feature quantity; and a hue angle of each pixel as an image feature quantity. It is characterized by including a hue angle calculation step to be calculated and an image feature amount selection step to select any of these image feature amounts.
  • the optimum image feature amount can be calculated and the top of the head can be always accurately detected regardless of the color of the hair of the person's face as in Invention 8, and the same as in Inventions 1 and 9 can be obtained. The effect can be obtained.
  • the head detecting step includes: a threshold setting step of setting a threshold value of the image feature amount; And an average value calculating step of obtaining an average of the image feature amounts in the directions.
  • FIG. 1 is a block diagram showing an embodiment of a crown detection system.
  • FIG. 2 is a configuration diagram showing a hardware that constitutes the crown detection system.
  • FIG. 3 is a flowchart illustrating an embodiment of a method for detecting a crown
  • FIG. 4 is a diagram illustrating an example of a face image to be detected as a crown.
  • FIG. 5 is a diagram showing a state in which a face detection frame is set in a face image.
  • t 7 is a diagram showing a state of setting the head-top detection window on the top of the face detection frame is a diagram showing a state to fix its position by detecting the parietal region.
  • FIG. 8 is a diagram showing the relationship between the image feature amount and the change amount.
  • FIG. 9 is a diagram showing the relationship between the image feature amount and the change amount.
  • FIG. 10 is a flowchart showing another embodiment of the crown detecting method.
  • FIG. 11 is a flowchart showing another embodiment of the crown detecting method. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 shows an embodiment of a human face top detection system 100 according to the present invention.
  • the crown detection system 100 includes, as described above, an image reading means 10 for reading an image including a person's face, such as a face image for an identification photograph, and this image reading means.
  • Face detection means 12 for detecting a human face from the image read at 10 and setting a face detection frame in that part, and a size including the top of the human face above the face detection frame 12
  • the head detection window setting means 14 for setting the head detection window W of the head
  • the image feature calculation means 16 for calculating the image feature in the head detection window W
  • the image feature calculation means 16 And a crown detecting means 18 for detecting the crown of the person's face based on the change in the image feature amount calculated in.
  • the image reading means 10 is a visual identification attached to a public identification card such as a passport or a driver's license, or a private document identification card such as an employee ID card, a student ID card or a membership card.
  • a face image G for identification of a person i.e., a face image G without a hat and without a background, which contains only a large face facing the front of the person, is represented by a CCD (C R (red), G (green), B (blue) using imaging sensors such as harge Coled Device (charge coupled device) and CMO S (Complementary Metal Oxide Semiconductor).
  • CCD C R (red), G (green), B (blue)
  • imaging sensors such as harge Coled Device (charge coupled device) and CMO S (Complementary Metal Oxide Semiconductor).
  • the function to acquire digital image data composed of the respective pixel data is provided.
  • the digital camera is a CCD such as a digital still camera or a digital video camera, a CMOS camera, a vidicon camera, an image scanner, a drum scanner, or the like.
  • the face image G read optically by the imaging sensor is subjected to AZD conversion.
  • a function of sequentially transmitting the digital image data to the face detecting means 20 is provided.
  • the image reading means 10 has a data storage function, and the read face image data can be appropriately stored in a storage device such as a hard disk drive (HDD) or a storage medium such as a DVD-ROM. It has become.
  • a face image is supplied as digital image data via a network or a storage medium, the image reading means 10 becomes unnecessary or functions as a communication means, an interface (I / F), and the like. Will be.
  • the face detection means 12 detects a human face from the face image G read by the image reading means 10 and sets a face detection frame F in the relevant part.
  • the face detection frame F has a rectangular shape smaller than the area of the front face of the person's face, and includes at least the eyes and lips centering on the nose of the person's face.
  • the size (area) does not include the crown.
  • the algorithm for detecting a human face by the face detecting means 12 is not particularly limited.
  • a conventional method as shown in the following literature can be used.
  • a face image of a region including both eyes and lips of a human face, not including a vertex is created, a neural network is trained using this image, and a human face is detected using the trained neural net. I do.
  • an area from both eyes to lips is detected as a face image area.
  • the size of the face detection frame F is not invariable, and is appropriately increased or decreased according to the size of the target face image.
  • the top detection window setting means 14 provides a function of setting a top detection window W of a size including the top of the person's face above the face detection frame F set by the face detection means 12. It is supposed to. That is, a target area for accurately detecting the top of the person's face by the following means is selected from the face image G using the top detection window W.
  • the image feature value calculation means 16 further includes a brightness calculation unit 22 that calculates the brightness of each pixel as an image feature value, a hue angle calculation unit 24 that calculates the hue angle of each pixel as an image feature value, An image feature amount selection unit 26 selects one of these image feature amounts according to the change in the amount.
  • the image feature amount calculating unit 16 includes an image feature amount based on the luminance calculated by the brightness calculating unit 22 and an image feature amount based on the hue angle calculated by the hue angle calculating unit 24.
  • the image feature amount selecting unit 26 selects the best one of the feature amounts, and sends information on one of the selected image feature amounts to the crown detecting means 18.
  • the crown detecting means 18 further includes a ⁇ value setting unit 32 for setting a threshold value of the image feature amount, and an average value calculation for calculating an average of image feature amounts in the horizontal direction in the crown detecting window W.
  • Section 34 and the threshold setting section 3 2 The top and the background are separated based on the threshold value, and the average of the image features in the horizontal direction of the top detection window W is obtained by the average value calculation unit 34, so that the local value due to image noise and dirt is obtained. It is designed to prevent errors in image features.
  • each means 10, 12, 14, 16, 18, 22, 24, 26, etc. constituting the crown detection system 100 is actually a hardware such as a CPU and a RAM. And a dedicated computer program (software) as shown in Fig. 3, and a computer system such as a personal computer (PC).
  • a dedicated computer program software
  • PC personal computer
  • a hardware for realizing the crown detection system 100 includes a CPU (Central Processing Unit) 40 which is a central processing unit that performs various controls and arithmetic processing.
  • RAM Random Access Memory
  • ROM Read Only Memory
  • HDD node disk drive Device
  • the bus was connected by various internal / external buses 47 such as a processor bus including an eripheral computer interconnect (IB) bus and an ISA (Industria 1 Standard Architecture) bus, a memory bus, a system bus, and an input / output bus. Things.
  • IB eripheral computer interconnect
  • ISA Industria 1 Standard Architecture
  • a storage medium such as a CD-ROM DVD-ROM, a flexible disk (FD), or various control programs and data supplied via a communication network (LAN, WAN, Internet, etc.) N is used as an auxiliary storage device.
  • 4 Install the program and data into the main storage device 41 as necessary, and according to the program loaded into the main storage device 41, the CPU 40 makes full use of various resources to perform predetermined control. Control and arithmetic processing, and outputs the processing results (processing data) to an output device 44 via a bus 47 for display, and the data is formed by an auxiliary storage device 43 as necessary. It is stored and stored (updated) in a database as needed.
  • FIG. 3 is a flowchart showing an example of a method for detecting the top of the head for the face image G to be actually detected.
  • the face image G to be detected as the top of the head according to the present invention is limited to an image in which one person's face is shown.
  • a rectangular face detection frame F is set in the area of the human face as shown in FIG.
  • the size (region) is a rectangular shape smaller than the area of the person's face and does not include the top of the person's face. If the face detection frame F does not include the top of the person's face, it is not always necessary to stick to the size and shape as exemplified.
  • each face image G shown in Figs. 4 to 7 (a) shows the size and ⁇ The horizontal position of the display frame Y is within the standard, but the position of the top of the person's face is too low to reach the standard position.
  • step S103 the face detection frame F is set by the top detection window setting means 14 as shown in FIG.
  • a rectangular top detection window W is set at the upper end of, and the area of the top of the person's face is specified.
  • the size and shape of the top detection window W are not strict.
  • the size and shape of the top of the person's face must always include the top that is the boundary between the background and the head. If it is too large, it is not particularly limited, but if it is too large, it will take a lot of time to detect later edges, etc. Conversely, if it is too small, the top part to be detected will not be included Sometimes. Therefore, for example, if a rectangular shape having a width and height wider than the head width of the person's face is used, as shown in FIG. It is thought that we can do it.
  • the top detection window W is set in close contact with the upper end of the face detection frame F.
  • the top detection window W does not necessarily need to be in close contact with the face detection frame F. In short, it is only necessary that the top detection window W keeps a predetermined positional relationship with respect to the face detection frame F.
  • the process moves to the next step S105, and the brightness of each pixel in the top detection window W is calculated.
  • the average value of the luminance value in the horizontal direction (X direction in Fig. 6) is calculated for each line.
  • 5000 (pixel) " the average value of the luminance values of each line can be obtained by summing the luminance values of all the pixels for each line and dividing by" 1 50 ". Average value for each line Image feature amount.
  • the average value of the luminance values for each line is used as the image feature amount for each line, as described above, in order to avoid the influence of the fluctuation of the luminance value due to noise or the like generated on the face image G. That's why. In other words, if there is noise or dirt on the original image on the face image G to be searched, the luminance value of the pixel in that part greatly differs from the luminance value of the neighboring pixels. By calculating the average of the values and using this as the image feature amount for each line, it is possible to avoid the inconvenience of erroneously detecting that portion as the top of the head.
  • the average luminance value is smoothed in the vertical direction (Y direction in the figure) to avoid a sudden change in the image feature amount due to noise on the image or contamination of the original image, as described above.
  • the smoothing method is not particularly limited, but for example, a method of using an average luminance value of about 1 to 3 lines above and below each other that is vertically in contact with the line of interest, etc. Is appropriate.
  • step S109 the process proceeds to step S109, and the calculated average luminance value for each line is calculated from the upper end in the top detection window W.
  • the amount of change is obtained by plotting vertically downward (in the Y direction) in order, and the position where the amount of change exceeds the threshold value is regarded as the top of the head.
  • the image feature amount composed of the average luminance value calculated for each line is plotted for each line in the vertical direction (Y direction) in the crown detection window W, and The position where the amount of change exceeds the initial average value by a threshold value (for example, 10% of the average value of the image feature value) is regarded as the top of the head.
  • a threshold value for example, 10% of the average value of the image feature value
  • the initial average value is the average value of the image feature amount of the line near the top and bottom of the head detection window (for example, about 6 lines).
  • the position of can be regarded as the top of the head, the area between YoYi can be regarded as the background, and the above can be regarded as the head.
  • the position above the threshold value is regarded as the top of the head because, as described above, even if the background is uniform due to noise or dirt generated in the face image G, the image feature amount This is because the difference occurs, and this is to avoid erroneous detection due to the variation.However, in the case of a face image G or the like in which there is almost no variation in the image feature amount due to noise or dirt, the threshold value is small. On the other hand, in the case of a face image G covered with noise or dirt, the threshold value may be even larger.
  • the initial average value of the image feature is set, and the threshold is set based on the initial average, but as shown in Fig. 9, the image feature at a slightly distant position is set. They may be compared with each other and their distance may be set as a threshold. In the example of FIG. 9, when compared with the image feature amount of the position of Y 2, an image feature amount of the position of Upsilon 3, the distance is because it exceeds the threshold, considers the vicinity of Upsilon 3 and top portion .
  • the average brightness of each line is used as the image feature amount.
  • the amount may not exceed the threshold.
  • FIG. 10 shows a flowchart for detecting the top of the crown when the hue angle is used as the image feature amount, and the first steps S 101 and S 103 are performed when the brightness value is adopted.
  • an average value of the hue angle of the detection window in the horizontal direction is obtained (step S211), and the average hue angle is determined by the detection window. Is smoothed in the vertical direction (step S113), and finally the amount of change is determined. If the amount of change is equal to or greater than the threshold value, the position is regarded as the top of the head (step S115) ).
  • the top of the person can be accurately detected.
  • luminance value and “hue angle” used in the present invention have the same meanings as those generally defined in the field of image processing.
  • “hue” is an attribute that indicates the difference in color
  • “hue angle” is the background color using a color index diagram such as “Munsell's hue circle” or “Munsell's color solid”. It refers to the angle up to the position of the hair color as a reference. For example, according to “Munsell's Hue Circle”, if the reference background color is "Blue”, the hair color of "Y ell ow” or “Red” is higher than that of "Green”. This means that the hue angle is large (the image feature amount is large).
  • FIG. 11 shows the processing flow of the above-described image feature amount selection unit 26 and the top-of-top detection unit 34. In this case, the top of the human body cannot be detected with the image feature amount based on the luminance value. Shows an example of the parietal detection flow considering It is a thing.
  • top detection flow as in the flow of FIG. 3, first, a human face included in the image is detected, a top detection window W is set at the top of the human face, and then the detection window within the detection window is used. After obtaining the average value of the luminance values in the horizontal direction, the average luminance value is smoothed in the vertical direction, and then the amount of change in the average luminance value is obtained (steps S201 to S209).
  • step S211 it is determined whether or not the amount of change has exceeded the threshold value. If it is determined that the amount of change has exceeded (yes), the process proceeds to step S213 to change the average luminance value. The processing is terminated by regarding the position where the amount exceeds the threshold as the top of the head, but if it is determined that the amount of change does not exceed the threshold (No), the process proceeds to step S215 and this time As shown by 10, a change amount of the image feature amount based on the hue angle is obtained (steps S215 to S219).
  • step S221 when it is determined that the change amount exceeds the threshold (yes), the process proceeds to step S223 and the position where the change amount of the average luminance value exceeds the threshold is determined. Is regarded as the crown, and the processing is terminated. If it is determined that the amount of change does not exceed the threshold (No), the process proceeds to step S225 and the user of the present system is notified that "the crown is Notification (display) to the effect that "cannot be detected” is performed, and the processing ends.
  • step S225 in short, when both the luminance value and the hue angle of the hair part (the crown area) show almost the same values as those of the background, for example, It can be considered that the color of the image is blue and its saturation is almost the same, but in such a case, it is considered difficult to detect the top of the head even by human vision with excellent sensitivity. This is an extremely rare case where the photographer would consciously avoid such a case when taking a picture.
  • the top of the head can be reliably detected.
  • the image feature amount based on the hue angle is obtained first, and then the image feature amount based on the hue angle is obtained.
  • the image feature amount may be obtained, and further, both image feature amounts may be used simultaneously.

Abstract

人物顔が含まれる画像中から当該人物顔の頭頂部を検出する方法であって、前記人物顔を検出して当該部分の上部に頭頂部検出窓を設定した後、当該頭頂部検出窓内の画像特徴量を垂直方向に算出し、その画像特徴量が閾値以上に変化する位置を前記人物顔の頭頂部とする。これによって、人物顔の頭頂部を的確且つ高速に検出できる。

Description

明細書 人物顔の頭頂部検出方法及び頭頂部検出システム並ひ、に頭頂部検出プロ グラム 技術分野
本発明は、 ノ ターン認、識 (P a t t e r n r e c o g n i t i o n) やオブジェク ト認識技術に係り、 特に人物の顔が写っている顔画像の中か ら当該人物顔の頭頂部を的確に検出するための顔画像中の頭頂部検出方法 及び頭頂部検出システム並びに頭頂部検出プログラムに関するものである c 技術背景
近年のパターン認識技術やコンピュータ等の情報処理装置の高性能化に 伴つて文字や音声の認識精度は飛躍的に向上してきているが、 人物や物 体 '景色等が映っている画像、 例えば、 ディジタルスチルカメラ等によつ て取り込まれた画像のパターン認識のうち、 特にその画像中に人の顔が映 つているか否かを正確且つ高速に識別するといった点に関しては未だに極 めて困難な作業であることが知られている。
しかしながら、 このように画像中に人の顔が映っているか否か、 さらに はその人物が誰であるのかをコンピュータ等によって自動的に正確に識別 することは、 生体認識技術の確立やセキュリティの向上、 犯罪捜査の迅速 化、 画像データの整理 ·検索作業の高速化等を実現する上で極めて重要な テーマとなってきており、 このようなテーマに関しては従来から多くの提 案がなされている。
例えば、 特開平 9一 505 28号公報等では、 ある入力画像について、 先ず、 肌色領域の有無を判定し、 その肌色領域に対して自動的にモザイク サイズを決定してモザィク化し、 そのモザイク領域と人物顔辞書との距離 を計算することにより人物顔の有無を判定し、 人物顔の切り出しを行うこ とによって、 背景等の影響による誤抽出を減らし、 効率的に画像中から人 間の顔を自動的に見つけるようにしている。
また、 特開平 8— 7 7 3 3 4号公報等では、 各侮人やグループ (例えば、 人種グループ) を区別するために用いる顔画像の特敷点抽出を所定のアル ゴリズムを利用することで自動的に高速且つ簡便に実施するようにしてい る。
ところで、 パスポートや身分証明書等に不可欠な人物の顔写真 (顔画 像) は、 そのサイズや人物の顔の向きや大きさ、 位置等が細かく設定され ている場合が多い。
例えば、 無背景で、 且つ帽子等のアクセサリーを身に付けないといった 条件はいうまでもなく、 写っている人物の顔が正面を向いていることや、 人物顔が写真の中央にあること、 写っている顔の頭頂部の位置が写真の上 の枠から一定の距離にあること、 …等が事細かく規定されており、 原則と してその規格から外れる写真 (顔画像) は採用されない。
しかしながら、 人物顔が正面を向いていなかったり、 帽子等のァクセサ リ一を身に付けている等といった理由であればともかく、 単に写っている 顔の大きさや位置が他方ずれているという理由だけで、 再度撮影し直さな ければならないのは不合理であり、 利用者に対して著しい労力ゃコストを 強いるといった問題点がある。
そのため、 近年発達が著しい技術分野であるディジタル画像処理技術を 利用して、 前記のような問題点を解決する方法が検討されている。
例えば、 必要とする人物の顔画像を、 C C Dや C M O S,等の電子撮像素 子を用いたディジタルスチルカメラ等によつて直接ディジタル画像データ として取得、 あるいは予め人物顔が撮影されたアナログ写真 (銀塩写真) をスキャナ等の電子光学画像読取装置を利用してディジタル画像データと して取得し、 このディジタル画像データを P C等の ¾FL用のコンピュータと 汎用のソフトウエアからなる画像処理システムを利用してその人物本来の 顔の特徴を損なうことなく、 適宜、 その顔画像を拡大、 縮小、 移動等の簡 単な画像処理を施すことで前記問題を解決することが考えられている。
一方、 このような処理対象となる画像の数が少なければ、 その処理操作 は、 マウスやキーボード、 モニタ等の汎用の入出力装置を用いて人間が直 接実施することも可能であるが、 その数が膨大な場合には、 前記のような 従来技術を利用してその処理を自動的に行う必要が生じてくる。
しかしながら、 このように人物顔の画像処理の自動化を実現するために は、 顔の輪郭、 特に人物顔の頭頂部の位置を正確に認識する必要があるが. 人物の頭頂部は、 その人物のへアースタイルや撮影時の照明条件、 その他 の条件によって一般的には必ずしも明瞭な境界を持たないため、 従来のェ ッジ検出フィルタ一等では明確に読み取れないことが多いため、 自動的に その部分を認識することは難しい。
そこで、 本発明はこのような課題を有効に角军決するために案出されたも のであり、 その目的は、 エッジ検出では自動的に認識し難い人物顔の頭頂 部を的確、 且つ高速に検出して口パスト (R o b u s t :頑健) な人物顔 の頭頂部検出を行うことができる新規な顔画像中の頭頂部検出方法及び頭 頂部検出システム並びに頭頂部検出プログラムを提供するものである。 発明の開示
前記課題を解決するために発明 1の人物顔画像中の頭頂部検出方法は、 人物顔が含まれる画像中から当該人物顔の頭頂部を検出する方法であって. 前記人物顔の頭頂部を含まない範囲の顔画像を検出して、 検出した当該顔 画像の上部に前記人物顔の頭頂部が含まれる大きさの頭頂部検出窓を設定 した後、 当該頭頂部検出窓内の画像特徴量を垂直方向に算出し、 その画像 特徴量が閾値以上に変化する位置を前記人物顔の頭頂部とするようにした ことを特徴とするものである。
このように本発明は、 顔検出枠を利用して人物顔の頭頂部が含まれる可 能性が極めて高い領域を選択し、 その部分に頭頂部検出窓を設定した後、 この頭頂部検出窓内の画像特徴量を求め、 その画像特徴量の変化に基づい て人物顔の頭頂部を検出するようにしたものである。
すなわち、 人物顔の頭頂部とその背景は、 画像特徴量が大きく変化して いることが一般的であるため、 その頭頂部検出窓内の画像特徴量の変化を 求めることでその頭頂部検出窓内に含まれている答の頭項部を容易且つ確 実に検出することができる。
発明 2の人物顔の頭頂部検出方法は、
発明 1に記載の頭頂部検出方法において、 前記画像特徴量として輝度の 大きさを用いるようにしたことを特徴とするものである。
すなわち、 証明写真用の顔画像は無帽状態であって、 その頭部は黒色あ るいは栗色等のダーク系の頭髪で覆われている場合が殆どであるため、 そ の頭部を構成する領域の画素の輝度と背景の輝度値とは大きく異なると考 えることができる。 つまり、 背景と頭頂部との境界部分で輝度が急激に変 化することになる。
従って、 頭頂部と背景とを区別するための画像特徴量としてこのように その領域によって顕著に異なる画素の輝度を利用すれば、 その人物顔の頭 頂部を容易且つ確実に検出することが可能となる。
発明 3の人物顔の頭頂部検出方法は、
発明 1に記載の頭頂部検出方法において、 前記画像特徴量として色相角 の大きさを用いるようにしたことを特徴とするものである。
すなわち、 上記発明 2は人物の頭髪の色は黒色あるいは栗色等のダーク 系のものであることを前提としてなされたものであるが、 人種や加齢によ る頭髪の色の違いや変化、 あるいは染毛等によってその色はダーク系のみ ならず、 自然に発生しないようなあらゆる色が存在する。 そして、 このよ うにダーク系以外の色の頭髪の中には、 その輝度が背景とほぼ同じ (例え ば、 金髪) であって、 輝度に基づいた画像特徴量に大きな変化が得られな い場合がある。
そのため、 本発明では、 画像特徴量として色相角の大きさを利用するよ うにしたものであり、 これによつて背景の輝度を頭頂部の輝度に大きな違 いが見られない場合であってもその色相角の違いによる画像特徴量の変化 を求めることで人物顔の頭頂部を容易且つ確実に検出することができる。 発明 4の人物顔の頭頂部検出方法は、
発明 1〜 3のいずれかに記載の頭頂部検出方法において、 前記画像特徴 量は、 前記頭頂部検出窓内の水平方向の平均値を用いるようにしたことを 特徴とするものである。
これによつて、 仮に画像上のノイズや原画像の汚れ等によって一部の画 素の特徴量がその近傍の画素の特徴量と大きく異なるような場合が発生し ても、 その部分で特徴量が急に変化することを回避できるため、 そのよう なノィズ部分等を頭頂部と誤検出するようなことがなくなつて的確な頭頂 部検出を行うことができる。
発明 5の人物顔の頭頂部検出方法は、
発明 1〜 4のいずれかに記載の頭頂部検出方法において、 前記画像特徴 量は、 輝度又は色相角のいずれか又は両方を使用する画像に応じて自動的 に切り替えることを特徴とするものである。
これによつて、 発明 4と同様に画像上のノイズや原画像の汚れ等に起因 する画像特徴量の急激な変化を回避して的確な頭頂部検出を行うことがで さる。
発明 6の人物顔の頭頂部検出方法は、
発明 1〜5に記載の頭頂部検出方法において、 前記頭頂き P検出窓として は、 矩形状であって、 その幅及び高さが前記人物顔の顔幅よりも幅広のも のを用いるようにしたことを特徴とするものである。
これによつて、 検出対象となる当該人物顔の頭頂部を頭頂部検出窓内に 確実に捉えることができるため、 頭頂部の検出を確実に行うことができる, 発明 7の人物顔の頭頂部検出システムは、
人物顔が含まれる画像中から当該人物顔の頭頂部を検出するシステムであ つて、 前記人物顔が含まれる画像を読み取る画像読取手段と、 当該画像読 取手段で読み取った画像中から人物顔の頭頂部を含まない範囲の顔画像を 検出して、 検出した範囲に顔検出枠を設定する顔検出手段と、 当該顔検出 枠の上部に前記人物顔の頭頂部が含まれる大きさの頭頂部検出窓を設定す る頭頂部検出窓設定手段と、 当該頭頂部検出窓内の画像特徴量を垂直方向 に算出する画像特徴量算出手段と、 当該画像特徴量算出手段で算出された 画像特徴量が閾値以上に変化する位置を前記人物顔の頭頂部とする頭頂部 検出手段と、 を備えたことを特徴とするものである。
これによつて、 発明 1と同様にさらに人物顔の頭頂部の検出を的確、 且 つ高速に行うことができると共にこれら各手段を専用のハードゥエァゃコ ンピュータシステムを利用して実現することで頭頂部検出を自動化するこ とが可能となる。
発明 8の人物顔画像中の頭頂部検出システムは、
発明 7に記載の人物顔の頭頂部検出システムにおいて、 前記画像特徴量 算出手段は、 各画素の輝度を画像特徴量として算出する輝度算出部と、 各 画素の色相角を画像特徴量として算出する色相角算出部と、 これらいずれ かの画像特徴量を選択する画像特徴量選択部と、 を備えたことを特徴とす るものである。
すなわち、 発明 2 , 3に示したように、 その画像特徴量は輝度のみ、 あ るいは色相角のみでは的確に把握することができない場合があることから. 本発明では輝度及ぴ色相角をそれぞれ算出する手段を設け、 画像特徴量選 択部によってこれらいずれかの手段で算出された画像特徴のうち最適な方 を選択するようにしたものである。
これによつて、 人物顔の頭髪の色に拘わらず、 最適な画像特微量を算出 して頭頂部検出を常に的確に実施することができる。 発明 9の人物顔の頭頂部検出システムは、
発明 7又は 8に記載の人物顔の頭頂部検出システムにおいて、 前記頭頂 部検出手段は、 前記画像特徴量の閾値を設定する閾値設定部と、 前記頭頂 部検出窓内の水平方向の画像特徴量の平均を求める平均値算出部と、 のい ずれか一方あるいは両方を備えたことを特徴とするものである。
これによつて、 発明 4と同様に仮に画像上のノイズや原画像の汚れ等に よって一部の画素の特徴量がその近傍の画素の特徴量と大きく異なる よう な場合が発生しても、 その部分で特徴量が急に変化することを回避できる ため、 そのようなノイズ部分等を頭頂部と誤検出するようなことがなくな つて的確な頭頂部検出を行うことができる。
発明 1 0の人物顔画像中の頭頂部検出プログラムは、
人物顔が含まれる画像中から当該人物顔の頭頂部を検出するプログラム であって、 前記人物顔が含まれる画像を読み取る画像読取ステップと、 当 該画像読取ステップで読み取った画像中から人物顔の頭頂部を含まない範 囲の顔画像を検出して、 検出した範囲に顔検出枠を設定する顔検出ステツ プと、 当該顔検出枠の上部に前記人物顔の頭頂部が含まれる大きさの頭頂 部検出窓を設定する頭頂部検出窓設定ステップと、 当該頭頂部検出窓内の 画像特徴量を垂直方向に算出する画像特徴量算出ステップと、 当該雨像特 徴量算出ステップで算出された画像特徴量が閾値以上に変化する位置を前 記人物顔の頭頂部とする頭頂部検出ステップと、 をコンピュータに実現さ せることを特徴とするものである。
これによつて、 発明 1と同様にその頭頂部検出窓内に含まれている答の 頭頂部を容易且つ確実に検出することができる。
また、 パソコン (P C ) 等の汎用のコンピュータシステムを用いて ソフ トウエア上でこれらの各手段を実現することができるため、 専用の装置を 製作して実現する方法に比べて容易且つ経済的に実現することができ る。 また、 殆どの場合プログラムの書き換えだけでその機能の変更、 改良等の バージョンアップを容易に達成することができる。
発明 1 1の人物顔の頭頂部検出プログラムは、
発明 1 0に記載の人物顔の頭頂部検出プログラムにおいて、 前記画像特徴 量算出ステップは、 各画素の輝度を画像特徴量として算出する輝度算出ス テツプと、 各画素の色相角を画像特徴量として算出する色相角算出ステツ プと、 これらいずれかの画像特徴量を選択する画像特徴量選択ステツプと を含むことを特徴とするものである。
これによつて、 発明 8と同様に人物顔の頭髪の色に拘わらず、 最適な画 像特徴量を算出して頭頂部検出を常に的確に実施することができると共に 発明 1及び 9と同様な効果を得ることができる。
発明 1 2の人物顔画像中の頭頂部検出プログラムは、
発明 1 0又は 1 1に記載の人物顔の頭頂部検出プログラムにおいて、 前 記頭頂部検出ステップは、 前記画像特徴量の閾値を設定する閾値設定ステ ップと、 前記頭頂部検出窓内の水平方向の画像特徴量の平均を求める平均 値算出ステップと、 のいずれか一方あるいは両方を備えたことを特徴とす るものである。
これによつて、 発明 4と同様に仮に画像上のノイズや原画像の汚れ等が あってもそのようなノイズ部分等を頭頂部と誤検出するようなことがなく なって的確な頭頂部検出を行うことができる。 図面の簡単な説明
図 1は、 頭頂部検出システムの実施の一形態を示すプロック図である。 図 2は、 頭頂部検出システムを構成するハードゥエァを示す構成図であ る。
図 3は、 頭頂部検出方法の実施の一形態を示すフローチャート図である, 図 4は、 頭頂部検出対象となる顔画像の一例を示す図である。
図 5は、 顔画像に顔検出枠を設定した状態を示す図である。 図 6は、 顔検出枠の上部に頭頂部検出窓を設定した状態を示す図である t 図 7は、 頭頂部を検出してその位置を修正する状態を示す図である。 図 8は、 画像特徴量とその変化量との関係を示す図である。
図 9は、 画像特徴量とその変化量との関係を示す図である。
図 1 0は、 頭頂部検出方法の他の実施の形態を示すフローチャート図で ある。
図 1 1は、 頭頂部検出方法の他の実施の形態を示すフローチャート図で ある。 発明を実施するための最良の形態 ·
以下、 本発明を実施するための最良の形態を添付図面を参照しながら詳 述する。
図 1は、 本発明に係る人物顔の頭頂部検出システム 1 0 0の実施の一形 態を示したものである。
図示するように、 この頭頂部検出システム 1 0 0は、 前述したように証 明写真用の顔画像のように人物の顔が含まれる画像を読み取る画像読取手 段 1 0と、 この画像読取手段 1 0で読み取った画像中から人物顔を検出し てその部分に顔検出枠を設定する顔検出手段 1 2と、 この顔検出枠 1 2の 上部に前記人物顔の頭頂部が含まれる大きさの頭頂部検出窓 Wを設定する 頭頂部検出窓設定手段 1 4と、 その頭頂部検出窓 W内の画像特徴量を算出 する画像特徴量算出手段 1 6と、 この画像特徴量算出手段 1 6で算出され た画像特徴量の変化に基づいて前記人物顔の頭頂部を検出する頭頂部検出 手段 1 8と、 から主に構成されている。
先ず、 画像読取手段 1 0は、 パスポートや運転免許証等の公的な身分証 明書、 あるいは、 社員証や学生証、 会員証等の私文書的な身分証明書等に 添付される視覚的人物特定用の証明用顔写真、 すなわち、 その人物の正面 向きの顔が唯一大きく含まれる、 無帽、 無背景の顔画像 Gを、 C C D ( C h a r g e C o l e d D e v i c e :電荷結合素子) や、 CMO S (C omp l eme n t a r y Me t a l Ox i d e S e m i c o n d u c t o r ) 等の撮像センサを利用して、 R (赤) 、 G (緑) 、 B (青) のそれぞれの画素データからなるディジタル画像データとして取得 する機能を提供するようになっている。
具体的には、 ディジタルスチルカメラゃディジタルビデオカメラ等の C CD、 CMO Sカメラゃビジコンカメラ、 イメージスキャナ、 ドラムスキ ャナ等であり、 前記撮像センサ光学的に読み込んだ顔画像 Gを AZD変換 してそのディジタル画像データを顔検出手段 20へ順次送る機能を提供す るようになっている。
なお、 この画像読取手段 1 0にはデータ保存機能が備えられており、 読 み込んだ顔画像データをハードディスクドライブ装置 (HDD) 等の記憶 装置や DVD— ROM等の記憶媒体等に適宜保存可能となっている。 また. ネットワークや記憶媒体等を介して顔画像がディジタル画像データとして 供給される場合には、 この画像読取手段 10は不要となるか、 あるいは通 信手段やインターフェース ( I/F) 等として機能することになる。
次に、 顔検出手段 1 2は、 この画像読取手段 1 0で読み取った顔画像 G 中から人物顔を検出して当該部分に顔検出枠 Fを設定するようになってい る。
この顔検出枠 Fは、 後述するように、 人物顔の正面顔の面積よりも小さ い矩形状であって、 少なくとも当該人物顔の鼻を中心に両目と唇部分を含 み、 当該人物顔の頭頂部は含まない大きさ (領域) となっている。
なお、 このような顔検出手段 1 2による人物顔の検出アルゴリズムは、 特に限定するものではないが、 例えば、 以下の文献等に示すような従来の 手法を利用することができる。
H. A. R ow l e y、 S . B a l u j a , a n d T. Κ a η a d e . "Ne u r a l n e tw o r k— b a s e d f a c e d e t e c t i o n" I EEE T r a n s a c t i o n s o n P a t t e r n An a l y s i s a n d Ma c h i n e I n t e l l i g e n c e, v o l . 20、 n o. 1、 p p. 23— 38、 1 9 9 8
この技術によれば、 人物顔の両目、 唇を含み、 頭頂部を含まない領域の 顔画像を作成し、 この画像を用いてニューラルネットを訓練し、 訓練した ニューラルネットを用いて人物顔を検出する。 開示されているこの技術に よれば両目から唇までの領域を顔画像領域として検出するようになってい る。
また、 この顔検出枠 Fの大きさは不変的なものではなく、 対象とする顔 画像の大きさによって適宜増減するようになっている。
頭頂部検出窓設定手段 14は、 この顔検出手段 1 2で設定された顏検出 枠 Fの上部に前記人物顔の頭頂部が含まれる大きさの頭頂部検出窓 Wを設 定する機能を提供するようになっている。 すなわち、 人物顔の頭頂部を以 後の手段で正確に検出するための対象領域をこの頭頂部検出窓 Wを用いて 前記顔画像 G中から選択するようになっている。
画像特徴量算出手段 1 6は、 さらに各画素の輝度を画像特徴量として算 出する輝度算出部 22と、 各画素の色相角を画像特徴量として算出する色 相角算出部 24と、 その特徴量の変化に応じてこれらいずれかの画像特徴 量を選択する画像特徴量選択部 26とから構成されている。
すなわち、 後に詳しく説明するが、 この画像特徴量算出手段 1 6は、 輝 度算出部 2 2で算出された輝度に基づく画像特徴量と、 色相角算出部 24 で算出された色相角に基づく画像特徴量とのうちいずれか最適な方を画像 特徴量選択部 26が選択して、 選択された一方の画像特徴量についての情 報を頭頂部検出手段 1 8に送るようになっている。
頭頂部検出手段 1 8は、 さらに、 前記画像特徴量の閾値を設定する闞値 設定部 3 2と、 前記頭頂部検出窓 W内の水平方向の画像特徴量の平均を求 める平均値算出部 34とが備えられており、 閾値設定部 3 2で設定された 閾値に基づいて頭頂部と背景を切り分けると共に、 平均値算出部 34によ つて前記頭頂部検出窓 Wの水平方向の画像特徴量の平均を求めることで画 像のノイズや汚れ等による局所的な画像特徴量の誤差を防止するようにな つている。
なお、 この頭頂部検出システム 1 00を構成する各手段 1 0、 1 2、 1 4、 1 6、 18、 2 2、 24、 26等は、 実際には、 CPUや RAM等か らなるハードウエアと、 図 3に示すような専用のコンピュータプログラム (ソフトウェア) とからなるパソコン (P C) 等のコンピュータシステム によって実現されるようになっている。
すなわち、 この頭頂部検出システム 100を実現するためのハードゥエ ァは、 例えば図 2に示すように、 各種制御や演算処理を担う中央演算処理 装置である CPU (C e n t r a l P r o c e s s i n g Un i t) 40と、 主記憶装置 (Ma i n S t o r a g e) に用いられる RAM (R a n d om Ac c e s s Memo r y) 4 1と、 読み出し専用の 記憶装置である ROM (R e a d On l y Memo r y) 42と、 ノヽ ードディスクドライブ装置 (HDD) や半導体メモリ等の補助記憶装置
(S e c o n d a r y S t o r a g e) 43、 及びモエタ (LCD (液 晶ディスプレイ) や CRT (陰極線管) ) 等からなる出力装置 44、 ィメ ージスキャナやキーポード、 マウス、 CCD (Ch a r g e C o u 1 e d D e v i c e) や CMOS (C omp l eme n t a r y Me t a 1 Ox i d e S em i c o n d u c t o r) 等の撮像センサ等から なる入力装置 45と、 これらの入出力インターフェース ( I /F) 46等 との間を、 PC I (P e r i p h e r a l C omp o n e n t I n t e r c o n n e c t) バスや I SA ( I n d u s t r i a 1 S t a n d a r d Ar c h i t e c t u r e ;アイサ) バス等からなるプロセッサ バス、 メモリバス、 システムバス、 入出力バス等の各種内外バス 47によ つてバス接続したものである。 そして、 例えば、 C D _ R O M D V D— R O M、 フレキシブルデイス ク (F D ) 等の記憶媒体、 あるいは通信ネットワーク (L A N、 WA N , インターネット等) Nを介して供給される各種制御用プログラムやデータ を補助記憶装置 4 3等にインストールすると共にそのプログラムやデータ を必要に応じて主記憶装置 4 1にロードし、 その主記憶装置 4 1にロード されたプログラムに従って C P U 4 0が各種リソースを駆使して所定の制 御及び演算処理を行い、 その処理結果 (処理データ) をバス 4 7を介して 出力装置 4 4に出力して表示すると共に、 その —タを必要に応じて補助 記憶装置 4 3によって形成されるデータベースに適宜記憶、 保存 (更新) 処理するようにしたものである。
次に、 このような構成をした頭頂部検出システム 1 0 0を用いた頭頂部 検出方法の一例を図 3〜図 9を用いて説明する。
図 3は、 実際に検出対象となる顔画像 Gに対する頭頂部検出方法の一例 を示すフローチヤ一トである。
図示するように、 先ず最初のステップ S 1 0 1において前述した顔検出 手段 1 2によって予め画像読取手段 1 0で読み取った頭頂部検出対象とな る顔画像 Gからその顔画像 Gに含まれる顔の検出を行ってから検出した人 物顔上に顔検出枠 Fを設定する。
例えば、 本発明の頭頂部検出対象となる顔画像 Gは、 図 4に示すように 一人の人物顔が写っているものに限定されることから、 先ず、 顔検出手段 1 2によってその人物顔の位置を特定し、 その後、 図 5に示すようにその 人物顔の領域に矩形状の顔検出枠 Fを設定する。
なお、 ここで図示した顔検出枠 Fの場合は、 当該人物顔の面積よりも小 さい矩形状であって当該人物顔の頭頂部は含まない大きさ (領域) とした ものであるが、 この顔検出枠 Fは、 当該人物顔の頭頂部を含まないもので あれば、 必ずしも例示するような大きさ、 形状にこだわる必要はない。 ま た、 図 4〜図 7 ( a ) までの各顔画像 Gは、 写っている人物顔の大きさ及 ぴ表示枠 Yの左右方向の位置は規格内であるが、 その人物顔の頭頂部の位 置が低すぎて規格の位置に達していない状態を示したものである。
次に、 このようにして顔検出枠 Fを人物顔の中心に設定したならば、 ス テツプ S 103に移行して図 6に示すように頭頂部検出窓設定手段 14に よってその顔検出枠 Fの上端部に矩形状の頭頂部検出窓 Wを設定してその 人物顔の頭頂部の領域を特定する。
ここで、 この頭頂部検出窓 Wの大きさや形状としては厳密なものでなく . 当該人物顔の額より上方で、 必ず背景と頭部との境目である頭頂部が含ま れる大きさ ·形状であれば、 特に限定されるものではないが、 あまりに大 きすぎると後のエッジの検出等に多くの時間がかかってしまい、 反対に小 さすぎると検出対象となる頭頂部が含まれなくなってしまうことがある。 従って、 例えば、 同図に示すように矩形状であってその幅及び高さが当該 人物顔の頭幅よりも幅広のものを用いれば、 余分な領域を排除しつつ、 頭 頂部を確実に捕捉することができるものと考えられる。
なお、 図 6の例では顔検出枠 Fの上端部に密着させて頭頂部検出窓 Wを 設定したものであるが、 この頭頂部検出窓 Wは必ずしも顔検出枠 Fに密着 させる必要はなく、 要は顔検出枠 Fに対して頭頂部検出窓 Wが所定の位置 関係を保っていれば良い。
次に、 このようにして対象画像に対して頭頂部検出窓 Wを設定したなら ば、 次のステップ S 1 05に移行して当該頭頂部検出窓 W内の各画素の輝 度を算出し、 その輝度値の水平方向 (図 6中 X方向) の平均値を各ライン 毎に算出する。
例えば、 この頭頂部検出窓 W内の画素数が、 水平方向 (図 6中 X方向) 「1 50 (p i x e l ) 」 X垂直方向 (図 6中 Y方向) 「1 00 (p i x e l ) 」 = 「1 5000 (p i x e l ) 」 であったとすると、 各ライン毎 に全ての画素の輝度値を合計して 「1 50」 で除算することで各ライン毎 の輝度値の平均値を求めることができ、 この輝度値の平均値を各ライン毎 の画像特徴量とする。
このように各ライン毎の輝度値の平均値を各ラィン毎の画像特徴量とす るのは、 前述したように、 顔画像 G上に発生したノイズ等による輝度値の 変動による影響を回避するためである。 すなわち、 検索対象となる顔画像 G上にノイズや原画像の汚れ等があると、 その部分の画素の輝度値がその 近傍の画素の輝度値と大きく異なるが、 このように各ライン毎の輝度値の 平均値を算出し、 これを各ライン毎の画像特徴量として採用すればその部 分を頭頂部等と誤検出するような不都合を回避することができる。
次に、 このようにして頭頂部検出窓 W内の各ライン毎の平均輝度値 (画 像特徴量) が算出されたならば、 次のステップ S 1 0 7に移行してさらに 各ライン毎の平均輝度値を垂直方向 (図中 Y方向) に平滑化して前記と同 様に画像上のノイズや原画像の汚れ等に起因する画像特徴量の急激な変化 を回避する。 この平滑化方法としては特に限定するものではないが、 例え ば、 注目ラインを中心として垂直方向に接する上下各 1〜3ライン程度の 他のラインの平均輝度値を用いるなどといった方法を採用することが適当 ,である。
そして、 このようにして各ライン毎の平均輝度値が算出されたならば、 ステップ S 1 0 9に移行して、 算出された各ライン毎の平均輝度値を頭頂 部検出窓 W内の上端から垂直下方 (Y方向) に向かって順にプロットして その変化量を求め、 その変化量が閾値以上になった位置を頭頂部とみなす ことになる。
例えば、 図 8に示すように、 各ライン毎に算出された平均輝度値からな る画像特徴量を各ライン毎に頭頂部検出窓 W内の垂直方向 (Y方向) にプ ロットして、 その変化量が初期平均値より閾値 (例えば、 画像特徴量の平 均値の 1 0 %) 以上になった位置を頭頂部とみなすことになる。
ここでいう初期平均値とは、 頭頂部検出窓の上底部付近ライン (例えば、 6ライン程度) の画像特徴量の平均値である。 図 8の場合は、 の付近で画像特徴量が閾値.を超えたことから、 の 位置を頭頂部とみなし、 Y o Y iの間は背景、 以上は頭部とみなすこ とができる。
なお、 このように閾値以上になった位置を頭頂部とみなすのは、 前述し たように、 顔画像 G中に発生したノイズや汚れ等によって均一な背景であ つても画像特徴量に多少の差が発生するためであり、 そのバラツキによる 誤検出を回避するためであるが、 ノィズゃ汚れなどによる画像特徴量のパ ラツキが殆ど生じないような顔画像 G等の場合は、 この閾値は小さくても 良いが、 反対にノイズや汚れの覆い顔画像 Gの場合は、 その閾値はさらに 大きいものとなる場合がある。
また、 図 8の場合では、 画像特徴量の初期平均値を設定し、 その初期平 均値を基準に閾値を設定したものであるが、 図 9に示すように少し離れた 位置の画像特徴量同士を比較し、 それらの距離を閾値として設定しても良 い。 図 9の例では、 Y 2の位置の画像特徴量と、 Υ 3の位置の画像特徴量を 比較した場合、 その距離は閾値を超えているため、 Υ 3の付近を頭頂部と みなしている。
そして、 このようにして頭頂部が検出されたならば、 図 7 ( a ) 、 ( b ) に示すように、 その頭頂部の位置が規格の頭頂部位置と同じ高さと なるように、 人物顔全体を移動させる。
図 7 ( a ) は、 人物顔の頭頂部がかなり低い位置にあるため、 図 7
( b ) に示すようにそのまま人物顔を垂直上方に移動させることでその頭 頂部を規格の位置に一致させることができる。 なお、 図 7 ( a ) 等では人 物の首から下側の兩像が切れているが、 実際にはその隠れた部分の画像も そのまま存在しており、 図 7 ( b ) に示すように人物顔の移動させた結果、 表示枠 Y内 (下部) に空白部分が生じる等といった不都合を招くことはな い。
一方、 前述した実施の形態では画像特徴量として各ライン毎の平均輝度 値を採用したものであるが、 前述したように頭髪の色や照明条件等によつ ては、 背景と頭頂部との輝度値に大きな変化が現れず、 頭頂部付近で画像 特徴量の変化量が閾値を超えないことがある。
そのため、 このように輝度値に大きな変化が見られない場合は、 画像特 徴量として画素の輝度値に代わって、 色相角の大きさを用いれば、 画像特 徴量に顕著な変化が見られ、 当該人物の頭頂部を的確に検出することがで きる。
図 10は、 このように画像特徴量として色相角を用いた場合の'頭頂部検 出フローを示したものであり、 最初のステップ S 1 0 1, S 103は、 輝 度値を採用した場合と同様に、 顔を検出してその頭頂部に頭頂部検出窓を 設定した後、 その検出窓の色相角の水平方向の平均値を求め (ステップ S 21 1) 、 その平均色相角を検出窓内の垂直方向に平滑化し (ステップ S 1 13) 、 最後にその変化量を求め、 その変化量が閾値以上ならばその位 置を頭頂部とみなすようにしたものである (ステップ S 1 1 5) 。
これによつて輝度値に基づく画像特徴量で人物の頭頂部を検出できない 場合でも、 当該人物の頭頂部を的確に検出することが可能となる。
なお、 本発明でいう 「輝度値」 及び 「色相角」 とは、 画像処理分野で一 般的に定義されている意味と同じ意味である。
また、 「色相」 とは、 色の違いを示す属性であり、 「色相角」 とは 「マ ンセルの色相環」 や 「マンセルの色立体」 等の色指標図を用いて、 その背 景色を基準としたときの頭髪の色の位置までの角度をいうものである。 例 えば、 「マンセルの色相環」 によれば、 基準となる背景色を 「B l u e」 とした場合、 頭髪の色が 「G r e e n」 よりも 「Y e l l ow」 や 「R e d」 の方が色相角が大きい (画像特徴量が大きい) ということになる。 図 1 1は、 前述した画像特徴量選択部 26及び頭頂部検出手段 34の処 理フローを示したものであり、 このように輝度値に基づく画像特徴量で人 物の頭頂部を検出できない場合を考慮した頭頂部検出フローの一例を示し たものである。
この頭頂部検出フローは、 先ず図 3のフローと同様に、 画像に含まれる 人物顔の検出を行ってからその人物顔の頭頂部に頭頂部検出窓 Wを設定し てからその検出窓内の輝度値の水平方向の平均値を求めた後、 その平均輝 度値を垂直方向に平滑化してからその平均輝度値の変化量を求める (ステ ップ S 20 1〜S 209) 。
そして、 次の判断ステップ S 21 1においてその変化量が閾値を超えた か否かを判断し、 超えたと判断したとき (y e s ) は、 .ステップ S 2 1 3 に移行して平均輝度値の変化量が閾値を超えた位置を頭頂部とみなして処 理を終了するが、 その変化量が閾値を超えないと判断したとき (No) は、 ステップ S 2 1 5側に移行して今度は図 1 0で示したように色相角に基づ いた画像特徴量の変化量を求める (ステップ S 2 1 5〜S 2 1 9) 。 そし て、 その後、 ステップ S 22 1に移行してその変化量が閾値を超えたと判 断したとき (y e s) は、 ステップ S 2 23に移行して平均輝度値の変化 量が閾値を超えた位置を頭頂部とみなして処理を終了するが、 その変化量 が閾値を超えないと判断したとき (No) は、 ステップ S 225側に移行 して本システムの利用者等に対して 「頭頂部が検出できない」 旨の通知 (表示) を行って処理を終了することになる。
ここで、 ステップ S 22 5に至るケースとしては、 要するに頭髪部分 (頭頂部領域) の輝度値及び色相角のいずれもが背景のそれとほぼ同じ値 を示した場合、 例えば、 青い背景に対して頭髪の色が青く、 その彩度もほ ぼ同じである場合等が考えられるが、 そのようなケースでの頭頂部検出は 優れた感度を有する人間の視覚によっても困難であると思われ、 また、 撮 影時等にカメラマンが意識的にそのようなケースが発生するのを回避する であろうと考えられる極めて稀なケースである。
従って、 上記のように平均輝度及び平均色相角のいずれか又は双方を採 用することで確実に頭頂部を検出することができる。 なお、 図 1 1は、 先ず最初に輝度値による画像特徴量を求めた後、 色相 角による画像特徴量を求めるようにしたが、 最初に色相角による画像特徴 量を求めた後、 輝度値による画像特徴量を求めるようにしても良く、 さら に両者の画像特徴量を同時に併用するような形態であっても良い。
ちなみに、 輝度の変化は視覚的に認識され易いことから、 画像特徴量と して他の画像処理技術等で頻繁に使われている。

Claims

請求の範囲
1 . 人物顔が含まれる画像中から当該人物顔の頭頂部を検出する方法であ つて、
前記人物顔の頭頂部を含まない範囲の顔画像を検出して、 検出した当該 顔画像の上部に前記人物顔の頭頂部が含まれる大きさの頭頂部検出窓を設 定した後、
当該頭頂部検出窓内の画像特徴量を垂直方向に算出し、 その画像特徴量 が閾値以上に変化する位置を前記人物顔の頭頂部とするようにしたことを 特徴とする頭頂部検出方法。
2 . 請求項 1に記載の頭頂部検出方法において、
前記画像特徴量として輝度の大きさを用いるようにしたことを特徴とす る頭頂部検出方法。
3 . 請求項 1に記載の頭頂部検出方法において、
前記画像特徴量として色相角の大きさを用いるようにしたことを特徴と する頭頂部検出方法。
4 . 請求項 1〜 3のいずれか 1項に記載の頭頂部検出方法において、 前記画像特徴量は、 前記頭頂部検出窓内の水平方向の平均値を用いるよ うにしたことを特徴とする頭頂部検出方法。
5 . 請求項 1〜4のいずれか 1項に記載の顔画像中の頭頂部検出方法にお いて、
前記画像特徴量は、 輝度又は色相角のいずれか又は両方を使用する画像 に応じて自動的に切り替えることを特徴とする頭頂部検出方法。
6 . 請求項 1〜 5のいずれか 1項に記載の頭頂部検出方法において、 前記頭頂部検出窓としては、 矩形状であって、 その幅及び高さが前記人 物顔の顔幅よりも幅広のものを用いるようにしたことを特徴とする頭頂部 検出方法。
7 . 人物顔が含まれる画像中から当該人物顔の頭頂部を検出するシステム であって、
前記人物顔が含まれる画像を読み取る画像読取手段と、
当該画像読取手段で読み取った画像中から人物顔の頭頂部を含まない範 囲の顔画像を検出して、 検出した範囲に顔検出枠を設定する顔検出手段と. 当該顔検出枠の上部に前記人物顔の頭頂部が含まれる大きさの頭頂部検 出窓を設定する頭頂部検出窓設定手段と、
当該頭頂部検出窓内の画像特徴量を垂直方向に算出する画像特徴量算出 手段と、
当該画像特徴量算出手段で算出された画像特徴量が閾値以上に変化する 位置を前記人物顔の頭頂部とする頭頂部検出手段と、 を備えたことを特徴 とする頭頂部検出システム。
8 . 請求項 7に記載の人物顔の頭頂部検出システムにおいて、
前記画像特徴量算出手段は、
各画素の輝度を画像特徴量として算出する輝度算出部と、
各画素の色相角を画像特徴量として算出する色相角算出部と、
これらいずれかの画像特徴量を選択する画像特徴量選択部と、 を備えた ことを特徴とする頭頂部検出システム。
9 . 請求項 7又は 8に記載の人物顔の頭頂部検出システムにおいて、 前記頭頂部検出手段は、
前記画像特徴量の閾値を設定する閾値設定部と、
前記頭頂部検出窓内の水平方向の画像特徴量の平均を求める平均値算出 部と、 のいずれか一方あるいは両方を備えたことを特徴とする頭頂部検出 システム。
1 0 . 人物顔が含まれる画像中から当該人物顔の頭頂部を検出するプログ ラムであって、
前記人物顔が含まれる画像を読み取る画像読取ステップと、 当該画像読取ステップで読み取った画像中から人物顔の頭頂部を含まな い範囲の顔画像を検出して、 検出した範囲に顔検出枠を設定する顔検出ス テツプと、
当該顔検出枠の上部に前記人物顔の頭頂部が含まれる大きさの頭頂部検 出窓を設定する頭頂部検出窓設定ステップと、
当該頭頂部検出窓内の画像特徴量を垂直方向に算出する画像特徴量算出 当該画像特徴量算出ステップで算出された画像特徴量が閾値以上に変化 する位置を前記人物顔の頭頂部とする頭頂部検出ステツプと、 をコンビュ ータに実現させることを特徴とする頭頂部検出プログラム。
1 1 . 請求項 1 0に記載の人物顔の頭頂部検出プログラムにおいて、 前記画像特徴量算出ステップは、
各画素の輝度を画像特徴量として算出する輝度算出ステップと、 各画素の色相角を画像特徴量として算出する色相角算出ステップと、 これらいずれかの画像特徴量を選択する画像特徴量選択ステツプと、 を 含むことを特徴とする頭頂部検出プログラム。
1 2 . 請求項 1 0又は 1 1に記載の人物顔の頭頂部検出プログラムにおい て、
前記頭頂部検出ステップは、
前記画像特徴量の閾値を設定する閾値設定ステツプと、
前記頭頂部検出窓内の水平方向の画像特徴量の平均を求める平均値算出 ステップと、 のいずれか一方あるいは両方を含むことを特徴とする頭頂部 検出プログラム。
PCT/JP2004/018449 2003-12-05 2004-12-03 人物顔の頭頂部検出方法及び頭頂部検出システム並びに頭頂部検出プログラム WO2005055143A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-407912 2003-12-05
JP2003407912A JP2005165984A (ja) 2003-12-05 2003-12-05 人物顔の頭頂部検出方法及び頭頂部検出システム並びに頭頂部検出プログラム

Publications (1)

Publication Number Publication Date
WO2005055143A1 true WO2005055143A1 (ja) 2005-06-16

Family

ID=34650326

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/018449 WO2005055143A1 (ja) 2003-12-05 2004-12-03 人物顔の頭頂部検出方法及び頭頂部検出システム並びに頭頂部検出プログラム

Country Status (3)

Country Link
US (1) US7460705B2 (ja)
JP (1) JP2005165984A (ja)
WO (1) WO2005055143A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8345918B2 (en) * 2004-04-14 2013-01-01 L-3 Communications Corporation Active subject privacy imaging
US7386150B2 (en) * 2004-11-12 2008-06-10 Safeview, Inc. Active subject imaging with body identification
KR101103115B1 (ko) 2005-08-12 2012-01-04 소니 컴퓨터 엔터테인먼트 인코포레이티드 얼굴 화상표시장치, 얼굴 화상표시방법 및 얼굴 화상표시 프로그램
JP4874913B2 (ja) * 2007-09-28 2012-02-15 富士フイルム株式会社 頭頂位置算出装置、それを用いた画像処理装置および頭頂位置算出方法並びにプログラム
US8190623B2 (en) * 2008-06-05 2012-05-29 Enpulz, L.L.C. Image search engine using image analysis and categorization
CN102027505A (zh) * 2008-07-30 2011-04-20 泰塞拉技术爱尔兰公司 使用脸部检测的自动脸部和皮肤修饰
US20100208078A1 (en) * 2009-02-17 2010-08-19 Cisco Technology, Inc. Horizontal gaze estimation for video conferencing
JP2010193333A (ja) * 2009-02-20 2010-09-02 Casio Computer Co Ltd 撮像装置、撮像方法及びプログラム
US8633999B2 (en) 2009-05-29 2014-01-21 DigitalOptics Corporation Europe Limited Methods and apparatuses for foreground, top-of-the-head separation from background
US8605955B2 (en) 2009-06-29 2013-12-10 DigitalOptics Corporation Europe Limited Methods and apparatuses for half-face detection
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8564534B2 (en) * 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US8971628B2 (en) 2010-07-26 2015-03-03 Fotonation Limited Face detection using division-generated haar-like features for illumination invariance
JP6032921B2 (ja) * 2012-03-30 2016-11-30 キヤノン株式会社 物体検出装置及びその方法、プログラム
TW201407498A (zh) * 2012-08-09 2014-02-16 Fan-Zhi Zeng 自動擷取證件相片方法
JP6212878B2 (ja) * 2013-02-21 2017-10-18 株式会社リコー 画像処理装置、画像処理システム及びプログラム
JP6265640B2 (ja) * 2013-07-18 2018-01-24 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム
CN104036237B (zh) * 2014-05-28 2017-10-10 中国人民解放军海军总医院 基于在线预测的旋转人脸的检测方法
US10643101B2 (en) * 2015-07-09 2020-05-05 Texas Instruments Incorporated Window grouping and tracking for fast object detection

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0877334A (ja) * 1994-09-09 1996-03-22 Konica Corp 顔画像の特徴点自動抽出方法
JPH096964A (ja) * 1995-06-22 1997-01-10 Seiko Epson Corp 顔画像処理方法および顔画像処理装置
JP2003330097A (ja) * 2002-05-16 2003-11-19 Nippon Conlux Co Ltd 自動撮像装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3298072B2 (ja) * 1992-07-10 2002-07-02 ソニー株式会社 ビデオカメラシステム
JP3487436B2 (ja) * 1992-09-28 2004-01-19 ソニー株式会社 ビデオカメラシステム
KR100276681B1 (ko) * 1992-11-07 2001-01-15 이데이 노부유끼 비디오 카메라 시스템
JPH0950528A (ja) 1995-08-09 1997-02-18 Nippon Telegr & Teleph Corp <Ntt> 人物検出装置
JP3855939B2 (ja) * 2003-01-31 2006-12-13 ソニー株式会社 画像処理装置、画像処理方法及び撮影装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0877334A (ja) * 1994-09-09 1996-03-22 Konica Corp 顔画像の特徴点自動抽出方法
JPH096964A (ja) * 1995-06-22 1997-01-10 Seiko Epson Corp 顔画像処理方法および顔画像処理装置
JP2003330097A (ja) * 2002-05-16 2003-11-19 Nippon Conlux Co Ltd 自動撮像装置

Also Published As

Publication number Publication date
US7460705B2 (en) 2008-12-02
US20050147304A1 (en) 2005-07-07
JP2005165984A (ja) 2005-06-23

Similar Documents

Publication Publication Date Title
WO2005055143A1 (ja) 人物顔の頭頂部検出方法及び頭頂部検出システム並びに頭頂部検出プログラム
US6141434A (en) Technique for processing images
TWI550549B (zh) 圖像處理裝置及圖像處理方法
US6556708B1 (en) Technique for classifying objects within an image
JP4505362B2 (ja) 赤目検出装置および方法並びにプログラム
JP5090474B2 (ja) 電子カメラおよび画像処理方法
US6400830B1 (en) Technique for tracking objects through a series of images
US6526161B1 (en) System and method for biometrics-based facial feature extraction
US20120219180A1 (en) Automatic Detection of Vertical Gaze Using an Embedded Imaging Device
US9858680B2 (en) Image processing device and imaging apparatus
US20050196044A1 (en) Method of extracting candidate human region within image, system for extracting candidate human region, program for extracting candidate human region, method of discerning top and bottom of human image, system for discerning top and bottom, and program for discerning top and bottom
US6421462B1 (en) Technique for differencing an image
US10079974B2 (en) Image processing apparatus, method, and medium for extracting feature amount of image
JPH0877334A (ja) 顔画像の特徴点自動抽出方法
JP3490910B2 (ja) 顔領域検出装置
JP2005190400A (ja) 顔画像検出方法及び顔画像検出システム並びに顔画像検出プログラム
JP3459950B2 (ja) 顔検出及び顔追跡方法並びにその装置
US6240197B1 (en) Technique for disambiguating proximate objects within an image
CN111259757B (zh) 一种基于图像的活体识别方法、装置及设备
JP2005134966A (ja) 顔画像候補領域検索方法及び検索システム並びに検索プログラム
KR101146417B1 (ko) 무인 감시 로봇에서 중요 얼굴 추적 장치 및 방법
WO2005055144A1 (ja) 人物顔のあご検出方法及びあご検出システム並びにあご検出プログラム
JP6098133B2 (ja) 顔構成部抽出装置、顔構成部抽出方法及びプログラム
Solina et al. 15 seconds of fame-an interactive, computer-vision based art installation
Greco et al. Saliency based aesthetic cut of digital images

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase