WO2007013529A1 - 顔画像検出装置、顔画像検出方法および顔画像検出プログラム - Google Patents

顔画像検出装置、顔画像検出方法および顔画像検出プログラム Download PDF

Info

Publication number
WO2007013529A1
WO2007013529A1 PCT/JP2006/314806 JP2006314806W WO2007013529A1 WO 2007013529 A1 WO2007013529 A1 WO 2007013529A1 JP 2006314806 W JP2006314806 W JP 2006314806W WO 2007013529 A1 WO2007013529 A1 WO 2007013529A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
face
face part
detected
detection
Prior art date
Application number
PCT/JP2006/314806
Other languages
English (en)
French (fr)
Inventor
Toru Yonezawa
Kozo Kawata
Original Assignee
Glory Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd. filed Critical Glory Ltd.
Priority to CA002616460A priority Critical patent/CA2616460A1/en
Priority to US11/996,569 priority patent/US8311291B2/en
Priority to EP06781718.9A priority patent/EP1909228B1/en
Priority to BRPI0614109A priority patent/BRPI0614109A2/pt
Priority to KR1020087002114A priority patent/KR101445281B1/ko
Priority to CN2006800269651A priority patent/CN101228552B/zh
Publication of WO2007013529A1 publication Critical patent/WO2007013529A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing

Definitions

  • the present invention relates to a face image detection device, a face image detection method, and a face image detection program for detecting a face image present in an image, and in particular, improves detection accuracy of face images and performs detection processing.
  • the present invention relates to a face image detection apparatus, a face image detection method, and a face image detection program that can reduce the time required for the operation.
  • a face image detection technique for automatically recognizing whether or not a person's face appears in an image captured by a surveillance camera in a surveillance camera system or the like.
  • face image detection techniques include the subspace method and the Integral Image method.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2004-54442
  • Patent Document 2 JP 2004-362468 A
  • Non-Patent Literature 1 Paul Viola, Michael Jones, Rapid Object Detection using a Boosted Cascade of Simple Features ", In Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Volume 1, pp.511—518, December 20 01
  • the area of the rectangular region for calculating the total value of feature amounts is relatively large in order to reduce the time required for the face image detection process. Is set. However, if the area of the rectangular area is large in an image where the direct sunlight hits the face, the total feature value may fluctuate greatly due to the influence of the direct sunlight, and face image detection may not be performed normally.
  • the present invention has been made to solve the above-described problems caused by the prior art, and can improve the accuracy of detection of a face image and reduce the time required for detection processing.
  • An object of the present invention is to provide a face image detection method and a face image detection program.
  • a face image detection device is a face image detection device that detects a face image present in an image, and is a face part image.
  • Extraction pattern storage means for storing information relating to a plurality of different extraction patterns for extracting a predetermined number of pixels from the peripheral pixels of the detection target pixel, and a plurality of different patterns stored in the extraction pattern storage means Extracting pixels by using the extraction pattern, and detecting the facial part image in the image using the extracted pixel feature amount, and the facial part image detected by the facial part image detecting unit And a face image detecting means for detecting a face image from the image.
  • the face image detection apparatus further includes extraction pattern learning means for executing machine learning of the extraction pattern used for detection of the face part image in the invention of claim 1.
  • the extraction pattern storage means stores information related to the extraction pattern machine-learned by the extraction pattern learning means.
  • the face image detection apparatus is the case of the invention of claim 1 or 2, wherein the face part image detection means detects a face part image using a certain extraction pattern.
  • the pixel that was the detection target when the face part image was not detected is excluded from the detection target pixel when the face part image is detected using the following extraction pattern. .
  • the face image detection device is the face image detection device according to claim 1, 2 or 3, wherein the face part detection means uses the extracted feature amount of the pixel as a face image.
  • a discriminant analysis for discriminating whether or not the image is a part image is executed, and a face part image is detected based on the result of the discriminant analysis.
  • the face part image detection means is directed to a direction of an image pattern included in the image. And calculating the intensity and detecting the face part image in the image by using the calculated direction and intensity of the image pattern as the feature amount of the pixel.
  • the face image detection means is a face detected by the face part image detection means. Based on the position of the part image, it is determined whether the image is a face image, and the face image is detected from the image based on the determination result.
  • the face image detection device is the face image detection device according to the invention of claim 6, wherein the face image detection means is based on the position of the face part image detected by the face part detection means. Calculates the representative point of the image and determines whether the image is a face image based on the positional relationship between the calculated representative point and the position of the face part image detected by the face part image detecting means. It is characterized by doing.
  • the face image detecting means divides the image into a plurality of regions on the basis of the representative point, and the face The facial image is detected by determining whether or not the image is a facial image based on information on a region where the facial part image is located when the facial part image is detected by the parts image detecting means. .
  • the face image detection means uses information on a region where a pixel that is a detection target of a face part image is located. Then, discriminant analysis for discriminating whether or not the image is a face image is executed, and the face image is detected based on the result of the discriminant analysis.
  • the face image detection method according to the invention of claim 10 is a face image detection method for detecting a face image existing in an image, and is a method for detecting peripheral pixels of a pixel to be detected from a face part image. Extracting pixels by using an extraction pattern storage step for storing information related to a plurality of different extraction patterns for extracting a predetermined number of pixels and a plurality of different extraction patterns stored in the extraction pattern storage step, A facial part image detection step of detecting a facial part image in the image using the extracted feature amount of the pixel, and the facial image obtained from the image power based on the facial part image detected by the facial part image detection step. And a face image detecting step of detecting.
  • the face image detection program according to the invention of claim 11 is a face image detection program for detecting a face image existing in an image, and is a peripheral pixel of a pixel to be detected for a face part image.
  • An extraction pattern storage procedure for storing information related to a plurality of different extraction patterns for extracting a predetermined number of pixels, and a plurality of different extraction patterns stored in accordance with the extraction pattern storage procedure are used to extract pixels.
  • the facial part image detection procedure for detecting the facial part image in the image using the extracted feature amount of the pixel, and the facial image is detected from the image based on the facial part image detected by the facial part image detection procedure.
  • information related to a plurality of different extraction patterns for extracting a predetermined number of pixels from the peripheral pixels of the pixel to be detected in the face part image is stored, and the stored different information Pixels are extracted by using multiple extraction patterns, and the feature values of the extracted pixels are used to detect facial part images in the image. Based on the detected facial part images, images are displayed. Image power Since face images are detected, the number of pixels to be extracted can be controlled to speed up the process of detecting face image images, thereby reducing the time required for face image detection. In addition, it is possible to improve the face detection accuracy by detecting the face part image, which is the basis for detecting the face image, a plurality of times.
  • a discriminant analysis for discriminating whether or not the image is a face part image is executed using the extracted feature amount of the pixel, and based on the result of the discriminant analysis. Because it was decided to detect the face part image, it can be efficiently determined whether the image is a face part image, and the time required for the face image detection process can be further reduced. There is an effect.
  • the direction and intensity of the image pattern included in the image are calculated, and the calculated image pattern direction and intensity are used as the feature amount of the pixel. Since the part image is detected, it is possible to accurately detect the image pattern such as the edge by using the direction and intensity of the image pattern as the feature amount, and to improve the detection accuracy of the face part image. .
  • the image is a face image based on the position of the detected face part image, and the face image is converted from the image based on the determination result. Therefore, even if something wrong in the face part image is mistakenly detected as the face part image, it can be properly grasped and the detection accuracy of the face image can be improved. There is an effect.
  • the representative point of the face image is calculated based on the position of the detected face part image, and the position between the calculated representative point and the detected face part image. Based on the relationship, it was decided whether or not the image is a face image. Therefore, the position of a point representing the face image in the image can be detected appropriately, and the detection accuracy of the face image can be improved. The effect is that it can be improved.
  • the image is divided into a plurality of regions based on the representative point, and the image based on the information of the region where the face part image is located when the face part image is detected. Since it was decided to detect whether or not the face image was a face image, the face image was detected as a face part by examining which area the face part image was in. Even in this case, it can be detected appropriately and efficiently, and the effect of improving the detection accuracy of the face image is achieved.
  • a discriminant analysis is performed to discriminate whether or not the image is a face image using the information of the area where the face part image is located, and the discriminant analysis is performed. Since the face image is detected based on the result, it is possible to efficiently determine whether or not the image is a face image, and to improve the detection accuracy of the face image. Play.
  • information related to a plurality of different extraction patterns for extracting a predetermined number of pixels from the peripheral pixels of the pixel to be detected in the face part image is stored and stored. Extracting pixels by using multiple different extraction patterns, detecting the facial part image in the image using the extracted pixel features, and detecting the facial image from the image based on the detected facial part image Therefore, by controlling the number of pixels to be extracted, face part image detection processing can be performed at high speed, thereby reducing the time required for face image detection and reducing the face image. By detecting the face part image that is the basis for detecting an image a plurality of times, the face detection accuracy can be improved.
  • information related to a plurality of different extraction patterns for extracting a predetermined number of pixels out of the peripheral pixels of the face part image detection target is stored and stored. Extracting pixels by using different extraction patterns, extracted pixels Since the face part image in the image is detected using the feature amount of the image and the face image is detected from the image based on the detected face part image, the number of pixels to be extracted can be controlled.
  • the part image detection process can be performed at high speed, thereby reducing the time required to detect the face image and detecting the face part image that is the basis for detecting the face image multiple times. As a result, the face detection accuracy can be improved.
  • FIG. 1 is a diagram for explaining the concept of face image detection processing according to the present invention.
  • FIG. 2 is a diagram illustrating a functional configuration of the face image detection apparatus according to the present embodiment.
  • FIG. 3 is a diagram for explaining a process of excluding detection target pixels of a face part image when a face part image is detected.
  • FIG. 4 is a flowchart illustrating a processing procedure of face image detection processing according to the present embodiment.
  • FIG. 5 is a flowchart showing a processing procedure of face part image detection processing shown in step S103 of FIG.
  • FIG. 6 is a diagram showing a hardware configuration of the image processing apparatus shown in FIG.
  • FIG. 7 is a diagram illustrating a determination process for determining whether or not there is a face part image at a position where a face part image is predicted to exist.
  • FIG. 1 is a diagram for explaining the concept of face image detection processing according to the present invention.
  • ⁇ : Lie is generated.
  • the reduced images l la to l lc are generated.
  • a plurality of enlarged images having different enlargement rates are generated.
  • both the reduced image l la to l lc and the enlarged image are generated. This is because templates 12a to 12c described below can be applied to the image.
  • a Gabor filter is applied to the pixel value of each pixel of the image, and the edge strength and the edge direction are calculated for each pixel. Then, rectangular templates 12a to 12c centering on the pixel to be detected of the face part image are selected, and the edge strength and the pixel intensity of the pixel to be detected and a predetermined number of pixels around the pixel are selected. And edge direction information is acquired.
  • pixels corresponding to the four corner points of the rectangle and pixels corresponding to the midpoints of each side of the rectangle are extracted and detected as pixels around the pixel to be detected in the face part image. Together with the pixels to be extracted, information on edge strength and edge direction is obtained for a total of nine pixels.
  • the templates 12a to 12c used have little lighting fluctuation Machine learning is performed so that the pixels of the face portion are selected.
  • a discrimination score is calculated by inputting values of edge strength and edge direction into a linear discriminant that discriminates whether or not the image is a face part image, and based on the discriminant score value. The above determination is made.
  • the shape of the templates 12a to 12c is not limited to the force quadrangle, but may be an ellipse or a circle. However, if the shape of the template 12a to 12c depends on the shape of the face part such as a specific person's eyes, the detection accuracy of other person's face parts may deteriorate, so the shape of the template 12a to 12c It is desirable to have a shape that does not depend on the shape of the facial parts.
  • the number of pixels for acquiring edge strength and edge direction information is not limited to nine. Increasing the number of pixels increases the accuracy of facial part image detection, and reducing the number of pixels reduces the processing speed of facial part images. Therefore, by appropriately setting the number of pixels, the balance between the detection accuracy and the processing speed can be adjusted.
  • a representative point 13 representing the position of the face image is determined based on the position of each detected face part image. Specifically, using the templates 12a to 12c, the direction in which the representative point 13 of the face image exists and the distance (number of pixels) are set in advance from the detection target pixel from which the face part image is detected. Keep it.
  • the distribution of the position of the representative point 13 of the facial image is calculated from the position of each facial part image, and the representative point of the facial image is obtained by obtaining the peak of the distribution Determine 13.
  • the image is divided by a predetermined number of pixels around the representative point 13 and divided into nine divided regions 14. Specifically, the range of each divided area 14 is set so that the four facial part images of the right eye, left eye, nose, and mouth are included in the upper left, upper right, center, and lower center divided areas 14, respectively.
  • each divided region 14 when the image is a face image, the face part image should exist at a predetermined position and should not exist at other positions.
  • the accuracy of face image detection can be improved.
  • the total value of the discrimination scores of the four face part images of the right eye, left eye, nose, and mouth located in each divided region 14 is calculated, and whether the image is a face or a non-face is calculated from the total value.
  • a 36-dimensional linear discriminant analysis for determining whether the image is a face image or a non-face image is performed using the generated feature amount. Specifically, a feature score is input to a linear discriminant to calculate a discriminant score, and when the discriminant score is larger than a predetermined threshold, it is determined that the image is a face image.
  • FIG. 2 is a diagram illustrating a functional configuration of the face image detection apparatus according to the present embodiment.
  • the face image detection apparatus includes an input unit 20, a display unit 21, a learning processing unit 22, a reduced / enlarged image generation unit 23, a Gabor feature image generation unit 24, a template selection unit 25, a face A part image detection unit 26, a face image representative point calculation unit 27, a face image detection feature amount generation unit 28, a face image detection processing unit 29, a storage unit 30, and a control unit 31 are included.
  • the input unit 20 is an input device such as a keyboard or a mouse.
  • the display unit 21 is a display device such as a display.
  • the learning processing unit 22 is a processing unit that learns which template 12a to 12c is suitable for an image when detecting a face part image. Specifically, the learning processing unit 22 uses a boosting algorithm to learn which of the templates 12a to 12c can extract pixels and the like with little illumination variation.
  • the reduced / enlarged image generation unit 23 receives the input image 10, a plurality of reduced images 1 la to which the input image 10 is reduced at different reduction ratios: 1 la to: It is a production
  • whether the input image 10 is reduced or enlarged is determined by the relationship between the size of the templates 12 a to 12 c to be used and the predicted size of the face image included in the input image 10.
  • the reduced / enlarged image generation unit 23 For example, if the size of the templates 12a to 12c to be used is about 20 pixels in length and width and the size of the face image to be predicted is 20 pixels in length and width, the reduced / enlarged image generation unit 23 generates the input image 10 An enlarged image of is generated. When the size of the face image cannot be predicted, the reduced / enlarged image generation unit 23 generates both reduced images lla to llc and an enlarged image.
  • the Gabor feature image generation unit 24 is a generation unit that applies a Gabor filter to each image generated by the reduced / enlarged image generation unit 23 to generate a Gabor feature image. Specifically, the Gabor feature image generation unit 24 generates a Gabor feature image by selecting a 7-pixel square area from the image and applying Gabor filters to four directions every 90 degrees of the area. To do. Note that the size of 7 pixels square is set assuming that the right eye and left eye of the face image are about 12 pixels apart when the face image size is 24 pixels square. Have
  • j is an imaginary unit
  • 0 is a direction (angle)
  • is a wavelength
  • is a scalar
  • k is four directions every 90 degrees.
  • the Gabor feature image generation unit 24 calculates the values of the real part g real and the imaginary part g taag of the Gabor filter, and for each pixel in the value force image, the following five-dimensional element V ⁇
  • a Gabor feature image is generated by calculating a feature amount that also has V force.
  • the first dimension element V of the feature amount is
  • the first dimension element V represents the strength of the edges in the image!
  • the template selection unit 25 is a selection unit that selects a plurality of templates 12a to 12c suitable for an image using a result learned by the learning processing unit 22 when detecting a face part image.
  • the face part image detection unit 26 is a detection unit that detects a face part image using the templates 12 a to 12 c selected by the template selection unit 25.
  • the face part image detection unit 26 selects nine pixels of the image using the first templates 12a to 12c, and the edge intensity and edge direction of the Gabor feature image corresponding to these pixels. Based on this information, a linear discriminant analysis is performed to discriminate whether or not the image is a face part image.
  • I is a variable to which the values of the five-dimensional feature values V to V at 9 points are assigned, and i is 1 to 45
  • the coefficient a of the linear discriminant is preliminarily calculated so that it can be properly discriminated whether or not the image is a face part image.
  • the five-dimensional features V to V at 9 points are preliminarily calculated so that it can be properly discriminated whether or not the image is a face part image.
  • the face part image detection unit 26 calculates a value obtained by multiplying the weights of the used templates 12a to 12c and the discrimination score for each pixel that is the detection target of the face part image, and sets it as a collation value. If the collation value is smaller than the predetermined threshold value, it is determined that the image is not a face part image.
  • the face part image detection unit 26 calculates a discrimination score using the following templates 12a to 12c, and uses the templates 12a to 12c used. A value obtained by multiplying the weight and the discriminant score is added to the collation value and set as a new collation value.
  • the face part image detection unit 26 determines that the image is not a face part image! /.
  • the face part image detection unit 26 determines that the image is not a face part image! /, And when the face part image is newly detected using the following templates 12a to 12c, the image is not displayed.
  • the detection target pixels of the face part image when it is determined not to be a face part image are excluded from the detection target pixels when the face part image is detected using the following templates 12a to 12c.
  • FIG. 3 is a diagram for explaining a process for removing a detection target pixel of a face part image when a face part image is detected.
  • FIG. 3 shows an example in which the image of the right eye is detected, but the detection target pixel exclusion process is performed in the same manner when other face part images are detected.
  • the face part image detection unit 26 sets the mask value of all pixels to “1” and sets all pixels to the right eye. It is assumed that the pixel to be detected when detecting this image.
  • the face part image detection unit 26 applies the first templates 12a to 12c to detect the right eye image, and as a result, determines that the face part image detection unit 26 is not the right eye image.
  • the value is set to “0”, and the processing is performed to exclude the pixel from the detection target pixel when the next template 12a to 12c is used to detect the image of the right eye.
  • the facial image representative point calculation unit 27 detects the position of each facial part image detected by the facial part image detection unit 26.
  • the position of the representative point 13 representing the position of the facial image.
  • This is a calculation unit that calculates Specifically, the face image representative point calculation unit 27 determines in which direction the representative point 13 of the face image is in the direction of the detection target pixel when each face part image is detected using each of the templates 12a to 12c.
  • the setting information related to the representative point that sets how many pixels the distance is is acquired.
  • the face image representative point calculation unit 27 calculates the distribution of the positions of the representative points 13 of the face image based on the information related to the representative points and the information on the positions of the face part images.
  • the position of the representative point 13 of the face image is determined by finding a point that is greater than or equal to the threshold value.
  • the face image detection feature value generation unit 28 is a generation unit that generates a feature value used when detecting a face image from an image by linear discriminant analysis. More specifically, the face image detection feature quantity generation unit 28 divides the image by a predetermined number of pixels around the representative point 13 calculated by the face image representative point calculation unit 27, thereby dividing the image into nine divided regions. Divide into 14.
  • the face image detection feature quantity generation unit 28 detects the total value of the collation values for each face part image obtained by applying the templates 12a to 12c, and detects the face part image. It is calculated for each divided area 14 where the target pixel is located, and 36 dimensions (9 areas X right eye, left eye, nose, mouth) for determining whether the image is a face image or a non-face image from the total value. ) Is generated.
  • the face image detection processing unit 29 detects a face image with both image power by performing 36-dimensional linear discriminant analysis using the 36-dimensional feature amount generated by the face image detection feature amount generation unit 28. It is a processing unit.
  • the linear discriminant used in this linear discriminant analysis is the same as equation (4). However, in this case, a and a are not enough to properly determine whether the image is a face image.
  • w is a variable to which each value of 36-dimensional feature value is substituted, and i takes a value from 1 to 36.
  • the storage unit 30 is a storage device such as a hard disk device.
  • the storage unit 30 includes an input image 30a, a reduced and enlarged image 30b, a Gabor feature image 30c, template information 30d, a face part image detection linear discriminant 30e, a face part image discrimination result 30f, representative point setting information 30g, and a face image.
  • Each data such as the detection linear discriminant 30h and the face image discrimination result 30i is stored.
  • the input image 30a is an image for which a face image is detected.
  • Reduced image 30b Are a plurality of images with different reduction ratios or enlargement ratios generated from the input image 30a.
  • the reduced / enlarged image 30b corresponds to the reduced image lla to llc or the enlarged image described in FIG.
  • the Gabor feature image 30c is an image having a 5D feature information power for each pixel obtained by applying a Gabor filter to the reduced and enlarged image 30b.
  • the template information 30d is information on the templates 12a to 12c used when detecting the face part image. Specifically, the template information 30d is information on the relative positions of the eight pixels extracted when the face part image is detected with respect to the face part image detection target pixel, and information on the weights of the templates 12a to 12c. .
  • the facial part image detection linear discriminant 30e is information on a linear discriminant used for detecting a face part image.
  • the face part image discrimination result 30f stores information on the result of linear discriminant analysis when a face part image is detected. Specifically, the facial part image discrimination result 30f includes the position information of the detection target pixel that detected each face part image detected by the linear discriminant analysis, the information 12a to 12c of the template used, the discrimination score, and the collation value. Information is stored.
  • the representative point setting information 30g stores the setting information of the positional relationship between each face part image and the representative point 13 of the face image. Specifically, the representative point setting information 30g includes information on the direction in which the representative point 13 exists and the distance (number of pixels) when the face part image is detected. Each face part is memorized.
  • the face image detection linear discriminant 30h is information on a linear discriminant used when detecting a face image.
  • the face image discrimination result 30i stores information on the result of linear discriminant analysis when a face image is detected. Specifically, the face image discrimination result 30i stores the position information of the representative point 13 of the face image, the discrimination score information when the image is a face image, and the like is discriminated by linear discriminant analysis. It is a thing.
  • the control unit 31 is a control unit that controls the entire face image detection device, and controls data exchange between the functional units of the face image detection device.
  • FIG. 4 is a flowchart illustrating the procedure of the face image detection process according to the present embodiment.
  • the reduced / enlarged image generating unit 23 of the face image detecting device An input of an image to be detected is received (step S101), and a plurality of reduced images lla to 11c having different reduction ratios are generated from the received image (step S102).
  • the reduced / enlarged image generation unit 23 generates reduced images lla to llc is described as an example, but the reduced / enlarged image generation unit 23 generates an enlarged image or the reduced image
  • the same processing as described below is performed.
  • the Gabor feature image generation unit 24, the template selection unit 25, and the face part image detection unit 26 are provided with a plurality of templates 12a for a plurality of reduced images l la to l lc having different reduction ratios.
  • ⁇ 12c is applied, a collation value is calculated by linear discriminant analysis, and processing is performed to detect each face part image of the right eye, left eye, nose, and mouth (step S103). This face part image detection process will be described in detail with reference to FIG.
  • the facial image representative point calculating unit 27 calculates the representative point of the facial image from the positions of the facial part images detected by the Gabor feature image generating unit 24, the template selecting unit 25, and the facial part image detecting unit 26.
  • the position of 13 is calculated (step S104).
  • the face image detection feature quantity generating unit 28 divides the image into nine parts by dividing the image by a predetermined number of pixels around the representative point 13 calculated by the face image representative point calculating unit 27.
  • the image is divided into divided areas 14, and the total value of the matching values for each face part image is calculated for each divided area 14 where the detection target pixel that detected the face part image is located.
  • a 36-dimensional feature value for determining whether the image is not a face image is generated (step S105).
  • the face image detection processing unit 29 executes face image detection processing for detecting a face image from the image by linear discriminant analysis using 36-dimensional feature amounts (step S106), and the detection result of the face image Is output (step S107), and the face image detection process is terminated.
  • FIG. 5 is a flowchart showing the procedure of the face part image detection process shown in step S103 of FIG.
  • the Gabor feature image generation unit 24 generates a Gabor feature image in which each pixel is composed of a five-dimensional element using Equation (2) and Equation (3). (Step S201). Then, the face part image detection unit 26 first sets a face part for detecting an image. (Step S202).
  • the face part image detection unit 26 initializes the mask value of all pixels of the image to “1” so that all pixels are detected pixels for detecting the face part image (Ste S203). Then, the template selection unit 25 selects templates 12a to 12c suitable for detecting the face part image from the input image 10 based on the result learned by the learning processing unit (step S204).
  • the face part image detection unit 26 selects one target pixel for detecting the face part image (step S205), and checks whether or not the mask value of the selected pixel is “1” ( Step S).
  • the face part image detection unit 26 uses the five-dimensional feature amount in the Gabor feature image of the pixel specified by the templates 12a to 12c.
  • the linear discriminant analysis is performed (step S207), and the collation value used to determine whether the image is a face part image is calculated from the discriminant score and the weights of the templates 12a to 12c ( Step S208).
  • the face part image detection unit 26 checks whether or not the collation value is greater than or equal to a predetermined threshold value.
  • Step S209 If the collation value is equal to or greater than the predetermined threshold (Step S209, Yes), it is determined that the image is a face part image (Step S210), and the detection target pixel that detected the face part image is detected. Information such as the position, discrimination score, collation value, etc. (step S211
  • the face part image detection unit 26 checks whether or not scanning of the image has been completed by selecting all the pixels (step S214). In step S209, if the collation value is greater than or equal to the predetermined threshold (step S209, No), the face part image detection unit 26 determines that the image is not a face part image (step S212), and the detection target.
  • the mask value of the pixel is set to “0” so as to exclude the target pixel force for detecting the face part image from the pixel (step S213), and the process proceeds to step S214 as it is.
  • step S206 If the mask value power of the selected pixel is not "l" in step S206 (step S206, No), the process proceeds to step S214 as it is.
  • step S214 if the image scan is not yet completed (step S214, No), The image detection unit 26 selects the next detection target pixel for detecting the face part image (step S
  • step S206 the process proceeds to step S206, and the subsequent processing is continued.
  • the face part image detection unit 26 checks whether all the templates 12a to 12c have been used (step S216).
  • the template selection unit 25 selects the next templates 12a to 12c (step S217).
  • step S205 the process proceeds to step S205, and the subsequent processing is continued.
  • the face part image detection unit 26 checks whether or not the detection processing of all the face part images is completed (Ste S218).
  • step S218, No If the detection processing of all the facial part images has not been completed (step S218, No), the facial part image detection unit 26 does not set a facial part for detecting an image next. (Step S219), the process proceeds to step S203, and the subsequent processing is continued. If all the face part image detection processes have been completed (step S218, Yes), this face part image detection process is terminated.
  • FIG. 6 is a diagram illustrating a hardware configuration of the image processing apparatus illustrated in FIG.
  • this face image detection device includes a keyboard 100, a display 101, a ROM (Read Only Memory) 102, a medium reading device 103 that reads a program from a recording medium on which various programs are recorded, and other devices via a network.
  • Network interface 104 that exchanges data with other computers, CPU (Central Processing Unit) 105, and HDD (Hard configuration).
  • the HD (Hard Disk) 107 which is a storage medium that the HDD 106 stores and reads out, stores a face image detection program 107a that is realized by executing the face image detection method shown in the present embodiment on a computer. Then, after the face image detection program 107a is read out from the HD 107 at the time of execution, it is analyzed by the CPU 105, and the face image detection process 105a is executed.
  • This face image detection process 105a includes the learning processing unit 22, the reduced and enlarged image generation unit 23, the Gabor feature image generation unit 24, the template selection unit 25, the face part image detection unit 26, and the face image shown in FIG. This corresponds to the functions of the representative point calculation unit 27, the face image detection feature value generation unit 28, and the face image detection processing unit 29.
  • Various data 107b is stored in the HD 107.
  • the various data 107b is stored in the RAM 108, and the various data 108a stored in the RAM 108 is referred to by the CPU 105.
  • the various data 107b include the input image 30a, the reduced and enlarged image 30b, the gabor feature image 30c, the template information 30d, the face part image detection linear discriminant 30e, and the face part image discrimination result 30f shown in FIG. It corresponds to various data such as representative point setting information 30g, face image detection linear discriminant 30h, and face image discrimination result 30i.
  • the storage unit 30 of the face image detection device extracts a plurality of different pixels from which a predetermined number of pixels are extracted from the peripheral pixels of the pixels to be detected as the face part image.
  • Information on the templates 12a to 12c is stored, and the face part image detection unit 26 extracts pixels by using a plurality of different templates 12a to 12c stored in the storage unit 30, and uses the extracted feature values of the pixels.
  • the face part image in the image is detected, and the face image detection unit 29 detects the face image based on the face part image detected by the face part detection unit 26.
  • the facial part image detection process can be performed at high speed, thereby reducing the time required for the detection of the facial image and the facial part that is the basis for detecting the facial image. the image Face detection accuracy can be improved by detecting multiple times.
  • the learning processing unit 22 executes machine learning of the templates 12a to 12c used for detection of the facial part images, and the storage unit 30 performs the template 12a on which machine learning has been performed. Since the information of ⁇ 12c is stored, it is possible to efficiently select an extraction pattern or the like that extracts pixels in a portion that is not easily affected by illumination fluctuations.
  • the face part image detection unit 26 detects a face part image using a template 12a to 12c, the face part image is not detected and the powerful pixel is detected. Detection when detecting face part images using templates 12a to 12c Since it is excluded from the pixels to be output, the time required for the face image detection process can be further reduced.
  • the face part image detection unit 26 performs a discriminant analysis to determine whether or not the image is a face part image using the pixel feature amounts extracted using the templates 12a to 12c. Since the facial part image is detected based on the result of the discriminant analysis, it is possible to efficiently determine whether the image is a facial part image. The time required can be further reduced.
  • the Gabor feature image generation unit 24 calculates the direction and intensity of an image pattern such as an edge included in the input image 10, and the face part image detection unit 26 generates the Gabor feature image. Since the face part image in the image is detected by using the direction and intensity of the image pattern calculated by the unit 24 as the feature amount of the pixel, the edge is obtained by using the direction and intensity of the image pattern as the feature amount. Can be detected with high accuracy and the detection accuracy of facial part images can be improved.
  • the face image detection unit 29 determines whether the image is a face image based on the position of the face part image detected by the face part image detection unit 26! Judgment and based on the result of the decision! / Image power Face image is detected, so even if it is a face part image, it is properly detected even if it is falsely detected as a face part image. And the detection accuracy of the face image can be improved.
  • the face image representative point calculating unit 27 calculates the face representative point 13 based on the face part image detected by the face part image detecting unit 26, and the face image detecting unit 29 Whether or not the image is a face image based on the positional relationship between the representative point 13 calculated by the face image representative point calculating unit 27 and the face part image detected by the face part image detecting unit 26. Since the determination is made, the position of the point representing the face image in the image can be appropriately detected, and the detection accuracy of the face image can be improved.
  • the face image detection feature quantity generation unit 28 divides the image into a plurality of divided regions 14 with the representative point 13 as a reference, and the face image detection unit 29 detects the face part image.
  • the face image is detected by determining whether or not the image is a face image based on the information of the divided area 14 where the face part image is located. By examining which divided area 14 the pixel that was the target of output is, it can be detected properly even if a non-face part is mistakenly detected as a face part, improving the detection accuracy of the face image be able to.
  • the face image detection unit 29 performs discriminant analysis for determining whether or not the image is a face image using information on the divided region 14 where the face part image is located, Since the face image is detected based on the result of the discrimination analysis, it can be efficiently determined whether or not the image is a face image, and the detection accuracy of the face image can be improved. it can.
  • the image is divided into nine divided regions 14, and it is determined in which divided region 14 the face part image is detected, thereby determining whether the image is a face image.
  • the present invention is not limited to this, and it is determined whether or not the image is a face image by determining whether or not there is a face part image at a position where a face part image is predicted to exist. As a matter of fact.
  • FIG. 7 is a diagram for explaining a determination process for determining whether or not there is a face part image at a position where a face part image is predicted to exist. As shown in FIG. 7, in this determination process, the distribution (presence probability distributions 40a and 40b shown in FIG. 7) predicted to have a face part image based on the position of the representative point 13 of the face is preliminarily determined. Learn.
  • the face image detection unit 29 determines that the face part is in an appropriate position when the position of the face part image is included in a range equal to or greater than the threshold in the distribution.
  • the face image detection unit 29 performs this determination processing on all the face parts, and determines that the image is a face image when it is determined that all the face part images are in appropriate positions. .
  • the face image detection unit 29 determines whether the image is a face image based on the positional relationship between the face part image and the representative point 13. By examining the positional relationship of the part image with respect to the representative point 13, even if a part that is not a face part image is erroneously detected as a face part image, it can be detected appropriately. The detection accuracy of the face image can be improved.
  • the face part image or the face image is detected by performing linear discriminant analysis.
  • the present invention is not limited to this, and the detection of the face part image or the face image is not limited to this. May be executed using other statistical methods. Other statistical methods include, for example, face part image or face image identification methods using nonlinear discriminant analysis, Support Vector Machine (SVM) method, neural network method, subspace method, and the like.
  • SVM Support Vector Machine
  • the constituent elements of the illustrated face image detection apparatus are functionally conceptual, and need not be physically configured as illustrated.
  • the specific form of dispersion / integration of the face image detection device is not limited to the one shown in the figure, and all or a part thereof can be functionally or physically processed in an arbitrary unit according to various loads or usage conditions. Can be distributed and integrated.
  • each or all of the processing functions performed in the face image detection device are realized by a CPU and a program that is analyzed and executed by the CPU, or hardware by wired logic. Can be realized as
  • the face image detection method described in the present embodiment can be realized by executing a prepared program on a computer such as a personal computer or a workstation.
  • This program can be distributed via a network such as the Internet.
  • the program can also be executed by being recorded on a computer-readable recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, and a DVD and being read by the computer.
  • a computer-readable recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, and a DVD and being read by the computer.
  • the face image detection apparatus, the face image detection method, and the face image detection program according to the present invention need to improve the accuracy of face image detection and reduce the time required for face image detection processing. Useful for face image detection systems.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

 顔パーツ画像の検出対象とする画素の周辺画素のうち所定の数の画素を抽出する異なる複数のテンプレート(12a~12c)に係る情報を記憶し、記憶した異なる複数のテンプレート(12a~12c)を用いることにより画素を抽出し、抽出した画素の特徴量を用いて画像中の顔パーツ画像を検出し、検出した顔パーツ画像に基づいて画像から顔画像を検出することにより、顔画像の検出精度を向上させるとともに、顔画像の検出処理に要する時間を短縮する。

Description

明 細 書
顔画像検出装置、顔画像検出方法および顔画像検出プログラム 技術分野
[0001] 本発明は、画像中に存在する顔画像を検出する顔画像検出装置、顔画像検出方 法および顔画像検出プログラムに関し、特に、顔画像の検出精度を向上させるととも に、検出処理に要する時間を短縮することができる顔画像検出装置、顔画像検出方 法および顔画像検出プログラムに関する。
背景技術
[0002] 従来、監視カメラシステムなどにおいて、監視カメラが捉えた画像に人物の顔が映 つて 、るか否かを自動的に認識させる顔画像検出技術が知られて 、る。このような顔 画像検出技術の例として、部分空間法によるものや Integral Image法によるものなど がある。
[0003] 部分空間法を用いた顔画像検出技術の例としては、画像中の目や鼻などの顔パー ッを部分空間を用いて認識し、さらに各顔パーツの位置の個人差を吸収するよう各 顔パーツの認識結果を統合して顔の基準点を算出することにより顔画像検出をおこ なうことを可能とした技術がある (特許文献 1を参照)。
[0004] また、 Integral Image法を用いた顔画像検出技術の例としては、画像中に複数の矩 形領域を設定し、各矩形領域に含まれるすべての画素の特徴量の合計値を比較す ることにより顔画像検出をおこなう技術がある (特許文献 2および非特許文献 1を参照
) o
[0005] 特許文献 1:特開 2004— 54442号公報
特許文献 2:特開 2004 - 362468号公報
非特干文献 1: Paul Viola, Michael Jones, Rapid Object Detection using a Boosted Cascade of Simple Features", In Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Volume 1, pp.511— 518, December 20 01
発明の開示 発明が解決しょうとする課題
[0006] し力しながら、上述した従来技術では、顔画像の検出処理に要する時間をさらに短 縮しつつ、検出精度を向上させることが難しいという問題があった。
[0007] 具体的には、部分空間法を用いた顔画像検出技術においては、顔パーツを認識 する際に顔パーツごとに処理が複雑な部分空間法を適用する必要があるため、処理 時間が長くなつてしまう。また、顔パーツの認識結果を単に統合することにより顔の基 準点を算定して 、るため、エッジ部分が多 、画像などで顔パーツでな 、ものが顔パ ーッとして誤認識されると顔の検出精度が低くなつてしまう。
[0008] また、 Integral Image法を用いた顔画像検出技術にぉ ヽては、顔画像の検出処理に 要する時間を短縮するため、特徴量の合計値を算出する矩形領域の面積が比較的 大きく設定される。ところが、直射日光が顔に当たっている画像などでは矩形領域の 面積が大きいと、特徴量の合計値が直射日光の影響により大きく変動し、顔画像検 出が正常におこなわれなくなる可能性があった。
[0009] そのため、顔の検出精度を向上させるとともに、検出処理に要する時間を短縮する ことができる技術の開発が依然重要な課題として残っている。
[0010] この発明は、上述した従来技術による問題点を解消するためになされたものであり 、顔画像の検出精度を向上させるとともに、検出処理に要する時間を短縮することが できる顔画像検出装置、顔画像検出方法および顔画像検出プログラムを提供するこ とを目的とする。
課題を解決するための手段
[0011] 上述した課題を解決し、目的を達成するため、請求項 1の発明に係る顔画像検出 装置は、画像中に存在する顔画像を検出する顔画像検出装置であって、顔パーツ 画像の検出対象とする画素の周辺画素のうち所定の数の画素を抽出する異なる複 数の抽出パターンに係る情報を記憶する抽出パターン記憶手段と、前記抽出パター ン記憶手段に記憶された異なる複数の抽出パターンを用いることにより画素を抽出し 、抽出した画素の特徴量を用いて画像中の顔パーツ画像を検出する顔パーツ画像 検出手段と、前記顔パーツ画像検出手段により検出された顔パーツ画像に基づいて 前記画像から顔画像を検出する顔画像検出手段とを備えたことを特徴とする。 [0012] また、請求項 2の発明に係る顔画像検出装置は、請求項 1の発明において、顔パ ーッ画像の検出に用いられる抽出パターンの機械学習を実行する抽出パターン学 習手段をさらに備え、前記抽出パターン記憶手段は、前記抽出パターン学習手段に より機械学習がなされた抽出パターンに係る情報を記憶することを特徴とする。
[0013] また、請求項 3の発明に係る顔画像検出装置は、請求項 1または 2の発明において 、前記顔パーツ画像検出手段は、ある抽出パターンを用いて顔パーツ画像の検出を おこなった場合に、顔パーツ画像が検出されな力つた際の検出対象であった画素を つぎの抽出パターンを用いて顔パーツ画像の検出をおこなう際の検出対象とする画 素から除外することを特徴とする。
[0014] また、請求項 4の発明に係る顔画像検出装置は、請求項 1、 2または 3の発明にお いて、前記顔パーツ検出手段は、抽出した画素の特徴量を用いて画像が顔パーツ 画像であるか否かを判別する判別分析を実行し、当該判別分析の結果に基づ ヽて 顔パーツ画像を検出することを特徴とする。
[0015] また、請求項 5の発明に係る顔画像検出装置は、請求項 1〜4のいずれか 1つの発 明において、前記顔パーツ画像検出手段は、画像中に含まれる画像パターンの方 向および強度を算出し、算出した画像パターンの方向および強度を画素の特徴量と して用いることにより画像中の顔パーツ画像を検出することを特徴とする。
[0016] また、請求項 6の発明に係る顔画像検出装置は、請求項 1〜5のいずれか 1つの発 明において、前記顔画像検出手段は、前記顔パーツ画像検出手段により検出された 顔パーツ画像の位置に基づ 、て画像が顔画像である力否かを判定し、判定結果に 基づいて前記画像から顔画像を検出することを特徴とする。
[0017] また、請求項 7の発明に係る顔画像検出装置は、請求項 6の発明において、前記 顔画像検出手段は、顔パーツ検出手段により検出された顔パーツ画像の位置に基 づいて顔画像の代表点を算出し、算出した代表点と前記顔パーツ画像検出手段に より検出された顔パーツ画像の位置との間の位置関係に基づいて画像が顔画像で あるカゝ否かを判定することを特徴とする。
[0018] また、請求項 8の発明に係る顔画像検出装置は、請求項 7の発明において、前記 顔画像検出手段は、前記代表点を基準として画像を複数の領域に分割し、前記顔 パーツ画像検出手段により顔パーツ画像が検出された場合の顔パーツ画像が位置 する領域の情報に基づいて画像が顔画像であるか否かを判定することにより顔画像 を検出することを特徴とする。
[0019] また、請求項 9の発明に係る顔画像検出方法は、請求項 8の発明において、前記 顔画像検出手段は、顔パーツ画像の検出対象であった画素が位置する領域の情報 を用いて画像が顔画像であるか否かを判別する判別分析を実行し、当該判別分析 の結果に基づ ヽて顔画像を検出することを特徴とする。
[0020] また、請求項 10の発明に係る顔画像検出方法は、画像中に存在する顔画像を検 出する顔画像検出方法であって、顔パーツ画像の検出対象とする画素の周辺画素 のうち所定の数の画素を抽出する異なる複数の抽出パターンに係る情報を記憶する 抽出パターン記憶工程と、前記抽出パターン記憶工程において記憶された異なる複 数の抽出パターンを用いることにより画素を抽出し、抽出した画素の特徴量を用いて 画像中の顔パーツ画像を検出する顔パーツ画像検出工程と、前記顔パーツ画像検 出工程により検出された顔パーツ画像に基づいて前記画像力ゝら顔画像を検出する 顔画像検出工程とを含んだことを特徴とする。
[0021] また、請求項 11の発明に係る顔画像検出プログラムは、画像中に存在する顔画像 を検出する顔画像検出プログラムであって、顔パーツ画像の検出対象とする画素の 周辺画素のうち所定の数の画素を抽出する異なる複数の抽出パターンに係る情報を 記憶する抽出パターン記憶手順と、前記抽出パターン記憶手順にぉ 、て記憶された 異なる複数の抽出パターンを用いることにより画素を抽出し、抽出した画素の特徴量 を用いて画像中の顔パーツ画像を検出する顔パーツ画像検出手順と、前記顔パー ッ画像検出手順により検出された顔パーツ画像に基づいて前記画像から顔画像を 検出する顔画像検出手順とをコンピュータに実行させることを特徴とする。
発明の効果
[0022] 請求項 1の発明によれば、顔パーツ画像の検出対象とする画素の周辺画素のうち 所定の数の画素を抽出する異なる複数の抽出パターンに係る情報を記憶し、記憶し た異なる複数の抽出パターンを用いることにより画素を抽出し、抽出した画素の特徴 量を用 ヽて画像中の顔パーツ画像を検出し、検出した顔パーツ画像に基づ!ヽて画 像力 顔画像を検出することとしたので、抽出する画素の数を制御することにより顔パ ーッ画像の検出処理を高速におこなうことができ、それによつて顔画像の検出に要 する時間を短縮することができるとともに、顔画像を検出する際の基となる顔パーツ 画像を複数回検出することにより顔の検出精度を向上させることができるという効果を 奏する。
[0023] また、請求項 2の発明によれば、顔パーツ画像の検出に用いられる抽出パターンの 機械学習を実行し、機械学習がなされた抽出パターンに係る情報を記憶することとし たので、照明変動を受けにくい部分の画素を抽出する抽出パターンなどを効率的に 選択することができるという効果を奏する。
[0024] また、請求項 3の発明によれば、ある抽出パターンを用いて顔パーツ画像の検出を おこなった場合に、顔パーツ画像が検出されな力つた際の検出対象であった画素を つぎの抽出パターンを用いて顔パーツ画像の検出をおこなう際の検出対象とする画 素から除外することとしたので、顔画像の検出処理に要する時間をさらに短縮するこ とができると!、う効果を奏する。
[0025] また、請求項 4の発明によれば、抽出した画素の特徴量を用いて画像が顔パーツ 画像であるか否かを判別する判別分析を実行し、当該判別分析の結果に基づ ヽて 顔パーツ画像を検出することとしたので、画像が顔パーツ画像であるか否かを効率 的に判定することができ、顔画像の検出処理に要する時間をさらに短縮することがで きるという効果を奏する。
[0026] また、請求項 5の発明によれば、画像中に含まれる画像パターンの方向および強度 を算出し、算出した画像パターンの方向および強度を画素の特徴量として用いること により画像中の顔パーツ画像を検出することとしたので、画像パターンの方向および 強度を特徴量として用いることによりエッジなどの画像パターンを精度よく検出でき、 顔パーツ画像の検出精度を向上させることができるという効果を奏する。
[0027] また、請求項 6の発明によれば、検出した顔パーツ画像の位置に基づ 、て画像が 顔画像であるか否かを判定し、判定結果に基づ ヽて画像から顔画像を検出すること としたので、たとえ顔パーツ画像でな ヽものを顔パーツ画像として誤検出した場合で も、適切にそれを把握することができ、顔画像の検出精度を向上させることができると いう効果を奏する。
[0028] また、請求項 7の発明によれば、検出した顔パーツ画像の位置に基づ 、て顔画像 の代表点を算出し、算出した代表点と検出した顔パーツ画像との間の位置関係に基 づ 、て画像が顔画像である力否かを判定することとしたので、画像中の顔画像を代 表する点の位置を適切に検出することができ、顔画像の検出精度を向上させることが できるという効果を奏する。
[0029] また、請求項 8の発明によれば、代表点を基準として画像を複数の領域に分割し、 顔パーツ画像が検出された場合の顔パーツ画像が位置する領域の情報に基づいて 画像が顔画像であるカゝ否かを判定することにより顔画像を検出することとしたので、ど の領域に顔パーツ画像があるかを調べることにより、顔パーツでないものを顔パーツ として誤検出した場合でも適切かつ効率的にそれを検出することができ、顔画像の検 出精度を向上させることができるという効果を奏する。
[0030] また、請求項 9の発明によれば、顔パーツ画像が位置する領域の情報を用いて画 像が顔画像であるカゝ否かを判別する判別分析を実行し、当該判別分析の結果に基 づ ヽて顔画像を検出することとしたので、画像が顔画像であるか否かを効率的に判 定することができ、顔画像の検出精度を向上させることができるという効果を奏する。
[0031] また、請求項 10の発明によれば、顔パーツ画像の検出対象とする画素の周辺画素 のうち所定の数の画素を抽出する異なる複数の抽出パターンに係る情報を記憶し、 記憶した異なる複数の抽出パターンを用いることにより画素を抽出し、抽出した画素 の特徴量を用いて画像中の顔パーツ画像を検出し、検出した顔パーツ画像に基づ いて画像から顔画像を検出することとしたので、抽出する画素の数を制御すること〖こ より顔パーツ画像の検出処理を高速におこなうことができ、それによつて顔画像の検 出に要する時間を短縮することができるとともに、顔画像を検出する際の基となる顔 パーツ画像を複数回検出することにより顔の検出精度を向上させることができるという 効果を奏する。
[0032] また、請求項 11の発明によれば、顔パーツ画像の検出対象とする画素の周辺画素 のうち所定の数の画素を抽出する異なる複数の抽出パターンに係る情報を記憶し、 記憶した異なる複数の抽出パターンを用いることにより画素を抽出し、抽出した画素 の特徴量を用いて画像中の顔パーツ画像を検出し、検出した顔パーツ画像に基づ いて画像から顔画像を検出することとしたので、抽出する画素の数を制御すること〖こ より顔パーツ画像の検出処理を高速におこなうことができ、それによつて顔画像の検 出に要する時間を短縮することができるとともに、顔画像を検出する際の基となる顔 パーツ画像を複数回検出することにより顔の検出精度を向上させることができるという 効果を奏する。
図面の簡単な説明
[図 1]図 1は、本発明に係る顔画像検出処理の概念について説明する図である。
[図 2]図 2は、本実施例に係る顔画像検出装置の機能構成を示す図である。
[図 3]図 3は、顔パーツ画像の検出をおこなう場合の顔パーツ画像の検出対象画素 の除外処理について説明する図である。
[図 4]図 4は、本実施例に係る顔画像検出処理の処理手順を示すフローチャートであ る。
[図 5]図 5は、図 4のステップ S103に示した顔パーツ画像の検出処理の処理手順を 示すフローチャートである。
[図 6]図 6は、図 2に示した画像処理装置のハードウェア構成を示す図である。
[図 7]図 7は、顔パーツ画像が存在すると予測される位置に顔パーツ画像があるか否 かを判定する判定処理について説明する図である。
符号の説明
10 入力画像
11a, l ib, 11c 縮小画像
12a, 12b, 12c テンプレ
13 代表点
14 分割領域
20 入力部
21 表示部
22 学習処理部
23 縮小拡大画像生成部 ガボール特徴画像生成部 テンプレート選択部
顔パーツ画像検出部
顔画像代表点算出部
顔画像検出用特徴量生成部 顔画像検出部
3し'
a 入力画像
b 縮小拡大画像
c ガボール特徴画像
d テンプレート情報
e 顔パーツ画像検出用線形判別式f 顔パーツ画像判別結果g 代表点設定情報
h 顔画像検出用線形判別式i 顔画像判別結果
制御部
a, 40b 存在確率分布
0 キーボード
1 ディスプレイ
2 ROM
3 媒体読取装置
4 ネットワークインターフェース5 CPU
5a 顔画像検出プロセス
6 HDD
7 HD
7a 顔画像検出プログラム 107b 各種データ
108 RAM
108a 各種データ
109 パス
発明を実施するための最良の形態
[0035] 以下に添付図面を参照して、本発明に係る顔画像検出装置、顔画像検出方法お よび顔画像検出プログラムの好適な実施例を詳細に説明する。
実施例
[0036] まず、本発明に係る顔画像検出処理の概念について説明する。図 1は、本発明に 係る顔画像検出処理の概念について説明する図である。
[0037] 図 1に示すように、この顔画像検出処理においては、まず、顔画像が含まれている か否かを検出する対象となる入力画像 10から、縮小率が異なる複数の縮小画像 11a 〜: L ieが生成される。なお、ここでは、縮小画像 l la〜l lcを生成する場合について 説明するが、入力画像 10に含まれる顔画像の大きさが所定の大きさよりも小さいとあ らかじめ予測される場合には拡大率が異なる複数の拡大画像が生成される。また、 入力画像 10に含まれる顔画像の大きさが予測できない場合には、縮小画像 l la〜l lcおよび拡大画像が両方とも生成される。これは、以下で説明するテンプレート 12a 〜 12cを画像に適用可能とするためである。そして、各画像に、右目、左目、鼻、口 の顔パーツの画像が含まれている力否かが線形判別分析により判定される。
[0038] 具体的には、画像の各画素の画素値に対してガボールフィルタが適用され、画素 ごとにエッジ強度およびエッジ方向が算出される。そして、顔パーツ画像の検出対象 となる画素を中心とする四角形のテンプレート 12a〜12cが選択され、上記検出対象 となる画素、および、その画素の周辺にある所定の数の画素におけるエッジ強度およ びエッジ方向の情報が取得される。
[0039] ここでは、顔パーツ画像の検出対象となる画素の周辺にある画素として、四角形の 四隅の点に対応する画素と、四角形の各辺の中点に対応する画素とが抽出され、検 出対象となる画素と併せて合計 9つの画素におけるエッジ強度およびエッジ方向の 情報が取得される。また、使用されるテンプレート 12a〜12cは、照明変動が少ない 顔の部分の画素が選択されるように機械学習がなされたものである。
[0040] その後、取得された 9つの画素におけるエッジ強度およびエッジ方向の情報を用い て、顔パーツ画像の検出対象となる画素に対応する画像部分が顔パーツ画像である か否かを判別する線形判別分析が実行される。
[0041] 具体的には、画像が顔パーツ画像か否かを判別する線形判別式にエッジ強度およ びエッジ方向の値を入力して判別スコアを算出し、その判別スコアの値に基づいて 上記判別がおこなわれる。
[0042] このように、 9つ分の画素の情報を用いて画像が顔パーツ画像である力否かを判定 するので顔パーツの検出を高速に実行でき、また、 9つの画素間でのエッジ画像の 変化を捉えることにより顔パーツの検出を適切におこなうことができる。
[0043] なお、テンプレート 12a〜12cは縦横の長さが異なるものが複数種類用意されてお り、そのような複数のテンプレート 12a〜 12cを用 ヽて顔パーツ画像の検出をおこなう ことにより顔パーツ画像の検出精度を向上させる。
[0044] また、ここでは、テンプレート 12a〜12cの形状を四角形にすることとした力 四角形 に限らず楕円形や円形などの形状にすることとしてもよい。ただし、特定の人の目な どの顔パーツの形状にテンプレート 12a〜 12cの形状を依存させると、その他の人の 顔パーツの検出精度が悪くなる可能性があるので、テンプレート 12a〜12cの形状を 顔パーツの形状に依存しな 、形状とするのが望まし 、。
[0045] さらに、エッジ強度およびエッジ方向の情報を取得する画素の数は、 9つに限定さ れるものではない。画素の数を増やせば、顔パーツ画像の検出精度が上がり、画素 の数を減らせば顔パーツ画像の処理速度が短縮される。したがって、この画素の数 を適切に設定することにより、検出精度と処理速度とのバランスを調整することができ る。
[0046] また、あるテンプレート 12a〜12cを用いて顔パーツ画像の検出処理をおこなった 際、顔パーツ画像ではないと判定された場合には、顔パーツ画像の検出対象であつ た画素を他のテンプレート 12a〜 12cを用 、ておこなう顔パーツ画像の検出の検出 対象となる画素から除外する。これにより、顔パーツ画像の検出処理に要する時間を 大幅に縮小することができ、それによつて顔画像検出処理の処理時間を短縮するこ とができるようになる。
[0047] 上記処理により各顔パーツ画像が検出された場合には、検出された各顔パーツ画 像の位置に基づいて、顔画像の位置を代表する代表点 13が決定される。具体的に は、各テンプレート 12a〜 12cを用 、て顔パーツ画像が検出された検出対象の画素 からみて、顔画像の代表点 13が存在する方向、および、距離 (画素数)をあらかじめ 設定しておく。
[0048] そして、その方向および距離の設定情報に基づいて、各顔パーツ画像の位置から 顔画像の代表点 13の位置の分布を算出し、その分布のピークを求めることにより顔 画像の代表点 13を決定する。
[0049] 顔の代表点 13が決定されると、その代表点 13を中心として画像を所定の画素数で 区切り、 9つの分割領域 14に分割する。具体的には、右目、左目、鼻、口の 4つの顔 パーツ画像がそれぞれ左上、右上、中央、中央下の分割領域 14に含まれるように各 分割領域 14の範囲を設定する。
[0050] このように各分割領域 14の範囲を設定すると、画像が顔画像である場合には顔パ ーッ画像が所定の位置に存在し、他の位置には無いはずであるため、それを確認す ることにより顔パーツ画像でないものが誤って顔パーツ画像として検出された場合に 画像が顔画像ではないと判定でき、顔画像検出の精度を向上させることができる。
[0051] 具体的には、各分割領域 14に位置する右目、左目、鼻、口の 4つの顔パーツ画像 の判別スコアの合計値を算出し、その合計値から画像が顔か顔以外かを判定するた めの 36次元(9領域 X 4顔パーツ)の特徴量を生成する。
[0052] そして、生成した特徴量を用いて、画像が顔画像か顔画像以外かを判定する 36次 元の線形判別分析をおこなう。具体的には、線形判別式に特徴量を入力して判別ス コアを算出し、その判別スコアが所定の閾値よりも大きい場合に画像が顔画像である と判定する。
[0053] 上述してきたような方法で顔画像検出処理をおこなうことにより、顔画像の検出に要 する時間を従来の 10分の 1程度に短縮することができ、また、エッジの多い(高周波 成分の多い)画像においては顔画像の検出精度を従来の 10倍程度に向上させるこ とができるようになる。 [0054] つぎに、本実施例に係る顔画像検出装置の機能構成について説明する。図 2は、 本実施例に係る顔画像検出装置の機能構成を示す図である。
[0055] 図 2に示すように、この顔画像検出装置は、入力部 20、表示部 21、学習処理部 22 、縮小拡大画像生成部 23、ガボール特徴画像生成部 24、テンプレート選択部 25、 顔パーツ画像検出部 26、顔画像代表点算出部 27、顔画像検出用特徴量生成部 28 、顔画像検出処理部 29、記憶部 30および制御部 31を有する。
[0056] 入力部 20は、キーボードやマウスなどの入力デバイスである。表示部 21は、デイス プレイなどの表示デバイスである。学習処理部 22は、顔パーツ画像を検出する際に 画像に適したテンプレート 12a〜 12cがどれかを学習する処理部である。具体的には 、この学習処理部 22は、ブースティングアルゴリズムを用いて、照明変動が少ない画 素などを抽出することができるテンプレート 12a〜12cがどれかを学習する。
[0057] 縮小拡大画像生成部 23は、入力画像 10を受け付けた場合に、その入力画像 10を 異なる縮小率で縮小した複数の縮小画像 1 la〜: L lcや異なる拡大率で拡大した複 数の拡大画像を生成する生成部である。具体的には、縮小拡大画像生成部 23は、 線形補間をおこなうことにより複数の縮小画像 1 la〜l lcや拡大画像を生成する。こ こで、入力画像 10を縮小するか拡大するかは、使用するテンプレート 12a〜12cの 大きさと、入力画像 10に含まれる顔画像の予測される大きさとの関係により決定され る。たとえば、使用するテンプレート 12a〜12cの大きさが縦横 20画素程度であり、予 測される顔画像の大きさが縦横 20画素以下である場合には、縮小拡大画像生成部 23は、入力画像 10の拡大画像を生成する。顔画像の大きさが予測できない場合に は、縮小拡大画像生成部 23は、縮小画像 l la〜l lcおよび拡大画像の両方を生成 する。
[0058] ガボール特徴画像生成部 24は、縮小拡大画像生成部 23により生成された各画像 に対してガボールフィルタを適用し、ガボール特徴画像を生成する生成部である。具 体的には、ガボール特徴画像生成部 24は、画像から 7画素四方の領域を選択し、領 域の 90度ごとの 4つの方向に対してガボールフィルタを適用することによりガボール 特徴画像を生成する。なお、 7画素四方という大きさは、顔画像の大きさが 24画素四 方のときに画像の右目と左目とが 12画素程度離れていることを仮定して設定されて いる
[0059] ガボールフィルタは
[数 1]
Figure imgf000015_0001
0 = -k, k = 0〜3
2 のように表される。また、 jは虚数単位であり、 0は方向(角度)であり、 λは波長であり 、 σ , σ はスケーノレであり、 kは 90度ごとの 4つの方向である。
1 2
[0060] ガボール特徴画像生成部 24は、ガボールフィルタの実部 g realおよび虚部 g taagの値 を算出し、それらの値力 画像中の各画素に対して、以下に示す 5次元の要素 V〜
1
V力もなる特徴量を算出することによりガボール特徴画像を生成する。
5
[0061] ここで、上記特徴量の 1次元目の要素 Vは、
1
[数 2]
Figure imgf000015_0002
Figure imgf000015_0003
∑{(gk1 + (gk imag/} , k = 0 のように表される。この 1次元目の要素 Vは、画像に含まれるエッジの強度を表す!
1
である。
[0062] また、 2次元目から 5次元目までの要素 Vから Vは、
2 5
[数 3]
Figure imgf000016_0001
のように表される。この 2次元目力 5次元目までの要素は、画像に含まれるエッジの 方向を表す量である。
[0063] テンプレート選択部 25は、顔パーツ画像を検出する際に、学習処理部 22により学 習された結果を用いて画像に適したテンプレート 12a〜12cを複数選択する選択部 である。顔パーツ画像検出部 26は、テンプレート選択部 25により選択されたテンプレ ート 12a〜 12cを用 、て顔パーツ画像を検出する検出部である。
[0064] 具体的には、顔パーツ画像検出部 26は、最初のテンプレート 12a〜12cを用いて 画像の画素を 9点ずつ選択し、それらの画素に対応するガボール特徴画像のエッジ 強度およびエッジ方向の情報に基づいて画像が顔パーツ画像である力否かを判別 する線形判別分析を実行する。
[0065] この線形判別分析で用いられる線形判別式は、
I のように表される。ここで、 a, aは係数であり、 wはテンプレート 12a〜12cにより選択
0 i i
された 9点における 5次元の特徴量 V〜Vの値が代入される変数であり、 iは 1から 45
1 5
(9点 X 5次元)までの値をとる。
[0066] 線形判別式の係数 aは、画像が顔パーツ画像か否かを適切に判別できるようにあら 力じめ算出されたものである。この線形判別式に 9点における 5次元の特徴量 V〜V
1 5 の値を代入した際の Zの値 (判別スコア)が大きいほど、画像が顔パーツ画像である確 度が高いと判定される。 [0067] そして、顔パーツ画像検出部 26は、使用したテンプレート 12a〜 12cの重みと判別 スコアとを乗算した値を顔パーツ画像の検出対象である画素ごとに算出して照合値と して設定し、照合値が所定の閾値よりも小さ 、場合には画像が顔パーツ画像ではな いと判定する。
[0068] 照合値が所定の閾値よりも大きい場合には、顔パーツ画像検出部 26は、つぎのテ ンプレート 12a〜 12cを使用して判別スコアを算出し、使用したテンプレート 12a〜 12 cの重みと判別スコアとを乗算した値を上記照合値に加算して新たな照合値として設 定する。ここでも、照合値が所定の閾値よりも小さくなつた場合には、顔パーツ画像検 出部 26は、画像が顔パーツ画像ではな!/、と判定する。
[0069] また、顔パーツ画像検出部 26は、画像が顔パーツ画像ではな!/、と判定し、つぎの テンプレート 12a〜12cを用いて新たに顔パーツ画像の検出をおこなう場合に、画像 が顔パーツ画像ではないと判定した際の顔パーツ画像の検出対象画素をつぎのテ ンプレート 12a〜 12cを用 、て顔パーツ画像の検出をおこなう際の検出対象画素か ら除外する。
[0070] 図 3は、顔パーツ画像の検出をおこなう場合の顔パーツ画像の検出対象画素の除 外処理について説明する図である。図 3には、右目の画像を検出する場合の例が示 されているが、他の顔パーツ画像を検出する場合も同様にして検出対象画素の除外 処理がおこなわれる。
[0071] 図 3に示すように、顔パーツ画像検出部 26は、はじめのテンプレート 12a〜12cを 適用する場合には、すべての画素のマスク値を「1」に設定し、すべての画素を右目 の画像を検出する際の検出対象画素とする。
[0072] そして、顔パーツ画像検出部 26は、はじめのテンプレート 12a〜12cを適用して右 目の画像の検出をおこなった結果、右目の画像ではないと判定した際の検出対象画 素のマスク値を「0」に設定し、つぎのテンプレート 12a〜 12cを用 ヽて右目の画像の 検出をおこなう場合の検出対象画素からその画素を除外する処理をおこなう。
[0073] 図 2の説明に戻ると、顔画像代表点算出部 27は、顔パーツ画像検出部 26により検 出された各顔パーツ画像の位置力 顔画像の位置を代表する代表点 13の位置を算 出する算出部である。 [0074] 具体的には、顔画像代表点算出部 27は、各テンプレート 12a〜12cを用いて各顔 パーツ画像を検出した際の検出対象画素からみて、顔画像の代表点 13がどの方向 に何画素分の距離にあるかを設定した代表点に係る設定情報を取得する。
[0075] そして、顔画像代表点算出部 27は、その代表点に係る情報と各顔パーツ画像の位 置の情報とに基づいて、顔画像の代表点 13の位置の分布を算出し、所定のしきい 値以上である点を求めることにより顔画像の代表点 13の位置を決定する。
[0076] 顔画像検出用特徴量生成部 28は、画像から顔画像を線形判別分析により検出す る際に用いられる特徴量を生成する生成部である。具体的には、顔画像検出用特徴 量生成部 28は、顔画像代表点算出部 27により算出された代表点 13を中心として画 像を所定の画素数で区切ることにより画像を 9つの分割領域 14に分割する。
[0077] そして、顔画像検出用特徴量生成部 28は、各テンプレート 12a〜12cを適用するこ とにより得られた顔パーツ画像ごとの照合値の合計値を、顔パーツ画像を検出した検 出対象画素が位置する分割領域 14ごとに算出し、その合計値から画像が顔画像か 顔画像以外かを判定するための 36次元(9領域 X右目、左目、鼻、口の 4つの顔パ ーッ)の特徴量を生成する。
[0078] 顔画像検出処理部 29は、顔画像検出用特徴量生成部 28により生成された 36次 元の特徴量を用いて 36次元の線形判別分析をおこなうことにより画像力も顔画像を 検出する処理部である。
[0079] なお、この線形判別分析により用いられる線形判別式は、式 (4)と同様のものであ る。ただし、この場合、 a , aは画像が顔画像か否かを適切に判別できるようにあらか
0 i
じめ算出された係数であり、 wは 36次元の特徴量の各値が代入される変数であり、 i は 1から 36までの値をとる。
[0080] 記憶部 30は、ハードディスク装置などの記憶デバイスである。この記憶部 30は、入 力画像 30a、縮小拡大画像 30b、ガボール特徴画像 30c、テンプレート情報 30d、顔 パーツ画像検出用線形判別式 30e、顔パーツ画像判別結果 30f、代表点設定情報 30g、顔画像検出用線形判別式 30h、および、顔画像判別結果 30iなどの各データ を記憶する。
[0081] 入力画像 30aは、顔画像が検出される対象となる画像である。縮小拡大画像 30b は、入力画像 30aから生成された縮小率または拡大率が異なる複数の画像である。 この縮小拡大画像 30bは、図 1などで説明した縮小画像 l la〜l lcまたは拡大画像 に対応する。ガボール特徴画像 30cは、縮小拡大画像 30bに対してガボールフィル タを適用することにより得られた各画素 5次元の特徴情報力 なる画像である。
[0082] テンプレート情報 30dは、顔パーツ画像を検出する際に利用されるテンプレート 12 a〜12cの情報である。具体的には、テンプレート情報 30dは、顔パーツ画像の検出 対象画素に対する顔パーツ画像の検出時に抽出される 8つの画素の相対位置の情 報、および、各テンプレート 12a〜 12cの重みの情報である。
[0083] 顔パーツ画像検出用線形判別式 30eは、顔パーツ画像を検出する際に用いられる 線形判別式の情報である。顔パーツ画像判別結果 30fは、顔パーツ画像を検出した 際の線形判別分析の結果の情報を記憶したものである。具体的には、顔パーツ画像 判別結果 30fは、線形判別分析により検出された各顔パーツ画像を検出した検出対 象画素の位置情報や使用したテンプレートの情報 12a〜12c、判別スコア、照合値 の情報などを記憶したものである。
[0084] 代表点設定情報 30gは、各顔パーツ画像と顔画像の代表点 13との間の位置関係 の設定情報を記憶したものである。具体的には、代表点設定情報 30gは、顔パーツ 画像が検出された際の検出対象の画素力もみた場合の代表点 13が存在する方向、 および、距離 (画素数)を設定した情報を各顔パーツごとに記憶したものである。
[0085] 顔画像検出用線形判別式 30hは、顔画像を検出する際に用いられる線形判別式 の情報である。顔画像判別結果 30iは、顔画像を検出した際の線形判別分析の結果 の情報を記憶したものである。具体的には、顔画像判別結果 30iは、顔画像の代表 点 13の位置情報や、画像が顔画像であるカゝ否かを線形判別分析により判別した場 合の判別スコアの情報などを記憶したものである。
[0086] 制御部 31は、顔画像検出装置を全体制御する制御部であり、顔画像検出装置の 各機能部間におけるデータの授受を司る。
[0087] つぎに、本実施例に係る顔画像検出処理の処理手順について説明する。図 4は、 本実施例に係る顔画像検出処理の処理手順を示すフローチャートである。
[0088] 図 4に示すように、まず、顔画像検出装置の縮小拡大画像生成部 23は、顔画像の 検出がおこなわれる画像の入力を受け付け (ステップ S101)、受け付けた画像から 縮小率が異なる複数の縮小画像 l la〜 11cを生成する (ステップ S102)。なお、ここ では、縮小拡大画像生成部 23が縮小画像 l la〜l lcを生成する場合を例として記 載しているが、縮小拡大画像生成部 23が拡大画像を生成する場合、あるいは、縮小 画像 1 la〜l lcおよび拡大画像の両方を生成する場合も以下に説明する処理と同 様の処理がおこなわれる。
[0089] 続、て、ガボール特徴画像生成部 24、テンプレート選択部 25、および、顔パーツ 画像検出部 26は、縮小率が異なる複数の縮小画像 l la〜l lcに対して複数のテン プレート 12a〜12cを適用し、線形判別分析により照合値を算出して、右目、左目、 鼻、口の各顔パーツ画像を検出する処理をおこなう(ステップ S 103)。この顔パーツ 画像の検出処理については、図 5において詳しく説明する。
[0090] そして、顔画像代表点算出部 27は、ガボール特徴画像生成部 24、テンプレート選 択部 25、および、顔パーツ画像検出部 26により検出された顔パーツ画像の位置から 顔画像の代表点 13の位置を算出する (ステップ S 104)。
[0091] 続いて、顔画像検出用特徴量生成部 28は、顔画像代表点算出部 27により算出さ れた代表点 13を中心として画像を所定の画素数で区切ることにより画像を 9つの分 割領域 14に分割し、顔パーツ画像ごとの照合値の合計値を、顔パーツ画像を検出し た検出対象画素が位置する分割領域 14ごとに算出し、その合計値から画像が顔画 像か顔画像以外かを判定するための 36次元の特徴量を生成する (ステップ S105)。
[0092] その後、顔画像検出処理部 29は、 36次元の特徴量を用いた線形判別分析により 画像から顔画像を検出する顔画像検出処理を実行し (ステップ S106)、顔画像の検 出結果を出力して (ステップ S 107)、この顔画像検出処理を終了する。
[0093] つぎに、図 4のステップ S103に示した顔パーツ画像の検出処理の処理手順につい て説明する。図 5は、図 4のステップ S103に示した顔パーツ画像の検出処理の処理 手順を示すフローチャートである。
[0094] 図 5に示すように、まず、ガボール特徴画像生成部 24は、式(2)および式(3)を用 いて、各画素が 5次元の要素から構成されるガボール特徴画像を生成する (ステップ S201)。そして、顔パーツ画像検出部 26は、はじめに画像を検出する顔パーツを設 定する(ステップ S 202)。
[0095] 続いて、顔パーツ画像検出部 26は、すべての画素を顔パーツ画像を検出する検 出対象画素とするように、画像のすべての画素のマスク値を「1」に初期化する (ステツ プ S203)。そして、テンプレート選択部 25は、学習処理部により学習された結果に基 づいて、入力画像 10から顔パーツ画像を検出するのに適したテンプレート 12a〜12 cを選択する(ステップ S204)。
[0096] その後、顔パーツ画像検出部 26は、顔パーツ画像を検出する対象画素を 1つ選択 し (ステップ S 205)、選択した画素のマスク値が「1」である力否かを調べる(ステップ S
206)。
[0097] マスク値が「1」である場合には (ステップ S206, Yes)、顔パーツ画像検出部 26は 、テンプレート 12a〜12cにより指定された画素のガボール特徴画像における 5次元 の特徴量を用いて線形判別分析を実行し (ステップ S 207)、判別スコアと各テンプレ ート 12a〜 12cの重みとから、画像が顔パーツ画像である力否かの判定に用 、られる 照合値を算出する (ステップ S208)。
[0098] そして、顔パーツ画像検出部 26は、照合値が所定の閾値以上である力否かを調べ
(ステップ S209)、照合値が所定の閾値以上である場合には (ステップ S209, Yes) 、画像が顔パーツ画像であると判定し (ステップ S210)、その顔パーツ画像を検出し た検出対象画素の位置、判別スコア、照合値などの情報を記憶する (ステップ S211
) o
[0099] その後、顔パーツ画像検出部 26は、すべての画素が選択されることにより画像の 走査が完了したか否かを調べる(ステップ S214)。ステップ S209において、照合値 が所定の閾値以上でな力つた場合には (ステップ S209, No)、顔パーツ画像検出部 26は、画像が顔パーツ画像ではないと判定し (ステップ S212)、検出対象画素を顔 パーツ画像を検出する対象画素力 除外するよう当該画素のマスク値を「0」に設定 し (ステップ S 213)、そのままステップ S 214に移行する。
[0100] また、ステップ S206において、選択された画素のマスク値力 「l」でなかった場合に は(ステップ S206, No)、そのままステップ S214に移行する。ステップ S214におい て、画像の走査がまだ完了していない場合には (ステップ S214, No)、顔パーツ画 像検出部 26は、顔パーツ画像を検出するつぎの検出対象画素を選択し (ステップ S
215)、ステップ S206に移行して、それ以後の処理を継続する。
[0101] 画像の走査が完了した場合には (ステップ S214, Yes)、顔パーツ画像検出部 26 は、すべてのテンプレート 12a〜12cを使用したか否かを調べる(ステップ S216)。
[0102] すべてのテンプレート 12a〜 12cを使用していない場合には(ステップ S 216, No)
、テンプレート選択部 25は、つぎのテンプレート 12a〜12cを選択し (ステップ S217)
、ステップ S205に移行して、それ以後の処理を継続する。
[0103] すべてのテンプレート 12a〜 12cを使用した場合には(ステップ S 216, Yes)、顔パ ーッ画像検出部 26は、すべての顔パーツ画像の検出処理が完了したか否かを調べ る(ステップ S 218)。
[0104] そして、すべての顔パーツ画像の検出処理が完了していない場合には (ステップ S 218, No)、顔パーツ画像検出部 26は、つぎに画像を検出する顔パーツの設定をお こない(ステップ S219)、ステップ S203に移行して、それ以後の処理を継続する。す ベての顔パーツ画像の検出処理が完了した場合には (ステップ S218, Yes)、この顔 パーツ画像の検出処理を終了する。
[0105] つぎに、図 2に示した顔画像検出装置のハードウェア構成について説明する。図 6 は、図 2に示した画像処理装置のハードウェア構成を示す図である。図 6に示すよう に、この顔画像検出装置は、キーボード 100、ディスプレイ 101、 ROM (Read Only Memory) 102、各種プログラムを記録した記録媒体からプログラムを読み取る媒体読 取装置 103、ネットワークを介して他のコンピュータとの間でデータの授受をおこなう ネットワークインターフェース 104、 CPU (Central Processing Unit) 105、 HDD (Hard 構成となる。
[0106] HDD106が格納および読み出し制御する記憶媒体である HD (Hard Disk) 107に は、本実施例で示される顔画像検出方法をコンピュータで実行することにより実現す る顔画像検出プログラム 107aが記憶され、実行時に顔画像検出プログラム 107aが HD107から読み出された後、 CPU105によりそれが解析され、顔画像検出プロセス 105aの実行がおこなわれる。 [0107] この顔画像検出プロセス 105aが、図 2に示した学習処理部 22、縮小拡大画像生 成部 23、ガボール特徴画像生成部 24、テンプレート選択部 25、顔パーツ画像検出 部 26、顔画像代表点算出部 27、顔画像検出用特徴量生成部 28、顔画像検出処理 部 29の各機能に対応する。
[0108] また、 HD107には、各種データ 107bが記憶され、顔画像検出プログラム 107aの 実行時には各種データ 107bが RAM108に記憶され、 RAM108に記憶された各種 データ 108aが CPU105により参照される。
[0109] この各種データ 107bは、図 2に示した入力画像 30a、縮小拡大画像 30b、ガボ一 ル特徴画像 30c、テンプレート情報 30d、顔パーツ画像検出用線形判別式 30e、顔 パーツ画像判別結果 30f、代表点設定情報 30g、顔画像検出用線形判別式 30h、 および、顔画像判別結果 30iなどの各種データに対応する。
[0110] 上述してきたように、本実施例では、顔画像検出装置の記憶部 30が、顔パーツ画 像の検出対象とする画素の周辺画素のうち所定の数の画素を抽出する異なる複数 のテンプレート 12a〜 12cに係る情報を記憶し、顔パーツ画像検出部 26が、記憶部 30に記憶された異なる複数のテンプレート 12a〜12cを用いることにより画素を抽出 し、抽出した画素の特徴量を用いて画像中の顔パーツ画像を検出し、顔画像検出部 29が、顔パーツ検出部 26により検出された顔パーツ画像に基づいて画像力も顔画 像を検出することとしたので、抽出する画素の数を制御することにより顔パーツ画像 の検出処理を高速におこなうことができ、それによつて顔画像の検出に要する時間を 短縮することができるとともに、顔画像を検出する際の基となる顔パーツ画像を複数 回検出することにより顔の検出精度を向上させることができる。
[0111] また、本実施例では、学習処理部 22が、顔パーツ画像の検出に用いられるテンプ レート 12a〜12cの機械学習を実行し、記憶部 30が、機械学習がなされたテンプレ ート 12a〜12cの情報を記憶することとしたので、照明変動を受けにくい部分の画素 を抽出する抽出パターンなどを効率的に選択することができる。
[0112] また、本実施例では、顔パーツ画像検出部 26が、あるテンプレート 12a〜12cを用 いて顔パーツ画像の検出をおこなった場合に、顔パーツ画像が検出されな力 た画 素をつぎのテンプレート 12a〜12cを用いて顔パーツ画像の検出をおこなう場合の検 出対象とする画素から除外することとしたので、顔画像の検出処理に要する時間をさ らに短縮することができる。
[0113] また、本実施例では、顔パーツ画像検出部 26が、テンプレート 12a〜12cを用いて 抽出した画素の特徴量を用いて画像が顔パーツ画像である力否かを判別する判別 分析を実行し、当該判別分析の結果に基づ ヽて顔パーツ画像を検出することとした ので、画像が顔パーツ画像である力否かを効率的に判定することができ、顔画像の 検出処理に要する時間をさらに短縮することができる。
[0114] また、本実施例では、ガボール特徴画像生成部 24が、入力画像 10中に含まれる エッジなどの画像パターンの方向および強度を算出し、顔パーツ画像検出部 26が、 ガボール特徴画像生成部 24により算出された画像パターンの方向および強度を画 素の特徴量として用いることにより画像中の顔パーツ画像を検出することとしたので、 画像パターンの方向および強度を特徴量として用いることによりエッジなどのパター ンを精度よく検出でき、顔パーツ画像の検出精度を向上させることができる。
[0115] また、本実施例では、顔画像検出部 29が、顔パーツ画像検出部 26により検出され た顔パーツ画像の位置に基づ!/ヽて画像が顔画像であるカゝ否かを判定し、判定結果 に基づ!/、て画像力 顔画像を検出することとしたので、たとえ顔パーツ画像でな 、も のを顔パーツ画像として誤検出した場合でも、適切にそれを把握することができ、顔 画像の検出精度を向上させることができる。
[0116] また、本実施例では、顔画像代表点算出部 27が、顔パーツ画像検出部 26により検 出された顔パーツ画像に基づいて顔の代表点 13を算出し、顔画像検出部 29が、顔 画像代表点算出部 27により算出された代表点 13と、顔パーツ画像検出部 26により 検出された顔パーツ画像との間の位置関係に基づいて画像が顔画像である力否か を判定することとしたので、画像中の顔画像を代表する点の位置を適切に検出するこ とができ、顔画像の検出精度を向上させることができる。
[0117] また、本実施例では、顔画像検出用特徴量生成部 28が、代表点 13を基準として 画像を複数の分割領域 14に分割し、顔画像検出部 29が、顔パーツ画像が検出され た場合の顔パーツ画像が位置する分割領域 14の情報に基づいて画像が顔画像で ある力否かを判定することにより顔画像を検出することとしたので、顔パーツ画像の検 出対象であった画素がどの分割領域 14にあるかを調べることにより、顔パーツでない ものを顔パーツとして誤検出した場合でも適切にそれを検出することができ、顔画像 の検出精度を向上させることができる。
[0118] また、本実施例では、顔画像検出部 29が、顔パーツ画像が位置する分割領域 14 の情報を用いて画像が顔画像であるカゝ否かを判別する判別分析を実行し、当該判 別分析の結果に基づ ヽて顔画像を検出することとしたので、画像が顔画像であるか 否かを効率的に判定することができ、顔画像の検出精度を向上させることができる。
[0119] さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以 外にも、特許請求の範囲に記載した技術的思想の範囲内において種々の異なる実 施例にて実施されてもよいものである。
[0120] たとえば、上記実施例では、画像を 9つの分割領域 14に分割し、顔パーツ画像が どの分割領域 14で検出されたかを調べることにより、画像が顔画像か否かを判定す ることとしたが、本発明はこれに限定されるものではなぐ顔パーツ画像が存在すると 予測される位置に顔パーツ画像があるカゝ否かを判定することにより画像が顔画像か 否かを判定することとしてもょ 、。
[0121] 図 7は、顔パーツ画像が存在すると予測される位置に顔パーツ画像があるか否かを 判定する判定処理について説明する図である。図 7に示すように、この判定処理にお いては、顔の代表点 13の位置を基準として顔パーツ画像が存在すると予測される分 布(図 7に示す存在確率分布 40a, 40b)をあらかじめ学習しておく。
[0122] そして、顔画像検出部 29は、顔パーツ画像の位置がその分布における閾値以上 の範囲に含まれる場合に顔パーツが適切な位置にあるものと判定する。顔画像検出 部 29は、この判定処理をすベての顔パーツに対しておこない、すべての顔パーツ画 像が適切な位置にあると判定された場合に、画像が顔画像であると判定する。
[0123] この例では、顔画像検出部 29が、顔パーツ画像と代表点 13との間の位置関係に 基づ 、て画像が顔画像である力否かを判定することとしたので、顔パーツ画像が代 表点 13に対してどのような位置関係にあるかを調べることにより、顔パーツ画像でな いものを顔パーツ画像として誤検出した場合でも適切にそれを検出することができ、 顔画像の検出精度を向上させることができる。 [0124] また、上記実施例では、顔パーツ画像または顔画像を線形判別分析をおこなうこと により検出することとしたが、本発明はこれに限定されるものではなぐ顔パーツ画像 または顔画像の検出をその他の統計手法を用いて実行することとしてもよい。その他 の統計手法としては、たとえば、非線形判別分析や Support Vector Machine (SVM) 法、ニューラルネットワーク法、部分空間法などを用いた顔パーツ画像または顔画像 の識別手法が挙げられる。
[0125] また、本実施例において説明した各処理のうち、自動的におこなわれるものとして 説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的に おこなわれるものとして説明した処理の全部または一部を公知の方法で自動的にお こなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具 体的名称、各種のデータやパラメータを含む情報については、特記する場合を除い て任意に変更することができる。
[0126] また、図示した顔画像検出装置の各構成要素は機能概念的なものであり、必ずしも 物理的に図示の如く構成されていることを要しない。すなわち、顔画像検出装置の分 散 ·統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負 荷や使用状況などに応じて、任意の単位で機能的または物理的に分散 ·統合して構 成することができる。
[0127] さらに、顔画像検出装置にて行なわれる各処理機能は、その全部または任意の一 部が、 CPUおよび当該 CPUにて解析実行されるプログラムにて実現され、あるいは 、ワイヤードロジックによるハードウェアとして実現され得る。
[0128] なお、本実施の形態で説明した顔画像検出方法は、あら力じめ用意されたプロダラ ムをパーソナル 'コンピュータやワークステーションなどのコンピュータで実行すること によって実現することができる。
[0129] このプログラムは、インターネットなどのネットワークを介して配布することができる。
また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、 CD— ROM、 MO、 DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータ によって記録媒体力 読み出されることによって実行することもできる。
産業上の利用可能性 以上のように、本発明に係る顔画像検出装置、顔画像検出方法および顔画像検出 プログラムは、顔画像の検出精度を向上させるとともに、顔画像の検出処理に要する 時間を短縮することが必要な顔画像検出システムに有用である。

Claims

請求の範囲
[1] 画像中に存在する顔画像を検出する顔画像検出装置であって、
顔パーツ画像の検出対象とする画素の周辺画素のうち所定の数の画素を抽出する 異なる複数の抽出パターンに係る情報を記憶する抽出パターン記憶手段と、 前記抽出パターン記憶手段に記憶された異なる複数の抽出パターンを用いること により画素を抽出し、抽出した画素の特徴量を用 Vヽて画像中の顔パーツ画像を検出 する顔パーツ画像検出手段と、
前記顔パーツ画像検出手段により検出された顔パーツ画像に基づいて前記画像 から顔画像を検出する顔画像検出手段と
を備えたことを特徴とする顔画像検出装置。
[2] 顔パーツ画像の検出に用いられる抽出パターンの機械学習を実行する抽出パター ン学習手段をさらに備え、前記抽出パターン記憶手段は、前記抽出パターン学習手 段により機械学習がなされた抽出パターンに係る情報を記憶することを特徴とする請 求項 1に記載の顔画像検出装置。
[3] 前記顔パーツ画像検出手段は、ある抽出パターンを用いて顔パーツ画像の検出を おこなった場合に、顔パーツ画像が検出されな力つた際の検出対象であった画素を つぎの抽出パターンを用いて顔パーツ画像の検出をおこなう際の検出対象とする画 素力 除外することを特徴とする請求項 1または 2に記載の顔画像検出装置。
[4] 前記顔パーツ検出手段は、抽出した画素の特徴量を用いて画像が顔パーツ画像 であるか否かを判別する判別分析を実行し、当該判別分析の結果に基づ!ヽて顔パ ーッ画像を検出することを特徴とする請求項 1、 2または 3に記載の顔画像検出装置
[5] 前記顔パーツ画像検出手段は、画像中に含まれる画像パターンの方向および強 度を算出し、算出した画像パターンの方向および強度を画素の特徴量として用いる ことにより画像中の顔パーツ画像を検出することを特徴とする請求項 1〜4のいずれ 力 1つに記載の顔画像検出装置。
[6] 前記顔画像検出手段は、前記顔パーツ画像検出手段により検出された顔パーツ画 像の位置に基づ 、て画像が顔画像であるか否かを判定し、判定結果に基づ 、て前 記画像から顔画像を検出することを特徴とする請求項 1〜5のいずれか 1つに記載の 顔画像検出装置。
[7] 前記顔画像検出手段は、顔パーツ検出手段により検出された顔パーツ画像の位置 に基づいて顔画像の代表点を算出し、算出した代表点と前記顔パーツ画像検出手 段により検出された顔パーツ画像との間の位置関係に基づいて画像が顔画像である か否かを判定することを特徴とする請求項 6に記載の顔画像検出装置。
[8] 前記顔画像検出手段は、前記代表点を基準として画像を複数の領域に分割し、前 記顔パーツ画像検出手段により顔パーツ画像が検出された場合の顔パーツ画像が 位置する領域の情報に基づいて画像が顔画像である力否かを判定することにより顔 画像を検出することを特徴とする請求項 7に記載の顔画像検出装置。
[9] 前記顔画像検出手段は、顔パーツ画像が位置する領域の情報を用いて画像が顔 画像であるか否かを判別する判別分析を実行し、当該判別分析の結果に基づ ヽて 顔画像を検出することを特徴とする請求項 8に記載の顔画像検出装置。
[10] 画像中に存在する顔画像を検出する顔画像検出方法であって、
顔パーツ画像の検出対象とする画素の周辺画素のうち所定の数の画素を抽出する 異なる複数の抽出パターンに係る情報を記憶する抽出パターン記憶工程と、 前記抽出パターン記憶工程において記憶された異なる複数の抽出パターンを用い ることにより画素を抽出し、抽出した画素の特徴量を用いて画像中の顔パーツ画像を 検出する顔パーツ画像検出工程と、
前記顔パーツ画像検出工程により検出された顔パーツ画像に基づいて前記画像 から顔画像を検出する顔画像検出工程と
を含んだことを特徴とする顔画像検出方法。
[11] 画像中に存在する顔画像を検出する顔画像検出プログラムであって、
顔パーツ画像の検出対象とする画素の周辺画素のうち所定の数の画素を抽出する 異なる複数の抽出パターンに係る情報を記憶する抽出パターン記憶手順と、 前記抽出パターン記憶手順において記憶された異なる複数の抽出パターンを用い ることにより画素を抽出し、抽出した画素の特徴量を用いて画像中の顔パーツ画像を 検出する顔パーツ画像検出手順と、 前記顔パーツ画像検出手順により検出された顔パーツ画像に基づいて前記画像 から顔画像を検出する顔画像検出手順と
をコンピュータに実行させることを特徴とする顔画像検出プログラム。
PCT/JP2006/314806 2005-07-27 2006-07-26 顔画像検出装置、顔画像検出方法および顔画像検出プログラム WO2007013529A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CA002616460A CA2616460A1 (en) 2005-07-27 2006-07-26 Face-image detecting apparatus, face-image detecting method, and face-image detecting program
US11/996,569 US8311291B2 (en) 2005-07-27 2006-07-26 Face image detecting device, face image detecting method, and face image detecting program
EP06781718.9A EP1909228B1 (en) 2005-07-27 2006-07-26 Face image detecting device, face image detecting method, and face image detecting program
BRPI0614109A BRPI0614109A2 (pt) 2005-07-27 2006-07-26 aparelho de detecção de imagem facial que detecta uma imagem facial incluída em uma imagem, e, método e programa de detecção de imagem facial para detectar uma imagem facial incluída em uma imagem
KR1020087002114A KR101445281B1 (ko) 2005-07-27 2006-07-26 얼굴 화상 검출장치, 얼굴 화상 검출방법 및 얼굴 화상 검출프로그램을 기록한 컴퓨터 판독 가능한 기록매체
CN2006800269651A CN101228552B (zh) 2005-07-27 2006-07-26 脸图像检测装置、脸图像检测方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-217711 2005-07-27
JP2005217711A JP4410732B2 (ja) 2005-07-27 2005-07-27 顔画像検出装置、顔画像検出方法および顔画像検出プログラム

Publications (1)

Publication Number Publication Date
WO2007013529A1 true WO2007013529A1 (ja) 2007-02-01

Family

ID=37683420

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/314806 WO2007013529A1 (ja) 2005-07-27 2006-07-26 顔画像検出装置、顔画像検出方法および顔画像検出プログラム

Country Status (8)

Country Link
US (1) US8311291B2 (ja)
EP (1) EP1909228B1 (ja)
JP (1) JP4410732B2 (ja)
KR (1) KR101445281B1 (ja)
CN (1) CN101228552B (ja)
BR (1) BRPI0614109A2 (ja)
CA (1) CA2616460A1 (ja)
WO (1) WO2007013529A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4532419B2 (ja) * 2006-02-22 2010-08-25 富士フイルム株式会社 特徴点検出方法および装置並びにプログラム
CN101315670B (zh) 2007-06-01 2010-08-11 清华大学 特定被摄体检测装置及其学习装置和学习方法
JP2008311922A (ja) * 2007-06-14 2008-12-25 Fujifilm Corp 撮像装置
JP2008311921A (ja) * 2007-06-14 2008-12-25 Fujifilm Corp 撮像装置
EP2255950B1 (en) 2007-08-09 2016-11-09 Murata Machinery, Ltd. Method for operating a filament winding apparatus
JP5161311B2 (ja) * 2007-09-19 2013-03-13 トムソン ライセンシング 画像をスケーリングするシステムおよび方法
JP4930433B2 (ja) * 2008-04-01 2012-05-16 セイコーエプソン株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP4742193B2 (ja) * 2009-04-28 2011-08-10 Necソフト株式会社 年齢推定装置、年齢推定方法及びプログラム
ES2377303B1 (es) * 2009-06-05 2013-02-01 Vodafone España S.A.U. Método y sistema para recomendar fotografías.
WO2011037579A1 (en) * 2009-09-25 2011-03-31 Hewlett-Packard Development Company, L.P. Face recognition apparatus and methods
JP2011170690A (ja) * 2010-02-19 2011-09-01 Sony Corp 情報処理装置、情報処理方法、およびプログラム。
US9195501B2 (en) * 2011-07-12 2015-11-24 Qualcomm Incorporated Instruction culling in graphics processing unit
US8774508B2 (en) * 2012-02-27 2014-07-08 Denso It Laboratory, Inc. Local feature amount calculating device, method of calculating local feature amount, corresponding point searching apparatus, and method of searching corresponding point
WO2013138268A1 (en) * 2012-03-12 2013-09-19 Diy, Co. Automatic face detection and parental approval in images and video and applications thereof
US9443137B2 (en) * 2012-05-08 2016-09-13 Samsung Electronics Co., Ltd. Apparatus and method for detecting body parts
CN103455234A (zh) * 2012-06-01 2013-12-18 腾讯科技(深圳)有限公司 显示应用程序界面的方法及装置
EP3054677A4 (en) * 2013-09-30 2017-05-10 Coolpad Software Tech (Shenzhen) Co., Ltd. Methods and systems for image encoding and decoding and terminal
WO2015049826A1 (ja) * 2013-10-01 2015-04-09 日本電気株式会社 物体検出装置、物体検出方法および学習装置
US9807316B2 (en) * 2014-09-04 2017-10-31 Htc Corporation Method for image segmentation
WO2020049933A1 (ja) * 2018-09-05 2020-03-12 日本電産株式会社 物体認識装置および物体認識方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07220090A (ja) * 1994-02-02 1995-08-18 Canon Inc 物体認識方法
JPH11120351A (ja) * 1997-10-15 1999-04-30 Fujitsu Ltd 画像マッチング装置および画像マッチングプログラムを格納する記憶媒体
JP2003317084A (ja) * 2002-04-19 2003-11-07 Nec Corp 顔画像からの目検出システム、目検出方法および目検出用プログラム
JP2004054442A (ja) * 2002-07-17 2004-02-19 Glory Ltd 顔検出装置、顔検出方法および顔検出プログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6463176B1 (en) 1994-02-02 2002-10-08 Canon Kabushiki Kaisha Image recognition/reproduction method and apparatus
US5710590A (en) * 1994-04-15 1998-01-20 Hitachi, Ltd. Image signal encoding and communicating apparatus using means for extracting particular portions of an object image
US6108437A (en) * 1997-11-14 2000-08-22 Seiko Epson Corporation Face recognition apparatus, method, system and computer readable medium thereof
GB2341231A (en) * 1998-09-05 2000-03-08 Sharp Kk Face detection in an image
JP3636927B2 (ja) * 1999-05-18 2005-04-06 三菱電機株式会社 顔画像処理装置
EP1107166A3 (en) * 1999-12-01 2008-08-06 Matsushita Electric Industrial Co., Ltd. Device and method for face image extraction, and recording medium having recorded program for the method
JP2001216515A (ja) * 2000-02-01 2001-08-10 Matsushita Electric Ind Co Ltd 人物の顔の検出方法およびその装置
JP2001285787A (ja) 2000-03-31 2001-10-12 Nec Corp 映像録画方法およびそのシステムとその記録媒体
US7155036B2 (en) * 2000-12-04 2006-12-26 Sony Corporation Face detection under varying rotation
JP3846851B2 (ja) 2001-02-01 2006-11-15 松下電器産業株式会社 画像のマッチング処理方法及びその装置
GB0112773D0 (en) * 2001-05-25 2001-07-18 Univ Manchester Object identification
US7050607B2 (en) * 2001-12-08 2006-05-23 Microsoft Corp. System and method for multi-view face detection
AUPS140502A0 (en) * 2002-03-27 2002-05-09 Seeing Machines Pty Ltd Method for automatic detection of facial features
JP4447245B2 (ja) 2003-06-06 2010-04-07 オムロン株式会社 特定被写体検出装置
US7783082B2 (en) * 2003-06-30 2010-08-24 Honda Motor Co., Ltd. System and method for face recognition
US7920725B2 (en) * 2003-09-09 2011-04-05 Fujifilm Corporation Apparatus, method, and program for discriminating subjects

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07220090A (ja) * 1994-02-02 1995-08-18 Canon Inc 物体認識方法
JPH11120351A (ja) * 1997-10-15 1999-04-30 Fujitsu Ltd 画像マッチング装置および画像マッチングプログラムを格納する記憶媒体
JP2003317084A (ja) * 2002-04-19 2003-11-07 Nec Corp 顔画像からの目検出システム、目検出方法および目検出用プログラム
JP2004054442A (ja) * 2002-07-17 2004-02-19 Glory Ltd 顔検出装置、顔検出方法および顔検出プログラム

Also Published As

Publication number Publication date
CN101228552A (zh) 2008-07-23
EP1909228A1 (en) 2008-04-09
JP4410732B2 (ja) 2010-02-03
EP1909228B1 (en) 2014-07-02
KR20080031031A (ko) 2008-04-07
CA2616460A1 (en) 2007-02-01
KR101445281B1 (ko) 2014-09-26
BRPI0614109A2 (pt) 2016-11-22
CN101228552B (zh) 2012-10-03
US20090041357A1 (en) 2009-02-12
JP2007034723A (ja) 2007-02-08
EP1909228A4 (en) 2009-07-01
US8311291B2 (en) 2012-11-13

Similar Documents

Publication Publication Date Title
JP4410732B2 (ja) 顔画像検出装置、顔画像検出方法および顔画像検出プログラム
US7840037B2 (en) Adaptive scanning for performance enhancement in image detection systems
Xu et al. Automatic 3D face recognition from depth and intensity Gabor features
Everingham et al. Regression and classification approaches to eye localization in face images
US8401250B2 (en) Detecting objects of interest in still images
EP1918850A2 (en) Method and apparatus for detecting faces in digital images
US7844085B2 (en) Pairwise feature learning with boosting for use in face detection
KR20080033486A (ko) 서포트 벡터 머신 및 얼굴 인식에 기초한 자동 생체 식별
JP2011198268A (ja) 情報処理装置および方法、並びにプログラム
Levinshtein et al. Hybrid eye center localization using cascaded regression and hand-crafted model fitting
Zakaria et al. Hierarchical skin-adaboost-neural network (h-skann) for multi-face detection
JP2007025900A (ja) 画像処理装置、画像処理方法
JP2006323779A (ja) 画像処理方法、画像処理装置
Zhang et al. Hierarchical facial landmark localization via cascaded random binary patterns
Mahdi et al. 3D facial matching by spiral convolutional metric learning and a biometric fusion-net of demographic properties
Goswami et al. Kernel group sparse representation based classifier for multimodal biometrics
JP2006285959A (ja) 顔判別装置の学習方法、顔判別方法および装置並びにプログラム
Xu et al. Facial expression pervasive analysis based on haar-like features and svm
JP2006244385A (ja) 顔判別装置およびプログラム並びに顔判別装置の学習方法
Azmi et al. Freeman chain code (FCC) representation in signature fraud detection based on nearest neighbour and artificial neural network (ANN) classifiers
Ganakwar et al. Comparative analysis of various face detection methods
El-Abed et al. A SVM-based model for the evaluation of biometric sample quality
CN111832460B (zh) 一种基于多特征融合的人脸图像提取方法及系统
Huang et al. Statistical learning of evaluation function for ASM/AAM image alignment
Sánchez López Local Binary Patterns applied to Face Detection and Recognition

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680026965.1

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 11996569

Country of ref document: US

Ref document number: 2006781718

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2616460

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 1020087002114

Country of ref document: KR

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: PI0614109

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20080125