JP2006048328A - Apparatus and method for detecting face - Google Patents

Apparatus and method for detecting face Download PDF

Info

Publication number
JP2006048328A
JP2006048328A JP2004227673A JP2004227673A JP2006048328A JP 2006048328 A JP2006048328 A JP 2006048328A JP 2004227673 A JP2004227673 A JP 2004227673A JP 2004227673 A JP2004227673 A JP 2004227673A JP 2006048328 A JP2006048328 A JP 2006048328A
Authority
JP
Japan
Prior art keywords
image
face
detection
area
face detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004227673A
Other languages
Japanese (ja)
Inventor
Hironori Sumitomo
博則 墨友
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2004227673A priority Critical patent/JP2006048328A/en
Publication of JP2006048328A publication Critical patent/JP2006048328A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide face detection technology capable of simply and accurately detecting a face area also in an image to which reflected light or the like from spectacles is reflected. <P>SOLUTION: In the face detection apparatus, an image is scanned by the window WD of a fixed size and whether a face is present in the window WD or not is decided to detect a face. When a person in the image wears spectacles and external light or the like is reflected to the spectacles, eye parts are shielded and the accuracy of face detection is reduced. Thereby a high luminance part HB is detected from an image part in the window WD and the detected high luminance part HB is converted into a low luminance part LB corresponding to black, for example. Consequently face detection can be simply and accurately performed even in an image to which the reflected light or the like from the spectacles is reflected. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像から顔領域を検出する顔検出技術に関する。   The present invention relates to a face detection technique for detecting a face area from an image.

画像から顔領域を検出する技術については、例えば特許文献1に開示されている。この顔検出技術では、所定サイズのウィンドウで検出対象の画像をスキャンし、ウィンドウ内に顔が含まれるかを判定する。この判定については、ウィンドウ内の画素をベクトル化して主成分空間に射影した後に、ベクトルの主成分空間までの距離と主成分空間内での距離とが計算されて、ウィンドウ内に顔領域が存在するか否かが判断される。   A technique for detecting a face area from an image is disclosed in Patent Document 1, for example. In this face detection technique, an image to be detected is scanned in a window of a predetermined size to determine whether a face is included in the window. For this determination, after the pixels in the window are vectorized and projected onto the principal component space, the distance to the principal component space of the vector and the distance in the principal component space are calculated, and the face area exists in the window. It is determined whether or not to do so.

また、他の顔検出技術としては、例えば特許文献2に背景差分法を利用したものが開示されている。この技術は、予め取得済みの背景画像(人物が映っていない画像)と人物が映っている画像との差分情報から顔領域および目領域の位置を特定するもので、検出された人物が眼鏡をかけているために外光等の反射で目の部分が遮蔽される場合は、この部分を周囲の画素情報から補正するようにしている。   As another face detection technique, for example, Patent Document 2 discloses a technique using a background difference method. This technology specifies the positions of the face area and the eye area from the difference information between a previously acquired background image (an image in which no person is shown) and an image in which a person is shown. When the eye portion is blocked by reflection of external light or the like because it is applied, this portion is corrected from surrounding pixel information.

特開平8−3339445号公報JP-A-8-3339445 特開2002−269545号公報JP 2002-269545 A

しかしながら、特許文献1の技術では、ウィンドウ内に存在する顔が適切な状態でない場合には、精度の良い顔検出が困難となる。例えば、眼鏡をかけた人物の顔を検出する場合において、外光等が眼鏡に反射して目の部分が遮蔽されている状態では、顔検出精度が著しく低下することとなる。   However, with the technique of Patent Document 1, it is difficult to detect a face with high accuracy when the face existing in the window is not in an appropriate state. For example, when detecting the face of a person wearing glasses, the accuracy of face detection will be significantly reduced if the eyes are shielded by external light reflected on the glasses.

一方、特許文献2の技術では、背景差分法を利用しているため、そもそも背景画像が取得できない画像に対しては顔検出が不可能であり、顔検出を簡単に行えない。   On the other hand, in the technique of Patent Document 2, since the background subtraction method is used, face detection is impossible for an image for which a background image cannot be obtained in the first place, and face detection cannot be easily performed.

本発明は、上記課題に鑑みてなされたものであり、眼鏡での反射光などが映る画像に対しても顔領域の検出を簡易に精度良く行える顔検出技術を提供することを目的とする。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a face detection technique that can easily and accurately detect a face region even for an image in which reflected light from a pair of glasses is reflected.

上記の課題を解決するため、請求項1の発明は、画像から顔領域を検出する顔検出装置であって、(a)画像を取得する取得手段と、(b)前記取得手段で取得された画像に内包される一定サイズの検出エリアに関して、前記検出エリアの位置を前記画像において変更することで、前記画像をスキャンするスキャン手段と、(c)前記スキャン手段によって変更される前記検出エリアの各位置において、前記検出エリアに対応する画像部分を前記画像から抽出し、前記画像部分について顔領域の検出を行う顔検出手段とを備え、前記顔検出手段は、(c-1)前記画像部分について高輝度部位を検出する高輝度検出手段と、(c-2)前記高輝度検出手段により前記高輝度部位が検出された場合には、前記画像部分から前記高輝度部位を除去する除去手段とを有する。   In order to solve the above-mentioned problem, the invention of claim 1 is a face detection device for detecting a face region from an image, wherein (a) an acquisition means for acquiring an image, and (b) acquired by the acquisition means With respect to a detection area of a certain size included in the image, by changing the position of the detection area in the image, scanning means for scanning the image, and (c) each of the detection areas changed by the scanning means An image part corresponding to the detection area is extracted from the image at a position, and a face detection unit that detects a face area of the image part is provided.The face detection unit includes (c-1) the image part. A high luminance detection means for detecting a high luminance part; and (c-2) a removing means for removing the high luminance part from the image part when the high luminance part is detected by the high luminance detection means. Have.

また、請求項2の発明は、画像から顔領域を検出する顔検出装置であって、(a)原画像を取得する取得手段と、(b)前記取得手段で取得された原画像の解像度を変換した1以上の変換画像を生成し、前記原画像と前記1以上の変換画像とを処理対象画像として記憶する解像度変換手段と、(c)前記処理対象画像それぞれに内包可能な一定サイズの検出エリアに関して、前記検出エリアの位置を前記処理対象画像において変更することで、前記処理対象画像それぞれをスキャンするスキャン手段と、(d)前記スキャン手段によって変更される前記検出エリアの各位置において、前記検出エリアに対応する画像部分を前記処理対象画像から抽出し、前記画像部分について顔領域の検出を行う顔検出手段とを備え、前記顔検出手段は、(d-1)前記画像部分について高輝度部位を検出する高輝度検出手段と、(d-2)前記高輝度検出手段により前記高輝度部位が検出された場合には、前記画像部分から前記高輝度部位を除去する除去手段とを有する。   The invention of claim 2 is a face detection device for detecting a face area from an image, wherein (a) an acquisition means for acquiring an original image, and (b) a resolution of the original image acquired by the acquisition means. Resolution conversion means for generating one or more converted images and storing the original image and the one or more converted images as processing target images; and (c) detecting a fixed size that can be included in each of the processing target images. With respect to the area, by changing the position of the detection area in the processing target image, scanning means for scanning each of the processing target images, and (d) at each position of the detection area changed by the scanning means, Face detection means for extracting an image portion corresponding to a detection area from the processing target image and detecting a face area for the image portion, wherein the face detection means includes (d-1) the image portion. A high-luminance detection means for detecting a high-luminance part; and (d-2) a removal means for removing the high-luminance part from the image portion when the high-luminance part is detected by the high-luminance detection means. Have

また、請求項3の発明は、請求項1または請求項2の発明に係る顔検出装置において、前記高輝度検出手段は、前記画像部分について平均輝度値を算出する算出手段と、前記算出手段で算出された平均輝度値に基づき、前記高輝度部位を検出する手段とを有する。   According to a third aspect of the present invention, in the face detection apparatus according to the first or second aspect of the present invention, the high-intensity detection unit includes a calculation unit that calculates an average luminance value for the image portion, and the calculation unit. Means for detecting the high-luminance region based on the calculated average luminance value.

また、請求項4の発明は、請求項1ないし請求項3のいずれかの発明に係る顔検出装置において、前記検出エリアには、前記検出エリア内で顔領域が検出される場合に眼鏡が存在し得る所定エリアが規定されており、前記高輝度検出手段は、前記画像部分のうち前記所定エリアに対応する部分について、前記高輝度部位を検出する手段を有する。   According to a fourth aspect of the present invention, in the face detection device according to any one of the first to third aspects, the detection area includes glasses when a face region is detected in the detection area. A predetermined area is defined, and the high-intensity detecting means has means for detecting the high-intensity part of the image portion corresponding to the predetermined area.

また、請求項5の発明は、画像から顔領域を検出する顔検出方法であって、画像を取得する取得工程と、前記取得工程で取得された画像に内包される一定サイズの検出エリアに関して、前記検出エリアの位置を前記画像において変更することで、前記画像をスキャンするスキャン工程と、前記スキャン工程において変更される前記検出エリアの各位置において、前記検出エリアに対応する画像部分を前記画像から抽出し、前記画像部分について顔領域の検出を行う顔検出工程とを備え、前記顔検出工程は、前記画像部分について高輝度部位を検出する高輝度検出工程と、前記高輝度検出工程において前記高輝度部位が検出された場合には、前記画像部分から前記高輝度部位を除去する除去工程とを有する。   Further, the invention of claim 5 is a face detection method for detecting a face region from an image, and relates to an acquisition step of acquiring an image, and a detection area of a certain size included in the image acquired in the acquisition step. By changing the position of the detection area in the image, a scan step for scanning the image, and an image portion corresponding to the detection area at each position of the detection area changed in the scan step from the image A face detection step of extracting and detecting a face region for the image portion, wherein the face detection step includes a high-intensity detection step for detecting a high-luminance part for the image portion, and the high-intensity detection step. And a removal step of removing the high-luminance portion from the image portion when the luminance portion is detected.

また、請求項6の発明は、画像から顔領域を検出する顔検出方法であって、原画像を取得する取得工程と、前記取得工程で取得された原画像の解像度を変換した1以上の変換画像を生成し、前記原画像と前記1以上の変換画像とを処理対象画像として記憶する解像度変換工程と、前記処理対象画像それぞれに内包可能な一定サイズの検出エリアに関して、前記検出エリアの位置を前記処理対象画像において変更することで、前記処理対象画像それぞれをスキャンするスキャン工程と、前記スキャン工程において変更される前記検出エリアの各位置において、前記検出エリアに対応する画像部分を前記処理対象画像から抽出し、前記画像部分について顔領域の検出を行う顔検出工程とを備え、前記顔検出工程は、前記画像部分について高輝度部位を検出する高輝度検出工程と、前記高輝度検出工程において前記高輝度部位が検出された場合には、前記画像部分から前記高輝度部位を除去する除去工程とを有する。   The invention of claim 6 is a face detection method for detecting a face region from an image, wherein an acquisition step of acquiring an original image and one or more conversions obtained by converting the resolution of the original image acquired in the acquisition step A resolution conversion step of generating an image and storing the original image and the one or more converted images as processing target images; and a position of the detection area with respect to a detection area of a certain size that can be included in each of the processing target images. By changing in the processing target image, a scanning step of scanning each of the processing target images, and an image portion corresponding to the detection area at each position of the detection area changed in the scanning step, the processing target image And a face detection step for detecting a face area for the image portion, the face detection step for the image portion And high-intensity detecting step of detecting, when the high-luminance portion in the high-luminance detecting step is detected, and a removal step of removing the high luminance region from the image portion.

請求項1ないし請求項6の発明によれば、画像において変更される検出エリアの各位置で検出エリアに対応する画像部分を画像から抽出し、画像部分について顔領域の検出を行う際において、画像部分から高輝度部位が検出された場合には高輝度部位を除去する。その結果、眼鏡での反射光などが映る画像に対しても顔領域の検出を簡易に精度良く行える。   According to the first to sixth aspects of the present invention, an image portion corresponding to the detection area is extracted from the image at each position of the detection area to be changed in the image, and the face region is detected for the image portion. When a high luminance part is detected from the part, the high luminance part is removed. As a result, it is possible to easily and accurately detect the face region even for an image in which reflected light from the glasses is reflected.

特に請求項2および請求項6の発明においては、原画像の解像度を変換した1以上の変換画像を生成するため、原画像おける顔のサイズに依存せずに顔検出を行える。   In particular, in the inventions of claims 2 and 6, since one or more converted images obtained by converting the resolution of the original image are generated, face detection can be performed without depending on the size of the face in the original image.

また、請求項3の発明においては、画像部分について算出された平均輝度値に基づき高輝度部位を検出するため、画像の輝度特性に応じて適切に顔領域の検出を行える。   In the invention of claim 3, since the high-luminance part is detected based on the average luminance value calculated for the image portion, the face area can be detected appropriately according to the luminance characteristic of the image.

また、請求項4の発明においては、画像部分のうち、検出エリア内で顔領域が検出される場合に眼鏡が存在し得る所定エリアに対応する部分について高輝度部位を検出するため、高輝度部位の検出を効率良く行える。   Further, in the invention of claim 4, since a high-luminance part is detected for a part corresponding to a predetermined area where glasses can exist when a face region is detected in the detection area, a high-luminance part is detected. Can be detected efficiently.

<第1実施形態>
<画像処理装置の構成>
図1は、本発明の第1実施形態に係る画像処理装置1Aの構成を示す機能ブロック図である。
<First Embodiment>
<Configuration of image processing apparatus>
FIG. 1 is a functional block diagram showing the configuration of the image processing apparatus 1A according to the first embodiment of the present invention.

画像処理装置1Aは、例えばパーソナルコンピュータとして構成されており、キーボードやマウスを有しユーザからの入力操作を受付ける操作部11と、操作部11に伝送可能に接続する制御部10Aとを備えている。また、画像処理装置1Aは、制御部10Aに接続する画像入力部12と顔検出部13と記憶部14とを備えており、画像から顔領域を検出する顔検出装置として機能する。   The image processing apparatus 1A is configured as a personal computer, for example, and includes an operation unit 11 that has a keyboard and a mouse and receives an input operation from a user, and a control unit 10A that is connected to the operation unit 11 so as to be able to transmit. . Further, the image processing apparatus 1A includes an image input unit 12, a face detection unit 13, and a storage unit 14 connected to the control unit 10A, and functions as a face detection device that detects a face area from an image.

画像入力部12は、例えばデジタルカメラで撮影されたデジタル画像を入力する部位であり、画像を取得する取得手段として機能する。例えば、メモリカードから記録画像が読み出されて画像入力が行われることとなる。   The image input unit 12 is a part that inputs a digital image taken by, for example, a digital camera, and functions as an acquisition unit that acquires an image. For example, a recorded image is read from a memory card and image input is performed.

顔検出部13は、人物が撮影された画像に対して、後で詳述する顔検出を行う部位である。   The face detection unit 13 is a part that performs face detection, which will be described in detail later, on an image of a person photographed.

記憶部14は、画像入力部12に入力された画像等を記憶する部位である。   The storage unit 14 is a part that stores an image or the like input to the image input unit 12.

制御部10Aは、CPUおよびメモリを有しており、画像処理装置1Aの動作を統括制御する部位である。   The control unit 10A includes a CPU and a memory, and is a part that performs overall control of the operation of the image processing apparatus 1A.

<顔検出について>
画像処理装置1Aでは、画像入力部12に入力された画像に対して顔検出部13で顔領域の検出が行われるが、この処理を以下で説明する。
<About face detection>
In the image processing apparatus 1A, the face area is detected by the face detection unit 13 for the image input to the image input unit 12, and this process will be described below.

図2は、顔検出を説明するための図である。   FIG. 2 is a diagram for explaining face detection.

入力された画像GIに対して、画像GIに内包される一定サイズのウィンドウ(検出エリア)WDの位置を矢印方向DRに沿って変更する処理、すなわち画像GIの一部に相当する大きさのウィンドウWDをラスタ走査して画像GI全体をスキャンする。なお、画像GIの輝度値(画素値)は、256階調を有するものとする。上記のスキャン動作においは、画像GIにおけるウィンドウWDの各位置において、ウィンドウWDに対応する画像部分を画像GIから抽出し、この抽出した画像部分について順次に顔領域の検出が行われる。これにより、ウィンドウWD内に人物の顔FCが入る場合には、顔領域として検出できる。   Processing for changing the position of a window (detection area) WD of a certain size included in the image GI along the arrow direction DR with respect to the input image GI, that is, a window having a size corresponding to a part of the image GI The entire image GI is scanned by raster scanning the WD. Note that the luminance value (pixel value) of the image GI has 256 gradations. In the above scanning operation, an image portion corresponding to the window WD is extracted from the image GI at each position of the window WD in the image GI, and a face area is sequentially detected for the extracted image portion. Thereby, when a human face FC enters the window WD, it can be detected as a face area.

ただし、画像内の人物が眼鏡をかけており、この眼鏡に外光などの光が反射する場合などには、図3(a)に示すように目の部分が高輝度部位(例えば白色)HBとなるため、顔検出の精度が著しく低下することとなる。   However, when a person in the image wears spectacles and light such as external light is reflected on the spectacles, as shown in FIG. 3A, the eye portion is a high luminance part (for example, white) HB. As a result, the accuracy of face detection is significantly reduced.

そこで、顔検出部13では、ウィンドウWD内の画像に高輝度部位が存在する場合には、高輝度部位を構成する各画素の輝度値(画素値)を低下させる処理、つまり低輝度に変換する処理を行う。   Therefore, the face detection unit 13 converts the luminance value (pixel value) of each pixel constituting the high-luminance part, that is, low luminance when the high-luminance part exists in the image in the window WD. Process.

具体的には、まずウィンドウWD内の各画素の輝度値P(n)が閾値Th1より大きいか、つまり次の式(1)を満たすかを判定する。   Specifically, first, it is determined whether the luminance value P (n) of each pixel in the window WD is larger than the threshold value Th1, that is, whether the following equation (1) is satisfied.

P(n)>Th1 ・・・・(1)   P (n)> Th1 (1)

ここで、眼鏡の反射光成分は輝度値が非常に高いため、閾値Th1として例えば250を設定する。   Here, since the reflected light component of the glasses has a very high luminance value, for example, 250 is set as the threshold Th1.

以上の判定動作により、高輝度部位の検出を適切に行えることとなる。   With the above determination operation, it is possible to appropriately detect a high luminance part.

そして、上式(1)を満たしている画素については、次の式(2)のように輝度値P(n)をαに変更する。このαとしては、低輝度値、例えば0が設定される。   For the pixel satisfying the above equation (1), the luminance value P (n) is changed to α as in the following equation (2). As this α, a low luminance value, for example, 0 is set.

P(n)=α ・・・・・・(2)   P (n) = α (2)

以上の処理により、図3(a)に示す目の部分に対応する高輝度部位HBが検出される場合には、低輝度(例えば黒色)の画素で構成される低輝度部位LBに変換されることとなる。その結果、顔検出対象の画像における光成分(高輝度部位)が適切に除去されるため、目の部分が適切な状態となり、顔検出を精度良く行える。   When the high luminance part HB corresponding to the eye part shown in FIG. 3A is detected by the above processing, it is converted into a low luminance part LB composed of low luminance (for example, black) pixels. It will be. As a result, the light component (high luminance part) in the face detection target image is appropriately removed, so that the eye part is in an appropriate state, and face detection can be performed with high accuracy.

<画像処理装置1Aの動作>
図4は、画像処理装置1Aの基本的な動作を示すフローチャートである。本動作については、制御部10Aにより実行される。
<Operation of Image Processing Apparatus 1A>
FIG. 4 is a flowchart showing the basic operation of the image processing apparatus 1A. This operation is executed by the control unit 10A.

ステップS1では、画像入力部12に顔検出処理を行う画像を入力する。ここでは、例えば図2に示す画像GIが入力される。   In step S1, an image to be subjected to face detection processing is input to the image input unit 12. Here, for example, the image GI shown in FIG. 2 is input.

ステップS2では、ステップS1で入力された画像GIに対して、図2に示すウィンドウWDでスキャンする。   In step S2, the image GI input in step S1 is scanned with the window WD shown in FIG.

ステップS3では、ステップS2でスキャンされていない残りの画像部分が存在するかを判定する。例えば、図2に示すように画像GIの左上からスキャンを開始する場合にウィンドウWDが画像GIの右下まで到達したかを判断する。ここで、残りの画像部分が存在する場合には、ステップS4に進み、存在しない場合には、ステップS6に進む。   In step S3, it is determined whether there is a remaining image portion that has not been scanned in step S2. For example, as shown in FIG. 2, when scanning is started from the upper left of the image GI, it is determined whether the window WD has reached the lower right of the image GI. If there is a remaining image portion, the process proceeds to step S4, and if not, the process proceeds to step S6.

ステップS4では、ウィンドウWD内の画像部分に対する光成分除去を行う(後述)。   In step S4, the light component is removed from the image portion in the window WD (described later).

ステップS5では、ステップS4で光成分が除去されたウィンドウWD内の画像に顔が存在するかを判定する。この顔判定においては、例えば上記の特許文献1に記載される方法で人物の顔領域を検出する。   In step S5, it is determined whether a face exists in the image in the window WD from which the light component has been removed in step S4. In this face determination, for example, the face area of a person is detected by the method described in Patent Document 1 described above.

ステップS6では、顔選択の処理を行う。例えば、ステップS5において画像GIのほぼ同じ位置に顔が複数検出された場合には、同一人物の顔として1つを選択する処理を行う。   In step S6, face selection processing is performed. For example, when a plurality of faces are detected at substantially the same position in the image GI in step S5, processing for selecting one as the face of the same person is performed.

図5は、ステップS4に対応する動作で、光成分除去の動作を示すフローチャートである。   FIG. 5 is a flowchart showing the light component removal operation corresponding to step S4.

ステップS11では、ウィンドウ内の画像部分において処理対象の画素を選択する。これにより、順次に画素が処理されることとなる。   In step S11, a pixel to be processed is selected in the image portion in the window. As a result, the pixels are sequentially processed.

ステップS12では、ウィンドウ内の画像部分のうちステップS11で選択されていない残りの画素が存在するかを判定する。すなわち、ウィンドウ内の全画素が選択されたか否かを判断する。ここで、残りの画素が存在する場合には、ステップS13に進み、存在しない場合には、ステップS5に進む。   In step S12, it is determined whether there is a remaining pixel that has not been selected in step S11 in the image portion in the window. That is, it is determined whether all the pixels in the window have been selected. Here, if there are remaining pixels, the process proceeds to step S13, and if not, the process proceeds to step S5.

ステップS13では、ステップS11で選択された画素の輝度値P(n)が、上記の式(1)のように閾値Th1より大きいかを判定する。この動作により、上述したようにウィンドウ内の高輝度画素が検出できることとなる。ここで、画素の輝度値P(n)が閾値Th1より大きい場合には、ステップS14に進み、そうでない場合には、ステップS11に戻る。   In step S13, it is determined whether the luminance value P (n) of the pixel selected in step S11 is larger than the threshold value Th1 as in the above equation (1). By this operation, as described above, high-luminance pixels in the window can be detected. Here, when the luminance value P (n) of the pixel is larger than the threshold value Th1, the process proceeds to step S14, and otherwise, the process returns to step S11.

ステップS14では、ステップS11で選択された画素の輝度値P(n)にαを代入する。すなわち、上記の式(2)のように、高輝度画素を低輝度α(例えば0)に変更する。   In step S14, α is substituted for the luminance value P (n) of the pixel selected in step S11. That is, the high luminance pixel is changed to the low luminance α (for example, 0) as in the above equation (2).

以上の画像処理装置1Aの動作により、眼鏡の反射光などの高輝度部位を検出して除去するため、顔検出を簡易に精度良く行える。すなわち、眼鏡に映り込む反射光成分の輝度値が非常に高いという性質を利用して、反射光成分に対応する画素値を補正するため、顔検出精度の低下を防止できる。   The above-described operation of the image processing apparatus 1A detects and removes a high-luminance part such as reflected light from spectacles, so that face detection can be performed easily and accurately. That is, since the pixel value corresponding to the reflected light component is corrected using the property that the luminance value of the reflected light component reflected on the glasses is very high, it is possible to prevent the face detection accuracy from being lowered.

なお、画像処理装置1Aにおいては、図4のフローチャートに示すステップS6で次のように顔選択処理を行って顔の位置を特定するようにしても良い。   In the image processing apparatus 1A, the face position may be specified by performing face selection processing as follows in step S6 shown in the flowchart of FIG.

まず、顔と判定されたウィンドウの中心座標位置を、そのウィンドウの代表座標位置と定める。そして、複数のウィンドウ位置で顔が検出された場合には、これらの代表座標位置を平均化した平均座標位置を算出し、この平均座標位置を顔の位置として決定する。   First, the center coordinate position of a window determined as a face is determined as the representative coordinate position of the window. When a face is detected at a plurality of window positions, an average coordinate position obtained by averaging these representative coordinate positions is calculated, and the average coordinate position is determined as a face position.

以上のように顔選択処理によっても、顔の位置を適切に定めることが可能となる。   As described above, the face position can be appropriately determined also by the face selection process.

<第2実施形態>
本発明の第2実施形態に係る画像処理装置1Bは、図1に示す第1実施形態の画像処理装置1Aと類似の構成を有しているが、顔検出部が異なっている。
Second Embodiment
An image processing apparatus 1B according to the second embodiment of the present invention has a configuration similar to that of the image processing apparatus 1A according to the first embodiment shown in FIG. 1, but a face detection unit is different.

すなわち、画像処理装置1Bの顔検出部13Bでは、以下で説明する光成分除去の動作を行う。   That is, the face detection unit 13B of the image processing apparatus 1B performs the light component removal operation described below.

<光成分除去について>
図6は、光成分除去の動作を示すフローチャートである。なお、画像処理装置1Bの顔検出処理では、図4のフローチャートと同様の動作が行われるが、ステップS4の動作については、図6のフローチャートに示す光成分除去の動作が行われることとなる。
<About light component removal>
FIG. 6 is a flowchart showing the light component removal operation. In the face detection process of the image processing apparatus 1B, the same operation as that in the flowchart in FIG. 4 is performed. However, in the operation in step S4, the light component removal operation shown in the flowchart in FIG. 6 is performed.

ステップS21では、ウィンドウ内の全画素に関する平均輝度値Aveを算出する。   In step S21, an average luminance value Ave for all pixels in the window is calculated.

ステップS22〜S23では、図5のフローチャートに示すステップS11〜S12と同様の動作を行う。   In steps S22 to S23, operations similar to those in steps S11 to S12 shown in the flowchart of FIG. 5 are performed.

ステップS24では、ステップS22で選択された画素の輝度値P(n)が、次の式(3)の条件を満足するかを判定する。   In step S24, it is determined whether the luminance value P (n) of the pixel selected in step S22 satisfies the condition of the following expression (3).

P(n)>Ave+Th2 ・・・・(3)   P (n)> Ave + Th2 (3)

上式(3)で、Aveは、ステップS21で算出された平均輝度値であり、Th2は、予め定められた閾値である。   In the above equation (3), Ave is the average luminance value calculated in step S21, and Th2 is a predetermined threshold value.

以上の判定動作により、平均輝度値Aveに基づいて高輝度部位を適切に検出できることとなる。このステップS24において、上式(3)を満足する場合には、ステップS25に進み、満足しない場合には、ステップS22に戻る。   With the above determination operation, a high-luminance portion can be appropriately detected based on the average luminance value Ave. In step S24, if the above equation (3) is satisfied, the process proceeds to step S25. If not satisfied, the process returns to step S22.

ステップS25では、図5のステップS14と同様に、ステップS22で選択された画素の輝度値P(n)にα(例えば0)を代入する。   In step S25, α (eg, 0) is substituted into the luminance value P (n) of the pixel selected in step S22, as in step S14 of FIG.

以上の画像処理装置1Bにより、眼鏡の反射光などの高輝度部位を検出して除去するため、顔検出を簡易に精度良く行える。すなわち、眼鏡に映り込む反射光をウィンドウ内の平均輝度値を利用して判定するため、ウィンドウ内の輝度特性に応じた反射光成分の補正が可能となり、顔検出精度の低下を防止できる。   Since the image processing apparatus 1B detects and removes a high-luminance part such as reflected light from spectacles, face detection can be performed easily and accurately. That is, since the reflected light reflected on the glasses is determined using the average luminance value in the window, the reflected light component can be corrected in accordance with the luminance characteristics in the window, and the face detection accuracy can be prevented from being lowered.

<第3実施形態>
本発明の第3実施形態に係る画像処理装置1Cは、図1に示す第1実施形態の画像処理装置1Aと類似の構成を有しているが、顔検出部が異なっている。
<Third Embodiment>
An image processing apparatus 1C according to the third embodiment of the present invention has a configuration similar to that of the image processing apparatus 1A according to the first embodiment shown in FIG. 1, but a face detection unit is different.

すなわち、画像処理装置1Cの顔検出部13Cでは、以下で説明する光除去処理の動作を行う。   That is, the face detection unit 13C of the image processing apparatus 1C performs the light removal processing operation described below.

<光成分除去について>
図7は、画像処理装置1Cの光成分除去を説明するための図である。
<About light component removal>
FIG. 7 is a diagram for explaining light component removal of the image processing apparatus 1C.

顔検出においては、ウィンドウWD内に顔が存在するか否かを判定する処理を行うため、ウィンドウWD内に顔が検出されるのであれば、そのパーツの位置つまり目、鼻、口等の位置が概略予想できる。   In the face detection, a process for determining whether or not a face exists in the window WD is performed. If a face is detected in the window WD, the position of the part, that is, the position of the eyes, nose, mouth, etc. Can be roughly predicted.

そこで、画像処理装置1Cでは、ウィンドウWD内の全画素について上式(1)の条件を満たす高輝度画素を検出するのではなく、図7に示すようにウィンドウWD内で顔が検出される場合に眼鏡が存在し得る2つのエリアE1、E2を規定し、このエリアE1、E2に対応する画像部分を構成する各画素を対象として高輝度画素を検出することとする。   Therefore, in the image processing apparatus 1C, instead of detecting high-luminance pixels that satisfy the condition of the above expression (1) for all the pixels in the window WD, a face is detected in the window WD as shown in FIG. Two areas E1 and E2 in which glasses can exist are defined, and high luminance pixels are detected for each pixel constituting the image portion corresponding to these areas E1 and E2.

以上のようにウィンドウWDの中央付近におけるエリアE1、E2のみで高輝度部位を検出するため、ウィンドウWD内における反射光成分の検出を効率良く行え、迅速な処理が可能となる。   As described above, since the high luminance part is detected only in the areas E1 and E2 in the vicinity of the center of the window WD, the reflected light component in the window WD can be detected efficiently, and rapid processing becomes possible.

このような構成の画像処理装置1Cでは、図4および図5のフローチャートと同様の動作が行われるが、図5のステップS11については、図7に示す領域E1、E2内の各画素が選択されることとなる。   In the image processing apparatus 1C having such a configuration, operations similar to those in the flowcharts of FIGS. 4 and 5 are performed. However, in step S11 of FIG. 5, each pixel in the areas E1 and E2 shown in FIG. 7 is selected. The Rukoto.

以上の画像処理装置1Cの動作により、第1実施形態と同様の効果を奏する。さらに、ウィンドウ内で眼鏡が存在し得る領域のみ反射光成分の検出を行うため、この高輝度部位の検出を効率良く行える。   The operation of the image processing apparatus 1C described above provides the same effects as those of the first embodiment. Furthermore, since the reflected light component is detected only in the region where the glasses can exist in the window, this high-luminance part can be detected efficiently.

<第4実施形態>
本発明の第4実施形態に係る画像処理装置1Dは、図1に示す第1実施形態の画像処理装置1Aと類似の構成を有しているが、顔検出部および制御部が異なっている。
<Fourth embodiment>
An image processing apparatus 1D according to the fourth embodiment of the present invention has a configuration similar to that of the image processing apparatus 1A according to the first embodiment shown in FIG. 1, but the face detection unit and the control unit are different.

すなわち、画像処理装置1Dの顔検出部13Dおよび制御部10Bにおいては、以下で説明する画像処理装置1Dの動作を行う。   That is, the face detection unit 13D and the control unit 10B of the image processing apparatus 1D perform the operation of the image processing apparatus 1D described below.

<画像処理装置1Dの動作>
図8は、画像処理装置1Dの基本的な動作を示すフローチャートである。
<Operation of Image Processing Device 1D>
FIG. 8 is a flowchart showing the basic operation of the image processing apparatus 1D.

ステップS31では、図4のフローチャートに示すステップS1と同様の動作を行う。   In step S31, the same operation as step S1 shown in the flowchart of FIG. 4 is performed.

ステップS32では、多重解像度画像を作成する。具体的には、ステップS31で入力された画像に対して、予め定められている倍率で順次に縮小した画像を作成する。すなわち、ステップS31で取得された原画像の解像度が変換された1以上の変換画像、例えば図9に示すように原画像GIと解像度が異なる3枚の縮小画像GIa〜GIcが生成される。そして、各縮小画像(変換画像)GIa〜GIcと原画像GIとは、顔検出が行われる処理対象画像として記憶部14に記憶される。   In step S32, a multi-resolution image is created. Specifically, an image obtained by sequentially reducing the image input in step S31 at a predetermined magnification is created. That is, one or more converted images obtained by converting the resolution of the original image acquired in step S31, for example, three reduced images GIa to GIc having different resolutions from the original image GI as shown in FIG. 9 are generated. The reduced images (converted images) GIa to GIc and the original image GI are stored in the storage unit 14 as processing target images for which face detection is performed.

ステップS33では、上記の処理対象画像に対するウィンドウの走査を行う。具体的には、図9に示す解像度が異なる4枚の画像GI、GIa〜GIcに対して、順次にウィンドウWNの走査が行われる。このウィンドウWNは、各画像GI、GIa〜GIcに内包可能な一定サイズとなっているため、図9に示すように各画像GI、GIa〜GIcに対するウィンドウWNの面積比は、異なることとなる。   In step S33, a window is scanned for the processing target image. Specifically, the window WN is sequentially scanned with respect to the four images GI and GIa to GIc having different resolutions shown in FIG. Since the window WN has a fixed size that can be included in each of the images GI and GIa to GIc, the area ratio of the window WN to each of the images GI and GIa to GIc is different as shown in FIG.

ステップS34では、ステップS33でスキャンされていない残りの画像部分が存在するかを判定する。すなわち、処理対象画像GI、GIa〜GIcそれぞれについてウィンドウの走査を行うが、最後の画像における全画像部分についてスキャンが完了したか否かを判断する。ここで、残りの画像部分が存在する場合には、ステップS35に進み、存在しない場合には、ステップS37に進む。   In step S34, it is determined whether there is a remaining image portion that has not been scanned in step S33. That is, the window scan is performed for each of the processing target images GI and GIa to GIc, and it is determined whether or not the scan has been completed for all the image portions in the last image. If there is a remaining image portion, the process proceeds to step S35, and if not, the process proceeds to step S37.

ステップS35〜S37では、図4のフローチャートに示すステップS4〜S6と同様の動作を行う。   In steps S35 to S37, operations similar to those in steps S4 to S6 shown in the flowchart of FIG. 4 are performed.

以上の画像処理装置1Dの動作により、第1実施形態と同様の効果を奏する。さらに、解像度の異なる各画像(多重解像度画像)に対して一定サイズのウィンドウでスキャンするため、原画像における顔のサイズに依存せずに顔検出を行える。   The operation of the image processing apparatus 1D described above provides the same effects as in the first embodiment. Furthermore, since each image having different resolution (multi-resolution image) is scanned with a window of a fixed size, face detection can be performed without depending on the size of the face in the original image.

なお、図8のステップS37の顔選択処理においては、上述のように顔が検出された複数のウィンドウの代表座標位置を平均化することに加えて、多重解像度画像における各スケールについても平均化することが好ましい。これについて、以下で具体的に説明する。   In the face selection process in step S37 of FIG. 8, in addition to averaging the representative coordinate positions of a plurality of windows in which faces are detected as described above, each scale in the multi-resolution image is also averaged. It is preferable. This will be specifically described below.

例えば原画像のサイズが320×240ピクセルでウィンドウのサイズが20×20であるケースを考える。160×120の解像度の画像で顔が検出された場合には、原画像における顔の大きさは40×40となる。さらに、100×75の解像度の画像で顔が検出された場合には、原画像における顔の大きさが64×64となる。このように2種類の解像度で顔が検出され、その位置がほぼ同一である場合には、2つのサイズを平均化し、52×52のサイズを原画像における最終的な顔の大きさと判断する。   For example, consider a case where the size of the original image is 320 × 240 pixels and the window size is 20 × 20. When a face is detected in an image having a resolution of 160 × 120, the size of the face in the original image is 40 × 40. Further, when a face is detected in an image having a resolution of 100 × 75, the size of the face in the original image is 64 × 64. In this way, when faces are detected at two different resolutions and the positions are almost the same, the two sizes are averaged, and the size of 52 × 52 is determined as the final face size in the original image.

以上のように多重解像度画像における各スケールに関しても平均化することで、適切な大きさの顔として検出できることとなる。   As described above, by averaging each scale in the multi-resolution image, it is possible to detect a face having an appropriate size.

本発明の第1実施形態に係る画像処理装置1Aの構成を示す機能ブロック図である。1 is a functional block diagram illustrating a configuration of an image processing apparatus 1A according to a first embodiment of the present invention. 顔検出を説明するための図である。It is a figure for demonstrating face detection. 光成分の除去を説明するための図である。It is a figure for demonstrating the removal of a light component. 画像処理装置1Aの基本的な動作を示すフローチャートである。It is a flowchart which shows the basic operation | movement of 1 A of image processing apparatuses. 光成分除去の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of light component removal. 本発明の第2実施形態に係る画像処理装置1Bにおける光成分除去の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the optical component removal in the image processing apparatus 1B which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る画像処理装置1Cの光成分除去を説明するための図である。It is a figure for demonstrating the optical component removal of 1 C of image processing apparatuses which concern on 3rd Embodiment of this invention. 本発明の第4実施形態に係る画像処理装置1Dの基本的な動作を示すフローチャートである。It is a flowchart which shows the fundamental operation | movement of image processing apparatus 1D which concerns on 4th Embodiment of this invention. 多重解像度画像を説明するための図である。It is a figure for demonstrating a multi-resolution image.

符号の説明Explanation of symbols

1A〜1D 画像処理装置
10A、10B 制御部
12 画像入力部
13A〜13D 顔検出部
E1、E2 眼鏡が存在し得るエリア
FC 顔
GI 画像(原画像)
GIa〜GIc 縮小画像
HB 高輝度部位
LB 低輝度部位
WD、WN ウィンドウ
1A to 1D Image processing apparatuses 10A and 10B Control unit 12 Image input units 13A to 13D Face detection units E1 and E2 Area FC face GI image in which glasses can exist (original image)
GIa to GIc Reduced image HB High luminance part LB Low luminance part WD, WN window

Claims (6)

画像から顔領域を検出する顔検出装置であって、
(a)画像を取得する取得手段と、
(b)前記取得手段で取得された画像に内包される一定サイズの検出エリアに関して、前記検出エリアの位置を前記画像において変更することで、前記画像をスキャンするスキャン手段と、
(c)前記スキャン手段によって変更される前記検出エリアの各位置において、前記検出エリアに対応する画像部分を前記画像から抽出し、前記画像部分について顔領域の検出を行う顔検出手段と、
を備え、
前記顔検出手段は、
(c-1)前記画像部分について高輝度部位を検出する高輝度検出手段と、
(c-2)前記高輝度検出手段により前記高輝度部位が検出された場合には、前記画像部分から前記高輝度部位を除去する除去手段と、
を有することを特徴とする顔検出装置。
A face detection device for detecting a face area from an image,
(a) acquisition means for acquiring an image;
(b) with respect to a detection area of a certain size included in the image acquired by the acquisition means, the scanning means for scanning the image by changing the position of the detection area in the image;
(c) At each position of the detection area changed by the scanning unit, a face detection unit that extracts an image part corresponding to the detection area from the image and detects a face region for the image part;
With
The face detection means includes
(c-1) high luminance detection means for detecting a high luminance portion for the image portion;
(c-2) When the high-intensity part is detected by the high-intensity detection unit, a removing unit that removes the high-intensity part from the image portion;
A face detection apparatus comprising:
画像から顔領域を検出する顔検出装置であって、
(a)原画像を取得する取得手段と、
(b)前記取得手段で取得された原画像の解像度を変換した1以上の変換画像を生成し、前記原画像と前記1以上の変換画像とを処理対象画像として記憶する解像度変換手段と、
(c)前記処理対象画像それぞれに内包可能な一定サイズの検出エリアに関して、前記検出エリアの位置を前記処理対象画像において変更することで、前記処理対象画像それぞれをスキャンするスキャン手段と、
(d)前記スキャン手段によって変更される前記検出エリアの各位置において、前記検出エリアに対応する画像部分を前記処理対象画像から抽出し、前記画像部分について顔領域の検出を行う顔検出手段と、
を備え、
前記顔検出手段は、
(d-1)前記画像部分について高輝度部位を検出する高輝度検出手段と、
(d-2)前記高輝度検出手段により前記高輝度部位が検出された場合には、前記画像部分から前記高輝度部位を除去する除去手段と、
を有することを特徴とする顔検出装置。
A face detection device for detecting a face area from an image,
(a) acquisition means for acquiring an original image;
(b) resolution conversion means for generating one or more converted images obtained by converting the resolution of the original image acquired by the acquisition means, and storing the original image and the one or more converted images as processing target images;
(c) With respect to a detection area of a certain size that can be included in each of the processing target images, a scanning unit that scans each of the processing target images by changing the position of the detection area in the processing target image;
(d) At each position of the detection area that is changed by the scanning unit, an image part corresponding to the detection area is extracted from the processing target image, and a face detection unit that detects a face region for the image part;
With
The face detection means includes
(d-1) high luminance detection means for detecting a high luminance portion for the image portion;
(d-2) When the high-intensity part is detected by the high-intensity detection unit, a removing unit that removes the high-intensity part from the image portion;
A face detection apparatus comprising:
請求項1または請求項2に記載の顔検出装置において、
前記高輝度検出手段は、
前記画像部分について平均輝度値を算出する算出手段と、
前記算出手段で算出された平均輝度値に基づき、前記高輝度部位を検出する手段と、
を有することを特徴とする顔検出装置。
In the face detection device according to claim 1 or 2,
The high brightness detection means includes
Calculating means for calculating an average luminance value for the image portion;
Means for detecting the high luminance part based on the average luminance value calculated by the calculating means;
A face detection apparatus comprising:
請求項1ないし請求項3のいずれかに記載の顔検出装置において、
前記検出エリアには、前記検出エリア内で顔領域が検出される場合に眼鏡が存在し得る所定エリアが規定されており、
前記高輝度検出手段は、
前記画像部分のうち前記所定エリアに対応する部分について、前記高輝度部位を検出する手段、
を有することを特徴とする顔検出装置。
The face detection device according to any one of claims 1 to 3,
The detection area defines a predetermined area in which glasses can exist when a face area is detected in the detection area,
The high brightness detection means includes
Means for detecting the high-intensity portion of the image portion corresponding to the predetermined area;
A face detection apparatus comprising:
画像から顔領域を検出する顔検出方法であって、
画像を取得する取得工程と、
前記取得工程で取得された画像に内包される一定サイズの検出エリアに関して、前記検出エリアの位置を前記画像において変更することで、前記画像をスキャンするスキャン工程と、
前記スキャン工程において変更される前記検出エリアの各位置において、前記検出エリアに対応する画像部分を前記画像から抽出し、前記画像部分について顔領域の検出を行う顔検出工程と、
を備え、
前記顔検出工程は、
前記画像部分について高輝度部位を検出する高輝度検出工程と、
前記高輝度検出工程において前記高輝度部位が検出された場合には、前記画像部分から前記高輝度部位を除去する除去工程と、
を有することを特徴とする顔検出方法。
A face detection method for detecting a face area from an image,
An acquisition process for acquiring images;
With respect to a detection area of a certain size included in the image acquired in the acquisition step, a scan step of scanning the image by changing the position of the detection area in the image,
A face detection step of extracting an image portion corresponding to the detection area from the image at each position of the detection area changed in the scanning step, and detecting a face region for the image portion;
With
The face detection step includes
A high-intensity detection step of detecting a high-intensity part for the image portion;
When the high-luminance portion is detected in the high-luminance detection step, a removal step of removing the high-luminance portion from the image portion;
A face detection method characterized by comprising:
画像から顔領域を検出する顔検出方法であって、
原画像を取得する取得工程と、
前記取得工程で取得された原画像の解像度を変換した1以上の変換画像を生成し、前記原画像と前記1以上の変換画像とを処理対象画像として記憶する解像度変換工程と、
前記処理対象画像それぞれに内包可能な一定サイズの検出エリアに関して、前記検出エリアの位置を前記処理対象画像において変更することで、前記処理対象画像それぞれをスキャンするスキャン工程と、
前記スキャン工程において変更される前記検出エリアの各位置において、前記検出エリアに対応する画像部分を前記処理対象画像から抽出し、前記画像部分について顔領域の検出を行う顔検出工程と、
を備え、
前記顔検出工程は、
前記画像部分について高輝度部位を検出する高輝度検出工程と、
前記高輝度検出工程において前記高輝度部位が検出された場合には、前記画像部分から前記高輝度部位を除去する除去工程と、
を有することを特徴とする顔検出方法。
A face detection method for detecting a face area from an image,
An acquisition process for acquiring the original image;
A resolution conversion step of generating one or more converted images obtained by converting the resolution of the original image acquired in the acquisition step, and storing the original image and the one or more converted images as a processing target image;
A scan step of scanning each of the processing target images by changing the position of the detection area in the processing target image with respect to a detection area of a certain size that can be included in each of the processing target images,
A face detection step of extracting an image portion corresponding to the detection area from the processing target image at each position of the detection area changed in the scanning step, and detecting a face region for the image portion;
With
The face detection step includes
A high-intensity detection step of detecting a high-intensity part for the image portion;
When the high-luminance portion is detected in the high-luminance detection step, a removal step of removing the high-luminance portion from the image portion;
A face detection method characterized by comprising:
JP2004227673A 2004-08-04 2004-08-04 Apparatus and method for detecting face Pending JP2006048328A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004227673A JP2006048328A (en) 2004-08-04 2004-08-04 Apparatus and method for detecting face

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004227673A JP2006048328A (en) 2004-08-04 2004-08-04 Apparatus and method for detecting face

Publications (1)

Publication Number Publication Date
JP2006048328A true JP2006048328A (en) 2006-02-16

Family

ID=36026811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004227673A Pending JP2006048328A (en) 2004-08-04 2004-08-04 Apparatus and method for detecting face

Country Status (1)

Country Link
JP (1) JP2006048328A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007265150A (en) * 2006-03-29 2007-10-11 Sony Corp Image processor, image processing method and imaging device
JP2008027058A (en) * 2006-07-19 2008-02-07 Sony Corp Image detection apparatus and image detection method
KR101211872B1 (en) 2011-04-05 2012-12-13 성균관대학교산학협력단 Apparatus and method for realtime eye detection
KR101732815B1 (en) * 2015-11-05 2017-05-04 한양대학교 산학협력단 Method and apparatus for extracting feature point of entity, system for identifying entity using the method and apparatus
DE102016225311A1 (en) 2015-12-16 2017-06-22 Omron Automotive Electronics Co., Ltd. IMAGE PROCESSING DEVICE
KR101936188B1 (en) 2017-07-12 2019-01-08 이민정 Mehtod and apparatus for distinguishing entity
CN112528843A (en) * 2020-12-07 2021-03-19 湖南警察学院 Motor vehicle driver fatigue detection method fusing facial features
WO2021115097A1 (en) * 2019-12-13 2021-06-17 Oppo广东移动通信有限公司 Pupil detection method and related product

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007265150A (en) * 2006-03-29 2007-10-11 Sony Corp Image processor, image processing method and imaging device
JP4539597B2 (en) * 2006-03-29 2010-09-08 ソニー株式会社 Image processing apparatus, image processing method, and imaging apparatus
US8126219B2 (en) 2006-03-29 2012-02-28 Sony Corporation Image processing apparatus, image processing method, and imaging apparatus
JP2008027058A (en) * 2006-07-19 2008-02-07 Sony Corp Image detection apparatus and image detection method
KR101211872B1 (en) 2011-04-05 2012-12-13 성균관대학교산학협력단 Apparatus and method for realtime eye detection
KR101732815B1 (en) * 2015-11-05 2017-05-04 한양대학교 산학협력단 Method and apparatus for extracting feature point of entity, system for identifying entity using the method and apparatus
DE102016225311A1 (en) 2015-12-16 2017-06-22 Omron Automotive Electronics Co., Ltd. IMAGE PROCESSING DEVICE
US10089731B2 (en) 2015-12-16 2018-10-02 Omron Automotive Electronics Co., Ltd. Image processing device to reduce an influence of reflected light for capturing and processing images
KR101936188B1 (en) 2017-07-12 2019-01-08 이민정 Mehtod and apparatus for distinguishing entity
WO2021115097A1 (en) * 2019-12-13 2021-06-17 Oppo广东移动通信有限公司 Pupil detection method and related product
CN112528843A (en) * 2020-12-07 2021-03-19 湖南警察学院 Motor vehicle driver fatigue detection method fusing facial features

Similar Documents

Publication Publication Date Title
US11948282B2 (en) Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
US10304164B2 (en) Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data
JP5975598B2 (en) Image processing apparatus, image processing method, and program
JP6020471B2 (en) Image processing method, image processing apparatus, and image processing program
JP2009059060A (en) Moving body image extraction unit and program
US10713797B2 (en) Image processing including superimposed first and second mask images
JP5878451B2 (en) Marker embedding device, marker detecting device, marker embedding method, marker detecting method, and program
JP2006048328A (en) Apparatus and method for detecting face
JP2004133919A (en) Device and method for generating pseudo three-dimensional image, and program and recording medium therefor
JP2010079651A (en) Movement recognition device, method and program
US10896344B2 (en) Information processing apparatus, information processing method, and computer program
JP6006675B2 (en) Marker detection apparatus, marker detection method, and program
JP6643301B2 (en) Defect inspection device and defect inspection method
JP2011029710A (en) Image processor, image processing program, and imaging apparatus
JP2008269181A (en) Object detector
US9159118B2 (en) Image processing apparatus, image processing system, and non-transitory computer-readable medium
JP2018147046A (en) Face detection device and method for controlling the same
JP6006676B2 (en) Marker embedding device, marker detecting device, marker embedding method, marker detecting method, and program
JP4355305B2 (en) Image processing apparatus, computer program, and recording medium
JP3927979B2 (en) Image processing apparatus and method
JP6488735B2 (en) Correction data generation apparatus, correction data generation system, correction data generation method, and program
JP6118295B2 (en) Marker embedding device, marker detection device, method, and program
WO2023182290A1 (en) Parallax information generation device, parallax information generation method, and parallax information generation program
US10885348B2 (en) Information processing device, information processing method, and storage medium
JP2010186401A (en) Apparatus, method, and program for processing image and recording medium