JP2005301722A - Face region detector - Google Patents

Face region detector Download PDF

Info

Publication number
JP2005301722A
JP2005301722A JP2004117595A JP2004117595A JP2005301722A JP 2005301722 A JP2005301722 A JP 2005301722A JP 2004117595 A JP2004117595 A JP 2004117595A JP 2004117595 A JP2004117595 A JP 2004117595A JP 2005301722 A JP2005301722 A JP 2005301722A
Authority
JP
Japan
Prior art keywords
face
region
image
information
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004117595A
Other languages
Japanese (ja)
Inventor
Toshihito Egami
登志人 江上
Hiroki Eto
博樹 衛藤
Mikio Takagi
幹夫 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004117595A priority Critical patent/JP2005301722A/en
Publication of JP2005301722A publication Critical patent/JP2005301722A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a face region detector by which excessively picking up a redundant region is inhibited to enhance face detection accuracy since most of the non-face region included in face candidate regions detected by the existing face candidate region detection technique is excluded to allow face and non-face determination to the remaining face candidate region only. <P>SOLUTION: The face region is detected by using the face region detector configuring the following: a picture input section 101 reading a picture; a face candidate region detection section 102 calculating a face feature to detect the face candidate regions; a photographing conditions information input section 103 reading photographing conditions information added to the picture; a face candidate region selection section 104 selecting a region highly likelihood as the face region out of the face candidate regions by using scene type information and photographing distance information; a face region decision section 105 determining to see whether or not each face candidate region includes a face; and a face region information storage section 106 recording face region information. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、デジタルカメラ等によって撮影された画像から顔領域を検出する方法に関するものである。   The present invention relates to a method for detecting a face area from an image taken by a digital camera or the like.

近年、デジタルカメラやカメラ機能付き携帯電話等の急速な普及により、ユーザが簡単に大量の画像を扱う機会が増えている。ユーザは撮りためた画像を後で整理することになるが、画像を1枚ずつ目視して整理していては非常に時間がかかるため、整理・分類を自動化できる手法の開発が期待されている。   In recent years, with the rapid spread of digital cameras, mobile phones with camera functions, and the like, there are increasing opportunities for users to easily handle a large number of images. Users will organize the images they have taken later, but it takes a long time to visually organize the images one by one, so it is expected to develop a method that can automate the organization and classification. .

ユーザが画像を分類する場合、撮影日時、撮影場所、撮影した時の行事名等を記したキーワードなどで分類することが考えられるが、最も自動化が望まれている分類方法として、撮影対象となる被写体ごとに分類する方法が挙げられる。   When a user classifies an image, it is possible to classify it by a keyword describing the shooting date / time, shooting location, event name at the time of shooting, etc., but as a classification method that is most desired to be automated, it is a shooting target. There is a method of classifying by subject.

被写体が人物であれば、その人物が誰であるかまで自動的に特定できればよりユーザの負担を軽減することができる。このためにはまず画像中より顔領域を安定に検出し、その後に人物の認識を行うという過程を踏む必要があるが、現状の技術ではその初期段階となる顔検出手法は確立されておらず、得られた顔候補領域の中には背景などが含まれていることが少なくない。   If the subject is a person, the burden on the user can be further reduced if it is possible to automatically identify who the person is. For this purpose, it is necessary to first detect the face area in the image stably and then perform the process of recognizing the person, but the current technology has not established a face detection method at the initial stage. In many cases, the obtained face candidate area includes a background or the like.

本発明は顔候補領域に含まれる誤検出を除き、より高精度に顔領域を検出する顔領域検出装置を提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a face area detection device that detects a face area with higher accuracy, excluding false detections included in a face candidate area.

図3は従来の顔検出手法の一つであるテンプレートマッチングを用いた手法を示すものである(例えば、特許文献1参照。)。図3において301は画像を読み込む画像入力部、302は画像から顔の特徴を捉えやすくするための情報を抽出する特徴量抽出部、303は予め作成しておいた顔テンプレートを入力するテンプレート入力部、304は画像を走査しながら抽出した特徴量とテンプレートとの類似度を計算する類似度演算部、305は画像中で類似度が一定の基準を満たす領域を検出し、顔領域として定義する顔領域抽出部である。   FIG. 3 shows a technique using template matching, which is one of conventional face detection techniques (see, for example, Patent Document 1). In FIG. 3, 301 is an image input unit for reading an image, 302 is a feature amount extraction unit for extracting information for facilitating capturing facial features from the image, and 303 is a template input unit for inputting a face template created in advance. , 304 is a similarity calculation unit that calculates the similarity between the feature amount extracted while scanning the image and the template, and 305 is a face that detects an area satisfying a certain standard in the image and defines it as a face area It is an area extraction unit.

しかしながら、上記した従来の手法ではデジタルカメラ等によって撮影されたスナップ写真に含まれる顔領域を過不足無く検出することはできない。これは、スナップ写真はセキュリティ用に撮影された人物画像のような制約条件(人物は正面向き、画像中に人物は1人しか写っていない、画像に対する顔の位置・大きさは常に同じなど)が無く、顔領域のパターンとして様々なものが考えられるため、テンプレートあるいは他の特徴量が十分に顔の特徴を模すことが困難であるという点に起因している。   However, the above-described conventional method cannot detect a face area included in a snapshot taken by a digital camera or the like without excess or deficiency. This is because the snapshot is a restriction like a person image taken for security (person is facing front, only one person is in the image, face position / size is always the same) This is because there are various face area patterns, and it is difficult for the template or other feature amount to imitate the facial features sufficiently.

以上のことより、画像特徴のみから顔領域を正確に検出することは困難である。
特開2001−222719号公報
As described above, it is difficult to accurately detect a face region only from image features.
JP 2001-222719 A

解決しようとする問題点は、画像特徴のみを用いて原画像に含まれる顔領域を過不足無く検出することが困難な点である。   The problem to be solved is that it is difficult to detect the face area included in the original image using only the image features.

本発明は、画像特徴を用いた顔検出手法の精度を向上させるため、画像撮影時に記録された撮影条件情報を用いることを最も主要な特徴とする。   The most important feature of the present invention is to use shooting condition information recorded at the time of shooting an image in order to improve the accuracy of the face detection method using the image feature.

本発明によれば、既存の顔候補領域検出手法によって検出された顔候補領域に含まれる非顔領域の大部分を除外することができ、残った候補領域に対してのみ顔非顔判定を行うことが可能であるため、余分な領域の拾いすぎを抑止し、顔検出精度を向上させられるという利点がある。   According to the present invention, most of the non-face regions included in the face candidate regions detected by the existing face candidate region detection method can be excluded, and face non-face determination is performed only on the remaining candidate regions. Therefore, there is an advantage that it is possible to prevent the excessive area from being picked up and improve the face detection accuracy.

以下、本発明の実施の形態を、図1〜8を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to FIGS.

(実施の形態1)
図1は本発明の実施の形態1における顔領域検出装置の構成図である。図1において、101は画像を読み込む画像入力部、102は画像から特徴量を算出し、顔候補領域を検出する顔候補領域検出部、103は画像撮影時に画像に付加された撮影条件を読み込む撮影条件情報入力部、104は顔候補領域検出部102で検出された顔候補領域の中から、撮影条件情報入力部103で入力された条件に適合する領域を選定する顔候補領域選定部、105は顔候補領域選定部104で選定された顔候補領域に対して顔であるか否かを判定し、最終的な顔領域を決定する顔領域決定部、106は顔領域決定部105で決定された顔領域情報を記録媒体に記録する顔領域情報保存部である。
(Embodiment 1)
FIG. 1 is a configuration diagram of a face area detection apparatus according to Embodiment 1 of the present invention. In FIG. 1, 101 is an image input unit that reads an image, 102 is a face candidate region detection unit that calculates a feature amount from the image and detects a face candidate region, and 103 is a shooting that reads a shooting condition added to the image at the time of image shooting. A condition information input unit 104 is a face candidate region selection unit 105 that selects a region that meets the conditions input by the imaging condition information input unit 103 from the face candidate regions detected by the face candidate region detection unit 102. A face area determination unit 106 that determines whether the face candidate area selected by the face candidate area selection unit 104 is a face and determines a final face area, and 106 is determined by the face area determination unit 105 A face area information storage unit that records face area information on a recording medium.

まず、画像入力部101により、デジタルカメラなどの撮影装置にて撮影された画像が読み込まれる。読み込まれた画像から顔候補領域検出部102により顔候補領域が検出される。また、撮影条件情報入力部103により、画像撮影時に画像とともに記録されている撮影条件情報が読み込まれる。次に、顔候補領域選定部104において、顔候補領域検出部102にて検出された一次顔候補領域151のうち、撮影条件情報入力部103にて読み込まれた条件に適合した二次顔候補領域152が選定される。そして顔領域決定部105にて、選定された二次顔候補領域152が顔であるか否かを詳細に判定し、最終的な顔領域が決定される。最後に顔領域情報保存部106で、決定された顔領域情報が記録媒体に記録される。ここで撮影条件情報とは、画像撮影時の状況を記録したシーンタイプ情報や、撮影装置から被写体までの距離を記録した撮影距離情報などのことを指す。   First, the image input unit 101 reads an image shot by a shooting device such as a digital camera. A face candidate area is detected by the face candidate area detection unit 102 from the read image. Further, the shooting condition information input unit 103 reads the shooting condition information recorded together with the image at the time of image shooting. Next, in the face candidate area selection unit 104, among the primary face candidate areas 151 detected by the face candidate area detection unit 102, secondary face candidate areas that match the conditions read by the imaging condition information input unit 103 152 is selected. Then, the face area determination unit 105 determines in detail whether or not the selected secondary face candidate area 152 is a face, and the final face area is determined. Finally, the determined face area information is recorded on the recording medium by the face area information storage unit 106. Here, the shooting condition information refers to scene type information that records the situation at the time of image shooting, shooting distance information that records the distance from the shooting device to the subject, and the like.

顔候補領域検出部102にて適用される顔候補領域検出方法の一例を、図7に示すフロー図を用いて説明する。まず画像からエッジ特徴を検出する(S701)。次にエッジ特徴を検出した画像にフーリエ変換を施し(S702)、周波数特徴へと変換する。そして予め作成しておいたテンプレート画像の周波数特徴との積和を計算し(S703)、逆フーリエ変換を施して周波数特徴を二次元座標へと変換する(S704)。最後にS703にて計算した積和が一定の閾値以上を示す領域を顔候補領域として検出する(S705)。周波数特徴を用いる利点は、通常のテンプレートマッチングのように画像の全領域を走査しながら相関を求める処理が簡略化できるため、処理量が大幅に削減できることである。   An example of the face candidate area detection method applied by the face candidate area detection unit 102 will be described with reference to the flowchart shown in FIG. First, an edge feature is detected from the image (S701). Next, Fourier transformation is performed on the image in which the edge feature is detected (S702), and the image is transformed into a frequency feature. Then, a product sum with the frequency feature of the template image created in advance is calculated (S703), and inverse Fourier transform is performed to convert the frequency feature into two-dimensional coordinates (S704). Finally, an area where the sum of products calculated in S703 shows a certain threshold value or more is detected as a face candidate area (S705). The advantage of using the frequency feature is that the processing amount can be greatly reduced because the processing for obtaining the correlation can be simplified while scanning the entire area of the image as in normal template matching.

また、顔領域決定部105にて適用される顔非顔判定方法の一例を、図4に示すフロー図を用いて説明する。顔候補領域選定部104にて出力された二次顔候補領域の情報をもとに該当領域の画像を切り出して顔候補領域画像として入力し(S401)、顔候補領域の大部分が肌色領域であるか(S402)、顔候補領域が目領域を有しているか(S403)を判定し、条件を満たす顔候補領域を最終的な顔領域とする。   An example of the face non-face determination method applied by the face area determination unit 105 will be described with reference to the flowchart shown in FIG. Based on the information of the secondary face candidate area output by the face candidate area selection unit 104, an image of the corresponding area is cut out and input as a face candidate area image (S401), and most of the face candidate areas are skin color areas. It is determined whether there is an eye area (S402) or whether the face candidate area has an eye area (S403), and a face candidate area that satisfies the condition is determined as a final face area.

以下、顔候補領域選定部104の詳細について説明する。図2は顔候補領域選定部104の詳細を示す構成図であり、図5はそのフロー図である。図2において、201は撮影条件情報よりシーンタイプ情報と撮影距離情報とを抽出する情報抽出部、202はシーンタイプ情報をもとに顔領域の存在しない画像を除外する顔画像選定部、203は撮影距離情報に適合しない大きさの顔候補領域を除外する撮影距離適合領域選定部である。   Details of the face candidate region selection unit 104 will be described below. FIG. 2 is a configuration diagram showing details of the face candidate region selection unit 104, and FIG. 5 is a flowchart of the configuration. In FIG. 2, 201 is an information extraction unit that extracts scene type information and shooting distance information from shooting condition information, 202 is a face image selection unit that excludes images that do not have a face area based on the scene type information, and 203 An imaging distance matching area selecting unit that excludes face candidate areas having a size that does not match the imaging distance information.

ここでシーンタイプ情報とは、例えば風景モードやマクロ撮影モードなど、画像撮影時に周囲の環境や被写体の状況に合わせて記録されている情報である。また、撮影距離情報とは、例えば焦点距離、撮影倍率、CCDサイズ、画素数、あるいは撮影装置から被写体までの距離そのものの情報などである。撮影装置から被写体までの距離が記録されている場合、直接的に被写体までの距離、あるいは簡易的に被写体までの大まかな距離範囲が記録されている。   Here, the scene type information is information recorded in accordance with the surrounding environment and the state of the subject at the time of image shooting, such as landscape mode and macro shooting mode. The shooting distance information is, for example, information on the focal length, the shooting magnification, the CCD size, the number of pixels, or the distance from the shooting device to the subject itself. When the distance from the photographing apparatus to the subject is recorded, the distance to the subject is directly recorded, or a rough distance range to the subject is simply recorded.

画像選定部202で、シーンタイプ情報が風景モードあるいはマクロ撮影モードに設定されている場合(S502、S503)、画像中には人物が写っていないと仮定し、画像内の全候補領域を除外する(S504)。
次に撮影距離適合領域選定部203で、撮影距離情報に適合しない大きさの顔候補領域を除外する。図6に示すように、顔候補領域サイズは顔候補検出部102にて適用されるテンプレートサイズの種類だけ存在し、大小様々なサイズの顔候補領域が検出されている。図8に示すように、ある解像度・倍率における撮影距離と顔候補領域サイズの対応表は予め求めておくことができる。各距離での顔候補領域サイズの実測値は常に同じであるとする。図9は受光面であるCCD受光素子が像を結ぶモデルを示すものである。図9において、aは焦点距離、bはカメラレンズから被写体までの距離、cは顔候補領域サイズの実測値のうちの一辺であり、xがCCD上での顔候補領域サイズの一辺である。ここでaは距離情報として画像に付加されているので、図8のようにb、cを定義すれば下記の数式によりxを算出ことができる。
When the scene type information is set to landscape mode or macro shooting mode in the image selection unit 202 (S502, S503), it is assumed that no person is captured in the image, and all candidate regions in the image are excluded. (S504).
Next, the shooting distance matching area selection unit 203 excludes face candidate areas having a size that does not match the shooting distance information. As shown in FIG. 6, there are face candidate area sizes corresponding to the types of template sizes applied by the face candidate detection unit 102, and face candidate areas of various sizes are detected. As shown in FIG. 8, the correspondence table between the shooting distance and the face candidate area size at a certain resolution / magnification can be obtained in advance. It is assumed that the actual measurement value of the face candidate area size at each distance is always the same. FIG. 9 shows a model in which a CCD light receiving element as a light receiving surface forms an image. In FIG. 9, a is the focal length, b is the distance from the camera lens to the subject, c is one side of the actual measurement value of the face candidate region size, and x is one side of the face candidate region size on the CCD. Here, since a is added to the image as distance information, if b and c are defined as shown in FIG. 8, x can be calculated by the following mathematical formula.

Figure 2005301722
Figure 2005301722

CCD単位当たりの画素数をもとにxを画素単位に換算すると画像上での顔候補領域サイズを決定することができる(S505)。この対応表と実際の被写体までの距離を比較して顔候補領域を限定していくが、一般的なデジタルカメラなどの撮影装置は単体で正確な距離計測機能を持つものは少ない。しかし、オートフォーカスにより被写体へ焦点を合わせようとする際、簡易的に距離を概算することができる。このとき得られる被写体までの距離情報は、例えばある基準となる距離に対して近距離にあるか、遠距離にあるかという情報で保存される。この基準となる距離は撮影装置によって異なるが、既知の値である。いま、基準となる距離が3m、距離情報が近距離に設定されているとき、被写体は3mより遠くにはいないと見做し(S506)、対応表の3mより遠い距離に該当する小さな領域サイズのものは候補から除く(S507)。逆に遠距離に設定されている場合は 3m より近い距離に該当する大きな領域サイズのものは候補から除くことで顔候補領域を絞り込む(S508)。正確な距離計測が行える撮影装置の場合、対応表から該当する距離付近の範囲内に収まる領域サイズのみを候補領域として検出し、それ以外の領域サイズは候補から除外する。 If x is converted into a pixel unit based on the number of pixels per CCD unit, the face candidate area size on the image can be determined (S505). The face candidate area is limited by comparing the distance to the actual subject with this correspondence table. However, there are few common photographing apparatuses such as a digital camera having an accurate distance measuring function. However, when trying to focus on the subject by autofocus, the distance can be roughly estimated. The distance information to the subject obtained at this time is stored, for example, as information on whether the distance is a short distance or a long distance with respect to a certain reference distance. The reference distance varies depending on the photographing apparatus, but is a known value. Now, when the reference distance is set to 3 m and the distance information is set to a short distance, it is assumed that the subject is not farther than 3 m (S506), and a small area size corresponding to a distance farther than 3 m in the correspondence table. Are excluded from the candidates (S507). On the other hand, when the long distance is set, the face candidate area is narrowed down by removing the large area size corresponding to the distance closer than 3 m from the candidates (S508). In the case of an imaging apparatus capable of accurate distance measurement, only the region sizes that fall within the range near the corresponding distance are detected as candidate regions from the correspondence table, and other region sizes are excluded from the candidates.

以上のように本実施の形態によれば、顔候補領域に含まれる非顔領域の大部分を除去することができるため、顔領域検出装置の精度を高めることができる。   As described above, according to the present embodiment, most of the non-face area included in the face candidate area can be removed, so that the accuracy of the face area detection device can be improved.

本発明にかかる顔領域検出装置は、顔候補領域から非顔領域を除外して顔検出精度を向上させるだけでなく、候補領域数を限定した後に顔非顔判定処理を行う装置構成であるため、顔非顔判定処理時間の短縮にも寄与する。   The face area detection apparatus according to the present invention is an apparatus configuration that not only improves face detection accuracy by excluding non-face areas from face candidate areas, but also performs face non-face determination processing after limiting the number of candidate areas. This also contributes to shortening the face non-face determination processing time.

本発明の実施の形態1における顔領域検出装置の構成図Configuration diagram of face area detection apparatus according to Embodiment 1 of the present invention 本発明の実施の形態1における顔候補領域選定部の構成図Configuration diagram of face candidate region selection unit in Embodiment 1 of the present invention 従来の顔検出装置の構成図Configuration of conventional face detection device 本発明の実施の形態1における顔領域検出装置での顔非顔判定方法のフロー図Flow chart of face non-face determination method in face area detection apparatus in Embodiment 1 of the present invention 本発明の実施の形態1における顔領域検出装置での顔候補領域選定部のフロー図Flow diagram of face candidate area selection unit in face area detection device in embodiment 1 of the present invention 図5に示した顔候補領域選定部のフロー図の中で、適切な候補領域サイズ範囲決定の方法を示す説明図Explanatory drawing which shows the method of a suitable candidate area size range determination in the flowchart of the face candidate area | region selection part shown in FIG. 本発明の実施の形態1における顔領域検出装置での顔候補領域検出方法のフロー図Flow diagram of face candidate area detection method in face area detection apparatus in Embodiment 1 of the present invention ある解像度・倍率における顔候補領域サイズと撮影距離の例を示す図The figure which shows the example of the face candidate area size and shooting distance in a certain resolution and magnification CCD上の像と実測値の関係を示す説明図Explanatory diagram showing the relationship between the image on the CCD and the measured value

符号の説明Explanation of symbols

101 画像入力部
102 顔候補領域検出部
103 撮影条件情報入力部
104 顔候補領域選定部
105 顔領域決定部
106 顔領域情報保存部
151 一次顔候補領域
152 二次顔候補領域
201 情報抽出部
202 顔画像選定部
203 撮影距離適合領域選定部
301 画像入力部
302 特徴量抽出部
303 テンプレート入力部
304 類似度演算部
305 顔領域抽出部
DESCRIPTION OF SYMBOLS 101 Image input part 102 Face candidate area detection part 103 Shooting condition information input part 104 Face candidate area selection part 105 Face area determination part 106 Face area information storage part 151 Primary face candidate area 152 Secondary face candidate area 201 Information extraction part 202 Face Image selection unit 203 Shooting distance matching region selection unit 301 Image input unit 302 Feature amount extraction unit 303 Template input unit 304 Similarity calculation unit 305 Face region extraction unit

Claims (2)

画像を読み込む画像入力部と、画像特徴を算出して顔候補領域を検出する顔候補領域検出部と、画像に付加された、もしくは画像に対応して設定された撮影条件情報を読み込む撮影条件情報入力部と、前記撮影条件情報入力部で読み込まれた撮影条件情報を用いて、顔候補領域の中から顔領域としての尤度が高い領域を選定する顔候補領域選定部と、各顔候補領域が顔を含んでいるか否かを判定する顔領域決定部と、顔領域情報を記録する顔領域情報保存部から構成されることを特徴とする顔領域検出装置。 An image input unit that reads an image, a face candidate region detection unit that detects a face candidate region by calculating an image feature, and shooting condition information that reads shooting condition information added to the image or set corresponding to the image A face candidate region selecting unit for selecting a region having a high likelihood as a face region from the face candidate regions using the shooting condition information read by the shooting condition information input unit; and each face candidate region A face area detection apparatus comprising: a face area determination unit that determines whether or not a face includes a face; and a face area information storage unit that records face area information. 前記顔候補領域選定部において、撮影条件情報より画像撮影時の状況を記録したシーンタイプ情報と撮影装置から被写体までの距離を記録した撮影距離情報とを抽出する情報抽出部と、シーンタイプ情報をもとに顔領域の存在しない画像を除外する顔画像選定部と、撮影距離情報をもとに不適切な大きさの顔候補領域を除外する顔候補領域選定部を備えたことを特徴とする請求項1記載の顔領域検出装置。 In the face candidate area selection unit, an information extraction unit that extracts scene type information that records a situation at the time of image shooting from shooting condition information and shooting distance information that records a distance from a shooting device to a subject, and scene type information A face image selection unit that excludes an image having no face area originally and a face candidate area selection unit that excludes a face candidate area of an inappropriate size based on shooting distance information The face area detection apparatus according to claim 1.
JP2004117595A 2004-04-13 2004-04-13 Face region detector Pending JP2005301722A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004117595A JP2005301722A (en) 2004-04-13 2004-04-13 Face region detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004117595A JP2005301722A (en) 2004-04-13 2004-04-13 Face region detector

Publications (1)

Publication Number Publication Date
JP2005301722A true JP2005301722A (en) 2005-10-27

Family

ID=35333170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004117595A Pending JP2005301722A (en) 2004-04-13 2004-04-13 Face region detector

Country Status (1)

Country Link
JP (1) JP2005301722A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009266189A (en) * 2008-04-21 2009-11-12 Sharp Corp Image determination apparatus, image search apparatus, image search program and recording medium
JP2013055668A (en) * 2012-10-10 2013-03-21 Olympus Imaging Corp Image reproduction device and image reproduction method
CN107239764A (en) * 2017-06-07 2017-10-10 成都尽知致远科技有限公司 A kind of face identification method of DNR dynamic noise reduction
JP2018050208A (en) * 2016-09-22 2018-03-29 キング通信工業株式会社 Image recording system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009266189A (en) * 2008-04-21 2009-11-12 Sharp Corp Image determination apparatus, image search apparatus, image search program and recording medium
JP4729601B2 (en) * 2008-04-21 2011-07-20 シャープ株式会社 Image discrimination device, image search device, image search program, and recording medium
US8200012B2 (en) 2008-04-21 2012-06-12 Sharp Kabushiki Kaisha Image determination apparatus, image search apparatus and computer readable recording medium storing an image search program
JP2013055668A (en) * 2012-10-10 2013-03-21 Olympus Imaging Corp Image reproduction device and image reproduction method
JP2018050208A (en) * 2016-09-22 2018-03-29 キング通信工業株式会社 Image recording system
CN107239764A (en) * 2017-06-07 2017-10-10 成都尽知致远科技有限公司 A kind of face identification method of DNR dynamic noise reduction

Similar Documents

Publication Publication Date Title
US9704017B2 (en) Image processing device, program, image processing method, computer-readable medium, and image processing system
KR101971866B1 (en) Method and apparatus for detecting object in moving image and storage medium storing program thereof
JP4772839B2 (en) Image identification method and imaging apparatus
US20120148118A1 (en) Method for classifying images and apparatus for the same
US8176426B2 (en) Image reproduction apparatus and image reproduction program product
US9613258B2 (en) Image quality assessment
JP4908505B2 (en) Image classification using photographers
TWI380223B (en) Image processing apparatus and image processing method
EP1347417A2 (en) Face detection computer program product for redeye correction
CN104798103B (en) Face recognition device, face recognition method, program for the same, and information apparatus
US8577098B2 (en) Apparatus, method and program for designating an object image to be registered
US10515459B2 (en) Image processing apparatus for processing images captured by a plurality of imaging units, image processing method, and storage medium storing program therefor
WO2017000576A1 (en) Non-contact automatic focus method and device
JP5710940B2 (en) Image processing apparatus, image processing method, and image processing program
KR101290517B1 (en) Photographing apparatus for tracking object and method thereof
JP2006293720A (en) Face detection apparatus, face detection method, and face detection program
JP2005301722A (en) Face region detector
JP6893812B2 (en) Object detector
JP4781248B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
JP2007058630A (en) Image recognition device
JP2007316892A (en) Method, apparatus and program for automatic trimming
JP2017016592A (en) Main subject detection device, main subject detection method and program
JP6776532B2 (en) Image processing equipment, imaging equipment, electronic devices and image processing programs
JP4812743B2 (en) Face recognition device, face recognition method, face recognition program, and recording medium recording the program
JP4274038B2 (en) Image processing apparatus and image processing method