JP2010257324A - Image processing apparatus and method, and program - Google Patents

Image processing apparatus and method, and program Download PDF

Info

Publication number
JP2010257324A
JP2010257324A JP2009108182A JP2009108182A JP2010257324A JP 2010257324 A JP2010257324 A JP 2010257324A JP 2009108182 A JP2009108182 A JP 2009108182A JP 2009108182 A JP2009108182 A JP 2009108182A JP 2010257324 A JP2010257324 A JP 2010257324A
Authority
JP
Japan
Prior art keywords
pattern
image
face
subject
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009108182A
Other languages
Japanese (ja)
Inventor
Kotaro Yano
光太郎 矢野
Satoru Yashiro
哲 八代
Yasuhiro Ito
靖浩 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009108182A priority Critical patent/JP2010257324A/en
Publication of JP2010257324A publication Critical patent/JP2010257324A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To achieve highly precise object detection suitable for applying image quality improvement processing. <P>SOLUTION: An image processing apparatus for detecting a prescribed object pattern from an image is configured to detect a prescribed partial region to be verified with the object pattern from the image, and to determine whether the extracted partial region is the object pattern, and to evaluate the image characteristics of the partial region determined as the object pattern by this discrimination, and to determine whether the partial region is the object pattern based on the evaluation results. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は画像処理装置、画像処理方法及びプログラムに関し、特に、画像から特定の被写体を検出するために用いて好適な技術に関する。   The present invention relates to an image processing apparatus, an image processing method, and a program, and more particularly, to a technique suitable for use in detecting a specific subject from an image.

画像から特定の被写体パターンを自動的に検出する画像処理方法は非常に有用であり、例えば人間の顔の判定に利用することができる。このような方法は、通信会議、マン・マシン・インタフェース、セキュリティ、人間の顔を追跡するためのモニタ・システム、画像圧縮などの多くの分野で使用することができる。このような顔を検出する技術では、いくつかの顕著な特徴(目、口等)とその特徴間の固有の幾何学的位置関係とを利用するか、又は人間の顔の対称的特徴、人間の顔色の特徴、テンプレート・マッチング、ニューラル・ネットワークなどを利用する。   An image processing method for automatically detecting a specific subject pattern from an image is very useful, and can be used for, for example, determination of a human face. Such methods can be used in many areas such as teleconferencing, man-machine interface, security, monitor systems for tracking human faces, image compression, and the like. Such face detection techniques make use of some prominent features (eyes, mouth, etc.) and the inherent geometric positional relationship between those features, or the symmetric features of human faces, human Using facial color features, template matching, neural networks, etc.

例えば、ニューラル・ネットワークにより画像中の顔パターンを検出する方法である。顔の検出を対象とする画像データをメモリに読み込み、顔と照合する所定の領域を読み込んだ画像中から切り出す。そして、切り出した領域の画素値の分布を入力し、ニューラル・ネットワークによる演算で1つの出力結果を得る。   For example, there is a method of detecting a face pattern in an image by a neural network. Image data targeted for face detection is read into the memory, and a predetermined area to be matched with the face is cut out from the read image. Then, the distribution of pixel values in the cut-out area is input, and one output result is obtained by calculation using a neural network.

このとき、ニューラル・ネットワークの重み、閾値が膨大な顔画像パターンと非顔画像パターンとによりあらかじめ学習されており、例えば、ニューラル・ネットワークによる出力結果が0以上なら顔と判別し、それ以外は非顔であると判別する。そして、ニューラル・ネットワークで入力される顔と照合する画像パターンの切り出し位置を、例えば、図3に示すように画像全域から縦横順次に走査していくことにより、画像中から顔を検出する。また、様々な大きさの顔の検出に対応するため、図3に示すように読み込んだ画像を所定の割合で順次縮小し、それに対して前述した顔検出の走査を行うようにしている。   At this time, the weight and threshold value of the neural network are learned in advance using face image patterns and non-face image patterns with a huge amount. Judged to be a face. Then, the face is detected from the image by scanning the cutout position of the image pattern to be collated with the face input by the neural network, for example, from the entire image as shown in FIG. Further, in order to cope with the detection of faces of various sizes, as shown in FIG. 3, the read images are sequentially reduced at a predetermined rate, and the above-described face detection scanning is performed on the images.

また、処理の高速化に着目した例としては、AdaBoostを用いて多くの弱判別器を有効に組合せて顔判別の精度を向上させ、夫々の弱判別器をHaarタイプの矩形特徴量で構成し、しかも矩形特徴量の算出を、積分画像を利用して高速に行っている。また、AdaBoost学習によって得た判別器を直列に繋ぎ、カスケード型の顔検出器を構成するようにしている。このカスケード型の顔検出器は、まず前段の単純な判別器を使って明らかに顔でないパターンの候補をその場で除去し、それ以外の候補に対してのみ、より高い識別性能を持つ後段の複雑な判別器を使って顔かどうかの判定を行っている。すべての候補に対して複雑な判定を行う必要がないので高速である。   In addition, as an example focusing on speeding up the processing, AdaBoost is used to effectively combine many weak classifiers to improve the accuracy of face discrimination, and each weak classifier is configured with a Haar-type rectangular feature. In addition, the calculation of the rectangular feature amount is performed at high speed using the integral image. Also, the discriminators obtained by AdaBoost learning are connected in series to form a cascade type face detector. This cascade-type face detector first uses a simple discriminator at the front stage to remove pattern candidates that are clearly not faces on the spot, and only the other candidates at the back stage with higher discrimination performance. A complex discriminator is used to determine whether a face is present. It is fast because there is no need to make complex judgments for all candidates.

一方、このような自動的に画像中の被写体を認識した結果をもとに画質改善を行うことが提案されている。例えば、特許文献1には画像から自動的に人物顔の検出を行い、その結果をもとに画像の明るさを補正する方法が開示されている。   On the other hand, it has been proposed to improve image quality based on such a result of automatically recognizing a subject in an image. For example, Patent Document 1 discloses a method of automatically detecting a human face from an image and correcting the brightness of the image based on the result.

特開平6−303536号公報JP-A-6-303536 特開2005−4287号公報JP 2005-4287 A

しかしながら、顔の検出結果は必ずしも100%成功するとは限らない。したがって、特許文献1の技術では、例えば適正な明るさで撮影された人物写真において比較的暗いパターンの誤検出が発生した場合には、適正な明るさの人物顔の部分がさらに明るくなってしまい、画質がもとの画像より悪くなってしまう。   However, the face detection result is not necessarily 100% successful. Therefore, in the technique of Patent Document 1, for example, when a false detection of a relatively dark pattern occurs in a human photograph taken with appropriate brightness, the human face portion with appropriate brightness becomes even brighter. The image quality will be worse than the original image.

実用上、このような画質改善処理に求められる被写体の自動認識処理は、画質が劣化しない範囲で画質改善を効果的に行えるものである。例えば、画像の明るさの補正においては、明るい顔に対しては比較的検出率が高く、暗い顔に対しては比較的誤検出率の低い性能が要求される。そのためには、検出する被写体の明るさに応じて被写体検出の性能を制御することが必要になる。このような被写体検出の性能の制御を行う方法として、特許文献2には、パターンの明るさに応じて閾値を変えることで暗い顔の検出率を上げている。しかしながら、暗い顔の誤検出による悪影響には着目されていないので明るさの補正を行おうとした場合には副作用の発生は避けられない。また、単純な閾値の制御では精度良く誤検出を抑えることはできない。   In practice, such automatic object recognition processing required for image quality improvement processing can effectively improve image quality within a range where the image quality does not deteriorate. For example, in the correction of image brightness, a performance with a relatively high detection rate for a bright face and a relatively low false detection rate for a dark face is required. For this purpose, it is necessary to control the subject detection performance in accordance with the brightness of the subject to be detected. As a method for controlling the subject detection performance as described above, Patent Document 2 increases the detection rate of a dark face by changing a threshold according to the brightness of a pattern. However, since adverse effects due to erroneous detection of a dark face are not noticed, the occurrence of side effects is unavoidable when trying to correct the brightness. Moreover, it is not possible to suppress erroneous detection with high accuracy by simple threshold control.

本発明は前述の問題点に鑑み、画質改善処理を適用するのに好適な高精度な被写体検出を行うことができるようにすることを目的としている。   SUMMARY OF THE INVENTION In view of the above-described problems, an object of the present invention is to enable highly accurate subject detection suitable for applying image quality improvement processing.

本発明の画像処理装置は、画像から所定の被写体パターンを検出する画像処理装置であって、画像から前記被写体パターンと照合するための所定の部分領域を抽出する照合パターン抽出手段と、前記照合パターン抽出手段によって抽出された部分領域が前記被写体パターンであるか否かを判別する第1のパターン判別手段と、前記第1のパターン判別手段によって前記被写体パターンであると判別された前記部分領域の画像特性を評価する評価手段と、前記評価手段による評価結果に基づいて前記部分領域について前記被写体パターンであるか否かを判別する第2のパターン判別手段とを備えたことを特徴とする。   The image processing apparatus of the present invention is an image processing apparatus that detects a predetermined subject pattern from an image, and includes a collation pattern extraction unit that extracts a predetermined partial region for collation with the subject pattern from the image, and the collation pattern First pattern determining means for determining whether or not the partial area extracted by the extracting means is the subject pattern, and an image of the partial area determined to be the subject pattern by the first pattern determining means Evaluation means for evaluating characteristics and second pattern discrimination means for discriminating whether or not the partial area is the subject pattern based on an evaluation result by the evaluation means.

本発明によれば、画質改善処理を適用するのに好適な高精度な被写体検出を行うことができる。これにより、画質改善処理において副作用の発生を抑制することができる。   According to the present invention, highly accurate subject detection suitable for applying image quality improvement processing can be performed. Thereby, it is possible to suppress the occurrence of side effects in the image quality improvement processing.

本発明の実施形態の画像処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image processing apparatus of embodiment of this invention. 顔認識の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of face recognition. 縮小画像から所定の大きさの部分領域を抽出する様子を示す図である。It is a figure which shows a mode that the partial area | region of a predetermined magnitude | size is extracted from a reduced image. 顔領域の照合パターンの一例を示す図である。It is a figure which shows an example of the collation pattern of a face area. 様々な形状、およびサイズの局所領域を組合せたものを示す図である。It is a figure which shows what combined the local area | region of various shapes and sizes. 被写体の判別に有効な特徴を組合せる手順を示すフローチャートである。It is a flowchart which shows the procedure which combines the characteristic effective for the discrimination | determination of a to-be-photographed object. 第1の顔判別部の詳細な構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of a 1st face discrimination | determination part. 弱判別器の詳細な構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of a weak discriminator. 直列接続された組合せ判別器の構成例を示すブロック図である。It is a block diagram which shows the structural example of the combination discriminator connected in series.

(第1の実施形態)
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
図1は、本実施形態の画像処理装置の構成例を示すブロック図である。
図1において、10は画像入力部であり、例えばデジタルスチルカメラ、カムコーダ、フィルムスキャナーなどで構成され、画像データを撮像あるいはその他公知の手段により入力する。また、デジタル画像データを保持する記憶媒体から画像データを読み込むようなコンピュータ・システムのインターフェース機器であってもよい。
(First embodiment)
Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.
FIG. 1 is a block diagram illustrating a configuration example of an image processing apparatus according to the present embodiment.
In FIG. 1, reference numeral 10 denotes an image input unit, which is composed of, for example, a digital still camera, a camcorder, a film scanner, etc., and inputs image data by imaging or other known means. Further, it may be an interface device of a computer system that reads image data from a storage medium that holds digital image data.

20は画像メモリであり、画像入力部10から出力された画像データを一時的に記憶する。30は画像縮小部であり、画像メモリ20に記憶されている画像データを所定の倍率にしたがって縮小し、出力する。40は照合パターン抽出部であり、画像縮小部30で縮小された画像データから所定の部分領域を照合対象のパターンとして抽出する。   An image memory 20 temporarily stores the image data output from the image input unit 10. An image reduction unit 30 reduces the image data stored in the image memory 20 according to a predetermined magnification and outputs the reduced image data. Reference numeral 40 denotes a collation pattern extraction unit, which extracts a predetermined partial area from the image data reduced by the image reduction unit 30 as a pattern to be collated.

50は輝度補正部であり、照合パターン抽出部40で抽出された照合パターンの輝度分布を補正する。60は第1の顔判別部であり、照合パターン抽出部40で抽出され、輝度補正部50で補正された照合パターンが顔パターンか非顔パターンかを判別する。70は明るさ評価部であり、第1の顔判別部が顔パターンと判別した照合パターンの輝度補正を行う前の画像パターンを照合パターン抽出部40から受け取り、明るさの評価を行う。   Reference numeral 50 denotes a luminance correction unit that corrects the luminance distribution of the collation pattern extracted by the collation pattern extraction unit 40. Reference numeral 60 denotes a first face discriminating unit that discriminates whether the collation pattern extracted by the collation pattern extraction unit 40 and corrected by the luminance correction unit 50 is a face pattern or a non-face pattern. Reference numeral 70 denotes a brightness evaluation unit, which receives an image pattern from the matching pattern extraction unit 40 before performing luminance correction of the matching pattern determined by the first face determination unit as a face pattern, and evaluates the brightness.

80は第2の顔判別部であり、明るさ評価部70で所定の明るさよりも暗いと判定された照合パターンが顔パターンか非顔パターンかを判別する。90は顔領域出力部であり、第1の顔判別部60または第2の顔判別部80で顔と判別されたパターンの領域を出力する。100は画質改善部であり、顔領域出力部90から出力されたパターンの明るさに基づき画像入力部10によって入力された画像データの明るさの補正を行う。また、以上の各ブロックは不図示の制御部により動作を制御される。   Reference numeral 80 denotes a second face discriminating unit that discriminates whether the collation pattern determined to be darker than the predetermined brightness by the brightness evaluation unit 70 is a face pattern or a non-face pattern. Reference numeral 90 denotes a face area output unit which outputs a pattern area determined as a face by the first face determination unit 60 or the second face determination unit 80. Reference numeral 100 denotes an image quality improvement unit that corrects the brightness of the image data input by the image input unit 10 based on the brightness of the pattern output from the face area output unit 90. The operation of each of the above blocks is controlled by a control unit (not shown).

次に、本実施形態の動作について図2を参照しながら説明する。図2は、本実施形態における顔認識の処理手順の一例を示すフローチャートである。
まず、ステップS101において、画像入力部10は所望の画像データを画像メモリ20に読み込む。
Next, the operation of this embodiment will be described with reference to FIG. FIG. 2 is a flowchart showing an example of a face recognition processing procedure in the present embodiment.
First, in step S <b> 101, the image input unit 10 reads desired image data into the image memory 20.

ここで読み込まれる画像データは、例えば8ビットの画素により構成される2次元配列のデータであり、R、G、B、3つの面により構成される。このとき、画像データがJPEG等の方式により圧縮されている場合は、画像データを所定の解凍方式にしたがって解凍し、RGB各画素により構成される画像データとする。さらに、本実施形態ではRGBデータを輝度データに変換し、輝度画像データを以後の処理に適用するものとし、画像メモリ20に格納する。画像データとしてYCrCbのデータを入力する場合はY成分をそのまま輝度データとしてもよい。   The image data read here is, for example, two-dimensional array data composed of 8-bit pixels, and is composed of R, G, B, and three surfaces. At this time, if the image data is compressed by a method such as JPEG, the image data is decompressed according to a predetermined decompression method to obtain image data composed of RGB pixels. Furthermore, in this embodiment, RGB data is converted into luminance data, and the luminance image data is applied to the subsequent processing and stored in the image memory 20. When YCrCb data is input as image data, the Y component may be directly used as luminance data.

次に、ステップS102において、画像縮小部30は、輝度画像データを画像メモリ20から読み込み、所定の倍率に縮小した輝度画像データを生成する。本実施形態では、特許文献2に記載の方法により様々な大きさの顔の検出に対応するため複数のサイズの画像データに対して順次検出を行うようにしている。例えば、倍率が1.2倍程度異なる複数の画像への縮小処理が後段の検出処理のために順次適用される。   Next, in step S102, the image reduction unit 30 reads the luminance image data from the image memory 20, and generates luminance image data reduced to a predetermined magnification. In the present embodiment, detection is sequentially performed on image data of a plurality of sizes in order to support detection of faces of various sizes by the method described in Patent Document 2. For example, reduction processing to a plurality of images with different magnifications by about 1.2 is sequentially applied for subsequent detection processing.

次に、ステップS103において、照合パターン抽出部40は、縮小された輝度画像データから所定の大きさの部分領域を抽出する。図3は、縮小画像から所定の大きさの部分領域を抽出する様子を示す図である。図3のAの列は画像縮小部30で縮小されたそれぞれの縮小画像を示しており、本実施形態では、それぞれの縮小画像に対して所定の大きさの矩形領域を切り出すものとする。図3のBはそれぞれの縮小画像から縦横順次に走査を繰り返していく途中の切り出しの様子を示すものである。図3に示すように、縮小率の大きな画像から照合パターンを切り出して顔の判別を行う場合には、画像に対して大きな顔の検出を行うことになる。   Next, in step S103, the matching pattern extraction unit 40 extracts a partial area having a predetermined size from the reduced luminance image data. FIG. 3 is a diagram illustrating a state in which a partial region having a predetermined size is extracted from the reduced image. The row A in FIG. 3 shows the respective reduced images reduced by the image reduction unit 30. In the present embodiment, a rectangular area having a predetermined size is cut out from each reduced image. FIG. 3B shows a state of clipping while repeating scanning from each reduced image in the vertical and horizontal directions. As shown in FIG. 3, when a face is determined by cutting out a matching pattern from an image with a large reduction ratio, a large face is detected for the image.

次に、ステップS104において、輝度補正部50は、照合パターン抽出部40で切り出された部分領域の輝度をその分布をもとに正規化する。例えば、ヒストグラム平滑化などの輝度補正を行う。これは、撮像される被写体パターンはその照明条件によって輝度分布が変わるので被写体照合の精度が劣化するのを抑制するためである。   Next, in step S104, the luminance correction unit 50 normalizes the luminance of the partial area cut out by the matching pattern extraction unit 40 based on the distribution. For example, brightness correction such as histogram smoothing is performed. This is for suppressing deterioration in accuracy of subject collation because the luminance distribution of the subject pattern to be captured changes depending on the illumination condition.

次に、ステップS105において、第1の顔判別部60は、照合パターン抽出部40で抽出され、輝度補正部50で補正された照合パターンが顔パターンか非顔パターンか否かを判別し、顔パターンを検出する。   Next, in step S105, the first face discriminating unit 60 discriminates whether or not the collation pattern extracted by the collation pattern extraction unit 40 and corrected by the luminance correction unit 50 is a face pattern or a non-face pattern. Detect patterns.

次に、ステップS106において、明るさ評価部70は、第1の顔判別部60で顔パターンと判別された照合パターンについて、明るさの判定を行う。具体的には、照合パターン抽出部40から判別に用いた照合パターンに対応する輝度補正前の元の画像パターンを受け取り、輝度平均値を算出する。この判定の結果、評価結果として算出した輝度平均値が所定の閾値よりも大きい場合には、明るい顔パターンであると判定し、ステップS108に移行する。また、それ以外の場合には、暗い顔パターンであると判定し、さらに誤検出低減のためにステップS107に移行する。   Next, in step S <b> 106, the brightness evaluation unit 70 determines the brightness of the collation pattern determined as the face pattern by the first face determination unit 60. Specifically, the original image pattern before luminance correction corresponding to the matching pattern used for the determination is received from the matching pattern extraction unit 40, and the luminance average value is calculated. If the luminance average value calculated as the evaluation result is larger than the predetermined threshold as a result of this determination, it is determined that the face pattern is bright and the process proceeds to step S108. In other cases, it is determined that the face pattern is dark, and the process proceeds to step S107 to reduce false detection.

次に、ステップS107において、第2の顔判別部80は、第1の顔判別部60で顔パターンであると判別され、明るさ評価部70で暗い顔パターンであると判定した照合パターンが顔パターンか非顔パターンかを判別する。そして、顔パターンを検出する。   Next, in step S107, the second face discriminating unit 80 determines that the first face discriminating unit 60 determines that the face pattern is a face pattern, and the brightness evaluation unit 70 determines that the face pattern is a dark face pattern. Determine whether the pattern or non-face pattern. Then, a face pattern is detected.

そして、ステップS108において、第1の顔判別部60または第2の顔判別部80での検出結果として顔パターンに対して顔領域出力部90は、照合パターン抽出部40で抽出した矩形を顔領域として出力する。   In step S108, the face area output unit 90 outputs the rectangle extracted by the matching pattern extraction unit 40 to the face area as a result of detection by the first face determination unit 60 or the second face determination unit 80. Output as.

次に、ステップS109において、すべての領域及び倍率で走査が終了した否かを判断する。この判断の結果、すべての領域及び倍率で走査を終了した場合は、ステップS111に進む。一方、ステップS109の判断の結果、終了していない場合は、ステップS110において、矩形の倍率を変更するか否かを判断する。この判断の結果、倍率を変更しない場合はステップS103に戻り、倍率を変更する場合はステップS102に戻る。   Next, in step S109, it is determined whether scanning has been completed for all regions and magnifications. As a result of the determination, if scanning is completed for all regions and magnifications, the process proceeds to step S111. On the other hand, if the result of determination in step S109 is not complete, it is determined in step S110 whether or not to change the magnification of the rectangle. As a result of this determination, if the magnification is not changed, the process returns to step S103, and if the magnification is changed, the process returns to step S102.

以上のように、ステップS103からステップS108までの処理が、画像縮小部30の出力である縮小輝度画像に対して図3に示すように所定のステップにおいて縦横順次に走査が繰り返される。また、倍率が異なる縮小処理が順次適用され、ステップS102からステップS108までの処理が繰り返される。   As described above, in the processing from step S103 to step S108, the reduced luminance image output from the image reducing unit 30 is repeatedly scanned in the vertical and horizontal directions in predetermined steps as shown in FIG. In addition, reduction processes with different magnifications are sequentially applied, and the processes from step S102 to step S108 are repeated.

そして、ステップS111において、画質改善部100は、顔領域出力部90から出力されたパターンの明るさにもとづき画像入力部10によって入力された画像データの明るさの補正を行う。なお、ここでの明るさの補正は、逆光などにより顔が暗く撮影された入力画像を明るくする方向に補正を行うものである。   In step S111, the image quality improvement unit 100 corrects the brightness of the image data input by the image input unit 10 based on the brightness of the pattern output from the face area output unit 90. Note that the brightness correction here is performed in such a way as to brighten an input image captured with a dark face due to backlight or the like.

以下、第1の顔判別部(第1のパターン判別手段)60および第2の顔判別部80(第2のパターン判別手段)における顔判別の方法について詳細を説明する。
人が被写体の判別を行うときには、被写体の様々な部分の特徴に注目し、それらの特徴の中から被写体の判別に有効な特徴を組合せていると考えられる。例えば、顔の判別を行う場合は、目、口、鼻などの部分に似た特徴があるかどうかの結果を総合的に判断して、対象とするパターンが顔であるかを判定している。そこで本実施形態では被写体の特徴として多くの局所特徴量を抽出し、局所特徴量を弱判別器としてブースティング学習により性能の良い組合せ判別器を求め、被写体判別に用いることとする。
The details of the face discrimination method in the first face discriminating section (first pattern discriminating means) 60 and the second face discriminating section 80 (second pattern discriminating means) will be described below.
When a person discriminates a subject, attention is paid to characteristics of various parts of the subject, and it is considered that features effective for discrimination of the subject are combined from those features. For example, when determining a face, the result of whether or not there is a feature similar to a part such as an eye, mouth, or nose is comprehensively determined to determine whether the target pattern is a face. . Therefore, in the present embodiment, a large number of local feature amounts are extracted as subject features, a combination discriminator having good performance is obtained by boosting learning using the local feature amounts as weak discriminators, and used for subject discrimination.

本実施形態では、局所特徴量として、照合パターンのうち所定サイズ、形状の局所領域における線形識別特徴を用いる。図4は、顔領域の照合パターンの一例を示す図である。例えば、図4に示すように照合パターンFが20×20画素からなる輝度パターンであるとすると、その一部である5×5画素の正方形の局所領域Pなどである。この場合、照合パターン内の全ての位置において同様の局所領域Pを設定すれば256の局所領域が考えられる。   In the present embodiment, a linear identification feature in a local region having a predetermined size and shape is used as a local feature amount. FIG. 4 is a diagram illustrating an example of a face area matching pattern. For example, if the collation pattern F is a luminance pattern composed of 20 × 20 pixels as shown in FIG. 4, it is a 5 × 5 pixel square local region P that is a part thereof. In this case, if similar local regions P are set at all positions in the collation pattern, 256 local regions can be considered.

そして、局所特徴量としては、照合パターンのうち、顔であるパターンと非顔(顔でない)パターンの多くのサンプルを用い、各局所領域について線形識別に基づく特徴抽出カーネルを求める。最も広く知られている線形識別の方法はフィッシャーの線形識別関数であり、局所領域における顔サンプルの平均及び分散を(μO,σO 2)、非顔サンプルの平均と分散を(μN,σN 2)としたとき、以下の式1により、特徴抽出カーネルφを求める。なお、argmaxは括弧内の値を最大とするパラメータを求めるという意味であり、固有方程式を解くことによってφが得られる。
φ=argmax{(μO−μN2/(σO 2+σN 2)} ・・・(式1)
And as a local feature-value, the feature extraction kernel based on linear discrimination is calculated | required about each local region using many samples of the pattern which is a face among the collation patterns, and a non-face (non-face) pattern. The most widely known linear discriminant method is Fisher's linear discriminant function, which calculates the mean and variance of face samples in the local region (μ O , σ O 2 ) and the mean and variance of non-face samples (μ N , When σ N 2 ), the feature extraction kernel φ is obtained by the following equation 1. Note that argmax means obtaining a parameter that maximizes the value in parentheses, and φ can be obtained by solving the eigen equation.
φ = argmax {(μ O −μ N ) 2 / (σ O 2 + σ N 2 )} (Formula 1)

なお、局所特徴量として、図5のP1、P2、P3に示すように、横長の矩形、縦長の矩形など様々な形状、およびサイズの局所領域から得られたものを組合せて用いてもよい。また、元の照合パターンを縮小して様々な低解像度の照合パターンを作成し、各解像度の照合パターン中の局所特徴量を組合せて用いてもよい。   As local feature amounts, as shown by P1, P2, and P3 in FIG. 5, various shapes such as horizontally long rectangles and vertically long rectangles and sizes obtained from local regions may be used in combination. In addition, the original matching pattern may be reduced to create various low-resolution matching patterns, and the local feature amounts in the matching patterns of each resolution may be used in combination.

また、本実施形態では特徴抽出カーネルとしてフィッシャーの線形識別関数から導出されたものを用いたが、その他、線形サポートベクターマシンにより線形識別関数を求めてもよい。また、MRCを用いてもよい。また、線形識別関数に限定されるものではなく、例えばニューラル・ネットワークにより構成される非線形識別関数を用いてもよい。   In this embodiment, the feature extraction kernel is derived from Fisher's linear discriminant function, but the linear discriminant function may be obtained by a linear support vector machine. Further, MRC may be used. Further, the present invention is not limited to the linear discriminant function, and for example, a non-linear discriminant function constituted by a neural network may be used.

次に、以上の局所特徴量の中から被写体の判別に有効な特徴を組合せる方法について説明する。なお、本手法は識別特徴量の中から最初に最も識別性能の良い特徴を抽出し、その性能を補完するように別の特徴を追加していくことで性能向上を図るものでブースティング学習の考え方に基づくアルゴリズムである。図6は、局所特徴量の中から被写体の判別に有効な特徴を組合せる手順の一例を示すフローチャートである。   Next, a description will be given of a method for combining features effective for subject discrimination from the above local feature amounts. In this method, the feature with the best discrimination performance is first extracted from the discrimination feature quantity, and another feature is added to complement the performance. It is an algorithm based on the idea. FIG. 6 is a flowchart showing an example of a procedure for combining features effective for subject determination from local feature amounts.

まず、ステップS201において、学習に必要なサンプルを入力する。本実施形態では、サンプルとして顔および非顔の照合パターンを用いる。すなわち、サンプルの特徴ベクトルをxiとすると、xiは照合パターンが20×20画素の輝度パターンの場合、400の輝度データからなる400次元の特徴ベクトルということになる。また、サンプルの属するクラスをyiとし、yiは顔であるかどうかを表し、顔ならば1、非顔ならば−1の値をとるようにする。ここでiはサンプルの番号を表し、全サンプル数をNとするとき、i=1,2,・・・Nである。 First, in step S201, a sample necessary for learning is input. In this embodiment, face and non-face matching patterns are used as samples. That is, if the sample feature vector is x i , x i is a 400-dimensional feature vector composed of 400 luminance data when the collation pattern is a luminance pattern of 20 × 20 pixels. Further, the class to which the sample belongs is y i, and y i represents whether it is a face, and takes a value of 1 for a face and −1 for a non-face. Here, i represents a sample number, and i = 1, 2,... N, where N is the total number of samples.

次に、ステップS202において、サンプルの重みを均等になるように初期化する。すなわち、サンプル重みをdiとし、di=1/Nに初期化する。 In step S202, the sample weights are initialized to be equal. That is, the sample weight is d i and d i = 1 / N is initialized.

次に、ステップS203において、サンプルおよびその重みから局所特徴の抽出を行う。なお、ここで求める局所特徴は前述したように照合パターンの所定の各局所領域について線形識別により得られるφである。ただし、局所特徴の領域の定義により複数の特徴抽出カーネルφj(j=1,2,・・・M。Mは局所領域の定義領域の数)を抽出しておく。また、特徴抽出カーネルを求める際に用いる顔、非顔サンプルの平均および分散はサンプル重みを考慮して重み付けられた値を用いる。 Next, in step S203, local features are extracted from the samples and their weights. Note that the local feature obtained here is φ obtained by linear identification for each predetermined local region of the matching pattern as described above. However, a plurality of feature extraction kernels φ j (j = 1, 2,... M, where M is the number of defined regions in the local region) are extracted by defining the local feature region. The average and variance of the face and non-face samples used when obtaining the feature extraction kernel use weighted values in consideration of the sample weight.

次に、ステップS204において、各局所特徴の識別性能を、サンプルを用いて評価し、最も識別性能の良い特徴を弱判別器として抽出する。すなわち、まず、各局所特徴の特徴抽出カーネルφjを用いてサンプルxiの各局所領域に対応した局所パターン(ziとする)から特徴量uijを以下の式2のように算出する(Tはベクトルの転置を表す)。
ij=φj Ti ・・・(式2)
Next, in step S204, the discrimination performance of each local feature is evaluated using a sample, and the feature with the best discrimination performance is extracted as a weak discriminator. That is, first, using the feature extraction kernel φ j of each local feature, a feature amount u ij is calculated from the local pattern (referred to as z i ) corresponding to each local region of the sample x i as shown in the following Expression 2 ( T represents the transpose of the vector).
u ij = φ j T z i (Formula 2)

そして、特徴量のサンプル分布を所定のサイズのビンを持つヒストグラムから推定する。そして、顔サンプルから求めたヒストグラムのk番目のビンの値をW+ k、非顔サンプルから求めたヒストグラムのk番目のビンの値をW- kとするとき、以下の式3の{}内の値を最小とする局所特徴φtをM個の局所特徴の中から抽出する。なお、ここで求めるヒストグラムの値は特徴量uijが相当するビンの範囲に入るサンプル重みdiの総和である。
φt=argmin{Σk(√W+ k・W- k)} ・・・(式3)
Then, the sample distribution of the feature amount is estimated from a histogram having a bin having a predetermined size. When the value of the k th bin of the histogram obtained from the face sample is W + k and the value of the k th bin of the histogram obtained from the non-face sample is W k , The local feature φ t that minimizes the value of is extracted from the M local features. Note that the value of the histogram obtained here is the total sum of the sample weights d i within the bin range corresponding to the feature quantity u ij .
φ t = argmin {Σ k (√W + k · W k )} (Expression 3)

すなわち、φtがt=1番目の弱判別器の特徴抽出カーネルであり、弱判別器の出力は判別する被写体の信頼度を表すもので特徴量の各値に対応する顔である確率密度(頻度)と非顔である確率密度(頻度)との対数比とする。すなわち、以下の式4の値をビンのサイズ分、テーブルとする。但し、εは発散を避けるための適当な小さな定数である。
t=1/2・ln{(W+ k+ε)/(W- k+ε)} ・・・(式4)
That is, φ t is a feature extraction kernel of the first weak discriminator t = 1, and the output of the weak discriminator represents the reliability of the subject to be discriminated and is a probability density (a face corresponding to each value of the feature amount ( Frequency) and the non-face probability density (frequency). That is, the value of Equation 4 below is used as a table for the bin size. However, ε is an appropriate small constant for avoiding divergence.
h t = 1/2 · ln {(W + k + ε) / (W k + ε)} (Expression 4)

なお、式4の代わりに、以下の式5の値を出力するようにしてもよい。
t=(W+ k−W- k+ε)/(W- k+W- k+ε) ・・・(式5)
Instead of the expression 4, the value of the following expression 5 may be output.
h t = (W + k− W k + ε) / (W k + W k + ε) (Expression 5)

次に、ステップS205において、抽出した弱判別器での各サンプル出力値htiの値をもとにサンプルの重みを更新する。ここで、更新式は以下の式6にしたがう。
i=di×exp{−yi・hti} ・・・(式6)
Next, in step S205, the sample weight is updated based on the value of each sample output value h ti in the extracted weak classifier . Here, the update formula follows Formula 6 below.
d i = d i × exp {−y i · h ti } (Formula 6)

なお、式6によって抽出した弱判別器で誤判別するサンプルの重みは大きく、正判別するサンプルの重みは小さく更新される。   Note that the weight of the sample that is erroneously determined by the weak classifier extracted by Equation 6 is large, and the weight of the sample that is correctly determined is updated to be small.

次に、ステップS206において、ステップS203〜S205の処理を所定回数繰り返し、所定回数分の弱判別器を得たか否かを判別する。この判別の結果、所定回数分繰り返していない場合は、ステップS203に戻る。一方、ステップS206の判別の結果、所定回数繰り返した場合は、ステップS207に進む。そして、求めた弱判別器を組合せた判別器を出力する。すなわち、T個の弱判別器を組合せる場合には、組合せ判別器の出力Hは以下の式7のようになる。
H=Σtt (t=1,2,・・・T) ・・・(式7)
Next, in step S206, the processes in steps S203 to S205 are repeated a predetermined number of times, and it is determined whether or not a predetermined number of weak classifiers have been obtained. As a result of the determination, if the predetermined number of times has not been repeated, the process returns to step S203. On the other hand, if the result of determination in step S206 is repeated a predetermined number of times, the process proceeds to step S207. Then, a classifier combining the obtained weak classifiers is output. That is, when combining T weak discriminators, the output H of the combination discriminator is as shown in Equation 7 below.
H = Σ t h t (t = 1,2, ··· T) ··· ( Equation 7)

なお、組合せ判別器の出力Hを求めるのに必要な各弱判別器の特徴抽出カーネル、局所領域を特定する座標値および特徴抽出カーネルによって求めた特徴量を弱判別器の出力に変換する信頼度テーブルを学習結果として保存しておく。   The feature extraction kernel of each weak discriminator necessary for obtaining the output H of the combination discriminator, the coordinate value specifying the local region, and the reliability for converting the feature quantity obtained by the feature extraction kernel into the output of the weak discriminator Save the table as a learning result.

以上の学習アルゴリズムを用いて被写体判別を行う方法を以下に説明する。すなわち、以下に説明する内容は図1の第1の顔判別部60および第2の顔判別部80の処理内容である。以下、第1の顔判別部60を例に説明する。   A method for performing subject discrimination using the above learning algorithm will be described below. That is, the content described below is the processing content of the first face discriminating unit 60 and the second face discriminating unit 80 in FIG. Hereinafter, the first face determination unit 60 will be described as an example.

図7は、第1の顔判別部60の詳細な構成例を示すブロック図である。また、図8は、各弱判別器の詳細な構成例を示すブロック図である。
まず、第1の顔判別部60に入力された照合パターンは第1の弱判別器601の局所領域抽出部6011により、特徴量の算出に必要な局所領域の輝度パターンzが抽出される。そして、特徴量算出部6013は、カーネル記憶部6012に記憶されている学習によって得た特徴抽出カーネルφ1から特徴量u1を以下の式8のように算出する。
1=φ1 Tz ・・・(式8)
FIG. 7 is a block diagram illustrating a detailed configuration example of the first face determination unit 60. FIG. 8 is a block diagram showing a detailed configuration example of each weak classifier.
First, from the collation pattern input to the first face discriminating unit 60, the local region extraction unit 6011 of the first weak discriminator 601 extracts the luminance pattern z of the local region necessary for calculating the feature amount. Then, the feature amount calculation unit 6013 calculates the feature amount u 1 from the feature extraction kernel φ 1 obtained by learning stored in the kernel storage unit 6012 as shown in the following Expression 8.
u 1 = φ 1 T z (Formula 8)

そして、テーブル変換部6015は、信頼度テーブル記憶部6014のデータを参照し、求めた特徴量u1が属するビンの番号に基づいてテーブル変換により、被写体信頼度の値を第1の弱判別器601の出力とする。同様に、第2の弱判別器602から第Tの弱判別器60Tの出力が得られ、加算器6001によって総和を求め、組合せ判別器の出力とする。最後に閾値処理部6002は所定の閾値に基づいて、第1の顔判別部60の入力パターンが顔かどうかを判定し、その結果を出力する。 Then, the table conversion unit 6015 refers to the data in the reliability table storage unit 6014 and converts the subject reliability value to the first weak discriminator by table conversion based on the bin number to which the obtained feature quantity u 1 belongs. 601 output. Similarly, the output of the T-th weak discriminator 60T is obtained from the second weak discriminator 602, the sum is obtained by the adder 6001, and is used as the output of the combination discriminator. Finally, the threshold processing unit 6002 determines whether the input pattern of the first face determination unit 60 is a face based on a predetermined threshold, and outputs the result.

また、学習によって得た組合せ判別器を直列に繋ぎ、カスケード型の顔検出器を構成するのが処理速度の点では現実的である。これによると、第1の顔判別部60の構成は図7に示したものの代わりに図9に示すようなものになる。すなわち、第1の組合せ判別器61、第2の組合せ判別器62、・・・第Kの組合せ判別器6KのK個の組合せ判別器の直列接続により構成される。なお、各組合せ判別器の構成は図7示したような弱判別器の組合せからなる。   It is realistic in terms of processing speed to connect the combination classifiers obtained by learning in series to form a cascade type face detector. According to this, the configuration of the first face discriminating unit 60 is as shown in FIG. 9 instead of that shown in FIG. That is, the first combination discriminator 61, the second combination discriminator 62,..., The K combination discriminator 6K are connected in series. Note that each combination discriminator has a weak discriminator combination as shown in FIG.

なお、第2の顔判別部80においては、特に暗い顔パターンにおける誤検出パターンを精度よく除去するよう構成するため、図6に示したアルゴリズムにより以下のように学習を行う。まず、サンプルとして第1の顔判別部60で顔パターンと判別され、明るさ評価部70で暗い顔パターンであると判定された顔および非顔の照合パターンを用いる。そして、第1の顔判別部60と同様にして、ステップS201〜S206の手続きにより学習を行い、弱判別器の特徴抽出カーネル、局所領域を特定する座標値および特徴抽出カーネルによって求めた特徴量を弱判別器の出力に変換する信頼度テーブルを求める。すなわち、第2の顔判別部80においては、顔を判別するためのパラメータとして別に用意する必要はあるが、図7〜図9に示した同様の構成となる。   Note that the second face discriminating unit 80 performs learning as follows using the algorithm shown in FIG. 6 in order to accurately remove erroneous detection patterns in dark face patterns. First, as a sample, a face and non-face matching pattern determined as a face pattern by the first face determination unit 60 and determined as a dark face pattern by the brightness evaluation unit 70 is used. Similar to the first face discriminating unit 60, learning is performed by the procedure of steps S201 to S206, and the feature extraction kernel of the weak discriminator, the coordinate value specifying the local region, and the feature quantity obtained by the feature extraction kernel are obtained. A reliability table to be converted into the output of the weak classifier is obtained. That is, the second face discriminating unit 80 has the same configuration as shown in FIGS. 7 to 9 although it is necessary to prepare separately as a parameter for discriminating the face.

以上、本実施形態では、暗いパターンに対しては、特に暗い顔パターンにおける誤検出パターンを精度よく除去するよう構成しているため、画像の明るさの補正を行う画質改善処理を行う場合には、副作用の発生を大幅に抑えることができる。   As described above, the present embodiment is configured to accurately remove the erroneous detection pattern in the dark face pattern particularly for the dark pattern. Therefore, when performing the image quality improvement process for correcting the brightness of the image. The occurrence of side effects can be greatly suppressed.

もちろん、本実施形態において、第1の顔判別部60および第2の顔判別部80は以上説明したものに限定される訳ではなく、特許文献2に記載の方法、または、その他の顔判別方法を用いて構成してもよい。また、第1の顔判別部60及び第2の顔判別部80は必ずしも同じ判別方法を用いる必要はない。例えば、本実施形態で用いた方法を第1の顔判別部60で用い、特許文献2に記載の方法を第2の顔判別部80に用いてもよい。   Of course, in the present embodiment, the first face discriminating unit 60 and the second face discriminating unit 80 are not limited to those described above, and the method described in Patent Document 2 or other face discriminating methods. You may comprise using. The first face discriminating unit 60 and the second face discriminating unit 80 do not necessarily need to use the same discrimination method. For example, the method used in the present embodiment may be used in the first face determination unit 60 and the method described in Patent Document 2 may be used in the second face determination unit 80.

なお、以上の実施形態では画像から顔の検出を行い、その結果をもとに画像の明るさを補正する場合について説明したが、その他の画質改善処理を行う場合にも本発明は適用できる。例えば、画像から検出した顔領域の色を好適に補正する場合には、不適正な色の非顔パターンの誤検出率を低く抑えることによって副作用を避けることができる。すなわち、誤検出による色変換によって適正な色の人物顔の部分を悪い色に劣化させる確率を極めて低く抑えることができる。この場合には、第1の顔判別部により顔と判別されたパターンに対して画像特性として色の評価を行う。   In the above embodiment, the case where the face is detected from the image and the brightness of the image is corrected based on the result has been described. However, the present invention can also be applied to other image quality improvement processing. For example, when the color of the face area detected from the image is suitably corrected, side effects can be avoided by keeping the false detection rate of the non-face pattern of an inappropriate color low. That is, it is possible to keep the probability that a person's face part of an appropriate color will be deteriorated to a bad color by color conversion due to erroneous detection. In this case, color is evaluated as an image characteristic for the pattern determined as a face by the first face determination unit.

例えば、照合パターン内を、色情報をもとに領域分割し、もっとも大きな色領域が肌領域と推定できるので、その平均色を算出する。そして、算出した平均色と所定の色(この場合は人が好ましいと感じる肌色の中心色)とのユークリッド距離が所定の閾値以上かどうかを判定する。そして、閾値以上の平均色をもつ照合パターンに対しては、そのようなパターンを用いて学習した第2の顔判別部でさらに判別を行うようにする。   For example, the collation pattern is divided into regions based on the color information, and the largest color region can be estimated as the skin region, so the average color is calculated. Then, it is determined whether or not the Euclidean distance between the calculated average color and a predetermined color (in this case, the central color of the skin color that a person feels preferable) is greater than or equal to a predetermined threshold. Then, for a collation pattern having an average color equal to or greater than a threshold value, the second face discriminating unit learned using such a pattern is further discriminated.

なお、以上の実施形態では被写体パターンとして人物の顔を検出するようにしたが、その他の被写体のパターンであってもよい。また、本発明の方法としては、コンピュータに読み込まれたプログラムを実行することによっても実現できることは当然である。   In the above embodiment, the human face is detected as the subject pattern, but other subject patterns may be used. Of course, the method of the present invention can also be realized by executing a program loaded in a computer.

(本発明に係る他の実施形態)
前述した本発明の実施形態における画像処理装置を構成する各手段、並びに画像処理方法の各工程は、コンピュータのRAMやROMなどに記憶されたプログラムが動作することによって実現できる。このプログラム及び前記プログラムを記録(記憶)したコンピュータ読み取り可能な記録媒体(記憶媒体)は本発明に含まれる。
(Other embodiments according to the present invention)
Each means constituting the image processing apparatus and each step of the image processing method in the embodiment of the present invention described above can be realized by operating a program stored in a RAM or ROM of a computer. This program and a computer-readable recording medium (storage medium) recording (storing) the program are included in the present invention.

また、本発明は、例えば、システム、装置、方法、プログラムもしくは記録媒体(記憶媒体)等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。   In addition, the present invention can be implemented as a system, apparatus, method, program, recording medium (storage medium), or the like, and can be applied to a system including a plurality of devices. It may also be applied to an apparatus consisting of a single device.

なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図2、図6に示すフローチャートに対応したプログラム)を、システムまたは装置に直接、または遠隔から供給する場合も含む。そして、そのシステムまたは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。   In the present invention, a software program for realizing the functions of the above-described embodiments (in the embodiment, a program corresponding to the flowcharts shown in FIGS. 2 and 6) may be directly or remotely supplied to the system or apparatus. Including. This includes the case where the system or the computer of the apparatus is also achieved by reading and executing the supplied program code.

したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, and the like.

プログラムを供給するための記録媒体(記憶媒体)としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどがある。さらに、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM、DVD−R)などもある。   Examples of the recording medium (storage medium) for supplying the program include a flexible disk, a hard disk, an optical disk, and a magneto-optical disk. Further, there are MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R) and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する方法がある。そして、前記ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体(記憶媒体)にダウンロードすることによっても供給できる。   As another program supply method, there is a method of connecting to a homepage on the Internet using a browser of a client computer. Further, the computer program itself of the present invention or a compressed file including an automatic installation function can be downloaded from the homepage by downloading it to a recording medium (storage medium) such as a hard disk.

また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, the present invention includes a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer.

また、その他の方法として、本発明のプログラムを暗号化してCD−ROM等の記録媒体(記憶媒体)に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   As another method, the program of the present invention is encrypted, stored in a recording medium (storage medium) such as a CD-ROM, distributed to users, and a homepage is established via the Internet for users who have cleared predetermined conditions. Download key information to decrypt from. It is also possible to execute the encrypted program by using the key information and install the program on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。さらに、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Further, the functions of the above-described embodiments are realized by the computer executing the read program. Furthermore, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can be realized by the processing.

さらに、その他の方法として、まず記録媒体(記憶媒体)から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。そして、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現される。   Furthermore, as another method, a program read from a recording medium (storage medium) is first written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Then, based on the instructions of the program, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are also realized by the processing.

40 照合パターン抽出部、60 第1の顔判別部、70 明るさ評価部、80 第2の顔判別部 40 collation pattern extraction unit, 60 first face discrimination unit, 70 brightness evaluation unit, 80 second face discrimination unit

Claims (7)

画像から所定の被写体パターンを検出する画像処理装置であって、
画像から前記被写体パターンと照合するための所定の部分領域を抽出する照合パターン抽出手段と、
前記照合パターン抽出手段によって抽出された部分領域が前記被写体パターンであるか否かを判別する第1のパターン判別手段と、
前記第1のパターン判別手段によって前記被写体パターンであると判別された前記部分領域の画像特性を評価する評価手段と、
前記評価手段による評価結果に基づいて前記部分領域について前記被写体パターンであるか否かを判別する第2のパターン判別手段とを備えたことを特徴とする画像処理装置。
An image processing apparatus for detecting a predetermined subject pattern from an image,
Collation pattern extraction means for extracting a predetermined partial region for collation with the subject pattern from an image;
First pattern determining means for determining whether or not the partial area extracted by the matching pattern extracting means is the subject pattern;
Evaluation means for evaluating image characteristics of the partial area determined to be the subject pattern by the first pattern determination means;
An image processing apparatus comprising: a second pattern determining unit that determines whether the partial area is the subject pattern based on an evaluation result by the evaluating unit.
前記被写体パターンの検出結果をもとに前記画像の画像特性を変換することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein image characteristics of the image are converted based on a detection result of the subject pattern. 前記画像特性は画像の明るさであることを特徴とする請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image characteristic is image brightness. 前記画像特性は画像の色であることを特徴とする請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image characteristic is a color of an image. 前記被写体が顔であることを特徴とする請求項1〜4の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the subject is a face. 画像から所定の被写体パターンを検出する画像処理方法であって、
画像から前記被写体パターンと照合するための所定の部分領域を抽出する照合パターン抽出ステップと、
前記照合パターン抽出ステップにより抽出された部分領域が前記被写体パターンであるか否かを判別する第1のパターン判別ステップと、
前記第1のパターン判別ステップによって前記被写体パターンであると判別された前記部分領域の画像特性を評価する評価ステップと、
前記評価ステップにおける評価結果に基づいて前記部分領域について前記被写体パターンであるか否かを判別する第2のパターン判別ステップとを備えたことを特徴とする画像処理方法。
An image processing method for detecting a predetermined subject pattern from an image,
A matching pattern extraction step for extracting a predetermined partial region for matching with the subject pattern from an image;
A first pattern determining step for determining whether or not the partial area extracted by the matching pattern extracting step is the subject pattern;
An evaluation step for evaluating an image characteristic of the partial area determined to be the subject pattern by the first pattern determination step;
An image processing method comprising: a second pattern discrimination step for discriminating whether or not the partial area is the subject pattern based on an evaluation result in the evaluation step.
請求項6に記載の画像処理方法の各ステップをコンピュータに実行させるためのプログラム。   A program for causing a computer to execute each step of the image processing method according to claim 6.
JP2009108182A 2009-04-27 2009-04-27 Image processing apparatus and method, and program Pending JP2010257324A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009108182A JP2010257324A (en) 2009-04-27 2009-04-27 Image processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009108182A JP2010257324A (en) 2009-04-27 2009-04-27 Image processing apparatus and method, and program

Publications (1)

Publication Number Publication Date
JP2010257324A true JP2010257324A (en) 2010-11-11

Family

ID=43318137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009108182A Pending JP2010257324A (en) 2009-04-27 2009-04-27 Image processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP2010257324A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107403165A (en) * 2017-08-01 2017-11-28 杰创智能科技股份有限公司 The data management framework and application method of intelligent face recognition system
WO2018159037A1 (en) * 2017-03-01 2018-09-07 オムロン株式会社 Facial detection device, and control method and program for same

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018159037A1 (en) * 2017-03-01 2018-09-07 オムロン株式会社 Facial detection device, and control method and program for same
JP2018147046A (en) * 2017-03-01 2018-09-20 オムロン株式会社 Face detection device and method for controlling the same
CN107403165A (en) * 2017-08-01 2017-11-28 杰创智能科技股份有限公司 The data management framework and application method of intelligent face recognition system
CN107403165B (en) * 2017-08-01 2021-12-24 杰创智能科技股份有限公司 Data management architecture of intelligent face recognition system and use method

Similar Documents

Publication Publication Date Title
JP5010905B2 (en) Face recognition device
Spreeuwers et al. Towards robust evaluation of face morphing detection
US7840037B2 (en) Adaptive scanning for performance enhancement in image detection systems
JP5202148B2 (en) Image processing apparatus, image processing method, and computer program
US20080219516A1 (en) Image matching apparatus, image matching method, computer program and computer-readable storage medium
US20070036429A1 (en) Method, apparatus, and program for object detection in digital image
CN110838119B (en) Human face image quality evaluation method, computer device and computer readable storage medium
JP2007226424A (en) Feature point detecting method, device and program
JP2004086891A (en) Object detection method in digital image
JP2008102611A (en) Image processor
JP2007257087A (en) Skin color area detecting device and skin color area detecting method
JP5578816B2 (en) Image processing device
JP4795864B2 (en) Feature point detection apparatus and method, and program
CN111553838A (en) Model parameter updating method, device, equipment and storage medium
JP2005309765A (en) Image recognition device, image extraction device, image extraction method and program
JP2009140369A (en) Group learning device and group learning method, object detection device and object detection method, and computer program
JP2007025902A (en) Image processor and image processing method
JP2010176504A (en) Image processor, image processing method, and program
KR101408344B1 (en) Apparatus for detecting face
Scherhag et al. Face morphing attack detection methods
CN112200075A (en) Face anti-counterfeiting method based on anomaly detection
JP2006323779A (en) Image processing method and device
JP2010257324A (en) Image processing apparatus and method, and program
JP2006343989A (en) Image processing device, image processing method, and image processing program
JP2005316743A (en) Image processing method and device