JP2007102286A - Specific image detection device, method, and program - Google Patents

Specific image detection device, method, and program Download PDF

Info

Publication number
JP2007102286A
JP2007102286A JP2005287628A JP2005287628A JP2007102286A JP 2007102286 A JP2007102286 A JP 2007102286A JP 2005287628 A JP2005287628 A JP 2005287628A JP 2005287628 A JP2005287628 A JP 2005287628A JP 2007102286 A JP2007102286 A JP 2007102286A
Authority
JP
Japan
Prior art keywords
image
image data
specific image
detection
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005287628A
Other languages
Japanese (ja)
Other versions
JP2007102286A5 (en
JP4765523B2 (en
Inventor
Yasuo Kasai
庸雄 河西
Hirokazu Kasahara
広和 笠原
Yoshiori Matsumoto
佳織 松本
Kenji Matsuzaka
健治 松坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2005287628A priority Critical patent/JP4765523B2/en
Publication of JP2007102286A publication Critical patent/JP2007102286A/en
Publication of JP2007102286A5 publication Critical patent/JP2007102286A5/ja
Application granted granted Critical
Publication of JP4765523B2 publication Critical patent/JP4765523B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To efficiently detect a specific image in image data. <P>SOLUTION: In Step S120, a detection area DB 13c is sequentially searched for combinations of position (X, Y) and size S in descending order of probability B of face image detection, and in Step S130, selection areas C are set in descending order of probability B of face image detection. In Step S140, face image detection is performed in the selection areas C in descending order of probability B of face image detection. The detection of a face image in any selection area C can conclude face image detection in image data 13b and end the processing to prevent feature information extraction and template matching in selection areas C in such positions of normal image data 13b as have almost no face images. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、特定画像検出装置、特定画像検出方法および特定画像検出プログラムに関する。   The present invention relates to a specific image detection device, a specific image detection method, and a specific image detection program.

従来より画像データに含まれる特定の画像を検出することが行われている。特に、デジタルスチルカメラやスキャナによって撮像された顔画像の有無を指標として、写真データを整理したり修整したり印刷することが行われ、画像データにおいて顔画像を検出する手法が提案されている。特許文献1においては、標本となる顔画像から得られる特徴ベクトルをSVM(サポートベクタマシン)に学習させておき、対象の画像データから得られた特徴ベクトルが識別超平面に対していずれかの領域に属するかによって顔画像の有無を判別するものが開示されている。また、特許文献2においては、顔画像の可変テンプレートを用意し、この可変テンプレートと対象の画像データとをマッチングすることにより、顔画像の有無を判別するものが開示されている。
前者の構成によれば統計的手法に基づいて顔画像の有無を精度よく判別することが可能であり、後者の構成によれば表情が変動する場合でも顔画像の有無を判別することが可能であった。
特開2005−134966号公報 特開2005−149302号公報
Conventionally, a specific image included in image data has been detected. In particular, there has been proposed a method for organizing, modifying, and printing photographic data, using the presence or absence of a face image taken by a digital still camera or a scanner as an index, and detecting a face image in the image data. In Patent Document 1, a feature vector obtained from a face image as a sample is learned by an SVM (support vector machine), and the feature vector obtained from target image data is in any region with respect to the identification hyperplane. That determines whether or not a face image exists is disclosed. Japanese Patent Application Laid-Open No. 2003-228561 discloses a technique for determining the presence or absence of a face image by preparing a variable template for a face image and matching the variable template with target image data.
According to the former configuration, it is possible to accurately determine the presence / absence of a face image based on a statistical method, and according to the latter configuration, it is possible to determine the presence / absence of a face image even when the facial expression changes. there were.
JP 2005-134966 A JP 2005-149302 A

しかしながら、上述した技術において画像データの全体について顔画像の検出を行うことは非効率的であった。すなわち、画像データにおいて顔画像が含まれる領域はごく一部に過ぎないため、全体にわたって顔画像の検出を行うと、ほとんどの処理が無駄に行われ、効率が悪いという課題があった。
本発明は、効率よく画像データから特定画像を検出することが可能な特定画像検出装置、特定画像検出方法および特定画像検出プログラムの提供を目的とする。
However, it is inefficient to detect a face image for the entire image data in the above-described technique. That is, only a small part of the image data includes a face image. Therefore, when the face image is detected over the entire area, most of the processing is wasted and the efficiency is low.
An object of the present invention is to provide a specific image detection apparatus, a specific image detection method, and a specific image detection program that can efficiently detect a specific image from image data.

課題を解決するための手段および発明の効果Means for Solving the Problems and Effects of the Invention

上記課題を解決するため請求項1にかかる発明では、検出手段が上記画像データにおける選択領域ごとに特定画像を順に検出していく。この検出手段が順に上記特定画像の検出を行う上記選択領域は、領域設定手段によって順に設定される。そして、上記領域設定手段は、サンプル画像データについて上記特定画像を検出した統計情報に基づいて上記選択領域を設定する。すなわち、上記画像データにおけるどの選択領域から上記特定画像を検出するかが、予めサンプル画像データについて上記特定画像を検出した統計情報に基づいて設定される。統計的な情報に基づいて上記選択領域が設定されるため、統計的根拠に基づいて効率よい上記選定領域の順序を設定することができる。従って、無駄な処理が防止され、上記検出手段による上記特定画像の検出を効率よく行うことができる。   In order to solve the above-mentioned problem, in the invention according to claim 1, the detecting means sequentially detects the specific image for each selected region in the image data. The selection areas in which the detection means detects the specific images in order are set in order by the area setting means. Then, the region setting means sets the selection region based on statistical information obtained by detecting the specific image for the sample image data. That is, from which selection region in the image data the specific image is detected is set based on statistical information obtained by detecting the specific image for the sample image data in advance. Since the selection area is set based on statistical information, an efficient order of the selection areas can be set based on a statistical basis. Therefore, useless processing is prevented, and the specific image can be efficiently detected by the detection means.

また、上記領域設定手段が上記選択領域を設定する順序の好適な一例として、請求項2にかかる発明では、上記領域設定手段が上記統計情報において上記特定画像が検出される確率が高い順に上記選択領域を設定する。これにより、上記特定画像が検出される確率が高い上記選択領域から順に上記検出手段が上記特定画像の検出を行うことができ、早期に同特定画像を検出することが可能となる。   As a preferred example of the order in which the region setting unit sets the selection region, in the invention according to claim 2, the region setting unit selects the selection in descending order of the probability that the specific image is detected in the statistical information. Set the area. Thereby, the detection means can detect the specific image in order from the selection region where the probability that the specific image is detected is high, and the specific image can be detected at an early stage.

さらに、上記統計情報の好適な一例として、請求項3にかかる発明では、上記統計情報において、上記画像データにおける上記選択領域の相対的な位置ごとに区分して上記特定画像が検出される確率が統計される。上記画像データにおける上記選択領域の位置ごとに上記特定画像が検出される確率が統計され、同確率が高い順に同選択領域が設定される。すなわち、上記特定画像が検出される確率が高い位置の上記選択領域が順に設定される。上記画像データにおける上記特定画像の存在位置に統計的な傾向がある場合には、効率よく上記特定画像の検出を行うことができる。   Further, as a preferred example of the statistical information, in the invention according to claim 3, in the statistical information, there is a probability that the specific image is detected separately for each relative position of the selected region in the image data. Be statistics. The probability that the specific image is detected for each position of the selection area in the image data is statistically determined, and the selection area is set in descending order of the probability. That is, the selection areas at positions where the probability that the specific image is detected is high are set in order. When there is a statistical tendency in the position of the specific image in the image data, the specific image can be detected efficiently.

また、上記統計情報の好適な一例として、請求項4にかかる発明では、上記統計情報において、上記画像データにおける上記選択領域の相対的なサイズごとに区分して上記特定画像が検出される確率が統計される。上記画像データにおける上記選択領域のサイズごとに上記特定画像が検出される確率が統計され、同確率が高い順に同選択領域が設定される。すなわち、上記特定画像が検出される確率が高くなる大きさの上記選択領域が順に設定される。上記画像データにおける上記特定画像のサイズに統計的な傾向がある場合には、効率よく上記特定画像の検出を行うことができる。   As a preferred example of the statistical information, in the invention according to claim 4, in the statistical information, there is a probability that the specific image is detected separately for each relative size of the selected region in the image data. Be statistics. The probability that the specific image is detected for each size of the selection area in the image data is statistically determined, and the selection area is set in descending order of the probability. That is, the selection areas having a size that increases the probability that the specific image is detected are sequentially set. When the size of the specific image in the image data has a statistical tendency, the specific image can be detected efficiently.

さらに、複数の上記特定画像を検出する場合の好適な検出手法の一例として、請求項5にかかる発明では、最初の上記特定画像がある選択領域で検出された場合、他の上記特定画像を続けて検出することとなる。その際に、上記領域設定手段は、先に上記特定画像が検出された上記選択領域と同じサイズの他の上記選択領域を優先的に設定する。すなわち、同一の上記画像データにおいて複数の上記特定画像は同一のサイズで存在する可能性が高いため、当該特定画像が検出された当該選択領域と同サイズの他の上記選択領域にて他の上記特定画像が検出される確率が高いものとなる。従って、当該特定画像が検出された当該選択領域と同サイズの他の上記選択領域から優先的に検出することにより、効率よく上記特定画像を検出することができる。   Furthermore, as an example of a suitable detection method for detecting a plurality of the specific images, in the invention according to claim 5, when the first specific image is detected in a selected area, the other specific images are continued. Will be detected. At that time, the area setting means preferentially sets another selection area having the same size as the selection area in which the specific image has been previously detected. In other words, since there is a high possibility that a plurality of the specific images exist in the same size in the same image data, the other selected regions having the same size as the selected region in which the specific image is detected have another The probability that a specific image is detected is high. Therefore, the specific image can be efficiently detected by preferentially detecting the other selected area having the same size as the selected area where the specific image is detected.

また、複数の上記特定画像を検出する場合の好適な検出手法の別な一例として、請求項6にかかる発明では、上記領域設定手段は、先に上記特定画像が検出された上記選択領域のサイズとの差が小さいサイズを有する他の上記選択領域を優先的に設定する。すなわち、同一の上記画像データにおいて複数の上記特定画像は似たようなサイズで存在する可能性が高いため、当該特定画像が検出された当該選択領域と近いサイズの他の上記選択領域にて他の上記特定画像が検出される確率が高いものとなる。従って、当該特定画像が検出された当該選択領域のサイズとの差が小さいサイズを有する他の上記選択領域から優先的に検出することにより、効率よく上記特定画像を検出することができる。   As another example of a suitable detection method for detecting a plurality of the specific images, in the invention according to claim 6, the area setting unit is configured such that the size of the selection area in which the specific images are detected first. The other selected areas having a size with a small difference from the above are preferentially set. That is, in the same image data, there is a high possibility that a plurality of the specific images exist in similar sizes. Therefore, other specific regions having a size close to the selected region where the specific image is detected may be used. There is a high probability that the specific image will be detected. Therefore, the specific image can be detected efficiently by preferentially detecting from the other selected areas having a small difference from the size of the selected area where the specific image is detected.

一方、上記検出手段において上記特定画像の検出を行う手法の好適な一例として、請求項7にかかる発明では、上記検出手段は、上記選択領域から抽出された特徴情報を、上記特定画像のテンプレートと比較する。なお、上記特徴情報を比較する手法としては種々のものが採用でき、例えばSVMを用いれば複数の特徴量の多変量解析を行うことにより精度よく上記特手画像の有無を判定することができる。   On the other hand, as a preferred example of the method for detecting the specific image in the detection means, in the invention according to claim 7, the detection means uses the feature information extracted from the selection area as a template of the specific image. Compare. Various methods can be employed for comparing the feature information. For example, if SVM is used, the presence or absence of the special-purpose image can be accurately determined by performing multivariate analysis of a plurality of feature amounts.

さらに、請求項8にかかる発明では、上記特定画像が人間の顔画像とされる。これにより、上記画像データに含まれる人間の顔画像を検出することができる。ポートレート写真など上記画像データにおいて人間の顔画像が配置される位置やサイズには傾向があるということができる。従って、上記統計情報に基づいて上記選択領域を設定することにより、効率的に顔画像を検出することができる。   In the invention according to claim 8, the specific image is a human face image. Thereby, a human face image included in the image data can be detected. It can be said that there is a tendency in the position and size where the human face image is arranged in the image data such as a portrait photograph. Therefore, the face image can be efficiently detected by setting the selection area based on the statistical information.

むろん、以上の発明は、装置のみならず、請求項9のような特定画像検出方法によって実現することも可能であるし、請求項10のように上記方法に従った処理を実行する特定画像検出プログラムによって実現することも可能である。また、本発明にかかる装置、方法、プログラムは単独で実施される場合もあるし、ある機器に組み込まれた状態で他の装置、方法、プログラムとともに実施されることもあるなど、発明の思想としてはこれに限らず、各種の態様を含むものであり、適宜、変更可能である。例えば、本発明の特定画像検出装置がデジタルスチルカメラ等の画像入力機器に組み込まれていてもよい。さらに、本発明の特定画像検出プログラムをプリンタドライバやフォトレタッチプログラムや画像データ管理プログラムに組み込んで機能させてもよい。プリンタドライバやフォトレタッチプログラムにおいては顔画像の有無によって適切な画像修整の手法を切り換えることができるし、画像データ管理プログラムにおいては顔画像の有無によって画像データの整理を行うことができ、利便性がよい。   Of course, the above invention can be realized not only by the apparatus but also by the specific image detection method as in claim 9, and the specific image detection for executing the processing according to the method as in claim 10. It can also be realized by a program. In addition, the idea of the invention is that the apparatus, method, and program according to the present invention may be implemented independently, or may be implemented together with other apparatuses, methods, and programs while being incorporated in a certain device. Is not limited to this, and includes various aspects, and can be changed as appropriate. For example, the specific image detection apparatus of the present invention may be incorporated in an image input device such as a digital still camera. Furthermore, the specific image detection program of the present invention may be incorporated into a printer driver, a photo retouch program, or an image data management program to function. In the printer driver and photo retouch program, the appropriate image modification method can be switched depending on the presence / absence of a face image, and in the image data management program, image data can be organized depending on the presence / absence of a face image. Good.

さらに、本発明のプログラムを記録した記録媒体として提供することも可能である。このプログラムの記録媒体は、磁気記録媒体であってもよいし光磁気記録媒体であってもよいし、今後開発されるいかなる記録媒体においても全く同様に考えることができる。また、一次複製品、二次複製品などの複製段階については全く問う余地無く同等である。さらに、一部がソフトウェアであって、一部がハードウェアで実現されている場合においても発明の思想において全く異なるものではなく、一部を記録媒体上に記憶しておいて必要に応じて適宜読み込まれるような形態のものとしてあってもよい。また、必ずしも全部の機能を単独のプログラムで実現するのではなく、複数のプログラムにて実現させるようなものであってもよい。この場合、各機能を複数のコンピュータに実現させるものであればよい。   Further, it can be provided as a recording medium on which the program of the present invention is recorded. The recording medium for this program may be a magnetic recording medium, a magneto-optical recording medium, or any recording medium that will be developed in the future. In addition, the duplication stages such as the primary duplication product and the secondary duplication product are equivalent without any question. Further, even when a part is software and a part is realized by hardware, the idea of the invention is not completely different, and a part is stored on a recording medium and is appropriately changed as necessary. It may be in the form of being read. In addition, not all functions are necessarily realized by a single program, but may be realized by a plurality of programs. In this case, what is necessary is just to make each function implement | achieve in a some computer.

ここでは、下記の順序に従って本発明の実施形態について説明する。
(1)コンピュータの構成:
(2)顔画像検出処理の流れ:
(3)変形例:
(4)まとめ:
Here, embodiments of the present invention will be described in the following order.
(1) Computer configuration:
(2) Flow of face image detection processing:
(3) Modification:
(4) Summary:

(1)コンピュータの構成:
図1は、本発明の特定画像検出装置としてのコンピュータの概略構成を示している。同図において、コンピュータ10には、内部バス10aによって接続されたCPU11とRAM12とHDD13とUSBインターフェイス(I/F)14と入力機器インターフェイス(I/F)15とビデオインターフェイス(I/F)16とが備えられており、HDD13には各種プログラムデータ13aと複数の画像データ13bと検出領域データベース(DB)13cとテンプレートデータ13dが記憶されている。CPU11は、このプログラムデータ13aを読み出して、同プログラムデータ13aに基づいた処理をRAM12をワークエリアとして利用しながら実行する。USBインターフェイス(I/F)14にはプリンタ20とデジタルスチルカメラ30が接続されており、入力機器インターフェイス15にはマウス40およびキーボード50が接続されている。さらに、ビデオインターフェイス(I/F)16にはディスプレイ60が接続されている。
(1) Computer configuration:
FIG. 1 shows a schematic configuration of a computer as a specific image detection apparatus of the present invention. In FIG. 1, a computer 10 includes a CPU 11, a RAM 12, an HDD 13, a USB interface (I / F) 14, an input device interface (I / F) 15, and a video interface (I / F) 16 connected by an internal bus 10a. The HDD 13 stores various program data 13a, a plurality of image data 13b, a detection area database (DB) 13c, and template data 13d. The CPU 11 reads out the program data 13a and executes processing based on the program data 13a while using the RAM 12 as a work area. A printer 20 and a digital still camera 30 are connected to the USB interface (I / F) 14, and a mouse 40 and a keyboard 50 are connected to the input device interface 15. Further, a display 60 is connected to the video interface (I / F) 16.

図2は、コンピュータ10にて実行されるプログラムのソフトウェア構成を示している。同図において、オペレーティングシステム(O/S)P1が実行されており、同O/S P1上にてアプリケーションP2とプリンタドライバP3が実行されている。アプリケーションP2は、HDD13からユーザーが所望する画像データ13bを取得するとともに、同画像データ13bについてのユーザーからの印刷実行指示をマウス40やキーボード50を介して受け付ける。なお、画像データ13bは、予めデジタルスチルカメラ30からUSBI/F14を介してHDD13に取り込まれている。むろん、他のスキャナ等の画像入力機器から読み込まれるものであってもよいし、ネットワークや各種記録媒体から読みとられるものであってもよい。アプリケーションP2は、印刷実行指示を受け付けると、プリンタドライバP3に対して画像データ13bを受け渡す。   FIG. 2 shows a software configuration of a program executed on the computer 10. In the figure, an operating system (O / S) P1 is executed, and an application P2 and a printer driver P3 are executed on the O / S P1. The application P2 acquires image data 13b desired by the user from the HDD 13, and accepts a print execution instruction from the user for the image data 13b via the mouse 40 and the keyboard 50. Note that the image data 13b is taken in from the digital still camera 30 to the HDD 13 via the USB I / F 14 in advance. Of course, it may be read from another image input device such as a scanner, or may be read from a network or various recording media. When receiving the print execution instruction, the application P2 transfers the image data 13b to the printer driver P3.

プリンタドライバP3は、画像データ取得部P3aと領域設定部P3bと検出部P3cと判定部P3dと画像修整部P3eと印刷データ生成部P3fとから構成され、さらに検出部P3cは特徴情報取得部P3c1とテンプレート比較部P3c2とから構成されている。画像データ取得部P3aは、アプリケーションP2から画像データ13bを取得する。領域設定部P3bはHDD13に記憶された検出領域DB13cを取得する。そして、領域設定部P3bは、検出領域DB13cに基づいて選択領域の位置およびサイズを設定する。   The printer driver P3 includes an image data acquisition unit P3a, an area setting unit P3b, a detection unit P3c, a determination unit P3d, an image modification unit P3e, and a print data generation unit P3f, and the detection unit P3c further includes a feature information acquisition unit P3c1. It comprises a template comparison unit P3c2. The image data acquisition unit P3a acquires the image data 13b from the application P2. The area setting unit P3b acquires the detection area DB 13c stored in the HDD 13. Then, the area setting unit P3b sets the position and size of the selected area based on the detection area DB 13c.

図3は、検出領域DB13cの内容を示している。検出領域DB13cは、顔画像が含まれる多数のサンプル画像データをランダムを選択し、そのサンプル画像データにおいて顔画像がどの位置にどのサイズで存在しているかという情報が蓄積することにより作成される。同図において、検出領域DB13cには、各位置(X,Y)においてどのようなサイズSの顔画像がどれだけの頻度Aで検出されたかが記述されている。また、頻度Aを、全サンプル画像データから検出されたすべての顔画像数で除算することにより、確率Bが算出されている。すなわち、各位置(X,Y)とサイズSとの組み合わせについて、それぞれ顔画像が検出される確率Bが統計されている。   FIG. 3 shows the contents of the detection area DB 13c. The detection area DB 13c is created by randomly selecting a large number of sample image data including a face image, and accumulating information on which position and size of the face image exists in the sample image data. In the figure, the detection area DB 13c describes what size S face image is detected at what frequency A at each position (X, Y). The probability B is calculated by dividing the frequency A by the number of all face images detected from all sample image data. That is, for each combination of position (X, Y) and size S, the probability B that a face image is detected is statistically calculated.

なお、位置(X,Y)はそれぞれ1〜20までの20階調によって表されている。顔画像の中心画素の横および縦の画素座標を、サンプル画像データの横および縦の画素数で除算することにより、サンプル画像データにおける顔画像の中心画素の相対位置を算出する。そして、算出された相対位置を5%ずつの階調幅に区切られた20階調に割り振ることにより、統計的に扱うことができる離散的な位置(X,Y)を得ている。例えば、中心画素の相対位置がサンプル画像データの左端から0〜5%の顔画像については階調0(代表値5%)が与えられ、同左端から95〜100%の顔画像については階調19(代表値100%)が与えられる。   The position (X, Y) is represented by 20 gradations from 1 to 20, respectively. By dividing the horizontal and vertical pixel coordinates of the center pixel of the face image by the number of horizontal and vertical pixels of the sample image data, the relative position of the center pixel of the face image in the sample image data is calculated. Then, by assigning the calculated relative position to 20 gradations divided into 5% gradation widths, a discrete position (X, Y) that can be statistically processed is obtained. For example, for a face image whose relative position of the center pixel is 0 to 5% from the left end of the sample image data, gradation 0 (representative value 5%) is given, and for a face image whose relative position is 95 to 100% from the left end, gradation is given. 19 (representative value 100%) is given.

同様に、顔画像のサイズSも小さい順に1〜3までの3階調によって表されている。顔画像の直径の画素数を、サンプル画像データの横または縦の画素数で除算することにより、サンプル画像データにおける顔画像の相対サイズを算出する。そして、算出された相対サイズを所定の階調区間に区切られた3階調に割り振ることにより、統計的に扱うことができる離散的なサイズSを得ている。サイズSの各階調についても、各階調区間の代表値がサンプル画像データの全体のサイズに対する相対的な値として用意されている。例えば、サイズSが1〜3階調に対して、それぞれ代表値20%,50%,70%が設定される。   Similarly, the size S of the face image is represented by three gradations from 1 to 3 in ascending order. The relative size of the face image in the sample image data is calculated by dividing the number of pixels of the diameter of the face image by the number of pixels in the horizontal or vertical direction of the sample image data. A discrete size S that can be treated statistically is obtained by assigning the calculated relative size to three gradations divided into predetermined gradation intervals. For each gradation of size S, the representative value of each gradation section is prepared as a relative value with respect to the overall size of the sample image data. For example, representative values of 20%, 50%, and 70% are set for size S of 1 to 3 gradations, respectively.

なお、顔画像が占める部分の面積のサンプル画像データ全体の面積に対する割合に基づいてサイズSを算出してもよい。位置(X,Y)はそれぞれ20階調設けられ、サイズSは3階調設けられるため、位置(X,Y)とサイズSの組み合わせは1200とおり考えられることとなる。サンプル画像データにおける顔画像は、その大きさと位置に基づいて、1200とおり位置(X,Y)とサイズSのいずれかの組み合わせに帰属させられ、該当する組み合わせについて頻度が1加算される。このように、検出領域DB13cは、サンプル画像データから検出された顔画像について統計されたものであり、本発明における統計情報に相当する。   Note that the size S may be calculated based on the ratio of the area occupied by the face image to the area of the entire sample image data. Since each of the positions (X, Y) is provided with 20 gradations and the size S is provided with 3 gradations, 1200 combinations of the positions (X, Y) and the sizes S are considered. Based on the size and position of the face image in the sample image data, the face image is attributed to any one of 1200 combinations of position (X, Y) and size S, and the frequency is added by 1 for the corresponding combination. As described above, the detection area DB 13c is statistically obtained with respect to the face image detected from the sample image data, and corresponds to the statistical information in the present invention.

以上のような検出領域DB13cを領域設定部P3bが取得し、検出領域DB13cから最も確率Bが高い位置(X,Y)とサイズSの組み合わせを検索する。そして、相対的な位置(X,Y)とサイズSの代表値に画像データ取得部P3aが取得した画像データ13bの縦および横の画素数を乗算することにより、画像データ13bのサイズに相応する選択領域を特定する。すなわち、選択領域は画像データ13bにおいて最も顔画像が検出される確率Bが高い位置およびサイズで設定されることとなる。なお、図3に示すように検出領域DB13cは確率Bが高い順にソートされているため、最も上の欄に記述された高い位置(X,Y)とサイズSの組み合わせが最初に検索される。   The region setting unit P3b acquires the detection region DB 13c as described above, and searches the detection region DB 13c for the combination of the position (X, Y) and the size S with the highest probability B. Then, by multiplying the representative value of the relative position (X, Y) and size S by the number of vertical and horizontal pixels of the image data 13b acquired by the image data acquisition unit P3a, it corresponds to the size of the image data 13b. Identify the selection area. In other words, the selected region is set at a position and size with the highest probability B that a face image is detected in the image data 13b. As shown in FIG. 3, since the detection area DB 13c is sorted in descending order of the probability B, the combination of the high position (X, Y) and the size S described in the uppermost column is searched first.

特徴情報取得部P3c1は領域設定部P3bが設定した選択領域のサイズおよび位置を取得する。そして、画像データ13bにおける選択領域に属するデータを抽出し、所定の特徴情報を抽出する。具体的には、画像データ13bにおける選択領域に属するデータについてエッジ検出や2値化等を行うことにより、顔の各部の候補となる輪郭を検出し、同検出した顔の各部の候補の大きさや位置等の形状を表す一群の特徴量を特徴情報として抽出する。例えば、口と予想される画素群がどの位置にどれぐらいの大きさで存在しているかといったパラメータが特徴量として抽出される。そして、特徴情報取得部P3c1は、このような特徴量の一群を特徴情報としてテンプレート比較部P3c2に受け渡す。   The feature information acquisition unit P3c1 acquires the size and position of the selected region set by the region setting unit P3b. Then, data belonging to the selected area in the image data 13b is extracted, and predetermined feature information is extracted. Specifically, edge detection or binarization is performed on the data belonging to the selected region in the image data 13b to detect contours that are candidates for each part of the face. A group of feature amounts representing a shape such as a position is extracted as feature information. For example, a parameter indicating at what position and in what size a pixel group expected to be a mouth is extracted as a feature amount. Then, the feature information acquisition unit P3c1 transfers such a group of feature amounts to the template comparison unit P3c2 as feature information.

テンプレート比較部P3c2は、特徴情報取得部P3c1から特徴情報を取得するとともに、HDD13からテンプレートデータ13dを取得する。テンプレートデータ13dは、多数のサンプル顔画像から予め抽出した特徴情報が蓄積されたデータベースである。テンプレート比較部P3c2は、特徴情報取得部P3c1が画像データ13bから抽出した特徴情報と、テンプレートデータ13dに格納されたサンプル顔画像の特徴情報とを比較し、両者が似た傾向を示せば、当該画像データ13bの選択領域から顔画像が検出できたと判定する。すなわち、テンプレートデータ13dは特徴情報を比較することにより、画像データ13bの選択領域と多数のサンプル顔画像とのパターンマッチングを行っていることとなる。画像データ13bの選択領域に顔画像が含まれれば、当該選択領域からサンプル顔画像から得られた特徴情報と似た傾向の特徴情報が得られると予測できるため、特徴情報が似ていれば当該選択領域に顔画像が含まれると判定することができる。   The template comparison unit P3c2 acquires feature information from the feature information acquisition unit P3c1 and acquires template data 13d from the HDD 13. The template data 13d is a database in which feature information extracted in advance from a large number of sample face images is accumulated. The template comparison unit P3c2 compares the feature information extracted from the image data 13b by the feature information acquisition unit P3c1 with the feature information of the sample face image stored in the template data 13d. It is determined that a face image has been detected from the selected area of the image data 13b. That is, the template data 13d performs pattern matching between the selected region of the image data 13b and a large number of sample face images by comparing the feature information. If a face image is included in the selected area of the image data 13b, it can be predicted that feature information having a tendency similar to the feature information obtained from the sample face image will be obtained from the selected area. It can be determined that a face image is included in the selected area.

なお、特徴情報は複数の特徴量によって構成されるため、テンプレート比較部P3c2が特徴情報を比較するにあたっては各特徴量を総合的に考慮して特徴情報の類否が判定される。また、この判定を精度よく行うために、SVMを利用してもよい。SVMにおいては、顔画像を含まないサンプルについても特徴情報を用意しておき、特徴量空間において顔画像を含まないサンプルについての特徴ベクトル群と、顔画像を含むサンプル顔画像の特徴ベクトル群とを分離させる識別超平面を算出し、同識別超平面を境界として画像データ13bの選択領域から得られた特徴ベクトルがいずれかの側に属するかによって判定を行う。なお、特徴ベクトルは特徴量を線形結合させたベクトルであり、SVMが最も判別精度が高くなる重み係数が各特徴量に設定される。また、特徴量空間において線形分離ができない場合にはカーネルトリックを用いて、判別精度の向上と処理負担の軽減が図られる。   Since the feature information is composed of a plurality of feature amounts, when the template comparison unit P3c2 compares the feature information, the similarity of the feature information is determined by comprehensively considering each feature amount. Moreover, in order to make this determination with high accuracy, SVM may be used. In SVM, feature information is also prepared for a sample that does not include a face image, and a feature vector group for a sample that does not include a face image in the feature amount space, and a feature vector group of the sample face image that includes the face image. A discrimination hyperplane to be separated is calculated, and a determination is made based on which side the feature vector obtained from the selected region of the image data 13b belongs to the discrimination hyperplane as a boundary. Note that the feature vector is a vector obtained by linearly combining feature amounts, and a weighting coefficient with which SVM has the highest discrimination accuracy is set for each feature amount. In addition, when linear separation cannot be performed in the feature amount space, a kernel trick is used to improve the discrimination accuracy and reduce the processing load.

以上のようにしてテンプレート比較部P3c2は選択領域ごとに顔画像が検出できたか否かを判定する。顔画像が検出できない場合には、領域設定部P3bが次に顔画像が検出される確率Bが高い選択領域を設定する。判定部P3dは、いずれかの選択領域にて顔画像が検出されたかどうかを判定し、いずれの選択領域においても顔画像が検出されない場合に画像データ13bには顔画像が含まれないと判定する。画像修整部P3eは顔画像が検出された画像データ13bを取得し、同画像データ13bについて画像修整を行う。具体的には、画像修整部P3eは、色調補正を行い、その際に画像データ13bに顔画像が含まれるか否かによって色調補正のパラメータを変更する。例えば、画像データ13bに顔画像が含まれる場合には肌色をいきいきとした色に補正するようにパラメータを設定し、画像データ13bに顔画像が含まれない場合には補正を行わないようにすることができる。印刷データ生成部P3fは修整後の画像データ13bを取得し、同画像データ13bをプリンタ20にて印刷可能な形式に変換する。具体的には、色変換処理やハーフトーン処理やラスタライズ処理等を順次行っていく。   As described above, the template comparison unit P3c2 determines whether a face image has been detected for each selected region. When the face image cannot be detected, the area setting unit P3b sets a selection area having the highest probability B that the face image is detected next. The determination unit P3d determines whether or not a face image is detected in any of the selection areas, and determines that no face image is included in the image data 13b if no face image is detected in any of the selection areas. . The image modification unit P3e acquires the image data 13b from which the face image is detected, and performs image modification on the image data 13b. Specifically, the image modification unit P3e performs color tone correction, and changes the color tone correction parameter depending on whether or not a face image is included in the image data 13b. For example, when the face data is included in the image data 13b, parameters are set so that the skin color is corrected to a vivid color, and when the face data is not included in the image data 13b, the correction is not performed. be able to. The print data generation unit P3f acquires the modified image data 13b and converts the image data 13b into a format printable by the printer 20. Specifically, color conversion processing, halftone processing, rasterization processing, and the like are sequentially performed.

(2)顔画像検出処理の流れ:
図4は、顔画像検出処理の流れを示している。同図において、ステップS100においては、画像データ取得部P1aがアプリケーションP2から印刷指示がされた画像データ13bを取得する。画像データ取得部P1aが画像データ13bを取得すると、ステップS110にて領域設定部P1bが検出領域DB13cを取得する。領域設定部P1bは、検出領域DB13cにおいて、最も顔画像が検出される確率Bが高い位置(X,Y)とサイズSの組み合わせを検索する。検出領域DB13cは、確率Bの高い順にソートされているため最上欄から最も顔画像が検出される確率Bが高い位置(X,Y)とサイズSの組み合わせが取得できる。
(2) Flow of face image detection processing:
FIG. 4 shows the flow of face image detection processing. In the figure, in step S100, the image data acquisition unit P1a acquires the image data 13b instructed to be printed from the application P2. When the image data acquisition unit P1a acquires the image data 13b, the region setting unit P1b acquires the detection region DB 13c in step S110. The region setting unit P1b searches the detection region DB 13c for a combination of a position (X, Y) and a size S with the highest probability B that a face image is detected. Since the detection area DB 13c is sorted in the descending order of the probability B, the combination of the position (X, Y) and the size S having the highest probability B that the face image is detected can be acquired from the top column.

図5は顔画像の中心位置の分布を表したグラフであり、図6は顔画像の中心位置ごとの確率Bを等高線によって表したグラフであり、図7は顔画像の中心位置ごとのサイズSを表したグラフであり、これらのグラフは検出領域DB13cに基づいて作成されたものである。画像データにおける相対位置(連続数)が図5〜7における縦軸および横軸とされている。図5において、顔画像の中心位置はサンプル画像データの中央付近に集中していることが分かる。図6においては、顔画像の中心位置が存在する確率Bはサンプル画像データの中央付近ほど高いことが分かる。デジタルスチルカメラ30等によって人物を撮影する場合には、人物を撮影領域の中心に据えて撮影を行うのが通常の手法であり、顔画像の中心位置はサンプル画像データの中央付近に集中させられるからである。図7においては、サンプル画像データの中央付近ほどサイズSが大きくなる傾向があることが分かる。人物を撮影領域の中央に据える場合には、人物の撮影に主眼が置かれる場合が多く、メインの人物がズームアップされる可能性が高いからである。   FIG. 5 is a graph showing the distribution of the center position of the face image, FIG. 6 is a graph showing the probability B for each center position of the face image by contour lines, and FIG. 7 is the size S for each center position of the face image. These graphs are created based on the detection region DB 13c. The relative position (continuous number) in the image data is the vertical axis and the horizontal axis in FIGS. In FIG. 5, it can be seen that the center position of the face image is concentrated near the center of the sample image data. In FIG. 6, it can be seen that the probability B that the center position of the face image exists is higher near the center of the sample image data. When a person is photographed by the digital still camera 30 or the like, it is a normal technique to shoot with the person placed at the center of the photographing region, and the center position of the face image can be concentrated near the center of the sample image data. Because. In FIG. 7, it can be seen that the size S tends to increase toward the center of the sample image data. This is because when the person is placed in the center of the shooting region, the main focus is often placed on the shooting of the person, and there is a high possibility that the main person is zoomed up.

以上説明したように、サンプル画像データにおいて顔画像が存在する位置およびサイズには統計的な傾向があり、領域設定部P1bはこの統計情報から最も顔画像が検出される確率Bが高い位置(X,Y)とサイズSの組み合わせを検索する。そして、ステップS130においては、検索した位置(X,Y)とサイズSを、画像データ取得部P1aが取得した画像データ13bのサイズに換算することにより、選択領域を設定する。すなわち、位置(X,Y)とサイズSは相対的な値であるため、画像データ13bのサイズを基準として絶対的な選択領域の位置およびサイズが特定される。一度検索された位置(X,Y)とサイズSの組み合わせについては、検索済みである旨のフラグが付与され、以降は検索されないようにされる。   As described above, there is a statistical tendency in the position and size of the face image in the sample image data, and the region setting unit P1b has the highest probability B that the face image is detected from this statistical information (X , Y) and the size S are searched. In step S130, the selected position is set by converting the searched position (X, Y) and size S into the size of the image data 13b acquired by the image data acquisition unit P1a. That is, since the position (X, Y) and the size S are relative values, the absolute position and size of the selected area are specified based on the size of the image data 13b. For the combination of the position (X, Y) and the size S that have been searched once, a flag indicating that the search has been completed is given, and the search is not performed thereafter.

図8は、画像データ13bと選択領域とを示している。同図において、画像データ13bと選択領域Cが示されている。選択領域Cは矩形状となっており、その高さおよび幅は画像データ13bの高さおよび幅に対するサイズSの代表値の割合で決定されている。また、選択領域Cの位置は、同選択領域Cの対角線の交点の位置が、位置(X,Y)に画像データ13bの高さおよび幅を乗算して得られる座標と一致するように設定されている。ただし、選択領域Cは位置およびサイズが位置(X,Y)とサイズSに基づいて設定されればよく、楕円や円等の他の形状とされていてもよい。   FIG. 8 shows the image data 13b and the selected area. In the figure, image data 13b and a selection area C are shown. The selection area C has a rectangular shape, and the height and width thereof are determined by the ratio of the representative value of the size S to the height and width of the image data 13b. The position of the selected area C is set so that the position of the intersection of the diagonal lines of the selected area C matches the coordinates obtained by multiplying the position (X, Y) by the height and width of the image data 13b. ing. However, the position and size of the selection area C need only be set based on the position (X, Y) and the size S, and may be another shape such as an ellipse or a circle.

ステップS140においては、ステップS130にて設定した選択領域から検出部P3cが顔画像の検出を試みる。具体的には、特徴情報取得部P3c1が画像データ13bに対して設定された選択領域に属する画像データを取得する。そして、当該画像データに対して所定の画像処理を行いつつ、一群の特徴量を特徴情報として抽出する。得られた特徴情報はテンプレート比較部P3c2に受け渡される。テンプレート比較部P3c2は、HDD13からテンプレートデータ13dを取得し、特徴情報取得部P3c1が画像データ13bから抽出した特徴情報と、テンプレートデータ13dに格納されたサンプル顔画像の特徴情報とを比較し、両者が似た傾向を示せば、当該画像データ13bの選択領域Cから顔画像が検出できたと判定する。なお、選択領域Cの絶対的なサイズは、画像データ13b全体のサイズや適用したサイズSによって変動するため、テンプレートデータ13dの特徴情報と相似性がある場合にも選択領域Cから顔画像が検出できたと判定する。むろん、テンプレートデータ13dを選択領域Cの絶対的なサイズごとに用意しておき、相応しいサイズのテンプレートデータ13dを利用して特徴情報の比較を行うようにしてもよい。   In step S140, the detection unit P3c tries to detect a face image from the selection region set in step S130. Specifically, the feature information acquisition unit P3c1 acquires image data belonging to the selection area set for the image data 13b. Then, a group of feature amounts are extracted as feature information while performing predetermined image processing on the image data. The obtained feature information is transferred to the template comparison unit P3c2. The template comparison unit P3c2 acquires the template data 13d from the HDD 13, compares the feature information extracted from the image data 13b by the feature information acquisition unit P3c1 with the feature information of the sample face image stored in the template data 13d. Indicate a similar tendency, it is determined that the face image has been detected from the selected area C of the image data 13b. Note that the absolute size of the selection area C varies depending on the overall size of the image data 13b and the applied size S, so that a face image is detected from the selection area C even when there is similarity to the feature information of the template data 13d. Judge that it was made. Of course, the template data 13d may be prepared for each absolute size of the selection region C, and the feature information may be compared using the template data 13d having an appropriate size.

ステップS150において、選択領域Cから顔画像が検出できたかどうかが判定され、検出できた場合には、ステップS180にて判定部P1dが当該画像データ13bから顔画像が検出できたと判定するとともに、検出された顔画像についての検出位置とサイズを出力し、顔画像検出処理を終了する。検出位置は検出された顔画像の中心位置であり、サイズは検出された顔画像の中心位置である。   In step S150, it is determined whether or not a face image can be detected from the selected area C. If it can be detected, the determination unit P1d determines in step S180 that a face image has been detected from the image data 13b, and detection is performed. The detected position and size of the face image thus output are output, and the face image detection process is terminated. The detection position is the center position of the detected face image, and the size is the center position of the detected face image.

当該画像データ13bから顔画像が検出できた旨は、画像修整部P3eに出力され、画像修整部P3eは、画像データ13bに顔画像が含まれる場合の色調補正のパラメータを設定し、色調補正を実行する。これにより、例えば肌色をいきいきとさせるといった、顔画像が含まれる画像データ13bについて好適な画像修整を実現させることができる。また、検出された顔画像についての顔画像IDと検出位置とサイズを検出領域DB13cに追記するようにしてもよいし、当該顔画像を検出する際に得られた特徴情報をテンプレートデータ13dに追記するようにしてもよい。このようにすることにより、サンプル数を徐々に増加させることができ、検出領域DB13cの統計的信頼性を向上させていくことができる。画像修整部P3eにて色調補正された画像データ13bは印刷データ生成部P3fに受け渡され、印刷データが生成される。   The fact that the face image has been detected from the image data 13b is output to the image modification unit P3e, and the image modification unit P3e sets parameters for color correction when the image data 13b includes a face image, and performs color correction. Execute. This makes it possible to realize suitable image modification for the image data 13b including the face image, for example, to make the skin color lively. Further, the face image ID, the detection position, and the size of the detected face image may be added to the detection area DB 13c, and the feature information obtained when detecting the face image is added to the template data 13d. You may make it do. By doing so, the number of samples can be gradually increased, and the statistical reliability of the detection region DB 13c can be improved. The image data 13b whose color tone has been corrected by the image modification unit P3e is transferred to the print data generation unit P3f, and print data is generated.

一方、ステップS150にて、顔画像が検出できなかったと判定された場合には、ステップS160において未検索の位置(X,Y)とサイズSの組み合わせが検出領域DB13cに残っているかどうかを判定する。すなわち、検出領域DB13cに存在する位置(X,Y)とサイズSであって、検索済みである旨のフラグが付与されていないものがあるかどうかを判定する。そして、検索済みでないる位置(X,Y)とサイズSが1つでも残っている場合には、ステップS120を再度実行する。ただし、前回検索された位置(X,Y)とサイズSの組み合わせについては、検索済みである旨のフラグが付与されているため、次に確率Bが高い位置(X,Y)とサイズSの組み合わせが検索されることとなる。検出領域DB13cは、確率Bの高い順にソートされているため、上欄から下段へ順に検索済みのフラグが付与されていくとともに、上欄から下段へ順に位置(X,Y)とサイズSの組み合わせが検索されていくこととなる。以降のステップS130〜S150については上記と同様に行われる。   On the other hand, if it is determined in step S150 that the face image could not be detected, it is determined in step S160 whether or not the combination of the unsearched position (X, Y) and size S remains in the detection area DB 13c. . That is, it is determined whether or not there is a position (X, Y) and size S existing in the detection area DB 13c and to which no flag indicating that the search has been performed is added. If at least one position (X, Y) and size S that have not been searched still remain, step S120 is executed again. However, for the combination of the position (X, Y) and size S searched last time, a flag indicating that the search has been completed is given, so the position (X, Y) and size S of the next highest probability B are assigned. The combination will be searched. Since the detection area DB 13c is sorted in the descending order of the probability B, the searched flag is assigned in order from the upper column to the lower row, and the combination of the position (X, Y) and the size S in order from the upper column to the lower row. Will be searched. Subsequent steps S130 to S150 are performed in the same manner as described above.

ステップS120を繰り返すことにより、顔画像が検出される確率Bが高い順に位置(X,Y)とサイズSが順次検索され、ステップS130では顔画像が検出される確率Bが高い順に選択領域Cが設定されることとなる。つまり、ステップS140では、顔画像が検出される確率Bが高い選択領域Cについて順に顔画像を検出していくこととなる。そして、いずれかの選択領域Cにて顔画像が検出された時点で、当該画像データ13bにて顔画像が検出されたとして処理を終了させるため、通常の画像データ13bにおいて顔画像が存在し得ないような位置の選択領域Cにて特徴情報の抽出やテンプレートマッチングが行われることが防止できる。同様に、通常の画像データ13bにおいて顔画像が存在し得ないようなサイズの選択領域Cにて特徴情報の抽出やテンプレートマッチングが行われることも防止できる。従って、顔画像検出処理を効率よく行うことができる。   By repeating step S120, the position (X, Y) and the size S are sequentially searched in descending order of the probability B that the face image is detected. In step S130, the selection region C is selected in descending order of the probability B that the face image is detected. Will be set. That is, in step S140, face images are detected in order for the selection region C having a high probability B of detecting a face image. Then, when a face image is detected in any one of the selection areas C, the face image may exist in the normal image data 13b in order to end the process on the assumption that the face image is detected in the image data 13b. It is possible to prevent feature information extraction and template matching from being performed in the selection region C at such a position. Similarly, it is possible to prevent feature information extraction and template matching from being performed in the selection region C having a size such that a face image cannot exist in the normal image data 13b. Therefore, the face image detection process can be performed efficiently.

なお、いくつもの選択領域Cについて顔画像の検出を行い、最終的にステップS160において未検索の位置(X,Y)とサイズSの組み合わせが検出領域DB13cに残存していないと判定された場合には、ステップS170にて顔画像が当該画像データ13bから検出できなかったと判定する。これにより、画像修整部P3eは当該画像データ13bに顔画像が含まれていないことを認識することができ、画像データ13bに顔画像が含まれない場合の色調補正のパラメータを設定することができる。   If face images are detected for a number of selected areas C, and it is finally determined in step S160 that the combination of the unsearched position (X, Y) and size S does not remain in the detection area DB 13c. Determines that the face image could not be detected from the image data 13b in step S170. Thereby, the image modification unit P3e can recognize that the image data 13b does not include a face image, and can set parameters for color tone correction when the image data 13b does not include a face image. .

顔画像が画像データ13bに存在しない場合には検出領域DB13cに存在するすべての位置(X,Y)とサイズSの組み合わせについて顔画像の検出が行われることとなる。従って、ある程度低い確率Bとなる位置(X,Y)とサイズSの組み合わせについては検出領域DB13cにて無効化するようにして、処理の高速化を図ってもよい。例えば、頻度Aがサンプル画像データの数に対し有為水準を満足しない場合には、その位置(X,Y)とサイズSの組み合わせはステップS120で検索されないようにしてもよい。   When the face image does not exist in the image data 13b, the face image is detected for combinations of all positions (X, Y) and size S existing in the detection area DB 13c. Therefore, the combination of the position (X, Y) and the size S, which has a certain low probability B, may be invalidated in the detection area DB 13c to increase the processing speed. For example, when the frequency A does not satisfy a significant level with respect to the number of sample image data, the combination of the position (X, Y) and the size S may not be searched in step S120.

逆に、検出領域DB13cに存在しない位置(X,Y)とサイズSの組み合わせにおいて顔画像が存在する場合も考えられるため、検出領域DB13cに存在する以外の位置(X,Y)とサイズSの組み合わせについても顔画像を検出するようにしてもよい。例えば、ステップS170を実行する前に、画像データ13bの隅から徐々に選択領域Cの位置をシフトさせつつ、各位置にて選択領域Cのサイズを順に変更して、顔画像を検出するようにすれば、画像データ13bの全領域についてくまなく顔画像を検出することができる。このように、画像データ13bの全領域についてくまなく顔画像を検出すると、処理が非効率化するが、ほとんどの場合、検出領域DB13cに存在する位置(X,Y)とサイズSの組み合わせで顔画像が検出できるため、問題とならない。   Conversely, a face image may exist in a combination of a position (X, Y) and a size S that does not exist in the detection area DB 13c. Therefore, a position (X, Y) other than the position that exists in the detection area DB 13c and a size S The face image may be detected for the combination. For example, before executing step S170, the position of the selection area C is gradually shifted from the corner of the image data 13b, and the size of the selection area C is sequentially changed at each position to detect a face image. Then, it is possible to detect the face image all over the entire area of the image data 13b. As described above, when all face images are detected for the entire area of the image data 13b, the processing becomes inefficient. In most cases, the face is determined by the combination of the position (X, Y) and the size S existing in the detection area DB 13c. Since the image can be detected, there is no problem.

(3)変形例:
以上においては、画像データ13bにおいて顔画像が存在するか否かによって色調補正のパラメータを変更するプリンタドライバを例示したが、本発明の顔画像検出機能を他のプログラムに組み込んでもよい。例えば、デジタルスチルカメラ等によって撮影した画像データを管理したり整理するために画像検索を行う画像検索プログラムに顔画像検出機能を組み込むようにしてもよい。画像検索プログラムにおいては、画像データに顔画像があるかないかだけでなく、何人の顔が含まれているかを指定して検索をすることができると便利である。
(3) Modification:
In the above, the printer driver that changes the tone correction parameter depending on whether or not a face image exists in the image data 13b has been exemplified, but the face image detection function of the present invention may be incorporated in another program. For example, a face image detection function may be incorporated in an image search program that performs image search in order to manage and organize image data captured by a digital still camera or the like. In an image search program, it is convenient if a search can be performed by specifying not only whether there is a face image in the image data but also how many faces are included.

図9は、本変形例にかかる画像検索プログラムのソフトウェア構成を示している。同図において、画像検索プログラムP4は、前実施形態と同様の画像データ取得部P4aと領域設定部P4bと検出部P4cと判定部P4dのほかに、検索条件取得部P4eと画像データ選択部P4fと出力部P4gとから構成されている。検索条件取得部P4eはマウス40やキーボード50を介してユーザーから検索条件の指定を受け付ける。具体的には、画像データ13bを検索する範囲指定と、検索したい顔画像の個数の指定を受け付ける。例えば、ユーザーがCドライブに保存された画像データ13bのうち、顔画像が4個以上含まれるものを検索するといった検索条件を受け付けることとなる。これにより、集合写真等の顔画像が多く含まれる画像データ13bのみをリストアップすることができ、プリント(焼き増し)枚数の指定等において便利である。画像データ選択部P4fは、上述した検索範囲に属する画像データ13bを順に選択していき、同検索範囲に属する画像データ13bのすべてについて顔画像の検索が行われるようにする。   FIG. 9 shows a software configuration of an image search program according to this modification. In the figure, an image search program P4 includes a search condition acquisition unit P4e and an image data selection unit P4f in addition to an image data acquisition unit P4a, a region setting unit P4b, a detection unit P4c, and a determination unit P4d similar to the previous embodiment. The output part P4g is comprised. The search condition acquisition unit P4e receives specification of search conditions from the user via the mouse 40 and the keyboard 50. Specifically, it accepts designation of a range for retrieving image data 13b and designation of the number of face images to be retrieved. For example, the user receives a search condition such as searching for image data 13b stored in the C drive that includes four or more face images. This makes it possible to list only the image data 13b containing many face images such as a group photo, which is convenient for designating the number of prints (printing). The image data selection unit P4f sequentially selects the image data 13b belonging to the above-described search range so that the face image is searched for all of the image data 13b belonging to the search range.

図10は、以上の構成において実行される画像データ検索処理の流れを示している。ステップS200においては、検索条件取得部P4eがマウス40やキーボード50を介してユーザーから検索範囲や顔画像の個数の指定を受け付ける。ステップS205においては、画像データ選択部P4fが指定された検索範囲の画像データ13bを一つ選択する。ステップS210においては、画像データ選択部P4fによって選択された画像データ13bを画像データ取得部P4aが取得する。ステップS220〜S250までの処理は、前実施形態のステップS120〜S180とほぼ同様であるため説明は省略する。   FIG. 10 shows the flow of image data search processing executed in the above configuration. In step S200, the search condition acquisition unit P4e receives specification of the search range and the number of face images from the user via the mouse 40 and the keyboard 50. In step S205, the image data selection unit P4f selects one image data 13b in the specified search range. In step S210, the image data acquisition unit P4a acquires the image data 13b selected by the image data selection unit P4f. Since the process from step S220 to S250 is substantially the same as step S120 to S180 in the previous embodiment, the description thereof is omitted.

ステップS230にて、いずれかの選択領域Cにて顔画像が検出され、ステップS245にて検出結果を出力すると、ステップS255にて顔画像が指定された個数検出されたかどうかが判定される。一つの画像データ13bについて、ステップS245にて検出結果を出力するごとに、カウンタを1ずつ加算することにより、検出できた顔画像の個数を係数することができる。そして、ステップS255では、検出できた顔画像の個数が、ステップS200にて指定された顔画像の個数に達しているかどうかを判定する。検出できた顔画像の個数が、ステップS200にて指定された顔画像の個数に達していれば、当該画像データ13bには少なくともユーザーが指定しただけの数の顔画像が含まれていると判定することができる。従って、その場合には、当該画像データ13bはユーザーの検索条件を満足することとなる。   In step S230, a face image is detected in any selected region C, and when a detection result is output in step S245, it is determined in step S255 whether the specified number of face images has been detected. For each piece of image data 13b, each time a detection result is output in step S245, the counter is incremented by one, whereby the number of detected face images can be calculated. In step S255, it is determined whether the number of detected face images has reached the number of face images specified in step S200. If the number of detected face images has reached the number of face images specified in step S200, it is determined that the image data 13b includes at least the number of face images specified by the user. can do. Therefore, in this case, the image data 13b satisfies the user search condition.

一方、検出できた顔画像の個数が、ステップS200にて指定された顔画像の個数に達していなければ、現時点では、当該画像データ13bからユーザーが指定しただけの数の顔画像が検出できてないと判定することができる。従って、その場合には、ステップS220に戻り、他の選択領域Cにて他の顔画像を検出することとなる。そして、ユーザーが指定した数の顔画像が検出されるまで、ステップS220〜S245が繰り返されることとなる。ただし、ステップS255からステップS220に戻る際には、ステップS260を行っており、同ステップS260では直前に検出された顔画像のサイズを優先するように検出領域DB13cのソートが行われている。   On the other hand, if the number of detected face images does not reach the number of face images specified in step S200, as many face images as specified by the user can be detected from the image data 13b at this time. It can be determined that there is no. Therefore, in this case, the process returns to step S220, and another face image is detected in another selection area C. Then, steps S220 to S245 are repeated until the number of face images designated by the user is detected. However, when returning from step S255 to step S220, step S260 is performed. In step S260, the detection area DB 13c is sorted so that the size of the face image detected immediately before is given priority.

図11は、ステップS260にてソートされた検出領域DB13cを示している。同図は、直前に検出された顔画像の検出において、サイズS(S=1)が選択されていた場合のソート結果を示している。検出領域DB13cの上欄にはサイズS(S=1)となるサイズSと位置(X,Y)の組み合わせが上欄にリストアップされており、サイズS(S=1)のなかで確率Bが高い順にソートされている。ステップS220では、検出領域DB13cにおいて、検索済みフラグが付与されていないものを上欄から検索するようにしているため、サイズS(S=1)のなかで確率Bが高くなる順に、サイズSと位置(X,Y)の組み合わせが検索されることとなる。すなわち、ステップS220において、最初の段階では確率Bを最優先に検索が行われるが、一度顔画像が検出されると、その顔画像と同じサイズSのサイズSと位置(X,Y)の組み合わせが優先的に検索されることとなる。なお、サイズS(S=1)以外については、通常どおり確率Bを最優先としてソートされている。   FIG. 11 shows the detection area DB 13c sorted in step S260. This figure shows the sorting result when the size S (S = 1) is selected in the detection of the face image detected immediately before. In the upper column of the detection area DB 13c, combinations of the size S and the position (X, Y) that are the size S (S = 1) are listed in the upper column, and the probability B in the size S (S = 1). Are sorted in descending order. In step S220, the search area DB 13c is searched from the upper column for which the searched flag is not assigned. Therefore, in the order of increasing the probability B in the size S (S = 1), the size S and The combination of the position (X, Y) will be searched. That is, in step S220, the search is performed with the probability B as the highest priority in the first stage, but once the face image is detected, the combination of the size S and the position (X, Y) of the same size S as the face image is detected. Will be preferentially searched. For items other than size S (S = 1), the probability B is sorted with the highest priority as usual.

同一の画像データ13bにおいて複数の顔画像が含まれる場合、複数の顔画像は似たような大きさとなっていると推測することができる。例えば、集合写真では、各人がカメラとの距離が同じとなるように整列することが通常であり、撮影される顔画像の大きさもほぼ同じと考えることができる。従って、ソート後の画像データ13bにおいて検索されたサイズSと位置(X,Y)の組み合わせによって設定した選択領域Cにて顔画像が検出される可能性が高く、より早期に指定した個数の顔画像を検出することが可能となる。また、直前の顔画像の検出に適用したサイズSと同一のものだけでなく、このサイズSとの差が小さいサイズSが優先的に検索されるようにしてもよい。   When a plurality of face images are included in the same image data 13b, it can be estimated that the plurality of face images have similar sizes. For example, in a group photo, each person is usually aligned so that the distance from the camera is the same, and the size of the face image to be taken can be considered to be almost the same. Therefore, a face image is highly likely to be detected in the selected area C set by the combination of the size S and the position (X, Y) searched in the sorted image data 13b, and the number of faces specified earlier. An image can be detected. Further, not only the same size S applied to the detection of the immediately preceding face image, but also a size S having a small difference from the size S may be searched preferentially.

図12は、直前の顔画像の検出に適用したサイズSとの差が小さいもの優先的に検索されるようにソートした検出領域DB13cを示している。同図において、S=1が上欄にソートされ、次いでS=2が中欄にソートされ、最後にS=3が下欄にソートされている。直前の顔画像の検出に適用したサイズSがS=1であるため、差が0のS=1が最初に検索され、次に差が1となるS=2が検索され、最後に差が2となるS=3が検索されることとなる。極端に大きさの異なる顔画像が同一の画像データ13bに含まれる可能性は低いと考えられるため、このようなソートを行うことによって効率よく複数の顔画像を検出していくことができる。   FIG. 12 shows the detection area DB 13c that is sorted so as to be preferentially searched for those having a small difference from the size S applied to the detection of the immediately preceding face image. In the figure, S = 1 is sorted in the upper column, then S = 2 is sorted in the middle column, and finally S = 3 is sorted in the lower column. Since the size S applied to the detection of the immediately preceding face image is S = 1, S = 1 with a difference of 0 is searched first, then S = 2 with a difference of 1 is searched, and finally the difference is S = 3 which is 2 is searched. Since face images having extremely different sizes are unlikely to be included in the same image data 13b, a plurality of face images can be efficiently detected by performing such sorting.

なお、本変形例のような画像検索プログラムにおいては、顔画像の個数だけでなく、顔画像の特徴や人をキーとして検索するようにしてもよい。例えば、ステップS230にて、顔画像を検出する際に、検出した顔画像の特徴を判定するようにしてもよい。具体的には、検出された顔画像の性別や年齢等の特徴を判別し、その特徴を出力し、検索条件と比較してもよい。さらに、顔画像を検出する際に、検出した顔画像の特徴に基づいて当該顔画像が誰のものであるかを特定し、検出された顔画像が検索条件として指定された人のものであるかどうかを判定するようにしてもよい。   In the image search program as in this modification, the search may be performed using not only the number of face images but also the characteristics of the face images and people as keys. For example, when detecting a face image in step S230, the feature of the detected face image may be determined. Specifically, characteristics such as gender and age of the detected face image may be determined, and the characteristics may be output and compared with the search condition. Further, when detecting the face image, the face image is identified based on the feature of the detected face image, and the detected face image is that of the person specified as the search condition. It may be determined whether or not.

本変形例において、いずれの選択領域Cにおいても顔画像が検出されなかったとき(S240にてNo)と、指定された個数の顔画像が検出されたとき(S255にてYes)に、ステップS265において指定された検索範囲内のすべての画像データ13bについて顔検出が完了したかを判定する。検索範囲内のすべての画像データ13bについて顔検出が完了していない場合には、画像データ選択部P4fが次の画像データ13bを選択して、当該画像データ13bについて顔画像の検出を行う。このようにすることにより、検索範囲内のすべての画像データ13bについて顔画像の検出を行わせることができる。検索範囲内のすべての画像データ13bについて顔検出が完了した場合には、ステップS270にて出力部P4gが検索リストをディスプレイ60に出力する。検索リストには、ユーザーが指定した個数の顔画像が含まれていると判定された画像データ13bのファイル名等が一覧表示される。   In this modification, when no face image is detected in any of the selection areas C (No in S240) and when a specified number of face images are detected (Yes in S255), step S265 is performed. It is determined whether face detection has been completed for all image data 13b within the search range specified in. When face detection has not been completed for all the image data 13b within the search range, the image data selection unit P4f selects the next image data 13b and detects a face image for the image data 13b. In this way, face images can be detected for all image data 13b within the search range. When face detection is completed for all the image data 13b within the search range, the output unit P4g outputs the search list to the display 60 in step S270. The search list displays a list of file names and the like of the image data 13b determined to contain the number of face images specified by the user.

以上においては、本発明にかかる顔検出の機能がコンピュータ上にて実行されるものを例示したが、本発明を他の装置に組み込んでもよい。例えば、デジタルスチルカメラにおいて本発明を適用し、撮影した画像データを顔画像の有無や個数に基づいて検索したり、補正したりするようにしてもよい。さらに、撮影の際に顔画像を特定し、同特定された顔画像に対してフォーカスを合わせるようにしてもよい。本発明によれば、高速に顔画像を検出することができるため、フォーカスに時間がかかることが防止でき、応答性に優れたデジタルスチルカメラを提供することができる。また、特定画像として顔画像を検出するものを例示したが、他の画像を特定画像として検出してもよい。すなわち、他の画像についてのテンプレートデータ13dを用意しておけば顔画像と同様にマッチングさせることができる。   In the above description, the face detection function according to the present invention is executed on a computer. However, the present invention may be incorporated in another apparatus. For example, the present invention may be applied to a digital still camera, and the captured image data may be searched or corrected based on the presence or number of face images. Furthermore, a face image may be specified at the time of shooting, and the focus may be focused on the specified face image. According to the present invention, since a face image can be detected at high speed, it is possible to provide a digital still camera excellent in responsiveness, which can prevent focusing from taking time. Moreover, although what detected the face image as a specific image was illustrated, you may detect another image as a specific image. That is, if template data 13d for other images is prepared, matching can be performed in the same manner as a face image.

(4)まとめ:
本発明においては、検出領域DB13cにおいて顔画像が検出される確率Bが高い順に位置(X,Y)とサイズSの組み合わせがステップS120にて順次検索され、ステップS130では顔画像が検出される確率Bが高い順に選択領域Cが設定されることとなる。これにより、ステップS140では、顔画像が検出される確率Bが高い選択領域Cについて順に顔画像を検出していくこととなる。そして、いずれかの選択領域Cにて顔画像が検出された時点で、当該画像データ13bにて顔画像が検出されたとして処理を終了させるため、通常の画像データ13bにおいて顔画像が存在し得ないような位置の選択領域Cにて特徴情報の抽出やテンプレートマッチングが行われることが防止できる。
(4) Summary:
In the present invention, combinations of position (X, Y) and size S are sequentially searched in step S120 in descending order of the probability B that a face image is detected in the detection area DB 13c, and the probability that a face image is detected in step S130. The selection area C is set in order of B being higher. As a result, in step S140, the face images are detected in order for the selection region C having a high probability B that the face image is detected. Then, when a face image is detected in any one of the selection areas C, the face image may exist in the normal image data 13b in order to end the process on the assumption that the face image is detected in the image data 13b. It is possible to prevent feature information extraction and template matching from being performed in the selection region C at such a position.

コンピュータのハードウェアブロック図である。It is a hardware block diagram of a computer. コンピュータのソフトウェアブロック図である。It is a software block diagram of a computer. 検出領域DBを示す表である。It is a table | surface which shows detection area DB. 顔画像検出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a face image detection process. 顔画像の中心位置の分布を表したグラフである。It is a graph showing distribution of the center position of a face image. 顔画像の中心位置ごとの確率を等高線によって表したグラフである。It is the graph which represented the probability for every center position of a face image by the contour line. 顔画像の中心位置ごとのサイズを表したグラフである。It is a graph showing the size for every center position of a face image. 画像データと選択領域を示す図である。It is a figure which shows image data and a selection area. 変形例にかかるコンピュータのソフトウェアブロック図である。It is a software block diagram of the computer concerning a modification. 変形例にかかる顔画像検出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the face image detection process concerning a modification. 変形例にかかる検出領域DBを示す表である。It is a table | surface which shows detection area DB concerning a modification. 別の変形例にかかる検出領域DBを示す表である。It is a table | surface which shows detection area DB concerning another modification.

符号の説明Explanation of symbols

10…コンピュータ(顔画像検出装置),10a…バス,11…CPU,12…RAM,13…HDD,13a…プログラムデータ,13b…画像データ,13c…検出領域DB,13d…テンプレートデータ,14…USBI/F,15…入力機器I/F,16…ビデオI/F,20…プリンタ,30…デジタルスチルカメラ,40…マウス,50…キーボード,60…ディスプレイ,P1…O/S,P2…アプリケーション,P3…プリンタドライバ,P3a,P4a…画像データ取得部,P3b,P4b…領域設定部,P3c,P4c…検出部,P3c1,P4c1…特徴情報取得部,P3c2,P4c2…テンプレート比較部,P3d,P4d…判定部,P3e…画像修整部,P3f…印刷データ生成部,P4…画像管理プログラム,P4e…検索条件取得部,P4f…画像データ選択部,P4g…出力部
DESCRIPTION OF SYMBOLS 10 ... Computer (face image detection apparatus), 10a ... Bus, 11 ... CPU, 12 ... RAM, 13 ... HDD, 13a ... Program data, 13b ... Image data, 13c ... Detection area DB, 13d ... Template data, 14 ... USBI / F, 15 ... Input device I / F, 16 ... Video I / F, 20 ... Printer, 30 ... Digital still camera, 40 ... Mouse, 50 ... Keyboard, 60 ... Display, P1 ... O / S, P2 ... Application, P3... Printer driver, P3a, P4a... Image data acquisition unit, P3b, P4b... Region setting unit, P3c, P4c. Judgment unit, P3e ... Image modification unit, P3f ... Print data generation unit, P4 ... Image management program P4E ... search condition obtaining unit, P4f ... image data selection section, P4g ... output unit

Claims (10)

画像データを取得し、同画像データに含まれる特定画像を検出する特定画像検出装置において、
上記画像データにおける選択領域ごとに特定画像を順に検出していく検出手段と、
上記検出手段が検出を行う上記選択領域を、サンプル画像データについて上記特定画像を検出した統計情報に基づいて順に設定する領域設定手段とを具備することを特徴とする特定画像検出装置。
In a specific image detection device that acquires image data and detects a specific image included in the image data,
Detecting means for sequentially detecting a specific image for each selected region in the image data;
A specific image detection apparatus comprising: a region setting unit configured to sequentially set the selection region to be detected by the detection unit based on statistical information of the specific image detected for the sample image data.
上記領域設定手段は、上記統計情報において上記特定画像が検出される確率が高い順に上記選択領域を設定することを特徴とする請求項1に記載の特定画像検出装置。   2. The specific image detection apparatus according to claim 1, wherein the area setting unit sets the selection area in descending order of the probability that the specific image is detected in the statistical information. 上記統計情報において、
上記画像データにおける上記選択領域の相対的な位置ごとに区分して上記特定画像が検出される確率が統計されることを特徴とする請求項2に記載の特定画像検出装置。
In the above statistical information,
The specific image detection apparatus according to claim 2, wherein the probability that the specific image is detected by being classified for each relative position of the selection region in the image data is statistically calculated.
上記統計情報において、
上記画像データにおける上記選択領域の相対的なサイズごとに区分して上記特定画像が検出される確率が統計されることを特徴とする請求項2または請求項3のいずれかに記載の特定画像検出装置。
In the above statistical information,
4. The specific image detection according to claim 2, wherein the probability that the specific image is detected is divided for each relative size of the selected region in the image data. 5. apparatus.
複数の上記特定画像を検出する場合において、上記検出手段が上記特定画像を検出したとき、
上記領域設定手段は、当該特定画像が検出された当該選択領域と同じサイズの他の上記選択領域を優先的に設定することを特徴とする請求項4に記載の特定画像検出装置。
In the case of detecting a plurality of the specific images, when the detection means detects the specific images,
5. The specific image detection apparatus according to claim 4, wherein the area setting means preferentially sets another selection area having the same size as the selection area where the specific image is detected.
複数の上記特定画像を検出する場合において、上記検出手段が上記特定画像を検出したとき、
上記領域設定手段は、当該特定画像が検出された当該選択領域のサイズとの差が小さいサイズを有する他の上記選択領域を優先的に設定することを特徴とする請求項4に記載の特定画像検出装置。
In the case of detecting a plurality of the specific images, when the detection means detects the specific images,
5. The specific image according to claim 4, wherein the area setting unit preferentially sets the other selection area having a small difference from the size of the selection area where the specific image is detected. Detection device.
上記検出手段は、
上記選択領域から抽出された特徴情報を上記特定画像のテンプレートと比較することにより同選択領域における同特定画像の有無を判別することを特徴とする請求項1から請求項6のいずれかに記載の特定画像検出装置。
The detecting means is
7. The presence or absence of the specific image in the selected area is determined by comparing the feature information extracted from the selected area with the template of the specific image. Specific image detection device.
上記特定画像は人間の顔画像であることを特徴とする請求項1から請求項7のいずれかに記載の特定画像検出装置。   The specific image detection apparatus according to claim 1, wherein the specific image is a human face image. 画像データを取得し、同画像データに含まれる特定画像を検出する特定画像検出方法において、
上記画像データにおける選択領域ごとに特定画像を順に検出していく検出工程と、
上記検出工程にて検出を行う上記選択領域を、統計情報に基づいて順に設定する領域設定工程とを具備することを特徴とする特定画像検出方法。
In a specific image detection method for acquiring image data and detecting a specific image included in the image data,
A detection step of sequentially detecting a specific image for each selected region in the image data;
A specific image detection method comprising: a region setting step of sequentially setting the selected regions to be detected in the detection step based on statistical information.
画像データを取得し、同画像データに含まれる特定画像を検出する機能をコンピュータにて実行させる特定画像検出プログラムにおいて、
上記画像データにおける選択領域ごとに特定画像を順に検出していく検出機能と、
上記検出機能にて検出を行う上記選択領域を、統計情報に基づいて順に設定する領域設定機能とをコンピュータにて実行させる特定画像検出プログラム。
In a specific image detection program for acquiring image data and causing a computer to execute a function of detecting a specific image included in the image data,
A detection function that sequentially detects a specific image for each selected region in the image data;
A specific image detection program for causing a computer to execute an area setting function for sequentially setting the selected areas to be detected by the detection function based on statistical information.
JP2005287628A 2005-09-30 2005-09-30 Image detection apparatus, image detection method, and image detection program Expired - Fee Related JP4765523B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005287628A JP4765523B2 (en) 2005-09-30 2005-09-30 Image detection apparatus, image detection method, and image detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005287628A JP4765523B2 (en) 2005-09-30 2005-09-30 Image detection apparatus, image detection method, and image detection program

Publications (3)

Publication Number Publication Date
JP2007102286A true JP2007102286A (en) 2007-04-19
JP2007102286A5 JP2007102286A5 (en) 2008-11-06
JP4765523B2 JP4765523B2 (en) 2011-09-07

Family

ID=38029203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005287628A Expired - Fee Related JP4765523B2 (en) 2005-09-30 2005-09-30 Image detection apparatus, image detection method, and image detection program

Country Status (1)

Country Link
JP (1) JP4765523B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011034311A (en) * 2009-07-31 2011-02-17 Casio Computer Co Ltd Image processor and method
JP2011100293A (en) * 2009-11-05 2011-05-19 Canon Inc Information processing device, method for controlling the same, and program
JP2012185846A (en) * 2007-06-18 2012-09-27 Fujifilm Corp Face detection method
CN111402234A (en) * 2020-03-16 2020-07-10 深圳市启灵图像科技有限公司 Machine vision detection system

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195582A (en) * 2000-01-12 2001-07-19 Mixed Reality Systems Laboratory Inc Device and method for detecting image, device and system for three-dimensional display, display controller, and program storage medium
JP2002312795A (en) * 2001-04-13 2002-10-25 Sony Corp Image processor and its method and recording medium and its program
JP2002312792A (en) * 2001-04-13 2002-10-25 Sony Corp Image processor and image processing method and recording medium and its program
JP2004133637A (en) * 2002-10-09 2004-04-30 Sony Corp Face detector, face detection method and program, and robot apparatus
WO2004051553A2 (en) * 2002-11-29 2004-06-17 Sony United Kingdom Limited Face detection
JP2004199669A (en) * 2002-11-29 2004-07-15 Sony United Kingdom Ltd Face detection
JP2005134966A (en) * 2003-10-28 2005-05-26 Seiko Epson Corp Face image candidate area retrieval method, retrieval system and retrieval program
JP2005149302A (en) * 2003-11-18 2005-06-09 Nippon Hoso Kyokai <Nhk> Face image recognition apparatus and face image recognition program
JP2005322220A (en) * 2004-04-06 2005-11-17 Fuji Photo Film Co Ltd Particular region detecting method, particular region detecting apparatus, and program therefor
JP2006059015A (en) * 2004-08-18 2006-03-02 Sony Corp Human body detector, human body detection method, and computer program
JP2007025902A (en) * 2005-07-13 2007-02-01 Canon Inc Image processor and image processing method
JP2007025899A (en) * 2005-07-13 2007-02-01 Canon Inc Image processor and image processing method

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195582A (en) * 2000-01-12 2001-07-19 Mixed Reality Systems Laboratory Inc Device and method for detecting image, device and system for three-dimensional display, display controller, and program storage medium
JP2002312795A (en) * 2001-04-13 2002-10-25 Sony Corp Image processor and its method and recording medium and its program
JP2002312792A (en) * 2001-04-13 2002-10-25 Sony Corp Image processor and image processing method and recording medium and its program
JP2004133637A (en) * 2002-10-09 2004-04-30 Sony Corp Face detector, face detection method and program, and robot apparatus
JP2006508463A (en) * 2002-11-29 2006-03-09 ソニー・ユナイテッド・キングダム・リミテッド Face detection
WO2004051553A2 (en) * 2002-11-29 2004-06-17 Sony United Kingdom Limited Face detection
JP2004199669A (en) * 2002-11-29 2004-07-15 Sony United Kingdom Ltd Face detection
JP2005134966A (en) * 2003-10-28 2005-05-26 Seiko Epson Corp Face image candidate area retrieval method, retrieval system and retrieval program
JP2005149302A (en) * 2003-11-18 2005-06-09 Nippon Hoso Kyokai <Nhk> Face image recognition apparatus and face image recognition program
JP2005322220A (en) * 2004-04-06 2005-11-17 Fuji Photo Film Co Ltd Particular region detecting method, particular region detecting apparatus, and program therefor
JP2006059015A (en) * 2004-08-18 2006-03-02 Sony Corp Human body detector, human body detection method, and computer program
JP2007025902A (en) * 2005-07-13 2007-02-01 Canon Inc Image processor and image processing method
JP2007025899A (en) * 2005-07-13 2007-02-01 Canon Inc Image processor and image processing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012185846A (en) * 2007-06-18 2012-09-27 Fujifilm Corp Face detection method
JP2011034311A (en) * 2009-07-31 2011-02-17 Casio Computer Co Ltd Image processor and method
JP2011100293A (en) * 2009-11-05 2011-05-19 Canon Inc Information processing device, method for controlling the same, and program
CN111402234A (en) * 2020-03-16 2020-07-10 深圳市启灵图像科技有限公司 Machine vision detection system
CN111402234B (en) * 2020-03-16 2024-05-03 深圳市启灵图像科技有限公司 Machine vision detecting system

Also Published As

Publication number Publication date
JP4765523B2 (en) 2011-09-07

Similar Documents

Publication Publication Date Title
JP6938422B2 (en) Image processing equipment, image processing methods, and programs
JP2776295B2 (en) Image index generation method and image index generation device
JP4859025B2 (en) Similar image search device, similar image search processing method, program, and information recording medium
JP4960897B2 (en) Image processing apparatus, image processing method, program, and storage medium
US10013395B2 (en) Apparatus, control method thereof, and storage medium that determine a layout image from a generated plurality of layout images by evaluating selected target images
JP4335476B2 (en) Method for changing the number, size, and magnification of photographic prints based on image saliency and appeal
CN109543501B (en) Image processing apparatus, image processing method, and storage medium
EP3334142B1 (en) Program, image processing apparatus, and image processing method
US9299177B2 (en) Apparatus, method and non-transitory computer-readable medium using layout similarity
JP5288961B2 (en) Image processing apparatus and image processing method
US20100231995A1 (en) Image processing apparatus, image processing apparatus control method, and storage medium storing program
US20140009796A1 (en) Information processing apparatus and control method thereof
JP4765523B2 (en) Image detection apparatus, image detection method, and image detection program
US9509870B2 (en) Image processing apparatus, image processing method, and storage medium enabling layout varations
JP2008204184A (en) Image processor, image processing method, program and recording medium
EP3128733B1 (en) Information processing method, information processing apparatus, and program
JP4967045B2 (en) Background discriminating apparatus, method and program
EP3128461B1 (en) Image processing apparatus, image processing method, and program
JP2000123173A (en) Image characteristic extracting method, similar image retrieval system and recording medium
JP4910821B2 (en) Image identification method
JP6700705B2 (en) Distribution system, information processing method, and program
JP7370759B2 (en) Image processing device, image processing method and program
JP4569162B2 (en) Image processing method, image processing program, and image processing apparatus
JP5157848B2 (en) Image processing apparatus, image processing method, computer program, and information recording medium
JP4205517B2 (en) Image classification apparatus and program including depth information

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080917

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110422

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110530

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140624

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees