JP4561380B2 - Detection apparatus, detection method, and detection program - Google Patents

Detection apparatus, detection method, and detection program Download PDF

Info

Publication number
JP4561380B2
JP4561380B2 JP2005015375A JP2005015375A JP4561380B2 JP 4561380 B2 JP4561380 B2 JP 4561380B2 JP 2005015375 A JP2005015375 A JP 2005015375A JP 2005015375 A JP2005015375 A JP 2005015375A JP 4561380 B2 JP4561380 B2 JP 4561380B2
Authority
JP
Japan
Prior art keywords
image
images
detection
image group
creating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005015375A
Other languages
Japanese (ja)
Other versions
JP2006202184A (en
Inventor
大作 保理江
雄介 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2005015375A priority Critical patent/JP4561380B2/en
Publication of JP2006202184A publication Critical patent/JP2006202184A/en
Application granted granted Critical
Publication of JP4561380B2 publication Critical patent/JP4561380B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、対象画像中に存在する物体を検出する検出技術に関する。   The present invention relates to a detection technique for detecting an object present in a target image.

近年、対象画像中に存在する被写体(例えば、人体又は物体)を検出する技術が多く提案されている。肌色検出又はエッジ検出等の簡易な手法も存在するが、被写体検出後に、認証又は状態検出等の高度な処理を実行する場合には、テンプレートマッチング等による検出位置精度の高い検出手法が有効となる。   In recent years, many techniques for detecting a subject (for example, a human body or an object) existing in a target image have been proposed. There are simple methods such as skin color detection or edge detection, but when advanced processing such as authentication or state detection is executed after subject detection, a detection method with high detection position accuracy by template matching or the like is effective. .

テンプレートマッチングにおいて、検出処理時間を短縮するために、多重解像度画像を用いる手法が存在する(特許文献1参照)。これは、検出対象画像を所定の縮小率で縮小した低解像度画像を用いて粗く検出し位置限定を行い、限定された位置情報に基づいて高解像度画像でより正確な検出を行うものであり、高速かつ高精細な検索処理を実現する。   In template matching, there is a technique using a multi-resolution image in order to shorten the detection processing time (see Patent Document 1). This is a method of coarsely detecting and limiting the position using a low-resolution image obtained by reducing the detection target image at a predetermined reduction ratio, and performing more accurate detection with a high-resolution image based on the limited position information. Realizes high-speed and high-definition search processing.

特開2000−134638号公報JP 2000-134638 A

しかしながら、この手法においては、検出に用いるテンプレートと同等の大きさを有する被写体しか検出できない。したがって、対象画像中において複数の大きさで現された被写体を検出するためには、複数の大きさを検出するための多重解像度画像を、検出対象の大きさごとに別々に作成するための処理時間を要することとなり、十分に高速化を図ることができないという問題がある。   However, in this method, only a subject having the same size as the template used for detection can be detected. Therefore, in order to detect a subject displayed in a plurality of sizes in the target image, a process for separately generating a multi-resolution image for detecting a plurality of sizes for each size of the detection target Time is required, and there is a problem that the speed cannot be sufficiently increased.

そこで、本発明は、上記課題に鑑みてなされたものであり、対象画像中に存在する複数の大きさの被写体を効率的に検出可能とする技術を提供することを課題とする。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide a technique that can efficiently detect a plurality of sizes of subjects present in a target image.

上記の課題を解決するため、請求項1の発明は、対象画像中に存在する物体を検出する検出装置であって、前記対象画像中における複数の大きさの物体を検出するために用いる第1の画像群であって、前記対象画像に対する倍率が互いに異なる複数の画像を有する第1の画像群と、前記対象画像中における前記複数の大きさの物体をそれぞれ高速に検出するために用いる第2の画像群であって、前記第1の画像群における前記複数の画像がそれぞれ所定倍率で縮小された状態に相当する複数の画像を有する第2の画像群とを含む階層画像群を作成する階層画像群作成手段と、前記階層画像群を用いて前記物体を検出する物体検出手段とを備え、前記第1の画像群と前記第2の画像群とは、各画像群の一部の画像についての前記対象画像に対する倍率が互いに同一となるように、当該一部の画像が共通化された状態で作成されることを特徴とする。   In order to solve the above problems, the invention of claim 1 is a detection device for detecting an object present in a target image, and is a first device used for detecting an object having a plurality of sizes in the target image. A first image group having a plurality of images with different magnifications relative to the target image, and a second image group used for detecting each of the plurality of objects in the target image at high speed. And a second image group that includes a plurality of images corresponding to a state in which the plurality of images in the first image group are reduced at a predetermined magnification, respectively. Image group creation means and object detection means for detecting the object using the hierarchical image group, wherein the first image group and the second image group are for a part of each image group For the target image As the magnification is identical to each other, and a part of the image the is created in shared state.

また、請求項2の発明は、請求項1の発明に係る検出装置において、前記階層画像群作成手段は、前記対象画像に対する倍率が互いに異なる複数の基準画像を作成するとともに当該複数の基準画像のそれぞれをさらに所定倍率で縮小した複数の縮小画像を作成することによって、前記複数の基準画像と前記複数の縮小画像とを含む前記階層画像群を作成し、前記複数の縮小画像の一部は、前記第1の画像群と前記第2の画像群との両方に属する画像として共通化されて作成されることを特徴とする。   According to a second aspect of the present invention, in the detection apparatus according to the first aspect of the invention, the hierarchical image group creating unit creates a plurality of reference images having different magnifications with respect to the target image, and the plurality of reference images. By creating a plurality of reduced images obtained by reducing each of them by a predetermined magnification, the hierarchical image group including the plurality of reference images and the plurality of reduced images is created, and a part of the plurality of reduced images includes: It is characterized by being created in common as images belonging to both the first image group and the second image group.

また、請求項3の発明は、請求項2の発明に係る検出装置において、前記階層画像群作成手段は、第1の縮小率αと第2の縮小率βとを、β=αN(Nは2以上の整数)の関係を満たすように決定する決定手段と、前記対象画像に基づいて第1の基準画像を作成するとともに当該第1の基準画像を前記第1の縮小率αの画像間縮小率で順次縮小して(N−1)個の中間階層の基準画像を作成することによって、前記第1の基準画像と前記(N−1)個の中間階層の基準画像とを含む前記複数の基準画像を作成する手段と、前記複数の基準画像のそれぞれをさらに前記第2の縮小率βで縮小することによって複数の縮小画像を作成する手段とを有することを特徴とする。 According to a third aspect of the present invention, in the detection apparatus according to the second aspect of the invention, the hierarchical image group creating means sets the first reduction rate α and the second reduction rate β to β = α N (N And a determination means for determining so as to satisfy a relationship of 2 or more) and a first reference image based on the target image and the first reference image between the images with the first reduction ratio α The plurality of images including the first reference image and the (N-1) intermediate layer reference images by sequentially reducing the reduction ratio to generate (N-1) intermediate layer reference images. And a means for creating a plurality of reduced images by further reducing each of the plurality of reference images at the second reduction ratio β.

また、請求項4の発明は、請求項3の発明に係る検出装置において、前記階層画像群作成手段は、前記複数の縮小画像のうちの1つの画像または複数の画像のそれぞれを、さらに前記第2の縮小率βで縮小することによって、少なくとも1つの再縮小画像を作成する手段、をさらに有することを特徴とする。   According to a fourth aspect of the present invention, in the detection apparatus according to the third aspect of the invention, the hierarchical image group creating means further includes one of the plurality of reduced images or each of the plurality of images. And means for creating at least one re-reduced image by reducing at a reduction ratio β of 2.

また、請求項5の発明は、請求項3または請求項4の発明に係る検出装置において、前記第2の縮小率βは、1/K(Kは2以上の整数)であることを特徴とする。   The invention according to claim 5 is the detection apparatus according to claim 3 or claim 4, wherein the second reduction rate β is 1 / K (K is an integer of 2 or more). To do.

また、請求項6の発明は、請求項1ないし請求項5のいずれかの発明に係る検出装置において、前記物体検出手段は、前記第1の画像群の中から選択した注目画像とテンプレートとを用いた比較処理によって、当該注目画像で検出対象となる大きさの物体を検出する動作を繰り返すことによって前記複数の大きさの物体を検出し、前記注目画像に対応する大きさの物体を検出する動作においては、前記注目画像と前記注目画像を前記所定倍率で縮小した画像であって前記第2の画像群の一画像とのうち低解像度の画像から順に用いて、物体の検出を行うことによって前記注目画像での検出対象となる大きさの物体を効率的に検出することを特徴とする。   According to a sixth aspect of the present invention, in the detection device according to any one of the first to fifth aspects, the object detection unit includes a target image selected from the first image group and a template. By using the comparison processing used, the plurality of sizes of objects are detected by repeating the operation of detecting the size of the target object in the target image, and the size of the object corresponding to the target image is detected. In operation, an object is detected by using the image of interest and an image obtained by reducing the image of interest at a predetermined magnification and sequentially using a low-resolution image from one image of the second image group. An object having a size to be detected in the attention image is efficiently detected.

また、請求項7の発明は、対象画像中に存在する物体を検出する検出方法であって、前記対象画像中における複数の大きさの物体を検出するために用いる第1の画像群であって、前記対象画像に対する倍率が互いに異なる複数の画像を有する第1の画像群と、前記対象画像中における前記複数の大きさの物体をそれぞれ高速に検出するために用いる第2の画像群であって、前記第1の画像群における前記複数の画像がそれぞれ所定倍率で縮小された状態に相当する複数の画像を有する第2の画像群とを含む階層画像群を作成する階層画像群作成工程と、前記階層画像群を用いて前記物体を検出する物体検出工程とを含み、前記第1の画像群と前記第2の画像群とは、各画像群の一部の画像についての前記対象画像に対する倍率が互いに同一となるように、当該一部の画像が共通化された状態で作成されることを特徴とする。   The invention of claim 7 is a detection method for detecting an object present in a target image, and is a first image group used for detecting an object having a plurality of sizes in the target image. A first image group having a plurality of images with different magnifications relative to the target image, and a second image group used for detecting each of the plurality of objects in the target image at high speed. A hierarchical image group creating step for creating a hierarchical image group including a second image group having a plurality of images corresponding to a state in which the plurality of images in the first image group are respectively reduced at a predetermined magnification; An object detection step of detecting the object using the hierarchical image group, wherein the first image group and the second image group are a magnification with respect to the target image with respect to a partial image of each image group Are identical to each other So that the characterized in that the part of the image the is created in shared state.

また、請求項8の発明は、請求項7の発明に係る検出方法において、前記階層画像群作成工程は、前記対象画像に対する倍率が互いに異なる複数の基準画像を作成するとともに当該複数の基準画像のそれぞれをさらに所定倍率で縮小した複数の縮小画像を作成することによって、前記複数の基準画像と前記複数の縮小画像とを含む前記階層画像群を作成し、前記複数の縮小画像の一部は、前記第1の画像群と前記第2の画像群との両方に属する画像として共通化されて作成されることを特徴とする。   The invention according to claim 8 is the detection method according to claim 7, wherein the hierarchical image group creating step creates a plurality of reference images having different magnifications with respect to the target image and the plurality of reference images. By creating a plurality of reduced images obtained by reducing each of them by a predetermined magnification, the hierarchical image group including the plurality of reference images and the plurality of reduced images is created, and a part of the plurality of reduced images includes: It is characterized by being created in common as images belonging to both the first image group and the second image group.

また、請求項9の発明は、請求項8の発明に係る検出方法において、前記階層画像群作成工程は、第1の縮小率αと第2の縮小率βとを、β=αN(Nは2以上の整数)の関係を満たすように決定する決定工程と、前記対象画像に基づいて第1の基準画像を作成するとともに当該第1の基準画像を前記第1の縮小率αの画像間縮小率で順次縮小して(N−1)個の中間階層の基準画像を作成することによって、前記第1の基準画像と前記(N−1)個の中間階層の基準画像とを含む前記複数の基準画像を作成する工程と、前記複数の基準画像のそれぞれをさらに前記第2の縮小率βで縮小することによって複数の縮小画像を作成する工程とを備えることを特徴とする。 The invention according to claim 9 is the detection method according to claim 8, wherein the hierarchical image group creating step sets the first reduction rate α and the second reduction rate β to β = α N (N Is determined to satisfy the relationship of an integer of 2 or more, and a first reference image is created based on the target image, and the first reference image is between the images with the first reduction ratio α. The plurality of images including the first reference image and the (N-1) intermediate layer reference images by sequentially reducing the reduction ratio to generate (N-1) intermediate layer reference images. And a step of creating a plurality of reduced images by further reducing each of the plurality of reference images at the second reduction ratio β.

また、請求項10の発明は、請求項9の発明に係る検出方法において、前記階層画像群作成工程は、前記複数の縮小画像のうちの1つの画像または複数の画像のそれぞれを、さらに前記第2の縮小率βで縮小することによって、少なくとも1つの再縮小画像を作成する工程、をさらに有することを特徴とする。   Further, the invention of claim 10 is the detection method according to the invention of claim 9, wherein in the hierarchical image group creating step, one of the plurality of reduced images or each of the plurality of images is further processed. The method further includes the step of creating at least one re-reduced image by reducing at a reduction ratio β of 2.

また、請求項11の発明は、請求項9または請求項10の発明に係る検出方法において、前記第2の縮小率βは、1/K(Kは2以上の整数)であることを特徴とする。   The invention according to claim 11 is the detection method according to claim 9 or claim 10, wherein the second reduction rate β is 1 / K (K is an integer of 2 or more). To do.

また、請求項12の発明は、請求項7ないし請求項11のいずれかの発明に係る検出方法において、前記物体検出工程は、前記第1の画像群の中から選択した注目画像とテンプレートとを用いた比較処理によって、当該注目画像で検出対象となる大きさの物体を検出する動作を繰り返すことによって前記複数の大きさの物体を検出し、前記注目画像に対応する大きさの物体を検出する動作においては、前記注目画像と前記注目画像を前記所定倍率で縮小した画像であって前記第2の画像群の一画像とのうち低解像度の画像から順に用いて、物体の検出を行うことによって前記注目画像での検出対象となる大きさの物体を効率的に検出することを特徴とする。   According to a twelfth aspect of the present invention, in the detection method according to any one of the seventh to eleventh aspects, the object detection step includes a target image selected from the first image group and a template. By using the comparison processing used, the plurality of sizes of objects are detected by repeating the operation of detecting the size of the target object in the target image, and the size of the object corresponding to the target image is detected. In operation, an object is detected by using the image of interest and an image obtained by reducing the image of interest at a predetermined magnification and sequentially using a low-resolution image from one image of the second image group. An object having a size to be detected in the attention image is efficiently detected.

また、請求項13の発明は、コンピュータに、対象画像中における複数の大きさの物体を検出するために用いる第1の画像群であって、前記対象画像に対する倍率が互いに異なる複数の画像を有する第1の画像群と、前記対象画像中における前記複数の大きさの物体をそれぞれ高速に検出するために用いる第2の画像群であって、前記第1の画像群における前記複数の画像がそれぞれ所定倍率で縮小された状態に相当する複数の画像を有する第2の画像群とを含む階層画像群を作成する階層画像群作成工程と、前記階層画像群を用いて前記物体を検出する物体検出工程とを実行させることによって、前記対象画像中に存在する物体を検出するプログラムであって、前記第1の画像群と前記第2の画像群とは、各画像群の一部の画像についての前記対象画像に対する倍率が互いに同一となるように、当該一部の画像が共通化された状態で作成されることを特徴とする。   The invention according to claim 13 is a first image group used for detecting an object having a plurality of sizes in the target image, and has a plurality of images having different magnifications with respect to the target image. A first image group, and a second image group used for detecting each of the plurality of size objects in the target image at high speed, wherein the plurality of images in the first image group are respectively A hierarchical image group creating step for creating a hierarchical image group including a second image group having a plurality of images corresponding to a state reduced at a predetermined magnification, and object detection for detecting the object using the hierarchical image group A program for detecting an object present in the target image by executing the step, wherein the first image group and the second image group are for a part of each image group. As the magnification for serial target image becomes the same as each other, and a part of the image the is created in shared state.

また、請求項14の発明は、請求項13の発明に係るプログラムにおいて、前記階層画像群作成工程は、前記対象画像に対する倍率が互いに異なる複数の基準画像を作成するとともに当該複数の基準画像のそれぞれをさらに所定倍率で縮小した複数の縮小画像を作成することによって、前記複数の基準画像と前記複数の縮小画像とを含む前記階層画像群を作成し、前記複数の縮小画像の一部は、前記第1の画像群と前記第2の画像群との両方に属する画像として共通化されて作成されることを特徴とする。   The invention according to claim 14 is the program according to claim 13, wherein the hierarchical image group creating step creates a plurality of reference images having different magnifications with respect to the target image and each of the plurality of reference images. Are further reduced at a predetermined magnification to create the hierarchical image group including the plurality of reference images and the plurality of reduced images, and a part of the plurality of reduced images is It is characterized in that it is created in common as images belonging to both the first image group and the second image group.

また、請求項15の発明は、請求項14の発明に係るプログラムにおいて、前記階層画像群作成工程は、前記コンピュータに、第1の縮小率αと第2の縮小率βとを、β=αN(Nは2以上の整数)の関係を満たすように決定する決定工程と、前記対象画像に基づいて第1の基準画像を作成するとともに当該第1の基準画像を前記第1の縮小率αの画像間縮小率で順次縮小して(N−1)個の中間階層の基準画像を作成することによって、前記第1の基準画像と前記(N−1)個の中間階層の基準画像とを含む前記複数の基準画像を作成する工程と、前記複数の基準画像のそれぞれをさらに前記第2の縮小率βで縮小することによって複数の縮小画像を作成する工程とを実行させることを特徴とする。 Further, the invention according to claim 15 is the program according to claim 14, wherein the hierarchical image group creating step sets the first reduction rate α and the second reduction rate β to the computer, and β = α N (N is an integer equal to or greater than 2), a determination step of determining so as to satisfy the relationship, and a first reference image is created based on the target image and the first reference image is converted into the first reduction ratio α. The (N-1) intermediate layer reference images are sequentially reduced at the image reduction ratios to create the first reference image and the (N-1) intermediate layer reference images. Including a step of creating the plurality of reference images, and a step of creating a plurality of reduced images by further reducing each of the plurality of reference images at the second reduction rate β. .

また、請求項16の発明は、請求項15の発明に係るプログラムにおいて、前記階層画像群作成工程は、前記コンピュータに、前記複数の縮小画像のうちの1つの画像または複数の画像のそれぞれを、さらに前記第2の縮小率βで縮小することによって、少なくとも1つの再縮小画像を作成する工程、をさらに実行させることを特徴とする。   The invention of claim 16 is the program according to the invention of claim 15, wherein in the hierarchical image group creating step, one image or each of a plurality of images among the plurality of reduced images is stored in the computer. Further, the step of generating at least one re-reduced image is further executed by reducing at the second reduction rate β.

また、請求項17の発明は、請求項15または請求項16の発明に係るプログラムにおいて、前記第2の縮小率βは、1/K(Kは2以上の整数)であることを特徴とする。   The invention according to claim 17 is the program according to claim 15 or claim 16, wherein the second reduction ratio β is 1 / K (K is an integer of 2 or more). .

また、請求項18の発明は、請求項13ないし請求項17のいずれかの発明に係るプログラムにおいて、前記物体検出工程は、前記コンピュータに、前記第1の画像群の中から選択した注目画像とテンプレートとを用いた比較処理によって、当該注目画像に対応する大きさの物体を検出する動作を繰り返すことによって前記複数の大きさの物体を検出し、前記注目画像で検出対象となる大きさの物体を検出する動作においては、前記注目画像と前記注目画像を前記所定倍率で縮小した画像であって前記第2の画像群の一画像とのうち低解像度の画像から順に用いて、物体の検出を行うことによって前記注目画像での検出対象となる大きさの物体を効率的に検出することを特徴とする。   According to an eighteenth aspect of the present invention, in the program according to any one of the thirteenth to seventeenth aspects, the object detection step causes the computer to select an image of interest selected from the first image group. The object having the size to be detected in the target image is detected by repeating the operation of detecting the object having the size corresponding to the target image by the comparison process using the template. In the operation of detecting the object, the object is detected by using the image of interest and the image of interest reduced at the predetermined magnification in order from the low resolution image of the second image group. By performing this, it is possible to efficiently detect an object having a size to be detected in the target image.

請求項1から請求項18に記載の発明によれば、対象画像中における複数の大きさの物体を検出するために用いる画像群と対象画像中における物体を高速に検出するために用いる画像群とが一部共通化された階層画像群が作成されるので、対象画像中に存在する複数の大きさの物体を効率的に検出することが可能となる。   According to the invention described in claims 1 to 18, an image group used for detecting an object of a plurality of sizes in the target image, an image group used for detecting an object in the target image at high speed, Since a hierarchical image group in which a part of the images is shared is created, an object having a plurality of sizes existing in the target image can be efficiently detected.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<概要>
図1は、本発明の実施形態に係る検出装置(画像処理装置)1の概要を示す図である。図1に示すように、検出装置1は、コンピュータシステム(以下、単に「コンピュータ」とも称する)として構成される。具体的には、当該コンピュータ(検出装置)は、CPU2と、記憶部3と、メディアドライブ4と、液晶ディスプレイなどの表示部5と、キーボード6a及びポインティングデバイスであるマウス6bなどの入力部6と、ネットワークカードなどの通信部7とを備えている。記憶部3は、複数の記憶媒体、具体的には、ハードディスクドライブ(HDD)3aと、HDD3aよりも高速処理可能なRAM(半導体メモリ)3bとを有している。また、メディアドライブ4は、CD−ROM、DVD(Digital Versatile Disk)、フレキシブルディスク、メモリカードなどの可搬性の記録媒体9からその中に記録されている情報を読み出すことができる。尚、このコンピュータに対して供給される情報は、記録媒体9を介して供給される場合に限定されず、LAN及びインターネットなどのネットワークを介して供給されてもよい。
<Overview>
FIG. 1 is a diagram showing an outline of a detection apparatus (image processing apparatus) 1 according to an embodiment of the present invention. As shown in FIG. 1, the detection apparatus 1 is configured as a computer system (hereinafter also simply referred to as “computer”). Specifically, the computer (detection device) includes a CPU 2, a storage unit 3, a media drive 4, a display unit 5 such as a liquid crystal display, an input unit 6 such as a keyboard 6a and a mouse 6b that is a pointing device. And a communication unit 7 such as a network card. The storage unit 3 includes a plurality of storage media, specifically, a hard disk drive (HDD) 3a, and a RAM (semiconductor memory) 3b capable of processing at higher speed than the HDD 3a. The media drive 4 can read information recorded therein from a portable recording medium 9 such as a CD-ROM, DVD (Digital Versatile Disk), flexible disk, or memory card. The information supplied to the computer is not limited to the case where the information is supplied via the recording medium 9, but may be supplied via a network such as a LAN and the Internet.

検出装置1は、記録媒体9等から読み出されて記憶部3に予め記録されたソフトウェアプログラム(以下、単に「プログラム」とも称する)をメモリ(RAM等)上に読み込み、そのプログラムをCPU2等を用いて実行することによって、後述するような各種機能を実現する。   The detection apparatus 1 reads a software program (hereinafter simply referred to as “program”) read from the recording medium 9 and recorded in advance in the storage unit 3 onto a memory (RAM or the like), and loads the program on the CPU 2 or the like. By using and executing, various functions as described later are realized.

図2は、検出装置1が備える各種機能を示すブロック図である。図2に示すように、検出装置1は、情報設定部11とピラミッド画像作成部12と探索窓決定部13とマッチング処理部14とを備えている。   FIG. 2 is a block diagram illustrating various functions included in the detection device 1. As shown in FIG. 2, the detection apparatus 1 includes an information setting unit 11, a pyramid image creation unit 12, a search window determination unit 13, and a matching processing unit 14.

情報設定部11は、検出に用いる参照情報を検出に適した情報に設定する機能を有している。   The information setting unit 11 has a function of setting reference information used for detection to information suitable for detection.

ピラミッド画像作成部12は、検出の対象となる対象画像(以下、「元画像」とも称する)中に存在する複数の大きさの物体を検出するために用いる画像群(以下、「複数サイズ検出用ピラミッド画像」とも称する)と、対象画像中に存在する複数の大きさの物体をそれぞれ高速に検出可能とする画像群(以下、「高速検出用ピラミッド画像」とも称する)とが一部共通化された階層画像群(以下、「統合ピラミッド画像」とも称する)を作成する機能を有している。尚、以下では、「複数サイズ検出用ピラミッド画像」、「高速検出用ピラミッド画像」及び「統合ピラミッド画像」をそれぞれ単に「ピラミッド画像」とも称する。   The pyramid image creation unit 12 is an image group (hereinafter referred to as “multiple size detection use”) for detecting an object having a plurality of sizes present in a target image (hereinafter also referred to as “original image”) to be detected. And a group of images (hereinafter also referred to as “high-speed detection pyramid images”) that can detect a plurality of objects of a plurality of sizes existing in the target image at high speed. A hierarchical image group (hereinafter also referred to as “integrated pyramid image”). In the following description, the “multiple-size detection pyramid image”, the “high-speed detection pyramid image”, and the “integrated pyramid image” are also simply referred to as “pyramid images”, respectively.

探索窓決定部13は、前述のピラミッド画像作成部12によって作成された階層画像群中の所定の画像上において、検出に用いる情報をラスタスキャンする探索窓領域を決定する機能を有している。   The search window determination unit 13 has a function of determining a search window region for raster scanning information used for detection on a predetermined image in the hierarchical image group created by the pyramid image creation unit 12 described above.

マッチング処理部14は、前述の探索窓決定部13において決定された探索窓領域において、照合及び検索処理を行い、検出対象物体の検出を行う機能を有している。詳細にはマッチング処理部14は、テンプレートを用いた比較処理を行うことによって対象画像中に存在する対象物体を検出する。尚、テンプレートを用いた比較処理としては、(1)テンプレートとして利用される画像と対象画像とを画素単位で比較する処理(パターンマッチング処理あるいは直接比較処理とも称する)、及び、(2)テンプレート画像と対象画像とからそれぞれ抽出した特徴量同士を比較する処理(間接比較処理とも称する)などが存在する。   The matching processing unit 14 has a function of performing a collation and search process in the search window region determined by the search window determination unit 13 and detecting a detection target object. Specifically, the matching processing unit 14 detects a target object existing in the target image by performing a comparison process using a template. The comparison process using the template includes (1) a process of comparing an image used as a template with the target image in pixel units (also referred to as a pattern matching process or a direct comparison process), and (2) a template image. There is a process (also referred to as an indirect comparison process) for comparing feature amounts extracted from the target image and the target image.

図3は、被写体として数人の人物を現す画像PIを示す図である。図4は、プログラム実行時の操作画面を示す図である。   FIG. 3 is a diagram showing an image PI showing several persons as subjects. FIG. 4 is a diagram showing an operation screen during program execution.

上述の各機能を備えた検出装置1は、対象画像中に存在する複数の大きさの物体を、高速に検出する。例えば、図3に示された画像PI中に存在する人物の顔を検出対象として検出する場合、検出装置1は、単一の大きさの顔だけでなく、図4に示す操作画面Q中のウィンドウW1において使用者(ユーザ)によって指定された範囲内(最も小さい顔から最も大きい顔まで)の複数の大きさの顔を検出することができる。   The detection apparatus 1 having the above-described functions detects a plurality of sizes of objects present in the target image at high speed. For example, when detecting the face of a person existing in the image PI shown in FIG. 3 as a detection target, the detection apparatus 1 is not only a single size face but also in the operation screen Q shown in FIG. A plurality of sizes of faces within a range designated by the user (user) in the window W1 (from the smallest face to the largest face) can be detected.

ここで、検出装置1において実行される検出処理の概要について説明する。   Here, an outline of the detection process executed in the detection apparatus 1 will be described.

図5は、検出装置1において実行される検出処理を模式的に示した図である。図6は、元画像FE1(PI)中に存在する複数の大きさの物体をピラミッド画像を用いて検出する検出処理の原理を示す模式図である。図7は、画像中に存在する所定の物体を高速に検出する検出処理の原理を示す模式図である。図8は、図6と図7とに示される両検出処理を組み合わせた検出処理の一例を示す模式図であり、図5に示される検出処理の比較例を示す図である。尚、図5と図8との関係は後に詳述する。   FIG. 5 is a diagram schematically illustrating a detection process executed in the detection apparatus 1. FIG. 6 is a schematic diagram showing the principle of detection processing for detecting an object having a plurality of sizes in the original image FE1 (PI) using a pyramid image. FIG. 7 is a schematic diagram showing the principle of detection processing for detecting a predetermined object existing in an image at high speed. FIG. 8 is a schematic diagram illustrating an example of a detection process in which both the detection processes illustrated in FIGS. 6 and 7 are combined, and is a diagram illustrating a comparative example of the detection process illustrated in FIG. The relationship between FIG. 5 and FIG. 8 will be described in detail later.

図5に示すように、検出装置1は、検出位置精度の高い検出手法であるテンプレートを用いたテンプレートマッチングによって物体検出を行っている。以下では、検出装置1が有する各機能の概要を説明する。   As illustrated in FIG. 5, the detection apparatus 1 performs object detection by template matching using a template that is a detection technique with high detection position accuracy. Below, the outline | summary of each function which the detection apparatus 1 has is demonstrated.

検出装置1は、情報設定部11において、検出テンプレートTE1と、検出テンプレートTE1を縮小率βで縮小した縮小テンプレートTE2と、縮小テンプレートTE2を縮小率βでさらに縮小した再縮小テンプレートTE3とで構成される検出用情報IF(IF1)を作成する。また、ピラミッド画像作成部12では、対象画像FE1から縮小率γと縮小率αと縮小率βとを用いて階層画像群MP(MP1)を作成する。各縮小率α,β,γについては後述する。さらに、探索窓決定部13においては、前述のピラミッド画像作成部12によって作成された階層画像群MP1中の所定階層の画像において、探索窓領域を決定する。この探索窓領域は、検出対象物体をラスタスキャン動作によって検索する際に用いられる。そして、マッチング処理部14において、前述の決定された探索窓領域での照合及び検索を行い、検出対象物体の検出処理を行う。具体的には、図5に示されるように、第2階層の画像FE2中で検出テンプレートTE1に対応する大きさの物体を検出する場合、検出装置1は、再縮小テンプレートTE3と第6階層の画像FE6との間で上述の検出処理を実行する。当該検出処理によって検出されれば、その検出位置を基にして、より高い解像度間つまり縮小テンプレートTE2と第4階層の画像FE4との間において検出処理を行う。さらに検出されれば、当該検出位置を基にして、検出テンプレートTE1と第2階層の画像FE2との間において検出処理を行う。このような動作によれば、低解像度の画像を用いた検出処理を行うことによって検出対象物体の存在及びその概要位置を高速に検出することができるとともに、その後に、より高解像度の画像を用いた検出処理を行うことによってさらに高精度に検出対象物体の位置を特定することができる。   In the information setting unit 11, the detection apparatus 1 includes a detection template TE1, a reduction template TE2 obtained by reducing the detection template TE1 at a reduction rate β, and a re-reduction template TE3 obtained by further reducing the reduction template TE2 at a reduction rate β. The detection information IF (IF1) is created. Further, the pyramid image creation unit 12 creates a hierarchical image group MP (MP1) from the target image FE1 using the reduction rate γ, the reduction rate α, and the reduction rate β. Each reduction rate α, β, γ will be described later. Further, the search window determination unit 13 determines a search window region in an image of a predetermined hierarchy in the hierarchy image group MP1 created by the pyramid image creation unit 12 described above. This search window region is used when searching for a detection target object by a raster scan operation. Then, the matching processing unit 14 performs collation and search in the determined search window region, and performs detection processing of the detection target object. Specifically, as illustrated in FIG. 5, when detecting an object having a size corresponding to the detection template TE1 in the image FE2 in the second hierarchy, the detection apparatus 1 includes the re-reduction template TE3 and the sixth hierarchy. The above-described detection process is executed with the image FE6. If detected by the detection process, the detection process is performed between higher resolutions, that is, between the reduced template TE2 and the fourth-layer image FE4 based on the detection position. If further detection is performed, detection processing is performed between the detection template TE1 and the second-level image FE2 based on the detection position. According to such an operation, by performing detection processing using a low-resolution image, it is possible to detect the presence of the detection target object and its outline position at a high speed, and then use a higher-resolution image. By performing the detection process, the position of the detection target object can be specified with higher accuracy.

ここで、検出装置1における検出方法の基礎となる検出原理について図6及び図7を用いて説明する。   Here, the detection principle that is the basis of the detection method in the detection apparatus 1 will be described with reference to FIGS. 6 and 7.

図6は、上述したように、複数サイズの物体をピラミッド画像を用いて検出する検出処理の原理を示す模式図である。図6には、元画像FE1を縮小することによって複数の大きさ検出用(複数サイズ検出用)のピラミッド画像PE1を作成し、作成した階層画像ごとに検出テンプレートTE1を用いて検索又は照合(検出処理)を行うことで、元画像FE1中に存在する複数の大きさを有する物体を一つの検出テンプレートTE1を用いて検出可能とする検出方法が示されている。   FIG. 6 is a schematic diagram illustrating the principle of detection processing for detecting an object having a plurality of sizes using a pyramid image as described above. In FIG. 6, a plurality of size detection (multiple size detection) pyramid images PE1 are created by reducing the original image FE1, and search or collation (detection) is performed using the detection template TE1 for each created hierarchical image. FIG. 2 shows a detection method in which an object having a plurality of sizes existing in the original image FE1 can be detected using one detection template TE1.

ここで、元画像FE1中に存在する複数の大きさを有する物体を一つの検出テンプレートTE1によって検出可能となることについて詳述する。元画像FE1と検出テンプレートTE1との間で実行される検出処理においては、元画像FE1中に存在する検出テンプレートTE1に対応する大きさの物体が検出される。一方、元画像FE1を縮小した画像FE2と検出テンプレートTE1との間の検出処理においては、画像FE2中に存在する検出テンプレートTE1に対応する大きさの物体が検出される。画像FE2と検出テンプレートTE1との間で検出される大きさの物体は、元画像FE1に換算すると検出テンプレートTE1に対応する大きさよりもさらに大きな物体となる。つまり、元画像FE1を縮小した画像FE2と検出テンプレートTE1との間で実行される検出処理では、検出テンプレートTE1に対応する大きさの物体よりもさらに大きな物体を検出していることになる。また、このように検出される物体の大きさは、元画像FE1と縮小した画像との間の縮小率によって決まるため、縮小率を変更することによって複数の大きさの物体を一つの検出テンプレートTE1を用いて検出することが可能となる。   Here, it will be described in detail that an object having a plurality of sizes existing in the original image FE1 can be detected by one detection template TE1. In the detection process executed between the original image FE1 and the detection template TE1, an object having a size corresponding to the detection template TE1 existing in the original image FE1 is detected. On the other hand, in the detection process between the image FE2 obtained by reducing the original image FE1 and the detection template TE1, an object having a size corresponding to the detection template TE1 existing in the image FE2 is detected. An object having a size detected between the image FE2 and the detection template TE1 is an object larger than the size corresponding to the detection template TE1 when converted to the original image FE1. That is, in the detection process executed between the image FE2 obtained by reducing the original image FE1 and the detection template TE1, an object larger than the object having a size corresponding to the detection template TE1 is detected. Further, since the size of the object detected in this way is determined by the reduction ratio between the original image FE1 and the reduced image, an object having a plurality of sizes is changed to one detection template TE1 by changing the reduction ratio. It becomes possible to detect using.

図7は、上述したように、所定の大きさの物体を高速に検出する検出処理の原理を示す模式図である。具体的には、図7に示されるように、まず、検出テンプレートTE1と検出対象画像KEとを縮小率βでそれぞれ縮小することで検出用情報IF1(具体的には、テンプレートTE1,TE2,TE3)と高速検出用ピラミッド画像PS1(具体的には、画像KE,KS2,KS3)とが作成される。そして、作成した低解像度画像KS3とテンプレートTE3とを用いて最初の検出処理を実行することによって対象物の概略位置を特定し、さらに、特定された概略位置の情報に基づいて、高解像度画像(KS2,KE)と当該高解像度に対応するテンプレートTE2,TE1とを用いてさらに正確な検出を行う。これにより、画像KE中に存在する物体を高速に検出することが可能となる。   FIG. 7 is a schematic diagram showing the principle of detection processing for detecting an object of a predetermined size at high speed as described above. Specifically, as shown in FIG. 7, first, the detection information TE1 (specifically, the templates TE1, TE2, TE3, and the detection information TE1 are reduced by reducing the detection template TE1 and the detection target image KE at the reduction ratio β. ) And a high-speed detection pyramid image PS1 (specifically, images KE, KS2, and KS3). Then, an approximate position of the object is specified by executing an initial detection process using the generated low-resolution image KS3 and template TE3, and further, based on the information on the specified approximate position, a high-resolution image ( More accurate detection is performed using KS2, KE) and templates TE2, TE1 corresponding to the high resolution. As a result, an object present in the image KE can be detected at high speed.

そして、上述した二つの検出処理を組み合わせることによって、すなわち、図6に示されるピラミッド画像PE1中における階層画像ごとに、図7に示される高速検出手法を採用することによって、元画像FE1中に存在する複数の大きさの物体を高速に検出することが可能となる。図8は、このような検出原理を用いた比較例に係る検出処理を示している。   Then, by combining the above-described two detection processes, that is, for each hierarchical image in the pyramid image PE1 shown in FIG. 6, by using the high-speed detection method shown in FIG. 7, it exists in the original image FE1. It is possible to detect an object of a plurality of sizes at a high speed. FIG. 8 shows a detection process according to a comparative example using such a detection principle.

一方、上述の図5の検出処理は、図8のような検出原理を用いつつ更に高速化を図ることを可能にするものである。具体的には、上述した図5に示される検出装置1が実行する検出方法では、図8中の複数用ピラミッド画像PE1と高速用ピラミッド画像PS1とを一部共通化したピラミッド画像MP1を作成し、これを検出処理に用いることによって、図8に示す検出手法よりもピラミッド画像作成の効率化を可能としている。つまり、検出装置1は、画像中に存在する複数の大きさの物体を高速に検出することを可能とし、さらに、検出に用いるピラミッド画像作成の効率化により、検出処理時間の短縮も実現している。   On the other hand, the above-described detection process of FIG. 5 makes it possible to further increase the speed while using the detection principle as shown in FIG. Specifically, in the detection method executed by the detection apparatus 1 shown in FIG. 5 described above, a pyramid image MP1 is created by partially sharing the plurality of pyramid images PE1 and the high-speed pyramid image PS1 in FIG. By using this for the detection process, the pyramid image can be created more efficiently than the detection method shown in FIG. In other words, the detection device 1 can quickly detect a plurality of sizes of objects present in an image, and further, the detection processing time can be shortened by improving the efficiency of creating a pyramid image used for detection. Yes.

<動作>
以下では、上述した検出装置1の各機能について詳細に説明する。尚、ここでは、検出対象物体を顔とした場合について説明するが、対象画像上で物体の大きさを想定して検出する場合であれば本発明の思想を適用することが可能であり、検出対象物は顔に限定されない。
<Operation>
Below, each function of the detection apparatus 1 mentioned above is demonstrated in detail. Here, the case where the detection target object is a face will be described. However, the idea of the present invention can be applied if detection is performed assuming the size of the object on the target image. The object is not limited to the face.

図9は、検出装置1の全体動作を示すフローチャートである。   FIG. 9 is a flowchart showing the overall operation of the detection apparatus 1.

まず、使用者(ユーザ)が行う入力部6等の操作による検出開始指示(ステップS21)の後、検出に用いる参照情報である検出対象物のテンプレート(以下、「検出テンプレート」とも称する)から検出用情報IFが設定され(ステップS22)、また、対象画像から階層画像群MPが作成される(ステップS23)。   First, after a detection start instruction (step S21) by an operation of the input unit 6 or the like performed by a user (user), detection is performed from a detection object template (hereinafter also referred to as “detection template”) which is reference information used for detection. The use information IF is set (step S22), and the hierarchical image group MP is created from the target image (step S23).

次に、ステップS22において設定された情報に基づいて、前述の階層画像群MP中の所定の画像上においてラスタスキャンを行う探索窓の領域が決定され(ステップS24)、当該探索窓において、マッチング(照合)処理が行われる(ステップS25)。さらに、所定画像上の領域が全て検索されたか否かを判定し(ステップS26)、検索が終了したと判定されると検出処理を終了し(ステップS27)、検索が終了していないと判定されると、ステップS24からステップS26までの工程が繰り返し実行される。   Next, based on the information set in step S22, a search window area for performing raster scan on a predetermined image in the hierarchical image group MP is determined (step S24), and matching ( A collation process is performed (step S25). Further, it is determined whether or not all areas on the predetermined image have been searched (step S26). When it is determined that the search has been completed, the detection process is ended (step S27), and it is determined that the search has not been completed. Then, the process from step S24 to step S26 is repeatedly performed.

以下、ステップS21からステップS25において実行される各処理を詳細に説明する。図10は、情報設定処理を示すフローチャートである。図11は、ピラミッド画像作成処理を示すフローチャートである。図12は、探索窓決定処理を示すフローチャートである。図13は、マッチング処理を示すフローチャートである。   Hereinafter, each process executed in steps S21 to S25 will be described in detail. FIG. 10 is a flowchart showing the information setting process. FIG. 11 is a flowchart showing pyramid image creation processing. FIG. 12 is a flowchart showing search window determination processing. FIG. 13 is a flowchart showing the matching process.

<顔検出処理開始>
顔検出処理を開始する前に、使用者(ユーザ)は、検出装置1によって検出する顔の大きさを指定する。具体的には、図4に示される操作画面Q上で使用者(ユーザ)が入力部6等の操作を行い、検出装置1により検出される顔の大きさを指定する。例えば、操作画面Q中の小ウィンドウW1の欄R1に数値「1」が、欄R2に数値「6」が入力されると、各欄の上部に入力した数値に該当する顔の大きさが表示される。尚、欄R1では、検出対象とする最小の大きさMN(最小サイズ)を指定し、欄R2では、検出対象とする最大の大きさMX(最大サイズ)を指定する。使用者(ユーザ)は、画像PI中に現された顔の大きさと検出対象とする顔の大きさとを比較し、検出する顔の大きさを決定する。決定は、各欄に数値を入力した状態で、実行ボタンBTを入力部6等で選択し押下することによって行う。上述の数値「1」及び数値「6」が欄R1及び欄R2にそれぞれ入力された状態で実行ボタンBTが押下されると、数値「1」に該当する大きさSZ1から数値「6」に該当する大きさSZ6までの6種類の大きさ(SZ1〜SZ6)の顔が検出対象として指定され(大きさの数M=6)、検出処理が開始されたことになり、情報設定処理(ステップS22)へと移行する。
<Start face detection processing>
Before starting the face detection process, the user (user) designates the size of the face detected by the detection device 1. Specifically, the user (user) operates the input unit 6 and the like on the operation screen Q shown in FIG. 4 to specify the size of the face detected by the detection device 1. For example, when a numerical value “1” is input in the field R1 of the small window W1 in the operation screen Q and a numerical value “6” is input in the field R2, the face size corresponding to the input numerical value is displayed at the top of each field. Is done. In the column R1, the minimum size MN (minimum size) to be detected is specified, and in the column R2, the maximum size MX (maximum size) to be detected is specified. The user (user) compares the size of the face appearing in the image PI with the size of the face to be detected, and determines the size of the face to be detected. The determination is performed by selecting and pressing the execution button BT with the input unit 6 or the like in a state where numerical values are input in the respective columns. When the execution button BT is pressed in a state where the numerical value “1” and the numerical value “6” are input in the column R1 and the column R2, respectively, the size SZ1 corresponding to the numerical value “1” corresponds to the numerical value “6”. Faces of six types of sizes (SZ1 to SZ6) up to the size SZ6 to be performed are designated as detection targets (number of sizes M = 6), and detection processing is started, and information setting processing (step S22) ).

<情報設定処理>
図14は、情報設定処理を模式的に示した図である。
<Information setting process>
FIG. 14 is a diagram schematically illustrating the information setting process.

この実施形態においては、図7と同様に、各大きさの顔を検出する際に、2段階の縮小画像を用いて比較処理を行うものとする。そのため、検出テンプレートTP1に加えて、当該テンプレートTP1を縮小率βを用いて順次に縮小した2つのテンプレートTP2,TP3が作成される。   In this embodiment, as in FIG. 7, when detecting a face of each size, comparison processing is performed using two-stage reduced images. Therefore, in addition to the detection template TP1, two templates TP2 and TP3 are created by sequentially reducing the template TP1 using the reduction ratio β.

具体的には、図10に示されるように、情報設定処理が開始されると(ステップS31)、記憶部3に保持している検出用の参照情報である顔検出テンプレートTP1から検出用情報IF(IF2)が設定される(ステップS32)。詳細には、顔検出テンプレートTP1から縮小率β=1/2によって縮小された縮小顔テンプレートTP2が作成され、さらに、当該縮小顔テンプレートTP2から縮小率β=1/2によって再縮小テンプレートTP3が作成される。   Specifically, as shown in FIG. 10, when the information setting process is started (step S31), the detection information IF is detected from the face detection template TP1 that is the reference information for detection held in the storage unit 3. (IF2) is set (step S32). Specifically, a reduced face template TP2 reduced by the reduction rate β = 1/2 is created from the face detection template TP1, and a re-reduction template TP3 is created from the reduced face template TP2 by the reduction rate β = 1/2. Is done.

ここで、縮小率βは、上述の1/2に限定されるものではなく、様々な値であってもよが、縮小率β=1/K(Kは2以上の整数)を満たす数値であることが好ましい。尚、本願においては、画像の「縮小率」を、画像一辺あたりの倍率で表すものとする。また、画像の縮小は、処理時間の制限及び必要画質に応じて、バイリニア法(bi-linear interpolation)、ニアレストネイバー法(nearest neighbor) 又はバイキュービック法(bi-cubic convolution)等の既存の補間方法を用いて行うことができる。   Here, the reduction ratio β is not limited to the above-mentioned ½, and may be various values, but is a numerical value satisfying the reduction ratio β = 1 / K (K is an integer of 2 or more). Preferably there is. In the present application, the “reduction ratio” of an image is represented by a magnification per side of the image. Image reduction can be done with existing interpolation methods such as bi-linear interpolation, nearest neighbor method, or bi-cubic convolution depending on processing time limitations and required image quality. It can be done using the method.

さらに、この実施形態においては、再縮小テンプレートTP3と縮小画像とを直接的に比較するのではなく、再縮小テンプレートTP3から抽出した特徴量と縮小画像から抽出した特徴量とを比較することによって、テンプレートを用いた比較処理を行う場合を例示する。そのため、このステップS32において、再縮小テンプレートTP3から当該全体領域に対する肌色領域の割合を数値化した特徴量CHを抽出する。尚、これに限定されず、再縮小テンプレートTP3と縮小画像とを直接的に画素単位で比較するパターンマッチング処理によって、テンプレートを用いた比較処理を行うようにしてもよく、その場合には、特徴量CHの抽出処理は不要である。   Furthermore, in this embodiment, instead of directly comparing the reduced image template TP3 and the reduced image, by comparing the feature amount extracted from the reduced image template TP3 with the feature amount extracted from the reduced image, The case where the comparison process using a template is performed is illustrated. Therefore, in step S32, a feature amount CH in which the ratio of the skin color area to the entire area is quantified is extracted from the re-reduction template TP3. However, the present invention is not limited to this, and comparison processing using a template may be performed by pattern matching processing that directly compares the re-reduced template TP3 and the reduced image in units of pixels. The amount CH extraction process is not necessary.

このように作成又は抽出された各テンプレート及び特徴量CHは、検出用情報IF(IF2)としてRAM3bに読み込まれ、後述するマッチング処理において使用される。   Each template and feature amount CH created or extracted in this way is read into the RAM 3b as detection information IF (IF2) and used in matching processing described later.

尚、顔検出テンプレートTP1を基準として実行するテンプレート縮小回数Sは、上述のような回数(すなわち2回)に限定されるものではなく、検出処理時間及び検出精度等との関係により適切な回数に変更することが可能である。また、特徴量CHは、再縮小テンプレートTP3から抽出することに限定されず、縮小テンプレートTP2又は顔検出テンプレートTP1から特徴量を抽出し、マッチング処理に使用してもよい。さらに、ここでは、抽出される特徴量CHとして、前述のように再縮小テンプレートTP3が有する当該全体領域に対する肌色領域の割合を数値化した値を例示しているがこれに限定されず、当該テンプレートが有する他の特徴を抽出したものであってもよい。また、主成分分析 (Principal Component Analysis, PCA)等を利用してテンプレートをパラメータ化した情報を特徴量として用いてもよい。   Note that the number of template reductions S to be executed on the basis of the face detection template TP1 is not limited to the number of times as described above (that is, twice), and is set to an appropriate number depending on the relationship with the detection processing time, detection accuracy, and the like. It is possible to change. The feature amount CH is not limited to being extracted from the re-reduction template TP3, and the feature amount may be extracted from the reduction template TP2 or the face detection template TP1 and used for matching processing. Furthermore, here, as the extracted feature quantity CH, a value obtained by quantifying the ratio of the skin color area to the entire area of the re-reduction template TP3 as described above is illustrated, but the present invention is not limited to this, and the template is not limited thereto. It may be one obtained by extracting other features of the. Further, information obtained by parameterizing a template using principal component analysis (PCA) or the like may be used as a feature amount.

検出用情報IF(IF2)が設定されると情報設定処理の工程を終了し(ステップS33)、ピラミッド画像作成処理(ステップS23)に移行する。   When the detection information IF (IF2) is set, the information setting process ends (step S33), and the process proceeds to a pyramid image creation process (step S23).

<ピラミッド画像作成処理>
図15は、ピラミッド画像作成処理における基準画像作成を示す図である。図16は、ピラミッド画像作成処理における縮小画像作成を示す図である。図17は、ピラミッド画像の完成図である。図18は、ピラミッド画像における画像種別を示す図である。図19は、ピラミッド画像における各画像間の縮小倍率を示す図である。
<Pyramid image creation processing>
FIG. 15 is a diagram illustrating reference image creation in the pyramid image creation processing. FIG. 16 is a diagram illustrating reduced image creation in the pyramid image creation processing. FIG. 17 is a completed view of the pyramid image. FIG. 18 is a diagram illustrating image types in a pyramid image. FIG. 19 is a diagram illustrating a reduction ratio between images in a pyramid image.

図11に示されるように、ピラミッド画像作成処理が開始されると(ステップS41)、作成する階層数L(以下、「総階層数」とも称する)が決定される(ステップS42)。具体的には、検出対象の顔の大きさの数Mとテンプレート縮小回数Sと後述する基準画像数Nとの関係から導出される総階層数L=M+S×Nによって決定される。本実施形態においては、検出対象の顔の大きさの数M=6、テンプレート縮小回数S=2、基準画像数N=M−2=4とした場合について説明を行う。よって、本実施形態では、作成される総階層数は、L=14階層となる。   As shown in FIG. 11, when the pyramid image creation process is started (step S41), the number L of layers to be created (hereinafter also referred to as “total number of layers”) is determined (step S42). Specifically, it is determined by the total number of layers L = M + S × N derived from the relationship among the number M of face sizes to be detected, the number of template reductions S, and a reference image number N described later. In the present embodiment, a case will be described where the number M of face sizes to be detected is M = 6, the number of template reductions S = 2, and the number of reference images N = M−2 = 4. Therefore, in the present embodiment, the total number of hierarchies created is L = 14 hierarchies.

次に、検出処理開始(ステップS21)時に指定された最小の顔の大きさを検出するために用いる第1階層の画像F1が作成される(ステップS43)。具体的には、対象画像F0(元画像)から所定の倍率γを用いて作成される(図15参照)。所定の倍率γは、顔検出テンプレートTP1が有する顔の大きさLA1と使用者(ユーザ)が指定した最小の顔の大きさMN(最小サイズ)との比で決定される。例えば、指定された大きさMNがテンプレートTP1の大きさLA1の2倍の大きさである場合は、倍率γ=1/2となり、指定された大きさMNとテンプレートTP1の大きさLA1とが等しい場合は、倍率γ=1つまり等倍となる。   Next, a first layer image F1 used to detect the minimum face size designated at the start of the detection process (step S21) is created (step S43). Specifically, it is created from the target image F0 (original image) using a predetermined magnification γ (see FIG. 15). The predetermined magnification γ is determined by a ratio between the face size LA1 of the face detection template TP1 and the minimum face size MN (minimum size) designated by the user (user). For example, when the designated size MN is twice the size LA1 of the template TP1, the magnification γ = 1/2, and the designated size MN and the size LA1 of the template TP1 are equal. In this case, the magnification γ = 1, that is, equal magnification.

上述のようにステップS43において第1階層の画像F1が作成されると、中間階層の基準画像作成工程(ステップS44)において、(N−1)個つまり3個の中間階層の基準画像G2が作成される(図15参照)。具体的には、まず、第1階層の画像F1から縮小率αによって縮小された第2階層の画像F2が作成される。さらに、第2階層の画像F2から縮小率αによって第3階層の画像F3が作成され、以後、第N階層までの画像が縮小率αによって順次作成される。つまり、基準画像数N=4の場合は、第4階層の画像F4まで縮小率αを用いて基準画像が作成されることになる。尚、ステップS43で作成される第1階層の画像F1とステップS44で作成される中間階層の基準画像G2(画像F2〜F4)とは、基準画像G3を構成する(図18参照)。これらの基準画像G3は、次述するように、縮小画像を作成するにあたり基準となる画像である。基準画像G3の構成要素である各画像F1〜F4は、対象画像F0に対する倍率が互いに異なっている。詳細には、画像F1〜F4は、それぞれ対象画像F0のγ倍、γ×α倍、γ×α2倍、γ×α3倍となっている。 As described above, when the first layer image F1 is created in step S43, (N-1), that is, three middle layer reference images G2 are created in the middle layer reference image creation step (step S44). (See FIG. 15). Specifically, first, an image F2 of the second hierarchy reduced from the image F1 of the first hierarchy by the reduction ratio α is created. Further, an image F3 in the third hierarchy is created from the image F2 in the second hierarchy with a reduction ratio α, and thereafter images up to the Nth hierarchy are sequentially created with the reduction ratio α. That is, when the reference image number N = 4, the reference image is created using the reduction ratio α up to the fourth-layer image F4. The first layer image F1 created in step S43 and the intermediate layer reference image G2 (images F2 to F4) created in step S44 constitute a reference image G3 (see FIG. 18). These reference images G3 are images that serve as a reference in creating a reduced image, as will be described below. The images F1 to F4, which are constituent elements of the reference image G3, have different magnifications relative to the target image F0. Specifically, the images F1 to F4 are γ times, γ × α times, γ × α 2 times, and γ × α 3 times the target image F0, respectively.

中間階層の基準画像作成工程(ステップS44)が終了すると、縮小画像作成工程(ステップS45)へと移行する。ステップS45では、まず、第(N+1)階層つまり第5階層に該当する画像F5が第1階層の画像F1に基づいて作成される。具体的には、第5階層の画像F5は、第1階層の画像F1を縮小率βによって縮小することによって作成される(図16参照)。ここで、基準画像数Nと縮小率αと縮小率βとの間においては、β=αNの関係が成立する。つまり、本実施形態(基準画像数N=4、縮小率β=1/2)の場合、上記の関係によって自動的に縮小率αが決定され、縮小率α≒1/1.19となる。尚、この実施形態においては基準画像数N=4としているが、基準画像数Nは、2以上でありかつ検出対象の顔の大きさの数M未満の整数であれば任意な数である。 When the intermediate layer reference image creation step (step S44) ends, the process proceeds to a reduced image creation step (step S45). In step S45, first, an image F5 corresponding to the (N + 1) th layer, that is, the fifth layer is created based on the image F1 of the first layer. Specifically, the fifth layer image F5 is created by reducing the first layer image F1 by the reduction ratio β (see FIG. 16). Here, the relationship β = α N is established among the reference image number N, the reduction rate α, and the reduction rate β. That is, in the case of the present embodiment (reference image number N = 4, reduction rate β = 1/2), the reduction rate α is automatically determined by the above relationship, and the reduction rate α≈1 / 1.99. In this embodiment, the reference image number N = 4. However, the reference image number N is an arbitrary number as long as it is an integer equal to or larger than 2 and less than the number M of face sizes to be detected.

ステップS45における縮小画像の作成が終了すると、ステップS42で決定された総階層数LとステップS45で既に作成済みとなった画像の階層数Fkとが比較される(ステップS46)。この比較によって総階層数L分の階層画像が作成されたと判断されると、ピラミッド画像作成処理を終了し(ステップS47)、作成階層数Fkが総階層数Lに満たない場合は、作成階層数Fkに1が加算される(ステップS48)。例えば、Fk=5である場合は、ステップS48へと移行し、Fk=6となる。   When the creation of the reduced image in step S45 is completed, the total number of hierarchies L determined in step S42 is compared with the number of hierarchies Fk of images already created in step S45 (step S46). If it is determined by this comparison that layer images corresponding to the total number of layers L have been created, the pyramid image creation process is terminated (step S47), and if the number of created layers Fk is less than the total number of layers L, the number of created layers 1 is added to Fk (step S48). For example, when Fk = 5, the process proceeds to step S48 and Fk = 6.

この後、新たな上位階層6について再び縮小画像処理(ステップS45)が実行される。第6階層の画像F6の作成には、第2階層の画像F2が基準となり、第2階層の画像F2が縮小率βによって縮小されることによって作成される(図16参照)。以後同様に、第7階層の画像F7の作成には、第3階層の画像F3が基準となり、第8階層の画像F8の作成には、第4階層の画像F4が基準となり、順次作成される。さらに、第9階層以降の画像も作成階層より4階層下の画像を基にして同様に作成され、階層数Fk=14までステップS45からステップS48の工程が繰り返し実行される(図17参照)。   Thereafter, the reduced image processing (step S45) is executed again for the new upper hierarchy 6. The image F6 of the sixth hierarchy is created by using the image F2 of the second hierarchy as a reference, and the image F2 of the second hierarchy is reduced by the reduction ratio β (see FIG. 16). Thereafter, similarly, the image F3 in the third hierarchy is used as a reference for the creation of the image F7 in the seventh hierarchy, and the image F4 in the fourth hierarchy is used as the reference for the creation of the image F8 in the eighth hierarchy. . Further, the images after the ninth layer are similarly created based on the images four layers below the creation layer, and the steps S45 to S48 are repeatedly executed until the number of layers Fk = 14 (see FIG. 17).

図17に示されるように、上述の繰り返し処理によって、総階層数L分の画像つまり第14階層の画像F14まで作成されると、ピラミッド画像作成処理は、終了し(ステップS47)、探索窓決定処理(ステップS24)へと移行する。   As shown in FIG. 17, when the image for the total number of hierarchies L, that is, the image F14 of the 14th hierarchy is created by the above-described repetition process, the pyramid image creation process ends (step S47) and the search window is determined. The process proceeds to processing (step S24).

上述したピラミッド画像作成処理(ステップS23)を図18を用いて総括すると、ステップS43において基準画像G1に相当する第1階層の画像F1が作成され、ステップS44において基準画像G1(画像F1)に基づいて中間階層の基準画像G2が縮小率αによって作成される。次に、ステップS45からステップS48の繰り返し処理において、基準画像G3(画像F1〜F4)から縮小画像GM1(画像F5〜F8)が縮小率βによって作成され、作成された縮小画像GM1に基づいて再縮小画像GM2(画像F9〜F12)が縮小率βによって作成され、さらに、再縮小画像GM2に基づいて再々縮小画像GM3(画像F13、F14)が作成される。   When the above-described pyramid image creation processing (step S23) is summarized with reference to FIG. 18, a first-layer image F1 corresponding to the reference image G1 is created in step S43, and based on the reference image G1 (image F1) in step S44. Thus, the intermediate layer reference image G2 is created with the reduction ratio α. Next, in the iterative processing from step S45 to step S48, a reduced image GM1 (images F5 to F8) is created from the reference image G3 (images F1 to F4) with a reduction ratio β, and is reproduced based on the created reduced image GM1. The reduced image GM2 (images F9 to F12) is created with the reduction ratio β, and the re-reduced image GM3 (images F13 and F14) is created based on the re-reduced image GM2.

この繰り返し処理によって作成される画像は、全て縮小率β=1/K(Kは2以上の整数)を用いて作成されるため、縮小率α等の数値を用いて作成するよりもピラミッド画像作成の処理を高速化することができる。   All images created by this iterative process are created using a reduction ratio β = 1 / K (K is an integer equal to or greater than 2), so a pyramid image is created rather than using a numerical value such as the reduction ratio α. Can be speeded up.

尚、ピラミッド画像MPにおいては、上位階層になるほど縮小の度合いが大きくなっている(言い換えれば、元画像F0に対する倍率が小さくなっている)ので、上位階層になるほど解像度が低くなっている。また、本実施形態では、作成する総階層数がL=14であるため、再々縮小画像GM3に該当する画像は、再縮小画像GM2に属する第9階層の画像F9及び第10階層の画像F10を基にして作成された第13階層の画像F13及び第14階層の画像F14の二つとなる。仮に、総階層数L=13(M=5,S=2,N=4)の場合を想定すると、再々縮小画像GM3に該当する画像は、再縮小画像GM2に属する第9階層の画像F9を基にして作成された第13階層の画像F13のみとなる。   Note that, in the pyramid image MP, the degree of reduction increases as the hierarchy becomes higher (in other words, the magnification with respect to the original image F0 decreases), so the resolution becomes lower as the hierarchy becomes higher. In the present embodiment, since the total number of layers to be created is L = 14, the images corresponding to the re-reduced image GM3 include the ninth-layer image F9 and the tenth-layer image F10 belonging to the re-reduced image GM2. The images are based on the 13th layer image F13 and the 14th layer image F14 created based on the above. Assuming that the total number of layers L = 13 (M = 5, S = 2, N = 4), an image corresponding to the re-reduced image GM3 is an image F9 of the ninth layer belonging to the re-reduced image GM2. Only the image 13 of the thirteenth layer created based on this is obtained.

図18においては、対象画像中における複数の大きさの物体を検出するために用いる複数サイズ検出用ピラミッド画像H1は、対象画像に対する倍率が互いに異なる6つの画像F1〜F6を有するものとして構成されている。また、対象画像中における複数の大きさの物体をそれぞれ高速に検出するために用いる高速検出用ピラミッド画像H2は、10枚の画像F5〜F14で構成されている。詳細には、高速検出用ピラミッド画像H2は、複数サイズ検出用ピラミッド画像H1における6つの画像F1〜F6がそれぞれ所定倍率βで縮小された状態に相当する6つの画像F5〜F10を有している。また、高速検出用ピラミッド画像H2は、これら6つの画像F5〜F10がそれぞれ所定倍率βでさらに縮小された状態に相当する6つの画像F9〜F14を有している。   In FIG. 18, the multiple-size detection pyramid image H1 used for detecting an object having a plurality of sizes in the target image is configured to include six images F1 to F6 having different magnifications with respect to the target image. Yes. Further, the high-speed detection pyramid image H2 used for detecting each of a plurality of objects in the target image at high speed is composed of ten images F5 to F14. Specifically, the high-speed detection pyramid image H2 includes six images F5 to F10 corresponding to a state in which the six images F1 to F6 in the multiple-size detection pyramid image H1 are respectively reduced at a predetermined magnification β. . The high-speed detection pyramid image H2 includes six images F9 to F14 corresponding to a state in which the six images F5 to F10 are further reduced by a predetermined magnification β.

ここで、複数サイズ検出用ピラミッド画像H1と高速検出用ピラミッド画像H2とは、上述の手法等で作成されることによって、各ピラミッド画像H1,H2の一部の画像についての対象画像に対する倍率が互いに同一となるように、当該一部の画像(具体的には、画像F5,F6)が共通化された状態で作成される。これによって、ピラミッド画像作成に要する時間を短縮することができる。これについては後述する。   Here, the multiple-size detection pyramid image H1 and the high-speed detection pyramid image H2 are created by the above-described method or the like, so that the magnifications of the pyramid images H1 and H2 with respect to the target image are mutually equal. The partial images (specifically, images F5 and F6) are created in a common state so as to be the same. Thereby, the time required for creating the pyramid image can be shortened. This will be described later.

尚、基準画像数N=4かつ縮小率β=1/2とした場合のピラミッド画像作成処理(ステップS23)においては、縮小率β=αNの関係から、縮小率αは、厳密には縮小率α=1/1.1892・・・の無理数となるが、上述の実施形態では、縮小率β=αNの関係を満たす値として、α=1/1.19の有理数を採用している。このため、αNは縮小率βに完全には一致しない。しかしながら、この不一致は許容誤差範囲内のものでありピラミッド画像作成処理において不都合を生じるものではない。なぜなら、図19に示すように、中間階層の基準画像G2を作成する際に、一律縮小率α=1/1.19を用いたとしても、第5階層の画像F5は、そもそも第1階層の画像F1から縮小率βによって作成される画像であり、同様に、第6階層以降の画像も全て縮小率βを用いて作成されるため、ピラミッド画像作成に影響を与えることはないからである。 Note that in the pyramid image creation process (step S23) when the reference image number N = 4 and the reduction rate β = 1/2, the reduction rate α is strictly reduced from the relationship of the reduction rate β = α N. In this embodiment, the rational number α = 1 / 1.99 is used as the value satisfying the relationship of the reduction ratio β = α N. Yes. For this reason, α N does not completely match the reduction ratio β. However, this discrepancy is within an allowable error range and does not cause inconvenience in the pyramid image creation processing. This is because, as shown in FIG. 19, even when the uniform reduction ratio α = 1 / 1.99 is used when creating the intermediate layer reference image G2, the fifth layer image F5 is originally in the first layer. This is because the image is created from the image F1 with the reduction ratio β, and similarly, all the images in the sixth and subsequent layers are also created using the reduction ratio β, so that the pyramid image creation is not affected.

<探索窓決定処理>
次に、探索窓決定処理(ステップS24)の説明前に、検出装置1における検索方法について図20、図21及び図22を用いて詳細に説明する。
<Search window decision processing>
Next, before the search window determination process (step S24) is described, the search method in the detection apparatus 1 will be described in detail with reference to FIGS.

図20は、最小の大きさの顔を検出する場合の検出用情報IF(IF2)とピラミッド画像MP(MP2)との対応関係を示す図である。図21は、検出する各大きさに対応するピラミッド画像中の注目階層を示す図である。図22は、ピラミッド画像において各注目階層が検出に使用する階層を示した図である。   FIG. 20 is a diagram illustrating a correspondence relationship between the detection information IF (IF2) and the pyramid image MP (MP2) when detecting the face having the minimum size. FIG. 21 is a diagram illustrating a target hierarchy in a pyramid image corresponding to each size to be detected. FIG. 22 is a diagram illustrating a hierarchy used by each attention hierarchy for detection in the pyramid image.

図20に示されるように、使用者(ユーザ)によって指定された最小の大きさの顔(大きさSZ1)を検出する場合には、第1階層の画像F1と顔検出テンプレートTP1と、第5階層の画像F5と縮小顔テンプレートTP2と、第9階層の画像F9と再縮小テンプレートTP3から抽出された特徴量CHとがそれぞれ比較検出されることになる。   As shown in FIG. 20, in the case of detecting the face (size SZ1) having the minimum size designated by the user (user), the first layer image F1, the face detection template TP1, and the fifth The image F5 and the reduced face template TP2 in the hierarchy, and the feature amount CH extracted from the image F9 in the ninth hierarchy and the re-reduced template TP3 are respectively detected by comparison.

ここで、比較検出の際に基準となる階層は、注目階層と呼ぶ。つまり、大きさSZ1を検出する際の注目階層は、第1階層である。例えば、図21に示されるように、大きさSZ2の顔を検出する場合には、注目階層は、第2階層となる。この場合、縮小顔テンプレートTP2の比較対象になる階層は第6階層であり、特徴量CHの比較対象になる階層は第10階層である。さらに、大きさSZ3から大きさSZ6までの各大きさの顔を検出する場合には、それぞれ第3階層から第6階層までが注目階層となる。上述した対応関係は、図22において詳細に示されている。例えば、大きさSZ5の顔を検出する場合には、注目階層(図22中、◎を付記した部分に該当)は第5階層、縮小顔テンプレートTP2の比較対象になる階層(○を付記した部分に該当)は第9階層、特徴量CHの比較対象になる階層(△を付記した部分に該当)は第13階層となる。   Here, a hierarchy serving as a reference in comparison detection is referred to as an attention hierarchy. That is, the target hierarchy when detecting the size SZ1 is the first hierarchy. For example, as shown in FIG. 21, when a face of size SZ2 is detected, the attention layer is the second layer. In this case, the layer to be compared with the reduced face template TP2 is the sixth layer, and the layer to be compared with the feature amount CH is the tenth layer. Further, in the case of detecting faces of various sizes from size SZ3 to size SZ6, the third to sixth layers are the attention layers, respectively. The correspondence relationship described above is shown in detail in FIG. For example, when a face of size SZ5 is detected, the target layer (corresponding to the part marked with ◎ in FIG. 22) is the fifth layer and the layer to be compared with the reduced face template TP2 (part marked with ◯) Corresponds to the ninth layer, and the layer to be compared with the feature amount CH (corresponding to the part marked with Δ) is the thirteenth layer.

図22に示されるように、注目階層が第1階層の画像F1から第6階層の画像F6である場合、検出処理に必要とされるピラミッド画像の階層数は、第1階層の画像F1から第14階層の画像F14までの14階層となる。また、これは、ステップS42において算出したピラミッド画像作成総数と一致している。   As shown in FIG. 22, when the target layer is the first layer image F1 to the sixth layer image F6, the number of layers of the pyramid image required for the detection process is from the first layer image F1 to the first layer. There are 14 layers up to the image F14 of 14 layers. This coincides with the total number of pyramid images created in step S42.

ここで、図8の比較例に示されるような複数サイズ検出用ピラミッド画像PE1と高速検出用ピラミッド画像PS1とを別々に作成し検出処理を実行する検出手法を採用して、本実施形態と同様に6つの顔の大きさを高速に検出する場合を想定する。この場合、複数サイズ検出用ピラミッド画像に注目階層分の6階層の画像を必要とし、さらに、高速検出用ピラミッド画像に注目階層の1階層ごとに2階層ずつ、つまり、6×2=12階層分の画像を必要とする。すなわち、検出に要するピラミッド画像の合計作成総数Lnは、12+6=18階層分の画像となる。また、図8の比較例に示される検出手法において、検出に要するピラミッド画像の作成総数Lnは、検出対象の顔の大きさの数Mとテンプレート縮小回数Sとの関係からLn=M+M×Sによって求められる。   Here, as in the present embodiment, a detection method is employed in which a multi-size detection pyramid image PE1 and a high-speed detection pyramid image PS1 as shown in the comparative example of FIG. Assume that six face sizes are detected at high speed. In this case, images of six layers corresponding to the target layer are required for the pyramid images for size detection, and further, two layers for each layer of the target layer are included in the pyramid image for high speed detection, that is, 6 × 2 = 12 layers. Need an image. That is, the total total number Ln of pyramid images required for detection is an image for 12 + 6 = 18 layers. Further, in the detection method shown in the comparative example of FIG. 8, the total number Ln of pyramid images required for detection is Ln = M + M × S from the relationship between the number M of face sizes to be detected and the number of template reductions S. Desired.

このように、検出装置1でのピラミッド画像作成数Lが図8に示す検出手法よりも少なくて済む理由は、検出装置1では、複数サイズ検出用ピラミッド画像と高速検出用ピラミッド画像とを一部共通化したピラミッド画像MP(MP2)を作成することによって、ピラミッド画像作成の効率化を実現しているためである。より詳細には、図22中の第5階層及び第6階層C1又は第9階層及び第10階層C2に示されるように、検出装置1は、検出処理の際に一度利用した画像を、別の大きさの顔を検出処理する際にも再利用できるようにピラミッド画像を作成することによって、作成する総画像数を減らすことを可能にしている。具体的には、この場合、(基準画像数N)<(検出対象の顔の大きさの数M)が成立するため、(本実施形態における作成画像数L)<(図8の比較例における作成画像数Ln)となる。   As described above, the reason why the number L of pyramid images created by the detection apparatus 1 is smaller than that of the detection method shown in FIG. 8 is that the detection apparatus 1 partially uses a plurality of size detection pyramid images and a high-speed detection pyramid image. This is because the efficiency of pyramid image creation is realized by creating a common pyramid image MP (MP2). More specifically, as shown in the fifth and sixth hierarchies C1 or the ninth and tenth hierarchies C2 in FIG. 22, the detection apparatus 1 uses the image once used in the detection process as another image. It is possible to reduce the total number of images to be created by creating pyramid images so that they can be reused even when detecting a size face. Specifically, in this case, (reference image number N) <(number M of face sizes to be detected) holds, so (number of created images L in the present embodiment) <(in the comparative example of FIG. 8). The number of created images Ln).

また、第5階層の画像F5及び第6階層の画像F6は、複数サイズ検出用ピラミッド画像及び高速検出用ピラミッド画像の両ピラミッド画像(画像群)に属する画像であり、対象画像F0に対する倍率が各々互いに同一である。このため、ピラミッド画像MP(MP2)は複数サイズ検出用ピラミッド画像と高速検出用ピラミッド画像とを一部共通化したピラミッド画像となっている。   The fifth-layer image F5 and the sixth-layer image F6 are images belonging to both pyramid images (image groups) of the multiple-size detection pyramid image and the high-speed detection pyramid image, and the magnifications with respect to the target image F0 are respectively set. Are identical to each other. Therefore, the pyramid image MP (MP2) is a pyramid image in which a plurality of size detection pyramid images and a high-speed detection pyramid image are partially shared.

以上より、検出装置1は、画像中に存在する複数の大きさの物体を高速に検出することを可能とし、さらに、検出に用いるピラミッド画像の効率使用により当該作成数を減らし、ピラミッド画像作成に要する時間を短縮することで、検出処理のさらなる高速化を実現している。   As described above, the detection device 1 can detect a plurality of objects having a plurality of sizes in an image at a high speed, and further reduce the number of creation by using the pyramid image used for detection, thereby creating a pyramid image. By shortening the time required, the detection processing is further speeded up.

また、検出装置1は、注目階層に相当する第5階層の画像F5を、第1階層の画像F1から縮小率βによって縮小することによって作成し、同様に、第6階層の画像F6も第2階層の画像F2から縮小率βによって縮小することによって作成している。このように、縮小率β=1/K(Kは2以上の整数)を用いて作成することにより、縮小率α=1/1.19等を用いて作成する場合に比べて、複雑な補間処理を行わずに済むため、縮小画像作成の処理時間を短縮することが可能となる。   Further, the detection apparatus 1 creates the fifth layer image F5 corresponding to the target layer by reducing the image F1 from the first layer with the reduction rate β, and similarly, the sixth layer image F6 is also the second layer image F6. It is created by reducing the image F2 in the hierarchy with the reduction ratio β. In this way, by using the reduction ratio β = 1 / K (K is an integer of 2 or more), the interpolation is more complicated than when using the reduction ratio α = 1 / 1.19 or the like. Since it is not necessary to perform processing, it is possible to shorten the processing time for creating a reduced image.

一方、図8の比較例に示される検出手法においては、注目階層分の画像作成の際、縮小率βを有効に利用した作成手法とはなっていない。   On the other hand, the detection method shown in the comparative example of FIG. 8 is not a creation method that effectively uses the reduction rate β when creating an image for the target layer.

つまり、検出装置1は、第5階層の画像F5及び第6階層の画像F6の作成に要する処理時間を短縮することができ、検出処理の高速化を実現している。   In other words, the detection apparatus 1 can shorten the processing time required to create the fifth-layer image F5 and the sixth-layer image F6, and realizes a high-speed detection process.

次に、比較検出の順序について説明する。比較検出は、まず最初に、最も縮小された画像同士間つまり第9階層の画像F9と再縮小テンプレートTP3との間において行われる(CP1)。より詳細には、画像F9から抽出された特徴量(肌色度数)と、再縮小テンプレートTP3から抽出された特徴量CH(肌色度数)とが比較される。この最初の比較検出CP1は画像F9の全領域において行われ、最初の比較検出CP1によって検出対象の大きさの顔が検出された場合、検出された位置を基にして、第5階層の画像F5と縮小顔テンプレートTP2との間において比較検出が行われる(CP2)。さらに、2回目の比較検出CP2において、さらに検出された場合、検出された位置を基にして、第1階層の画像F1と顔検出テンプレートTP1との間において比較検出が行われる(CP3)。3回目の比較検出CP3においても検出された場合、検出対象の大きさの顔が対象画像中に存在するとして出力されることになる。   Next, the order of comparison detection will be described. The comparison detection is first performed between the most reduced images, that is, between the image F9 in the ninth layer and the re-reduction template TP3 (CP1). More specifically, the feature amount (skin color frequency) extracted from the image F9 is compared with the feature amount CH (skin color frequency) extracted from the re-reduction template TP3. This first comparison detection CP1 is performed in the entire region of the image F9. When a face having a size to be detected is detected by the first comparison detection CP1, the image F5 in the fifth hierarchy is detected based on the detected position. And the reduced face template TP2 are compared and detected (CP2). Further, if further detection is performed in the second comparison detection CP2, comparison detection is performed between the image F1 on the first layer and the face detection template TP1 based on the detected position (CP3). When the detection is performed also in the third comparison detection CP3, the face of the detection target size is output as being present in the target image.

上述のように、最初に、縮小画像全体において比較検出を実行し、検出対象物体の概略位置を特定することにより、検出に要する処理時間を短縮することができる。   As described above, the processing time required for detection can be shortened by first performing comparative detection on the entire reduced image and specifying the approximate position of the detection target object.

次に、探索窓決定処理について、図20、図23及び図24を用いて説明する。   Next, the search window determination process will be described with reference to FIGS. 20, 23, and 24.

図23は、注目階層を第1階層とした際の検出処理手順を示す図である。図24は、探索窓のシフト処理を示す図である。図24では、画像F9の左上隅を基準位置P(1,1)、右下隅の位置をP(Xm,Ym)としている。また、各探索窓の位置を、当該各探索窓の左上隅の座標で表すものとする。   FIG. 23 is a diagram illustrating a detection processing procedure when the target layer is the first layer. FIG. 24 is a diagram illustrating search window shift processing. In FIG. 24, the upper left corner of the image F9 is the reference position P (1, 1), and the lower right corner is P (Xm, Ym). Further, the position of each search window is represented by the coordinates of the upper left corner of each search window.

図12に示されるように、探索窓決定処理が開始されると(ステップS51)、後述のマッチング処理を実行する探索窓が決定される(ステップS52)。   As shown in FIG. 12, when the search window determination process is started (step S51), a search window for executing a matching process described later is determined (step S52).

図23は、図20と同様、注目階層が第1階層である場合の検出方法を図示したものであり、上述の通り、最初に実行される処理CP1は、最も縮小された画像同士間つまり第9階層の画像F9と再縮小テンプレートTP3から抽出された特徴量CHとの間において行われる。より詳細には、再縮小テンプレートTP3と等しい大きさの領域を有する探索窓IWが画像F9の左上隅に設定される。探索窓IWの設定が終了すると(ステップS53)、後述のマッチング処理(ステップS25)に移行する。マッチング処理(ステップS25)では、設定された探索窓IWにおいて、特徴量CHを用いたマッチング処理が行われる。マッチング処理終了後、再び探索窓決定処理が開始され(ステップS51)、前回マッチング処理位置よりも1画素分x軸方向にシフトした場所が新たな探索窓IWと設定される(ステップS52)。ステップS51からステップS53までの工程は、探索窓IWが第9階層の画像F9の全ての領域をシフトし、網羅するまで実行される。   FIG. 23 illustrates the detection method when the target layer is the first layer, as in FIG. 20. As described above, the process CP1 that is executed first is between the most reduced images, that is, the first layer. This is performed between the image F9 of the nine layers and the feature amount CH extracted from the re-reduction template TP3. More specifically, the search window IW having an area having the same size as the re-reduction template TP3 is set at the upper left corner of the image F9. When the setting of the search window IW is completed (step S53), the process proceeds to a matching process (step S25) described later. In the matching process (step S25), the matching process using the feature amount CH is performed in the set search window IW. After the matching process is completed, the search window determination process is started again (step S51), and a location shifted by one pixel in the x-axis direction from the previous matching process position is set as a new search window IW (step S52). The processes from step S51 to step S53 are executed until the search window IW shifts and covers all areas of the image F9 in the ninth hierarchy.

探索窓IWのシフト処理を、図24を用いてより詳細に説明する。探索窓IWは、第9階層の画像F9における左上隅の初期位置P(1,1)から右上隅位置P(Xm,1)まで1画素ずつx軸方向にシフトする(図24(a)参照)。探索窓IWが右上隅位置P(Xm,1)まで到達すると、初期位置P(1,1)よりy軸方向に1画素分シフトした位置P(1,2)に探索窓IWを設定する。以後同様に、位置P(1,2)からx方向に同様の走査が行われ、最終的には、位置P(Xm,Ym)まで探索窓IWが移動する。すなわち、x方向を主走査方向、y方向を副走査方向として探索窓IWの走査処理が行われる。尚、シフト幅は、上述のように1画素に限定されるものではなく、検出処理時間及び検出精度等との関係により適切な値に変更してもよい。シフト幅を増やせば、検出精度は粗くなるが、検出処理時間は短縮される。   The shift process of the search window IW will be described in more detail with reference to FIG. The search window IW is shifted pixel by pixel in the x-axis direction from the initial position P (1, 1) at the upper left corner in the image F9 in the ninth layer to the upper right corner position P (Xm, 1) (see FIG. 24A). ). When the search window IW reaches the upper right corner position P (Xm, 1), the search window IW is set at a position P (1, 2) shifted by one pixel in the y-axis direction from the initial position P (1, 1). Thereafter, similarly, the same scanning is performed from the position P (1, 2) in the x direction, and the search window IW finally moves to the position P (Xm, Ym). That is, the scanning process of the search window IW is performed with the x direction as the main scanning direction and the y direction as the sub scanning direction. Note that the shift width is not limited to one pixel as described above, and may be changed to an appropriate value depending on the relationship with the detection processing time, the detection accuracy, and the like. If the shift width is increased, the detection accuracy becomes coarse, but the detection processing time is shortened.

<マッチング処理>
以下、図25及び図26を用いてマッチング処理(ステップS25)について説明する。
<Matching process>
Hereinafter, the matching process (step S25) will be described with reference to FIGS.

図25は、低解像度画像におけるシフトの様子と高解像度画像におけるシフトの様子とを一次元で示す図である。   FIG. 25 is a diagram illustrating one-dimensionally the shift state in the low-resolution image and the shift state in the high-resolution image.

図26は、高解像度画像におけるシフトの様子を二次元で示す図である。   FIG. 26 is a diagram two-dimensionally showing the shift state in the high resolution image.

図13に示されるように、マッチング処理が開始されると(ステップS61)、探索窓IWにおいて肌色領域判定処理が実行される(ステップS62)。肌色領域判定は、上述した最初の比較検出CP1(図23参照)に相当する処理であり、縮小テンプレートTP3より抽出される当該全体領域に対する肌色画素の割合即ち特徴量CHと探索窓IWが占める領域中の肌色画素の割合とが比較される。例えば、探索窓IWが有する赤(R)、緑(G)、青(B)の三原色情報を色相(H)、色彩(S)、明度(V)の色彩体系へと色空間変換を行い、色相(H)の値が予め設定した肌色を示す範囲内か否かによって判断し、探索窓IW領域中の肌色画素数を算出し、当該肌色画素数が、特徴量CHの肌色画素数から決定されるしきい値以上であれば肌色領域を検出したと判断すればよい。   As shown in FIG. 13, when the matching process is started (step S61), the skin color area determination process is executed in the search window IW (step S62). The skin color area determination is a process corresponding to the first comparison detection CP1 (see FIG. 23) described above, and the ratio of the skin color pixels to the entire area extracted from the reduced template TP3, that is, the area occupied by the feature amount CH and the search window IW The ratio of the skin color pixels inside is compared. For example, the three primary color information of red (R), green (G), and blue (B) included in the search window IW is converted to a color system of hue (H), color (S), and brightness (V), and color space conversion is performed. Judgment is made based on whether or not the value of the hue (H) is within a range indicating a preset skin color, the number of skin color pixels in the search window IW region is calculated, and the number of skin color pixels is determined from the number of skin color pixels of the feature amount CH If the threshold is equal to or greater than the threshold value, it may be determined that the skin color region has been detected.

肌色領域判定処理(ステップS62)において、肌色領域が検出されなければ(ステップS63)、マッチング処理を終了し(ステップS64)、ステップS26を経て次の探索窓IWを決定する処理に移行する(図9参照)。肌色領域が検出されると(ステップS63)、検出された位置を基にして、上述の第5階層の画像F5と縮小顔テンプレートTP2との間において比較検出CP2が行われる(ステップS65)。   If the skin color area is not detected in the skin color area determination process (step S62) (step S63), the matching process is terminated (step S64), and the process proceeds to the process of determining the next search window IW through step S26 (FIG. 9). When the skin color area is detected (step S63), the comparison detection CP2 is performed between the above-described fifth layer image F5 and the reduced face template TP2 based on the detected position (step S65).

さらに、上述のステップS65において検出対象の大きさの顔が存在すると検出されなければ(ステップS66)、マッチング処理を終了し(ステップS67)、ステップS26を経て次の探索窓IWを決定する処理に移行する(図9参照)。検出対象の大きさの顔が存在すると検出されると(ステップS66)、検出された位置を基にして、第1階層の画像F1と顔検出テンプレートTP1との間においてテンプレートマッチングによる比較検出CP3が行われる(ステップS68)。   Furthermore, if it is not detected in step S65 that there is a face of the size to be detected (step S66), the matching process is terminated (step S67), and the process proceeds to step S26 to determine the next search window IW. Transition (see FIG. 9). When it is detected that a face of the size to be detected exists (step S66), based on the detected position, comparison detection CP3 by template matching is performed between the image F1 on the first layer and the face detection template TP1. Performed (step S68).

このように、最初の比較検出CP1において、特徴量CHを用いた肌色領域判定を実行することにより、肌色領域を有しない探索窓IWのテンプレートマッチングを省略することが可能となり検出処理を高速に行うことができる。すなわち、顔が存在する可能性が高い領域を、低解像度画像を用いた比較処理によって全体領域の中から絞り込むことが可能である。言い換えれば、肌色領域による比較処理で顔が存在しないと判定される領域を、高解像度画像による比較処理の対象から予め除外することが可能である。   As described above, in the first comparison detection CP1, by performing skin color region determination using the feature amount CH, template matching of the search window IW having no skin color region can be omitted, and detection processing is performed at high speed. be able to. That is, it is possible to narrow down an area where a face is likely to exist from the entire area by a comparison process using a low resolution image. In other words, it is possible to exclude in advance an area that is determined to have no face in the comparison process using the skin color area from the comparison process using the high-resolution image.

ステップS68が終了すると、マッチング処理を終了し(ステップS69)、ステップS26へと移行する。尚、ステップS68において、検出対象の大きさの顔が検出されると、検出情報(例えば、検出位置又は大きさ等)は出力情報としてRAM3bに記憶され、全処理終了後(ステップS27)出力される。   When step S68 ends, the matching process ends (step S69), and the process proceeds to step S26. When a face having a size to be detected is detected in step S68, detection information (for example, detection position or size) is stored in the RAM 3b as output information, and is output after completion of all the processing (step S27). The

以下、マッチング処理について、具体的に例を挙げて詳説する。   Hereinafter, the matching process will be described in detail with specific examples.

例えば、ステップS62において、図23における第9階層の画像F9中の位置P(v,w)で肌色領域が検出されたとすると、第5階層の画像F5中の位置P(v,w)を基にして、縮小顔テンプレートTP2とのテンプレートマッチングによる比較検出CP2が行われる。具体的には、図25に示すように、比較検出CP1において、探索窓IWが位置Pv−2、位置Pv−1、さらに、位置Pvとシフトし、位置Pvにおける肌色領域判定(ステップS62)において肌色領域が検出された場合、第5階層の画像F5と縮小顔テンプレートTP2との間の比較検出CP2(ステップS65)へと移行し、位置Pvと位置Pv+0.5との2地点においてテンプレートマッチングが実行される。   For example, if a skin color region is detected at the position P (v, w) in the image F9 of the ninth hierarchy in FIG. 23 in step S62, the position P (v, w) in the image F5 of the fifth hierarchy is used as the basis. Thus, comparison detection CP2 is performed by template matching with the reduced face template TP2. Specifically, as shown in FIG. 25, in comparison detection CP1, the search window IW is shifted to position Pv-2, position Pv-1, and further to position Pv, and in skin color region determination at position Pv (step S62). When the skin color area is detected, the process proceeds to comparison detection CP2 (step S65) between the image F5 of the fifth layer and the reduced face template TP2, and template matching is performed at two points of the position Pv and the position Pv + 0.5. Executed.

ここで、比較検出CP1において用いられる画像F9は、比較検出CP2において用いられる画像F5を1/2倍にした画像であるため、画像F9における探索窓IWのシフト幅1画素分は画像F5における0.5画素分に相当する。   Here, since the image F9 used in the comparison detection CP1 is an image obtained by halving the image F5 used in the comparison detection CP2, the shift width of one pixel of the search window IW in the image F9 is 0 in the image F5. This corresponds to 5 pixels.

このため、比較検出CP2において行うテンプレートマッチングのシフト幅を1画素とすると、比較検出CP2においてテンプレートマッチングを実行する位置は、一次元でみると、図25に示される上述の2地点となり、実際に実行される二次元では、画像F9中におけるP(v,w)、P(v+0.5,w)、P(v,w+0.5)及びP(v+0.5,w+0.5)の4点に相当する位置となる。図26は、上述した4地点におけるシフトの様子を示しおり、図23中の領域PR2を拡大表示した図に相当する。画像F5において画像F9中のP(v,w)に相当する位置PAにおいてテンプレートマッチングが行われ、その後、位置PAよりx軸方向に1画素分シフトした位置PB(画像F9中のP(v+0.5,w)に相当)においてテンプレートマッチングが行われる(図26(a)参照)。さらに、位置PAからy軸方向に1画素分シフトした位置PC(画像F9中のP(v,w+0.5)に相当)においてテンプレートマッチングが行われ、その後、位置PCよりx軸方向に1画素分シフトした位置PD(画像F9中のP(v+0.5,w+0.5)に相当)においてテンプレートマッチングが行われる(図26(b)参照)。   Therefore, if the shift width of the template matching performed in the comparison detection CP2 is 1 pixel, the position where the template matching is performed in the comparison detection CP2 is the above-described two points shown in FIG. In the two-dimensional executed, there are four points P (v, w), P (v + 0.5, w), P (v, w + 0.5) and P (v + 0.5, w + 0.5) in the image F9. The corresponding position. FIG. 26 shows the state of shifting at the four points described above, and corresponds to a diagram in which the region PR2 in FIG. 23 is enlarged and displayed. In the image F5, template matching is performed at a position PA corresponding to P (v, w) in the image F9, and then a position PB (P (v + 0.P in the image F9) shifted by one pixel from the position PA in the x-axis direction. 5), template matching is performed (see FIG. 26A). Further, template matching is performed at a position PC (corresponding to P (v, w + 0.5) in the image F9) shifted by one pixel from the position PA in the y-axis direction. Template matching is performed at the position PD shifted by the minute (corresponding to P (v + 0.5, w + 0.5) in the image F9) (see FIG. 26B).

また、テンプレートマッチングは、比較する画像同士(例えば、縮小顔テンプレートTP2と第5階層の画像F5の比較領域)の相関値を算出し、算出した相関値と予め設定したしきい値とを比較することにより、検出対象の大きさの顔が存在するか否かを決定する。例えば、検出用テンプレートが100×100の画素を有する場合には、一万個の対応する2画素間で画素信号(ここでは色差情報)の差分絶対値を求め、それによって得られる一万個の差分絶対値の平均値を、相関値とすることができる。このような相関値は、対応する画素同士が被写体の同一部分を含む場合には小さな値となり、異なる部分である場合には大きな値となる。   In template matching, a correlation value between images to be compared (for example, a comparison region between the reduced face template TP2 and the fifth layer image F5) is calculated, and the calculated correlation value is compared with a preset threshold value. Thus, it is determined whether or not a face having a size to be detected exists. For example, when the detection template has 100 × 100 pixels, the absolute difference value of the pixel signal (here, color difference information) is obtained between 10,000 corresponding two pixels, and 10,000 pixels obtained thereby are obtained. The average value of the absolute differences can be used as the correlation value. Such a correlation value is a small value when the corresponding pixels include the same part of the subject, and a large value when the corresponding pixels are different parts.

尚、画像F5において行うテンプレートマッチングのシフト幅を1画素としたが、これに限定されない。例えば、所定の縮小画像AAにおいて採用した所定のシフト幅saを、当該縮小画像AAの元となる画像BBに換算した際のシフト幅sa2よりも大きくならない範囲で、画像BBにおいて実行するシフト幅sbを採用すれば、画像BBにおいて実行する検出は、縮小画像AAにおいて実行した検出と同等、若しくは、高精度の検出が可能となる。つまり、画像F9における探索窓IWのシフト幅が1画素であれば、画像F5においては、2画素以下のシフト幅に設定すればよい。   In addition, although the shift width of the template matching performed in the image F5 is 1 pixel, it is not limited to this. For example, the shift width sb executed in the image BB is within a range in which the predetermined shift width sa adopted in the predetermined reduced image AA is not larger than the shift width sa2 when converted to the image BB that is the original of the reduced image AA. Is used, the detection performed on the image BB can be performed with the same or high accuracy as the detection performed on the reduced image AA. That is, if the shift width of the search window IW in the image F9 is 1 pixel, the shift width of 2 pixels or less may be set in the image F5.

以上、ステップS62において肌色領域が検出され、当該検出位置に基づいてステップS65において実行されるマッチング処理について詳述したが、さらにステップS65において検出対象の大きさの顔が存在すると検出された場合も同様の処理が行われる。すなわち、ステップS68では、ステップS65で検出された位置から得られる4地点において第1階層の画像F1と顔検出テンプレートTP1とのテンプレートマッチングによる比較検出CP3が実行される。例えば、ステップS65において第5階層の画像F5中の位置PW2(PC)で検出されたとすると、位置PW2に対応する第1階層の画像F1中の位置PW1を基にして得られる図23中の領域PR1に示す4地点においてテンプレートマッチングによる比較検出CP3が行われる。   As described above, the skin color area is detected in step S62, and the matching process executed in step S65 based on the detection position has been described in detail. However, there may be a case where it is detected in step S65 that a face having a size to be detected exists. Similar processing is performed. That is, in step S68, comparison detection CP3 by template matching between the image F1 of the first hierarchy and the face detection template TP1 is executed at the four points obtained from the position detected in step S65. For example, if it is detected at the position PW2 (PC) in the fifth-layer image F5 in step S65, the region in FIG. 23 obtained based on the position PW1 in the first-layer image F1 corresponding to the position PW2. Comparison detection CP3 by template matching is performed at four points indicated by PR1.

以上のように、或る注目階層の画像(以下、単に注目画像とも称する)で検出対象となる大きさの物体を検出する動作(すなわち或るサイズの物体検出動作)においては、注目画像と注目画像を所定倍率βで縮小した画像(高速検出用ピラミッド画像H2中の画像)とのうち低解像度の画像から順に決定された画像を対象として、テンプレートを用いた比較処理を行うことによって、対象物体の検出が行われる。たとえば、最小大きさSZ1の顔検出処理を行う場合には、最初に低解像度の画像F9とテンプレートTP3とを用いた比較処理(比較検出CP1)が行われ、次に中解像度の画像F5とテンプレートTP2とを用いた比較処理(比較検出CP2)が行われ、最後に高解像度の画像F1とテンプレートTP1とを用いた比較処理(比較検出CP3)が行われる。これによって、最小大きさSZ1の顔が対象画像中に存在するか否か、及び存在する場合にはその存在位置が検出されることになる。また、より大きなサイズSZ2の顔検出処理が行われる場合には、最初に低解像度の画像F10とテンプレートTP3とを用いた比較処理(比較検出CP1)が行われ、次に中解像度の画像F6とテンプレートTP2とを用いた比較処理(比較検出CP2)が行われ、最後に高解像度の画像F2とテンプレートTP1とを用いた比較処理(比較検出CP3)が行われる。これによって、大きさSZ2の顔の存在位置等が検出される。他のサイズSZ3〜SZ6についても同様である。   As described above, in an operation for detecting an object having a size to be detected in an image of a certain target hierarchy (hereinafter, also simply referred to as a “target image”) (that is, an object detection operation of a certain size), the target image and the target The target object is obtained by performing comparison processing using a template for images determined in order from low-resolution images among images obtained by reducing images at a predetermined magnification β (images in the high-speed detection pyramid image H2). Is detected. For example, when the face detection process of the minimum size SZ1 is performed, a comparison process (comparison detection CP1) using the low resolution image F9 and the template TP3 is first performed, and then the medium resolution image F5 and the template are performed. Comparison processing (comparison detection CP2) using TP2 is performed, and finally comparison processing (comparison detection CP3) using the high-resolution image F1 and template TP1 is performed. As a result, whether or not a face having the minimum size SZ1 is present in the target image, and if present, its presence position is detected. When face detection processing with a larger size SZ2 is performed, first, comparison processing (comparison detection CP1) using the low-resolution image F10 and the template TP3 is performed, and then the medium-resolution image F6 and Comparison processing using the template TP2 (comparison detection CP2) is performed, and finally comparison processing using the high-resolution image F2 and the template TP1 (comparison detection CP3) is performed. As a result, the position of the face having the size SZ2 is detected. The same applies to the other sizes SZ3 to SZ6.

このようにして、複数サイズ検出用ピラミッド画像H1(図18参照)の中から選択した注目画像と、テンプレートとを用いた比較処理によって、当該注目画像で検出対象となる大きさの物体を検出する動作が行われる。   In this manner, an object having a size to be detected in the target image is detected by the comparison process using the target image selected from the pyramid image H1 for multiple size detection (see FIG. 18) and the template. Operation is performed.

そして、このような動作を複数の注目画像について繰り返すことによって、複数(上記の例では6つ)の大きさSZ1〜SZ6の物体が検出される。   Then, by repeating such an operation for a plurality of images of interest, a plurality (6 in the above example) of objects SZ1 to SZ6 are detected.

<その他>
以上、この発明の実施の形態について説明したが、この発明は上記に説明した内容に限定されるものではない。
<Others>
Although the embodiments of the present invention have been described above, the present invention is not limited to the contents described above.

例えば、上記実施の形態においては、比較検出CP1において肌色領域判定を行い、比較検出CP2及びCP3では、テンプレートマッチングを行い、検出処理を実行しているがこれに限定されない。具体的には、比較検出CP1〜CP3の全てにおいてテンプレートマッチングを実行してもよく、また、比較検出CP1〜CP3の全てにおいて実行するテンプレートマッチングに先立って、肌色領域判定等の特徴量を利用した判定処理を実行してもよい。このように、簡易な判定処理をテンプレートマッチングに先立って実行することにより、肌色領域を有しない探索窓のマッチング処理を省略することが可能となり、検出処理を高速に実行することができる。   For example, in the above-described embodiment, skin color region determination is performed in the comparison detection CP1, and template matching is performed in the comparison detection CP2 and CP3, and the detection process is performed. However, the present invention is not limited to this. Specifically, template matching may be executed in all of the comparison detections CP1 to CP3, and a feature amount such as skin color region determination is used prior to template matching executed in all of the comparison detections CP1 to CP3. A determination process may be executed. As described above, by executing the simple determination process prior to the template matching, the matching process for the search window having no skin color region can be omitted, and the detection process can be executed at high speed.

また、上記実施の形態においては、縮小率αは、縮小率β=αNの関係が成立する値としたがこれに限定されない。具体的には、縮小率αは、基準画像GM3を作成するために用いる値であり、縮小率βが一定の値であれば、ピラミッド画像作成に影響を与えることはない。このため、縮小率αとしては、縮小率β=αNの関係を満たさない任意の値を設定することも可能である。 In the above embodiment, the reduction rate α is a value that satisfies the relationship of reduction rate β = α N , but is not limited to this. Specifically, the reduction rate α is a value used to create the reference image GM3. If the reduction rate β is a constant value, it does not affect the pyramid image creation. Therefore, an arbitrary value that does not satisfy the relationship of the reduction rate β = α N can be set as the reduction rate α.

さらに、上記実施の形態においては、図4に示される操作画面Q上で使用者(ユーザ)が指定する顔の大きさは、予め設定されていた顔の大きさを使用者が選択するという態様であったが、これに限定されない。具体的には、上述のように縮小率αが任意の値に設定可能であることにより、対象画像F0(元画像)から第1階層の画像F1を作成する際に用いる所定の倍率γも任意の値に設定可能とすると、顔の大きさ自体を使用者(ユーザ)自身が自由に設定することが可能となる。つまり、基準画像GM3の作成に当たり、使用者(ユーザ)が指定した顔の大きさを検出するための注目階層の画像を、作成可能とするような所定の倍率γ及び縮小率αを決定するという態様にしてもよい。   Further, in the above-described embodiment, the face size specified by the user (user) on the operation screen Q shown in FIG. 4 is a mode in which the user selects a face size set in advance. However, it is not limited to this. Specifically, since the reduction ratio α can be set to an arbitrary value as described above, the predetermined magnification γ used when creating the first layer image F1 from the target image F0 (original image) is also arbitrary. If the user can set the face size itself, the user (user) can freely set the face size. That is, in creating the reference image GM3, a predetermined magnification γ and a reduction rate α are determined so that an image of a target layer for detecting the size of the face designated by the user (user) can be created. You may make it an aspect.

本発明の実施形態に係る検出装置の概要を示す図である。It is a figure which shows the outline | summary of the detection apparatus which concerns on embodiment of this invention. 検出装置が備える各種機能を示すブロック図である。It is a block diagram which shows the various functions with which a detection apparatus is provided. 被写体として数人の人物を有する画像を示す図である。It is a figure which shows the image which has several persons as a to-be-photographed object. プログラム実行時の操作画面を示す図である。It is a figure which shows the operation screen at the time of program execution. 検出装置において実行される検出処理の一例を模式的に示した図である。It is the figure which showed typically an example of the detection process performed in a detection apparatus. 元画像中に存在する複数の大きさの物体をピラミッド画像を用いて検出する検出処理の模式図である。It is a schematic diagram of the detection process which detects the object of the some magnitude | size which exists in an original image using a pyramid image. 画像中に存在する所定の物体を高速に検出する検出処理の模式図である。It is a schematic diagram of the detection process which detects the predetermined object which exists in an image at high speed. 比較例に係る検出処理の模式図である。It is a schematic diagram of the detection process which concerns on a comparative example. 検出装置の全体動作を示すフローチャートである。It is a flowchart which shows the whole operation | movement of a detection apparatus. 情報設定処理を示すフローチャートである。It is a flowchart which shows an information setting process. ピラミッド画像作成処理を示すフローチャートである。It is a flowchart which shows a pyramid image creation process. 探索窓決定処理を示すフローチャートである。It is a flowchart which shows a search window determination process. マッチング処理を示すフローチャートである。It is a flowchart which shows a matching process. 情報設定処理を模式的に示した図である。It is the figure which showed the information setting process typically. ピラミッド画像作成処理における基準画像作成を示す図である。It is a figure which shows the reference | standard image creation in a pyramid image creation process. ピラミッド画像作成処理における縮小画像作成を示す図である。It is a figure which shows the reduction image creation in a pyramid image creation process. ピラミッド画像の完成図である。It is a completion drawing of a pyramid image. ピラミッド画像における画像種別を示す図である。It is a figure which shows the image classification in a pyramid image. ピラミッド画像における各画像間の縮小倍率を示す図である。It is a figure which shows the reduction magnification between each image in a pyramid image. 最小の大きさの顔を検出する場合の検出用情報とピラミッド画像との対応関係を示す図である。It is a figure which shows the correspondence of the information for a detection in the case of detecting the face of the minimum magnitude | size, and a pyramid image. 検出する各大きさに対応するピラミッド画像中の注目階層を示す図である。It is a figure which shows the attention hierarchy in the pyramid image corresponding to each magnitude | size to detect. ピラミッド画像において各注目階層が検出に使用する階層を示した図である。It is the figure which showed the hierarchy which each attention hierarchy uses for a detection in a pyramid image. 注目階層を第1階層とした際の検出処理手順を示す図である。It is a figure which shows the detection process procedure at the time of making an attention hierarchy into the 1st hierarchy. 探索窓のシフト処理を示す図である。It is a figure which shows the shift process of a search window. 低解像度画像におけるシフトの様子と高解像度画像におけるシフトの様子とを一次元で示す図である。It is a figure which shows the mode of the shift in a low resolution image, and the mode of the shift in a high resolution image in one dimension. 高解像度画像におけるシフトの様子を二次元で示す図である。It is a figure which shows the mode of the shift in a high resolution image in two dimensions.

符号の説明Explanation of symbols

1 検出装置
3 記憶部
3a ハードディスクドライブ(HDD)
3b RAM
5 表示部
6 入力部
6a キーボード
6b マウス
11 情報設定部
12 ピラミッド画像作成部
13 探索窓決定部
14 マッチング処理部
DESCRIPTION OF SYMBOLS 1 Detection apparatus 3 Memory | storage part 3a Hard disk drive (HDD)
3b RAM
DESCRIPTION OF SYMBOLS 5 Display part 6 Input part 6a Keyboard 6b Mouse 11 Information setting part 12 Pyramid image creation part 13 Search window determination part 14 Matching process part

Claims (18)

対象画像中に存在する物体を検出する検出装置であって、
前記対象画像中における複数の大きさの物体を検出するために用いる第1の画像群であって、前記対象画像に対する倍率が互いに異なる複数の画像を有する第1の画像群と、前記対象画像中における前記複数の大きさの物体をそれぞれ高速に検出するために用いる第2の画像群であって、前記第1の画像群における前記複数の画像がそれぞれ所定倍率で縮小された状態に相当する複数の画像を有する第2の画像群とを含む階層画像群を作成する階層画像群作成手段と、
前記階層画像群を用いて前記物体を検出する物体検出手段と、
を備え、
前記第1の画像群と前記第2の画像群とは、各画像群の一部の画像についての前記対象画像に対する倍率が互いに同一となるように、当該一部の画像が共通化された状態で作成されることを特徴とする検出装置。
A detection device for detecting an object present in a target image,
A first image group used to detect objects of a plurality of sizes in the target image, the first image group having a plurality of images with different magnifications relative to the target image; A plurality of images corresponding to a state in which each of the plurality of images in the first image group is reduced at a predetermined magnification. A hierarchical image group creating means for creating a hierarchical image group including a second image group having a plurality of images;
Object detection means for detecting the object using the hierarchical image group;
With
In the first image group and the second image group, a part of the images is made common so that the magnifications of the part of the images in the image group with respect to the target image are the same. A detection device produced by the method described above.
請求項1に記載の検出装置において、
前記階層画像群作成手段は、前記対象画像に対する倍率が互いに異なる複数の基準画像を作成するとともに当該複数の基準画像のそれぞれをさらに所定倍率で縮小した複数の縮小画像を作成することによって、前記複数の基準画像と前記複数の縮小画像とを含む前記階層画像群を作成し、
前記複数の縮小画像の一部は、前記第1の画像群と前記第2の画像群との両方に属する画像として共通化されて作成されることを特徴とする検出装置。
The detection device according to claim 1,
The hierarchical image group creating means creates a plurality of reference images having different magnifications with respect to the target image and creates a plurality of reduced images obtained by further reducing each of the plurality of reference images at a predetermined magnification. A hierarchical image group including the reference image and the plurality of reduced images,
A part of the plurality of reduced images is created in common as an image belonging to both the first image group and the second image group.
請求項2に記載の検出装置において、
前記階層画像群作成手段は、
第1の縮小率αと第2の縮小率βとを、β=αN(Nは2以上の整数)の関係を満たすように決定する決定手段と、
前記対象画像に基づいて第1の基準画像を作成するとともに当該第1の基準画像を前記第1の縮小率αの画像間縮小率で順次縮小して(N−1)個の中間階層の基準画像を作成することによって、前記第1の基準画像と前記(N−1)個の中間階層の基準画像とを含む前記複数の基準画像を作成する手段と、
前記複数の基準画像のそれぞれをさらに前記第2の縮小率βで縮小することによって複数の縮小画像を作成する手段と、
を有することを特徴とする検出装置。
The detection device according to claim 2,
The hierarchical image group creating means includes
Determining means for determining the first reduction rate α and the second reduction rate β so as to satisfy a relationship of β = α N (N is an integer of 2 or more);
A first reference image is created based on the target image, and the first reference image is sequentially reduced at an inter-image reduction ratio of the first reduction ratio α, so that (N−1) intermediate layer references Means for creating the plurality of reference images including the first reference image and the (N-1) intermediate layer reference images by creating an image;
Means for creating a plurality of reduced images by further reducing each of the plurality of reference images at the second reduction rate β;
A detection apparatus comprising:
請求項3に記載の検出装置において、
前記階層画像群作成手段は、
前記複数の縮小画像のうちの1つの画像または複数の画像のそれぞれを、さらに前記第2の縮小率βで縮小することによって、少なくとも1つの再縮小画像を作成する手段、
をさらに有することを特徴とする検出装置。
The detection device according to claim 3,
The hierarchical image group creating means includes
Means for creating at least one re-reduced image by further reducing one image or each of the plurality of reduced images at the second reduction rate β;
The detection apparatus further comprising:
請求項3または請求項4に記載の検出装置において、
前記第2の縮小率βは、1/K(Kは2以上の整数)であることを特徴とする検出装置。
In the detection device according to claim 3 or 4,
The second reduction rate β is 1 / K (K is an integer equal to or greater than 2).
請求項1ないし請求項5のいずれかに記載の検出装置において、
前記物体検出手段は、
前記第1の画像群の中から選択した注目画像とテンプレートとを用いた比較処理によって、当該注目画像で検出対象となる大きさの物体を検出する動作を繰り返すことによって前記複数の大きさの物体を検出し、
前記注目画像に対応する大きさの物体を検出する動作においては、前記注目画像と前記注目画像を前記所定倍率で縮小した画像であって前記第2の画像群の一画像とのうち低解像度の画像から順に用いて、物体の検出を行うことによって前記注目画像での検出対象となる大きさの物体を効率的に検出することを特徴とする検出装置。
The detection device according to any one of claims 1 to 5,
The object detection means includes
The object of the plurality of sizes is obtained by repeating an operation of detecting an object of a size to be detected in the target image by a comparison process using the target image selected from the first image group and the template. Detect
In the operation of detecting an object having a size corresponding to the target image, the target image and an image obtained by reducing the target image at the predetermined magnification and having a low resolution out of the second group of images. A detection apparatus characterized by efficiently detecting an object having a size to be detected in the target image by detecting an object in order from an image.
対象画像中に存在する物体を検出する検出方法であって、
前記対象画像中における複数の大きさの物体を検出するために用いる第1の画像群であって、前記対象画像に対する倍率が互いに異なる複数の画像を有する第1の画像群と、前記対象画像中における前記複数の大きさの物体をそれぞれ高速に検出するために用いる第2の画像群であって、前記第1の画像群における前記複数の画像がそれぞれ所定倍率で縮小された状態に相当する複数の画像を有する第2の画像群とを含む階層画像群を作成する階層画像群作成工程と、
前記階層画像群を用いて前記物体を検出する物体検出工程と、
を含み、
前記第1の画像群と前記第2の画像群とは、各画像群の一部の画像についての前記対象画像に対する倍率が互いに同一となるように、当該一部の画像が共通化された状態で作成されることを特徴とする検出方法。
A detection method for detecting an object present in a target image,
A first image group used to detect objects of a plurality of sizes in the target image, the first image group having a plurality of images with different magnifications relative to the target image; A plurality of images corresponding to a state in which each of the plurality of images in the first image group is reduced at a predetermined magnification. A hierarchical image group creating step of creating a hierarchical image group including a second image group having the images of:
An object detection step of detecting the object using the hierarchical image group;
Including
In the first image group and the second image group, a part of the images is made common so that the magnification of the part of each image group with respect to the target image is the same. The detection method characterized by being created by.
請求項7に記載の検出方法において、
前記階層画像群作成工程は、前記対象画像に対する倍率が互いに異なる複数の基準画像を作成するとともに当該複数の基準画像のそれぞれをさらに所定倍率で縮小した複数の縮小画像を作成することによって、前記複数の基準画像と前記複数の縮小画像とを含む前記階層画像群を作成し、
前記複数の縮小画像の一部は、前記第1の画像群と前記第2の画像群との両方に属する画像として共通化されて作成されることを特徴とする検出方法。
The detection method according to claim 7,
The hierarchical image group creating step creates a plurality of reference images having different magnifications with respect to the target image and creating a plurality of reduced images obtained by further reducing each of the plurality of reference images at a predetermined magnification. A hierarchical image group including the reference image and the plurality of reduced images,
A part of the plurality of reduced images is created by being shared as an image belonging to both the first image group and the second image group.
請求項8に記載の検出方法において、
前記階層画像群作成工程は、
第1の縮小率αと第2の縮小率βとを、β=αN(Nは2以上の整数)の関係を満たすように決定する決定工程と、
前記対象画像に基づいて第1の基準画像を作成するとともに当該第1の基準画像を前記第1の縮小率αの画像間縮小率で順次縮小して(N−1)個の中間階層の基準画像を作成することによって、前記第1の基準画像と前記(N−1)個の中間階層の基準画像とを含む前記複数の基準画像を作成する工程と、
前記複数の基準画像のそれぞれをさらに前記第2の縮小率βで縮小することによって複数の縮小画像を作成する工程と、
を備えることを特徴とする検出方法。
The detection method according to claim 8, wherein
The hierarchical image group creation step includes:
A determination step of determining the first reduction rate α and the second reduction rate β so as to satisfy a relationship of β = α N (N is an integer of 2 or more);
A first reference image is created based on the target image, and the first reference image is sequentially reduced at an inter-image reduction rate of the first reduction rate α, thereby (N−1) intermediate layer references. Creating the plurality of reference images including the first reference image and the (N-1) intermediate layer reference images by creating an image;
Creating a plurality of reduced images by further reducing each of the plurality of reference images at the second reduction rate β;
A detection method comprising:
請求項9に記載の検出方法において、
前記階層画像群作成工程は、
前記複数の縮小画像のうちの1つの画像または複数の画像のそれぞれを、さらに前記第2の縮小率βで縮小することによって、少なくとも1つの再縮小画像を作成する工程、
をさらに有することを特徴とする検出方法。
The detection method according to claim 9, wherein
The hierarchical image group creation step includes:
Creating at least one re-reduced image by further reducing one image or each of the plurality of reduced images at the second reduction rate β;
A detection method characterized by further comprising:
請求項9または請求項10に記載の検出方法において、
前記第2の縮小率βは、1/K(Kは2以上の整数)であることを特徴とする検出方法。
The detection method according to claim 9 or 10,
The second reduction ratio β is 1 / K (K is an integer of 2 or more).
請求項7ないし請求項11のいずれかに記載の検出方法において、
前記物体検出工程は、
前記第1の画像群の中から選択した注目画像とテンプレートとを用いた比較処理によって、当該注目画像で検出対象となる大きさの物体を検出する動作を繰り返すことによって前記複数の大きさの物体を検出し、
前記注目画像に対応する大きさの物体を検出する動作においては、前記注目画像と前記注目画像を前記所定倍率で縮小した画像であって前記第2の画像群の一画像とのうち低解像度の画像から順に用いて、物体の検出を行うことによって前記注目画像での検出対象となる大きさの物体を効率的に検出することを特徴とする検出方法。
The detection method according to any one of claims 7 to 11,
The object detection step includes
The object of the plurality of sizes is obtained by repeating an operation of detecting an object of a size to be detected in the target image by a comparison process using the target image selected from the first image group and the template. Detect
In the operation of detecting an object having a size corresponding to the target image, the target image and an image obtained by reducing the target image at the predetermined magnification and having a low resolution out of the second group of images. A detection method characterized by efficiently detecting an object having a size to be detected in the target image by detecting an object in order from an image.
コンピュータに、
対象画像中における複数の大きさの物体を検出するために用いる第1の画像群であって、前記対象画像に対する倍率が互いに異なる複数の画像を有する第1の画像群と、前記対象画像中における前記複数の大きさの物体をそれぞれ高速に検出するために用いる第2の画像群であって、前記第1の画像群における前記複数の画像がそれぞれ所定倍率で縮小された状態に相当する複数の画像を有する第2の画像群とを含む階層画像群を作成する階層画像群作成工程と、
前記階層画像群を用いて前記物体を検出する物体検出工程と、
を実行させることによって、前記対象画像中に存在する物体を検出するプログラムであって、
前記第1の画像群と前記第2の画像群とは、各画像群の一部の画像についての前記対象画像に対する倍率が互いに同一となるように、当該一部の画像が共通化された状態で作成されることを特徴とするプログラム。
On the computer,
A first image group used for detecting an object of a plurality of sizes in the target image, the first image group having a plurality of images with different magnifications relative to the target image; and A plurality of second image groups used to detect each of the plurality of objects at a high speed, each of which corresponds to a state in which the plurality of images in the first image group are reduced at a predetermined magnification. A hierarchical image group creating step of creating a hierarchical image group including a second image group having an image;
An object detection step of detecting the object using the hierarchical image group;
Is a program for detecting an object present in the target image by executing
In the first image group and the second image group, a part of the images is made common so that the magnifications of the part of the images in the image group with respect to the target image are the same. A program characterized by being created in.
請求項13に記載のプログラムにおいて、
前記階層画像群作成工程は、前記対象画像に対する倍率が互いに異なる複数の基準画像を作成するとともに当該複数の基準画像のそれぞれをさらに所定倍率で縮小した複数の縮小画像を作成することによって、前記複数の基準画像と前記複数の縮小画像とを含む前記階層画像群を作成し、
前記複数の縮小画像の一部は、前記第1の画像群と前記第2の画像群との両方に属する画像として共通化されて作成されることを特徴とするプログラム。
The program according to claim 13, wherein
The hierarchical image group creating step creates a plurality of reference images having different magnifications with respect to the target image and creates a plurality of reduced images obtained by further reducing each of the plurality of reference images at a predetermined magnification. Creating the hierarchical image group including the reference image and the plurality of reduced images,
A part of the plurality of reduced images is created in common as an image belonging to both the first image group and the second image group.
請求項14に記載のプログラムにおいて、
前記階層画像群作成工程は、
前記コンピュータに、
第1の縮小率αと第2の縮小率βとを、β=αN(Nは2以上の整数)の関係を満たすように決定する決定工程と、
前記対象画像に基づいて第1の基準画像を作成するとともに当該第1の基準画像を前記第1の縮小率αの画像間縮小率で順次縮小して(N−1)個の中間階層の基準画像を作成することによって、前記第1の基準画像と前記(N−1)個の中間階層の基準画像とを含む前記複数の基準画像を作成する工程と、
前記複数の基準画像のそれぞれをさらに前記第2の縮小率βで縮小することによって複数の縮小画像を作成する工程と、
を実行させることを特徴とするプログラム。
The program according to claim 14, wherein
The hierarchical image group creation step includes:
In the computer,
A determination step of determining the first reduction rate α and the second reduction rate β so as to satisfy a relationship of β = α N (N is an integer of 2 or more);
A first reference image is created based on the target image, and the first reference image is sequentially reduced at an inter-image reduction rate of the first reduction rate α, thereby (N−1) intermediate layer references. Creating the plurality of reference images including the first reference image and the (N-1) intermediate layer reference images by creating an image;
Creating a plurality of reduced images by further reducing each of the plurality of reference images at the second reduction rate β;
A program characterized by having executed.
請求項15に記載のプログラムにおいて、
前記階層画像群作成工程は、
前記コンピュータに、
前記複数の縮小画像のうちの1つの画像または複数の画像のそれぞれを、さらに前記第2の縮小率βで縮小することによって、少なくとも1つの再縮小画像を作成する工程、
をさらに実行させることを特徴とするプログラム。
The program according to claim 15, wherein
The hierarchical image group creation step includes:
In the computer,
Creating at least one re-reduced image by further reducing one image or each of the plurality of reduced images at the second reduction rate β;
Is further executed.
請求項15または請求項16に記載のプログラムにおいて、
前記第2の縮小率βは、1/K(Kは2以上の整数)であることを特徴とするプログラム。
In the program according to claim 15 or 16,
The second reduction ratio β is 1 / K (K is an integer of 2 or more).
請求項13ないし請求項17のいずれかに記載のプログラムにおいて、
前記物体検出工程は、
前記コンピュータに、
前記第1の画像群の中から選択した注目画像とテンプレートとを用いた比較処理によって、当該注目画像に対応する大きさの物体を検出する動作を繰り返すことによって前記複数の大きさの物体を検出し、
前記注目画像で検出対象となる大きさの物体を検出する動作においては、前記注目画像と前記注目画像を前記所定倍率で縮小した画像であって前記第2の画像群の一画像とのうち低解像度の画像から順に用いて、物体の検出を行うことによって前記注目画像での検出対象となる大きさの物体を効率的に検出することを特徴とするプログラム。
The program according to any one of claims 13 to 17,
The object detection step includes
In the computer,
The object having the plurality of sizes is detected by repeating the operation of detecting the object having the size corresponding to the target image by the comparison process using the target image selected from the first image group and the template. And
In the operation of detecting an object having a size as a detection target in the target image, the target image and an image obtained by reducing the target image at the predetermined magnification, which is lower than the second image group. A program characterized in that an object having a size to be detected in the target image is efficiently detected by detecting objects in order from the resolution image.
JP2005015375A 2005-01-24 2005-01-24 Detection apparatus, detection method, and detection program Expired - Fee Related JP4561380B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005015375A JP4561380B2 (en) 2005-01-24 2005-01-24 Detection apparatus, detection method, and detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005015375A JP4561380B2 (en) 2005-01-24 2005-01-24 Detection apparatus, detection method, and detection program

Publications (2)

Publication Number Publication Date
JP2006202184A JP2006202184A (en) 2006-08-03
JP4561380B2 true JP4561380B2 (en) 2010-10-13

Family

ID=36960115

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005015375A Expired - Fee Related JP4561380B2 (en) 2005-01-24 2005-01-24 Detection apparatus, detection method, and detection program

Country Status (1)

Country Link
JP (1) JP4561380B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106062819A (en) * 2014-03-14 2016-10-26 欧姆龙株式会社 Image processing device, image sensor, and image processing method
CN108996268A (en) * 2018-08-01 2018-12-14 上海主线科技有限公司 A kind of container tractor based on camera and suspension bridge are mutually located method
US11308324B2 (en) 2019-08-26 2022-04-19 Samsung Electronics Co., Ltd. Object detecting system for detecting object by using hierarchical pyramid and object detecting method thereof

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8249359B2 (en) 2007-04-13 2012-08-21 Panasonic Corporation Detector for detecting a predetermined image in an input image, and detection method and integrated circuit for performing the same
JP2009059048A (en) * 2007-08-30 2009-03-19 Casio Comput Co Ltd Image processor, imaging device, image processing method, and program
JP4518139B2 (en) 2007-11-30 2010-08-04 トヨタ自動車株式会社 Image processing device
JP4539729B2 (en) 2008-02-15 2010-09-08 ソニー株式会社 Image processing apparatus, camera apparatus, image processing method, and program
JP4911065B2 (en) * 2008-02-22 2012-04-04 富士ゼロックス株式会社 Image processing apparatus and program
JP5227629B2 (en) * 2008-03-25 2013-07-03 富士フイルム株式会社 Object detection method, object detection apparatus, and object detection program
JP5027030B2 (en) * 2008-03-25 2012-09-19 富士フイルム株式会社 Object detection method, object detection apparatus, and object detection program
US8265339B2 (en) 2008-04-25 2012-09-11 Panasonic Corporation Image processing device, image processing method, and integrated circuit for processing images
JP5083080B2 (en) * 2008-07-11 2012-11-28 株式会社ニコン Image matching device and camera
JP5147640B2 (en) * 2008-10-23 2013-02-20 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP5094682B2 (en) * 2008-10-23 2012-12-12 キヤノン株式会社 Image processing apparatus, image processing method, and program
FR2947656B1 (en) * 2009-07-06 2016-05-27 Valeo Vision METHOD FOR DETECTING AN OBSTACLE FOR A MOTOR VEHICLE
FR2947657B1 (en) * 2009-07-06 2016-05-27 Valeo Vision METHOD FOR DETECTING AN OBSTACLE FOR A MOTOR VEHICLE
JP5441670B2 (en) 2009-12-22 2014-03-12 キヤノン株式会社 Image processing apparatus and control method thereof
KR101282742B1 (en) 2011-11-11 2013-07-05 재단법인대구경북과학기술원 Apparatus and method for detecting object using 3d image
EP2662827B1 (en) * 2012-05-08 2016-01-13 Axis AB Video analysis
JP6143337B2 (en) * 2013-04-01 2017-06-07 株式会社ディスコ Key pattern detection method and alignment method
WO2015159422A1 (en) * 2014-04-18 2015-10-22 株式会社 日立製作所 Movement-amount measurement device and movement-amount measurement method
CN106991363B (en) * 2016-01-21 2021-02-09 北京三星通信技术研究有限公司 Face detection method and device
US10592729B2 (en) 2016-01-21 2020-03-17 Samsung Electronics Co., Ltd. Face detection method and apparatus
KR101834279B1 (en) * 2016-10-04 2018-03-06 네이버 주식회사 Image processing method and system for detecting face using lazy feature extract
JP6783732B2 (en) * 2017-09-15 2020-11-11 株式会社東芝 Image processing device and image processing method
JP6971894B2 (en) * 2018-03-09 2021-11-24 株式会社東芝 Image processing device
CN109614848B (en) * 2018-10-24 2021-07-20 百度在线网络技术(北京)有限公司 Human body recognition method, device, equipment and computer readable storage medium
JP6893751B2 (en) * 2019-08-19 2021-06-23 東芝情報システム株式会社 Image detection device, image detection method and image detection program
EP4009622B1 (en) * 2020-12-01 2024-04-03 Continental Autonomous Mobility Germany GmbH Method for capturing and processing a digital panoramic image

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003036439A (en) * 2001-07-23 2003-02-07 Minolta Co Ltd Device, method and program for extracting image
JP2004246618A (en) * 2003-02-13 2004-09-02 Toshiba Corp Method, device, and program for generating image used for collating in pattern recognition and pattern recognition using the image
JP2004362186A (en) * 2003-06-04 2004-12-24 Juki Corp Template matching method and device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003036439A (en) * 2001-07-23 2003-02-07 Minolta Co Ltd Device, method and program for extracting image
JP2004246618A (en) * 2003-02-13 2004-09-02 Toshiba Corp Method, device, and program for generating image used for collating in pattern recognition and pattern recognition using the image
JP2004362186A (en) * 2003-06-04 2004-12-24 Juki Corp Template matching method and device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106062819A (en) * 2014-03-14 2016-10-26 欧姆龙株式会社 Image processing device, image sensor, and image processing method
CN106062819B (en) * 2014-03-14 2019-05-10 欧姆龙株式会社 Image processing apparatus, imaging sensor, image processing method
US10311564B2 (en) 2014-03-14 2019-06-04 Omron Corporation Image processing device, image sensor, and image processing method
CN108996268A (en) * 2018-08-01 2018-12-14 上海主线科技有限公司 A kind of container tractor based on camera and suspension bridge are mutually located method
US11308324B2 (en) 2019-08-26 2022-04-19 Samsung Electronics Co., Ltd. Object detecting system for detecting object by using hierarchical pyramid and object detecting method thereof

Also Published As

Publication number Publication date
JP2006202184A (en) 2006-08-03

Similar Documents

Publication Publication Date Title
JP4561380B2 (en) Detection apparatus, detection method, and detection program
JP5152559B2 (en) Image processing apparatus, image processing method, and program
JP4845715B2 (en) Image processing method, image processing apparatus, program, and storage medium
US20120229501A1 (en) Method and a Computer System for Displaying and Selecting Images
KR20120061764A (en) Image processing device, image processing method, and program
JP2008234654A (en) Object image detection method and image detection device
CN105264567A (en) Methods of image fusion for image stabilizaton
JP2006222965A (en) Image processing method and image processor
US7885486B2 (en) Image processing system, method for processing image and computer readable medium
KR20110086826A (en) Method, apparatus and software for determining motion vectors
JP2010165052A (en) Image processor and image processing method
JP5294798B2 (en) Image processing apparatus and image processing method
JP4868139B2 (en) Image processing apparatus and image processing program
JP4390523B2 (en) Segmentation of composite image by minimum area
CN110580274B (en) GIS data rendering method
KR102470242B1 (en) Image processing device, image processing method and program
JP5400655B2 (en) Image processing apparatus, image processing method, image processing program, and electronic apparatus
JP4207256B2 (en) Color image area dividing method and program storage medium
JP4973591B2 (en) Motion vector detection apparatus and motion vector detection method
US20110194607A1 (en) Information Processing Device, Information Processing Method, and Program
JP2018190394A (en) Data extension method and device in monitoring video
US20050008255A1 (en) Image generation of high quality image from low quality images
JP2010074416A (en) Image data processing method, image data processing apparatus, and program
JP2007088686A (en) Image processing apparatus, image processing method and program thereof
JP4300787B2 (en) Image processing apparatus and method, recording medium, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071016

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100706

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100719

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4561380

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees