JP4779851B2 - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP4779851B2
JP4779851B2 JP2006200405A JP2006200405A JP4779851B2 JP 4779851 B2 JP4779851 B2 JP 4779851B2 JP 2006200405 A JP2006200405 A JP 2006200405A JP 2006200405 A JP2006200405 A JP 2006200405A JP 4779851 B2 JP4779851 B2 JP 4779851B2
Authority
JP
Japan
Prior art keywords
image
detection
pixel
integral
resized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006200405A
Other languages
Japanese (ja)
Other versions
JP2008027275A (en
Inventor
敏則 長橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2006200405A priority Critical patent/JP4779851B2/en
Publication of JP2008027275A publication Critical patent/JP2008027275A/en
Application granted granted Critical
Publication of JP4779851B2 publication Critical patent/JP4779851B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、オブジェクト検出装置、オブジェクト検出方法および制御プログラムに係り
、特に検出対象画像から人の顔画像のようなオブジェクトを検出するためのオブジェクト
検出装置、オブジェクト検出方法および制御プログラムに関する。
The present invention relates to an object detection device, an object detection method, and a control program, and more particularly, to an object detection device, an object detection method, and a control program for detecting an object such as a human face image from a detection target image.

画像に含まれるオブジェクト(例えば、顔画像)を検出する技術は種々知られている。
このようなオブジェクト検出技術において、一般的に顔画像のサイズを一定の大きさに
正規化して検出することが行われている。
これは、画像に含まれる顔画像の大きさと位置については事前に知ることはできないた
め、画像の大きさを様々なサイズにリサイズした上で、所定の大きさの検出窓を設定し、
顔画像か否かを判定する必要があるためである。
特開平9−114976号公報
Various techniques for detecting an object (for example, a face image) included in an image are known.
In such an object detection technique, generally, the size of a face image is normalized to a certain size and detected.
This is because it is not possible to know in advance the size and position of the face image included in the image, so after setting the size of the image to various sizes, set a detection window of a predetermined size,
This is because it is necessary to determine whether the image is a face image.
JP-A-9-114976

例えば、正規化した検出窓のサイズを20×20画素とし、VGA(640×480画素)サ
イズの画像から上記のような手法で顔画像を検出するとすれば、約30万個の検出窓を設
定し、それぞれの検出窓について顔画像か否かの判定を行う。
ところで、一般の写真では、一枚の写真中に含まれる顔画像は、たかだか数個〜数十個
に過ぎない。
このような状況で、上述したように、30万個の検出窓について判定を行うことは、無
駄な判定処理が多くなり、処理時間が長くなって、リアルタイムに検出することが難しい
という課題が生じる。
また、特許文献1記載の技術は、エッジ画像を算出し、エッジの位置と向きを検出する
テンプレートにより物体を検出する構成を開示している。
しかしながら、特許文献1記載の技術では、検出窓ごとにテンプレートとのマッチング
をとるため、高速な検出を行うことはできないという問題点があった。
そこで、本発明の目的は、演算処理負担を軽減し、高速にオブジェクトを認識し、オブ
ジェクト画像の検出を行うことが可能なオブジェクト検出装置、オブジェクト検出方法お
よび制御プログラムを提供することにある。
For example, if the normalized detection window size is 20 × 20 pixels and a face image is detected from an image of VGA (640 × 480 pixels) size by the above method, about 300,000 detection windows are set. Then, it is determined whether each detection window is a face image.
By the way, in a general photograph, the number of face images included in one photograph is only several to several tens.
In such a situation, as described above, performing the determination on 300,000 detection windows increases the number of useless determination processes, increases the processing time, and causes a problem that it is difficult to detect in real time. .
The technique described in Patent Document 1 discloses a configuration in which an edge image is calculated and an object is detected by a template that detects the position and orientation of the edge.
However, the technique described in Patent Document 1 has a problem that high-speed detection cannot be performed because matching with a template is performed for each detection window.
SUMMARY OF THE INVENTION An object of the present invention is to provide an object detection apparatus, an object detection method, and a control program that can reduce an operation processing burden, recognize an object at high speed, and detect an object image.

上記課題を解決するため、オブジェクト検出装置は、検出対象画像を構成する各画素に
ついて画像特徴量を抽出し、前記画像特徴量に基づいて前記各画素がオブジェクトを構成
する画素であるか否かを判別し、前記検出対象画像をn値(nは、2以上の整数)画像に
変換する画像変換部と、前記n値画像に基づいて前記検出対象画像を構成する所定の画素
範囲の画像がオブジェクト画像を構成するか否かの確信度を判別するための積分画像を生
成する積分画像生成部と、前記積分画像に基づいて設定した検出窓に対応する画像が前記
オブジェクトを構成するオブジェクト画像であるか否かを判別するオブジェクト判別部と
、を備えたことを特徴としている。
In order to solve the above-described problem, the object detection apparatus extracts an image feature amount for each pixel constituting the detection target image, and determines whether each pixel is a pixel constituting the object based on the image feature amount. An image conversion unit that determines and converts the detection target image into an n-value (n is an integer of 2 or more) image, and an image of a predetermined pixel range that constitutes the detection target image based on the n-value image is an object An integrated image generating unit that generates an integrated image for determining the certainty of whether or not to constitute an image, and an image corresponding to a detection window set based on the integrated image is an object image constituting the object And an object discriminating unit for discriminating whether or not.

上記構成によれば、画像変換部は、検出対象画像を構成する各画素について画像特徴量
を抽出し、画像特徴量に基づいて各画素がオブジェクトを構成する画素であるか否かを判
別し、検出対象画像をn値(nは、2以上の整数)画像に変換する。
積分画像生成部は、前記n値画像に基づいて前記検出対象画像を構成する所定の画素範
囲の画像がオブジェクト画像を構成するか否かの確信度を判別するための積分画像を生成
する。
これにより、オブジェクト判別部は、積分画像に基づいて設定した検出窓に対応する画
像がオブジェクトを構成するオブジェクト画像であるか否かを判別する。
ここで、積分画像の生成は、検出対象画像に対し一度行えば良いだけであるので、高速
なオブジェクト認識が可能となる。
According to the above configuration, the image conversion unit extracts an image feature amount for each pixel constituting the detection target image, determines whether each pixel is a pixel constituting the object based on the image feature amount, The detection target image is converted into an n-value (n is an integer of 2 or more) image.
The integral image generation unit generates an integral image for determining the certainty of whether or not an image in a predetermined pixel range constituting the detection target image constitutes an object image based on the n-value image.
Thereby, the object determination unit determines whether or not the image corresponding to the detection window set based on the integral image is an object image constituting the object.
Here, since the integral image need only be generated once for the detection target image, high-speed object recognition is possible.

この場合において、前記積分画像生成部は、所定の基準位置画素および対象画素を対角
線上の頂点とする矩形内のすべての画素の値を積分して当該対象画素に対応する積分値と
し、前記検出対象画像を構成するすべての画素に対応する積分値を求めて前記積分画像を
生成するようにしてもよい。
上記構成によれば、積分画像の生成に必要な演算処理は、実質的に加算処理だけとなり
、容易、かつ、高速に積分画像を生成することができる。
In this case, the integral image generation unit integrates the values of all pixels in a rectangle having the predetermined reference position pixel and the target pixel as vertices on a diagonal line to obtain an integral value corresponding to the target pixel, and the detection The integral image may be generated by obtaining integral values corresponding to all pixels constituting the target image.
According to the above configuration, the calculation process necessary for generating the integral image is substantially only the addition process, and the integral image can be generated easily and at high speed.

また、前記検出対象画像のリサイズを行ってリサイズ画像を生成するリサイズ画像生成
部を備え、前記画像変換部は、前記リサイズ画像を構成する各画素について画像特徴量を
抽出し、前記画像特徴量に基づいて前記各画素がオブジェクトを構成する画素であるか否
かを判別し、前記検出対象画像をn値(nは、2以上の整数)画像に変換し、前記積分画
像生成部は、前記n値画像に基づいて前記リサイズ画像を構成する所定の画素範囲の画像
がオブジェクト画像を構成するか否かの確信度を判別するための積分画像を生成し、前記
オブジェクト判別部は、前記検出対象画像に対応する積分画像および前記リサイズ画像に
対応する積分画像に基づいて設定した検出窓に対応する画像が前記オブジェクトを構成す
るオブジェクト画像であるか否かを判別するようにしてもよい。
A resizing image generating unit that resizes the detection target image to generate a resizing image; and the image converting unit extracts an image feature amount for each pixel constituting the resized image, and the image feature amount And determining whether or not each pixel is a pixel constituting the object, converting the detection target image into an n-value (n is an integer of 2 or more) image, and the integral image generating unit Based on the value image, an integrated image for determining the certainty of whether or not an image of a predetermined pixel range constituting the resized image constitutes an object image, and the object discriminating unit is configured to detect the detection target image Whether the image corresponding to the detection window set based on the integral image corresponding to the image and the integral image corresponding to the resized image is an object image constituting the object It may be determined.

上記構成によれば、オブジェクト判別部は、検出対象画像に対応する積分画像およびリ
サイズ画像に対応する積分画像に基づいて設定した検出窓に対応する画像がオブジェクト
を構成するオブジェクト画像であるか否かを判別するだけでよく、積分画像の生成は、検
出対象画像およびリサイズ画像に対しそれぞれ一度行えば良いだけであるので、高速なオ
ブジェクト認識が可能となる。
According to the above configuration, the object determination unit determines whether or not the image corresponding to the detection window set based on the integral image corresponding to the detection target image and the integral image corresponding to the resized image is an object image constituting the object. Therefore, the integral image is generated only once for the detection target image and the resized image, so that high-speed object recognition is possible.

また、前記検出窓のリサイズを行い、前記オブジェクト判別部は、前記検出対象画像に
対応する積分画像に基づいて設定した検出窓に対応する画像が前記オブジェクトを構成す
るオブジェクト画像であるか否かを判別するようにしてもよい。
上記構成によれば、積分画像の生成は、検出対象画像に対し一度行えば良いだけである
ので、高速なオブジェクト認識が可能となる。
さらに、前記画像変換部は、前記画像特徴量として色域、輝度、エッジのうち、少なく
ともいずれかに基づいて、前記n値画像に変換するようにしてもよい。
上記構成によれば、確実にオブジェクト画像を検出することができる。
さらにまた、前記オブジェクト画像は、顔画像であり、前記色域は、前記顔画像に対応
するものであるようにしてもよい。
上記構成によれば、確実に顔画像を検出することができる。
In addition, the detection window is resized, and the object determination unit determines whether an image corresponding to the detection window set based on the integral image corresponding to the detection target image is an object image constituting the object. You may make it discriminate | determine.
According to the above configuration, since the integral image needs to be generated only once for the detection target image, high-speed object recognition is possible.
Furthermore, the image conversion unit may convert the image feature amount into the n-value image based on at least one of a color gamut, luminance, and edge.
According to the above configuration, the object image can be reliably detected.
Furthermore, the object image may be a face image, and the color gamut may correspond to the face image.
According to the above configuration, a face image can be reliably detected.

また、オブジェクト検出方法は、検出対象画像を構成する各画素について画像特徴量を
抽出し、前記画像特徴量に基づいて前記各画素がオブジェクトを構成する画素であるか否
かを判別し、前記検出対象画像をn値(nは、2以上の整数)画像に変換する画像変換過
程と、前記n値画像に基づいて前記検出対象画像を構成する所定の画素範囲の画像がオブ
ジェクト画像を構成するか否かの確信度を判別するための積分画像を生成する積分画像生
成過程と、前記積分画像に基づいて設定した検出窓に対応する画像が前記オブジェクトを
構成するオブジェクト画像であるか否かを判別するオブジェクト判別過程と、を備えたこ
とを特徴としている。
上記構成によれば、積分画像の生成は、検出対象画像に対し一度行えば良いだけである
ので、高速なオブジェクト認識が可能となる。
Further, the object detection method extracts an image feature amount for each pixel constituting the detection target image, determines whether each pixel is a pixel constituting the object based on the image feature amount, and detects the detection An image conversion process for converting the target image into an n-value (n is an integer equal to or greater than 2) image, and whether an image in a predetermined pixel range constituting the detection target image based on the n-value image forms an object image An integral image generation process for generating an integral image for determining the certainty of whether or not, and whether or not an image corresponding to a detection window set based on the integral image is an object image constituting the object And an object discriminating process.
According to the above configuration, since the integral image needs to be generated only once for the detection target image, high-speed object recognition is possible.

また、オブジェクト検出装置をコンピュータにより制御するための制御プログラムにお
いて、検出対象画像を構成する各画素について画像特徴量を抽出させ、前記画像特徴量に
基づいて前記各画素がオブジェクトを構成する画素であるか否かを判別させ、前記検出対
象画像をn値(nは、2以上の整数)画像に変換させ、前記n値画像に基づいて前記検出
対象画像を構成する所定の画素範囲の画像がオブジェクト画像を構成するか否かの確信度
を判別するための積分画像を生成させ、前記積分画像に基づいて設定した検出窓に対応す
る画像が前記オブジェクトを構成するオブジェクト画像であるか否かを判別させる、こと
を特徴としている。
上記構成によれば、積分画像の生成は、検出対象画像に対し一度行えば良いだけである
ので、高速なオブジェクト認識が可能となる。
Further, in a control program for controlling the object detection apparatus by a computer, an image feature amount is extracted for each pixel constituting the detection target image, and each pixel constitutes an object based on the image feature amount. The detection target image is converted into an n-value (n is an integer of 2 or more) image, and an image in a predetermined pixel range constituting the detection target image based on the n-value image is an object. An integrated image for determining the certainty of whether or not to constitute an image is generated, and it is determined whether or not an image corresponding to a detection window set based on the integrated image is an object image constituting the object It is characterized by that.
According to the above configuration, since the integral image needs to be generated only once for the detection target image, high-speed object recognition is possible.

次に本発明の好適な実施の形態について図面を参照して説明する。
以下の説明においては、検出窓の大きさを一定とし、検出対象画像をリサイズ(リサイ
ズ画像)して、オブジェクト画像としての人の顔画像を検出する場合について説明する。
図1は、実施形態のオブジェクト検出装置の概要構成ブロック図である。
オブジェクト検出装置10は、パーソナルコンピュータとして構成されており、検出処
理を行う検出装置本体11と、画像入力装置としての撮像カメラ12と、各種操作を行う
ためのキーボード、マウスなどの入力装置13と、各種表示を行う液晶ディスプレイなど
の表示装置14と、印刷を行うプリンタなどの出力装置15と、各種データを記憶するハ
ードディスク装置などの外部記憶装置16と、を備えている。
検出装置本体11は、当該検出装置本体11全体の制御を行うマイクロプロセッサユニ
ット(MPU)21と、各種データを記憶するROM22と、LAN、インターネットな
どの外部の通信ネットワーク23との間のインタフェース動作を行う通信インタフェース
部24と、を備えている。
Next, preferred embodiments of the present invention will be described with reference to the drawings.
In the following description, a case will be described in which the size of the detection window is constant, the detection target image is resized (resized image), and a human face image as an object image is detected.
FIG. 1 is a schematic configuration block diagram of an object detection apparatus according to an embodiment.
The object detection device 10 is configured as a personal computer, and includes a detection device main body 11 that performs detection processing, an imaging camera 12 as an image input device, an input device 13 such as a keyboard and a mouse for performing various operations, A display device 14 such as a liquid crystal display that performs various displays, an output device 15 such as a printer that performs printing, and an external storage device 16 such as a hard disk device that stores various data are provided.
The detection device main body 11 performs an interface operation between a microprocessor unit (MPU) 21 that controls the entire detection device main body 11, a ROM 22 that stores various data, and an external communication network 23 such as a LAN or the Internet. And a communication interface unit 24 for performing.

図2は、オブジェクト検出装置のオブジェクト検出機能ブロック図である。
オブジェクト検出装置10は、大別すると、輝度画像生成部31と、エッジ画像生成部
32と、リサイズ画像生成部33と、色域判定部34と、2値画像生成部35と、積分画
像生成部36と、閾値変更部37と、確信度判定部38と、識別部39と、を備えている

ここで、輝度画像生成部31、エッジ画像生成部32、色域判定部34および2値画像
生成部35は、画像変換部として機能している。
また、閾値変更部37、確信度判定部38および識別部39は、オブジェクト判別部と
して機能している。
これらのオブジェクト検出機能については、実際には、検出装置本体11が所定の制御
プログラムにより実現することとなっている。
FIG. 2 is an object detection function block diagram of the object detection apparatus.
The object detection device 10 is roughly divided into a luminance image generation unit 31, an edge image generation unit 32, a resize image generation unit 33, a color gamut determination unit 34, a binary image generation unit 35, and an integral image generation unit. 36, a threshold value changing unit 37, a certainty factor determining unit 38, and an identifying unit 39.
Here, the luminance image generation unit 31, the edge image generation unit 32, the color gamut determination unit 34, and the binary image generation unit 35 function as an image conversion unit.
Further, the threshold changing unit 37, the certainty degree determining unit 38, and the identifying unit 39 function as an object determining unit.
About these object detection functions, the detection apparatus main body 11 is actually realized by a predetermined control program.

ここで、各部の概要動作を説明する。
輝度画像生成部31は、検出対象画像の輝度画像を生成し、エッジ画像生成部に出力す
る。
エッジ画像生成部32は、入力された検出対象の輝度画像からエッジ画像を生成する。
リサイズ画像生成部33は、検出対象画像のリサイズを行ってリサイズ検出対象画像を
生成する。
色域判定部34は、検出対象画像あるいはリサイズ検出対象画像を構成する画素毎に検
出対象のオブジェクトに対応する所定の色域に属しているか否かを判定し、判定結果を2
値画像生成部35に出力する。
2値画像生成部35は、色域判定部34の判定結果に基づいて、検出対象画像あるいは
リサイズ検出対象画像からオブジェクト検出用の2値画像を生成する。
Here, an outline operation of each unit will be described.
The luminance image generation unit 31 generates a luminance image of the detection target image and outputs it to the edge image generation unit.
The edge image generation unit 32 generates an edge image from the input luminance image to be detected.
The resized image generation unit 33 resizes the detection target image to generate a resize detection target image.
The color gamut determining unit 34 determines whether each pixel constituting the detection target image or the resizing detection target image belongs to a predetermined color gamut corresponding to the detection target object, and the determination result is 2
Output to the value image generator 35.
Based on the determination result of the color gamut determination unit 34, the binary image generation unit 35 generates a binary image for object detection from the detection target image or the resizing detection target image.

積分画像生成部36は、2値画像生成部35により生成された2値画像に基づいて積分
画像を生成する。
これらと並行して閾値変更部37は、確信度判定用の各種閾値(色域内画素数閾値、エ
ッジ強度閾値、輝度範囲閾値など)を設定する。
確信度判定部38は、設定された各種閾値に基づいてオブジェクト画像である確信度を
判定する。
識別部39は、確信度判定部38の判定結果に基づいてオブジェクト画像であるか否か
を判別する。
The integral image generation unit 36 generates an integral image based on the binary image generated by the binary image generation unit 35.
In parallel with these, the threshold value changing unit 37 sets various threshold values for determining the certainty factor (in-gamut pixel number threshold value, edge strength threshold value, luminance range threshold value, etc.).
The certainty factor determination unit 38 determines the certainty factor that is an object image based on various set threshold values.
The identifying unit 39 determines whether the image is an object image based on the determination result of the certainty factor determining unit 38.

図3は、実施形態の動作フローチャートである。
まず、検出装置本体11は、輝度画像生成部31として機能し、撮像カメラ12により
撮像された画像、外部記憶装置16に予め記憶させておいた画像、あるいは、通信インタ
フェース部24を介して入力された画像などの検出対象画像から輝度画像を生成する(ス
テップS1)。
具体的には、参考文献『荒木祐一、島田伸敬、白井良明、「背景と顔の方向に依存しな
い顔検出と顔方向の推定」、電子通信学会 信学技法PRMU2001-217、pp.87-94』に記載さ
れている場合を例とすると、各画素における色成分を赤成分、緑成分、青成分に分解し、
各画素における赤成分をR、緑成分をG、青成分をBとした場合に、次式により各画素の
輝度LPを算出する。
輝度LP=0.30×R+0.59×G+0.11B
FIG. 3 is an operation flowchart of the embodiment.
First, the detection device main body 11 functions as a luminance image generation unit 31 and is input via an image captured by the imaging camera 12, an image stored in advance in the external storage device 16, or the communication interface unit 24. A luminance image is generated from the detection target image such as the detected image (step S1).
Specifically, reference documents “Yuichi Araki, Nobutaka Shimada, Yoshiaki Shirai,“ Face Detection and Face Direction Independent of Background and Face Direction ”, IEICE Technical Technique PRMU2001-217, pp.87- 94 ”as an example, the color component in each pixel is decomposed into a red component, a green component, and a blue component,
When the red component in each pixel is R, the green component is G, and the blue component is B, the luminance LP of each pixel is calculated by the following equation.
Luminance LP = 0.30 × R + 0.59 × G + 0.11B

次に検出装置本体11は、エッジ画像生成部32として機能し、検出対象画像に対応す
る輝度画像からエッジを検出し、エッジ画像を生成する(ステップS2)。
ここで、エッジ画像の生成について詳細に説明する。
エッジは、輝度値が急激に変化する部分であるので,関数の変化分を取り出す微分演算
をエッジ検出に利用できる。エッジ検出に利用する微分演算としては、一次微分および二
次微分があるが、本実施形態においては、エッジ検出にSobelオペレータを用いた一
次微分を利用している。
Sobelオペレータを用いた一次微分の値は、大きさと方向を持つ、
ベクトル量G(x,y)=(fx,fy)
として表現できる。
Next, the detection apparatus main body 11 functions as the edge image generation unit 32, detects an edge from the luminance image corresponding to the detection target image, and generates an edge image (step S2).
Here, generation of an edge image will be described in detail.
Since the edge is a portion where the luminance value changes abruptly, a differential operation for extracting a change in the function can be used for edge detection. As the differential operation used for edge detection, there are a primary differentiation and a secondary differentiation. In this embodiment, a primary differentiation using a Sobel operator is used for edge detection.
The value of the first derivative using the Sobel operator has a magnitude and direction,
Vector quantity G (x, y) = (fx, fy)
Can be expressed as

ここで、fxはx方向の微分値、fyはy方向の微分値を示す。

また、x軸方向のSobelオペレータは次式により表される。
Here, fx represents a differential value in the x direction, and fy represents a differential value in the y direction.

The Sobel operator in the x-axis direction is expressed by the following equation.

Figure 0004779851
さらに、y軸方向のSobelオペレータは次式により表される。
Figure 0004779851
Further, the Sobel operator in the y-axis direction is expressed by the following equation.

Figure 0004779851
これらにより、エッジの強度Eは、次式により算出することができる。
E=√(fx2+fy2
続いて、検出装置本体11は、検出対象画像の確信度を表す積分画像を生成する(ステ
ップS3)。
Figure 0004779851
Thus, the edge strength E can be calculated by the following equation.
E = √ (fx 2 + fy 2 )
Subsequently, the detection apparatus main body 11 generates an integral image representing the certainty factor of the detection target image (step S3).

具体的には、まず検出装置本体11は、色域判定部34として機能し、検出対象画像を
構成する画素(例えば、640×480画素)について、画素毎に検出対象のオブジェク
トに対応する所定の色域に属しているか否かを判定し、判定結果を2値画像生成部35に
出力する。
ここで、色域判定部34として機能する検出装置本体11は、例えば、上述した参考文
献に記載の条件、すなわち、人の肌の色に相当する色域の条件にしたがって、各画素の色
が人の肌の色の色域に属するか否かを判定する。
Specifically, first, the detection apparatus main body 11 functions as the color gamut determination unit 34, and for each pixel (for example, 640 × 480 pixels) constituting the detection target image, a predetermined corresponding to the detection target object for each pixel. It is determined whether or not it belongs to the color gamut, and the determination result is output to the binary image generation unit 35.
Here, the detection device main body 11 functioning as the color gamut determination unit 34 has, for example, the color of each pixel in accordance with the condition described in the above-mentioned reference, that is, the color gamut condition corresponding to the color of human skin. It is determined whether it belongs to the color gamut of human skin color.

より詳細には、各画素における色成分を赤成分、緑成分、青成分に分解し、各画素にお
ける赤成分をR、緑成分をG、青成分をBとすれば、オブジェクトである顔の肌の色は次
の条件を満たす色域範囲に属するものとしている。
0.333<r<0.664
r>g
0.246<g<0.398
g≧0.5−0.5r
ここで、
r=R/(R+G+B)
g=G/(R+G+B)
となっている。
More specifically, if the color component in each pixel is decomposed into a red component, a green component, and a blue component, and the red component in each pixel is R, the green component is G, and the blue component is B, the skin of the face that is the object Are in the color gamut range that satisfies the following conditions.
0.333 <r <0.664
r> g
0.246 <g <0.398
g ≧ 0.5-0.5r
here,
r = R / (R + G + B)
g = G / (R + G + B)
It has become.

この場合において、上記条件は、日本人の肌の色に限らず、様々な肌の色であっても同
様に適用可能となっている。
続いて、検出装置本体11は、2値画像生成部35として機能し、色域判定の判定結果
に基づいて、検出対象画像の2値画像を生成する。
具体的には、検出装置本体11は、上記条件を満たす画素を顔画像を構成する画素であ
る確信度が高い画素とし、当該画素の値を“1”とし、上記条件を満たさない画素を顔画
像を構成しない画素である確信度が高い画素とし、当該画素の値を“0”として、2値画
像を生成する。
In this case, the above conditions are not limited to the Japanese skin color, and can be applied to various skin colors.
Subsequently, the detection apparatus main body 11 functions as the binary image generation unit 35 and generates a binary image of the detection target image based on the determination result of the color gamut determination.
Specifically, the detection apparatus main body 11 sets a pixel satisfying the above condition as a pixel having a high certainty of being a pixel constituting the face image, sets the value of the pixel to “1”, and sets a pixel that does not satisfy the above condition as a face A binary image is generated by setting a pixel having a high certainty as a pixel that does not constitute an image and setting the value of the pixel to “0”.

図4は、積分画像生成の概要説明図である。
図4は、検出対象画像が640×480画素の場合である。
続いて検出装置本体11は、積分画像生成部36として機能し、基準位置画素PX0,0
および対象画素PXm,nを対角線上の頂点とする矩形RA内のすべての画素PX0,0〜PX
m,nの値を積分して当該対象画素PXm,nに対応する積分値とする。
FIG. 4 is a schematic explanatory diagram of integrated image generation.
FIG. 4 shows a case where the detection target image is 640 × 480 pixels.
Subsequently, the detection device main body 11 functions as the integral image generation unit 36, and the reference position pixels PX0,0
And all the pixels PX0,0 to PX in the rectangle RA having the target pixel PXm, n as a vertex on the diagonal line
The value of m, n is integrated to obtain an integrated value corresponding to the target pixel PXm, n.

図5は、積分画像生成の具体的説明のための2値画像の説明図である。
具体的には、図5に示すように、対象画素PXm,n=PX3,3である場合には、基準位置
画素PX0,0および対象画素PX3,3を対角線上の頂点とする矩形RA1内のすべての画素
PX0,0〜PX3,3の値を積分(実際には、単純加算)して当該対象画素PX3,3に対応す
る積分値ΣPX3,3が算出される。
FIG. 5 is an explanatory diagram of a binary image for specific description of integral image generation.
Specifically, as shown in FIG. 5, when the target pixel PXm, n = PX3,3, the reference position pixel PX0,0 and the target pixel PX3,3 are in the rectangle RA1 having the diagonal vertices. An integration value ΣPX3,3 corresponding to the target pixel PX3,3 is calculated by integrating (in practice, simple addition) the values of all the pixels PX0,0 to PX3,3.

図6は、生成した積分画像の説明図である。
具体的には、次式により算出される。
ΣPX3,3=0+0+0+0+0+0+1+1+0+1+1+1+0+1+1+1
=8
同様にして、基準位置画素PX0,0および対象画素PX3,3を対角線上の頂点とする矩形
RA1内の積分画像は、図6に示すようなものとなる。
次に検出装置本体11は、リサイズ画像生成部33として機能し、検出対象画像をリサ
イズして、リサイズ画像を生成する(ステップS4)。
FIG. 6 is an explanatory diagram of the generated integral image.
Specifically, it is calculated by the following formula.
ΣPX3,3 = 0 + 0 + 0 + 0 + 0 + 0 + 1 + 1 + 0 + 1 + 1 + 1 + 0 + 1 + 1 + 1
= 8
Similarly, an integrated image in the rectangle RA1 having the reference position pixel PX0,0 and the target pixel PX3,3 as vertices on a diagonal line is as shown in FIG.
Next, the detection apparatus main body 11 functions as the resized image generation unit 33, resizes the detection target image, and generates a resized image (step S4).

より具体的には、検出対象画像(上述の例の場合、640×480画素)を、例えば1
/1.1だけ縮小し、リサイズ画像(第1回目のリサイズ後、581×436画素)を生
成する。
次に検出装置本体11は、リサイズ画像に対して、ステップS1の処理と同様の処理を
行い、リサイズ画像の確信度を表す積分画像を生成する(ステップS5)。
More specifically, the detection target image (640 × 480 pixels in the case of the above example) is set to, for example, 1
Reduced by /1.1 to generate a resized image (581 × 436 pixels after the first resize).
Next, the detection apparatus main body 11 performs the same process as the process of step S1 on the resized image, and generates an integrated image representing the certainty factor of the resized image (step S5).

図7は、検出窓の設定状態の説明図である。
次に検出装置本体11は、リサイズ画像のx軸、y軸方向に検出窓DWを順次ずらしな
がら設定する。
より具体的には、検出窓DWのサイズを20×20画素とした場合、初期状態(第1回
目)において、検出窓DW=DW1となり、開始画素PX0,0および終了画素PX19,19を
対角線上の頂点とする矩形の領域に相当するものとなっている。
FIG. 7 is an explanatory diagram of a detection window setting state.
Next, the detection apparatus body 11 sets the detection window DW while sequentially shifting the detection window DW in the x-axis and y-axis directions of the resized image.
More specifically, when the size of the detection window DW is 20 × 20 pixels, in the initial state (first time), the detection window DW = DW1, and the start pixel PX0,0 and the end pixel PX19,19 are on the diagonal line. It corresponds to a rectangular area with the vertex of.

そして、検出対象画像の画素数を640×480画素とし、終了画素をPXP,Q(0≦P
≦639、0≦Q≦479)とした場合には、P=620(=639−19)となるまでは、Q
の値は同じにして、検出窓DWを設定する。その後、P=620となった時点で、Qの値
に1を加算し、Pの値を再び0として次の検出窓DWを設定する。
同様にして、P=620(=639−19)、Q=460(=479−19)となるま
で、検出窓DWの設定を繰り返すこととなる。
The number of pixels of the detection target image is 640 × 480 pixels, and the end pixel is PXP, Q (0 ≦ P
≦ 639, 0 ≦ Q ≦ 479), Q until P = 620 (= 639−19)
The detection window DW is set with the same value. Thereafter, when P = 620, 1 is added to the value of Q, the value of P is set to 0 again, and the next detection window DW is set.
Similarly, the setting of the detection window DW is repeated until P = 620 (= 639-19) and Q = 460 (= 479-19).

続いて検出装置本体11は、確信度判定部38として機能し、リサイズ画像から生成し
た積分画像から確信度を算出し、同様に、検出装置本体11は、検出対象画像から生成し
た積分画像についても確信度を算出する(ステップS5)。このとき、上述した検出窓D
Wは、リサイズ画像に対して設定されているため、検出対象画像から生成した積分画像に
対する検出窓は、リサイズ画像のサイズに対する検出窓DWの比率およびリサイズ画像に
おける検出窓DWの位置に対応する検出対象画像の位置に基づいて、検出対象画像用の検
出窓を別途設定して確信度を算出することとなる。
ここで、確信度の算出の原理について説明する。
画素PXx,yにおける画像特徴量をCとした場合の、積分画像II(PXx,y)は、次式
により算出される。
Subsequently, the detection device main body 11 functions as the certainty factor determination unit 38 and calculates the certainty factor from the integrated image generated from the resized image. Similarly, the detection device main body 11 also applies to the integrated image generated from the detection target image. A certainty factor is calculated (step S5). At this time, the detection window D described above
Since W is set for the resized image, the detection window for the integral image generated from the detection target image corresponds to the ratio of the detection window DW to the size of the resized image and the position of the detection window DW in the resized image. Based on the position of the target image, a detection window for the detection target image is separately set and the certainty factor is calculated.
Here, the principle of the certainty factor calculation will be described.
The integral image II (PXx, y) when the image feature amount in the pixel PXx, y is C is calculated by the following equation.

Figure 0004779851
算出された積分画像を用いれば、画像ブロック(特に検出窓DW内の画像)の特徴量の
和を迅速に求めることができる。
画像ブロックの範囲を(x0≦x≦x1、y0≦y≦y1)とすれば、特徴量の和である積
分値は、次式により表される。
Figure 0004779851
By using the calculated integral image, the sum of the feature quantities of the image block (particularly the image in the detection window DW) can be quickly obtained.
Assuming that the range of the image block is (x 0 ≦ x ≦ x 1 , y 0 ≦ y ≦ y 1 ), the integral value that is the sum of the feature amounts is expressed by the following equation.

Figure 0004779851
この場合において、積分画像を生成する処理は、検出対象画像またはリサイズ画像に対
して高々一回行えばよいので、領域内の画素数によらず高速な演算が可能になるのである
Figure 0004779851
In this case, the process for generating the integral image may be performed at most once on the detection target image or the resized image, so that high-speed calculation is possible regardless of the number of pixels in the region.

次により具体的な確信度の算出について説明する。
図8は、確信度の算出の説明図である。
確信度の算出において、検出装置本体11は、検出窓DWの確信度を算出する場合には
、矩形RA11〜RA14の各矩形毎の積分値を用いて行う。
具体的には、検出窓DWの大きさを20×20画素とすると、検出窓DWの開始画素が
PXS,Tである場合には、終了画素がPXS+19,T+19となる。
このとき、矩形RA11は、開始画素PX0,0および終了画素PXS-1,T-1を対角線上の
頂点とする矩形となる。したがって、矩形RA11の積分値ΣRA11は、ΣPXS-1,T-
1となる。
Next, the calculation of the certainty factor will be described in detail.
FIG. 8 is an explanatory diagram for calculating the certainty factor.
In calculating the certainty factor, the detection apparatus main body 11 performs the calculation of the certainty factor of the detection window DW using the integral value for each rectangle of the rectangles RA11 to RA14.
Specifically, if the size of the detection window DW is 20 × 20 pixels, if the start pixel of the detection window DW is PXS, T, the end pixel is PXS + 19, T + 19.
At this time, the rectangle RA11 is a rectangle having the start pixel PX0,0 and the end pixel PXS-1, T-1 as vertices on a diagonal line. Therefore, the integral value ΣRA11 of the rectangle RA11 is expressed as ΣPXS-1, T−
1

同様に矩形RA12は、開始画素PX0,0および終了画素PXS+19,T-1を対角線上の頂
点とする矩形となる。したがって、矩形RA12の積分値ΣRA12は、ΣPXS+19,T-1
となる。
また、矩形RA13は、開始画素PX0,0および終了画素PXS-1,T+19を対角線上の頂
点とする矩形となる。したがって、矩形RA13の積分値ΣRA13は、ΣPXS-1,T+19
となる。
また、矩形RA14は、開始画素PX0,0および終了画素PXS+19,T+19を対角線上の頂
点とする矩形となる。したがって、矩形RA13の積分値ΣRA14は、ΣPX+19,T+19
となる。
Similarly, the rectangle RA12 is a rectangle having the start pixel PX0,0 and the end pixel PXS + 19, T-1 as vertices on a diagonal line. Therefore, the integral value ΣRA12 of the rectangle RA12 is ΣPXS + 19, T−1.
It becomes.
The rectangle RA13 is a rectangle having the start pixel PX0,0 and the end pixel PXS-1, T + 19 as vertices on a diagonal line. Therefore, the integral value ΣRA13 of the rectangle RA13 is ΣPXS−1, T + 19.
It becomes.
The rectangle RA14 is a rectangle having the start pixel PX0,0 and the end pixel PXS + 19, T + 19 as vertices on a diagonal line. Therefore, the integral value ΣRA14 of the rectangle RA13 is ΣPX + 19, T + 19.
It becomes.

これらの結果、検出窓DWに対応する画素の確信度、すなわち、検出窓DWに対応する
積分値ΣDWは、次式により表される。
ΣDW=ΣRA14+ΣRA11−ΣRA12−ΣRA13
続いて検出装置本体11は、オブジェクト画像である確信度が、予め求めた閾値以上で
あるか否かを判定する(ステップS6)。
As a result, the certainty factor of the pixel corresponding to the detection window DW, that is, the integral value ΣDW corresponding to the detection window DW is expressed by the following equation.
ΣDW = ΣRA14 + ΣRA11−ΣRA12−ΣRA13
Subsequently, the detection apparatus main body 11 determines whether or not the certainty that is the object image is equal to or greater than a predetermined threshold value (step S6).

より具体的には、検出装置本体11は、以下の3条件を満たした場合に、リサイズ画像
および検出対象画像の検出窓内の画像がオブジェクト画像である確信度が高いと判定する
こととなる。
(1)設定した色域範囲にある画素の個数が閾値以上である。
(2)エッジの強度が一定値以上の画素の個数が閾値以上である。
(3)輝度が一定範囲の画素の個数が閾値以上である。
More specifically, when the following three conditions are satisfied, the detection apparatus main body 11 determines that the certainty factor that the image in the detection window of the resized image and the detection target image is an object image is high.
(1) The number of pixels in the set color gamut range is greater than or equal to the threshold value.
(2) The number of pixels whose edge intensity is a certain value or more is greater than or equal to a threshold value.
(3) The number of pixels having a certain luminance range is equal to or greater than a threshold value.

続いて、検出装置本体11は、識別部39として機能し、確信度の高さ(確信度判定部
38の判定結果)に基づいてオブジェクト画像であるか否かを判別する(ステップS7)

具体的には、検出装置本体11は、AdaBoostやSVM(サポートベクタマシーン)に代
表される機械学習的な手法を用いてオブジェクト画像であるか否かを判別している。すな
わち、本実施形態の検出装置本体11は、予め多数のオブジェクト画像、非オブジェクト
画像をサンプル画像として用意し、それらを上述した機械的な学習方法にしたがって学習
することにより、識別部39として機能するように構成されており、この結果、より確実
にオブジェクト画像か否かの判定が可能になっている。
Subsequently, the detection device main body 11 functions as the identification unit 39 and determines whether the image is an object image based on the high certainty factor (the determination result of the certainty factor determination unit 38) (step S7).
.
Specifically, the detection apparatus main body 11 determines whether or not the image is an object image by using a machine learning technique represented by AdaBoost or SVM (support vector machine). That is, the detection apparatus main body 11 of the present embodiment functions as the identification unit 39 by preparing in advance a large number of object images and non-object images as sample images and learning them according to the mechanical learning method described above. As a result, it is possible to more reliably determine whether the image is an object image.

続いて検出装置本体11は、リサイズ画像に対する検出窓DWの設定が終了しているか
否かを判定する否かを判別する(ステップS10)。
ステップS10の判別において、リサイズ画像のすべての領域において検出窓の設定が
終了していない、ひいては、検出対象画像のすべての領域において検出窓の設定が終了し
ていない場合には(ステップS10;No)、再びステップSに処理を移行し、以下、同
様の処理を行う。
ステップS10の判別において、リサイズ画像のすべての領域において検出窓の設定が
終了した、ひいては、検出対象画像のすべての領域において検出窓の設定が終了した場合
には(ステップS10;Yes)、所定のリサイズ画像の生成が終了しているか否かを判
別する(ステップS11)。
Subsequently, the detection apparatus main body 11 determines whether or not it is determined whether or not the setting of the detection window DW for the resized image has been completed (step S10).
If it is determined in step S10 that detection window settings have not been completed in all areas of the resized image, and therefore detection window settings have not been completed in all areas of the detection target image (step S10; No) ), The process again proceeds to step S, and the same process is performed thereafter.
In the determination of step S10, when the setting of the detection window is completed in all areas of the resized image, and when the setting of the detection window is completed in all areas of the detection target image (step S10; Yes), a predetermined value is set. It is determined whether or not the generation of the resized image has been completed (step S11).

ここで、所定のリサイズ画像の生成が終了した場合としては、例えば、リサイズ画像の
サイズが、検出窓DWと等しくなった場合等が挙げられる。
ステップS11の判別において、所定のリサイズ画像の生成が終了していない場合には
(ステップS11;No)、処理を再びステップS4に移行し、以下、同様の処理を継続
する。
ステップS11の判別において、所定のリサイズ画像の生成が終了した場合には(ステ
ップS11;Yes)、処理を終了する。
Here, examples of the case where the generation of the predetermined resized image is completed include a case where the size of the resized image becomes equal to the detection window DW.
If it is determined in step S11 that the generation of the predetermined resized image has not been completed (step S11; No), the process proceeds to step S4 again, and the same process is continued thereafter.
If it is determined in step S11 that the generation of the predetermined resized image has been completed (step S11; Yes), the process is terminated.

図9は、オブジェクト画像としての顔画像検出結果の一例の説明図である。
上述した処理の結果、図9(A)に示す検出対象画像Gに対し、図9(B)に示すよう
に二つの顔画像領域F1、F2(図9中、矩形領域で示す。)が検出されることとなる。
以上の説明のように、本実施形態によれば、オブジェクト画像の確信度を積分画像を用
いて算出するようにし、積分画像の生成は、検出対象画像またはリサイズ画像に対し一度
行えば良いだけであるので、高速なオブジェクト認識が可能となる。
FIG. 9 is an explanatory diagram of an example of a face image detection result as an object image.
As a result of the above-described processing, two face image areas F1 and F2 (indicated by rectangular areas in FIG. 9) are detected as shown in FIG. 9B with respect to the detection target image G shown in FIG. 9A. Will be.
As described above, according to the present embodiment, the certainty factor of the object image is calculated using the integral image, and the integral image need only be generated once for the detection target image or the resized image. Therefore, high-speed object recognition is possible.

以上の説明においては、確信度を判別する際に、設定した色域範囲にある画素の個数に
対応する閾値、エッジの強度が一定値以上の画素の個数に対応する閾値および輝度が一定
範囲の画素の個数に対応する閾値および各範囲については、詳細に述べなかったが、閾値
および範囲は、多数のオブジェクト画像から構成されるサンプル画像から決定するように
すれば良い。
In the above description, when determining the certainty factor, the threshold value corresponding to the number of pixels in the set color gamut range, the threshold value corresponding to the number of pixels whose edge intensity is equal to or greater than a certain value, and the luminance in a certain range. Although the threshold value and each range corresponding to the number of pixels have not been described in detail, the threshold value and the range may be determined from a sample image composed of a large number of object images.

また、以上の説明においては、検出窓DWの大きさを一定にし、検出対象画像のサイズ
をリサイズする構成を採っていたが、検出対象画像のリサイズは行わず、検出窓の大きさ
を検出対象画像の大きさを超えない範囲でリサイズ(拡大または縮小)する構成を採るこ
とも可能である。
以上の説明においては、検出対象画像から2値画像を生成する場合について述べたが、
3値以上のn値画像を生成し、同様に処理するように構成することも可能である。
In the above description, the size of the detection window DW is made constant and the size of the detection target image is resized. However, the detection target image is not resized, and the size of the detection window is detected. It is also possible to adopt a configuration in which resizing (enlargement or reduction) is performed within a range not exceeding the size of the image.
In the above description, the case where the binary image is generated from the detection target image has been described.
An n-value image having three or more values may be generated and processed in the same manner.

実施形態のオブジェクト検出装置の概要構成ブロック図である。It is a general | schematic block diagram of the object detection apparatus of embodiment. オブジェクト検出装置のオブジェクト検出機能ブロック図である。It is an object detection functional block diagram of an object detection apparatus. 実施形態の動作フローチャートである。It is an operation | movement flowchart of embodiment. 積分画像生成の概要説明図である。It is an outline explanatory view of integral image generation. 積分画像生成の具体的説明のための2値画像の説明図である。It is explanatory drawing of the binary image for the concrete description of integral image generation. 生成した積分画像の説明図である。It is explanatory drawing of the produced | generated integral image. 検出窓の設定状態の説明図である。It is explanatory drawing of the setting state of a detection window. 確信度の算出の説明図である。It is explanatory drawing of calculation of reliability. オブジェクト画像としての顔画像検出結果の一例の説明図である。It is explanatory drawing of an example of the face image detection result as an object image.

符号の説明Explanation of symbols

10…オブジェクト検出装置、11…検出装置本体、12…撮像カメラ、13…入力装
置、14…表示装置、15…出力装置、16…外部記憶装置、22…ROM、23…通信
ネットワーク、24…通信インタフェース部、31…輝度画像生成部、32…エッジ画像
生成部、33…リサイズ画像生成部、34…色域判定部、35…2値画像生成部、36…
積分画像生成部、37…閾値変更部、38…確信度判定部、39…識別部、F1、F2…
顔画像。

DESCRIPTION OF SYMBOLS 10 ... Object detection apparatus, 11 ... Detection apparatus main body, 12 ... Imaging camera, 13 ... Input device, 14 ... Display apparatus, 15 ... Output device, 16 ... External storage device, 22 ... ROM, 23 ... Communication network, 24 ... Communication Interface unit 31... Luminance image generation unit 32. Edge image generation unit 33. Resize image generation unit 34. Color gamut determination unit 35 35 Binary image generation unit 36.
Integrated image generation unit 37... Threshold change unit 38 38 Certainty determination unit 39 39 Discrimination unit F1, F2.
Face image.

Claims (6)

検出対象画像を構成する各画素について画像特徴量を抽出し、前記画像特徴量が所定の条件を満たすか否かに基づいて前記各画素がオブジェクトを構成する画素であるか否かを判定し、前記判定結果に基づいて、前記検出対象画像をn値(nは、2以上の整数)画像に変換する画像変換部と、
前記n値画像から、前記検出対象画像を構成する所定の画素範囲の画像がオブジェクト画像を構成するか否かの確信度を判別するための検出画像の積分画像を生成する積分画像生成部と、
前記検出対象画像の積分画像に対して設定した検出窓に含まれる画素の値を積分して、前記検出窓の確信度を算出し、前記確信度が予め定めた閾値以上であるか否かに基づいて、前記検出窓内の画像が前記オブジェクトを構成するオブジェクト画像であるか否かを判別するオブジェクト判別部と、
含む、オブジェクト検出装置。
For each pixel constituting the detection target image extracting an image feature amount, the image feature amount is equal to or a pixel each pixel constituting the object based on whether or not a predetermined condition is satisfied, An image conversion unit that converts the detection target image into an n-value (n is an integer of 2 or more) image based on the determination result ;
An integrated image generating unit that generates an integrated image of the detected image for determining whether or not a certain pixel range image forming the detection target image forms an object image from the n-value image;
By integrating the values of pixels included in the detection window set for the integrated image of the detection target image, it calculates the certainty factor of the detection window, whether crab said confidence is a predetermined threshold value or more Based on an object determination unit for determining whether an image in the detection window is an object image constituting the object;
Including an object detection device.
請求項1記載のオブジェクト検出装置において、
前記積分画像生成部は、所定の基準位置画素および対象画素を対角線上の頂点とする矩形内のすべての画素の値を積分して当該対象画素に対応する積分値とし、前記検出対象画像を構成するすべての画素に対応する積分値を求めて前記積分画像を生成する、
オブジェクト検出装置。
The object detection device according to claim 1,
The integrated image generation unit integrates the values of all pixels in a rectangle having a predetermined reference position pixel and the target pixel as vertices on a diagonal line to obtain an integrated value corresponding to the target pixel, and configures the detection target image The integral image corresponding to all the pixels to be calculated is generated,
Object detection device.
請求項1または請求項2記載のオブジェクト検出装置において、
前記検出対象画像のリサイズを行ってリサイズ画像を生成するリサイズ画像生成部をさらに含み
前記画像変換部は、前記リサイズ画像を構成する各画素について画像特徴量を抽出し、
前記画像特徴量が所定の条件を満たすか否かに基づいて前記各画素がオブジェクトを構成する画素であるか否かを判定し、前記判定結果に基づいて、前記検出対象画像をn値(nは、2以上の整数)画像に変換し、
前記積分画像生成部は、前記n値画像から前記リサイズ画像を構成する所定の画素範囲の画像がオブジェクト画像を構成するか否かの確信度を判別するためのリサイズ画像の積分画像を生成し、
前記オブジェクト判別部は、前記リサイズ画像積分画像に対して設定した検出窓に含まれる画素の値を積分して、前記検出窓の確信度を算出し、前記確信度が予め定めた閾値以上であるか否かに基づいて、前記検出窓内の画像が前記オブジェクトを構成するオブジェクト画像であるか否かを判別する、
オブジェクト検出装置。
In the object detection device according to claim 1 or 2,
Further comprising a resized image generation unit for generating a resized image by performing a resizing of the detection target image,
The image conversion unit extracts an image feature amount for each pixel constituting the resized image,
Wherein each pixel image characteristic amount based on whether a predetermined condition is satisfied, it is determined whether or not the pixels constituting the object, based on the determination result, the detection target image n values (n Is an integer greater than or equal to 2)
The integral image generator generates an integral image of the resized image to the image of the predetermined pixel range that constitutes the resized image from the n value image to determine whether the confidence factor forming the object image,
The object determination unit integrates the values of the pixels included in the detection window set for the integral image before Symbol resized image, and calculates the certainty factor of the detection window, a threshold value or more in which the certainty factor is predetermined Based on whether or not the image in the detection window is an object image constituting the object,
Object detection device.
請求項1または請求項2記載のオブジェクト検出装置において、
前記検出窓のリサイズを行い、
前記オブジェクト判別部は、前記検出対象画像に対応する積分画像に基づいて設定した検出窓に対応する画像が前記オブジェクトを構成するオブジェクト画像であるか否かを判別する、
オブジェクト検出装置。
In the object detection device according to claim 1 or 2,
Resizing the detection window,
The object determination unit determines whether an image corresponding to a detection window set based on an integral image corresponding to the detection target image is an object image constituting the object;
Object detection device.
請求項1ないし請求項4のいずれか1項に記載のオブジェクト検出装置において、
前記画像変換部は、前記画像特徴量として色域、輝度、エッジのうち、少なくともいずれかに基づいて、前記n値画像に変換する、
オブジェクト検出装置。
In the object detection apparatus according to any one of claims 1 to 4,
The image conversion unit converts the image feature amount into the n-value image based on at least one of a color gamut, luminance, and edge;
Object detection device.
請求項5に記載のオブジェクト検出装置において、
前記オブジェクト画像は、顔画像であり、
前記色域は、前記顔画像に対応するものである、
オブジェクト検出装置。
The object detection apparatus according to claim 5, wherein
The object image is a face image;
The color gamut corresponds to the face image.
Object detection device.
JP2006200405A 2006-07-24 2006-07-24 Object detection device Expired - Fee Related JP4779851B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006200405A JP4779851B2 (en) 2006-07-24 2006-07-24 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006200405A JP4779851B2 (en) 2006-07-24 2006-07-24 Object detection device

Publications (2)

Publication Number Publication Date
JP2008027275A JP2008027275A (en) 2008-02-07
JP4779851B2 true JP4779851B2 (en) 2011-09-28

Family

ID=39117836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006200405A Expired - Fee Related JP4779851B2 (en) 2006-07-24 2006-07-24 Object detection device

Country Status (1)

Country Link
JP (1) JP4779851B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101503788B1 (en) 2013-12-27 2015-03-19 숭실대학교산학협력단 Pedestrian detection method using estimation of feature information based on integral image, recording medium and terminal for performing the method
US9412036B2 (en) 2014-03-07 2016-08-09 Samsung Electronics Co., Ltd. Methods and systems for object detection based on column-wise and row-wise sums of pixel values
JP6490441B2 (en) * 2015-02-12 2019-03-27 株式会社東芝 Image evaluation apparatus, image evaluation method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7116820B2 (en) * 2003-04-28 2006-10-03 Hewlett-Packard Development Company, Lp. Detecting and correcting red-eye in a digital image
JPWO2006030519A1 (en) * 2004-09-17 2008-05-08 三菱電機株式会社 Face authentication apparatus and face authentication method

Also Published As

Publication number Publication date
JP2008027275A (en) 2008-02-07

Similar Documents

Publication Publication Date Title
JP5875637B2 (en) Image processing apparatus and image processing method
US7978247B2 (en) Focusing information visualization device, and corresponding method, program and recording medium
US8331670B2 (en) Method of detection document alteration by comparing characters using shape features of characters
US10592766B2 (en) Image processing apparatus and medium storing program executable by image processing apparatus
JP5994279B2 (en) Method for analyzing input image, apparatus and program for analyzing input image
EP3407589B1 (en) Image processing apparatus, image processing method, and storage medium
JP2018139457A (en) Image processing apparatus, control method for image processing and program
JP5645612B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP2010003118A (en) Image processing apparatus, image processing method and image processing program
US11706371B2 (en) Apparatus and method for performing enhancement processing on color information
KR20210128491A (en) Hazardous driving behavior identification method, device, electronic equipment and storage medium
JP2009237977A (en) Image output control device, image output control method, image output control program, and printer
JP4779851B2 (en) Object detection device
US8300927B2 (en) Mouth removal method for red-eye detection and correction
US10896344B2 (en) Information processing apparatus, information processing method, and computer program
JP5067224B2 (en) Object detection apparatus, object detection method, object detection program, and printing apparatus
US9251447B2 (en) Image formation apparatus and method of forming image
JP2013045205A (en) Image processor, image processing method and image processing program
US10477066B2 (en) Image processing apparatus to extract luminance data from image data, method for controlling the same, and storage medium
JP4163651B2 (en) Red-eye correction work support apparatus and program
US10185904B2 (en) Information processing apparatus for setting an attribute of a pixel based on a conformity between pixel values of objects, information processing method for setting an attribute of a pixel based on a conformity between pixel values of objects, and non-transitory computer readable medium for setting an attribute of a pixel based on a conformity between pixel values of objects
US20220075573A1 (en) Information processing apparatus, image collating method, and program
JP2008102593A (en) Object detection device and control method and control program of object detection device
KR100769677B1 (en) Control methods of image forming apparatus and system
JP2009237978A (en) Image output control device, image output control method, image output control program, and printer

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110607

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110620

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140715

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4779851

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees