JP4779851B2 - Object detection device - Google Patents
Object detection device Download PDFInfo
- Publication number
- JP4779851B2 JP4779851B2 JP2006200405A JP2006200405A JP4779851B2 JP 4779851 B2 JP4779851 B2 JP 4779851B2 JP 2006200405 A JP2006200405 A JP 2006200405A JP 2006200405 A JP2006200405 A JP 2006200405A JP 4779851 B2 JP4779851 B2 JP 4779851B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- detection
- pixel
- integral
- resized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、オブジェクト検出装置、オブジェクト検出方法および制御プログラムに係り
、特に検出対象画像から人の顔画像のようなオブジェクトを検出するためのオブジェクト
検出装置、オブジェクト検出方法および制御プログラムに関する。
The present invention relates to an object detection device, an object detection method, and a control program, and more particularly, to an object detection device, an object detection method, and a control program for detecting an object such as a human face image from a detection target image.
画像に含まれるオブジェクト(例えば、顔画像)を検出する技術は種々知られている。
このようなオブジェクト検出技術において、一般的に顔画像のサイズを一定の大きさに
正規化して検出することが行われている。
これは、画像に含まれる顔画像の大きさと位置については事前に知ることはできないた
め、画像の大きさを様々なサイズにリサイズした上で、所定の大きさの検出窓を設定し、
顔画像か否かを判定する必要があるためである。
In such an object detection technique, generally, the size of a face image is normalized to a certain size and detected.
This is because it is not possible to know in advance the size and position of the face image included in the image, so after setting the size of the image to various sizes, set a detection window of a predetermined size,
This is because it is necessary to determine whether the image is a face image.
例えば、正規化した検出窓のサイズを20×20画素とし、VGA(640×480画素)サ
イズの画像から上記のような手法で顔画像を検出するとすれば、約30万個の検出窓を設
定し、それぞれの検出窓について顔画像か否かの判定を行う。
ところで、一般の写真では、一枚の写真中に含まれる顔画像は、たかだか数個〜数十個
に過ぎない。
このような状況で、上述したように、30万個の検出窓について判定を行うことは、無
駄な判定処理が多くなり、処理時間が長くなって、リアルタイムに検出することが難しい
という課題が生じる。
また、特許文献1記載の技術は、エッジ画像を算出し、エッジの位置と向きを検出する
テンプレートにより物体を検出する構成を開示している。
しかしながら、特許文献1記載の技術では、検出窓ごとにテンプレートとのマッチング
をとるため、高速な検出を行うことはできないという問題点があった。
そこで、本発明の目的は、演算処理負担を軽減し、高速にオブジェクトを認識し、オブ
ジェクト画像の検出を行うことが可能なオブジェクト検出装置、オブジェクト検出方法お
よび制御プログラムを提供することにある。
For example, if the normalized detection window size is 20 × 20 pixels and a face image is detected from an image of VGA (640 × 480 pixels) size by the above method, about 300,000 detection windows are set. Then, it is determined whether each detection window is a face image.
By the way, in a general photograph, the number of face images included in one photograph is only several to several tens.
In such a situation, as described above, performing the determination on 300,000 detection windows increases the number of useless determination processes, increases the processing time, and causes a problem that it is difficult to detect in real time. .
The technique described in
However, the technique described in
SUMMARY OF THE INVENTION An object of the present invention is to provide an object detection apparatus, an object detection method, and a control program that can reduce an operation processing burden, recognize an object at high speed, and detect an object image.
上記課題を解決するため、オブジェクト検出装置は、検出対象画像を構成する各画素に
ついて画像特徴量を抽出し、前記画像特徴量に基づいて前記各画素がオブジェクトを構成
する画素であるか否かを判別し、前記検出対象画像をn値(nは、2以上の整数)画像に
変換する画像変換部と、前記n値画像に基づいて前記検出対象画像を構成する所定の画素
範囲の画像がオブジェクト画像を構成するか否かの確信度を判別するための積分画像を生
成する積分画像生成部と、前記積分画像に基づいて設定した検出窓に対応する画像が前記
オブジェクトを構成するオブジェクト画像であるか否かを判別するオブジェクト判別部と
、を備えたことを特徴としている。
In order to solve the above-described problem, the object detection apparatus extracts an image feature amount for each pixel constituting the detection target image, and determines whether each pixel is a pixel constituting the object based on the image feature amount. An image conversion unit that determines and converts the detection target image into an n-value (n is an integer of 2 or more) image, and an image of a predetermined pixel range that constitutes the detection target image based on the n-value image is an object An integrated image generating unit that generates an integrated image for determining the certainty of whether or not to constitute an image, and an image corresponding to a detection window set based on the integrated image is an object image constituting the object And an object discriminating unit for discriminating whether or not.
上記構成によれば、画像変換部は、検出対象画像を構成する各画素について画像特徴量
を抽出し、画像特徴量に基づいて各画素がオブジェクトを構成する画素であるか否かを判
別し、検出対象画像をn値(nは、2以上の整数)画像に変換する。
積分画像生成部は、前記n値画像に基づいて前記検出対象画像を構成する所定の画素範
囲の画像がオブジェクト画像を構成するか否かの確信度を判別するための積分画像を生成
する。
これにより、オブジェクト判別部は、積分画像に基づいて設定した検出窓に対応する画
像がオブジェクトを構成するオブジェクト画像であるか否かを判別する。
ここで、積分画像の生成は、検出対象画像に対し一度行えば良いだけであるので、高速
なオブジェクト認識が可能となる。
According to the above configuration, the image conversion unit extracts an image feature amount for each pixel constituting the detection target image, determines whether each pixel is a pixel constituting the object based on the image feature amount, The detection target image is converted into an n-value (n is an integer of 2 or more) image.
The integral image generation unit generates an integral image for determining the certainty of whether or not an image in a predetermined pixel range constituting the detection target image constitutes an object image based on the n-value image.
Thereby, the object determination unit determines whether or not the image corresponding to the detection window set based on the integral image is an object image constituting the object.
Here, since the integral image need only be generated once for the detection target image, high-speed object recognition is possible.
この場合において、前記積分画像生成部は、所定の基準位置画素および対象画素を対角
線上の頂点とする矩形内のすべての画素の値を積分して当該対象画素に対応する積分値と
し、前記検出対象画像を構成するすべての画素に対応する積分値を求めて前記積分画像を
生成するようにしてもよい。
上記構成によれば、積分画像の生成に必要な演算処理は、実質的に加算処理だけとなり
、容易、かつ、高速に積分画像を生成することができる。
In this case, the integral image generation unit integrates the values of all pixels in a rectangle having the predetermined reference position pixel and the target pixel as vertices on a diagonal line to obtain an integral value corresponding to the target pixel, and the detection The integral image may be generated by obtaining integral values corresponding to all pixels constituting the target image.
According to the above configuration, the calculation process necessary for generating the integral image is substantially only the addition process, and the integral image can be generated easily and at high speed.
また、前記検出対象画像のリサイズを行ってリサイズ画像を生成するリサイズ画像生成
部を備え、前記画像変換部は、前記リサイズ画像を構成する各画素について画像特徴量を
抽出し、前記画像特徴量に基づいて前記各画素がオブジェクトを構成する画素であるか否
かを判別し、前記検出対象画像をn値(nは、2以上の整数)画像に変換し、前記積分画
像生成部は、前記n値画像に基づいて前記リサイズ画像を構成する所定の画素範囲の画像
がオブジェクト画像を構成するか否かの確信度を判別するための積分画像を生成し、前記
オブジェクト判別部は、前記検出対象画像に対応する積分画像および前記リサイズ画像に
対応する積分画像に基づいて設定した検出窓に対応する画像が前記オブジェクトを構成す
るオブジェクト画像であるか否かを判別するようにしてもよい。
A resizing image generating unit that resizes the detection target image to generate a resizing image; and the image converting unit extracts an image feature amount for each pixel constituting the resized image, and the image feature amount And determining whether or not each pixel is a pixel constituting the object, converting the detection target image into an n-value (n is an integer of 2 or more) image, and the integral image generating unit Based on the value image, an integrated image for determining the certainty of whether or not an image of a predetermined pixel range constituting the resized image constitutes an object image, and the object discriminating unit is configured to detect the detection target image Whether the image corresponding to the detection window set based on the integral image corresponding to the image and the integral image corresponding to the resized image is an object image constituting the object It may be determined.
上記構成によれば、オブジェクト判別部は、検出対象画像に対応する積分画像およびリ
サイズ画像に対応する積分画像に基づいて設定した検出窓に対応する画像がオブジェクト
を構成するオブジェクト画像であるか否かを判別するだけでよく、積分画像の生成は、検
出対象画像およびリサイズ画像に対しそれぞれ一度行えば良いだけであるので、高速なオ
ブジェクト認識が可能となる。
According to the above configuration, the object determination unit determines whether or not the image corresponding to the detection window set based on the integral image corresponding to the detection target image and the integral image corresponding to the resized image is an object image constituting the object. Therefore, the integral image is generated only once for the detection target image and the resized image, so that high-speed object recognition is possible.
また、前記検出窓のリサイズを行い、前記オブジェクト判別部は、前記検出対象画像に
対応する積分画像に基づいて設定した検出窓に対応する画像が前記オブジェクトを構成す
るオブジェクト画像であるか否かを判別するようにしてもよい。
上記構成によれば、積分画像の生成は、検出対象画像に対し一度行えば良いだけである
ので、高速なオブジェクト認識が可能となる。
さらに、前記画像変換部は、前記画像特徴量として色域、輝度、エッジのうち、少なく
ともいずれかに基づいて、前記n値画像に変換するようにしてもよい。
上記構成によれば、確実にオブジェクト画像を検出することができる。
さらにまた、前記オブジェクト画像は、顔画像であり、前記色域は、前記顔画像に対応
するものであるようにしてもよい。
上記構成によれば、確実に顔画像を検出することができる。
In addition, the detection window is resized, and the object determination unit determines whether an image corresponding to the detection window set based on the integral image corresponding to the detection target image is an object image constituting the object. You may make it discriminate | determine.
According to the above configuration, since the integral image needs to be generated only once for the detection target image, high-speed object recognition is possible.
Furthermore, the image conversion unit may convert the image feature amount into the n-value image based on at least one of a color gamut, luminance, and edge.
According to the above configuration, the object image can be reliably detected.
Furthermore, the object image may be a face image, and the color gamut may correspond to the face image.
According to the above configuration, a face image can be reliably detected.
また、オブジェクト検出方法は、検出対象画像を構成する各画素について画像特徴量を
抽出し、前記画像特徴量に基づいて前記各画素がオブジェクトを構成する画素であるか否
かを判別し、前記検出対象画像をn値(nは、2以上の整数)画像に変換する画像変換過
程と、前記n値画像に基づいて前記検出対象画像を構成する所定の画素範囲の画像がオブ
ジェクト画像を構成するか否かの確信度を判別するための積分画像を生成する積分画像生
成過程と、前記積分画像に基づいて設定した検出窓に対応する画像が前記オブジェクトを
構成するオブジェクト画像であるか否かを判別するオブジェクト判別過程と、を備えたこ
とを特徴としている。
上記構成によれば、積分画像の生成は、検出対象画像に対し一度行えば良いだけである
ので、高速なオブジェクト認識が可能となる。
Further, the object detection method extracts an image feature amount for each pixel constituting the detection target image, determines whether each pixel is a pixel constituting the object based on the image feature amount, and detects the detection An image conversion process for converting the target image into an n-value (n is an integer equal to or greater than 2) image, and whether an image in a predetermined pixel range constituting the detection target image based on the n-value image forms an object image An integral image generation process for generating an integral image for determining the certainty of whether or not, and whether or not an image corresponding to a detection window set based on the integral image is an object image constituting the object And an object discriminating process.
According to the above configuration, since the integral image needs to be generated only once for the detection target image, high-speed object recognition is possible.
また、オブジェクト検出装置をコンピュータにより制御するための制御プログラムにお
いて、検出対象画像を構成する各画素について画像特徴量を抽出させ、前記画像特徴量に
基づいて前記各画素がオブジェクトを構成する画素であるか否かを判別させ、前記検出対
象画像をn値(nは、2以上の整数)画像に変換させ、前記n値画像に基づいて前記検出
対象画像を構成する所定の画素範囲の画像がオブジェクト画像を構成するか否かの確信度
を判別するための積分画像を生成させ、前記積分画像に基づいて設定した検出窓に対応す
る画像が前記オブジェクトを構成するオブジェクト画像であるか否かを判別させる、こと
を特徴としている。
上記構成によれば、積分画像の生成は、検出対象画像に対し一度行えば良いだけである
ので、高速なオブジェクト認識が可能となる。
Further, in a control program for controlling the object detection apparatus by a computer, an image feature amount is extracted for each pixel constituting the detection target image, and each pixel constitutes an object based on the image feature amount. The detection target image is converted into an n-value (n is an integer of 2 or more) image, and an image in a predetermined pixel range constituting the detection target image based on the n-value image is an object. An integrated image for determining the certainty of whether or not to constitute an image is generated, and it is determined whether or not an image corresponding to a detection window set based on the integrated image is an object image constituting the object It is characterized by that.
According to the above configuration, since the integral image needs to be generated only once for the detection target image, high-speed object recognition is possible.
次に本発明の好適な実施の形態について図面を参照して説明する。
以下の説明においては、検出窓の大きさを一定とし、検出対象画像をリサイズ(リサイ
ズ画像)して、オブジェクト画像としての人の顔画像を検出する場合について説明する。
図1は、実施形態のオブジェクト検出装置の概要構成ブロック図である。
オブジェクト検出装置10は、パーソナルコンピュータとして構成されており、検出処
理を行う検出装置本体11と、画像入力装置としての撮像カメラ12と、各種操作を行う
ためのキーボード、マウスなどの入力装置13と、各種表示を行う液晶ディスプレイなど
の表示装置14と、印刷を行うプリンタなどの出力装置15と、各種データを記憶するハ
ードディスク装置などの外部記憶装置16と、を備えている。
検出装置本体11は、当該検出装置本体11全体の制御を行うマイクロプロセッサユニ
ット(MPU)21と、各種データを記憶するROM22と、LAN、インターネットな
どの外部の通信ネットワーク23との間のインタフェース動作を行う通信インタフェース
部24と、を備えている。
Next, preferred embodiments of the present invention will be described with reference to the drawings.
In the following description, a case will be described in which the size of the detection window is constant, the detection target image is resized (resized image), and a human face image as an object image is detected.
FIG. 1 is a schematic configuration block diagram of an object detection apparatus according to an embodiment.
The
The detection device
図2は、オブジェクト検出装置のオブジェクト検出機能ブロック図である。
オブジェクト検出装置10は、大別すると、輝度画像生成部31と、エッジ画像生成部
32と、リサイズ画像生成部33と、色域判定部34と、2値画像生成部35と、積分画
像生成部36と、閾値変更部37と、確信度判定部38と、識別部39と、を備えている
。
ここで、輝度画像生成部31、エッジ画像生成部32、色域判定部34および2値画像
生成部35は、画像変換部として機能している。
また、閾値変更部37、確信度判定部38および識別部39は、オブジェクト判別部と
して機能している。
これらのオブジェクト検出機能については、実際には、検出装置本体11が所定の制御
プログラムにより実現することとなっている。
FIG. 2 is an object detection function block diagram of the object detection apparatus.
The
Here, the luminance
Further, the
About these object detection functions, the detection apparatus
ここで、各部の概要動作を説明する。
輝度画像生成部31は、検出対象画像の輝度画像を生成し、エッジ画像生成部に出力す
る。
エッジ画像生成部32は、入力された検出対象の輝度画像からエッジ画像を生成する。
リサイズ画像生成部33は、検出対象画像のリサイズを行ってリサイズ検出対象画像を
生成する。
色域判定部34は、検出対象画像あるいはリサイズ検出対象画像を構成する画素毎に検
出対象のオブジェクトに対応する所定の色域に属しているか否かを判定し、判定結果を2
値画像生成部35に出力する。
2値画像生成部35は、色域判定部34の判定結果に基づいて、検出対象画像あるいは
リサイズ検出対象画像からオブジェクト検出用の2値画像を生成する。
Here, an outline operation of each unit will be described.
The luminance
The edge
The resized
The color
Output to the
Based on the determination result of the color
積分画像生成部36は、2値画像生成部35により生成された2値画像に基づいて積分
画像を生成する。
これらと並行して閾値変更部37は、確信度判定用の各種閾値(色域内画素数閾値、エ
ッジ強度閾値、輝度範囲閾値など)を設定する。
確信度判定部38は、設定された各種閾値に基づいてオブジェクト画像である確信度を
判定する。
識別部39は、確信度判定部38の判定結果に基づいてオブジェクト画像であるか否か
を判別する。
The integral
In parallel with these, the threshold
The certainty
The identifying
図3は、実施形態の動作フローチャートである。
まず、検出装置本体11は、輝度画像生成部31として機能し、撮像カメラ12により
撮像された画像、外部記憶装置16に予め記憶させておいた画像、あるいは、通信インタ
フェース部24を介して入力された画像などの検出対象画像から輝度画像を生成する(ス
テップS1)。
具体的には、参考文献『荒木祐一、島田伸敬、白井良明、「背景と顔の方向に依存しな
い顔検出と顔方向の推定」、電子通信学会 信学技法PRMU2001-217、pp.87-94』に記載さ
れている場合を例とすると、各画素における色成分を赤成分、緑成分、青成分に分解し、
各画素における赤成分をR、緑成分をG、青成分をBとした場合に、次式により各画素の
輝度LPを算出する。
輝度LP=0.30×R+0.59×G+0.11B
FIG. 3 is an operation flowchart of the embodiment.
First, the detection device
Specifically, reference documents “Yuichi Araki, Nobutaka Shimada, Yoshiaki Shirai,“ Face Detection and Face Direction Independent of Background and Face Direction ”, IEICE Technical Technique PRMU2001-217, pp.87- 94 ”as an example, the color component in each pixel is decomposed into a red component, a green component, and a blue component,
When the red component in each pixel is R, the green component is G, and the blue component is B, the luminance LP of each pixel is calculated by the following equation.
Luminance LP = 0.30 × R + 0.59 × G + 0.11B
次に検出装置本体11は、エッジ画像生成部32として機能し、検出対象画像に対応す
る輝度画像からエッジを検出し、エッジ画像を生成する(ステップS2)。
ここで、エッジ画像の生成について詳細に説明する。
エッジは、輝度値が急激に変化する部分であるので,関数の変化分を取り出す微分演算
をエッジ検出に利用できる。エッジ検出に利用する微分演算としては、一次微分および二
次微分があるが、本実施形態においては、エッジ検出にSobelオペレータを用いた一
次微分を利用している。
Sobelオペレータを用いた一次微分の値は、大きさと方向を持つ、
ベクトル量G(x,y)=(fx,fy)
として表現できる。
Next, the detection apparatus
Here, generation of an edge image will be described in detail.
Since the edge is a portion where the luminance value changes abruptly, a differential operation for extracting a change in the function can be used for edge detection. As the differential operation used for edge detection, there are a primary differentiation and a secondary differentiation. In this embodiment, a primary differentiation using a Sobel operator is used for edge detection.
The value of the first derivative using the Sobel operator has a magnitude and direction,
Vector quantity G (x, y) = (fx, fy)
Can be expressed as
ここで、fxはx方向の微分値、fyはy方向の微分値を示す。
また、x軸方向のSobelオペレータは次式により表される。
Here, fx represents a differential value in the x direction, and fy represents a differential value in the y direction.
The Sobel operator in the x-axis direction is expressed by the following equation.
E=√(fx2+fy2)
続いて、検出装置本体11は、検出対象画像の確信度を表す積分画像を生成する(ステ
ップS3)。
E = √ (fx 2 + fy 2 )
Subsequently, the detection apparatus
具体的には、まず検出装置本体11は、色域判定部34として機能し、検出対象画像を
構成する画素(例えば、640×480画素)について、画素毎に検出対象のオブジェク
トに対応する所定の色域に属しているか否かを判定し、判定結果を2値画像生成部35に
出力する。
ここで、色域判定部34として機能する検出装置本体11は、例えば、上述した参考文
献に記載の条件、すなわち、人の肌の色に相当する色域の条件にしたがって、各画素の色
が人の肌の色の色域に属するか否かを判定する。
Specifically, first, the detection apparatus
Here, the detection device
より詳細には、各画素における色成分を赤成分、緑成分、青成分に分解し、各画素にお
ける赤成分をR、緑成分をG、青成分をBとすれば、オブジェクトである顔の肌の色は次
の条件を満たす色域範囲に属するものとしている。
0.333<r<0.664
r>g
0.246<g<0.398
g≧0.5−0.5r
ここで、
r=R/(R+G+B)
g=G/(R+G+B)
となっている。
More specifically, if the color component in each pixel is decomposed into a red component, a green component, and a blue component, and the red component in each pixel is R, the green component is G, and the blue component is B, the skin of the face that is the object Are in the color gamut range that satisfies the following conditions.
0.333 <r <0.664
r> g
0.246 <g <0.398
g ≧ 0.5-0.5r
here,
r = R / (R + G + B)
g = G / (R + G + B)
It has become.
この場合において、上記条件は、日本人の肌の色に限らず、様々な肌の色であっても同
様に適用可能となっている。
続いて、検出装置本体11は、2値画像生成部35として機能し、色域判定の判定結果
に基づいて、検出対象画像の2値画像を生成する。
具体的には、検出装置本体11は、上記条件を満たす画素を顔画像を構成する画素であ
る確信度が高い画素とし、当該画素の値を“1”とし、上記条件を満たさない画素を顔画
像を構成しない画素である確信度が高い画素とし、当該画素の値を“0”として、2値画
像を生成する。
In this case, the above conditions are not limited to the Japanese skin color, and can be applied to various skin colors.
Subsequently, the detection apparatus
Specifically, the detection apparatus
図4は、積分画像生成の概要説明図である。
図4は、検出対象画像が640×480画素の場合である。
続いて検出装置本体11は、積分画像生成部36として機能し、基準位置画素PX0,0
および対象画素PXm,nを対角線上の頂点とする矩形RA内のすべての画素PX0,0〜PX
m,nの値を積分して当該対象画素PXm,nに対応する積分値とする。
FIG. 4 is a schematic explanatory diagram of integrated image generation.
FIG. 4 shows a case where the detection target image is 640 × 480 pixels.
Subsequently, the detection device
And all the pixels PX0,0 to PX in the rectangle RA having the target pixel PXm, n as a vertex on the diagonal line
The value of m, n is integrated to obtain an integrated value corresponding to the target pixel PXm, n.
図5は、積分画像生成の具体的説明のための2値画像の説明図である。
具体的には、図5に示すように、対象画素PXm,n=PX3,3である場合には、基準位置
画素PX0,0および対象画素PX3,3を対角線上の頂点とする矩形RA1内のすべての画素
PX0,0〜PX3,3の値を積分(実際には、単純加算)して当該対象画素PX3,3に対応す
る積分値ΣPX3,3が算出される。
FIG. 5 is an explanatory diagram of a binary image for specific description of integral image generation.
Specifically, as shown in FIG. 5, when the target pixel PXm, n = PX3,3, the reference position pixel PX0,0 and the target pixel PX3,3 are in the rectangle RA1 having the diagonal vertices. An integration value ΣPX3,3 corresponding to the target pixel PX3,3 is calculated by integrating (in practice, simple addition) the values of all the pixels PX0,0 to PX3,3.
図6は、生成した積分画像の説明図である。
具体的には、次式により算出される。
ΣPX3,3=0+0+0+0+0+0+1+1+0+1+1+1+0+1+1+1
=8
同様にして、基準位置画素PX0,0および対象画素PX3,3を対角線上の頂点とする矩形
RA1内の積分画像は、図6に示すようなものとなる。
次に検出装置本体11は、リサイズ画像生成部33として機能し、検出対象画像をリサ
イズして、リサイズ画像を生成する(ステップS4)。
FIG. 6 is an explanatory diagram of the generated integral image.
Specifically, it is calculated by the following formula.
ΣPX3,3 = 0 + 0 + 0 + 0 + 0 + 0 + 1 + 1 + 0 + 1 + 1 + 1 + 0 + 1 + 1 + 1
= 8
Similarly, an integrated image in the rectangle RA1 having the reference position pixel PX0,0 and the target pixel PX3,3 as vertices on a diagonal line is as shown in FIG.
Next, the detection apparatus
より具体的には、検出対象画像(上述の例の場合、640×480画素)を、例えば1
/1.1だけ縮小し、リサイズ画像(第1回目のリサイズ後、581×436画素)を生
成する。
次に検出装置本体11は、リサイズ画像に対して、ステップS1の処理と同様の処理を
行い、リサイズ画像の確信度を表す積分画像を生成する(ステップS5)。
More specifically, the detection target image (640 × 480 pixels in the case of the above example) is set to, for example, 1
Reduced by /1.1 to generate a resized image (581 × 436 pixels after the first resize).
Next, the detection apparatus
図7は、検出窓の設定状態の説明図である。
次に検出装置本体11は、リサイズ画像のx軸、y軸方向に検出窓DWを順次ずらしな
がら設定する。
より具体的には、検出窓DWのサイズを20×20画素とした場合、初期状態(第1回
目)において、検出窓DW=DW1となり、開始画素PX0,0および終了画素PX19,19を
対角線上の頂点とする矩形の領域に相当するものとなっている。
FIG. 7 is an explanatory diagram of a detection window setting state.
Next, the
More specifically, when the size of the detection window DW is 20 × 20 pixels, in the initial state (first time), the detection window DW = DW1, and the start pixel PX0,0 and the end pixel PX19,19 are on the diagonal line. It corresponds to a rectangular area with the vertex of.
そして、検出対象画像の画素数を640×480画素とし、終了画素をPXP,Q(0≦P
≦639、0≦Q≦479)とした場合には、P=620(=639−19)となるまでは、Q
の値は同じにして、検出窓DWを設定する。その後、P=620となった時点で、Qの値
に1を加算し、Pの値を再び0として次の検出窓DWを設定する。
同様にして、P=620(=639−19)、Q=460(=479−19)となるま
で、検出窓DWの設定を繰り返すこととなる。
The number of pixels of the detection target image is 640 × 480 pixels, and the end pixel is PXP, Q (0 ≦ P
≦ 639, 0 ≦ Q ≦ 479), Q until P = 620 (= 639−19)
The detection window DW is set with the same value. Thereafter, when P = 620, 1 is added to the value of Q, the value of P is set to 0 again, and the next detection window DW is set.
Similarly, the setting of the detection window DW is repeated until P = 620 (= 639-19) and Q = 460 (= 479-19).
続いて検出装置本体11は、確信度判定部38として機能し、リサイズ画像から生成し
た積分画像から確信度を算出し、同様に、検出装置本体11は、検出対象画像から生成し
た積分画像についても確信度を算出する(ステップS5)。このとき、上述した検出窓D
Wは、リサイズ画像に対して設定されているため、検出対象画像から生成した積分画像に
対する検出窓は、リサイズ画像のサイズに対する検出窓DWの比率およびリサイズ画像に
おける検出窓DWの位置に対応する検出対象画像の位置に基づいて、検出対象画像用の検
出窓を別途設定して確信度を算出することとなる。
ここで、確信度の算出の原理について説明する。
画素PXx,yにおける画像特徴量をCとした場合の、積分画像II(PXx,y)は、次式
により算出される。
Subsequently, the detection device
Since W is set for the resized image, the detection window for the integral image generated from the detection target image corresponds to the ratio of the detection window DW to the size of the resized image and the position of the detection window DW in the resized image. Based on the position of the target image, a detection window for the detection target image is separately set and the certainty factor is calculated.
Here, the principle of the certainty factor calculation will be described.
The integral image II (PXx, y) when the image feature amount in the pixel PXx, y is C is calculated by the following equation.
和を迅速に求めることができる。
画像ブロックの範囲を(x0≦x≦x1、y0≦y≦y1)とすれば、特徴量の和である積
分値は、次式により表される。
Assuming that the range of the image block is (x 0 ≦ x ≦ x 1 , y 0 ≦ y ≦ y 1 ), the integral value that is the sum of the feature amounts is expressed by the following equation.
して高々一回行えばよいので、領域内の画素数によらず高速な演算が可能になるのである
。
次により具体的な確信度の算出について説明する。
図8は、確信度の算出の説明図である。
確信度の算出において、検出装置本体11は、検出窓DWの確信度を算出する場合には
、矩形RA11〜RA14の各矩形毎の積分値を用いて行う。
具体的には、検出窓DWの大きさを20×20画素とすると、検出窓DWの開始画素が
PXS,Tである場合には、終了画素がPXS+19,T+19となる。
このとき、矩形RA11は、開始画素PX0,0および終了画素PXS-1,T-1を対角線上の
頂点とする矩形となる。したがって、矩形RA11の積分値ΣRA11は、ΣPXS-1,T-
1となる。
Next, the calculation of the certainty factor will be described in detail.
FIG. 8 is an explanatory diagram for calculating the certainty factor.
In calculating the certainty factor, the detection apparatus
Specifically, if the size of the detection window DW is 20 × 20 pixels, if the start pixel of the detection window DW is PXS, T, the end pixel is PXS + 19, T + 19.
At this time, the rectangle RA11 is a rectangle having the start pixel PX0,0 and the end pixel PXS-1, T-1 as vertices on a diagonal line. Therefore, the integral value ΣRA11 of the rectangle RA11 is expressed as ΣPXS-1, T−
1
同様に矩形RA12は、開始画素PX0,0および終了画素PXS+19,T-1を対角線上の頂
点とする矩形となる。したがって、矩形RA12の積分値ΣRA12は、ΣPXS+19,T-1
となる。
また、矩形RA13は、開始画素PX0,0および終了画素PXS-1,T+19を対角線上の頂
点とする矩形となる。したがって、矩形RA13の積分値ΣRA13は、ΣPXS-1,T+19
となる。
また、矩形RA14は、開始画素PX0,0および終了画素PXS+19,T+19を対角線上の頂
点とする矩形となる。したがって、矩形RA13の積分値ΣRA14は、ΣPX+19,T+19
となる。
Similarly, the rectangle RA12 is a rectangle having the start pixel PX0,0 and the end pixel PXS + 19, T-1 as vertices on a diagonal line. Therefore, the integral value ΣRA12 of the rectangle RA12 is ΣPXS + 19, T−1.
It becomes.
The rectangle RA13 is a rectangle having the start pixel PX0,0 and the end pixel PXS-1, T + 19 as vertices on a diagonal line. Therefore, the integral value ΣRA13 of the rectangle RA13 is ΣPXS−1, T + 19.
It becomes.
The rectangle RA14 is a rectangle having the start pixel PX0,0 and the end pixel PXS + 19, T + 19 as vertices on a diagonal line. Therefore, the integral value ΣRA14 of the rectangle RA13 is ΣPX + 19, T + 19.
It becomes.
これらの結果、検出窓DWに対応する画素の確信度、すなわち、検出窓DWに対応する
積分値ΣDWは、次式により表される。
ΣDW=ΣRA14+ΣRA11−ΣRA12−ΣRA13
続いて検出装置本体11は、オブジェクト画像である確信度が、予め求めた閾値以上で
あるか否かを判定する(ステップS6)。
As a result, the certainty factor of the pixel corresponding to the detection window DW, that is, the integral value ΣDW corresponding to the detection window DW is expressed by the following equation.
ΣDW = ΣRA14 + ΣRA11−ΣRA12−ΣRA13
Subsequently, the detection apparatus
より具体的には、検出装置本体11は、以下の3条件を満たした場合に、リサイズ画像
および検出対象画像の検出窓内の画像がオブジェクト画像である確信度が高いと判定する
こととなる。
(1)設定した色域範囲にある画素の個数が閾値以上である。
(2)エッジの強度が一定値以上の画素の個数が閾値以上である。
(3)輝度が一定範囲の画素の個数が閾値以上である。
More specifically, when the following three conditions are satisfied, the detection apparatus
(1) The number of pixels in the set color gamut range is greater than or equal to the threshold value.
(2) The number of pixels whose edge intensity is a certain value or more is greater than or equal to a threshold value.
(3) The number of pixels having a certain luminance range is equal to or greater than a threshold value.
続いて、検出装置本体11は、識別部39として機能し、確信度の高さ(確信度判定部
38の判定結果)に基づいてオブジェクト画像であるか否かを判別する(ステップS7)
。
具体的には、検出装置本体11は、AdaBoostやSVM(サポートベクタマシーン)に代
表される機械学習的な手法を用いてオブジェクト画像であるか否かを判別している。すな
わち、本実施形態の検出装置本体11は、予め多数のオブジェクト画像、非オブジェクト
画像をサンプル画像として用意し、それらを上述した機械的な学習方法にしたがって学習
することにより、識別部39として機能するように構成されており、この結果、より確実
にオブジェクト画像か否かの判定が可能になっている。
Subsequently, the detection device
.
Specifically, the detection apparatus
続いて検出装置本体11は、リサイズ画像に対する検出窓DWの設定が終了しているか
否かを判定する否かを判別する(ステップS10)。
ステップS10の判別において、リサイズ画像のすべての領域において検出窓の設定が
終了していない、ひいては、検出対象画像のすべての領域において検出窓の設定が終了し
ていない場合には(ステップS10;No)、再びステップSに処理を移行し、以下、同
様の処理を行う。
ステップS10の判別において、リサイズ画像のすべての領域において検出窓の設定が
終了した、ひいては、検出対象画像のすべての領域において検出窓の設定が終了した場合
には(ステップS10;Yes)、所定のリサイズ画像の生成が終了しているか否かを判
別する(ステップS11)。
Subsequently, the detection apparatus
If it is determined in step S10 that detection window settings have not been completed in all areas of the resized image, and therefore detection window settings have not been completed in all areas of the detection target image (step S10; No) ), The process again proceeds to step S, and the same process is performed thereafter.
In the determination of step S10, when the setting of the detection window is completed in all areas of the resized image, and when the setting of the detection window is completed in all areas of the detection target image (step S10; Yes), a predetermined value is set. It is determined whether or not the generation of the resized image has been completed (step S11).
ここで、所定のリサイズ画像の生成が終了した場合としては、例えば、リサイズ画像の
サイズが、検出窓DWと等しくなった場合等が挙げられる。
ステップS11の判別において、所定のリサイズ画像の生成が終了していない場合には
(ステップS11;No)、処理を再びステップS4に移行し、以下、同様の処理を継続
する。
ステップS11の判別において、所定のリサイズ画像の生成が終了した場合には(ステ
ップS11;Yes)、処理を終了する。
Here, examples of the case where the generation of the predetermined resized image is completed include a case where the size of the resized image becomes equal to the detection window DW.
If it is determined in step S11 that the generation of the predetermined resized image has not been completed (step S11; No), the process proceeds to step S4 again, and the same process is continued thereafter.
If it is determined in step S11 that the generation of the predetermined resized image has been completed (step S11; Yes), the process is terminated.
図9は、オブジェクト画像としての顔画像検出結果の一例の説明図である。
上述した処理の結果、図9(A)に示す検出対象画像Gに対し、図9(B)に示すよう
に二つの顔画像領域F1、F2(図9中、矩形領域で示す。)が検出されることとなる。
以上の説明のように、本実施形態によれば、オブジェクト画像の確信度を積分画像を用
いて算出するようにし、積分画像の生成は、検出対象画像またはリサイズ画像に対し一度
行えば良いだけであるので、高速なオブジェクト認識が可能となる。
FIG. 9 is an explanatory diagram of an example of a face image detection result as an object image.
As a result of the above-described processing, two face image areas F1 and F2 (indicated by rectangular areas in FIG. 9) are detected as shown in FIG. 9B with respect to the detection target image G shown in FIG. 9A. Will be.
As described above, according to the present embodiment, the certainty factor of the object image is calculated using the integral image, and the integral image need only be generated once for the detection target image or the resized image. Therefore, high-speed object recognition is possible.
以上の説明においては、確信度を判別する際に、設定した色域範囲にある画素の個数に
対応する閾値、エッジの強度が一定値以上の画素の個数に対応する閾値および輝度が一定
範囲の画素の個数に対応する閾値および各範囲については、詳細に述べなかったが、閾値
および範囲は、多数のオブジェクト画像から構成されるサンプル画像から決定するように
すれば良い。
In the above description, when determining the certainty factor, the threshold value corresponding to the number of pixels in the set color gamut range, the threshold value corresponding to the number of pixels whose edge intensity is equal to or greater than a certain value, and the luminance in a certain range. Although the threshold value and each range corresponding to the number of pixels have not been described in detail, the threshold value and the range may be determined from a sample image composed of a large number of object images.
また、以上の説明においては、検出窓DWの大きさを一定にし、検出対象画像のサイズ
をリサイズする構成を採っていたが、検出対象画像のリサイズは行わず、検出窓の大きさ
を検出対象画像の大きさを超えない範囲でリサイズ(拡大または縮小)する構成を採るこ
とも可能である。
以上の説明においては、検出対象画像から2値画像を生成する場合について述べたが、
3値以上のn値画像を生成し、同様に処理するように構成することも可能である。
In the above description, the size of the detection window DW is made constant and the size of the detection target image is resized. However, the detection target image is not resized, and the size of the detection window is detected. It is also possible to adopt a configuration in which resizing (enlargement or reduction) is performed within a range not exceeding the size of the image.
In the above description, the case where the binary image is generated from the detection target image has been described.
An n-value image having three or more values may be generated and processed in the same manner.
10…オブジェクト検出装置、11…検出装置本体、12…撮像カメラ、13…入力装
置、14…表示装置、15…出力装置、16…外部記憶装置、22…ROM、23…通信
ネットワーク、24…通信インタフェース部、31…輝度画像生成部、32…エッジ画像
生成部、33…リサイズ画像生成部、34…色域判定部、35…2値画像生成部、36…
積分画像生成部、37…閾値変更部、38…確信度判定部、39…識別部、F1、F2…
顔画像。
DESCRIPTION OF
Integrated
Face image.
Claims (6)
前記n値画像から、前記検出対象画像を構成する所定の画素範囲の画像がオブジェクト画像を構成するか否かの確信度を判別するための検出画像の積分画像を生成する積分画像生成部と、
前記検出対象画像の積分画像に対して設定した検出窓に含まれる画素の値を積分して、前記検出窓の確信度を算出し、前記確信度が予め定めた閾値以上であるか否かに基づいて、前記検出窓内の画像が前記オブジェクトを構成するオブジェクト画像であるか否かを判別するオブジェクト判別部と、
を含む、オブジェクト検出装置。 For each pixel constituting the detection target image extracting an image feature amount, the image feature amount is equal to or a pixel each pixel constituting the object based on whether or not a predetermined condition is satisfied, An image conversion unit that converts the detection target image into an n-value (n is an integer of 2 or more) image based on the determination result ;
An integrated image generating unit that generates an integrated image of the detected image for determining whether or not a certain pixel range image forming the detection target image forms an object image from the n-value image;
By integrating the values of pixels included in the detection window set for the integrated image of the detection target image, it calculates the certainty factor of the detection window, whether crab said confidence is a predetermined threshold value or more Based on an object determination unit for determining whether an image in the detection window is an object image constituting the object;
Including an object detection device.
前記積分画像生成部は、所定の基準位置画素および対象画素を対角線上の頂点とする矩形内のすべての画素の値を積分して当該対象画素に対応する積分値とし、前記検出対象画像を構成するすべての画素に対応する積分値を求めて前記積分画像を生成する、
オブジェクト検出装置。 The object detection device according to claim 1,
The integrated image generation unit integrates the values of all pixels in a rectangle having a predetermined reference position pixel and the target pixel as vertices on a diagonal line to obtain an integrated value corresponding to the target pixel, and configures the detection target image The integral image corresponding to all the pixels to be calculated is generated,
Object detection device.
前記検出対象画像のリサイズを行ってリサイズ画像を生成するリサイズ画像生成部をさらに含み、
前記画像変換部は、前記リサイズ画像を構成する各画素について画像特徴量を抽出し、
前記画像特徴量が所定の条件を満たすか否かに基づいて前記各画素がオブジェクトを構成する画素であるか否かを判定し、前記判定結果に基づいて、前記検出対象画像をn値(nは、2以上の整数)画像に変換し、
前記積分画像生成部は、前記n値画像から前記リサイズ画像を構成する所定の画素範囲の画像がオブジェクト画像を構成するか否かの確信度を判別するためのリサイズ画像の積分画像を生成し、
前記オブジェクト判別部は、前記リサイズ画像の積分画像に対して設定した検出窓に含まれる画素の値を積分して、前記検出窓の確信度を算出し、前記確信度が予め定めた閾値以上であるか否かに基づいて、前記検出窓内の画像が前記オブジェクトを構成するオブジェクト画像であるか否かを判別する、
オブジェクト検出装置。 In the object detection device according to claim 1 or 2,
Further comprising a resized image generation unit for generating a resized image by performing a resizing of the detection target image,
The image conversion unit extracts an image feature amount for each pixel constituting the resized image,
Wherein each pixel image characteristic amount based on whether a predetermined condition is satisfied, it is determined whether or not the pixels constituting the object, based on the determination result, the detection target image n values (n Is an integer greater than or equal to 2)
The integral image generator generates an integral image of the resized image to the image of the predetermined pixel range that constitutes the resized image from the n value image to determine whether the confidence factor forming the object image,
The object determination unit integrates the values of the pixels included in the detection window set for the integral image before Symbol resized image, and calculates the certainty factor of the detection window, a threshold value or more in which the certainty factor is predetermined Based on whether or not the image in the detection window is an object image constituting the object,
Object detection device.
前記検出窓のリサイズを行い、
前記オブジェクト判別部は、前記検出対象画像に対応する積分画像に基づいて設定した検出窓に対応する画像が前記オブジェクトを構成するオブジェクト画像であるか否かを判別する、
オブジェクト検出装置。 In the object detection device according to claim 1 or 2,
Resizing the detection window,
The object determination unit determines whether an image corresponding to a detection window set based on an integral image corresponding to the detection target image is an object image constituting the object;
Object detection device.
前記画像変換部は、前記画像特徴量として色域、輝度、エッジのうち、少なくともいずれかに基づいて、前記n値画像に変換する、
オブジェクト検出装置。 In the object detection apparatus according to any one of claims 1 to 4,
The image conversion unit converts the image feature amount into the n-value image based on at least one of a color gamut, luminance, and edge;
Object detection device.
前記オブジェクト画像は、顔画像であり、
前記色域は、前記顔画像に対応するものである、
オブジェクト検出装置。 The object detection apparatus according to claim 5, wherein
The object image is a face image;
The color gamut corresponds to the face image.
Object detection device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006200405A JP4779851B2 (en) | 2006-07-24 | 2006-07-24 | Object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006200405A JP4779851B2 (en) | 2006-07-24 | 2006-07-24 | Object detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008027275A JP2008027275A (en) | 2008-02-07 |
JP4779851B2 true JP4779851B2 (en) | 2011-09-28 |
Family
ID=39117836
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006200405A Expired - Fee Related JP4779851B2 (en) | 2006-07-24 | 2006-07-24 | Object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4779851B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101503788B1 (en) | 2013-12-27 | 2015-03-19 | 숭실대학교산학협력단 | Pedestrian detection method using estimation of feature information based on integral image, recording medium and terminal for performing the method |
US9412036B2 (en) | 2014-03-07 | 2016-08-09 | Samsung Electronics Co., Ltd. | Methods and systems for object detection based on column-wise and row-wise sums of pixel values |
JP6490441B2 (en) * | 2015-02-12 | 2019-03-27 | 株式会社東芝 | Image evaluation apparatus, image evaluation method, and program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7116820B2 (en) * | 2003-04-28 | 2006-10-03 | Hewlett-Packard Development Company, Lp. | Detecting and correcting red-eye in a digital image |
JPWO2006030519A1 (en) * | 2004-09-17 | 2008-05-08 | 三菱電機株式会社 | Face authentication apparatus and face authentication method |
-
2006
- 2006-07-24 JP JP2006200405A patent/JP4779851B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008027275A (en) | 2008-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5875637B2 (en) | Image processing apparatus and image processing method | |
US7978247B2 (en) | Focusing information visualization device, and corresponding method, program and recording medium | |
US8331670B2 (en) | Method of detection document alteration by comparing characters using shape features of characters | |
US10592766B2 (en) | Image processing apparatus and medium storing program executable by image processing apparatus | |
JP5994279B2 (en) | Method for analyzing input image, apparatus and program for analyzing input image | |
EP3407589B1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2018139457A (en) | Image processing apparatus, control method for image processing and program | |
JP5645612B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
JP2010003118A (en) | Image processing apparatus, image processing method and image processing program | |
US11706371B2 (en) | Apparatus and method for performing enhancement processing on color information | |
KR20210128491A (en) | Hazardous driving behavior identification method, device, electronic equipment and storage medium | |
JP2009237977A (en) | Image output control device, image output control method, image output control program, and printer | |
JP4779851B2 (en) | Object detection device | |
US8300927B2 (en) | Mouth removal method for red-eye detection and correction | |
US10896344B2 (en) | Information processing apparatus, information processing method, and computer program | |
JP5067224B2 (en) | Object detection apparatus, object detection method, object detection program, and printing apparatus | |
US9251447B2 (en) | Image formation apparatus and method of forming image | |
JP2013045205A (en) | Image processor, image processing method and image processing program | |
US10477066B2 (en) | Image processing apparatus to extract luminance data from image data, method for controlling the same, and storage medium | |
JP4163651B2 (en) | Red-eye correction work support apparatus and program | |
US10185904B2 (en) | Information processing apparatus for setting an attribute of a pixel based on a conformity between pixel values of objects, information processing method for setting an attribute of a pixel based on a conformity between pixel values of objects, and non-transitory computer readable medium for setting an attribute of a pixel based on a conformity between pixel values of objects | |
US20220075573A1 (en) | Information processing apparatus, image collating method, and program | |
JP2008102593A (en) | Object detection device and control method and control program of object detection device | |
KR100769677B1 (en) | Control methods of image forming apparatus and system | |
JP2009237978A (en) | Image output control device, image output control method, image output control program, and printer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090513 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110427 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110607 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110620 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140715 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4779851 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |