JP2013003890A - Image processing system, image processing method and program - Google Patents
Image processing system, image processing method and program Download PDFInfo
- Publication number
- JP2013003890A JP2013003890A JP2011135087A JP2011135087A JP2013003890A JP 2013003890 A JP2013003890 A JP 2013003890A JP 2011135087 A JP2011135087 A JP 2011135087A JP 2011135087 A JP2011135087 A JP 2011135087A JP 2013003890 A JP2013003890 A JP 2013003890A
- Authority
- JP
- Japan
- Prior art keywords
- ellipse
- head
- index
- image processing
- edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は画像処理装置、画像処理方法及びプログラムに関し、特に、画像から頭部領域を検出するために用いて好適な技術に関する。 The present invention relates to an image processing apparatus, an image processing method, and a program, and more particularly to a technique suitable for use in detecting a head region from an image.
近年、カメラなどの撮影装置から撮影された映像に、指定された人物の位置を特定して追尾することにより、カメラのフォーカス、露出、及びカメラのパン、チルト、ズームなどの姿勢を制御する機能が注目されている。このような機能では、人物の位置を特定するために、人物の顔パターンを検出し、その動きを追尾することが一般的である。このように画像中から顔を検出する技術としては、非特許文献1に各種方式が開示されている。特に、実行速度及び検出率の高さから、非特許文献2に記載されている方法は、顔検出の研究において広く使用されている。
In recent years, the function of controlling the camera focus, exposure, and camera pan, tilt, zoom, and other postures by identifying and tracking the position of a designated person in a video shot from a camera or other imaging device Is attracting attention. In such a function, in order to specify the position of a person, it is common to detect a person's face pattern and track its movement. As a technique for detecting a face from an image in this manner, various methods are disclosed in
一方、人物の位置を特定するためには、人物の顔パターンを検出して追尾するだけでは十分ではない。人物の顔の横回転や後ろ反転などにより、顔パターンを検出できない場合がある。そこで、顔の変わりに、頭部領域を検出して追尾することが有力な方法である。 On the other hand, in order to specify the position of a person, it is not sufficient to detect and track the face pattern of the person. In some cases, a face pattern cannot be detected due to a horizontal rotation or reverse inversion of a human face. Therefore, it is an effective method to detect and track the head region instead of the face.
頭部領域を検出する方法としては、例えば非特許文献3に開示された手法が知られている。また、近年では、非特許文献4に開示されているように、楕円円周上の勾配情報と楕円内部のカラーヒストグラムマッチングにより頭部の楕円形状を検出することも行われている。
As a method for detecting the head region, for example, a method disclosed in Non-Patent Document 3 is known. In recent years, as disclosed in Non-Patent
人物を含む映像では、人物の頭部下方は上半身のエッジが多く存在して個人差があり、頭部上方のエッジは比較的に安定しており、頭部の特徴となる。また、背景領域に横エッジ及び縦エッジが多く存在する。従来の手法を用いて頭部楕円を検出しようとすると、これらのエッジを頭部楕円として検出することがあり、頭部特徴である頭部上方のエッジを正しく検出できない場合がある。また、背景エッジ及び頭部エッジの組み合わせで、大きい楕円円弧として検出する場合もあり、頭部上方のエッジを正しく検出できない場合がある。 In an image including a person, there are many upper body edges below the head of the person and there are individual differences, and the edge above the head is relatively stable and is a feature of the head. In addition, there are many horizontal edges and vertical edges in the background area. If an attempt is made to detect a head ellipse using a conventional method, these edges may be detected as a head ellipse, and there may be a case where an edge above the head, which is a head feature, cannot be detected correctly. Further, the combination of the background edge and the head edge may be detected as a large elliptical arc, and the upper edge of the head may not be detected correctly.
本発明は前述の問題点に鑑み、頭部特徴である頭部上方のエッジをより高精度で検出できるようにすることを目的としている。 An object of the present invention is to make it possible to detect the upper edge of the head, which is a head feature, with higher accuracy in view of the above-described problems.
本発明の画像処理装置は、設定された頭部検出領域についてエッジ画素を検出する手段と、前記エッジ画素をハフ変換における楕円パラメータの空間の各楕円に累積する手段と、前記エッジ画素の数に基づいて候補楕円を選出する手段と、楕円性指標から構成された総合指標を用いて前記候補楕円から頭部楕円を選択する手段とを備えることを特徴とする。 The image processing apparatus according to the present invention includes means for detecting edge pixels in a set head detection region, means for accumulating the edge pixels in each ellipse in an elliptic parameter space in the Hough transform, and the number of edge pixels. And a means for selecting a candidate ellipse based on the candidate ellipse, and a means for selecting a head ellipse from the candidate ellipse using a general index composed of ellipticity indices.
本発明によれば、頭部特徴である頭部上方のエッジをより高精度で検出することができる。 ADVANTAGE OF THE INVENTION According to this invention, the edge above the head which is a head characteristic can be detected with higher precision.
以下、本発明の実施形態について、図面を参照しながら説明する。
(第1の実施形態)
図5は、本実施形態における画像処理装置のハードウェア構成例を示すブロック図である。
図5において、1001はCPUであり、本実施形態の画像処理装置における各種制御を実行する。1002はROMであり、画像処理装置本体の立ち上げ時に実行されるブートプログラムや各種データを格納する。1003はRAMであり、CPU1001が処理するための制御プログラムを格納するとともに、CPU1001が各種制御を実行する際の作業領域を提供する。1004はキーボード、1005はマウスであり、ユーザによる各種入力操作環境を提供する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 5 is a block diagram illustrating a hardware configuration example of the image processing apparatus according to the present embodiment.
In FIG. 5,
1006は外部記憶装置であり、ハードディスクやフレキシブルディスク、光ディスク、磁気ディスク、光磁気ディスク、磁気テープ等で構成される。ただし、外部記憶装置1006は、制御プログラムや各種データを全てROM1002に持つようにすれば、必ずしも必要な構成要素ではない。1007は表示器であり、ディスプレイなどで構成され、結果等をユーザに対して表示する。1008はネットワークインターフェースでる。1009はビデオインターフェースであり、撮像部1004と同軸ケーブルを解したフレーム画像の取り込みを可能とする。また、1011は上記の各構成を接続するバスである。
図1は、本実施形態において、人物の頭部領域を検出する画像処理装置100の機能構成例を示すブロック図である。
図1において、頭部検出領域設定部102は、入力画像101について、人間の頭部を含む大きめの領域を頭部検出領域として設定する。エッジ検出部103は、頭部検出領域設定部102で設定された頭部検出領域について、エッジ検出オペレータを用いてエッジ検出を行い、頭部検出領域のエッジ画像を得る。
FIG. 1 is a block diagram illustrating a functional configuration example of an
In FIG. 1, the head detection
パラメータ設定部104は、頭部検出領域設定部102で設定された頭部検出領域に基づいて、頭部楕円の各パラメータの変化範囲を設定する。具体的には、楕円の中心座標(x0,y0)の変化範囲として、x0の最小値及び最大値と、y0の最小値及び最大値とを設定する。さらに、楕円縦軸長b及び楕円横軸長aの変化範囲として、楕円縦軸長bの最小値及び最大値と、楕円横軸長aの最小値及び最大値とを設定する。さらに、楕円の傾き角度θの変化範囲として、角度θの最小値及び最大値を設定する。以下、設定された楕円の各パラメータの変化範囲に、各パラメータ値の全ての組み合わせを楕円パラメータ区間と呼ぶ。
The
重み設定部105は、エッジ検出部103で検出したエッジ画素が、パラメータ設定部104で設定されたパラメータ区間の各楕円上の存在位置に応じて重みを設定する。累積部106は、パラメータ設定部104で設定された楕円パラメータ区間において、重み設定部105で設定された各エッジ画素の重みを累積する。頭部楕円選出部107は、累積部106で累積した重み付きエッジ画素数に基づいて、累積数の最も多い楕円を頭部楕円108として選出し、出力する。
The
図2は、本実施形態における処理手順の一例を示すフローチャートである。
まず、ステップS101において、不図示の画像データ入力部から、入力画像101を画像処理装置100に入力する。入力画像101は、静止画像でもよいし、動画像におけるフレーム画像でもよい。
FIG. 2 is a flowchart illustrating an example of a processing procedure in the present embodiment.
First, in step S101, an input image 101 is input to the
次に、ステップS102において、頭部検出領域設定部102は、ユーザインタフェースからの入力に応じて、入力画像101の中の頭部領域を囲む領域を頭部検出領域として設定する。頭部検出領域は、四角、多辺形、円形、楕円形の領域のいずれもよい。
Next, in step S102, the head detection
次に、ステップS103において、エッジ検出部103は、ステップS102で設定された頭部検出領域に対して、SobelやPrewittやLaplacianなどのエッジ検出オペレータで勾配画像を計算する。そして、勾配画像を所定閾値により二値化しエッジ画素を検出する。エッジ検出オペレータのほかに、cannyエッジ検出法や、zero−crossingエッジ検出法、morphologyエッジ検出法などでエッジ画素を検出してもよい。
Next, in step S103, the
次に、ステップS104において、パラメータ設定部104は、図3に示すように、設定された頭部検出領域のサイズに基づいて、ハフ変換の楕円パラメータ変化範囲、すなわち、楕円パラメータ空間を設定する。頭部検出領域の外接矩形200の左上の座標を(x1,y1)とし、右下の座標を(x3、y3)とし、横及び縦サイズは、それぞれ、w、hとする。パラメータ設定部104は、まず、以下の式(1)により、頭部検出領域のサイズに比例して縦軸長b及び横軸長aの変化範囲を設定する。ここで、αとβはパラメータである。
Next, in step S104, the
次に、楕円の中心の範囲を以下の式(2)より設定する。 Next, the range of the center of the ellipse is set by the following equation (2).
最後に、画像処理装置の応用ユースケースに応じて楕円の回転角度θの範囲として、θの最小値及び最大値を設定する。 Finally, a minimum value and a maximum value of θ are set as the range of the ellipse rotation angle θ according to the application use case of the image processing apparatus.
次に、ステップS105において、累積部106は、頭部検出領域設定部102で設定された頭部検出領域内の全てのエッジ画素について、ステップS106からステップS110の処理を繰り返し行う。
Next, in step S <b> 105, the
まず、ステップS106において、累積部106は、ステップS104で設定された楕円パラメータ空間について、ステップS107からステップS109の処理を繰り返し行う。
First, in step S106, the accumulating
ステップS107において、重み設定部105は、楕円パラメータ空間上の各楕円について注目エッジ画素を通す楕円を計算する。そして、ステップS108において、重み設定部105は、ステップS107で求めた楕円パラメータ空間上のエッジ画素を通す楕円(x0,y0,b,a,θ)上の位置により重みを設定する。ここで、x0は楕円中心のX軸座標であり、y0は楕円中心のY軸座標であり、bは楕円の縦軸長、aは楕円の横軸長、θは楕円の回転角度である。図4に示すように、エッジ画素の座標を(x,y)とし、分離点から楕円中心(X軸)までの垂直距離を、それぞれd1、d2とする。エッジ画素を通す楕円の中心位置が(x0,y0)であるので、以下の式(3)により重みを設定する。
In step S107, the
ただし、分離点がX軸の上にある場合は、分離点からX軸までの垂直距離を負数とし、分離点がX軸の下にある場合は、分離点からX軸までの垂直距離を正数とする。図4に示すように、分離点a及び分離点cからX軸までの垂直距離は負数であり、分離点bからX軸までの垂直距離は0であり、分離点dからX軸までの垂直距離は正数である。 However, if the separation point is above the X axis, the vertical distance from the separation point to the X axis is a negative number. If the separation point is below the X axis, the vertical distance from the separation point to the X axis is positive. It is a number. As shown in FIG. 4, the vertical distance from the separation point a and the separation point c to the X axis is a negative number, the vertical distance from the separation point b to the X axis is 0, and the vertical distance from the separation point d to the X axis. The distance is a positive number.
次に、ステップS109において、累積部106は、注目エッジ画素を通すそれぞれの楕円(x0,y0,b,a,θ)にステップS108で求めた注目エッジ画素の重みを累積する。
Next, in step S109, the
ステップS110においては、累積部106は、設定された楕円パラメータ範囲内全ての楕円について、ステップS107からステップS109の処理を終わったかどうかを判断し、終わった場合、ステップS111に移る。
In step S110, the accumulating
ステップS111においては、累積部106は、ステップS105と対応して、ステップS106からステップ110の処理は全てのエッジ画素に対して終わったかどうかを判断する。全部のエッジ画素の処理を終わった場合、ステップS112に移り、そうでない場合、他のエッジ画素について、ステップS106からステップ110までの処理を行う。
In step S111, the accumulating
ステップS112において、頭部楕円選出部107は、累積部106で累積した楕円パラメータ空間上各楕円の重み付きエッジ画素数に基づいて、重み付きエッジ画素数が最も多い楕円を頭部楕円108として選択する。そして、ステップS113において、頭部楕円選出部107は、ステップS112で選出した頭部楕円108を出力する。
In step S112, the head
本実施形態において、累積部106は、エッジ画素が各楕円上の位置により段階状関数で重みを設定したが、段階状関数のほかに、連続関数や、一次導関数が連続する滑らかな関数などでエッジ画素の重みを設定してもよい。また、本実施形態では、楕円パラメータとして縦軸長及び横軸長を独立に扱っていたが、縦軸長及び横軸長をそれぞれ同じ値に制限してもよい。また、楕円の傾き角度を変化させていたが、楕円は傾いていないものとして、傾き角度はパラメータとして扱わないようにしてもよい。
In the present embodiment, the accumulating
なお、本実施形態においては、ユーザインタフェースからの入力に応じて頭部検出領域を設定したが、顔検出技術を利用して顔を検出し、顔領域に基づいて頭部検出領域を設定してもよい。また、入力データは連続映像の場合、前フレームに検出した頭部領域に基づいて、現在のフレームの頭部検出領域を設定してもよい。 In the present embodiment, the head detection area is set according to the input from the user interface, but the face is detected using the face detection technology, and the head detection area is set based on the face area. Also good. Further, when the input data is continuous video, the head detection area of the current frame may be set based on the head area detected in the previous frame.
また、本実施形態において、頭部検出領域を利用してハフ変換のパラメータ空間を設定したが、顔検出技術を利用して顔を検出し、顔領域に基づいて、ハフ変換のパラメータ空間を設定してもよい。また、入力データは連続映像の場合、前フレームに検出した頭部領域に基づいて、現在のフレームのハフ変換のパラメータ空間を設定してもよい。 In this embodiment, the Hough transform parameter space is set using the head detection region. However, the face detection technology is used to detect the face, and the Hough transform parameter space is set based on the face region. May be. When the input data is continuous video, the parameter space for the Hough transform of the current frame may be set based on the head region detected in the previous frame.
以上のように本実施形態によれば、エッジ画素がハフ変換における楕円パラメータ区間上それぞれの楕円に存在する位置により、エッジ画素に重みをつける。そして、重みを楕円パラメータ区間に累積することにより、頭部上方のエッジの特徴である上に凸の円弧を優先して検出することができ、上半身のエッジが頭部検出に影響しにくくなる。また、背景領域にある横エッジまたは縦エッジが楕円円弧として誤検出することも低減できる。 As described above, according to the present embodiment, the edge pixels are weighted according to the positions where the edge pixels exist in the respective ellipses on the elliptic parameter section in the Hough transform. Then, by accumulating the weights in the ellipse parameter section, it is possible to preferentially detect an upwardly convex arc that is a feature of the edge above the head, and the upper body edge is less likely to affect head detection. In addition, erroneous detection of a horizontal edge or vertical edge in the background area as an elliptical arc can be reduced.
(第2の実施形態)
本実施形態では、第1の実施形態とは、エッジ画素の重みの設定方法が異なる。なお、他の処理部の処理は第1の実施形態と同様であるため、説明は省略する。本実施形態では、第1の実施形態と異なる部分について説明する。
(Second Embodiment)
In this embodiment, the edge pixel weight setting method is different from that of the first embodiment. In addition, since the process of another process part is the same as that of 1st Embodiment, description is abbreviate | omitted. In the present embodiment, parts different from the first embodiment will be described.
本実施形態では、重み設定部105は、図6に示すように、ステップS107で求めた楕円パラメータ空間上のエッジ画素を通す楕円(x0,y0,b,a,θ)の回転方向に、エッジ画素が楕円上の位置により、エッジ画素の重みを設定する。このとき、エッジ画素の座標を(x,y)とし、回転した楕円の横軸をH'とする。そして、分離点eからH'までの垂直距離をd1とし、分離点fからH'までの垂直距離をd2とする。エッジ画素(x,y)からH'までの距離は、以下の式(4)により求める。ここで、楕円の中心(x0,y0)を回転中心とし、Y軸を右方向へ回転する場合、角度θは正数とする。
In the present embodiment, as shown in FIG. 6, the
そして、回転したY軸の座標y'とy0との差に基づいて、以下の式(5)によりエッジ画素(x,y)の重みを設定する。 Based on the difference between the rotated Y-axis coordinates y ′ and y0, the weight of the edge pixel (x, y) is set by the following equation (5).
(第3の実施形態)
図7は、本実施形態に係る画像処理装置300の機能構成例を示すブロック図である。本実施形態は、第1の実施形態と異なり、エッジ画素の重み設定部105が存在せず、頭部楕円選出部107の代わりに、候補楕円選出部306及び頭部楕円選出部307が存在する。なお、頭部検出領域部302、エッジ検出部303、及びパラメータ設定部304の構成は、それぞれ図1の頭部検出領域設定部102、エッジ検出部103、及びパラメータ設定部104と同様であるため、説明は省略する。
(Third embodiment)
FIG. 7 is a block diagram illustrating a functional configuration example of the
図5において、累積部305は、パラメータ設定部304で設定された楕円パラメータ区間において、それぞれの楕円に重みを付けず、単純にエッジ画素数を累積する。候補楕円選出部306は、累積部305でそれぞれの楕円に累積したエッジ画素数をソートし、上位画素数の楕円をN個選出し、候補楕円とする。
In FIG. 5, the
頭部楕円選出部307は、候補楕円選出部306で選出したN個候補楕円を以下(1)〜(5)の指標に基づいて総合指標を算出し、総合指標のトップ楕円を頭部楕円308として選出する。
(1)大きい楕円を優先的に選択する「相対画素数」指標
(2)小さい楕円を優先的に選択する「画素数/円周長」指標
(3)楕円上部のエッジ円弧を重視して楕円を選択する「画素数/円弧長」指標
(4)所定形状の楕円を優先的に選択する「円形度」指標
The head
(1) “Relative pixel count” index for preferentially selecting a large ellipse (2) “Pixel number / circumference length” index for preferentially selecting a small ellipse (3) Ellipse with emphasis on the edge arc at the top of the ellipse “Number of pixels / arc length” index for selecting (4) “Circularity” index for preferentially selecting an ellipse of a predetermined shape
図8は、本実施形態における処理手順の一例を示すフローチャートである。なお、ステップS301〜S307までの処理は、第1の実施形態で説明した図2のステップS101〜S107と同様であり、ステップS308〜S310は、図2のステップS109〜S111と同様である。したがって、これらの詳細な説明は省略する。 FIG. 8 is a flowchart illustrating an example of a processing procedure in the present embodiment. Note that the processes from step S301 to S307 are the same as steps S101 to S107 of FIG. 2 described in the first embodiment, and steps S308 to S310 are the same as steps S109 to S111 of FIG. Therefore, detailed description thereof will be omitted.
ステップS311において、候補楕円選出部306は、ステップ308で累積計算した各楕円のエッジ画素数をソートし、上位画素数のN個楕円を選出する。ここのNはパラメータであり、楕円パラメータ空間のサイズにより設定する。
In step S311, the candidate
次に、ステップS312において、頭部楕円選出部307は、前記選出されたN個の候補楕円について、前述した(1)〜(4)の指標に基づいて、総合指標を算出する。以下、N個候補楕円のエッジ画素数はそれぞれnk(k=1,2,・・・,N)とする。
Next, in step S312, the head
前述した(1)における「相対画素数」指標は、エッジ画素数の相対比率であり、以下の式(6)により計算する。 The “relative pixel number” index in (1) described above is a relative ratio of the number of edge pixels, and is calculated by the following equation (6).
前述した(2)における「画素数/円周長」指標は、以下の式(7)により計算する。ここで、ak及びbkはそれぞれ、第k番目候補楕円の長軸及び短軸である。ここで、楕円の円周長は(ak+bk)に比例するとするが、以下の式(8)に示すような本来の楕円円周長計算式により計算してもよい。 The “number of pixels / circumference length” index in (2) is calculated by the following equation (7). Here, a k and b k are the major axis and the minor axis of the kth candidate ellipse, respectively. Here, the circumference of the ellipse is proportional to (a k + b k ), but may be calculated by the original ellipse circumference calculation formula as shown in the following equation (8).
前述した(3)における「画素数/円弧長」指標は、以下の式(9)により計算する。このとき、図9に示すように、左楕円円弧の最も下の画素はAとし、右楕円円弧の最も下の画素はBとし、Aから反時計方向へBまでの上部楕円円弧の円弧長はABkとする。ここで、円弧長ABkは候補楕円を生成するときの円弧AB間の楕円画素数である。 The “number of pixels / arc length” index in (3) is calculated by the following equation (9). At this time, as shown in FIG. 9, the lowest pixel of the left elliptical arc is A, the lowest pixel of the right elliptical arc is B, and the arc length of the upper elliptical arc from A to B in the counterclockwise direction is Let AB k . Here, the arc length AB k is the number of ellipse pixels between the arcs AB when generating the candidate ellipse.
前述した(4)における「円形度」指標は、候補楕円の長軸及び短軸を、それぞれak及びbkとした場合に、以下の式(10)により計算する。ここでαはパラメータであり、人間の頭部形状を統計して計算した値である。 The “circularity” index in (4) described above is calculated by the following equation (10) when the major and minor axes of the candidate ellipse are a k and b k , respectively. Here, α is a parameter, which is a value calculated by statistically analyzing the human head shape.
以上のように総合指標は、前述した4つの指標を以下の式(11)により線形組み合わせで計算する。 As described above, the total index is calculated by linear combination of the above-described four indices according to the following equation (11).
ここで、総合指標は、各指標の線形組み合わせとしたが、各指標の単調関数の線形組み合わせとしてもよい。また、4つの楕円に関する指標のうち、2つまたは3つの指標の線形組み合わせとしてもよい。さらに、線形組み合わせのほかに、足し算と乗算との組み合わせなどの一般的な関数で構成してもよい。 Here, the overall index is a linear combination of the indices, but may be a linear combination of monotonic functions of the indices. Moreover, it is good also as a linear combination of two or three indices among the indices regarding four ellipses. Further, in addition to the linear combination, it may be configured by a general function such as a combination of addition and multiplication.
また、総合指標は、各指標の関数で構成することではなく、1つの指標により評価し、同じ評価値になった楕円が複数存在する場合に、他の指標により前記同じ評価値の楕円を評価して選択してもよい。また、同じ評価値の楕円が複数存在する場合に、他の指標により前記同じ評価値の楕円を繰り返し評価するように構成してもよい。同様に、4つの指標のうち、2つまたは3つの指標のみで構成してもよい。 In addition, the comprehensive index is not composed of a function of each index, but is evaluated by one index, and when there are a plurality of ellipses having the same evaluation value, the ellipse having the same evaluation value is evaluated by another index. You may choose. Further, when there are a plurality of ellipses having the same evaluation value, the ellipses having the same evaluation value may be repeatedly evaluated using another index. Similarly, you may comprise only two or three indices among four indices.
また、総合指標は、各指標の関数で構成することではなく、各指標において、候補楕円の評価値が、以下の式(12)に示すように所定範囲に入る場合、頭部楕円として選出する。また、式(12)に示す所定範囲内に複数の頭部楕円が存在する場合には、さらに、1つの指標を利用して、頭部楕円を選出してもよい。同様に、ここで、4つの楕円に関する指標を全て利用して所定範囲に入るかどうかを判断するが、4つの楕円性指標のうち、2つまたは3つの指標のみで構成してもよい。また、以下の式(12)の条件を満たす楕円がない場合は、頭部検出が失敗とする。 In addition, the comprehensive index is not composed of a function of each index, but is selected as a head ellipse when the evaluation value of the candidate ellipse falls within a predetermined range as shown in the following formula (12) in each index. . Further, when there are a plurality of head ellipses within the predetermined range shown in Expression (12), the head ellipse may be further selected using one index. Similarly, here, it is determined whether all the indices related to the four ellipses are used to enter the predetermined range, but it may be configured by only two or three indices among the four ellipticity indices. Further, if there is no ellipse that satisfies the following expression (12), head detection fails.
なお、本実施形態では、頭部楕円選出部307は、4つの指標の組み合わせを用いて、候補楕円から頭部楕円を選出するが、楕円上部のエッジ円弧を重視して楕円を選択する「画素数/円弧長」指標のみで頭部楕円を選出してもよい。同様に、所定形状の楕円を優先的に選択する「円形度」指標のみで頭部楕円を選出してもよい。
In the present embodiment, the head
図8の説明に戻り、ステップS313において、頭部楕円選出部307は、ステップS312で求めた総合指標に従って、最も評価値の大きい楕円を選出し、頭部楕円308とする。そして、ステップS314において、頭部楕円選出部307は、ステップS313で選択した頭部楕円308を出力する。
Returning to the description of FIG. 8, in step S <b> 313, the head
(第4の実施形態)
図10は、本実施形態に係る画像処理装置400の機能構成例を示すブロック図である。第3の実施形態と異なる点は、重み設定部409を設けている点である。重み設定部409は、第1の実施形態において説明した図1の重み設定部105と同様であるため、詳細な説明は省略する。また、頭部検出領域設定部402〜累積部405の構成も、それぞれ第1の実施形態で説明した図1の頭部検出領域設定部102〜パラメータ設定部104、及び累積部106と同様であるため、詳細な説明は省略する。
(Fourth embodiment)
FIG. 10 is a block diagram illustrating a functional configuration example of the
候補楕円選出部406は、累積エッジ画素数に代わりに、重み付きの累積エッジ画素数を用いて、上位の累積数の楕円をN個の候補楕円として選出する。頭部楕円選出部407は、第3の実施形態の頭部楕円選出部307と同様に、式(6)、式(7)、式(9)、及び式(10)に従って前述した(1)〜(4)の4つの指標を算出し、これらの指標を組み合わせて総合指標を決定する。そして、総合指標が最も高い楕円を頭部楕円408として選出する。
The candidate
また、本実施形態において、4つの楕円に関する指標に重み設定部409で設定したエッジ画素の重みを反映してもよい。この場合、これらの4つの指標は以下のように算出する。以下、N個の候補楕円の重み付けエッジ画素数をそれぞれwk(k=1,2,・・・,N)とする。
In this embodiment, the weight of the edge pixel set by the
前述した(1)における「相対画素数」指標は、以下の式(13)により計算する。 The above-mentioned “relative pixel number” index in (1) is calculated by the following equation (13).
前述した(2)における「画素数/円周長」指標は、以下の式(14)により計算する。ここで、wxyは円弧xyの重みであり、nxyは円弧xyの画素数(長さ)である。なお、重みは段階関数でなく一般関数で設定する場合、以下の式(14)における分母の総和の代わりに重みの積分とする。各円弧とその重みについては、図11に示す。 The “number of pixels / circumference length” index in (2) is calculated by the following equation (14). Here, w xy is the weight of the arc xy, and n xy is the number of pixels (length) of the arc xy. When the weight is set not by a step function but by a general function, the weight is integrated instead of the sum of the denominators in the following equation (14). Each arc and its weight are shown in FIG.
前述した(3)における「画素数/円弧長」指標は、以下の式(15)により計算する。ここで、wxyは円弧xyの重みであり、nxyは円弧xyの画素数(長さ)である。なお、重みは段階関数でなく一般関数で設定する場合、以下の式(15)における分母の総和の代わりに重みの積分とする。各円弧については、図12に示す。 The “number of pixels / arc length” index in (3) described above is calculated by the following equation (15). Here, w xy is the weight of the arc xy, and n xy is the number of pixels (length) of the arc xy. When the weight is set not by a step function but by a general function, the weight is integrated instead of the sum of the denominators in the following equation (15). Each arc is shown in FIG.
前述した(4)における「円形度」指標は、第3の実施形態と同様である。 The “circularity” index in (4) described above is the same as in the third embodiment.
図13は、本実施形態における処理手順の一例を示すフローチャートである。なお、ステップS401〜S411までの処理は、第1の実施形態で説明した図2のステップS101〜S111と同様である。また、ステップS412〜S415は、第3の実施形態で説明した図8のステップS311〜S314と同様である。 FIG. 13 is a flowchart illustrating an example of a processing procedure in the present embodiment. Note that the processes from step S401 to S411 are the same as steps S101 to S111 of FIG. 2 described in the first embodiment. Steps S412 to S415 are the same as steps S311 to S314 of FIG. 8 described in the third embodiment.
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
102 頭部検出領域設定部
103 エッジ検出部
104 パラメータ検出部
105 重み設定部
106 累積部
107 頭部楕円選出部
102 Head Detection
Claims (6)
前記エッジ画素をハフ変換における楕円パラメータの空間の各楕円に累積する手段と、
前記エッジ画素の数に基づいて候補楕円を選出する手段と、
楕円性指標から構成された総合指標を用いて前記候補楕円から頭部楕円を選択する手段とを備えることを特徴とする画像処理装置。 Means for detecting edge pixels for the set head detection region;
Means for accumulating the edge pixels in each ellipse in an elliptic parameter space in a Hough transform;
Means for selecting a candidate ellipse based on the number of edge pixels;
An image processing apparatus comprising: means for selecting a head ellipse from the candidate ellipses using a comprehensive index composed of elliptic indices.
前記エッジ画素をハフ変換における楕円パラメータの空間の各楕円に累積する工程と、
前記エッジ画素の数に基づいて候補楕円を選出する工程と、
楕円性指標から構成された総合指標を用いて前記候補楕円から頭部楕円を選択する工程とを備えることを特徴とする画像処理方法。 Detecting edge pixels for the set head detection region;
Accumulating the edge pixels on each ellipse in an elliptic parameter space in a Hough transform;
Selecting a candidate ellipse based on the number of edge pixels;
And a step of selecting a head ellipse from the candidate ellipses using a comprehensive index composed of ellipticity indices.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011135087A JP2013003890A (en) | 2011-06-17 | 2011-06-17 | Image processing system, image processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011135087A JP2013003890A (en) | 2011-06-17 | 2011-06-17 | Image processing system, image processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013003890A true JP2013003890A (en) | 2013-01-07 |
Family
ID=47672390
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011135087A Withdrawn JP2013003890A (en) | 2011-06-17 | 2011-06-17 | Image processing system, image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013003890A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112365538A (en) * | 2020-10-13 | 2021-02-12 | 西安理工大学 | Efficient target detection method of automatic reeling system |
-
2011
- 2011-06-17 JP JP2011135087A patent/JP2013003890A/en not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112365538A (en) * | 2020-10-13 | 2021-02-12 | 西安理工大学 | Efficient target detection method of automatic reeling system |
CN112365538B (en) * | 2020-10-13 | 2022-08-16 | 西安理工大学 | Efficient target detection method of automatic reeling system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11288837B2 (en) | Method of influencing virtual objects of augmented reality | |
US10445887B2 (en) | Tracking processing device and tracking processing system provided with same, and tracking processing method | |
US8442269B2 (en) | Method and apparatus for tracking target object | |
JP5371685B2 (en) | Information processing apparatus, control method, and program | |
US11037325B2 (en) | Information processing apparatus and method of controlling the same | |
CN106203423B (en) | Weak structure perception visual target tracking method fusing context detection | |
US9836130B2 (en) | Operation input device, operation input method, and program | |
JP4373840B2 (en) | Moving object tracking method, moving object tracking program and recording medium thereof, and moving object tracking apparatus | |
JPWO2011007390A1 (en) | Image processing apparatus and interface apparatus | |
US9569850B2 (en) | System and method for automatically determining pose of a shape | |
JP6487642B2 (en) | A method of detecting a finger shape, a program thereof, a storage medium of the program, and a system for detecting a shape of a finger. | |
JP2009545813A (en) | Establish and use dominant lines of images | |
JP2016099982A (en) | Behavior recognition device, behaviour learning device, method, and program | |
JP2006155238A (en) | Information processor, processing method, and processing program, portable terminal, and computer-readable recording medium | |
JP2019191981A (en) | Behavior recognition device, model construction device, and program | |
JP6817742B2 (en) | Information processing device and its control method | |
JP2007188294A (en) | Method for detecting moving object candidate by image processing, moving object detection method for detecting moving object from moving object candidate, moving object detection apparatus, and moving object detection program | |
CN108416800A (en) | Method for tracking target and device, terminal, computer readable storage medium | |
Jacobson et al. | An online learning approach to occlusion boundary detection | |
Ückermann et al. | Realtime 3D segmentation for human-robot interaction | |
Belo et al. | Digital assistance for quality assurance: Augmenting workspaces using deep learning for tracking near-symmetrical objects | |
Makris et al. | Robust 3d human pose estimation guided by filtered subsets of body keypoints | |
JP2013003890A (en) | Image processing system, image processing method and program | |
CN110717424A (en) | Real-time tiny face detection method based on preprocessing mechanism | |
CN113378886B (en) | Method for automatically training shape matching model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140902 |