JP2013003890A - Image processing system, image processing method and program - Google Patents

Image processing system, image processing method and program Download PDF

Info

Publication number
JP2013003890A
JP2013003890A JP2011135087A JP2011135087A JP2013003890A JP 2013003890 A JP2013003890 A JP 2013003890A JP 2011135087 A JP2011135087 A JP 2011135087A JP 2011135087 A JP2011135087 A JP 2011135087A JP 2013003890 A JP2013003890 A JP 2013003890A
Authority
JP
Japan
Prior art keywords
ellipse
head
index
image processing
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011135087A
Other languages
Japanese (ja)
Inventor
Bokuryo Kaku
睦凌 郭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011135087A priority Critical patent/JP2013003890A/en
Publication of JP2013003890A publication Critical patent/JP2013003890A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable more accurate detection of an edge of an upper portion of a head, which is a head characteristic.SOLUTION: An image processing system comprises: means for detecting an edge pixel in a preset head detection area; means for accumulating the edge pixel in each ellipse in an ellipse parameter space of Hough transform; means for selecting candidate ellipses according to the number of edge pixels; and means for selecting an ellipse of a head from among the candidate ellipses using a total index formed by ellipse indexes, so that an edge of an upper portion of a head, which is a head characteristic, can be detected with higher accuracy.

Description

本発明は画像処理装置、画像処理方法及びプログラムに関し、特に、画像から頭部領域を検出するために用いて好適な技術に関する。   The present invention relates to an image processing apparatus, an image processing method, and a program, and more particularly to a technique suitable for use in detecting a head region from an image.

近年、カメラなどの撮影装置から撮影された映像に、指定された人物の位置を特定して追尾することにより、カメラのフォーカス、露出、及びカメラのパン、チルト、ズームなどの姿勢を制御する機能が注目されている。このような機能では、人物の位置を特定するために、人物の顔パターンを検出し、その動きを追尾することが一般的である。このように画像中から顔を検出する技術としては、非特許文献1に各種方式が開示されている。特に、実行速度及び検出率の高さから、非特許文献2に記載されている方法は、顔検出の研究において広く使用されている。   In recent years, the function of controlling the camera focus, exposure, and camera pan, tilt, zoom, and other postures by identifying and tracking the position of a designated person in a video shot from a camera or other imaging device Is attracting attention. In such a function, in order to specify the position of a person, it is common to detect a person's face pattern and track its movement. As a technique for detecting a face from an image in this manner, various methods are disclosed in Non-Patent Document 1. In particular, due to the high execution speed and high detection rate, the method described in Non-Patent Document 2 is widely used in face detection research.

一方、人物の位置を特定するためには、人物の顔パターンを検出して追尾するだけでは十分ではない。人物の顔の横回転や後ろ反転などにより、顔パターンを検出できない場合がある。そこで、顔の変わりに、頭部領域を検出して追尾することが有力な方法である。   On the other hand, in order to specify the position of a person, it is not sufficient to detect and track the face pattern of the person. In some cases, a face pattern cannot be detected due to a horizontal rotation or reverse inversion of a human face. Therefore, it is an effective method to detect and track the head region instead of the face.

頭部領域を検出する方法としては、例えば非特許文献3に開示された手法が知られている。また、近年では、非特許文献4に開示されているように、楕円円周上の勾配情報と楕円内部のカラーヒストグラムマッチングにより頭部の楕円形状を検出することも行われている。   As a method for detecting the head region, for example, a method disclosed in Non-Patent Document 3 is known. In recent years, as disclosed in Non-Patent Document 4, the ellipse shape of the head is also detected by gradient information on the ellipse circumference and color histogram matching inside the ellipse.

M.H. Yang, D.J. Kriegman and N. Ahuja. "Detecting Faces in Images:A Survey," IEEE Trans. on PAMI, vol.24, no.1, pp.34−58, January, 2002.M.M. H. Yang, D.D. J. et al. Kriegman and N.M. Ahuja. “Detecting Faces in Images: A Survey,” IEEE Trans. on PAMI, vol. 24, no. 1, pp. 34-58, January, 2002. P. Viola and M. Jones. "Robust Real−time Object Detection," in Proc. of IEEE Workshop SCTV, July, 2001.P. Viola and M.M. Jones. “Robust Real-time Object Detection,” in Proc. of IEEE Worksshop SCTV, July, 2001. Duda, R. O. and P. E. Hart, 'Use of the Hough Transformation to Detect Lines and Curves in Pictures,' Comm. ACM, Vol. 15, pp. 11−15 (January, 1972).Duda, R.A. O. and P.M. E. Hart, 'Use of the Hough Transformation to Detect Lines and Curves in Pictures,' Comm. ACM, Vol. 15, pp. 11-15 (January, 1972). Stan Birchfield, "Elliptical Head Tracking Using Intensity Gradients and Color Histograms," Proc. IEEE International Conference On Computer Vision and Pattern Recognition(CVPR '98), Santa Barbara, California, pp.232−237, June 1998Stan Birchfield, "Elliptical Head Tracking Using Intensity Gradients and Color Histograms," Proc. IEEE International Conference On Computer Vision and Pattern Recognition (CVPR '98), Santa Barbara, California, pp. 199 232-237, June 1998

人物を含む映像では、人物の頭部下方は上半身のエッジが多く存在して個人差があり、頭部上方のエッジは比較的に安定しており、頭部の特徴となる。また、背景領域に横エッジ及び縦エッジが多く存在する。従来の手法を用いて頭部楕円を検出しようとすると、これらのエッジを頭部楕円として検出することがあり、頭部特徴である頭部上方のエッジを正しく検出できない場合がある。また、背景エッジ及び頭部エッジの組み合わせで、大きい楕円円弧として検出する場合もあり、頭部上方のエッジを正しく検出できない場合がある。   In an image including a person, there are many upper body edges below the head of the person and there are individual differences, and the edge above the head is relatively stable and is a feature of the head. In addition, there are many horizontal edges and vertical edges in the background area. If an attempt is made to detect a head ellipse using a conventional method, these edges may be detected as a head ellipse, and there may be a case where an edge above the head, which is a head feature, cannot be detected correctly. Further, the combination of the background edge and the head edge may be detected as a large elliptical arc, and the upper edge of the head may not be detected correctly.

本発明は前述の問題点に鑑み、頭部特徴である頭部上方のエッジをより高精度で検出できるようにすることを目的としている。   An object of the present invention is to make it possible to detect the upper edge of the head, which is a head feature, with higher accuracy in view of the above-described problems.

本発明の画像処理装置は、設定された頭部検出領域についてエッジ画素を検出する手段と、前記エッジ画素をハフ変換における楕円パラメータの空間の各楕円に累積する手段と、前記エッジ画素の数に基づいて候補楕円を選出する手段と、楕円性指標から構成された総合指標を用いて前記候補楕円から頭部楕円を選択する手段とを備えることを特徴とする。   The image processing apparatus according to the present invention includes means for detecting edge pixels in a set head detection region, means for accumulating the edge pixels in each ellipse in an elliptic parameter space in the Hough transform, and the number of edge pixels. And a means for selecting a candidate ellipse based on the candidate ellipse, and a means for selecting a head ellipse from the candidate ellipse using a general index composed of ellipticity indices.

本発明によれば、頭部特徴である頭部上方のエッジをより高精度で検出することができる。   ADVANTAGE OF THE INVENTION According to this invention, the edge above the head which is a head characteristic can be detected with higher precision.

第1の実施形態に係る画像処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the image processing apparatus which concerns on 1st Embodiment. 第1の実施形態における処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence in 1st Embodiment. ハフ変換の楕円パラメータの変化範囲の設定を示す図である。It is a figure which shows the setting of the change range of the ellipse parameter of Hough transform. エッジ画素の縦位置(横位置)による重み設定を示す図である。It is a figure which shows the weight setting by the vertical position (horizontal position) of an edge pixel. 実施形態における画像処理装置のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of the image processing apparatus in embodiment. 楕円回転方向における位置よるエッジ画素の重み設定を示す図である。It is a figure which shows the weight setting of the edge pixel by the position in an ellipse rotation direction. 第3の実施形態に係る画像処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the image processing apparatus which concerns on 3rd Embodiment. 第3の実施形態における処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence in 3rd Embodiment. エッジ画素が占める楕円円弧の円弧長を示す図である。It is a figure which shows the circular arc length of the elliptical circular arc which an edge pixel occupies. 第4の実施形態に係る画像処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the image processing apparatus which concerns on 4th Embodiment. 第4の実施形態おける「画素数/円周長」指標の計算手順を示す図である。It is a figure which shows the calculation procedure of the "pixel number / circumference length" parameter | index in 4th Embodiment. 第4の実施形態おける「画素数/円弧長」指標の計算手順を示す図である。It is a figure which shows the calculation procedure of the "pixel number / circular arc length" parameter | index in 4th Embodiment. 第4の実施形態における処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence in 4th Embodiment.

以下、本発明の実施形態について、図面を参照しながら説明する。
(第1の実施形態)
図5は、本実施形態における画像処理装置のハードウェア構成例を示すブロック図である。
図5において、1001はCPUであり、本実施形態の画像処理装置における各種制御を実行する。1002はROMであり、画像処理装置本体の立ち上げ時に実行されるブートプログラムや各種データを格納する。1003はRAMであり、CPU1001が処理するための制御プログラムを格納するとともに、CPU1001が各種制御を実行する際の作業領域を提供する。1004はキーボード、1005はマウスであり、ユーザによる各種入力操作環境を提供する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 5 is a block diagram illustrating a hardware configuration example of the image processing apparatus according to the present embodiment.
In FIG. 5, reference numeral 1001 denotes a CPU, which executes various controls in the image processing apparatus of the present embodiment. Reference numeral 1002 denotes a ROM which stores a boot program executed when the image processing apparatus main body is started up and various data. Reference numeral 1003 denotes a RAM, which stores a control program for processing by the CPU 1001 and provides a work area when the CPU 1001 executes various controls. A keyboard 1004 and a mouse 1005 provide various input operation environments for the user.

1006は外部記憶装置であり、ハードディスクやフレキシブルディスク、光ディスク、磁気ディスク、光磁気ディスク、磁気テープ等で構成される。ただし、外部記憶装置1006は、制御プログラムや各種データを全てROM1002に持つようにすれば、必ずしも必要な構成要素ではない。1007は表示器であり、ディスプレイなどで構成され、結果等をユーザに対して表示する。1008はネットワークインターフェースでる。1009はビデオインターフェースであり、撮像部1004と同軸ケーブルを解したフレーム画像の取り込みを可能とする。また、1011は上記の各構成を接続するバスである。   Reference numeral 1006 denotes an external storage device, which includes a hard disk, flexible disk, optical disk, magnetic disk, magneto-optical disk, magnetic tape, and the like. However, the external storage device 1006 is not necessarily a necessary component if the ROM 1002 has all the control programs and various data. Reference numeral 1007 denotes a display, which is composed of a display or the like, and displays the result and the like to the user. Reference numeral 1008 denotes a network interface. Reference numeral 1009 denotes a video interface, which makes it possible to capture a frame image that is separated from the imaging unit 1004 and a coaxial cable. Reference numeral 1011 denotes a bus for connecting the above components.

図1は、本実施形態において、人物の頭部領域を検出する画像処理装置100の機能構成例を示すブロック図である。
図1において、頭部検出領域設定部102は、入力画像101について、人間の頭部を含む大きめの領域を頭部検出領域として設定する。エッジ検出部103は、頭部検出領域設定部102で設定された頭部検出領域について、エッジ検出オペレータを用いてエッジ検出を行い、頭部検出領域のエッジ画像を得る。
FIG. 1 is a block diagram illustrating a functional configuration example of an image processing apparatus 100 that detects a head region of a person in the present embodiment.
In FIG. 1, the head detection area setting unit 102 sets a large area including a human head as a head detection area for the input image 101. The edge detection unit 103 performs edge detection on the head detection region set by the head detection region setting unit 102 using an edge detection operator, and obtains an edge image of the head detection region.

パラメータ設定部104は、頭部検出領域設定部102で設定された頭部検出領域に基づいて、頭部楕円の各パラメータの変化範囲を設定する。具体的には、楕円の中心座標(x0,y0)の変化範囲として、x0の最小値及び最大値と、y0の最小値及び最大値とを設定する。さらに、楕円縦軸長b及び楕円横軸長aの変化範囲として、楕円縦軸長bの最小値及び最大値と、楕円横軸長aの最小値及び最大値とを設定する。さらに、楕円の傾き角度θの変化範囲として、角度θの最小値及び最大値を設定する。以下、設定された楕円の各パラメータの変化範囲に、各パラメータ値の全ての組み合わせを楕円パラメータ区間と呼ぶ。   The parameter setting unit 104 sets the change range of each parameter of the head ellipse based on the head detection region set by the head detection region setting unit 102. Specifically, the minimum value and the maximum value of x0 and the minimum value and the maximum value of y0 are set as the change range of the center coordinates (x0, y0) of the ellipse. Further, the minimum value and the maximum value of the elliptical vertical axis length b and the minimum value and the maximum value of the elliptical horizontal axis length a are set as the change ranges of the elliptical vertical axis length b and the elliptical horizontal axis length a. Further, a minimum value and a maximum value of the angle θ are set as a change range of the inclination angle θ of the ellipse. Hereinafter, all combinations of parameter values within the set change range of each parameter of the ellipse are referred to as an ellipse parameter section.

重み設定部105は、エッジ検出部103で検出したエッジ画素が、パラメータ設定部104で設定されたパラメータ区間の各楕円上の存在位置に応じて重みを設定する。累積部106は、パラメータ設定部104で設定された楕円パラメータ区間において、重み設定部105で設定された各エッジ画素の重みを累積する。頭部楕円選出部107は、累積部106で累積した重み付きエッジ画素数に基づいて、累積数の最も多い楕円を頭部楕円108として選出し、出力する。   The weight setting unit 105 sets the weight according to the position of the edge pixel detected by the edge detection unit 103 on each ellipse in the parameter section set by the parameter setting unit 104. The accumulating unit 106 accumulates the weights of the edge pixels set by the weight setting unit 105 in the elliptic parameter section set by the parameter setting unit 104. The head ellipse selection unit 107 selects and outputs the ellipse having the largest cumulative number as the head ellipse 108 based on the number of weighted edge pixels accumulated by the accumulation unit 106.

図2は、本実施形態における処理手順の一例を示すフローチャートである。
まず、ステップS101において、不図示の画像データ入力部から、入力画像101を画像処理装置100に入力する。入力画像101は、静止画像でもよいし、動画像におけるフレーム画像でもよい。
FIG. 2 is a flowchart illustrating an example of a processing procedure in the present embodiment.
First, in step S101, an input image 101 is input to the image processing apparatus 100 from an image data input unit (not shown). The input image 101 may be a still image or a frame image in a moving image.

次に、ステップS102において、頭部検出領域設定部102は、ユーザインタフェースからの入力に応じて、入力画像101の中の頭部領域を囲む領域を頭部検出領域として設定する。頭部検出領域は、四角、多辺形、円形、楕円形の領域のいずれもよい。   Next, in step S102, the head detection area setting unit 102 sets an area surrounding the head area in the input image 101 as a head detection area in response to an input from the user interface. The head detection area may be a square, polygonal, circular, or elliptical area.

次に、ステップS103において、エッジ検出部103は、ステップS102で設定された頭部検出領域に対して、SobelやPrewittやLaplacianなどのエッジ検出オペレータで勾配画像を計算する。そして、勾配画像を所定閾値により二値化しエッジ画素を検出する。エッジ検出オペレータのほかに、cannyエッジ検出法や、zero−crossingエッジ検出法、morphologyエッジ検出法などでエッジ画素を検出してもよい。   Next, in step S103, the edge detection unit 103 calculates a gradient image for the head detection region set in step S102 by an edge detection operator such as Sobel, Prewitt, or Laplacian. Then, the gradient image is binarized with a predetermined threshold value to detect edge pixels. In addition to the edge detection operator, the edge pixel may be detected by a canny edge detection method, a zero-crossing edge detection method, a morphology edge detection method, or the like.

次に、ステップS104において、パラメータ設定部104は、図3に示すように、設定された頭部検出領域のサイズに基づいて、ハフ変換の楕円パラメータ変化範囲、すなわち、楕円パラメータ空間を設定する。頭部検出領域の外接矩形200の左上の座標を(x1,y1)とし、右下の座標を(x3、y3)とし、横及び縦サイズは、それぞれ、w、hとする。パラメータ設定部104は、まず、以下の式(1)により、頭部検出領域のサイズに比例して縦軸長b及び横軸長aの変化範囲を設定する。ここで、αとβはパラメータである。   Next, in step S104, the parameter setting unit 104 sets an elliptic parameter change range of the Hough transform, that is, an elliptic parameter space, based on the set size of the head detection area, as shown in FIG. The upper left coordinates of the circumscribed rectangle 200 of the head detection area are (x1, y1), the lower right coordinates are (x3, y3), and the horizontal and vertical sizes are w and h, respectively. First, the parameter setting unit 104 sets the change range of the vertical axis length b and the horizontal axis length a in proportion to the size of the head detection area by the following equation (1). Here, α and β are parameters.

Figure 2013003890
Figure 2013003890

次に、楕円の中心の範囲を以下の式(2)より設定する。   Next, the range of the center of the ellipse is set by the following equation (2).

Figure 2013003890
Figure 2013003890

最後に、画像処理装置の応用ユースケースに応じて楕円の回転角度θの範囲として、θの最小値及び最大値を設定する。   Finally, a minimum value and a maximum value of θ are set as the range of the ellipse rotation angle θ according to the application use case of the image processing apparatus.

次に、ステップS105において、累積部106は、頭部検出領域設定部102で設定された頭部検出領域内の全てのエッジ画素について、ステップS106からステップS110の処理を繰り返し行う。   Next, in step S <b> 105, the accumulation unit 106 repeats the processing from step S <b> 106 to step S <b> 110 for all edge pixels in the head detection region set by the head detection region setting unit 102.

まず、ステップS106において、累積部106は、ステップS104で設定された楕円パラメータ空間について、ステップS107からステップS109の処理を繰り返し行う。   First, in step S106, the accumulating unit 106 repeatedly performs the processing from step S107 to step S109 for the elliptic parameter space set in step S104.

ステップS107において、重み設定部105は、楕円パラメータ空間上の各楕円について注目エッジ画素を通す楕円を計算する。そして、ステップS108において、重み設定部105は、ステップS107で求めた楕円パラメータ空間上のエッジ画素を通す楕円(x0,y0,b,a,θ)上の位置により重みを設定する。ここで、x0は楕円中心のX軸座標であり、y0は楕円中心のY軸座標であり、bは楕円の縦軸長、aは楕円の横軸長、θは楕円の回転角度である。図4に示すように、エッジ画素の座標を(x,y)とし、分離点から楕円中心(X軸)までの垂直距離を、それぞれd1、d2とする。エッジ画素を通す楕円の中心位置が(x0,y0)であるので、以下の式(3)により重みを設定する。   In step S107, the weight setting unit 105 calculates an ellipse that passes the target edge pixel for each ellipse on the ellipse parameter space. In step S108, the weight setting unit 105 sets the weight based on the position on the ellipse (x0, y0, b, a, θ) that passes the edge pixel in the ellipse parameter space obtained in step S107. Here, x0 is the X-axis coordinate of the ellipse center, y0 is the Y-axis coordinate of the ellipse center, b is the vertical axis length of the ellipse, a is the horizontal axis length of the ellipse, and θ is the rotation angle of the ellipse. As shown in FIG. 4, the coordinates of the edge pixel are (x, y), and the vertical distances from the separation point to the ellipse center (X axis) are d1 and d2, respectively. Since the center position of the ellipse passing through the edge pixel is (x0, y0), the weight is set by the following equation (3).

Figure 2013003890
Figure 2013003890

ただし、分離点がX軸の上にある場合は、分離点からX軸までの垂直距離を負数とし、分離点がX軸の下にある場合は、分離点からX軸までの垂直距離を正数とする。図4に示すように、分離点a及び分離点cからX軸までの垂直距離は負数であり、分離点bからX軸までの垂直距離は0であり、分離点dからX軸までの垂直距離は正数である。   However, if the separation point is above the X axis, the vertical distance from the separation point to the X axis is a negative number. If the separation point is below the X axis, the vertical distance from the separation point to the X axis is positive. It is a number. As shown in FIG. 4, the vertical distance from the separation point a and the separation point c to the X axis is a negative number, the vertical distance from the separation point b to the X axis is 0, and the vertical distance from the separation point d to the X axis. The distance is a positive number.

次に、ステップS109において、累積部106は、注目エッジ画素を通すそれぞれの楕円(x0,y0,b,a,θ)にステップS108で求めた注目エッジ画素の重みを累積する。   Next, in step S109, the accumulation unit 106 accumulates the weight of the target edge pixel obtained in step S108 on each ellipse (x0, y0, b, a, θ) that passes the target edge pixel.

ステップS110においては、累積部106は、設定された楕円パラメータ範囲内全ての楕円について、ステップS107からステップS109の処理を終わったかどうかを判断し、終わった場合、ステップS111に移る。   In step S110, the accumulating unit 106 determines whether or not the processing from step S107 to step S109 has been completed for all ellipses within the set ellipse parameter range, and if completed, proceeds to step S111.

ステップS111においては、累積部106は、ステップS105と対応して、ステップS106からステップ110の処理は全てのエッジ画素に対して終わったかどうかを判断する。全部のエッジ画素の処理を終わった場合、ステップS112に移り、そうでない場合、他のエッジ画素について、ステップS106からステップ110までの処理を行う。   In step S111, the accumulating unit 106 determines whether the processing from step S106 to step 110 has been completed for all edge pixels, corresponding to step S105. If all edge pixels have been processed, the process proceeds to step S112. If not, the processes from step S106 to step 110 are performed for the other edge pixels.

ステップS112において、頭部楕円選出部107は、累積部106で累積した楕円パラメータ空間上各楕円の重み付きエッジ画素数に基づいて、重み付きエッジ画素数が最も多い楕円を頭部楕円108として選択する。そして、ステップS113において、頭部楕円選出部107は、ステップS112で選出した頭部楕円108を出力する。   In step S112, the head ellipse selection unit 107 selects the ellipse having the largest number of weighted edge pixels as the head ellipse 108 based on the number of weighted edge pixels of each ellipse in the ellipse parameter space accumulated by the accumulation unit 106. To do. In step S113, the head ellipse selector 107 outputs the head ellipse 108 selected in step S112.

本実施形態において、累積部106は、エッジ画素が各楕円上の位置により段階状関数で重みを設定したが、段階状関数のほかに、連続関数や、一次導関数が連続する滑らかな関数などでエッジ画素の重みを設定してもよい。また、本実施形態では、楕円パラメータとして縦軸長及び横軸長を独立に扱っていたが、縦軸長及び横軸長をそれぞれ同じ値に制限してもよい。また、楕円の傾き角度を変化させていたが、楕円は傾いていないものとして、傾き角度はパラメータとして扱わないようにしてもよい。   In the present embodiment, the accumulating unit 106 sets the weight by the step-like function according to the position of the edge pixel on each ellipse. However, in addition to the step-like function, the accumulating unit 106 has a continuous function, a smooth function with a continuous first derivative, etc. The edge pixel weights may be set with. In this embodiment, the vertical axis length and the horizontal axis length are handled independently as the ellipse parameters, but the vertical axis length and the horizontal axis length may be limited to the same value. Further, although the inclination angle of the ellipse is changed, the inclination angle may not be treated as a parameter, assuming that the ellipse is not inclined.

なお、本実施形態においては、ユーザインタフェースからの入力に応じて頭部検出領域を設定したが、顔検出技術を利用して顔を検出し、顔領域に基づいて頭部検出領域を設定してもよい。また、入力データは連続映像の場合、前フレームに検出した頭部領域に基づいて、現在のフレームの頭部検出領域を設定してもよい。   In the present embodiment, the head detection area is set according to the input from the user interface, but the face is detected using the face detection technology, and the head detection area is set based on the face area. Also good. Further, when the input data is continuous video, the head detection area of the current frame may be set based on the head area detected in the previous frame.

また、本実施形態において、頭部検出領域を利用してハフ変換のパラメータ空間を設定したが、顔検出技術を利用して顔を検出し、顔領域に基づいて、ハフ変換のパラメータ空間を設定してもよい。また、入力データは連続映像の場合、前フレームに検出した頭部領域に基づいて、現在のフレームのハフ変換のパラメータ空間を設定してもよい。   In this embodiment, the Hough transform parameter space is set using the head detection region. However, the face detection technology is used to detect the face, and the Hough transform parameter space is set based on the face region. May be. When the input data is continuous video, the parameter space for the Hough transform of the current frame may be set based on the head region detected in the previous frame.

以上のように本実施形態によれば、エッジ画素がハフ変換における楕円パラメータ区間上それぞれの楕円に存在する位置により、エッジ画素に重みをつける。そして、重みを楕円パラメータ区間に累積することにより、頭部上方のエッジの特徴である上に凸の円弧を優先して検出することができ、上半身のエッジが頭部検出に影響しにくくなる。また、背景領域にある横エッジまたは縦エッジが楕円円弧として誤検出することも低減できる。   As described above, according to the present embodiment, the edge pixels are weighted according to the positions where the edge pixels exist in the respective ellipses on the elliptic parameter section in the Hough transform. Then, by accumulating the weights in the ellipse parameter section, it is possible to preferentially detect an upwardly convex arc that is a feature of the edge above the head, and the upper body edge is less likely to affect head detection. In addition, erroneous detection of a horizontal edge or vertical edge in the background area as an elliptical arc can be reduced.

(第2の実施形態)
本実施形態では、第1の実施形態とは、エッジ画素の重みの設定方法が異なる。なお、他の処理部の処理は第1の実施形態と同様であるため、説明は省略する。本実施形態では、第1の実施形態と異なる部分について説明する。
(Second Embodiment)
In this embodiment, the edge pixel weight setting method is different from that of the first embodiment. In addition, since the process of another process part is the same as that of 1st Embodiment, description is abbreviate | omitted. In the present embodiment, parts different from the first embodiment will be described.

本実施形態では、重み設定部105は、図6に示すように、ステップS107で求めた楕円パラメータ空間上のエッジ画素を通す楕円(x0,y0,b,a,θ)の回転方向に、エッジ画素が楕円上の位置により、エッジ画素の重みを設定する。このとき、エッジ画素の座標を(x,y)とし、回転した楕円の横軸をH'とする。そして、分離点eからH'までの垂直距離をd1とし、分離点fからH'までの垂直距離をd2とする。エッジ画素(x,y)からH'までの距離は、以下の式(4)により求める。ここで、楕円の中心(x0,y0)を回転中心とし、Y軸を右方向へ回転する場合、角度θは正数とする。   In the present embodiment, as shown in FIG. 6, the weight setting unit 105 moves the edge in the rotation direction of the ellipse (x0, y0, b, a, θ) that passes the edge pixel in the ellipse parameter space obtained in step S107. The weight of the edge pixel is set according to the position of the pixel on the ellipse. At this time, the coordinates of the edge pixel are (x, y), and the horizontal axis of the rotated ellipse is H ′. The vertical distance from the separation point e to H ′ is d1, and the vertical distance from the separation point f to H ′ is d2. The distance from the edge pixel (x, y) to H ′ is obtained by the following equation (4). Here, when the center (x0, y0) of the ellipse is the rotation center and the Y axis is rotated rightward, the angle θ is a positive number.

Figure 2013003890
Figure 2013003890

そして、回転したY軸の座標y'とy0との差に基づいて、以下の式(5)によりエッジ画素(x,y)の重みを設定する。   Based on the difference between the rotated Y-axis coordinates y ′ and y0, the weight of the edge pixel (x, y) is set by the following equation (5).

Figure 2013003890
Figure 2013003890

(第3の実施形態)
図7は、本実施形態に係る画像処理装置300の機能構成例を示すブロック図である。本実施形態は、第1の実施形態と異なり、エッジ画素の重み設定部105が存在せず、頭部楕円選出部107の代わりに、候補楕円選出部306及び頭部楕円選出部307が存在する。なお、頭部検出領域部302、エッジ検出部303、及びパラメータ設定部304の構成は、それぞれ図1の頭部検出領域設定部102、エッジ検出部103、及びパラメータ設定部104と同様であるため、説明は省略する。
(Third embodiment)
FIG. 7 is a block diagram illustrating a functional configuration example of the image processing apparatus 300 according to the present embodiment. Unlike the first embodiment, the present embodiment does not include the edge pixel weight setting unit 105, and includes a candidate ellipse selection unit 306 and a head ellipse selection unit 307 instead of the head ellipse selection unit 107. . Note that the configuration of the head detection region unit 302, the edge detection unit 303, and the parameter setting unit 304 is the same as that of the head detection region setting unit 102, the edge detection unit 103, and the parameter setting unit 104 in FIG. The description is omitted.

図5において、累積部305は、パラメータ設定部304で設定された楕円パラメータ区間において、それぞれの楕円に重みを付けず、単純にエッジ画素数を累積する。候補楕円選出部306は、累積部305でそれぞれの楕円に累積したエッジ画素数をソートし、上位画素数の楕円をN個選出し、候補楕円とする。   In FIG. 5, the accumulation unit 305 simply accumulates the number of edge pixels in the ellipse parameter section set by the parameter setting unit 304 without weighting each ellipse. The candidate ellipse selection unit 306 sorts the number of edge pixels accumulated in the respective ellipses by the accumulation unit 305, selects N ellipses having the upper pixel number, and sets them as candidate ellipses.

頭部楕円選出部307は、候補楕円選出部306で選出したN個候補楕円を以下(1)〜(5)の指標に基づいて総合指標を算出し、総合指標のトップ楕円を頭部楕円308として選出する。
(1)大きい楕円を優先的に選択する「相対画素数」指標
(2)小さい楕円を優先的に選択する「画素数/円周長」指標
(3)楕円上部のエッジ円弧を重視して楕円を選択する「画素数/円弧長」指標
(4)所定形状の楕円を優先的に選択する「円形度」指標
The head ellipse selection unit 307 calculates a comprehensive index from the N candidate ellipses selected by the candidate ellipse selection unit 306 based on the following indices (1) to (5), and determines the top ellipse of the comprehensive index as the head ellipse 308. Elected as.
(1) “Relative pixel count” index for preferentially selecting a large ellipse (2) “Pixel number / circumference length” index for preferentially selecting a small ellipse (3) Ellipse with emphasis on the edge arc at the top of the ellipse “Number of pixels / arc length” index for selecting (4) “Circularity” index for preferentially selecting an ellipse of a predetermined shape

図8は、本実施形態における処理手順の一例を示すフローチャートである。なお、ステップS301〜S307までの処理は、第1の実施形態で説明した図2のステップS101〜S107と同様であり、ステップS308〜S310は、図2のステップS109〜S111と同様である。したがって、これらの詳細な説明は省略する。   FIG. 8 is a flowchart illustrating an example of a processing procedure in the present embodiment. Note that the processes from step S301 to S307 are the same as steps S101 to S107 of FIG. 2 described in the first embodiment, and steps S308 to S310 are the same as steps S109 to S111 of FIG. Therefore, detailed description thereof will be omitted.

ステップS311において、候補楕円選出部306は、ステップ308で累積計算した各楕円のエッジ画素数をソートし、上位画素数のN個楕円を選出する。ここのNはパラメータであり、楕円パラメータ空間のサイズにより設定する。   In step S311, the candidate ellipse selection unit 306 sorts the number of edge pixels of each ellipse cumulatively calculated in step 308, and selects N ellipses having the upper number of pixels. Here, N is a parameter, which is set according to the size of the elliptic parameter space.

次に、ステップS312において、頭部楕円選出部307は、前記選出されたN個の候補楕円について、前述した(1)〜(4)の指標に基づいて、総合指標を算出する。以下、N個候補楕円のエッジ画素数はそれぞれnk(k=1,2,・・・,N)とする。 Next, in step S312, the head ellipse selection unit 307 calculates a total index for the selected N candidate ellipses based on the above-described indices (1) to (4). Hereinafter, the number of edge pixels of the N candidate ellipses is n k (k = 1, 2,..., N), respectively.

前述した(1)における「相対画素数」指標は、エッジ画素数の相対比率であり、以下の式(6)により計算する。   The “relative pixel number” index in (1) described above is a relative ratio of the number of edge pixels, and is calculated by the following equation (6).

Figure 2013003890
Figure 2013003890

前述した(2)における「画素数/円周長」指標は、以下の式(7)により計算する。ここで、ak及びbkはそれぞれ、第k番目候補楕円の長軸及び短軸である。ここで、楕円の円周長は(ak+bk)に比例するとするが、以下の式(8)に示すような本来の楕円円周長計算式により計算してもよい。 The “number of pixels / circumference length” index in (2) is calculated by the following equation (7). Here, a k and b k are the major axis and the minor axis of the kth candidate ellipse, respectively. Here, the circumference of the ellipse is proportional to (a k + b k ), but may be calculated by the original ellipse circumference calculation formula as shown in the following equation (8).

Figure 2013003890
Figure 2013003890

Figure 2013003890
Figure 2013003890

前述した(3)における「画素数/円弧長」指標は、以下の式(9)により計算する。このとき、図9に示すように、左楕円円弧の最も下の画素はAとし、右楕円円弧の最も下の画素はBとし、Aから反時計方向へBまでの上部楕円円弧の円弧長はABkとする。ここで、円弧長ABkは候補楕円を生成するときの円弧AB間の楕円画素数である。 The “number of pixels / arc length” index in (3) is calculated by the following equation (9). At this time, as shown in FIG. 9, the lowest pixel of the left elliptical arc is A, the lowest pixel of the right elliptical arc is B, and the arc length of the upper elliptical arc from A to B in the counterclockwise direction is Let AB k . Here, the arc length AB k is the number of ellipse pixels between the arcs AB when generating the candidate ellipse.

Figure 2013003890
Figure 2013003890

前述した(4)における「円形度」指標は、候補楕円の長軸及び短軸を、それぞれak及びbkとした場合に、以下の式(10)により計算する。ここでαはパラメータであり、人間の頭部形状を統計して計算した値である。 The “circularity” index in (4) described above is calculated by the following equation (10) when the major and minor axes of the candidate ellipse are a k and b k , respectively. Here, α is a parameter, which is a value calculated by statistically analyzing the human head shape.

Figure 2013003890
Figure 2013003890

以上のように総合指標は、前述した4つの指標を以下の式(11)により線形組み合わせで計算する。   As described above, the total index is calculated by linear combination of the above-described four indices according to the following equation (11).

Figure 2013003890
Figure 2013003890

ここで、総合指標は、各指標の線形組み合わせとしたが、各指標の単調関数の線形組み合わせとしてもよい。また、4つの楕円に関する指標のうち、2つまたは3つの指標の線形組み合わせとしてもよい。さらに、線形組み合わせのほかに、足し算と乗算との組み合わせなどの一般的な関数で構成してもよい。   Here, the overall index is a linear combination of the indices, but may be a linear combination of monotonic functions of the indices. Moreover, it is good also as a linear combination of two or three indices among the indices regarding four ellipses. Further, in addition to the linear combination, it may be configured by a general function such as a combination of addition and multiplication.

また、総合指標は、各指標の関数で構成することではなく、1つの指標により評価し、同じ評価値になった楕円が複数存在する場合に、他の指標により前記同じ評価値の楕円を評価して選択してもよい。また、同じ評価値の楕円が複数存在する場合に、他の指標により前記同じ評価値の楕円を繰り返し評価するように構成してもよい。同様に、4つの指標のうち、2つまたは3つの指標のみで構成してもよい。   In addition, the comprehensive index is not composed of a function of each index, but is evaluated by one index, and when there are a plurality of ellipses having the same evaluation value, the ellipse having the same evaluation value is evaluated by another index. You may choose. Further, when there are a plurality of ellipses having the same evaluation value, the ellipses having the same evaluation value may be repeatedly evaluated using another index. Similarly, you may comprise only two or three indices among four indices.

また、総合指標は、各指標の関数で構成することではなく、各指標において、候補楕円の評価値が、以下の式(12)に示すように所定範囲に入る場合、頭部楕円として選出する。また、式(12)に示す所定範囲内に複数の頭部楕円が存在する場合には、さらに、1つの指標を利用して、頭部楕円を選出してもよい。同様に、ここで、4つの楕円に関する指標を全て利用して所定範囲に入るかどうかを判断するが、4つの楕円性指標のうち、2つまたは3つの指標のみで構成してもよい。また、以下の式(12)の条件を満たす楕円がない場合は、頭部検出が失敗とする。   In addition, the comprehensive index is not composed of a function of each index, but is selected as a head ellipse when the evaluation value of the candidate ellipse falls within a predetermined range as shown in the following formula (12) in each index. . Further, when there are a plurality of head ellipses within the predetermined range shown in Expression (12), the head ellipse may be further selected using one index. Similarly, here, it is determined whether all the indices related to the four ellipses are used to enter the predetermined range, but it may be configured by only two or three indices among the four ellipticity indices. Further, if there is no ellipse that satisfies the following expression (12), head detection fails.

Figure 2013003890
Figure 2013003890

なお、本実施形態では、頭部楕円選出部307は、4つの指標の組み合わせを用いて、候補楕円から頭部楕円を選出するが、楕円上部のエッジ円弧を重視して楕円を選択する「画素数/円弧長」指標のみで頭部楕円を選出してもよい。同様に、所定形状の楕円を優先的に選択する「円形度」指標のみで頭部楕円を選出してもよい。   In the present embodiment, the head ellipse selection unit 307 selects a head ellipse from candidate ellipses using a combination of four indices. The head ellipse may be selected using only the “number / arc length” index. Similarly, the head ellipse may be selected only by the “circularity” index that preferentially selects an ellipse having a predetermined shape.

図8の説明に戻り、ステップS313において、頭部楕円選出部307は、ステップS312で求めた総合指標に従って、最も評価値の大きい楕円を選出し、頭部楕円308とする。そして、ステップS314において、頭部楕円選出部307は、ステップS313で選択した頭部楕円308を出力する。   Returning to the description of FIG. 8, in step S <b> 313, the head ellipse selection unit 307 selects the ellipse having the largest evaluation value according to the comprehensive index obtained in step S <b> 312 and sets it as the head ellipse 308. In step S314, the head ellipse selection unit 307 outputs the head ellipse 308 selected in step S313.

(第4の実施形態)
図10は、本実施形態に係る画像処理装置400の機能構成例を示すブロック図である。第3の実施形態と異なる点は、重み設定部409を設けている点である。重み設定部409は、第1の実施形態において説明した図1の重み設定部105と同様であるため、詳細な説明は省略する。また、頭部検出領域設定部402〜累積部405の構成も、それぞれ第1の実施形態で説明した図1の頭部検出領域設定部102〜パラメータ設定部104、及び累積部106と同様であるため、詳細な説明は省略する。
(Fourth embodiment)
FIG. 10 is a block diagram illustrating a functional configuration example of the image processing apparatus 400 according to the present embodiment. The difference from the third embodiment is that a weight setting unit 409 is provided. Since the weight setting unit 409 is the same as the weight setting unit 105 of FIG. 1 described in the first embodiment, detailed description thereof is omitted. The configurations of the head detection region setting unit 402 to the accumulation unit 405 are also the same as the head detection region setting unit 102 to the parameter setting unit 104 and the accumulation unit 106 of FIG. 1 described in the first embodiment. Therefore, detailed description is omitted.

候補楕円選出部406は、累積エッジ画素数に代わりに、重み付きの累積エッジ画素数を用いて、上位の累積数の楕円をN個の候補楕円として選出する。頭部楕円選出部407は、第3の実施形態の頭部楕円選出部307と同様に、式(6)、式(7)、式(9)、及び式(10)に従って前述した(1)〜(4)の4つの指標を算出し、これらの指標を組み合わせて総合指標を決定する。そして、総合指標が最も高い楕円を頭部楕円408として選出する。   The candidate ellipse selection unit 406 selects the upper cumulative number of ellipses as N candidate ellipses using the weighted cumulative edge pixel number instead of the cumulative edge pixel number. The head ellipse selection unit 407 is the same as the head ellipse selection unit 307 of the third embodiment described above according to the equations (6), (7), (9), and (10) (1). The four indices (4) to (4) are calculated, and these indices are combined to determine the overall index. Then, the ellipse with the highest overall index is selected as the head ellipse 408.

また、本実施形態において、4つの楕円に関する指標に重み設定部409で設定したエッジ画素の重みを反映してもよい。この場合、これらの4つの指標は以下のように算出する。以下、N個の候補楕円の重み付けエッジ画素数をそれぞれwk(k=1,2,・・・,N)とする。 In this embodiment, the weight of the edge pixel set by the weight setting unit 409 may be reflected on the indices related to the four ellipses. In this case, these four indexes are calculated as follows. Hereinafter, the number of weighted edge pixels of the N candidate ellipses is set to w k (k = 1, 2,..., N), respectively.

前述した(1)における「相対画素数」指標は、以下の式(13)により計算する。   The above-mentioned “relative pixel number” index in (1) is calculated by the following equation (13).

Figure 2013003890
Figure 2013003890

前述した(2)における「画素数/円周長」指標は、以下の式(14)により計算する。ここで、wxyは円弧xyの重みであり、nxyは円弧xyの画素数(長さ)である。なお、重みは段階関数でなく一般関数で設定する場合、以下の式(14)における分母の総和の代わりに重みの積分とする。各円弧とその重みについては、図11に示す。 The “number of pixels / circumference length” index in (2) is calculated by the following equation (14). Here, w xy is the weight of the arc xy, and n xy is the number of pixels (length) of the arc xy. When the weight is set not by a step function but by a general function, the weight is integrated instead of the sum of the denominators in the following equation (14). Each arc and its weight are shown in FIG.

Figure 2013003890
Figure 2013003890

前述した(3)における「画素数/円弧長」指標は、以下の式(15)により計算する。ここで、wxyは円弧xyの重みであり、nxyは円弧xyの画素数(長さ)である。なお、重みは段階関数でなく一般関数で設定する場合、以下の式(15)における分母の総和の代わりに重みの積分とする。各円弧については、図12に示す。 The “number of pixels / arc length” index in (3) described above is calculated by the following equation (15). Here, w xy is the weight of the arc xy, and n xy is the number of pixels (length) of the arc xy. When the weight is set not by a step function but by a general function, the weight is integrated instead of the sum of the denominators in the following equation (15). Each arc is shown in FIG.

Figure 2013003890
Figure 2013003890

前述した(4)における「円形度」指標は、第3の実施形態と同様である。   The “circularity” index in (4) described above is the same as in the third embodiment.

図13は、本実施形態における処理手順の一例を示すフローチャートである。なお、ステップS401〜S411までの処理は、第1の実施形態で説明した図2のステップS101〜S111と同様である。また、ステップS412〜S415は、第3の実施形態で説明した図8のステップS311〜S314と同様である。   FIG. 13 is a flowchart illustrating an example of a processing procedure in the present embodiment. Note that the processes from step S401 to S411 are the same as steps S101 to S111 of FIG. 2 described in the first embodiment. Steps S412 to S415 are the same as steps S311 to S314 of FIG. 8 described in the third embodiment.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

102 頭部検出領域設定部
103 エッジ検出部
104 パラメータ検出部
105 重み設定部
106 累積部
107 頭部楕円選出部
102 Head Detection Area Setting Unit 103 Edge Detection Unit 104 Parameter Detection Unit 105 Weight Setting Unit 106 Accumulation Unit 107 Head Ellipse Selection Unit

Claims (6)

設定された頭部検出領域についてエッジ画素を検出する手段と、
前記エッジ画素をハフ変換における楕円パラメータの空間の各楕円に累積する手段と、
前記エッジ画素の数に基づいて候補楕円を選出する手段と、
楕円性指標から構成された総合指標を用いて前記候補楕円から頭部楕円を選択する手段とを備えることを特徴とする画像処理装置。
Means for detecting edge pixels for the set head detection region;
Means for accumulating the edge pixels in each ellipse in an elliptic parameter space in a Hough transform;
Means for selecting a candidate ellipse based on the number of edge pixels;
An image processing apparatus comprising: means for selecting a head ellipse from the candidate ellipses using a comprehensive index composed of elliptic indices.
前記ハフ変換における楕円パラメータは、X軸座標、Y軸座標、縦軸長、横軸長、及び回転角度のうち、少なくとも1つのパラメータの組み合わせであり、前記楕円パラメータの区間は、各パラメータの最小値から最大値の区間であることを特徴とする請求項1に記載の画像処理装置。   The elliptic parameter in the Hough transform is a combination of at least one parameter among the X-axis coordinate, the Y-axis coordinate, the vertical axis length, the horizontal axis length, and the rotation angle. The elliptic parameter interval is the minimum of each parameter. The image processing apparatus according to claim 1, wherein the image processing apparatus is a section from a value to a maximum value. 前記楕円性指標から構成された総合指標は、大きい楕円を優先的に選択する指標、小さい楕円を優先的に選択する指標、楕円上部のエッジ円弧を重視して楕円を選択する指標、及び所定形状の楕円を優先的に選択する指標のうち、少なくとも2つの指標を組み合わせて構成された指標であることを特徴とする請求項1に記載の画像処理装置。   The overall index composed of the ellipticity index is an index that preferentially selects a large ellipse, an index that preferentially selects a small ellipse, an index that selects an ellipse with an emphasis on the edge arc above the ellipse, and a predetermined shape The image processing apparatus according to claim 1, wherein the image processing apparatus is an index configured by combining at least two indices among indices that preferentially select the ellipse. 前記大きい楕円を優先的に選択する指標は、各候補楕円のエッジ画素数と各候補楕円のエッジ画素数の最大値との比率の単調関数であることを特徴とする請求項3に記載の画像処理装置。   The image according to claim 3, wherein the index for preferentially selecting the large ellipse is a monotone function of a ratio between the number of edge pixels of each candidate ellipse and the maximum value of the number of edge pixels of each candidate ellipse. Processing equipment. 設定された頭部検出領域についてエッジ画素を検出する工程と、
前記エッジ画素をハフ変換における楕円パラメータの空間の各楕円に累積する工程と、
前記エッジ画素の数に基づいて候補楕円を選出する工程と、
楕円性指標から構成された総合指標を用いて前記候補楕円から頭部楕円を選択する工程とを備えることを特徴とする画像処理方法。
Detecting edge pixels for the set head detection region;
Accumulating the edge pixels on each ellipse in an elliptic parameter space in a Hough transform;
Selecting a candidate ellipse based on the number of edge pixels;
And a step of selecting a head ellipse from the candidate ellipses using a comprehensive index composed of ellipticity indices.
請求項5に記載の画像処理方法の各工程をコンピュータに実行させるためのプログラム。   The program for making a computer perform each process of the image processing method of Claim 5.
JP2011135087A 2011-06-17 2011-06-17 Image processing system, image processing method and program Withdrawn JP2013003890A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011135087A JP2013003890A (en) 2011-06-17 2011-06-17 Image processing system, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011135087A JP2013003890A (en) 2011-06-17 2011-06-17 Image processing system, image processing method and program

Publications (1)

Publication Number Publication Date
JP2013003890A true JP2013003890A (en) 2013-01-07

Family

ID=47672390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011135087A Withdrawn JP2013003890A (en) 2011-06-17 2011-06-17 Image processing system, image processing method and program

Country Status (1)

Country Link
JP (1) JP2013003890A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112365538A (en) * 2020-10-13 2021-02-12 西安理工大学 Efficient target detection method of automatic reeling system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112365538A (en) * 2020-10-13 2021-02-12 西安理工大学 Efficient target detection method of automatic reeling system
CN112365538B (en) * 2020-10-13 2022-08-16 西安理工大学 Efficient target detection method of automatic reeling system

Similar Documents

Publication Publication Date Title
US11288837B2 (en) Method of influencing virtual objects of augmented reality
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
US8442269B2 (en) Method and apparatus for tracking target object
JP5371685B2 (en) Information processing apparatus, control method, and program
US11037325B2 (en) Information processing apparatus and method of controlling the same
CN106203423B (en) Weak structure perception visual target tracking method fusing context detection
US9836130B2 (en) Operation input device, operation input method, and program
JP4373840B2 (en) Moving object tracking method, moving object tracking program and recording medium thereof, and moving object tracking apparatus
JPWO2011007390A1 (en) Image processing apparatus and interface apparatus
US9569850B2 (en) System and method for automatically determining pose of a shape
JP6487642B2 (en) A method of detecting a finger shape, a program thereof, a storage medium of the program, and a system for detecting a shape of a finger.
JP2009545813A (en) Establish and use dominant lines of images
JP2016099982A (en) Behavior recognition device, behaviour learning device, method, and program
JP2006155238A (en) Information processor, processing method, and processing program, portable terminal, and computer-readable recording medium
JP2019191981A (en) Behavior recognition device, model construction device, and program
JP6817742B2 (en) Information processing device and its control method
JP2007188294A (en) Method for detecting moving object candidate by image processing, moving object detection method for detecting moving object from moving object candidate, moving object detection apparatus, and moving object detection program
CN108416800A (en) Method for tracking target and device, terminal, computer readable storage medium
Jacobson et al. An online learning approach to occlusion boundary detection
Ückermann et al. Realtime 3D segmentation for human-robot interaction
Belo et al. Digital assistance for quality assurance: Augmenting workspaces using deep learning for tracking near-symmetrical objects
Makris et al. Robust 3d human pose estimation guided by filtered subsets of body keypoints
JP2013003890A (en) Image processing system, image processing method and program
CN110717424A (en) Real-time tiny face detection method based on preprocessing mechanism
CN113378886B (en) Method for automatically training shape matching model

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140902