JP2007233544A - Object position tracking method, device, and program - Google Patents

Object position tracking method, device, and program Download PDF

Info

Publication number
JP2007233544A
JP2007233544A JP2006052185A JP2006052185A JP2007233544A JP 2007233544 A JP2007233544 A JP 2007233544A JP 2006052185 A JP2006052185 A JP 2006052185A JP 2006052185 A JP2006052185 A JP 2006052185A JP 2007233544 A JP2007233544 A JP 2007233544A
Authority
JP
Japan
Prior art keywords
probability distribution
rectangular area
calculating
probability
calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006052185A
Other languages
Japanese (ja)
Other versions
JP4559375B2 (en
Inventor
Hidenori Sato
秀則 佐藤
Hidekazu Hosoya
英一 細谷
Ikuo Harada
育生 原田
Akira Onozawa
晃 小野澤
Shizue Hattori
静枝 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2006052185A priority Critical patent/JP4559375B2/en
Publication of JP2007233544A publication Critical patent/JP2007233544A/en
Application granted granted Critical
Publication of JP4559375B2 publication Critical patent/JP4559375B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object position tracking method for reducing the erroneous recognition of objects in similar colors by increasing a recognition rate. <P>SOLUTION: In a skin color probability distribution calculating part 14, the pickup image of each frame picked up by an imaging part 11 is inputted, and the probability distribution of skin colors within a designated rectangular region is calculated by using the calculation formula of probability that the skin colors exist or a lookup table showing relationship between pixel values and the probability. A rectangular region decision part 15 decides the rectangular region applied with width and height according to the total sum of the probability distribution values and the function whose value is the maximum of the probability distribution with the center of gravity of the probability distribution as a center. When a difference in size between the rectangular region decided in the previous loop and the rectangular region currently decided is within a threshold, or the rectangular region is decided to the same frame with designated loop frequency or more, or the size of the rectangular region exceeds the designated size, a skin color region decision part 16 decides that the rectangular region is the result of tracking the site in the current frame, and shifts to the calculation of the next frame. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、例えば人間の手などの、予め指定された色とサイズを有する対象物の動きと位置によって、コンピュータ、家電等を操作するインタフェース方法に関する。   The present invention relates to an interface method for operating a computer, a household appliance, and the like by the movement and position of an object having a color and size specified in advance, such as a human hand.

素手を認識して手の動きと位置によってコンピュータや家電などを操作するインタフェースが研究されている。手の位置と動きで操作するインタフェースの利用シーンとしては、画面から少し離れた場所にユーザが複数いて、背景は特に規定しない普通の部屋などが想定され、また、ユーザが何も体に装着しなくても使えることが望ましい。さらに、手の動きに追随できる程度の実時間性が要求される。   An interface for recognizing a bare hand and operating a computer or a household appliance according to the movement and position of the hand has been studied. The usage scene of the interface operated by the position and movement of the hand is assumed to be a normal room where there are multiple users at a distance from the screen and the background is not specified, and the user wears nothing on the body. It is desirable that it can be used without it. Furthermore, real-time performance that can follow the movement of the hand is required.

このような状況で手の位置認識をすることは実は難しい。   It is actually difficult to recognize the hand position in such a situation.

アプローチとして、ステレオ視などの形状復元技術を利用し手の形状の特徴を検出する手法もあるが、直接手をクローズアップするなどの手段を用いなければ十分な精度で手の形状を認識することは困難である。クローズアップなどをせずに撮像する場合、人物全体の大まかな形状(カメラからの距離情報)を利用することとなる。しかし、大まかな形状のみでは手の認識が困難なため、誤認識が発生しやすい。また、3次元的に指差しを行うシステムの場合に、指先位置の計測誤差が指されている物体との距離に比例して拡大することによる指差し位置の誤認識も発生する。また、肌色情報を主に用いて手の位置を検出・追跡するものは、顔や周りの物体など手以外に条件に当てはまるものが出てきてしまうため、やはり誤認識が避けられない。   As an approach, there is a method of detecting the shape of the hand shape using shape restoration technology such as stereo vision, but the shape of the hand can be recognized with sufficient accuracy unless means such as direct close-up of the hand are used. It is difficult. When taking an image without performing close-up or the like, the rough shape (distance information from the camera) of the entire person is used. However, since it is difficult to recognize a hand only with a rough shape, erroneous recognition is likely to occur. In addition, in the case of a system that performs three-dimensional pointing, misrecognition of the pointing position also occurs because the measurement error of the fingertip position increases in proportion to the distance from the object being pointed. In addition, in the case of detecting / tracking the position of the hand mainly using skin color information, there are cases where the condition other than the hand such as the face and surrounding objects is met, and thus erroneous recognition cannot be avoided.

ここで、代表的な従来技術について説明する。   Here, a typical prior art will be described.

非特許文献1に記載の技術は、Continuously Adaptive Mean Shift(CAMSHIFT)と呼ばれるアルゴリズムを用いて対象物をリアルタイムに追跡するものであるが、前フレーム画像での肌色検出結果を表わす矩形領域を起点とし、近傍の指定肌色分布確率をとる矩形領域を、請求項1同様に位置と大きさを変えながら決定することにより、現フレームでの肌色領域を決定する。しかし、該アルゴリズムでは、取りうる矩形領域の大きさに制限を設けておらず、画像内に肌色領域がひとつの場合は比較的安定して追跡できるが、手が背景にある肌色物体の前を通過する場合には、通過直後に、両方の肌色領域を含んだ、大きな矩形領域を肌色領域として誤認識してしまうという問題があった。   The technique described in Non-Patent Document 1 tracks an object in real time using an algorithm called Continuously Adaptive Mean Shift (CAMSHIFT). Then, by determining a rectangular area having a specified skin color distribution probability in the vicinity while changing the position and size as in the first aspect, the skin color area in the current frame is determined. However, the algorithm does not limit the size of the rectangular area that can be taken, and if there is only one skin color area in the image, it can be tracked relatively stably, but the hand is in front of the skin color object in the background. In the case of passing, there is a problem that a large rectangular area including both skin color areas is erroneously recognized as a skin color area immediately after passing.

非特許文献2に記載の技術は、距離(一番手前にあるもの)と背景差分(カメラと手の間に置いてあるものなどは無視)と顔の近くにあるという条件と肌色情報を用いて手を認識するもので、顔検出は他人が肩越しに覗いている等の複雑な背景では操作者の特定が難しく、顔の誤認識の影響を強く受ける。   The technique described in Non-Patent Document 2 uses distance (the one that is in the foreground), background difference (ignoring anything that is placed between the camera and the hand), and the condition of being near the face and skin color information. Face detection is difficult to identify the operator in complicated backgrounds such as when someone is looking over your shoulder and is strongly affected by face misrecognition.

非特許文献3に記載の技術は、指定色マーカを持ったユーザが操作し、その指定色をとる領域に対し、前フレーム画像の位置をもとに現フレームでの位置を追跡する方法である。ここでは、背景にない色情報を使っており、背景に指定色がある場合は位置認識は失敗する。   The technique described in Non-Patent Document 3 is a method of tracking the position in the current frame based on the position of the previous frame image with respect to an area that takes the designated color, which is operated by a user having a designated color marker. . Here, color information that does not exist in the background is used, and position recognition fails if there is a designated color in the background.

非特許文献4に記載の技術は、非特許文献1の方法に、距離と動きによる制限を加え、背景に肌色領域がある場合も比較的安定して肌色物体を追跡することを可能とした。しかし、動きがある領域のみを追跡対象としているため手を止めると追跡に失敗し、また、距離の制限から指定距離範囲内に手を置かなければならないという制限があった。
Gary R.Bradski, “Real Time Face and Object Tacking as a Component of a Perceputual User Interface” 1998 IEEE pp.214−219 金次保明ら “指差しポインターにおけるカーソル位置の特定法”(電子情報通信学会 ITS研究会2002) 細谷英一ら “ミラーインタフェースを用いた遠隔地間の実世界インタラクション” FIT(情報科学技術フォーラム)2003 pp.591−592 北端美紀ら “ミラーインタフェースにおける手追跡方法の一検討”(信学会全大2005 D−12−35)
The technique described in Non-Patent Document 4 adds a restriction based on distance and motion to the method of Non-Patent Document 1, and makes it possible to track a skin-colored object relatively stably even when there is a skin-colored area in the background. However, since the tracking target is only an area where there is movement, tracking fails when the hand is stopped, and there is a restriction that the hand must be placed within a specified distance range due to the distance limitation.
Gary R. Bradski, "Real Time Face and Object Tacking as a Component of a Perceptual User Interface" 1998 IEEE pp. 214-219 Yasuaki Kaneji et al. “Specifying the cursor position on the pointing pointer” (ITS Information Technology Society 2002) Eiichi Hosoya et al. “Real-world interaction between remote locations using mirror interface” FIT (Information Science and Technology Forum) 2003 pp. 591-592 Kitabata Miki et al. "A Study of Hand Tracking Method on Mirror Interface"

本発明の目的は、類似色物体の誤認識を防ぎ、認識率を高めた対象物位置追跡方法、装置、およびプログラムを提供することにある。   An object of the present invention is to provide an object position tracking method, apparatus, and program that prevent erroneous recognition of similar color objects and increase the recognition rate.

本発明の対象物追跡方法は、
撮像手段によって撮像対象を撮像した撮像動画像上の予め指定された所定の色とサイズの領域を追跡することによって対象物の位置を追跡する方法であって、
該撮像手段で撮像された各フレームの撮像画像を入力する撮像画像入力段階と、
前記所定の色が存在する確率の計算式、または画素値と該確率との関係を表わすルックアップテーブルを用いて、指定された矩形領域内での前記所定の色の確率分布を計算する所定色確率分布計算段階と、
前記確率分布の重心を中心とし、かつ確率分布値の総和M00と確率分布の最大値をPmaxとした時、矩形領域の一辺の幅lw,高さlhが、M00とPmaxの関数lw=fw(M00,Pmax),lh=fh(M00,Pmax),で与えられるように、矩形領域を決定する矩形領域決定段階と、
撮像画像入力段階と所定色確率分布計算段階と矩形領域決定段階で行われる処理の前回のループで矩形領域決定段階で決定された矩形領域の大きさと今回のループで矩形領域決定段階で決定された矩形領域との大きさの差分が閾値以内、または同一フレームに対し指定されたループ回数以上の矩形領域の再決定を行った、または決定された矩形領域の大きさが指定サイズを超えた場合に、矩形領域決定段階で今回決定された矩形領域を現フレームでの前記対象物の追跡結果とし、撮像画像入力段階に戻り、次フレームに対する計算に移る所定色領域判定段階と、
を有する。
The object tracking method of the present invention includes:
A method of tracking the position of an object by tracking an area of a predetermined color and size specified in advance on an imaged moving image obtained by imaging an imaging object by an imaging means,
A captured image input stage for inputting a captured image of each frame imaged by the imaging means;
Predetermined color for calculating the probability distribution of the predetermined color in a specified rectangular area using a formula for calculating the probability that the predetermined color exists or a look-up table representing the relationship between a pixel value and the probability A probability distribution calculation stage;
When the center of gravity of the probability distribution is at the center and the sum M 00 of probability distribution values and the maximum value of the probability distribution are P max , the width l w and height l h of one side of the rectangular area are M 00 and P max. A rectangular area determining step for determining a rectangular area as given by: l w = f w (M 00 , P max ), l h = f h (M 00 , P max ),
The size of the rectangular area determined in the rectangular area determination stage in the previous loop of the processing performed in the captured image input stage, the predetermined color probability distribution calculation stage, and the rectangular area determination stage and determined in the rectangular area determination stage in this loop When the difference in size with the rectangular area is within the threshold, or when the rectangular area has been redetermined more than the specified number of loops for the same frame, or the size of the determined rectangular area exceeds the specified size The rectangular area determined this time in the rectangular area determination stage is the tracking result of the object in the current frame, and the predetermined color area determination stage that returns to the captured image input stage and moves to calculation for the next frame;
Have

本発明は、予め指定した色とサイズを有する対象物を撮像した動画像を入力し、フレーム画像の色情報から所定の色が存在する確率分布を求め、確率分布の重心を中心とする矩形領域を求め、矩形領域の大きさが指定サイズを超えた等の、所定の終了条件が満たされた場合に、その矩形領域を対象物が存在する領域とするものである。   The present invention inputs a moving image obtained by capturing an object having a color and size designated in advance, obtains a probability distribution in which a predetermined color exists from color information of a frame image, and has a rectangular area centered on the center of gravity of the probability distribution. When a predetermined end condition is satisfied, for example, when the size of the rectangular area exceeds the specified size, the rectangular area is set as an area where the object exists.

上記の確率分布を求める際には、3次元距離情報、さらには動き情報を勘案した統合確率分布を求め、この確率分布から矩形領域を求めるようにすることもできる。   When obtaining the above probability distribution, it is also possible to obtain an integrated probability distribution in consideration of three-dimensional distance information and further motion information, and obtain a rectangular area from this probability distribution.

請求項1と6の発明によれば、探索矩形領域に上限値を設けることにより、複数の所定色領域をひとつの大きな所定色領域として誤認識することを防ぐことができる。   According to the first and sixth aspects of the present invention, it is possible to prevent a plurality of predetermined color areas from being erroneously recognized as one large predetermined color area by providing an upper limit value in the search rectangular area.

請求項2、3、7、8の発明によれば、確率分布の計算方法として、所定色情報のみによる確率分布だけでなく、距離情報による確率分布を考慮したり(請求項2)、さらには動き情報による確率分布(請求項3)も考慮し、これらを統合した確率分布を用いることにより、認識率を高めることができる。ここで、距離情報による確率分布では、前フレームで探索した対象物の距離を元に、現フレームで対象物が存在するであろう距離の制約をダイナミックに与えることになる。また、動き情報による確率分布では、入力画像上で動きのある所定色領域のみに追跡対象を限定することになる。   According to the inventions of claims 2, 3, 7, and 8, as a probability distribution calculation method, not only a probability distribution based only on predetermined color information but also a probability distribution based on distance information is considered (claim 2), Considering the probability distribution based on the motion information (Claim 3) and using the probability distribution obtained by integrating these, the recognition rate can be increased. Here, the probability distribution based on the distance information dynamically gives a constraint on the distance at which the object will exist in the current frame based on the distance of the object searched in the previous frame. In the probability distribution based on the motion information, the tracking target is limited to only a predetermined color region having a motion on the input image.

請求項4、9の発明によれば、矩形領域が指定値より大きくなった場合には、対象物の追跡に失敗したとみなすことができるので、この場合、第1の確率分布のみを考慮することで所定色領域のみの探索に特化した探索を行うことにより、追跡に失敗した対象物を再探索しやすくなる。   According to the fourth and ninth aspects of the present invention, if the rectangular area becomes larger than the specified value, it can be considered that the tracking of the object has failed. In this case, only the first probability distribution is considered. Thus, by performing a search specialized for searching only the predetermined color region, it becomes easy to re-search for an object that has failed to be tracked.

請求項5の発明によれば、第3の確率分布値の最大値が小さい場合には、その確率分布を無視するようにすれば、対象物が止まっていても追跡を続けることが可能となる。また、第2の確率分布の距離情報の計算に失敗し、前フレームの値から極端に変化した場合でも、それを無視することで、距離情報計算の精度に対してもロバストに対象物を追跡することが可能となる。   According to the invention of claim 5, when the maximum value of the third probability distribution value is small, if the probability distribution is ignored, the tracking can be continued even if the object is stopped. . In addition, even if the calculation of distance information of the second probability distribution fails and changes significantly from the value of the previous frame, by ignoring it, the object can be tracked robustly with respect to the accuracy of the distance information calculation. It becomes possible to do.

次に、本発明の実施の形態について図面を参照して説明する。以下の実施形態では、対象物を「手」、その色を「肌色」に限定したものであるが、本発明はこれに限定されるものではないことは言うまでもない。   Next, embodiments of the present invention will be described with reference to the drawings. In the following embodiments, the object is limited to “hand” and the color is limited to “skin color”, but it goes without saying that the present invention is not limited to this.

[第1の実施形態]
図1を参照すると、本発明の第1の実施形態による手位置追跡装置は、撮像部11、12と画像入力部13と肌色確率分布計算部14と矩形領域決定部15と肌色領域判定部16とデータ記憶部17とで構成される。肌色確率分布計算部14は、図2に示すように、第1確率分布計算部21と距離情報作成部22と第2確率分布計算部23と統合確率分布計算部24で構成されている。
[First Embodiment]
Referring to FIG. 1, the hand position tracking apparatus according to the first embodiment of the present invention includes an imaging unit 11, an image input unit 13, a skin color probability distribution calculation unit 14, a rectangular region determination unit 15, and a skin color region determination unit 16. And a data storage unit 17. As shown in FIG. 2, the skin color probability distribution calculation unit 14 includes a first probability distribution calculation unit 21, a distance information creation unit 22, a second probability distribution calculation unit 23, and an integrated probability distribution calculation unit 24.

次に、本実施形態の手位置追跡装置の処理の流れを図3、図4も参照して説明する。   Next, the processing flow of the hand position tracking device of this embodiment will be described with reference to FIGS.

まず、第1フレームではあらかじめ指定した矩形領域を、第2フレーム以降は前フレームでの矩形領域を、初期領域として与える(ステップ101)。   First, a rectangular area designated in advance in the first frame and a rectangular area in the previous frame in the second and subsequent frames are given as initial areas (step 101).

肌色確率分布計算部14では、図4に示したように、以下の手順で全画素位置(x,y)の肌色確率値P(x,y)を計算する(ステップ102)。得られた全画素の肌色確率値が肌色確率分布を表わす。   As shown in FIG. 4, the skin color probability distribution calculation unit 14 calculates the skin color probability value P (x, y) at all pixel positions (x, y) according to the following procedure (step 102). The obtained skin color probability values of all the pixels represent the skin color probability distribution.

1.第1の確率分布計算部21では、肌色らしさを、あらかじめ決めておく色と0から255の値(255が最も肌色に近い)で与えられる確率値との関係から第1の確率分布値Pc(x,y)として計算する(ステップ201)。 1. In the first probability distribution calculation unit 21, the first probability distribution value P c is determined from the relationship between a predetermined color and a probability value given by a value from 0 to 255 (255 is closest to the skin color). Calculate as (x, y) (step 201).

ここでは、肌色確率分布値Pc(x,y)を以下のように計算する。まず、図5に示すように、手が写っている画像を撮像部11で撮影し、図6に示すように、その撮影画像上の手のひら内の矩形領域を肌色領域として人手により指定する。指定された肌色領域内の全画素について、RGB表色系からHSV表色系への変換を行い、S,V値が閾値内である全H値についてヒストグラムを作成する。作成したヒストグラムのイメージを図7に示す。その後、得られたヒストグラムに対し、最大値が255となるように正規化する。それが、S,Vの閾値を満たす全Hに対する肌色確率値を表わすグラフとなり、Pc(x,y)は以下の式で表わすことができる。 Here, the skin color probability distribution value P c (x, y) is calculated as follows. First, as shown in FIG. 5, an image showing a hand is photographed by the imaging unit 11, and as shown in FIG. 6, a rectangular region in the palm of the photographed image is manually designated as a skin color region. The RGB color system is converted to the HSV color system for all pixels in the specified skin color area, and a histogram is created for all H values whose S and V values are within the threshold values. An image of the created histogram is shown in FIG. Thereafter, the obtained histogram is normalized so that the maximum value is 255. This is a graph representing the skin color probability values for all H satisfying the threshold values of S and V, and P c (x, y) can be represented by the following equation.

Figure 2007233544
Figure 2007233544

ここで、Vh(H)が、上述のグラフ値を表わす関数である。この、Vh(H)の値を直接、データ記憶部17内にルックアップテーブルとして持つことにより、各値をそのまま保持し、Hに対する値として引用できる。また、例えばガウス関数のような近似式を用いて関数式として表わせば、その式から求めることも可能となる。 Here, V h (H) is a function representing the above-described graph value. By holding the value of V h (H) directly in the data storage unit 17 as a lookup table, each value can be held as it is and can be cited as a value for H. Further, if an approximate expression such as a Gaussian function is used to express it as a function expression, it can be obtained from the expression.

2.距離情報作成部22では、3次元距離情報の取得方法として公知の技術の1つであるステレオ視の手法を使ってフレーム画像の距離情報を作成する(ステップ202)。ステレオ視には、撮像部12からの画像も使用する。この時、2つ以上の画像から同一の点が撮影されている画像上の位置を画像の類似度から判定し、複数画像間での位置のずれ(視差)から三角測量の原理で基準画像上での撮像部11からの距離を求める。   2. The distance information creation unit 22 creates distance information of a frame image using a stereo vision technique which is one of known techniques as a method for acquiring three-dimensional distance information (step 202). An image from the imaging unit 12 is also used for stereo viewing. At this time, the position on the image where the same point is photographed from two or more images is determined based on the similarity of the images, and on the reference image based on the principle of triangulation from the positional deviation (parallax) between multiple images. The distance from the imaging unit 11 at is obtained.

以下では、図8に示すように、撮像部(カメラ)が2つで、平行に置いてある場合を例として説明する。時間的に同期された、一定距離Bだけ離れて、水平方向に平行に置かれたカメラ11(右)とカメラ12(左)で撮像した2枚のカメラ画像の視差を、カメラから撮像対象(手)までの距離情報とする。   Hereinafter, as shown in FIG. 8, a case where two imaging units (cameras) are arranged in parallel will be described as an example. The parallax between two camera images captured by the camera 11 (right) and the camera 12 (left), which are synchronized in time and separated by a certain distance B and parallel to the horizontal direction, is captured from the camera ( Distance information.

視差の計算の方法としては、例えば以下のような方法がある(図8)。カメラ11を基準として、カメラ11で撮像されたカメラ画像(基準画像)とカメラ12で撮像されたカメラ画像(参照画像)とで特定の大きさの画像小領域(ブロック)同士の類似度を計算することによって、対応する画素を求めるブロックマッチングを行うことで視差を計算する。視差をdとした時、カメラ11、12と撮像物体間の距離Zは、カメラ11、12の焦点距離をfとして、Z=f×B/d、となる。ここで、d=u−u’であり、Bはカメラ11とカメラ12との距離である。距離情報は、同時刻に撮像されたカメラ11の画像とカメラ12の画像との視差dを、画像全体の各画素の画素値で表現することで生成される。この視差は、その値が大きいほど人物の位置がカメラ11に近いことを表わし、値が小さいほど人物の位置がカメラ11から遠いことを表わしている。   As a parallax calculation method, for example, there is the following method (FIG. 8). Using the camera 11 as a reference, the similarity between image small regions (blocks) of a specific size is calculated between the camera image (reference image) captured by the camera 11 and the camera image (reference image) captured by the camera 12. By doing so, the parallax is calculated by performing block matching to find the corresponding pixel. When the parallax is d, the distance Z between the cameras 11 and 12 and the imaging object is Z = f × B / d, where f is the focal length of the cameras 11 and 12. Here, d = u−u ′, and B is the distance between the camera 11 and the camera 12. The distance information is generated by expressing the parallax d between the image of the camera 11 and the image of the camera 12 captured at the same time as the pixel value of each pixel of the entire image. This parallax indicates that the position of the person is closer to the camera 11 as the value is larger, and the position of the person is farther from the camera 11 as the value is smaller.

なお、距離情報作成手段は上記に限定されるものではなく、例えば、Point Grey Reserch Inc. Digiclopsのような市販のステレオ視用カメラを用いて距離情報を作成することもできる。   The distance information creating means is not limited to the above, and for example, Point Gray Research Inc. The distance information can also be created by using a commercially available stereo vision camera such as Digitallops.

3.第2の確率分布計算部23では、距離情報作成部22で作成された(または前フレームで探索された)カメラ11から手までの距離dを中心に、指定範囲内にある距離は1、それ以外の場合は0とする第2の確率分布値Pd(x,y)を計算する(ステップ203、図9)。 3. In the second probability distribution calculation unit 23, the distance within the specified range is 1 around the distance d from the camera 11 created by the distance information creation unit 22 (or searched in the previous frame) to the hand, Otherwise, the second probability distribution value P d (x, y) is calculated as 0 (step 203, FIG. 9).

3.統合確率分布計算部24では、以下の係数a,bを用いた関数で統合確率分布P(x,y)を計算する(ステップ204)。   3. The integrated probability distribution calculation unit 24 calculates the integrated probability distribution P (x, y) with a function using the following coefficients a and b (step 204).

Figure 2007233544
Figure 2007233544

矩形領域決定部15では、上記で求めた統合確率分布P(x,y)を使って、矩形領域の重心位置を計算し、また次の矩形領域の一辺の大きさlx,lyを計算する(ステップ103)。矩形領域の重心位置(xc,yc)は、以下の式で計算できる。 The rectangular area determination unit 15 calculates the center of gravity position of the rectangular area using the integrated probability distribution P (x, y) obtained above, and calculates the size l x and l y of one side of the next rectangular area. (Step 103). The gravity center position (x c , y c ) of the rectangular area can be calculated by the following equation.

Figure 2007233544
Figure 2007233544

この時、矩形領域の幅lwと高さlhは、Pmaxを確率値の最大値として、 At this time, the width l w and the height l h of the rectangular area are set with P max as the maximum probability value.

Figure 2007233544
Figure 2007233544

で表わす。ここで、αとβは、手の大きさの縦横比で決まる係数である。 It expresses by. Here, α and β are coefficients determined by the aspect ratio of the size of the hand.

肌色領域判定部16では、以下の3条件について判定を行い、1つでも満たされればそのフレームでの処理を終了し、その時点での矩形領域を手の追跡結果とする(ステップ104)。1つも満たされない場合は、その時点での矩形領域を初期値とし、現フレームに対して矩形領域の再計算処理を繰り返す。   The skin color area determination unit 16 determines the following three conditions, and if at least one of the conditions is satisfied, the process for the frame is terminated, and the rectangular area at that time is used as a hand tracking result (step 104). If none is satisfied, the rectangular area at that time is set as an initial value, and the recalculation process of the rectangular area is repeated for the current frame.

1)前ループでの矩形領域と矩形領域決定部15で計算した矩形領域との大きさの差分が閾値以内の場合。ループ間での、矩形領域の差分が小さければ、それは矩形領域が収束したと判断することができるため、処理を終了する。   1) When the difference in size between the rectangular area in the previous loop and the rectangular area calculated by the rectangular area determining unit 15 is within the threshold. If the difference between the rectangular areas between the loops is small, it can be determined that the rectangular area has converged, and thus the process ends.

2)同一フレームに対し、指定ループ回数以上の矩形領域再計算処理を行った場合。これは、指定ループ回数以上計算を行っても収束できなかったということで、これ以上計算を繰り返すのを止め、次フレームの計算を行ったほうがよいと判断することができるため、処理を終了する。   2) When rectangular area recalculation processing is performed for the same frame more than the specified number of loops. This is because the calculation could not be converged even if the calculation was performed more than the specified number of loops, so it can be determined that it is better to stop calculating further and calculate the next frame. .

3)矩形領域の大きさが指定サイズよりも大きくなった場合。矩形領域が、想定していた手の大きさである指定サイズよりも明らかに大きくなった場合には、そのフレーム画像では、手を追跡するのに失敗と判断することができるため、処理を終了する。   3) When the size of the rectangular area is larger than the specified size. If the rectangular area is clearly larger than the specified size, which is the size of the hand that was assumed, the frame image can be determined to have failed to track the hand, so the process is terminated. To do.

なお、本実施形態における第2の確率分布の計算方法は上記に限られない。例えば、dを中心とした台形関数やガウス関数を使うことも考えられる。   In addition, the calculation method of the 2nd probability distribution in this embodiment is not restricted above. For example, it is possible to use a trapezoidal function or a Gaussian function centered on d.

また、肌色確率値P(x,y)も上式に限られない。それぞれの確率分布値が独立に強調されるような式ならばよい。例えば、下記のような線形和関数を使うことも考えられる。   Further, the skin color probability value P (x, y) is not limited to the above formula. Any expression that emphasizes each probability distribution value independently may be used. For example, the following linear sum function may be used.

Figure 2007233544
Figure 2007233544

なお、データ記憶部17には、上記ルックアップテーブルの他に、矩形領域情報、各確率分布情報、処理のループ回数情報などの情報が記憶される。   In addition to the lookup table, the data storage unit 17 stores information such as rectangular area information, probability distribution information, and processing loop count information.

[第2の実施形態]
図10は本発明の第2の実施形態による手位置追跡装置の肌色確率分布計算部のブロック図、図11はその処理の流れを示すフローチャートである。
[Second Embodiment]
FIG. 10 is a block diagram of the flesh color probability distribution calculation unit of the hand position tracking apparatus according to the second embodiment of the present invention, and FIG. 11 is a flowchart showing the processing flow.

本実施形態は、第1の実施形態で計算する第1および第2の確率分布に加え、第3の確率分布として動き情報を用いるものである。   In this embodiment, motion information is used as the third probability distribution in addition to the first and second probability distributions calculated in the first embodiment.

ここで、第3確率分布計算部25は、動き情報による確率Pm(x,y)を以下のように計算する(ステップ205)。 Here, the third probability distribution calculation unit 25 calculates the probability P m (x, y) based on the motion information as follows (step 205).

m(x,y)= 1 :前フレームとの色の差分値が閾値以上の場合
0 :前フレームとの色の差分値が閾値未満の場合
なお、本実施形態における、第3の確率分布の計算方法は上記に限られない。例えば、複数の隣接フレーム間の動き(フレーム間の差分値)を考慮したり、直近のフレーム間の動き情報は大きく、そうでないフレーム間の動き情報は小さく考慮する場合も考えられる。
P m (x, y) = 1: When the color difference value from the previous frame is greater than or equal to the threshold value
0: When the color difference value with respect to the previous frame is less than the threshold value The method of calculating the third probability distribution in the present embodiment is not limited to the above. For example, it may be considered that motion between a plurality of adjacent frames (difference value between frames) is considered, or motion information between the latest frames is large and motion information between other frames is small.

また、この場合、矩形領域決定部15で計算される、画素(x,y)の確率値P(x,y)は、以下の式で表わされる。   In this case, the probability value P (x, y) of the pixel (x, y) calculated by the rectangular area determination unit 15 is expressed by the following expression.

Figure 2007233544
Figure 2007233544

この場合も第1の実施形態と同様に、肌色確率値P(x,y)は上式に限られない。下のような線形和関数を使うことも考えられる。   In this case, as in the first embodiment, the skin color probability value P (x, y) is not limited to the above equation. It is also possible to use the following linear sum function.

Figure 2007233544
Figure 2007233544

[第3の実施形態]
図12は本発明の第3の実施形態による手位置追跡装置のブロック図、図13はその処理の流れを示すフローチャートである。
[Third Embodiment]
FIG. 12 is a block diagram of a hand position tracking apparatus according to the third embodiment of the present invention, and FIG. 13 is a flowchart showing the processing flow.

本実施形態では、第1、2の実施形態に対して係数決定部18をさらに有し、確率値P(x,y)を計算するための係数a,b,cが領域判定結果に従い、変化する(ステップ105)ことが異なっている。   In the present embodiment, the coefficient determination unit 18 is further added to the first and second embodiments, and the coefficients a, b, and c for calculating the probability value P (x, y) vary according to the region determination result. (Step 105) is different.

ここで、追跡の最初、および矩形領域が最大値となっている場合は、
a=1,b=c=0
として、第1の確率分布である肌色のみを考慮し、それ以外の通常に手を追跡している状態では、
a=b=c=1
として、距離と動きの両方を考慮する。
さらには、肌色領域の動きが小さく、第3の確率分布値が閾値以下となった場合には、
a=b=1,c=0
として、動きを考慮しないようにする。
Here, at the beginning of tracking and when the rectangular area is the maximum value,
a = 1, b = c = 0
In the state where only the skin color that is the first probability distribution is considered and the hand is normally tracked,
a = b = c = 1
As such, consider both distance and movement.
Furthermore, when the movement of the skin color area is small and the third probability distribution value is equal to or less than the threshold value,
a = b = 1, c = 0
As such, do not consider movement.

以上において、a,b,cの値の組合せはこれに限られない。   In the above, the combination of the values of a, b, and c is not limited to this.

例えば、ステレオ視による距離の計算が不安定で距離dの時系列変化が大きい場合に、b=0とすることも考えられるし、動き情報を軽視するため定常的に、c=0.5といった小さな値にすることも考えられる。   For example, if the distance calculation by stereo vision is unstable and the time series change of the distance d is large, b = 0 may be considered, and c = 0.5 is regularly used to neglect the motion information. A small value can be considered.

本実施形態におけるa,b,cを0または0以外の定数に設定する例では、PがPc,Pd,Pmの線形和の形で求められる場合には、a,b,cの値を直接、Pの式に代入することにより、Pの値を算出できる。Pを数2のように、Pc,Pd,Pmの積で求める場合には、a、b、cのいずれかが0の場合、P=0となってしまうため、算出式を以下のようにすることも考えられる。   In the example in which a, b, and c are set to 0 or a constant other than 0 in this embodiment, when P is obtained in the form of a linear sum of Pc, Pd, and Pm, the values of a, b, and c are directly set. By substituting into the expression of P, the value of P can be calculated. When P is calculated by the product of Pc, Pd, and Pm as in Equation 2, if any of a, b, and c is 0, P = 0, so the calculation formula is as follows: It is also possible to do.

Figure 2007233544
Figure 2007233544

なお、本発明の対象物位置追跡装置は、その機能を実現するためのプログラムを、コンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータに読み込ませ、実行するものであってもよい。コンピュータ読み取り可能な記録媒体とは、フレキシブルディスク、光磁気ディスク、CD−ROM等の記録媒体、コンピュータシステムに内蔵されるハードディスク装置等の記憶装置を指す。さらに、コンピュータ読み取り可能な記録媒体は、インターネットを介してプログラムを送信する場合のように、短時間、動的にプログラムを保持するもの(伝送媒体もしくは伝送波)、その場合のサーバとなるコンピュータ内の揮発性メモリのように、一定時間プログラムを保持しているものを含む。   Note that the object position tracking apparatus of the present invention records a program for realizing the function on a computer-readable recording medium, and causes the computer to read and execute the program recorded on the recording medium. It may be. The computer-readable recording medium refers to a recording medium such as a flexible disk, a magneto-optical disk, and a CD-ROM, and a storage device such as a hard disk device built in a computer system. Further, the computer-readable recording medium is a medium that dynamically holds the program for a short time (transmission medium or transmission wave) as in the case of transmitting the program via the Internet, and in the computer serving as a server in that case Such as a volatile memory that holds a program for a certain period of time.

本発明の第1の実施形態による手位置追跡装置のブロック図である。1 is a block diagram of a hand position tracking device according to a first embodiment of the present invention. FIG. 肌色確率分布計算部のブロック図である。It is a block diagram of a skin color probability distribution calculation part. 第1の実施形態による手位置追跡装置の全体の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the whole process of the hand position tracking apparatus by 1st Embodiment. 第1の実施形態における肌色確率分布計算部の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the skin color probability distribution calculation part in 1st Embodiment. 手が写っている画像を撮像部で撮影する様子を示す図である。It is a figure which shows a mode that the image in which the hand is reflected is image | photographed with an imaging part. 肌色領域を示す図である。It is a figure which shows a skin color area | region. S、V値が閾値内である全H値のヒストグラムである。It is a histogram of all H values in which S and V values are within threshold values. ステレオ視による距離計算のイメージ図である。It is an image figure of distance calculation by stereo vision. 第1の実施形態における第2の確率分布の計算式を表わすイメージ図である。It is an image figure showing the calculation formula of the 2nd probability distribution in 1st Embodiment. 本発明の第2の実施形態による手位置追跡装置における肌色確率分布計算部のブロック図である。It is a block diagram of the skin color probability distribution calculation part in the hand position tracking apparatus by the 2nd Embodiment of this invention. 第2の実施形態における肌色確率分布計算部の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the skin color probability distribution calculation part in 2nd Embodiment. 本発明の第3の実施形態による手位置追跡装置のブロック図である。It is a block diagram of the hand position tracking apparatus by the 3rd Embodiment of this invention. 第3の実施形態による手位置追跡装置の全体の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the whole process of the hand position tracking apparatus by 3rd Embodiment.

符号の説明Explanation of symbols

11 撮像部
12 撮像部
13 画像入力部
14 肌色確率分布計算部
15 矩形領域決定部
16 肌色領域判定部
17 データ記憶部
18 係数決定部
21 第1確率分布計算部
22 距離情報作成部
23 第2確率分布計算部
24 統合確率分布計算部
25 第3確率分布計算部
101〜105、201〜205 ステップ
DESCRIPTION OF SYMBOLS 11 Image pick-up part 12 Image pick-up part 13 Image input part 14 Skin color probability distribution calculation part 15 Rectangular area determination part 16 Skin color area determination part 17 Data storage part 18 Coefficient determination part 21 1st probability distribution calculation part 22 Distance information creation part 23 2nd probability Distribution calculation unit 24 Integrated probability distribution calculation unit 25 Third probability distribution calculation unit 101-105, 201-205 steps

Claims (10)

撮像手段によって撮像対象を撮像した撮像動画像上の予め指定された所定の色とサイズの領域を追跡することによって対象物の位置を追跡する方法であって、
該撮像手段で撮像された各フレームの撮像画像を入力する撮像画像入力段階と、
前記所定の色が存在する確率の計算式、または画素値と該確率との関係を表わすルックアップテーブルを用いて、指定された矩形領域内での前記所定の色の確率分布を計算する所定色確率分布計算段階と、
前記確率分布の重心を中心とし、かつ確率分布値の総和M00と確率分布の最大値をPmaxとした時、矩形領域の一辺の幅lw,高さlhが、M00とPmaxの関数lw=fw(M00,Pmax),lh=fh(M00,Pmax),で与えられるように、矩形領域を決定する矩形領域決定段階と、
前記撮像画像入力段階と前記所定色確率分布計算段階と前記矩形領域決定段階で行われる処理の前回のループで前記矩形領域決定段階で決定された矩形領域の大きさと今回のループで前記矩形領域決定段階で決定された矩形領域との大きさの差分が閾値以内、または同一フレームに対し指定されたループ回数以上の矩形領域の再決定を行った、または決定された矩形領域の大きさが指定サイズを超えた場合に、前記矩形領域決定段階で今回決定された矩形領域を現フレームでの前記対象物の追跡結果とし、前記撮像画像入力段階に戻り、次フレームに対する計算に移る所定色領域判定段階と、
を有する対象物位置追跡方法。
A method of tracking the position of an object by tracking an area of a predetermined color and size specified in advance on an imaged moving image obtained by imaging an imaging object by an imaging means,
A captured image input stage for inputting a captured image of each frame imaged by the imaging means;
Predetermined color for calculating the probability distribution of the predetermined color in a specified rectangular area using a formula for calculating the probability that the predetermined color exists or a look-up table representing the relationship between a pixel value and the probability A probability distribution calculation stage;
When the center of gravity of the probability distribution is at the center and the sum M 00 of probability distribution values and the maximum value of the probability distribution are P max , the width l w and height l h of one side of the rectangular area are M 00 and P max. A rectangular area determining step for determining a rectangular area as given by: l w = f w (M 00 , P max ), l h = f h (M 00 , P max ),
The size of the rectangular area determined in the rectangular area determination stage in the previous loop of the processing performed in the captured image input stage, the predetermined color probability distribution calculation stage, and the rectangular area determination stage, and the rectangular area determination in the current loop. The difference in size from the rectangular area determined in the stage is within the threshold value, or the rectangular area has been redetermined more than the specified number of loops for the same frame, or the size of the determined rectangular area is the specified size A predetermined color region determination step in which the rectangular region determined this time in the rectangular region determination step is used as the tracking result of the object in the current frame, and the process returns to the captured image input step and proceeds to calculation for the next frame. When,
An object position tracking method comprising:
前記所定色確率分布計算段階は、
前記計算式またはルックアップテーブルを用いて計算した値を第1の確率分布とする第1の確率分布計算段階と、
3次元距離情報取得技術によって撮像画像の各画素の距離情報を作成する距離情報作成段階と、
前フレームでの距離情報から、現フレームでの距離的な確率分布を計算する距離の確率分布を第2の確率分布として計算する第2の確率分布計算段階と、
これら第1の確率分布と第2の確率分布を変数とする関数で確率分布を計算する統合確率分布計算段階と、
を含む、請求項1に記載の対象物位置追跡方法。
The predetermined color probability distribution calculation step includes:
A first probability distribution calculating step in which a value calculated using the calculation formula or the lookup table is a first probability distribution;
A distance information creation step of creating distance information of each pixel of the captured image by a three-dimensional distance information acquisition technique;
A second probability distribution calculation stage for calculating a distance probability distribution for calculating a distance probability distribution in the current frame from the distance information in the previous frame as a second probability distribution;
An integrated probability distribution calculation stage for calculating a probability distribution with a function having the first probability distribution and the second probability distribution as variables;
The object position tracking method according to claim 1, comprising:
前記所定色確率分布計算段階は、
前記計算式またはルックアップテーブルを用いて計算した値を第1の確率分布とする第1の確率分布計算段階と、
3次元距離情報取得技術によって撮像画像の各画素の距離情報を作成する距離情報作成段階と、
前フレームでの距離情報から、現フレームでの距離的な確率分布を計算する距離の確率分布を第2の確率分布として計算する第2の確率分布計算段階と、
現フレームより前の複数の連続したフレームの画像列に対し、隣接する2フレーム間の画像毎の各画素値の差分絶対値の総和が一定値以上である画像上の点を抽出することにより生成する動き情報を用いて、第3の確率分布として動きの確率分布を生成する第3の確率分布計算段階と、
前記第1、第2、第3の確率分布を変数とする関数で確率分布を計算する統合確率分布計算段階と、
を含む、請求項1に記載の対象物位置追跡方法。
The predetermined color probability distribution calculation step includes:
A first probability distribution calculating step in which a value calculated using the calculation formula or the lookup table is a first probability distribution;
A distance information creation step of creating distance information of each pixel of the captured image by a three-dimensional distance information acquisition technique;
A second probability distribution calculation stage for calculating a distance probability distribution for calculating a distance probability distribution in the current frame from the distance information in the previous frame as a second probability distribution;
Generated by extracting the points on the image where the sum of absolute differences of each pixel value for each image between two adjacent frames is greater than or equal to a certain value for an image sequence of a plurality of consecutive frames before the current frame A third probability distribution calculation stage for generating a motion probability distribution as a third probability distribution using the motion information to be
An integrated probability distribution calculating step of calculating a probability distribution with a function having the first, second and third probability distributions as variables;
The object position tracking method according to claim 1, comprising:
前記統合確率分布計算段階では、前記矩形領域が指定サイズよりも大きい場合には、第1の確率分布のみを確率分布とする、請求項2または3に記載の対象物位置追跡方法。   4. The object position tracking method according to claim 2, wherein, in the integrated probability distribution calculation step, when the rectangular area is larger than a specified size, only the first probability distribution is set as the probability distribution. 5. 前記統合確率分布計算段階は、前記矩形領域の大きさ、各確率分布の計算結果の少なくとも1つに基づき、確率分布を計算する関数をダイナミックに変化させる、請求項2または3に記載の対象物位置追跡方法。   4. The object according to claim 2, wherein the integrated probability distribution calculation step dynamically changes a function for calculating the probability distribution based on at least one of a size of the rectangular area and a calculation result of each probability distribution. Location tracking method. 撮像手段によって撮像対象を撮像した撮像動画像上の予め指定された所定の色とサイズの領域を追跡することによって対象物の位置を追跡する装置であって、
該撮像手段で撮像された各フレームの撮像画像を入力する撮像画像入力手段と、
前記所定の色が存在する確率の計算式、または画素値と該確率との関係を表わすルックアップテーブルを用いて、指定された矩形領域内での前記所定の色の確率分布を計算する所定色確率分布計算手段と、
前記確率分布の重心を中心とし、かつ確率分布値の総和M00と確率分布の最大値をPmaxとした時、矩形領域の一辺の幅lw,高さlhが、M00とPmaxの関数lw=fw(M00,Pmax),lh=fh(M00,Pmax),で与えられるように、矩形領域を決定する矩形領域決定手段と、
前記撮像画像入力手段と前記所定色確率分布計算手段と前記矩形領域決定手段で順次行われる処理の前回のループで前記矩形領域決定手段で決定された矩形領域の大きさと今回のループで前記矩形領域決定手段で決定された矩形領域との大きさの差分が閾値以内、または同一フレームに対し指定されたループ回数以上の矩形領域の再決定を行った、または決定された矩形領域の大きさが指定サイズを超えた場合に、前記矩形領域決定手段で今回決定された矩形領域を現フレームでの前記対象物の追跡結果とし、前記撮像画像入力手段に戻り、次フレームに対する計算に移る所定色領域判定手段と、
を有する対象物位置追跡装置。
An apparatus for tracking the position of an object by tracking an area of a predetermined color and size specified in advance on an imaging moving image obtained by imaging an imaging object by an imaging means,
Captured image input means for inputting a captured image of each frame imaged by the imaging means;
Predetermined color for calculating the probability distribution of the predetermined color in a specified rectangular area using a formula for calculating the probability that the predetermined color exists or a look-up table representing the relationship between a pixel value and the probability A probability distribution calculation means;
When the center of gravity of the probability distribution is at the center and the sum M 00 of probability distribution values and the maximum value of the probability distribution are P max , the width l w and height l h of one side of the rectangular area are M 00 and P max. A rectangular area determining means for determining a rectangular area as given by the function l w = f w (M 00 , P max ), l h = f h (M 00 , P max ),
The size of the rectangular area determined by the rectangular area determining means in the previous loop of the processing sequentially performed by the captured image input means, the predetermined color probability distribution calculating means, and the rectangular area determining means, and the rectangular area in the current loop The difference in size from the rectangular area determined by the determining means is within the threshold value, or the rectangular area that has been redetermined or exceeds the specified number of loops for the same frame, or the size of the determined rectangular area is specified. When the size is exceeded, the rectangular area determined this time by the rectangular area determining means is set as the tracking result of the object in the current frame, and the process returns to the captured image input means, and the predetermined color area determination moves to the calculation for the next frame. Means,
An object position tracking device.
前記所定色確率分布計算手段は、
前記計算式またはルックアップテーブルを用いて計算した値を第1の確率分布とする第1の確率分布計算手段と、
3次元距離情報取得技術によって撮像画像の各画素の距離情報を作成する距離情報作成手段と、
前フレームでの距離情報から、現フレームでの距離的な確率分布を計算する距離の確率分布を第2の確率分布として計算する第2の確率分布計算手段と、
これら第1の確率分布と第2の確率分布を変数とする関数で確率分布を計算する統合確率分布計算手段と、
を含む、請求項6に記載の対象物位置追跡装置。
The predetermined color probability distribution calculating means includes:
A first probability distribution calculating means for setting a value calculated using the calculation formula or the lookup table as a first probability distribution;
Distance information creating means for creating distance information of each pixel of the captured image by a three-dimensional distance information acquisition technique;
A second probability distribution calculating means for calculating a distance probability distribution for calculating a distance probability distribution in the current frame from the distance information in the previous frame as a second probability distribution;
An integrated probability distribution calculating means for calculating the probability distribution using a function having the first probability distribution and the second probability distribution as variables;
The object position tracking device according to claim 6, comprising:
前記所定色確率分布計算手段は、
前記計算式またはルックアップテーブルを用いて計算した値を第1の確率分布とする第1の確率分布計算手段と、
3次元距離情報取得技術によって撮像画像の各画素の距離情報を作成する距離情報作成手段と、
前フレームでの距離情報から、現フレームでの距離的な確率分布を計算する距離の確率分布を第2の確率分布として計算する第2の確率分布計算手段と、
現フレームより前の複数の連続したフレームの画像列に対し、隣接する2フレーム間の画像毎の各画素値の差分絶対値の総和が一定値以上である画像上の点を抽出することにより生成する動き情報を用いて、第3の確率分布として動きの確率分布を生成する第3の確率分布計算手段と、
前記第1、第2、第3の確率分布を変数とする関数で確率分布を計算する統合確率分布計算手段と、
を含む、請求項6に記載の対象物位置追跡装置。
The predetermined color probability distribution calculating means includes:
A first probability distribution calculating means for setting a value calculated using the calculation formula or the lookup table as a first probability distribution;
Distance information creating means for creating distance information of each pixel of the captured image by a three-dimensional distance information acquisition technique;
A second probability distribution calculating means for calculating a distance probability distribution for calculating a distance probability distribution in the current frame from the distance information in the previous frame as a second probability distribution;
Generated by extracting the points on the image where the sum of absolute differences of each pixel value for each image between two adjacent frames is greater than or equal to a certain value for an image sequence of a plurality of consecutive frames before the current frame Third probability distribution calculation means for generating a motion probability distribution as the third probability distribution using the motion information
An integrated probability distribution calculating means for calculating a probability distribution with a function having the first, second and third probability distributions as variables;
The object position tracking device according to claim 6, comprising:
前記統合確率分布計算手段は、前記矩形領域の大きさ、各確率分布の計算結果の少なくとも1つに基づき、確率分布を計算する関数をダイナミックに変化させる、請求項7または8に記載の対象物位置追跡装置。     The object according to claim 7 or 8, wherein the integrated probability distribution calculation means dynamically changes a function for calculating the probability distribution based on at least one of the size of the rectangular area and the calculation result of each probability distribution. Location tracking device. コンピュータに、請求項6から9のいずれかに記載の対象物位置追跡装置の各手段を実行させるための対象物位置追跡プログラム。   An object position tracking program for causing a computer to execute each means of the object position tracking device according to any one of claims 6 to 9.
JP2006052185A 2006-02-28 2006-02-28 Object position tracking method, apparatus, and program Active JP4559375B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006052185A JP4559375B2 (en) 2006-02-28 2006-02-28 Object position tracking method, apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006052185A JP4559375B2 (en) 2006-02-28 2006-02-28 Object position tracking method, apparatus, and program

Publications (2)

Publication Number Publication Date
JP2007233544A true JP2007233544A (en) 2007-09-13
JP4559375B2 JP4559375B2 (en) 2010-10-06

Family

ID=38554100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006052185A Active JP4559375B2 (en) 2006-02-28 2006-02-28 Object position tracking method, apparatus, and program

Country Status (1)

Country Link
JP (1) JP4559375B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009141475A (en) * 2007-12-04 2009-06-25 Nikon Corp Camera
JP2013512481A (en) * 2009-11-23 2013-04-11 インテル・コーポレーション Method, system, and computer-readable recording medium for adaptively tracking an object
JP2013065103A (en) * 2011-09-15 2013-04-11 Toshiba Corp Tracking apparatus, tracking method and program
JP2013142991A (en) * 2012-01-10 2013-07-22 Nippon Telegr & Teleph Corp <Ntt> Object area detection device, method and program
TWI692731B (en) * 2019-01-02 2020-05-01 瑞昱半導體股份有限公司 Object position determination circuit

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003303346A (en) * 2002-04-09 2003-10-24 Nippon Telegr & Teleph Corp <Ntt> Method, device and program for tracing target, and recording medium recording the program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003303346A (en) * 2002-04-09 2003-10-24 Nippon Telegr & Teleph Corp <Ntt> Method, device and program for tracing target, and recording medium recording the program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009141475A (en) * 2007-12-04 2009-06-25 Nikon Corp Camera
US8436900B2 (en) 2007-12-04 2013-05-07 Nikon Corporation Pattern matching camera
JP2013512481A (en) * 2009-11-23 2013-04-11 インテル・コーポレーション Method, system, and computer-readable recording medium for adaptively tracking an object
JP2013065103A (en) * 2011-09-15 2013-04-11 Toshiba Corp Tracking apparatus, tracking method and program
JP2013142991A (en) * 2012-01-10 2013-07-22 Nippon Telegr & Teleph Corp <Ntt> Object area detection device, method and program
TWI692731B (en) * 2019-01-02 2020-05-01 瑞昱半導體股份有限公司 Object position determination circuit

Also Published As

Publication number Publication date
JP4559375B2 (en) 2010-10-06

Similar Documents

Publication Publication Date Title
US20230418389A1 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
CN109891189B (en) Planned photogrammetry
US8233661B2 (en) Object tracking apparatus and object tracking method
JP4575829B2 (en) Display screen position analysis device and display screen position analysis program
JP6030617B2 (en) Image processing apparatus and image processing method
WO2010073432A1 (en) Image processing device and image processing method
KR101868903B1 (en) Apparatus and method for tracking human hand by using color features
EP2372654A1 (en) Object tracking apparatus, object tracking method, and control program
JP2015138554A (en) Target tracking method and device
JP5438601B2 (en) Human motion determination device and program thereof
JP4559375B2 (en) Object position tracking method, apparatus, and program
JP4496992B2 (en) Animal up-frame detection method, program, and storage medium storing program, and animal up-shot detection method, animal up-frame or shot detection method, program, and storage medium
JP2006244272A (en) Hand position tracking method, device and program
KR20150082417A (en) Method for initializing and solving the local geometry or surface normals of surfels using images in a parallelizable architecture
JP5468773B2 (en) Image processing apparatus and image processing method
KR102228639B1 (en) Apparatus and method for tracking hand motion
JP4971114B2 (en) Object recognition apparatus, object recognition method, object recognition program, and computer-readable medium storing the program
JP2016081095A (en) Subject tracking device, control method thereof, image-capturing device, display device, and program
JP5470529B2 (en) Motion detection device, motion detection method, and motion detection program
US10671881B2 (en) Image processing system with discriminative control
JP2016081252A (en) Image processor and image processing method
KR101534776B1 (en) A Template-Matching-Based High-Speed Face Tracking Method Using Depth Information
Madaras et al. Position estimation and calibration of inertial motion capture systems using single camera
CN111079618A (en) Three-dimensional tracking gesture observation likelihood modeling method and device
Przybyło Hand tracking algorithm for augmented reality systems

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100414

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100714

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100722

R150 Certificate of patent or registration of utility model

Ref document number: 4559375

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130730

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350