JP2007233544A - Object position tracking method, device, and program - Google Patents
Object position tracking method, device, and program Download PDFInfo
- Publication number
- JP2007233544A JP2007233544A JP2006052185A JP2006052185A JP2007233544A JP 2007233544 A JP2007233544 A JP 2007233544A JP 2006052185 A JP2006052185 A JP 2006052185A JP 2006052185 A JP2006052185 A JP 2006052185A JP 2007233544 A JP2007233544 A JP 2007233544A
- Authority
- JP
- Japan
- Prior art keywords
- probability distribution
- rectangular area
- calculating
- probability
- calculation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、例えば人間の手などの、予め指定された色とサイズを有する対象物の動きと位置によって、コンピュータ、家電等を操作するインタフェース方法に関する。 The present invention relates to an interface method for operating a computer, a household appliance, and the like by the movement and position of an object having a color and size specified in advance, such as a human hand.
素手を認識して手の動きと位置によってコンピュータや家電などを操作するインタフェースが研究されている。手の位置と動きで操作するインタフェースの利用シーンとしては、画面から少し離れた場所にユーザが複数いて、背景は特に規定しない普通の部屋などが想定され、また、ユーザが何も体に装着しなくても使えることが望ましい。さらに、手の動きに追随できる程度の実時間性が要求される。 An interface for recognizing a bare hand and operating a computer or a household appliance according to the movement and position of the hand has been studied. The usage scene of the interface operated by the position and movement of the hand is assumed to be a normal room where there are multiple users at a distance from the screen and the background is not specified, and the user wears nothing on the body. It is desirable that it can be used without it. Furthermore, real-time performance that can follow the movement of the hand is required.
このような状況で手の位置認識をすることは実は難しい。 It is actually difficult to recognize the hand position in such a situation.
アプローチとして、ステレオ視などの形状復元技術を利用し手の形状の特徴を検出する手法もあるが、直接手をクローズアップするなどの手段を用いなければ十分な精度で手の形状を認識することは困難である。クローズアップなどをせずに撮像する場合、人物全体の大まかな形状(カメラからの距離情報)を利用することとなる。しかし、大まかな形状のみでは手の認識が困難なため、誤認識が発生しやすい。また、3次元的に指差しを行うシステムの場合に、指先位置の計測誤差が指されている物体との距離に比例して拡大することによる指差し位置の誤認識も発生する。また、肌色情報を主に用いて手の位置を検出・追跡するものは、顔や周りの物体など手以外に条件に当てはまるものが出てきてしまうため、やはり誤認識が避けられない。 As an approach, there is a method of detecting the shape of the hand shape using shape restoration technology such as stereo vision, but the shape of the hand can be recognized with sufficient accuracy unless means such as direct close-up of the hand are used. It is difficult. When taking an image without performing close-up or the like, the rough shape (distance information from the camera) of the entire person is used. However, since it is difficult to recognize a hand only with a rough shape, erroneous recognition is likely to occur. In addition, in the case of a system that performs three-dimensional pointing, misrecognition of the pointing position also occurs because the measurement error of the fingertip position increases in proportion to the distance from the object being pointed. In addition, in the case of detecting / tracking the position of the hand mainly using skin color information, there are cases where the condition other than the hand such as the face and surrounding objects is met, and thus erroneous recognition cannot be avoided.
ここで、代表的な従来技術について説明する。 Here, a typical prior art will be described.
非特許文献1に記載の技術は、Continuously Adaptive Mean Shift(CAMSHIFT)と呼ばれるアルゴリズムを用いて対象物をリアルタイムに追跡するものであるが、前フレーム画像での肌色検出結果を表わす矩形領域を起点とし、近傍の指定肌色分布確率をとる矩形領域を、請求項1同様に位置と大きさを変えながら決定することにより、現フレームでの肌色領域を決定する。しかし、該アルゴリズムでは、取りうる矩形領域の大きさに制限を設けておらず、画像内に肌色領域がひとつの場合は比較的安定して追跡できるが、手が背景にある肌色物体の前を通過する場合には、通過直後に、両方の肌色領域を含んだ、大きな矩形領域を肌色領域として誤認識してしまうという問題があった。 The technique described in Non-Patent Document 1 tracks an object in real time using an algorithm called Continuously Adaptive Mean Shift (CAMSHIFT). Then, by determining a rectangular area having a specified skin color distribution probability in the vicinity while changing the position and size as in the first aspect, the skin color area in the current frame is determined. However, the algorithm does not limit the size of the rectangular area that can be taken, and if there is only one skin color area in the image, it can be tracked relatively stably, but the hand is in front of the skin color object in the background. In the case of passing, there is a problem that a large rectangular area including both skin color areas is erroneously recognized as a skin color area immediately after passing.
非特許文献2に記載の技術は、距離(一番手前にあるもの)と背景差分(カメラと手の間に置いてあるものなどは無視)と顔の近くにあるという条件と肌色情報を用いて手を認識するもので、顔検出は他人が肩越しに覗いている等の複雑な背景では操作者の特定が難しく、顔の誤認識の影響を強く受ける。
The technique described in Non-Patent
非特許文献3に記載の技術は、指定色マーカを持ったユーザが操作し、その指定色をとる領域に対し、前フレーム画像の位置をもとに現フレームでの位置を追跡する方法である。ここでは、背景にない色情報を使っており、背景に指定色がある場合は位置認識は失敗する。 The technique described in Non-Patent Document 3 is a method of tracking the position in the current frame based on the position of the previous frame image with respect to an area that takes the designated color, which is operated by a user having a designated color marker. . Here, color information that does not exist in the background is used, and position recognition fails if there is a designated color in the background.
非特許文献4に記載の技術は、非特許文献1の方法に、距離と動きによる制限を加え、背景に肌色領域がある場合も比較的安定して肌色物体を追跡することを可能とした。しかし、動きがある領域のみを追跡対象としているため手を止めると追跡に失敗し、また、距離の制限から指定距離範囲内に手を置かなければならないという制限があった。
本発明の目的は、類似色物体の誤認識を防ぎ、認識率を高めた対象物位置追跡方法、装置、およびプログラムを提供することにある。 An object of the present invention is to provide an object position tracking method, apparatus, and program that prevent erroneous recognition of similar color objects and increase the recognition rate.
本発明の対象物追跡方法は、
撮像手段によって撮像対象を撮像した撮像動画像上の予め指定された所定の色とサイズの領域を追跡することによって対象物の位置を追跡する方法であって、
該撮像手段で撮像された各フレームの撮像画像を入力する撮像画像入力段階と、
前記所定の色が存在する確率の計算式、または画素値と該確率との関係を表わすルックアップテーブルを用いて、指定された矩形領域内での前記所定の色の確率分布を計算する所定色確率分布計算段階と、
前記確率分布の重心を中心とし、かつ確率分布値の総和M00と確率分布の最大値をPmaxとした時、矩形領域の一辺の幅lw,高さlhが、M00とPmaxの関数lw=fw(M00,Pmax),lh=fh(M00,Pmax),で与えられるように、矩形領域を決定する矩形領域決定段階と、
撮像画像入力段階と所定色確率分布計算段階と矩形領域決定段階で行われる処理の前回のループで矩形領域決定段階で決定された矩形領域の大きさと今回のループで矩形領域決定段階で決定された矩形領域との大きさの差分が閾値以内、または同一フレームに対し指定されたループ回数以上の矩形領域の再決定を行った、または決定された矩形領域の大きさが指定サイズを超えた場合に、矩形領域決定段階で今回決定された矩形領域を現フレームでの前記対象物の追跡結果とし、撮像画像入力段階に戻り、次フレームに対する計算に移る所定色領域判定段階と、
を有する。
The object tracking method of the present invention includes:
A method of tracking the position of an object by tracking an area of a predetermined color and size specified in advance on an imaged moving image obtained by imaging an imaging object by an imaging means,
A captured image input stage for inputting a captured image of each frame imaged by the imaging means;
Predetermined color for calculating the probability distribution of the predetermined color in a specified rectangular area using a formula for calculating the probability that the predetermined color exists or a look-up table representing the relationship between a pixel value and the probability A probability distribution calculation stage;
When the center of gravity of the probability distribution is at the center and the sum M 00 of probability distribution values and the maximum value of the probability distribution are P max , the width l w and height l h of one side of the rectangular area are M 00 and P max. A rectangular area determining step for determining a rectangular area as given by: l w = f w (M 00 , P max ), l h = f h (M 00 , P max ),
The size of the rectangular area determined in the rectangular area determination stage in the previous loop of the processing performed in the captured image input stage, the predetermined color probability distribution calculation stage, and the rectangular area determination stage and determined in the rectangular area determination stage in this loop When the difference in size with the rectangular area is within the threshold, or when the rectangular area has been redetermined more than the specified number of loops for the same frame, or the size of the determined rectangular area exceeds the specified size The rectangular area determined this time in the rectangular area determination stage is the tracking result of the object in the current frame, and the predetermined color area determination stage that returns to the captured image input stage and moves to calculation for the next frame;
Have
本発明は、予め指定した色とサイズを有する対象物を撮像した動画像を入力し、フレーム画像の色情報から所定の色が存在する確率分布を求め、確率分布の重心を中心とする矩形領域を求め、矩形領域の大きさが指定サイズを超えた等の、所定の終了条件が満たされた場合に、その矩形領域を対象物が存在する領域とするものである。 The present invention inputs a moving image obtained by capturing an object having a color and size designated in advance, obtains a probability distribution in which a predetermined color exists from color information of a frame image, and has a rectangular area centered on the center of gravity of the probability distribution. When a predetermined end condition is satisfied, for example, when the size of the rectangular area exceeds the specified size, the rectangular area is set as an area where the object exists.
上記の確率分布を求める際には、3次元距離情報、さらには動き情報を勘案した統合確率分布を求め、この確率分布から矩形領域を求めるようにすることもできる。 When obtaining the above probability distribution, it is also possible to obtain an integrated probability distribution in consideration of three-dimensional distance information and further motion information, and obtain a rectangular area from this probability distribution.
請求項1と6の発明によれば、探索矩形領域に上限値を設けることにより、複数の所定色領域をひとつの大きな所定色領域として誤認識することを防ぐことができる。 According to the first and sixth aspects of the present invention, it is possible to prevent a plurality of predetermined color areas from being erroneously recognized as one large predetermined color area by providing an upper limit value in the search rectangular area.
請求項2、3、7、8の発明によれば、確率分布の計算方法として、所定色情報のみによる確率分布だけでなく、距離情報による確率分布を考慮したり(請求項2)、さらには動き情報による確率分布(請求項3)も考慮し、これらを統合した確率分布を用いることにより、認識率を高めることができる。ここで、距離情報による確率分布では、前フレームで探索した対象物の距離を元に、現フレームで対象物が存在するであろう距離の制約をダイナミックに与えることになる。また、動き情報による確率分布では、入力画像上で動きのある所定色領域のみに追跡対象を限定することになる。
According to the inventions of
請求項4、9の発明によれば、矩形領域が指定値より大きくなった場合には、対象物の追跡に失敗したとみなすことができるので、この場合、第1の確率分布のみを考慮することで所定色領域のみの探索に特化した探索を行うことにより、追跡に失敗した対象物を再探索しやすくなる。 According to the fourth and ninth aspects of the present invention, if the rectangular area becomes larger than the specified value, it can be considered that the tracking of the object has failed. In this case, only the first probability distribution is considered. Thus, by performing a search specialized for searching only the predetermined color region, it becomes easy to re-search for an object that has failed to be tracked.
請求項5の発明によれば、第3の確率分布値の最大値が小さい場合には、その確率分布を無視するようにすれば、対象物が止まっていても追跡を続けることが可能となる。また、第2の確率分布の距離情報の計算に失敗し、前フレームの値から極端に変化した場合でも、それを無視することで、距離情報計算の精度に対してもロバストに対象物を追跡することが可能となる。 According to the invention of claim 5, when the maximum value of the third probability distribution value is small, if the probability distribution is ignored, the tracking can be continued even if the object is stopped. . In addition, even if the calculation of distance information of the second probability distribution fails and changes significantly from the value of the previous frame, by ignoring it, the object can be tracked robustly with respect to the accuracy of the distance information calculation. It becomes possible to do.
次に、本発明の実施の形態について図面を参照して説明する。以下の実施形態では、対象物を「手」、その色を「肌色」に限定したものであるが、本発明はこれに限定されるものではないことは言うまでもない。 Next, embodiments of the present invention will be described with reference to the drawings. In the following embodiments, the object is limited to “hand” and the color is limited to “skin color”, but it goes without saying that the present invention is not limited to this.
[第1の実施形態]
図1を参照すると、本発明の第1の実施形態による手位置追跡装置は、撮像部11、12と画像入力部13と肌色確率分布計算部14と矩形領域決定部15と肌色領域判定部16とデータ記憶部17とで構成される。肌色確率分布計算部14は、図2に示すように、第1確率分布計算部21と距離情報作成部22と第2確率分布計算部23と統合確率分布計算部24で構成されている。
[First Embodiment]
Referring to FIG. 1, the hand position tracking apparatus according to the first embodiment of the present invention includes an
次に、本実施形態の手位置追跡装置の処理の流れを図3、図4も参照して説明する。 Next, the processing flow of the hand position tracking device of this embodiment will be described with reference to FIGS.
まず、第1フレームではあらかじめ指定した矩形領域を、第2フレーム以降は前フレームでの矩形領域を、初期領域として与える(ステップ101)。 First, a rectangular area designated in advance in the first frame and a rectangular area in the previous frame in the second and subsequent frames are given as initial areas (step 101).
肌色確率分布計算部14では、図4に示したように、以下の手順で全画素位置(x,y)の肌色確率値P(x,y)を計算する(ステップ102)。得られた全画素の肌色確率値が肌色確率分布を表わす。
As shown in FIG. 4, the skin color probability
1.第1の確率分布計算部21では、肌色らしさを、あらかじめ決めておく色と0から255の値(255が最も肌色に近い)で与えられる確率値との関係から第1の確率分布値Pc(x,y)として計算する(ステップ201)。
1. In the first probability
ここでは、肌色確率分布値Pc(x,y)を以下のように計算する。まず、図5に示すように、手が写っている画像を撮像部11で撮影し、図6に示すように、その撮影画像上の手のひら内の矩形領域を肌色領域として人手により指定する。指定された肌色領域内の全画素について、RGB表色系からHSV表色系への変換を行い、S,V値が閾値内である全H値についてヒストグラムを作成する。作成したヒストグラムのイメージを図7に示す。その後、得られたヒストグラムに対し、最大値が255となるように正規化する。それが、S,Vの閾値を満たす全Hに対する肌色確率値を表わすグラフとなり、Pc(x,y)は以下の式で表わすことができる。
Here, the skin color probability distribution value P c (x, y) is calculated as follows. First, as shown in FIG. 5, an image showing a hand is photographed by the
ここで、Vh(H)が、上述のグラフ値を表わす関数である。この、Vh(H)の値を直接、データ記憶部17内にルックアップテーブルとして持つことにより、各値をそのまま保持し、Hに対する値として引用できる。また、例えばガウス関数のような近似式を用いて関数式として表わせば、その式から求めることも可能となる。
Here, V h (H) is a function representing the above-described graph value. By holding the value of V h (H) directly in the
2.距離情報作成部22では、3次元距離情報の取得方法として公知の技術の1つであるステレオ視の手法を使ってフレーム画像の距離情報を作成する(ステップ202)。ステレオ視には、撮像部12からの画像も使用する。この時、2つ以上の画像から同一の点が撮影されている画像上の位置を画像の類似度から判定し、複数画像間での位置のずれ(視差)から三角測量の原理で基準画像上での撮像部11からの距離を求める。
2. The distance
以下では、図8に示すように、撮像部(カメラ)が2つで、平行に置いてある場合を例として説明する。時間的に同期された、一定距離Bだけ離れて、水平方向に平行に置かれたカメラ11(右)とカメラ12(左)で撮像した2枚のカメラ画像の視差を、カメラから撮像対象(手)までの距離情報とする。 Hereinafter, as shown in FIG. 8, a case where two imaging units (cameras) are arranged in parallel will be described as an example. The parallax between two camera images captured by the camera 11 (right) and the camera 12 (left), which are synchronized in time and separated by a certain distance B and parallel to the horizontal direction, is captured from the camera ( Distance information.
視差の計算の方法としては、例えば以下のような方法がある(図8)。カメラ11を基準として、カメラ11で撮像されたカメラ画像(基準画像)とカメラ12で撮像されたカメラ画像(参照画像)とで特定の大きさの画像小領域(ブロック)同士の類似度を計算することによって、対応する画素を求めるブロックマッチングを行うことで視差を計算する。視差をdとした時、カメラ11、12と撮像物体間の距離Zは、カメラ11、12の焦点距離をfとして、Z=f×B/d、となる。ここで、d=u−u’であり、Bはカメラ11とカメラ12との距離である。距離情報は、同時刻に撮像されたカメラ11の画像とカメラ12の画像との視差dを、画像全体の各画素の画素値で表現することで生成される。この視差は、その値が大きいほど人物の位置がカメラ11に近いことを表わし、値が小さいほど人物の位置がカメラ11から遠いことを表わしている。
As a parallax calculation method, for example, there is the following method (FIG. 8). Using the
なお、距離情報作成手段は上記に限定されるものではなく、例えば、Point Grey Reserch Inc. Digiclopsのような市販のステレオ視用カメラを用いて距離情報を作成することもできる。 The distance information creating means is not limited to the above, and for example, Point Gray Research Inc. The distance information can also be created by using a commercially available stereo vision camera such as Digitallops.
3.第2の確率分布計算部23では、距離情報作成部22で作成された(または前フレームで探索された)カメラ11から手までの距離dを中心に、指定範囲内にある距離は1、それ以外の場合は0とする第2の確率分布値Pd(x,y)を計算する(ステップ203、図9)。
3. In the second probability
3.統合確率分布計算部24では、以下の係数a,bを用いた関数で統合確率分布P(x,y)を計算する(ステップ204)。
3. The integrated probability
矩形領域決定部15では、上記で求めた統合確率分布P(x,y)を使って、矩形領域の重心位置を計算し、また次の矩形領域の一辺の大きさlx,lyを計算する(ステップ103)。矩形領域の重心位置(xc,yc)は、以下の式で計算できる。
The rectangular
この時、矩形領域の幅lwと高さlhは、Pmaxを確率値の最大値として、 At this time, the width l w and the height l h of the rectangular area are set with P max as the maximum probability value.
で表わす。ここで、αとβは、手の大きさの縦横比で決まる係数である。 It expresses by. Here, α and β are coefficients determined by the aspect ratio of the size of the hand.
肌色領域判定部16では、以下の3条件について判定を行い、1つでも満たされればそのフレームでの処理を終了し、その時点での矩形領域を手の追跡結果とする(ステップ104)。1つも満たされない場合は、その時点での矩形領域を初期値とし、現フレームに対して矩形領域の再計算処理を繰り返す。
The skin color
1)前ループでの矩形領域と矩形領域決定部15で計算した矩形領域との大きさの差分が閾値以内の場合。ループ間での、矩形領域の差分が小さければ、それは矩形領域が収束したと判断することができるため、処理を終了する。
1) When the difference in size between the rectangular area in the previous loop and the rectangular area calculated by the rectangular
2)同一フレームに対し、指定ループ回数以上の矩形領域再計算処理を行った場合。これは、指定ループ回数以上計算を行っても収束できなかったということで、これ以上計算を繰り返すのを止め、次フレームの計算を行ったほうがよいと判断することができるため、処理を終了する。 2) When rectangular area recalculation processing is performed for the same frame more than the specified number of loops. This is because the calculation could not be converged even if the calculation was performed more than the specified number of loops, so it can be determined that it is better to stop calculating further and calculate the next frame. .
3)矩形領域の大きさが指定サイズよりも大きくなった場合。矩形領域が、想定していた手の大きさである指定サイズよりも明らかに大きくなった場合には、そのフレーム画像では、手を追跡するのに失敗と判断することができるため、処理を終了する。 3) When the size of the rectangular area is larger than the specified size. If the rectangular area is clearly larger than the specified size, which is the size of the hand that was assumed, the frame image can be determined to have failed to track the hand, so the process is terminated. To do.
なお、本実施形態における第2の確率分布の計算方法は上記に限られない。例えば、dを中心とした台形関数やガウス関数を使うことも考えられる。 In addition, the calculation method of the 2nd probability distribution in this embodiment is not restricted above. For example, it is possible to use a trapezoidal function or a Gaussian function centered on d.
また、肌色確率値P(x,y)も上式に限られない。それぞれの確率分布値が独立に強調されるような式ならばよい。例えば、下記のような線形和関数を使うことも考えられる。 Further, the skin color probability value P (x, y) is not limited to the above formula. Any expression that emphasizes each probability distribution value independently may be used. For example, the following linear sum function may be used.
なお、データ記憶部17には、上記ルックアップテーブルの他に、矩形領域情報、各確率分布情報、処理のループ回数情報などの情報が記憶される。
In addition to the lookup table, the
[第2の実施形態]
図10は本発明の第2の実施形態による手位置追跡装置の肌色確率分布計算部のブロック図、図11はその処理の流れを示すフローチャートである。
[Second Embodiment]
FIG. 10 is a block diagram of the flesh color probability distribution calculation unit of the hand position tracking apparatus according to the second embodiment of the present invention, and FIG. 11 is a flowchart showing the processing flow.
本実施形態は、第1の実施形態で計算する第1および第2の確率分布に加え、第3の確率分布として動き情報を用いるものである。 In this embodiment, motion information is used as the third probability distribution in addition to the first and second probability distributions calculated in the first embodiment.
ここで、第3確率分布計算部25は、動き情報による確率Pm(x,y)を以下のように計算する(ステップ205)。
Here, the third probability
Pm(x,y)= 1 :前フレームとの色の差分値が閾値以上の場合
0 :前フレームとの色の差分値が閾値未満の場合
なお、本実施形態における、第3の確率分布の計算方法は上記に限られない。例えば、複数の隣接フレーム間の動き(フレーム間の差分値)を考慮したり、直近のフレーム間の動き情報は大きく、そうでないフレーム間の動き情報は小さく考慮する場合も考えられる。
P m (x, y) = 1: When the color difference value from the previous frame is greater than or equal to the threshold value
0: When the color difference value with respect to the previous frame is less than the threshold value The method of calculating the third probability distribution in the present embodiment is not limited to the above. For example, it may be considered that motion between a plurality of adjacent frames (difference value between frames) is considered, or motion information between the latest frames is large and motion information between other frames is small.
また、この場合、矩形領域決定部15で計算される、画素(x,y)の確率値P(x,y)は、以下の式で表わされる。
In this case, the probability value P (x, y) of the pixel (x, y) calculated by the rectangular
この場合も第1の実施形態と同様に、肌色確率値P(x,y)は上式に限られない。下のような線形和関数を使うことも考えられる。 In this case, as in the first embodiment, the skin color probability value P (x, y) is not limited to the above equation. It is also possible to use the following linear sum function.
[第3の実施形態]
図12は本発明の第3の実施形態による手位置追跡装置のブロック図、図13はその処理の流れを示すフローチャートである。
[Third Embodiment]
FIG. 12 is a block diagram of a hand position tracking apparatus according to the third embodiment of the present invention, and FIG. 13 is a flowchart showing the processing flow.
本実施形態では、第1、2の実施形態に対して係数決定部18をさらに有し、確率値P(x,y)を計算するための係数a,b,cが領域判定結果に従い、変化する(ステップ105)ことが異なっている。
In the present embodiment, the
ここで、追跡の最初、および矩形領域が最大値となっている場合は、
a=1,b=c=0
として、第1の確率分布である肌色のみを考慮し、それ以外の通常に手を追跡している状態では、
a=b=c=1
として、距離と動きの両方を考慮する。
さらには、肌色領域の動きが小さく、第3の確率分布値が閾値以下となった場合には、
a=b=1,c=0
として、動きを考慮しないようにする。
Here, at the beginning of tracking and when the rectangular area is the maximum value,
a = 1, b = c = 0
In the state where only the skin color that is the first probability distribution is considered and the hand is normally tracked,
a = b = c = 1
As such, consider both distance and movement.
Furthermore, when the movement of the skin color area is small and the third probability distribution value is equal to or less than the threshold value,
a = b = 1, c = 0
As such, do not consider movement.
以上において、a,b,cの値の組合せはこれに限られない。 In the above, the combination of the values of a, b, and c is not limited to this.
例えば、ステレオ視による距離の計算が不安定で距離dの時系列変化が大きい場合に、b=0とすることも考えられるし、動き情報を軽視するため定常的に、c=0.5といった小さな値にすることも考えられる。 For example, if the distance calculation by stereo vision is unstable and the time series change of the distance d is large, b = 0 may be considered, and c = 0.5 is regularly used to neglect the motion information. A small value can be considered.
本実施形態におけるa,b,cを0または0以外の定数に設定する例では、PがPc,Pd,Pmの線形和の形で求められる場合には、a,b,cの値を直接、Pの式に代入することにより、Pの値を算出できる。Pを数2のように、Pc,Pd,Pmの積で求める場合には、a、b、cのいずれかが0の場合、P=0となってしまうため、算出式を以下のようにすることも考えられる。
In the example in which a, b, and c are set to 0 or a constant other than 0 in this embodiment, when P is obtained in the form of a linear sum of Pc, Pd, and Pm, the values of a, b, and c are directly set. By substituting into the expression of P, the value of P can be calculated. When P is calculated by the product of Pc, Pd, and Pm as in
なお、本発明の対象物位置追跡装置は、その機能を実現するためのプログラムを、コンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータに読み込ませ、実行するものであってもよい。コンピュータ読み取り可能な記録媒体とは、フレキシブルディスク、光磁気ディスク、CD−ROM等の記録媒体、コンピュータシステムに内蔵されるハードディスク装置等の記憶装置を指す。さらに、コンピュータ読み取り可能な記録媒体は、インターネットを介してプログラムを送信する場合のように、短時間、動的にプログラムを保持するもの(伝送媒体もしくは伝送波)、その場合のサーバとなるコンピュータ内の揮発性メモリのように、一定時間プログラムを保持しているものを含む。 Note that the object position tracking apparatus of the present invention records a program for realizing the function on a computer-readable recording medium, and causes the computer to read and execute the program recorded on the recording medium. It may be. The computer-readable recording medium refers to a recording medium such as a flexible disk, a magneto-optical disk, and a CD-ROM, and a storage device such as a hard disk device built in a computer system. Further, the computer-readable recording medium is a medium that dynamically holds the program for a short time (transmission medium or transmission wave) as in the case of transmitting the program via the Internet, and in the computer serving as a server in that case Such as a volatile memory that holds a program for a certain period of time.
11 撮像部
12 撮像部
13 画像入力部
14 肌色確率分布計算部
15 矩形領域決定部
16 肌色領域判定部
17 データ記憶部
18 係数決定部
21 第1確率分布計算部
22 距離情報作成部
23 第2確率分布計算部
24 統合確率分布計算部
25 第3確率分布計算部
101〜105、201〜205 ステップ
DESCRIPTION OF
Claims (10)
該撮像手段で撮像された各フレームの撮像画像を入力する撮像画像入力段階と、
前記所定の色が存在する確率の計算式、または画素値と該確率との関係を表わすルックアップテーブルを用いて、指定された矩形領域内での前記所定の色の確率分布を計算する所定色確率分布計算段階と、
前記確率分布の重心を中心とし、かつ確率分布値の総和M00と確率分布の最大値をPmaxとした時、矩形領域の一辺の幅lw,高さlhが、M00とPmaxの関数lw=fw(M00,Pmax),lh=fh(M00,Pmax),で与えられるように、矩形領域を決定する矩形領域決定段階と、
前記撮像画像入力段階と前記所定色確率分布計算段階と前記矩形領域決定段階で行われる処理の前回のループで前記矩形領域決定段階で決定された矩形領域の大きさと今回のループで前記矩形領域決定段階で決定された矩形領域との大きさの差分が閾値以内、または同一フレームに対し指定されたループ回数以上の矩形領域の再決定を行った、または決定された矩形領域の大きさが指定サイズを超えた場合に、前記矩形領域決定段階で今回決定された矩形領域を現フレームでの前記対象物の追跡結果とし、前記撮像画像入力段階に戻り、次フレームに対する計算に移る所定色領域判定段階と、
を有する対象物位置追跡方法。 A method of tracking the position of an object by tracking an area of a predetermined color and size specified in advance on an imaged moving image obtained by imaging an imaging object by an imaging means,
A captured image input stage for inputting a captured image of each frame imaged by the imaging means;
Predetermined color for calculating the probability distribution of the predetermined color in a specified rectangular area using a formula for calculating the probability that the predetermined color exists or a look-up table representing the relationship between a pixel value and the probability A probability distribution calculation stage;
When the center of gravity of the probability distribution is at the center and the sum M 00 of probability distribution values and the maximum value of the probability distribution are P max , the width l w and height l h of one side of the rectangular area are M 00 and P max. A rectangular area determining step for determining a rectangular area as given by: l w = f w (M 00 , P max ), l h = f h (M 00 , P max ),
The size of the rectangular area determined in the rectangular area determination stage in the previous loop of the processing performed in the captured image input stage, the predetermined color probability distribution calculation stage, and the rectangular area determination stage, and the rectangular area determination in the current loop. The difference in size from the rectangular area determined in the stage is within the threshold value, or the rectangular area has been redetermined more than the specified number of loops for the same frame, or the size of the determined rectangular area is the specified size A predetermined color region determination step in which the rectangular region determined this time in the rectangular region determination step is used as the tracking result of the object in the current frame, and the process returns to the captured image input step and proceeds to calculation for the next frame. When,
An object position tracking method comprising:
前記計算式またはルックアップテーブルを用いて計算した値を第1の確率分布とする第1の確率分布計算段階と、
3次元距離情報取得技術によって撮像画像の各画素の距離情報を作成する距離情報作成段階と、
前フレームでの距離情報から、現フレームでの距離的な確率分布を計算する距離の確率分布を第2の確率分布として計算する第2の確率分布計算段階と、
これら第1の確率分布と第2の確率分布を変数とする関数で確率分布を計算する統合確率分布計算段階と、
を含む、請求項1に記載の対象物位置追跡方法。 The predetermined color probability distribution calculation step includes:
A first probability distribution calculating step in which a value calculated using the calculation formula or the lookup table is a first probability distribution;
A distance information creation step of creating distance information of each pixel of the captured image by a three-dimensional distance information acquisition technique;
A second probability distribution calculation stage for calculating a distance probability distribution for calculating a distance probability distribution in the current frame from the distance information in the previous frame as a second probability distribution;
An integrated probability distribution calculation stage for calculating a probability distribution with a function having the first probability distribution and the second probability distribution as variables;
The object position tracking method according to claim 1, comprising:
前記計算式またはルックアップテーブルを用いて計算した値を第1の確率分布とする第1の確率分布計算段階と、
3次元距離情報取得技術によって撮像画像の各画素の距離情報を作成する距離情報作成段階と、
前フレームでの距離情報から、現フレームでの距離的な確率分布を計算する距離の確率分布を第2の確率分布として計算する第2の確率分布計算段階と、
現フレームより前の複数の連続したフレームの画像列に対し、隣接する2フレーム間の画像毎の各画素値の差分絶対値の総和が一定値以上である画像上の点を抽出することにより生成する動き情報を用いて、第3の確率分布として動きの確率分布を生成する第3の確率分布計算段階と、
前記第1、第2、第3の確率分布を変数とする関数で確率分布を計算する統合確率分布計算段階と、
を含む、請求項1に記載の対象物位置追跡方法。 The predetermined color probability distribution calculation step includes:
A first probability distribution calculating step in which a value calculated using the calculation formula or the lookup table is a first probability distribution;
A distance information creation step of creating distance information of each pixel of the captured image by a three-dimensional distance information acquisition technique;
A second probability distribution calculation stage for calculating a distance probability distribution for calculating a distance probability distribution in the current frame from the distance information in the previous frame as a second probability distribution;
Generated by extracting the points on the image where the sum of absolute differences of each pixel value for each image between two adjacent frames is greater than or equal to a certain value for an image sequence of a plurality of consecutive frames before the current frame A third probability distribution calculation stage for generating a motion probability distribution as a third probability distribution using the motion information to be
An integrated probability distribution calculating step of calculating a probability distribution with a function having the first, second and third probability distributions as variables;
The object position tracking method according to claim 1, comprising:
該撮像手段で撮像された各フレームの撮像画像を入力する撮像画像入力手段と、
前記所定の色が存在する確率の計算式、または画素値と該確率との関係を表わすルックアップテーブルを用いて、指定された矩形領域内での前記所定の色の確率分布を計算する所定色確率分布計算手段と、
前記確率分布の重心を中心とし、かつ確率分布値の総和M00と確率分布の最大値をPmaxとした時、矩形領域の一辺の幅lw,高さlhが、M00とPmaxの関数lw=fw(M00,Pmax),lh=fh(M00,Pmax),で与えられるように、矩形領域を決定する矩形領域決定手段と、
前記撮像画像入力手段と前記所定色確率分布計算手段と前記矩形領域決定手段で順次行われる処理の前回のループで前記矩形領域決定手段で決定された矩形領域の大きさと今回のループで前記矩形領域決定手段で決定された矩形領域との大きさの差分が閾値以内、または同一フレームに対し指定されたループ回数以上の矩形領域の再決定を行った、または決定された矩形領域の大きさが指定サイズを超えた場合に、前記矩形領域決定手段で今回決定された矩形領域を現フレームでの前記対象物の追跡結果とし、前記撮像画像入力手段に戻り、次フレームに対する計算に移る所定色領域判定手段と、
を有する対象物位置追跡装置。 An apparatus for tracking the position of an object by tracking an area of a predetermined color and size specified in advance on an imaging moving image obtained by imaging an imaging object by an imaging means,
Captured image input means for inputting a captured image of each frame imaged by the imaging means;
Predetermined color for calculating the probability distribution of the predetermined color in a specified rectangular area using a formula for calculating the probability that the predetermined color exists or a look-up table representing the relationship between a pixel value and the probability A probability distribution calculation means;
When the center of gravity of the probability distribution is at the center and the sum M 00 of probability distribution values and the maximum value of the probability distribution are P max , the width l w and height l h of one side of the rectangular area are M 00 and P max. A rectangular area determining means for determining a rectangular area as given by the function l w = f w (M 00 , P max ), l h = f h (M 00 , P max ),
The size of the rectangular area determined by the rectangular area determining means in the previous loop of the processing sequentially performed by the captured image input means, the predetermined color probability distribution calculating means, and the rectangular area determining means, and the rectangular area in the current loop The difference in size from the rectangular area determined by the determining means is within the threshold value, or the rectangular area that has been redetermined or exceeds the specified number of loops for the same frame, or the size of the determined rectangular area is specified. When the size is exceeded, the rectangular area determined this time by the rectangular area determining means is set as the tracking result of the object in the current frame, and the process returns to the captured image input means, and the predetermined color area determination moves to the calculation for the next frame. Means,
An object position tracking device.
前記計算式またはルックアップテーブルを用いて計算した値を第1の確率分布とする第1の確率分布計算手段と、
3次元距離情報取得技術によって撮像画像の各画素の距離情報を作成する距離情報作成手段と、
前フレームでの距離情報から、現フレームでの距離的な確率分布を計算する距離の確率分布を第2の確率分布として計算する第2の確率分布計算手段と、
これら第1の確率分布と第2の確率分布を変数とする関数で確率分布を計算する統合確率分布計算手段と、
を含む、請求項6に記載の対象物位置追跡装置。 The predetermined color probability distribution calculating means includes:
A first probability distribution calculating means for setting a value calculated using the calculation formula or the lookup table as a first probability distribution;
Distance information creating means for creating distance information of each pixel of the captured image by a three-dimensional distance information acquisition technique;
A second probability distribution calculating means for calculating a distance probability distribution for calculating a distance probability distribution in the current frame from the distance information in the previous frame as a second probability distribution;
An integrated probability distribution calculating means for calculating the probability distribution using a function having the first probability distribution and the second probability distribution as variables;
The object position tracking device according to claim 6, comprising:
前記計算式またはルックアップテーブルを用いて計算した値を第1の確率分布とする第1の確率分布計算手段と、
3次元距離情報取得技術によって撮像画像の各画素の距離情報を作成する距離情報作成手段と、
前フレームでの距離情報から、現フレームでの距離的な確率分布を計算する距離の確率分布を第2の確率分布として計算する第2の確率分布計算手段と、
現フレームより前の複数の連続したフレームの画像列に対し、隣接する2フレーム間の画像毎の各画素値の差分絶対値の総和が一定値以上である画像上の点を抽出することにより生成する動き情報を用いて、第3の確率分布として動きの確率分布を生成する第3の確率分布計算手段と、
前記第1、第2、第3の確率分布を変数とする関数で確率分布を計算する統合確率分布計算手段と、
を含む、請求項6に記載の対象物位置追跡装置。 The predetermined color probability distribution calculating means includes:
A first probability distribution calculating means for setting a value calculated using the calculation formula or the lookup table as a first probability distribution;
Distance information creating means for creating distance information of each pixel of the captured image by a three-dimensional distance information acquisition technique;
A second probability distribution calculating means for calculating a distance probability distribution for calculating a distance probability distribution in the current frame from the distance information in the previous frame as a second probability distribution;
Generated by extracting the points on the image where the sum of absolute differences of each pixel value for each image between two adjacent frames is greater than or equal to a certain value for an image sequence of a plurality of consecutive frames before the current frame Third probability distribution calculation means for generating a motion probability distribution as the third probability distribution using the motion information
An integrated probability distribution calculating means for calculating a probability distribution with a function having the first, second and third probability distributions as variables;
The object position tracking device according to claim 6, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006052185A JP4559375B2 (en) | 2006-02-28 | 2006-02-28 | Object position tracking method, apparatus, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006052185A JP4559375B2 (en) | 2006-02-28 | 2006-02-28 | Object position tracking method, apparatus, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007233544A true JP2007233544A (en) | 2007-09-13 |
JP4559375B2 JP4559375B2 (en) | 2010-10-06 |
Family
ID=38554100
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006052185A Active JP4559375B2 (en) | 2006-02-28 | 2006-02-28 | Object position tracking method, apparatus, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4559375B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009141475A (en) * | 2007-12-04 | 2009-06-25 | Nikon Corp | Camera |
JP2013512481A (en) * | 2009-11-23 | 2013-04-11 | インテル・コーポレーション | Method, system, and computer-readable recording medium for adaptively tracking an object |
JP2013065103A (en) * | 2011-09-15 | 2013-04-11 | Toshiba Corp | Tracking apparatus, tracking method and program |
JP2013142991A (en) * | 2012-01-10 | 2013-07-22 | Nippon Telegr & Teleph Corp <Ntt> | Object area detection device, method and program |
TWI692731B (en) * | 2019-01-02 | 2020-05-01 | 瑞昱半導體股份有限公司 | Object position determination circuit |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003303346A (en) * | 2002-04-09 | 2003-10-24 | Nippon Telegr & Teleph Corp <Ntt> | Method, device and program for tracing target, and recording medium recording the program |
-
2006
- 2006-02-28 JP JP2006052185A patent/JP4559375B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003303346A (en) * | 2002-04-09 | 2003-10-24 | Nippon Telegr & Teleph Corp <Ntt> | Method, device and program for tracing target, and recording medium recording the program |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009141475A (en) * | 2007-12-04 | 2009-06-25 | Nikon Corp | Camera |
US8436900B2 (en) | 2007-12-04 | 2013-05-07 | Nikon Corporation | Pattern matching camera |
JP2013512481A (en) * | 2009-11-23 | 2013-04-11 | インテル・コーポレーション | Method, system, and computer-readable recording medium for adaptively tracking an object |
JP2013065103A (en) * | 2011-09-15 | 2013-04-11 | Toshiba Corp | Tracking apparatus, tracking method and program |
JP2013142991A (en) * | 2012-01-10 | 2013-07-22 | Nippon Telegr & Teleph Corp <Ntt> | Object area detection device, method and program |
TWI692731B (en) * | 2019-01-02 | 2020-05-01 | 瑞昱半導體股份有限公司 | Object position determination circuit |
Also Published As
Publication number | Publication date |
---|---|
JP4559375B2 (en) | 2010-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230418389A1 (en) | Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data | |
CN109891189B (en) | Planned photogrammetry | |
US8233661B2 (en) | Object tracking apparatus and object tracking method | |
JP4575829B2 (en) | Display screen position analysis device and display screen position analysis program | |
JP6030617B2 (en) | Image processing apparatus and image processing method | |
WO2010073432A1 (en) | Image processing device and image processing method | |
KR101868903B1 (en) | Apparatus and method for tracking human hand by using color features | |
EP2372654A1 (en) | Object tracking apparatus, object tracking method, and control program | |
JP2015138554A (en) | Target tracking method and device | |
JP5438601B2 (en) | Human motion determination device and program thereof | |
JP4559375B2 (en) | Object position tracking method, apparatus, and program | |
JP4496992B2 (en) | Animal up-frame detection method, program, and storage medium storing program, and animal up-shot detection method, animal up-frame or shot detection method, program, and storage medium | |
JP2006244272A (en) | Hand position tracking method, device and program | |
KR20150082417A (en) | Method for initializing and solving the local geometry or surface normals of surfels using images in a parallelizable architecture | |
JP5468773B2 (en) | Image processing apparatus and image processing method | |
KR102228639B1 (en) | Apparatus and method for tracking hand motion | |
JP4971114B2 (en) | Object recognition apparatus, object recognition method, object recognition program, and computer-readable medium storing the program | |
JP2016081095A (en) | Subject tracking device, control method thereof, image-capturing device, display device, and program | |
JP5470529B2 (en) | Motion detection device, motion detection method, and motion detection program | |
US10671881B2 (en) | Image processing system with discriminative control | |
JP2016081252A (en) | Image processor and image processing method | |
KR101534776B1 (en) | A Template-Matching-Based High-Speed Face Tracking Method Using Depth Information | |
Madaras et al. | Position estimation and calibration of inertial motion capture systems using single camera | |
CN111079618A (en) | Three-dimensional tracking gesture observation likelihood modeling method and device | |
Przybyło | Hand tracking algorithm for augmented reality systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100408 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100414 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100528 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100714 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100722 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4559375 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130730 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |