JP4559375B2 - 対象物位置追跡方法、装置、およびプログラム - Google Patents

対象物位置追跡方法、装置、およびプログラム Download PDF

Info

Publication number
JP4559375B2
JP4559375B2 JP2006052185A JP2006052185A JP4559375B2 JP 4559375 B2 JP4559375 B2 JP 4559375B2 JP 2006052185 A JP2006052185 A JP 2006052185A JP 2006052185 A JP2006052185 A JP 2006052185A JP 4559375 B2 JP4559375 B2 JP 4559375B2
Authority
JP
Japan
Prior art keywords
probability distribution
calculating
rectangular area
probability
calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006052185A
Other languages
English (en)
Other versions
JP2007233544A (ja
Inventor
秀則 佐藤
英一 細谷
育生 原田
晃 小野澤
静枝 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2006052185A priority Critical patent/JP4559375B2/ja
Publication of JP2007233544A publication Critical patent/JP2007233544A/ja
Application granted granted Critical
Publication of JP4559375B2 publication Critical patent/JP4559375B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、例えば人間の手などの、予め指定された色とサイズを有する対象物の動きと位置によって、コンピュータ、家電等を操作するインタフェース方法に関する。
素手を認識して手の動きと位置によってコンピュータや家電などを操作するインタフェースが研究されている。手の位置と動きで操作するインタフェースの利用シーンとしては、画面から少し離れた場所にユーザが複数いて、背景は特に規定しない普通の部屋などが想定され、また、ユーザが何も体に装着しなくても使えることが望ましい。さらに、手の動きに追随できる程度の実時間性が要求される。
このような状況で手の位置認識をすることは実は難しい。
アプローチとして、ステレオ視などの形状復元技術を利用し手の形状の特徴を検出する手法もあるが、直接手をクローズアップするなどの手段を用いなければ十分な精度で手の形状を認識することは困難である。クローズアップなどをせずに撮像する場合、人物全体の大まかな形状(カメラからの距離情報)を利用することとなる。しかし、大まかな形状のみでは手の認識が困難なため、誤認識が発生しやすい。また、3次元的に指差しを行うシステムの場合に、指先位置の計測誤差が指されている物体との距離に比例して拡大することによる指差し位置の誤認識も発生する。また、肌色情報を主に用いて手の位置を検出・追跡するものは、顔や周りの物体など手以外に条件に当てはまるものが出てきてしまうため、やはり誤認識が避けられない。
ここで、代表的な従来技術について説明する。
非特許文献1に記載の技術は、Continuously Adaptive Mean Shift(CAMSHIFT)と呼ばれるアルゴリズムを用いて対象物をリアルタイムに追跡するものであるが、前フレーム画像での肌色検出結果を表わす矩形領域を起点とし、近傍の指定肌色分布確率をとる矩形領域を、請求項1同様に位置と大きさを変えながら決定することにより、現フレームでの肌色領域を決定する。しかし、該アルゴリズムでは、取りうる矩形領域の大きさに制限を設けておらず、画像内に肌色領域がひとつの場合は比較的安定して追跡できるが、手が背景にある肌色物体の前を通過する場合には、通過直後に、両方の肌色領域を含んだ、大きな矩形領域を肌色領域として誤認識してしまうという問題があった。
非特許文献2に記載の技術は、距離(一番手前にあるもの)と背景差分(カメラと手の間に置いてあるものなどは無視)と顔の近くにあるという条件と肌色情報を用いて手を認識するもので、顔検出は他人が肩越しに覗いている等の複雑な背景では操作者の特定が難しく、顔の誤認識の影響を強く受ける。
非特許文献3に記載の技術は、指定色マーカを持ったユーザが操作し、その指定色をとる領域に対し、前フレーム画像の位置をもとに現フレームでの位置を追跡する方法である。ここでは、背景にない色情報を使っており、背景に指定色がある場合は位置認識は失敗する。
非特許文献4に記載の技術は、非特許文献1の方法に、距離と動きによる制限を加え、背景に肌色領域がある場合も比較的安定して肌色物体を追跡することを可能とした。しかし、動きがある領域のみを追跡対象としているため手を止めると追跡に失敗し、また、距離の制限から指定距離範囲内に手を置かなければならないという制限があった。
Gary R.Bradski, "Real Time Face and Object Tacking as a Component of a Perceputual User Interface" 1998 IEEE pp.214−219 金次保明ら "指差しポインターにおけるカーソル位置の特定法"(電子情報通信学会 ITS研究会2002) 細谷英一ら "ミラーインタフェースを用いた遠隔地間の実世界インタラクション" FIT(情報科学技術フォーラム)2003 pp.591−592 北端美紀ら "ミラーインタフェースにおける手追跡方法の一検討"(信学会全大2005 D−12−35)
本発明の目的は、類似色物体の誤認識を防ぎ、認識率を高めた対象物位置追跡方法、装置、およびプログラムを提供することにある。
本発明の対象物追跡方法は、撮像手段によって撮像対象を撮像した撮像動画像上の予め指定された所定の色とサイズの領域を追跡することによって対象物の位置を追跡する方法であって、
該撮像手段で撮像された各フレームの撮像画像を入力する撮像画像入力段階と、
前記所定の色が存在する確率の計算式、または画素値と該確率との関係を表わすルックアップテーブルを用いて、指定された矩形領域内での前記所定の色の確率分布を計算する所定色確率分布計算段階と、
前記確率分布の重心を中心とし、かつ確率分布値の総和00し、確率の最大値をPmaxとした時、矩形領域の一辺の幅lw高さlh
Figure 0004559375
与えられるように、矩形領域を決定する矩形領域決定段階と、
前記撮像画像入力段階と前記所定色確率分布計算段階と前記矩形領域決定段階で行われる処理の前回のループで前記矩形領域決定段階で決定された矩形領域の大きさと今回のループで前記矩形領域決定段階で決定された矩形領域との大きさの差分が閾値以内、または同一フレームに対し指定されたループ回数以上の矩形領域の再決定を行った、または決定された矩形領域の大きさが指定サイズを超えた場合に、前記矩形領域決定段階で今回決定された矩形領域を現フレームでの前記対象物の追跡結果とし、前記撮像画像入力段階に戻り、次フレームに対する計算に移る所定色領域判定段階と、
を有し、
前記確率値の最大値Pmaxを、処理対象としているフレーム画像毎に計算により求める
本発明は、予め指定した色とサイズを有する対象物を撮像した動画像を入力し、フレーム画像の色情報から所定の色が存在する確率分布を求め、確率分布の重心を中心とする矩形領域を求め、矩形領域の大きさが指定サイズを超えた等の、所定の終了条件が満たされた場合に、その矩形領域を対象物が存在する領域とするものである。
上記の確率分布を求める際には、3次元距離情報、さらには動き情報を勘案した統合確率分布を求め、この確率分布から矩形領域を求めるようにすることもできる。
請求項1と6の発明によれば、探索矩形領域に上限値を設けることにより、複数の所定色領域をひとつの大きな所定色領域として誤認識することを防ぐことができる。
請求項2、3、7、8の発明によれば、確率分布の計算方法として、所定色情報のみによる確率分布だけでなく、距離情報による確率分布を考慮したり(請求項2)、さらには動き情報による確率分布(請求項3)も考慮し、これらを統合した確率分布を用いることにより、認識率を高めることができる。ここで、距離情報による確率分布では、前フレームで探索した対象物の距離を元に、現フレームで対象物が存在するであろう距離の制約をダイナミックに与えることになる。また、動き情報による確率分布では、入力画像上で動きのある所定色領域のみに追跡対象を限定することになる。
請求項4、9の発明によれば、矩形領域が指定値より大きくなった場合には、対象物の追跡に失敗したとみなすことができるので、この場合、第1の確率分布のみを考慮することで所定色領域のみの探索に特化した探索を行うことにより、追跡に失敗した対象物を再探索しやすくなる。
請求項5の発明によれば、第3の確率分布値の最大値が小さい場合には、その確率分布を無視するようにすれば、対象物が止まっていても追跡を続けることが可能となる。また、第2の確率分布の距離情報の計算に失敗し、前フレームの値から極端に変化した場合でも、それを無視することで、距離情報計算の精度に対してもロバストに対象物を追跡することが可能となる。
次に、本発明の実施の形態について図面を参照して説明する。以下の実施形態では、対象物を「手」、その色を「肌色」に限定したものであるが、本発明はこれに限定されるものではないことは言うまでもない。
[第1の実施形態]
図1を参照すると、本発明の第1の実施形態による手位置追跡装置は、撮像部11、12と画像入力部13と肌色確率分布計算部14と矩形領域決定部15と肌色領域判定部16とデータ記憶部17とで構成される。肌色確率分布計算部14は、図2に示すように、第1確率分布計算部21と距離情報作成部22と第2確率分布計算部23と統合確率分布計算部24で構成されている。
次に、本実施形態の手位置追跡装置の処理の流れを図3、図4も参照して説明する。
まず、第1フレームではあらかじめ指定した矩形領域を、第2フレーム以降は前フレームでの矩形領域を、初期領域として与える(ステップ101)。
肌色確率分布計算部14では、図4に示したように、以下の手順で全画素位置(x,y)の肌色確率値P(x,y)を計算する(ステップ102)。得られた全画素の肌色確率値が肌色確率分布を表わす。
1.第1の確率分布計算部21では、肌色らしさを、あらかじめ決めておく色と0から255の値(255が最も肌色に近い)で与えられる確率値との関係から第1の確率分布値Pc(x,y)として計算する(ステップ201)。
ここでは、肌色確率分布値Pc(x,y)を以下のように計算する。まず、図5に示すように、手が写っている画像を撮像部11で撮影し、図6に示すように、その撮影画像上の手のひら内の矩形領域を肌色領域として人手により指定する。指定された肌色領域内の全画素について、RGB表色系からHSV表色系への変換を行い、S,V値が閾値内である全H値についてヒストグラムを作成する。作成したヒストグラムのイメージを図7に示す。その後、得られたヒストグラムに対し、最大値が255となるように正規化する。それが、S,Vの閾値を満たす全Hに対する肌色確率値を表わすグラフとなり、Pc(x,y)は以下の式で表わすことができる。
Figure 0004559375
ここで、Vh(H)が、上述のグラフ値を表わす関数である。この、Vh(H)の値を直接、データ記憶部17内にルックアップテーブルとして持つことにより、各値をそのまま保持し、Hに対する値として引用できる。また、例えばガウス関数のような近似式を用いて関数式として表わせば、その式から求めることも可能となる。
2.距離情報作成部22では、3次元距離情報の取得方法として公知の技術の1つであるステレオ視の手法を使ってフレーム画像の距離情報を作成する(ステップ202)。ステレオ視には、撮像部12からの画像も使用する。この時、2つ以上の画像から同一の点が撮影されている画像上の位置を画像の類似度から判定し、複数画像間での位置のずれ(視差)から三角測量の原理で基準画像上での撮像部11からの距離を求める。
以下では、図8に示すように、撮像部(カメラ)が2つで、平行に置いてある場合を例として説明する。時間的に同期された、一定距離Bだけ離れて、水平方向に平行に置かれたカメラ11(右)とカメラ12(左)で撮像した2枚のカメラ画像の視差を、カメラから撮像対象(手)までの距離情報とする。
視差の計算の方法としては、例えば以下のような方法がある(図8)。カメラ11を基準として、カメラ11で撮像されたカメラ画像(基準画像)とカメラ12で撮像されたカメラ画像(参照画像)とで特定の大きさの画像小領域(ブロック)同士の類似度を計算することによって、対応する画素を求めるブロックマッチングを行うことで視差を計算する。視差をdとした時、カメラ11、12と撮像物体間の距離Zは、カメラ11、12の焦点距離をfとして、Z=f×B/d、となる。ここで、d=u−u’であり、Bはカメラ11とカメラ12との距離である。距離情報は、同時刻に撮像されたカメラ11の画像とカメラ12の画像との視差dを、画像全体の各画素の画素値で表現することで生成される。この視差は、その値が大きいほど人物の位置がカメラ11に近いことを表わし、値が小さいほど人物の位置がカメラ11から遠いことを表わしている。
なお、距離情報作成手段は上記に限定されるものではなく、例えば、Point Grey Reserch Inc. Digiclopsのような市販のステレオ視用カメラを用いて距離情報を作成することもできる。
3.第2の確率分布計算部23では、距離情報作成部22で作成された(または前フレームで探索された)カメラ11から手までの距離dを中心に、指定範囲内にある距離は1、それ以外の場合は0とする第2の確率分布値Pd(x,y)を計算する(ステップ203、図9)。
3.統合確率分布計算部24では、以下の係数a,bを用いた関数で統合確率分布P(x,y)を計算する(ステップ204)。
Figure 0004559375
矩形領域決定部15では、上記で求めた統合確率分布P(x,y)を使って、矩形領域の重心位置を計算し、また次の矩形領域の一辺の大きさlx,lyを計算する(ステップ103)。矩形領域の重心位置(xc,yc)は、以下の式で計算できる。
Figure 0004559375
この時、矩形領域の幅lwと高さlhは、Pmaxを確率値の最大値として、
Figure 0004559375
で表わす。ここで、αとβは、手の大きさの縦横比で決まる係数である。
肌色領域判定部16では、以下の3条件について判定を行い、1つでも満たされればそのフレームでの処理を終了し、その時点での矩形領域を手の追跡結果とする(ステップ104)。1つも満たされない場合は、その時点での矩形領域を初期値とし、現フレームに対して矩形領域の再計算処理を繰り返す。
1)前ループでの矩形領域と矩形領域決定部15で計算した矩形領域との大きさの差分が閾値以内の場合。ループ間での、矩形領域の差分が小さければ、それは矩形領域が収束したと判断することができるため、処理を終了する。
2)同一フレームに対し、指定ループ回数以上の矩形領域再計算処理を行った場合。これは、指定ループ回数以上計算を行っても収束できなかったということで、これ以上計算を繰り返すのを止め、次フレームの計算を行ったほうがよいと判断することができるため、処理を終了する。
3)矩形領域の大きさが指定サイズよりも大きくなった場合。矩形領域が、想定していた手の大きさである指定サイズよりも明らかに大きくなった場合には、そのフレーム画像では、手を追跡するのに失敗と判断することができるため、処理を終了する。
なお、本実施形態における第2の確率分布の計算方法は上記に限られない。例えば、dを中心とした台形関数やガウス関数を使うことも考えられる。
また、肌色確率値P(x,y)も上式に限られない。それぞれの確率分布値が独立に強調されるような式ならばよい。例えば、下記のような線形和関数を使うことも考えられる。
Figure 0004559375
なお、データ記憶部17には、上記ルックアップテーブルの他に、矩形領域情報、各確率分布情報、処理のループ回数情報などの情報が記憶される。
[第2の実施形態]
図10は本発明の第2の実施形態による手位置追跡装置の肌色確率分布計算部のブロック図、図11はその処理の流れを示すフローチャートである。
本実施形態は、第1の実施形態で計算する第1および第2の確率分布に加え、第3の確率分布として動き情報を用いるものである。
ここで、第3確率分布計算部25は、動き情報による確率Pm(x,y)を以下のように計算する(ステップ205)。
m(x,y)= 1 :前フレームとの色の差分値が閾値以上の場合
0 :前フレームとの色の差分値が閾値未満の場合
なお、本実施形態における、第3の確率分布の計算方法は上記に限られない。例えば、複数の隣接フレーム間の動き(フレーム間の差分値)を考慮したり、直近のフレーム間の動き情報は大きく、そうでないフレーム間の動き情報は小さく考慮する場合も考えられる。
また、この場合、矩形領域決定部15で計算される、画素(x,y)の確率値P(x,y)は、以下の式で表わされる。
Figure 0004559375
この場合も第1の実施形態と同様に、肌色確率値P(x,y)は上式に限られない。下のような線形和関数を使うことも考えられる。
Figure 0004559375
[第3の実施形態]
図12は本発明の第3の実施形態による手位置追跡装置のブロック図、図13はその処理の流れを示すフローチャートである。
本実施形態では、第1、2の実施形態に対して係数決定部18をさらに有し、確率値P(x,y)を計算するための係数a,b,cが領域判定結果に従い、変化する(ステップ105)ことが異なっている。
ここで、追跡の最初、および矩形領域が最大値となっている場合は、
a=1,b=c=0
として、第1の確率分布である肌色のみを考慮し、それ以外の通常に手を追跡している状態では、
a=b=c=1
として、距離と動きの両方を考慮する。
さらには、肌色領域の動きが小さく、第3の確率分布値が閾値以下となった場合には、
a=b=1,c=0
として、動きを考慮しないようにする。
以上において、a,b,cの値の組合せはこれに限られない。
例えば、ステレオ視による距離の計算が不安定で距離dの時系列変化が大きい場合に、b=0とすることも考えられるし、動き情報を軽視するため定常的に、c=0.5といった小さな値にすることも考えられる。
本実施形態におけるa,b,cを0または0以外の定数に設定する例では、PがPc,Pd,Pmの線形和の形で求められる場合には、a,b,cの値を直接、Pの式に代入することにより、Pの値を算出できる。Pを数2のように、Pc,Pd,Pmの積で求める場合には、a、b、cのいずれかが0の場合、P=0となってしまうため、算出式を以下のようにすることも考えられる。
Figure 0004559375
なお、本発明の対象物位置追跡装置は、その機能を実現するためのプログラムを、コンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータに読み込ませ、実行するものであってもよい。コンピュータ読み取り可能な記録媒体とは、フレキシブルディスク、光磁気ディスク、CD−ROM等の記録媒体、コンピュータシステムに内蔵されるハードディスク装置等の記憶装置を指す。さらに、コンピュータ読み取り可能な記録媒体は、インターネットを介してプログラムを送信する場合のように、短時間、動的にプログラムを保持するもの(伝送媒体もしくは伝送波)、その場合のサーバとなるコンピュータ内の揮発性メモリのように、一定時間プログラムを保持しているものを含む。
本発明の第1の実施形態による手位置追跡装置のブロック図である。 肌色確率分布計算部のブロック図である。 第1の実施形態による手位置追跡装置の全体の処理の流れを示すフローチャートである。 第1の実施形態における肌色確率分布計算部の処理の流れを示すフローチャートである。 手が写っている画像を撮像部で撮影する様子を示す図である。 肌色領域を示す図である。 S、V値が閾値内である全H値のヒストグラムである。 ステレオ視による距離計算のイメージ図である。 第1の実施形態における第2の確率分布の計算式を表わすイメージ図である。 本発明の第2の実施形態による手位置追跡装置における肌色確率分布計算部のブロック図である。 第2の実施形態における肌色確率分布計算部の処理の流れを示すフローチャートである。 本発明の第3の実施形態による手位置追跡装置のブロック図である。 第3の実施形態による手位置追跡装置の全体の処理の流れを示すフローチャートである。
符号の説明
11 撮像部
12 撮像部
13 画像入力部
14 肌色確率分布計算部
15 矩形領域決定部
16 肌色領域判定部
17 データ記憶部
18 係数決定部
21 第1確率分布計算部
22 距離情報作成部
23 第2確率分布計算部
24 統合確率分布計算部
25 第3確率分布計算部
101〜105、201〜205 ステップ

Claims (10)

  1. 撮像手段によって撮像対象を撮像した撮像動画像上の予め指定された所定の色とサイズの領域を追跡することによって対象物の位置を追跡する方法であって、
    該撮像手段で撮像された各フレームの撮像画像を入力する撮像画像入力段階と、
    前記所定の色が存在する確率の計算式、または画素値と該確率との関係を表わすルックアップテーブルを用いて、指定された矩形領域内での前記所定の色の確率分布を計算する所定色確率分布計算段階と、
    前記確率分布の重心を中心とし、かつ確率分布値の総和00し、確率の最大値をPmaxとした時、矩形領域の一辺の幅lw高さlh
    Figure 0004559375
    与えられるように、矩形領域を決定する矩形領域決定段階と、
    前記撮像画像入力段階と前記所定色確率分布計算段階と前記矩形領域決定段階で行われる処理の前回のループで前記矩形領域決定段階で決定された矩形領域の大きさと今回のループで前記矩形領域決定段階で決定された矩形領域との大きさの差分が閾値以内、または同一フレームに対し指定されたループ回数以上の矩形領域の再決定を行った、または決定された矩形領域の大きさが指定サイズを超えた場合に、前記矩形領域決定段階で今回決定された矩形領域を現フレームでの前記対象物の追跡結果とし、前記撮像画像入力段階に戻り、次フレームに対する計算に移る所定色領域判定段階と、
    を有し、
    前記確率値の最大値Pmaxを、処理対象としているフレーム画像毎に計算により求める対象物位置追跡方法。
  2. 前記所定色確率分布計算段階は、
    前記計算式またはルックアップテーブルを用いて計算した値を第1の確率分布とする第1の確率分布計算段階と、
    3次元距離情報取得技術によって撮像画像の各画素の距離情報を作成する距離情報作成段階と、
    前フレームでの距離情報から、現フレームでの距離的な確率分布を計算する距離の確率分布を第2の確率分布として計算する第2の確率分布計算段階と、
    これら第1の確率分布と第2の確率分布を変数とする関数で確率分布を計算する統合確率分布計算段階と、
    を含む、請求項1に記載の対象物位置追跡方法。
  3. 前記所定色確率分布計算段階は、
    前記計算式またはルックアップテーブルを用いて計算した値を第1の確率分布とする第1の確率分布計算段階と、
    3次元距離情報取得技術によって撮像画像の各画素の距離情報を作成する距離情報作成段階と、
    前フレームでの距離情報から、現フレームでの距離的な確率分布を計算する距離の確率分布を第2の確率分布として計算する第2の確率分布計算段階と、
    現フレームより前の複数の連続したフレームの画像列に対し、隣接する2フレーム間の画像毎の各画素値の差分絶対値の総和が一定値以上である画像上の点を抽出することにより生成する動き情報を用いて、第3の確率分布として動きの確率分布を生成する第3の確率分布計算段階と、
    前記第1、第2、第3の確率分布を変数とする関数で確率分布を計算する統合確率分布計算段階と、
    を含む、請求項1に記載の対象物位置追跡方法。
  4. 前記統合確率分布計算段階では、前記矩形領域が指定サイズよりも大きい場合には、第1の確率分布のみを確率分布とする、請求項2または3に記載の対象物位置追跡方法。
  5. 前記統合確率分布計算段階は、前記矩形領域の大きさ、各確率分布の計算結果の少なくとも1つに基づき、確率分布を計算する関数をダイナミックに変化させる、請求項2または3に記載の対象物位置追跡方法。
  6. 撮像手段によって撮像対象を撮像した撮像動画像上の予め指定された所定の色とサイズの領域を追跡することによって対象物の位置を追跡する装置であって、
    該撮像手段で撮像された各フレームの撮像画像を入力する撮像画像入力手段と、
    前記所定の色が存在する確率の計算式、または画素値と該確率との関係を表わすルックアップテーブルを用いて、指定された矩形領域内での前記所定の色の確率分布を計算する所定色確率分布計算手段と、
    前記確率分布の重心を中心とし、かつ確率分布値の総和00し、確率の最大値をPmaxとした時、矩形領域の一辺の幅lw高さlh
    Figure 0004559375
    与えられるように、矩形領域を決定する矩形領域決定手段と、
    前記撮像画像入力手段と前記所定色確率分布計算手段と前記矩形領域決定手段で順次行われる処理の前回のループで前記矩形領域決定手段で決定された矩形領域の大きさと今回のループで前記矩形領域決定手段で決定された矩形領域との大きさの差分が閾値以内、または同一フレームに対し指定されたループ回数以上の矩形領域の再決定を行った、または決定された矩形領域の大きさが指定サイズを超えた場合に、前記矩形領域決定手段で今回決定された矩形領域を現フレームでの前記対象物の追跡結果とし、前記撮像画像入力手段に戻り、次フレームに対する計算に移る所定色領域判定手段と、
    を有し、
    前記矩形領域決定手段は、前記確率値の最大値Pmaxを、処理対象としているフレーム画像毎に計算により求める対象物位置追跡装置。
  7. 前記所定色確率分布計算手段は、
    前記計算式またはルックアップテーブルを用いて計算した値を第1の確率分布とする第1の確率分布計算手段と、
    3次元距離情報取得技術によって撮像画像の各画素の距離情報を作成する距離情報作成手段と、
    前フレームでの距離情報から、現フレームでの距離的な確率分布を計算する距離の確率分布を第2の確率分布として計算する第2の確率分布計算手段と、
    これら第1の確率分布と第2の確率分布を変数とする関数で確率分布を計算する統合確率分布計算手段と、
    を含む、請求項6に記載の対象物位置追跡装置。
  8. 前記所定色確率分布計算手段は、
    前記計算式またはルックアップテーブルを用いて計算した値を第1の確率分布とする第1の確率分布計算手段と、
    3次元距離情報取得技術によって撮像画像の各画素の距離情報を作成する距離情報作成手段と、
    前フレームでの距離情報から、現フレームでの距離的な確率分布を計算する距離の確率分布を第2の確率分布として計算する第2の確率分布計算手段と、
    現フレームより前の複数の連続したフレームの画像列に対し、隣接する2フレーム間の画像毎の各画素値の差分絶対値の総和が一定値以上である画像上の点を抽出することにより生成する動き情報を用いて、第3の確率分布として動きの確率分布を生成する第3の確率分布計算手段と、
    前記第1、第2、第3の確率分布を変数とする関数で確率分布を計算する統合確率分布計算手段と、
    を含む、請求項6に記載の対象物位置追跡装置。
  9. 前記統合確率分布計算手段は、前記矩形領域の大きさ、各確率分布の計算結果の少なくとも1つに基づき、確率分布を計算する関数をダイナミックに変化させる、請求項7または8に記載の対象物位置追跡装置。
  10. コンピュータに、請求項6から9のいずれかに記載の対象物位置追跡装置の各手段を実行させるための対象物位置追跡プログラム。
JP2006052185A 2006-02-28 2006-02-28 対象物位置追跡方法、装置、およびプログラム Active JP4559375B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006052185A JP4559375B2 (ja) 2006-02-28 2006-02-28 対象物位置追跡方法、装置、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006052185A JP4559375B2 (ja) 2006-02-28 2006-02-28 対象物位置追跡方法、装置、およびプログラム

Publications (2)

Publication Number Publication Date
JP2007233544A JP2007233544A (ja) 2007-09-13
JP4559375B2 true JP4559375B2 (ja) 2010-10-06

Family

ID=38554100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006052185A Active JP4559375B2 (ja) 2006-02-28 2006-02-28 対象物位置追跡方法、装置、およびプログラム

Country Status (1)

Country Link
JP (1) JP4559375B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009141475A (ja) 2007-12-04 2009-06-25 Nikon Corp カメラ
KR100970119B1 (ko) * 2009-11-23 2010-07-15 (주)올라웍스 적응적으로 객체를 추적하는 방법, 시스템, 및 컴퓨터 판독 가능한 기록 매체
JP5498454B2 (ja) * 2011-09-15 2014-05-21 株式会社東芝 追跡装置、追跡方法およびプログラム
JP5766620B2 (ja) * 2012-01-10 2015-08-19 日本電信電話株式会社 物体領域検出装置、方法、及びプログラム
TWI692731B (zh) * 2019-01-02 2020-05-01 瑞昱半導體股份有限公司 物件位置判斷電路

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003303346A (ja) * 2002-04-09 2003-10-24 Nippon Telegr & Teleph Corp <Ntt> 目標追跡方法、目標追跡装置、目標追跡プログラム、並びにこのプログラムを記録した記録媒体

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003303346A (ja) * 2002-04-09 2003-10-24 Nippon Telegr & Teleph Corp <Ntt> 目標追跡方法、目標追跡装置、目標追跡プログラム、並びにこのプログラムを記録した記録媒体

Also Published As

Publication number Publication date
JP2007233544A (ja) 2007-09-13

Similar Documents

Publication Publication Date Title
US20230418389A1 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
CN109891189B (zh) 策划的摄影测量
US8233661B2 (en) Object tracking apparatus and object tracking method
JP4575829B2 (ja) 表示画面上位置解析装置及び表示画面上位置解析プログラム
JP6030617B2 (ja) 画像処理装置および画像処理方法
WO2010073432A1 (ja) 画像処理装置および画像処理方法
KR101868903B1 (ko) 손 추적 장치 및 방법
JP2018113021A (ja) 情報処理装置およびその制御方法、プログラム
JP4559375B2 (ja) 対象物位置追跡方法、装置、およびプログラム
JP2006244074A (ja) 動物体アップフレーム検出方法及びプログラム及びプログラムを格納した記憶媒体及び動物体アップショット検出方法及び動物体アップフレームあるいはショット検出方法及びプログラム及びプログラムを格納した記憶媒体
JP2006244272A (ja) 手位置追跡方法、装置、およびプログラム
KR20150082417A (ko) 병렬화가능한 구조에서의 이미지들을 사용하여 표면 엘리먼트들의 로컬 지오메트리 또는 표면 법선들을 초기화 및 솔빙하는 방법
JP5468773B2 (ja) 画像処理装置および画像処理方法
JP2002366958A (ja) 画像認識方法および画像認識装置
KR101350387B1 (ko) 깊이 정보를 이용한 손 검출 방법 및 그 장치
KR102228639B1 (ko) 손동작 추적 장치 및 그 방법
JP4971114B2 (ja) 物体認識装置、物体認識方法、物体認識プログラム、および該プログラムを格納するコンピュータ可読媒体
JP5470529B2 (ja) 動き検出装置、動き検出方法及び動き検出プログラム
WO2018191058A1 (en) Image processing system with discriminative control
KR101534776B1 (ko) 깊이 정보를 이용한 템플릿 매칭 기반 고속 얼굴 추적 방법
Madaras et al. Position estimation and calibration of inertial motion capture systems using single camera
CN111079618A (zh) 三维跟踪的手势观测似然建模方法及装置
Przybyło Hand tracking algorithm for augmented reality systems
Lee et al. Modified Particle Filtering for Unstable Handheld Camera-Based Object Tracking

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100414

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100714

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100722

R150 Certificate of patent or registration of utility model

Ref document number: 4559375

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130730

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350