JP4185433B2 - リアルタイムの物体検出及び認識システム並びにコンピュータで実行可能なプログラム - Google Patents

リアルタイムの物体検出及び認識システム並びにコンピュータで実行可能なプログラム Download PDF

Info

Publication number
JP4185433B2
JP4185433B2 JP2003359387A JP2003359387A JP4185433B2 JP 4185433 B2 JP4185433 B2 JP 4185433B2 JP 2003359387 A JP2003359387 A JP 2003359387A JP 2003359387 A JP2003359387 A JP 2003359387A JP 4185433 B2 JP4185433 B2 JP 4185433B2
Authority
JP
Japan
Prior art keywords
images
series
recognition
image
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003359387A
Other languages
English (en)
Other versions
JP2005122617A5 (ja
JP2005122617A (ja
Inventor
アレシュ・ウデ
クリストファー・アトキソン
ゴードン・チェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2003359387A priority Critical patent/JP4185433B2/ja
Publication of JP2005122617A publication Critical patent/JP2005122617A/ja
Publication of JP2005122617A5 publication Critical patent/JP2005122617A5/ja
Application granted granted Critical
Publication of JP4185433B2 publication Critical patent/JP4185433B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

この発明はヒューマノイドシステムに関し、特に、その中心視カメラ及び辺縁視カメラによって与えられる情報を統合することのできるヒューマノイドシステムに関する。
ロボット視覚システムは、それが(1)人の目と同様の眼球運動システムを有し、かつ(2)2つのわずかに異なる視線方向で同時に得られる、解像度の異なる画像を同時に獲得し処理することが可能である場合、ヒューマノイドであるといえる。生物学的視覚システムの中心視構造を模倣するために提案されたアプローチには、一つの目について2個のカメラ、すなわち狭角の中心視カメラ及び辺縁視用の広角カメラを用いるもの[10]、[1]、[2]、[6]、解像度が空間により変化する、すなわち中心窩では非常に高い鮮明度の区域があり辺縁では解像度が粗いレンズを用いるもの[9]、及び空間により変化する対数極座標センサを用いるもの[8]等がある。ズームレンズを備えたシステムは中心視の利点の幾つかを備えているが、広角の画像と高解像度の画像とを同時に捕らえることはできない。
実際的な観点からの主な考え方は、ヒューマノイドは、興味を引く事象や物体を検出し追尾するのに辺縁視を用いるであろう、というものである。検出事象は断続的な目の運動を引き起こす筈である。この断続的運動の後、ロボットは問題となる区域の追跡を始め、それにより、物体を目の高解像度の中心窩領域で見ることができるように保つ。もし中心視での追尾が失敗した場合には辺縁視の支援を受ける。そして、高解像度の中心視により、検出した事象及び物体に関するより詳細な情報がヒューマノイドに与えられる筈であり、これによってロボットは次の行動に移ることができる。
ヒューマノイド視覚システムで獲得された、興味を引く物体を検出し追尾するために多くの研究がなされてきた。このようなシステムで獲得された情報のリアルタイム処理を実現するために、色、ディスパリティ、オプティカルフロー及び2−D形状等の手がかりが用いられてきた。研究者は通例、視覚的注意、前庭動眼反射、断続的運動、スムーズな追跡及び人の動きの模倣等の挙動を研究してきた[9]、[11]、[10]、[2]、[4]、[13]。
[1] C.G.アトキソン、J.ヘール、F.ポリック、M.レイリー、S.コトサカ、S.シャール、T.シバタ、G.テバティア、A.ウデ、S.ヴィジャヤクマル、M.カワト、「ヒューマノイドロボットを用いた人間の挙動の研究」、IEEEインテリジェントシステムズ、15(4):46−56、2000年7月/8月。
[2] C.ブレアジール、A.エドジンガー、P.フィツパトリック、B.スカセラッティ、「動視覚の社会的制約」、IEEEトランザクション、システムズ、マン アンド サイバネティクス、31(5)、2001年7月/8月。
[3] H.H.ビュルトフ、C.ウォルレイブン、A.グラフ、「人の知覚に基づく視覚ベースの物体認識」、国際パターン認識学会予稿集。第III巻、第768−776頁、カナダ、ケベック州、2002年8月。
[4]G.チェン、A.ナガクボ、Y.クニヨシ、「連続的ヒューマノイド対話:一つに統合された遠近感獲得適応性、冗長性及び柔軟性」、ロボティクス及び自律システム、37:161−183、2001年。
[5] C.ガスケット、G.チェン、「ヒューマノイドロボットのための閉ループから開ループへの視覚サーボ制御」、2003(未発行)。
[6] H.コジマ、H.ヤノ、「世話をする人間とのコミュニケーションを学習するロボット」、後成的ロボティクスに関する国際ワークショップ予稿集、ルンド、スウェーデン、2001年。
[7] D.マール、H.K.ニシハラ、「3次元形状の空間構成の表現と認識」、R.Soc.ロンドン、予稿集、B、200:269−294、1978年。
[8] G.メッタ、F.パネレイ、R.マンゾッティ、G.サンディーニ、「ベビーボット;人工的な発展するロボットエージェント」、適応的挙動のシミュレーションに関する第6回国際会議(SAB2000)、パリ、フランス、2000年9月。
[9] S.ロジュー、Y.クニヨシ、「ヒューマノイド視覚システムによる頑健な追尾」、ヒューマノイド及び友好的なロボティクスに関するIAPR第1回国際ワークショップ予稿集、つくば、日本、1998年。
[10] B.スカセラッティ、「中心視活性視覚システムのための、顔検出による眼の発見」、第15回人工知能全国会議予稿集(AAAI‘98)、第969−976頁、マディソン、ウィスコンシン、1998年。
[11] T.シバタ、S.ヴィジャヤクマル、J.コンラッド、S.シャール、「生体を模倣した眼球運動制御」、適応的挙動、9(3/4):189−208、2001年。
[12] M.トゥルク、A.ペントランド、「認識のための固有顔」認識的神経科学ジャーナル、3(1):71−86、1991年。
[13] A.ウデ、C.G.アトキソン、「ヒューマノイドロボットとの対話のためのリアルタイム視覚システム」、インテリジェントロボット及びシステムに関するIEEE/RSJ国際会議予稿集、第746−751頁、マウイ、ハワイ、2001年10月/11月。
[14] A.ウデ、C.G.アトキソン、「アフィンワーピングを用いた高フレームレートでの確率論的検出及び追尾」、パターン認識国際会議予稿集、第II巻、第6−9頁、ケベック市、カナダ、2002年8月。
[15] A.イルマッツ。M.ゲクメン、「固有丘に対する固有顔及び固有エッジ」、パターン認識、34(1)、2001年。
しかし、これら全てのシステムでは、辺縁視が支配的な、又は排他的な役割を果たしている。対数極カメラ又は空間により変化するレンズで実現されるアルゴリズムはいずれも中心視による情報の処理を暗に示しているのであるが、このようなシステムを開発した研究者は、本質的には辺縁視のみを用いて解決可能な問題のみに専念しているように思われる。注目すべき例外はブレアジールらの著作[2]であり、ここでは始めに辺縁視で人の顔を特定し、中心視を用いてその目を検出している。これは非常に特殊な課題であり、著者らは計算を簡単にするために、基礎となる、人の動作に関する暗黙の知識に大きく依存した。
もし、システムをヒューマノイドシステムに使用するとすれば、このシステムはリアルタイムモードで動作し、かつ観察される物体の後ろにある背景の変化及び照明条件の変化の影響を受けないものでなければならない。
従って、この発明の目的は、辺縁視からの情報を中心視からの情報と統合可能な、ヒューマノイドシステムにおいて用いるのに好適なシステムを提供することである。
この発明の別の目的は、辺縁視からの情報を中心視からのものと統合可能で、中心視界内の物体を認識可能なシステムを提供することである。
この発明のさらに別の目的は、リアルタイムで、辺縁視からの情報を中心視からのものと統合可能で、中心視界内の物体を認識可能なシステムを提供することである。
この発明の別の目的は、リアルタイムで、辺縁視からの情報を中心視からのものと統合可能で、観察される物体の後ろにある背景の変化及び照明条件の変化に関わりなく高い精度で、中心視野内の物体を認識可能なシステムを提供することである。
この発明の第1の局面に従ったリアルタイムの物体検出及び認識システムは、第1及び第2の一連の画像をキャプチャするための、ほぼ整列した光学軸を備えた第1のカメラ対を含む。第1の一連の画像は第1の解像度を有し第2の一連の画像は第1の解像度より高い第2の解像度を有する。システムはさらに、第1の一連の画像を受取るように接続され、第1の一連の画像中の物体を検出し、検出された物体が第1の一連の画像中の第1の予め定められた位置に保たれるよう第1のカメラ対を移動させるための追尾手段と、第2の一連の画像を受取るように接続され、第2の一連の画像中の第2の予め定められた位置にある物体を認識するための第1の認識手段とを含む。
好ましくは、システムはさらに、第3及び第4の一連の画像をキャプチャするための、ほぼ整列した光学軸を備えた第2のカメラ対を含む。第3の一連の画像は第1の解像度を有し第4の一連の画像は第2の解像度を有する。追尾手段は、第1及び第3の一連の画像を受取るように接続され第1及び第3の一連の画像中の物体を検出して、検出された物体が第1又は第3のいずれかの一連の画像中のそれぞれ第1の予め定められた位置に保たれるよう前記第1及び第2のカメラ対を移動させるための手段を含む。
第2の予め定められた位置は第2の一連の画像の中心であってもよい。
システムはさらに、第4の一連の画像を受取るように接続され、第4の一連の画像の中心の物体を認識するための第2の認識手段と、第1の認識手段によって認識された物体と第2の認識手段によって認識された物体とが同一の物体であるか否かを判断するための手段とを含んでもよい。
好ましくは、第1のカメラ対のカメラは、それぞれの光学軸が予め定められたずれ量で互いにオフセットされるように配置され、第1の一連の画像の第1の予め定められた位置は、予め定められたずれ量に従って選択されたオフセット量だけ第1の一連の画像の中心からずれるように予め選択される。
より好ましくは、第1の認識手段が、第2の一連の画像中の物体を検出するための検出手段と、第2の一連の画像をフィルタリングするためのフィルタ手段と、検出手段によって検出された物体の形状を予め定められた形に近似するための近似手段と、物体の形状を近似する予め定められた形を、固定された大きさで、両軸が予め規定された座標系のx軸及びy軸に整列された、予め定められた楕円へと変形させるための変形手段と、変形手段によって変形された画像中の物体を認識するための手段とを含む。
認識は、主成分分析(PCA)によって行なうことができる。
フィルタ手段は、以下で規定されるラプラシアンガウシアン(LoG)フィルタを含んでもよい。
Figure 0004185433
第1の認識手段が、第2の一連の画像を受取るように接続され、第2の一連の画像の連続した画像の各々における第2の予め定められた位置にある物体を認識するための認識手段を含んでもよい。
この発明の第2の局面は、コンピュータ上で実行されると、コンピュータに上述のいずれかの機能の全てを行なわせる、コンピュータで実行可能なプログラムに関する。
I.はじめに
ここでは、認識という、中心視が非常に適した課題に、中心視を本格的に使用するシステムを説明する。関心のある物体はまず辺縁視カメラ[13]で獲得された情報を用いて本発明のリアルタイム視覚システムで検出され追尾される。検出事象がトリガとなって、ロボットはその視線を候補領域に向けることとなり、こうしてロボットは物体を視覚的に追跡し始める。検出された物体が静止しているとは仮定せず、認識の際には、物体の動きを考慮している。中心視による視界においては場所と形状がより正確に判断できるため、中心視カメラで獲得された画像に主成分分析(PCA)を適用して物体を認識した。適用ドメインとして、ヒューマノイドと対話する人がロボットに物体を示し、ロボットがその示された物体の正体に応じて反応する、という状況を考えた。
実験のため、出願人の作製したヒューマノイドロボットDBを用いた。DBは30の自由度(DOF:Degree of Freedom)をもつ液圧式ヒト型ロボットでる。図1はこの実施例に従ったヒューマノイドシステム(DB)20の全体構成を示し、図2はDB20の頭部を示す。
図1及び図2を参照して、DB20は左目30Lと右目30Rとを含む。目30Lと30Rの各々は2個のカラーカメラを有する。辺縁視のための広角カメラ(水平100度)34L及び34Rと、中心視のための狭角カメラ(水平24度)32L及び32Rとである。中心視カメラ32L及び32Rは辺縁視カメラ34L及び34Rの上方にそれぞれ位置づけられ、それらの光学軸は図2に示すようにほぼ整列している。
DB20はさらにカメラ34L及び34Rによって獲得された辺縁視界を処理するための辺縁視界プロセッサ40と、カメラ32L及び32Rによって獲得された中心視界を処理するための中心視界プロセッサ42とを含む。プロセッサ40及び42は最新のデュアルプロセッサPC(パーソナルコンピュータ)の2個で実現される。
DB20はさらに、関節(図示せず)を制御する一組のアクチュエータ60−78を含む。アクチュエータ60及び62は左目の2つのDOF(パン及びチルト)用であり、アクチュエータ64及び66は右目用である。3個のアクチュエータ68、70及び72は首の3つのDOF用であり、アクチュエータ74、76及び78はトルソ用である。こうしてDB20は合わせて10のDOFを有し、両辺縁画像中の物体の位置を予め定められた点にできるだけ近く保つ。なお、DB20はその姿勢を制御するための他のDOFも有
する。
DB20はさらに、プロセッサ40及び42の出力52及び54をそれぞれ受けるように接続され、両辺縁画像中の物体を固定された点に移動させそこに留めるよう、予め定められたアルゴリズムに従ってアクチュエータを制御するアクチュエータコントローラ44と、中心視界プロセッサ42の出力50に接続され、中心視界内の物体を認識して、DB20が物体を認識したことを示すとともに予め定められた行動をトリガする信号56を出力するための物体認識装置46とを含む。物体認識装置46はまた、アクチュエータコントローラ44に制御信号58を出力する。
アクチュエータコントローラ44は、物体を追尾する際、信号58、中心視界プロセッサ42の出力54及び辺縁視界プロセッサ40の出力52にこの優先順位で応答してアクチュエータ60−78を制御する。
II.確率論に基づくサーチと追尾
本発明の物体検出追尾器は確率論的に実現される。観測された環境を幾つかのランダムプロセス(ブロッブ)で表す。uに位置し、色強度Iuを有する画素が、Θk、ただしk=1,…,K、のプロセスで生成される確率をP(Iu,u|Θk)で表すこととする。さらに、アウトライアープロセスΘ0を追加導入するが、これは他のプロセスでキャプチャされないデータをモデル化するものである。
全ての画素が相互に排他的なプロセスΘ、k=0,…,Kの一つに由来すると仮定して、色強度が場所uで観察される確率を、以下の合計確率法則を用いて書くことができる。
Figure 0004185433
ここでωkはプロセスΘk、ただし
Figure 0004185433
Θ={Θ0,Θ1,…,ΘK}のプロセスを観測する事前確率である。これらの仮定のもと、画素uがl番目のプロセスに由来する事後確率は、ベイズの規則により以下で与えられる。
Figure 0004185433
隣接する画素をプロセスに割当る相関を無視すると、全体の確率は以下のように近似される。
Figure 0004185433
各時間ステップで、尤度(3)が最大となるように(Θ1,…,ΘK,ω0,ω1,…,ωK)を決定したい。多くの場合、基準(3)を直接最大にするよりも、その対数に負号を付したもの(対数尤度)を最小にする方が容易である。
対数尤度を最小化できるように、まず、プロセス分布Θkをどのようにモデル化するかを決定しなければならない。ここでは、ある画素がこれらのプロセスのうち1つにより生成される確率を評価するのに、形状と色の特性とを用いる。これらの特性が互いに独立であると仮定すると、次のようになる。
Figure 0004185433
実際上、多くの場合、追尾される物体の2次元形状はほぼ楕円形で、物体画像xlの中心とそれに含まれる画素の共分散行列Σlとで近似可能である。従って、画素uがl番目のブロッブに属する確率の形状の部分は、以下のガウス分布で特徴付けられる。
Figure 0004185433
物体の色の確率は、ガウス混合モデルでモデル化できるものと仮定する。
Figure 0004185433
ここで
Figure 0004185433
かつ
Figure 0004185433
アウトライアープロセスは画像の各画素で固定された均一分布でモデル化される。
ブロッブと背景の色はこの実施例の追尾器においては一定に保たれる。これらはオフラインで学習される。従って、各追尾ステップで、形状パラメータ
Figure 0004185433
及び混合確率
Figure 0004185433
に対し(3)を最大化する必要がある。優れた反復的アプローチがEMアルゴリズムによって与えられる。EMアルゴリズムは、まず現在の{Θk}と{ω}との推定値(推定ステップ)を用いて事後確率Pu,l(式(2)、(4)、(5)、(7)で与えられる。)を計算し、その後パラメータ{(x)}及び{ω}を、Pu,lがあたかもそれらとは独立した定数であるかのように推定する(最大化ステップ)ことによってなされる。最大化ステップは、Pu,lを重みとして用いた画像画素の重み平均及び共分散の計算と、{ω}の再推定とからなる。この処理は収束するまで繰返される。
我々は、動いているカメラでキャプチャされた動的なシーンに興味があるので、検出アルゴリズムもまた、リアルタイムで実現する必要がある。この発明のシステムの元となる知識は色及び形状の確率分布によって与えられる。画像中の楕円物体をサーチするのは時間がかかるので、追尾器を初期化するための元となる知識としては色のみを用いた。
色に基づき、ある画素がl番目のブロッブに属する確率が(6)で与えられる。初期のブロッブパラメータに関する情報がないので、それらの形状と画像中の場所とをランダムに選択した。形状パラメータを、制御された方法で変化させ、こうして生成されたブロッブの2次元のサイズが所与の制限の中に留まるようにした。その後色の確率(6)が各画素で推定され、ウィンドウ内の全ての確率の和があるしきい値を超えると、追尾器がスタートする。しきい値は本発明では自動的に選択され、さまざまな照明特性を考慮するため、物体ごとに異なる。これらアルゴリズムの詳細は[14]にある。
III.追跡
辺縁画像内で興味を引く物体が検出されると、DBの目がその追跡を始める。この段階でのロボットの課題は、両辺縁画像内の物体の位置を、予め定められた点にできるだけ近付け、そこに保つことである。この目標は、全ての制御された関節(目の各々で2個、首で3個、トルソで3個)において、一組の簡略化されたマッピングを用いて達成される。提案されたマッピングは開ループ制御システムには簡略すぎるが、閉ループの場合は非常にうまくいく。このアプローチの詳細は別の論文[5]にある。
中心視カメラ32L及び32Rはそれぞれ辺縁視カメラ34L及び34Rに一体的に固定され光学軸をほぼ整列させてそれらの上方に配置されているので、この方法により、中心視画像においても物体が中心点に近づく。2個のカメラ(中心視カメラ及び辺縁視カメラ)の垂直方向の位置ずれを考慮し、さらに物体を中心視画像の中心点により近付けるため、辺縁視画像の中心からわずかな垂直方向のオフセットを導入した。辺縁視カメラ34L及び34Rは、物体が真の中心点ではなく、ずらされた中心点の近くに保たれるようにその向きが制御される。
オフラインのトレーニング段階で、固定されたオフセットを決定した。理論的にはオフセットは物体の深度に依存するが、本発明の方法は興味のある物体を中心視画像の中心近くに保ち、中心視画像を認識に適したものとするには十分であることが分った。DB20は物体を注視しようとするが、検出器は入来する中心視画像内を活発にサーチするので、物体が中心視に入ってくると即座に追尾を開始することができる。
実験では、辺縁画像よりも中心視画像でのほうが物体の場所と形状をはるかに正確に推定可能であることが分ったが、これは物体の認識には重要なことである。例えば、中心視(左目について図3(L)、右目について図3(R))で推定した物体の場所と形状は、辺縁視(左目について図4(L)、右目について図4(R))で推定したものよりもはるかに正確である。しかしながら、辺縁画像からの情報をループ内で用いることが重要である、なぜなら、物体の動きが速くてDBの目では追いきれない場合、物体は中心視画像からすぐに消えてしまうからである。
IV.認識
ヒューマノイドロボットにとって、物体の認識は重要な課題である。物体認識の以前のアプローチでは、マール及びニシムラ[7]の3次元再構築パラダイムを中心に実現されるのが支配的であったが、最近になって開発された認識システムは視点依存モデルを利用するものが多い。研究のほとんどは単一の画像からの物体認識に専念したものであるが、[3]を例として、時間の経過に伴う情報の重要性を指摘した幾つかの結果も発表されている。
最も一般的な視野ベースの方法は主成分分析(PCA)であり、これはまた、線形サブ空間法又は固有空間法とも呼ばれる。その最も基本的な形として、この方法は関心のある領域を、幾つかのテスト画像から決定される低次元のサブ空間に投影する。その後、既知のサンプルベクトルから、この投影されたベクトルまでの距離を計算し、これらの結果に基づいて物体を分類する。この方法は最初に顔の認識用に提案されたが[12]、その後数多くの他の応用が見出されている。
A.PCAの概観
主成分分析の基本的考え方は、全画像空間における物体画像の分布を最もよく説明する一組のベクトルを見出すことである。十分な詳細まで物体の画像を表すのに必要とされるベクトルの数は、通常、それらによって表される物体画像の次元よりはるかに小さい。
所与の一組のトレーニング画像{I1,…,Im}がある場合(このセクションでは画像はn個のエントリの列ベクトルであると考える。)、固有空間の分解は共分散行列AAの固有ベクトルで与えられ、ここでA=[I1−I,…,Im−I]であり、ただし
Figure 0004185433
は平均の物体画像である。m<nであるので、AAの最初のm個の固有ベクトルのみがゼロではない。A=UΣVTの特異値の分解を計算することによってAAの固有ベクトルを計算すればより安定である。Aの非ゼロの特異値に随伴するUの列は、非ゼロの固有値に随伴するAAの固有ベクトルである。
Aの非ゼロの特異値及び関連の固有ベクトルを計算する方法に、効率的で数値的に安定なものがあり、この実施例ではこのアプローチを用いる。
固有空間法のより広範な使用を妨げるおもな要因は、固定されたサイズと向きの物体の画像を獲得する必要があることである。固有空間法はまた、観察される物体の背景の変化、照明条件の変化及びオクルージョンの影響を受けやすい。これらの問題に対する本発明の解決策を以下で説明する。
B.アフィンワーピング
向きと大きさの変化に対し不変とするために、本発明の認識システムはブロッブ追尾システムの結果を利用する。このシステムは、各画像中の物体の位置のみでなく形状と向きも判断する。これは物体をサーチし追尾するEMアルゴリズムによるものである。すなわち、EMアルゴリズムでは、追尾された物体の位置、向き及び形状に関し対数尤度を最小にするためである。これによって、物体形状を近似する楕円を、固定されたサイズで両軸が新たな画像ウィンドウの座標軸に整列された楕円に変換するためのマッピングの計算が可能となる。結果として得られる同次座標でのマッピングは以下のアフィン変換で与えられる。
Figure 0004185433
ここでui=[ui,viTであり、θiは時間tiにおける、追尾されているブロッブの推定された位置と向きであり、ai及びbiはその長軸及び短軸の長さの半分であり、wx×wyは検出した楕円をマッピングするウィンドウの、固定されたサイズである。図5はこの処理を示す。図5(A)は元の画像を示し、図5(B)は変形された画像を示す。
主成分分析に必要なベクトルを構築するため、新たな楕円に含まれる画素をパーズする。生成されたベクトルは固定された次元を有する。なぜなら、楕円のサイズが固定されているからである。ウィンドウ内の他の全ての画素は、物体に属していない確率が高いので無視されるべきである。このようにして、物体には属していないが主成分分析に入ってくる背景画素のパーセンテージを確実に下げ、背景の変化に対するこの方法への影響を小さくする。
図6はこの処理を示す。図6(A)の犬のぬいぐるみの画像は固定サイズのウィンドウに変形され、楕円100の外にある黒の部分102中の画素は無視される。
C.照明の変化に対する頑健性
基本となる形では、固有空間法が照明条件の変化に影響されやすいことはよく知られている。画像をエッジオペレータでフィルタリングすればPCAをより頑健にできることが提案されている。これはエッジマップが照明の変化による影響を受けにくいからである。固有空間分解は、元の画像ではなくエッジマップにも適用できる。しかし、エッジは局在化されており、ブロッブパラメータの計算におけるわずかな誤差によって認識処理が破綻する恐れがある。
この問題を軽減する方策の一つは、エッジを膜関数で拡散させることである。これはエッジデータに対し一次の正規化フィルタで畳込みを行なうのと等価である[15]。相関に基づくステレオマッチング等の、同様の問題ですでに有効性を示している方法を用いるのがより自然であろう。相関に基づくステレオマッチングでは、画像は最初にLo(ラプラシアンガウシアン)フィルタでフィルタリングされることが多い。
Figure 0004185433
[15]と異なり、エッジオペレータより前に平滑化オペレータが来る。パラメータσによりフィルタのチューニングができる。ステレオマッチングでは、局在化を良好に行なうために小さいσが好まれることが多いが、認識においてはエッジの拡散を増大するために大きなσを用いるほうが良い。これによって、このアプローチに対する位置/向きの推定におけるわずかな誤差の影響が小さくなる。
元の画像と比較して変形された画像のサイズが小さいので、元の画像でなく変形された画像にLoGフィルタを適用したいところである。このアプローチで問題となるのは、変形された画像では画素間の空間的関係が変化していることである。このため、画素位置に基づくLoGフィルタの効果に変動が起こり、フィルタの空間特性を損なうおそれがある。従って、ここではまずLoGフィルタを適用し、その後アフィンワーピングを行なう。
D.ソフトウェアでの実現例
図7は辺縁視界プロセッサ40上で実行されてこの実施例の物体検出及び追尾を実現するメインプログラムの全体の制御構造を例示する。中心視界プロセッサ42上で実行されるプログラムもまた、同様の構造を有する。
このプログラムはPCに辺縁視界プロセッサ40、中心視界プロセッサ42及び物体認識装置46の機能を行なわせる。これらのプログラムは一般のPCのCD−ROMドライブ又はFDドライブに挿入されるCD−ROM又はフレキシブルディスクに記憶されさらにハードディスクに転送されてもよい。又は、プログラムはローカルエリアネットワーク(LAN)を介してPCに送信されハードディスクドライブに記憶されてもよい。プログラムは実行される際にランダムアクセスメモリにロードされる。
以下で説明するプログラムの各々はPCを周辺視界プロセッサ40、中心視界プロセッサ42、アクチュエータコントローラ44及び物体認識装置46として動作させる幾つかの命令を含む。この方法を行なうのに必要な基本的機能のいくつかはPC上で実行されるオペレーティングシステム(OS)又はサードパーティのプログラム、もしくはPCにインストールされる最適化ツールボックス等のモジュールにより提供されるので、プログラムはこの実施例の機能的ユニットを実現するのに必要な基本的機能全てを必ずしも含まなくてもよい。プログラムが含む必要があるのは、命令のうち、適切な機能又は「ツール」を制御された様態で呼出すことによってこれらのユニットの機能を行なって所望の結果が得られるようにする部分だけである。PCがどのように動作するかは周知であるので、ここでは説明を省略する。
図7を参照して、メインプログラムが開始すると(300)、画像ストリーム302からしきい値を推定するステップ320と、しきい値が推定されたか否かを判断するステップ(322)とが行なわれる。しきい値が推定されるとステップ324に進み、そうでなければステップ320に戻る。
ステップ324で、メインプログラムは画像ストリーム304内で物体を検出しようとする。ステップ326で、ステップ324において物体が検出されたか否かを判断する。物体が検出されていればステップ328に進み、そうでなければステップ324に戻る。
メインプログラムはさらに、画像ストリーム306内で検出された物体を追尾するステップ328と、物体が検出されたか否かを判断するステップとを含む。もし物体が検出されていればステップ328に戻る。もしそうでなければステップ324に戻る。
図8はステップ324の制御構造をより詳細に示す。この処理はまた、しきい値推定のステップ(320)にも適用される。図8を参照して、物体検出処理324は、形状モデル402からブロッブの形状及び場所をランダムに生成するステップ420で開始する(400)。
処理324はさらに、画像ストリーム404の画像にアフィンワーピングを適用するステップ422と、色モデル406に基づいて確率の和を評価するステップ424と、しきい値が利用可能であるか否かを判断するステップ426とを含む。
もし、しきい値が利用可能でなければ、すなわち処理がしきい値を推定するステップ320(図7を参照)にあれば、制御はステップ428に進み、ここでしきい値を生成するのに十分なデータが利用可能であるか否かが判断される。もし十分なデータがあれば、ステップ430でしきい値が生成され、制御はステップ420に戻り、物体検出が開始される。もしステップ428で十分なデータが利用できないと判断された場合、制御はステップ420に戻り、十分なデータが利用可能となるまで、ステップ420から428が繰返される。
もしステップ426でしきい値が利用可能であると判断されればステップ432に進み、ここでしきい値を超えたか否かが判断される。もししきい値を超えていれば、ブロッブが発見されたとみなされ、追尾が始まる(408)。もししきい値を超えなければステップ420に戻り、ステップ432でしきい値を超えたと判断されるまで、ステップ420から432が繰返される。
図9は物体追尾のステップ328(図7)をより詳細に示す。この実施例では、変形された画像ウィンドウにEMアルゴリズムが適用されることに留意されたい。これは各画像について、場所、形状及び先に計算した色の確率(予想ステップ)に基づいて、その画素がブロッブの一つに属する確率を計算することと、新たな場所及び形状パラメータの推定(最大化ステップ)とから成る。
画素の場所に関する情報が必要な全ての計算において、新たなウィンドウの画素座標に代えて元の画像の画素の先に計算された座標が用いられる。アルゴリズムが収束するか、最大繰返数に達すると、EMの繰返しが中止される。
この処理は一旦ブロッブが検出されステップ500でブロッブの追尾が始まると開始され、ブロッブを含む画像ストリーム502内の画像にアフィンワーピングを適用するステップ520と、色モデル504に基づいて色の確率を評価するステップ522と、色モデル504及び形状モデル506に基づいて形状確率及び色の確率を組合わせるステップ(EMアルゴリズムの予想ステップ)524と、ステップ524の出力に基づいてブロッブの形状と場所を推定し(ステップ526)、その結果に基づいて形状モデル506を更新するステップ(EMアルゴリズムの最大化ステップ)と、アルゴリズムが収束したか、又は繰返し数の制限に達したかを判断するステップ528とを含む。もしアルゴリズムが収束したか、又は繰返し数の制限を超えた場合はステップ530に進む。さもなければステップ524に
戻り、ステップ524及び526でEMアルゴリズムを繰返す。
ステップ530で、ブロッブが発見されたか否かを判断する。追尾に失敗したと判断されると、ブロッブの検出が再開され、ブロッブの追尾がステップ508で続けられる。ブロッブが発見されたと判断されれば、制御は一方でステップ532へ進み、他方でステップ534に進む。
ステップ532で、プログラムはアクチュエータを制御して、ロボットが物体を中心に保つように動かす。その後ステップ520に戻る。
図10はステップ534で行なわれる処理を示す。図10を参照して、処理はステップ550で始まり、ここでは元の画像に対し対数フィルタリングが行なわれる。次に、ステップ552で、推定されたブロッブ位置を用いて、フィルタされた画像にアフィンワーピングを施す。ステップ554で、PCAを用いて物体認識が行なわれる。
ステップ556で、前もって学習された物体が認識されたか否かが判断される。もし物体が認識されれば、ロボットによる予め定められた動作がなされる。それ以外の場合、ロボットは何も動作しない。その後図9のステップ520に戻り、追尾が繰返される。
ステップ520で、予測されたブロッブの形状と位置とを用いてアフィン変換が計算される。これは単に、先の画像で推定されたブロッブの形状と位置であっても良い。マッピングにより、固定サイズの新たな画像ウィンドウの中心にブロッブが配置されかつその形状が楕円になるように、ブロッブ周囲の領域が変形される。
ステップ520で、新たなウィンドウの各画素について、アフィン変換の逆変換が適用される。一般に、変換された画素は画像画素の一つに正確にマッピングされているわけではないので、新たな画素の各々の色は、最も近くの隣接する画素から、又は元の画像の画素の線形補間から、推定される。色の他、元の画像における対応する画素の(アフィン変換に関する)位置もまた、新たな画像の各画素について記憶される。
ステップ522で、ワープされた画像の各画素について、色の確率が計算される。この実施例では色モデルが一定に保たれるので、これらは一度計算するだけで良い。
E.トレーニング及び認識
この発明の目標は、DBが、人の提示した物体を認識できるようにすることである。トレーニング段階では、ユーザは全ての関連の物体を提示することになっている。ヒューマノイドの前の常に同じ場所に物体を置くことは不可能なので、ユーザはこれを、予想される配置位置のあたりで平行移動させたり回転させたりする。これにより、物体認識のための数多くの視点の集合が生成される。ここではキャプチャされる視点の数を、物体あたり100個と設定した。
上述の方法を用いて、物体が周辺画像内で検出され追尾されるので、DB20はその視線をそこに向け、その追跡を開始することができる。中心視画像で物体が検出された後、これらの画像はLoGフィルタされ、ワープされて、図6(B)の正規化された形状となる。ワープされた画像の周囲を取囲む楕円内の画素が主成分分析に用いられる。上位の固有ベクトル{Γk}の集合が決定された後、トレーニング画像を固有空間に投影し、投影の結果と平均画像
Figure 0004185433
とを将来のオンライン認識のために記憶する。
DBの中心視界は標準的なNTSC(National Television
System Committee:全国テレビジョン方式委員会)カメラで提供される。インターレース効果に対処しなければならないことを避けるため、中心視画像を30Hz、320×240画素の解像度でキャプチャした。他方で、初期の検出、追尾及び追跡に用いられる周辺画像は毎秒60フィールド、全解像度でキャプチャした。物体全体が中心視画像に確実に含まれるように、物体はヒューマノイドに対しある距離で示されるので、物体が全画像をカバーすることは期待できない。ここでは物体を160×120画素のウィンドウサイズに変形するが、通常これによって元のサイズの中心視画像に比べてわずかなサブサンプリングが引き起こされる。しかしながら、これは周辺画像におけるサイズと比べれば依然として高い鮮鋭度である。
ここでは、固有ベクトルのサイズは従って、π*160/2*120/2≒15079に等しい。固有ベクトルを計算するのに必要とされる特異値分解を除き、他の演算はすべて、この実施例に従ったシステムによりリアルタイムで行なわれる。これは明らかに、なんの制限にもならない。なぜなら、トレーニング段階で特異値分解をリアルタイムで計算しなければならないという理由は何もないからである。
認識段階で行なわれる多くの演算は追尾段階のものと同じである。こらは周辺画像の検出と追尾、DBの目による物体の追跡、並びに、中心視画像における検出、追尾、LoGフィルタリング、及びアフィンワーピングを含む。変形されLoGフィルタされた中心視画像はその後先に計算された固有ベクトルに投影される。
Figure 0004185433
結果として得られる投影ωがトレーニング段階で生成されたプロトタイプΩiと比較され、最も近いプロトタイプのクラスによって解が与えられる。
Figure 0004185433
認識システムの性能を上げるため、幾つかの改良を加えた。第1に、左右の中心視画像で同じ物体が認識された時だけ、分類が有効であるとされる。第2に、このシステムのダイナミックな性質を発展させて、時系列の画像に対し認識処理を行なった。発見学習的に選ばれた時間間隔において物体の同一性が変化しないときだけ、その物体が認識されたものとした。この実施例では、幾らかのフレーム間の動きを勘案するために、通例毎秒3枚の画像を用い、認識結果を許容するまで2秒間待機するようにした。
画像1枚ごとに、上述のアプローチによりプロトタイプ画像の一つが選択される。これは、もしもデータベースに属さない物体がDB20に示されるとすれば、好ましいことではない。しかし、固有空間法により、観測された物体の画像を再構築することができるので、元の画像と再構築された画像との距離を計算することができる。
Figure 0004185433
もしこの距離があるしきい値を超えれば、物体はデータベースに属さないと考え、未知のものに分類される。
残念ながら、再構築の品質は物体ごとに大きく異なるので、全ての物体について一つのしきい値を選択することは困難である。このため、全ての物体について適切なしきい値を選択するために、追加の(なくてもよい)トレーニング段階を導入した。このトレーニング段階では、その実体が分っているさまざまな物体をDB20に示し、再構築法がどのような性能を示すかを測定した。すなわち、(12)で与えられるような再構築誤差をサンプリングした。その後、物体iについての再構築誤差しきい値φiを以下のように設定した。
Figure 0004185433
ここで、nは物体iの発生回数であり、n0はデータベースに属さない物体の発生回数である。これにより、システムが未知の物体を認識することが防がれる。
V.結果及び結論
この実施例に従ったシステムを試験するため、幾つかの実験を行なった。全ての実験において、物体ごとに100個の画像を用い、トレーニング用画像を組合わせたものに対し主成分分析を行なった。
図13及び図14は物体の動きの量に対する、この実施例のシステムの性能を示す。明らかに、物体が速く動き、空間内のさまざまな場所からスナップショットがとられる場合には、物体の認識はより困難になる。各実験では、物体のうち一つをロボットの前で動かし、動く物体のスナップショット200枚を撮影した。棒グラフは、(11)を用いて固有空間に投影した物体画像から、各クラス(物体)についての最良のプロトタイプまでの正規化された平均距離を示す。スコアは低いほど良い。
実際にロボットに対して示された物体に対応するプロトタイプが常に低いスコアを達成したが、予想通り、動きが大きくなると他との差は減少した。
この対話形式の実験では、DBに、図11に示す熊のぬいぐるみ110及び114と犬のぬいぐるみ112とを区別させた。ぬいぐるみ110、112、114は同じような色なので、共通の色モデルを学習させて全ての物体を検出し追尾させた。認識が成功したか否かを示すために、DBには、犬のぬいぐるみ112を認識したときには物体を指差し、熊のぬいぐるみ110又は114を認識したときには何もしないようにさせた。図12はDBが犬のぬいぐるみ112を指差している様子を示す。検出器と追尾器とは視界に現れたり消えたりする物体をうまく処理し、中心視カメラ32L及び32Rは示された物体にロックすることができた(図3及び図4を参照)。
この対話的実験では、物体がDBの目に近すぎて中心視画像として大きくなりすぎたときに、分類の間違いが生じた。しかし、この動的なアプローチでは、最終的な特定のために複数のスナップショットを用いるので、誤った特定を必ずフィルタして除くことができ、DBは常に犬112を指差し、熊110及び114は無視した。
全ての計算はリアルタイムで行なわれた。すなわち、検出と追尾に60Hz、認識に30Hzである。
結論として、この実施例は動く物体の場所を正しく特定し、追尾し、認識することができた。発明者らは初めて、ヒューマノイドロボットで周辺視と中心視とをいかにして統合してこれらの問題をリアルタイムで解決するかを示した。
上述の実施の形態は単なる例示であって制限的なものと解してはならない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味及び範囲内でのすべての変更を含む。
この発明の一実施例に従ったロボットシステム(DB)20の全体構造を示す図である。 この実施例に従ったDB20の辺縁視カメラ34L及び34Rと、中心視カメラ32L及び32Rとを示す図である。 中心視カメラ32L及び32Rの視界を示す図である。 辺縁視カメラ34L及び34Rの視界を示す図である。 この実施例に従ったアフィンワーピング前後の元の画像と変形された画像とを示す図である。 元の画像とこの実施例に従って変形されLoGフィルタされた画像とを示す図である。 この発明の実施例におけるメインプログラムの制御構造を示すフローチャートである。 この発明の実施例におけるメインプログラムの物体検出及びしきい値推定処理を示すフローチャートである。 この発明の実施例におけるメインプログラムの物体追尾処理を示すフローチャートである。 物体認識処理を示すフローチャートである。 実験で用いられた物体を示す図である。 指差すことで犬112を認識したことを示しているDB20の図である。 小さい動きでDB20に提示された図11の物体の区別を示す図である。 大きな動きでDB20に提示された図11の物体の区別を示す図である。
符号の説明
20 ヒューマノイドシステム(DB)
30L、30R DBの目
32L、32R 中心視カメラ
34L、34R 辺縁視カメラ
40 辺縁視界プロセッサ
42 中心視界プロセッサ
44 アクチュエータコントローラ
46 物体認識装置
60−78 アクチュエータ

Claims (9)

  1. リアルタイムの物体検出及び認識システムであって、
    第1及び第2の一連の画像をキャプチャするための、ほぼ整列した光学軸を備えた第1のカメラ対を含み、前記第1の一連の画像は第1の解像度を有し、前記第2の一連の画像は前記第1の解像度より高い第2の解像度を有し、さらに、
    前記第1の一連の画像を受取るように接続され、前記第1の一連の画像中の物体を検出し、検出された物体が前記第1の一連の画像中の第1の予め定められた位置に保たれるよう前記第1のカメラ対を移動させるための追尾手段と、
    前記第2の一連の画像を受取るように接続され、前記第2の一連の画像中の第2の予め定められた位置にある物体を認識するための第1の認識手段と
    第3及び第4の一連の画像をキャプチャするための、ほぼ整列した光学軸を備えた第2のカメラ対とを含み、前記第3の一連の画像は前記第1の解像度を有し、前記第4の一連の画像は前記第2の解像度を有し、
    前記追尾手段は、前記第1及び第3の一連の画像を受取るように接続され、前記第1及び第3の一連の画像中の物体を検出して、検出された物体が前記第1または第3のいずれかの一連の画像中のそれぞれ第1の予め定められた位置に保たれるよう前記第1及び第2のカメラ対を移動させるための手段を含む、物体検出及び認識システム。
  2. 前記第2の予め定められた位置は、前記第2の一連の画像の中心である、請求項に記載のシステム。
  3. 前記第4の一連の画像を受取るように接続され、前記第4の一連の画像の中心の物体を認識するための第2の認識手段と、
    前記第1の認識手段によって認識された物体と前記第2の認識手段によって認識された物体とが同一の物体であるか否かを判断するための手段とをさらに含む、請求項に記載のシステム。
  4. 前記第1のカメラ対のカメラは、それぞれの光学軸が予め定められたずれ量で互いにオフセットされるように配置され、
    前記第1の一連の画像の前記第1の予め定められた位置は、前記予め定められたずれ量に従って選択されたオフセット量で前記第1の一連の画像の中心からずれるように予め選択される、請求項に記載のシステム。
  5. 前記第1の認識手段が
    前記第2の一連の画像中の物体を検出するための検出手段と、
    前記第2の一連の画像をフィルタリングするためのフィルタ手段と、
    前記検出手段によって検出された物体の形状を予め定められた形に近似するための近似手段と、
    物体の形状を近似する前記予め定められた形を、固定された大きさで、両軸が予め規定された座標系のx軸及びy軸に整列された予め定められた楕円へと変形させるための変形手段と、
    前記変形手段によって変形された画像中の物体を認識するための手段とを含む、請求項に記載のシステム。
  6. 前記認識手段が、前記変形手段によって変形された画像を主成分分析によって認識するための手段を含む、請求項に記載のシステム。
  7. 前記フィルタ手段が以下で規定されるラプラシアンガウシアン(Laplacian of Gaussian)(LoG)フィルタを含む、請求項及び請求項のいずれかに記載のシステム。
    Figure 0004185433
  8. 前記第1の認識手段が、前記第2の一連の画像を受取るように接続され、前記第2の一連の画像の連続した画像の各々における前記第2の予め定められた位置にある物体を認識するための認識手段を含む、請求項1から請求項のいずれかに記載のシステム。
  9. コンピュータ上で実行されると、当該コンピュータに請求項1から請求項のいずれかに記載の機能の全てを行なわせる、コンピュータで実行可能なプログラム。
JP2003359387A 2003-10-20 2003-10-20 リアルタイムの物体検出及び認識システム並びにコンピュータで実行可能なプログラム Expired - Fee Related JP4185433B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003359387A JP4185433B2 (ja) 2003-10-20 2003-10-20 リアルタイムの物体検出及び認識システム並びにコンピュータで実行可能なプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003359387A JP4185433B2 (ja) 2003-10-20 2003-10-20 リアルタイムの物体検出及び認識システム並びにコンピュータで実行可能なプログラム

Publications (3)

Publication Number Publication Date
JP2005122617A JP2005122617A (ja) 2005-05-12
JP2005122617A5 JP2005122617A5 (ja) 2005-09-08
JP4185433B2 true JP4185433B2 (ja) 2008-11-26

Family

ID=34615632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003359387A Expired - Fee Related JP4185433B2 (ja) 2003-10-20 2003-10-20 リアルタイムの物体検出及び認識システム並びにコンピュータで実行可能なプログラム

Country Status (1)

Country Link
JP (1) JP4185433B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102682449A (zh) * 2012-04-25 2012-09-19 中国人民解放军军事医学科学院卫生装备研究所 软组织核磁图像自适应外力水平集自动分割及实现方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4483334B2 (ja) * 2004-02-18 2010-06-16 富士ゼロックス株式会社 画像処理装置
US9307926B2 (en) * 2012-10-05 2016-04-12 Volcano Corporation Automatic stent detection
JP6814453B1 (ja) * 2020-05-21 2021-01-20 株式会社エクサウィザーズ 撮像装置
WO2023176562A1 (ja) * 2022-03-17 2023-09-21 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102682449A (zh) * 2012-04-25 2012-09-19 中国人民解放军军事医学科学院卫生装备研究所 软组织核磁图像自适应外力水平集自动分割及实现方法
CN102682449B (zh) * 2012-04-25 2014-12-17 中国人民解放军军事医学科学院卫生装备研究所 软组织核磁图像自适应外力水平集自动分割及实现方法

Also Published As

Publication number Publication date
JP2005122617A (ja) 2005-05-12

Similar Documents

Publication Publication Date Title
Ballard Animat vision
Harville et al. Fast, integrated person tracking and activity recognition with plan-view templates from a single stereo camera
McKenna et al. Face Recognition in Dynamic Scenes.
Sedai et al. A Gaussian process guided particle filter for tracking 3D human pose in video
Ma et al. A probabilistic framework for object search with 6-dof pose estimation
Mohd Asaari et al. Adaptive Kalman Filter Incorporated Eigenhand (AKFIE) for real-time hand tracking system
Krzeszowski et al. Gait recognition based on marker-less 3D motion capture
Ude et al. Making object learning and recognition an active process
Zhu et al. Real time 3d face pose tracking from an uncalibrated camera
Ude et al. Combining peripheral and foveal humanoid vision to detect, pursue, recognize and act
JP4185433B2 (ja) リアルタイムの物体検出及び認識システム並びにコンピュータで実行可能なプログラム
Demirdjian Combining geometric-and view-based approaches for articulated pose estimation
Sherrah et al. Fusion of 2D face alignment and 3D head pose estimation for robust and real-time performance
Ude et al. Support vector machines and gabor kernels for object recognition on a humanoid with active foveated vision
Zelinsky et al. A novel visual interface for human-robot communication
Köser Affine Registration
Noriega et al. Multicues 3D Monocular Upper Body Tracking Using Constrained Belief Propagation.
Sultani et al. Action recognition in real-world videos
Wu et al. Human pose estimation in vision networks via distributed local processing and nonparametric belief propagation
Menezes et al. Towards an interactive humanoid companion with visual tracking modalities
Gross et al. Probabilistic multi-modal people tracker and monocular pointing pose estimator for visual instruction of mobile robot assistants
Khemmar et al. Face Detection & Recognition based on Fusion of Omnidirectional & PTZ Vision Sensors and Heteregenous Database
Zhao et al. A simple 3D face tracking method based on depth information
Korč et al. Detection and tracking of humans in single view sequences using 2D articulated model
Patras et al. Tracking deformable motion

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050513

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080603

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080826

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080905

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110912

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees