JP5211069B2 - ラベル付けを用いた人体姿勢の推定および追跡 - Google Patents

ラベル付けを用いた人体姿勢の推定および追跡 Download PDF

Info

Publication number
JP5211069B2
JP5211069B2 JP2009542998A JP2009542998A JP5211069B2 JP 5211069 B2 JP5211069 B2 JP 5211069B2 JP 2009542998 A JP2009542998 A JP 2009542998A JP 2009542998 A JP2009542998 A JP 2009542998A JP 5211069 B2 JP5211069 B2 JP 5211069B2
Authority
JP
Japan
Prior art keywords
data points
model
segments
posture
depth image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009542998A
Other languages
English (en)
Other versions
JP2010514064A (ja
Inventor
希久雄 藤村
ツー,ユーディン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2010514064A publication Critical patent/JP2010514064A/ja
Application granted granted Critical
Publication of JP5211069B2 publication Critical patent/JP5211069B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Description

本願は、米国特許法第119条第e項に基づく米国特許仮出願第60/871,419号(出願日:2006年12月21日)発明の名称:「Human Pose Estimation and Tracking Using Label Assignment」、米国特許出願第11/869,435号(出願日:2007年10月9日)発明の名称:「Human Pose Estimation and Tracking Using Label Assignment」の優先権を請求するものであり、この出願の主題のすべての記載をここに引用するものである。さらに、本願は、同時係属出願中の米国特許出願第11/378,573号(出願日:2006年3月17日)発明の名称:「Pose Estimation Based on Critical Point Analysis」についても関連するものであり、この出願の主題のすべての記載をここに引用するものである。
本発明は、マシンビジョン(machine vision)に関し、特に、対象者の姿勢をマシンベースで推定・追跡することに関する。
人体の姿勢を推定・追跡することは、様々な用途の中でも特に、動作認識、監視、マンマシン・インタラクション(man-machine interaction)などの用途において有用である。画像やビデオシーケンスから任意の姿勢を推定・追跡することは、人体姿勢の微妙なニュアンスを捕捉することが必要な場合が多く、困難な課題である。背景の乱れや、周囲の照明条件の変化、この他の擾乱等の事実によって、課題はさらに困難になる。
視覚的画像やビデオシーケンスに基づく人体姿勢の推定と追跡に関するアプローチは複数ある。その中には身体の部分を検出するボトムアップ手法(bottom-up approach)という手法がある。そして、検出した成分を使って全身の構成を表すものである。ボトムアップ手法は、雑然とした場面の中の各種の部分を正確かつ容易に検出できないという問題点がある。
別の手法としてはマシンラーニング手法(machine learning techniques)がある。この手法にも、多数の姿勢を取り扱えないという問題点がある。
手法の中には、人体のシルエットを用いて、人体の姿勢を推定、追跡するような手法もある。シルエットを用いる利点としては、画像中のあいまいさを低減できる点である。しかし、この手法も、3Dの人体姿勢を再構築するために必要な細部が損なわれる恐れがあるという問題点がある。
近年、複数の深さ画像(depth image)からなるストリームを用いた開発がなされている。これら複数の深さ画像には、人体のシルエットを表現する輪郭の深さプロファイル(depth profile)が含まれており、姿勢の推定についてより多くの情報が利用可能である。3Dモデルを深さ画像から生成した3Dデータ点にフィットさせる方法として、ICP(iterative closet point)は、しばしば、深さ画像とともに用いられる。例えば、J. Zieglerらの「Tracking of the articulated upper body on multi-view stereo image sequences、 CVPR 2006年」には、無香料カルマンフィルタ(unscented Kalman filters)とICP手法とを利用して、4つのステレオ画像のストリームから得た3Dデータ点に基づいて、人体の上半身の姿勢を再構築することが開示されている。ICP手法に関する主な問題点は、モデルが実際のデータから次第に乖離したり、ICPが極小解になってしまう場合がある点である。次第に乖離したり極小解になってしまう問題点を避けるために、ICPにとって初期設定(initial configuration)が非常に重要になる。しかし、すべての画像について初期設定を適切に行うのは、特に、画像間の動きの変化が大きい場合には困難である。
上記の手法では、姿勢の推定や追跡には演算処理が大変な作業となってしまう。もし、追跡・推定のためのアルゴリズムが遅すぎると、制約された時間内に追跡・推定の処理行うために、いくつかの画像をスキップしなければならない可能性も出てくる。しかし、このように画像をスキップすれば、姿勢の追跡・推定の精度を低減させるという問題点が生じる。
そこで、人体の各種姿勢を正確に追跡し、検出できる人体姿勢を推定・追跡する方法および装置の向上が求められている。さらに、上記の極小解の課題を解消するような人体姿勢を推定・追跡する方法および装置が求められている。さらにまた、演算処理を低減してリアルタイムで人体姿勢を推定・追跡できるような方法および装置が求められている。
本発明の実施形態は、次の2つのステップからなる、対象(例えば、人間)の姿勢を推定・追跡する方法を提供する:(i)画像キャプチャ装置から得たデータ点をグループ化して、対象のラベル付け部位を表すグループにする、(ii)前記データ点のグループを用いて、対象を表現するモデルをデータ点にフィットさせる。画素の3D座標を画像キャプチャ装置から得て、これらを費用関数が最小になるようなセグメントにグループ化する。さらに、このセグメントを、前回の画像での対象の制約条件と姿勢ベクトルに基づいてグループ化する。次に、例えば、逆運動学手法を用いて、グループ化したデータ点についてモデルフィッティングを行って、ラベル付けの精度を高め、ラベル付けだけの場合では得られないような姿勢のパラメータを得る。
一実施形態では、データ点をラベル付け部位を表すグループにグループ化する前に、モデルのパラメータを初期化する。このモデルの初期化は、対象の所定の姿勢を検出することで行うようにしてもよい。
一実施形態では、近傍のデータ点をグループ化してセグメントにする。さらに、このセグメントを、制約条件を用いて、対象のラベル付け部位にグループ化する。制約条件とは、いくつかある条件の中で、特に次のような条件である:類似する位置にあるデータ点を、同じラベル付け部位または近接するラベル付け部位にグループ化する;特定のラベル付け部位にフィットさせた円やボックスの外側にあるデータ点は、そのラベル付け部位にグループ化してはならない(例えば、頭部を囲んだ円の外に位置するセグメントは頭部のラベル付けをしてはならない、など);深さ画像において、他の部位とは異なる深さプロファイルを有するデータ点のグループは、特定のラベル付け部位にグループ化しなければならない;色画像において同じ色または類似する色を有するデータ点のグループは、特定のラベル付け部位にグループ化しなければならない、など。
一実施形態では、ラベル付け部位を用いてモデルをデータ点にフィットさせるために、画像キャプチャ装置において視覚可能であるようなモデルの頂点を判定する。次に、ラベル付け部位におけるデータ点を検索して、モデルの同じラベル付け部位の頂点に対応するデータ点を特定する。そして、逆運動力学を用いて、モデルの頂点とデータ点の3D座標のから姿勢ベクトルを推定する。
本明細書に記載される特徴および特長はすべて包含される必要はなく、特に、当業者であれば、図や明細書あるいは特許請求の範囲に照らして、さらなる特徴および特長を追加することが可能であることは明らかである。
さらに、本明細書中の説明で用いられた文言は、読みやすさや例示的な目的から主に用いられたものであって、本発明の主題の範囲を詳説したり、限定するために選択されたものではない。
一実施形態に係る対象の姿勢を推定、追跡する装置の概略図である。 一実施形態に係る対象の姿勢を推定、追跡する方法に関するフローチャートである。 一実施形態に係るモデルのパラメータを初期化する方法に関するフローチャートである。 一実施形態に係る対象の姿勢を推定、追跡する装置の追跡モジュールのブロック図である。 一実施形態に係る対象の姿勢を推定、追跡するサブルーチンに関するフローチャートである。 一実施形態に係るラベル付けモジュールのブロック図である。 一実施形態に係る構造モデルの階層を示す図である。 一実施形態に係る、モデルを3Dのデータ点にフィットさせるためのモデルフィッティングのサブルーチンに関するフローチャートである。
本発明の教示は、付属の図面に関する詳細な説明に照らすならば、容易に理解されるはずである。
以下に、図面を参照しつつ本発明の好ましい実施形態について記載するが、類似する参照符号は機能的に類似する構成要素を表す。
明細書中の「一実施形態」あるいは「実施形態」という記述は、当該の実施形態に関して記載された特定の特徴、構造、特性が本発明の少なくとも1つの実施形態に含まれることを意味する。明細書の随所に現れる「一実施形態では」という表現は、必ずしも同一の実施形態について言及するものではない。
詳細な記載の部分によっては、コンピュータメモリ内のデータビットの操作に関するアルゴリズムや符号表現によって提示される。このようなアルゴリズム的な記載や表現は、データ処理技術を扱う当業者によって用いられる手段であり、他の当業者に仕事の実体を効果的に伝達するためのものである。ここで言う一般的なアルゴリズムとは、所望の結果を導くためのステップが自己無撞着に連続したものと認識されるものである。このようなステップでは、物理量を物理的に操作することを必要とする。必ずしもではないが通常、このような物理量は、記憶、伝送、結合、比較、もしくは処理が可能な電気信号あるいは磁気信号の形態をとる。主に一般用途の理由から、このような信号をビット、値、要素、シンボル、文字、用語、数などで呼ぶほうがしばしば利便である。さらに、物理的な数量の物理的な操作を必要とするステップに関する特定の構成を、モジュールや符号装置などと呼ぶほうが、一般性を失うことなく、しばしば利便である。
しかしながら、このような表現あるいは類似の表現は所定の物理量に関連する便宜上のラベルにすぎない。説明から明らかな場合を除いて特に言及しない限りは、記載全体を通じて「処理する」、「演算する」、「算出する」、「決定する」あるいは「表示する」などの表現を用いる説明では、コンピュータシステムの記録部や記憶部に記憶される物理的(電子的)な数量として表されるデータを操作して、コンピュータシステムの記録部、記憶部、送信部、表示部などに記憶される、同様に物理量として表される別のデータに変換するようなコンピュータシステムあるいは類似の電子演算装置の実行や処理について述べている。
本発明の特定の側面は、ここではアルゴリズムの形態で記載される処理ステップや指令を含む。なお、本発明のこれらの処理ステップや指令は、ソフトウェア、ファームウェアあるいはハードウェアにおいて具現可能であり、ソフトウェアにおいて具現する場合、各種のオペレーションシステムで用いられる異なるプラットフォーム上に搭載され、そこから操作したりするためにダウンロードが可能である。
また、本発明は、ここに記載される動作を実行する装置に関する。この装置は、必要な用途に合わせて特定の構成を備えていてもよいし、コンピュータに記憶されるコンピュータプログラムによって選択的に起動されたり、再構成されるような汎用コンピュータから構成されていてもよい。かかるコンピュータプログラムは、以下のようなコンピュータ読取り可能な媒体に記憶されてもよいが、これらに限定されるものではない:フレキシブルディスク、光ディスク、CD-ROM、磁気光ディスクなどを含むあらゆる種類のディスク、ROM、RAM、EPROM、EEPROM、磁気カードや光カード、ASIC(Application Specific Integrated Circuits)、あるいは電子命令(electronic instructions)の記憶に適したあらゆる種類の媒体、および各々がコンピュータシステムバスに連結されたもの。さらに、本明細書に記載されるコンピュータには単一のプロセッサが含まれ、あるいは、演算能力を向上させるために複数のプロセッサデザインを用いた構造であってもよい。
ここでいうアルゴリズムや表示は、特定のコンピュータやこの他の装置に固有的に関連するものではない。各種の汎用システムは、ここに教示される内容に従ったプログラムとともに用いてもよく、あるいは、必要な方法ステップを実行するために特化された装置を構築するほうが利便な場合もある。これらの各種システムに必要な構造は、以下の記載から明らかである。さらに、本発明は、特定のプログラミング言語を指して記載されるものではない。各種のプログラミング言語を用いて、以下に記載される本発明の特定の教示を実装するようにしてもよく、さらに、以下の特定言語は、本発明の実施可能性と最良の形態を開示するために記載されたものであることは理解されるであろう。
本明細書中の説明で用いられた文言は、読みやすさや例示的な目的から主に用いられたものであって、本発明の主題の範囲を詳説したり、限定するために選択されたものではない。したがって、本発明の開示は、例示を意図したものであって、以下の特許請求の範囲に記載される本発明の範囲を限定するものではない。
対象の姿勢を推定、追跡するための方法に関する一実施形態は主に次の2つのステップを含む:(i)ラベル付け部位のデータ点をグループ化する、(ii)データ点のグループ化を用いて、対象を表すモデルをデータ点にフィットさせる。ラベル付けのステップでは、深さ画像から生成した対象のデータ点をグループ化してセグメントにする。これらのセグメントを、各種の制約条件を用いて、さらにグループ化してラベル付け部位(例えば、頭部、胴体部、左腕部、右腕部など)にする。モデルをフィットさせるステップでは、ラベル付け部位の点ごとに逆運動学を行って、データ点にフィットするモデルの姿勢ベクトルを求める。前記のモデルのフィッティングで求めた姿勢ベクトルを姿勢の推定として出力し、同時に、この姿勢ベクトルを次の深さ画像における対象の姿勢を推定・追跡するために用いる。
ここでの対象とは、2つ以上の姿勢を有する移動対象をいう。なお、移動対象には、特に、任意の物体、動物、人間、ロボット等が含まれる。ここでの実施形態は、対象として人間を参照しつつ記載するが、本発明は、2つ以上の姿勢を有する、この他の物体や動物についても必然的に同じ方法で適用可能である。
ここでのラベル付け部位とは、関節およびリンクのグループとして概念的に特定することが可能であるような、対象の任意の部分をいう。例えば、対象が人体であれば、ラベル付け部位には、部位の中でも特に、頭部、胴体部、左腕部、右腕部、右足部、左足部などが含まれる。ラベル付けした部位は、他の部位に下位区分(例えば、左腕部には左上腕部と左前腕部とを有する)することも可能である。ラベル付け部位の数は制限されるものではなく、姿勢の推定・追跡の目的に応じて増減可能である。
ここでのモデルとは、関節とリンクによる対象の表現を指す。一実施形態では、モデルとは、スキンメッシュが適用された関節とリンクの階層構造で表した人体である。関節とリンクを有する各種モデルを、対象のモデルとして用いてもよい。
制約条件は、対象の構造や特性に由来する条件を指す。制約条件とは、条件の中でも特に、類似する位置にあるデータ点をグループ化して同じラベル付け部位あるいは近接するラベル付け部位にする;同じラベル付け部位あるいは類似するラベル付け部位に属するデータ点は、深さ画像において類似する深さプロファイルを有するようにする;同じラベル付け部位あるいは類似するラベル付け部位のデータ点は、色画像において類似する色プロファイルを有するようにする、などの条件である。
<姿勢を推定・追跡する装置および方法の概要>
図1は、一実施形態に係る対象人体100の姿勢を推定・追跡する姿勢推定部118の概略図を示している。図1の実施形態では、姿勢推定部118は2つの画像ソースである、(i)デプスカメラ(depth camera)110から人体100の各点までの距離を表す深さ画像132を生成するデプスカメラ110と(ii)人体100の色画像132を捕捉するビデオカメラ112とに接続される。一実施形態では、デプスカメラ110は、毎秒17フレームの速度で人体100の3Dデータ点を表現するようなグレースケール画像132を生成するスイスのRanger製のデプスカメラであり、ビデオカメラ112は、毎秒15フレームの速度で640×480解像度の色画像134を生成する、ソニー製のDFWV500カメラである。
姿勢推定部118には、モジュールの中でも特に、初期化モジュール120と追跡モジュール112とを備える。初期化モジュール120は、図3を参照しつつ後記するモデルの初期化を行う。姿勢推定部118の追跡モデル112は、モジュールの中でも特に、ラベル付けモジュール124とモデルフィッティングモジュール126とを備える。姿勢推定部118は、図8を参照しつつ後記する人体100の推定姿勢の姿勢ベクトル130を出力する。
一実施形態では、深さ画像132は、デプスカメラ110の代わりに複数台のカメラや構造型光センサにより生成される。一実施形態では、深さ画像134を、デプスカメラ110およびこの他の感知装置(複数台のカメラや光センサなど)からの入力を組み合わせて生成する。
図2は、一実施形態に係る人体100の姿勢を推定・追跡する方法のフローチャートを示したものである。まず、図3を参照しつつ後記する所定の姿勢(例えば、対象が両腕を伸ばして下方に下げた状態でデプスカメラ110に対峙するTポーズなど)を用いて、対象の人体100の姿勢を初期化する(S210)。このようにモデルのパラメータを初期化した後、ビデオカメラ112およびデプスカメラ110から次の画像シーケンスを取得し(S220)する。次に、図4から図8を参照しつつ後記するように、人体100を追跡して姿勢ベクトル130を生成する(S230)。
<モデルの初期化>
図3は、モデルのパラメータを初期化する方法のフローチャートを示したものである。一実施形態では、この初期化はTポーズに基づいて行われる。まず、深さ画像132からTポーズを検出する(S310)。Tポーズの検出には、SVM(Support Vector Machine)ベースの検出器を用いてもよい。特に、Tポーズの特徴の検出は、深さ画像132において高速フーリエ変換(FFT:Fast-Fourier Transform)を行って、Tポーズ画像の輪郭における画素間の距離を判定することで検出する。
Tポーズを検出した後、例えば、同時係属出願中の米国特許出願第11/378,573号(出願日:2006年 3月17日)発明の名称:「Pose Estimation Based on Critical Point Analysis」に開示されるような方法で、人体100の関節を検出する(S320)。なお、前記文献に記載されるすべての内容をここに引用する。あるいは、人体100の関節は、前記人体のラベル付け部位内の画素のx-y座標値の中央値から判定するようにしてもよい。
前記の検出した関節を用いて、モデルのパラメータ418を生成する(S330)。モデルのパラメータ418を決定している間に、モデルのパラメータ(例えば、前腕部の長さや胴体部の高さなど)を前記の検出した関節に基づいて調整する。検出したモデルのパラメータ418は、デプスカメラ132から受信する次の画像シーケンスに基づいて人体100の姿勢を推定・追跡するために、モデルフィッティングモジュール126に記憶する。
<姿勢追跡のモジュールおよび方法>
図4は、一実施形態に係る人体100の姿勢を追跡する姿勢推定部118に含まれる追跡モジュール122のブロック図である。姿勢推定部118の追跡モジュール122は、各種モジュールの中でも特に、ラベル付けモジュール124とモデルフィッティングモジュール126とを備える。ラベル付けモジュール124は、前回の画像から生成した姿勢ベクトル410と、現在の深さ画像132と、現在の色画像134とを受信する。ラベル付けモジュール124は、深さ画像132から生成した3Dデータ点をグループ化し、図6を参照しつつ後記するラベル付け部位を生成して、各データ点についてのラベル情報416を生成する。なお、ラベル付けモジュール124とモデルフィッティングモジュール126とを単一のモジュールとして実装してもよい。また、ラベル付けモジュール124とモデルフィッティングモジュール126とを、例えば、ハードウェア、ファームウェア、ソフトウェアとして実装してもよく、あるいは、これらを組み合わせたものであってもよい。
モデルフィッティングモジュール126は、前回の画像のフレームから生成した姿勢ベクトル410と、現在の画像の深さ画像132と、ラベル情報416を受信する。モデルフィッティングモジュール126では、姿勢ベクトル410、現在の深さ画像132およびラベル情報416を(初期化モジュール120で取得してモデルフィッティングモジュール126に記憶した)モデルの初期化済パラメータとともに用いて、図8を参照しつつ後記する現在の姿勢ベクトル130を生成する。次に、モデルフィッティングモジュール126が生成した姿勢ベクトル130を、前回の画像の姿勢ベクトル410として、ラベル付けモジュール124とモデルフィッティングモジュール126とにフィードバックする。
図5は、一実施形態に係る人体100の姿勢を追跡・推定するためのサブルーチンのフローチャートを示したものである。まず、図6を参照しつつ後記するように、セグメントをグループ化してラベル付け部位にするための制約条件を生成する(S510)。次に、深さ画像132から生成した3Dデータ点を、前記の制約条件を用いてラベル付けする(S520)。3Dデータ点をラベル付け部位にグループ化するために、まず、3Dデータ点を複数のセグメントにグループ化して、次に、これら複数のセグメントを、図6を参照しつつ後記するラベル付け部位にグループ化する。
前記のラベル付け処理に基づいて、図7を参照しつつ後記するような、モデルフィッティングを行う(S530)。モデルにラベル付け部位をフィットさせることで、ラベル付けの精度が向上するため、このような精度の向上がなければ得ることができないような、姿勢パラメータ(前腕部と上腕部との角度など)を取得することができる。
<ラベル付けの最適化>
図6は、一実施形態に係るラベル付けモジュール124のブロック図である。ラベル付けモジュール124は、セグメント生成部610と、制約サポートモジュール(Constraint Support Module)620と、最適化エンジン612とを備える。セグメント生成部610は、深さ画像132から生成した3Dデータ点を、3Dデータ点の深さプロファイルと空間位置の類似性に基づいて、セグメントにグループ化する。
制約サポートモジュール620は、適用可能な制約条件を生成して、この適用可能な制約条件を最適化エンジン612に送信する。画像の利用可能なソースと姿勢推定部118の性能(例えば、プロセッサ速度など)とに応じて、異なる制約条件を適用するようにしてもよい。一実施形態では、制約サポートモジュール620は、頭部/胴体部追跡モジュール(Head and Torso Tracking Module)622と、深さ走査モジュール(Depth Scanning Module)624と、色検出モジュール626とを備える。
頭部/胴体部追跡モジュール622は、人体100の頭部および胴体部を追跡して、最適化エンジン612に頭部と胴体部の追跡(以下、「頭部/胴体部制約条件」と言う)から得られた制約条件を提供する。具体的には、予測する深さ画像132の頭部の輪郭に円をフィットさせて人体100の頭部を特定する。胴体部は、予測する深さ画像132の胴体部の輪郭にボックスをフィットさせて特定する。胴体部にフィットさせたボックスは、5つの自由度(x方向、y方向、高さ、奥行き、向き)を有し、対象の人体100の周囲の背景のデータ点の数が最小になるような位置に配置される。頭部が人体の他の部位(例えば、腕部など)などに覆われて、深さ画像132から特定できない場合は、胴体部を表すボックスから頭部の位置を推定するようにしてもよい。
深さ走査モジュール624は、深さ画像132を走査して、深さ画像132の他の部位とは異なる特徴の深さプロファイルを有する3Dデータ点を特定する。特徴的な深さプロファイルを有する3Dデータ点は、人体の特定部位(例えば、胴体部前方に位置する腕部など)を表す。深さ走査モジュール624は、このような特徴的な深さプロファイルに基づいて制約条件(以下、「深さの制約条件」という)を生成して最適化エンジン612に送信する。
色検出モジュール626は色の制約条件を生成して、最適化エンジン612に送信する。色の制約条件とは、特定の色によって人体の特定部位を特定するような条件のことをいう。例えば、人体100の手はしばしば露出し、色画像134において肌色で現れる。したがって、場合によっては、データ点の色の類似性を利用して、特定のデータ点を人体の特定部位にラベル付けすることができる。色の制約条件は、人体の異なる部位同士が接近しているために、深さの差異だけではこれらの部位を特定できない場合(例えば、胴体部に密接した手など)には非常に有用である。一実施形態では、ブロブ探査(blob search)を行って、特定色のデータ点を求める。ブロブ探査は、他のブロブを検出しないように、色画像の特定領域に限定するようにしてもよい。例えば、手のデータ点を検出する場合、肌色についてブロブ探査を行うときには、(同じく肌色の)顔が存在しないような領域のみに限定するようにしてもよい。
式(2)から式(6)は、式(1)を解くために用いられる制約条件を表す。式(3)から式(5)(Zejは絶対値|Apj-Aqj|を表す)は、隣り合うセグメント同士は同じか近接するラベル付け部位にグループ化する必要があるとする制約条件に由来する。
式(2)から式(6)に加えて、追加的な制約条件を加えることもできる。一実施形態では、頭部/胴体部追跡モジュール622と、深さ探査モジュール624と、色検出モジュール626での制約条件を用いる。頭部/胴体部追跡モジュール622は、頭部にフィットさせた円の外側に位置するセグメントには式Ai,1=0で表される制約条件を付与し、胴体部にフィットさせたボックスの外側に位置するセグメントには式Ai,2=0で表される制約条件を付与する。深さ探査モジュール624は、例えば、胴体部の前方に現れているセグメント(つまり、左腕部や右腕部を表すセグメント)には、式Ai,3+Ai,4=1で表される制約条件を付与する。さらに、色検出モジュール626は、例えば、色画像134においてデータ点が肌色を有するようなセグメント(つまり、右手部または左手部を表すセグメント)には、式Ai,3+Ai,4=1で表される制約条件を付与する。
式(1)から式(6)によって表される最適化問題は、NP困難の整数計画(integer program which is NP-hard)である。一実施形態では、Aijを非整数の値とすることで、最適化問題を線形計画に簡素化する。このような簡素化法を用いることで、式(1)から式(6)で表される最適化問題を、一般市場で入手可能なlp_solve 5.5.0.10などのソフトウェアライブラリを使って効率的に解くことができる(例えば、http://lpsolve.sourceforge.net/5.5/で入手可能である)。
<構造モデルを用いたモデルフィッティング>
一実施形態では、対象のモデルは、肌メッシュが装着された状態の関節とリンクの階層として表現される。演算処理を簡素化するために、スキンの一部に基づくモデルの頂点をメッシュ化して1つだけのリンクとし、頂点では複数の重み付けを用いるリニア混合を行わないようにする。図7は、子関節として腰部を含んだルート関節である骨盤を有する階層化構造モデルを例示するものである。腰関節には、首関節、左肩関節および右肩関節が含まれる。左肩関節と右肩関節は、順次に、他の子関節(左ひじ関節と右ひじ関節)を含む。
<最適化されたラベル付けおよびモデルフィッティングによる実験結果>
ある実施形態において人間の姿勢シーケンスについてテストを行った。この実施形態では、深さ画像132をスイスのRager社製SR3000の深さカメラを用いて、さらに色画像を、Sony社製DFWV500のビデオカメラを用いて得た。カリフォルニア州San LeandroのPhaseSpace社製のモーションキャプチャシステムを8台のカメラに接続して、実施形態で得られる関節の推定座標と比較するために、対象の人体の主な8つの関節について実座標を得た。実験では、マーカーを対象の人体に取り付けて実座標を生成した。
テストモーションのシーケンスには、基本的な太極拳(Taiji)の動きを含んだ武術の動作のセットが含まれる。このテストモーションのシーケンスは2.13HGzのPentium(登録商標)4において、2〜3Hzのフレーム速度で追跡することができた。本実施形態で得られた関節の位置と実座標とを比較して判定した、関節の位置の誤差を、太極拳動作のシーケンスに関する下の表2に示す。
表2から分かるように、全体の追跡誤差は約5cmであった(対象はカメラから1.5〜2mのところに立っていた)。
高速の動作の姿勢を推定・追跡に関して、本実施形態のロバスト性を検証するために、さらに実験を行った。テストのサンプリング間隔は1から4とした。つまり、k回連続する画像から1つの画像を取り出して、残りの画像をスキップした。下の表3は、本実施形態は、正確性で妥協しない場合では、k = 4までは有効であることを示している。
制約条件を各種組み合わせて、組み合わせの違いによる効果を確認した。その結果を表4に示す。表4において、制約条件1は頭部と胴体部の制約条件であり、制約条件2は深さの制約条件であり、制約条件3は色の制約条件である。最後の行は、式(2)から式(6)までで表される制約条件のみを用いたものである。なお、表4には、制約条件をすべて用いた場合に達成された最良の結果を示した。
本実施形態では、さらに、ICP(Iterative Closet Point)のみを用いた推定・追跡との比較も行った。ICPのみを用いた場合は、時折、追跡および推定が欠落する場合では、後続の画像において復旧することができなかったのに対して、本実施形態では、ICPが欠落してもうまく機能した。ICPを用いた方法は処理速度が遅くなったが、これは、収束までにより多くの反復が必要になるためである。
<代替の実施形態>
一実施形態では、深さカメラとビデオカメラから受信した画像のフレーム速度に応じてセグメントのサイズを制御する。姿勢推定部の処理速度が、受信した画像を処理するのに十分な速度が得られない場合に、セグメント化の処理速度を速めると、セグメントのサイズが大きくなってしまう。逆に、姿勢推定部の処理速度が、フレーム速度がさらに速いものを処理できるだけの速度である場合は、セグメントのサイズは小さくなって、一般に、より正確な姿勢の推定・追跡が得られる。
一実施形態では、姿勢推定部は、複数の対象を検出、追跡することができる。例えば、姿勢推定部は、深さ画像(および色画像)から2つ以上の対象を検出して特定することができる。
一実施形態では、深さカメラとビデオカメラから受信した画像は、姿勢推定部に出力される前にフィルターで予備処理される。
本発明は、前記の実施形態について説明したが、本発明の範囲内において各種の変更が可能である。したがって、本発明の開示は以下の特許請求の範囲に記載される発明の範囲を例示するためのものであって、これらを限定するためのものではない。

Claims (17)

  1. 対象の姿勢を推定、追跡する方法であって、
    前記対象を含みかつデプスカメラから前記対象の複数の異なる部位までの距離を表す前記デプスカメラにより撮影した第1の深さ画像から前記対象の複数のデータ点を生成するステップと、
    前記複数のデータ点のうちの近接するものを複数のセグメントにグループ化するステップと、
    前記複数のセグメントを、前記対象のラベル付けされた複数の部位を表す複数のデータ点からなる複数のグループに制約条件を用いてグループ化するステップであって、
    前記複数のセグメントの前記グループへの前記割り当てを変更することと、
    前記複数のセグメントと前記複数のセグメントを割り当てた前記グループの中心との距離に少なくとも基づいて、前記複数のセグメントの前記グループへの前記割り当てに関わる費用を算定することと、
    前記費用が最小になるように前記複数のセグメントを前記グループへの前記割り当てを決定することと、を実行することによってなされるステップと、
    前記複数のグループを用いて、前記対象を表すモデルを前記複数のデータ点にフィットさせて、前記複数のデータ点から推定される前記対象の姿勢を表す姿勢ベクトルを生成するステップと、
    を含むことを特徴とする対象の姿勢を推定、追跡する方法。
  2. 前記モデルをフィットさせて姿勢ベクトルを生成するステップはさらに、
    前記デプスカメラにおいて視覚可能でかつ前記第1の深さ画像に先立つ第2の深さ画像から生成される前回のモデルの複数の頂点を判定するステップと、
    前記第2の深さ画像から生成した前記モデルの前記複数の頂点に対応する前記第1の深さ画像の前記複数のデータ点を取得するステップと
    前記モデルの前記複数の頂点と前記対応する複数のデータ点に基づいて、前記第1の深さ画像の前記対象の姿勢ベクトルを推定するステップと、
    を含むことを特徴とする請求項に記載の対象の姿勢を推定、追跡する方法。
  3. 前記対象前記姿勢ベクトルを推定するステップは、逆運動学的手法を実行することを含むことを特徴とする請求項に記載の対象の姿勢を推定、追跡する方法。


  4. 前記制約条件は、
    第1のグループにフィットさせた形状の外側にある複数の第1のデータ点は前記第1のグループにグループ化しないことを示すフィッティング部位の制約条件と、
    深さプロファイルを有する複数の第2のデータ点は第2のグループにグループ化することを示す深さの制約条件と、
    所定の色を有する複数の第3のデータ点に対応する色画像の画素に応答して、前記複数の第3のデータ点を第3のグループにグループ化することを示す色の制約条件と
    を含むことを特徴とする請求項に記載の対象の姿勢を推定、追跡する方法。
  5. 前記複数のセグメントをグループ化するステップは最適化アルゴリズムを用いることを特徴とする請求項に記載の対象の姿勢を推定、追跡する方法。
  6. 前記対象の姿勢を推定、追跡する方法はさらに、
    前記対象の所定の姿勢を用いて前記モデルの複数のパラメータを初期化するステップを含むことを特徴とする請求項1に記載の対象の姿勢を推定、追跡する方法。
  7. 前記モデルの複数のパラメータを初期化するステップは、
    前記対象の前記所定の姿勢を検出し、
    前記対象の前記所定の姿勢から前記対象の複数の関節の位置を検出し、
    前記モデルのパラメータを前記複数の関節の位置にフィットさせるように調整する
    ことを特徴とする請求項に記載の対象の姿勢を推定、追跡する方法。
  8. 前記第1の深さ画像でフィットさせた前記対象の姿勢ベクトルを用いて、前記第1の深さ画像に続く次の深さ画像シーケンスにおける前記複数のデータ点をグループ化し、前記モデルを前記次の深さ画像における前記複数のデータ点にフィットさせることを特徴とする請求項1に記載の対象の姿勢を推定、追跡する方法。
  9. プロセッサが実行可能な指令を記憶したコンピュータ読み取り可能な記憶体であって、
    前記指令を実行することで、前記プロセッサに、
    対象を含みかつデプスカメラから前記対象の複数の異なる部位までの距離を表す前記デプスカメラにより撮影した第1の深さ画像から前記対象の複数のデータ点を生成する処理
    前記複数のデータ点のうちの近接するものを複数のセグメントにグループ化する処理と
    前記複数のセグメントを、前記対象のラベル付けされた複数の部位を表す複数のデータ点からなる複数のグループに制約条件を用いてグループ化する処理であって、
    前記複数のセグメントの前記複数のグループへの前記割り当てを変更することと、
    前記複数のセグメントと前記複数のセグメントを割り当てた前記グループの中心との距離に少なくとも基づいて、前記複数のセグメントの前記複数のグループへの前記割り当てに関わる費用を算定することと、
    前記費用が最小になるように前記複数のセグメントをグループへの前記割り当てを決定することと、を実行することによってなされる処理と、
    前記複数のグループを用いて、前記対象を表すモデルを前記複数のデータ点にフィットさせて、前記複数のデータ点から推定される前記対象の姿勢を表す姿勢ベクトルを生成する処理
    を実行させることを特徴とするコンピュータ読み取り可能な記憶媒体
  10. 前記モデルをフィットさせて姿勢ベクトルを生成する処理は、前記プロセッサに、
    前記デプスカメラにおいて視覚可能でかつ前記第1の深さ画像に先立つ第2の深さ画像から生成するモデルの複数の頂点を判定する処理と、
    前記第2の深さ画像における前記モデルの前記複数の頂点に対応する前記第1の深さ画像からなる前記複数のデータ点を取得する処理と
    前記モデルの前記複数の頂点と前記対応する複数のデータ点とに基づいて、前記第1の深さ画像の前記対象の姿勢ベクトルを推定する処理と、を実行させる
    ことを含むことを特徴とする請求項10に記載のコンピュータ読み取り可能な記憶媒体


  11. 前記コンピュータ読み取り可能な記憶媒体は、前記プロセッサに、前記対象の所定の姿勢を用いて前記モデルの複数のパラメータを初期化する処理を実行させることを含むことを特徴とする請求項10に記載のコンピュータ読み取り可能な記憶媒体
  12. 前記コンピュータ読み取り可能な記憶媒体は、前記プロセッサに、前記第1の深さ画像で生成した前記対象の姿勢ベクトルを用いて、前記第1の深さ画像に続く次の深さ画像シーケンスにおける前記複数のデータ点を前記複数のグループにグループ化し、次の深さモデルを前記次の深さ画像における前記複数のデータ点にフィットさせる処理を実行させることを含む
    ことを特徴とする請求項10に記載のコンピュータ読み取り可能な記憶媒体
  13. 対象の姿勢を推定、追跡する装置であって、
    前記対象の複数のデータ点を捕捉することによって前記デプスカメラから前記対象の複数の異なる部位までの距離を表す第1の深さ画像を生成するよう構成されているデプスカメラ
    前記デプスカメラに接続されたラベル付けモジュールと、
    前記デプスカメラと前記ラベル付けモジュールとに接続し、前記対象を表すモデルを前記複数のデータ点にフィットさせるよう構成されたモデルフィッティングモジュールと、
    を含み
    前記ラベル付けモジュールは、前記複数のデータ点のうちの近接するものを複数のセグメントにグループ化し、
    前記複数のセグメントを、前記対象のラベル付けされた部位を表す複数のデータ点からなる複数のグループに制約条件を用いてグループ化し、
    この複数のグループへのグループ化は、
    前記複数のセグメントの前記複数のグループへの割り当てを変更することと、
    前記複数のセグメントと前記複数のセグメントを割り当てた前記複数のグループの中心との間の距離に少なくとも基づいて、前記複数のセグメントの前記複数のグループへの前記割り当てに関わる費用を算定することと、
    前記費用が最小になるように前記複数のセグメントを前記複数のグループへの前記割り当てを決定することと、を実行することによってなされることを特徴とする対象の姿勢を推定、追跡する装置。
  14. 前記ラベル付けモジュールは、最適化アルゴリズムを用いて前記割り当てを決定するよう構成されていることを特徴とする請求項15に記載の対象の姿勢を推定、追跡する装置。
  15. 前記モデルフィッティングモジュールは、前記モデルの複数の頂点と、前記モデルの前記複数の頂点に対応する前記複数のデータ点とから、前記対象の姿勢を表す前記対象の姿勢ベクトルを推定するよう構成されていることを特徴とする請求項15に記載の対象の姿勢を推定、追跡する装置。
JP2009542998A 2006-12-21 2007-11-12 ラベル付けを用いた人体姿勢の推定および追跡 Expired - Fee Related JP5211069B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US87141906P 2006-12-21 2006-12-21
US60/871,419 2006-12-21
US11/869,435 US8351646B2 (en) 2006-12-21 2007-10-09 Human pose estimation and tracking using label assignment
US11/869,435 2007-10-09
PCT/US2007/084453 WO2008079541A2 (en) 2006-12-21 2007-11-12 Human pose estimation and tracking using label

Publications (2)

Publication Number Publication Date
JP2010514064A JP2010514064A (ja) 2010-04-30
JP5211069B2 true JP5211069B2 (ja) 2013-06-12

Family

ID=39542876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009542998A Expired - Fee Related JP5211069B2 (ja) 2006-12-21 2007-11-12 ラベル付けを用いた人体姿勢の推定および追跡

Country Status (3)

Country Link
US (1) US8351646B2 (ja)
JP (1) JP5211069B2 (ja)
WO (1) WO2008079541A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019185852A3 (en) * 2018-03-30 2019-12-05 Movidius Ltd. Methods, systems, articles of manufacture and apparatus to generate digital scenes

Families Citing this family (197)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US8351646B2 (en) * 2006-12-21 2013-01-08 Honda Motor Co., Ltd. Human pose estimation and tracking using label assignment
JP2010176380A (ja) * 2009-01-29 2010-08-12 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体
US8577085B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8577084B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US20100199231A1 (en) 2009-01-30 2010-08-05 Microsoft Corporation Predictive determination
US20100199228A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Gesture Keyboarding
US8682028B2 (en) 2009-01-30 2014-03-25 Microsoft Corporation Visual target tracking
US9652030B2 (en) 2009-01-30 2017-05-16 Microsoft Technology Licensing, Llc Navigation of a virtual plane using a zone of restriction for canceling noise
US20100195867A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Visual target tracking using model fitting and exemplar
US8588465B2 (en) 2009-01-30 2013-11-19 Microsoft Corporation Visual target tracking
US8294767B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US8866821B2 (en) 2009-01-30 2014-10-21 Microsoft Corporation Depth map movement tracking via optical flow and velocity prediction
US8565477B2 (en) * 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8267781B2 (en) * 2009-01-30 2012-09-18 Microsoft Corporation Visual target tracking
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US8565476B2 (en) * 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
WO2010096279A2 (en) * 2009-02-17 2010-08-26 Omek Interactive , Ltd. Method and system for gesture recognition
US8773355B2 (en) * 2009-03-16 2014-07-08 Microsoft Corporation Adaptive cursor sizing
KR101591779B1 (ko) * 2009-03-17 2016-02-05 삼성전자주식회사 모션 데이터 및 영상 데이터를 이용한 골격 모델 생성 장치및 방법
US9256282B2 (en) 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US20100277470A1 (en) * 2009-05-01 2010-11-04 Microsoft Corporation Systems And Methods For Applying Model Tracking To Motion Capture
US9498718B2 (en) * 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US8181123B2 (en) * 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US8253746B2 (en) * 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US9015638B2 (en) * 2009-05-01 2015-04-21 Microsoft Technology Licensing, Llc Binding users to a gesture based system and providing feedback to the users
US8649554B2 (en) * 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US8340432B2 (en) 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US8942428B2 (en) * 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US8638985B2 (en) 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US9377857B2 (en) 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US8542252B2 (en) * 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US8755569B2 (en) * 2009-05-29 2014-06-17 University Of Central Florida Research Foundation, Inc. Methods for recognizing pose and action of articulated objects with collection of planes in motion
US8418085B2 (en) * 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US9383823B2 (en) * 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US8009022B2 (en) 2009-05-29 2011-08-30 Microsoft Corporation Systems and methods for immersive interaction with virtual objects
US20100306685A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation User movement feedback via on-screen avatars
US8145594B2 (en) * 2009-05-29 2012-03-27 Microsoft Corporation Localized gesture aggregation
US8744121B2 (en) 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US9182814B2 (en) * 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US20100306716A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Extending standard gestures
US8856691B2 (en) * 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US8379101B2 (en) 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
US8803889B2 (en) * 2009-05-29 2014-08-12 Microsoft Corporation Systems and methods for applying animations or motions to a character
US9400559B2 (en) * 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US8509479B2 (en) * 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US8176442B2 (en) * 2009-05-29 2012-05-08 Microsoft Corporation Living cursor control mechanics
US8320619B2 (en) * 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US8390680B2 (en) * 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) * 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
US20110025689A1 (en) * 2009-07-29 2011-02-03 Microsoft Corporation Auto-Generating A Visual Representation
US9141193B2 (en) * 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
KR101611504B1 (ko) * 2009-09-25 2016-04-11 삼성전자 주식회사 로봇 시스템 및 그 영상 처리 방법
US20110083108A1 (en) * 2009-10-05 2011-04-07 Microsoft Corporation Providing user interface feedback regarding cursor position on a display screen
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US8564534B2 (en) 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US7961910B2 (en) * 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8867820B2 (en) 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US9981193B2 (en) 2009-10-27 2018-05-29 Harmonix Music Systems, Inc. Movement based recognition and evaluation
US10357714B2 (en) 2009-10-27 2019-07-23 Harmonix Music Systems, Inc. Gesture-based user interface for navigating a menu
US8988432B2 (en) * 2009-11-05 2015-03-24 Microsoft Technology Licensing, Llc Systems and methods for processing an image for target tracking
US20110109617A1 (en) * 2009-11-12 2011-05-12 Microsoft Corporation Visualizing Depth
KR101327321B1 (ko) 2009-12-11 2013-11-11 한국전자통신연구원 모션 캡쳐 데이터의 포즈 검색 장치 및 방법
US20110150271A1 (en) * 2009-12-18 2011-06-23 Microsoft Corporation Motion detection using depth images
KR20110076458A (ko) * 2009-12-29 2011-07-06 엘지전자 주식회사 디스플레이 장치 및 그 제어방법
US8334842B2 (en) * 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
US8284157B2 (en) 2010-01-15 2012-10-09 Microsoft Corporation Directed performance in motion capture system
US8933884B2 (en) 2010-01-15 2015-01-13 Microsoft Corporation Tracking groups of users in motion capture system
US8265341B2 (en) 2010-01-25 2012-09-11 Microsoft Corporation Voice-body identity correlation
US8864581B2 (en) 2010-01-29 2014-10-21 Microsoft Corporation Visual based identitiy tracking
US8659658B2 (en) 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US8633890B2 (en) 2010-02-16 2014-01-21 Microsoft Corporation Gesture detection based on joint skipping
JP2011175477A (ja) * 2010-02-24 2011-09-08 Canon Inc 3次元計測装置、処理方法及びプログラム
US9400695B2 (en) * 2010-02-26 2016-07-26 Microsoft Technology Licensing, Llc Low latency rendering of objects
US8787663B2 (en) * 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
US20110223995A1 (en) * 2010-03-12 2011-09-15 Kevin Geisner Interacting with a computer based application
US8279418B2 (en) 2010-03-17 2012-10-02 Microsoft Corporation Raster scanning for depth detection
US8213680B2 (en) 2010-03-19 2012-07-03 Microsoft Corporation Proxy training data for human body tracking
US8514269B2 (en) 2010-03-26 2013-08-20 Microsoft Corporation De-aliasing depth images
US20110234481A1 (en) * 2010-03-26 2011-09-29 Sagi Katz Enhancing presentations using depth sensing cameras
US8523667B2 (en) 2010-03-29 2013-09-03 Microsoft Corporation Parental control settings based on body dimensions
RU2534892C2 (ru) * 2010-04-08 2014-12-10 Самсунг Электроникс Ко., Лтд. Устройство и способ для захвата безмаркерных движений человека
US8379919B2 (en) 2010-04-29 2013-02-19 Microsoft Corporation Multiple centroid condensation of probability distribution clouds
US20110268365A1 (en) * 2010-04-30 2011-11-03 Acer Incorporated 3d hand posture recognition system and vision based hand posture recognition method thereof
US9539510B2 (en) 2010-04-30 2017-01-10 Microsoft Technology Licensing, Llc Reshapable connector with variable rigidity
US8457353B2 (en) 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
US8803888B2 (en) 2010-06-02 2014-08-12 Microsoft Corporation Recognition system for sharing information
US8602887B2 (en) 2010-06-03 2013-12-10 Microsoft Corporation Synthesis of information from multiple audiovisual sources
US8751215B2 (en) 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
US9358456B1 (en) 2010-06-11 2016-06-07 Harmonix Music Systems, Inc. Dance competition game
US8675981B2 (en) 2010-06-11 2014-03-18 Microsoft Corporation Multi-modal gender recognition including depth data
US8639020B1 (en) * 2010-06-16 2014-01-28 Intel Corporation Method and system for modeling subjects from a depth map
US20110311144A1 (en) * 2010-06-17 2011-12-22 Microsoft Corporation Rgb/depth camera for improving speech recognition
US8296151B2 (en) 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US8381108B2 (en) 2010-06-21 2013-02-19 Microsoft Corporation Natural user input for driving interactive stories
US9086727B2 (en) 2010-06-22 2015-07-21 Microsoft Technology Licensing, Llc Free space directional force feedback apparatus
US8878656B2 (en) 2010-06-22 2014-11-04 Microsoft Corporation Providing directional force feedback in free space
US9075434B2 (en) 2010-08-20 2015-07-07 Microsoft Technology Licensing, Llc Translating user motion into multiple object responses
US8613666B2 (en) 2010-08-31 2013-12-24 Microsoft Corporation User selection and navigation based on looped motions
US8437506B2 (en) 2010-09-07 2013-05-07 Microsoft Corporation System for fast, probabilistic skeletal tracking
US20120058824A1 (en) 2010-09-07 2012-03-08 Microsoft Corporation Scalable real-time motion recognition
US8417058B2 (en) 2010-09-15 2013-04-09 Microsoft Corporation Array of scanning sensors
JP5881136B2 (ja) * 2010-09-27 2016-03-09 ソニー株式会社 情報処理装置及び方法、並びにプログラム
KR20120051212A (ko) * 2010-11-12 2012-05-22 엘지전자 주식회사 멀티미디어 장치의 사용자 제스쳐 인식 방법 및 그에 따른 멀티미디어 장치
US9349040B2 (en) * 2010-11-19 2016-05-24 Microsoft Technology Licensing, Llc Bi-modal depth-image analysis
CN103221977B (zh) 2010-12-09 2015-10-14 松下电器产业株式会社 姿势状态估计装置及姿势状态估计方法
JP5924862B2 (ja) * 2010-12-15 2016-05-25 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US8401242B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps
US8587583B2 (en) 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US8570320B2 (en) 2011-01-31 2013-10-29 Microsoft Corporation Using a three-dimensional environment model in gameplay
US9247238B2 (en) 2011-01-31 2016-01-26 Microsoft Technology Licensing, Llc Reducing interference between multiple infra-red depth cameras
US8401225B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
US8711206B2 (en) 2011-01-31 2014-04-29 Microsoft Corporation Mobile camera localization using depth maps
JP2012160039A (ja) * 2011-02-01 2012-08-23 Fujifilm Corp 画像処理装置、立体画像印刷システム、画像処理方法およびプログラム
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
US9244984B2 (en) 2011-03-31 2016-01-26 Microsoft Technology Licensing, Llc Location based conversational understanding
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US9858343B2 (en) 2011-03-31 2018-01-02 Microsoft Technology Licensing Llc Personalization of queries, conversations, and searches
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US8755570B2 (en) * 2011-04-27 2014-06-17 Steve Gomas Apparatus and method for estimation of livestock weight
US9454962B2 (en) 2011-05-12 2016-09-27 Microsoft Technology Licensing, Llc Sentence simplification for spoken language understanding
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
WO2012155279A2 (en) * 2011-05-13 2012-11-22 Liberovision Ag Silhouette-based pose estimation
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
AU2011203028B1 (en) * 2011-06-22 2012-03-08 Microsoft Technology Licensing, Llc Fully automatic dynamic articulated model calibration
US11048333B2 (en) 2011-06-23 2021-06-29 Intel Corporation System and method for close-range movement tracking
JP6074170B2 (ja) 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
CN103635868A (zh) * 2011-07-01 2014-03-12 英派尔科技开发有限公司 自适应用户接口
CN103493093B (zh) * 2011-11-17 2017-07-18 松下知识产权经营株式会社 图像处理装置、摄像装置及图像处理方法
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US8958631B2 (en) 2011-12-02 2015-02-17 Intel Corporation System and method for automatically defining and identifying a gesture
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US8630457B2 (en) 2011-12-15 2014-01-14 Microsoft Corporation Problem states for pose tracking pipeline
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
EP2791903B8 (de) * 2011-12-16 2016-03-02 gestigon GmbH Verfahren und vorrichtung zur schätzung einer pose
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
US9477303B2 (en) 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
WO2013172491A1 (ko) * 2012-05-16 2013-11-21 전자부품연구원 깊이 정보를 이용한 물체 인식 방법 및 장치
GB2504711B (en) * 2012-08-07 2015-06-03 Toshiba Res Europ Ltd Methods and systems for generating a 3D representation of a subject
US9589326B2 (en) * 2012-11-29 2017-03-07 Korea Institute Of Science And Technology Depth image processing apparatus and method based on camera pose conversion
US20140160122A1 (en) * 2012-12-10 2014-06-12 Microsoft Corporation Creating a virtual representation based on camera data
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US9477315B2 (en) 2013-03-13 2016-10-25 Honda Motor Co., Ltd. Information query by pointing
US10220303B1 (en) 2013-03-15 2019-03-05 Harmonix Music Systems, Inc. Gesture-based music game
GB2513884B (en) 2013-05-08 2015-06-17 Univ Bristol Method and apparatus for producing an acoustic field
US9829984B2 (en) * 2013-05-23 2017-11-28 Fastvdo Llc Motion-assisted visual language for human computer interfaces
KR101933921B1 (ko) * 2013-06-03 2018-12-31 삼성전자주식회사 포즈 추정 방법 및 장치
KR102137264B1 (ko) * 2013-07-09 2020-07-24 삼성전자주식회사 카메라 포즈 추정 장치 및 방법
JP6433149B2 (ja) * 2013-07-30 2018-12-05 キヤノン株式会社 姿勢推定装置、姿勢推定方法およびプログラム
CN103426008B (zh) * 2013-08-29 2017-04-05 北京大学深圳研究生院 基于在线机器学习的视觉人手跟踪方法及系统
EP2886043A1 (de) * 2013-12-23 2015-06-24 a.tron3d GmbH Verfahren zum Fortsetzen von Aufnahmen zum Erfassen von dreidimensionalen Geometrien von Objekten
US9427867B2 (en) * 2014-04-02 2016-08-30 The Boeing Company Localization within an environment using sensor fusion
GB2530036A (en) 2014-09-09 2016-03-16 Ultrahaptics Ltd Method and apparatus for modulating haptic feedback
US10110881B2 (en) 2014-10-30 2018-10-23 Microsoft Technology Licensing, Llc Model fitting from raw time-of-flight images
US9547907B2 (en) * 2014-12-15 2017-01-17 Intel Corporation Image segmentation using color and depth information
MX2017010252A (es) 2015-02-20 2018-03-07 Ultrahaptics Ip Ltd Mejoras de algoritmos en un sistema haptico.
US10818162B2 (en) 2015-07-16 2020-10-27 Ultrahaptics Ip Ltd Calibration techniques in haptic systems
US10248839B2 (en) * 2015-11-30 2019-04-02 Intel Corporation Locating objects within depth images
US10565791B2 (en) 2015-12-29 2020-02-18 Microsoft Technology Licensing, Llc Tracking rigged polygon-mesh models of articulated objects
US10037624B2 (en) 2015-12-29 2018-07-31 Microsoft Technology Licensing, Llc Calibrating object shape
US10186081B2 (en) 2015-12-29 2019-01-22 Microsoft Technology Licensing, Llc Tracking rigged smooth-surface models of articulated objects
US10268275B2 (en) 2016-08-03 2019-04-23 Ultrahaptics Ip Ltd Three-dimensional perceptions in haptic systems
US10943578B2 (en) 2016-12-13 2021-03-09 Ultrahaptics Ip Ltd Driving techniques for phased-array systems
CN108961415A (zh) * 2017-05-24 2018-12-07 北京物语科技有限公司 基于深度图像采集设备的三维试衣方法及系统
US10304258B2 (en) 2017-07-24 2019-05-28 Microsoft Technology Licensing, Llc Human feedback in 3D model fitting
US11531395B2 (en) 2017-11-26 2022-12-20 Ultrahaptics Ip Ltd Haptic effects from focused acoustic fields
CA3098642C (en) 2018-05-02 2022-04-19 Ultrahaptics Ip Ltd Blocking plate structure for improved acoustic transmission efficiency
US11494938B2 (en) 2018-05-15 2022-11-08 Northeastern University Multi-person pose estimation using skeleton prediction
CN108898063B (zh) * 2018-06-04 2021-05-04 大连大学 一种基于全卷积神经网络的人体姿态识别装置及方法
US10657656B2 (en) 2018-06-15 2020-05-19 International Business Machines Corporation Virtual generation of labeled motion sensor data
US10762394B2 (en) 2018-07-31 2020-09-01 Intel Corporation System and method for 3D blob classification and transmission
US11178373B2 (en) 2018-07-31 2021-11-16 Intel Corporation Adaptive resolution of point cloud and viewpoint prediction for video streaming in computing environments
US10887574B2 (en) 2018-07-31 2021-01-05 Intel Corporation Selective packing of patches for immersive video
US10893299B2 (en) 2018-07-31 2021-01-12 Intel Corporation Surface normal vector processing mechanism
US11212506B2 (en) 2018-07-31 2021-12-28 Intel Corporation Reduced rendering of six-degree of freedom video
US11098951B2 (en) 2018-09-09 2021-08-24 Ultrahaptics Ip Ltd Ultrasonic-assisted liquid manipulation
US11057631B2 (en) 2018-10-10 2021-07-06 Intel Corporation Point cloud coding standard conformance definition in computing environments
TWI715903B (zh) * 2018-12-24 2021-01-11 財團法人工業技術研究院 動作追蹤系統及方法
CN109934847B (zh) * 2019-03-06 2020-05-22 视辰信息科技(上海)有限公司 弱纹理三维物体姿态估计的方法和装置
US11842517B2 (en) * 2019-04-12 2023-12-12 Ultrahaptics Ip Ltd Using iterative 3D-model fitting for domain adaptation of a hand-pose-estimation neural network
US11374586B2 (en) 2019-10-13 2022-06-28 Ultraleap Limited Reducing harmonic distortion by dithering
US11373331B2 (en) 2019-12-18 2022-06-28 Agt International Gmbh System, method and computer program product for determining sizes and/or 3D locations of objects imaged by a single camera
KR102338486B1 (ko) * 2019-12-20 2021-12-13 한국전자기술연구원 3d 골격 정보를 이용한 사용자 동작 인식 방법 및 시스템
US11182644B2 (en) * 2019-12-23 2021-11-23 Beijing Institute Of Technology Method and apparatus for pose planar constraining on the basis of planar feature extraction
US11715453B2 (en) 2019-12-25 2023-08-01 Ultraleap Limited Acoustic transducer structures
US11957974B2 (en) 2020-02-10 2024-04-16 Intel Corporation System architecture for cloud gaming
US11816267B2 (en) 2020-06-23 2023-11-14 Ultraleap Limited Features of airborne ultrasonic fields
US11886639B2 (en) 2020-09-17 2024-01-30 Ultraleap Limited Ultrahapticons

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2915204B2 (ja) * 1992-04-20 1999-07-05 株式会社リコー 2値図形の表現方法
JPH0887609A (ja) * 1994-07-21 1996-04-02 Matsushita Electric Ind Co Ltd 画像処理装置
JPH09237348A (ja) 1996-02-29 1997-09-09 Sanyo Electric Co Ltd 人体の姿勢推定方法
US6243106B1 (en) * 1998-04-13 2001-06-05 Compaq Computer Corporation Method for figure tracking using 2-D registration and 3-D reconstruction
US7003134B1 (en) * 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
JP2001236505A (ja) 2000-02-22 2001-08-31 Atsushi Kuroda 座標推定方法、座標推定装置および座標推定システム
US6750866B1 (en) * 2000-04-21 2004-06-15 Realistic Dynamics, Inc. Method and system for dynamically filtering the motion of articulated bodies
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US20030169906A1 (en) * 2002-02-26 2003-09-11 Gokturk Salih Burak Method and apparatus for recognizing objects
US7263538B2 (en) * 2002-04-19 2007-08-28 City University Of Hong Kong Curve tracing system
JP2004021765A (ja) * 2002-06-19 2004-01-22 Pfu Ltd 画像認識方法
US20040036711A1 (en) * 2002-08-23 2004-02-26 Anderson Thomas G. Force frames in animation
US7200266B2 (en) * 2002-08-27 2007-04-03 Princeton University Method and apparatus for automated video activity analysis
US7257237B1 (en) * 2003-03-07 2007-08-14 Sandia Corporation Real time markerless motion tracking using linked kinematic chains
JP4146751B2 (ja) 2003-04-01 2008-09-10 本田技研工業株式会社 顔識別装置、顔識別方法及び顔識別プログラム
US7379559B2 (en) * 2003-05-28 2008-05-27 Trw Automotive U.S. Llc Method and apparatus for determining an occupant's head location in an actuatable occupant restraining system
WO2004107266A1 (en) 2003-05-29 2004-12-09 Honda Motor Co., Ltd. Visual tracking using depth data
US7286689B2 (en) * 2003-06-07 2007-10-23 Hewlett-Packard Development Company, L.P. Motion estimation for compression of calibrated multi-view image sequences
JP4593968B2 (ja) * 2004-05-14 2010-12-08 キヤノン株式会社 位置姿勢計測方法および装置
JP4686595B2 (ja) 2005-03-17 2011-05-25 本田技研工業株式会社 クリティカルポイント解析に基づくポーズ推定
CA2653815C (en) * 2006-06-23 2016-10-04 Imax Corporation Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition
EP2050067A1 (en) * 2006-08-03 2009-04-22 Alterface S.A. Method and device for identifying and extracting images of multiple users, and for recognizing user gestures
US8351646B2 (en) * 2006-12-21 2013-01-08 Honda Motor Co., Ltd. Human pose estimation and tracking using label assignment

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019185852A3 (en) * 2018-03-30 2019-12-05 Movidius Ltd. Methods, systems, articles of manufacture and apparatus to generate digital scenes
US11393228B2 (en) 2018-03-30 2022-07-19 Movidius Limited Methods, systems, articles of manufacture and apparatus to generate digital scenes
US11900649B2 (en) 2018-03-30 2024-02-13 Movidius Limited Methods, systems, articles of manufacture and apparatus to generate digital scenes

Also Published As

Publication number Publication date
US8351646B2 (en) 2013-01-08
JP2010514064A (ja) 2010-04-30
US20080152191A1 (en) 2008-06-26
WO2008079541A3 (en) 2008-08-14
WO2008079541A2 (en) 2008-07-03
WO2008079541A9 (en) 2008-10-02

Similar Documents

Publication Publication Date Title
JP5211069B2 (ja) ラベル付けを用いた人体姿勢の推定および追跡
JP5647155B2 (ja) 内側距離形状関係を使用する身体特徴検出及び人間姿勢推定
EP2674913B1 (en) Three-dimensional object modelling fitting & tracking.
Corazza et al. Markerless motion capture through visual hull, articulated icp and subject specific model generation
JP4148281B2 (ja) モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム
CN108475439B (zh) 三维模型生成系统、三维模型生成方法和记录介质
Schwarz et al. Estimating human 3d pose from time-of-flight images based on geodesic distances and optical flow
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
JP4761670B2 (ja) 動立体モデル生成装置及び方法
Zou et al. Automatic reconstruction of 3D human motion pose from uncalibrated monocular video sequences based on markerless human motion tracking
Lee et al. Human body tracking with auxiliary measurements
JP2000149025A (ja) ジェスチャ認識装置及び方法
Haker et al. Self-organizing maps for pose estimation with a time-of-flight camera
JP2002218449A (ja) 移動物体追跡装置
JP2017182615A (ja) 3次元動画データ生成装置、3次元動画データ生成プログラム、及びその方法
US20230215096A1 (en) System and method for mapping the skin
Kulic et al. Whole body motion primitive segmentation from monocular video
Mukasa et al. Complex human motion estimation using visibility
JP2011149952A (ja) モデル入力装置およびモデル生成システム
Zhou et al. Tracking of Deformable Human Avatars through Fusion of Low-Dimensional 2D and 3D Kinematic Models
Tu et al. Online 3D tracking of human arms with a single camera
Fonseca Development of Human Body Pose Detection Algorithms for In-Car Scenario, and Validation with Suitable Ground-Truth System
CN111767886A (zh) 一种基于移动机器人的动捕跟踪方法
Serra-Pérez et al. 3D gesture recognition with growing neural gas
Gagalowicz et al. 3D model-based marker-less human motion tracking in cluttered environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130225

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5211069

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees