JP2004334266A - 画像表示装置 - Google Patents

画像表示装置 Download PDF

Info

Publication number
JP2004334266A
JP2004334266A JP2003124911A JP2003124911A JP2004334266A JP 2004334266 A JP2004334266 A JP 2004334266A JP 2003124911 A JP2003124911 A JP 2003124911A JP 2003124911 A JP2003124911 A JP 2003124911A JP 2004334266 A JP2004334266 A JP 2004334266A
Authority
JP
Japan
Prior art keywords
motion
tracking
image
accordion
viewer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003124911A
Other languages
English (en)
Inventor
Kenji Amaya
賢治 天谷
Jun Aoki
潤 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rikogaku Shinkokai
Original Assignee
Rikogaku Shinkokai
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rikogaku Shinkokai filed Critical Rikogaku Shinkokai
Priority to JP2003124911A priority Critical patent/JP2004334266A/ja
Publication of JP2004334266A publication Critical patent/JP2004334266A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】モーション・トラッキング/デジタイジング・システムに使用され、且つ、動画像或いはビデオ・データのような画像列から対象物の動きを有効に抽出することができる画像表示装置を提供する。
【解決手段】本発明の画像表示装置は、仮想三次元空間において前記動画像の画像列を任意な透明度で表示するアコーディオン・ビューアー手段を備える。前記仮想三次元空間は、二次元画像空間と時間軸とから成る時空間三次元空間である。前記アコーディオン・ビューアー手段は、前記時空間三次元空間上に前記対象物の動きを操作して表示する。
【選択図】図1

Description

【0001】
<発明の技術分野>
本発明は動画像中の対象物の動きを抽出するための画像表示装置に関し、特ににモーション・トラッキング/デジタイジング・システム用の画像表示装置に関する。
<従来技術の説明及び本発明の目的>
画像ストリームから対象物のモーション・トラッキング或いはデジタイジングは取り組みがいのある問題を提起し、多くの応用をもつ問題である(参考文献[1]〜[2]を参照する)。対象物のモーション・トラッキング或いはデジタイジング技術は、ユーザ・インターフェース、バーチャル・リアリティ、動作解析や科学観察などの分野に重要な地位を占める。
【0002】
ユーザ・インターフェース分野において、身振り言語の自動通訳とジェスチャー・ドリブン・コントロール(gesture driven control)はメインなアプリケーションであると考えられる。バーチャル・リアリティ分野において、ゲーム、双方向性バーチャル世界、キャラクタ・アニメーションのモーション・キャプチャーはメインなアプリケーションである。動作解析の分野において、トラッキング技術はスポーツ・ビデオ映像、整形外科患者の臨床研究、ダンスやバレエの振り付けに役立つ。科学観察分野において、トラッキング技術は例えば動物、魚、バクテリアなどの生き物の観察、自動車或いは人の交通流量及び商品の動線計画、生産ライン上の物品の動線調査に役立つ。
【0003】
次は従来技術の総説である。
【0004】
Wrenら(参考文献[3]を参照する)は、人間をトラッキングし、彼らの行動を解釈する“Pfinder”といったリアルタイム・システムを開発した。このシステムは色彩と形状のマルチクラス統計模型を使用することによって、幅広い画像条件で頭と手の二次元表現を実現している。
【0005】
Heiseleら(参考文献[4]を参照する)は、移動するカメラによって撮影されたカラー画像列における軟式の移動対象物をトラッキングする方法を提案した。最初の段階において、対象物のパーツは画像列の1番目の画像中の全ての画素に適用される、分割したクラスタリング・アルゴリズムによって決定される。特徴空間は画素のカラーと位置によって決められる。新しい画像毎に、前の画像のクラスターは並列kミーンズ・クラスタリング・アルゴリズムによって繰り返し適用される。
【0006】
NiyogiとAdelson(参考文献[5]〜[6]を参照する)は視野内に歩いている人間に生成されたパターンを分析する一連の技術を開発した。検出が変換された後、XYTパターンを滑らかな時空間表面でフィットすることができる。この表面は歩行の周期性を定期的にざっと反射する。この表面をパラメータ化された標準表面と個別の歩行に特有の偏差表面との組合せとして表すことができる。
【0007】
Juら(参考文献[7]を参照する)は、人間の手足を一連の関連する平面パッチで表現する“段ボール人間モデル”を定義した。これらのパッチのパラメータ化された画像の動きは、アーティキュレーテッド・モーションを実行するように制約され、直接にロバスト推定技術を使用することによって解決される。再生されたモーション・パラメータは、認識用に使用されたアクティビティのリッチで簡潔な記述を提供する。
【0008】
Ooiら(参考文献[8]〜[9]を参照する)は、画像列中の対象物から3次元パス情報を抽出する方法を提案した。彼らのシステムは操作者の入力と協力するようになっており、正確且つ柔軟に対象物の3次元パス情報を推定する。
【0009】
上述したように、対象物の動きをトラッキングするのに、各種のシステムや方法が開発された。これらのシステムや方法は、特定のタイプの画像に対して有効な結果が得られる。しかしながら、対象物の動きを含む画像の種類は沢山あるので、任意の画像に対しても有効な結果が得られるシステムは存在しなかった。従って、画像列から対象物の動きをトラッキングするのは、依然としてオープンな研究テーマである。特に、隠れ(オクルジョン)は克服しなければならない最も困難な問題の1つである。対象物の動きをトラッキングする現行の実際的なプロセスは、やはり沢山労力を必要とする試行錯誤的手法に依存する。従来方法の多くは、自動プロセスに基づき、積極的に操作者入力を使用しない。一方、アニメ製作者は既存の手動トラッキング装置に困難な仕事を強要され、フレーム毎に画像において沢山の点をクリックしなければならない。
【0010】
本発明は上述のような事情よりなされたものであり、本発明の目的は、モーション・トラッキング/デジタイジング・システムに使用され、且つ、動画像或いはビデオ・データのような画像列から対象物の動きを有効に抽出することができる画像表示装置を提供するものである。
【0011】
<好適な実施形態の説明>
本発明の好適な実施例を示した図面を参照しながら、本発明の詳細を以下のように述べる。しかしながら、本発明は様々な異なる方式により実施されることが可能で、ここに示した実施例に限定されることはない。
【0012】
本発明の全面的な理解を提供するために、まず、次の説明が示される。
【0013】
本発明の目標はモーション・トラッキング/デジタイジング・システム用の画像表示装置を開発するものである。このモーション・トラッキング/デジタイジング・システムは画像列から対象物の動きを抽出する。
【0014】
本モーション・トラッキング/デジタイジング・システムは次の3つのコンセプトを提案する。
【0015】
コンセプト1:
自動的な方法と人間による直接操作との協調は、自動的な方法及び人間による直接操作の各利点を引き出すのに有効であると考えられる。
【0016】
コンセプト2:
試行錯誤といった問題を解決するために、本モーション・トラッキング/デジタイジング・システムは相互に多種の処理法の各結果を使用する。
【0017】
コンセプト3:
画像列は位置情報と時間的な情報を包含する。各情報を有効に処理するために、時空間三次元領域は有効なコンセプトである。
【0018】
本発明において、本モーション・トラッキング/デジタイジング・システムは、次の4つの特徴を実施する。これらの特徴は前記コンセプトの具現化したものである。
【0019】
特徴1:
本モーション・トラッキング/デジタイジング・システムは、“ヒューマン利用トラッキング”と定義された人間の決定による入力を含む多種トラッキング方法を使用する。この特徴はコンセプト1を具現化したもので、“ヒューマン利用トラッキング”はコンセプト3を包含する。
【0020】
特徴2:
コンセプト2を満足させるために、本モーション・トラッキング/デジタイジング・システムの内部構造をオブジェクト指向設計として設計した。
【0021】
特徴3:
本モーション・トラッキング/デジタイジング・システムは、各トラッキング方法の結果間のフィードバックを提案した。この特徴はコンセプト2を具現化したものである。
【0022】
特徴4:
本発明において、本モーション・トラッキング/デジタイジング・システムに適したユーザ・インターフェースが提案される。特に、アコーディオン・ビューアーが開発された。アコーディオン・ビューアーは、動画像シーケンスの整列された各フレームを透視的に仮想三次元空間に表示する。この特徴はコンセプト3を具現化したものである。
【0023】
本発明において、次のことに焦点を当てる。
【0024】
動画像の各画像は同時に表示されることにより、対象物の動きを一度に認識することが容易にできる。また、動画像の各画像は相互に重畳するように表示されたら、動きの変化/相違を認識することが容易にできる。対象物の軌跡は同時に各画像に表示されたら、軌跡が対象物に上手く適合していることを認識することが容易にできる。対象物の軌跡は動画像の各画像に直接に操作されることができたら、ユーザの操作を減らすことができる。
【0025】
<1>本モーション・トラッキング/デジタイジング・システムの基本
<1−1>本モーション・トラッキング/デジタイジング・システムのコンセプト
次の三つのコンセプトは、本モーション・トラッキング/デジタイジング・システムの基本を構成する。
【0026】
(A)自動方法と人間の決定による入力との協調:
従来のトラッキング方法の多くは、自動的なプロセスに基づく。沢山の研究がなされて、その研究の結果によって、例えば工業部品やマーカー付きの対象物などの特定のタイプの画像に対して有効な結果が得られる。しかしながら、これら従来のトラッキング方法は、特に人間動作トラッキングに対して、十分に強いとは言えない。人間動作トラッキングに対して沢山の試みがなされたけれども、今でもそれはオープンな研究テーマである。一方、人間は物事を認識・理解する優れた力を持っている。自動方法と人間決定との協調を活かしたシステムを開発するのは有意義である。本モーション・トラッキング・システムにおいて、人間決定による入力結果、つまり、“人間介在トラッキング”もトラッキング方法の一種であると考えられる。
【0027】
(B)多種トラッキング方法の相互利用:
多種トラッキング方法はトラッキングに使用された際に、試行錯誤によって結果が得られる。このようなアプローチによって各方法の特徴が引き出されるかどうかははっきりしない。よって、多種方法の各結果を相互に使用することは有効である。実際に、このコンセプトは、多種方法の各結果をそのほかの方法にフィードバックすることによって実現される。
【0028】
(C)時空間三次元領域インターフェイス
動画像は一連の二次元画像である。動画像の各フレームにおいて、例えば対象物の位置のような位置情報が包含される。動画像の動的な情報は、一連の画像で構成される。動画像は図1に示された時空間領域に表されている。時空間三次元領域の中に、対象物の動きが処理される。我々は時間的な情報を示すユーザ・インターフェイスは積極的に提案する。
【0029】
<1−2>本モーション・トラッキング/デジタイジング・システムの設計
<1−2−1>本モーション・トラッキング/デジタイジング・システムに使用された方法
自動方法と人間介在トラッキングとの協調についてこれまでげんきゅうしてきたが、実際に、例として次の三つのトラッキング方法を使用した。以下では各方法について触れる。
【0030】
(1)領域拡大法(Region growing法)
色情報を使用するトラッキング方法は多数ある(参考文献[3]〜[4]を参照する)。例えば、領域拡大法は画像から領域(Region)を抽出するための一般的技術である。この領域拡大法は、二次元画像に適用されるだけではなく、三次元ボリューム・データに適用することも可能である。ここで、時空間三次元空間に領域拡大法を適用する。
【0031】
ユーザに指定された既知のシード・ポイント(seed point)から、領域(Region)はシード・ポイントの色に基づいて帰納的に成長する。図2に示されたように、領域(Region)の成長の結果は三次元領域(Region)の形で得られる。
【0032】
(2)オプティカルフロー(Optical flow)による方法
オプティカルフローによる方法は、トラッキング/デジタイジング分野において広く使われている。一つの画像において、各画素は輝度値に対応する。オプティカルフローは一つの画像からほかの画像までのこれらの輝度変化の方向及び大きさを示すベクトル場である。本モーション・トラッキング/デジタイジング・システムにおいて、オプティカルフローは動画像全体を通じてフレーム間に得られる。
(3)人間介在トラッキング方法
人間は対象物の動きを認識・理解する優れた力を持っている。しかしながら、ユーザにとって、動画像の各フレームに対し、動きを表す点を指定することは困難な仕事である。よって、“人間介在トラッキング”が提案される。
【0033】
本発明において、図3に示されたように、モーション・パスは時空間三次元領域にスプライン曲線として表される。モーション・パスをスプライン曲線として扱うことは、コンピュータ・アニメーション分野において使用される主要な方法である。スプライン曲線は一連の制御点に定められる。ユーザは一連の制御点だけを指定すれば、モーション・パスを生成することができる。ユーザの仕事量を減らすことができる。
【0034】
ここで留意すべきは“時空間三次元領域インターフェイス”といったコンセプトもこれによって実現されることである。
<1−2−2>多種方法の相互利用の実現
多種トラッキング方法を相互に利用することは有効である。多種方法の相互利用を実現するために、オブジェクト指向設計(OOD)が使用された。クラス構造を設計することは、オブジェクト指向設計(OOD)において、1つの重要ポイントである。GoFのデザイン・パターン(参考文献[10]を参照する)の中に紹介されたファクトリー・パターンは、本モーション・トラッキング/デジタイジング・システムに適することが知られている。本モーション・トラッキング/デジタイジング・システムのクラス構造は、ファクトリー・パターンに基づく。
【0035】
図4は本モーション・トラッキング/デジタイジング・システムのクラス・ダイヤグラムである。図4に示されたように、“トラッキング方法”及び“結果”は抽象型クラスである。具体的なプロセス、トラッキング方法、操作者入力は、各具体的なクラスで実施される。トラッキング方法の各具体的なクラスは、結果の各具体的なクラスを生成する。結果の各具体的なクラスは、抽象型クラス“結果”の下位のクラスである。本モーション・トラッキング/デジタイジング・システムに新しいトラッキング方法を追加したい場合に、ユーザがやらなければいけないことは具体的なクラスを実施することだけであるため、本モーション・トラッキング/デジタイジング・システムの構造は拡張性を提供する。
<1−2−3>各トラッキング結果をフィードバックするための操作手順
多種方法の結果を相互に利用することは本発明のコンセプトの1つである。本発明において、多種トラッキング方法の結果間にフィードバックすることが提案された。これは次の四つの操作によって実現される。例えばテンプレート照合のような最適化が必要な方法に対して、モーション・パスからのフィードバックは有効であることも考えられる。
【0036】
操作1:領域拡大法から人間介在トラッキングへ
領域拡大法の結果が得られると、領域拡大法から人間決定へのフィードバック操作は使用できる。このフィードバックは、領域拡大法によって得られた三次元領域(3D Region)から候補者を生成する。
【0037】
領域拡大法の結果は、三次元領域の形で、換言すれば、図5に示されたように、一連の2値画像の形で与えられる。2値画像において、抽出された領域に対しての点をグループ化することができる。従って、このフィードバックは、2値画像にクラスタ化を適用し、クラスタの中心を出力する。
【0038】
(1)安定したクラスタ化に対し、形態的な操作“opening”を用いて、2値画像における間隙を埋める(図6を参照する)。
【0039】
(2)2値画像にクラスタ化を適用する。
【0040】
(3)クラスタの中心を候補者として出力する(図7を参照する)。
【0041】
候補者が得られた後に、ユーザは候補者に続いてモーション・パスを編集することができる。
【0042】
操作2:人間介在トラッキングから領域拡大法へ
モーション・パスが存在した場合に、人間決定入力から領域拡大法へのフィードバックは使用できる。このフィードバックは、モーション・パスから三次元領域を生成する。
【0043】
各フレームにおいて、このフィードバックは、モーション・パス上の点をシード・ポイントとする二次元領域(Region)成長を行う。これらの操作の結果として、フレーム毎に1つの2値画像が得られた(図8を参照する)。これら一連の2値画像は時空間三次元空間における三次元領域を形成する。
【0044】
操作3:オプティカルフローから人間介在トラッキングへ
オプティカルフローとモーション・パスが得られた場合に、オプティカルフローから人間決定へのフィードバックは使用できる。このフィードバックは、オプティカルフローとモーション・パスの間の残差を提供する。フレーム間のインターバル毎に残差が得られる。
【0045】
フレームnとフレームn+1の間の場合を考える(図9を参照する)。
【0046】
オプティカルフローの平均ベクトルは下記数1によって計算される。
【0047】
【数1】
Figure 2004334266
ここで、Δtはフレーム間の時間インターバルで、
Figure 2004334266
は画素
Figure 2004334266
においてのオプティカルフローである。Wはモーション・パス上の点の隣接エリアであり、その幅はWで、高さはWである(図10を参照する)。
【0048】
モーション・パスのベクトルは下記の数式によって表される。
【0049】
【数2】
Figure 2004334266
【数3】
Figure 2004334266
【数4】
Figure 2004334266
ここで、(x,y)はフレームnにおけるモーション・パスの座標である。
【0050】
オプティカルフローとモーション・パスの間の残差は下記数5によって計算される。
【0051】
【数5】
Figure 2004334266
ここで、θは
Figure 2004334266

Figure 2004334266
の間の角度である。
【0052】
操作4:人間決定からオプティカルフローへ
モーション・パスが得られた場合に、モーション・パスからオプティカルフローへのフィードバックは使用できる。このフィードバックはモーション・パスの近く辺りだけでオプティカルフローを得る。これによって計算量を減らすことができる。
【0053】
フレームnとフレームn+1の間の場合を考える。フレームnにおいて、図10に示されたように、幅がWで、高さがWである隣接エリアを定義する。このフィードバックはこのエリアだけでオプティカルフローを得る。
【0054】
<2>ユーザ・インターフェイス
<2−1>ユーザ・インターフェイスの要素
モーション・トラッキング/デジタイジング・システムは次のウィンドウを有する。
【0055】
アコーディオン・ビューアー(図11を参照する)
二次元ウィンドウ(図12を参照する)
トラッキング方法用のダイアログ・ボックス(図13、図14、図15を参照する)
アコーディオン・ビューアーは、コンピュータのディスプレイ上に、画像、モーション・パス及びトラッキング方法の結果を表示する。二次元ウィンドウは、動画像における任意フレームの画像を表示する。ダイアログ・ボックスは、ユーザがトラッキング方法を操作するところである。
【0056】
<2−1−1>アコーディオン・ビューアー
動画像は一連の画像である。画像列は図16に示された仮想三次元空間上に配列されている。アコーディオン・ビューアーは、透視的に三次元空間を表示する。アコーディオン・ビューアーにおいては、画像列が任意の透明度をもって表示される(図17を参照する)。アコーディオン・ビューアーにおいては、ユーザが回転、移動、ズーミングといった操作を行うことができる(図18を参照する)。
【0057】
ユーザは、マウスのボタンをクリックすることによって、アコーディオン・ビューアーにおける任意のフレームを選択することができる。選択されたフレームは二次元ウィンドウに表示される。
【0058】
<2−1−2>二次元ウィンドウ
二次元ウィンドウは、アコーディオン・ビューアーにおける選択されたフレームの画像を表示する。ユーザは“<”、“>”といったボタンで、フレームを選択することができる。制御点がモーション・パスに追加される場合に、“制御点追加”ボタンが使用される。また、制御点がモーション・パスから削除される場合に、“制御点削除”ボタンが使用される。
【0059】
<2−1−3>ダイアログ・ボックス
次のダイアログ・ボックスはそれぞれ各方法用に提供される。
【0060】
(1)領域拡大(Region growing)ダイアログ(図13を参照する)
リストボックスは得られた結果のリストを示す。
【0061】
“領域追加”ボタンは、領域拡大法の結果を生成するためのボタンである。
【0062】
“領域削除”ボタンは、領域拡大法の結果を削除するためのボタンである。
【0063】
“パスによる領域”ボタンは、人間介在トラッキングから領域拡大法へのフィードバックを行うためのボタンである。
【0064】
“選択された結果を表示”チェック・ボックスは、アコーディオン・ビューアーに領域拡大法の選択された結果を表示させることを可能にする。
【0065】
“候補者を示す”チェック・ボックスは、領域拡大法から人間介在トラッキングへのフィードバックを行うためのものである。
【0066】
(2)オプティカルフロー(Optical flow)ダイアログ(図14を参照する)ユーザは“ウィンドウ・サイズ”スライダーを用いて、オプティカルフローのウィンドウ・サイズを変更することができる。
【0067】
“オプティカルフロー計算”ボタンは、オプティカルフローを計算するためのボタンである。
【0068】
“オプティカルフロー表示”チェック・ボックスは、アコーディオン・ビューアーにオプティカルフローを表示させることを可能にする。
【0069】
“パスの近く辺りだけ”チェック・ボックスは、モーション・パスからオプティカルフローへのフィードバックを可能にする。
【0070】
“残差に基づいた色”チェック・ボックスは、オプティカルフローからモーション・パスへのフィードバックを可能にする。
【0071】
“ビッグ・フローだけ”チェック・ボックスは、アコーディオン・ビューアーにビッグ・オプティカルフローだけを表示させることを可能にする。
【0072】
(3)手動ダイアログ(図15を参照する)
リストボックスは生成されたモーション・パスのリストを示す。
【0073】
“モーション・パス追加”ボタンは、モーション・パスを生成するためのボタンである。
【0074】
“モーション・パス削除”ボタンは、モーション・パスを削除するためのボタンである。
【0075】
本発明において、ユーザ・インターフェイスは、時空間三次元空間の透視図を示す。動画像の各画像は時空間三次元空間上に配列されている。時空間三次元空間の三つの軸は、二次元画像空間と時間軸とで構成される。これら三つの軸は、直線であっても、また曲線であっても良い。モーション・トラッキング/デジタイジング・システムは、コンピュータのディスプレイ上に時空間三次元空間を透視的に表示する。時空間三次元空間の透視図の方向を任意に変えることが可能である。時空間三次元空間の透視図は、任意のサイズに拡大され、或いは、縮小されることが可能である。時空間三次元空間上に配列されている動画像の各画像も、コンピュータのディスプレイ上に透視的に表示される。動画像の各画像は任意の透明度をもって表示されることが可能である。画像毎に透明度の度合いを異にすることが可能である。各画像内部でも、透明度の度合いが一定である必要がない。例えば、ユーザは時空間三次元空間における領域を100%の透明度に指定した場合に、図19に示されたように、ディスプレイ上には三次元空間における画像の断面図を示す。対象物の軌跡を時空間三次元空間においてスプライン曲線として表すことができる。スプライン曲線は任意の数の制御点を有する。ユーザ・インターフェイスを通して、マウス或いは任意のデジタイジング装置を直接に用いて、制御点を編集(移動、追加、削除)することができる。図20に示されたように、モーション・パスを任意のフレームからスタートさせ、また、任意のフレームで終わらせることができる。また、図20に示されたように、異なる対象物の動きに対し、複数のモーション・パスが表示される。
【0076】
<2−2>本モーション・トラッキング/デジタイジング・システムの動作及び説明図
この節は実施例を用いて順を追ってユーザ・インターフェイスの動作を説明する。
【0077】
先ずは、本モーション・トラッキング/デジタイジング・システムに動画像ファイルを取り込む。
【0078】
1.メニュー上の“動画像を開く”ボタンをクリックする(図21を参照する)。
【0079】
2.オープン・ダイアログ・ボックスに、開くすべき動画像ファイルを指定する(図22を参照する)。
【0080】
動画像の画像列はアコーディオン・ビューアーに表示される(図23を参照する)。
【0081】
動画像ファイルが取り込まれた後に、ユーザは次の七つの特徴を使用することができる。
【0082】
<2−2−1>特徴1:領域拡大法の結果を生成する
領域拡大法の結果を生成する手順は次のようになる。
【0083】
1.アコーディオン・ビューアー或いは二次元ウィンドウを用いて1つのフレームを選択する。
【0084】
2.領域拡大ダイアログ上の“領域追加”ボタンをクリックする(図24を参照する)。
【0085】
3.ダイアログにシード・ポイントの位置を設定する(図25を参照する)。
【0086】
領域拡大法の結果はアコーディオン・ビューアーに表示される。ここで留意すべきは、領域拡大法によって抽出された領域は透視図で不透明であるように描かれ、ほかの領域は透視図で透明であるように描かれていることである(図26を参照する)。
<2−2−2>特徴2:オプティカルフローを計算する
1.オプティカルフローダイアログ上のスライダーを用いて、オプティカルフローのウィンドウ・サイズを設定する(図27を参照する)。
【0087】
2.“オプティカルフロー計算”ボタンをクリックする(図28を参照する)。
【0088】
計算後、オプティカルフローはアコーディオン・ビューアーに表示される。アコーディオン・ビューアーにおいて、緑の線はオプティカルフローに対応する(図29を参照する)。
【0089】
<2−2−3>特徴3:モーション・パスを生成・編集する
モーション・パスを生成する手順は次のようになる。
【0090】
1.手動ダイアログ上の“モーション・パス追加”ボタンをクリックする(図30を参照する)。
【0091】
2.モーション・パスの出発点の位置を設定する(図31を参照する)。
【0092】
3.モーション・パスの終点の位置を設定する(図32を参照する)。
【0093】
ユーザは次の三つの制御点に係る操作を用いて、モーション・パスを編集することができる。
【0094】
モーション・パスに新しい制御点を追加する:
1.制御点を追加しなければならないフレームを選択する。
【0095】
2.二次元ウィンドウ上の“制御点追加”ボタンをクリックする(図33を参照する)。
【0096】
モーション・パス上に制御点を移動する:
1.制御点を有するフレームを選択する。
【0097】
2.二次元ウィンドウの画像において、制御点の位置を設定する(図34を参照する)。
【0098】
編集後、ユーザはモーション・パスが得られる(図35を参照する)。
【0099】
<2−2−4>特徴4:領域拡大法から人間介在方法へのフィードバック
1.<2−2−1>節で既に説明したように、領域拡大法の結果を生成する。
【0100】
2.領域拡大ダイアログ上の“候補者を示す”チェック・ボックスをチェックする(図36を参照する)。
【0101】
計算された候補者はアコーディオン・ビューアーに表示される。アコーディオン・ビューアーにおいて、候補者は黄色いボールで表されている(図37を参照する)。
【0102】
<2−2−5>特徴5:人間介在方法から領域拡大法へのフィードバック
1.<2−2−3>節で既に説明したように、モーション・パスを生成する。
【0103】
2.領域拡大ダイアログ上の“パスによる領域”ボタンをクリックする(図38を参照する)。
【0104】
抽出された領域はアコーディオン・ビューアーに表示される(図39を参照する)。
【0105】
<2−2−6>特徴6:領域拡大法から人間介在トラッキング方法へのフィードバック
1.<2−2−3>節で既に説明したように、モーション・パスを生成する。
【0106】
2.<2−2−2>節で既に説明したように、オプティカルフローを計算する。
【0107】
3.オプティカルフローダイアログ上の“残差に基づいた色”チェック・ボックスをチェックする(図40を参照する)。
【0108】
アコーディオン・ビューアーにおけるモーション・パスは、オプティカルフローとモーション・パスとの間の差に基づいて色付けられた(図41を参照する)。
【0109】
<2−2−7>特徴7:人間介在トラッキング方法からオプティカルフローによる方法へのフィードバック
1.<2−2−3>節で既に説明したように、モーション・パスを生成する。
【0110】
2.<2−2−2>節で既に説明したように、オプティカルフローを計算する。
【0111】
3.オプティカルフローダイアログ上の“パスの近く辺りだけ”チェック・ボックスをチェックする(図42を参照する)。
【0112】
アコーディオン・ビューアーはモーション・パスの周りにあるオプティカルフローだけを表示する(図43を参照する)。
【0113】
<2−3>本発明のユーザ・インターフェイスの利点
図44に示されたようなマトリクスのような方式で、動画像列の各フレームを二次元空間に配置する従来のインターフェイスと比較して、本発明のアコーディオン・ビューアーは優れた利点を有する。
【0114】
逆に言えば、本発明のアコーディオン・ビューアーにおいては、動画像列の各フレームが時空間三次元空間にばらで配列されている。アコーディオン・ビューアーによって、ユーザは位置情報及び時間情報を同時に得ることができる。一方、従来のインターフェイスを用いても、位置情報及び時間情報を同時に得ることが不可能である。それは従来のインターフェイスの多くに位置情報と時間情報との相関を示すもう1つのウィンドウが提供されている理由である。例えば、モーション・パスを表すために、従来のインターフェイスは、X軸とY軸に対してモーション・パスの時間的な変化を示すもう1つのウィンドウを必要とする。しかしながら、アコーディオン・ビューアーはその目的のもう1つのウィンドウを必要としない。
【0115】
アコーディオン・ビューアーにおいて、動画像の画像は透明度をもって透視的に描かれている。これによって、ユーザはフレーム間の画像の動きの変化を読むことができる。一方、従来のインターフェイスを用いても、フレーム間の画像の変化を明瞭に認識できない。
【0116】
<3>本モーション・トラッキング/デジタイジング・システムの結果及び評価
<3−1>結果
人間動作“おじぎをする”を含む動画像列を用いて、本モーション・トラッキング/デジタイジング・システムが検証された。この動画像列は28枚のフレームで構成される。動画像列の解像度は320×240ピクセルである。
【0117】
このテストにおいて、人体の頭、肘、肩、手、胴といったところの9つの点がトラッキングされた。テストの結果として、図45、図46及び図47に示されたトラッキングデータが得られた。
【0118】
<3−2>評価
この本モーション・トラッキング/デジタイジング・システムを使用するのに、必要なユーザの仕事量を評価した。入力の数はユーザの仕事量だと考えられる。テストにおいて、9つのモーション・パスが得られた。例えば、右手に対応するモーション・パスの制御点の数は4である。しかしながら、このモーション・パスを従来法で手動的に得るとすれば、ユーザは28個の点を入力しなければならない。
【0119】
<3−3>本発明の結び及び効果
本発明において、ユーザ・インターフェイスを具備する本モーション・トラッキング/デジタイジング・システムが開発された。この本モーション・トラッキング/デジタイジング・システムは対象物の特徴点の二次元動作を抽出する。
【0120】
この本モーション・トラッキング/デジタイジング・システムは、例えば、領域拡大法、オプティカルフローによる方法、人間介在トラッキングのような多種トラッキング方法を使用する。本モーション・トラッキング/デジタイジング・システムは、多種トラッキング方法の結果の相互利用に適した内部構造を有する。本モーション・トラッキング/デジタイジング・システムは各トラッキング方法の結果間のフィードバックを可能にする。動画列の各フレーム及びトラッキング方法の各結果をコンピュータのディスプレイ上に表示する、ユニークなユーザ・インターフェイスが開発された。
【0121】
本発明の本モーション・トラッキング/デジタイジング・システムのロバスト性と有効性が評価された。評価の結果は、本モーション・トラッキング/デジタイジング・システムの出力データが実用可能性を有することを示す。本モーション・トラッキング/デジタイジング・システムのユーザ・インタフェイスが対象物の動きをトラッキングするのに効果的であることは発見された。
【0122】
従来のインターフェイスは動画像列の各フレームをマトリクスのような方式で二次元空間に配置する。従って、従来のインターフェイスを用いることによって、位置情報及び時間情報を同時に得ることが不可能である。それは従来のインターフェイスの多くに位置情報と時間情報との相関を示すもう1つのウィンドウが提供されている理由である。例えば、モーション・パスを表すために、従来のインターフェイスは、X軸とY軸に対してモーション・パスの時間的な変化を示すもう1つのウィンドウを必要とする。しかしながら、アコーディオン・ビューアーはその目的のもう1つのウィンドウを必要としない。
【0123】
従来のインターフェイスは、動画像データを観察するために、シングル・フレーム・ステップ機能に依存する。逆に言えば、本発明の本モーション・トラッキング/デジタイジング・システムにおいて、動画像の画像が同時に表示されることができる。ユーザは透明性の画像を透視することができるので、よって、対象物の動きの変化或いは差を正確に認識することもできる。
【0124】
従来のインターフェイスを用いた場合に、対象物の動きを特定するために、ユーザに全ての画像に対して逐一に対象物をクリックすることが強要される。逆に言えば、スプライン曲線がいくつかの制御点で定義されることは可能であるため、本発明のアコーディオン・ビューアーを用いた場合に、ユーザはモーション軌跡(モーション・パス)のスプライン曲線の数少ない制御点だけを指定すれば良い。
【0125】
動画像は一連の画像である。本モーション・トラッキング/デジタイジング・システム用のユーザ・インタフェイスは、コンピュータによって実行される、逐次動画像ビューイング・プログラムである。このユーザ・インタフェイスによって、コンピュータのディスプレイを通して、ユーザは動画像の画像をビューすることができ、また、時空間三次元空間上に対象物の軌跡を操作することもできる。ユーザは、コンピュータのマウスを駆使して、回転、コード変換、ズームイン、 ズームアウトなどの操作を行うことができる。画像列は、二次元画像空間と時間軸とで構成される仮想三次元空間に配置される。本モーション・トラッキング/デジタイジング・システムは、ユーザ・インターフェイス(アコーディオン・ビューアー)によって、コンピュータのディスプレイ上に、時空間三次元空間を透視的に表示する。時空間三次元空間に配置されている画像列も、コンピュータのディスプレイ上に、透視的に表示される。動画像の各画像は任意の透明度をもって表示されることが可能である。動画像列がばらで時空間に配置されているので、ユーザ・インターフェイスによって、ユーザは一度に対象物の位置情報及び時間情報を得ることができる。ユーザは透明性の画像を透視することができるので、よって、対象物の動きの変化或いは差を正確に認識することもできる。対象物の動きは時空間三次元空間上にスプライン曲線によって表されることができる。スプライン曲線は、コンピュータのディスプレイ上にユーザに指定された、いくつかの制御点によって決められる。
【0126】
更に、本発明の本モーション・トラッキング/デジタイジング・システムも、ユーザ・インターフェイス(アコーディオン・ビューアー)も、同様に、ユーザ・インターフェース、バーチャル・リアリティ、動き分析や科学観察などの分野に適用されることができる。
【0127】
<4>参考文献
[1]D.・ガバリラ(D. Gavrilla), 「ザ ビジュアル アナリシス オフ ヒューマン ムーブメント:ア サーベイ(The visual analysis of human movement: A survey)」,コンピュータ ビジョン アンド イメージ アンダスタンディング(Computer Vision and Image Understanding), 第73巻, p.82−88,1999年1月.
[2]J.・K.・アガラワル、Q.・サイ(J.K.Aggarwal and Q.Cai),「ヒューマン モーション アナリシス:ア レビュー(Human motion analysis: A review)」 ,コンピュータ ビジョン アンド イメージ アンダスタンディング(Computer Vision and Image Understanding),第73巻,p.428−440,1999年3月.
[3]C.・ レン 、A.・アザバヤジャニ、 T.・ダレル、A.・ ペントランド(C. Wren, A. Azarbayejani, T. Darrell, and A. Pentland), 「Pファインダ:リアルタイム トラッキング オフ ザ ヒューマン ボディ(Pfinder: Real−time tracking of the human body)」, IEEE トランス. パターン アンラ. マッチ. インテレ.(IEEE Trans. Pattern Anal. Mach. Intell.),第19巻,第7号,p.780−785,1997年.
[4] B.・ハイゼラー、U.・ケレセル、W.・リッテル(B. Heisele, U. Kressel, and W. Ritter), 「トラッキング ノンリジッド,ムービング オブジェクトズベイセド オン カラー クラスタ フロー(Tracking non−rigid, moving objects based on color cluster flow)」, イン プロク. オフ IEEE コンファレンス オン オートマチック フェイス アンド ジェスチャー レコグニション(in Proc. of IEEE Conference on Automatic Face and Gesture Recognition),p.140−145,1996年.
[5] S. ・A.・ニヨギ、E.・ H.・アデルソン(S. A. Niyogi and E. H. Adelson), 「アナライズイング アンド レコグナイズイング ウォーキング フィギュアズ イン XYT(Analyzing and recognizing walking figures in xyt)」, イン プロク. オフ IEEE コンファレンス オン コンピュータ ビジョン アンド パターン レコグニション(in Proc. of IEEE Conference on Computer Vision and Pattern Recognition),p.469−474,1994年.
[6] S. ・A.・ニヨギ、E.・ H.・アデルソン(S. A. Niyogi and E. H. Adelson), 「アナライズイング ゲイト ウィズ スパチオテンポラル サーフェスズ(Analyzing gait with spatiotemporal surfaces)」, イン プロク. オフ IEEE ワークショップ オン モーション オフ ノンリジッド アンド アーティキュレーテッド オブジェクトズ(in Proc. of IEEE Workshop on Motion of Non−Rigid and Articulated Objects),p.64−69,1994年.
[7]S.・ X.・ジュ、M.・ブラック、Y. ・J.・ヤクーブ(S. X. Ju, M. Black, and Y. J. Yacoob) , 「カードボード ピープル:ア パラメータライズド モデル オフ アーティキュレーテッド イメージ モーション(Cardboard people: a parameterized model of articulated image motion)」,イン プロク.オフ IEEE コンファレンス オン オートマチック フェイス アンドジェスチャー レコグニション( in Proc. of IEEE Conference on Automatic Face and Gesture Recognition),p.38−44,1996年.
[8] Y.・オウイ、J.・ ウォン、S.・オザワ(Y. Ooi, J. Hwang, and S. Ozawa), 「ア メソッド オフ エクストラクティング 3D パッチ インフォメイション フロム オブジェクト イン イメージ シーケンス:ボリューム エディタ(A method of extracting 3d patch information from object in image sequence: Volume editor)」,イン プロク. オフ IEEE コンファレンスコンミュニ.,コンプト. アンド シグナル プロセス(in Proc. of IEEE Conference Commun., Compt. and Signal Process),p.630−633,1993年.
[9]S.・オザワ(S. Ozawa), 「3D メジャーメント ユスイング イメージプロセシング(3d measurement using image processing)」, ジャーナル オフ ザ ジャパン ソサイエティ オフ メカニカル エンジニアズ(Journal of the Japan Society of Mechanical Engineers),第98巻,p.53−56,1995年5月.
[10] E.・ ガンマ、R.・ヘルム、 R.・ジョンソン、J.・ビリシデス(E. Gamma, R. Helm, R. Johnson, and J. Vlissides),「デザイン パターンズ(Design Patterns)」,アディソン・ウェズリー ロングマン, インク.(Addison−Wesley
Longman, Inc).
【図面の簡単な説明】
【図1】時空間三次元領域を説明するための模式図である。
【図2】三次元領域(3D Region)を説明するための模式図である。
【図3】モーション・パスを説明するための模式図である。
【図4】本モーション・トラッキング/デジタイジング・システムのクラス・ダイヤグラムを示す図である。
【図5】2値画像で構成される三次元領域(3D Region)を説明するための模式図である。
【図6】形態的なopeningを説明するための模式図である。
【図7】クラスタの中心を候補者とするのを説明するための模式図である。
【図8】モーション・パスから領域拡大法へのフィードバックを説明するための模式図である。
【図9】モーション・パスとオプティカルフローとの間の角度を説明するための模式図である。
【図10】モーション・パスの隣接エリアを示すウィンドウを説明するための模式図である。
【図11】アコーディオン・ビューアーの一例を示す図である。
【図12】二次元ウィンドウの一例を示す図である。
【図13】領域拡大ダイアログ・ボックスの一例を示す図である。
【図14】オプティカルフローダイアログ・ボックスの一例を示す図である。
【図15】人間介在ダイアログ・ボックスの一例を示す図である。
【図16】仮想三次元空間を説明するための模式図である。
【図17】図17はアコーディオン・ビューアーが任意の透明度をもって動画像列の各フレームを表示するのを説明している。
【図18】図18はアコーディオン・ビューアーにおいて、ユーザの視点を変えることができるのを説明している。
【図19】アコーディオン・ビューアーの機能を説明するための模式図である。
【図20】アコーディオン・ビューアーの機能を説明するための模式図である。
【図21】本モーション・トラッキング/デジタイジング・システムのビューの実例を示す図である。
【図22】本モーション・トラッキング/デジタイジング・システムのビューの実例を示す図である。
【図23】本モーション・トラッキング/デジタイジング・システムのビューの実例を示す図である。
【図24】本モーション・トラッキング/デジタイジング・システムのビューの実例を示す図である。
【図25】本モーション・トラッキング/デジタイジング・システムのビューの実例を示す図である。
【図26】本モーション・トラッキング/デジタイジング・システムのビューの実例を示す図である。
【図27】本モーション・トラッキング/デジタイジング・システムのビューの実例を示す図である。
【図28】本モーション・トラッキング/デジタイジング・システムのビューの実例を示す図である。
【図29】本モーション・トラッキング/デジタイジング・システムのビューの実例を示す図である。
【図30】本モーション・トラッキング/デジタイジング・システムのビューの実例を示す図である。
【図31】本モーション・トラッキング/デジタイジング・システムのビューの実例を示す図である。
【図32】本モーション・トラッキング/デジタイジング・システムのビューの実例を示す図である。
【図33】本モーション・トラッキング/デジタイジング・システムのビューの実例を示す図である。
【図34】本モーション・トラッキング/デジタイジング・システムのビューの実例を示す図である。
【図35】本モーション・トラッキング/デジタイジング・システムのビューの実例を示す図である。
【図36】本モーション・トラッキング/デジタイジング・システムのビューの実例を示す図である。
【図37】本モーション・トラッキング/デジタイジング・システムのビューの実例を示す図である。
【図38】本モーション・トラッキング/デジタイジング・システムのビューの実例を示す図である。
【図39】本モーション・トラッキング/デジタイジング・システムのビューの実例を示す図である。
【図40】本モーション・トラッキング/デジタイジング・システムのビューの実例を示す図である。
【図41】本モーション・トラッキング/デジタイジング・システムのビューの実例を示す図である。
【図42】本モーション・トラッキング/デジタイジング・システムのビューの実例を示す図である。
【図43】本モーション・トラッキング/デジタイジング・システムのビューの実例を示す図である。
【図44】従来のマトリクスのような二次元インターフェイスを説明するための模式図である。
【図45】ビデオ画像“おじぎをする”とトラッキング・データを示す図である。
【図46】ビデオ画像“おじぎをする”とトラッキング・データを示す図である。
【図47】ビデオ画像“おじぎをする”とトラッキング・データを示す図である。

Claims (5)

  1. 動画像中の対象物の動きを抽出するための画像表示装置であって、仮想三次元空間において前記動画像の画像列を任意な透明度で表示するアコーディオン・ビューアー手段を備えることを特徴とする画像表示装置。
  2. 前記仮想三次元空間は二次元画像空間と時間軸とから成る時空間三次元空間である請求項1に記載の画像表示装置。
  3. 前記アコーディオン・ビューアー手段は前記時空間三次元空間上に前記対象物の動きを操作して表示する請求項2に記載の画像表示装置。
  4. 前記対象物の動きは前記時空間三次元空間上にスプライン曲線によって表される請求項3に記載の画像表示装置。
  5. 前記スプライン曲線は前記アコーディオン・ビューアー手段によって指定されるいくつかの制御点によって定義される請求項4に記載の画像表示装置。
JP2003124911A 2003-04-30 2003-04-30 画像表示装置 Pending JP2004334266A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003124911A JP2004334266A (ja) 2003-04-30 2003-04-30 画像表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003124911A JP2004334266A (ja) 2003-04-30 2003-04-30 画像表示装置

Publications (1)

Publication Number Publication Date
JP2004334266A true JP2004334266A (ja) 2004-11-25

Family

ID=33502321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003124911A Pending JP2004334266A (ja) 2003-04-30 2003-04-30 画像表示装置

Country Status (1)

Country Link
JP (1) JP2004334266A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100690279B1 (ko) 2005-09-12 2007-03-09 주식회사 리트코 다목적 영상감지 시스템
JP2016194829A (ja) * 2015-03-31 2016-11-17 富士通株式会社 表示処理方法、判定処理方法、表示処理プログラム、判定処理プログラム、及び処理装置。

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100690279B1 (ko) 2005-09-12 2007-03-09 주식회사 리트코 다목적 영상감지 시스템
JP2016194829A (ja) * 2015-03-31 2016-11-17 富士通株式会社 表示処理方法、判定処理方法、表示処理プログラム、判定処理プログラム、及び処理装置。

Similar Documents

Publication Publication Date Title
Kim et al. Pedx: Benchmark dataset for metric 3-d pose estimation of pedestrians in complex urban intersections
Wang et al. Hmor: Hierarchical multi-person ordinal relations for monocular multi-person 3d pose estimation
CN100407798C (zh) 三维几何建模系统和方法
Aggarwal et al. Human motion analysis: A review
WO2010073432A1 (ja) 画像処理装置および画像処理方法
JP5595655B2 (ja) 画像処理装置および画像処理方法
CN103443826A (zh) 网格动画
Liu et al. Hand pose estimation from rgb images based on deep learning: A survey
JP5468773B2 (ja) 画像処理装置および画像処理方法
Amrutha et al. Human Body Pose Estimation and Applications
JP2010211732A (ja) 物体認識装置および方法
Dai et al. Indoor 3D human trajectory reconstruction using surveillance camera videos and point clouds
Chakravarthi et al. Scenario-Based Sensed Human Motion Editing and Validation Through the Motion-Sphere
JP2004334266A (ja) 画像表示装置
Dai Modeling and simulation of athlete’s error motion recognition based on computer vision
Xie et al. RHOBIN Challenge: Reconstruction of Human Object Interaction
Hori et al. Silhouette-Based 3D Human Pose Estimation Using a Single Wrist-Mounted 360° Camera
US11074738B1 (en) System for creating animations using component stress indication
Taylor et al. Interacting with real objects in virtual worlds
Zhuang et al. A modern approach to intelligent animation: theory and practice
Condell et al. Software and Methods for Motion Capture and Tracking in Animation.
Condell et al. HandPuppet3D: Motion capture and analysis for character animation
Fathima et al. Motion Capture Technology in Animation
Silva et al. Applying object recognition and tracking to augmented reality for information visualization
Cleetus Real-time multiple human pose estimation for animations in game engines