JP2002359777A - 時空間領域情報処理方法及び時空間領域情報処理システム - Google Patents
時空間領域情報処理方法及び時空間領域情報処理システムInfo
- Publication number
- JP2002359777A JP2002359777A JP2001163274A JP2001163274A JP2002359777A JP 2002359777 A JP2002359777 A JP 2002359777A JP 2001163274 A JP2001163274 A JP 2001163274A JP 2001163274 A JP2001163274 A JP 2001163274A JP 2002359777 A JP2002359777 A JP 2002359777A
- Authority
- JP
- Japan
- Prior art keywords
- spatio
- temporal
- information
- trajectory
- approximate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Studio Circuits (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
とを可能にする時空間領域情報処理方法を提供するこ
と。 【解決手段】 映像情報記憶部1は、映像データを記憶
する。時空間領域情報記憶部2は、映像データ中の任意
の領域の任意の複数フレームにわたる推移を表すものと
して、該領域を示す所定の近似図形の各代表点ごとに、
当該代表点の時間軸方向の軌跡について特定可能な情報
を記述した時空間領域情報を記憶する。時空間領域情報
編集処理部5は、編集対象の時空間領域情報に基づいて
代表点ごとの軌跡を求め、表示部3にて、代表点ごとの
軌跡を3次元空間表示し、入力部4にて、3次元空間表
示された軌跡の形状に対する所定の修正操作を入力し、
入力された修正操作に基づいて、対象の時空間領域情報
を修正する。
Description
空間領域形状をX、Y、時間の3次元空間中に表示し、
表示された形状を3次元空間中で操作することによって
時空間領域情報を入力、修正することを特徴とする時空
間領域情報処理方法及び時空間領域情報処理システムに
関する。
より、映像や画像をデジタルデータとして扱うことが一
般化してきている。このデジタル化によりデータ量が大
きい映像画像データを効率的に圧縮する技術が確立され
た。また、インターネットや衛星放送・CATVなどの
ネットワーク技術の発展に伴い、大量の映像データを扱
うことができるようになってきており、映像や画像情報
を蓄積しておいてニーズに合わせて取り出し利用する映
像画像データベースやビデオオンデマンドが実用の段階
に入ろうとしている。他にも遠隔地からの自動監視シス
テムもメジャーなものになってきている。このように映
像や画像を利用しようとするとき、画面内になにがある
かを認識したり、逆に望む物体があるような映像を検索
抽出をしたり、映像を分類したいという要望がある。
数フレームに渡る任意の時空間領域情報を効率よく記述
するための手法が既に提案されている(例えば、特開2
001−118075号公報,特開2001−1119
96号公報)。
間領域情報を入力したり、既にある時空間領域情報を編
集しようと考えたときには情報を数値入力したり、フレ
ーム単位に入力・編集していたため、前後のフレームや
時空間領域の全時間における形状を考慮しながら時空間
領域情報を入力したり、編集したりすることが困難であ
った。
ので、時空間領域形状の全体もしくは一部を参照しなが
ら効率的に時空間領域情報を入力・編集可能な時空間領
域情報処理方法及び時空間領域情報処理システムを提供
することを目的とする。
における任意の領域の複数フレームにわたる推移を表す
ものとして記述された、該領域を示す近似図形の代表点
の軌跡を特定可能な時空間領域情報を対象にし、該時空
間領域情報に修正を施す処理を行うための時空間領域情
報処理方法であって、対象にした前記領域の前記時空間
領域情報に基づいて、前記代表点の前記軌跡を求め、求
められた前記代表点の前記軌跡を、画面上に表示し、画
面上に表示された前記軌跡の形状の修正操作の入力を受
け付け、入力された前記修正操作に基づいて、前記時空
間領域情報を修正することを特徴とする。
間中に代表点の軌跡を表示し、表示された代表点の軌跡
を3次元空間中でユーザが操作する機能を持ち、3次元
空間中に各代表点の軌跡を操作することによって、時空
間領域情報を入力、修正することができるようになる。
時空間領域情報を修正した場合に、修正後の時空間領域
情報に基づいて、あらためて、前記代表点の前記軌跡の
画面上への表示を行い、さらなる前記所定の修正操作の
入力を行うようにしてもよい。
上に表示するに際して、該軌跡上の所定箇所に、修正操
作用のポイントを表示し、前記修正操作用のポイントに
対してなされる修正操作の入力を受け付け、入力された
前記修正操作に基づいて、前記時空間領域情報を修正す
るようにしてもよい。
操作することによって、関数補間された代表点の軌跡に
よって表現された時空間領域情報を入力、修正すること
ができるようになる。
任意の前記修正操作用のポイントに対する任意の方向の
移動、または新たな前記修正操作用のポイントの追加も
しくは既存の前記修正操作用のポイントの削除であるよ
うにしてもよい。
上に表示するに際して、前記映像データの所定のフレー
ムを併せて表示するようにしてもよい。
時空間領域情報を入力、修正することができるようにな
る。
ームを表示するにあたっては、表示すべき当該フレーム
における前記近似図形の内部と外部とで異なる表示形態
により表示するようにしてもよい。好ましくは、前記近
似図形の内部に対する表示形態と外部に対する表示形態
とは、前記映像データに対する加工の有無、または前記
映像データに対する加工の内容が異なるものであるよう
にしてもよい。
な情報は、当該代表点の位置データをフレームの進行に
沿って並べたときの軌跡を所定の関数で近似し、該関数
のパラメータを用いて記述されたものであるようにして
もよい。また、好ましくは、前記代表点の軌跡を特定可
能な情報は、当該代表点の基準となるフレームにおける
位置データから、他のフレームにおける位置データへの
領域変換を示す変換パラメータを求め、該変換パラメー
タについて、該変換パラメータをフレームの進行に沿っ
て並べたときの軌跡を所定の関数で近似し、該関数のパ
ラメータを用いて記述されたものであるようにしてもよ
い。また、好ましくは、前記代表点のうちの少なくとも
一つについて、当該代表点についての前記位置データが
用いられる代わりに、同一フレームにおける他の代表点
を基準としたときの当該代表点の相対的な位置を示すデ
ータが用いられているようにしてもよい。
上に表示するにあたっては、前記フレームに係る2次元
座標軸及び時間軸からなる3次元空間中に該軌跡を配置
する形態で3次元表示するようにしてもよい。
としても成立し、方法に係る本発明は装置に係る発明と
しても成立する。また、装置または方法に係る本発明
は、コンピュータに当該発明に相当する手順を実行させ
るための(あるいはコンピュータを当該発明に相当する
手段として機能させるための、あるいはコンピュータに
当該発明に相当する機能を実現させるための)プログラ
ムとしても成立し、該プログラムを記録したコンピュー
タ読取り可能な記録媒体としても成立する。
ームにわたる任意の時空間領域や、これに加えて適宜映
像データの任意フレームの画像を3次元空間中に表示す
ることによって、時空間領域形状自体や映像データとの
関係を容易に把握することができるようになり、時空間
領域情報の編集作業を効率的にすることが可能になる。
実施の形態を説明する。
処理システムは、ユーザが時空間領域情報に対して編集
等の処理を行うための機能を有するシステムである。
明する。
利用方法などについては、例えば、特開2001−11
8075号公報や特開2001−111996号公報な
どに詳しく開示されている(それらに開示されている物
体領域データが、この時空間領域情報の一形態に相当す
る)。
について簡単に説明する。
示画面(例えばGUI画面)上に設けられる特定の領域
の出現から消失までの時間的空間的領域(例えば各フレ
ームにおける2次元的領域の時間的推移)を示す情報で
ある。また、時空間領域情報は、通常、映像(あるいは
動画像)データ(映像データの内容そのものは、実写し
たもの、実写したものを加工したもの、CG、アニメー
ション、それらを組み合わせたもの等、どのようなコン
テンツでもよい)に付随する情報である。なお、動画像
データは、複数のフレームからなるものを想定して説明
する。
に存在する特定の物体(オブジェクト)を示す領域とし
て利用することができる。この場合、あるフレームにお
けるその特定の領域の形状が、そのフレームにおけるそ
の特定の物体領域を表す(もしくは近似して表す)もの
である。ここで、物体領域とは、映像中における一纏ま
りの領域部分であり、例えば、人、動物、植物、車、建
物、道、川、太陽、雲など(あるいはその一部分、例え
ば人の頭、車のボンネット、建物の玄関など)、オブジ
ェクトとして把握し得るものならどのようなものでも扱
うことができる。また、独立したものであってもよい
し、ものの一部(例えば人の頭、車のボンネット、建物
の玄関)であってもよいし、ものの集合(例えば鳥や魚
の群)であってもよい。
物体領域に対する時空間領域情報の生成について簡単に
説明する。
は、例えば次のような手順によって行うことができる。
なお、いずれの手順も自動化可能であり、またユーザの
手作業を介入させることも可能である。 (1)映像データの所定のフレームから、対象となる物
体の物体領域を抽出する。 (2)その物体領域を、所定の図形により近似する。 (3)その近似図形を特定する代表点を抽出する。1〜
3の手順は、当該物体領域に対する近似図形を出現させ
るフレームから消失させるフレームにわたって、全フレ
ームまたはサンプリングした複数のフレームについて行
われる。 (4)各代表点について、その位置(またはこれを特定
可能とする量)の時系列を、時間t(例えば映像に付与
されているタイムスタンプ)もしくはフレーム番号fな
どの関数(近似関数)により近似表現する。この近似表
現したときの関数のパラメータの値が、求める値であ
る。この関数は、各代表点ごと別々に、かつ、X座標と
Y座標で別々に表現される。
域について行われる。
ラメータになる多角形、辺の数が固定された矩形などの
多角形、円、楕円など、種々のものがある。また、代表
点には、例えば、多角形の頂点、矩形の4つもしくは3
つの頂点、円の中心と円周上の一点もしくは直径の両端
点、楕円の外接矩形の4つもしくは3つの頂点または2
つの焦点と楕円上の1点など、図形の種類に応じて、種
々のものがある。
該パラメータから該関数が求められ、該関数をもとに所
望の時間tもしくはフレーム番号fなどにおける各代表
点のXY座標値が求められ、該各代表点のXY座標値か
ら、当該所望の時間tもしくはフレーム番号fなどにお
ける近似図形の領域を求めることができる。
に多角形を利用し、代表点を多角形の頂点とし、各頂点
の時間軸方向の軌跡に対する近似関数として2次の多項
式スプライン関数を利用し、画像中のオブジェクト
「魚」に対する時空間領域情報を生成する例である。
なっている映像中の1フレームを示している。201は
抽出対象となっている物体の領域を示している。202
は物体の領域を近似した近似多角形を示している。
似図形の代表点、すなわちこの例における近似多角形2
02及びその各頂点の推移、それらのうちの1つの頂点
(V 0)の近似曲線を表現したものである。
て求められた関数の例である(ここでは基準代表点V0
の1つの座標軸についてのみ示している)。この例は、
近似区間がt=0〜5とt=5〜16の2つに分割され
た場合を示している。
る関数を求めている例である。図中の211は物体の存
在している時間区間を表しており、黒い点(212)が
代表点V0 のX座標の値である。213がその近似関数
である。Y座標に対しても、同様にして近似関数が求め
られる。近似関数として多項式スプライン関数を用いて
いるので、図1(c)の204では節点と呼ばれる点に
より分割された時間区間ごとに多項式が定義されてい
る。ここでは、t=0,5,16がそれぞれ節点時刻と
なる。
れ同様である。
は、当該代表点を当該代表点とは別の代表点からの相対
的関係、例えば差分ベクトルによって表し、そのベクト
ルの軌跡により記述する方法もある。図3は、その一例
として、近似多角形において、基準とする代表点V
0 と、その他の代表点を表すための差分ベクトルの各々
を説明している図である。図4の黒い点列(222)
は、各時刻におけるベクトルV 0,1 のX成分の値を表し
ている。
点の位置又は差分ベクトルの軌跡を近似したが、ある基
準となるフレームにおける代表点の位置又は差分ベクト
ルを各フレームにおける代表点の位置又は差分ベクトル
に変換する関数のパラメータの軌跡を近似する方法もあ
る。あるいは、先行するフレームにおける代表点の位置
又は差分ベクトルを後続するフレームにおける代表点の
位置又は差分ベクトルに変換する関数のパラメータの軌
跡を近似する方法もある。
種々のバリエーションがあり、本発明は、どのような形
態の時空間領域情報にも適用可能である。また、時空間
領域情報には、例えば、各物体領域に対応する各代表点
ごとで且つ各フレームごと、あるいは各物体領域ごとで
且つ各フレームごと、あるいは各物体領域の各代表点ご
と、あるいは各物体領域ごとなどの所定の単位で、所定
の属性情報もしくは関連情報などが付加されることもあ
る。本発明は、このような時空間領域情報にも適用可能
である。
領域情報のデータ構造の一例を示す。図5に示されるよ
うに、本例の時空間領域情報は、時空間領域情報識別情
報(以下、ID番号)101、先頭時刻102、最終時
刻103、形状フラグ104、軌跡データ105を含む
ものである。
される識別番号である。
ID番号の時空間領域が存在する先頭と最終の時刻であ
る。先頭時刻と最終時刻はタイムスタンプによって表現
してもよいし、フレーム番号で表現してもよい。
に表現されているかを示すものである。領域形状は、例
えば、矩形、楕円、多角形などで表現されているため、
それらを一意に区別するような情報が記述される。多角
形の場合には、頂点数情報も形状フラグに付加される。
るためのパラメータデータである。これは、先頭時刻か
ら最終時刻までの時空間領域形状が決定できるようなも
のである。例えば、領域形状が矩形や多角形の場合にお
ける、各頂点の軌跡を関数近似したときのパラメータ、
領域形状が楕円の場合における、楕円の外接矩形頂点の
軌跡を関数近似したときのパラメータなどである。10
6のように、軌跡データ105は、1つの代表点につい
て、X座標軌跡とY座標軌跡を別々に記述するため、軌
跡データは、代表点数×2だけ存在する。
々の軌跡データ105のデータ構造の一例を示す。これ
は、スプライン関数などで関数補間された連続する軌跡
を表すためのもので、時間とX座標やY座標などのパラ
メータとの関係を格納するためのものである。
数を表しており、節点数−1個の多項式のデータ156
があることを示している。スプライン関数は、隣接する
節点の間の区間ごとにそれぞれ別の多項式で表現される
ため、節点の数に対応した数の多項式が必要となる。し
たがって、節点フレーム番号、多項式の係数などを含む
データ156は、複数繰り返し記述される。
最初の節点の時刻を表す。
わりの節点時刻を表しており、この節点時刻まで多項式
のデータ156が有効であることを示している。これは
フレーム番号の代わりにタイムスタンプによって記述し
てもよい。多項式の係数データの数は、スプライン関数
の最高次数により変化する(最高次数をKとすると、係
数データの数はK+1となる)。そのため、係数データ
数を多項式次数154に保存してある。多項式次数15
4の後には多項式次数+1個に相当する数の多項式係数
155が続く。
法について簡単に説明する。
タに付随する時空間領域情報を利用する機能を有するシ
ステムでは、時空間領域情報に基づいて対象となるフレ
ームにおける物体領域の近似図形の各代表点を求め(1
つのフレームに複数の物体領域の近似図形が存在するこ
ともある)、該物体領域の近似図形の各代表点から該フ
レームにおける該近似図形の領域を求め、そして、映像
データ上に該近似図形の外形を表示したり、あるいは映
像データのうち近似図形の内部に相当する範囲を特定の
表示形態で表示したり、あるいはユーザが画面上に表示
中の映像上をマウスなどのポインティングデバイス等で
指示した場合に例えばその時刻(フィールド)に物体領
域の近似図形が存在し且つ指示位置が近似図形の内部で
あればその対象物体が指示されたと判断し何らかの処理
を行うなどによって、効果的なシステムあるいはグラフ
ィカル・ユーザ・インタフェース(GUI)などを提供
することができる。
ば、文字、音声、静止画、動画等、あるいはそれらを適
宜組み合わせたもの、またはその格納アドレスを示すポ
インタ情報)が付加されている場合あるいは時空間領域
情報とは別に各ID番号の情報に関連する関連情報を含
むデータベースが存在するなどの場合に、ハイパーメデ
ィアや物体検索に用いることができる。例えば、ユーザ
が当該物体(又は当該物体及びその近傍)をマウス等で
指定することにより、指定された時刻・場所が物体領域
の内部であるか外部であるかを判定し、内部であると判
定されれば、その物体に関する関連情報を検索させた
り、表示させたりすることができる。例えば、映像が映
画などのコンテンツ、物体が俳優等の登場人物もしくは
他の登場物体、関連情報がその俳優もしくはその役柄等
に関する説明であれば、映画を視聴している視聴者は、
所望の俳優に関する説明をその俳優の画像をクリックす
るだけで閲覧することができる。同様に、電子百科事
典、電子カタログ等のあらゆる電子コンテンツに適用可
能である。
しくは計算機の動作を記述したデータまたはその格納ア
ドレスを示すポインタ情報であってもよい。この場合に
は、ユーザが当該物体を指定することにより、計算機に
所定の動作を行わせることができる。
位置、非通過位置、ある位置における大きさ、ある位置
における滞在時間などを検索キーとして条件に合う物体
を検索することができる。いずれの検索キーに対して
も、物体の存在する時間区間に対して逐次代表点座標を
取り出し、任意の点が代表点で構成される図形の内部か
外部かを判定したり、面積を計算することにより条件を
満たすかどうかが判断できる。また、例えば、関連情報
にキーワードを記述しておけば、物体をキーワード検索
することができる。さらに、関連情報にその物体から抽
出した、シェープ、テクスチャ、アクティビティ、カラ
ーなどの特徴量を記述しておけば、そのような特徴量を
もとにオブジェクト検索することができる。また、例え
ば、時空間領域情報を解析することにより得られる、物
体のシェープ、テクスチャ、アクティビティ、カラーな
どの特徴量に基づいて、不審な人物等の監視を行う、監
視システムを実現することができる。
方法について説明する。
の用に供される場合には、作成者側からユーザ側に何ら
かの方法で時空間領域情報を提供する必要がある。この
提供の方法としても以下に例示するように種々の形態が
考えられる。 (1)映像データとその時空間領域情報を同時に提供す
る形態 (2)映像データを単独で提供し、別途、時空間領域情
報を提供する形態 (3)上記の(1)または(2)の方法で、映像データ
とその時空間領域情報を提供し、上記の(1)または
(2)のいずれかの提供時に同時に、またはそれらとは
独立して、関連情報等を提供する形態 データや情報を提供する手段としては、例えば、1つま
たは複数の記録媒体に記録して提供する方法や、ネット
ワーク経由等で提供する(あるいはユーザが取得する)
方法や、それらを併用する方法などがある。
ステムは、作成者側のシステムに搭載することもできる
し、ユーザ側のシステムに搭載することもできる。ま
た、時間領域情報を生成する機能を有するシステムに搭
載して、当該システムで生成された時間領域情報を編集
対象とすることもできるし、時間領域情報を生成する機
能を有するシステム又は時間領域情報を生成する機能を
有しないシステムに搭載して、外部から読み込んだ時間
領域情報を編集対象とすることもできる。
情報処理システムについて詳しく説明する。
を編集対象とする場合を例にとって説明する。
処理装置の構成例を示す。図7に示されるように、本時
空間領域情報処理装置は、映像情報記憶部1、時空間領
域情報記憶部2、表示部3、入力部4、時空間領域情報
編集処理部5を備えている。
でプログラムを実行する形で実現することができる。ま
た、そのプログラムを、他のソフトウェアの一機能とし
て組み込むようにすることも可能である。また、必要に
応じて、その計算機に、所望の機能を有するOSやドラ
イバソフト、パケット通信用ソフト、暗号ソフト等とい
ったソフトウェア、あるいは通信インタフェース装置や
外部記憶装置や入出力装置等といったハードウェアを搭
載あるいは接続することができる。
れているもので、例えばハードディスクや光ディスク、
半導体メモリなどで構成される。
部1に保存されている映像データにおける(例えば物体
領域を示す近似矩形もしくは近似多角形の各頂点の軌跡
や近似楕円に外接する矩形の各頂点の軌跡などによって
表された)時空間領域情報が記憶されている。時空間領
域情報記憶部2は、例えば、ハードディスクや光ディス
ク、半導体メモリなどで構成される。前述したように、
ここでは、時空間領域情報としては、例えば図5及び図
6に示されるようなデータ構造を持つものを例にとって
いる。
記憶部2は、同じ物理デバイス上に存在していても、違
う物理デバイス上に存在していてもよい。
や時空間領域情報の表示に関する処理や、時空間領域情
報の修正に関する処理などを行う。
どに関する表示を行うためのものであり、入力部4は、
ユーザからの指示入力や選択入力等を入力するためのも
のである。なお、ここでは、表示部3及び入力部4によ
りグラフィカル・ユーザ・インタフェースを構成するも
のとしている。
物体領域を示す図形の各代表点(例えば、物体領域を示
す近似矩形もしくは近似多角形の各頂点の軌跡や近似楕
円に外接する矩形の各頂点)の軌跡などとして、{X、
Y、時間}の3次元空間中に配置され表示される。ま
た、当該時空間領域情報に対応する映像情報は、適宜、
その全部又は一部のフレームの画像が、処理されてまた
は処理されずに、3次元空間中に表示される(表示しな
いことも可能である)。
7の構成に更に、時空間領域情報を生成するための時空
間領域情報生成処理部6を備えてもよい。この場合の構
成例を図8に示す。なお、時空間領域情報生成処理部6
としては、例えば、特開2001−118075号公報
や特開2001−111996号公報などに開示された
構成を用いることができる。
3次元空間を表示することが必要となるが、この表示の
ための処理には、ホログラフ技術やバーチャルリアリテ
ィ技術など3次元空間を表示可能な技術を適用した処理
が利用可能である。また、3次元空間を2次元平面に投
影して表示することによって通常のディスプレイなどで
表示してもよい。ただし、この場合には、投影による隠
れなどが発生し得るため、視点や注視点を移動するため
のインターフェースを設けると好ましい。
することができる。また、空間で操作する3次元マウス
等の入力デバイスを利用することも可能である。
する表示方法の一例を示す。
となる時空間領域情報に基づいて、物体領域を示す図形
の代表点の軌跡を求め、代表点軌跡161のように曲線
として表示する。代表点軌跡161の表示形態は、例え
ば、代表点軌跡ごとに色分けして表示したり、実線や破
線などの線種で分けて表示するようにしてもよい(どの
ように表示するかについて、予め設定してもよいし、ユ
ーザが任意に設定できるようにしてもよい)。
表点軌跡161を特定するための点として、節点座標1
62とコントロールポイント163を表示する。節点座
標162は、時空間領域情報に記述されているものであ
る。コントロールポイント163は、節点座標以外で代
表点軌跡161上に位置するポイントであり、コントロ
ールポイント163をどのように設けるかに応じて、時
空間領域情報に基づいて算出する(コントロールポイン
ト163をどのように設けるかについては後述する)。
節点座標162とコントロールポイント163は、容易
に区別できるような色や形で表示すると好ましい。図9
においては、節点座標162は「・」で、コントロール
ポイント163は「×」で表示されている(それらを区
別して表示する場合には、区別可能であればどのような
表示形態でも構わない)。なお、節点座標162とコン
トロールポイント163の全部又は一部を表示しない方
法もある。また、ユーザーが節点座標162とコントロ
ールポイント163を表示するかどうかあるいは表示す
る場合の表示方法を切り替えられるようにしてもよい。
ト163は、ユーザが時空間領域情報に対する修正内容
を入力するためのものであり、本時空間領域情報処理シ
ステムでは、ユーザは、時空間領域情報を修正したい場
合には、例えばマウスなどを用いてドラッグ・アンド・
ドロップ操作などにより、節点座標162やコントロー
ルポイント163を任意に選択し、それを任意の方向
(X方向又はY方向又は時間方向のうち任意の1次元で
もよいし、任意の2次元でもよいし、3次元でもよい)
へ任意の量だけ移動させる(すなわち、任意の移動ベク
トルを入力する)ことによって、時空間領域情報に対す
る修正指示を入力する。節点座標162やコントロール
ポイント163をドラッグ・アンド・ドロップ操作など
により移動させる場合に、節点座標162又はコントロ
ールポイント163を1つずつ選択して移動させるもの
としてもよいし、複数の節点座標162及び又はコント
ロールポイント163を選択して一括してそれらを移動
させることをも可能にしてもよい。
ント163の全部又は一部を表示しない場合には、例え
ば、ユーザがマウスなどを用いて指示した位置の直近の
節点座標162又はコントロールポイント163が選択
されたものとして扱うようにすればよい。
は、この節点座標162やコントロールポイント163
がユーザにより移動された後の位置に対応する時空間領
域情報を計算することになる。
点軌跡は、ある節点時刻から次の節点時刻までの補間関
数の集合として表される。そのため、1本の代表点軌跡
を特定するためには、すべての節点時刻と、節点間の補
間関数のパラメータが特定できればよい。
プライン関数など)、節点時刻が、 t0,t1,…,tk であったとすると、この代表点軌跡の節点座標162
は、 (fx(t0),fy(t0),t0),(fx(t1),fy
(t1),t1),…,(fx(tk),fy(tk),t
k)である。
点軌跡の座標を表す。ユーザは、節点座標162の位置
により、節点時刻と節点時刻における座標を知ることが
できる。
されている場合には、この節点座標162の座標を表示
することによって、代表点軌跡161の形状を一意に特
定することができる(なお、コントロールポイント16
3を必要最低限の数のみ表示する場合には、補間関数が
1次関数のときは、コントロールポイント163は表示
されないことになる)。
数で補間されている場合には、節点座標162のみでは
補間関数の形状を一意に特定することができない。この
ような場合には、コントロールポイント163を表示し
て、補間関数の形状を一意に特定できるようにする。
形状を一意に決定できユーザがわかりやすいものであれ
ばどのような座標に表示してもよい。例えば、n次多項
式によって補間されている際には、n+1個の座標がわ
かれば補完関数形状を一意に決定できる。補間関数の開
始時刻における座標と終了時刻における座標は、節点座
標162によって表示されているため、それ以外のn−
1個の座標をコントロールポイントとして表示すること
によって補間関数形状を一意に決定することができる。
かについては、種々のバリエーションが可能であるが、
コントロールポイント間があまりにも近いと、ユーザー
にとってわかりにくいだけではなく、操作する際にも困
難になるため、例えば、開始時刻から終了時刻を等分し
てコントロールポイントを配置するようにしてもよい。
(以下、キーフレームと呼ぶ)の時間がt1で、次のキ
ーフレームの時間がt2であったとする。t1からt2
において代表点軌跡が、 (X,Y,時間)=(fx(t),fy(t),t) で表されていたとする。ただし、fx(t)とfy(t)
は時間tのn次多項式であるとする。このとき、キーフ
レームにおける座標162は、 (fx(t1),fy(t1),t1)と(fx(t2),fy
(t2),t2) である。コントロールポイント163は、n−1点必要
となり、t1〜t2を等分して座標を決定するとすると、
コントロールポイント163の座標は、 (fx((t2−t1)*i/n+t1),fy((t2−t1)*i/n+t
1),(t2-t1)*i/n+t1) (i=1,2,…,n
−1) となる。
は、均等分割する方法の他に、例えば、曲線の変化の激
しい部分ほど密にコントロールポイントを配置する方法
もある。
は、補完関数形状を一意に決定するn+1個よりも多い
数とする方法も可能である。この場合には、例えば、修
正後の補完関数形状を一意に決定するためのn+1個を
ユーザが選択するようにしてもよいし、あるいはシステ
ム側で選択するようにしてもよい(ただし、表示されて
いるn+1個よりも多い数の全コントロールポイント
を、修正後の補完関数形状を一意に決定するためのコン
トロールポイントとして用いる方法も可能である)。
レームの持つ時刻と一致させるようにする方法と、フレ
ームの時刻に限定せずに設定する方法とがある。前者の
場合には、例えば、先に所定のアルゴリズムでコントロ
ールポイントの時刻を算出してしまい、それがフレーム
の持つ時刻と一致しない場合に、算出されたあるいは指
示されたコントロールポイント時刻の直近のフレーム時
刻を、そのコントロールポイントの時刻とすればよい。
情報に関連する映像の画像情報を表示する。例えば、映
像の全フレームもしくは任意のフレームの画像を3次元
空間中の時間軸に垂直で、表示するフレームの時刻の位
置にある平面に表示する。表示するフレームは、例え
ば、数フレームおきであるとか、節点が存在するフレー
ムのみなど予め定められた基準に従ってシステム側で決
定するようにしてもよいし、表示するフレームの選択方
法をユーザが適宜指定できるようにしてもよい。また、
表示画面への表示対象に入っている節点座標及びコント
ロールポイントの時刻と同じ時刻を持つフレームは少な
くとも表示するようにしてもよい。
中の垂直な面に表示する以外にも、映像情報を(X,
Y,時間)のボクセル情報と考えて、任意の平面におけ
る断面図を表示してもよい。例えば、(X,時間)平面
や、(Y,時間)平面の断面図を表示することによって
時間的な映像の動きを容易に知ることができる。このよ
うに任意の断面図を表示する際にも、どの断面図を表示
するかはシステム側で決定してもよいし、ユーザに指定
させてもよい。
とによって映像に何が描かれているかを参照しながら時
空間領域を編集することが容易となる。例えば、映像中
に描かれているある物体の領域情報を時空間領域情報と
して修正・入力する際には、上記のように映像情報16
4を表示することによって、正確に物体の領域情報を取
り出すことができる。
像情報を加工せずに表示してもよいが、映像情報になん
らかの加工を施して表示してもよい。例えば、フレーム
画像を透明化・半透明化したり、指定された色で塗りつ
ぶししたり、輝度を変えたり、白黒表示したり、解像度
を変えたり、モザイクやその他の画像処理を行ってもよ
い。また、その際に、映像データのうち当該フレームに
おける物体領域を示す近似図形の内部に相当する範囲
と、外部に相当する範囲とで、加工を施すか否かあるい
は加工を施す場合における加工の内容(例えば、半透明
の程度、塗りつぶす色、輝度、解像度など)を異ならせ
るようにしてもよい。また、当該フレームにおける物体
領域を示す近似図形の形状に従い縁取りすることによっ
て、当該フレームにおける領域の形状を表示してもよ
い。また、これらの画像処理は複数個組み合わせて利用
してもよい。
ームの画像を表示した際には、表示する画像の枚数が多
くなり、ある画像によって他の画像が隠れてしまうこと
があり得る。このような場合に、フレームの画像を半透
明にすることによって、隠れた画像を参照することが容
易となる。また、領域の外部を透明にして表示すること
によって、時空間領域以外の画像が表示されなくなるた
め時空間領域形状を分かりやすく表示することが可能と
なる。
を視聴する際に映像の一部に特殊加工を施して再生する
ための用途に利用することができる。見たくない物体や
見せたくない物が映像中に含まれているときに、それに
モザイクを掛けて表示したり、色あいを変えて不快感を
やわらげたりするための用途に使用することができる。
このように、映像の特殊加工をするための領域を編集す
る際などに、映像情報164にも映像視聴時と同様な特
殊加工を施すことによって、映像がどのように表示され
るかを参照しながら時空間領域情報を編集することがで
きる。
して表示する場合のグラフィカル・ユーザ・インタフェ
ース(GUI)の画面の一例を示す。
3次元空間投影部31、ステータス部32、画像特殊表
示ボタン33、画像表示密度ボタン34、画像表示位置
ボタン35、ズームボタン36、注視点移動ボタン3
7、視点移動ボタン38を持つ。
時空間領域情報を3次元空間中に表示したものを、指定
された投影方法によって2次元平面に投影した画像を表
示するための部分である。
情報や、節点座標・コントロールポイントを選択した際
にその座標情報などを表示するための部分である。入力
部4によって、ステータス部の情報が書き換えられた場
合には、当該時空間領域情報もそれに従って書き換えら
れる。
4を表示する際に、その加工方法(例えば、領域の内部
や外部を半透明や透明にしたり特殊加工して表示する方
法)を選択するためのボタンである。これはダイアログ
を新たに表示して選択させてもよいし、押すたびに表示
方法が変わるようなインターフェースなど、加工方法が
変更できるようなものであればどのようなものでも構わ
ない。
タン35は、映像情報164を表示する際に、どのフレ
ームの画像を表示するかをユーザーが指定するためのも
のである。画像表示密度ボタン34で何フレームおきに
表示するかを指定し、画像表示位置ボタン35で表示し
はじめるフレーム位置を指定する。表示しはじめるフレ
ーム位置がhフレーム目で、iフレームおきに表示する
設定のときには、表示されるフレームは、 hフレーム、h+iフレーム、h+(i*2)フレー
ム、… となる。画像表示密度ボタン34と画像表示位置ボタン
35は、このような設定方法以外でも、どのフレームを
表示するかが設定できるようなものであればどのような
ものでも構わない。
7、視点移動ボタン38は、3次元空間投影部31に表
示する際に、3次元空間から2次元平面にどのように投
影するかを設定するボタンである。視点移動ボタン38
で3次元空間における視点を、注視点移動ボタン37で
3次元空間における注視点を、ズームボタン36で3次
元空間における画角を設定する。これは図10に示され
るインターフェース構成以外にも、投影パラメータが指
定できるようなものであればどのようなものでも構わな
い。
する。
された代表点軌跡の節点座標162やコントロールポイ
ント163を操作して、時空間領域情報の修正(のため
の入力)を行う。
コントロールポイントの移動(時間軸方向の移動も含
む)、(2)節点座標の時間軸方向の位置を変えない範
囲での節点座標の移動、(3)時間軸方向の位置の変化
を含む節点座標の移動、(4)代表点の軌跡の近似関数
の次数の増加または減少を伴う修正(例えば、コントロ
ールポイントの追加または削除)、(5)節点座標の追
加または削除(すなわち、近似区間の分離または統
合)、などがある。
節点座標162と所定数のコントロールポイント163
の座標により一意に決定される。したがって、節点座標
162を追加または削除することによって、代表点軌跡
の節点数を変更することができる。また、節点座標16
2の座標位置を時間方向に変更することにより、節点時
刻を変更することができる。
または削除することによって、補間関数の次数を変える
ことができる。例えば、2次関数で補間されていて、コ
ントロールポイントが1つ表示されている節点間に新た
にコントロールポイントを1つ追加すると3次関数補間
に変更できる。
ント163を(X,Y)に水平な平面上で動かすことに
よって、代表点軌跡の補間関数形状を変更することがで
きる。このように、節点座標162とコントロールポイ
ント163の追加または削除と座標位置の変更により、
任意の代表点軌跡形状の変更処理が可能となる。
に移動された場合には、他の代表点の同じ時刻情報を持
つ節点にも同じ修正が加えられたものとして扱うように
してもよい。同様に、ある代表点について1つの節点が
追加または削除された場合には、他の代表点についても
同じ時刻情報を持つ節点が追加または削除されたものと
して扱うようにしてもよい(ただし、代表点によって節
点が異なってもよいようなデータ構造を持つ時空間領域
情報では、そのような場合に、他の代表点について同じ
修正が加えられたものとして扱わないようにする方法も
可能である)。
の入力が行われた場合には、修正内容に応じて、修正が
波及する時空間領域情報の範囲を特定し、該当する部分
を計算して、修正の反映された時空間領域情報を求め
る。
波及する箇所は、該当する代表点のXY各座標の軌跡デ
ータ(図5の105)のうち、修正されたコントロール
ポイントを含む近似区間の多項式係数(図6の155)
となる。
節点座標をXY平面内で移動させることによって、修正
された当該節点座標を含む2つの隣接する近似区間に修
正が波及し、修正が波及する箇所は、該当する代表点の
XY各座標の軌跡データ(図5の105)のうち、修正
された節点座標を含む各近似区間の多項式係数(図6の
155)となる。
節点座標について時間軸方向成分を含む移動をさせるこ
とによって、当該節点座標を含む2つの隣接する近似区
間に修正が波及し、上記の(2)に図6の節点時刻15
3の修正が加わる。
修正が波及する箇所は、該当する代表点のXY各座標の
軌跡データ(図5の105)のうち、修正されたコント
ロールポイントを含む近似区間の多項式次数(図6の1
54)、多項式係数(図6の155)となる。
て、時空間領域情報編集処理部5は、修正後の節点座標
162とコントロールポイント163により特定される
代表点軌跡(に対応する近似関数のパラメータ)を求
め、該当するX座標の軌跡データとY座標の軌跡データ
を修正する。
節点座標の増加の場合には、該当する代表点のXY各座
標の軌跡データ(図5の105)のうち、新たに節点座
標が付加された近似区間のデータ(図6の156)に修
正が波及し、該近似区間が分割され、近似区間のデータ
(図6の156)が1つ増加することになる。時空間領
域情報編集処理部5は、時空間領域情報のうち、該する
近似区間のデータ(図6の156)の前または後ろに、
1つの近似区間のデータ(図6の156)を挿入し、分
割により発生した新たな2つの近似区間について、それ
ぞれ、修正後の節点座標162とコントロールポイント
163により特定される代表点軌跡(に対応する近似関
数のパラメータ)を求め、該当するX座標の軌跡データ
とY座標の軌跡データを修正する。
節点座標の減少の場合には、該当する代表点のXY各座
標の軌跡データ(図5の105)のうち、削除された節
点座標を含んでいた2つの近似区間のデータ(図6の1
56)に修正が波及し、該近似区間が統合され、近似区
間のデータ(図6の156)が1つ減少することにな
る。時空間領域情報編集処理部5は、時空間領域情報の
うち、該する近似区間のデータ(図6の156)のいず
れか1つを削除し、分割により発生した新たな1つの近
似区間について、修正後の節点座標162とコントロー
ルポイント163により特定される代表点軌跡(に対応
する近似関数のパラメータ)を求め、該当するX座標の
軌跡データとY座標の軌跡データを修正する。
て時空間領域情報を修正する場合にも、同様にして、時
空間領域情報のうち修正が波及する部分について修正後
の値を計算し、該当するX座標の軌跡データとY座標の
軌跡データを修正する。
刻102、最終時刻103、図6の節点数151、先頭
節点時刻152が修正されることもある。
ー選択などによって)修正指示可能としてもよい。
ような節点座標162やコントロールポイント163の
追加や削除や座標位置の変更によって時空間領域情報が
変化したときには、直ちに表示画面に変更された時空間
領域情報に対する表示を行うとよい。常に最新の時空間
領域情報を表示することによって、直感的な操作が可能
となる。
63の追加削除や座標位置の変更は、マウスやキーボー
ドなど情報が入力できるものであればどのようなものに
よってもよい。ただし、これら座標の変更は3次元空間
中における移動をサポートする必要があるため、通常の
マウスなど2次元移動しか行えないようなポインティン
グデバイスによって入力を行う際には、XY方向と時間
方向の移動操作を分けるなど、なんらかの3次元的移動
が行えるようにすればよい。例えば、マウスを利用して
座標位置を変更したいときには、通常のマウスの移動で
は(X,Y)平面上での移動になり、マウスのあるボタ
ンやキーボードのあるボタンを押しながらマウスを移動
させたときには時間方向の移動になるなどの方法があ
る。また、3次元マウスを利用してもよい。
加することによって他の代表点にも節点を追加する場合
に)節点を追加する際には、節点時刻における領域形状
を正確にできるだけ推定することによって、その後の修
正作業量を大幅に減らすことが可能となる。すなわち、
追加する初期形状が正確なほど効率的に作業が行える。
そのため、現在までに入力された代表点軌跡形状から節
点時刻における代表点座標を推定して初期形状とすると
好ましい。節点時刻における代表点座標を推定する手法
はどのようなものでもよいが、例えば、追加する節点時
刻に最も近い既にある代表点軌跡関数から、節点時刻に
おける座標を算出し、その座標を追加する代表点座標の
初期値とすればよい。その他にも、他の代表点軌跡情報
を利用して、極端な誤差をなくしたり、映像情報の輝度
エッジに近づけるなどの処理を行ってもよい。
中に表示することで、時空間領域形状を全体的に把握す
ることが容易となる。これにより前後フレームの関係を
見ながら時空間領域形状を編集することが簡単にできる
という利点がある。
の物体領域を示す近似図形の各代表点の時間的推移の軌
跡を表示し、1つの近似図形についての時空間領域情報
を修正対象とした。図10のGUIの例において、表示
対象範囲に複数の時空間領域情報が存在する場合には、
例えば、時空間領域情報をユーザが選択可能とし、ユー
ザが編集対象として選択した1つの時空間領域情報につ
いて表示し、該1つの時空間領域情報を修正対象とする
ようにしてもよい。
報が存在する場合に、複数の時空間領域情報についての
表示を同時に行い、例えばユーザが選択した1又は複数
の時空間領域情報あるいは表示されているすべての時空
間領域情報を修正可能とすることも可能である。
する場合に、すべての時空間領域情報について近似曲線
(及び映像情報(例えば、キーフレーム))を表示する
ようにしてもよいが、例えばユーザが選択した1又は複
数の時空間領域情報についてのみ近似曲線(及び映像情
報(例えば、キーフレーム))を表示し、他の時空間領
域情報については映像情報(例えば、キーフレーム)の
み表示するようにしてもよい。
する場合に、各時空間領域情報に関する表示を、色ある
いは線種などで分けて表示するようにしてもよい。
する場合に、これまのでように同一の3次元空間投影部
31に、複数の時空間領域情報に関する表示を行うので
はなく、3次元空間投影部31を複数設け、複数の時空
間領域情報に関する表示を、それぞれ別々の3次元空間
投影部31にて行うようにしてもよい。
その他にも、種々のバリエーションが可能である。
の時空間領域情報編集処理部5の処理手順の一例を示
す。
ている時空間領域情報を読み込むとともに、当該時空間
領域情報に関連する映像情報を映像情報記憶部1から読
み込む(ステップS1)。
31に時空間領域情報を表示するための処理を行う(ス
テップS2)。例えば、近似図形の外形や近似図形の代
表点軌跡や節点座標やコントロールポイントの算出や表
示が行われる。また、所定の表示方法で3次元空間投影
部31に映像情報を表示する(ステップS3)。すなわ
ち、必要に応じて施す透明・半透明処理あるいはモザイ
クなどの特殊加工や表示が行われる。なお、ステップS
2とステップS3は、逆の順序で行ってもよいし、同時
に行ってもよい。
テップS4,S5)。
ば、図10の画像特殊表示ボタン33、画像表示密度ボ
タン34、画像表示位置ボタン35、ズームボタン3
6、注視点移動ボタン37、視点移動ボタン38などの
入力)があった場合には(ステップS6)、表示方法の
設定を変更し(ステップS7)、変更した表示方法の設
定に従って、ステップS2及び又はステップS3を再度
行う。そして、再度、ユーザからの入力待ち状態に戻る
(ステップS4,S5)。
述したような図10の3次元空間投影部31での入力、
ステータス部32での入力)があった場合には(ステッ
プS8)、時空間領域情報の修正の処理を行い(ステッ
プS9)、そして、ステップS2及び又はステップS3
を再度行う。そして、再度、ユーザからの入力待ち状態
に戻る(ステップS4,S5)。
テップS10)、該当する処理を行って(ステップS1
1)、必要に応じてステップS2及び又はステップS3
を行い、そして、ユーザからの入力待ち状態に戻る(ス
テップS4,S5)。
押され、あるいは終了コマンドが入力されるなどによっ
て、この編集の終了の指示が入力された場合には(ステ
ップS10)、修正した時空間領域情報を、時空間領域
情報記憶部2に保存する(ステップS12)。
の修正の処理においては、1つの節点座標やコントロー
ルポイントの修正が入力されたときに、直ちに、修正さ
れた時空間領域情報を求め、表示に反映させる方法と、
節点座標やコントロールポイントの修正が任意に繰り返
し(このときは、節点座標やコントロールポイントの移
動だけ表示に反映させる)、その後に、決定を示す入力
がなされたときに、一括して、修正された時空間領域情
報を求め、修正後の代表点軌跡の曲線などを表示に反映
させる方法などがある。
理手順の一例を示す。この場合、修正指示の内容を取得
し(ステップS21)、時空間領域情報のうち修正が波
及する箇所を特定し(ステップS22)、時空間領域情
報の該当部分を計算する(ステップS23)。この場合
には、次のステップS2及び又はステップS3におい
て、修正後の時空間領域情報に基づいた表示が行われ
る。
9の処理手順の一例を示す。この場合、修正内容の指示
ならば(ステップS31)、修正指示の内容を取得して
保持しておき(ステップS32)、決定の指示ならば
(ステップS31)、保持されている全修正内容によっ
て時空間領域情報のうち修正が波及する箇所を特定し
(ステップS33)、時空間領域情報の該当部分を計算
する(ステップS34)。この場合には、決定の指示が
入力されたときに、修正後の時空間領域情報に基づいた
表示が行われる。
ば修正後の節点座標やコントロールポイントの位置など
が画面に表示されるが、その際に、修正前の節点座標や
コントロールポイントをも表示して修正内容が分かるよ
うにする方法や、修正前の節点座標やコントロールポイ
ントは画面では消去する方法などがある(前者の場合に
は、修正前後の節点座標やコントロールポイントが区別
できるように異なる形態で表示すると好ましい)。
ロールポイントをマウス等で選択して移動させている際
に、リアルタイムで、節点座標やコントロールポイント
を当該位置に移動させたとしたときの軌跡を計算して
(例えば現在の軌跡とは異なる表示形態で)表示するよ
うにしてもよい。
する際に、ステップS12で修正後の時空間領域情報を
時空間領域情報記憶部2に保存したが、ステップS9に
おいて修正後の時空間領域情報を時空間領域情報記憶部
2に保存してしまう方法もある。
ゥー、リドゥーを任意に可能としてもよい。
あり、その他にも種々のバリエーションが可能である。
データ構造の時空間領域情報に適用可能である。
構造の時空間領域情報に本発明を適用した場合について
説明する。
他の例を示す。図14に示されるように、本例の時空間
領域情報は、ID番号301、先頭時刻302、最終時
刻303、参照領域フラグ304、参照領域形状情報3
05、変換形式フラグ306、軌跡データ307を含む
ものである。
終時刻303とは、図5におけるID番号101、先頭
時刻102、最終時刻103のそれぞれと同等の意味を
持つ。
がどのように表現されているかを示すものである。参照
領域の形状は、例えば、矩形、楕円、多角形などで表現
されているため、それらを一意に区別するような情報が
記述される。多角形の場合は、頂点数情報も参照領域フ
ラグに付加される。
を格納するためのものである。例えば、参照領域形状が
矩形や多角形のときは、各頂点の座標、参照領域形状が
楕円のときは、外接矩形の頂点座標や、中心点、長軸短
軸の長さなどのパラメータが格納される。
フレームにおける時空間領域情報への領域変換を示す変
換パラメータがどのような形式で示されているかを示す
ものである。領域変換を示す変換パラメータの形式に
は、例えば、平行移動、一次変換、アフィン変換などが
あるため、それらを一意に区別するような情報が記述さ
れる。
ームにおける時空間領域情報への領域変換を示す変換パ
ラメータのそれぞれの軌跡を記述するためのものであ
る。これは例えば図6に示されるような軌跡データのデ
ータ構造を持つ。変換パラメータは複数持つことが多い
ため、軌跡データも変換パラメータの数だけ記述され
る。軌跡データの数は、変換形式フラグ607によって
一意に決まり、例えば、平行移動のときは2つ、一次変
換の時は4つ、アフィン変換のときは6つである。軌跡
データの順番は、変換パラメータの意味によって決めて
おき、例えば、以下のようにする。時刻tの関数である
パラメータの軌跡データがz1(t),z2(t),…と
並んでいるとき、参照領域上のある点p=(px,py)
が領域変換によって変換された軌跡を、P(t)=(P
x(t),Py(t))とすると、 1: 平行移動のとき Px(t)=px+z1(t) Py(t)=py+z2(t) 2: 一次変換のとき Px(t)=px*z1(t)+py*z2(t) Py(t)=px*z3(t)+py*z4(t) 3: アフィン変換のとき Px(t)=px*z1(t)+py*z2(t)+z3
(t) Py(t)=px*z4(t)+py*z5(t)+z6
(t) パラメータの軌跡データz1(t),z2(t),…が、
n次多項式で表されているとき、上式よりPx(t),
Py(t)もやはりn次多項式で表すことが可能とな
る。
例は、図7や図8で示される構成例と同様である。以下
では、先に説明したような図5及び図6のデータ構造の
時空間領域情報に本発明を適用した場合の構成例と相違
する点について説明する。
空間領域情報を表示するために、基本的には前述したも
のと同様の機能を持つが、時空間領域情報のデータ構造
が異なるため、上式より代表点軌跡に変換してから表示
することになる。ユーザにより代表点軌跡のキーフレー
ムにおける節点座標162やコントロールポイント16
3が移動された場合には、各変換パラメータを算出し
て、変更された変換パラメータに従ってすべての代表点
軌跡を変更する。
あるいは図13と同様である。
照領域から該フレームにおける時空間領域情報への領域
変換を示す変換パラメータにより記述した時空間領域情
報においても、各代表点の軌跡として記述された時空間
領域情報と同様に編集を行うことができる。
は、複数種類のデータ構造の時空間領域情報を扱うよう
にすることもできる。この場合には、時空間領域情報
に、データ構造を識別するための識別情報を付加し、時
空間領域情報処理システムは、時空間領域情報を処理す
るに際して、その識別情報を参照して、データ構造を特
定し、そのデータ構造に応じた処理を行うようにすれば
よい。
る時空間領域情報のバリエーションについていくつか説
明する。
持つ時空間領域情報について説明する。
報について説明する。
いて、画面上でその物体(またはその一部)が見えてい
る状態にあるか、他の物体の陰に隠れているなどして見
えていない状態にあるかを示す表示フラグに関する表示
フラグ情報を含むものである。
映像中に複数の物体が存在している場合、ある物体21
01が別の物体2102によって隠れたり、現れたりす
るということがよくある。この状態を記述するため、時
空間領域情報に表示フラグ情報を追加する。
と、対象物体の近似図形の代表点毎に与える方法があ
る。
表示フラグが立っているときは、その物体が隠れていな
いことを示し、再生時には、その物体を表示する。表示
フラグが立っていないときは、その物体が隠れているこ
とを示し、再生時には、その物体を表示しない。
ごとに与える場合、1つの対象物体の近似図形における
全ての代表点の表示フラグが同一の状態ならば上記と同
様であるが、表示フラグが立っている代表点と、表示フ
ラグが立っていない代表点が混在するならば、その状況
を考慮して当該物体の表示を行う(例えば当該物体の該
当する一部分のみ表示する)。
定され、物体領域の代表点軌跡データを作成するときに
同時に決定される。なお、キーポイントは、近似関数の
節点と無関係に設けられてもよいが、キーポイントは必
ず節点になるようにしてもよい。例えば、キーポイント
が発生した場合には、強制的にその時点を節点とする方
法がある。
キーポイントは、物体が現れている状態から隠れてる状
態に移るときと、隠れている状態から現れている状態に
移るときに設定される。図15の例において、物体22
01は、フレームiまでは現れていて、フレームiから
jは隠れ、フレームj以降はまた現れるとき、フレーム
iとjにキーポイントを置き、フレームiからjまでの
表示フラグには隠れ状態を、それ以外のフレームの表示
フラグには現れ状態を設定する。表示フラグを対象物体
の近似図形の代表点ごとに与える場合も同様である。
渡って物体が現れているものとして作成し、物体が隠れ
ているため代表点の情報がわからない場合は、分かって
いる前後の代表点の情報より補完することによって、代
表点軌跡データを作成する。そして、代表点軌跡データ
を作成した後、物体が現れているか隠れているかに応じ
て表示フラグを設定する。このため、一つの物体に関し
ては物体が隠れたり現れたりしても一連の代表点軌跡デ
ータで表現することが可能となる。
ついて説明する。
に設定されるが、表示フラグ自体に開始タイムスタンプ
と終了タイムスタンプを付加してもよい。この場合は、
表示される範囲や隠れる範囲がキーポイントと独立に設
定できるというメリットがある。
フラグを持っていてもよいし、各代表点軌跡データごと
に独立して持っていてもよい。例えば、物体が多角形で
表現されていて、その各頂点を代表点として軌跡データ
で表現した場合には、代表点軌跡データごとに独立して
表示フラグを持つことによって、物体の一部のみの隠れ
などを表現することが可能となる。
いるかだけではなく、優先度として整数の値をとるよう
にしてもよい。物体同士が重なったときは、優先度の低
い物体が優先度の高い物体に隠れていることを示し、優
先度の高い物体のみを表示する。また、優先度が0の時
は他の物体に関係なく物体は隠れているものとする。表
示フラグを上記のように整数値でとることによって、映
像中に他の物体を合成したときなどにも、物体同士の隠
れの問題を解決できるという利点がある。表示フラグを
整数値でとった場合も、1つの物体内で1つの表示フラ
グを持っていてもよいし、各代表点軌跡データごとに独
立して持っていてもよい。
示フラグを付加した時空間領域情報の例である。
付加する場合における、図5及び図6の時空間領域情報
に対して「表示フラグ情報」706を付加した例であ
る。
造例である。
開始タイムスタンプ(2302)と終了タイムスタンプ
(2303)を持っている。表示フラグ数(2301)
は表示フラグの総数で開始タイムスタンプ(2302)
と終了タイムスタンプ(2303)を利用しない場合
は、キーポイント数−1個の表示フラグを持つため、表
示フラグ数(2301)を省略してもよい。表示フラグ
(2304)は現れているか隠れているかを0か1かで
記録するが、優先度として整数値をとってもよい。
表示フラグをそれぞれ付加する場合には、例えば、時空
間領域情報の各代表点軌跡ごとに「表示フラグ情報」を
付加する。
点軌跡ごとに「表示フラグ情報」を付加した場合の代表
点軌跡のデータ構造の例である。図19の「表示フラ
グ」900の構造例は、上記と同様である。
座標やコントロールポイントの移動や追加あるいは削除
などの修正を行ったときに、時空間領域情報編集処理部
5が時空間領域情報に修正を施した結果、あるフレーム
において、映像中に存在するある物体が修正前には別の
物体によって隠されていなかったのが修正後には隠され
るようになったり、その逆に修正前には別の物体によっ
て隠されていたのが修正後には隠されないようになった
りすることがあり得る。このような場合には、時空間領
域情報編集処理部5は、例えば当該フレームの前後にお
ける各時空間領域情報のフラグ情報を参照、比較するな
どによって、割り当てるべきフラグ情報の内容を決定
し、時空間領域情報をも修正するようにすればよい。な
お、その際に、例えば図18の表示フラグの内容が更新
されるだけの場合もあれば、図18の開始/終了タイム
の区間の分割が発生する場合もある。また、時空間領域
情報編集処理部5のみでなくユーザが介在して割り当て
るべきフラグ情報の内容を決定するようにしてもよい。
使ってフラグ情報を直接修正可能としてもよい。
を行う際に、表示フラグ情報の内容をもユーザに呈示す
るようにしてもよい。例えば、各近似図形の外枠もしく
は各近似図形の内部あるいは各近似図形の各代表点を、
その表示フラグ情報の内容に応じて、色、輝度、解像度
などの違いによって、識別可能に表示するようにしても
よい。
ら消失するまでに通過した画面上での範囲を示す情報
(以下、物体通過範囲情報と呼ぶ)を含む時空間領域情
報について説明する。
る。
とき、通常は1つの物体に対し複数の軌跡データを利用
して表現することになる。ところが、指定した点を通過
した物体を検索したい場合などには、複数の軌跡データ
から物体領域を計算することなく、物体通過範囲を表現
できれば便利である。
跡全体を囲むような最小の長方形または多角形の物体通
過範囲情報を生成し、これを時空間領域情報に付帯させ
るようにする。
を利用してもよいし、傾きを持たない長方形を利用して
もよい。傾きを持つ長方形を利用する場合には、物体領
域の軌跡を誤差が少なく近似できる利点がある。傾きを
持たない長方形を利用する場合には、長方形のパラメー
タ計算が簡単であるという利点がある。
401の軌跡領域を傾きのない長方形で近似したものの
例を示す。
401の軌跡領域を傾きのある長方形で近似したものの
例を示す。
401の軌跡領域を多角形で近似したものの例を示す。
または多角形を計算するときは、各フレームにおける領
域を求めた後、全フレームに渡って領域の論理和を計算
し、得られた論理和の領域を最小の長方形または多角形
で近似する。
長方形または多角形を計算する際に、既に計算されてい
るフレームに関する当該物体領域の軌跡全体を囲む最小
の長方形または多角形と、新しく追加すべきフレームに
おける当該物体領域との論理和の領域を最小の長方形ま
たは多角形で近似するようにしてもよい。
長方形または多角形を計算する際に、各代表点の軌跡を
囲むような最小の長方形または多角形を計算し、全軌跡
に渡って得られた長方形または多角形の領域の論理和に
ついて、それを囲むような最小の長方形または多角形を
計算するようにしてもよい。
過範囲情報の記述例を示す。外接図形タイプ3401
は、外接図形のタイプを示す。例えば、0は図20の
(a)に示す傾きのない長方形、1は図20の(b)に
示す傾きのある長方形、2は図20の(c)に示す多角
形を示す。外接図形タイプが0の場合は頂点数Nが2、
1の場合は頂点数Nが3、2の場合は頂点数Nが任意の
数となる。物体が奥行き情報を持っている場合は、同様
に奥行きの軌跡情報を加えて3次元の外接図形を考える
ことができる。その場合、図22に示すように、奥行き
情報のZに関する情報が追加される。
小の長方形または多角形の情報を付帯することによっ
て、物体の通過範囲を効率よく表現でき、ある座標を物
体の物体が通過するかどうか判定することなどが簡単に
行えるようになる。
おいて、物体通過範囲情報をも表示するようにすればよ
い。なお、物体通過範囲情報は、例えば、近似図形を表
示するフレームすべてにおいて表示するようにしてもよ
いし、選択した1又は複数のフレームにおいてのみ表示
するようにしてもよい。
トの移動や追加あるいは削除などの修正を行ったとき
に、時空間領域情報編集処理部5が時空間領域情報に修
正を施した結果、物体通過範囲情報が変化することがあ
り得る。このような場合には、時空間領域情報編集処理
部5は、物体通過範囲情報をも修正するようにすればよ
い。
情報の図形を、直接、修正できるようにしてもよい。こ
の場合には、時空間領域情報編集処理部5は、ユーザの
修正の通りに、物体通過範囲情報を修正すればよい。
について説明する。
る。
ように撮影された複数の画像を貼り合わせ、1枚の広範
囲を撮影した画像を合成する手法である。このようにし
て合成された画像はパノラマ画像などとも呼ばれる。複
数の画像からモザイキングによりパノラマ画像を作成す
る手法は複数の提案がされている(M. Irani,
P. Anandan, “Video Index
ing Basedon Mosaic Repres
entations”, Proceedings o
f the IEEE, Vol. 86, No.
5, pp.905−921, May 1998.
など)。
フレームにおける物体領域の近似図形の代表点の位置デ
ータをもとに近似を行うのではなく、パノラマ画像にお
ける各物体領域の近似図形の代表点の位置データをもと
に近似を行うものである。
示す。
像であり、合成前の各々の静止画像の各画素は、パノラ
マ画像におけるある基準点(例えば、フレーム中で左下
の点)を原点として、座標が変換されることになる。し
たがって、各静止画像における物体領域の近似図形の各
代表点は、パノラマ画像の座標系におけるX座標やY座
標についての系列となる。ここでは、各静止画像におけ
る物体領域の近似図形の各代表点のX座標やY座標につ
いての系列を、これまでのようにして、関数近似するも
のである。その際に、例えば、1つの静止画像内で差分
ベクトルをとり、あるいは静止画像間で差分ベクトルを
とって、この差分ベクトルの系列を関数近似する。
ラマ画像を作成する。これらの入力画像群は、図23
(a)では2000〜2005に相当し、移動する物体
をカメラを移動させながら撮影した画像である。200
6は画像内の物体で、2000〜2005内には同じ物
体が撮影されている。これらの画像群は動画中の連続す
るフレームや、撮影範囲を重なるようにカメラを移動し
ながら撮影した静止画であることが多いが、パノラマ画
像を作成できるような入力画像であれば何でもよい。
マ画像が図23(b)の2007である。
る個々の物体領域を図形により近似する。なお、パノラ
マ画像作成と物体領域の図形近似は逆の順序で行っても
よい。ただし、パノラマ画像を合成する際の変換によっ
ては、物体領域の近似図形種の変更を必要とする場合が
ある。例えば、物体領域を矩形で近似する場合、アフィ
ン変換によりパノラマ画像の合成を行うと合成後の物体
領域は必ずしも矩形とはならない。その場合はパノラマ
画像の作成を先に行うか、パノラマ画像合成の変換後に
修正を行う。
表点や特徴点の軌跡を関数により近似する。物体領域の
軌跡は基準となる物体領域を定め、そこからの各物体領
域の変化量により求める。例えば、図23(b)におい
て、第1入力画像の物体領域2008を基準とし、それ
に続く物体領域の変化を軌跡2009とする。この例で
は、物体領域の重心を代表点としているが、矩形や楕円
など他の近似図形の代表点を用いる場合やその他の特徴
点を代表点として用いる場合であっても同様である。
対する差分を用いる場合と直前の物体領域からの差分を
用いる場合があるが、これらの変化量は同様に関数近似
を行うことができる。また、基準点からの変化を代表点
や特徴点の移動ではなく、平行・回転移動やアフィン変
換などの動きモデルで近似し、その変換係数の軌跡とし
て物体の移動を記述することができる。この場合も変換
係数の軌跡を関数近似することによって適用することが
できる。
ラメータを前述のデータ構造体のフォーマットに従って
記述を行う。
画像として合成する際の諸パラメータも入力画像全体を
物体領域とみなすことにより、同様に記述することがで
きる。
メータの記述例を示す。諸パラメータは作成されたパノ
ラマ画像の座標系を、作成に用いた映像フレームの座標
とその映像フレームからパノラマ画像への変換パラメー
タによって記述するものである。ここで、どこを原点と
しても良いが、映像フレームの座標が左下に原点がある
とする。そして、モザイキングに利用されたフレームの
縦横の長さが同一で既知であるとする。統合座標フラグ
3601は、このようなパノラマ画像の座標系を用いた
物体の記述かどうかのフラグであり、フラグが0の時は
通常の座標系(つまり、すべての映像フレームで左下原
点)で、1の時はフレームがパノラマに統合された座標
系を示す。モデルタイプM3602は、各フレームをパ
ノラマ画像に変換したときの変換モデルのタイプを示す
ものである。例えば、モデルタイプMが0の時は変換な
し、2の時は平行移動で、4の時は回転・拡大縮小で、
6の時はアフィンで、8の時は透視変換で、12の時は
2次射影変換を表す。各モデルにおいて、モデルタイプ
Mの値と同数のパラメータがある。
y) Vy(x,y)=(a2+a5+a6y)/(1+a7+a8
y) 2次射影変換: Vx(x,y)=a1+a3+a4y+a7xy+a9x2+
a10y2 Vx(x,y)=a2+a5+a6y+a8xy+a11x2+
a12y2 ここで、変換を行うための原点をX原点3603、Y原
点3604で与える。この原点は元映像フレームの座標
系を持ち手示す。このように変換のための原点を与える
のは、変換時に生じる誤差を少なくするためである。変
換パラメータ数N3605は、パノラマに用いるフレー
ム数Nと同じである。フレーム毎に変換パラメータが必
要となる。フレーム時間3606は、初期フレームから
のフレーム間時間で、パラメータセット3607は、返
還のモデルタイプに応じてM個のパラメータを記述す
る。各フレーム中のオブジェクトの軌跡もこのパラメー
タセットを用いて返還され記述される。
いかけながら撮影している場合には、連続するフレーム
を画像変換を施してつながるように貼り合わせるモザイ
キングによるパノラマ画像を作成し、その作成された画
像上での物体の領域情報を記述することにより、カメラ
が移動していてもモザイキング画像のある点を基点とし
た座標系で物体の領域情報を一意に記述することができ
る。
おいて、これまでのように3次元表示して時空間領域情
報を表示するようにしてもよいし、その代わりに例えば
図23(b)のようにしてパノラマ表示して、時空間領
域情報を表示するようにしてもよい。
ト等の修正を行ったときに、時空間領域情報編集処理部
5は、該当する時空間領域情報を修正するようにすれば
よい。
て実現可能である。また、本実施形態は、コンピュータ
に所定の手段を実行させるための(あるいはコンピュー
タを所定の手段として機能させるための、あるいはコン
ピュータに所定の機能を実現させるための)プログラム
として実施することもでき、該プログラムを記録したコ
ンピュータ読取り可能な記録媒体として実施することも
できる。
成は一例であって、それ以外の構成を排除する趣旨のも
のではなく、例示した構成の一部を他のもので置き換え
たり、例示した構成の一部を省いたり、例示した構成に
別の機能あるいは要素を付加したり、それらを組み合わ
せたりすることなどによって得られる別の構成も可能で
ある。また、例示した構成と論理的に等価な別の構成、
例示した構成と論理的に等価な部分を含む別の構成、例
示した構成の要部と論理的に等価な別の構成なども可能
である。また、例示した構成と同一もしくは類似の目的
を達成する別の構成、例示した構成と同一もしくは類似
の効果を奏する別の構成なども可能である。また、この
発明の実施の形態で例示した各種構成部分についての各
種バリエーションは、適宜組み合わせて実施することが
可能である。また、この発明の実施の形態は、個別装置
としての発明、関連を持つ2以上の装置についての発
明、システム全体としての発明、個別装置内部の構成部
分についての発明、またはそれらに対応する方法の発明
等、種々の観点、段階、概念またはカテゴリに係る発明
を包含・内在するものである。従って、この発明の実施
の形態に開示した内容からは、例示した構成に限定され
ることなく発明を抽出することができるものである。
るものではなく、その技術的範囲において種々変形して
実施することができる。
もしくは一部を参照しながら効率的に時空間領域情報を
入力・編集することが可能になる。
るための処理の概要を説明するための図
る例を説明するための図
トルの一例を説明するための図
トルのX成分の値を近似する関数を求める例を説明する
ための図
報のデータ構造の一例を示す図
の図
を示す図
タ構造のさらに他の例を示す図
図
す図
の処理手順の一例を示すフローチャート
について説明するための図
Claims (25)
- 【請求項1】映像データ中における任意の領域の複数フ
レームにわたる推移を表すものとして記述された、該領
域を示す近似図形の代表点の軌跡を特定可能な時空間領
域情報を対象にし、該時空間領域情報に修正を施す処理
を行うための時空間領域情報処理方法であって、 対象にした前記領域の前記時空間領域情報に基づいて、
前記代表点の前記軌跡を求め、 求められた前記代表点の前記軌跡を、画面上に表示し、 画面上に表示された前記軌跡の形状の修正操作の入力を
受け付け、 入力された前記修正操作に基づいて、前記時空間領域情
報を修正することを特徴とする時空間領域情報処理方
法。 - 【請求項2】前記修正操作に基づいて前記時空間領域情
報を修正した場合に、修正後の時空間領域情報に基づい
て、あらためて、前記代表点の前記軌跡の画面上への表
示を行い、さらなる前記所定の修正操作の入力を行うこ
とを特徴とする請求項1に記載の時空間領域情報処理方
法。 - 【請求項3】前記代表点の前記軌跡を画面上に表示する
に際して、該軌跡上の所定箇所に、修正操作用のポイン
トを表示し、 前記修正操作用のポイントに対してなされる修正操作の
入力を受け付け、 入力された前記修正操作に基づいて、前記時空間領域情
報を修正することを特徴とする請求項1に記載の時空間
領域情報処理方法。 - 【請求項4】前記修正操作は、表示された任意の前記修
正操作用のポイントに対する任意の方向の移動、または
新たな前記修正操作用のポイントの追加もしくは既存の
前記修正操作用のポイントの削除であることを特徴とす
る請求項3に記載の時空間領域情報処理方法。 - 【請求項5】前記軌跡が関数補間されたものである場合
に、前記修正操作用のポイントとして、当該補間関数を
一意に決定する個数のポイントを表示し、 前記移動または追加もしくは削除された後のポイントの
位置により一意に決定される前記補間関数に基づいて、
前記時空間領域情報を修正することを特徴とする請求項
4に記載の時空間領域情報処理方法。 - 【請求項6】前記軌跡が関数補間されたものであって且
つその近似区間が複数の区間からなる場合に、前記修正
操作として前記近似区間の節点に相当するポイントにつ
いての移動または追加もしくは削除がなされたときに
は、該移動または追加もしくは削除がなされた後の近似
区間に基づいて、前記時空間領域情報を修正することを
特徴とする請求項4に記載の時空間領域情報処理方法。 - 【請求項7】前記軌跡が関数補間されるものであって且
つその近似区間が複数の区間からなる場合に、前記修正
操作として前記近似区間の節点に相当するポイントにつ
いての追加がなされたときには、前記時空間領域情報か
ら追加するポイントの節点時刻における前記近似図形の
形状を推定することを特徴とする請求項4に記載の時空
間領域情報処理方法。 - 【請求項8】前記軌跡が関数補間されたものであって且
つその近似区間が複数の区間からなる場合に、前記修正
操作用のポイントとして、近似区間毎に当該補間関数を
一意に決定する個数のポイントを表示するとともに、該
ポイントのうち近似区間の節点に相当するポイントと、
それ以外のポイントとを、区別可能な表示形態で表示す
ることを特徴とする請求項4に記載の時空間領域情報処
理方法。 - 【請求項9】前記代表点の前記軌跡を画面上に表示する
に際して、前記映像データの所定のフレームを併せて表
示することを特徴とする請求項1に記載の時空間領域情
報処理方法。 - 【請求項10】前記映像データの所定のフレームを表示
するにあたっては、表示すべき当該フレームを半透明に
して表示することを特徴とする請求項9に記載の時空間
領域情報処理方法。 - 【請求項11】前記映像データの所定のフレームを表示
するにあたっては、表示すべき当該フレームにおける前
記近似図形の外形をも認識可能な表示形態で表示するこ
とを特徴とする請求項9に記載の時空間領域情報処理方
法。 - 【請求項12】前記映像データの所定のフレームを表示
するにあたっては、表示すべき当該フレームにおける前
記近似図形の内部と外部とで異なる表示形態により表示
することを特徴とする請求項9に記載の時空間領域情報
処理方法。 - 【請求項13】前記代表点の軌跡を特定可能な情報は、
当該代表点の位置データをフレームの進行に沿って並べ
たときの軌跡を所定の関数で近似し、該関数のパラメー
タを用いて記述されたものであることを特徴とする請求
項1ないし12のいずれか1項に記載の時空間領域情報
処理方法。 - 【請求項14】前記代表点の軌跡を特定可能な情報は、
当該代表点の基準となるフレームにおける位置データか
ら、他のフレームにおける位置データへの領域変換を示
す変換パラメータを求め、該変換パラメータについて、
該変換パラメータをフレームの進行に沿って並べたとき
の軌跡を所定の関数で近似し、該関数のパラメータを用
いて記述されたものであることを特徴とする請求項1な
いし12のいずれか1項に記載の時空間領域情報処理方
法。 - 【請求項15】前記代表点のうちの少なくとも一つにつ
いて、当該代表点についての前記位置データが用いられ
る代わりに、同一フレームにおける他の代表点を基準と
したときの当該代表点の相対的な位置を示すデータが用
いられていることを特徴とする請求項13または14に
記載の時空間領域情報処理方法。 - 【請求項16】前記代表点の前記軌跡を画面上に表示す
るにあたっては、前記フレームに係る2次元座標軸及び
時間軸からなる3次元空間中に該軌跡を配置する形態で
3次元表示することを特徴とする請求項1ないし15の
いずれか1項に記載の時空間領域情報処理方法。 - 【請求項17】前記時空間領域情報は、前記近似図形ま
たは前記代表点ごとに、当該近似図形または当該代表点
について表示の有無に関する制御のためのフラグ情報を
含むものであり、 画面上に表示された前記軌跡の形状に対して入力された
前記所定の修正操作に基づいて前記時空間領域情報を修
正するに際して、前記フラグ情報が示す内容に修正の影
響が及ぶ場合には、該フラグ情報をも修正することを特
徴とする請求項1ないし16の1項に記載の時空間領域
情報処理方法。 - 【請求項18】前記フラグ情報は、前記近似図形または
前記代表点が見えている状態にあるフレーム区間および
見えていない状態にあるフレーム区間を特定可能とする
情報、または前記近似図形または前記代表点についての
各フレーム区間における表示に関する優先度を示す情報
であることを特徴とする請求項17に記載の時空間領域
情報処理方法。 - 【請求項19】前記時空間領域情報は、前記近似図形が
前記複数フレームにおいて存在した範囲を包含する領域
を示す存在範囲近似図形に関する情報をも含むものであ
り、 画面上に表示された前記軌跡の形状に対して入力された
前記所定の修正操作に基づいて前記時空間領域情報を修
正するに際して、前記存在範囲近似図形が示す内容に修
正の影響が及ぶ場合には、該存在範囲近似図形に関する
情報をも修正することを特徴とする請求項1ないし16
の1項に記載の時空間領域情報処理方法。 - 【請求項20】前記代表点の前記軌跡を画面上に表示す
るに際して、前記存在範囲近似図形を併せて表示するこ
とを特徴とする請求項19に記載の時空間領域情報処理
方法。 - 【請求項21】画面上に表示された前記存在範囲近似図
形に対する所定の修正操作の入力を受け付け可能とし、 入力された前記修正操作に基づいて、前記存在範囲近似
図形を修正することを特徴とする請求項20に記載の時
空間領域情報処理方法。 - 【請求項22】前記時空間領域情報は、映像データ中の
任意の連続する複数フレームについて隣接フレームをそ
の重複部分を重ねるように次々と連結して生成されるパ
ノラマ画像中を推移する任意の物体の領域に関する情報
を表すために、映像データ中の対象物体の領域を、該対
象物体の領域に対する近似図形で特定し、該パノラマ画
像中を推移する該近似図形の複数の代表点を抽出し、該
近似図形の代表点の該パノラマ画像中における位置デー
タまたはこれを特定可能なデータをフレームの進行に沿
って並べたときの軌跡を所定の関数で近似し、該関数の
パラメータを用いて該対象物体の領域に関する情報を記
述したものであることを特徴とする請求項1ないし16
の1項に記載の時空間領域情報処理方法。 - 【請求項23】前記映像データをパノラマ表示するとと
もに、該パノラマ表示上に前記時空間領域情報に基づい
て得られる前記軌跡を表示することを特徴とする請求項
22に記載の記載の時空間領域情報処理方法。 - 【請求項24】映像データ中における任意の領域の複数
フレームにわたる推移を表すものとして記述された、該
領域を示す近似図形の代表点の軌跡を特定可能な時空間
領域情報を対象にし、該時空間領域情報に修正を施す処
理を行うための時空間領域情報処理システムであって、 対象にした前記領域の前記時空間領域情報に基づいて、
前記代表点の前記軌跡を求めるための手段と、 求められた前記代表点の前記軌跡を、画面上に表示する
ための手段と、画面上に表示された前記軌跡の形状の修
正操作の入力を受け付けるための手段と、 入力された前記修正操作に基づいて、前記時空間領域情
報を修正するための手段とを備えたことを特徴とする時
空間領域情報入力システム。 - 【請求項25】映像データ中における任意の領域の複数
フレームにわたる推移を表すものとして記述された、該
領域を示す近似図形の代表点の軌跡を特定可能な時空間
領域情報を対象にし、該時空間領域情報に修正を施す処
理を行うための時空間領域情報処理システムとしてコン
ピュータを機能させるためのプログラムであって、 対象にした前記領域の前記時空間領域情報に基づいて、
前記代表点の前記軌跡を求めるための機能と、 求められた前記代表点の前記軌跡を、画面上に表示する
ための機能と、 画面上に表示された前記軌跡の形状の修正操作の入力を
受け付けるための機能と、 入力された前記修正操作に基づいて、前記時空間領域情
報を修正するための機能とをコンピュータに実現させる
ためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001163274A JP3790126B2 (ja) | 2001-05-30 | 2001-05-30 | 時空間領域情報処理方法及び時空間領域情報処理システム |
US10/156,107 US7146022B2 (en) | 2001-05-30 | 2002-05-29 | Spatiotemporal locator processing method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001163274A JP3790126B2 (ja) | 2001-05-30 | 2001-05-30 | 時空間領域情報処理方法及び時空間領域情報処理システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002359777A true JP2002359777A (ja) | 2002-12-13 |
JP3790126B2 JP3790126B2 (ja) | 2006-06-28 |
Family
ID=19006277
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001163274A Expired - Fee Related JP3790126B2 (ja) | 2001-05-30 | 2001-05-30 | 時空間領域情報処理方法及び時空間領域情報処理システム |
Country Status (2)
Country | Link |
---|---|
US (1) | US7146022B2 (ja) |
JP (1) | JP3790126B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2157549A2 (en) | 2008-08-18 | 2010-02-24 | Sony Corporation | Image processing apparatus, image processing method, and program |
WO2011161924A1 (ja) * | 2010-06-23 | 2011-12-29 | 国立大学法人大阪大学 | 移動物体検出装置 |
JP2017037391A (ja) * | 2015-08-07 | 2017-02-16 | 日本電信電話株式会社 | 出現位置補間装置、出現位置補間方法及び出現位置補間プログラム |
Families Citing this family (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100415266B1 (ko) * | 2000-05-11 | 2004-01-16 | 가부시끼가이샤 도시바 | 물체영역정보 기술방법과 물체영역정보 생성장치 및 기록매체 |
US7356164B2 (en) * | 2003-05-30 | 2008-04-08 | Lucent Technologies Inc. | Method and apparatus for finding feature correspondences between images captured in real-world environments |
US7904815B2 (en) * | 2003-06-30 | 2011-03-08 | Microsoft Corporation | Content-based dynamic photo-to-video methods and apparatuses |
US7839419B2 (en) * | 2003-10-23 | 2010-11-23 | Microsoft Corporation | Compositing desktop window manager |
US7817163B2 (en) * | 2003-10-23 | 2010-10-19 | Microsoft Corporation | Dynamic window anatomy |
US7561160B2 (en) * | 2004-07-15 | 2009-07-14 | Olympus Corporation | Data editing program, data editing method, data editing apparatus and storage medium |
JP4727342B2 (ja) * | 2004-09-15 | 2011-07-20 | ソニー株式会社 | 画像処理装置、画像処理方法、画像処理プログラム及びプログラム格納媒体 |
US8031226B2 (en) * | 2005-03-01 | 2011-10-04 | Fujifilm Corporation | Image output apparatus, image output method, image output program, image trimming apparatus, image trimming method, and image trimming program |
WO2007038612A2 (en) * | 2005-09-26 | 2007-04-05 | Cognisign, Llc | Apparatus and method for processing user-specified search image points |
US7911482B1 (en) * | 2006-01-06 | 2011-03-22 | Videomining Corporation | Method and system for efficient annotation of object trajectories in image sequences |
US20070196005A1 (en) * | 2006-02-23 | 2007-08-23 | White Christopher A | Feature Tracing Process for M-mode Images |
JP2009539175A (ja) * | 2006-05-31 | 2009-11-12 | トムソン ライセンシング | 映像対象の複数追跡 |
US8254626B2 (en) * | 2006-12-22 | 2012-08-28 | Fujifilm Corporation | Output apparatus, output method and program for outputting a moving image including a synthesized image by superimposing images |
US8405661B2 (en) | 2007-02-23 | 2013-03-26 | International Business Machines Corporation | Method for modeling and animating object trajectories in three-dimensional space |
JP4505760B2 (ja) * | 2007-10-24 | 2010-07-21 | ソニー株式会社 | 情報処理装置および方法、プログラム、並びに、記録媒体 |
JP5293587B2 (ja) * | 2009-12-16 | 2013-09-18 | ソニー株式会社 | 表示制御装置、表示制御方法、プログラム |
US8340504B2 (en) * | 2011-04-26 | 2012-12-25 | Sony Computer Entertainment Europe Limited | Entertainment device and method |
US20150040010A1 (en) * | 2012-02-15 | 2015-02-05 | Thomson Licensing | User interface for depictive video editing |
KR20150010070A (ko) * | 2013-07-18 | 2015-01-28 | 삼성전자주식회사 | 휴대단말기에서 이미지를 표시하는 방법 및 장치 |
US9792664B2 (en) * | 2015-01-29 | 2017-10-17 | Wipro Limited | System and method for mapping object coordinates from a video to real world coordinates using perspective transformation |
US10861196B2 (en) | 2017-09-14 | 2020-12-08 | Apple Inc. | Point cloud compression |
US10897269B2 (en) | 2017-09-14 | 2021-01-19 | Apple Inc. | Hierarchical point cloud compression |
US11818401B2 (en) | 2017-09-14 | 2023-11-14 | Apple Inc. | Point cloud geometry compression using octrees and binary arithmetic encoding with adaptive look-up tables |
US11113845B2 (en) | 2017-09-18 | 2021-09-07 | Apple Inc. | Point cloud compression using non-cubic projections and masks |
US10909725B2 (en) | 2017-09-18 | 2021-02-02 | Apple Inc. | Point cloud compression |
US10607373B2 (en) | 2017-11-22 | 2020-03-31 | Apple Inc. | Point cloud compression with closed-loop color conversion |
US10909726B2 (en) | 2018-04-10 | 2021-02-02 | Apple Inc. | Point cloud compression |
US10939129B2 (en) | 2018-04-10 | 2021-03-02 | Apple Inc. | Point cloud compression |
US11010928B2 (en) | 2018-04-10 | 2021-05-18 | Apple Inc. | Adaptive distance based point cloud compression |
US10909727B2 (en) | 2018-04-10 | 2021-02-02 | Apple Inc. | Hierarchical point cloud compression with smoothing |
US11017566B1 (en) | 2018-07-02 | 2021-05-25 | Apple Inc. | Point cloud compression with adaptive filtering |
US11202098B2 (en) | 2018-07-05 | 2021-12-14 | Apple Inc. | Point cloud compression with multi-resolution video encoding |
US11012713B2 (en) | 2018-07-12 | 2021-05-18 | Apple Inc. | Bit stream structure for compressed point cloud data |
US11367224B2 (en) | 2018-10-02 | 2022-06-21 | Apple Inc. | Occupancy map block-to-patch information compression |
US11057564B2 (en) | 2019-03-28 | 2021-07-06 | Apple Inc. | Multiple layer flexure for supporting a moving image sensor |
US20220237819A1 (en) * | 2019-07-02 | 2022-07-28 | Sony Group Corporation | Information processing system, information processing method, and program |
US11711544B2 (en) * | 2019-07-02 | 2023-07-25 | Apple Inc. | Point cloud compression with supplemental information messages |
US11562507B2 (en) | 2019-09-27 | 2023-01-24 | Apple Inc. | Point cloud compression using video encoding with time consistent patches |
US11627314B2 (en) | 2019-09-27 | 2023-04-11 | Apple Inc. | Video-based point cloud compression with non-normative smoothing |
US11538196B2 (en) | 2019-10-02 | 2022-12-27 | Apple Inc. | Predictive coding for point cloud compression |
US11895307B2 (en) | 2019-10-04 | 2024-02-06 | Apple Inc. | Block-based predictive coding for point cloud compression |
US11798196B2 (en) | 2020-01-08 | 2023-10-24 | Apple Inc. | Video-based point cloud compression with predicted patches |
US11625866B2 (en) | 2020-01-09 | 2023-04-11 | Apple Inc. | Geometry encoding using octrees and predictive trees |
US11620768B2 (en) | 2020-06-24 | 2023-04-04 | Apple Inc. | Point cloud geometry compression using octrees with multiple scan orders |
US11615557B2 (en) | 2020-06-24 | 2023-03-28 | Apple Inc. | Point cloud compression using octrees with slicing |
US11599253B2 (en) * | 2020-10-30 | 2023-03-07 | ROVl GUIDES, INC. | System and method for selection of displayed objects by path tracing |
US11948338B1 (en) | 2021-03-29 | 2024-04-02 | Apple Inc. | 3D volumetric content encoding using 2D videos and simplified 3D meshes |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02199579A (ja) * | 1989-01-30 | 1990-08-07 | Nippon Telegr & Teleph Corp <Ntt> | 動画作成方法 |
JPH05244615A (ja) * | 1992-02-26 | 1993-09-21 | Hitachi Ltd | ディジタルコンバーゼンス補正装置及び補正データの作成方法 |
JPH0696186A (ja) * | 1992-09-10 | 1994-04-08 | Fujitsu Ltd | 時刻/属性値により変化する図形の編集装置 |
JPH08182786A (ja) * | 1994-12-27 | 1996-07-16 | Shinkiyou Denshi Kk | 運動体の画像解析装置 |
JPH09190549A (ja) * | 1996-01-11 | 1997-07-22 | Nec Corp | 対話型映像提示装置 |
JPH10188026A (ja) * | 1996-12-26 | 1998-07-21 | Masaki Nakagawa | 動画像作成方法および動画像作成用記憶媒体 |
JPH10188037A (ja) * | 1996-12-24 | 1998-07-21 | Konami Co Ltd | 画像合成表示装置,画像合成表示方法,及びコンピュータプログラムを記録した機械読取り可能な記録媒体 |
JPH10198821A (ja) * | 1996-11-07 | 1998-07-31 | Sega Enterp Ltd | 画像処理装置及び画像処理方法並びに記録媒体 |
JPH1139517A (ja) * | 1997-07-23 | 1999-02-12 | Sanyo Electric Co Ltd | 立体形状記述方法及び特徴点抽出方法 |
JP2000011199A (ja) * | 1998-06-18 | 2000-01-14 | Sony Corp | アニメーションの自動生成方法 |
JP2000030083A (ja) * | 1999-06-15 | 2000-01-28 | Sega Enterp Ltd | 画像処理装置及びこれを備えたゲ―ム装置 |
JP2000149056A (ja) * | 1998-11-16 | 2000-05-30 | Nec Corp | 多関節物体の表示方法及び表示装置 |
JP2001078091A (ja) * | 1999-09-02 | 2001-03-23 | Hitachi Ltd | メディアシーン情報表示編集装置、方法、および該方法に係るプログラムを記憶した記憶媒体 |
JP2001111996A (ja) * | 1999-08-04 | 2001-04-20 | Toshiba Corp | 物体領域情報記述方法及び物体領域情報生成装置並びに映像情報処理方法及び映像情報処理装置 |
JP2001118075A (ja) * | 1999-07-09 | 2001-04-27 | Toshiba Corp | 物体領域情報記述方法及び物体領域情報生成装置並びに映像情報処理方法及び情報処理装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2873338B2 (ja) * | 1991-09-17 | 1999-03-24 | 富士通株式会社 | 動物体認識装置 |
EP0551543A1 (en) * | 1992-01-16 | 1993-07-21 | Hewlett-Packard GmbH | Method of modifying a geometric object and computer aided design system |
US6144972A (en) * | 1996-01-31 | 2000-11-07 | Mitsubishi Denki Kabushiki Kaisha | Moving image anchoring apparatus which estimates the movement of an anchor based on the movement of the object with which the anchor is associated utilizing a pattern matching technique |
KR100415266B1 (ko) * | 2000-05-11 | 2004-01-16 | 가부시끼가이샤 도시바 | 물체영역정보 기술방법과 물체영역정보 생성장치 및 기록매체 |
-
2001
- 2001-05-30 JP JP2001163274A patent/JP3790126B2/ja not_active Expired - Fee Related
-
2002
- 2002-05-29 US US10/156,107 patent/US7146022B2/en not_active Expired - Fee Related
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02199579A (ja) * | 1989-01-30 | 1990-08-07 | Nippon Telegr & Teleph Corp <Ntt> | 動画作成方法 |
JPH05244615A (ja) * | 1992-02-26 | 1993-09-21 | Hitachi Ltd | ディジタルコンバーゼンス補正装置及び補正データの作成方法 |
JPH0696186A (ja) * | 1992-09-10 | 1994-04-08 | Fujitsu Ltd | 時刻/属性値により変化する図形の編集装置 |
JPH08182786A (ja) * | 1994-12-27 | 1996-07-16 | Shinkiyou Denshi Kk | 運動体の画像解析装置 |
JPH09190549A (ja) * | 1996-01-11 | 1997-07-22 | Nec Corp | 対話型映像提示装置 |
JPH10198821A (ja) * | 1996-11-07 | 1998-07-31 | Sega Enterp Ltd | 画像処理装置及び画像処理方法並びに記録媒体 |
JPH10188037A (ja) * | 1996-12-24 | 1998-07-21 | Konami Co Ltd | 画像合成表示装置,画像合成表示方法,及びコンピュータプログラムを記録した機械読取り可能な記録媒体 |
JPH10188026A (ja) * | 1996-12-26 | 1998-07-21 | Masaki Nakagawa | 動画像作成方法および動画像作成用記憶媒体 |
JPH1139517A (ja) * | 1997-07-23 | 1999-02-12 | Sanyo Electric Co Ltd | 立体形状記述方法及び特徴点抽出方法 |
JP2000011199A (ja) * | 1998-06-18 | 2000-01-14 | Sony Corp | アニメーションの自動生成方法 |
JP2000149056A (ja) * | 1998-11-16 | 2000-05-30 | Nec Corp | 多関節物体の表示方法及び表示装置 |
JP2000030083A (ja) * | 1999-06-15 | 2000-01-28 | Sega Enterp Ltd | 画像処理装置及びこれを備えたゲ―ム装置 |
JP2001118075A (ja) * | 1999-07-09 | 2001-04-27 | Toshiba Corp | 物体領域情報記述方法及び物体領域情報生成装置並びに映像情報処理方法及び情報処理装置 |
JP2001111996A (ja) * | 1999-08-04 | 2001-04-20 | Toshiba Corp | 物体領域情報記述方法及び物体領域情報生成装置並びに映像情報処理方法及び映像情報処理装置 |
JP2001078091A (ja) * | 1999-09-02 | 2001-03-23 | Hitachi Ltd | メディアシーン情報表示編集装置、方法、および該方法に係るプログラムを記憶した記憶媒体 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2157549A2 (en) | 2008-08-18 | 2010-02-24 | Sony Corporation | Image processing apparatus, image processing method, and program |
US9165389B2 (en) | 2008-08-18 | 2015-10-20 | Sony Corporation | Image processing apparatus, image processing method, and program |
US9955038B2 (en) | 2008-08-18 | 2018-04-24 | Sony Corporation | Image processing apparatus, image processing method, and program |
WO2011161924A1 (ja) * | 2010-06-23 | 2011-12-29 | 国立大学法人大阪大学 | 移動物体検出装置 |
JP5467300B2 (ja) * | 2010-06-23 | 2014-04-09 | 国立大学法人大阪大学 | 移動物体検出装置 |
US8958641B2 (en) | 2010-06-23 | 2015-02-17 | Osaka University | Moving object detection device |
JP2017037391A (ja) * | 2015-08-07 | 2017-02-16 | 日本電信電話株式会社 | 出現位置補間装置、出現位置補間方法及び出現位置補間プログラム |
Also Published As
Publication number | Publication date |
---|---|
US7146022B2 (en) | 2006-12-05 |
JP3790126B2 (ja) | 2006-06-28 |
US20020181741A1 (en) | 2002-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3790126B2 (ja) | 時空間領域情報処理方法及び時空間領域情報処理システム | |
US9270965B2 (en) | Multi-stage production pipeline system | |
US9286941B2 (en) | Image sequence enhancement and motion picture project management system | |
US9367942B2 (en) | Method, system and software program for shooting and editing a film comprising at least one image of a 3D computer-generated animation | |
JP3177221B2 (ja) | 興味深いシーンのイメージを表示するための方法及び装置 | |
JP7017175B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
JP2000307949A (ja) | 画像の補間方法、画像処理方法、画像表示方法、画像処理装置、画像表示装置、及びコンピュータプログラム記憶媒体 | |
JP3104638B2 (ja) | 3次元画像作成装置 | |
JP2727974B2 (ja) | 映像提示装置 | |
JP3312105B2 (ja) | 動画像インデックス生成方法および生成装置 | |
US20020085754A1 (en) | Interactive frame segmentation with dynamic programming | |
JP2003303333A (ja) | 画像表示制御装置 | |
KR100427879B1 (ko) | 물체영역정보를 생성하기 위한 프로그램과 그 프로그램에 의해 생성된 물체영역정보를 격납한 기록매체 | |
JP3735552B2 (ja) | 時空間領域情報の処理方法 | |
US9396574B2 (en) | Choreography of animated crowds | |
JP2002056392A (ja) | 物体領域情報記述方法、物体領域情報生成装置、及び物体領域情報記述プログラム | |
WO2021217385A1 (zh) | 一种视频处理方法和装置 | |
JPH11259673A (ja) | 空間散策映像表示方法及び空間内オブジェクト検索方法及び空間内オブジェクト抽出方法及びそれらの装置及びそれらの方法を記録した記録媒体 | |
JP3309841B2 (ja) | 合成動画像生成装置および合成動画像生成方法 | |
JPH11185051A (ja) | 動画作成装置 | |
JP2022029239A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JPH11175765A (ja) | 3次元モデル作成方法、3次元モデル作成装置及び記憶媒体 | |
JP3179318B2 (ja) | 情報提示装置 | |
JP2005084805A (ja) | 時空間領域情報処理方法、時空間領域情報処理システム及びプログラム | |
JP2008181515A (ja) | 物体領域情報記述方法、映像情報処理方法及び情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050527 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060328 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060330 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100407 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100407 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110407 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130407 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140407 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |