JP2002359777A - Time space region information processing method and time space region information processing system - Google Patents

Time space region information processing method and time space region information processing system

Info

Publication number
JP2002359777A
JP2002359777A JP2001163274A JP2001163274A JP2002359777A JP 2002359777 A JP2002359777 A JP 2002359777A JP 2001163274 A JP2001163274 A JP 2001163274A JP 2001163274 A JP2001163274 A JP 2001163274A JP 2002359777 A JP2002359777 A JP 2002359777A
Authority
JP
Japan
Prior art keywords
spatio
temporal
information
trajectory
approximate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001163274A
Other languages
Japanese (ja)
Other versions
JP3790126B2 (en
Inventor
Koichi Masukura
孝一 増倉
Osamu Hori
修 堀
Toshimitsu Kaneko
敏充 金子
Takeshi Mita
雄志 三田
Koji Yamamoto
晃司 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2001163274A priority Critical patent/JP3790126B2/en
Priority to US10/156,107 priority patent/US7146022B2/en
Publication of JP2002359777A publication Critical patent/JP2002359777A/en
Application granted granted Critical
Publication of JP3790126B2 publication Critical patent/JP3790126B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Circuits (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a time space region information processing method that can efficiently apply input and edit to time space region information. SOLUTION: A video information storage section 1 stores video data. A time space region information storage section 2 stores time space region information describing information able to be identified as to a locus of each representative point in a time base direction for each representative point of a prescribed approximated graphic denoting an optional area as expression of transition of the area in video data over a plurality of frames. A time space region information edit processing section 5 obtains a locus for each representative point based on the time space region information of an edit object, a display section 3 displays a locus of the representative points in a way of a three-dimensional space, and an entry section 4 enters a prescribed correction operation with respect to the shape of the locus in three-dimensional space display to correct the object time space region information based on the entered correction operation.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、映像中の任意の時
空間領域形状をX、Y、時間の3次元空間中に表示し、
表示された形状を3次元空間中で操作することによって
時空間領域情報を入力、修正することを特徴とする時空
間領域情報処理方法及び時空間領域情報処理システムに
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention displays an arbitrary spatio-temporal region shape in an image in a three-dimensional space of X, Y, and time.
The present invention relates to a spatio-temporal region information processing method and a spatio-temporal region information processing system, which are configured to input and correct spatio-temporal region information by operating a displayed shape in a three-dimensional space.

【0002】[0002]

【従来の技術】近年、映像画像処理技術の急速な発展に
より、映像や画像をデジタルデータとして扱うことが一
般化してきている。このデジタル化によりデータ量が大
きい映像画像データを効率的に圧縮する技術が確立され
た。また、インターネットや衛星放送・CATVなどの
ネットワーク技術の発展に伴い、大量の映像データを扱
うことができるようになってきており、映像や画像情報
を蓄積しておいてニーズに合わせて取り出し利用する映
像画像データベースやビデオオンデマンドが実用の段階
に入ろうとしている。他にも遠隔地からの自動監視シス
テムもメジャーなものになってきている。このように映
像や画像を利用しようとするとき、画面内になにがある
かを認識したり、逆に望む物体があるような映像を検索
抽出をしたり、映像を分類したいという要望がある。
2. Description of the Related Art In recent years, with the rapid development of video image processing technology, it has become common to handle video and images as digital data. This digitization has established a technique for efficiently compressing video image data having a large data amount. Also, with the development of the Internet, network technology such as satellite broadcasting and CATV, it has become possible to handle a large amount of video data, and video and image information is stored and retrieved and used according to needs. Video image databases and video-on-demand are about to enter practical use. In addition, remote monitoring systems from remote locations have become major. When trying to use video and images in this way, there is a demand for recognizing what is on the screen, searching for and extracting video that contains the desired object, and classifying the video. .

【0003】このような要望に答えるため、映像中の複
数フレームに渡る任意の時空間領域情報を効率よく記述
するための手法が既に提案されている(例えば、特開2
001−118075号公報,特開2001−1119
96号公報)。
[0003] In order to respond to such a demand, a technique for efficiently describing arbitrary spatio-temporal area information over a plurality of frames in a video has been already proposed (for example, Japanese Patent Laid-Open Publication No. HEI 2 (1999) -197686).
001-1118075, JP-A-2001-1119
No. 96).

【0004】[0004]

【発明が解決しようとする課題】ところが、新たに時空
間領域情報を入力したり、既にある時空間領域情報を編
集しようと考えたときには情報を数値入力したり、フレ
ーム単位に入力・編集していたため、前後のフレームや
時空間領域の全時間における形状を考慮しながら時空間
領域情報を入力したり、編集したりすることが困難であ
った。
However, when new spatio-temporal domain information is to be input, or when existing spatio-temporal domain information is to be edited, numerical information is input, or input / edit is performed in frame units. Therefore, it has been difficult to input or edit spatio-temporal region information while considering the shape of the preceding and following frames and the spatio-temporal region in all time.

【0005】本発明は、上記事情を考慮してなされたも
ので、時空間領域形状の全体もしくは一部を参照しなが
ら効率的に時空間領域情報を入力・編集可能な時空間領
域情報処理方法及び時空間領域情報処理システムを提供
することを目的とする。
The present invention has been made in view of the above circumstances, and has a spatio-temporal area information processing method capable of efficiently inputting / editing spatio-temporal area information while referring to the whole or a part of the spatio-temporal area shape. And a spatio-temporal area information processing system.

【0006】[0006]

【課題を解決するための手段】本発明は、映像データ中
における任意の領域の複数フレームにわたる推移を表す
ものとして記述された、該領域を示す近似図形の代表点
の軌跡を特定可能な時空間領域情報を対象にし、該時空
間領域情報に修正を施す処理を行うための時空間領域情
報処理方法であって、対象にした前記領域の前記時空間
領域情報に基づいて、前記代表点の前記軌跡を求め、求
められた前記代表点の前記軌跡を、画面上に表示し、画
面上に表示された前記軌跡の形状の修正操作の入力を受
け付け、入力された前記修正操作に基づいて、前記時空
間領域情報を修正することを特徴とする。
SUMMARY OF THE INVENTION According to the present invention, there is provided a spatio-temporal system capable of specifying a locus of a representative point of an approximate figure representing an area described in a video data as representing a transition over a plurality of frames of the area. Targeting region information, a spatio-temporal region information processing method for performing a process of correcting the spatio-temporal region information, based on the spatio-temporal region information of the target region, the representative point of the Obtain a trajectory, the obtained trajectory of the representative point is displayed on a screen, accepts an input of a correction operation of the shape of the trajectory displayed on the screen, based on the input correction operation, the It is characterized in that spatio-temporal area information is corrected.

【0007】本発明によれば、X、Y、時間の3次元空
間中に代表点の軌跡を表示し、表示された代表点の軌跡
を3次元空間中でユーザが操作する機能を持ち、3次元
空間中に各代表点の軌跡を操作することによって、時空
間領域情報を入力、修正することができるようになる。
According to the present invention, the trajectory of the representative point is displayed in the three-dimensional space of X, Y, and time, and the user has the function of operating the displayed trajectory of the representative point in the three-dimensional space. By manipulating the trajectory of each representative point in the dimensional space, spatio-temporal area information can be input and corrected.

【0008】好ましくは、前記修正操作に基づいて前記
時空間領域情報を修正した場合に、修正後の時空間領域
情報に基づいて、あらためて、前記代表点の前記軌跡の
画面上への表示を行い、さらなる前記所定の修正操作の
入力を行うようにしてもよい。
Preferably, when the spatiotemporal area information is corrected based on the correction operation, the locus of the representative point is displayed on the screen again based on the corrected spatiotemporal area information. Further, the predetermined correction operation may be input.

【0009】好ましくは、前記代表点の前記軌跡を画面
上に表示するに際して、該軌跡上の所定箇所に、修正操
作用のポイントを表示し、前記修正操作用のポイントに
対してなされる修正操作の入力を受け付け、入力された
前記修正操作に基づいて、前記時空間領域情報を修正す
るようにしてもよい。
Preferably, when displaying the trajectory of the representative point on a screen, a correction operation point is displayed at a predetermined position on the trajectory, and a correction operation performed on the correction operation point is performed. May be received, and the spatiotemporal area information may be corrected based on the input correction operation.

【0010】これによって、3次元空間中のポイントを
操作することによって、関数補間された代表点の軌跡に
よって表現された時空間領域情報を入力、修正すること
ができるようになる。
Thus, by manipulating the points in the three-dimensional space, it is possible to input and correct spatio-temporal area information expressed by the locus of the representative points interpolated by the function.

【0011】好ましくは、前記修正操作は、表示された
任意の前記修正操作用のポイントに対する任意の方向の
移動、または新たな前記修正操作用のポイントの追加も
しくは既存の前記修正操作用のポイントの削除であるよ
うにしてもよい。
Preferably, the correction operation is a movement in any direction with respect to any of the displayed correction operation points, addition of a new correction operation point, or addition of an existing correction operation point. It may be deleted.

【0012】好ましくは、前記代表点の前記軌跡を画面
上に表示するに際して、前記映像データの所定のフレー
ムを併せて表示するようにしてもよい。
Preferably, when displaying the trajectory of the representative point on a screen, a predetermined frame of the video data may be displayed together.

【0013】これによって、映像データを参照しながら
時空間領域情報を入力、修正することができるようにな
る。
[0013] This makes it possible to input and correct spatio-temporal region information while referring to video data.

【0014】好ましくは、前記映像データの所定のフレ
ームを表示するにあたっては、表示すべき当該フレーム
における前記近似図形の内部と外部とで異なる表示形態
により表示するようにしてもよい。好ましくは、前記近
似図形の内部に対する表示形態と外部に対する表示形態
とは、前記映像データに対する加工の有無、または前記
映像データに対する加工の内容が異なるものであるよう
にしてもよい。
[0014] Preferably, in displaying a predetermined frame of the video data, the approximate figure in the frame to be displayed may be displayed in different display modes inside and outside the approximate figure. Preferably, a display form for the inside of the approximate figure and a display form for the outside may be different from each other in the presence / absence of processing on the video data or the content of the processing on the video data.

【0015】好ましくは、前記代表点の軌跡を特定可能
な情報は、当該代表点の位置データをフレームの進行に
沿って並べたときの軌跡を所定の関数で近似し、該関数
のパラメータを用いて記述されたものであるようにして
もよい。また、好ましくは、前記代表点の軌跡を特定可
能な情報は、当該代表点の基準となるフレームにおける
位置データから、他のフレームにおける位置データへの
領域変換を示す変換パラメータを求め、該変換パラメー
タについて、該変換パラメータをフレームの進行に沿っ
て並べたときの軌跡を所定の関数で近似し、該関数のパ
ラメータを用いて記述されたものであるようにしてもよ
い。また、好ましくは、前記代表点のうちの少なくとも
一つについて、当該代表点についての前記位置データが
用いられる代わりに、同一フレームにおける他の代表点
を基準としたときの当該代表点の相対的な位置を示すデ
ータが用いられているようにしてもよい。
Preferably, the information capable of specifying the trajectory of the representative point is such that the trajectory obtained by arranging the position data of the representative point along the progress of the frame is approximated by a predetermined function, and the parameter of the function is used. May be described. Preferably, the information that can specify the trajectory of the representative point is obtained from a position data in a frame serving as a reference of the representative point, a conversion parameter indicating a region conversion to position data in another frame, and the conversion parameter For, the trajectory obtained when the conversion parameters are arranged along the progress of the frame may be approximated by a predetermined function and described using the parameters of the function. Also, preferably, for at least one of the representative points, instead of using the position data for the representative point, a relative value of the representative point with respect to another representative point in the same frame is used. Data indicating the position may be used.

【0016】好ましくは、前記代表点の前記軌跡を画面
上に表示するにあたっては、前記フレームに係る2次元
座標軸及び時間軸からなる3次元空間中に該軌跡を配置
する形態で3次元表示するようにしてもよい。
Preferably, when displaying the trajectory of the representative point on a screen, the trajectory is three-dimensionally displayed in a form in which the trajectory is arranged in a three-dimensional space including a two-dimensional coordinate axis and a time axis relating to the frame. It may be.

【0017】なお、装置に係る本発明は方法に係る発明
としても成立し、方法に係る本発明は装置に係る発明と
しても成立する。また、装置または方法に係る本発明
は、コンピュータに当該発明に相当する手順を実行させ
るための(あるいはコンピュータを当該発明に相当する
手段として機能させるための、あるいはコンピュータに
当該発明に相当する機能を実現させるための)プログラ
ムとしても成立し、該プログラムを記録したコンピュー
タ読取り可能な記録媒体としても成立する。
The present invention relating to the apparatus is also realized as an invention relating to a method, and the present invention relating to a method is also realized as an invention relating to an apparatus. Further, the present invention according to an apparatus or a method has a function of causing a computer to execute a procedure corresponding to the present invention (or causing a computer to function as means corresponding to the present invention, or a computer having a function corresponding to the present invention). The present invention is also realized as a program (for realizing), and is also realized as a computer-readable recording medium on which the program is recorded.

【0018】本発明によれば、映像データ中の複数フレ
ームにわたる任意の時空間領域や、これに加えて適宜映
像データの任意フレームの画像を3次元空間中に表示す
ることによって、時空間領域形状自体や映像データとの
関係を容易に把握することができるようになり、時空間
領域情報の編集作業を効率的にすることが可能になる。
According to the present invention, by displaying an arbitrary spatio-temporal region of a plurality of frames in video data and an image of an arbitrary frame of video data in a three-dimensional space in addition to this, a spatio-temporal region shape is obtained. This makes it possible to easily grasp the relationship between itself and the video data, thereby making it possible to efficiently edit the spatiotemporal area information.

【0019】[0019]

【発明の実施の形態】以下、図面を参照しながら発明の
実施の形態を説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0020】本発明の一実施形態に係る時空間領域情報
処理システムは、ユーザが時空間領域情報に対して編集
等の処理を行うための機能を有するシステムである。
A spatio-temporal area information processing system according to an embodiment of the present invention is a system having a function for a user to perform processing such as editing on spatio-temporal area information.

【0021】最初に、時空間領域情報について簡単に説
明する。
First, spatio-temporal area information will be briefly described.

【0022】なお、時空間領域情報の内容、生成方法、
利用方法などについては、例えば、特開2001−11
8075号公報や特開2001−111996号公報な
どに詳しく開示されている(それらに開示されている物
体領域データが、この時空間領域情報の一形態に相当す
る)。
The contents of the spatiotemporal area information, the generation method,
For the usage method and the like, see, for example, JP-A-2001-11
No. 8075, Japanese Patent Application Laid-Open No. 2001-111996 and the like (the object region data disclosed therein corresponds to one form of the spatiotemporal region information).

【0023】まず、時空間領域情報の内容や、生成方法
について簡単に説明する。
First, the contents of the spatio-temporal area information and the method of generation will be briefly described.

【0024】時空間領域情報は、種々の目的のために表
示画面(例えばGUI画面)上に設けられる特定の領域
の出現から消失までの時間的空間的領域(例えば各フレ
ームにおける2次元的領域の時間的推移)を示す情報で
ある。また、時空間領域情報は、通常、映像(あるいは
動画像)データ(映像データの内容そのものは、実写し
たもの、実写したものを加工したもの、CG、アニメー
ション、それらを組み合わせたもの等、どのようなコン
テンツでもよい)に付随する情報である。なお、動画像
データは、複数のフレームからなるものを想定して説明
する。
The spatio-temporal area information includes a spatio-temporal area (for example, a two-dimensional area in each frame) from appearance to disappearance of a specific area provided on a display screen (for example, a GUI screen) for various purposes. (Time transition). In addition, the spatio-temporal area information is usually composed of video (or moving image) data (the content of the video data itself is a real photograph, a processed real photograph, a CG, an animation, a combination thereof, and the like). Content may be included). The description will be made on the assumption that the moving image data includes a plurality of frames.

【0025】この特定の領域は、例えば、映像データ中
に存在する特定の物体(オブジェクト)を示す領域とし
て利用することができる。この場合、あるフレームにお
けるその特定の領域の形状が、そのフレームにおけるそ
の特定の物体領域を表す(もしくは近似して表す)もの
である。ここで、物体領域とは、映像中における一纏ま
りの領域部分であり、例えば、人、動物、植物、車、建
物、道、川、太陽、雲など(あるいはその一部分、例え
ば人の頭、車のボンネット、建物の玄関など)、オブジ
ェクトとして把握し得るものならどのようなものでも扱
うことができる。また、独立したものであってもよい
し、ものの一部(例えば人の頭、車のボンネット、建物
の玄関)であってもよいし、ものの集合(例えば鳥や魚
の群)であってもよい。
This specific area can be used, for example, as an area indicating a specific object existing in video data. In this case, the shape of the specific region in a certain frame represents (or approximates) the specific object region in the frame. Here, the object region is a group of regions in a video, for example, a person, an animal, a plant, a car, a building, a road, a river, the sun, a cloud, or the like (or a part thereof, for example, a human head or a car). Hood, building entrance, etc.), and anything that can be grasped as an object. Further, it may be an independent thing, a part of a thing (for example, a human head, a car hood, a building entrance), or a set of things (for example, a group of birds and fish). .

【0026】次に、図1、図2を参照しながら、1つの
物体領域に対する時空間領域情報の生成について簡単に
説明する。
Next, generation of spatio-temporal region information for one object region will be briefly described with reference to FIGS.

【0027】まず、時空間領域情報の生成は、概略的に
は、例えば次のような手順によって行うことができる。
なお、いずれの手順も自動化可能であり、またユーザの
手作業を介入させることも可能である。 (1)映像データの所定のフレームから、対象となる物
体の物体領域を抽出する。 (2)その物体領域を、所定の図形により近似する。 (3)その近似図形を特定する代表点を抽出する。1〜
3の手順は、当該物体領域に対する近似図形を出現させ
るフレームから消失させるフレームにわたって、全フレ
ームまたはサンプリングした複数のフレームについて行
われる。 (4)各代表点について、その位置(またはこれを特定
可能とする量)の時系列を、時間t(例えば映像に付与
されているタイムスタンプ)もしくはフレーム番号fな
どの関数(近似関数)により近似表現する。この近似表
現したときの関数のパラメータの値が、求める値であ
る。この関数は、各代表点ごと別々に、かつ、X座標と
Y座標で別々に表現される。
First, the generation of the spatio-temporal region information can be performed roughly by the following procedure, for example.
In addition, any of the procedures can be automated, and it is also possible to intervene manually by a user. (1) Extract an object region of a target object from a predetermined frame of video data. (2) The object area is approximated by a predetermined figure. (3) Extract a representative point specifying the approximate figure. 1 to
The procedure of 3 is performed for all frames or a plurality of sampled frames from a frame in which an approximate figure to the object area appears to a frame to disappear. (4) For each representative point, the time series of the position (or the amount that can specify the position) is represented by a function (approximate function) such as a time t (for example, a time stamp given to a video) or a frame number f. Approximate expression. The value of the parameter of the function when this approximation is expressed is the value to be obtained. This function is separately expressed for each representative point and separately for the X coordinate and the Y coordinate.

【0028】1〜4の手順は、対象となる各々の物体領
域について行われる。
Steps 1 to 4 are performed for each object region to be processed.

【0029】なお、近似図形には、例えば、辺の数がパ
ラメータになる多角形、辺の数が固定された矩形などの
多角形、円、楕円など、種々のものがある。また、代表
点には、例えば、多角形の頂点、矩形の4つもしくは3
つの頂点、円の中心と円周上の一点もしくは直径の両端
点、楕円の外接矩形の4つもしくは3つの頂点または2
つの焦点と楕円上の1点など、図形の種類に応じて、種
々のものがある。
There are various types of approximate figures, for example, a polygon in which the number of sides is a parameter, a polygon such as a rectangle in which the number of sides is fixed, a circle, an ellipse, and the like. The representative points include, for example, vertices of a polygon, four or three of a rectangle.
One vertex, one point on the center of the circle or both ends of the diameter, four or three vertices of the circumscribed rectangle of the ellipse or 2
There are various types depending on the type of figure, such as one focal point and one point on an ellipse.

【0030】この関数のパラメータを保存しておけば、
該パラメータから該関数が求められ、該関数をもとに所
望の時間tもしくはフレーム番号fなどにおける各代表
点のXY座標値が求められ、該各代表点のXY座標値か
ら、当該所望の時間tもしくはフレーム番号fなどにお
ける近似図形の領域を求めることができる。
By storing the parameters of this function,
The function is obtained from the parameters, the XY coordinate values of each representative point at a desired time t or frame number f are obtained based on the function, and the XY coordinate value of each representative point is used to calculate the desired time. The area of the approximate figure at t or frame number f can be obtained.

【0031】図1、図2は、物体領域に対する近似図形
に多角形を利用し、代表点を多角形の頂点とし、各頂点
の時間軸方向の軌跡に対する近似関数として2次の多項
式スプライン関数を利用し、画像中のオブジェクト
「魚」に対する時空間領域情報を生成する例である。
FIGS. 1 and 2 show a case where a polygon is used as an approximate figure for an object area, a representative point is a vertex of the polygon, and a quadratic polynomial spline function is used as an approximate function for a locus of each vertex in the time axis direction. This is an example in which spatio-temporal region information for an object “fish” in an image is generated.

【0032】図1(a)において、200は処理対象と
なっている映像中の1フレームを示している。201は
抽出対象となっている物体の領域を示している。202
は物体の領域を近似した近似多角形を示している。
In FIG. 1A, reference numeral 200 denotes one frame in a video to be processed. Reference numeral 201 denotes a region of the object to be extracted. 202
Indicates an approximate polygon approximating the region of the object.

【0033】図1(b)は、複数のフレームにわたる近
似図形の代表点、すなわちこの例における近似多角形2
02及びその各頂点の推移、それらのうちの1つの頂点
(V 0)の近似曲線を表現したものである。
FIG. 1 (b) shows a near frame over a plurality of frames.
Representative point of similar figure, that is, approximate polygon 2 in this example
02 and its vertices, one of them
(V 0) Is an approximation curve.

【0034】図1(c)の204は、代表点V0 につい
て求められた関数の例である(ここでは基準代表点V0
の1つの座標軸についてのみ示している)。この例は、
近似区間がt=0〜5とt=5〜16の2つに分割され
た場合を示している。
Reference numeral 204 in FIG. 1C is an example of a function obtained for the representative point V 0 (here, the reference representative point V 0).
Is shown only for one coordinate axis). This example
The case where the approximation section is divided into t = 0 to 5 and t = 5 to 16 is shown.

【0035】図2は、代表点V0 のX座標の値を近似す
る関数を求めている例である。図中の211は物体の存
在している時間区間を表しており、黒い点(212)が
代表点V0 のX座標の値である。213がその近似関数
である。Y座標に対しても、同様にして近似関数が求め
られる。近似関数として多項式スプライン関数を用いて
いるので、図1(c)の204では節点と呼ばれる点に
より分割された時間区間ごとに多項式が定義されてい
る。ここでは、t=0,5,16がそれぞれ節点時刻と
なる。
FIG. 2 shows an example in which a function that approximates the value of the X coordinate of the representative point V 0 is obtained. 211 in the figure represents the time interval that exists in the object, black dots (212) is the value of X-coordinate of the representative point V 0. 213 is the approximate function. An approximate function is similarly obtained for the Y coordinate. Since a polynomial spline function is used as the approximation function, a polynomial is defined for each time section divided by a point called a node at 204 in FIG. Here, t = 0, 5, and 16 are the node times, respectively.

【0036】代表点V0 以外の代表点についてもそれぞ
れ同様である。
The same applies to representative points other than the representative point V 0 .

【0037】一方、代表点V0 以外の代表点について
は、当該代表点を当該代表点とは別の代表点からの相対
的関係、例えば差分ベクトルによって表し、そのベクト
ルの軌跡により記述する方法もある。図3は、その一例
として、近似多角形において、基準とする代表点V
0 と、その他の代表点を表すための差分ベクトルの各々
を説明している図である。図4の黒い点列(222)
は、各時刻におけるベクトルV 0,1 のX成分の値を表し
ている。
On the other hand, the representative point V0About representative points other than
Means that the representative point is relative to another representative point.
Relations, such as the difference vector
There is also a method of describing by the trajectory of the file. Figure 3 shows an example
As a reference representative point V in the approximate polygon
0And each of the difference vectors to represent the other representative points
FIG. Black dot sequence (222) in FIG.
Is the vector V at each time 0,1Represents the value of the X component of
ing.

【0038】また、上記では、各フレームにおける代表
点の位置又は差分ベクトルの軌跡を近似したが、ある基
準となるフレームにおける代表点の位置又は差分ベクト
ルを各フレームにおける代表点の位置又は差分ベクトル
に変換する関数のパラメータの軌跡を近似する方法もあ
る。あるいは、先行するフレームにおける代表点の位置
又は差分ベクトルを後続するフレームにおける代表点の
位置又は差分ベクトルに変換する関数のパラメータの軌
跡を近似する方法もある。
In the above description, the position of the representative point in each frame or the locus of the difference vector is approximated. However, the position or the difference vector of the representative point in a certain reference frame is replaced with the position or the difference vector of the representative point in each frame. There is also a method of approximating the locus of the parameter of the function to be converted. Alternatively, there is a method of approximating a locus of a parameter of a function for converting a position or a difference vector of a representative point in a preceding frame into a position or a difference vector of a representative point in a subsequent frame.

【0039】その他にも、時空間領域情報の形態には、
種々のバリエーションがあり、本発明は、どのような形
態の時空間領域情報にも適用可能である。また、時空間
領域情報には、例えば、各物体領域に対応する各代表点
ごとで且つ各フレームごと、あるいは各物体領域ごとで
且つ各フレームごと、あるいは各物体領域の各代表点ご
と、あるいは各物体領域ごとなどの所定の単位で、所定
の属性情報もしくは関連情報などが付加されることもあ
る。本発明は、このような時空間領域情報にも適用可能
である。
In addition, the form of the spatio-temporal area information includes:
There are various variations, and the present invention is applicable to any form of spatiotemporal domain information. In addition, the spatio-temporal area information includes, for example, for each representative point corresponding to each object area and for each frame, or for each object area and for each frame, or for each representative point of each object area, or for each representative point. Predetermined attribute information or related information may be added in a predetermined unit such as for each object region. The present invention is also applicable to such spatiotemporal domain information.

【0040】図5に、本実施形態の説明で用いる時空間
領域情報のデータ構造の一例を示す。図5に示されるよ
うに、本例の時空間領域情報は、時空間領域情報識別情
報(以下、ID番号)101、先頭時刻102、最終時
刻103、形状フラグ104、軌跡データ105を含む
ものである。
FIG. 5 shows an example of the data structure of the spatio-temporal area information used in the description of this embodiment. As shown in FIG. 5, the spatio-temporal area information of the present example includes spatio-temporal area information identification information (hereinafter, ID number) 101, start time 102, end time 103, shape flag 104, and trajectory data 105.

【0041】ID番号101は、時空間領域ごとに付与
される識別番号である。
The ID number 101 is an identification number given to each space-time area.

【0042】先頭時刻102と最終時刻103は、当該
ID番号の時空間領域が存在する先頭と最終の時刻であ
る。先頭時刻と最終時刻はタイムスタンプによって表現
してもよいし、フレーム番号で表現してもよい。
The start time 102 and the end time 103 are the start and end times at which the spatiotemporal area of the ID number exists. The start time and the end time may be represented by a time stamp or a frame number.

【0043】形状フラグ104は、領域形状がどのよう
に表現されているかを示すものである。領域形状は、例
えば、矩形、楕円、多角形などで表現されているため、
それらを一意に区別するような情報が記述される。多角
形の場合には、頂点数情報も形状フラグに付加される。
The shape flag 104 indicates how the region shape is represented. Since the region shape is represented by, for example, a rectangle, an ellipse, and a polygon,
Information that uniquely distinguishes them is described. In the case of a polygon, vertex number information is also added to the shape flag.

【0044】軌跡データ105は、時空間領域を表現す
るためのパラメータデータである。これは、先頭時刻か
ら最終時刻までの時空間領域形状が決定できるようなも
のである。例えば、領域形状が矩形や多角形の場合にお
ける、各頂点の軌跡を関数近似したときのパラメータ、
領域形状が楕円の場合における、楕円の外接矩形頂点の
軌跡を関数近似したときのパラメータなどである。10
6のように、軌跡データ105は、1つの代表点につい
て、X座標軌跡とY座標軌跡を別々に記述するため、軌
跡データは、代表点数×2だけ存在する。
The trajectory data 105 is parameter data for expressing a spatio-temporal region. This is such that the spatio-temporal region shape from the first time to the last time can be determined. For example, in the case where the region shape is a rectangle or a polygon, a parameter when the locus of each vertex is approximated by a function,
In the case where the region shape is an ellipse, it is a parameter or the like when a locus of a vertex of a circumscribed rectangle of the ellipse is approximated by a function. 10
As shown in FIG. 6, since the trajectory data 105 describes the X-coordinate trajectory and the Y-coordinate trajectory separately for one representative point, the trajectory data has the number of representative points × 2.

【0045】図6に、図5の時空間領域情報における各
々の軌跡データ105のデータ構造の一例を示す。これ
は、スプライン関数などで関数補間された連続する軌跡
を表すためのもので、時間とX座標やY座標などのパラ
メータとの関係を格納するためのものである。
FIG. 6 shows an example of the data structure of each trajectory data 105 in the spatiotemporal area information of FIG. This is for representing a continuous trajectory interpolated by a function such as a spline function, and is for storing the relationship between time and parameters such as X coordinates and Y coordinates.

【0046】節点数151は、スプライン関数の節点の
数を表しており、節点数−1個の多項式のデータ156
があることを示している。スプライン関数は、隣接する
節点の間の区間ごとにそれぞれ別の多項式で表現される
ため、節点の数に対応した数の多項式が必要となる。し
たがって、節点フレーム番号、多項式の係数などを含む
データ156は、複数繰り返し記述される。
The number of nodes 151 represents the number of nodes of the spline function, and the number of nodes minus one polynomial data 156
It indicates that there is. Since the spline function is expressed by a different polynomial for each section between adjacent nodes, a number of polynomials corresponding to the number of nodes is required. Therefore, data 156 including a node frame number, a polynomial coefficient, and the like are repeatedly described.

【0047】先頭節点時刻152は、スプライン関数の
最初の節点の時刻を表す。
The head node time 152 indicates the time of the first node of the spline function.

【0048】節点時刻153は、当該多項式データの終
わりの節点時刻を表しており、この節点時刻まで多項式
のデータ156が有効であることを示している。これは
フレーム番号の代わりにタイムスタンプによって記述し
てもよい。多項式の係数データの数は、スプライン関数
の最高次数により変化する(最高次数をKとすると、係
数データの数はK+1となる)。そのため、係数データ
数を多項式次数154に保存してある。多項式次数15
4の後には多項式次数+1個に相当する数の多項式係数
155が続く。
The node time 153 indicates the node time at the end of the polynomial data, and indicates that the polynomial data 156 is valid up to this node time. This may be described by a time stamp instead of the frame number. The number of coefficient data of the polynomial varies depending on the highest order of the spline function (where K is the highest order, the number of coefficient data is K + 1). Therefore, the number of coefficient data is stored in the polynomial degree 154. Polynomial degree 15
4 is followed by a number of polynomial coefficients 155 corresponding to the polynomial degree + 1.

【0049】次に、このような時空間領域情報の利用方
法について簡単に説明する。
Next, a method of using such spatio-temporal area information will be briefly described.

【0050】映像データを表示する機能及び該映像デー
タに付随する時空間領域情報を利用する機能を有するシ
ステムでは、時空間領域情報に基づいて対象となるフレ
ームにおける物体領域の近似図形の各代表点を求め(1
つのフレームに複数の物体領域の近似図形が存在するこ
ともある)、該物体領域の近似図形の各代表点から該フ
レームにおける該近似図形の領域を求め、そして、映像
データ上に該近似図形の外形を表示したり、あるいは映
像データのうち近似図形の内部に相当する範囲を特定の
表示形態で表示したり、あるいはユーザが画面上に表示
中の映像上をマウスなどのポインティングデバイス等で
指示した場合に例えばその時刻(フィールド)に物体領
域の近似図形が存在し且つ指示位置が近似図形の内部で
あればその対象物体が指示されたと判断し何らかの処理
を行うなどによって、効果的なシステムあるいはグラフ
ィカル・ユーザ・インタフェース(GUI)などを提供
することができる。
In a system having a function of displaying video data and a function of using spatio-temporal area information attached to the video data, each representative point of an approximate figure of an object area in a target frame based on the spatio-temporal area information (1
There may be a plurality of approximate figures of the object area in one frame), an area of the approximate figure in the frame is obtained from each representative point of the approximate figure of the object area, and the approximate figure of the approximate figure is displayed on the video data. The external shape is displayed, or the range corresponding to the inside of the approximate figure in the video data is displayed in a specific display form, or the user instructs the video being displayed on the screen with a pointing device such as a mouse. In such a case, for example, if an approximate figure of the object area exists at that time (field) and the designated position is inside the approximate figure, it is determined that the target object has been designated and some processing is performed. -A user interface (GUI) can be provided.

【0051】例えば、時空間領域情報に関連情報(例え
ば、文字、音声、静止画、動画等、あるいはそれらを適
宜組み合わせたもの、またはその格納アドレスを示すポ
インタ情報)が付加されている場合あるいは時空間領域
情報とは別に各ID番号の情報に関連する関連情報を含
むデータベースが存在するなどの場合に、ハイパーメデ
ィアや物体検索に用いることができる。例えば、ユーザ
が当該物体(又は当該物体及びその近傍)をマウス等で
指定することにより、指定された時刻・場所が物体領域
の内部であるか外部であるかを判定し、内部であると判
定されれば、その物体に関する関連情報を検索させた
り、表示させたりすることができる。例えば、映像が映
画などのコンテンツ、物体が俳優等の登場人物もしくは
他の登場物体、関連情報がその俳優もしくはその役柄等
に関する説明であれば、映画を視聴している視聴者は、
所望の俳優に関する説明をその俳優の画像をクリックす
るだけで閲覧することができる。同様に、電子百科事
典、電子カタログ等のあらゆる電子コンテンツに適用可
能である。
For example, when related information (for example, characters, sounds, still images, moving images, etc., or a combination thereof as appropriate, or pointer information indicating the storage address thereof) is added to the spatio-temporal area information, or When there is a database including related information related to the information of each ID number separately from the spatial area information, it can be used for hypermedia and object search. For example, when the user designates the object (or the object and its vicinity) with a mouse or the like, it is determined whether the designated time / place is inside or outside the object area, and is determined to be inside. Then, related information on the object can be searched or displayed. For example, if the video is a content such as a movie, the object is a character such as an actor or other appearing object, and the related information is a description about the actor or its role, etc.
A description of the desired actor can be viewed by simply clicking on the actor's image. Similarly, the present invention can be applied to any electronic contents such as an electronic encyclopedia, an electronic catalog, and the like.

【0052】また、関連情報は、例えば、プログラムも
しくは計算機の動作を記述したデータまたはその格納ア
ドレスを示すポインタ情報であってもよい。この場合に
は、ユーザが当該物体を指定することにより、計算機に
所定の動作を行わせることができる。
The related information may be, for example, data describing the operation of a program or a computer, or pointer information indicating its storage address. In this case, the user can cause the computer to perform a predetermined operation by designating the object.

【0053】また、例えば、物体検索では、物体の通過
位置、非通過位置、ある位置における大きさ、ある位置
における滞在時間などを検索キーとして条件に合う物体
を検索することができる。いずれの検索キーに対して
も、物体の存在する時間区間に対して逐次代表点座標を
取り出し、任意の点が代表点で構成される図形の内部か
外部かを判定したり、面積を計算することにより条件を
満たすかどうかが判断できる。また、例えば、関連情報
にキーワードを記述しておけば、物体をキーワード検索
することができる。さらに、関連情報にその物体から抽
出した、シェープ、テクスチャ、アクティビティ、カラ
ーなどの特徴量を記述しておけば、そのような特徴量を
もとにオブジェクト検索することができる。また、例え
ば、時空間領域情報を解析することにより得られる、物
体のシェープ、テクスチャ、アクティビティ、カラーな
どの特徴量に基づいて、不審な人物等の監視を行う、監
視システムを実現することができる。
For example, in the object search, it is possible to search for an object that satisfies the conditions by using a passing key, a non-passing position, a size at a certain position, a staying time at a certain position or the like as a search key. For each of the search keys, the coordinates of the representative point are sequentially extracted for the time section in which the object exists, and it is determined whether an arbitrary point is inside or outside the figure composed of the representative points, or the area is calculated. Thus, it can be determined whether or not the condition is satisfied. Further, for example, if a keyword is described in the related information, the object can be searched by a keyword. Furthermore, if feature amounts such as shape, texture, activity, and color extracted from the object are described in the related information, an object can be searched based on such feature amounts. Further, for example, it is possible to realize a monitoring system that monitors a suspicious person or the like based on feature amounts such as shape, texture, activity, and color of an object obtained by analyzing spatiotemporal region information. .

【0054】次に、映像データや時空間領域情報の提供
方法について説明する。
Next, a method for providing video data and spatio-temporal area information will be described.

【0055】作成者が作成した時空間領域情報がユーザ
の用に供される場合には、作成者側からユーザ側に何ら
かの方法で時空間領域情報を提供する必要がある。この
提供の方法としても以下に例示するように種々の形態が
考えられる。 (1)映像データとその時空間領域情報を同時に提供す
る形態 (2)映像データを単独で提供し、別途、時空間領域情
報を提供する形態 (3)上記の(1)または(2)の方法で、映像データ
とその時空間領域情報を提供し、上記の(1)または
(2)のいずれかの提供時に同時に、またはそれらとは
独立して、関連情報等を提供する形態 データや情報を提供する手段としては、例えば、1つま
たは複数の記録媒体に記録して提供する方法や、ネット
ワーク経由等で提供する(あるいはユーザが取得する)
方法や、それらを併用する方法などがある。
When the spatio-temporal region information created by the creator is provided to the user, it is necessary for the creator to provide the spatio-temporal region information to the user in some way. Various forms of this providing method can be considered as exemplified below. (1) A form in which video data and its spatio-temporal area information are provided simultaneously (2) A form in which video data is provided independently and spatio-temporal area information is separately provided (3) The method of (1) or (2) above To provide video data and its spatio-temporal area information, and to provide related information at the time of providing either of (1) or (2) above, or independently of them. As means for performing this, for example, a method of providing the information by recording it on one or a plurality of recording media, or providing the information via a network or the like (or acquiring by the user)
There are methods and methods of using them in combination.

【0056】なお、本実施形態の時空間領域情報処理シ
ステムは、作成者側のシステムに搭載することもできる
し、ユーザ側のシステムに搭載することもできる。ま
た、時間領域情報を生成する機能を有するシステムに搭
載して、当該システムで生成された時間領域情報を編集
対象とすることもできるし、時間領域情報を生成する機
能を有するシステム又は時間領域情報を生成する機能を
有しないシステムに搭載して、外部から読み込んだ時間
領域情報を編集対象とすることもできる。
The spatio-temporal area information processing system according to the present embodiment can be mounted on a creator's system or a user's system. In addition, it can be mounted on a system having a function of generating time domain information, and the time domain information generated by the system can be edited, or a system or a time domain information having a function of generating time domain information can be used. May be installed in a system that does not have a function of generating the time domain information, and time domain information read from outside may be targeted for editing.

【0057】さて、以下では、本実施形態の時空間領域
情報処理システムについて詳しく説明する。
Now, the spatio-temporal area information processing system of the present embodiment will be described in detail.

【0058】ここでは、図5及び図6の時空間領域情報
を編集対象とする場合を例にとって説明する。
Here, a case where the spatio-temporal area information shown in FIGS. 5 and 6 is to be edited will be described as an example.

【0059】図7に、本実施形態に係る時空間領域情報
処理装置の構成例を示す。図7に示されるように、本時
空間領域情報処理装置は、映像情報記憶部1、時空間領
域情報記憶部2、表示部3、入力部4、時空間領域情報
編集処理部5を備えている。
FIG. 7 shows a configuration example of the spatiotemporal area information processing apparatus according to the present embodiment. As shown in FIG. 7, the spatio-temporal region information processing apparatus includes a video information storage unit 1, a spatio-temporal region information storage unit 2, a display unit 3, an input unit 4, and a spatio-temporal region information editing processing unit 5. I have.

【0060】この時空間領域情報処理装置は、計算機上
でプログラムを実行する形で実現することができる。ま
た、そのプログラムを、他のソフトウェアの一機能とし
て組み込むようにすることも可能である。また、必要に
応じて、その計算機に、所望の機能を有するOSやドラ
イバソフト、パケット通信用ソフト、暗号ソフト等とい
ったソフトウェア、あるいは通信インタフェース装置や
外部記憶装置や入出力装置等といったハードウェアを搭
載あるいは接続することができる。
This spatio-temporal area information processing apparatus can be realized by executing a program on a computer. It is also possible to incorporate the program as a function of another software. If necessary, the computer is equipped with an OS having desired functions, driver software, software for packet communication, encryption software, and the like, or hardware such as a communication interface device, an external storage device, and an input / output device. Alternatively, they can be connected.

【0061】映像情報記憶部1は、映像データが記憶さ
れているもので、例えばハードディスクや光ディスク、
半導体メモリなどで構成される。
The video information storage unit 1 stores video data, for example, a hard disk, an optical disk,
It is composed of a semiconductor memory or the like.

【0062】時空間領域情報記憶部2は、映像情報記憶
部1に保存されている映像データにおける(例えば物体
領域を示す近似矩形もしくは近似多角形の各頂点の軌跡
や近似楕円に外接する矩形の各頂点の軌跡などによって
表された)時空間領域情報が記憶されている。時空間領
域情報記憶部2は、例えば、ハードディスクや光ディス
ク、半導体メモリなどで構成される。前述したように、
ここでは、時空間領域情報としては、例えば図5及び図
6に示されるようなデータ構造を持つものを例にとって
いる。
The spatio-temporal area information storage unit 2 stores, for example, a rectangle circumscribing the locus of each vertex of an approximate rectangle or an approximate polygon indicating an object area or an approximate ellipse in the video data stored in the video information storage unit 1. Spatio-temporal region information (represented by a locus of each vertex or the like) is stored. The spatio-temporal area information storage unit 2 is composed of, for example, a hard disk, an optical disk, a semiconductor memory, or the like. As previously mentioned,
Here, as the spatio-temporal area information, information having a data structure as shown in FIGS. 5 and 6 is exemplified.

【0063】なお、映像情報記憶部1と時空間領域情報
記憶部2は、同じ物理デバイス上に存在していても、違
う物理デバイス上に存在していてもよい。
Note that the video information storage unit 1 and the spatiotemporal area information storage unit 2 may exist on the same physical device or on different physical devices.

【0064】時空間領域情報編集処理部5は、映像情報
や時空間領域情報の表示に関する処理や、時空間領域情
報の修正に関する処理などを行う。
The spatio-temporal area information editing processing unit 5 performs processing relating to display of video information and spatio-temporal area information, processing relating to correction of spatio-temporal area information, and the like.

【0065】表示部3は、映像情報や時空間領域情報な
どに関する表示を行うためのものであり、入力部4は、
ユーザからの指示入力や選択入力等を入力するためのも
のである。なお、ここでは、表示部3及び入力部4によ
りグラフィカル・ユーザ・インタフェースを構成するも
のとしている。
The display unit 3 is for displaying video information, spatio-temporal area information, and the like.
This is for inputting an instruction input, a selection input, and the like from the user. Here, the display unit 3 and the input unit 4 constitute a graphical user interface.

【0066】詳しくは後述するが、時空間領域情報は、
物体領域を示す図形の各代表点(例えば、物体領域を示
す近似矩形もしくは近似多角形の各頂点の軌跡や近似楕
円に外接する矩形の各頂点)の軌跡などとして、{X、
Y、時間}の3次元空間中に配置され表示される。ま
た、当該時空間領域情報に対応する映像情報は、適宜、
その全部又は一部のフレームの画像が、処理されてまた
は処理されずに、3次元空間中に表示される(表示しな
いことも可能である)。
As will be described in detail later, the spatio-temporal area information is
As the trajectory of each representative point of the figure indicating the object area (for example, the trajectory of each vertex of the approximate rectangle or approximate polygon indicating the object area or each vertex of the rectangle circumscribing the approximate ellipse), {X,
It is arranged and displayed in a three-dimensional space of Y, time}. In addition, the video information corresponding to the spatiotemporal area information is appropriately
The images of all or some of the frames are displayed in a three-dimensional space with or without processing (it is also possible not to display).

【0067】なお、この時空間領域情報処理装置は、図
7の構成に更に、時空間領域情報を生成するための時空
間領域情報生成処理部6を備えてもよい。この場合の構
成例を図8に示す。なお、時空間領域情報生成処理部6
としては、例えば、特開2001−118075号公報
や特開2001−111996号公報などに開示された
構成を用いることができる。
The spatio-temporal area information processing apparatus may further include a spatio-temporal area information generation processing unit 6 for generating spatio-temporal area information in addition to the configuration shown in FIG. FIG. 8 shows a configuration example in this case. The spatiotemporal area information generation processing unit 6
For example, a configuration disclosed in JP-A-2001-1118075 or JP-A-2001-111996 can be used.

【0068】表示部3への時空間領域情報の表示では、
3次元空間を表示することが必要となるが、この表示の
ための処理には、ホログラフ技術やバーチャルリアリテ
ィ技術など3次元空間を表示可能な技術を適用した処理
が利用可能である。また、3次元空間を2次元平面に投
影して表示することによって通常のディスプレイなどで
表示してもよい。ただし、この場合には、投影による隠
れなどが発生し得るため、視点や注視点を移動するため
のインターフェースを設けると好ましい。
In displaying the spatio-temporal area information on the display unit 3,
Although it is necessary to display a three-dimensional space, a process using a technology capable of displaying a three-dimensional space, such as a holographic technology or a virtual reality technology, can be used for the process for this display. Alternatively, a three-dimensional space may be projected on a two-dimensional plane to be displayed on a normal display or the like. However, in this case, since hiding due to projection or the like may occur, it is preferable to provide an interface for moving a viewpoint or a gazing point.

【0069】入力部4には、キーボードやマウスを利用
することができる。また、空間で操作する3次元マウス
等の入力デバイスを利用することも可能である。
The input unit 4 can use a keyboard or a mouse. It is also possible to use an input device such as a three-dimensional mouse operated in space.

【0070】図9に、時空間領域情報及び映像情報に関
する表示方法の一例を示す。
FIG. 9 shows an example of a display method relating to spatio-temporal area information and video information.

【0071】時空間領域情報編集処理部5は、編集対象
となる時空間領域情報に基づいて、物体領域を示す図形
の代表点の軌跡を求め、代表点軌跡161のように曲線
として表示する。代表点軌跡161の表示形態は、例え
ば、代表点軌跡ごとに色分けして表示したり、実線や破
線などの線種で分けて表示するようにしてもよい(どの
ように表示するかについて、予め設定してもよいし、ユ
ーザが任意に設定できるようにしてもよい)。
The spatio-temporal area information editing processing unit 5 obtains the trajectory of the representative point of the figure representing the object area based on the spatio-temporal area information to be edited, and displays it as a curve like the representative point trajectory 161. The display form of the representative point trajectory 161 may be, for example, displayed in a different color for each representative point trajectory, or may be displayed by being divided by a line type such as a solid line or a dashed line. It may be set, or the user may set it arbitrarily.)

【0072】また、時空間領域情報編集処理部5は、代
表点軌跡161を特定するための点として、節点座標1
62とコントロールポイント163を表示する。節点座
標162は、時空間領域情報に記述されているものであ
る。コントロールポイント163は、節点座標以外で代
表点軌跡161上に位置するポイントであり、コントロ
ールポイント163をどのように設けるかに応じて、時
空間領域情報に基づいて算出する(コントロールポイン
ト163をどのように設けるかについては後述する)。
節点座標162とコントロールポイント163は、容易
に区別できるような色や形で表示すると好ましい。図9
においては、節点座標162は「・」で、コントロール
ポイント163は「×」で表示されている(それらを区
別して表示する場合には、区別可能であればどのような
表示形態でも構わない)。なお、節点座標162とコン
トロールポイント163の全部又は一部を表示しない方
法もある。また、ユーザーが節点座標162とコントロ
ールポイント163を表示するかどうかあるいは表示す
る場合の表示方法を切り替えられるようにしてもよい。
Further, the spatiotemporal area information editing processing section 5 sets the node coordinate 1 as a point for specifying the representative point locus 161.
62 and the control point 163 are displayed. The node coordinates 162 are those described in the spatio-temporal area information. The control point 163 is a point located on the representative point trajectory 161 other than the nodal coordinates, and is calculated based on the spatio-temporal area information according to how the control point 163 is provided (how the control point 163 is determined). Will be described later).
It is preferable that the node coordinates 162 and the control point 163 are displayed in a color or a shape that can be easily distinguished. FIG.
, The node coordinates 162 are indicated by “•”, and the control points 163 are indicated by “x” (when they are distinguished and displayed, any display form is possible as long as they can be distinguished). Note that there is a method in which all or a part of the node coordinates 162 and the control points 163 are not displayed. In addition, the user may be able to switch whether or not to display the node coordinates 162 and the control points 163, or the display method when displaying them.

【0073】この節点座標162やコントロールポイン
ト163は、ユーザが時空間領域情報に対する修正内容
を入力するためのものであり、本時空間領域情報処理シ
ステムでは、ユーザは、時空間領域情報を修正したい場
合には、例えばマウスなどを用いてドラッグ・アンド・
ドロップ操作などにより、節点座標162やコントロー
ルポイント163を任意に選択し、それを任意の方向
(X方向又はY方向又は時間方向のうち任意の1次元で
もよいし、任意の2次元でもよいし、3次元でもよい)
へ任意の量だけ移動させる(すなわち、任意の移動ベク
トルを入力する)ことによって、時空間領域情報に対す
る修正指示を入力する。節点座標162やコントロール
ポイント163をドラッグ・アンド・ドロップ操作など
により移動させる場合に、節点座標162又はコントロ
ールポイント163を1つずつ選択して移動させるもの
としてもよいし、複数の節点座標162及び又はコント
ロールポイント163を選択して一括してそれらを移動
させることをも可能にしてもよい。
The node coordinates 162 and the control points 163 are for the user to input the contents of correction for the spatio-temporal area information. In this spatio-temporal area information processing system, the user wants to correct the spatio-temporal area information. In such a case, drag and
The node coordinates 162 and the control point 163 are arbitrarily selected by a drop operation or the like, and may be arbitrarily selected in any direction (one dimension in the X direction, the Y direction, or the time direction, or any two dimension, (It may be three-dimensional.)
Is moved by an arbitrary amount (that is, an arbitrary movement vector is input), thereby inputting a correction instruction for the spatiotemporal area information. When the node coordinates 162 or the control points 163 are moved by a drag-and-drop operation or the like, the node coordinates 162 or the control points 163 may be selected and moved one by one, or a plurality of the node coordinates 162 and / or It may be possible to select the control points 163 and move them collectively.

【0074】なお、節点座標162とコントロールポイ
ント163の全部又は一部を表示しない場合には、例え
ば、ユーザがマウスなどを用いて指示した位置の直近の
節点座標162又はコントロールポイント163が選択
されたものとして扱うようにすればよい。
If all or part of the node coordinates 162 and the control points 163 are not displayed, for example, the node coordinates 162 or the control points 163 closest to the position specified by the user using a mouse or the like are selected. It should be treated as something.

【0075】そして、本時空間領域情報処理システムで
は、この節点座標162やコントロールポイント163
がユーザにより移動された後の位置に対応する時空間領
域情報を計算することになる。
In the spatiotemporal region information processing system, the node coordinates 162 and the control points 163
Will calculate the spatio-temporal area information corresponding to the position after has been moved by the user.

【0076】さて、図6に示されるように、1本の代表
点軌跡は、ある節点時刻から次の節点時刻までの補間関
数の集合として表される。そのため、1本の代表点軌跡
を特定するためには、すべての節点時刻と、節点間の補
間関数のパラメータが特定できればよい。
As shown in FIG. 6, one representative point locus is represented as a set of interpolation functions from one node time to the next node time. Therefore, in order to specify one representative point trajectory, it is only necessary to specify all the node times and the parameters of the interpolation function between the nodes.

【0077】ある代表点軌跡が、 (X,Y,時間)=(fx(t),fy(t),t) で表されていて(ここで、fx(t),fy(t)は、ス
プライン関数など)、節点時刻が、 t0,t1,…,tk であったとすると、この代表点軌跡の節点座標162
は、 (fx(t0),fy(t0),t0),(fx(t1),fy
(t1),t1),…,(fx(tk),fy(tk),t
k)である。
A certain representative point trajectory is represented by (X, Y, time) = (fx (t), fy (t), t) (where fx (t), fy (t) is If the node time is t0, t1,..., Tk, the node coordinates 162 of this representative point locus
Are (fx (t0), fy (t0), t0), (fx (t1), fy
(T1), t1), ..., (fx (tk), fy (tk), t
k).

【0078】節点座標162は、節点時刻における代表
点軌跡の座標を表す。ユーザは、節点座標162の位置
により、節点時刻と節点時刻における座標を知ることが
できる。
The node coordinates 162 represent the coordinates of the representative point locus at the node time. From the position of the node coordinates 162, the user can know the node time and the coordinates at the node time.

【0079】節点間の補間関数が1次関数によって補間
されている場合には、この節点座標162の座標を表示
することによって、代表点軌跡161の形状を一意に特
定することができる(なお、コントロールポイント16
3を必要最低限の数のみ表示する場合には、補間関数が
1次関数のときは、コントロールポイント163は表示
されないことになる)。
When the interpolation function between the nodes is interpolated by a linear function, the shape of the representative point locus 161 can be uniquely specified by displaying the coordinates of the node coordinates 162 (note that the coordinates of the node coordinates 162 can be uniquely specified). Control point 16
If only the minimum number of 3s is displayed, the control points 163 will not be displayed if the interpolation function is a linear function.)

【0080】しかし、節点間の補間関数が2次以上の関
数で補間されている場合には、節点座標162のみでは
補間関数の形状を一意に特定することができない。この
ような場合には、コントロールポイント163を表示し
て、補間関数の形状を一意に特定できるようにする。
However, when the interpolation function between nodes is interpolated by a function of second order or higher, the shape of the interpolation function cannot be uniquely specified only by the node coordinates 162. In such a case, the control point 163 is displayed so that the shape of the interpolation function can be uniquely specified.

【0081】コントロールポイント163は、補間関数
形状を一意に決定できユーザがわかりやすいものであれ
ばどのような座標に表示してもよい。例えば、n次多項
式によって補間されている際には、n+1個の座標がわ
かれば補完関数形状を一意に決定できる。補間関数の開
始時刻における座標と終了時刻における座標は、節点座
標162によって表示されているため、それ以外のn−
1個の座標をコントロールポイントとして表示すること
によって補間関数形状を一意に決定することができる。
The control point 163 may be displayed at any coordinates as long as the shape of the interpolation function can be uniquely determined and can be easily understood by the user. For example, when interpolation is performed using an n-th order polynomial, the shape of the complementary function can be uniquely determined if n + 1 coordinates are known. Since the coordinates at the start time and the coordinates at the end time of the interpolation function are indicated by the node coordinates 162, the other n−
By displaying one coordinate as a control point, an interpolation function shape can be uniquely determined.

【0082】n−1個の座標位置をどのように設定する
かについては、種々のバリエーションが可能であるが、
コントロールポイント間があまりにも近いと、ユーザー
にとってわかりにくいだけではなく、操作する際にも困
難になるため、例えば、開始時刻から終了時刻を等分し
てコントロールポイントを配置するようにしてもよい。
There are various variations on how to set the (n-1) coordinate positions.
If the control points are too close, not only is it difficult for the user to understand, but also it becomes difficult to operate the control points. For example, the control points may be arranged by equally dividing the start time from the end time.

【0083】例えば、ある節点座標が存在するフレーム
(以下、キーフレームと呼ぶ)の時間がt1で、次のキ
ーフレームの時間がt2であったとする。t1からt2
において代表点軌跡が、 (X,Y,時間)=(fx(t),fy(t),t) で表されていたとする。ただし、fx(t)とfy(t)
は時間tのn次多項式であるとする。このとき、キーフ
レームにおける座標162は、 (fx(t1),fy(t1),t1)と(fx(t2),fy
(t2),t2) である。コントロールポイント163は、n−1点必要
となり、t1〜t2を等分して座標を決定するとすると、
コントロールポイント163の座標は、 (fx((t2−t1)*i/n+t1),fy((t2−t1)*i/n+t
1),(t2-t1)*i/n+t1) (i=1,2,…,n
−1) となる。
For example, it is assumed that the time of a frame in which a certain node coordinate exists (hereinafter, referred to as a key frame) is t1, and the time of the next key frame is t2. t1 to t2
, The representative point trajectory is represented by (X, Y, time) = (fx (t), fy (t), t). Where fx (t) and fy (t)
Is an n-order polynomial at time t. At this time, the coordinates 162 in the key frame are (fx (t1), fy (t1), t1) and (fx (t2), fy
(T2), t2). The control point 163 requires n-1 points, and if the coordinates are determined by equally dividing t1 to t2,
The coordinates of the control point 163 are (fx ((t2−t1) * i / n + t1), fy ((t2−t1) * i / n + t
1), (t2-t1) * i / n + t1) (i = 1,2, ..., n
-1)

【0084】コントロールポイントを配置する方法に
は、均等分割する方法の他に、例えば、曲線の変化の激
しい部分ほど密にコントロールポイントを配置する方法
もある。
As a method of arranging the control points, there is a method of arranging the control points more densely in a portion where the curve changes rapidly, in addition to the method of equally dividing the control points.

【0085】なお、配置するコントロールポイントの数
は、補完関数形状を一意に決定するn+1個よりも多い
数とする方法も可能である。この場合には、例えば、修
正後の補完関数形状を一意に決定するためのn+1個を
ユーザが選択するようにしてもよいし、あるいはシステ
ム側で選択するようにしてもよい(ただし、表示されて
いるn+1個よりも多い数の全コントロールポイント
を、修正後の補完関数形状を一意に決定するためのコン
トロールポイントとして用いる方法も可能である)。
It is to be noted that the number of control points to be arranged may be set to a number larger than n + 1 that uniquely determines the shape of the complementary function. In this case, for example, the user may select (n + 1) for uniquely determining the corrected complementary function shape, or the system may select (n + 1) It is also possible to use a total of more than n + 1 control points as control points for uniquely determining the complement function shape after correction.)

【0086】また、コントロールポイントの時刻を、フ
レームの持つ時刻と一致させるようにする方法と、フレ
ームの時刻に限定せずに設定する方法とがある。前者の
場合には、例えば、先に所定のアルゴリズムでコントロ
ールポイントの時刻を算出してしまい、それがフレーム
の持つ時刻と一致しない場合に、算出されたあるいは指
示されたコントロールポイント時刻の直近のフレーム時
刻を、そのコントロールポイントの時刻とすればよい。
There are a method of making the time of the control point coincide with the time of the frame, and a method of setting the time without limiting to the time of the frame. In the former case, for example, the time of the control point is calculated by a predetermined algorithm first, and if the time does not match the time of the frame, the time immediately after the calculated or instructed control point time is used. The time may be the time of the control point.

【0087】一方、映像情報164は、当該時空間領域
情報に関連する映像の画像情報を表示する。例えば、映
像の全フレームもしくは任意のフレームの画像を3次元
空間中の時間軸に垂直で、表示するフレームの時刻の位
置にある平面に表示する。表示するフレームは、例え
ば、数フレームおきであるとか、節点が存在するフレー
ムのみなど予め定められた基準に従ってシステム側で決
定するようにしてもよいし、表示するフレームの選択方
法をユーザが適宜指定できるようにしてもよい。また、
表示画面への表示対象に入っている節点座標及びコント
ロールポイントの時刻と同じ時刻を持つフレームは少な
くとも表示するようにしてもよい。
On the other hand, the video information 164 displays image information of a video related to the spatio-temporal area information. For example, an image of all frames or an arbitrary frame of the video is displayed on a plane perpendicular to the time axis in the three-dimensional space and at the time position of the frame to be displayed. Frames to be displayed may be determined by the system according to a predetermined standard such as, for example, every few frames or only frames having nodes, or the user appropriately designates a method of selecting a frame to be displayed. You may be able to. Also,
At least a frame having the same time as the node coordinates and the time of the control point included in the display target on the display screen may be displayed.

【0088】なお、フレーム画像を時間軸に3次元空間
中の垂直な面に表示する以外にも、映像情報を(X,
Y,時間)のボクセル情報と考えて、任意の平面におけ
る断面図を表示してもよい。例えば、(X,時間)平面
や、(Y,時間)平面の断面図を表示することによって
時間的な映像の動きを容易に知ることができる。このよ
うに任意の断面図を表示する際にも、どの断面図を表示
するかはシステム側で決定してもよいし、ユーザに指定
させてもよい。
In addition to displaying the frame image on the vertical plane in the three-dimensional space on the time axis, the video information is represented by (X,
(Y, time), a sectional view on an arbitrary plane may be displayed. For example, by displaying a cross-sectional view of the (X, time) plane or the (Y, time) plane, it is possible to easily know the temporal movement of the image. As described above, when an arbitrary cross-sectional view is displayed, which cross-sectional view is to be displayed may be determined by the system side or may be designated by the user.

【0089】このように、映像情報164を表示するこ
とによって映像に何が描かれているかを参照しながら時
空間領域を編集することが容易となる。例えば、映像中
に描かれているある物体の領域情報を時空間領域情報と
して修正・入力する際には、上記のように映像情報16
4を表示することによって、正確に物体の領域情報を取
り出すことができる。
As described above, by displaying the video information 164, it becomes easy to edit the spatiotemporal region while referring to what is drawn in the video. For example, when the area information of a certain object drawn in an image is corrected and input as spatio-temporal area information, the image information 16
By displaying 4, the area information of the object can be accurately extracted.

【0090】また、映像情報164を表示する際に、映
像情報を加工せずに表示してもよいが、映像情報になん
らかの加工を施して表示してもよい。例えば、フレーム
画像を透明化・半透明化したり、指定された色で塗りつ
ぶししたり、輝度を変えたり、白黒表示したり、解像度
を変えたり、モザイクやその他の画像処理を行ってもよ
い。また、その際に、映像データのうち当該フレームに
おける物体領域を示す近似図形の内部に相当する範囲
と、外部に相当する範囲とで、加工を施すか否かあるい
は加工を施す場合における加工の内容(例えば、半透明
の程度、塗りつぶす色、輝度、解像度など)を異ならせ
るようにしてもよい。また、当該フレームにおける物体
領域を示す近似図形の形状に従い縁取りすることによっ
て、当該フレームにおける領域の形状を表示してもよ
い。また、これらの画像処理は複数個組み合わせて利用
してもよい。
When displaying the video information 164, the video information may be displayed without being processed, or may be displayed with some processing applied to the video information. For example, the frame image may be made transparent or translucent, painted with a specified color, changed in brightness, displayed in black and white, changed in resolution, or subjected to mosaic or other image processing. Also, at this time, whether or not to perform processing or the content of processing when processing is performed in a range corresponding to the inside of the approximate figure indicating the object region in the frame and a range corresponding to the outside in the video data (For example, the degree of translucency, the color to fill, the brightness, the resolution, etc.) may be made different. Alternatively, the shape of the region in the frame may be displayed by framing according to the shape of the approximate figure indicating the object region in the frame. These image processings may be used in combination.

【0091】例えば、表示画面上に同時に数多くのフレ
ームの画像を表示した際には、表示する画像の枚数が多
くなり、ある画像によって他の画像が隠れてしまうこと
があり得る。このような場合に、フレームの画像を半透
明にすることによって、隠れた画像を参照することが容
易となる。また、領域の外部を透明にして表示すること
によって、時空間領域以外の画像が表示されなくなるた
め時空間領域形状を分かりやすく表示することが可能と
なる。
For example, when many frames of images are displayed on the display screen at the same time, the number of images to be displayed increases, and one image may hide another image. In such a case, by making the image of the frame translucent, it becomes easy to refer to a hidden image. Further, by displaying the outside of the region transparently, an image other than the space-time region is not displayed, so that the shape of the space-time region can be displayed in an easily understandable manner.

【0092】また、例えば、本時空間領域情報は、映像
を視聴する際に映像の一部に特殊加工を施して再生する
ための用途に利用することができる。見たくない物体や
見せたくない物が映像中に含まれているときに、それに
モザイクを掛けて表示したり、色あいを変えて不快感を
やわらげたりするための用途に使用することができる。
このように、映像の特殊加工をするための領域を編集す
る際などに、映像情報164にも映像視聴時と同様な特
殊加工を施すことによって、映像がどのように表示され
るかを参照しながら時空間領域情報を編集することがで
きる。
[0092] For example, the spatiotemporal region information can be used for a purpose of performing special processing on a part of the video and reproducing the video when viewing the video. When an object which the user does not want to see or which is not shown is included in the video, the image can be displayed by applying a mosaic thereto, or a color tone can be changed to relieve discomfort.
In this way, when editing an area for performing special processing of a video, the video information 164 is subjected to the same special processing as in the case of viewing a video, so that it is possible to refer to how the video is displayed. While editing the spatio-temporal area information.

【0093】図10に、3次元空間を2次元平面に投影
して表示する場合のグラフィカル・ユーザ・インタフェ
ース(GUI)の画面の一例を示す。
FIG. 10 shows an example of a screen of a graphical user interface (GUI) when a three-dimensional space is projected onto a two-dimensional plane and displayed.

【0094】図10に示されるように、このGUIは、
3次元空間投影部31、ステータス部32、画像特殊表
示ボタン33、画像表示密度ボタン34、画像表示位置
ボタン35、ズームボタン36、注視点移動ボタン3
7、視点移動ボタン38を持つ。
As shown in FIG. 10, this GUI is
3D space projection unit 31, status unit 32, image special display button 33, image display density button 34, image display position button 35, zoom button 36, gazing point movement button 3
7. It has a viewpoint moving button 38.

【0095】3次元空間投影部31は、図9で示される
時空間領域情報を3次元空間中に表示したものを、指定
された投影方法によって2次元平面に投影した画像を表
示するための部分である。
The three-dimensional space projection unit 31 is a part for displaying an image obtained by projecting the spatio-temporal region information shown in FIG. 9 in a three-dimensional space and projecting it on a two-dimensional plane by a specified projection method. It is.

【0096】ステータス部32は、時空間領域や映像の
情報や、節点座標・コントロールポイントを選択した際
にその座標情報などを表示するための部分である。入力
部4によって、ステータス部の情報が書き換えられた場
合には、当該時空間領域情報もそれに従って書き換えら
れる。
The status section 32 is a section for displaying information on the spatio-temporal area and the video, and the coordinate information when the node coordinates / control points are selected. When the information in the status section is rewritten by the input section 4, the spatio-temporal area information is also rewritten in accordance therewith.

【0097】画像特殊表示ボタン33は、映像情報16
4を表示する際に、その加工方法(例えば、領域の内部
や外部を半透明や透明にしたり特殊加工して表示する方
法)を選択するためのボタンである。これはダイアログ
を新たに表示して選択させてもよいし、押すたびに表示
方法が変わるようなインターフェースなど、加工方法が
変更できるようなものであればどのようなものでも構わ
ない。
The image special display button 33 is
4 is a button for selecting a processing method (for example, a method of displaying the inside or the outside of the area translucent or transparent or performing special processing) when displaying the area 4. This may be a new dialog displayed and selected, or any interface that changes the display method each time the button is pressed, as long as the processing method can be changed.

【0098】画像表示密度ボタン34と画像表示位置ボ
タン35は、映像情報164を表示する際に、どのフレ
ームの画像を表示するかをユーザーが指定するためのも
のである。画像表示密度ボタン34で何フレームおきに
表示するかを指定し、画像表示位置ボタン35で表示し
はじめるフレーム位置を指定する。表示しはじめるフレ
ーム位置がhフレーム目で、iフレームおきに表示する
設定のときには、表示されるフレームは、 hフレーム、h+iフレーム、h+(i*2)フレー
ム、… となる。画像表示密度ボタン34と画像表示位置ボタン
35は、このような設定方法以外でも、どのフレームを
表示するかが設定できるようなものであればどのような
ものでも構わない。
The image display density button 34 and the image display position button 35 are used by the user to specify which frame image is to be displayed when the video information 164 is displayed. The image display density button 34 is used to specify the number of frames to be displayed, and the image display position button 35 is used to specify the frame position at which display is started. When the display start frame position is the h-th frame and the display is set to display every i-th frame, the displayed frames are the h-frame, the h + i-frame, the h + (i * 2) -frame, and so on. The image display density button 34 and the image display position button 35 may be of any type other than such a setting method as long as a frame to be displayed can be set.

【0099】ズームボタン36、注視点移動ボタン3
7、視点移動ボタン38は、3次元空間投影部31に表
示する際に、3次元空間から2次元平面にどのように投
影するかを設定するボタンである。視点移動ボタン38
で3次元空間における視点を、注視点移動ボタン37で
3次元空間における注視点を、ズームボタン36で3次
元空間における画角を設定する。これは図10に示され
るインターフェース構成以外にも、投影パラメータが指
定できるようなものであればどのようなものでも構わな
い。
Zoom button 36, gazing point move button 3
7. The viewpoint moving button 38 is a button for setting how to project from the three-dimensional space to the two-dimensional plane when displaying on the three-dimensional space projection unit 31. Viewpoint move button 38
To set the viewpoint in the three-dimensional space, the gazing point moving button 37 to set the gazing point in the three-dimensional space, and the zoom button 36 to set the angle of view in the three-dimensional space. This may be any configuration other than the interface configuration shown in FIG. 10 as long as the projection parameters can be specified.

【0100】次に、時空間領域情報の修正について説明
する。
Next, the correction of the spatio-temporal area information will be described.

【0101】前述したように、ユーザは、GUIに表示
された代表点軌跡の節点座標162やコントロールポイ
ント163を操作して、時空間領域情報の修正(のため
の入力)を行う。
As described above, the user operates the node coordinates 162 and the control points 163 of the representative point locus displayed on the GUI to correct (input for) the spatiotemporal area information.

【0102】修正の基本的なものには、例えば、(1)
コントロールポイントの移動(時間軸方向の移動も含
む)、(2)節点座標の時間軸方向の位置を変えない範
囲での節点座標の移動、(3)時間軸方向の位置の変化
を含む節点座標の移動、(4)代表点の軌跡の近似関数
の次数の増加または減少を伴う修正(例えば、コントロ
ールポイントの追加または削除)、(5)節点座標の追
加または削除(すなわち、近似区間の分離または統
合)、などがある。
Basic corrections include, for example, (1)
Movement of the control point (including movement in the time axis direction), (2) movement of the node coordinates within a range that does not change the position of the node coordinates in the time axis direction, and (3) node coordinates including a change in the position in the time axis direction , (4) a modification involving an increase or decrease of the order of the approximation function of the trajectory of the representative point (for example, addition or deletion of a control point), (5) addition or deletion of node coordinates (that is, separation or approximation of an approximate interval) Integration), and so on.

【0103】すなわち、代表点軌跡は、隣接する2つの
節点座標162と所定数のコントロールポイント163
の座標により一意に決定される。したがって、節点座標
162を追加または削除することによって、代表点軌跡
の節点数を変更することができる。また、節点座標16
2の座標位置を時間方向に変更することにより、節点時
刻を変更することができる。
That is, the representative point trajectory is composed of two adjacent node coordinates 162 and a predetermined number of control points 163.
Is uniquely determined by the coordinates of Therefore, by adding or deleting the node coordinates 162, the number of nodes of the representative point trajectory can be changed. Also, the node coordinates 16
The node time can be changed by changing the coordinate position of No. 2 in the time direction.

【0104】また、コントロールポイント163を追加
または削除することによって、補間関数の次数を変える
ことができる。例えば、2次関数で補間されていて、コ
ントロールポイントが1つ表示されている節点間に新た
にコントロールポイントを1つ追加すると3次関数補間
に変更できる。
The order of the interpolation function can be changed by adding or deleting control points 163. For example, if one control point is newly added between nodes where one control point is displayed while being interpolated by a quadratic function, it can be changed to a cubic function interpolation.

【0105】また、節点座標162とコントロールポイ
ント163を(X,Y)に水平な平面上で動かすことに
よって、代表点軌跡の補間関数形状を変更することがで
きる。このように、節点座標162とコントロールポイ
ント163の追加または削除と座標位置の変更により、
任意の代表点軌跡形状の変更処理が可能となる。
By moving the node coordinates 162 and the control points 163 on a plane horizontal to (X, Y), the interpolation function shape of the representative point locus can be changed. As described above, by adding or deleting the node coordinates 162 and the control points 163 and changing the coordinate positions,
An arbitrary representative point trajectory shape can be changed.

【0106】なお、ある代表点のある節点を時間軸方向
に移動された場合には、他の代表点の同じ時刻情報を持
つ節点にも同じ修正が加えられたものとして扱うように
してもよい。同様に、ある代表点について1つの節点が
追加または削除された場合には、他の代表点についても
同じ時刻情報を持つ節点が追加または削除されたものと
して扱うようにしてもよい(ただし、代表点によって節
点が異なってもよいようなデータ構造を持つ時空間領域
情報では、そのような場合に、他の代表点について同じ
修正が加えられたものとして扱わないようにする方法も
可能である)。
When a certain node at a certain representative point is moved in the time axis direction, the node having the same time information of another representative point may be treated as having the same correction. . Similarly, when one node is added or deleted with respect to a certain representative point, a node having the same time information may be treated as being added or deleted with respect to the other representative points (however, the representative point may be handled as a representative point). In the case of spatio-temporal domain information having a data structure in which nodes may differ depending on points, in such a case, it is possible to prevent other representative points from being treated as having the same modification.) .

【0107】ユーザにより時空間領域情報の修正のため
の入力が行われた場合には、修正内容に応じて、修正が
波及する時空間領域情報の範囲を特定し、該当する部分
を計算して、修正の反映された時空間領域情報を求め
る。
When the user performs an input for correcting the spatio-temporal area information, the range of the spatio-temporal area information to which the correction propagates is specified according to the content of the correction, and the corresponding portion is calculated. , The spatio-temporal area information on which the correction is reflected is obtained.

【0108】例えば、上記の(1)の修正では、修正が
波及する箇所は、該当する代表点のXY各座標の軌跡デ
ータ(図5の105)のうち、修正されたコントロール
ポイントを含む近似区間の多項式係数(図6の155)
となる。
For example, in the above-mentioned correction (1), the portion to which the correction spreads is the approximate section including the corrected control point in the locus data (105 in FIG. 5) of the XY coordinates of the corresponding representative point. Polynomial coefficient of (155 in FIG. 6)
Becomes

【0109】また、例えば、上記の(2)の修正では、
節点座標をXY平面内で移動させることによって、修正
された当該節点座標を含む2つの隣接する近似区間に修
正が波及し、修正が波及する箇所は、該当する代表点の
XY各座標の軌跡データ(図5の105)のうち、修正
された節点座標を含む各近似区間の多項式係数(図6の
155)となる。
For example, in the above modification (2),
By moving the node coordinates in the XY plane, the correction spreads to two adjacent approximate sections including the corrected node coordinates, and the portion where the correction spreads is the locus data of the XY coordinates of the corresponding representative point. Of (105 in FIG. 5), the polynomial coefficients (155 in FIG. 6) of each approximation section including the corrected nodal coordinates are obtained.

【0110】また、例えば、上記の(3)の修正では、
節点座標について時間軸方向成分を含む移動をさせるこ
とによって、当該節点座標を含む2つの隣接する近似区
間に修正が波及し、上記の(2)に図6の節点時刻15
3の修正が加わる。
Further, for example, in the above modification (3),
By moving the node coordinates including the component in the time axis direction, the correction spreads to two adjacent approximation sections including the node coordinates.
3 modifications are added.

【0111】また、例えば、上記の(4)の修正では、
修正が波及する箇所は、該当する代表点のXY各座標の
軌跡データ(図5の105)のうち、修正されたコント
ロールポイントを含む近似区間の多項式次数(図6の1
54)、多項式係数(図6の155)となる。
Further, for example, in the above modification (4),
In the locus data (105 in FIG. 5) of the XY coordinates of the corresponding representative point, the polynomial degree of the approximate section including the corrected control point (1 in FIG. 6)
54), and the polynomial coefficients (155 in FIG. 6).

【0112】(1)〜(4)のそれぞれのケースにおい
て、時空間領域情報編集処理部5は、修正後の節点座標
162とコントロールポイント163により特定される
代表点軌跡(に対応する近似関数のパラメータ)を求
め、該当するX座標の軌跡データとY座標の軌跡データ
を修正する。
In each of the cases (1) to (4), the spatio-temporal region information editing processing unit 5 executes the processing of the approximate function of the representative point locus (corresponding to the representative point locus specified by the modified node coordinates 162 and the control point 163. Parameter), and correct the corresponding X-coordinate locus data and Y-coordinate locus data.

【0113】また、例えば、上記の(5)の修正では、
節点座標の増加の場合には、該当する代表点のXY各座
標の軌跡データ(図5の105)のうち、新たに節点座
標が付加された近似区間のデータ(図6の156)に修
正が波及し、該近似区間が分割され、近似区間のデータ
(図6の156)が1つ増加することになる。時空間領
域情報編集処理部5は、時空間領域情報のうち、該する
近似区間のデータ(図6の156)の前または後ろに、
1つの近似区間のデータ(図6の156)を挿入し、分
割により発生した新たな2つの近似区間について、それ
ぞれ、修正後の節点座標162とコントロールポイント
163により特定される代表点軌跡(に対応する近似関
数のパラメータ)を求め、該当するX座標の軌跡データ
とY座標の軌跡データを修正する。
Further, for example, in the above modification (5),
In the case of an increase in the node coordinates, of the trajectory data of the XY coordinates of the corresponding representative point (105 in FIG. 5), the data of the approximate section to which the node coordinates are newly added (156 in FIG. 6) is modified. This causes the approximation section to be divided, and the data of the approximation section (156 in FIG. 6) is increased by one. The spatio-temporal area information editing processing unit 5 outputs, before or after the data of the approximate section (156 in FIG. 6) in the spatio-temporal area information,
Data of one approximation section (156 in FIG. 6) is inserted, and two new approximation sections generated by the division correspond to the representative point locus (corresponding to the modified node coordinates 162 and the control point 163, respectively). And the corresponding locus data of the X coordinate and the locus data of the Y coordinate are corrected.

【0114】また、例えば、上記の(5)の修正では、
節点座標の減少の場合には、該当する代表点のXY各座
標の軌跡データ(図5の105)のうち、削除された節
点座標を含んでいた2つの近似区間のデータ(図6の1
56)に修正が波及し、該近似区間が統合され、近似区
間のデータ(図6の156)が1つ減少することにな
る。時空間領域情報編集処理部5は、時空間領域情報の
うち、該する近似区間のデータ(図6の156)のいず
れか1つを削除し、分割により発生した新たな1つの近
似区間について、修正後の節点座標162とコントロー
ルポイント163により特定される代表点軌跡(に対応
する近似関数のパラメータ)を求め、該当するX座標の
軌跡データとY座標の軌跡データを修正する。
For example, in the above modification (5),
In the case of a decrease in the node coordinates, of the locus data of the XY coordinates of the corresponding representative point (105 in FIG. 5), data of two approximate sections including the deleted node coordinates (1 in FIG. 6).
The correction is propagated to 56), the approximate sections are integrated, and the data of the approximate sections (156 in FIG. 6) is reduced by one. The spatio-temporal region information editing processing unit 5 deletes any one of the data of the approximation section (156 in FIG. 6) from the spatio-temporal region information, and calculates a new approximation section generated by the division. The trajectory of the representative point specified by the modified node coordinates 162 and the control point 163 (the parameter of the approximate function corresponding to the trajectory) is obtained, and the corresponding trajectory data of the X coordinate and the trajectory data of the Y coordinate are corrected.

【0115】また、複数の修正入力を行った後に一括し
て時空間領域情報を修正する場合にも、同様にして、時
空間領域情報のうち修正が波及する部分について修正後
の値を計算し、該当するX座標の軌跡データとY座標の
軌跡データを修正する。
When the spatiotemporal region information is collectively corrected after a plurality of correction inputs are performed, similarly, the corrected value is calculated for a portion of the spatiotemporal region information to which the correction spreads. The corresponding X coordinate locus data and Y coordinate locus data are corrected.

【0116】なお、修正内容によっては、図5の先頭時
刻102、最終時刻103、図6の節点数151、先頭
節点時刻152が修正されることもある。
Note that the start time 102, the end time 103 in FIG. 5, the number of nodes 151, and the start node time 152 in FIG. 6 may be corrected depending on the contents of the correction.

【0117】また、図5の形状フラグ104を(メニュ
ー選択などによって)修正指示可能としてもよい。
The shape flag 104 shown in FIG. 5 may be instructed to be modified (by menu selection or the like).

【0118】なお、図10のGUIにおいては、上記の
ような節点座標162やコントロールポイント163の
追加や削除や座標位置の変更によって時空間領域情報が
変化したときには、直ちに表示画面に変更された時空間
領域情報に対する表示を行うとよい。常に最新の時空間
領域情報を表示することによって、直感的な操作が可能
となる。
In the GUI of FIG. 10, when the spatio-temporal area information changes due to the addition or deletion of the node coordinates 162 or the control point 163 or the change of the coordinate position, the display screen is immediately changed to the display screen. It is preferable to display the spatial area information. By always displaying the latest spatio-temporal area information, intuitive operation becomes possible.

【0119】節点座標162とコントロールポイント1
63の追加削除や座標位置の変更は、マウスやキーボー
ドなど情報が入力できるものであればどのようなものに
よってもよい。ただし、これら座標の変更は3次元空間
中における移動をサポートする必要があるため、通常の
マウスなど2次元移動しか行えないようなポインティン
グデバイスによって入力を行う際には、XY方向と時間
方向の移動操作を分けるなど、なんらかの3次元的移動
が行えるようにすればよい。例えば、マウスを利用して
座標位置を変更したいときには、通常のマウスの移動で
は(X,Y)平面上での移動になり、マウスのあるボタ
ンやキーボードのあるボタンを押しながらマウスを移動
させたときには時間方向の移動になるなどの方法があ
る。また、3次元マウスを利用してもよい。
Node coordinates 162 and control point 1
The addition and deletion of 63 and the change of the coordinate position may be performed by any device such as a mouse or a keyboard as long as information can be input. However, since these coordinate changes need to support movement in a three-dimensional space, when input is performed using a pointing device such as a normal mouse that can perform only two-dimensional movement, movement in the XY direction and the time direction is performed. What is necessary is just to allow some sort of three-dimensional movement, such as dividing the operation. For example, when it is desired to change the coordinate position using the mouse, the normal mouse movement is a movement on the (X, Y) plane, and the mouse is moved while pressing a button with a mouse or a button with a keyboard. Sometimes there are methods such as moving in the time direction. Further, a three-dimensional mouse may be used.

【0120】ところで、(ある代表点について節点を追
加することによって他の代表点にも節点を追加する場合
に)節点を追加する際には、節点時刻における領域形状
を正確にできるだけ推定することによって、その後の修
正作業量を大幅に減らすことが可能となる。すなわち、
追加する初期形状が正確なほど効率的に作業が行える。
そのため、現在までに入力された代表点軌跡形状から節
点時刻における代表点座標を推定して初期形状とすると
好ましい。節点時刻における代表点座標を推定する手法
はどのようなものでもよいが、例えば、追加する節点時
刻に最も近い既にある代表点軌跡関数から、節点時刻に
おける座標を算出し、その座標を追加する代表点座標の
初期値とすればよい。その他にも、他の代表点軌跡情報
を利用して、極端な誤差をなくしたり、映像情報の輝度
エッジに近づけるなどの処理を行ってもよい。
By the way, when a node is added (when a node is added to another representative point by adding a node to a certain representative point), the region shape at the node time is estimated as accurately as possible. Thus, the amount of subsequent correction work can be greatly reduced. That is,
The more accurate the initial shape to be added, the more efficiently the work can be performed.
Therefore, it is preferable that the representative point coordinates at the node time are estimated from the representative point trajectory shapes input up to the present time and used as the initial shape. Any method of estimating the coordinates of the representative point at the node time may be used.For example, the coordinates at the node time are calculated from the existing representative point trajectory function closest to the node time to be added, and the representative to add the coordinates is calculated. The initial value of the point coordinates may be used. In addition, other representative point trajectory information may be used to perform processing such as eliminating an extreme error or approaching a luminance edge of video information.

【0121】このように、時空間領域情報を3次元空間
中に表示することで、時空間領域形状を全体的に把握す
ることが容易となる。これにより前後フレームの関係を
見ながら時空間領域形状を編集することが簡単にできる
という利点がある。
By displaying the spatio-temporal region information in the three-dimensional space, it is easy to grasp the shape of the spatio-temporal region as a whole. This has the advantage that the spatio-temporal region shape can be easily edited while observing the relationship between the front and rear frames.

【0122】ところで、図10のGUIの例では、1つ
の物体領域を示す近似図形の各代表点の時間的推移の軌
跡を表示し、1つの近似図形についての時空間領域情報
を修正対象とした。図10のGUIの例において、表示
対象範囲に複数の時空間領域情報が存在する場合には、
例えば、時空間領域情報をユーザが選択可能とし、ユー
ザが編集対象として選択した1つの時空間領域情報につ
いて表示し、該1つの時空間領域情報を修正対象とする
ようにしてもよい。
In the example of the GUI shown in FIG. 10, the trajectory of the temporal transition of each representative point of the approximate figure representing one object area is displayed, and the spatio-temporal area information on one approximate figure is to be corrected. . In the example of the GUI in FIG. 10, when a plurality of spatio-temporal area information exists in the display target range,
For example, the spatio-temporal region information may be selectable by the user, one spatio-temporal region information selected by the user as an editing target may be displayed, and the one spatio-temporal region information may be set as a correction target.

【0123】また、表示対象範囲に複数の時空間領域情
報が存在する場合に、複数の時空間領域情報についての
表示を同時に行い、例えばユーザが選択した1又は複数
の時空間領域情報あるいは表示されているすべての時空
間領域情報を修正可能とすることも可能である。
When a plurality of pieces of spatio-temporal area information are present in the display target range, a plurality of pieces of spatio-temporal area information are simultaneously displayed, for example, one or a plurality of pieces of spatio-temporal area information selected by the user or displayed. It is also possible to make all the spatiotemporal domain information that can be modified.

【0124】また、同時に複数の時空間領域情報を表示
する場合に、すべての時空間領域情報について近似曲線
(及び映像情報(例えば、キーフレーム))を表示する
ようにしてもよいが、例えばユーザが選択した1又は複
数の時空間領域情報についてのみ近似曲線(及び映像情
報(例えば、キーフレーム))を表示し、他の時空間領
域情報については映像情報(例えば、キーフレーム)の
み表示するようにしてもよい。
When a plurality of pieces of spatiotemporal area information are displayed at the same time, approximate curves (and video information (eg, key frames)) may be displayed for all pieces of spatiotemporal area information. Displays approximate curves (and video information (eg, key frames)) only for one or more selected spatio-temporal region information, and displays only video information (eg, key frames) for other spatio-temporal region information. It may be.

【0125】また、同時に複数の時空間領域情報を表示
する場合に、各時空間領域情報に関する表示を、色ある
いは線種などで分けて表示するようにしてもよい。
When a plurality of pieces of spatio-temporal area information are displayed at the same time, the display relating to each piece of spatio-temporal area information may be displayed separately by color or line type.

【0126】また、同時に複数の時空間領域情報を表示
する場合に、これまのでように同一の3次元空間投影部
31に、複数の時空間領域情報に関する表示を行うので
はなく、3次元空間投影部31を複数設け、複数の時空
間領域情報に関する表示を、それぞれ別々の3次元空間
投影部31にて行うようにしてもよい。
When displaying a plurality of pieces of spatio-temporal area information at the same time, instead of displaying a plurality of pieces of spatio-temporal area information on the same three-dimensional space projection section 31 as in the past, the three-dimensional space information is displayed. A plurality of projection units 31 may be provided, and the display relating to the plurality of spatio-temporal region information may be performed by separate three-dimensional space projection units 31, respectively.

【0127】もちろん、図10のGUIは一例であり、
その他にも、種々のバリエーションが可能である。
Of course, the GUI in FIG. 10 is an example,
In addition, various variations are possible.

【0128】図11に、本時空間領域情報処理システム
の時空間領域情報編集処理部5の処理手順の一例を示
す。
FIG. 11 shows an example of the processing procedure of the spatiotemporal region information editing processing section 5 of the spatiotemporal region information processing system.

【0129】まず、時空間領域情報記憶部2に記憶され
ている時空間領域情報を読み込むとともに、当該時空間
領域情報に関連する映像情報を映像情報記憶部1から読
み込む(ステップS1)。
First, the spatio-temporal region information stored in the spatio-temporal region information storage unit 2 is read, and video information related to the spatio-temporal region information is read from the video information storage unit 1 (step S1).

【0130】次に、所定の表示方法で3次元空間投影部
31に時空間領域情報を表示するための処理を行う(ス
テップS2)。例えば、近似図形の外形や近似図形の代
表点軌跡や節点座標やコントロールポイントの算出や表
示が行われる。また、所定の表示方法で3次元空間投影
部31に映像情報を表示する(ステップS3)。すなわ
ち、必要に応じて施す透明・半透明処理あるいはモザイ
クなどの特殊加工や表示が行われる。なお、ステップS
2とステップS3は、逆の順序で行ってもよいし、同時
に行ってもよい。
Next, processing for displaying spatio-temporal region information on the three-dimensional space projection unit 31 by a predetermined display method is performed (step S2). For example, calculation and display of the outer shape of the approximate figure, the locus of the representative point of the approximate figure, the coordinates of the nodes, and the control points are performed. The video information is displayed on the three-dimensional space projection unit 31 by a predetermined display method (step S3). That is, special processing or display such as transparent / translucent processing or mosaic processing to be performed as necessary is performed. Step S
Step 2 and step S3 may be performed in the reverse order or may be performed simultaneously.

【0131】次に、ユーザからの入力を受け付ける(ス
テップS4,S5)。
Next, an input from the user is received (steps S4, S5).

【0132】ユーザから表示方法に関する入力(例え
ば、図10の画像特殊表示ボタン33、画像表示密度ボ
タン34、画像表示位置ボタン35、ズームボタン3
6、注視点移動ボタン37、視点移動ボタン38などの
入力)があった場合には(ステップS6)、表示方法の
設定を変更し(ステップS7)、変更した表示方法の設
定に従って、ステップS2及び又はステップS3を再度
行う。そして、再度、ユーザからの入力待ち状態に戻る
(ステップS4,S5)。
Inputs from the user regarding the display method (for example, the image special display button 33, the image display density button 34, the image display position button 35, and the zoom button 3 in FIG. 10)
6. If there is an input of the gazing point moving button 37, the viewpoint moving button 38, etc. (step S6), the setting of the display method is changed (step S7), and according to the changed setting of the display method, the steps S2 and S2 are performed. Alternatively, step S3 is performed again. Then, the process returns to the state of waiting for input from the user again (steps S4 and S5).

【0133】ユーザから修正に関する入力(例えば、前
述したような図10の3次元空間投影部31での入力、
ステータス部32での入力)があった場合には(ステッ
プS8)、時空間領域情報の修正の処理を行い(ステッ
プS9)、そして、ステップS2及び又はステップS3
を再度行う。そして、再度、ユーザからの入力待ち状態
に戻る(ステップS4,S5)。
An input relating to correction from the user (for example, an input at the three-dimensional space projection unit 31 in FIG.
If there is an input in the status section 32 (step S8), the process of correcting the spatio-temporal area information is performed (step S9), and step S2 and / or step S3 are performed.
Again. Then, the process returns to the state of waiting for input from the user again (steps S4 and S5).

【0134】また、その他の入力があった場合には(ス
テップS10)、該当する処理を行って(ステップS1
1)、必要に応じてステップS2及び又はステップS3
を行い、そして、ユーザからの入力待ち状態に戻る(ス
テップS4,S5)。
If there is another input (step S10), the corresponding processing is performed (step S1).
1) If necessary, step S2 and / or step S3
And returns to a state of waiting for input from the user (steps S4 and S5).

【0135】そして、例えばマウスにより終了ボタンが
押され、あるいは終了コマンドが入力されるなどによっ
て、この編集の終了の指示が入力された場合には(ステ
ップS10)、修正した時空間領域情報を、時空間領域
情報記憶部2に保存する(ステップS12)。
Then, when an instruction to end the editing is input (step S10), for example, when the end button is pressed by a mouse or an end command is input (step S10), the corrected spatio-temporal area information is It is stored in the spatiotemporal area information storage unit 2 (step S12).

【0136】ところで、ステップS9の時空間領域情報
の修正の処理においては、1つの節点座標やコントロー
ルポイントの修正が入力されたときに、直ちに、修正さ
れた時空間領域情報を求め、表示に反映させる方法と、
節点座標やコントロールポイントの修正が任意に繰り返
し(このときは、節点座標やコントロールポイントの移
動だけ表示に反映させる)、その後に、決定を示す入力
がなされたときに、一括して、修正された時空間領域情
報を求め、修正後の代表点軌跡の曲線などを表示に反映
させる方法などがある。
In the process of correcting the spatiotemporal area information in step S9, when the correction of one node coordinate or control point is input, the corrected spatiotemporal area information is immediately obtained and reflected on the display. How to make
Modification of the node coordinates and control points is repeated arbitrarily (in this case, only the movement of the node coordinates and control points is reflected in the display), and then, when an input indicating a decision is made, the corrections are collectively corrected. There is a method of obtaining spatio-temporal region information and reflecting the corrected curve of the representative point locus on the display.

【0137】図12に、前者の場合のステップS9の処
理手順の一例を示す。この場合、修正指示の内容を取得
し(ステップS21)、時空間領域情報のうち修正が波
及する箇所を特定し(ステップS22)、時空間領域情
報の該当部分を計算する(ステップS23)。この場合
には、次のステップS2及び又はステップS3におい
て、修正後の時空間領域情報に基づいた表示が行われ
る。
FIG. 12 shows an example of the processing procedure of step S9 in the former case. In this case, the content of the correction instruction is acquired (step S21), a portion of the spatiotemporal area information to which the correction spreads is specified (step S22), and a corresponding portion of the spatiotemporal area information is calculated (step S23). In this case, in the next step S2 and / or step S3, display based on the corrected spatiotemporal region information is performed.

【0138】また、図13に、後者の場合のステップS
9の処理手順の一例を示す。この場合、修正内容の指示
ならば(ステップS31)、修正指示の内容を取得して
保持しておき(ステップS32)、決定の指示ならば
(ステップS31)、保持されている全修正内容によっ
て時空間領域情報のうち修正が波及する箇所を特定し
(ステップS33)、時空間領域情報の該当部分を計算
する(ステップS34)。この場合には、決定の指示が
入力されたときに、修正後の時空間領域情報に基づいた
表示が行われる。
FIG. 13 shows step S in the latter case.
9 shows an example of the processing procedure of No. 9. In this case, if the instruction is for the correction content (step S31), the content of the correction instruction is acquired and held (step S32). The location to which the correction spreads out of the spatial area information is specified (step S33), and the corresponding part of the spatiotemporal area information is calculated (step S34). In this case, when a determination instruction is input, a display based on the corrected spatiotemporal region information is performed.

【0139】なお、決定の指示を入力するまでは、例え
ば修正後の節点座標やコントロールポイントの位置など
が画面に表示されるが、その際に、修正前の節点座標や
コントロールポイントをも表示して修正内容が分かるよ
うにする方法や、修正前の節点座標やコントロールポイ
ントは画面では消去する方法などがある(前者の場合に
は、修正前後の節点座標やコントロールポイントが区別
できるように異なる形態で表示すると好ましい)。
Until an instruction for determination is input, for example, the coordinates of the modified nodes and the positions of the control points are displayed on the screen. At this time, the coordinates of the modified nodes and the control points before the modification are also displayed. There is a method to make the contents of the corrections understandable, and a method to delete the node coordinates and control points before the correction on the screen (in the former case, a different form is used so that the node coordinates and the control points before and after the correction can be distinguished) It is preferable to display with.).

【0140】また、例えば、ユーザが節点座標やコント
ロールポイントをマウス等で選択して移動させている際
に、リアルタイムで、節点座標やコントロールポイント
を当該位置に移動させたとしたときの軌跡を計算して
(例えば現在の軌跡とは異なる表示形態で)表示するよ
うにしてもよい。
Further, for example, when the user selects and moves the node coordinates and the control points with a mouse or the like, the trajectory is calculated in real time when the node coordinates and the control points are moved to the positions. (For example, in a display form different from the current track).

【0141】なお、上記の手順では、一連の処理が終了
する際に、ステップS12で修正後の時空間領域情報を
時空間領域情報記憶部2に保存したが、ステップS9に
おいて修正後の時空間領域情報を時空間領域情報記憶部
2に保存してしまう方法もある。
In the above procedure, when a series of processing ends, the spatiotemporal area information after correction is stored in the spatiotemporal area information storage unit 2 in step S12. There is also a method of storing the area information in the spatiotemporal area information storage unit 2.

【0142】また、この修正について、いわゆるアンド
ゥー、リドゥーを任意に可能としてもよい。
For this modification, so-called undo and redo may be arbitrarily made possible.

【0143】もちろん、これまで説明した手順は一例で
あり、その他にも種々のバリエーションが可能である。
Of course, the procedure described so far is only an example, and various other variations are possible.

【0144】さて、前述したように、本発明は、種々の
データ構造の時空間領域情報に適用可能である。
As described above, the present invention is applicable to spatio-temporal domain information having various data structures.

【0145】以下では、図5及び図6とは異なるデータ
構造の時空間領域情報に本発明を適用した場合について
説明する。
The case where the present invention is applied to spatio-temporal area information having a data structure different from those in FIGS. 5 and 6 will be described below.

【0146】図14に、時空間領域情報のデータ構造の
他の例を示す。図14に示されるように、本例の時空間
領域情報は、ID番号301、先頭時刻302、最終時
刻303、参照領域フラグ304、参照領域形状情報3
05、変換形式フラグ306、軌跡データ307を含む
ものである。
FIG. 14 shows another example of the data structure of the spatio-temporal area information. As shown in FIG. 14, the spatio-temporal area information of this example includes an ID number 301, a start time 302, an end time 303, a reference area flag 304, and reference area shape information 3
05, a conversion format flag 306, and trajectory data 307.

【0147】ID番号301と、先頭時刻302と、最
終時刻303とは、図5におけるID番号101、先頭
時刻102、最終時刻103のそれぞれと同等の意味を
持つ。
The ID number 301, the start time 302, and the end time 303 have the same meaning as the ID number 101, the start time 102, and the end time 103 in FIG.

【0148】参照領域フラグ304は、参照領域の形状
がどのように表現されているかを示すものである。参照
領域の形状は、例えば、矩形、楕円、多角形などで表現
されているため、それらを一意に区別するような情報が
記述される。多角形の場合は、頂点数情報も参照領域フ
ラグに付加される。
The reference area flag 304 indicates how the shape of the reference area is represented. Since the shape of the reference area is represented by, for example, a rectangle, an ellipse, a polygon, or the like, information that uniquely distinguishes them is described. In the case of a polygon, vertex number information is also added to the reference area flag.

【0149】参照領域形状情報305は、参照領域形状
を格納するためのものである。例えば、参照領域形状が
矩形や多角形のときは、各頂点の座標、参照領域形状が
楕円のときは、外接矩形の頂点座標や、中心点、長軸短
軸の長さなどのパラメータが格納される。
The reference area shape information 305 is for storing a reference area shape. For example, if the reference area shape is a rectangle or polygon, the coordinates of each vertex are stored.If the reference area shape is an ellipse, the parameters such as the vertex coordinates of the circumscribed rectangle, the center point, and the length of the major axis and minor axis are stored. Is done.

【0150】変換形式フラグ306は、参照領域から各
フレームにおける時空間領域情報への領域変換を示す変
換パラメータがどのような形式で示されているかを示す
ものである。領域変換を示す変換パラメータの形式に
は、例えば、平行移動、一次変換、アフィン変換などが
あるため、それらを一意に区別するような情報が記述さ
れる。
The conversion format flag 306 indicates the format in which the conversion parameter indicating the region conversion from the reference region to the spatiotemporal region information in each frame is indicated. Since the format of the conversion parameter indicating the area conversion includes, for example, translation, primary conversion, affine transformation, and the like, information that uniquely distinguishes them is described.

【0151】軌跡データ307は、参照領域から各フレ
ームにおける時空間領域情報への領域変換を示す変換パ
ラメータのそれぞれの軌跡を記述するためのものであ
る。これは例えば図6に示されるような軌跡データのデ
ータ構造を持つ。変換パラメータは複数持つことが多い
ため、軌跡データも変換パラメータの数だけ記述され
る。軌跡データの数は、変換形式フラグ607によって
一意に決まり、例えば、平行移動のときは2つ、一次変
換の時は4つ、アフィン変換のときは6つである。軌跡
データの順番は、変換パラメータの意味によって決めて
おき、例えば、以下のようにする。時刻tの関数である
パラメータの軌跡データがz1(t),z2(t),…と
並んでいるとき、参照領域上のある点p=(px,py)
が領域変換によって変換された軌跡を、P(t)=(P
x(t),Py(t))とすると、 1: 平行移動のとき Px(t)=px+z1(t) Py(t)=py+z2(t) 2: 一次変換のとき Px(t)=px*z1(t)+py*z2(t) Py(t)=px*z3(t)+py*z4(t) 3: アフィン変換のとき Px(t)=px*z1(t)+py*z2(t)+z3
(t) Py(t)=px*z4(t)+py*z5(t)+z6
(t) パラメータの軌跡データz1(t),z2(t),…が、
n次多項式で表されているとき、上式よりPx(t),
Py(t)もやはりn次多項式で表すことが可能とな
る。
The trajectory data 307 is for describing each trajectory of the conversion parameter indicating the area conversion from the reference area to the spatio-temporal area information in each frame. This has a data structure of the trajectory data as shown in FIG. 6, for example. Since there are many conversion parameters in many cases, the trajectory data is described by the number of conversion parameters. The number of trajectory data is uniquely determined by the conversion format flag 607, and is, for example, two for parallel movement, four for primary conversion, and six for affine conversion. The order of the trajectory data is determined according to the meaning of the conversion parameter, and is, for example, as follows. When the locus data of the parameter as a function of the time t is aligned with z1 (t), z2 (t),..., A point p = (px, py)
Is the trajectory converted by the domain conversion, P (t) = (P
x (t), Py (t)): 1: For parallel movement Px (t) = px + z1 (t) Py (t) = py + z2 (t) 2: For linear transformation Px (t) = px * z1 (t) + py * z2 (t) Py (t) = px * z3 (t) + py * z4 (t) 3: For affine transformation Px (t) = px * z1 (t) + py * z2 (t) + Z3
(T) Py (t) = px * z4 (t) + py * z5 (t) + z6
(T) The locus data z1 (t), z2 (t),.
When represented by an n-th order polynomial, Px (t),
Py (t) can also be represented by an n-th order polynomial.

【0152】この場合の時空間領域情報処理装置の構成
例は、図7や図8で示される構成例と同様である。以下
では、先に説明したような図5及び図6のデータ構造の
時空間領域情報に本発明を適用した場合の構成例と相違
する点について説明する。
The configuration example of the spatio-temporal area information processing apparatus in this case is the same as the configuration examples shown in FIG. 7 and FIG. Hereinafter, points different from the configuration example in the case where the present invention is applied to the spatio-temporal region information of the data structure of FIGS. 5 and 6 described above will be described.

【0153】時空間領域情報編集処理部5は、本例の時
空間領域情報を表示するために、基本的には前述したも
のと同様の機能を持つが、時空間領域情報のデータ構造
が異なるため、上式より代表点軌跡に変換してから表示
することになる。ユーザにより代表点軌跡のキーフレー
ムにおける節点座標162やコントロールポイント16
3が移動された場合には、各変換パラメータを算出し
て、変更された変換パラメータに従ってすべての代表点
軌跡を変更する。
The spatio-temporal region information editing processing section 5 has basically the same function as that described above in order to display the spatio-temporal region information of this example, but the data structure of the spatio-temporal region information is different. Therefore, the trajectory is converted into the representative point trajectory according to the above equation and then displayed. The node coordinates 162 and the control points 16 in the key frame of the representative point locus are set by the user.
When 3 has been moved, each conversion parameter is calculated, and all representative point trajectories are changed in accordance with the changed conversion parameter.

【0154】この場合の処理手順例は、図11や図12
あるいは図13と同様である。
Examples of the processing procedure in this case are shown in FIGS.
Or it is the same as FIG.

【0155】このようにすることにより、参照領域と参
照領域から該フレームにおける時空間領域情報への領域
変換を示す変換パラメータにより記述した時空間領域情
報においても、各代表点の軌跡として記述された時空間
領域情報と同様に編集を行うことができる。
By doing so, the reference area and the spatio-temporal area information described by the conversion parameter indicating the area conversion from the reference area to the spatio-temporal area information in the frame are also described as the trajectories of the respective representative points. Editing can be performed similarly to the spatio-temporal area information.

【0156】もちろん、本時空間領域情報処理システム
は、複数種類のデータ構造の時空間領域情報を扱うよう
にすることもできる。この場合には、時空間領域情報
に、データ構造を識別するための識別情報を付加し、時
空間領域情報処理システムは、時空間領域情報を処理す
るに際して、その識別情報を参照して、データ構造を特
定し、そのデータ構造に応じた処理を行うようにすれば
よい。
Of course, the spatio-temporal region information processing system can also handle spatio-temporal region information having a plurality of types of data structures. In this case, the spatio-temporal domain information is added with identification information for identifying the data structure, and the spatio-temporal domain information processing system refers to the identification information when processing the spatio-temporal domain information, and What is necessary is just to specify a structure and to perform processing according to the data structure.

【0157】さて、以下では、さらに、本発明を適用す
る時空間領域情報のバリエーションについていくつか説
明する。
Now, some variations of the spatio-temporal domain information to which the present invention is applied will be described below.

【0158】まず、表示フラグを付加したデータ構造を
持つ時空間領域情報について説明する。
First, spatio-temporal area information having a data structure with a display flag added will be described.

【0159】まず、この表示フラグを含む時空間領域情
報について説明する。
First, the spatio-temporal area information including the display flag will be described.

【0160】この時空間領域情報は、映像中の物体につ
いて、画面上でその物体(またはその一部)が見えてい
る状態にあるか、他の物体の陰に隠れているなどして見
えていない状態にあるかを示す表示フラグに関する表示
フラグ情報を含むものである。
This spatio-temporal region information indicates that the object (or a part thereof) of the object in the video is visible on the screen or hidden behind another object. It includes display flag information relating to a display flag indicating whether there is no state.

【0161】例えば図15の(a)〜(c)のように、
映像中に複数の物体が存在している場合、ある物体21
01が別の物体2102によって隠れたり、現れたりす
るということがよくある。この状態を記述するため、時
空間領域情報に表示フラグ情報を追加する。
For example, as shown in FIGS.
When a plurality of objects are present in the video, an object 21
Often 01 is hidden or revealed by another object 2102. To describe this state, display flag information is added to the spatiotemporal area information.

【0162】表示フラグは、対象物体ごとに与える方法
と、対象物体の近似図形の代表点毎に与える方法があ
る。
The display flag can be provided for each target object or for each representative point of an approximate figure of the target object.

【0163】表示フラグを対象物体ごとに与える場合、
表示フラグが立っているときは、その物体が隠れていな
いことを示し、再生時には、その物体を表示する。表示
フラグが立っていないときは、その物体が隠れているこ
とを示し、再生時には、その物体を表示しない。
When a display flag is given for each target object,
When the display flag is set, it indicates that the object is not hidden, and at the time of reproduction, the object is displayed. When the display flag is not set, it indicates that the object is hidden, and the object is not displayed during reproduction.

【0164】表示フラグを対象物体の近似図形の代表点
ごとに与える場合、1つの対象物体の近似図形における
全ての代表点の表示フラグが同一の状態ならば上記と同
様であるが、表示フラグが立っている代表点と、表示フ
ラグが立っていない代表点が混在するならば、その状況
を考慮して当該物体の表示を行う(例えば当該物体の該
当する一部分のみ表示する)。
When the display flags are given for each representative point of the approximate figure of the target object, the same as above if the display flags of all the representative points in the approximate figure of one target object are the same, If the standing representative points and the representative points for which the display flag is not standing are mixed, the object is displayed in consideration of the situation (for example, only a corresponding part of the object is displayed).

【0165】表示フラグは、各キーポイント間ごとに設
定され、物体領域の代表点軌跡データを作成するときに
同時に決定される。なお、キーポイントは、近似関数の
節点と無関係に設けられてもよいが、キーポイントは必
ず節点になるようにしてもよい。例えば、キーポイント
が発生した場合には、強制的にその時点を節点とする方
法がある。
The display flag is set for each key point, and is determined at the same time when the representative point trajectory data of the object area is created. The key points may be provided independently of the nodes of the approximation function, but the key points may always be nodes. For example, when a key point occurs, there is a method of forcibly setting that point as a node.

【0166】表示フラグを対象物体ごとに与える場合、
キーポイントは、物体が現れている状態から隠れてる状
態に移るときと、隠れている状態から現れている状態に
移るときに設定される。図15の例において、物体22
01は、フレームiまでは現れていて、フレームiから
jは隠れ、フレームj以降はまた現れるとき、フレーム
iとjにキーポイントを置き、フレームiからjまでの
表示フラグには隠れ状態を、それ以外のフレームの表示
フラグには現れ状態を設定する。表示フラグを対象物体
の近似図形の代表点ごとに与える場合も同様である。
When a display flag is given for each target object,
The key points are set when the object shifts from the appearing state to the hidden state and when the object shifts from the hidden state to the appearing state. In the example of FIG.
01 shows up to frame i, hides from frame i to j, and when it appears again after frame j, puts key points on frames i and j and hides the display flag from frame i to j, Appearance states are set for the display flags of the other frames. The same applies to the case where the display flag is given for each representative point of the approximate figure of the target object.

【0167】代表点軌跡データ作成時は、全フレームに
渡って物体が現れているものとして作成し、物体が隠れ
ているため代表点の情報がわからない場合は、分かって
いる前後の代表点の情報より補完することによって、代
表点軌跡データを作成する。そして、代表点軌跡データ
を作成した後、物体が現れているか隠れているかに応じ
て表示フラグを設定する。このため、一つの物体に関し
ては物体が隠れたり現れたりしても一連の代表点軌跡デ
ータで表現することが可能となる。
When the representative point locus data is created, it is created assuming that the object appears over all the frames. If the information of the representative point is not known because the object is hidden, the information of the representative point before and after is known. By complementing the data, representative point trajectory data is created. Then, after creating the representative point trajectory data, a display flag is set according to whether the object is appearing or hiding. Therefore, even if one object is hidden or appears, it can be represented by a series of representative point trajectory data.

【0168】以下、表示フラグ情報のバリエーションに
ついて説明する。
Hereinafter, variations of the display flag information will be described.

【0169】通常、表示フラグは各キーポイント間ごと
に設定されるが、表示フラグ自体に開始タイムスタンプ
と終了タイムスタンプを付加してもよい。この場合は、
表示される範囲や隠れる範囲がキーポイントと独立に設
定できるというメリットがある。
Normally, the display flag is set for each key point, but a start time stamp and an end time stamp may be added to the display flag itself. in this case,
There is an advantage that the displayed range and the hidden range can be set independently of the key point.

【0170】表示フラグは、1つの物体内で1つの表示
フラグを持っていてもよいし、各代表点軌跡データごと
に独立して持っていてもよい。例えば、物体が多角形で
表現されていて、その各頂点を代表点として軌跡データ
で表現した場合には、代表点軌跡データごとに独立して
表示フラグを持つことによって、物体の一部のみの隠れ
などを表現することが可能となる。
The display flag may have one display flag in one object, or may have it independently for each representative point locus data. For example, when an object is represented by a polygon and each vertex thereof is represented by trajectory data as a representative point, by having a display flag independently for each representative point trajectory data, only a part of the object is represented. It is possible to express hiding and the like.

【0171】また、表示フラグは、現れているか隠れて
いるかだけではなく、優先度として整数の値をとるよう
にしてもよい。物体同士が重なったときは、優先度の低
い物体が優先度の高い物体に隠れていることを示し、優
先度の高い物体のみを表示する。また、優先度が0の時
は他の物体に関係なく物体は隠れているものとする。表
示フラグを上記のように整数値でとることによって、映
像中に他の物体を合成したときなどにも、物体同士の隠
れの問題を解決できるという利点がある。表示フラグを
整数値でとった場合も、1つの物体内で1つの表示フラ
グを持っていてもよいし、各代表点軌跡データごとに独
立して持っていてもよい。
Further, the display flag may take an integer value as a priority, not only whether it is present or hidden. When the objects overlap, it indicates that the low-priority object is hidden by the high-priority object, and only the high-priority object is displayed. When the priority is 0, it is assumed that the object is hidden irrespective of other objects. By taking the display flag as an integer as described above, there is an advantage that the problem of hiding between objects can be solved even when other objects are combined in the video. When the display flag is set to an integer value, one display flag may be provided in one object, or may be independently provided for each representative point trajectory data.

【0172】図17、図18は、図5のデータ構造に表
示フラグを付加した時空間領域情報の例である。
FIGS. 17 and 18 show examples of spatio-temporal area information obtained by adding a display flag to the data structure of FIG.

【0173】図17は、対象物体に対して表示フラグを
付加する場合における、図5及び図6の時空間領域情報
に対して「表示フラグ情報」706を付加した例であ
る。
FIG. 17 shows an example in which “display flag information” 706 is added to the spatiotemporal area information of FIGS. 5 and 6 when a display flag is added to a target object.

【0174】図18は、「表示フラグ情報」705の構
造例である。
FIG. 18 shows an example of the structure of the "display flag information" 705.

【0175】この例は、各表示フラグ(2304)に、
開始タイムスタンプ(2302)と終了タイムスタンプ
(2303)を持っている。表示フラグ数(2301)
は表示フラグの総数で開始タイムスタンプ(2302)
と終了タイムスタンプ(2303)を利用しない場合
は、キーポイント数−1個の表示フラグを持つため、表
示フラグ数(2301)を省略してもよい。表示フラグ
(2304)は現れているか隠れているかを0か1かで
記録するが、優先度として整数値をとってもよい。
In this example, each display flag (2304)
It has a start time stamp (2302) and an end time stamp (2303). Number of display flags (2301)
Is the total number of display flags and the start time stamp (2302)
When the end flag and the end time stamp (2303) are not used, the display flag number (2301) may be omitted because the display flag has the key point number minus one. The display flag (2304) records whether it appears or is hidden by 0 or 1, but may take an integer value as the priority.

【0176】また、物体の近似図形の各代表点に対して
表示フラグをそれぞれ付加する場合には、例えば、時空
間領域情報の各代表点軌跡ごとに「表示フラグ情報」を
付加する。
To add a display flag to each representative point of the approximate figure of the object, for example, "display flag information" is added to each representative point locus of the spatiotemporal area information.

【0177】図19は、図5の時空間領域情報の各代表
点軌跡ごとに「表示フラグ情報」を付加した場合の代表
点軌跡のデータ構造の例である。図19の「表示フラ
グ」900の構造例は、上記と同様である。
FIG. 19 shows an example of the data structure of the representative point trajectory when “display flag information” is added to each representative point trajectory of the spatiotemporal area information of FIG. The configuration example of the “display flag” 900 in FIG. 19 is the same as above.

【0178】さて、この場合において、ユーザが、節点
座標やコントロールポイントの移動や追加あるいは削除
などの修正を行ったときに、時空間領域情報編集処理部
5が時空間領域情報に修正を施した結果、あるフレーム
において、映像中に存在するある物体が修正前には別の
物体によって隠されていなかったのが修正後には隠され
るようになったり、その逆に修正前には別の物体によっ
て隠されていたのが修正後には隠されないようになった
りすることがあり得る。このような場合には、時空間領
域情報編集処理部5は、例えば当該フレームの前後にお
ける各時空間領域情報のフラグ情報を参照、比較するな
どによって、割り当てるべきフラグ情報の内容を決定
し、時空間領域情報をも修正するようにすればよい。な
お、その際に、例えば図18の表示フラグの内容が更新
されるだけの場合もあれば、図18の開始/終了タイム
の区間の分割が発生する場合もある。また、時空間領域
情報編集処理部5のみでなくユーザが介在して割り当て
るべきフラグ情報の内容を決定するようにしてもよい。
In this case, when the user makes corrections such as moving, adding or deleting node coordinates or control points, the spatio-temporal area information editing processing section 5 corrects the spatio-temporal area information. As a result, in a certain frame, an object present in the video was not hidden by another object before the correction, but became hidden after the correction, or conversely, by another object before the correction. What was hidden may not be hidden after modification. In such a case, the spatio-temporal region information editing processing unit 5 determines the contents of the flag information to be assigned, for example, by referring to and comparing the flag information of each spatio-temporal region information before and after the frame. What is necessary is just to correct the spatial area information. At this time, for example, the contents of the display flag of FIG. 18 may be simply updated, or the division of the start / end time section of FIG. 18 may occur. Further, the content of the flag information to be assigned may be determined not only by the spatiotemporal region information editing processing unit 5 but also by the user.

【0179】また、ユーザが、ステータス部32などを
使ってフラグ情報を直接修正可能としてもよい。
The user may be able to directly modify the flag information using the status section 32 or the like.

【0180】また、GUI画面に時空間領域情報の表示
を行う際に、表示フラグ情報の内容をもユーザに呈示す
るようにしてもよい。例えば、各近似図形の外枠もしく
は各近似図形の内部あるいは各近似図形の各代表点を、
その表示フラグ情報の内容に応じて、色、輝度、解像度
などの違いによって、識別可能に表示するようにしても
よい。
When displaying the spatio-temporal area information on the GUI screen, the contents of the display flag information may be presented to the user. For example, the outer frame of each approximate figure, the inside of each approximate figure, or each representative point of each approximate figure,
According to the content of the display flag information, the display may be identifiably displayed based on differences in color, luminance, resolution, and the like.

【0181】次に、映像中の物体が画面上に出現してか
ら消失するまでに通過した画面上での範囲を示す情報
(以下、物体通過範囲情報と呼ぶ)を含む時空間領域情
報について説明する。
Next, spatio-temporal area information including information indicating a range on the screen from when the object in the video appears on the screen until it disappears (hereinafter referred to as object passing range information) will be described. I do.

【0182】まず、物体通過範囲情報について説明す
る。
First, the object passage range information will be described.

【0183】物体を物体領域の代表点軌跡データで表す
とき、通常は1つの物体に対し複数の軌跡データを利用
して表現することになる。ところが、指定した点を通過
した物体を検索したい場合などには、複数の軌跡データ
から物体領域を計算することなく、物体通過範囲を表現
できれば便利である。
When an object is represented by the representative point trajectory data of the object area, one object is usually represented using a plurality of trajectory data. However, when it is desired to search for an object passing through a specified point, it is convenient if the object passage range can be expressed without calculating an object region from a plurality of trajectory data.

【0184】そこで、本時空間領域情報では、物体の軌
跡全体を囲むような最小の長方形または多角形の物体通
過範囲情報を生成し、これを時空間領域情報に付帯させ
るようにする。
Therefore, in the present spatio-temporal area information, the minimum rectangular or polygonal object passing range information that surrounds the entire trajectory of the object is generated, and is attached to the spatio-temporal area information.

【0185】長方形を利用する場合、傾きを持つ長方形
を利用してもよいし、傾きを持たない長方形を利用して
もよい。傾きを持つ長方形を利用する場合には、物体領
域の軌跡を誤差が少なく近似できる利点がある。傾きを
持たない長方形を利用する場合には、長方形のパラメー
タ計算が簡単であるという利点がある。
When a rectangle is used, a rectangle having an inclination may be used, or a rectangle having no inclination may be used. When a rectangle having a slope is used, there is an advantage that the trajectory of the object area can be approximated with few errors. When a rectangle having no inclination is used, there is an advantage that the parameter calculation of the rectangle is simple.

【0186】図20(a)において、2402は物体2
401の軌跡領域を傾きのない長方形で近似したものの
例を示す。
In FIG. 20A, reference numeral 2402 denotes the object 2
An example in which the locus area 401 is approximated by a rectangle having no inclination is shown.

【0187】図20(b)において、2403は物体2
401の軌跡領域を傾きのある長方形で近似したものの
例を示す。
In FIG. 20B, reference numeral 2403 denotes the object 2
An example is shown in which a locus area 401 is approximated by a rectangle having an inclination.

【0188】図20(c)において、2404は物体2
401の軌跡領域を多角形で近似したものの例を示す。
In FIG. 20C, reference numeral 2404 denotes the object 2
An example of a locus region 401 approximated by a polygon is shown.

【0189】物体の軌跡全体を囲むような最小の長方形
または多角形を計算するときは、各フレームにおける領
域を求めた後、全フレームに渡って領域の論理和を計算
し、得られた論理和の領域を最小の長方形または多角形
で近似する。
When calculating the smallest rectangle or polygon that surrounds the entire trajectory of the object, after calculating the area in each frame, the logical sum of the area is calculated over all the frames, and the obtained logical sum is calculated. Is approximated by the smallest rectangle or polygon.

【0190】また、物体の軌跡全体を囲むような最小の
長方形または多角形を計算する際に、既に計算されてい
るフレームに関する当該物体領域の軌跡全体を囲む最小
の長方形または多角形と、新しく追加すべきフレームに
おける当該物体領域との論理和の領域を最小の長方形ま
たは多角形で近似するようにしてもよい。
When calculating the smallest rectangle or polygon that surrounds the entire trajectory of the object, the smallest rectangle or polygon that surrounds the entire trajectory of the object area with respect to the already calculated frame is newly added. The area of the logical sum with the object area in the frame to be formed may be approximated by a minimum rectangle or polygon.

【0191】また、物体の軌跡全体を囲むような最小の
長方形または多角形を計算する際に、各代表点の軌跡を
囲むような最小の長方形または多角形を計算し、全軌跡
に渡って得られた長方形または多角形の領域の論理和に
ついて、それを囲むような最小の長方形または多角形を
計算するようにしてもよい。
When calculating the smallest rectangle or polygon that surrounds the entire trajectory of the object, the smallest rectangle or polygon that surrounds the trajectory of each representative point is calculated and obtained over the entire trajectory. The smallest rectangle or polygon surrounding the logical sum of the rectangle or polygon area may be calculated.

【0192】図21に、物体領域情報に付帯する物体通
過範囲情報の記述例を示す。外接図形タイプ3401
は、外接図形のタイプを示す。例えば、0は図20の
(a)に示す傾きのない長方形、1は図20の(b)に
示す傾きのある長方形、2は図20の(c)に示す多角
形を示す。外接図形タイプが0の場合は頂点数Nが2、
1の場合は頂点数Nが3、2の場合は頂点数Nが任意の
数となる。物体が奥行き情報を持っている場合は、同様
に奥行きの軌跡情報を加えて3次元の外接図形を考える
ことができる。その場合、図22に示すように、奥行き
情報のZに関する情報が追加される。
FIG. 21 shows a description example of the object passage range information attached to the object area information. Circumscribed figure type 3401
Indicates the type of the circumscribed figure. For example, 0 indicates a rectangle having no inclination shown in FIG. 20A, 1 indicates a rectangle having an inclination shown in FIG. 20B, and 2 indicates a polygon shown in FIG. 20C. When the circumscribed figure type is 0, the number N of vertices is 2,
In the case of 1, the vertex number N is 3, and in the case of 2, the vertex number N is an arbitrary number. When the object has depth information, a three-dimensional circumscribed figure can be considered by similarly adding depth trajectory information. In this case, as shown in FIG. 22, information on Z of the depth information is added.

【0193】このように物体の軌跡全体を囲むような最
小の長方形または多角形の情報を付帯することによっ
て、物体の通過範囲を効率よく表現でき、ある座標を物
体の物体が通過するかどうか判定することなどが簡単に
行えるようになる。
By adding the information of the minimum rectangle or polygon that surrounds the entire trajectory of the object, the passing range of the object can be expressed efficiently, and it is determined whether or not the object of the object passes a certain coordinate. To do things easily.

【0194】さて、この場合においては、GUI画面に
おいて、物体通過範囲情報をも表示するようにすればよ
い。なお、物体通過範囲情報は、例えば、近似図形を表
示するフレームすべてにおいて表示するようにしてもよ
いし、選択した1又は複数のフレームにおいてのみ表示
するようにしてもよい。
By the way, in this case, the object passing range information may be displayed on the GUI screen. Note that the object passage range information may be displayed, for example, in all the frames displaying the approximate figure, or may be displayed only in one or a plurality of selected frames.

【0195】ユーザが、節点座標やコントロールポイン
トの移動や追加あるいは削除などの修正を行ったとき
に、時空間領域情報編集処理部5が時空間領域情報に修
正を施した結果、物体通過範囲情報が変化することがあ
り得る。このような場合には、時空間領域情報編集処理
部5は、物体通過範囲情報をも修正するようにすればよ
い。
When the user makes corrections such as moving, adding, or deleting node coordinates or control points, the spatio-temporal area information editing processing unit 5 corrects the spatio-temporal area information. Can change. In such a case, the spatiotemporal area information editing processing unit 5 may correct the object passage range information.

【0196】また、ユーザが、表示された物体通過範囲
情報の図形を、直接、修正できるようにしてもよい。こ
の場合には、時空間領域情報編集処理部5は、ユーザの
修正の通りに、物体通過範囲情報を修正すればよい。
Further, the user may be allowed to directly modify the displayed graphic of the object passage range information. In this case, the spatiotemporal area information editing processing section 5 may correct the object passage range information as corrected by the user.

【0197】次に、モザイキングに係る時空間領域情報
について説明する。
Next, spatio-temporal area information related to mosaiking will be described.

【0198】まず、この時空間領域情報について説明す
る。
First, the spatio-temporal area information will be described.

【0199】モザイキングとは、撮影範囲が一部重なる
ように撮影された複数の画像を貼り合わせ、1枚の広範
囲を撮影した画像を合成する手法である。このようにし
て合成された画像はパノラマ画像などとも呼ばれる。複
数の画像からモザイキングによりパノラマ画像を作成す
る手法は複数の提案がされている(M. Irani,
P. Anandan, “Video Index
ing Basedon Mosaic Repres
entations”, Proceedings o
f the IEEE, Vol. 86, No.
5, pp.905−921, May 1998.
など)。
The mosaicing is a method of combining a plurality of images photographed so that the photographing ranges partially overlap, and synthesizing a single image photographed over a wide range. The image synthesized in this manner is also called a panoramic image or the like. A plurality of proposals have been made for a method of creating a panoramic image from a plurality of images by mosaicking (M. Irani,
P. Anandan, “Video Index
ing Basedon Mosaic Repres
entationss ”, Proceedings o
f the IEEE, Vol. 86, no.
5, pp. 905-921, May 1998.
Such).

【0200】本時空間領域情報は、これまでのように各
フレームにおける物体領域の近似図形の代表点の位置デ
ータをもとに近似を行うのではなく、パノラマ画像にお
ける各物体領域の近似図形の代表点の位置データをもと
に近似を行うものである。
The spatio-temporal region information is not based on the position data of the representative point of the approximate figure of the object region in each frame as in the past, but instead of the approximation of the approximate figure of each object region in the panoramic image. The approximation is performed based on the position data of the representative point.

【0201】図23に、この方法を説明するための図を
示す。
FIG. 23 is a diagram for explaining this method.

【0202】なお、パノラマ画像はそれ自体で1つの画
像であり、合成前の各々の静止画像の各画素は、パノラ
マ画像におけるある基準点(例えば、フレーム中で左下
の点)を原点として、座標が変換されることになる。し
たがって、各静止画像における物体領域の近似図形の各
代表点は、パノラマ画像の座標系におけるX座標やY座
標についての系列となる。ここでは、各静止画像におけ
る物体領域の近似図形の各代表点のX座標やY座標につ
いての系列を、これまでのようにして、関数近似するも
のである。その際に、例えば、1つの静止画像内で差分
ベクトルをとり、あるいは静止画像間で差分ベクトルを
とって、この差分ベクトルの系列を関数近似する。
Note that the panoramic image itself is one image, and each pixel of each still image before synthesis is coordinated with a reference point (for example, a lower left point in the frame) in the panoramic image as the origin. Will be converted. Therefore, each representative point of the approximate figure of the object area in each still image is a series of the X coordinate and the Y coordinate in the coordinate system of the panoramic image. Here, a series of the X coordinate and the Y coordinate of each representative point of the approximate figure of the object region in each still image is approximated by a function as in the past. At this time, for example, a difference vector is obtained within one still image, or a difference vector is obtained between still images, and the series of the difference vectors is approximated by a function.

【0203】まず、入力された複数の静止画像からパノ
ラマ画像を作成する。これらの入力画像群は、図23
(a)では2000〜2005に相当し、移動する物体
をカメラを移動させながら撮影した画像である。200
6は画像内の物体で、2000〜2005内には同じ物
体が撮影されている。これらの画像群は動画中の連続す
るフレームや、撮影範囲を重なるようにカメラを移動し
ながら撮影した静止画であることが多いが、パノラマ画
像を作成できるような入力画像であれば何でもよい。
First, a panoramic image is created from a plurality of input still images. These input image groups are shown in FIG.
(A) corresponds to 2000 to 2005, and is an image obtained by photographing a moving object while moving the camera. 200
Reference numeral 6 denotes an object in the image, and the same object is photographed in 2000 to 2005. These image groups are often continuous frames in a moving image or still images taken while moving the camera so as to overlap the shooting range. However, any input image that can create a panoramic image may be used.

【0204】これらの入力画像群より合成されたパノラ
マ画像が図23(b)の2007である。
A panoramic image synthesized from the input image group is 2007 in FIG.

【0205】次に、合成されたパノラマ画像内に存在す
る個々の物体領域を図形により近似する。なお、パノラ
マ画像作成と物体領域の図形近似は逆の順序で行っても
よい。ただし、パノラマ画像を合成する際の変換によっ
ては、物体領域の近似図形種の変更を必要とする場合が
ある。例えば、物体領域を矩形で近似する場合、アフィ
ン変換によりパノラマ画像の合成を行うと合成後の物体
領域は必ずしも矩形とはならない。その場合はパノラマ
画像の作成を先に行うか、パノラマ画像合成の変換後に
修正を行う。
Next, individual object regions existing in the synthesized panoramic image are approximated by figures. Note that the panoramic image creation and the graphic approximation of the object area may be performed in the reverse order. However, depending on the conversion at the time of synthesizing the panoramic image, it may be necessary to change the approximate figure type of the object area. For example, when the object region is approximated by a rectangle, if the panorama image is synthesized by affine transformation, the object region after the synthesis is not necessarily rectangular. In that case, the panorama image is created first, or the correction is performed after the conversion of the panorama image synthesis.

【0206】次に、求められた物体領域の近似図形の代
表点や特徴点の軌跡を関数により近似する。物体領域の
軌跡は基準となる物体領域を定め、そこからの各物体領
域の変化量により求める。例えば、図23(b)におい
て、第1入力画像の物体領域2008を基準とし、それ
に続く物体領域の変化を軌跡2009とする。この例で
は、物体領域の重心を代表点としているが、矩形や楕円
など他の近似図形の代表点を用いる場合やその他の特徴
点を代表点として用いる場合であっても同様である。
Next, the trajectories of the representative points and characteristic points of the approximate figure of the object region thus obtained are approximated by a function. The trajectory of the object region is determined based on a reference object region and the amount of change of each object region therefrom. For example, in FIG. 23B, a change in the object region subsequent to the object region 2008 of the first input image is defined as a trajectory 2009. In this example, the center of gravity of the object area is used as a representative point. However, the same applies to a case where a representative point of another approximate figure such as a rectangle or an ellipse is used or a case where another feature point is used as a representative point.

【0207】基準点からの変化量の求め方は、基準点に
対する差分を用いる場合と直前の物体領域からの差分を
用いる場合があるが、これらの変化量は同様に関数近似
を行うことができる。また、基準点からの変化を代表点
や特徴点の移動ではなく、平行・回転移動やアフィン変
換などの動きモデルで近似し、その変換係数の軌跡とし
て物体の移動を記述することができる。この場合も変換
係数の軌跡を関数近似することによって適用することが
できる。
The amount of change from the reference point can be obtained by using the difference from the reference point or by using the difference from the immediately preceding object area. These changes can be similarly approximated by a function. . Further, the change from the reference point can be approximated not by the movement of the representative point or the feature point but by a motion model such as parallel / rotational movement or affine transformation, and the movement of the object can be described as the locus of the transformation coefficient. This case can also be applied by approximating the locus of the conversion coefficient by a function.

【0208】次に、求められた軌跡を近似する関数のパ
ラメータを前述のデータ構造体のフォーマットに従って
記述を行う。
Next, parameters of a function approximating the obtained trajectory are described in accordance with the format of the data structure.

【0209】また、入力画像群の個々の画像をパノラマ
画像として合成する際の諸パラメータも入力画像全体を
物体領域とみなすことにより、同様に記述することがで
きる。
[0209] Also, various parameters for synthesizing individual images of the input image group as a panoramic image can be similarly described by regarding the entire input image as an object region.

【0210】図24に、物体領域情報に付帯する諸パラ
メータの記述例を示す。諸パラメータは作成されたパノ
ラマ画像の座標系を、作成に用いた映像フレームの座標
とその映像フレームからパノラマ画像への変換パラメー
タによって記述するものである。ここで、どこを原点と
しても良いが、映像フレームの座標が左下に原点がある
とする。そして、モザイキングに利用されたフレームの
縦横の長さが同一で既知であるとする。統合座標フラグ
3601は、このようなパノラマ画像の座標系を用いた
物体の記述かどうかのフラグであり、フラグが0の時は
通常の座標系(つまり、すべての映像フレームで左下原
点)で、1の時はフレームがパノラマに統合された座標
系を示す。モデルタイプM3602は、各フレームをパ
ノラマ画像に変換したときの変換モデルのタイプを示す
ものである。例えば、モデルタイプMが0の時は変換な
し、2の時は平行移動で、4の時は回転・拡大縮小で、
6の時はアフィンで、8の時は透視変換で、12の時は
2次射影変換を表す。各モデルにおいて、モデルタイプ
Mの値と同数のパラメータがある。
FIG. 24 shows a description example of various parameters attached to the object area information. The various parameters describe the coordinate system of the created panoramic image by the coordinates of the video frame used for the creation and the conversion parameters from the video frame to the panoramic image. Here, the origin may be set at any point, but it is assumed that the coordinates of the video frame have the origin at the lower left. It is assumed that the vertical and horizontal lengths of the frames used for mosaicing are the same and known. The integrated coordinate flag 3601 is a flag indicating whether or not the object is described using the coordinate system of such a panoramic image. When the flag is 0, the integrated coordinate flag 3601 uses the normal coordinate system (that is, the origin at the lower left of all video frames). 1 indicates a coordinate system in which frames are integrated into a panorama. The model type M3602 indicates the type of the conversion model when each frame is converted into a panoramic image. For example, when the model type M is 0, there is no conversion. When the model type M is 2, translation is performed. When the model type M is 4, rotation and scaling are performed.
6 represents affine, 8 represents perspective transformation, and 12 represents secondary projection transformation. In each model, there are as many parameters as the value of model type M.

【0211】 平行移動:Vx(x,y)=a1 Vy(x,y)=a2 回転・拡大縮小: Vx(x,y)=a1+a3+a4y Vy(x,y)=a2−a4+a3y アフィン変換: Vx(x,y)=a1+a3+a4y Vy(x,y)=a2+a5+a6y 透視変換: Vx(x,y)=(a1+a3+a4y)/(1+a7+a8
y) Vy(x,y)=(a2+a5+a6y)/(1+a7+a8
y) 2次射影変換: Vx(x,y)=a1+a3+a4y+a7xy+a92
102 Vx(x,y)=a2+a5+a6y+a8xy+a112
122 ここで、変換を行うための原点をX原点3603、Y原
点3604で与える。この原点は元映像フレームの座標
系を持ち手示す。このように変換のための原点を与える
のは、変換時に生じる誤差を少なくするためである。変
換パラメータ数N3605は、パノラマに用いるフレー
ム数Nと同じである。フレーム毎に変換パラメータが必
要となる。フレーム時間3606は、初期フレームから
のフレーム間時間で、パラメータセット3607は、返
還のモデルタイプに応じてM個のパラメータを記述す
る。各フレーム中のオブジェクトの軌跡もこのパラメー
タセットを用いて返還され記述される。
Parallel movement: Vx (x, y) = a 1 Vy (x, y) = a 2 rotation / enlargement / reduction: Vx (x, y) = a 1 + a 3 + a 4 y Vy (x, y) = a 2 −a 4 + a 3 y Affine transformation: Vx (x, y) = a 1 + a 3 + a 4 y Vy (x, y) = a 2 + a 5 + a 6 y Perspective transformation: Vx (x, y) = ( a 1 + a 3 + a 4 y) / (1 + a 7 + a 8
y) Vy (x, y) = (a 2 + a 5 + a 6 y) / (1 + a 7 + a 8
y) 2-order projective transformation: Vx (x, y) = a 1 + a 3 + a 4 y + a 7 xy + a 9 x 2 +
a 10 y 2 Vx (x, y) = a 2 + a 5 + a 6 y + a 8 xy + a 11 x 2 +
a 12 y 2 Here, the origin for performing the conversion is given by the X origin 3603 and the Y origin 3604. This origin indicates the coordinate system of the original video frame. The reason for giving the origin for the conversion in this way is to reduce errors that occur during the conversion. The number N3605 of conversion parameters is the same as the number N of frames used for panorama. A conversion parameter is required for each frame. The frame time 3606 is the time between frames from the initial frame, and the parameter set 3607 describes M parameters according to the return model type. The trajectory of the object in each frame is also returned and described using this parameter set.

【0212】このようにすれば、カメラが物体領域を追
いかけながら撮影している場合には、連続するフレーム
を画像変換を施してつながるように貼り合わせるモザイ
キングによるパノラマ画像を作成し、その作成された画
像上での物体の領域情報を記述することにより、カメラ
が移動していてもモザイキング画像のある点を基点とし
た座標系で物体の領域情報を一意に記述することができ
る。
In this way, when the camera is shooting while chasing the object area, a panoramic image is created by mosaicing in which continuous frames are converted by image conversion and joined so as to be connected. By describing the region information of the object on the image, the region information of the object can be uniquely described in a coordinate system based on a certain point of the mosaicing image even when the camera is moving.

【0213】さて、この場合においては、GUI画面に
おいて、これまでのように3次元表示して時空間領域情
報を表示するようにしてもよいし、その代わりに例えば
図23(b)のようにしてパノラマ表示して、時空間領
域情報を表示するようにしてもよい。
[0213] In this case, on the GUI screen, the spatio-temporal area information may be displayed in a three-dimensional manner as before, or instead, as shown in FIG. Panorama display to display spatio-temporal region information.

【0214】ユーザが、節点座標やコントロールポイン
ト等の修正を行ったときに、時空間領域情報編集処理部
5は、該当する時空間領域情報を修正するようにすれば
よい。
When the user corrects node coordinates, control points, and the like, the spatiotemporal region information editing processing section 5 may correct the corresponding spatiotemporal region information.

【0215】なお、以上の各機能は、ソフトウェアとし
て実現可能である。また、本実施形態は、コンピュータ
に所定の手段を実行させるための(あるいはコンピュー
タを所定の手段として機能させるための、あるいはコン
ピュータに所定の機能を実現させるための)プログラム
として実施することもでき、該プログラムを記録したコ
ンピュータ読取り可能な記録媒体として実施することも
できる。
Each of the above functions can be realized as software. In addition, the present embodiment can be implemented as a program for causing a computer to execute predetermined means (or for causing a computer to function as predetermined means, or for causing a computer to realize predetermined functions), The present invention can also be implemented as a computer-readable recording medium on which the program is recorded.

【0216】なお、この発明の実施の形態で例示した構
成は一例であって、それ以外の構成を排除する趣旨のも
のではなく、例示した構成の一部を他のもので置き換え
たり、例示した構成の一部を省いたり、例示した構成に
別の機能あるいは要素を付加したり、それらを組み合わ
せたりすることなどによって得られる別の構成も可能で
ある。また、例示した構成と論理的に等価な別の構成、
例示した構成と論理的に等価な部分を含む別の構成、例
示した構成の要部と論理的に等価な別の構成なども可能
である。また、例示した構成と同一もしくは類似の目的
を達成する別の構成、例示した構成と同一もしくは類似
の効果を奏する別の構成なども可能である。また、この
発明の実施の形態で例示した各種構成部分についての各
種バリエーションは、適宜組み合わせて実施することが
可能である。また、この発明の実施の形態は、個別装置
としての発明、関連を持つ2以上の装置についての発
明、システム全体としての発明、個別装置内部の構成部
分についての発明、またはそれらに対応する方法の発明
等、種々の観点、段階、概念またはカテゴリに係る発明
を包含・内在するものである。従って、この発明の実施
の形態に開示した内容からは、例示した構成に限定され
ることなく発明を抽出することができるものである。
The configuration illustrated in the embodiment of the present invention is an example, and is not intended to exclude other configurations, and a part of the illustrated configuration is replaced with another one or illustrated. Another configuration obtained by omitting a part of the configuration, adding another function or element to the illustrated configuration, or combining them is also possible. Also, another configuration that is logically equivalent to the illustrated configuration,
Another configuration including a portion logically equivalent to the illustrated configuration, another configuration logically equivalent to a main part of the illustrated configuration, and the like are also possible. Further, another configuration that achieves the same or similar purpose as the illustrated configuration, another configuration that achieves the same or similar effect as the illustrated configuration, and the like are also possible. Various variations of the various components exemplified in the embodiments of the present invention can be implemented in appropriate combinations. Further, the embodiments of the present invention relate to an invention as an individual device, an invention about two or more related devices, an invention as a whole system, an invention about components inside an individual device, or a method corresponding thereto. It encompasses and includes inventions related to various aspects, stages, concepts or categories, such as inventions. Therefore, the present invention can be extracted from the contents disclosed in the embodiments of the present invention without being limited to the illustrated configuration.

【0217】本発明は、上述した実施の形態に限定され
るものではなく、その技術的範囲において種々変形して
実施することができる。
The present invention is not limited to the above-described embodiments, but can be implemented with various modifications within the technical scope.

【0218】[0218]

【発明の効果】本発明によれば、時空間領域形状の全体
もしくは一部を参照しながら効率的に時空間領域情報を
入力・編集することが可能になる。
According to the present invention, it is possible to efficiently input and edit spatio-temporal region information while referring to the whole or a part of the spatio-temporal region shape.

【図面の簡単な説明】[Brief description of the drawings]

【図1】映像中の物体の領域を物体領域データで記述す
るための処理の概要を説明するための図
FIG. 1 is a diagram for explaining an outline of a process for describing an object region in a video by object region data;

【図2】基準代表点のX座標の値を近似する関数を求め
る例を説明するための図
FIG. 2 is a diagram for explaining an example of obtaining a function that approximates a value of an X coordinate of a reference representative point.

【図3】基準代表点以外の代表点を表すための差分ベク
トルの一例を説明するための図
FIG. 3 is a diagram for explaining an example of a difference vector for representing a representative point other than a reference representative point.

【図4】基準代表点以外の代表点を表すための差分ベク
トルのX成分の値を近似する関数を求める例を説明する
ための図
FIG. 4 is a diagram for explaining an example of obtaining a function that approximates the value of an X component of a difference vector for representing a representative point other than a reference representative point.

【図5】時空間領域情報のデータ構造の一例を示す図FIG. 5 is a diagram showing an example of a data structure of spatio-temporal area information

【図6】軌跡データのデータ構造の一例を示す図FIG. 6 is a diagram showing an example of a data structure of trajectory data.

【図7】時空間領域情報処理装置の構成例を示す図FIG. 7 is a diagram illustrating a configuration example of a spatio-temporal region information processing apparatus.

【図8】時空間領域情報処理装置の他の構成例を示す図FIG. 8 is a diagram showing another configuration example of the spatiotemporal area information processing apparatus.

【図9】表示方法の一例を示す図FIG. 9 illustrates an example of a display method.

【図10】ユーザーインターフェースの一例を示す図FIG. 10 illustrates an example of a user interface.

【図11】処理手順の一例を示すフローチャートFIG. 11 is a flowchart illustrating an example of a processing procedure;

【図12】処理手順の一例を示すフローチャートFIG. 12 is a flowchart illustrating an example of a processing procedure;

【図13】処理手順の一例を示すフローチャートFIG. 13 is a flowchart illustrating an example of a processing procedure;

【図14】本発明の第2の実施形態に係る時空間領域情
報のデータ構造の一例を示す図
FIG. 14 is a diagram showing an example of a data structure of spatio-temporal area information according to the second embodiment of the present invention.

【図15】表示フラグについて説明するための図FIG. 15 is a diagram illustrating a display flag.

【図16】代表点軌跡データ作成について説明するため
の図
FIG. 16 is a diagram for describing creation of representative point trajectory data;

【図17】物体領域データのデータ構造のさらに他の例
を示す図
FIG. 17 is a diagram showing still another example of the data structure of the object area data.

【図18】表示フラグ情報のデータ構造の一例を示す図FIG. 18 is a diagram illustrating an example of a data structure of display flag information.

【図19】物体領域データ中の代表点軌跡データのデー
タ構造のさらに他の例を示す図
FIG. 19 is a diagram showing still another example of the data structure of the representative point trajectory data in the object area data.

【図20】物体通過範囲情報について説明するための図FIG. 20 is a diagram for explaining object passage range information;

【図21】物体通過範囲情報のデータ構造の一例を示す
FIG. 21 is a diagram illustrating an example of a data structure of object passage range information;

【図22】物体通過範囲情報のデータ構造の他の例を示
す図
FIG. 22 is a diagram showing another example of the data structure of the object passage range information.

【図23】モザイキングを用いた物体領域情報記述方法
の処理手順の一例を示すフローチャート
FIG. 23 is a flowchart illustrating an example of a processing procedure of an object area information description method using mosaicing.

【図24】モザイキングを用いた物体領域情報記述方法
について説明するための図
FIG. 24 is a diagram for describing a method of describing object region information using mosaicing.

【符号の説明】[Explanation of symbols]

1…映像情報記憶部 2…時空間領域情報記憶部 3…表示部 4…入力部 5…時空間領域情報編集処理部 6…時空間領域情報生成処理部 31…3次元空間投影部 32…ステータス部 33…画像特殊表示ボタン 34…画像表示密度ボタン 35…画像表示位置ボタン 36…ズームボタン 37…注視点移動ボタン 38…視点移動ボタン DESCRIPTION OF SYMBOLS 1 ... Video information storage part 2 ... Spatiotemporal area information storage part 3 ... Display part 4 ... Input part 5 ... Spatiotemporal area information edit processing part 6 ... Spatiotemporal area information generation processing part 31 ... Three-dimensional space projection part 32 ... Status Part 33: Image special display button 34 ... Image display density button 35 ... Image display position button 36 ... Zoom button 37 ... Point of view moving button 38 ... Point of view moving button

───────────────────────────────────────────────────── フロントページの続き (72)発明者 金子 敏充 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 三田 雄志 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 山本 晃司 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 Fターム(参考) 5C023 AA03 AA04 AA10 AA38 AA40 BA01 CA02 DA04 DA08 5L096 CA04 DA01 FA09 HA02  ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Toshimitsu Kaneko 1 Toshiba-cho, Komukai-shi, Kawasaki-shi, Kanagawa Inside the Toshiba R & D Center Co., Ltd. No. 1 town Toshiba R & D Center (72) Inventor Koji Yamamoto No. 1 Komukai Toshiba Town, Koyuki-ku, Kawasaki-shi, Kanagawa F-term (reference) 5C023 AA03 AA04 AA10 AA38 AA40 BA01 CA02 DA04 DA08 5L096 CA04 DA01 FA09 HA02

Claims (25)

【特許請求の範囲】[Claims] 【請求項1】映像データ中における任意の領域の複数フ
レームにわたる推移を表すものとして記述された、該領
域を示す近似図形の代表点の軌跡を特定可能な時空間領
域情報を対象にし、該時空間領域情報に修正を施す処理
を行うための時空間領域情報処理方法であって、 対象にした前記領域の前記時空間領域情報に基づいて、
前記代表点の前記軌跡を求め、 求められた前記代表点の前記軌跡を、画面上に表示し、 画面上に表示された前記軌跡の形状の修正操作の入力を
受け付け、 入力された前記修正操作に基づいて、前記時空間領域情
報を修正することを特徴とする時空間領域情報処理方
法。
The present invention relates to spatio-temporal area information described as representing a transition of an arbitrary area in a video data over a plurality of frames and capable of specifying a trajectory of a representative point of an approximate figure indicating the area. A spatio-temporal region information processing method for performing a process of correcting spatial region information, based on the spatio-temporal region information of the target region,
Determining the trajectory of the representative point; displaying the trajectory of the determined representative point on a screen; receiving an input of a correction operation of the shape of the trajectory displayed on the screen; A spatio-temporal area information processing method, wherein the spatio-temporal area information is corrected based on
【請求項2】前記修正操作に基づいて前記時空間領域情
報を修正した場合に、修正後の時空間領域情報に基づい
て、あらためて、前記代表点の前記軌跡の画面上への表
示を行い、さらなる前記所定の修正操作の入力を行うこ
とを特徴とする請求項1に記載の時空間領域情報処理方
法。
2. When the spatiotemporal area information is corrected based on the correction operation, the locus of the representative point is displayed on the screen again based on the corrected spatiotemporal area information, 2. The spatio-temporal area information processing method according to claim 1, further comprising inputting the predetermined correction operation.
【請求項3】前記代表点の前記軌跡を画面上に表示する
に際して、該軌跡上の所定箇所に、修正操作用のポイン
トを表示し、 前記修正操作用のポイントに対してなされる修正操作の
入力を受け付け、 入力された前記修正操作に基づいて、前記時空間領域情
報を修正することを特徴とする請求項1に記載の時空間
領域情報処理方法。
3. When displaying the trajectory of the representative point on a screen, a correction operation point is displayed at a predetermined position on the trajectory, and a correction operation performed on the correction operation point is performed. 2. The spatio-temporal area information processing method according to claim 1, wherein an input is received, and the spatio-temporal area information is corrected based on the input correction operation.
【請求項4】前記修正操作は、表示された任意の前記修
正操作用のポイントに対する任意の方向の移動、または
新たな前記修正操作用のポイントの追加もしくは既存の
前記修正操作用のポイントの削除であることを特徴とす
る請求項3に記載の時空間領域情報処理方法。
4. The correction operation is a movement in an arbitrary direction with respect to any displayed correction operation point, addition of a new correction operation point, or deletion of an existing correction operation point. The spatio-temporal area information processing method according to claim 3, wherein
【請求項5】前記軌跡が関数補間されたものである場合
に、前記修正操作用のポイントとして、当該補間関数を
一意に決定する個数のポイントを表示し、 前記移動または追加もしくは削除された後のポイントの
位置により一意に決定される前記補間関数に基づいて、
前記時空間領域情報を修正することを特徴とする請求項
4に記載の時空間領域情報処理方法。
5. When the trajectory has been interpolated by a function, the number of points for uniquely determining the interpolation function is displayed as the point for the correction operation, and after the movement or addition or deletion, Based on the interpolation function uniquely determined by the position of the point
5. The spatio-temporal area information processing method according to claim 4, wherein the spatio-temporal area information is corrected.
【請求項6】前記軌跡が関数補間されたものであって且
つその近似区間が複数の区間からなる場合に、前記修正
操作として前記近似区間の節点に相当するポイントにつ
いての移動または追加もしくは削除がなされたときに
は、該移動または追加もしくは削除がなされた後の近似
区間に基づいて、前記時空間領域情報を修正することを
特徴とする請求項4に記載の時空間領域情報処理方法。
6. When the trajectory is function-interpolated and its approximate section is composed of a plurality of sections, moving or adding or deleting a point corresponding to a node of the approximate section is performed as the correction operation. 5. The spatio-temporal area information processing method according to claim 4, wherein, when performed, the spatio-temporal area information is corrected based on the approximate section after the movement, addition, or deletion.
【請求項7】前記軌跡が関数補間されるものであって且
つその近似区間が複数の区間からなる場合に、前記修正
操作として前記近似区間の節点に相当するポイントにつ
いての追加がなされたときには、前記時空間領域情報か
ら追加するポイントの節点時刻における前記近似図形の
形状を推定することを特徴とする請求項4に記載の時空
間領域情報処理方法。
7. When the trajectory is function-interpolated and the approximate section is composed of a plurality of sections, and when a point corresponding to a node of the approximate section is added as the correction operation, 5. The spatio-temporal region information processing method according to claim 4, wherein a shape of the approximate figure at a node time of a point to be added is estimated from the spatio-temporal region information.
【請求項8】前記軌跡が関数補間されたものであって且
つその近似区間が複数の区間からなる場合に、前記修正
操作用のポイントとして、近似区間毎に当該補間関数を
一意に決定する個数のポイントを表示するとともに、該
ポイントのうち近似区間の節点に相当するポイントと、
それ以外のポイントとを、区別可能な表示形態で表示す
ることを特徴とする請求項4に記載の時空間領域情報処
理方法。
8. When the trajectory is function-interpolated and its approximate section is composed of a plurality of sections, the number for uniquely determining the interpolation function for each approximate section as the point for the correction operation. And a point corresponding to a node of the approximate section among the points,
The spatio-temporal area information processing method according to claim 4, wherein the other points are displayed in a distinguishable display form.
【請求項9】前記代表点の前記軌跡を画面上に表示する
に際して、前記映像データの所定のフレームを併せて表
示することを特徴とする請求項1に記載の時空間領域情
報処理方法。
9. The spatio-temporal area information processing method according to claim 1, wherein, when the trajectory of the representative point is displayed on a screen, a predetermined frame of the video data is also displayed.
【請求項10】前記映像データの所定のフレームを表示
するにあたっては、表示すべき当該フレームを半透明に
して表示することを特徴とする請求項9に記載の時空間
領域情報処理方法。
10. The spatio-temporal area information processing method according to claim 9, wherein when displaying a predetermined frame of the video data, the frame to be displayed is displayed in a semi-transparent manner.
【請求項11】前記映像データの所定のフレームを表示
するにあたっては、表示すべき当該フレームにおける前
記近似図形の外形をも認識可能な表示形態で表示するこ
とを特徴とする請求項9に記載の時空間領域情報処理方
法。
11. The display device according to claim 9, wherein a predetermined frame of the video data is displayed in a display form capable of recognizing the outline of the approximate figure in the frame to be displayed. Spatio-temporal domain information processing method.
【請求項12】前記映像データの所定のフレームを表示
するにあたっては、表示すべき当該フレームにおける前
記近似図形の内部と外部とで異なる表示形態により表示
することを特徴とする請求項9に記載の時空間領域情報
処理方法。
12. The display device according to claim 9, wherein a predetermined frame of the video data is displayed in different display forms between the inside and outside of the approximate figure in the frame to be displayed. Spatio-temporal domain information processing method.
【請求項13】前記代表点の軌跡を特定可能な情報は、
当該代表点の位置データをフレームの進行に沿って並べ
たときの軌跡を所定の関数で近似し、該関数のパラメー
タを用いて記述されたものであることを特徴とする請求
項1ないし12のいずれか1項に記載の時空間領域情報
処理方法。
13. The information which can specify the trajectory of the representative point includes:
13. The trajectory obtained by arranging the position data of the representative points along the progress of the frame by approximating the trajectory with a predetermined function, and describing the trajectory using parameters of the function. The spatio-temporal area information processing method according to any one of claims 1 to 7.
【請求項14】前記代表点の軌跡を特定可能な情報は、
当該代表点の基準となるフレームにおける位置データか
ら、他のフレームにおける位置データへの領域変換を示
す変換パラメータを求め、該変換パラメータについて、
該変換パラメータをフレームの進行に沿って並べたとき
の軌跡を所定の関数で近似し、該関数のパラメータを用
いて記述されたものであることを特徴とする請求項1な
いし12のいずれか1項に記載の時空間領域情報処理方
法。
14. The information which can specify the trajectory of the representative point is:
From the position data in the frame serving as the reference of the representative point, a conversion parameter indicating a region conversion to position data in another frame is obtained, and the conversion parameter
13. The method according to claim 1, wherein a trajectory obtained by arranging the conversion parameters along the progress of the frame is approximated by a predetermined function, and is described using parameters of the function. The spatio-temporal domain information processing method according to the paragraph.
【請求項15】前記代表点のうちの少なくとも一つにつ
いて、当該代表点についての前記位置データが用いられ
る代わりに、同一フレームにおける他の代表点を基準と
したときの当該代表点の相対的な位置を示すデータが用
いられていることを特徴とする請求項13または14に
記載の時空間領域情報処理方法。
15. For at least one of the representative points, the relative position of the representative point with respect to another representative point in the same frame is used instead of using the position data of the representative point. The spatio-temporal area information processing method according to claim 13 or 14, wherein data indicating a position is used.
【請求項16】前記代表点の前記軌跡を画面上に表示す
るにあたっては、前記フレームに係る2次元座標軸及び
時間軸からなる3次元空間中に該軌跡を配置する形態で
3次元表示することを特徴とする請求項1ないし15の
いずれか1項に記載の時空間領域情報処理方法。
16. When displaying the trajectory of the representative point on a screen, the trajectory is three-dimensionally displayed in a form in which the trajectory is arranged in a three-dimensional space including a two-dimensional coordinate axis and a time axis of the frame. The spatio-temporal area information processing method according to claim 1, wherein:
【請求項17】前記時空間領域情報は、前記近似図形ま
たは前記代表点ごとに、当該近似図形または当該代表点
について表示の有無に関する制御のためのフラグ情報を
含むものであり、 画面上に表示された前記軌跡の形状に対して入力された
前記所定の修正操作に基づいて前記時空間領域情報を修
正するに際して、前記フラグ情報が示す内容に修正の影
響が及ぶ場合には、該フラグ情報をも修正することを特
徴とする請求項1ないし16の1項に記載の時空間領域
情報処理方法。
17. The spatio-temporal area information includes, for each of the approximate graphic or the representative point, flag information for controlling whether or not to display the approximate graphic or the representative point. When modifying the spatio-temporal region information based on the predetermined modification operation input to the shape of the trajectory, if the modification indicates the content indicated by the flag information, the flag information is modified. 17. The spatio-temporal domain information processing method according to claim 1, further comprising:
【請求項18】前記フラグ情報は、前記近似図形または
前記代表点が見えている状態にあるフレーム区間および
見えていない状態にあるフレーム区間を特定可能とする
情報、または前記近似図形または前記代表点についての
各フレーム区間における表示に関する優先度を示す情報
であることを特徴とする請求項17に記載の時空間領域
情報処理方法。
18. The flag information includes information for specifying a frame section in which the approximate figure or the representative point is visible and a frame section in which the approximate point is not visible, or the flag information or the approximate figure or the representative point. 18. The spatio-temporal area information processing method according to claim 17, wherein the information is information indicating a priority regarding display in each frame section of the information.
【請求項19】前記時空間領域情報は、前記近似図形が
前記複数フレームにおいて存在した範囲を包含する領域
を示す存在範囲近似図形に関する情報をも含むものであ
り、 画面上に表示された前記軌跡の形状に対して入力された
前記所定の修正操作に基づいて前記時空間領域情報を修
正するに際して、前記存在範囲近似図形が示す内容に修
正の影響が及ぶ場合には、該存在範囲近似図形に関する
情報をも修正することを特徴とする請求項1ないし16
の1項に記載の時空間領域情報処理方法。
19. The spatio-temporal area information also includes information about an existence range approximate graphic indicating an area including a range where the approximate graphic exists in the plurality of frames, and the trajectory displayed on a screen. When correcting the spatiotemporal region information based on the predetermined correction operation input for the shape of the shape, if the content indicated by the approximate existence range graphic is affected by the modification, 17. The method according to claim 1, wherein the information is also corrected.
2. The spatio-temporal domain information processing method according to item 1.
【請求項20】前記代表点の前記軌跡を画面上に表示す
るに際して、前記存在範囲近似図形を併せて表示するこ
とを特徴とする請求項19に記載の時空間領域情報処理
方法。
20. The spatio-temporal area information processing method according to claim 19, wherein when displaying the trajectory of the representative point on a screen, the approximate existence range figure is also displayed.
【請求項21】画面上に表示された前記存在範囲近似図
形に対する所定の修正操作の入力を受け付け可能とし、 入力された前記修正操作に基づいて、前記存在範囲近似
図形を修正することを特徴とする請求項20に記載の時
空間領域情報処理方法。
21. A method for receiving an input of a predetermined correction operation on the approximate existence range graphic displayed on a screen, and correcting the approximate existence range graphic based on the input correction operation. 21. The spatio-temporal domain information processing method according to claim 20.
【請求項22】前記時空間領域情報は、映像データ中の
任意の連続する複数フレームについて隣接フレームをそ
の重複部分を重ねるように次々と連結して生成されるパ
ノラマ画像中を推移する任意の物体の領域に関する情報
を表すために、映像データ中の対象物体の領域を、該対
象物体の領域に対する近似図形で特定し、該パノラマ画
像中を推移する該近似図形の複数の代表点を抽出し、該
近似図形の代表点の該パノラマ画像中における位置デー
タまたはこれを特定可能なデータをフレームの進行に沿
って並べたときの軌跡を所定の関数で近似し、該関数の
パラメータを用いて該対象物体の領域に関する情報を記
述したものであることを特徴とする請求項1ないし16
の1項に記載の時空間領域情報処理方法。
22. The spatio-temporal region information is an arbitrary object which moves in a panoramic image generated by connecting adjacent frames one after another in a plurality of arbitrary continuous frames in video data so that overlapping portions thereof are overlapped. In order to represent information about the area, the area of the target object in the video data is specified by an approximate figure for the area of the target object, and a plurality of representative points of the approximate figure that moves in the panoramic image are extracted, The trajectory obtained by arranging the position data of the representative point of the approximate figure in the panoramic image or the data capable of specifying the position data along the progress of the frame is approximated by a predetermined function, and the target is determined using the parameters of the function. 17. The method according to claim 1, wherein information on an area of the object is described.
2. The spatio-temporal domain information processing method according to item 1.
【請求項23】前記映像データをパノラマ表示するとと
もに、該パノラマ表示上に前記時空間領域情報に基づい
て得られる前記軌跡を表示することを特徴とする請求項
22に記載の記載の時空間領域情報処理方法。
23. The spatio-temporal region according to claim 22, wherein the video data is displayed in a panoramic manner, and the trajectory obtained based on the spatio-temporal region information is displayed on the panoramic display. Information processing method.
【請求項24】映像データ中における任意の領域の複数
フレームにわたる推移を表すものとして記述された、該
領域を示す近似図形の代表点の軌跡を特定可能な時空間
領域情報を対象にし、該時空間領域情報に修正を施す処
理を行うための時空間領域情報処理システムであって、 対象にした前記領域の前記時空間領域情報に基づいて、
前記代表点の前記軌跡を求めるための手段と、 求められた前記代表点の前記軌跡を、画面上に表示する
ための手段と、画面上に表示された前記軌跡の形状の修
正操作の入力を受け付けるための手段と、 入力された前記修正操作に基づいて、前記時空間領域情
報を修正するための手段とを備えたことを特徴とする時
空間領域情報入力システム。
24. Spatio-temporal region information described as representing a transition of an arbitrary region in a video data over a plurality of frames and capable of specifying a trajectory of a representative point of an approximate figure indicating the region is targeted. A spatio-temporal region information processing system for performing a process of correcting the spatial region information, based on the spatio-temporal region information of the target region,
Means for determining the trajectory of the representative point; means for displaying the trajectory of the determined representative point on a screen; and input of a correction operation of the shape of the trajectory displayed on the screen. A spatio-temporal area information input system, comprising: means for receiving; and means for correcting the spatio-temporal area information based on the input correction operation.
【請求項25】映像データ中における任意の領域の複数
フレームにわたる推移を表すものとして記述された、該
領域を示す近似図形の代表点の軌跡を特定可能な時空間
領域情報を対象にし、該時空間領域情報に修正を施す処
理を行うための時空間領域情報処理システムとしてコン
ピュータを機能させるためのプログラムであって、 対象にした前記領域の前記時空間領域情報に基づいて、
前記代表点の前記軌跡を求めるための機能と、 求められた前記代表点の前記軌跡を、画面上に表示する
ための機能と、 画面上に表示された前記軌跡の形状の修正操作の入力を
受け付けるための機能と、 入力された前記修正操作に基づいて、前記時空間領域情
報を修正するための機能とをコンピュータに実現させる
ためのプログラム。
25. Spatio-temporal area information described as representing a transition of an arbitrary area in a video data over a plurality of frames and capable of specifying a trajectory of a representative point of an approximate figure indicating the area, A program for causing a computer to function as a spatio-temporal region information processing system for performing a process of correcting spatial region information, based on the spatio-temporal region information of the targeted region,
A function for obtaining the trajectory of the representative point, a function for displaying the trajectory of the obtained representative point on a screen, and an input of an operation for correcting the shape of the trajectory displayed on the screen. A program for causing a computer to realize a function for receiving and a function for correcting the spatio-temporal area information based on the input correction operation.
JP2001163274A 2001-05-30 2001-05-30 Spatiotemporal domain information processing method and spatiotemporal domain information processing system Expired - Fee Related JP3790126B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001163274A JP3790126B2 (en) 2001-05-30 2001-05-30 Spatiotemporal domain information processing method and spatiotemporal domain information processing system
US10/156,107 US7146022B2 (en) 2001-05-30 2002-05-29 Spatiotemporal locator processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001163274A JP3790126B2 (en) 2001-05-30 2001-05-30 Spatiotemporal domain information processing method and spatiotemporal domain information processing system

Publications (2)

Publication Number Publication Date
JP2002359777A true JP2002359777A (en) 2002-12-13
JP3790126B2 JP3790126B2 (en) 2006-06-28

Family

ID=19006277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001163274A Expired - Fee Related JP3790126B2 (en) 2001-05-30 2001-05-30 Spatiotemporal domain information processing method and spatiotemporal domain information processing system

Country Status (2)

Country Link
US (1) US7146022B2 (en)
JP (1) JP3790126B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2157549A2 (en) 2008-08-18 2010-02-24 Sony Corporation Image processing apparatus, image processing method, and program
WO2011161924A1 (en) * 2010-06-23 2011-12-29 国立大学法人大阪大学 Moving-object detection device
JP2017037391A (en) * 2015-08-07 2017-02-16 日本電信電話株式会社 Appearance position interpolation device, appearance position interpolation method, and appearance position interpolation program

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100415266B1 (en) * 2000-05-11 2004-01-16 가부시끼가이샤 도시바 Object region information description method, object region information generating device and recording medium
US7356164B2 (en) * 2003-05-30 2008-04-08 Lucent Technologies Inc. Method and apparatus for finding feature correspondences between images captured in real-world environments
US7904815B2 (en) * 2003-06-30 2011-03-08 Microsoft Corporation Content-based dynamic photo-to-video methods and apparatuses
US7817163B2 (en) * 2003-10-23 2010-10-19 Microsoft Corporation Dynamic window anatomy
US7839419B2 (en) * 2003-10-23 2010-11-23 Microsoft Corporation Compositing desktop window manager
US7561160B2 (en) * 2004-07-15 2009-07-14 Olympus Corporation Data editing program, data editing method, data editing apparatus and storage medium
JP4727342B2 (en) * 2004-09-15 2011-07-20 ソニー株式会社 Image processing apparatus, image processing method, image processing program, and program storage medium
US8031226B2 (en) * 2005-03-01 2011-10-04 Fujifilm Corporation Image output apparatus, image output method, image output program, image trimming apparatus, image trimming method, and image trimming program
WO2007038612A2 (en) * 2005-09-26 2007-04-05 Cognisign, Llc Apparatus and method for processing user-specified search image points
US7911482B1 (en) * 2006-01-06 2011-03-22 Videomining Corporation Method and system for efficient annotation of object trajectories in image sequences
US20070196005A1 (en) * 2006-02-23 2007-08-23 White Christopher A Feature Tracing Process for M-mode Images
JP2009539175A (en) * 2006-05-31 2009-11-12 トムソン ライセンシング Multiple tracking of video objects
US8254626B2 (en) * 2006-12-22 2012-08-28 Fujifilm Corporation Output apparatus, output method and program for outputting a moving image including a synthesized image by superimposing images
US8405661B2 (en) 2007-02-23 2013-03-26 International Business Machines Corporation Method for modeling and animating object trajectories in three-dimensional space
JP4505760B2 (en) * 2007-10-24 2010-07-21 ソニー株式会社 Information processing apparatus and method, program, and recording medium
JP5293587B2 (en) 2009-12-16 2013-09-18 ソニー株式会社 Display control apparatus, display control method, and program
US8340504B2 (en) * 2011-04-26 2012-12-25 Sony Computer Entertainment Europe Limited Entertainment device and method
WO2013121239A1 (en) * 2012-02-15 2013-08-22 Thomson Licensing User interface for depictive video editing
KR20150010070A (en) * 2013-07-18 2015-01-28 삼성전자주식회사 Method and apparatus for dispalying images on portable terminal
US9792664B2 (en) * 2015-01-29 2017-10-17 Wipro Limited System and method for mapping object coordinates from a video to real world coordinates using perspective transformation
US11818401B2 (en) 2017-09-14 2023-11-14 Apple Inc. Point cloud geometry compression using octrees and binary arithmetic encoding with adaptive look-up tables
US10861196B2 (en) 2017-09-14 2020-12-08 Apple Inc. Point cloud compression
US10897269B2 (en) 2017-09-14 2021-01-19 Apple Inc. Hierarchical point cloud compression
US11113845B2 (en) 2017-09-18 2021-09-07 Apple Inc. Point cloud compression using non-cubic projections and masks
US10909725B2 (en) 2017-09-18 2021-02-02 Apple Inc. Point cloud compression
US10607373B2 (en) 2017-11-22 2020-03-31 Apple Inc. Point cloud compression with closed-loop color conversion
US10909727B2 (en) 2018-04-10 2021-02-02 Apple Inc. Hierarchical point cloud compression with smoothing
US10939129B2 (en) 2018-04-10 2021-03-02 Apple Inc. Point cloud compression
US10909726B2 (en) 2018-04-10 2021-02-02 Apple Inc. Point cloud compression
US11010928B2 (en) 2018-04-10 2021-05-18 Apple Inc. Adaptive distance based point cloud compression
US11017566B1 (en) 2018-07-02 2021-05-25 Apple Inc. Point cloud compression with adaptive filtering
US11202098B2 (en) 2018-07-05 2021-12-14 Apple Inc. Point cloud compression with multi-resolution video encoding
US11012713B2 (en) 2018-07-12 2021-05-18 Apple Inc. Bit stream structure for compressed point cloud data
US11367224B2 (en) 2018-10-02 2022-06-21 Apple Inc. Occupancy map block-to-patch information compression
US11057564B2 (en) 2019-03-28 2021-07-06 Apple Inc. Multiple layer flexure for supporting a moving image sensor
US11711544B2 (en) * 2019-07-02 2023-07-25 Apple Inc. Point cloud compression with supplemental information messages
EP3996052B1 (en) * 2019-07-02 2024-05-08 Sony Group Corporation Information processing system, information processing method, and program
US11627314B2 (en) 2019-09-27 2023-04-11 Apple Inc. Video-based point cloud compression with non-normative smoothing
US11562507B2 (en) 2019-09-27 2023-01-24 Apple Inc. Point cloud compression using video encoding with time consistent patches
US11538196B2 (en) 2019-10-02 2022-12-27 Apple Inc. Predictive coding for point cloud compression
US11895307B2 (en) 2019-10-04 2024-02-06 Apple Inc. Block-based predictive coding for point cloud compression
US11798196B2 (en) 2020-01-08 2023-10-24 Apple Inc. Video-based point cloud compression with predicted patches
US11475605B2 (en) 2020-01-09 2022-10-18 Apple Inc. Geometry encoding of duplicate points
US11615557B2 (en) 2020-06-24 2023-03-28 Apple Inc. Point cloud compression using octrees with slicing
US11620768B2 (en) 2020-06-24 2023-04-04 Apple Inc. Point cloud geometry compression using octrees with multiple scan orders
US11599253B2 (en) * 2020-10-30 2023-03-07 ROVl GUIDES, INC. System and method for selection of displayed objects by path tracing
US11948338B1 (en) 2021-03-29 2024-04-02 Apple Inc. 3D volumetric content encoding using 2D videos and simplified 3D meshes

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02199579A (en) * 1989-01-30 1990-08-07 Nippon Telegr & Teleph Corp <Ntt> Method of forming animation
JPH05244615A (en) * 1992-02-26 1993-09-21 Hitachi Ltd Device for correcting digital convergence and preparation of correction data
JPH0696186A (en) * 1992-09-10 1994-04-08 Fujitsu Ltd Editor for graphic changing by time/attribute value
JPH08182786A (en) * 1994-12-27 1996-07-16 Shinkiyou Denshi Kk Picture image analyzer of moving body
JPH09190549A (en) * 1996-01-11 1997-07-22 Nec Corp Interactive video presenting device
JPH10188037A (en) * 1996-12-24 1998-07-21 Konami Co Ltd Device, method for synthesizing and displaying image and mechanically readable recording medium recording computer program
JPH10188026A (en) * 1996-12-26 1998-07-21 Masaki Nakagawa Method and storage medium for moving image preparation
JPH10198821A (en) * 1996-11-07 1998-07-31 Sega Enterp Ltd Image processor, image processing method, and recording medium
JPH1139517A (en) * 1997-07-23 1999-02-12 Sanyo Electric Co Ltd Stereoscopic shade describing method and feature point extracting method
JP2000011199A (en) * 1998-06-18 2000-01-14 Sony Corp Automatic generating method for animation
JP2000030083A (en) * 1999-06-15 2000-01-28 Sega Enterp Ltd Image processor and game device provided with the same
JP2000149056A (en) * 1998-11-16 2000-05-30 Nec Corp Method and device for displaying multijoint object
JP2001078091A (en) * 1999-09-02 2001-03-23 Hitachi Ltd Device and method for displaying and editing media scene information and storage medium storing program related to the method
JP2001111996A (en) * 1999-08-04 2001-04-20 Toshiba Corp Object area information describing method, object area information generator, method and device for processing video information
JP2001118075A (en) * 1999-07-09 2001-04-27 Toshiba Corp Method of describing object area information, device of producing the same, method of processing video information, and information processor

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2873338B2 (en) * 1991-09-17 1999-03-24 富士通株式会社 Moving object recognition device
EP0551543A1 (en) * 1992-01-16 1993-07-21 Hewlett-Packard GmbH Method of modifying a geometric object and computer aided design system
US6144972A (en) * 1996-01-31 2000-11-07 Mitsubishi Denki Kabushiki Kaisha Moving image anchoring apparatus which estimates the movement of an anchor based on the movement of the object with which the anchor is associated utilizing a pattern matching technique
KR100415266B1 (en) * 2000-05-11 2004-01-16 가부시끼가이샤 도시바 Object region information description method, object region information generating device and recording medium

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02199579A (en) * 1989-01-30 1990-08-07 Nippon Telegr & Teleph Corp <Ntt> Method of forming animation
JPH05244615A (en) * 1992-02-26 1993-09-21 Hitachi Ltd Device for correcting digital convergence and preparation of correction data
JPH0696186A (en) * 1992-09-10 1994-04-08 Fujitsu Ltd Editor for graphic changing by time/attribute value
JPH08182786A (en) * 1994-12-27 1996-07-16 Shinkiyou Denshi Kk Picture image analyzer of moving body
JPH09190549A (en) * 1996-01-11 1997-07-22 Nec Corp Interactive video presenting device
JPH10198821A (en) * 1996-11-07 1998-07-31 Sega Enterp Ltd Image processor, image processing method, and recording medium
JPH10188037A (en) * 1996-12-24 1998-07-21 Konami Co Ltd Device, method for synthesizing and displaying image and mechanically readable recording medium recording computer program
JPH10188026A (en) * 1996-12-26 1998-07-21 Masaki Nakagawa Method and storage medium for moving image preparation
JPH1139517A (en) * 1997-07-23 1999-02-12 Sanyo Electric Co Ltd Stereoscopic shade describing method and feature point extracting method
JP2000011199A (en) * 1998-06-18 2000-01-14 Sony Corp Automatic generating method for animation
JP2000149056A (en) * 1998-11-16 2000-05-30 Nec Corp Method and device for displaying multijoint object
JP2000030083A (en) * 1999-06-15 2000-01-28 Sega Enterp Ltd Image processor and game device provided with the same
JP2001118075A (en) * 1999-07-09 2001-04-27 Toshiba Corp Method of describing object area information, device of producing the same, method of processing video information, and information processor
JP2001111996A (en) * 1999-08-04 2001-04-20 Toshiba Corp Object area information describing method, object area information generator, method and device for processing video information
JP2001078091A (en) * 1999-09-02 2001-03-23 Hitachi Ltd Device and method for displaying and editing media scene information and storage medium storing program related to the method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2157549A2 (en) 2008-08-18 2010-02-24 Sony Corporation Image processing apparatus, image processing method, and program
US9165389B2 (en) 2008-08-18 2015-10-20 Sony Corporation Image processing apparatus, image processing method, and program
US9955038B2 (en) 2008-08-18 2018-04-24 Sony Corporation Image processing apparatus, image processing method, and program
WO2011161924A1 (en) * 2010-06-23 2011-12-29 国立大学法人大阪大学 Moving-object detection device
JP5467300B2 (en) * 2010-06-23 2014-04-09 国立大学法人大阪大学 Moving object detection device
US8958641B2 (en) 2010-06-23 2015-02-17 Osaka University Moving object detection device
JP2017037391A (en) * 2015-08-07 2017-02-16 日本電信電話株式会社 Appearance position interpolation device, appearance position interpolation method, and appearance position interpolation program

Also Published As

Publication number Publication date
US7146022B2 (en) 2006-12-05
US20020181741A1 (en) 2002-12-05
JP3790126B2 (en) 2006-06-28

Similar Documents

Publication Publication Date Title
JP3790126B2 (en) Spatiotemporal domain information processing method and spatiotemporal domain information processing system
US9270965B2 (en) Multi-stage production pipeline system
US9286941B2 (en) Image sequence enhancement and motion picture project management system
US9367942B2 (en) Method, system and software program for shooting and editing a film comprising at least one image of a 3D computer-generated animation
JP3177221B2 (en) Method and apparatus for displaying an image of an interesting scene
JP7017175B2 (en) Information processing equipment, information processing method, program
JP2000307949A (en) Image interpolating method, image processing method, image displaying method, image processor, image display device and computer program storage medium
JP3104638B2 (en) 3D image creation device
US6937760B2 (en) Interactive frame segmentation with dynamic programming
JP2727974B2 (en) Video presentation device
JP3312105B2 (en) Moving image index generation method and generation device
JP2003303333A (en) Image display control device
KR100427879B1 (en) Recording medium storing program for generating object area information and object area information generated by the program
JP3735552B2 (en) Processing method of spatio-temporal region information
US9396574B2 (en) Choreography of animated crowds
JP2002056392A (en) Object region information description method, object region information generating device and object region information description program
WO2021217385A1 (en) Video processing method and apparatus
JPH11259673A (en) Space stroll video display method, in-space object retrieving method, and in-space object extracting method, device therefor, and recording medium where the methods are recorded
JP3309841B2 (en) Synthetic moving image generating apparatus and synthetic moving image generating method
JPH11185051A (en) Animation creating device
JP2022029239A (en) Image processing apparatus, image processing method, and program
JPH11175765A (en) Method and device for generating three-dimensional model and storage medium
JP3179318B2 (en) Information presentation device
JP2005084805A (en) Space-time region information processing method, space-time region information processing system, and program
JP2008181515A (en) Method of describing object area information, method of processing video information, and information processor

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060330

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100407

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100407

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110407

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130407

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140407

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees