JP2003281548A - Video editing method and program - Google Patents

Video editing method and program

Info

Publication number
JP2003281548A
JP2003281548A JP2002087000A JP2002087000A JP2003281548A JP 2003281548 A JP2003281548 A JP 2003281548A JP 2002087000 A JP2002087000 A JP 2002087000A JP 2002087000 A JP2002087000 A JP 2002087000A JP 2003281548 A JP2003281548 A JP 2003281548A
Authority
JP
Japan
Prior art keywords
dividing
function
video editing
reference image
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002087000A
Other languages
Japanese (ja)
Other versions
JP3677253B2 (en
Inventor
Nobuyuki Matsumoto
信幸 松本
Takashi Ida
孝 井田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2002087000A priority Critical patent/JP3677253B2/en
Publication of JP2003281548A publication Critical patent/JP2003281548A/en
Application granted granted Critical
Publication of JP3677253B2 publication Critical patent/JP3677253B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a video editing method and program for obtaining suitable and high-precision tracking result even if deformation of an object from a reference image can't be approximated by one set of affin deformation. <P>SOLUTION: In this video editing method using the result of tracing an object in video data, at least one still-picture representing the object is obtained as a reference image from the video data. According to the operation from a user, a dot or an area is specified on the reference image. According to the specification result, the object is divided into a plurality of small objects. Each of the plurality of divided small objects is traced. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、映像中の物体を追
跡して抽出するといった映像編集に好適な映像編集方法
及びプログラムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video editing method and program suitable for video editing such as tracking and extracting an object in a video.

【0002】[0002]

【従来の技術】画像処理の分野において、映像中の特定
の被写体に注目しその物体を追跡する技術がある。この
技術は、映像中の物体に関連情報(例えば名前や値段な
ど)を付与しておき、ユーザーが該物体をポインティン
グした際に関連情報を提示するといったインタラクティ
ブな映像を制作する際に、アンカー領域の指定に用いら
れたり、追跡された物体を背景から切り出して別の背景
画像に合成して加工する映像作成やWebページのコン
テンツ作成等に利用される。
2. Description of the Related Art In the field of image processing, there is a technique of focusing on a specific subject in a video and tracking the object. In this technology, the related information (for example, name, price, etc.) is given to the object in the image, and the anchor area is created when the user creates the interactive image by presenting the related information when the user points the object. It is used to specify an image or create a video for cutting out a tracked object from a background and synthesizing it with another background image for processing, or creating a web page content.

【0003】動画像圧縮の国際規格であるMPEG−4
においては、参考文献1「MPEG-4 standardized method
s for the compression of arbitrarily shaped video
objects」 N. Brady(IEEE Transactions on Circuits an
d Systems for Video Technology, vol. 9, no. 8, pp.
1170-1189, December 1999)に記載のように、物体毎
にデータを符号化するオブジェクト符号化の機能が採用
されている。このオブジェクト符号化においては、符号
化する前のオブジェクトデータの作成のために、映像中
における物体の追跡切り出し技術が利用されている。
MPEG-4, which is an international standard for moving image compression
In Reference 1 “MPEG-4 standardized method”.
s for the compression of arbitrarily shaped video
objects '' N. Brady (IEEE Transactions on Circuits an
d Systems for Video Technology, vol. 9, no. 8, pp.
1170-1189, December 1999), a function of object coding for coding data for each object is adopted. In this object encoding, a tracking cutout technique of an object in a video is used to create object data before encoding.

【0004】その具体的なアルゴリズムの一つとして、
特開2000−132691号公報「映像領域追跡方法
および装置」(参考文献2「ロバスト統計による変形推
定を用いた高速な物体追跡手法」金子,堀(第5回画像
センシングシンポジウム講演論文集,SII'99, C-18, p
p.129-134, 1999))がある。本手法について、図10を
参照して説明する。
As one of the concrete algorithms,
Japanese Patent Application Laid-Open No. 2000-132691 "Image region tracking method and apparatus" (Reference 2 "High-speed object tracking method using deformation estimation by robust statistics" Kaneko, Hori (Proceedings of the 5th Image Sensing Symposium, SII ' 99, C-18, p
p.129-134, 1999)). This method will be described with reference to FIG.

【0005】すなわち、参照画像においてユーザの手入
力によって指定された物体領域から、図10(a)のよ
うに追跡に効果的な有限個の特徴点を選択する。具体的
には、物体領域において所定間隔で特徴点候補を格子状
に配置し、特徴点候補を中心に所定の大きさのブロック
(例えば8×8画素)を定め、このような特徴点候補を
中心に周囲領域においてブロックマッチングを行い、こ
のブロックマッチングから得られた類似度が低い、つま
り、処理画像との追跡を行う際のブロックマッチング誤
り(追跡誤り)が起こりにくいと判断される特徴点候補
を、信頼性の高いものから順に所定数だけ選択する。
That is, a finite number of feature points effective for tracking are selected from the object area designated by the user's manual input in the reference image, as shown in FIG. Specifically, feature point candidates are arranged in a grid at predetermined intervals in the object region, a block of a predetermined size (for example, 8 × 8 pixels) is defined around the feature point candidates, and such feature point candidates are set. A feature point candidate that is determined to be unlikely to cause a block matching error (tracking error) when performing block matching in the surrounding area around the center and having low similarity obtained from this block matching, that is, when performing tracking with the processed image. Are selected in order from the highest reliability.

【0006】続いて、図10(b)のように、参照画像
に配置された特徴点を中心としたブロックと処理画像と
でブロックマッチングを行って移動ベクトルを推定す
る。一般に、これら移動ベクトルには外れ値が含まれて
いるから、ロバスト推定によって物体の変形を表すアフ
ィン(Affine)パラメータを推定し、図10
(c)のように処理画像における物体の追跡を実現する
ことができる。
Subsequently, as shown in FIG. 10B, block matching is performed between the block centering on the feature point arranged in the reference image and the processed image to estimate the movement vector. In general, since these movement vectors include outliers, an affine parameter representing the deformation of the object is estimated by robust estimation, and FIG.
Tracking of an object in a processed image can be realized as in (c).

【0007】[0007]

【発明が解決しようとする課題】しかしながら、アフィ
ン変形推定を用いる従来の物体追跡手法では、物体の移
動に対して1組のアフィンパラメータによって変形推定
を行うものであることから、参照画像からの物体の変形
が1組のアフィン変形では近似できない場合に適切かつ
高精度な追跡結果が得られないおそれがある。
However, in the conventional object tracking method using the affine deformation estimation, since the deformation is estimated by a set of affine parameters with respect to the movement of the object, the object from the reference image is estimated. If the deformation of 1 cannot be approximated by a set of affine deformations, an appropriate and highly accurate tracking result may not be obtained.

【0008】本発明はかかる事情を考慮してなされたも
のであり、参照画像からの物体の変形が1組のアフィン
変形では近似できない場合であっても適切かつ高精度な
追跡結果を得ることのできる映像編集方法及びプログラ
ムを提供することを目的とする。
The present invention has been made in consideration of such circumstances, and it is possible to obtain an appropriate and highly accurate tracking result even when the deformation of an object from a reference image cannot be approximated by a set of affine deformations. An object of the present invention is to provide a video editing method and program that can be performed.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するため
に、本発明の映像編集方法及びプログラムは次のように
構成されている。
In order to achieve the above object, the video editing method and program of the present invention are configured as follows.

【0010】本発明に係る映像編集方法は、映像データ
における物体の追跡を伴う映像編集方法において、前記
映像データから前記物体を含む少なくとも1枚の静止画
像を参照画像として取得する工程と、ユーザからの操作
に応じて前記参照画像上に点又は領域を指定することに
より、前記物体を複数の小物体に分割する工程と、前記
複数の小物体間の接続情報を前記分割工程における分割
結果に基づいて算出する工程と、分割された前記複数の
小物体のそれぞれを物体追跡する物体追跡工程と、を具
備することを特徴とする。
A video editing method according to the present invention is a video editing method which involves tracking an object in video data, wherein at least one still image including the object is acquired from the video data as a reference image, and from a user. By dividing the object into a plurality of small objects by designating points or regions on the reference image in accordance with the operation, and connecting information between the plurality of small objects based on the division result in the dividing step. And the object tracking step of tracking each of the divided small objects.

【0011】また、本発明に係る映像編集プログラム
は、映像データにおける物体の追跡を伴う映像編集プロ
グラムであって、前記映像データから前記物体を含む少
なくとも1枚の静止画像を参照画像として取得する機能
と、ユーザからの操作に応じて前記参照画像上に点又は
領域を指定することにより、前記物体を複数の小物体に
分割する機能と、前記複数の小物体間の接続情報を前記
分割機能による分割結果に基づいて算出する機能と、分
割された前記複数の小物体のそれぞれを物体追跡する物
体追跡機能と、をコンピュータに実現させるための映像
編集プログラムである。
A video editing program according to the present invention is a video editing program accompanied by tracking of an object in video data, and has a function of acquiring at least one still image containing the object from the video data as a reference image. And a function of dividing the object into a plurality of small objects by designating a point or a region on the reference image according to an operation from a user, and connection information between the plurality of small objects by the dividing function. It is a video editing program for causing a computer to realize a function of calculating based on a division result and an object tracking function of tracking each of the plurality of divided small objects.

【0012】[0012]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態を説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.

【0013】(第1実施形態)図1は、本発明の第1実
施形態に係る映像編集処理の流れを示すフローチャート
である。かかる映像編集処理は、例えば図示しないコン
ピュータ上で動作するプログラムとして実現される。コ
ンピュータとしては、例えば汎用のパーソナルコンピュ
ータ(PC)や画像処理用のワークステーション(W
S)であり、これらは基本的なハードウェア構成とし
て、CPU、メモリ、外部記憶装置、グラフィックボー
ド(画像処理ユニット)、ディスプレイ、ならびにキー
ボードおよびマウス等の入出力デバイスを備える。ま
た、本実施形態に係るコンピュータプログラムは、同コ
ンピュータ上で動作するオペレーティングシステム(O
S)に対応するアプリケーションプログラムとして実現
することができる。
(First Embodiment) FIG. 1 is a flowchart showing the flow of a video editing process according to the first embodiment of the present invention. The video editing process is realized as a program that runs on a computer (not shown), for example. As the computer, for example, a general-purpose personal computer (PC) or a workstation (W for image processing)
S), which has a basic hardware configuration such as a CPU, a memory, an external storage device, a graphic board (image processing unit), a display, and input / output devices such as a keyboard and a mouse. The computer program according to the present embodiment is an operating system (O) operating on the computer.
It can be realized as an application program corresponding to S).

【0014】本実施形態に係る映像編集処理は、物体の
映像データ(動画像)を入力し、後に詳述する物体情報
抽出を行ったのち、物体追跡を実行しその追跡結果を出
力するというものであり、図1に示すように参照画像記
憶工程S101と、物体情報抽出工程S102と、物体
追跡工程S103とにより構成されている。
In the video editing process according to the present embodiment, video data (moving image) of an object is input, object information is extracted, which will be described in detail later, and then object tracking is executed and the tracking result is output. As shown in FIG. 1, it is composed of a reference image storing step S101, an object information extracting step S102, and an object tracking step S103.

【0015】先ず、参照画像記憶工程S101では、映
像データにおける任意の時点の静止画像を参照画像とし
て得る。例えばこの参照画像は追跡対象の物体が映像中
で最初に出現するフレームであったり、物体を表す一連
のフレームのうち、ユーザにより指定された任意の時点
のものであったりする。参照画像は上記コンピュータ内
のメモリ及び外部記憶装置に一時的に記憶される。
First, in the reference image storing step S101, a still image at any time in the video data is obtained as a reference image. For example, the reference image may be a frame in which the object to be tracked first appears in the video, or a series of frames representing the object at an arbitrary time point designated by the user. The reference image is temporarily stored in the memory in the computer and the external storage device.

【0016】次に、物体情報抽出工程S102では、参
照画像における物体の位置及び構造に関する情報を抽出
する。物体の位置及び構造に関する情報とは、参照画像
中において物体がどのような形で、参照画像中のどの位
置に存在しているかを表す情報であり、一般に「マスク
画像」という。マスク画像は例えば「0」又は「1」の
いずれかのみの画素値から構成される画像、いわゆる二
値画像である。
Next, in the object information extracting step S102, information on the position and structure of the object in the reference image is extracted. The information on the position and structure of the object is information indicating in what form the object is in the reference image and at which position in the reference image, and is generally called a “mask image”. The mask image is, for example, a so-called binary image, which is an image composed of pixel values of only “0” or “1”.

【0017】この物体情報抽出工程S102は、上述し
た特開2000−132691号「映像領域追跡方法お
よび装置」に記載のロバスト統計による変形推定を利用
した物体追跡手法において、参照画像に対してユーザの
手入力によって物体領域を指定する部分に相当する。ま
た上述したように、この従来手法による追跡は1組のア
フィンパラメータで表される変形として追跡を行うもの
であるから、自動車や人の顔等は追跡できるが例えば顔
と体が別々に動くような人物上半身など、複数の物体か
ら成る被写体に対しては精度良く追跡することにやや難
があった。
This object information extracting step S102 is performed by the user with respect to the reference image in the object tracking method using the deformation estimation by the robust statistics described in the above-mentioned Japanese Patent Application Laid-Open No. 2000-132691 "Image area tracking method and apparatus". This corresponds to a portion in which the object area is designated by manual input. Further, as described above, since the tracking by this conventional method is performed as a modification represented by a set of affine parameters, it is possible to track the face of a car or a person, but the face and the body move separately. It was somewhat difficult to track a subject consisting of multiple objects such as a person's upper body with high accuracy.

【0018】そこで、本実施形態の物体情報抽出工程S
102では、物体についての属性情報として、物体全体
についての位置及び構造を抽出するのみならず、この物
体を複数の小物体に分割することができ、かかる分割を
行った場合に、それぞれの小物体毎に(ラベリングされ
た)位置及び構造の情報を抽出するよう構成されてい
る。尚、これら複数の小物体間のつながり、すなわち小
物体間の接続情報については、必要であればこれを抽出
し保存するよう構成することが好ましい。後述する第8
実施形態では、保存された接続情報に基づいてマスク画
像を高精度化する。
Therefore, the object information extracting step S of the present embodiment
In 102, not only can the position and structure of the entire object be extracted as attribute information about the object, but this object can also be divided into a plurality of small objects. When such division is performed, each small object can be divided. It is configured to extract the (labeled) position and structure information for each. Incidentally, it is preferable that the connection between the plurality of small objects, that is, the connection information between the small objects is extracted and stored if necessary. The eighth mentioned later
In the embodiment, the mask image is highly accurate based on the stored connection information.

【0019】物体情報抽出工程S102は、図2に示す
ように、物体背景分離工程S201と物体分割工程S2
02とに大別される。物体背景分離工程S201では、
参照画像内の物体と背景とを分離し、物体の位置・構造
の情報を抽出する。この物体背景分離工程S201は、
例えば、複数の画素から成るポインタをユーザの操作に
より画面内で移動させ、ポインタが移動した領域を物体
領域とし、その形や位置を抽出する方法(特開2001
−14477号公報)や、物体の色情報に基づく領域分
割法、参照画像内のエッジ情報をもとに物体の輪郭線を
画素単位で追跡する輪郭線追跡法、動的輪郭線を使うス
ネイク法、あるいは、物体が存在しない背景画像が別途
存在する場合は背景差分法など、既知の物体領域指定方
法を用いて実現できる。
As shown in FIG. 2, the object information extracting step S102 includes an object background separating step S201 and an object dividing step S2.
It is roughly divided into 02. In the object background separation step S201,
The object in the reference image and the background are separated, and information on the position / structure of the object is extracted. This object background separation step S201
For example, a method of moving a pointer composed of a plurality of pixels on the screen by a user's operation, making the area to which the pointer has moved an object area, and extracting the shape and position thereof (Japanese Patent Laid-Open No. 2001-2001).
No. 14477), a region segmentation method based on color information of an object, a contour line tracking method for tracking the contour line of an object in pixel units based on edge information in a reference image, and a snake method using a dynamic contour line. Alternatively, when there is a background image in which an object does not exist, it can be realized by using a known object area designating method such as a background subtraction method.

【0020】次の物体分割工程S202は、マウス等へ
のユーザの操作に応じてポインタを画像内で移動させる
などして物体を複数の小物体に分割する工程である。図
3を用いて、物体分割工程S202の一例を詳細に説明
する。まず、図3(a)は背景BK0の上に物体である
人物上半身Sが描出された初期の参照画像の一枚を示し
ている。一方、図3(b)は、物体背景分離工程S20
1によって、物体Sが背景から分離された参照画像であ
る。分離された背景部分BK1は所定の画像パターン
(チェック柄の模様等)で塗りつぶされる。尚、図では
説明のため空白により塗りつぶしてある。
The next object dividing step S202 is a step of dividing the object into a plurality of small objects by moving the pointer in the image in accordance with the user's operation on the mouse or the like. An example of the object dividing step S202 will be described in detail with reference to FIG. First, FIG. 3A shows one initial reference image in which a person's upper body S, which is an object, is drawn on the background BK0. On the other hand, FIG. 3B shows the object background separation step S20.
1 is the reference image in which the object S is separated from the background. The separated background portion BK1 is filled with a predetermined image pattern (check pattern, etc.). It should be noted that in the figure, for the sake of explanation, it is filled with a blank.

【0021】ここで、図4は、本実施形態の物体分割工
程S202に適用される分割用ポインタを説明するため
の図である。すなわち、図4(a)に示すP1は、ユー
ザの操作に応じて画面内を移動するポインタであり、そ
の通過軌跡における物体の画素データを消去する(背景
の画素データにする)ことで当該物体を分割するための
分割ツールを構成する。ユーザは、図4(b)に示すよ
うに分割ツールP1を画像内で移動させ、物体を複数の
小物体に分割する。ここでは、人物上半身を、顔部分と
体部分の二つの小物体に分割している。この分割ツール
P1を用いることによって、図4(c)のように、顔部
分の位置・構造情報と、体部分の位置・構造情報とをそ
れぞれ得て保持する。また、顔部分と体部分とからなる
二つの小物体間の接続情報として、分割ツールP1が物
体に入り込んだ点と抜け出た点の座標をそれぞれ保持す
る。この図4の例は分割ツールP1を用いて物体を2つ
の小物体に分割し、それぞれについての位置・構造情報
を抽出するものであるが、3つ以上の小物体に分割して
も良いことは勿論である。
Here, FIG. 4 is a diagram for explaining the dividing pointer applied to the object dividing step S202 of the present embodiment. That is, P1 shown in FIG. 4A is a pointer that moves in the screen according to the user's operation, and erases the pixel data of the object in the passing locus (makes it into the background pixel data) the object. Configure a split tool for splitting. The user moves the division tool P1 in the image as shown in FIG. 4B to divide the object into a plurality of small objects. Here, the upper body of the person is divided into two small objects, a face portion and a body portion. By using this division tool P1, as shown in FIG. 4C, the position / structure information of the face portion and the position / structure information of the body portion are obtained and held. Further, as the connection information between the two small objects including the face part and the body part, the division tool P1 holds the coordinates of the points entering and exiting the object, respectively. In the example of FIG. 4, the object is divided into two small objects by using the division tool P1 and the position / structure information about each is extracted, but it may be divided into three or more small objects. Of course.

【0022】次に、物体追跡工程S103は、参照画像
において分割されたそれぞれの小物体について、各々抽
出された位置・構造情報を用い、上述した公知の物体追
跡手法を施す工程である。なお、物体追跡手法は上述し
た特開2000−132691号「映像領域追跡方法お
よび装置」に記載のロバスト統計による変形推定を利用
した物体追跡手法のみに限定されない。
Next, the object tracking step S103 is a step of applying the above-described known object tracking method to each small object divided in the reference image by using the extracted position / structure information. Note that the object tracking method is not limited to only the object tracking method using the deformation estimation by the robust statistics described in the above-mentioned Japanese Patent Application Laid-Open No. 2000-132691 "Image region tracking method and apparatus".

【0023】より具体的には、この物体追跡工程S10
3は、第1の小物体(例えば顔)についての物体追跡を
図11のフローに従って第1のアフィン変形により処理
し、第2の小物体(例えば胴体)についての物体追跡を
同図11のフローに従って第2のアフィン変形により処
理する。
More specifically, this object tracking step S10
3 processes the object tracking for the first small object (for example, face) by the first affine deformation according to the flow of FIG. 11, and the object tracking for the second small object (for example, the body) is performed in the flow of FIG. 11. According to the second affine transformation.

【0024】図11は、物体追跡工程S103の詳細を
示すフローチャートである。
FIG. 11 is a flowchart showing details of the object tracking step S103.

【0025】これは、ロバスト統計によるアフィン変形
推定を利用した物体追跡アルゴリズムの実現手順を示す
ものである。
This shows a procedure for implementing an object tracking algorithm using affine deformation estimation based on robust statistics.

【0026】(ステップS1) 図12(a)に示すよ
うな入力映像(参照フレーム画像)に対応するマスク領
域を図12(b)のように入力する。
(Step S1) A mask area corresponding to an input image (reference frame image) as shown in FIG. 12A is input as shown in FIG. 12B.

【0027】(ステップS2) 図13に示すように、
参照フレームにおいて特徴点P1〜P9を選択する。
(Step S2) As shown in FIG.
The feature points P1 to P9 are selected in the reference frame.

【0028】(ステップS3) フレームナンバーを示
す変数iを初期化し、これをi=(初期フレームナンバ
ー+1)に設定する。
(Step S3) A variable i indicating a frame number is initialized and set to i = (initial frame number + 1).

【0029】(ステップS4) 図14に示すように、
初期フレームと第iフレームの輝度情報を用い、各特徴
点を含むブロックのブロックマッチングによってアフィ
ン変形パラメータをそれぞれ求める。さらに、ロバスト
推定によって一組のアフィン変形パラメータを求める。
(Step S4) As shown in FIG.
Using the luminance information of the initial frame and the i-th frame, affine deformation parameters are obtained by block matching of blocks including each feature point. Furthermore, a set of affine deformation parameters is obtained by robust estimation.

【0030】(ステップS5) 図15に示すように、
ステップS4で求められたアフィン変形パラメータを用
い、マニュアル入力された初期フレームにおけるマスク
を変形し、第iフレームでのマスクを推定する。これに
よって、図16(a)に示すような第iフレーム画像に
おけるマスク領域を図16(b)のように求めることが
できる。
(Step S5) As shown in FIG.
Using the affine deformation parameter obtained in step S4, the mask in the manually input initial frame is deformed to estimate the mask in the i-th frame. Thereby, the mask area in the i-th frame image as shown in FIG. 16A can be obtained as shown in FIG. 16B.

【0031】(ステップS6) フレームナンバーiが
終了フレームに達していれば処理を終了する。達してい
なければ、iに1を加算(ステップS7)して、ステッ
プS4に戻る。
(Step S6) If the frame number i reaches the end frame, the process is ended. If not reached, 1 is added to i (step S7), and the process returns to step S4.

【0032】したがって、参照画像における物体からの
物体の変形が、複数のアフィン変形で表される場合であ
っても映像中の物体を適切かつ高精度に追跡することが
可能になる。尚、各小物体間の接続情報を保持している
場合は、これが保たれるよう追跡処理を行うことが好ま
しい。
Therefore, even when the deformation of the object from the object in the reference image is represented by a plurality of affine deformations, the object in the image can be appropriately and accurately tracked. When the connection information between the small objects is held, it is preferable to perform the tracking process so that the connection information is maintained.

【0033】(第2実施形態)本実施形態は、第1実施
形態で説明した物体分割工程S202において、分割ツ
ールP1に代えて小物体選択ツールを用いるものであ
り、これにより第1実施形態と同様に小物体の位置・構
造情報を抽出するよう構成される。その他の工程につい
ては第1実施形態と同様である。図5は、本実施形態の
小物体選択ツールを説明するための図である。図5に示
すT1〜T3は、物体領域から小物体を選択するための
選択ツールの構成要素である。ユーザが、図5(a)の
人物上半身から顔部分を小物体として選択したい場合、
まず、図5(a)のように小物体の外側に選択始点T1
を指定する。続いて、ユーザが選択ツールT2を移動さ
せることによって、選択始点T1と選択ツールT2によ
って囲まれる図5(b)のような可変矩形(楕円として
もよい)T3を選択範囲として画面上に表示させる。そ
して図5(c)に示すように、選択範囲に顔部分が含ま
れるようにユーザが選択ツールT2を操作する。なお、
物体背景分離工程S201によって背景から物体が分離
された物体領域のうち、顔部分以外の領域として、体部
分を選択してもよい。これによって、顔部分の位置・構
造情報と、体部分の位置・構造情報とをそれぞれ抽出で
きる。また、顔部分、体部分からなる二つの小物体間の
接続情報としては、選択範囲と物体領域との交点を保持
すればよい。例えば図5(c)において、T3に相当す
る選択範囲は、体部分(頚)の両端2点で交わってい
る。
(Second Embodiment) In this embodiment, a small object selecting tool is used in place of the dividing tool P1 in the object dividing step S202 described in the first embodiment. Similarly, it is configured to extract the position / structure information of the small object. Other steps are the same as those in the first embodiment. FIG. 5 is a diagram for explaining the small object selection tool of this embodiment. T1 to T3 shown in FIG. 5 are components of a selection tool for selecting a small object from the object area. When the user wants to select a face portion as a small object from the upper body of the person in FIG.
First, as shown in FIG. 5A, the selection start point T1 is placed outside the small object.
Is specified. Subsequently, the user moves the selection tool T2 to display a variable rectangle (may be an ellipse) T3 surrounded by the selection start point T1 and the selection tool T2 as a selection range on the screen as shown in FIG. 5B. . Then, as shown in FIG. 5C, the user operates the selection tool T2 so that the selection area includes the face portion. In addition,
The body part may be selected as a region other than the face part in the object region in which the object is separated from the background in the object background separation step S201. Thereby, the position / structure information of the face portion and the position / structure information of the body portion can be extracted. Further, as the connection information between the two small objects including the face part and the body part, the intersection of the selection range and the object region may be held. For example, in FIG. 5C, the selection range corresponding to T3 intersects at two points on both ends of the body part (neck).

【0034】以上説明したように、本実施形態によって
も第1実施形態と同様に物体の位置・構造情報を精度良
く抽出することができるようになる。
As described above, according to the present embodiment, the position / structure information of the object can be accurately extracted as in the first embodiment.

【0035】(第3実施形態)本実施形態は、第1実施
形態で説明した物体分割工程S202において、分割ツ
ールP1に代えて接続点指定ツールを用いるものであ
り、これにより第1実施形態と同様に小物体への分割を
行うよう構成される。その他の工程については第1実施
形態と同様である。図6は、本実施形態の接続点指定ツ
ールを説明するための図である。図6に示すU1〜U4
は、物体背景分離工程S201によって背景から物体が
分離された物体領域内で接続点を指定するための指定ツ
ールの構成要素である。ユーザが、図6(a)の人物上
半身から顔部分と体部分とをそれぞれ小物体として分割
したい場合、まず、図6(a)のように、顔部分と体部
分との境界となる位置に指定ツールU1を移動させ、こ
れを接続点として指定する。そうすると図6(b)のよ
うに、指定された点から最も距離が短くなる背景領域の
位置U2と、その反対方向で最も距離が短くなる背景領
域の位置U3とを自動的に導出する。これらU2−U1
−U3の3点を結ぶように分割線(自由曲線が好まし
い)U4で繋ぐ。かくして図6(c)に示すように、顔
部分と体部分とからなる二つの小物体を得ることができ
る。したがって、顔部分の位置・構造情報と、体部分の
位置・構造情報とをそれぞれ抽出できる。また、顔部
分、体部分からなる二つの小物体間の接続情報として
は、接続点U1、もしくは、分割位置U2,U3の座標
を保持すればよい。
(Third Embodiment) In this embodiment, in the object dividing step S202 described in the first embodiment, a connection point designating tool is used in place of the dividing tool P1. Similarly, it is configured to divide into small objects. Other steps are the same as those in the first embodiment. FIG. 6 is a diagram for explaining the connection point designating tool of this embodiment. U1 to U4 shown in FIG.
Is a component of a designation tool for designating a connection point in the object region in which the object is separated from the background in the object background separation step S201. When the user wants to divide the face part and the body part into small objects from the upper body of the person in FIG. 6A, respectively, first, as shown in FIG. 6A, at the position that is the boundary between the face part and the body part. The designated tool U1 is moved and designated as a connection point. Then, as shown in FIG. 6B, the position U2 of the background area having the shortest distance from the designated point and the position U3 of the background area having the shortest distance in the opposite direction are automatically derived. These U2-U1
-Connect with a dividing line (preferably a free curve) U4 to connect the three points of U3. Thus, as shown in FIG. 6C, it is possible to obtain two small objects including a face part and a body part. Therefore, the position / structure information of the face part and the position / structure information of the body part can be extracted respectively. Further, as the connection information between the two small objects including the face part and the body part, the connection point U1 or the coordinates of the division positions U2 and U3 may be held.

【0036】以上説明したように、本実施形態によって
も第1実施形態と同様に物体の位置・構造情報を精度良
く抽出することができる。
As described above, according to the present embodiment, the position / structure information of the object can be accurately extracted as in the first embodiment.

【0037】(第4実施形態)本実施形態は、物体情報
抽出工程S102において上述した第1実施形態乃至第
3実施形態のように先ず一つの物体として物体背景分離
工程S201によって物体領域を背景から分離し、次に
この物体領域を小物体に分割するという工程ではなく、
参照画像記憶工程S101において記憶した参照画像に
対する処理によって複数の小物体からなる物体の位置・
構造情報を抽出するというものである。例えば、図7
(a)が、参照画像記憶工程S101において記憶され
た参照画像とする。まず、ユーザは第1実施形態におけ
る物体背景分離工程S201で説明した特開2001−
14477号公報に記載の方法等を用いて顔部分のみを
参照画像から分離する。すなわち、図7(a)の参照画
像に対して、ユーザの操作によって複数の画素から成る
ポインタを画面内で移動させ、このポインタが移動した
領域を物体領域として指定する方法によって顔部分R1
のみを図7(b)のように分離する。続いて、図7
(a)の参照画像に対して、同様にポインタを画面内で
移動させ、このポインタが移動した領域を物体領域とし
て指定する方法によって体部分R2のみを図7(c)の
ように分離する。このようにして、複数の領域に対して
独立に物体領域と背景領域を指定して行くことにより、
複数の小物体についての位置・構造情報を抽出すること
ができる。尚、接続情報としては、重なり領域の端点や
重心等を保持すればよい。
(Fourth Embodiment) In this embodiment, as in the first to third embodiments described above in the object information extracting step S102, the object area is separated from the background by the object background separating step S201 as one object. Instead of separating and then dividing this object region into smaller objects,
The position of an object composed of a plurality of small objects by the processing on the reference image stored in the reference image storing step S101.
This is to extract structural information. For example, in FIG.
Let (a) be the reference image stored in the reference image storing step S101. First, the user has described the object background separating step S201 in the first embodiment in Japanese Patent Laid-Open No. 2001-
Only the face part is separated from the reference image by using the method described in Japanese Patent No. 14477. That is, with respect to the reference image of FIG. 7A, a pointer made up of a plurality of pixels is moved on the screen by a user operation, and the area moved by the pointer is designated as an object area by the face portion R1.
Only these are separated as shown in FIG. Then, in FIG.
Similarly, with respect to the reference image of (a), the pointer is moved within the screen, and only the body part R2 is separated as shown in FIG. 7C by the method of designating the area moved by the pointer as the object area. In this way, by specifying the object area and background area independently for multiple areas,
It is possible to extract the position / structure information about a plurality of small objects. It should be noted that, as the connection information, the end points of the overlapping area, the center of gravity, and the like may be held.

【0038】以上説明したように、本実施形態によって
も第1実施形態と同様に物体の位置・構造情報を精度良
く抽出することができる。
As described above, according to the present embodiment, the position / structure information of the object can be accurately extracted as in the first embodiment.

【0039】(第5実施形態)物体追跡工程S103の
追跡処理における物体抽出情報としての位置・構造情報
(参照フレーム及び参照マスク)に関し、第1実施形態
は、常に参照画像記憶工程S101に記憶された同一の
参照フレーム及び参照マスクと、物体情報抽出工程S1
02によって抽出された情報を用いて、処理画像におけ
る小物体毎の追跡を行なうものであった。本実施形態で
は、既に物体追跡処理を行った過去の処理画像の物体追
跡結果により参照フレーム及び参照マスクを更新(刷
新)する。つまり、追跡処理によって推定された物体の
位置・構造情報を基に、処理画像における物体の追跡を
行うのである。
(Fifth Embodiment) Regarding position / structure information (reference frame and reference mask) as object extraction information in the tracking processing of the object tracking step S103, the first embodiment is always stored in the reference image storing step S101. The same reference frame and reference mask, and the object information extraction step S1
The information extracted by 02 is used to track each small object in the processed image. In the present embodiment, the reference frame and the reference mask are updated (renewed) with the object tracking result of the past processed image which has already been subjected to the object tracking processing. That is, the object in the processed image is tracked based on the position / structure information of the object estimated by the tracking process.

【0040】これにより、処理画像の物体について、参
照画像からの変形よりもその程度が小さくなる可能性が
高い物体の位置・構造情報を用いることから、より精度
良く追跡処理を行うことが可能になる。
As a result, since the position / structure information of the object, which is more likely to be smaller than the deformation from the reference image, is used for the object of the processed image, it is possible to perform the tracking process with higher accuracy. Become.

【0041】(第6実施形態)本実施形態は、第1実施
形態乃至第5実施形態で説明した物体追跡工程S103
の後処理として、特開2000−82145号公報「物
体抽出装置」(参考文献「LIFSを用いた被写体輪郭
線の高精度な抽出」井田、三本杉、渡邊(電子情報通信
学会論文誌、D-II, vol. J82-D-II, no. 8, pp. 1282-1
289, 1999))に記載の輪郭補正処理を施す。これにより
物体の追跡精度をさらに向上することができる。
(Sixth Embodiment) This embodiment is the object tracking step S103 described in the first to fifth embodiments.
As post-processing, Japanese Patent Laid-Open No. 2000-82145 "Object Extraction Device" (reference document "High-precision extraction of subject contour line using LIFS" Ida, Sanbonsugi, Watanabe (IEICE Transactions, D- II, vol. J82-D-II, no. 8, pp. 1282-1
289, 1999)). Thereby, the tracking accuracy of the object can be further improved.

【0042】これまで説明した追跡処理では、アフィン
変形のみで物体の変形を表現するので、誤差が生じるこ
とがある。たとえば、図8(a)のH1は、ある参照画
像の人物上半身の形(マスク画像)に対して、推定され
たアフィン変形を施したものであるが、処理画像中の人
物上半身の形とはやや輪郭線がずれている。この場合、
上記特開2000−82145号公報「物体抽出装置」
に記載の輪郭補正処理を施すことによって、図8(b)
のように、より精度良く形の追跡を行うことができるよ
うになる。
In the tracking process described so far, since the deformation of the object is expressed only by the affine deformation, an error may occur. For example, H1 in FIG. 8A is obtained by applying the estimated affine transformation to the shape of the upper body of a person (mask image) of a certain reference image. What is the shape of the upper body of a person in the processed image? The contour line is slightly misaligned. in this case,
Japanese Patent Laid-Open No. 2000-82145 "Object Extraction Device"
8B by performing the contour correction processing described in FIG.
As shown in, the shape can be tracked more accurately.

【0043】(第7実施形態)本実施形態は、上記第6
実施形態と上記第5実施形態との組み合わせに関する。
すなわち、本実施形態では、上記第6実施形態で説明し
た輪郭補正処理を施すことによって精度良く追跡した物
体の位置・構造情報を第5実施形態で説明したように物
体抽出情報として用い、処理画像における物体の追跡を
行う。
(Seventh Embodiment) This embodiment is the same as the sixth embodiment.
The present invention relates to a combination of the embodiment and the fifth embodiment.
That is, in the present embodiment, the position / structure information of the object accurately tracked by performing the contour correction processing described in the sixth embodiment is used as the object extraction information as described in the fifth embodiment, and the processed image is obtained. Track objects in.

【0044】これによって、処理画像の物体に対して、
より近い変形で表現される物体の位置・構造情報を用い
ることができる上、その位置・構造情報についても輪郭
補正処理によって精度が高められた情報であることか
ら、より精度良く処理画像の物体の追跡処理を行うこと
が可能になる。
As a result, for the object of the processed image,
It is possible to use the position / structure information of the object represented by a closer deformation, and since the position / structure information is also the information whose accuracy has been improved by the contour correction processing, the object of the processed image can be more accurately processed. It becomes possible to perform a tracking process.

【0045】(第8実施形態)本実施形態は、第1実施
形態で説明した接続情報を保った追跡処理について、詳
細に説明する実施形態である。
(Eighth Embodiment) The present embodiment is an embodiment for explaining in detail the tracking process which maintains the connection information described in the first embodiment.

【0046】図9(a)に示すように、物体分割工程S
202によって人物上半身が、顔部分と体部分とに分割
されているとする。ここで、人物上半身右側での2つの
接続点C1,C2の座標と、人物上半身左側での2つの
接続点Q1,Q2の座標とを併せて記憶しておく。上記
第1実施形態に従い、顔部分、体部分が各物体毎に、独
立に追跡処理に供される。このとき、接続点C1,C2
およびQ1,Q2も、独立して移動する。
As shown in FIG. 9A, the object dividing step S
Assume that the upper half of the person is divided into a face portion and a body portion by 202. Here, the coordinates of the two connection points C1 and C2 on the right side of the upper body of the person and the coordinates of the two connection points Q1 and Q2 on the left side of the upper body of the person are stored together. According to the first embodiment, the face part and the body part are independently subjected to the tracking process for each object. At this time, the connection points C1 and C2
And Q1 and Q2 also move independently.

【0047】物体追跡工程S103の後、本実施形態で
は、図9(b)に示すように、顔部分の右側の接続点C
1と体部分において対応する接続点C2とを接続線W2
により接続する。また、顔部分の左側の接続点Q1と体
部分において対応する接続点Q2とを接続線W1により
接続する。さらに、これら接続線W1、W2、ならびに
顔部分の境界線及び体部分の境界線によって囲まれる領
域を物体部分とする。これにより接続情報を保った追跡
処理を実現できるようになる。その結果として得られた
人物上半身領域の位置・構造情報を示すマスク画像を図
9(c)に示す。このような第8実施形態によれば、画
像中において物体を切り出す(抽出する)際の精度を向
上できる。
After the object tracking step S103, in the present embodiment, as shown in FIG. 9B, the connection point C on the right side of the face portion is
1 and the corresponding connection point C2 in the body part are connected to each other by a connection line W2
To connect. Further, the connection point Q1 on the left side of the face portion and the corresponding connection point Q2 in the body portion are connected by the connection line W1. Further, an area surrounded by the connecting lines W1 and W2, the boundary line of the face part and the boundary line of the body part is defined as an object part. As a result, it becomes possible to implement a tracking process that maintains the connection information. FIG. 9C shows a mask image showing the position / structure information of the upper body region of the person obtained as a result. According to such an eighth embodiment, it is possible to improve the accuracy when cutting out (extracting) an object in an image.

【0048】なお、本発明は上述した実施形態に限定さ
れず種々変形して実施可能である。
The present invention is not limited to the above-described embodiment, but can be variously modified and carried out.

【0049】[0049]

【発明の効果】以上説明したように、本発明の映像編集
方法によれば、参照画像中の複数小物体の位置・構造情
報をそれぞれ抽出することにより、これに応じて複数の
アフィン変形の組み合わせにより物体の追跡が可能にな
る。したがって、参照画像における物体の変形が複数の
アフィン変形の組み合わせで近似できる物体に対しても
映像中の物体を精度良く追跡することができる。
As described above, according to the video editing method of the present invention, by extracting the position / structure information of a plurality of small objects in a reference image, a plurality of affine deformations can be combined accordingly. Makes it possible to track an object. Therefore, it is possible to accurately track the object in the image even for the object whose deformation in the reference image can be approximated by a combination of a plurality of affine deformations.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の第1実施形態に係る映像編集処理の
流れを示すフローチャート
FIG. 1 is a flowchart showing a flow of video editing processing according to a first embodiment of the present invention.

【図2】 図1における物体情報抽出工程の詳細を示す
フローチャート
FIG. 2 is a flowchart showing details of the object information extraction process in FIG.

【図3】 第1実施形態に係る物体分割工程の一例を詳
細に説明するための図
FIG. 3 is a diagram for explaining in detail an example of an object dividing step according to the first embodiment.

【図4】 第1実施形態に係る分割用ポインタを説明す
るための図
FIG. 4 is a diagram for explaining a division pointer according to the first embodiment.

【図5】 第2実施形態に係る小物体選択ツールを説明
するための図
FIG. 5 is a diagram for explaining a small object selection tool according to the second embodiment.

【図6】 第3実施形態に係る接続点指定ツールを説明
するための図
FIG. 6 is a diagram for explaining a connection point designation tool according to a third embodiment.

【図7】 第4実施形態に係る参照画像に基づく物体の
位置・構造情報の抽出を説明するための図
FIG. 7 is a diagram for explaining extraction of position / structure information of an object based on a reference image according to the fourth embodiment.

【図8】 第6実施形態を説明するための図であって、
アフィン変形のみに基づく輪郭線のずれを示す図
FIG. 8 is a diagram for explaining the sixth embodiment,
Diagram showing the deviation of the contour line based only on affine deformation

【図9】 第8実施形態に係る接続情報を保った追跡処
理を説明するための図
FIG. 9 is a diagram for explaining a tracking process that keeps connection information according to the eighth embodiment.

【図10】 ロバスト統計による変形推定を用いた高速
な物体追跡手法を説明するための図
FIG. 10 is a diagram for explaining a high-speed object tracking method using deformation estimation based on robust statistics.

【図11】 物体追跡手法の処理工程を示すフローチャ
ート
FIG. 11 is a flowchart showing the processing steps of the object tracking method.

【図12】 物体追跡手法の処理工程を説明するための
図であって、参照フレーム及びそのマスク画像を示す図
FIG. 12 is a diagram for explaining the processing steps of the object tracking method, showing a reference frame and its mask image.

【図13】 物体追跡手法の処理工程を説明するための
図であって、参照フレームにおける特徴点の選択を示す
FIG. 13 is a diagram for explaining the processing steps of the object tracking method, showing the selection of feature points in a reference frame.

【図14】 物体追跡手法の処理工程を説明するための
図であって、特徴点の移動先を示す図
FIG. 14 is a diagram for explaining the processing steps of the object tracking method, showing the destination of the feature point.

【図15】 物体追跡手法の処理工程を説明するための
図であって、第iフレームのマスク画像の変形推定を示
す図
FIG. 15 is a view for explaining the processing steps of the object tracking method, showing the deformation estimation of the mask image of the i-th frame.

【図16】 第iフレームの参照画像及びそのマスク画
像を示す図
FIG. 16 is a diagram showing a reference image of the i-th frame and its mask image.

【符号の説明】[Explanation of symbols]

S101…参照画像記憶工程 S102…物体情報抽出工程 S103…物体追跡画像 S201…物体背景分離工程 S202…物体分割工程 S101 ... Reference image storing step S102 ... Object information extraction step S103 ... Object tracking image S201 ... Object background separation process S202 ... Object dividing step

Claims (16)

【特許請求の範囲】[Claims] 【請求項1】 映像データにおける物体の追跡を伴う映
像編集方法において、 前記映像データから前記物体を含む少なくとも1枚の静
止画像を参照画像として取得する工程と、 ユーザからの操作に応じて前記参照画像上に点又は領域
を指定することにより、前記物体を複数の小物体に分割
する工程と、 前記複数の小物体間の接続情報を前記分割工程における
分割結果に基づいて算出する工程と、 分割された前記複数の小物体のそれぞれを物体追跡する
物体追跡工程と、を具備することを特徴とする映像編集
方法。
1. A video editing method involving tracking of an object in video data, the step of acquiring at least one still image including the object from the video data as a reference image, and the reference according to an operation from a user. Dividing the object into a plurality of small objects by designating points or regions on the image; calculating connection information between the plurality of small objects based on the division result in the dividing step; An object tracking step of tracking each of the plurality of small objects that have been created.
【請求項2】 前記物体追跡工程は、ロバスト統計によ
るアフィン変形推定を利用することを特徴とする請求項
1に記載の映像編集方法。
2. The video editing method according to claim 1, wherein the object tracking step uses affine deformation estimation based on robust statistics.
【請求項3】 前記分割工程は、前記参照画像上で移動
するポインタの通過軌跡における物体の画素データを消
去することで当該物体を分割する工程からなることを特
徴とする請求項1又は2のいずれか一項に記載の映像編
集方法。
3. The dividing step comprises a step of dividing the object by erasing pixel data of the object in a passing locus of a pointer moving on the reference image. The video editing method according to any one of items.
【請求項4】 前記分割工程は、前記参照画像上に領域
を指定して前記物体を該領域により区分される複数の小
物体に分割する工程からなることを特徴とする請求項1
又は2のいずれか一項に記載の映像編集方法。
4. The dividing step comprises the step of designating an area on the reference image and dividing the object into a plurality of small objects divided by the area.
Or the video editing method according to any one of 2.
【請求項5】 前記分割工程は、小物体間の接続点を指
定する工程と、 指定された前記接続点を含む分割線を前記参照画像に基
づいて生成する工程とからなることを特徴とする請求項
1又は2のいずれか一項に記載の映像編集方法。
5. The dividing step includes a step of designating a connection point between the small objects and a step of generating a dividing line including the designated connection point based on the reference image. The video editing method according to claim 1.
【請求項6】 前記物体追跡工程による前回の物体追跡
結果を用いて、今回の物体追跡に用いる参照画像を更新
する工程を具備することを特徴とする請求項1乃至5の
いずれか一項に記載の映像編集方法。
6. The method according to claim 1, further comprising a step of updating a reference image used for the current object tracking by using a previous object tracking result obtained by the object tracking step. Video editing method described.
【請求項7】 前記物体追跡結果に輪郭線補正を施す工
程をさらに具備することを特徴とする請求項1乃至6の
いずれか一項に記載の映像編集方法。
7. The video editing method according to claim 1, further comprising a step of performing contour line correction on the object tracking result.
【請求項8】 前記複数の小物体間の接続情報を前記物
体追跡工程の前後で保持する工程と、 前記物体追跡工程後の前記接続情報に基づいて、前記物
体追跡結果を更新する工程と、を具備することを特徴と
する請求項1乃至7のいずれか一項に記載の映像編集方
法。
8. A step of holding connection information between the plurality of small objects before and after the object tracking step, and a step of updating the object tracking result based on the connection information after the object tracking step, The video editing method according to any one of claims 1 to 7, further comprising:
【請求項9】 映像データにおける物体の追跡を伴う映
像編集プログラムであって、 前記映像データから前記物体を含む少なくとも1枚の静
止画像を参照画像として取得する機能と、 ユーザからの操作に応じて前記参照画像上に点又は領域
を指定することにより、前記物体を複数の小物体に分割
する機能と、 前記複数の小物体間の接続情報を前記分割機能による分
割結果に基づいて算出する機能と、 分割された前記複数の小物体のそれぞれを物体追跡する
物体追跡機能と、をコンピュータに実現させるための映
像編集プログラム。
9. A video editing program accompanied by tracking of an object in video data, comprising: a function of acquiring at least one still image including the object from the video data as a reference image; A function of dividing the object into a plurality of small objects by designating points or regions on the reference image, and a function of calculating connection information between the plurality of small objects based on a division result by the dividing function. An image editing program for causing a computer to realize an object tracking function of tracking each of the plurality of divided small objects.
【請求項10】 前記物体追跡機能は、ロバスト統計に
よるアフィン変形推定を利用することを特徴とする請求
項9に記載の映像編集プログラム。
10. The video editing program according to claim 9, wherein the object tracking function uses affine deformation estimation based on robust statistics.
【請求項11】 前記分割機能は、前記参照画像上で移
動するポインタの通過軌跡における物体の画素データを
消去することで当該物体を分割する機能からなることを
特徴とする請求項9又は10のいずれか一項に記載の映
像編集プログラム。
11. The dividing function comprises a function of dividing an object by erasing pixel data of the object in a passing locus of a pointer that moves on the reference image. The video editing program according to any one of items.
【請求項12】 前記分割機能は、前記参照画像上に領
域を指定して前記物体を該領域により区分される複数の
小物体に分割する機能からなることを特徴とする請求項
9又は10のいずれか一項に記載の映像編集プログラ
ム。
12. The dividing function comprises a function of designating an area on the reference image and dividing the object into a plurality of small objects divided by the area. The video editing program according to any one of items.
【請求項13】 前記分割機能は、小物体間の接続点を
指定する機能と、 指定された前記接続点を含む分割線を前記参照画像に基
づいて生成する機能とからなることを特徴とする請求項
9又は10のいずれか一項に記載の映像編集プログラ
ム。
13. The dividing function comprises a function of designating a connection point between small objects and a function of generating a dividing line including the designated connection point based on the reference image. The video editing program according to claim 9.
【請求項14】 前記物体追跡機能による前回の物体追
跡結果を用いて、今回の物体追跡に用いる参照画像を更
新する機能を具備することを特徴とする請求項9乃至1
3のいずれか一項に記載の映像編集プログラム。
14. The method according to claim 9, further comprising a function of updating a reference image used for the current object tracking by using a previous object tracking result by the object tracking function.
3. The video editing program according to any one of 3 above.
【請求項15】 前記物体追跡結果に輪郭線補正を施す
機能をさらに具備することを特徴とする請求項9乃至1
4のいずれか一項に記載の映像編集プログラム。
15. The method according to claim 9, further comprising a function of performing contour line correction on the object tracking result.
4. The video editing program according to any one of 4 above.
【請求項16】 前記複数の小物体間の接続情報を前記
物体追跡の前後で保持する機能と、 前記物体追跡後の前記接続情報に基づいて、前記物体追
跡結果を更新する機能と、を具備することを特徴とする
請求項9乃至16のいずれか一項に記載の映像編集プロ
グラム。
16. A function of holding connection information between the plurality of small objects before and after the object tracking, and a function of updating the object tracking result based on the connection information after the object tracking. The video editing program according to any one of claims 9 to 16, characterized by:
JP2002087000A 2002-03-26 2002-03-26 Video editing method and program Expired - Fee Related JP3677253B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002087000A JP3677253B2 (en) 2002-03-26 2002-03-26 Video editing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002087000A JP3677253B2 (en) 2002-03-26 2002-03-26 Video editing method and program

Publications (2)

Publication Number Publication Date
JP2003281548A true JP2003281548A (en) 2003-10-03
JP3677253B2 JP3677253B2 (en) 2005-07-27

Family

ID=29233396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002087000A Expired - Fee Related JP3677253B2 (en) 2002-03-26 2002-03-26 Video editing method and program

Country Status (1)

Country Link
JP (1) JP3677253B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007108563A1 (en) * 2006-03-23 2007-09-27 Tokyo Institute Of Technology Image registration method
JP2008501172A (en) * 2004-05-28 2008-01-17 ソニー・ユナイテッド・キングダム・リミテッド Image comparison method
CN110637323A (en) * 2017-07-18 2019-12-31 索尼公司 Robust mesh tracking and fusion by using part-based keyframes and prior models

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105262991B (en) * 2015-10-12 2018-09-11 国家电网公司 A kind of substation equipment object identifying method based on Quick Response Code

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000082145A (en) * 1998-01-07 2000-03-21 Toshiba Corp Object extraction device
JP2000132691A (en) * 1998-10-23 2000-05-12 Toshiba Corp Method and device for tracking video area
JP2001014477A (en) * 1999-06-30 2001-01-19 Toshiba Corp Picture contour extracting device
JP2001101419A (en) * 1999-07-27 2001-04-13 Matsushita Electric Works Ltd Method and device for image feature tracking processing and three-dimensional data preparing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000082145A (en) * 1998-01-07 2000-03-21 Toshiba Corp Object extraction device
JP2000132691A (en) * 1998-10-23 2000-05-12 Toshiba Corp Method and device for tracking video area
JP2001014477A (en) * 1999-06-30 2001-01-19 Toshiba Corp Picture contour extracting device
JP2001101419A (en) * 1999-07-27 2001-04-13 Matsushita Electric Works Ltd Method and device for image feature tracking processing and three-dimensional data preparing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008501172A (en) * 2004-05-28 2008-01-17 ソニー・ユナイテッド・キングダム・リミテッド Image comparison method
WO2007108563A1 (en) * 2006-03-23 2007-09-27 Tokyo Institute Of Technology Image registration method
JP2007257287A (en) * 2006-03-23 2007-10-04 Tokyo Institute Of Technology Image registration method
CN110637323A (en) * 2017-07-18 2019-12-31 索尼公司 Robust mesh tracking and fusion by using part-based keyframes and prior models
CN110637323B (en) * 2017-07-18 2023-04-11 索尼公司 Method, device and system for part-based tracking

Also Published As

Publication number Publication date
JP3677253B2 (en) 2005-07-27

Similar Documents

Publication Publication Date Title
CN110738207B (en) Character detection method for fusing character area edge information in character image
US9818217B2 (en) Data driven design and animation of animatronics
US7330194B2 (en) Video object clipping method and apparatus
JP2002269559A (en) Template-matching method of image, and image processing device
JP2008158774A (en) Image processing method, image processing device, program, and storage medium
US20050225553A1 (en) Hybrid model sprite generator (HMSG) and a method for generating sprite of the same
CN111401234B (en) Three-dimensional character model construction method and device and storage medium
CN108564058B (en) Image processing method and device and computer readable storage medium
JP2005071344A (en) Image processing method, image processor and recording medium recording image processing program
JP7145440B2 (en) LEARNING DATA GENERATION METHOD, LEARNING DATA GENERATION DEVICE, AND PROGRAM
JP3677253B2 (en) Video editing method and program
US8520951B2 (en) Image processing method, image processing apparatus, and computer readable storage medium
CN115953783A (en) Engineering data conversion method, device and equipment based on picture and storage medium
JPH10111946A (en) Image tracking device
US7336825B2 (en) Segmenting a composite image via minimum areas
Koochari et al. Exemplar-based video inpainting with large patches
CN110580274B (en) GIS data rendering method
JPH11134509A (en) Method for drawing recognizing process and method for construction drawing recognizing process
JPH1049688A (en) Method for partial erasing method and partial detection method for picture data
US11508083B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP3527588B2 (en) Template matching method
JPH04255080A (en) Image input device
JP2002170111A (en) Image synthesizing apparatus and method and recording medium recording image synthesizing program
CN114185429B (en) Gesture key point positioning or gesture estimating method, electronic device and storage medium
JP2002351451A (en) Method for character processing based upon outline font information and computer software program product making computer implement the method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050506

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090513

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090513

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100513

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110513

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110513

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120513

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120513

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130513

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130513

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees