JPH05244475A - Method of extracting representative pattern - Google Patents
Method of extracting representative patternInfo
- Publication number
- JPH05244475A JPH05244475A JP4043539A JP4353992A JPH05244475A JP H05244475 A JPH05244475 A JP H05244475A JP 4043539 A JP4043539 A JP 4043539A JP 4353992 A JP4353992 A JP 4353992A JP H05244475 A JPH05244475 A JP H05244475A
- Authority
- JP
- Japan
- Prior art keywords
- shot
- take
- representative
- camera operation
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、フレームを単位としあ
る時間連続する映像の中から、該映像の内容を代表する
画面を選択し、抽出する代表画面抽出方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a representative screen extracting method for selecting and extracting a screen representative of the contents of a video from a video continuous for a certain time in units of frames.
【0002】[0002]
【従来の技術】従来、映像の代表画面として、ショッ
ト、テイク等の先頭画面を用いていた。このショット、
テイク等の先頭画面を抽出する方法として、映像情報を
解析してショット、テイク等の変り目であるカット点を
検出する方法がある[例えば、谷中他、“動画像信号の
拾い見装置”、特開昭64−68084号公報]。音声
情報を解析してその特徴点により代表画面を抽出する手
法も報告されている[外村他、“シーン抽出処理方
法”、特開平3−80782号公報]。また、人により
規定された映像/画像の優先度を用いて代表画面を抽出
する方法が報告されている[安部他、“動画像ダイジェ
スト自動生成方式”特開平3−90968号公報]。2. Description of the Related Art Conventionally, a head screen of shots, takes, etc. has been used as a representative screen of video. This shot,
As a method of extracting the top screen of a take or the like, there is a method of analyzing video information and detecting a cut point which is a transition point of a shot, a take, etc. [eg, Yanaka et al. KAISHO 64-68084]. A method of analyzing voice information and extracting a representative screen based on the characteristic points thereof has also been reported [Tonomura et al., "Scene extraction processing method", JP-A-3-80782]. In addition, a method of extracting a representative screen by using the priority of video / image defined by a person has been reported [Abe et al., "Automatic moving image digest automatic generation method", Japanese Patent Laid-Open No. 3-90968].
【0003】[0003]
【発明が解決しようとする課題】しかしながら上記した
従来技術は、映像の代表画面を、ショット、テイク等の
先頭画面のみと考えた抽出手法であり、ショット、テイ
ク等の内容が持つ物理的特徴を考慮していないため、シ
ョット、テイク等の画面の内容が必ずしも適切な代表画
面とはいえない。また、優先度を考慮して代表画面を抽
出する方法は、膨大な映像/画像の優先度の人による規
定のため、処理の自動化に問題がある。However, the above-mentioned conventional technique is an extraction method in which the representative screen of the image is considered to be only the top screen of shots, takes, etc., and the physical characteristics of the contents of shots, takes, etc. are considered. Since it is not taken into consideration, the contents of the screen such as shots and takes are not always appropriate representative screens. Further, the method of extracting the representative screen in consideration of the priority has a problem in the automation of the processing because the enormous video / image priority is defined by the person.
【0004】本発明の目的は、適切な代表画面を自動的
に抽出することができる代表画面抽出方法を提供するこ
とである。An object of the present invention is to provide a representative screen extracting method capable of automatically extracting an appropriate representative screen.
【0005】[0005]
【課題を解決するための手段】上記目的を達成するため
に、本発明の代表画面抽出方法は、映像についての統計
的解析を行い、該映像の撮影時のカメラ操作の時間的特
徴と映像の時空間的特徴を算出し、該算出結果から前記
特徴量の変化点を求め、この変化点を与えるフレームの
画像を代表画面として選択し、抽出するものである。In order to achieve the above object, the representative screen extracting method of the present invention performs a statistical analysis on a video image and temporal characteristics of the camera operation at the time of shooting the video image and the video characteristics. The spatiotemporal feature is calculated, the change point of the feature amount is obtained from the calculation result, and the image of the frame that gives this change point is selected and extracted as the representative screen.
【0006】[0006]
【作用】ショット、テイク等の内容が持つ物理的特徴を
考慮するので、適切な代表画面の抽出が可能となる。ま
た、本発明の処理は計算処理が可能なため、代表画面を
自動的に抽出することができる。Since the physical characteristics of the contents such as shots and takes are taken into consideration, an appropriate representative screen can be extracted. Further, since the processing of the present invention can be calculated, the representative screen can be automatically extracted.
【0007】[0007]
【実施例】次に、本発明の実施例について図面を参照し
て説明する。Embodiments of the present invention will now be described with reference to the drawings.
【0008】図1は本発明の一実施例の代表画面抽出方
法のアルゴリズムを示す流れ図、図2はテイク/ショッ
ト検出に用いた動きベクトル差分のランダム頻度分布
図、図3はカメラ操作有無検出に用いた動きベクトル差
分の頻度分布図、図4は代表画面抽出に用いたカメラ操
作パラメータの特徴を示す図、図5は代表画面抽出に用
いた動き方向時間変化の特徴を示す図である。従来用い
られている代表画面抽出方法を、図1に破線で示した。
この従来の代表画面抽出方法は、テイク/ショット規定
の手順(手順A)のみで構成されて、代表画面を規定さ
れたテイク/ショットの先頭画面としていた。FIG. 1 is a flow chart showing an algorithm of a representative screen extracting method according to an embodiment of the present invention, FIG. 2 is a random frequency distribution diagram of motion vector differences used for take / shot detection, and FIG. 3 is a camera operation presence / absence detection. FIG. 4 is a diagram showing the frequency distribution of the motion vector differences used, FIG. 4 is a diagram showing the characteristics of the camera operation parameters used for extracting the representative screen, and FIG. 5 is a diagram showing the features of the movement direction time change used for extracting the representative screen. A representative screen extraction method that has been conventionally used is shown by a broken line in FIG.
This conventional representative screen extraction method is configured only by the procedure for defining take / shot (procedure A), and the representative screen is the top screen of the defined take / shot.
【0009】本実施例は、該代表画面抽出処理に新たに
B,C,Dの手順を加えたことに特徴を有し、テイク/
ショットの内容が持つ物理的特徴を考慮して代表画面を
抽出する。また、映像を撮影する時、必ずカメラ操作が
行われる。本実施例においてカメラ操作を静止とそれ以
外の大きく2つに分類し、静止をカメラ操作なしと見な
した。本実施例の特徴としてカメラ操作ありのテイク/
ショットの場合、代表画面の一つとしてカメラ操作が終
る最終画面を抽出することがある。通常、カメラ操作の
終りはテイク/ショットの終りであり、カメラ操作あり
の場合、テイク/ショットの最終画面が代表画面の1つ
になる。この代表画面抽出は、放送局、映画等の分野で
カメラ操作ありで撮影されたテイク/ショットの最終画
面を“パンじり、ズームじり等”と呼び撮影/編集等の
際慎重に扱っていることに起因する。以下、各手順A,
B,C,Dについて文献を引用するとともにその例を示
し、本実施例の代表画面抽出方法を詳細に説明する。The present embodiment is characterized in that procedures B, C, and D are newly added to the representative screen extraction processing.
A representative screen is extracted in consideration of physical characteristics of shot contents. Also, when shooting a video, the camera is always operated. In the present embodiment, the camera operation is roughly classified into two types, that is, the still state and the still state, and the still state is regarded as no camera operation. A feature of this embodiment is that a take with camera operation /
In the case of a shot, the final screen where the camera operation ends may be extracted as one of the representative screens. Normally, the end of the camera operation is the end of the take / shot, and in the case of the camera operation, the final screen of the take / shot becomes one of the representative screens. This representative screen extraction is called the "panning, zooming, etc." of the final screen of a take / shot shot with camera operation in the field of broadcasting stations, movies, etc., and is handled carefully when shooting / editing. Due to being Hereinafter, each procedure A,
The references for B, C, and D are cited and examples thereof are shown, and the representative screen extracting method of the present embodiment will be described in detail.
【0010】テイク/ショットの規定(手順A)に関し
て、最近多くの発表がなされている(大辻他、“輝度情
報を使った動画ブラウジング”、信学技報、IE90−
103,1991等)。これらの方法は、基本的に映像
情報のフレーム間差分を用いている。この手法は、テイ
ク/ショットのつなぎ目(カット点)のフレーム間にお
いて映像情報(輝度、色度等)が急激に変化することを
用いている。ここでは、処理Aの一例として動きベクト
ルのフレーム間差分ベクトルのランダム頻度分布を用い
たテイク/ショットの規定結果を図2に示す。図2中の
23,24,25の範囲がテイク/ショットであり、点
21、点22がカット点である。ここで用いた手法は、
テイク/ショットのつなぎ目のフレーム間における動き
のなめらかさの不連続性であり、手法的にフレーム間の
ブロック単位の相関から算出される動きベクトルの差分
ベクトルを用いている。この手法を用いるとテイク/シ
ョットのつなぎ目では、結果的に算出される差分ベクト
ルはフレーム内でランダム性を見せる。このランダム性
のフレーム毎の大きさを表した図が、図2である。ラン
ダム性の大きなフレームがテイク/ショットのつなぎ目
であるカット点である。A number of announcements have recently been made regarding the take / shot definition (procedure A) (Otsuji et al., "Movie browsing using luminance information", IEICE Technical Report, IE90-
103, 1991 etc.). These methods basically use the difference between frames of video information. This method uses the fact that video information (luminance, chromaticity, etc.) changes abruptly between frames of take / shot joints (cut points). Here, as an example of the process A, FIG. 2 shows a take / shot definition result using a random frequency distribution of inter-frame difference vectors of motion vectors. Ranges 23, 24, and 25 in FIG. 2 are takes / shots, and points 21 and 22 are cut points. The method used here is
This is a discontinuity in the smoothness of motion between frames of a take / shot joint, and a difference vector of motion vectors, which is technically calculated from block-by-block correlation between frames, is used. When this method is used, at the joint of take / shot, the difference vector calculated as a result shows randomness within the frame. FIG. 2 is a diagram showing the size of each frame of this randomness. Frames with large randomness are the cut points that are the joints between takes / shots.
【0011】次に、カメラ操作有無規定(手順B)にお
いて、その一例として規定結果を図3に示す。図中のテ
イク/ショット31、テイク/ショット33は、カメラ
操作なし、図3中のテイク/ショット32は、カメラ操
作ありを示している。この手法は、フレーム間で見られ
るカメラ操作による動きのなめらかさを基としている。
手法としてフレーム間より算出される動きベクトルの時
間差分ベクトルの大きさゼロのフレーム内の総和を用い
ている。時間差分ベクトルの大きさゼロは動きのなめら
かさを表しておりフレーム内の総和が大きい場合、カメ
ラ操作が行われていると規定できる。また、図2と図3
とから実施例に用いた映像は、4つのテイク/ショット
(テイク/ショット31,32,33と最終フレームの
テイク/ショット)から構成されていることを示してい
る。この処理段階でカメラ操作ありと規定できた場合、
代表画面の一つとしてテイク/ショットの最終画面を抽
出する。Next, in the camera operation presence / absence regulation (procedure B), a regulation result is shown in FIG. 3 as an example thereof. Take / shot 31 and take / shot 33 in the figure indicate that there is no camera operation, and take / shot 32 in FIG. 3 indicates that there is a camera operation. This method is based on the smoothness of the movement by camera operation seen between frames.
As a method, the sum of the time difference vectors of motion vectors calculated between frames in a frame of zero size is used. The magnitude of the time difference vector of zero represents the smoothness of the movement, and if the total sum in the frame is large, it can be defined that the camera operation is being performed. 2 and 3
It is indicated that the video used in the embodiment is composed of four takes / shots (takes / shots 31, 32, 33 and take / shot of the final frame). If you can specify that there is a camera operation at this processing stage,
The final screen of take / shot is extracted as one of the representative screens.
【0012】次に、カメラ操作なしと規定された場合、
手順Cにおいてそのテイク/ショットの持つ物理的特徴
を抽出する。この手順において特徴なしと規定された場
合、代表画面はテイク/ショットの先頭画面とする。特
徴ありと規定される場合の一例をテイク/ショット31
の場合で示す。テイク/ショット31の動きベクトルの
時間に対する方向の変化の様子を図5に示す。図5中の
分布は各分布の広がりによりクラスタリングされてお
り、各クラスタを記号(□、△、*、◇)別に示してあ
る。テイク/ショット31の場合動きベクトルの方向の
時間変化に特徴を有し、ベクトル方向vs時間空間にお
いて分布のクラスタが見られる。その特徴を表す図が図
5である。テイク/ショット31の代表画面は、物理的
特徴点(クラスタ分布の重心等)である点51、点5
2、点53にそれぞれ示した3つの画面になる。Next, when it is specified that the camera is not operated,
In step C, the physical characteristics of the take / shot are extracted. If no feature is specified in this procedure, the representative screen is the start screen of the take / shot. Take / Shot 31
In the case of. FIG. 5 shows how the motion vector of the take / shot 31 changes in direction with time. The distributions in FIG. 5 are clustered according to the spread of each distribution, and each cluster is shown by a symbol (□, Δ, *, ◇). The take / shot 31 is characterized by the temporal change in the direction of the motion vector, and a cluster of distribution can be seen in the vector direction vs time space. FIG. 5 is a diagram showing the characteristics. The representative screen of the take / shot 31 is points 51 and 5 which are physical feature points (center of gravity of cluster distribution, etc.).
Two screens are shown at points 2 and 53, respectively.
【0013】次に、手順Bでカメラ操作ありと規定され
たテイク/ショットに関してそれらの持つ物理的特徴を
手順Dで抽出する。物理的特徴の一つであるカメラ操作
パラメータ推定法に関して、「阿久津他、“動画像イン
デクシングを目的としたカメラ操作の規定方法”、第2
回機能図形情報システムシンポジウム講演論文集、p
p.107−112,1991」等でその手法が報告さ
れている。これらの方法は、映像から算出された動きベ
クトルを用いている。カメラ操作により生じる動きベク
トルの時空間的規則性(動きベクトルの時間的連続性、
発散点/収束点位置、ベクトルの大きさ、向き)により
カメラ操作を規定している。処理Dの一例として阿久津
等の手法を用いてカメラ操作を規定した結果を図3に示
す。Next, in procedure D, the physical characteristics of the takes / shots specified to have camera operation in procedure B are extracted in procedure D. Regarding the camera operation parameter estimation method which is one of the physical characteristics, "Akutsu et al.," Camera operation specification method for the purpose of moving image indexing ", No. 2
Annual Symposium on Functional Graphic Information Systems, p,
p. 107-112, 1991 ”and the like. These methods use motion vectors calculated from the video. Spatiotemporal regularity of motion vector generated by camera operation (temporal continuity of motion vector,
The camera operation is defined by divergence point / convergence point position, vector size, direction). As an example of the process D, the result of defining the camera operation using the method of Akutsu et al. Is shown in FIG.
【0014】また、テイク/ショット32に対して推定
したカメラ操作パラメータを図4に示す。図4中の41
は、カメラ操作パラメータ空間(時間軸を持たない)を
示し、pan(f)はパンパラメータ、tilt(f)
はチルトパラメータ、zoom(f)はズームパラメー
タをそれぞれ示し、画面速度[ピクセル/フレーム]を
表す。テイク/ショット32の代表画面は、最終画面と
パンパラメータpan(f),チルトパラメータtil
t(f),ズームパラメータzoom(f)の物理的特
徴点(極値等)である点41、点42、点43に示した
計4つの画面になる。FIG. 4 shows the camera operation parameters estimated for the take / shot 32. 41 in FIG.
Indicates a camera operation parameter space (without a time axis), pan (f) is a pan parameter, and tilt (f) is a pan parameter.
Indicates a tilt parameter and zoom (f) indicates a zoom parameter, respectively, and represents a screen speed [pixel / frame]. The representative screen of the take / shot 32 is the final screen, the pan parameter pan (f), and the tilt parameter til.
t (f), and a total of four screens shown by points 41, 42, and 43, which are physical feature points (extreme values or the like) of the zoom parameter zoom (f).
【0015】また、推定したカメラ操作をそのテイク/
ショットから差し引き、カメラ操作なしとして手順Bに
もどり手順Cにおいて物理的特徴を抽出することも可能
である。In addition, the estimated camera operation is taken / taken
It is also possible to subtract from the shot, return to procedure B without camera operation, and extract physical features in procedure C.
【0016】図6は本実施例の代表画面抽出方法を実現
する装置のブロック図である。この装置は、映像信号を
入力する映像信号入力部61と、手順Aの処理を行なう
テイク/ショット規定部62と、手順Bの処理を行なう
カメラ操作規定部63と、手順C,Dの処理を行なう物
理的特徴抽出部64と、代表画面を選択し、抽出する代
表画面出力部65で構成されている。FIG. 6 is a block diagram of an apparatus for realizing the representative screen extracting method of this embodiment. This apparatus includes a video signal input section 61 for inputting a video signal, a take / shot defining section 62 for performing the procedure A, a camera operation defining section 63 for performing the procedure B, and a procedure C, D. It is composed of a physical feature extraction unit 64 for performing and a representative screen output unit 65 for selecting and extracting a representative screen.
【0017】以上、本発明を実施例に基づき具体的に説
明したが、本発明は、前記実施例に限定されるものでは
なく、その要旨を逸脱しない範囲において種々の変更が
可能であることは言うまでもない。また、代表画面抽出
のために用いる映像の物理的特徴空間は、実施例に示し
た動きを初め、輝度、色相、音声等全ての映像情報が該
当することは、同様に言うまでもない。Although the present invention has been specifically described based on the embodiments, the present invention is not limited to the above embodiments, and various modifications can be made without departing from the scope of the invention. Needless to say. It goes without saying that the physical feature space of the image used for extracting the representative screen includes all the image information such as the movement, the luminance, the hue, and the sound in addition to the movement shown in the embodiment.
【0018】[0018]
【発明の効果】以上説明したように本発明は、映像につ
いての統計的解析を行い該映像の撮影時のカメラ操作の
時間的特徴と映像の時空間的特徴を算出し、該算出結果
から前記特徴量の変化点を求め、この変化点を与えるフ
レームの画像を代表画面として選択し、抽出することに
より、適切な代表画面を自動的に抽出することが可能と
なる効果がある。As described above, according to the present invention, the statistical analysis of a video is performed to calculate the temporal characteristics of the camera operation and the spatio-temporal characteristics of the video when the video is photographed, and based on the calculation result, By obtaining the change point of the characteristic amount, selecting the image of the frame that gives this change point as the representative screen, and extracting the representative screen, an appropriate representative screen can be automatically extracted.
【図1】本発明の一実施例の代表画面抽出方法のアルゴ
リズムを示す流れ図である。FIG. 1 is a flowchart showing an algorithm of a representative screen extracting method according to an embodiment of the present invention.
【図2】テイク/ショット検出に用いた動きベクトル差
分のランダム頻度分布図である。FIG. 2 is a random frequency distribution diagram of motion vector differences used for take / shot detection.
【図3】カメラ操作有無検出に用いた動きベクトル差分
の頻度分布図である。FIG. 3 is a frequency distribution diagram of motion vector differences used for camera operation presence / absence detection.
【図4】代表画面抽出に用いたカメラ操作パラメータの
特徴を示す図である。FIG. 4 is a diagram showing characteristics of camera operation parameters used for extracting a representative screen.
【図5】代表画面抽出に用いた動き方向時間変化の特徴
を示す図である。[Fig. 5] Fig. 5 is a diagram showing characteristics of temporal changes in a moving direction used for extracting a representative screen.
【図6】図1〜図5の代表画面抽出方法を実現する装置
のブロック図である。FIG. 6 is a block diagram of an apparatus that implements the representative screen extraction method of FIGS.
【符号の説明】 A〜D 手順 21,22 カット点 23,24,25 テイク/ショット 31,32,33 テイク/ショット 41 カメラ操作パラメータ空間 42,43,44 点 51,52,53 点 61 映像信号入力部 62 テイク/ショット規定部 63 カメラ操作規定部 64 物理的特徴抽出部 65 代表画面出力部[Explanation of Codes] A to D Procedures 21, 22 Cut points 23, 24, 25 Take / shot 31, 32, 33 Take / shot 41 Camera operation parameter space 42, 43, 44 points 51, 52, 53 points 61 Video signal Input part 62 Take / shot definition part 63 Camera operation definition part 64 Physical feature extraction part 65 Representative screen output part
Claims (1)
像の中から、該映像の内容を代表する画像を選択し、抽
出する代表画面抽出方法であって、該映像についての統
計的解析を行い、該映像の撮影時のカメラ操作の時間的
特徴と映像の時空間的特徴を算出し、該算出結果から前
記特徴量の変化点を求め、この変化点を与えるフレーム
の画像を代表画面として選択し、抽出する代表画面抽出
方法。1. A representative screen extraction method for selecting and extracting an image representative of the contents of a video from a video continuous for a certain time with a frame as a unit, and performing statistical analysis on the video, The temporal characteristics of the camera operation at the time of shooting the video and the spatiotemporal characteristics of the video are calculated, the change point of the feature amount is obtained from the calculation result, and the image of the frame giving the change point is selected as the representative screen. , A representative screen extracting method for extracting.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP04353992A JP3209234B2 (en) | 1992-02-28 | 1992-02-28 | Representative screen extraction method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP04353992A JP3209234B2 (en) | 1992-02-28 | 1992-02-28 | Representative screen extraction method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH05244475A true JPH05244475A (en) | 1993-09-21 |
JP3209234B2 JP3209234B2 (en) | 2001-09-17 |
Family
ID=12666548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP04353992A Expired - Lifetime JP3209234B2 (en) | 1992-02-28 | 1992-02-28 | Representative screen extraction method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3209234B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11234670A (en) * | 1997-11-25 | 1999-08-27 | Fuji Xerox Co Ltd | Video segmentation method, video segmentation model training method, segmentation device to video state and data structure |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3286360B2 (en) * | 1992-11-26 | 2002-05-27 | 松下電器産業株式会社 | Automatic video digest display |
KR101932573B1 (en) * | 2018-06-19 | 2018-12-27 | 성우판금 주식회사 | vibration absorption type insulation window system |
-
1992
- 1992-02-28 JP JP04353992A patent/JP3209234B2/en not_active Expired - Lifetime
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11234670A (en) * | 1997-11-25 | 1999-08-27 | Fuji Xerox Co Ltd | Video segmentation method, video segmentation model training method, segmentation device to video state and data structure |
Also Published As
Publication number | Publication date |
---|---|
JP3209234B2 (en) | 2001-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1984893B1 (en) | Method and apparatus for modifying a moving image sequence | |
EP2030440B1 (en) | Scaling an image based on a motion vector | |
JP3656036B2 (en) | Dissolve / fade detection method in MPEG compressed video environment | |
US6005639A (en) | Vector assignment for video image motion compensation | |
US7869652B2 (en) | Flicker correction for moving picture | |
US7123769B2 (en) | Shot boundary detection | |
EP0604035A2 (en) | Semiautomatic lip sync recovery system | |
JPH08307820A (en) | System and method for generating high image quality still picture from interlaced video | |
EP0780776A1 (en) | Apparatus for detecting a cut in a video | |
US8270714B2 (en) | Method and apparatus for colour correction of image sequences | |
US8306123B2 (en) | Method and apparatus to improve the convergence speed of a recursive motion estimator | |
US9305600B2 (en) | Automated video production system and method | |
JPH05244475A (en) | Method of extracting representative pattern | |
EP0780844A2 (en) | Cut browsing and editing apparatus | |
JP2007510213A (en) | Improved motion vector field for tracking small fast moving objects | |
US8582882B2 (en) | Unit for and method of segmentation using average homogeneity | |
JPH03214364A (en) | Scene variation detecting method | |
JP3213105B2 (en) | Video composition automatic decision processing method | |
JP3609236B2 (en) | Video telop detection method and apparatus | |
JPH10112863A (en) | Method and device for extracting motion subject information | |
JP4166463B2 (en) | Video generation device | |
JP2005124212A (en) | Apparatus and method for judging lost block characteristic in video processing system | |
JPH08320935A (en) | Method and device for processing moving image | |
Li et al. | A robust, efficient, and fast global motion estimation method from MPEG compressed video | |
Mertens et al. | Motion vector field improvement for picture rate conversion with reduced halo |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20070713 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080713 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080713 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090713 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090713 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100713 Year of fee payment: 9 |