JP3469122B2 - Video segment classification method and apparatus for editing, and recording medium recording this method - Google Patents

Video segment classification method and apparatus for editing, and recording medium recording this method

Info

Publication number
JP3469122B2
JP3469122B2 JP06316899A JP6316899A JP3469122B2 JP 3469122 B2 JP3469122 B2 JP 3469122B2 JP 06316899 A JP06316899 A JP 06316899A JP 6316899 A JP6316899 A JP 6316899A JP 3469122 B2 JP3469122 B2 JP 3469122B2
Authority
JP
Japan
Prior art keywords
video
section
editing
image
shot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP06316899A
Other languages
Japanese (ja)
Other versions
JP2000261757A (en
Inventor
康巨 新倉
行信 谷口
佳伸 外村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP06316899A priority Critical patent/JP3469122B2/en
Publication of JP2000261757A publication Critical patent/JP2000261757A/en
Application granted granted Critical
Publication of JP3469122B2 publication Critical patent/JP3469122B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、映像を解析して、
編集に適切な映像を利用者に提供し、映像編集を支援す
る編集用映像区間分類方法及び装置を提案するものであ
る。
TECHNICAL FIELD The present invention analyzes an image and
The present invention proposes an editing video section classification method and apparatus for providing a user with a video suitable for editing and supporting the video editing.

【0002】[0002]

【従来の技術】小型ビデオカメラと、ビデオデッキの普
及から、一般の人々が映像を記録、撮影することは非常
に多くなっている。しかし、多くの人々は映像を撮りっ
ぱなしで、編集する事もなく、何度も映像を見かえす事
もしない。編集作業は非常に困難を伴うため気軽に行わ
れず、編集されていない映像はだらだらと余計な部分が
あるため視聴されないためである。
2. Description of the Related Art Due to the widespread use of small video cameras and VCRs, the number of people who record and shoot images has increased significantly. However, many people do not edit the image or keep looking at it repeatedly. This is because the editing work is extremely difficult and is not performed easily, and the unedited video is not viewed because it has unnecessary parts.

【0003】ゆえに、折角撮影した映像をより活用する
ためには、困難な編集作業を容易にすることが必要であ
る。編集作業の困難な点の一つに、素材映像の内容を把
握し、利用する適切な映像の区間を切り出すプロセスが
必要となる。しかし、従来のノンリニア編集機を含めた
器材では、編集に用いるべき映像区間を選択し、切り出
すために、映像の内容を繰り返し視聴し、頭出しと呼ば
れる区間の開始点及び、区間の終了点をいちいち決定す
る必要があった。これが煩雑な作業となり、編集作業の
障害の一原因であった。
Therefore, it is necessary to facilitate difficult editing work in order to make more effective use of the video image taken in real time. One of the difficult points of editing is the process of grasping the content of the material video and cutting out the appropriate video section to be used. However, with equipment including conventional non-linear editing equipment, in order to select and cut out the video section to be used for editing, the content of the video is repeatedly viewed, and the start point and the end point of the section called cueing are displayed. I had to make a decision one by one. This became a complicated work and was one of the causes of obstacles to the editing work.

【0004】そこで、これらの問題点を解決するため
に、映像区間をあらかじめ適切な区間に分類し、それら
を映像素材の区間として利用者に提示しようとする試み
が提案されている。例えば、(Yukinobu Ta
niguti,Yoshinobu Tonomur
a、「PanoramaExcerpts:Extra
cting and packing Panoram
as for VideoBrowsing」1996
ACM Multimedia 97)があげられ
る。これは、撮影時のカメラのON/OFFに対応する
ショットチェンジを、素材を分割する際の区間の基準と
し、その区間の内容を端的に示す代表画像を構成して提
示する。さらに、その区間の内容を解析し、区間の中身
が静止していれば、代表画像を区間の先頭として選択
し、カメラワークがある場合には、カメラワークをつな
いでパノラマ画像を作成し、それぞれを代表画像として
表示するという特徴を持っている。
In order to solve these problems, there has been proposed an attempt to classify video sections into appropriate sections in advance and present them to the user as sections of video material. For example, (Yukinobu Ta
niguti, Yoshinobu Tonomur
a, "PanoramaExcerpts: Extra
cting and packing Panoram
as for Video Browsing "1996
ACM Multimedia 97). In this, a shot change corresponding to ON / OFF of the camera at the time of shooting is used as a reference of a section when material is divided, and a representative image that briefly shows the content of the section is configured and presented. Furthermore, if the contents of the section are analyzed, the representative image is selected as the beginning of the section if the contents of the section are still, and if there is camerawork, the camerawork is connected to create a panoramic image. Has the feature of displaying as a representative image.

【0005】[0005]

【発明が解決しようとする課題】上記従来の手法は、た
しかに映像区間への分割を行い、その内容を端的に示し
ているため、編集用素材映像の提供に十分な機能を有す
るように見える。しかし、実際に編集作業を行っている
と、同一ショット内で編集に適さない部分を含む場合が
ある。それは、手ぶれや、素早い動き、また、非常に短
い時間長しかないショットなどである。映像の価値それ
自体は、その内容そのものによるところが大きく、利用
目的に応じて価値が変動するが、撮影時のクオリティに
よって左右されるという側面も有する。
Since the above-mentioned conventional method certainly divides the image into the video sections and directly shows the contents, it seems to have a sufficient function for providing the material video for editing. However, when the editing work is actually performed, there are cases where a portion that is not suitable for editing is included in the same shot. These include camera shake, quick movements, and shots that are very short and long. The value of video itself depends largely on the content itself, and the value fluctuates depending on the purpose of use, but it also depends on the quality at the time of shooting.

【0006】従って、手軽な編集という点においては、
ある程度のクオリティを保った映像区間のみを抽出して
おいてくれる方が望ましい。そのためには、ショット区
間の中で、さらに、そのカメラワークを推定し、手ぶれ
や、急激な内容変化等の画像を含んでいないかどうかを
判定し、そうした区間を自動的に除去、あるいは明示す
る機能が必要であると考える。同様に、時間長が極端に
短い映像については、撮影されている内容にもよるが、
大抵の場合編集に利用するのには適さないことが多い。
従って、こうした短い区間についてもあらかじめ除去す
る機能が必要であると考える。
Therefore, in terms of easy editing,
It is desirable to extract only the video section that maintains a certain level of quality. For that purpose, the camera work is further estimated in the shot section, it is determined whether or not an image such as a camera shake or a sudden change in content is included, and such a section is automatically removed or specified. I think that a function is necessary. Similarly, for videos with extremely short durations, depending on what is being filmed,
It is often not suitable for editing.
Therefore, it is considered necessary to have a function of removing even such short sections in advance.

【0007】すなわち、映像編集のためには、映像素材
を解析し、撮影時のON/OFFに対応するショット区
間に分割し、その中から手ぶれ等の品質を劣化させるよ
うな映像区間を自動的に除去、あるいは明示し、残った
映像区間を編集素材として利用しやすいように提示する
技術が必要である。ただし、あくまでも映像はクオリテ
ィによらず内容による場合がある。そこで、その誤差の
程度を調べ、かつ、手ぶれか、急激な動きか、短すぎる
映像区間であるかどうか?という点を判別し、適切な映
像区間、手ぶれ、急激な変化を行った区間、短すぎる区
間という具合に判別して提示してくれる方法こそ最も望
ましいと考えられる。
That is, in order to edit a video, the video material is analyzed and divided into shot sections corresponding to ON / OFF at the time of shooting, and a video section which deteriorates the quality such as camera shake is automatically selected from among them. There is a need for a technology that removes or clearly shows the remaining video section and presents it so that it can be easily used as an editing material. However, the image may depend on the content regardless of the quality. Therefore, check the degree of the error, and whether it is a camera shake, a sudden movement, or a video section that is too short. It is considered that the most desirable method is to identify and show the appropriate video section, camera shake, section with abrupt changes, and too short section.

【0008】そこで、上述した従来技術の問題点であ
る、自動的に分割されたショット区間から、撮影時のク
オリティが低い、手ぶれや、急激な動きといったカメラ
ワークを含むような区間を判別し、適切な映像区間を抽
出し、それら区間を編集素材として選択しやすいように
利用者に提示して映像編集を支援する事ができる編集用
映像区間分類方法及び装置を提供することが本発明の課
題である。
Therefore, from the automatically divided shot sections, which is a problem of the above-mentioned prior art, a section including camera work such as low image quality, camera shake, and sudden movement is determined, An object of the present invention is to provide an editing video section classification method and apparatus capable of extracting appropriate video sections and presenting them to a user so that they can be easily selected as an editing material to support video editing. Is.

【0009】[0009]

【課題を解決のための手段】本発明は、上記課題を以下
の手段によって解決する。
The present invention solves the above problems by the following means.

【0010】その一手段は、入力された映像を解析し、
映像編集に適する素材を自動的に抽出し、提示する編集
用映像区間分類方法において、入力された映像から、シ
ョットチェンジを自動検出し、ショット区間に分割、分
類するショットチェンジ区間分割分類段階と、前記ショ
ット区間中の映像を構成する画像列から、カメラワーク
が編集に適切か否かに関する単一もしくは複数の特徴量
を算出する特徴量算出段階と、前記算出された単一もし
くは複数の特徴量から、ショット内の映像区間のカメラ
ワークが編集に適切か否かに関わる評価を行う映像評価
段階と、前記映像評価段階の評価において編集に適切な
カメラワークを有すると判定された映像区間のみを、編
集に適する素材であるとして提示する映像素材提示段階
とを、有する事を特徴とする編集用映像区間分類方法で
ある。
One of the means is to analyze the input image,
In the editing video section classification method that automatically extracts and presents materials suitable for video editing, the shot change section is automatically detected from the input video, and it is divided into shot sections and classified into shot change section division and classification stages, From the image sequence that makes up the video in the shot section,
Based on the feature amount calculation step of calculating a single or multiple feature amount regarding whether or not is appropriate for editing, and whether the camerawork of the video section in the shot is appropriate for editing from the calculated single or multiple feature amount . And a video material presentation step of presenting only a video section determined to have camerawork suitable for editing in the evaluation in the video evaluation step as a material suitable for editing. A method for classifying video sections for editing, characterized in that

【0011】あるいは、前記特徴量算出段階では、連続
する2つ以上の画像列同士の間の、画像上の局所的な演
算の結果を統合することによって第1の特徴量を算出
し、画像上の全体的な演算から第2の特徴量を算出し、
前記映像評価段階では、前記2つの特徴量を用いて、前
記ショット内の映像区間を評価する事を特徴とする編集
用映像区間分類方法である。
Alternatively, in the feature quantity calculating step, the first feature quantity is calculated by integrating the results of local calculation on the image between two or more consecutive image sequences, and the first feature quantity is calculated on the image. The second feature amount is calculated from the overall calculation of
In the video evaluation step, the video section classification method for editing is characterized in that the video section in the shot is evaluated using the two feature amounts.

【0012】また、別の手段は、入力された映像を解析
し、映像編集に適する素材を自動的に抽出し、提示する
編集用映像区間分類装置において、入力された映像か
ら、ショットチェンジを自動検出し、ショット区間に分
割、分類するショットチェンジ区間分割部と、前記ショ
ット区間中の映像を構成する画像列から、カメラワーク
が編集に適切か否かに関する単一もしくは複数の特徴量
を算出する特徴量解析部と、前記算出された複数の特徴
量から、ショット内の映像区間のカメラワークが編集に
適切か否かに関わる評価を行う映像評価部と、前記映像
評価部の評価によって編集に適切なカメラワークを有す
ると判定された区間のみを、編集に適する素材であると
して提示する素材提示部とを、有する事を特徴とする編
集用映像区間分類装置である。
Another means is to analyze the input video, automatically extract a material suitable for video editing, and present it in an editing video section classifying device, which automatically performs shot change from the input video. From the shot change section dividing unit that detects, divides and classifies into shot sections, and the image sequence that constitutes the video in the shot section, camera work is performed.
From the feature quantity analysis unit that calculates a single or a plurality of feature quantities related to whether or not is appropriate for editing, and the camera work of the video section in the shot is edited from the plurality of calculated feature quantities.
A video evaluation unit that performs an evaluation regarding suitability, and a material presentation unit that presents only a section determined to have camerawork suitable for editing by the evaluation of the video evaluation unit as a material suitable for editing. An editing video section classifying device characterized by having:

【0013】あるいは、前記特徴量解析部は、連続する
2つ以上の画像列同士の間の、画像上の局所的な演算の
結果を統合することによって第1の特徴量を算出し、画
像上の全体的な演算から第2の特徴量を算出するもので
あり、前記映像評価部は、前記2つの特徴量を用いて、
ショット内の映像区間を評価するものである事を特徴と
する編集用映像区間分類装置である。
Alternatively, the feature quantity analyzing unit calculates the first feature quantity by integrating the results of local operations on the image between two or more consecutive image sequences, and calculates the first feature quantity on the image. Is to calculate a second feature amount from the overall calculation of, and the video evaluation unit uses the two feature amounts,
An editing video section classification device characterized by evaluating a video section in a shot.

【0014】なお、上記編集用映像区間分類方法におけ
る段階をコンピュータで実行するためのプログラムを、
前記コンピュータが読み取り可能な記録媒体に記録し、
この記録媒体と、これを読み取ってそのプログラムを実
行可能なコンピュータが存在すれば、本発明を実施する
事が可能である。
It should be noted that a program for executing the steps in the above-mentioned editing video section classification method on a computer is
Recording on a computer-readable recording medium,
If the recording medium and a computer that can read the recording medium and execute the program exist, the present invention can be implemented.

【0015】本発明では、自動的に分割されたショット
区間から、特徴量を用いた評価を行い、撮影時のクオリ
ティが低い、手ぶれや、急激な動きといったカメラワー
クを含むような区間を判別し、適切な映像区間を抽出し
て利用者に提示することで、それら区間を編集素材とし
て選択、利用しやすいようにし、映像編集等を支援でき
るようにする。
In the present invention, the evaluation using the feature amount is performed from the automatically divided shot sections, and the section including the camera work such as low image quality, camera shake, and abrupt movement is discriminated. , By extracting an appropriate video section and presenting it to the user, the section can be easily selected and used as an editing material, and video editing can be supported.

【0016】手ぶれと、素早いカメラワークはどちらも
似たエラーではあるが、それぞれが示す特徴は微妙に異
なる。したがって、これらを安定に判別するためには、
複数のアルゴリズムを組み合わせた特徴量と評価方法を
用いた方が、精度が向上する。そこで、連続する2つ以
上の画像列同士の間の画像上の局所的な演算の結果を統
合することによって算出した特徴量と、画像上の全体的
な演算から算出した特徴量から、映像評価を行うこと
で、より高い精度向上を見込めるようにする。
Although camera shake and quick camera work are similar errors, the characteristics they show are slightly different. Therefore, in order to distinguish these stably,
The accuracy is improved by using the feature quantity and the evaluation method in which a plurality of algorithms are combined. Therefore, the video evaluation is performed from the feature amount calculated by integrating the results of the local calculation on the image between two or more continuous image sequences and the feature amount calculated from the overall calculation on the image. By doing so, higher accuracy can be expected.

【0017】[0017]

【発明の実施の形態】本発明の編集用映像区間分類方法
及び装置の実施の形態について、具体的な説明を以下に
示す。
BEST MODE FOR CARRYING OUT THE INVENTION A detailed description will be given below of an embodiment of the editing video section classification method and apparatus of the present invention.

【0018】図1に、本発明の編集用映像区間分類方法
の一実施形態例の流れ図を示す。
FIG. 1 shows a flow chart of an embodiment of an editing video section classification method of the present invention.

【0019】入力映像0から映像を解析して、ショット
チェンジ区間分割分類ステップ11にて映像ショット区
間1に分割、分類する。この映像ショット区間1から、
特徴量抽出ステップ12にて映像に含まれる各画像を解
析し、画像に含まれる特徴量2を算出する。この特徴量
の算出は各画像内に閉じた情報からでも良いし、他の画
像との相関情報を元に演算して算出しても良い。
The video from the input video 0 is analyzed and divided into video shot sections 1 in the shot change section division / classification step 11 to be classified. From this video shot section 1,
In the feature amount extraction step 12, each image included in the video is analyzed and the feature amount 2 included in the image is calculated. This feature amount may be calculated from information closed in each image, or may be calculated based on correlation information with other images.

【0020】この特徴量2をもとに、映像評価ステップ
13にて、映像の内容を評価する。ここでの評価は、適
切な映像であるか、すなわち、編集に適した映像である
かどうかである。その評価の判定の材料は、特徴量2で
ある。その判定結果に含まれる意味については、どのよ
うな物でも構わない。この映像評価ステップ13にて、
安定した映像区間である適切映像区間3が算出される。
On the basis of this characteristic amount 2, the image evaluation step 13 evaluates the content of the image. The evaluation here is whether it is a proper video, that is, a video suitable for editing. The material for determining the evaluation is the feature amount 2. Any meaning may be included in the determination result. In this video evaluation step 13,
The appropriate video section 3 which is a stable video section is calculated.

【0021】この適切映像区間3を映像素材提示ステッ
プ14に投入し、適切な映像素材4を出力する。もちろ
ん利用者がこの映像素材を編集用に利用するか否かは利
用者の判断に一任される。
The appropriate video section 3 is input to the video material presentation step 14, and the appropriate video material 4 is output. Of course, it is up to the user to decide whether or not the user uses this video material for editing.

【0022】図2に、本発明の編集用映像区間分類装置
の一実施形態例のブロック図を示す。
FIG. 2 shows a block diagram of an embodiment of the editing video segment classification apparatus of the present invention.

【0023】本装置では、映像をテンポラリーに保存す
る記録メディア30を備えており、入力映像20から映
像のショット区間21の抽出をショットチェンジ区間分
割部40にて行う。映像ショット区間21から特徴量解
析部41にて、特徴量22を抽出する。特徴量22か
ら、映像評価部42よりショット内の安定した映像区間
である適切映像区間23を算出する。この適切映像区間
23を映像素材提示部43に投入し、映像素材として利
用者50に提示する。このため映像素材提示部43で
は、適切映像区間23から代表画像24を作成する代表
画像作成部44とともに、代表画像24を表示する表示
インタフェース45をも有しており、利用者50が利用
できるようにする。
The present apparatus is provided with a recording medium 30 for temporarily storing a video, and the shot change section dividing unit 40 extracts the shot section 21 of the video from the input video 20. The feature amount analysis unit 41 extracts the feature amount 22 from the video shot section 21. From the feature amount 22, the video evaluation unit 42 calculates an appropriate video section 23 which is a stable video section in the shot. The appropriate video section 23 is input to the video material presentation unit 43 and presented to the user 50 as video material. Therefore, the video material presentation unit 43 has a representative image creation unit 44 that creates the representative image 24 from the appropriate video section 23, and also has a display interface 45 that displays the representative image 24 so that the user 50 can use it. To

【0024】以下、本装置の動作例とともに、本方法の
実施形態例について、詳細な説明を加える。
A detailed description will be given below of an example of the operation of the apparatus and an example of an embodiment of the method.

【0025】入力映像20は、コンピュータが解析可能
なデジタル映像であれば良く、MPEGやJPEG等の
圧縮符号化されていても構わない。その時間及び空間方
向へのパラメータは任意で構わない。また、デジタル映
像でない場合には、アナログ映像データをキャプチャツ
ール等によるデジタル化する機能をショットチェンジ区
間分割部40に備えていても構わない。この入力映像
は、例えばファイル単位で計数した場合、1つである必
要はなく、複数個にわたっても構わない。複数個の場合
には、それらの時間的、空間的(サイズ、フレームレー
ト、音声トラック等の)フォーマットが異なる場合に
は、それらの整合をとる機能がショットチェンジ区間分
割部40に存在する。
The input image 20 may be any digital image that can be analyzed by a computer, and may be compression-encoded such as MPEG or JPEG. The parameters in the time and space directions may be arbitrary. If the image is not a digital image, the shot change section dividing unit 40 may have a function of digitizing analog image data by a capture tool or the like. For example, when the input video is counted in file units, it is not necessary that the input video is one, and a plurality of input videos may be used. In the case of plural pieces, the shot change section dividing unit 40 has a function of matching them when the temporal and spatial formats (size, frame rate, audio track, etc.) are different.

【0026】ショットチェンジ区間分割部40では、映
像をショット単位に分割する。ここでは、ショットチェ
ンジを検出し、そのショットチェンジ点に従って、映像
を区間に分割する。ショットチェンジの検出について
は、既存の、提案され世に知られている各手法を用いて
構わない。その一例として、フレーム間の同一画素上の
差分を計算し、差分が大きい画素が多数存在した場合、
ショットチェンジが発生したものとするなどの方法があ
げられる。また、画像内容を解析せずに、録画時のON
/OFFを記録し、保存しておき、そうした外部情報を
組み合わせて区間分割しても構わない。
The shot change section dividing section 40 divides the image into shots. Here, a shot change is detected, and the video is divided into sections according to the shot change points. For detection of shot change, existing, proposed and publicly known methods may be used. As an example, if the difference on the same pixel between frames is calculated and there are many pixels with large differences,
There is a method of assuming that a shot change has occurred. Also, it can be turned on during recording without analyzing the image content.
It is also possible to record / store / OFF, and combine such external information to divide the section.

【0027】特徴量解析部41では、同一ショット内部
の画像列から特徴量22を算出する。その算出に当っ
て、1フレームの画像内部の情報だけから特徴量を検出
しても構わないし、複数の画像列との相関など他のフレ
ームとの情報を用いても構わない。
The feature amount analysis unit 41 calculates the feature amount 22 from the image sequence in the same shot. In the calculation, the feature amount may be detected only from the information inside the image of one frame, or the information with other frames such as the correlation with a plurality of image sequences may be used.

【0028】映像評価部42では、算出された特徴量2
2を元に、ショット区間内の画像列が安定であるかどう
かを判定する。用いる特徴量は単一特徴量でも良いし、
複数の特徴量が与えられた場合には、それらを組み合わ
せて複数の特徴量を解析するなどしても良い。
The video evaluation unit 42 calculates the calculated feature quantity 2
Based on 2, it is determined whether the image sequence in the shot section is stable. The feature quantity used may be a single feature quantity,
When a plurality of feature quantities are given, they may be combined to analyze a plurality of feature quantities.

【0029】特徴量解析部41と映像評価部42につい
ては、その特徴量及び評価による適切映像区間を全て含
めて後程説明を加える。
Regarding the characteristic amount analysis unit 41 and the image evaluation unit 42, a description will be added later, including all the appropriate image sections based on the characteristic amount and evaluation.

【0030】映像素材提示部43については、映像素材
である適切映像区間23は、同一ショット内のうち、編
集に耐えうる映像素材であるとして判定されたものを区
間として有する。編集に適さない区間については、除去
しておくものとする。
Regarding the video material presenting section 43, the appropriate video section 23, which is a video material, has, as a section, a section determined to be a video material that can withstand editing within the same shot. Sections that are not suitable for editing shall be removed.

【0031】映像素材提示部43では、適切映像区間2
3から、映像区間を代表する画像を代表画像作成部44
で作成する。代表画像作成部44による代表画像24
は、各適切映像区間の先頭1フレームでも良いし、複数
フレームによるパノラマ状の物でも良いし、複数フレー
ムを縮小し、配置したような画像でも良い。こうして作
成された代表画像24を、表示インタフェース45に
て、利用者50に表示する。表示インタフェース45
は、編集用素材として、代表画像及び関連する適切映像
区間を分類して編集用ソフトウェアに受け渡すインタフ
ェースを持っていても良い。
In the video material presentation unit 43, the appropriate video section 2
An image representative of the video section from 3 is represented by the representative image creating unit 44.
Create with. Representative image 24 by the representative image creating unit 44
May be the top one frame of each appropriate video section, a panoramic object composed of a plurality of frames, or an image in which a plurality of frames are reduced and arranged. The representative image 24 thus created is displayed on the display interface 45 to the user 50. Display interface 45
May have an interface that classifies the representative image and the relevant appropriate video section as the editing material and transfers the classified image section to the editing software.

【0032】なお、適切映像区間と映像素材提示部につ
いては別の例も考えられる。
It should be noted that another example of the appropriate video section and the video material presenting section can be considered.

【0033】適切映像区間には、同一ショットの全てを
含むが、適切であるか不適切であるかの情報を各画像列
に記録しておき、映像素材提示部にて、適切な映像区間
のみを分類して対象とし、処理を行うというものであっ
ても良い。また、適切か否かという二値化するだけでな
く、特徴量を基準に多値に評価し、映像区間の順位付け
を行い、その順位付けに応じて映像を表示しても良い。
The appropriate video section includes all of the same shots, but information on whether the shot is appropriate or not is recorded in each image sequence, and only the appropriate video section is recorded by the video material presenting section. May be classified and processed, and then processed. Further, in addition to binarizing whether or not it is appropriate, multivalued evaluation may be performed on the basis of the feature amount, the video sections may be ranked, and the video may be displayed according to the ranking.

【0034】映像素材提示部43において、代表する画
像だけでなく、その中に記録されている風景、人物、等
の情報をあわせて提示しても良い。なお、これらの意味
的な情報は、可能であれば自動検出しても良いし、外部
から付加したものであっても良い。外部から付加する場
合には、表示インタフェース45に外部からの付加作業
をサポートする機能を有していても良い。
The video material presenting section 43 may present not only the representative image but also the information such as the scenery, the person, etc. recorded therein. The semantic information may be automatically detected if possible, or may be added from the outside. In the case of adding from the outside, the display interface 45 may have a function of supporting the adding work from the outside.

【0035】対象としている映像ショット区間に対する
特徴量解析部と映像評価部の動作についてさらに詳細な
説明を加える。
The operations of the feature quantity analysis unit and the video evaluation unit for the target video shot section will be described in more detail.

【0036】前述の様に、映像が適切であるか、不適切
であるかを判断するのは最終的には、利用目的によって
変わる。しかし、一般には、手ぶれ、急激に動いたカメ
ラワーク、短すぎる映像区間は、編集に使い難いことが
一般に知られている。ここでは、一例として、不適切な
映像区間として、手ぶれ、急激に動いた映像、短すぎる
映像区間を判別するために必要な特徴量およびその評価
方法について解説を加える。
As described above, the determination as to whether the image is appropriate or inappropriate depends on the purpose of use. However, it is generally known that camera shake, sudden camera movement, and too short video section are difficult to use for editing. Here, as an example, a description will be given of a feature amount necessary for distinguishing an unsuitable video section, such as a camera shake, a video that moves abruptly, and a video section that is too short, and its evaluation method.

【0037】手ぶれと急激なカメラワーク及び通常のカ
メラワークのそれぞれについて論じる。それぞれの画像
について図3(a),(b),(c)に示す。
Shake and sharp camera work and normal camera work will be discussed respectively. Each image is shown in FIGS. 3 (a), (b) and (c).

【0038】これらを判別する目的で2種類の特徴量を
算出する。それぞれ元の画像と連続する画像との類似領
域を探索し、その領域の動きを算出する。その動き分を
考慮した上で、誤差を算出し、誤差の大小を特徴量とし
て算出する。算出する2種類の特徴量として、一つは、
画像全体の類似度による全体変化量であり、もう一つは
局所的な類似度による局所集合変化量であるこれらの特
徴量の算出方法をそれぞれ図5、図6に示す。両者に共
通な手法としてブロックマッチングという手法を用い
る。先にこの手法について、図4にて説明を加える。
Two types of feature quantities are calculated for the purpose of discriminating these. A similar area between the original image and a continuous image is searched for, and the movement of the area is calculated. The error is calculated in consideration of the movement amount, and the size of the error is calculated as the feature amount. One of the two types of features to be calculated is
FIGS. 5 and 6 show the calculation methods of these feature amounts, which are the total change amount based on the similarity of the entire image and the other is the local set change amount based on the local similarity. A method called block matching is used as a method common to both. First, this method will be described with reference to FIG.

【0039】図4に示すように、まず探索したい画像f
(t)をいくつかの領域に区切る。区切った領域は、正
方形でも良いし、それ以外でも良いが、処理を単純化す
るために、一般には正方形が用いられる。この分割され
た各領域を、B(k,t)とする。なお、B(k,t)
には幾つかの画素が含まれる。それらの画素をp(k,
i,t)と表記する。ブロックマッチングとは、B
(k,t)毎に対象とする別画像をつぎあわせる。ここ
では、連続した次のフレームf(t+1)の画像を対象
として比較を行う。
As shown in FIG. 4, the image f to be searched is first
Divide (t) into several regions. The divided areas may be square or other areas, but squares are generally used to simplify the processing. Let each of the divided areas be B (k, t). Note that B (k, t)
Contains several pixels. Let those pixels be p (k,
i, t). What is block matching? B
Separate target images are stitched for each (k, t). Here, the comparison is performed on the image of the next continuous frame f (t + 1).

【0040】f(t)を分割したブロックp(k,t)
を対象とする。フレームf(t+1)において、領域B
(k,t)と対応する領域はB(k,t+1)として表
記される。この領域を中心に領域の位置をmだけ動かし
た領域B(k+m,t+1)と比較し、探索する。類似
する探索においては、B(k,t)に含まれるp(k,
i,t)と、B(k+m,t+1)に含まれるp(k+
m,i,t+1)との差分の和が最も小さくなるような
mを探索する事になる。その数式は、 min{Σm{p(k,i,t)−p(k+m,i,t
+1)}2} となる。
Block p (k, t) obtained by dividing f (t)
Target. Area B in frame f (t + 1)
The area corresponding to (k, t) is written as B (k, t + 1). A search is made by comparing with a region B (k + m, t + 1) obtained by moving the position of the region by m around this region. In a similar search, p (k, t) included in B (k, t)
i, t) and p (k + contained in B (k + m, t + 1)
m, i, t + 1) will be searched for such that the sum of the differences between them becomes the smallest. The formula is: min {Σ m {p (k, i, t) −p (k + m, i, t
+1)} 2 }.

【0041】本実施形態例では、このブロックマッチン
グの手法を用いて、探索を行う。
In this embodiment, a search is performed using this block matching method.

【0042】まず、図5を用いて、全体的類似領域の探
索について説明する。図5(a)に示すように原画像か
ら平均を演算して縮小した画像同士を1つのブロックと
みたててブロックマッチング手法を適用し類似領域を探
索する(Level)。
First, the search for the overall similar region will be described with reference to FIG. As shown in FIG. 5A, the images obtained by calculating the average of the original images and reducing the images are regarded as one block, and a block matching method is applied to search for a similar region (Level).

【0043】次に、あまり画像を縮小しない状態で、画
像全体を一つのブロックと見立てて、同様に探索を行う
(Level2)。なお、一つ小さい縮小画像から得ら
れた動きベクトルを参考に、その候補の周辺のみを探索
する。こうして、元の原画像のサイズまでこの処理を繰
り返し(Level3)、画像全体の移動距離を演算す
る。この手法はコーストゥファインとも呼ばれる手法で
ある。画像の類似度は最終的に類似すると判定された画
像間の差分を算出しこれを用いる(図5(b))。数式
としては、 D=Σi{p(i,t)−P(i+m,t+1)}2 これによって画像全体が正確に探索された方向へ移動し
ている場合には、差分は小さくなる。
Next, in a state where the image is not reduced so much, the entire image is regarded as one block, and the search is similarly performed (Level 2). Note that only the periphery of the candidate is searched with reference to the motion vector obtained from the one smaller reduced image. In this way, this process is repeated up to the size of the original original image (Level 3) to calculate the moving distance of the entire image. This method is also called coast to fine. The image similarity is calculated by using the difference between the images finally determined to be similar (FIG. 5B). As a mathematical expression, D = Σ i {p (i, t) -P (i + m, t + 1)} 2 As a result, when the entire image moves in the direction accurately searched, the difference becomes small.

【0044】次に、図6により局所的な類似度について
説明を行う。
Next, the local similarity will be described with reference to FIG.

【0045】こちらは、原画像をブロックに分解し、ま
さしくブロックマッチングを行う。原画像を適当なブロ
ックに分割し、その探索を行う。探索に際しては、原画
像が320×240のサイズで有る場合には、8×8程
度が良いといわれている。個々のベクトル毎に類似領域
を探索し、その誤差を各ブロック毎に算出する。その各
ブロックの誤差の総和を特徴量として用いる。従って、
その数式は、 D=Σk{B(k,t)−B(k+m,t+1)}2 となる。
Here, the original image is decomposed into blocks and exactly block matching is performed. The original image is divided into appropriate blocks and the search is performed. At the time of search, it is said that about 8 × 8 is preferable when the original image has a size of 320 × 240. A similar region is searched for each vector, and the error is calculated for each block. The sum of the errors of each block is used as a feature amount. Therefore,
The mathematical formula is D = Σ k {B (k, t) −B (k + m, t + 1)} 2 .

【0046】今回、検出したい手ぶれと急激な動きにお
いて、手ぶれは、図3(a)の手ぶれ状態に示すよう
に、局所的には、類似する領域が多く発生する。従っ
て、局所集合変化量はあまり大きくならない。これに対
して、全体変化量の方は、全体での変化として当てはめ
ると、ひずみが生じるため、全体変化量は大きなものと
なる。
At this time, when the camera shake to be detected and the abrupt movement occur, the camera shake locally has many similar areas as shown in the camera shake state of FIG. 3A. Therefore, the local set change amount does not become so large. On the other hand, if the total change amount is applied as a change in the whole, distortion occurs, and therefore the total change amount becomes large.

【0047】一方、急激な動きについては、ブロックマ
ッチングの探索範囲外に出る事が多いため、全体変化
量、局所集合変化量のいずれも誤差が大きくなる。
On the other hand, abrupt movements often go out of the block matching search range, so that the error in both the total change amount and the local set change amount becomes large.

【0048】これら二つの変化量と映像に与える影響に
ついて、図7に示す。それぞれ2枚の連続する画像同士
を比較し、差分が大きく残った部分を黒く表示してい
る。手ぶれによる変化の場合、全体変化量に比べ、局所
集合変化量の方が個々の領域でひずみを吸収するため変
化が少ない。また急激なカメラワークの場合には、大抵
が探索の範囲外となるため、エラーがいずれも大きくな
る。
FIG. 7 shows these two variations and the effect on the image. Two consecutive images are compared with each other, and a portion where a large difference remains is displayed in black. In the case of a change due to camera shake, the local set change amount is smaller than the total change amount because the strain is absorbed in each region. Further, in the case of abrupt camera work, most of the errors are out of the search range, resulting in large errors.

【0049】このことを応用して、手ぶれ、急激な動き
との判別をつける。即ち、いずれの誤差も大きければ急
激な動きであり、局所集合変化量が小さい場合には、手
ぶれであると判定するというものである。
By applying this fact, it is possible to discriminate between camera shake and sudden movement. That is, if any of the errors is large, the motion is abrupt, and if the local set change amount is small, it is determined that the motion is a camera shake.

【0050】このフロー構成を図8にまとめる。即ちそ
れぞれの変化量を元に、与えられた閾値と比較して、手
ぶれ、急激なカメラワーク、それ以外の安定したカメラ
ワークを算出する。こうした各区間を元に同一ショット
を分類すると、図9に示すように、同一ショット区間上
で複数の区間に分割する事ができる。こうした分割した
区間において、さらにあらかじめ定められた映像区間長
よりも短い区間については、短すぎる区間として自動的
に判定する。
This flow configuration is summarized in FIG. That is, on the basis of each change amount, the camera shake, the abrupt camerawork, and the other stable camerawork are calculated by comparing with a given threshold value. If the same shot is classified based on each of these sections, as shown in FIG. 9, it is possible to divide the same shot into a plurality of sections on the same shot section. In such divided sections, a section that is shorter than a predetermined video section length is automatically determined as a section that is too short.

【0051】映像素材提示部43では、図9に示すよう
に、各映像区間から、代表画像を選出する。もちろん、
短すぎる映像区間についてはあらかじめ除去しても良い
し、ショット区間、急激な動き区間、手ぶれ区間とあわ
せて、短すぎる区間である事を明示した状態で表示して
も良い。なお、代表画像インタフェースにおいて、任意
の個所を再生可能などさまざまな応用を考えることもで
き、容易に類推可能なものは、それぞれこの本発明の範
囲内とする。
In the video material presentation section 43, as shown in FIG. 9, a representative image is selected from each video section. of course,
The video section that is too short may be removed in advance, or the video section may be displayed together with the shot section, the abrupt movement section, and the camera shake section in a state that the section is too short. It should be noted that various applications such as reproduction of an arbitrary part in the representative image interface can be considered, and easily analogized ones are within the scope of the present invention.

【0052】なお、図2で示した装置各部の一部もしく
は全部を、コンピュータを用いて機能させることができ
ること、あるいは、図1や図8、あるいは図2の動作例
などで示した処理の段階をコンピュータで実行させるこ
とができることは言うまでもなく、コンピュータをその
各部として機能させるためのプログラム、あるいは、コ
ンピュータでその処理の段階を実行させるためのプログ
ラムを、そのコンピュータが読み取り可能な記録メディ
ア、例えば、FD(フロッピーディスク)や、MO、R
OM、メモリカード、CD、DVD、リムーバブルディ
スクなどに記録して提供し、配布することが可能であ
る。そして、このコンピュータプログラムを記録した記
録メディアと、映像等の保存メデイアと、プログラムを
読み取り実行するコンピュータが存在すれば機能するこ
とも可能である。
It should be noted that a part or all of each part of the apparatus shown in FIG. 2 can be made to function by using a computer, or the processing steps shown in the operation examples of FIG. 1, FIG. 8 or FIG. Needless to say, can be executed by a computer, a program for causing a computer to function as each part thereof, or a program for causing a computer to execute the processing steps thereof, a recording medium readable by the computer, for example, FD (floppy disk), MO, R
It can be recorded and provided on an OM, a memory card, a CD, a DVD, a removable disk, etc., and distributed. If there is a recording medium recording the computer program, a storage medium for storing images, etc., and a computer for reading and executing the program, it is possible to function.

【0053】[0053]

【発明の効果】本発明によれば、映像編集に容易なよう
に、編集作業に適すると判定された映像区間を抽出し、
利用者に提示するようにしたので、映像編集の支援に役
立つ。
According to the present invention, a video section determined to be suitable for editing work is extracted so as to facilitate video editing,
Since it is presented to the user, it is useful for video editing support.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の編集用映像区間分類方法の一実施形態
例を示すフロー図である。
FIG. 1 is a flowchart showing an example of an embodiment of an editing video section classification method of the present invention.

【図2】本発明の編集用映像区間分類装置の一実施形態
例を示すブロック図である。
FIG. 2 is a block diagram showing an exemplary embodiment of an editing video section classification device of the present invention.

【図3】(a),(b),(c)は、手振れ及び急激な
カメラワークのある映像例を示す図である。
3 (a), (b), and (c) are diagrams showing examples of images with camera shake and abrupt camerawork.

【図4】ブロックマッチングの説明図である。FIG. 4 is an explanatory diagram of block matching.

【図5】(a),(b)は、画面全体の類似度の算出に
ついて説明する図である。
5 (a) and 5 (b) are diagrams for explaining calculation of the degree of similarity of the entire screen.

【図6】画面の局所的な類似度の算出について説明する
図である。
FIG. 6 is a diagram illustrating calculation of local similarity of a screen.

【図7】手ぶれ及び急激なカメラワークの場合の変化量
の違いについて説明する図である。
FIG. 7 is a diagram for explaining the difference in the amount of change in the case of camera shake and sudden camerawork.

【図8】本実施形態例における、手ぶれ及び急激なカメ
ラワークの検出フローを示す図である。
FIG. 8 is a diagram showing a detection flow of camera shake and abrupt camerawork in the present embodiment example.

【図9】本実施形態例における、映像区間の分割につい
て説明する図である。
FIG. 9 is a diagram illustrating division of a video section according to the present embodiment example.

【符号の説明】[Explanation of symbols]

0…入力映像データ 1…映像ショット区間 2…特徴量 3…適切映像区間 4…映像素材 11…ショットチェンジ区間分割分類ステップ 12…特徴量抽出ステップ 13…映像評価ステップ 14…映像素材提示ステップ 20…入力映像データ 21…映像ショット区間 22…特徴量 23…適切映像区間 24…代表画像 30…記録メディア 40…ショットチェンジ区間分割部 41…特徴量解析部 42…映像評価分類 43…映像素材提示部 44…代表画像作成部 45…表示インタフェース 50…利用者 0 ... Input video data 1 ... Video shot section 2 ... Feature quantity 3 ... Appropriate video section 4 ... Video material 11 ... Shot change section division classification step 12 ... Feature amount extraction step 13 ... Video evaluation step 14 ... Video material presentation step 20 ... Input video data 21 ... Video shot section 22 ... Feature amount 23 ... Appropriate video section 24 ... Representative image 30 ... Recording media 40 ... Shot change section division section 41 ... Feature analysis unit 42 ... Video evaluation classification 43 ... Video material presentation section 44 ... Representative image creation unit 45 ... Display interface 50 ... User

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平6−209451(JP,A) 特開 平11−136573(JP,A) (58)調査した分野(Int.Cl.7,DB名) H04N 5/76 - 5/956 H04N 5/262 - 5/278 ─────────────────────────────────────────────────── ─── Continuation of the front page (56) References JP-A-6-209451 (JP, A) JP-A-11-136573 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) H04N 5/76-5/956 H04N 5/262-5/278

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 入力された映像を解析し、映像編集に適
する素材を自動的に抽出し、提示する編集用映像区間分
類方法において、 入力された映像から、ショットチェンジを自動検出し、
ショット区間に分割、分類するショットチェンジ区間分
割分類段階と、 前記ショット区間中の映像を構成する画像列から、カメ
ラワークが編集に適切か否かに関する単一もしくは複数
の特徴量を算出する特徴量算出段階と、 前記算出された単一もしくは複数の特徴量から、ショッ
ト内の映像区間のカメラワークが編集に適切か否かに関
わる評価を行う映像評価段階と、 前記映像評価段階の評価において編集に適切なカメラワ
ークを有すると判定された映像区間のみを、編集に適す
る素材であるとして提示する映像素材提示段階とを、 有する事を特徴とする編集用映像区間分類方法。
1. A method of classifying a video section for editing in which an input video is analyzed, a material suitable for video editing is automatically extracted, and a shot change is automatically detected from the input video,
A feature amount for calculating a single or a plurality of feature amounts regarding whether or not camera work is suitable for editing from a shot change segment division and classification step of dividing and classifying into shot segments, and an image sequence forming a video in the shot segment. A calculation step, a video evaluation step that evaluates whether or not the camerawork in the video section in the shot is appropriate for editing from the calculated single or multiple feature amounts, and an edit step in the evaluation step of the video evaluation step. And a video material presentation step of presenting only a video section determined to have appropriate camera work as a material suitable for editing, a video section classification method for editing.
【請求項2】 前記特徴量算出段階では、連続する2つ
以上の画像列同士の間の、画像上の局所的な演算の結果
を統合することによって第1の特徴量を算出し、画像上
の全体的な演算から第2の特徴量を算出し、 前記映像評価段階では、前記2つの特徴量を用いて、前
記ショット内の映像区間を評価する事を特徴とする請求
項1記載の編集用映像区間分類方法。
2. In the feature amount calculating step, the first feature amount is calculated by integrating the results of local calculation on the image between two or more consecutive image sequences, and the first feature amount is calculated on the image. 2. The second feature amount is calculated from the overall calculation of, and in the video evaluation step, the video section in the shot is evaluated using the two feature amounts. Video segment classification method.
【請求項3】 入力された映像を解析し、映像編集に適
する素材を自動的に抽出し、提示する編集用映像区間分
類装置において、 入力された映像から、ショットチェンジを自動検出し、
ショット区間に分割、分類するショットチェンジ区間分
割部と、 前記ショット区間中の映像を構成する画像列から、カメ
ラワークが編集に適切か否かに関する単一もしくは複数
の特徴量を算出する特徴量解析部と、 前記算出された複数の特徴量から、ショット内の映像区
間のカメラワークが編集に適切か否かに関わる評価を行
う映像評価部と、 前記映像評価部の評価によって編集に適切なカメラワー
クを有すると判定された区間のみを、編集に適する素材
であるとして提示する素材提示部とを、 有する事を特徴とする編集用映像区間分類装置。
3. An editing video section classifying device which analyzes an input video, automatically extracts a material suitable for video editing, and presents it, and automatically detects a shot change from the input video,
A shot amount section dividing unit for dividing and classifying into shot sections, and a feature amount analysis for calculating a single or a plurality of feature amounts regarding whether or not camerawork is appropriate for editing, from an image sequence forming a video in the shot section Section, a video evaluation section that evaluates whether or not the camerawork in the video section in the shot is appropriate for editing from the calculated plurality of feature amounts, and a camera that is suitable for editing by the evaluation of the video evaluation section. An editing video section classification device characterized in that it has a material presentation section that presents only sections determined to have work as materials suitable for editing.
【請求項4】 前記特徴量解析部は、連続する2つ以上
の画像列同士の間の、画像上の局所的な演算の結果を統
合することによって第1の特徴量を算出し、画像上の全
体的な演算から第2の特徴量を算出するものであり、 前記映像評価部は、前記2つの特徴量を用いて、ショッ
ト内の映像区間を評価するものである事を特徴とする請
求項3記載の編集用映像区間分類装置。
4. The feature quantity analyzing unit calculates the first feature quantity by integrating the results of local calculation on the image between two or more consecutive image sequences, and calculates the first feature quantity on the image. The second feature amount is calculated from the overall calculation of the image evaluation unit, and the video evaluation unit evaluates the video section in the shot using the two feature amounts. Item 3. The video segment classification device for editing according to Item 3.
【請求項5】 請求項1または2に記載の編集用映像区
間分類方法における段階をコンピュータで実行するため
のプログラムを、 前記コンピュータが読み取り可能な記録媒体に記録した
事を特徴とする編集用映像区間分類方法を記録した記録
媒体。
5. An editing image, characterized in that a program for executing the steps in the editing image segment classification method according to claim 1 or 2 by a computer is recorded in a computer-readable recording medium. Recording medium recording the section classification method.
JP06316899A 1999-03-10 1999-03-10 Video segment classification method and apparatus for editing, and recording medium recording this method Expired - Fee Related JP3469122B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP06316899A JP3469122B2 (en) 1999-03-10 1999-03-10 Video segment classification method and apparatus for editing, and recording medium recording this method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP06316899A JP3469122B2 (en) 1999-03-10 1999-03-10 Video segment classification method and apparatus for editing, and recording medium recording this method

Publications (2)

Publication Number Publication Date
JP2000261757A JP2000261757A (en) 2000-09-22
JP3469122B2 true JP3469122B2 (en) 2003-11-25

Family

ID=13221464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06316899A Expired - Fee Related JP3469122B2 (en) 1999-03-10 1999-03-10 Video segment classification method and apparatus for editing, and recording medium recording this method

Country Status (1)

Country Link
JP (1) JP3469122B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100869497B1 (en) * 2005-07-01 2008-11-21 주식회사 메디슨 Hierarchical Motion Estimating Method and Ultrasound Image Display Device Using the Same
JP4640001B2 (en) * 2005-07-07 2011-03-02 日本電信電話株式会社 Video processing method and apparatus, program, and storage medium storing program
JP4673916B2 (en) * 2006-03-10 2011-04-20 パイオニア株式会社 Information processing apparatus, information processing method, and information processing program
JP4957960B2 (en) * 2007-01-29 2012-06-20 ソニー株式会社 Image processing apparatus, image processing method, and program
JP4915860B2 (en) * 2007-03-28 2012-04-11 Kddi株式会社 Video classification device
JP2009004950A (en) * 2007-06-20 2009-01-08 Victor Co Of Japan Ltd Imaging apparatus and editing apparatus
JP4995787B2 (en) * 2008-08-26 2012-08-08 日本電信電話株式会社 Image storage device, program for image storage device, and image storage system
JP5283267B2 (en) * 2009-02-12 2013-09-04 Kddi株式会社 Content identification method and apparatus
CN113453074A (en) * 2021-07-07 2021-09-28 深圳市艾赛华信息技术有限公司 Video multi-editing and time sequence analysis method

Also Published As

Publication number Publication date
JP2000261757A (en) 2000-09-22

Similar Documents

Publication Publication Date Title
JP5005154B2 (en) Apparatus for reproducing an information signal stored on a storage medium
US8316301B2 (en) Apparatus, medium, and method segmenting video sequences based on topic
US8818038B2 (en) Method and system for video indexing and video synopsis
US8467611B2 (en) Video key-frame extraction using bi-level sparsity
US7376274B2 (en) Method and apparatus for use in video searching
US8200063B2 (en) System and method for video summarization
Aner et al. Video summaries through mosaic-based shot and scene clustering
EP0729117B1 (en) Method and apparatus for detecting a point of change in moving images
US7487524B2 (en) Method and apparatus for presenting content of images
US20050228849A1 (en) Intelligent key-frame extraction from a video
CN107430780B (en) Method for output creation based on video content characteristics
US20080019661A1 (en) Producing output video from multiple media sources including multiple video sources
EP1775664A2 (en) Image processing apparatus
Oh et al. Content-based scene change detection and classification technique using background tracking
JP3469122B2 (en) Video segment classification method and apparatus for editing, and recording medium recording this method
JP3258924B2 (en) Scene management device, scene management method, and recording medium
JP2009123095A (en) Image analysis device and image analysis method
JPH11265396A (en) Music video classification method, its device and medium for recording music video classification program
Aner-Wolf et al. Video summaries and cross-referencing through mosaic-based representation
JP3427969B2 (en) Video display method and apparatus, and recording medium storing video display program
Choi et al. A framework for automatic static and dynamic video thumbnail extraction
Kopf et al. Automatic generation of summaries for the Web
JP3513011B2 (en) Video telop area determination method and apparatus, and recording medium storing video telop area determination program
Ford Fuzzy logic methods for video shot boundary detection and classification
JPH09223234A (en) Moving image information detecting device for moving image processing system

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080905

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080905

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090905

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090905

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100905

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100905

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110905

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120905

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130905

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees