JP2003069946A - Video analyzer, video analysis method, video analysis program and its program recording medium - Google Patents

Video analyzer, video analysis method, video analysis program and its program recording medium

Info

Publication number
JP2003069946A
JP2003069946A JP2001257564A JP2001257564A JP2003069946A JP 2003069946 A JP2003069946 A JP 2003069946A JP 2001257564 A JP2001257564 A JP 2001257564A JP 2001257564 A JP2001257564 A JP 2001257564A JP 2003069946 A JP2003069946 A JP 2003069946A
Authority
JP
Japan
Prior art keywords
video
analysis
analysis result
partial
division
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001257564A
Other languages
Japanese (ja)
Other versions
JP3785068B2 (en
Inventor
Akihisa Kobayashi
昭久 小林
Hidekatsu Kuwano
秀豪 桑野
Masashi Morimoto
正志 森本
Haruhiko Kojima
治彦 児島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2001257564A priority Critical patent/JP3785068B2/en
Publication of JP2003069946A publication Critical patent/JP2003069946A/en
Application granted granted Critical
Publication of JP3785068B2 publication Critical patent/JP3785068B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce a video analysis time without deteriorating detection accuracy in the video image analysis for analyzing scene information or the like. SOLUTION: In the video analyzer 1 for analyzing scene information or the like, a video input section 11 stores video data inputted from an external device and a video division section 12 divides the video data into partial video images of a proper number. The devided video data are distributed respectively to video analysis sections (1 to N) 13, which perform video image analysis in parallel. An analysis result integration section 14 receives partial analysis results from the video analysis sections (1 to N) 13 and integrates them to obtain a single analysis result. An analysis result output section 15 outputs the analysis result.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は,映像信号を読み込
み,映像内容におけるシーンの切り替わり,テロップ文
字の有無,音楽の有無等のシーン情報の解析を行う映像
解析技術に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video analysis technique for reading a video signal, switching scenes in video contents, analyzing scene information such as presence / absence of telop characters and presence / absence of music.

【0002】[0002]

【従来の技術】映像中のカット,テロップ,音等のシー
ン情報の解析を行う映像解析技術は,従来から多数提案
されている。 (参考文献) [1]大辻他,「輝度情報を使った動画像ブラウジン
グ」,電気情報通信学会技術報告,IE90−103,
1991。 [2]谷口他,「映像カット点検出方法および装置」,
特許番号第2839132号。 [3]外村他,「シーン抽出処理方法」,特許番号第2
960939号 [4]中島他,「キーワード画像抽出による動画像サマ
リの作成」,情処全大1F‐10,1994 後期。
2. Description of the Related Art Many image analysis techniques for analyzing scene information such as cuts, telops, and sounds in images have been proposed. (References) [1] Otsuji et al., "Moving Image Browsing Using Luminance Information", IEICE Technical Report, IE90-103,
1991. [2] Taniguchi et al., “Method and apparatus for detecting video cut points”,
Patent No. 2839132. [3] Sotomura et al., "Scene Extraction Processing Method", Patent No. 2
No. 960939 [4] Nakajima et al., “Creating a moving image summary by extracting keyword images”, Jikojo Zendai 1F-10, 1994 latter term.

【0003】従来の手法は,いずれも映像中のシーン内
容を解析するために,隣り合うフレーム画像の比較演算
処理を映像の先頭から最後まで逐次的に行う方式をと
る。
In the conventional methods, in order to analyze the contents of a scene in a video, the comparison calculation processing of adjacent frame images is sequentially performed from the beginning to the end of the video.

【0004】隣り合うフレーム画像の比較演算処理の一
例として,参考文献[1]で提案されているカット検出
の方法は,隣り合うフレーム画像同士の対応する画素間
の輝度値の差を計算して,その絶対値の全画面にわたる
和があらかじめ定められた閾値より大きいときカットと
して検出するものである。
As an example of comparison calculation processing of adjacent frame images, the cut detection method proposed in Reference [1] calculates the difference in luminance value between corresponding pixels of adjacent frame images. When the sum of the absolute values over the entire screen is larger than a predetermined threshold value, it is detected as a cut.

【0005】[0005]

【発明が解決しようとする課題】従来の技術では,映像
全体を解析する場合,隣り合う2枚のフレーム画像の比
較演算処理を映像の先頭から最後まで逐次的に行うた
め,解析に必要な処理時間が映像を構成するフレーム画
像の数に比例した時間だけ必要であった。このため,よ
り短い時間で解析結果を得ることができないという問題
があった。
In the prior art, when analyzing the entire video, the comparison calculation processing of two adjacent frame images is sequentially performed from the beginning to the end of the video, so the processing required for the analysis is performed. The time required was proportional to the number of frame images that compose the video. Therefore, there is a problem that the analysis result cannot be obtained in a shorter time.

【0006】この問題に対し,従来提案されていた方法
として,隣り合うフレーム画像同士を比較するのではな
く,数フレーム置きに比較処理を行う方法がある。しか
しながら,このように比較するフレーム画像間隔を長く
した場合には,同じシーン中での人物,物体が移動する
場面などを誤ってシーン変化として検出してしまうこと
などがあり,検出精度が低下するという問題もあった。
In order to solve this problem, as a conventionally proposed method, there is a method of performing comparison processing every few frames instead of comparing adjacent frame images. However, when the frame image interval for comparison is increased in this way, the scene in which the person or object moves in the same scene may be erroneously detected as a scene change, and the detection accuracy decreases. There was also a problem.

【0007】本発明の目的は,映像中のカット,テロッ
プ,音等のシーン情報の解析を行う映像解析において,
検出の精度を従来よりも低下させることなく,映像解析
時間を従来よりも短縮することを可能とすることにあ
る。
An object of the present invention is to analyze a scene information such as a cut, a telop, a sound in a video in a video analysis,
It is possible to reduce the video analysis time as compared with the conventional method without lowering the detection accuracy.

【0008】[0008]

【課題を解決するための手段】本発明は,上記課題を解
決するため,映像解析の対象である入力された映像デー
タを,一旦,部分映像に分割し,これらの部分映像の映
像解析の処理を並列に行い,映像解析により生じる映像
解析結果を統合し,1つの映像データを最初から最後ま
で逐次的に処理した場合と同様の解析結果を出力するこ
とを特徴とする。
In order to solve the above problems, the present invention temporarily divides input video data, which is the target of video analysis, into partial videos, and processes the video analysis of these partial videos. Is performed in parallel, the image analysis results generated by the image analysis are integrated, and the same analysis result as when one image data is sequentially processed from the beginning to the end is output.

【0009】具体的な手段としては,映像データを入力
し,記憶する映像入力手段と,前記映像入力手段で入力
された映像データをあらかじめ定められた条件に従い時
分割し,複数の部分映像を生成する映像分割手段と,前
記映像分割手段で得られた各部分映像に対してのシーン
情報の解析を並列に実行する映像解析手段と,前記映像
解析手段により得られた複数の解析結果を統合する解析
結果統合手段と,前記解析結果統合手段により得られた
解析結果を出力する解析結果出力手段とを有する。
As a concrete means, a video input means for inputting and storing video data and time division of the video data input by the video input means according to a predetermined condition to generate a plurality of partial videos. Video dividing means, a video analyzing means for executing parallel scene information analysis for each partial video obtained by the video dividing means, and a plurality of analysis results obtained by the video analyzing means are integrated. It has an analysis result integrating means and an analysis result outputting means for outputting the analysis result obtained by the analysis result integrating means.

【0010】以上の手段を用いることにより,入力され
た映像データを時分割し,複数の部分映像を生成するこ
とで,映像解析処理を並列に実行することが可能とな
り,さらに,映像解析処理を並列に実行した結果生じる
複数の解析結果を統合することにより,映像を構成する
フレーム画像の比較演算処理を映像の先頭から最後まで
逐次的に行う従来の方式よりも,映像解析時間の短縮が
可能となる。
By using the above means, the input video data is time-divided and a plurality of partial videos are generated, whereby the video analysis processing can be executed in parallel. By integrating multiple analysis results that are generated as a result of parallel execution, the video analysis time can be shortened compared to the conventional method in which the comparison calculation processing of the frame images that make up the video is performed sequentially from the beginning to the end of the video. Becomes

【0011】ただし,映像データを時分割する処理にお
いて,映像をある任意の時間を境界として単純に分割し
てしまうと,分割点前後のフレーム画像の比較演算処理
が行われないため,分割点付近の正しい映像解析結果が
得られない場合がある。例えば,仮に映像を分割した点
がシーンの切り替わりと同じタイミングである場合に
は,該シーンの切り替わりの前後のフレーム画像が各々
異なる部分映像に含まれてしまい,両者を比較すること
ができないため,シーンの切り替わりの情報を抽出でき
ない。
However, in the process of time-dividing the video data, if the video is simply divided at a certain arbitrary time as a boundary, the comparison calculation process of the frame images before and after the division point is not performed, so that the vicinity of the division point The correct video analysis result of may not be obtained. For example, if the point at which the video is divided is at the same timing as the scene switching, the frame images before and after the scene switching are included in different partial videos, and the two cannot be compared. Unable to extract scene change information.

【0012】このような映像解析精度の低下は,より精
度の高い映像の解析結果が必要な場合に問題となる可能
性があるため,第2の本発明では,さらに前記映像分割
手段に,入力された映像データを分割する数または分割
するサイズ等の分割条件を決定する分割条件決定手段
と,生成される複数の部分映像のうち,時間的に隣り合
う部分映像に対して,互いに重複するフレーム数を決定
する重複フレーム数決定手段と,生成される複数の部分
映像について,各部分映像の開始フレーム番号と終了フ
レーム番号を決定する区間決定手段とを設け,また,前
記解析結果統合手段に,前記映像分割手段により得られ
た各部分映像の解析結果を読み込む解析結果読み込み手
段と,前記映像分割手段で設定された時間的に隣り合う
部分映像が持つ重複するフレーム部分の解析結果を比較
し,各解析結果の統合を行う統合判断手段とを設ける。
Such a decrease in the image analysis accuracy may cause a problem when a more accurate image analysis result is required. Therefore, in the second aspect of the present invention, the image division means further inputs A dividing condition determining means for determining a dividing condition such as the number of divided divided image data or a dividing size, and a frame that overlaps temporally adjacent partial images among a plurality of generated partial images An overlapping frame number determining means for determining the number and a section determining means for determining a start frame number and an end frame number of each partial video for a plurality of generated partial videos are provided, and the analysis result integrating means includes: Analysis result reading means for reading the analysis result of each partial image obtained by the image dividing means, and overlap between temporally adjacent partial images set by the image dividing means Comparing the analysis result of the frame portion that is provided with an integrated determination means for performing integration of the analysis results.

【0013】このように映像を分割する際に,隣り合う
部分映像が互いに重複するフレーム画像を持つように
し,重複部分の解析結果を比較しながら統合すること
で,映像を分割することにより生じる映像解析の精度の
低下を防ぐことが可能となり,かつ,従来よりも短い時
間で映像解析の処理を完了することが可能となる。
In this way, when the video is divided, the adjacent partial videos have overlapping frame images, and the analysis results of the overlapping parts are compared and integrated so that the video generated by dividing the video It is possible to prevent a decrease in analysis accuracy and complete the video analysis processing in a shorter time than before.

【0014】以上の手段は,コンピュータと,そのコン
ピュータにインストールされ実行されるソフトウェアプ
ログラムとによって実現することができ,そのプログラ
ムは,コンピュータが読み取り可能な可搬媒体メモリ,
半導体メモリ,ハードディスク等の適当な記録媒体に格
納することができる。
The above means can be realized by a computer and a software program installed and executed in the computer. The program is a computer-readable portable medium memory,
It can be stored in an appropriate recording medium such as a semiconductor memory or a hard disk.

【0015】[0015]

【発明の実施の形態】以下,本発明を適用した映像解析
装置の例について,図面を参照しながら説明する。図1
は,本発明による映像解析装置の構成例を示す。映像解
析装置1は,映像入力部11,映像分割部12,N個の
映像解析部(1〜N)13,解析結果統合部14および
解析結果出力部15により構成される。
BEST MODE FOR CARRYING OUT THE INVENTION An example of a video analysis device to which the present invention is applied will be described below with reference to the drawings. Figure 1
Shows a configuration example of a video analysis device according to the present invention. The video analysis device 1 includes a video input unit 11, a video division unit 12, N video analysis units (1 to N) 13, an analysis result integration unit 14, and an analysis result output unit 15.

【0016】映像入力部11は,外部から入力される映
像データをメモリなどに記憶する入力装置であり,ビデ
オキャプチャーボード等により実現できる。入力される
映像データとしては,TV放送等のアナログの映像信号
や,CD−ROMやDVDなどの記録媒体に記録された
ディジタルデータ等がある。
The video input unit 11 is an input device for storing video data input from the outside in a memory or the like, and can be realized by a video capture board or the like. The input video data includes analog video signals such as TV broadcasts and digital data recorded on a recording medium such as a CD-ROM and a DVD.

【0017】映像分割部12は,映像入力部11により
入力された映像データの属性情報(ファイルサイズ,フ
レームレート,総フレーム数等)を読み取り,生成する
部分映像の数や生成する部分映像の時間長や部分映像の
ファイルサイズ等の条件を決定し,読み取った映像デー
タの属性情報と決定した条件とをパラメータとして,生
成する部分映像の開始フレーム番号および終了フレーム
番号を算出し,部分映像を生成し,生成した部分映像を
映像解析部(1〜N)13に渡す処理装置であり,CP
U等により実現可能である。
The video division unit 12 reads the attribute information (file size, frame rate, total number of frames, etc.) of the video data input by the video input unit 11, and the number of partial videos generated and the time of the partial video generated. Determine conditions such as length and file size of partial video, calculate the start frame number and end frame number of the partial video to be generated using the attribute information of the read video data and the determined conditions as parameters, and generate the partial video The CP is a processing device that passes the generated partial video to the video analysis unit (1 to N) 13.
It can be realized by U or the like.

【0018】この映像分割部12により部分映像が生成
できるため,映像解析部(1〜N)13は,各部分映像
の映像解析処理を並列に実行できるようになる。なお,
前記の映像データの属性情報は,例えば,映像データが
コンピュータ上のディジタルファイル形式の場合,該フ
ァイルのヘッダ情報として存在するため,これを専用の
ソフトウェアプログラムで読み込むことで獲得が可能で
ある。
Since the partial image can be generated by the image dividing unit 12, the image analyzing units (1 to N) 13 can execute the image analyzing process of each partial image in parallel. In addition,
For example, when the image data is in a digital file format on a computer, the attribute information of the image data exists as header information of the file, and can be obtained by reading this with a dedicated software program.

【0019】映像解析部(1〜N)13は,映像分割部
12で生成した各部分映像のシーン情報の解析処理を並
列に実行し,各部分映像の解析結果を解析結果統合部1
4へ渡す処理装置であり,CPU等の処理装置で実現で
きる。各映像解析部(1〜N)13がどの部分映像を処
理するかを決定する方法としては,映像分割部12から
映像解析部(1〜N)13へ,処理対象の映像ファイル
を特定できるようなメッセージを通知する方法が適用可
能である。または,映像解析部(1〜N)13および部
分映像ファイルにあらかじめシーケンシャルな番号を振
っておき,各映像解析部(1〜N)13が,自己と同じ
ファイル番号を持つファイルを読み出すという方法もあ
る。
The video analysis units (1 to N) 13 execute the analysis processing of the scene information of each partial video generated by the video division unit 12 in parallel, and the analysis result of each partial video is analyzed by the analysis result integration unit 1.
4 is a processing device to be delivered to the CPU 4 and can be realized by a processing device such as a CPU. As a method of determining which partial video each video analysis unit (1 to N) 13 processes, a video file to be processed can be specified from the video division unit 12 to the video analysis unit (1 to N) 13. It is possible to apply the method of notifying such a message. Alternatively, a method of assigning sequential numbers to the video analysis units (1 to N) 13 and partial video files in advance and each video analysis unit (1 to N) 13 reads out a file having the same file number as itself. is there.

【0020】映像解析部(1〜N)13で用いる映像解
析方法は,上記「従来の技術」の項で引用した文献で用
いられているように,映像を構成するフレーム画像の差
異を比較する方法(参考文献[1])や,フレーム画像
列に付随する音声信号の変化を比較する方法(参考文献
[3]),またその両方を合わせて用いる方法を利用す
ることで実現できる。また,解析結果は,特定の特徴の
あるシーンの数をカウントしたものや,その区間を時間
情報(開始時間,終了時間)等により表したもの,ある
いは,解析により特徴を検出したシーンのフレーム画像
を保存し,その画像ファイルを一覧表示したものなどで
ある。
The video analysis method used in the video analysis unit (1 to N) 13 compares differences between frame images constituting video, as used in the document cited in the above-mentioned "Prior Art". It can be realized by using a method (reference document [1]), a method of comparing changes in audio signals accompanying frame image sequences (reference document [3]), or a method of using both of them together. In addition, the analysis result is obtained by counting the number of scenes having a specific characteristic, expressing the section by time information (start time, end time), or the like, or a frame image of the scene in which the characteristic is detected by analysis. Is stored and a list of the image files is displayed.

【0021】解析結果統合部14は,映像解析部(1〜
N)13により得られた各部分映像のシーン情報の解析
結果を受け取り,1つの解析結果として統合する処理装
置であり,CPU等の処理装置で実現可能である。解析
結果を統合する方法としては,各部分映像に設定された
番号を用いて,その番号の順番に解析結果を並び替え,
結合する方法がある。この映像解析部13の解析結果の
統合処理により,1入力映像データに対して1解析結果
という,従来と同じ解析結果を提供できるようになる。
The analysis result integration unit 14 includes a video analysis unit (1 to
N) is a processing device that receives the analysis result of the scene information of each partial video obtained by 13 and integrates it as one analysis result, and can be realized by a processing device such as a CPU. As a method of integrating the analysis results, the analysis results are sorted in the order of the numbers using the numbers set for each partial video.
There is a way to combine. The integrated processing of the analysis results of the video analysis unit 13 makes it possible to provide the same analysis result as one analysis result for one input video data.

【0022】解析結果出力部15は,解析結果統合部1
4により得られた解析結果を記憶装置から読み出し,コ
ンピュータディスプレイ等の表示装置に出力する出力装
置である。
The analysis result output unit 15 includes the analysis result integration unit 1
4 is an output device that reads out the analysis result obtained in 4 from the storage device and outputs it to a display device such as a computer display.

【0023】図2は,図1に示した映像解析装置を複数
の計算機による映像解析システムとして構築した例を示
している。複数の計算機による映像解析システムは,映
像分割サーバ21,映像解析サーバ22(A〜C)およ
び解析結果統合サーバ23から構成される。それぞれの
サーバは,演算装置,メモリおよびハードディスクを持
つ計算機で,データの交換ができるようにネットワーク
30により接続されている。
FIG. 2 shows an example in which the video analysis device shown in FIG. 1 is constructed as a video analysis system using a plurality of computers. The video analysis system using a plurality of computers includes a video division server 21, a video analysis server 22 (A to C), and an analysis result integration server 23. Each server is a computer having an arithmetic unit, a memory and a hard disk, and is connected by a network 30 so that data can be exchanged.

【0024】映像分割サーバ21には,図1の映像解析
装置1における映像入力部11と映像分割部12とを配
し,解析結果統合サーバ23には,同じく図1の映像解
析装置1における解析結果統合部14と解析結果出力部
15とを配している。また,映像解析サーバ22(A〜
C)は,図1の映像解析装置1における映像解析部13
の機能を少なくとも1つは有する。本実施の形態では,
3台の映像解析サーバ22(A〜C)を利用する場合の
例を示しているが,実際には映像解析サーバ22の台数
は何台であっても良い。映像解析サーバ22の台数の増
減により,並列に実行する映像解析処理の数をコントロ
ールできる。
The video division server 21 is provided with the video input section 11 and the video division section 12 of the video analysis apparatus 1 of FIG. 1, and the analysis result integration server 23 is similarly analyzed by the video analysis apparatus 1 of FIG. The result integration unit 14 and the analysis result output unit 15 are arranged. In addition, the video analysis server 22 (A ~
C) is the video analysis unit 13 in the video analysis device 1 of FIG.
Has at least one function of. In this embodiment,
Although an example of using three video analysis servers 22 (A to C) is shown, the number of video analysis servers 22 may actually be any number. By increasing or decreasing the number of video analysis servers 22, the number of video analysis processes executed in parallel can be controlled.

【0025】図3は,本実施の形態における映像解析内
容と映像解析結果の例を示す。図3(a)は,本発明が
対象としている映像解析内容の一例であり,図3(b)
は映像解析結果の一例である。映像解析内容は,入力さ
れたデータから,図3(a)に示すように,カット点
から次のカット点までの区間(イベントタイプ:カッ
ト),映像にテロップの表示があった区間(イベント
タイプ:テロップ),映像に音楽が流れている区間
(イベントタイプ:音楽),の3つのイべントを同時に
検出するものである。
FIG. 3 shows an example of video analysis contents and video analysis results in the present embodiment. FIG. 3A is an example of the video analysis content targeted by the present invention, and FIG.
Is an example of a video analysis result. As shown in Fig. 3 (a), the video analysis contents are, as shown in Fig. 3 (a), a section from one cut point to the next cut point (event type: cut), and a section where a telop is displayed in the video (event type : Telop), and a section in which music is flowing in the video (event type: music), three events are detected at the same time.

【0026】従って解析結果は,図3(b)に示すよう
に,項目の1番目として,前記,,のどのイベン
トが検出されたのかと,項目の2番目として,該イべン
トが映像の何秒から開始したのかを表す開始時間と,項
目の3番目として,該イべントが何秒に終了したのかを
表す終了時間とからなり,本解析結果の例では,検出さ
れた各イべントの開始時間が早い順番に上から列挙され
ている。
Therefore, as shown in FIG. 3 (b), the analysis result shows that, as the first item, which event of the above is detected, and as the second item, the event is a video image. In the example of this analysis result, each detected event is composed of a start time indicating how many seconds it started, and a third item, an end time indicating how many seconds the event ended. The start time of the event is listed from the top in ascending order.

【0027】図4は,本発明の映像解析装置における映
像分割部の構成例を示す。映像分割部12は,入力され
た映像データのヘッダ情報等により映像の属性情報を取
得する属性情報取得部121と,あらかじめ設定された
映像の分割条件を読み出すなどの方法により映像の分割
条件を決定する分割条件決定部122と,生成する複数
の部分映像のうち,時間的に隣り合う部分映像に対し
て,互いに重複するフレーム数を決定する重複フレーム
数決定部123と,属性情報取得部121により取得し
たフレーム数等の映像の属性情報と分割条件決定部12
2により決定された分割数等の分割条件と重複フレーム
数決定部123により決定された重複フレーム数とをパ
ラメータとして各部分映像の開始フレーム番号と終了フ
レーム番号を決定する区間決定部124とから構成され
る。
FIG. 4 shows an example of the structure of the video division unit in the video analysis device of the present invention. The video division unit 12 determines the video division condition by a method such as an attribute information acquisition unit 121 that acquires video attribute information from the header information of the input video data and a method of reading a preset video division condition. The division condition determining unit 122, the overlapping frame number determining unit 123 that determines the number of frames that overlap with each other in temporally adjacent partial images among the generated partial images, and the attribute information acquiring unit 121. Image attribute information such as the acquired number of frames and the division condition determination unit 12
2 and a section determination unit 124 that determines the start frame number and the end frame number of each partial video using the division conditions such as the number of divisions determined by 2 and the number of overlapping frames determined by the number of overlapping frames determination unit 123 as parameters. To be done.

【0028】図5は,時間的に隣り合う部分映像に重複
領域(フレーム)を持たせた例を示している。図5で
は,入力された映像データを3つの部分映像に分割し,
各部分映像には,重複フレームを2フレームずつ持たせ
ている。映像分割部12が図4のような構成をとること
により,図5の映像分割例に示すように,時間的に隣り
合う部分映像が,重複する領域(フレーム)を持つよう
に,入力された映像データを複数の部分映像に分割でき
る。
FIG. 5 shows an example in which partial images temporally adjacent to each other have an overlapping region (frame). In FIG. 5, the input video data is divided into three partial videos,
Each partial video has two overlapping frames. By the video dividing unit 12 having the configuration shown in FIG. 4, as shown in the video dividing example of FIG. 5, the temporally adjacent partial videos are input so as to have overlapping regions (frames). Video data can be divided into multiple partial videos.

【0029】図6は,本発明の映像解析装置における解
析結果統合部の構成例を示す。解析結果統合部14は,
映像解析部(1〜N)13より出力される各部分映像の
解析結果を読み込む解析結果読み込み部141と,読み
込んだ解析結果中の各イべントの区間が複数の部分映像
に跨るものであるかどうかを判断し,複数の部分映像に
跨るものであると判断した場合に,現在2つ以上の異な
るイべントとして認識されているイべントを1つのイべ
ントとして結合することにより各解析結果を統合し,1
つの解析結果とする統合判断部142により構成され
る。
FIG. 6 shows an example of the structure of the analysis result integration unit in the video analysis apparatus of the present invention. The analysis result integration unit 14
An analysis result reading unit 141 that reads the analysis result of each partial video output from the video analysis unit (1 to N) 13 and a section of each event in the read analysis result spans a plurality of partial videos. If it is judged that the event is one that spans multiple partial videos, it is possible to combine the events currently recognized as two or more different events into one event. Integrate the analysis results, 1
It is configured by the integrated determination unit 142 that takes one analysis result.

【0030】次に,部分映像に重複領域を設ける意味を
明らかにするために,部分映像に重複領域を設けずに,
各部分映像を任意の時間で単純に分割した場合に生じる
可能性がある問題点について説明する。
Next, in order to clarify the meaning of providing the overlapping area in the partial video, without providing the overlapping area in the partial video,
A problem that may occur when each partial video is simply divided at an arbitrary time will be described.

【0031】大きく分けて問題点は2つあり,第1の問
題点は,1つのイべント区間(シーンなど)が2つのイ
ベント区間に分断されて検出される可能性があるという
ことである。つまり,本来検出されるべきでないイベン
トが検出されたことになる。この不要なイべントの検出
を防ぐために,統合処理により,分断された2つのイベ
ント区間を1つにまとめるという方法も考えられるが,
逆に,分割点で実際にシーンの切り替わり等によりイべ
ント区間が別れている場合には,この別々のイベントが
検出できないということになってしまう。
There are roughly two problems, and the first problem is that one event section (scene, etc.) may be divided into two event sections and detected. . In other words, an event that should not have been detected is detected. In order to prevent the detection of this unnecessary event, it is conceivable to combine two separated event sections into one by integrated processing.
On the other hand, if the event section is actually separated at the division point due to scene switching or the like, this separate event cannot be detected.

【0032】第2の問題点は,検出するためにある一定
の時間が必要なイべントの検出を行うような映像解析が
必要な場合に起こる問題で,このようなイべントが分割
点により分断されてしまうと,検出に必要な時間に満た
さなかったために,どちらかあるいは両方の部分映像の
解析結果に,この本来検出されるべきイべントの検出漏
れが生じる可能性があるということである。
The second problem is a problem that occurs when video analysis is required to detect an event that requires a certain amount of time for detection. If it is divided by, the analysis time of either or both of the partial images may not be detected because the time required for detection is not satisfied. Is.

【0033】上記2つの問題点を回避するために,部分
映像の重複領域が設けられている。以下,図7を参照し
てその活用方法を説明する。図7は,本発明における重
複領域の統合処理を説明する図である。
In order to avoid the above two problems, an overlapping area of partial images is provided. Hereinafter, the utilization method will be described with reference to FIG. 7. FIG. 7 is a diagram for explaining the overlapping area integration processing according to the present invention.

【0034】まず,図7(a)は,1つのイべント区間
が2つのイべント区間に分断されて検出されてしまった
場合の解析結果の統合例を説明するための図である。解
析結果Aは,入力された映像データの200秒から30
0秒までの部分映像(以下,便宜上,この部分映像を部
分映像Aと呼ぶ)に含まれるカット,テロップ,音楽の
各イべントが何秒から何秒までの間で発生したかを解析
した結果例であり,解析結果Bは,解析結果Aと同じ入
力映像データの290秒から400秒までの部分映像
(以下,便宜上,この部分映像を部分映像Bと呼ぶ)に
含まれるイベントを解析した結果例である。
First, FIG. 7A is a diagram for explaining an example of integration of analysis results when one event section is divided into two event sections and detected. The analysis result A is 30 seconds from 200 seconds of the input video data.
We analyzed the number of seconds between each cut, telop, and music event included in the partial video up to 0 seconds (hereinafter, this partial video is called partial video A for convenience). The analysis result B is a result example, and an event included in a partial video of the same input video data as the analysis result A from 290 seconds to 400 seconds (hereinafter, this partial video is referred to as partial video B for convenience) is analyzed. This is a result example.

【0035】部分解析結果Aの最後のカットイべントの
終了時間が300(単位は秒)であり,解析結果Bの最
初のカットイべントの開始時間が290であることから
も分かるように,部分映像Aと部分映像Bは,10秒間
分の重複領域を持っている。つまり,この10秒間の映
像の解析結果は,解析結果Aと解析結果Bの両方に含ま
れている。
As can be seen from the fact that the end time of the last cut event of the partial analysis result A is 300 (unit is second) and the start time of the first cut event of the analysis result B is 290, The image A and the partial image B have an overlapping area for 10 seconds. That is, the analysis result of the video for 10 seconds is included in both the analysis result A and the analysis result B.

【0036】ここで,解析結果Aの最後に検出されたテ
ロップのイべント(280〜300)と,解析結果Bで
2番目のイべントとして検出されたテロップのイべント
(300〜310)に注目すると,重複領域である29
0〜300は,解析結果Aのテロップには含まれている
が,解析結果Bのテロップには含まれていない。よっ
て,解析結果Aのテロップと解析結果Bは独立したイべ
ントであると判断できる。
Here, the event of the telop detected at the end of the analysis result A (280 to 300) and the event of the telop detected as the second event of the analysis result B (300 to 310). ), The overlap area is 29
0 to 300 are included in the telop of the analysis result A, but not included in the telop of the analysis result B. Therefore, it can be determined that the telop of the analysis result A and the analysis result B are independent events.

【0037】一方,解析結果Aの最後のカットイべント
(280〜300)と解析結果Bの最初のカットイべン
ト(290〜320)に注目すると,重複領域である2
90〜300は,両イベントに含まれているため,この
イベントは,本来1つのイベントとして検出されるもの
であることが判断できる。
On the other hand, when attention is paid to the last cut event (280 to 300) of the analysis result A and the first cut event (290 to 320) of the analysis result B, it is an overlapping area.
Since 90 to 300 are included in both events, it can be determined that this event is originally detected as one event.

【0038】このようにして,各イべントが映像を分割
した前後で繋がっているかどうかを全てのイベントに対
して比較し,本来,1つのイべントとして検出されるも
のであると判断した場合には,そのイベントを結合す
る。この処理によって,解析結果Aと解析結果Bを統合
したものが統合後の解析結果となる。
In this way, whether or not each event is connected before and after dividing the image is compared with respect to all the events, and it is determined that the event is originally detected as one event. If so, combine the events. By this processing, the integrated analysis result A and analysis result B become the analysis result after integration.

【0039】次に,図7(b)は,映像分割によりイべ
ントの検出に必要な時間を満たさなくなってしまった場
合の解析結果の統合例を示している。(a)と同様に,
解析結果Aは,入力された映像データの200秒から3
00秒までの部分映像に含まれるカット,テロップ,音
楽の各イべントが何秒から何秒までの間で発生したかを
解析した結果例であり,解析結果Bは,解析結果Aと同
じ入力映像データの290秒から400秒までの部分映
像に含まれるイベントを解析した結果例である。重複領
域も,(a)の場合と同様に10秒に設定している。
Next, FIG. 7B shows an example of integration of analysis results when the time required for event detection is not satisfied due to image division. Similar to (a),
Analysis result A is 3 seconds from 200 seconds of the input video data.
This is an example of the result of analyzing how many seconds each cut, telop, and music event included in the partial video up to 00 seconds occurred, and the analysis result B is the same as the analysis result A. It is an example of the result of having analyzed the event contained in the partial video from 290 seconds to 400 seconds of input video data. The overlapping area is also set to 10 seconds as in the case of (a).

【0040】ここでは,解析結果Bの2番目の検出イべ
ントである音楽のイべント(295〜330)に注目す
る。解析結果Bでは,重複領域である290〜300の
一部(295〜300)に音楽のイべントが検出されて
いるが,解析結果Aでは,290〜300の間に音楽の
イべントは検出されていない。このような場合には,検
出結果Aにおいて本来検出されるべきイべントが,映像
分割によりイべントの検出に必要な時間に満たさなくな
ってしまったと判断し,解析結果Bの解析内容を優先し
て解析結果を統合すれば,正しい解析結果が得られる。
もちろん重複する領域は,イべントの検出に最低限必要
な時間以上設ける必要がある。
Here, attention is paid to the musical event (295 to 330) which is the second detected event of the analysis result B. In the analysis result B, the music event is detected in a part (295-300) of the overlapping area 290-300, but in the analysis result A, the music event is detected between 290-300. Not detected. In such a case, it is determined that the event originally detected in the detection result A does not satisfy the time required for detecting the event due to the image division, and the analysis content of the analysis result B is prioritized. Then, if the analysis results are integrated, the correct analysis result can be obtained.
Of course, the overlapping area must be provided for at least the time required for event detection.

【0041】このように時間的に隣り合う部分映像に適
当な重複領域を設けることで,映像分割により生じる可
能性のある映像解析精度の低下を抑えることができる。
As described above, by providing an appropriate overlapping area in temporally adjacent partial images, it is possible to suppress a decrease in image analysis accuracy that may occur due to image division.

【0042】図8は,解析結果統合部による統合処理フ
ローチャートである。また,図9は,部分映像の解析結
果の例であり,解析結果レポート,ヘッダテーブルおよ
び解析結果テーブルの例を示している。各部分映像の解
析結果は,図9に示すように,入力された映像データの
どの部分を解析したレポートであるかを記したヘッダテ
ーブル40と,実際の解析結果を記した解析結果テーブ
ル50により構成されているとする。
FIG. 8 is a flowchart of integration processing by the analysis result integration unit. Further, FIG. 9 shows an example of the analysis result of the partial video, and shows an example of the analysis result report, the header table and the analysis result table. As shown in FIG. 9, the analysis result of each partial video is composed of a header table 40 indicating which part of the input video data is the report analyzed and an analysis result table 50 describing the actual analysis result. It is configured.

【0043】開始時において,分割番号を指定するため
のカウンタiは1である。まず,分割番号1番の解析結
果ファイルから解析結果を読み込んでメモリに展開し
(ステップS10),ヘッダテーブル40から分割数N
を読み込み(ステップS11),N−1個の空の比較イ
ベントテーブル(図10)を作成する(ステップS1
2)。
At the start, the counter i for designating the division number is 1. First, the analysis result is read from the analysis result file with the division number 1 and expanded in the memory (step S10), and the division number N is read from the header table 40.
Is read (step S11), and N-1 empty comparison event tables (FIG. 10) are created (step S1).
2).

【0044】次に分割番号2番の解析結果ファイルから
解析結果を読み込んでメモリ上に展開し(ステップS1
3),作成済みの比較イベントテーブルにイべントを抜
き出して記録する(ステップS14)。以下同様に,順
次,iに1を加えながら分割番号N番までステップS1
3,S14の処理を繰り返す(ステップS15)。
Next, the analysis result is read from the analysis result file with the division number 2 and expanded on the memory (step S1.
3), the event is extracted and recorded in the created comparison event table (step S14). In the same manner, step S1 is sequentially performed by sequentially adding 1 to i until the division number N.
The process of S3 and S14 is repeated (step S15).

【0045】ここで,図10に,比較イベントテーブル
の作成の例を示す。比較イベントテーブル60は,部分
映像の解析結果中の各イべントの最初に検出されたイべ
ントの開始時間・終了時間を抜き出し,イべント毎に格
納したものである。図10の例では,解析結果中の上か
ら1つ目のイベント{カット,280〜300}が最初
のカットイべントで,これが比較イベントテーブル60
に格納されている。次に,上から3つ目のイベント{テ
ロップ,280〜310}が最初のテロップのイべント
であり,これが比較イベントテーブル60に格納されて
いる。次に,上から5つ目のイべント{音楽,310〜
420}が最初の音楽イベントであり,これが比較イベ
ントテーブル60に格納されている。なお,比較イベン
トテーブル60は,解析結果毎に作成される。
Here, FIG. 10 shows an example of creating a comparison event table. The comparison event table 60 extracts the start time and end time of the first detected event of each event in the partial video analysis result, and stores the extracted start time and end time for each event. In the example of FIG. 10, the first event {cut, 280-300} from the top in the analysis result is the first cut event, which is the comparison event table 60.
It is stored in. Next, the third event from the top {telop, 280-310} is the event of the first telop, and this is stored in the comparison event table 60. Next, the fifth event from the top {Music, 310-
420} is the first music event, which is stored in the comparison event table 60. The comparison event table 60 is created for each analysis result.

【0046】2番目からN番目までの比較イベントテー
ブル60を作成した後,カウンタiを1に戻し(ステッ
プS16),再び分割番号1の解析結果ファイルから解
析結果を,順次,メモリに読み込む(ステップS1
7)。読み込んだ解析結果についてイべント毎に比較イ
ベントテーブル60を参照し,比較イベントテーブル6
0内の各イべントと開始時間・終了時間が独立であるも
のはそのまま統合解析結果テーブルへとコピーし,イベ
ント区間が重複する場合には,イべントの結合を行い,
統合解析結果テーブルへと書き出す(ステップS1
8)。ステップS17,S18の処理を分割番号N−1
まで繰り返す(ステップS19)。
After the second to Nth comparison event tables 60 are created, the counter i is returned to 1 (step S16), and the analysis results from the analysis result file of division number 1 are sequentially read into the memory (step S16). S1
7). The comparison event table 60 is referred to for each event regarding the read analysis result, and the comparison event table 6
If each event in 0 and the start time and end time is independent, it is copied as it is to the integrated analysis result table, and if the event sections overlap, the events are combined,
Write to integrated analysis result table (step S1)
8). The processing of steps S17 and S18 is divided into division numbers N-1.
(Step S19).

【0047】最後に分割番号N番の解析結果を読み込み
(ステップS20),統合解析結果テーブルに書き出し
ていない部分の解析結果をそのまま統合解析結果テーブ
ルへ書き足し(ステップS21),最終的な統合解析結
果テーブルをファイルとして書き出す(ステップS2
2)。
Finally, the analysis result of the division number N is read (step S20), the analysis result of the portion not written in the integrated analysis result table is added as it is to the integrated analysis result table (step S21), and the final integrated analysis is performed. Write the result table as a file (step S2)
2).

【0048】次に,映像解析装置1によって,TV放送
等やビデオカメラにより撮影されたアナログ信号をA/
D変換し,ハードディスク等の記憶装置への記憶を行い
ながら,映像解析を行う場合の例について説明する。こ
れは,映像の解析速度より映像をA/D変換しファイル
化する処理速度の方が数段速く,入力に対して処理が追
いつかないような,処理時間が非常に長い映像解析を行
う場合の例である。この例の場合のシステムの構成は,
図1と同様である。
Next, the video analysis device 1 converts the analog signal photographed by TV broadcasting or a video camera into A /
An example of performing video analysis while performing D conversion and storing in a storage device such as a hard disk will be described. This is because the processing speed of A / D converting the video into a file is several times faster than the analysis speed of the video, and the processing time is very long so that the processing cannot catch up with the input. Here is an example. The system configuration for this example is
It is similar to FIG.

【0049】映像入力部11は,入力されるTV放送等
のアナログ信号をA/D変換し,ハードディスク等の記
憶装置に記憶していく。映像分割部12は,入力された
信号の記憶が始まると,既に記憶された部分の映像の解
析を始めるように映像解析部(1)13に指示する。あ
らかじめ定められた時間長のデータを1つの映像解析部
(1)13に割り当てると,これから記憶されていく映
像データを次の映像解析部(2)13に解析を始めるよ
うに指示する。同様にまた,あらかじめ定められた時間
長のデータを割り当てると,これから記憶されていく映
像データを次の映像解析部(3)13(図では省略)に
解析を始めるように指示する。このような処理を繰り返
し,最初に割り当てたデータの解析が終了した時点で,
再びその映像解析部(1)13に新たなデータを割り当
てる。
The video input unit 11 A / D converts an analog signal such as an input TV broadcast and stores it in a storage device such as a hard disk. When the storage of the input signal starts, the video division unit 12 instructs the video analysis unit (1) 13 to start the analysis of the video of the already stored portion. When data of a predetermined time length is assigned to one video analysis unit (1) 13, the next video analysis unit (2) 13 is instructed to start analysis of the video data to be stored. Similarly, when data of a predetermined time length is assigned, the next video analysis unit (3) 13 (not shown) is instructed to start analysis of the video data to be stored. By repeating such processing, when the analysis of the initially assigned data is completed,
New data is again assigned to the video analysis unit (1) 13.

【0050】記憶された映像データを受信した各映像解
析部(1〜N)13は,映像の解析を行い,解析結果統
合部14へ解析結果を送信する。解析結果統合部14
は,映像解析部(1〜N)13から送信された解析結果
を順次受信し,統合処理を行う。統合処理は継続的に行
われるが,解析結果が他の部分映像の解析結果の影響を
受けないと判断した時点で,解析結果出力部15により
順次コンピュータディスプレイやプリンタ等の表示装置
へ出力される。この例において,映像信号の入力と解析
結果の出力が釣り合うように,映像解析部13の個数を
決めることで,処理コストが高い映像解析でも,リアル
タイムに映像解析を行うことが可能になる。
Each of the video analysis units (1 to N) 13 having received the stored video data analyzes the video and sends the analysis result to the analysis result integration unit 14. Analysis result integration unit 14
Receives the analysis results transmitted from the video analysis units (1 to N) 13 in sequence and performs integration processing. The integration process is continuously performed, but when it is determined that the analysis result is not affected by the analysis results of other partial images, the analysis result output unit 15 sequentially outputs the results to a display device such as a computer display or a printer. . In this example, by determining the number of video analysis units 13 so that the input of the video signal and the output of the analysis result are balanced, the video analysis can be performed in real time even in the video analysis with high processing cost.

【0051】[0051]

【発明の効果】以上説明したように,入力された映像デ
ータを時分割し,複数の部分映像を生成することで,映
像解析処理を並列に実行することが可能となり,また,
映像解析処理を並列に実行した結果生じる複数の部分解
析結果を統合することで,映像を構成するフレーム画像
の比較演算処理を映像の先頭から最後まで逐次的に行う
従来方式よりも,映像解析時間の短縮が可能となる。
As described above, the video analysis processing can be executed in parallel by time-dividing the input video data and generating a plurality of partial videos.
By integrating multiple partial analysis results resulting from parallel execution of video analysis processing, the video analysis time is longer than that of the conventional method in which the comparison calculation processing of the frame images that make up the video is performed sequentially from the beginning to the end of the video. Can be shortened.

【0052】さらに,映像を分割する際に,隣り合う部
分映像が重複領域を持つようにし,重複領域の解析結果
を比較しながら統合することで,映像を分割することで
生じることがある映像解析の精度の低下を防ぐことが可
能となる。
Furthermore, when dividing an image, the adjacent partial images are made to have an overlapping region, and the analysis results of the overlapping regions are compared and integrated to thereby cause an image analysis that may occur by dividing the image. It is possible to prevent a decrease in the accuracy of.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明による映像解析装置の構成例を示す図で
ある。
FIG. 1 is a diagram showing a configuration example of a video analysis device according to the present invention.

【図2】映像解析装置を複数の計算機による映像解析シ
ステムとして構築した例を示す図である。
FIG. 2 is a diagram showing an example in which a video analysis device is constructed as a video analysis system using a plurality of computers.

【図3】映像解析内容と映像解析結果の例を示す図であ
る。
FIG. 3 is a diagram showing an example of video analysis contents and video analysis results.

【図4】映像解析部の構成例を示す図である。FIG. 4 is a diagram illustrating a configuration example of a video analysis unit.

【図5】時間的に隣り合う部分映像に重複領域(フレー
ム)を持たせた例を示す図である。
FIG. 5 is a diagram showing an example in which partial images temporally adjacent to each other have an overlapping region (frame).

【図6】解析結果統合部の構成例を示す図である。FIG. 6 is a diagram showing a configuration example of an analysis result integration unit.

【図7】重複領域の統合処理を説明する図である。FIG. 7 is a diagram illustrating an overlapping area integration process.

【図8】解析結果統合部による統合処理フローチャート
である。
FIG. 8 is a flowchart of integration processing by an analysis result integration unit.

【図9】解析結果レポート,ヘッダテーブルおよび解析
結果テーブルの例を示す図である。
FIG. 9 is a diagram showing an example of an analysis result report, a header table, and an analysis result table.

【図10】比較イベントテーブルの作成の例を示す図で
ある。
FIG. 10 is a diagram showing an example of creating a comparison event table.

【符号の説明】[Explanation of symbols]

1 映像解析装置 11 映像入力部 12 映像分割部 121 属性情報取得部 122 分割条件決定部 123 重複フレーム数決定部 124 区間決定部 13 映像解析部(1〜N) 14 解析結果統合部 141 解析結果読み込み部 142 統合判断部 15 解析結果出力部 1 Video analysis device 11 Video input section 12 Video division 121 Attribute information acquisition unit 122 Division condition determination unit 123 Overlap frame number determination unit 124 section determination unit 13 Video analysis unit (1 to N) 14 Analysis result integration section 141 Analysis result reading section 142 Integrated judgment unit 15 Analysis result output section

───────────────────────────────────────────────────── フロントページの続き (72)発明者 森本 正志 東京都千代田区大手町二丁目3番1号 日 本電信電話株式会社内 (72)発明者 児島 治彦 東京都千代田区大手町二丁目3番1号 日 本電信電話株式会社内 Fターム(参考) 5C023 BA01 CA01 DA04 DA08 5C052 AA17 AC08 GA01 GA03 GA04 GA07 GB01 5C053 FA14 FA21 FA23 HA08 HA29 HA33 JA24 KA03 KA24 KA30 LA01 LA06 LA11 LA14 5L096 HA02    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Masashi Morimoto             2-3-1, Otemachi, Chiyoda-ku, Tokyo             Inside Telegraph and Telephone Corporation (72) Inventor Haruhiko Kojima             2-3-1, Otemachi, Chiyoda-ku, Tokyo             Inside Telegraph and Telephone Corporation F-term (reference) 5C023 BA01 CA01 DA04 DA08                 5C052 AA17 AC08 GA01 GA03 GA04                       GA07 GB01                 5C053 FA14 FA21 FA23 HA08 HA29                       HA33 JA24 KA03 KA24 KA30                       LA01 LA06 LA11 LA14                 5L096 HA02

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 入力される映像信号を解析し,解析した
結果を出力する映像解析装置であって,映像データを入
力し,記憶する映像入力手段と,前記映像入力手段で入
力された映像データをあらかじめ定められた条件に従い
時分割し,複数の部分映像を生成する映像分割手段と,
前記映像分割手段で得られた各部分映像に対してのシー
ン情報の解析を並列に実行する映像解析手段と,前記映
像解析手段により得られた複数の解析結果を統合する解
析結果統合手段と,前記解析結果統合手段により得られ
た解析結果を出力する解析結果出力手段とを備えること
を特徴とする映像解析装置。
1. A video analysis device for analyzing an input video signal and outputting a result of the analysis, the video input means for inputting and storing video data, and the video data input by the video input means. A time division according to a predetermined condition, and an image division means for generating a plurality of partial images,
Video analysis means for executing parallel analysis of scene information for each partial video obtained by the video division means, and analysis result integration means for integrating a plurality of analysis results obtained by the video analysis means, An image analysis device, comprising: an analysis result output means for outputting an analysis result obtained by the analysis result integration means.
【請求項2】 請求項1記載の映像解析装置において,
前記映像分割手段は,入力された映像データを分割する
数または分割するサイズ等の分割条件を決定する分割条
件決定手段と,生成される複数の部分映像のうち,時間
的に隣り合う部分映像に対して,互いに重複するフレー
ム数を決定する重複フレーム数決定手段と,生成される
複数の部分映像について,各部分映像の開始フレーム番
号と終了フレーム番号を決定する区間決定手段とを備
え,前記解析結果統合手段は,前記映像分割手段により
得られた各部分映像の解析結果を読み込む解析結果読み
込み手段と,前記映像分割手段で設定された時間的に隣
り合う部分映像が持つ重複するフレーム部分の解析結果
を比較し各解析結果の統合を行う統合判断手段とを備え
ることを特徴とする映像解析装置。
2. The image analysis device according to claim 1,
The video splitting means determines splitting conditions such as a splitting number or a splitting size of the input video data, and splits the generated partial videos into partial videos that are temporally adjacent to each other. On the other hand, the analysis includes the overlapping frame number determining means for determining the number of overlapping frames and the section determining means for determining the start frame number and the end frame number of each partial video for a plurality of generated partial videos. The result integrating means reads the analysis result of each partial video obtained by the video dividing means, and the analysis result reading means, and analyzes the overlapping frame part of the temporally adjacent partial videos set by the video dividing means. An image analysis apparatus comprising: an integrated determination unit that compares results and integrates each analysis result.
【請求項3】 入力される映像信号を解析し,解析した
結果を出力する映像解析方法であって,映像データを入
力し,記憶する映像入力ステップと,前記映像入力ステ
ップで入力された映像データをあらかじめ定められた条
件に従い時分割し,複数の部分映像を生成する映像分割
ステップと,前記映像分割ステップで得られた各部分映
像に対してのシーン情報の解析を並列に実行する映像解
析ステップと,前記映像解析ステップにより得られた複
数の解析結果を統合する解析結果統合ステップと,前記
解析結果統合ステップにより得られた解析結果を出力す
る解析結果出力ステップとを有することを特徴とする映
像解析方法。
3. A video analysis method for analyzing an input video signal and outputting a result of the analysis, the video input step of inputting and storing video data, and the video data input in the video input step. A time division according to a predetermined condition to generate a plurality of partial videos, and a video analysis step for executing in parallel the scene information analysis for each partial video obtained in the video division step. And an analysis result integration step of integrating a plurality of analysis results obtained by the video analysis step, and an analysis result output step of outputting the analysis result obtained by the analysis result integration step. analysis method.
【請求項4】 請求項3記載の映像解析方法において,
前記映像分割ステップは,入力された映像データを分割
する数または分割するサイズ等の分割条件を決定する分
割条件決定ステップと,生成される複数の部分映像のう
ち,時間的に隣り合う部分映像に対して,互いに重複す
るフレーム数を決定する重複フレーム数決定ステップ
と,生成される複数の部分映像について,各部分映像の
開始フレーム番号と終了フレーム番号を決定する区間決
定ステップとを含み,前記解析結果統合ステップは,前
記映像分割ステップにより得られた各部分映像の解析結
果を読み込む解析結果読み込みステップと,前記映像分
割ステップで設定された時間的に隣り合う部分映像が持
つ重複するフレーム部分の解析結果を比較し各解析結果
の統合を行う統合判断ステップとを含むことを特徴とす
る映像解析方法。
4. The image analysis method according to claim 3,
The video division step includes a division condition determination step of determining a division condition such as the number or size of division of the input video data, and a step of dividing a plurality of generated partial videos into temporally adjacent partial videos. On the other hand, the method further includes a step of determining the number of overlapping frames for determining the number of overlapping frames, and a step of determining a start frame number and an end frame number of each partial video for a plurality of generated partial videos. The result integration step includes an analysis result reading step of reading an analysis result of each partial video obtained by the video division step, and an analysis of overlapping frame parts of temporally adjacent partial videos set in the video division step. An image analysis method comprising: an integrated determination step of comparing results and integrating each analysis result.
【請求項5】 請求項3または請求項4記載の映像解析
方法におけるステップをコンピュータに実行させるため
の映像解析プログラム。
5. A video analysis program for causing a computer to execute the steps of the video analysis method according to claim 3 or 4.
【請求項6】 請求項3または請求項4記載の映像解析
方法におけるステップをコンピュータに実行させるため
のプログラムを記録したことを特徴とする映像解析プロ
グラムの記録媒体。
6. A recording medium for a video analysis program, wherein a program for causing a computer to execute the steps in the video analysis method according to claim 3 or 4 is recorded.
JP2001257564A 2001-08-28 2001-08-28 Video analysis apparatus, video analysis method, video analysis program, and program recording medium Expired - Fee Related JP3785068B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001257564A JP3785068B2 (en) 2001-08-28 2001-08-28 Video analysis apparatus, video analysis method, video analysis program, and program recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001257564A JP3785068B2 (en) 2001-08-28 2001-08-28 Video analysis apparatus, video analysis method, video analysis program, and program recording medium

Publications (2)

Publication Number Publication Date
JP2003069946A true JP2003069946A (en) 2003-03-07
JP3785068B2 JP3785068B2 (en) 2006-06-14

Family

ID=19085202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001257564A Expired - Fee Related JP3785068B2 (en) 2001-08-28 2001-08-28 Video analysis apparatus, video analysis method, video analysis program, and program recording medium

Country Status (1)

Country Link
JP (1) JP3785068B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007060392A (en) * 2005-08-25 2007-03-08 Toshiba Corp Image storage device and method
JP2008252737A (en) * 2007-03-30 2008-10-16 Sony Corp Information processing apparatus and method
JP2009033414A (en) * 2007-07-26 2009-02-12 Sony Corp Information processing device and method, program, and recording medium
JP2010147659A (en) * 2008-12-17 2010-07-01 Nikon Corp Electronic camera
JP2013042412A (en) * 2011-08-18 2013-02-28 Fujitsu Ltd Moving image processor, moving image processing method, and moving image processing computer program
JP2013125304A (en) * 2011-12-13 2013-06-24 Nippon Telegr & Teleph Corp <Ntt> Parallel video analysis device, parallel video analysis method, and parallel video analysis program
JP2014110531A (en) * 2012-12-03 2014-06-12 Nippon Telegr & Teleph Corp <Ntt> Device, method and program for telop detection
CN106550208A (en) * 2015-09-21 2017-03-29 杭州海康威视数字技术股份有限公司 Video method for splitting, equipment and video analytic system
CN112584073A (en) * 2020-12-24 2021-03-30 杭州叙简科技股份有限公司 5G-based law enforcement recorder distributed assistance calculation method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180067223A (en) 2016-12-12 2018-06-20 한화에어로스페이스 주식회사 Image processing device and image analyzing method

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007060392A (en) * 2005-08-25 2007-03-08 Toshiba Corp Image storage device and method
JP4559935B2 (en) * 2005-08-25 2010-10-13 株式会社東芝 Image storage apparatus and method
JP2008252737A (en) * 2007-03-30 2008-10-16 Sony Corp Information processing apparatus and method
US8285051B2 (en) 2007-03-30 2012-10-09 Sony Corporation Information processing apparatus and method for detecting associated information from time-sequential information
JP2009033414A (en) * 2007-07-26 2009-02-12 Sony Corp Information processing device and method, program, and recording medium
JP2010147659A (en) * 2008-12-17 2010-07-01 Nikon Corp Electronic camera
JP2013042412A (en) * 2011-08-18 2013-02-28 Fujitsu Ltd Moving image processor, moving image processing method, and moving image processing computer program
JP2013125304A (en) * 2011-12-13 2013-06-24 Nippon Telegr & Teleph Corp <Ntt> Parallel video analysis device, parallel video analysis method, and parallel video analysis program
JP2014110531A (en) * 2012-12-03 2014-06-12 Nippon Telegr & Teleph Corp <Ntt> Device, method and program for telop detection
CN106550208A (en) * 2015-09-21 2017-03-29 杭州海康威视数字技术股份有限公司 Video method for splitting, equipment and video analytic system
CN106550208B (en) * 2015-09-21 2019-04-19 杭州海康威视数字技术股份有限公司 Video method for splitting, equipment and video analytic system
CN112584073A (en) * 2020-12-24 2021-03-30 杭州叙简科技股份有限公司 5G-based law enforcement recorder distributed assistance calculation method

Also Published As

Publication number Publication date
JP3785068B2 (en) 2006-06-14

Similar Documents

Publication Publication Date Title
US6157744A (en) Method and apparatus for detecting a point of change in a moving image
US7587124B2 (en) Apparatus, method, and computer product for recognizing video contents, and for video recording
US6400890B1 (en) Image retrieving method and apparatuses therefor
US7487524B2 (en) Method and apparatus for presenting content of images
JP4920395B2 (en) Video summary automatic creation apparatus, method, and computer program
EP1635575A1 (en) System and method for embedding scene change information in a video bitstream
EP1081960A1 (en) Signal processing method and video/voice processing device
US20050264703A1 (en) Moving image processing apparatus and method
US20110153328A1 (en) Obscene content analysis apparatus and method based on audio data analysis
JP2011223325A (en) Content retrieval device and method, and program
US8630532B2 (en) Video processing apparatus and video processing method
JP2003069946A (en) Video analyzer, video analysis method, video analysis program and its program recording medium
JP2000350156A (en) Method for storing moving picture information and recording medium recording the information
JP3258924B2 (en) Scene management device, scene management method, and recording medium
JPH06152970A (en) Picture compressing method and picture processor
KR20060089922A (en) Data abstraction apparatus by using speech recognition and method thereof
JP3642019B2 (en) AV content automatic summarization system and AV content automatic summarization method
JP4270117B2 (en) Inter-viewer communication method, apparatus and program
US7921010B2 (en) Information processing apparatus, recording medium, and data signal
JP2005252372A (en) Digest video image producing device and method
KR101869905B1 (en) Video playing method and video player
JP2015046758A (en) Information processor, information processing method, and program
JP3067043B2 (en) Automatic video cutting method
Li et al. Bridging the semantic gap in sports
JPH11112922A (en) Method and device for stream event point detection display

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060316

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090324

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100324

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110324

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110324

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120324

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130324

Year of fee payment: 7

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees