JP2010176240A - Video analysis device, video analysis program, video analysis control device, and video analysis control program - Google Patents
Video analysis device, video analysis program, video analysis control device, and video analysis control program Download PDFInfo
- Publication number
- JP2010176240A JP2010176240A JP2009016141A JP2009016141A JP2010176240A JP 2010176240 A JP2010176240 A JP 2010176240A JP 2009016141 A JP2009016141 A JP 2009016141A JP 2009016141 A JP2009016141 A JP 2009016141A JP 2010176240 A JP2010176240 A JP 2010176240A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- video analysis
- video
- image data
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は,映像データから各種特徴量を解析するための映像解析装置,映像解析制御装置およびそれらのプログラムに関するものである。 The present invention relates to a video analysis device, a video analysis control device, and programs for analyzing various feature amounts from video data.
映像データを解析して,その映像の特徴的な区間やそれに付随する値(以下「特徴量」という)を自動的に出力する方式に関しては,従来から各種の技術が存在している。 There have been various techniques for analyzing video data and automatically outputting characteristic sections of the video and their associated values (hereinafter referred to as “features”).
特許文献1には,映像データ列から映像カット点を検出する技術が記載されており,この方法により,時間的にゆっくりとしたシーン変化を含むカット点(カット区間)を出力することができる。
特許文献2には,画像データ列(映像データと同じ意味で記載されている)からカメラパラメータを推定する技術が記載されており,この方法により,映像データから,パン,チルトなどと呼ばれるカメラ動作がある区間について,そのパラメータ値と共に出力することができる。
特許文献3には,フレーム画像の中から文字部分を画素連結領域として抽出する文字領域抽出技術が記載されており,この方法を映像データのフレーム画像に適用することにより,映像データから,一般にテロップと呼ばれている文字領域が含まれる映像区間と,そのテロップ位置情報を出力することができる。
特許文献4には,映像から動物体アップフレーム画像(アップショットともいう)を検出する技術が記載されておりり,この方法により,動物体がクローズアップされ比較的大きく写っている映像フレーム区間を出力することができる。 Patent Document 4 describes a technique for detecting an animal up-frame image (also referred to as an up-shot) from a video. By this method, a video frame section in which a moving object is close-up and relatively large is shown. Can be output.
これらの技術に共通することは,映像を,連続する画像データ(フレームと呼ばれる)ととらえ,複数のフレームを入力データとして,それぞれ,カット,カメラワーク,テロップ,動物体アップショットなどの特徴量を算出して出力することにある。そのため,これらの技術と,単一のフレームデータ取得部(映像をフレームデータとして取得する機能)とを組み合わせ,単一の映像データに対して,様々な特徴量を同時に出力する映像解析装置あるいは映像解析プログラムを構成することは可能であった。実際に,映像からフレームデータを取得する処理は,CPUやメモリといったコンピュータ上のリソースを多く消費するため,一度のデコード処理で複数の特徴量を抽出をすることのメリットは大きい。 What is common to these technologies is that video is treated as continuous image data (called a frame), and multiple frames are used as input data, and feature quantities such as cuts, camera work, telops, and animal up-shots are added. It is to calculate and output. Therefore, combining these technologies with a single frame data acquisition unit (function to acquire video as frame data), a video analysis device or video that simultaneously outputs various feature quantities to a single video data. It was possible to construct an analysis program. Actually, the process of acquiring the frame data from the video consumes a large amount of resources on the computer such as a CPU and a memory. Therefore, the advantage of extracting a plurality of feature amounts by one decoding process is great.
なお,映像データは,多くのフレーム画像から成り立っている。例えば,標準的な30fps(フレーム/秒)の映像データは,1つ1つのフレームが約33msec(ミリ秒)ずつの画像となる。前述した特許文献1,2,3,4等の技術を実現した場合,CPUやメモリ等の計算のために必要なリソースが多く必要となるため,実行速度や実行効率を上げるためには,33msecごとの全てのフレームを対象として計算をするのではなく,それぞれ,100msecごと,500msecごとなどの周期でフレーム画像を取得し,各技術による抽出処理をする実施形態を取ることが多い。
Note that video data is composed of many frame images. For example, in standard 30 fps (frame / second) video data, each frame is an image of about 33 msec (millisecond). When the techniques described in
例えば,1秒以下の非常に短いカット区間というのは,そもそも利用者にとって認識できるものではなく,むしろ,瞬間的なノイズとして取り扱うべきものである。そのため,カット区間抽出については300msecごとのフレームをもとにカット点の抽出処理を行ったとしても,実用上の問題は起こりにくい。 For example, a very short cut interval of 1 second or less is not something that can be recognized by the user in the first place, but rather should be treated as instantaneous noise. For this reason, even if cut point extraction processing is performed on the basis of a frame every 300 msec, the practical problem is unlikely to occur.
カメラワークについても同様であり,特にカメラワークの特徴量抽出のほうがカットより比較的リソースを多く必要とするので,さらに区間を大きくして500msecごとの処理としたほうが,より実用的になる。 The same applies to camera work, and in particular, the feature extraction of camera work requires a relatively large amount of resources rather than cutting, so it is more practical to further increase the section and process every 500 msec.
一方で,動物体アップショット検出は,もっともクローズアップして被写体を捕えるフレームを探索することを行うので,動物体があると判定されている区間においては,ちょうど利用者がビデオのコマ送りをしながら探すのと同様に,33msecごとの全フレームを入力対象として処理を行うことになる。 On the other hand, moving object up-shot detection searches for a frame that captures the subject most closely, so that the user can just frame the video during the period when it is determined that there is a moving object. However, as in the case of searching, all frames every 33 msec are processed as input targets.
テロップの場合には,特許文献3の段落[0031]から[0037]に記載されているように,時間的に連続する複数のフレーム画像を入力し,平均化カラー画像を作成することにより,テロップの誤検出を抑制する効果があることが知られている。このため,例えば500msecごとに連続した4枚の画像を処理する,といったような制御が必要になる。
In the case of a telop, as described in paragraphs [0031] to [0037] of
前述したように,映像を連続するフレームととらえ,時間的に近接する複数のフレームを入力データとして特徴量を出力する技術には多様なものがあり,また,今後も同様に新たな特徴量を抽出する技術が開発されると考えられる。 As described above, there are a variety of technologies that treat video as consecutive frames and output feature values using multiple frames that are close in time as input data. Extraction technology is expected to be developed.
しかしながら,これらの,個別の特徴量抽出の技術を実現した映像解析装置あるいは映像解析プログラムを組み合わせて,様々な特徴量を同時に出力する装置あるいはそのプログラムを構成することは,困難になっていく。すなわち,各特徴量抽出技術が,それぞれ,異なる間隔でのフレームデータを必要とするため,その全体を制御する装置あるいはプログラムは,その各々の間隔を管理しながら各映像解析部を呼び出さなくてはならない。さらに,未知の特徴量抽出技術が開発された場合には,それに合わせて,全体を制御する装置あるいはプログラムとなる制御部を,毎回改造しなくてはならない。 However, it becomes difficult to configure a device or a program for simultaneously outputting various feature amounts by combining the video analysis device or the video analysis program that realizes these individual feature amount extraction techniques. In other words, since each feature extraction technique requires frame data at different intervals, a device or program that controls the whole must call each video analysis unit while managing each interval. Don't be. Furthermore, when an unknown feature quantity extraction technique is developed, the control unit that is a device or program for controlling the whole must be modified every time accordingly.
図7は,本発明の課題を説明するための図であり,個別の特徴量抽出の技術を組み合わせて,様々な特徴量を同時に出力する装置の構成例を示す図である。図8は,図7に示す制御部の処理フローチャートである。 FIG. 7 is a diagram for explaining the problem of the present invention, and is a diagram illustrating a configuration example of an apparatus that simultaneously outputs various feature amounts by combining individual feature amount extraction techniques. FIG. 8 is a process flowchart of the control unit shown in FIG.
従来技術の個別の特徴量抽出を実現する映像解析装置を組み合わせて,様々な特徴量を同時に出力する装置を考えた場合,例えば図7に示すような装置構成になると考えられる。図7において,CUT映像解析部101は,特許文献1に記載されているようなカット点の検出を行うものであり,その検出結果であるカット点に関する特徴量(以下「CUT特徴量」という)の出力機能を持つCUT特徴量出力部102を有する。
When considering a device that outputs various feature amounts simultaneously by combining a video analysis device that realizes individual feature amount extraction of the prior art, it can be considered that the device configuration is as shown in FIG. 7, for example. In FIG. 7, a CUT
CAM映像解析部111は,特許文献2に記載されているようなカメラパラメータの推定を行うものであり,その推定結果であるカメラワークに関する特徴量(以下「CAM特徴量」という)の出力機能を持つCAM特徴量出力部112を有する。
The CAM
TLP映像解析部121は,特許文献3に記載されているようなテロップの検出を行うものであり,その検出結果であるテロップに関する特徴量(以下「TLP特徴量」という)の出力機能を持つTLP特徴量出力部122を有する。
The TLP
UPS映像解析部131は,特許文献4に記載されているような動物体アップフレーム画像の検出を行うものであり,その検出結果である動物体アップフレーム画像に関する特徴量(以下「UPS特徴量」という)の出力機能を持つUPS特徴量出力部132を有する。
The UPS
フレームデータ取得部140は,圧縮符号化された映像データを,フレーム画像にデコードし,デコード結果のフレームデータを制御部150に渡す。制御部150は,フレームデータ取得部140から得たフレームデータを,適当なタイミングでCUT映像解析部101,CAM映像解析部111,TLP映像解析部121,UPS映像解析部131に渡し,これらの各部に映像を解析させる処理を行う。
The frame
図8に従って,制御部150が行う処理について説明する。図8において,TScutは,CUT映像解析部101が次に処理対象とするタイムスタンプ[msec]を保持するためのメモリ領域,TScamは,CAM映像解析部111が次に処理対象とするタイムスタンプを保持するためのメモリ領域,TStlpは,TLP映像解析部121が次に処理対象とするタイムスタンプを保持するためのメモリ領域である。UPS映像解析部131は,全フレームについて解析を行うので,次に処理対象とするタイムスタンプを保持するためのメモリ領域(TSups)は用いなくてもよい。Ctlpは,この後連続して処理対象とするフレーム画像数のカウンタを保持するためのメモリ領域である。
Processing performed by the
制御部150は,最初に解析対象の映像データが格納された映像ファイルのオープンやバッファ領域の確保などの各機能の初期化を行う(ステップS101)。次に,各タイムスタンプ変数TSxxxとカウンタCtlpの値を全て0にセットする(ステップS102)。その後,フレームデータ取得部140からフレームデータを取得する(ステップS103)。
The
続いて,制御部150は,映像ファイルのデータが終了するまで,以下に説明するステップS105からステップS116までの処理とステップS103の処理を繰り返す(ステップS104)。
Subsequently, the
取得したフレームのタイムスタンプをt[msec]とする。まず,タイムスタンプtがTScutになったかどうかを判定する(ステップS105)。TScutになっていなければ,ステップS108へ進む。TScutになったならば,CUT映像解析部101にフレームデータを渡す(ステップS106)。その後,タイムスタンプtに300を加えた値をTScutに設定する(ステップS107)。すなわち,次の処理対象フレームを300msec後のフレームに設定する。 Let the time stamp of the acquired frame be t [msec]. First, it is determined whether or not the time stamp t is TScut (step S105). If not TScut, the process proceeds to step S108. If TScut is reached, the frame data is transferred to the CUT video analysis unit 101 (step S106). Thereafter, a value obtained by adding 300 to the time stamp t is set in TScut (step S107). That is, the next processing target frame is set to a frame after 300 msec.
続いて,タイムスタンプtがTScamになったかどうかを判定する(ステップS108)。TScamになっていなければ,ステップS111へ進む。TScamになったならば,CAM映像解析部111にフレームデータを渡す(ステップS109)。その後,現在のタイムスタンプtに500を加えた値をTScamに設定する(ステップS110)。 Subsequently, it is determined whether or not the time stamp t becomes TScam (step S108). If not TScam, the process proceeds to step S111. When TScam is reached, the frame data is transferred to the CAM video analysis unit 111 (step S109). Thereafter, a value obtained by adding 500 to the current time stamp t is set in TScam (step S110).
次に,Ctlpが0より大きいか,またはタイムスタンプtがTStlpになったかどうかを判定する(ステップS111)。判定結果が“偽”の場合には,ステップS116へ進む。判定結果が“真”であれば,TLP映像解析部121にフレームデータを渡す(ステップS112)。その後,Ctlpが3よりと小さいかどうかを判定し(ステップS113),3より小さければ,Ctlpを1カウントアップする(ステップS114)。そうでなければ,現在のタイムスタンプtに500を加えた値をTStlpに設定し,Ctlpに0をセットする(ステップS115)。 Next, it is determined whether Ctlp is greater than 0 or whether the time stamp t is TStlp (step S111). If the determination result is “false”, the process proceeds to step S116. If the determination result is “true”, the frame data is passed to the TLP video analysis unit 121 (step S112). Thereafter, it is determined whether or not Ctlp is smaller than 3 (step S113). If Ctlp is smaller than 3, Ctlp is incremented by 1 (step S114). Otherwise, a value obtained by adding 500 to the current time stamp t is set in TStlp, and 0 is set in Ctlp (step S115).
UPS映像解析部131に対しては,取得したフレームのフレームデータを渡す(ステップS116)。UPS映像解析部131は,全フレームの解析を行うことになる。その後,制御部150は,ステップS103の処理に戻り,フレームデータ取得部140から次のフレームのフレームデータを取得し,同様に処理を繰り返す。
The frame data of the acquired frame is passed to the UPS video analysis unit 131 (step S116). The UPS
映像ファイルが終了したならば(ステップS104),バッファ領域の解放や映像ファイルのクローズなどの各機能の終了処理を行う(ステップS117)。 If the video file is finished (step S104), the end processing of each function such as releasing the buffer area and closing the video file is performed (step S117).
以上の処理内容から明らかなように,単に従来の種々の映像解析部101〜131に対してフレームデータを渡す制御部150を付加しただけでは,制御部150のフロー中に,各映像解析部101〜131固有の処理が入り,煩雑な制御が必要になる。このため,制御部150は,統一的な一律な処理ができなくなる。このことは,このような全体としての映像解析装置あるいは映像解析プログラムの拡張性を大きく損ねることとなる。
As is clear from the above processing contents, each
本発明は上記課題の解決を図り,種々の映像解析部に対して,制御部が一律な処理で各映像解析部が必要なフレームを渡すことができる機構を提供することにより,汎用性,拡張性に優れた映像解析システムの構築を可能にすることを目的としている。 The present invention solves the above-mentioned problems and provides a mechanism that allows each video analysis unit to pass a necessary frame to the various video analysis units in a uniform process. The purpose is to make it possible to construct a video analysis system with excellent performance.
上記課題を解決するために,本発明では,映像解析部として,各特徴量抽出技術を実現した特徴量出力機能とともに,次フレーム指定機能を設け,制御部では,その次フレーム指定機能により指定されたフレームがフレームデータ取得部から取得された場合にのみ,その映像解析部に対してフレームデータを渡すという構成をとる。 In order to solve the above problems, in the present invention, the video analysis unit is provided with a next frame designation function as well as a feature quantity output function realizing each feature quantity extraction technique, and the control unit is designated by the next frame designation function. Only when the received frame is acquired from the frame data acquisition unit, the frame data is passed to the video analysis unit.
詳しくは,本発明に係る映像解析装置は,映像をフレームごとの画像データとして取得するフレームデータ取得部と,フレームごとの画像データを逐次入力することによって,その映像の特徴的な区間またはそれに付随する値である特徴量を出力する特徴量出力部および画像データが逐次入力されるごとに次に必要となるフレーム番号またはフレーム時間情報である次フレーム情報を指定する次フレーム指定部とを有する単数または複数の映像解析部と,映像解析部から指定される次フレーム情報に基づき,それぞれの映像解析部が必要なフレームの画像データをフレームデータ取得部より取得して映像解析部に送る制御部とを備える。 Specifically, the video analysis apparatus according to the present invention includes a frame data acquisition unit that acquires video as image data for each frame, and sequentially inputs the image data for each frame, so that a characteristic section of the video or an accompanying image is obtained. A feature amount output unit that outputs a feature amount that is a value to be processed, and a next frame designation unit that designates next frame information that is frame number information or frame time information that is required next every time image data is sequentially input Or a plurality of video analysis units, and a control unit that obtains image data of a necessary frame from the frame data acquisition unit based on the next frame information specified by the video analysis unit and sends the image data to the video analysis unit. Is provided.
これらの各部は,単一のコンピュータで実現することもできるが,映像解析部と制御部とを,ネットワークで接続される異なるコンピュータ上に実装する装置構成とすることもできる。その際に,フレームデータ取得部を制御部と同じコンピュータ上に実装することも,また,さらに異なるコンピュータ上に実装することも可能である。 Each of these units can be realized by a single computer, but it is also possible to adopt a device configuration in which the video analysis unit and the control unit are mounted on different computers connected by a network. At this time, the frame data acquisition unit can be mounted on the same computer as the control unit, or can be mounted on a different computer.
本発明によれば,制御部では,各映像解析部に固有なフレームデータの取得間隔を事前に知ることなく,各映像解析部が必要なフレームを渡す機構を実現することができる。そのため,未知の特徴量抽出技術が開発された場合でも,制御部に特別な改造を施すことなく,複数の特徴量を同時に出力する機構を容易に実現することが可能となる。 According to the present invention, the control unit can realize a mechanism for passing a necessary frame to each video analysis unit without knowing in advance the acquisition interval of frame data unique to each video analysis unit. Therefore, even when an unknown feature quantity extraction technique is developed, it is possible to easily realize a mechanism for outputting a plurality of feature quantities at the same time without special modification of the control unit.
以下では主に,本発明の各部を,CPUやメモリなどのコンピュータのハードウェアとソフトウェアプログラムを用いて実施する場合を例として述べる。 Below, the case where each part of this invention is mainly implemented using computer hardware and software programs, such as CPU and memory, is described as an example.
図1は,本発明の実施形態に係る映像解析装置の構成例を示す。映像解析装置1は,映像データからそれぞれ異なる特徴量を抽出する複数の映像解析部10[0],10[1],10[3],…と,解析対象の映像をフレームごとの画像データとして取得するフレームデータ取得部13と,制御部14とから構成される。なお,この映像解析装置1は汎用性を有するため,映像解析部10が複数ではなく単数であっても,正常に機能する。
FIG. 1 shows a configuration example of a video analysis apparatus according to an embodiment of the present invention. The
各映像解析部10は,それぞれ,次フレーム指定部11[0],11[1],11[2],…と,特徴量出力部12[0],12[1],12[2],…とを備える。
Each
次フレーム指定部11は,映像解析部10にフレームが逐次入力されるごとに,次に必要となるフレーム番号またはフレーム時間情報の次フレーム情報を,制御部14に通知する機能を有する。また,特徴量出力部12は,フレームごとの画像データを逐次入力することによって,その映像の特徴的な区間やそれに付随する値などの特徴量を出力する機能を有する。
The next
制御部14は,映像解析部10から指定される次フレーム情報に基づき,それぞれの映像解析部10が必要なフレームのデータをフレームデータ取得部13から取得して映像解析部10に送る制御機能を持つ。
Based on the next frame information specified by the
以上の本実施形態における映像解析部10,フレームデータ取得部13,制御部14は,この例では単一のコンピュータ上で実行されるソフトウェアモジュールによって構成されるものであり,各構成要素間の動作は,そのソフトウェアの関数コールの形式で実行されるものとして説明する。
In this example, the
フレームデータ取得部13は,MPEGなどの形式で符号化・圧縮化等の処理がなされたファイルを入力し,フレーム画像にデコードする機能を有するソフトウェアモジュールによって構成される。このようなソフトウェアは数多く実現されている。
The frame
図2に,フレームデータ取得部13の処理フローチャートを示す。フレームデータ取得部13は,図2に示すように,主に「初期化」「フレーム取得」「終期化」の各フェーズからなり,上位のソフトウェア(制御部14)から逐次関数コールで呼び出されることによって,機能提供がなされる。具体的には,以下のとおりである。
FIG. 2 shows a processing flowchart of the frame
まず,制御部14が,対象とする映像ファイル名を引数として指定して,「初期化」関数を呼び出すと,フレームデータ取得部13は引数で指定されたファイルをオープンし(ステップS10),フレームデータ取得部13の内部で必要なバッファ領域を確保する(ステップS11)といった初期化動作を行う。
First, when the
以降,制御部14から,制御部14内の格納域アドレスを引数とする「フレーム取得」関数呼び出しが連続的に行われ,フレームデータ取得部13は呼び出されるごとに映像ファイルからデコードされたフレームデータを1枚ずつ内部バッファ領域に読み出す(ステップS12)。映像ファイルが終了した場合には,ファイル終了を関数呼び出し元の制御部14に通知する(ステップS13)。映像ファイルからフレームデータが得られた場合には,その1フレーム分のデータを指定された制御部14内の格納域アドレスに展開し(ステップS14),制御部14に返却する。返却されるフレームデータには,タイムスタンプと呼ばれる映像ファイル中のフレーム画像の時間的インデックス情報が含まれる。フレームデータ取得部13の実施方法によっては,時間的情報ではなく,先頭から何フレーム目かを表す番号のインデックス情報のみが含まれる場合もあるが,その場合には,フレームレート(単位時間当たりのフレーム数)の逆数を掛けることによって,タイムスタンプと同等に扱うことができる。
Thereafter, the “frame acquisition” function call using the storage area address in the
映像の解析が全て終了し,制御部14から「終期化」関数の呼び出しがあると,フレームデータ取得部13は,映像ファイルをクローズし(ステップS15),また初期化時に確保したバッファ領域を解放して(ステップS16),処理を終了する。
When the video analysis is complete and the
制御部14の処理フローを図3に示す。本発明では,フレームを入力データとして特徴量を出力する複数の映像解析部10の一般化が可能であるため,それらN個の映像解析部10を,映像解析部10[0],映像解析部10[1],…,映像解析部10[N−1]とする。具体的には,その使用目的に合わせて,例えば,映像解析部10[0]は,カット点検出映像解析部であり,映像解析部10[1]は,テロップ検出映像解析部であり,…といったようになる。このような定義は,例えば,映像解析装置1の設定ファイル(図示省略)に記述しておき,制御部14の初期化時にその設定ファイルを読み込んで,指定するといった実施方法を採ることができる。
A processing flow of the
制御部14では,このようなN個の映像解析部10に対応するN個の配列TS[]を,メモリ領域15に持つ。この配列値を用いて,図3のステップS25において,実際に各映像解析部10にフレームデータを渡して解析処理の関数コールを行うか否かを決定することができる。解析処理関数コールを行った場合には,ステップS27において,その戻り値(あるいは別の実施例の場合には,出力パラメータ値)で,配列TS[i]の値を更新する。この処理により,次にその映像解析部10が必要とするフレームを,制御部14で汎用的に管理することができる。
The
この制御部14が実行する処理は,以下のとおりである。まず最初に各機能の初期化を行う(ステップS20)。ここでは,前述した「初期化」関数の呼び出し,フレームデータ格納域として用いる内部バッファ領域の確保,また必要に応じて各映像解析部10への初期化指示などを行う。また,メモリ領域15のタイムスタンプ配列TS[0]〜TS[N−1]を全て0にセットする(ステップS21)。
The processing executed by the
その後,制御部14は,内部バッファ領域の格納域アドレスを引数として「フレーム取得」関数呼び出しを行い,フレームデータ取得部13からフレームデータを取得する(ステップS22)。関数呼び出しの戻り値が「ファイル終了」かどうかを判定し(ステップS23),「ファイル終了」であれば,ステップS29へ進む。
Thereafter, the
戻り値が「ファイル終了」ではなく,「正常取得」であり,フレームデータが内部バッファ領域に格納されたならば,ループカウンタiを0からN−1までインクリメントしながら(ステップS24),以下のステップS25〜S27の処理を,i=N−1になるまで繰り返す(ステップS28)。 If the return value is not “end of file” but “normally acquired” and the frame data is stored in the internal buffer area, the loop counter i is incremented from 0 to N−1 (step S24), and the following The processes in steps S25 to S27 are repeated until i = N−1 (step S28).
取得したフレームのタイムスタンプをt[単位:msec]とする。繰り返し処理では,まず,タイムスタンプtがTS[i]以上かどうかを判定する(ステップS25)。tがTS[i]より小さければ,ステップS26,S27をスキップする。タイムスタンプtがTS[i]以上であれば,i番目の映像解析部10[i]へ内部バッファ領域に格納されたフレームデータを渡す(ステップS26)。その後,映像解析部10[i]の次フレーム指定部11[i]から指定される次フレーム情報の値をタイムスタンプ配列TS[i]にセットする(ステップS27)。 Let the time stamp of the acquired frame be t [unit: msec]. In the iterative process, first, it is determined whether or not the time stamp t is equal to or greater than TS [i] (step S25). If t is smaller than TS [i], steps S26 and S27 are skipped. If the time stamp t is equal to or greater than TS [i], the frame data stored in the internal buffer area is transferred to the i-th video analysis unit 10 [i] (step S26). Thereafter, the value of the next frame information specified by the next frame specifying unit 11 [i] of the video analysis unit 10 [i] is set in the time stamp array TS [i] (step S27).
以上の繰り返し処理がi=N−1まで終了したならば(ステップS28),ステップS22へ戻り,次のフレームデータの取得を繰り返す。 If the above repeating process is completed up to i = N−1 (step S28), the process returns to step S22, and the acquisition of the next frame data is repeated.
フレームデータ取得部13から「ファイル終了」が通知されたならば,前述した「終期化」関数の呼び出し,フレームデータ格納域として用いた内部バッファ領域の解放,また必要に応じて各映像解析部10への終了処理指示などの各機能の終了処理を行い(ステップS29),処理を終了する。
When “end of file” is notified from the frame
次に,映像解析部10の処理フローを図4,図5の例に従って説明する。ここでは,特許文献1の映像解析技術を利用した例を図4に示し,特許文献3の映像解析技術を利用した例を図5に示す。
Next, the processing flow of the
図4に示す映像解析部10[0]は,映像解析によりカット点検出を行うものであり,制御部14から1フレーム分のフレームデータを引数とする解析処理の指示があると,特許文献1に記載されているようなカット点の抽出処理を実行する(ステップS30)。カット点抽出処理によりカット点が検出されたかどうかを判定し(ステップS31),カット点が検出されたならば,特徴量出力部12[0]を呼び出す。そうでなければ,次フレーム指定部11[0]の処理(ステップS33)へ進む。
The video analysis unit 10 [0] shown in FIG. 4 performs cut point detection by video analysis, and if there is an analysis processing instruction using one frame of frame data as an argument from the
特徴量出力部12[0]は,検出されたカット点の情報を所定の結果ファイル(または結果格納メモリ域)に出力する(ステップS32)。 The feature amount output unit 12 [0] outputs information of the detected cut point to a predetermined result file (or result storage memory area) (step S32).
次フレーム指定部11[0]は,tに300[msec]を加えた値を次フレーム情報として設定し(ステップS33),その次フレーム情報を戻り値として制御部14に返却する。次フレーム情報をt+300として,制御部14に通知することにより,300msecごとのフレームに対してカット点の検出処理を行うことができるようになる。
The next frame specifying unit 11 [0] sets a value obtained by adding 300 [msec] to t as next frame information (step S33), and returns the next frame information to the
図5に示す映像解析部10[1]は,映像解析によりテロップの検出を行うものである。メモリ領域16に用意されたカウンタCtlpの初期値は0に設定されている。この例では,500msecごとに連続した4枚のフレーム画像を入力し,平均化カラー画像を作成して,テロップを検出するものとする。
The video analysis unit 10 [1] shown in FIG. 5 detects telops by video analysis. The initial value of the counter Ctlp prepared in the
制御部14から1フレーム分のフレームデータを引数とする解析処理の指示があると,まず,カウンタCtlpの値が3より小さいかどうかを判定する(ステップS40)。3より小さい場合には,特許文献3に記載されている方法による複数フレーム平均化処理を実行する(ステップS41)。一方,カウンタCtlpの値が3になった場合には,特許文献3に記載されている方法によるテロップ検出処理を実行する(ステップS42)。テロップが検出された場合には(ステップS43),特徴量出力部12[1]を呼び出し,検出されたカット点の情報を所定の結果ファイル(または結果格納メモリ域)に出力する(ステップS44)。
When there is an analysis processing instruction using frame data for one frame as an argument from the
その後,次フレーム指定部11[1]の処理へ進み,カウンタCtlpの値が3より小さいかどうかを判定する(ステップS45)。3より小さい場合には,カウンタCtlpの値を1カウントアップし(ステップS46),tに1[msec]を加えた値を次フレーム情報として設定し(ステップS47),その次フレーム情報を戻り値として制御部14に返却する。このように,次フレーム情報をt+1とすることによって,タイムスタンプが現在よりも少しでも進めば,再度,映像解析部10[1]が制御部14から呼び出されるようになるため,連続してフレームデータが渡されることになる。
Thereafter, the process proceeds to the process of the next frame specifying unit 11 [1], and it is determined whether or not the value of the counter Ctlp is smaller than 3 (step S45). If it is smaller than 3, the value of the counter Ctlp is incremented by 1 (step S46), a value obtained by adding 1 [msec] to t is set as the next frame information (step S47), and the next frame information is returned as the return value. To the
一方,カウンタCtlpの値が3になったならば,カウンタCtlpの値を0に戻し(ステップS48),tに500[msec]を加えた値を次フレーム情報として設定し(ステップS49),その次フレーム情報を戻り値として制御部14に返却する。
On the other hand, if the value of the counter Ctlp becomes 3, the value of the counter Ctlp is returned to 0 (step S48), and a value obtained by adding 500 [msec] to t is set as the next frame information (step S49). The next frame information is returned to the
以上のようにして,次フレーム情報を制御部14に通知することにより,500msecごとに4枚のフレームデータを入力し,テロップの検出処理を行うことができるようになる。
As described above, the next frame information is notified to the
ここでは,映像解析部10の次フレーム指定部11により指定された次フレーム情報については,映像解析部10を呼び出す解析処理関数の戻り値として制御部14に返却される例を説明したが,別の実施例としては,解析処理関数コールにおいて,出力用のパラメータを設け,その出力用パラメータに次フレーム情報を設定してリターンするという方法を採ることも可能である。
Here, an example has been described in which the next frame information specified by the next
カット点検出とテロップ検出の映像解析部10の例を説明したが,他の種類の特徴量を抽出する映像解析部10についても同様に,次フレーム指定部11によって,次に必要となるフレーム番号やフレーム時間情報などの次フレーム情報を制御部14に通知する手段を設けることにより,制御部14では,フレームデータの映像解析部10への引渡し処理を一律に実行することができるようになる。
The example of the
以上の実施形態として,説明を分かりやすくするため,図1に示す各部の機能を,単一のコンピュータに実装する場合の例を説明したが,他の実施形態としては,各機能を別々のコンピュータ上で実行されるソフトウェアモジュールによって実現し,これらのコンピュータは,LANを通じて相互に通信ができるものとすることもできる。 In the above embodiment, in order to make the explanation easy to understand, the example in which the functions of the respective units shown in FIG. 1 are implemented in a single computer has been described. However, in another embodiment, each function is provided in a separate computer. Implemented by the software modules executed above, these computers can also communicate with each other over a LAN.
図6に,映像解析装置をネットワークシステムを用いて構築する例を示す。本実施形態における映像解析装置は,それぞれ異なるコンピュータ(CPUおよびメモリ等)で実現される映像解析制御装置20と,映像解析処理装置30[0],30[1],30[2],…と,LANなどのネットワーク40とから構成される。映像解析制御装置20は,図1で説明したフレームデータ取得部13と制御部14とを有する。
FIG. 6 shows an example in which a video analysis apparatus is constructed using a network system. The video analysis device according to the present embodiment includes a video
すなわち,映像解析制御装置20の制御部14は,フレームデータ取得部13から映像をフレームごとの画像データとしてフレームの時間順に取得する手段と,映像解析処理装置30から指定される次フレーム情報に基づき,フレームデータ取得部13から取得したフレームが,映像解析処理装置30が必要なフレームの画像データであるかどうかを判定する手段と,フレームデータ取得部13から取得したフレームが,映像解析処理装置30が必要なフレームの画像データであると判定された場合に,そのフレームの画像データを映像解析処理装置30へ送る手段と,映像解析処理装置30から受信した次フレーム情報を記憶する手段とを備える。
That is, the
各映像解析処理装置30は,図1で説明した映像解析部10を有する。映像解析制御装置20および各映像解析処理装置30は,ネットワーク40を通じて,命令とフレームデータや次フレーム情報等のデータを送受信することで,単一のコンピュータによって映像解析装置を実現する場合と同様に,本発明を実施することができる。もちろん,フレームデータ取得部13と制御部14とを,異なるコンピュータに実装して本発明を実施することも可能である。
Each video
1 映像解析装置
10 映像解析部
11 次フレーム指定部 12 特徴量出力部
13 フレームデータ取得部
14 制御部
DESCRIPTION OF
Claims (4)
フレームごとの画像データを逐次入力することによって,その映像の特徴的な区間またはそれに付随する値である特徴量を出力する特徴量出力部および前記画像データが逐次入力されるごとに次に必要となるフレーム番号またはフレーム時間情報である次フレーム情報を指定する次フレーム指定部とを有する単数または複数の映像解析部と,
前記映像解析部から指定される次フレーム情報に基づき,それぞれの前記映像解析部が必要なフレームの画像データを前記フレームデータ取得部より取得して前記映像解析部に送る制御部と,
を備えることを特徴とする映像解析装置。 A frame data acquisition unit for acquiring video as image data for each frame;
By sequentially inputting image data for each frame, a feature amount output unit for outputting a feature amount which is a characteristic section of the video or a value associated therewith, and the image data are sequentially input each time the image data is sequentially input. One or a plurality of video analysis units having a next frame designating unit for designating next frame information which is a frame number or frame time information,
Based on the next frame information specified by the video analysis unit, each of the video analysis units acquires image data of a necessary frame from the frame data acquisition unit and sends the frame data to the video analysis unit;
A video analysis apparatus comprising:
映像をフレームごとの画像データとして取得するフレームデータ取得部と,
フレームごとの画像データを逐次入力することによって,その映像の特徴的な区間またはそれに付随する値である特徴量を出力する特徴量出力部および前記画像データが逐次入力されるごとに次に必要となるフレーム番号またはフレーム時間情報である次フレーム情報を指定する次フレーム指定部とを有する単数または複数の映像解析部と,
前記映像解析部から指定される次フレーム情報に基づき,それぞれの前記映像解析部が必要なフレームの画像データを前記フレームデータ取得部より取得して前記映像解析部に送る制御部として,
機能させるための映像解析プログラム。 Computer
A frame data acquisition unit for acquiring video as image data for each frame;
By sequentially inputting image data for each frame, a feature amount output unit for outputting a feature amount which is a characteristic section of the video or a value associated therewith, and the image data are sequentially input each time the image data is sequentially input. One or a plurality of video analysis units having a next frame designating unit for designating next frame information which is a frame number or frame time information,
Based on the next frame information specified by the video analysis unit, each of the video analysis units acquires the image data of the necessary frame from the frame data acquisition unit and sends it to the video analysis unit,
Video analysis program to make it function.
当該映像解析制御装置またはその外部の装置が備えるフレームデータ取得部から,映像をフレームごとの画像データとしてフレームの時間順に取得する手段と,
前記映像解析処理装置から指定される次フレーム情報に基づき,前記フレームデータ取得部から取得したフレームが,前記映像解析処理装置が必要なフレームの画像データであるかどうかを判定する手段と,
前記フレームデータ取得部から取得したフレームが,前記映像解析処理装置が必要なフレームの画像データであると判定された場合に,そのフレームの画像データを前記映像解析処理装置へ送る手段と,
前記映像解析処理装置から受信した次フレーム情報を記憶する手段と,
を備えることを特徴とする映像解析制御装置。 By sequentially inputting image data for each frame, a feature amount output unit for outputting a feature amount which is a characteristic section of the video or a value associated therewith, and the image data are sequentially input each time the image data is sequentially input. Sending image data of a frame to be analyzed to one or a plurality of video analysis processing devices including a video analysis unit having a next frame information unit for specifying next frame information which is frame number or frame time information, A video analysis control device for analyzing video,
Means for acquiring video as image data for each frame in the time order of the frame from the frame data acquisition unit provided in the video analysis control device or the external device;
Means for determining whether the frame acquired from the frame data acquisition unit is image data of a frame required by the video analysis processing device based on next frame information designated from the video analysis processing device;
Means for sending the image data of the frame to the video analysis processing device when it is determined that the frame acquired from the frame data acquisition unit is image data of a frame required by the video analysis processing device;
Means for storing next frame information received from the video analysis processing device;
A video analysis control apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009016141A JP2010176240A (en) | 2009-01-28 | 2009-01-28 | Video analysis device, video analysis program, video analysis control device, and video analysis control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009016141A JP2010176240A (en) | 2009-01-28 | 2009-01-28 | Video analysis device, video analysis program, video analysis control device, and video analysis control program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010176240A true JP2010176240A (en) | 2010-08-12 |
Family
ID=42707188
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009016141A Pending JP2010176240A (en) | 2009-01-28 | 2009-01-28 | Video analysis device, video analysis program, video analysis control device, and video analysis control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010176240A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008027181A (en) * | 2006-07-21 | 2008-02-07 | Hitachi Ltd | Image processor |
-
2009
- 2009-01-28 JP JP2009016141A patent/JP2010176240A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008027181A (en) * | 2006-07-21 | 2008-02-07 | Hitachi Ltd | Image processor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20190174090A1 (en) | System and method for supporting selective bactracking data recording | |
EP2724343B1 (en) | Video remixing system | |
CN109168037B (en) | Video playing method and device | |
WO2017135133A1 (en) | Communication apparatus, communication control method, and computer program | |
CN107370768B (en) | Intelligent television streaming media preview system and method | |
CN107527045A (en) | A kind of human body behavior event real-time analysis method towards multi-channel video | |
CN110505513A (en) | A kind of video interception method, apparatus, electronic equipment and storage medium | |
CN111698555A (en) | Video frame extraction processing method and device | |
US20150269731A1 (en) | Device, method for image analysis and computer-readable medium | |
KR101680545B1 (en) | Method and apparatus for providing panorama moving picture generation service | |
US7408989B2 (en) | Method of video encoding using windows and system thereof | |
KR101296318B1 (en) | Apparatus and method for object tracking by adaptive block partitioning | |
CN112019878B (en) | Video decoding and editing method, device, equipment and storage medium | |
JP2010176240A (en) | Video analysis device, video analysis program, video analysis control device, and video analysis control program | |
WO2016197659A1 (en) | Packet reception method, device and system for network media stream | |
CN112449243B (en) | Video processing method, device, equipment and storage medium | |
CN113553469B (en) | Data processing method, device, electronic equipment and computer storage medium | |
CN111988563B (en) | Multi-scene video monitoring method and device | |
CN109886234B (en) | Target detection method, device, system, electronic equipment and storage medium | |
Kempken et al. | Modeling of H. 264 high definition video traffic using discrete-time semi-Markov processes | |
CN114694007A (en) | Video structuring processing method and video structuring engine | |
US8004569B2 (en) | Method and apparatus for obtaining still image frame with anti-vibration clearness for image processing device | |
JP2021197082A5 (en) | Information processing device, information processing method and program | |
CN111246090A (en) | Tracking shooting method and device, electronic equipment and computer storage medium | |
CN111510635B (en) | Cloud deck fault determination method and device, storage medium and electronic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120117 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120821 |