JPH10336593A - Synchronous video processing system and method - Google Patents

Synchronous video processing system and method

Info

Publication number
JPH10336593A
JPH10336593A JP10078826A JP7882698A JPH10336593A JP H10336593 A JPH10336593 A JP H10336593A JP 10078826 A JP10078826 A JP 10078826A JP 7882698 A JP7882698 A JP 7882698A JP H10336593 A JPH10336593 A JP H10336593A
Authority
JP
Japan
Prior art keywords
video signal
frame
data
video
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10078826A
Other languages
Japanese (ja)
Inventor
Takafumi Miyatake
孝文 宮武
Akio Nagasaka
晃朗 長坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP10078826A priority Critical patent/JPH10336593A/en
Publication of JPH10336593A publication Critical patent/JPH10336593A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To attain avoidance of deviations from an actual video by storing a frame data column and plural number of time codes, calculating their feature amount and generating a record which takes the time codes representing an event as a group, when retrieval conditions and the feature amount for detecting frame data in which a certain event appears satisfy the conditions for retrieval. SOLUTION: An analog video signal 12 is supplied to a computer 2 via a video signal input port P, video data 12A are converted into digital data 13 by an A/D converter 7 and held in a memory 4. Non-video data 12B are converted into a time code 14 which has plural number of frame address information by an address information decoder and are held in the memory 4. A CPU 3 executes a detection processing, in accordance with an event detection program 15, and records frame data as a group when the frame data are detected and correctly makes a frame address correspond to the frame.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、電子媒体に記録さ
れた映像データや映画等の映像の編集や検索を支援する
映像インデクシングのための映像信号処理システムおよ
び方法に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to a video signal processing system and method for video indexing that supports editing and searching of video data such as video data and movies recorded on an electronic medium.

【0002】[0002]

【従来の技術】近年、計算機の高速化と大容量化を背景
にして、従来は扱えなかった映画や電子媒体に記録され
た映像データなどの映像情報を扱うことのできるデータ
ベースシステムやプレゼンテーションツールが注目され
ている。膨大な情報量を有する映像情報の中から必要な
部分だけを探したり、それを加工したりするのは、ユー
ザにとって手間のかかる作業である。そこで、計算機に
よる作業負担軽減方法として、例えば、1992年4月
刊行の情報処理学会論文誌 Vol.33, No.4, 第543〜
549頁「カラービデオ映像における自動索引付け法と
物体探索法」や1992年4月13日公開の特開平4−
111181号「動画像の変化点検出方法」、先に発明
者らが提案した1997年3月7日公開の特開平9−6
5287号「動画像の特徴場面検出方法及び装置」等で
示された方法がある。
2. Description of the Related Art In recent years, with the background of high-speed and large-capacity computers, database systems and presentation tools that can handle video information such as movies and video data recorded on electronic media, which could not be handled conventionally, have been developed. Attention has been paid. It is a time-consuming task for a user to search for and process only a necessary part from video information having a huge amount of information. Therefore, as a method of reducing the work load by a computer, for example, IPSJ Transactions Vol.33, No.4, No.543-
549, “Automatic Indexing Method and Object Searching Method for Color Video Images” and Japanese Patent Application Laid-Open No.
No. 111181, "Method for detecting a change point of a moving image", Japanese Patent Laid-Open No. 9-6 published March 7, 1997 previously proposed by the inventors.
No. 5,287, "Method and apparatus for detecting characteristic scenes of moving images".

【0003】これは、映像をカット単位に自動的に分割
したり、デゾルブなどの特殊効果点で分割したり、被写
体の登場区間、字幕表示区間などの各種のイベントを自
動的に検出して、その検出した部分の画像をアイコンと
して一覧表示することで、動画像の検索や編集の一助と
する方法である。これによれば、映像の情報の内容が画
面上で一覧表示され、全体の構成内容が一目で把握でき
るので所望の場面が見つかりやすく、また、カットとい
う区切れのよい単位で扱えるので編集が簡単にできるよ
うになる。
[0003] This is because the video is automatically divided into cut units, divided into special effect points such as dissolves, and various events such as an appearance section of a subject and a subtitle display section are automatically detected. This is a method of assisting in search and editing of a moving image by displaying a list of images of the detected portion as icons. According to this, the contents of the video information are displayed in a list on the screen, and the entire configuration content can be grasped at a glance, so that the desired scene can be easily found, and the editing can be easily performed because it can be handled in a well-divided unit called a cut. Will be able to

【0004】[0004]

【発明が解決しようとする課題】しかしながら、映像は
1秒間に30枚のフレーム列で構成されている。一般に
入手できる処理デバイスを用いて毎秒30フレームの画
像列を連続的に実時間で処理するのは、処理速度の関係
で、1種類程度の映像信号処理に限られる。現状、複数
の映像信号処理を行う場合、3つの方法が考えられる。
However, an image is composed of a sequence of 30 frames per second. Continuously processing an image sequence of 30 frames per second in real time using a generally available processing device is limited to about one type of video signal processing due to the processing speed. At present, when performing a plurality of video signal processes, three methods are conceivable.

【0005】第1番目の方法は、1台の装置で映像信号
処理の種類だけ映像を繰り返して入力し、個々の映像信
号処理を行い、イベント発生点のフレームのアドレスで
あるタイムコードを標準のシリアルポートを介して、ビ
デオデッキ等の入力元の装置から読み取って記録する方
法である。この方法では、確実に、処理結果の時間関係
が把握できるが、複数回に渡って映像を再入力しなけれ
ばならず、全体として処理時間が長くなる、言い換える
と、複数種の映像信号処理を実時間で行うことができな
い、という問題がある。
In the first method, a single apparatus repeatedly inputs and outputs a video of the type of video signal processing, performs individual video signal processing, and converts a time code, which is the address of a frame at an event occurrence point, into a standard time code. This is a method of reading and recording from an input source device such as a video deck via a serial port. In this method, the time relationship of the processing result can be surely grasped, but the video must be re-input several times, and the processing time becomes longer as a whole. In other words, a plurality of types of video signal processing are performed. There is a problem that it cannot be performed in real time.

【0006】第2番目の方法は、1台の装置でイベント
毎に処理専用の拡張ボードを用意して機能ごとに従来手
法で並列に動作させる方法である。しかし、このような
装置はイベントの種類に応じて専用のボードを新たに開
発する必要があり、開発コストが高価になるという問題
がある。
A second method is a method in which a single device prepares an expansion board dedicated to processing for each event and operates in parallel for each function by a conventional method. However, such a device requires a new development of a dedicated board according to the type of event, and has a problem that the development cost is high.

【0007】第3番目の方法は、映像信号処理の種類に
対応して個々に処理装置を準備し、映像分配器で同一の
映像を各処理装置に分配して、同時に処理する方法であ
る。この方法では、全体としての処理時間は映像の時間
長と同じになるが、処理した結果を時間的に正確に配列
するためには、別途全装置の時刻を精密に合わせるとと
もに、特定の一台の処理装置で実際の時刻と再生中の映
像のタイムコードを標準シリアルポートを介してビデオ
デッキから読み取って、随時対応をとっておく必要が生
じる。しかし、個別の処理装置をコンピュータ等で実現
する場合、複数の処理装置の時刻をフレーム単位(30
分の1秒)あるいはフィールド単位(60分の1秒)で
時間合わせするのは精度的に困難である。
The third method is a method in which processing devices are individually prepared in accordance with the type of video signal processing, and the same video is distributed to each processing device by a video distributor and processed simultaneously. In this method, the processing time as a whole is the same as the time length of the video, but in order to arrange the processing results accurately in time, the time of all devices must be precisely adjusted separately, and It is necessary to read the actual time and the time code of the video being reproduced from the video deck via the standard serial port in the processing device and take necessary measures accordingly. However, when the individual processing devices are realized by a computer or the like, the times of the plurality of processing devices are set in frame units (30
It is difficult to adjust the time in units of 1 / second) or in units of fields (1/60 second).

【0008】そこで、1台のビデオデッキからタイムコ
ードを全処理装置に標準シリアルポートを介して送るこ
とも考えられるが、通常シリアルポートは所定の通信手
順を踏むため、タイムコード読み出し要求が複数同時に
発生すると順番待ちになり、順番待ちになった処理装置
は、要求を発生した時点の真のタイムコードからずれた
アドレスを受信することになる。したがって、この方法
でも完全な映像の同期は困難である。
Therefore, it is conceivable to send a time code from one VCR to all the processing devices via a standard serial port. However, since a serial port normally follows a predetermined communication procedure, a plurality of time code read requests are simultaneously sent. When the request is issued, the processing unit is queued, and the processing device in the queue receives an address shifted from the true time code at the time when the request is generated. Therefore, even with this method, perfect video synchronization is difficult.

【0009】本発明の1つの目的は、実時間で複数の映
像信号処理を達成し、かつ、各映像信号処理により検出
したイベント発生点のフレームアドレスを正確に認識で
き、従って処理結果の時間関係が容易に正しく配列され
る、映像信号処理方法およびシステムを提供することに
ある。
An object of the present invention is to achieve a plurality of video signal processings in real time, and to accurately recognize a frame address of an event occurrence point detected by each video signal processing. It is an object of the present invention to provide a video signal processing method and system in which video signals are easily and correctly arranged.

【0010】[0010]

【課題を解決するための手段】本発明の一側面におい
て、アナログ映像信号に含まれる複数個のフレームのそ
れぞれに対し、固有のアドレス情報が付加される。ま
ず、処理対象となるアナログ映像信号がフレーム単位で
時系列に映像信号入力ポートを介して処理装置に入力さ
れ、処理装置では、映像信号中の映像データがデジタル
フレームデータ列としてメモリに記録され、かつ、映像
信号中の非映像データに含まれたアドレス情報がデジタ
ル化されてそれぞれ対応する1つのデジタルフレームデ
ータを特定する複数個のタイムコードに変換され、メモ
リに記録される。デジタルフレームデータは時系列にそ
れらの特徴量を計算され、或るイベントが出現するフレ
ームデータを検出するための検索条件をそれらの特徴量
が満足するかどうか決定され、満足した場合はそのフレ
ームデータまたはイベントを代表するイベントコードと
タイムコードを組とするレコードが作成される。
According to one aspect of the present invention, unique address information is added to each of a plurality of frames included in an analog video signal. First, an analog video signal to be processed is input to a processing device via a video signal input port in a time series in a frame unit, and in the processing device, video data in the video signal is recorded in a memory as a digital frame data sequence, In addition, the address information included in the non-video data in the video signal is digitized, converted into a plurality of time codes specifying one corresponding digital frame data, and recorded in the memory. The digital frame data is calculated in terms of their features in chronological order, and it is determined whether or not the features satisfy search conditions for detecting frame data in which a certain event appears. Alternatively, a record in which an event code and a time code representing an event are paired is created.

【0011】これにより処理時間の長短や映像信号到着
が動画再生装置から映像信号処理装置までに遅延する時
間にかかわらず、処理したフレームの正確なアドレスを
記録することができる。
Thus, an accurate address of a processed frame can be recorded irrespective of the length of the processing time or the time when the arrival of the video signal is delayed from the moving picture reproducing apparatus to the video signal processing apparatus.

【0012】さらに、本発明の他の側面において、複数
の映像処理を実時間で行う場合は、処理装置を複数台設
け、対象となる映像信号を複数台の処理装置に分配し、
各処理装置において独立に処理を実行し、処理結果をタ
イムコードを用いて正しい時間関係に配列し、統合す
る。
Further, in another aspect of the present invention, when performing a plurality of video processings in real time, a plurality of processing devices are provided, and a target video signal is distributed to the plurality of processing devices.
Each processing device executes processing independently, arranges processing results in a correct time relationship using time codes, and integrates them.

【0013】これにより複数の映像処理を複数の処理装
置で処理しても、あたかも1台の仮想的な超高速処理装
置で処理した結果と同じ結果が得られる。さらに、処理
結果の時間関係を正しく把握することのために、映像信
号入力ポート以外に、外部から特別な信号線を設ける必
要がない。また、これらの各処理装置は汎用的で安価な
コンピュータを利用して構成できる。
Thus, even if a plurality of video processes are processed by a plurality of processing devices, the same result as a result of processing by one virtual ultra-high-speed processing device can be obtained. Further, it is not necessary to provide a special signal line from outside in addition to the video signal input port in order to correctly grasp the time relation of the processing result. Each of these processing units can be configured using a general-purpose and inexpensive computer.

【0014】[0014]

【発明の実施の形態】以下、図面を参照して本発明の実
施例を詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0015】図1(a)は、本発明の一実施例による映
像処理システムのブロック図の一例である。1はCRT
等のディスプレイ装置であり、例えばコンピュータによ
り構成された処理装置2の出力画面を表示する。コンピ
ュータ2に対する命令は、ポインティングデバイス等の
入力装置5を使って行うことができる。動画像再生装置
10は、地上波放送や衛星放送、ケーブルテレビなどの
放送番組を受信するためのチューナ装置、もしくは光デ
ィスクやビデオテープ等に記録された動画像を再生する
ための装置である。
FIG. 1A is an example of a block diagram of a video processing system according to an embodiment of the present invention. 1 is CRT
And the like, and displays an output screen of the processing device 2 configured by, for example, a computer. Instructions to the computer 2 can be given using an input device 5 such as a pointing device. The moving image reproducing device 10 is a tuner device for receiving a broadcast program such as a terrestrial broadcast, a satellite broadcast, and a cable television, or a device for reproducing a moving image recorded on an optical disk, a video tape, or the like.

【0016】動画像再生装置10から出力されるアナロ
グ映像信号12は映像信号入力ポートPを介してコンピ
ュータ2に供給され、映像データ12Aと非映像データ
12Bとを含み、後者(12B)には、例えばクローズ
ドキャプション情報あるいは映像のフレームアドレス情
報が特定の走査線(例えば、帰線消去期間中の走査線)
に相当する信号部分に重畳され記録されている。クロー
ズドキャプションとは、米国で聴覚障害者用に開発さ
れ、現在ではテレビ放送や市販のビデオソフトの大半に
この情報が入れられている。尚、最近のインターテキス
トと呼ばれる放送用の映像信号の非映像データにはイン
タネットのアドレス情報も重畳されている。
An analog video signal 12 output from the moving picture reproducing apparatus 10 is supplied to the computer 2 via a video signal input port P and includes video data 12A and non-video data 12B. For example, closed caption information or frame address information of a video is a specific scanning line (for example, a scanning line during a blanking period).
Are superimposed and recorded on the signal portion corresponding to. Closed captioning was developed in the United States for the hearing impaired and is now included in most television broadcasts and commercial video software. Note that Internet address information is also superimposed on non-video data of a video signal for broadcasting called recent Internet text.

【0017】本実施例では、映像データ12AはA/D
変換器7によってフレームを示すデジタルデータ(フレ
ームデータ)13に変換され、インタフェースを介して
メモリ4に保持される。メモリ4に一時的に記憶される
フレームデータは、例えば、多くても15フレーム分の
データである。また、映像信号の非映像データ12Bに
ついては、アドレス情報デコーダ8によって、非映像デ
ータ12Bに含まれるフレームアドレス情報(以下、文
脈から明らかな場合には単に「非映像部分」と称する)
がデジタルデータである複数個のタイムコード14に変
換されて、メモリ4に保持される。尚、必要に応じて、
クローズドキャプション情報を格納する走査線も読みと
ってデジタルデータに変換して、メモリ4に送ることも
できる。これは読み出す走査線の設定を追加すれば良
い。
In this embodiment, the video data 12A is A / D
The data is converted into digital data (frame data) 13 indicating a frame by the converter 7 and stored in the memory 4 via the interface. The frame data temporarily stored in the memory 4 is, for example, data for at most 15 frames. For the non-video data 12B of the video signal, the address information decoder 8 performs frame address information included in the non-video data 12B (hereinafter, simply referred to as “non-video portion” when clear from the context).
Are converted into a plurality of time codes 14 which are digital data, and are stored in the memory 4. In addition, if necessary,
A scanning line for storing closed caption information can also be read, converted into digital data, and sent to the memory 4. What is necessary is just to add the setting of the scanning line to read.

【0018】メモリ4に記録されたデジタルフレームデ
ータ13は、メモリ4に格納されたイベント検出プログ
ラム15に従って、CPU3によってイベント検出処理
される。イベント検出プログラムは、あるイベントが出
現するフレームデータを検出するための検索条件を設定
する手段と、各フレームデータと検索条件とを比較しマ
ッチしているかどうかを決定する手段と、上記イベント
を代表するイベントコードのデータとを少なくとも備え
る。その処理の結果フレームデータが検出されると、イ
ベントを代表するイベントコードと検出フレームデータ
アドレス情報であるタイムコード14とを組にしてレコ
ードとし、メモリ4または、処理の必要に応じて、外部
情報記憶装置6に記録する。またコンピュータ2は、動
画像再生装置10に、制御線11を介して、停止、再生
の指示を送ることができる。この制御線11はコンピュ
ータ2のシリアルポートのインタフェースに接続されて
いる。
The digital frame data 13 recorded in the memory 4 is subjected to event detection processing by the CPU 3 in accordance with an event detection program 15 stored in the memory 4. The event detection program comprises: means for setting a search condition for detecting frame data in which an event appears; means for comparing each frame data with the search condition to determine whether or not the event matches; And at least event code data to be executed. When the frame data is detected as a result of the process, an event code representing the event and a time code 14 as the detected frame data address information are combined into a record, and the record is stored in the memory 4 or the external information as necessary. The information is recorded in the storage device 6. In addition, the computer 2 can send a stop and playback instruction to the moving image playback device 10 via the control line 11. The control line 11 is connected to a serial port interface of the computer 2.

【0019】図1(a)に示されるコンピュータ2にお
いて、アドレス情報デコーダ8はA/D変換器で実現さ
れ、(1)チップ化されてコンピュータシステム内部に
製造時点に構成されてもよいし、(2)ボード基板上に
構成されパーソナルコンピュータ等の一般的な汎用コン
ピュータの拡張スロットに装着されてもよい(これは、
既存のパーソナルコンピュータ上で本発明を実現する際
に有効である)。アドレス情報デコーダを構成するに
は、例えば、公知のクローズドキャプションを読みとる
デコーダの技術を利用することができる。すなわち、ク
ローズドキャプションを復号するデコーダで読みとるべ
きデータを、映像信号の字幕データが含まれている走査
線部分からではなく、フレームアドレス情報が含まれて
いる走査線部分から読みとられるように変更すればよ
い。また、図1(a)では、動画像(映像信号)をアド
レス情報デコーダ8に直接入力しているが、これは、図
1(b)に示すように、処理システムが一旦アナログの
動画像信号を取り込んでバスラインからインタフェース
を介してデコーダ8に入力するようにしても良い。
In the computer 2 shown in FIG. 1 (a), the address information decoder 8 is realized by an A / D converter, and (1) may be formed into a chip and formed in a computer system at the time of manufacture. (2) It may be mounted on a board substrate and installed in an expansion slot of a general-purpose computer such as a personal computer.
This is effective when implementing the present invention on an existing personal computer). In order to configure the address information decoder, for example, a well-known decoder technology for reading closed captions can be used. That is, the data to be read by the decoder that decodes the closed caption is changed so that the data is read not from the scanning line portion containing the caption data of the video signal but from the scanning line portion containing the frame address information. I just need. Also, in FIG. 1A, a moving image (video signal) is directly input to the address information decoder 8. However, as shown in FIG. May be input to the decoder 8 from the bus line via the interface.

【0020】図2は、図1(a),(b)で示したシス
テム上で映像を処理するときの映像信号の構成を具体的
に示している。映像信号12は、複数個のフレームを含
み、米国のNTSC規格では、1秒間に30枚のフレー
ムを送ることで可視化する。そして、各フレームは、可
視化される映像データ12Aと、同期制御やデータ送信
のための非映像データ12Bとを含む。映像データ12
Aについては、A/D変換器7によって、デジタルフレ
ームデータ13に変換する。また、非映像データ12B
に含まれるフレームアドレス情報は、アドレス情報デコ
ーダ8によって、デジタルタイムコード14に変換す
る。
FIG. 2 specifically shows a configuration of a video signal when processing a video on the system shown in FIGS. 1 (a) and 1 (b). The video signal 12 includes a plurality of frames, and is visualized by sending 30 frames per second in the US NTSC standard. Each frame includes visualized video data 12A and non-video data 12B for synchronization control and data transmission. Video data 12
A is converted into digital frame data 13 by the A / D converter 7. In addition, non-video data 12B
Is converted into a digital time code 14 by the address information decoder 8.

【0021】従来の動画像再生装置からコンピュータに
映像情報を入力する装置では、フレームとそれに付随す
るタイムコードとは相互に分離され、独立の別個の信号
線を通して供給される。そのため、コンピュータ側の処
理遅延等の影響で映像処理が完了したときにその映像に
対して取得すべきタイムコードがずれるケースが発生し
ていた。放送局の映像編集時には、このずれは致命的に
なる。
In a conventional apparatus for inputting video information from a moving image reproducing apparatus to a computer, a frame and its associated time code are separated from each other and supplied through independent signal lines. Therefore, when video processing is completed due to processing delays on the computer side or the like, the time code to be acquired for the video may be shifted. At the time of video editing of a broadcasting station, this shift is fatal.

【0022】一方、本発明では、映像データと非映像デ
ータとを含む映像信号を、処理装置の映像信号入力ポー
トを介して受け、そのようにして受けた映像信号の映像
データおよび非映像データから、それぞれデジタルフレ
ームデータおよびデジタルフレームデータに付随するタ
イムコードとを生成する。従って、映像処理に遅延が生
じても、フレームに対して取得されるフレームアドレス
は、そのフレームに正しく対応する。
On the other hand, according to the present invention, a video signal containing video data and non-video data is received via a video signal input port of the processing device, and the video signal and the non-video data of the video signal thus received are received. , And a digital frame data and a time code attached to the digital frame data, respectively. Therefore, even if a delay occurs in video processing, the frame address acquired for a frame correctly corresponds to the frame.

【0023】図3は、映像編集の支援を目的とした、映
像信号中に現れるそれぞれ検索条件により特徴づけられ
る複数のイベントが生じるフレームデータを検出する映
像信号処理システムの機能を説明するブロック図の一例
である。本実施例で取り扱うイベントには、後述するよ
うに、動画像再生装置から供給される映像信号から、例
えば一連のシーン毎に区切られたカットの変わり目の出
現や、連続して入力されたフレームについている字幕の
出現がある。図3のイベント検出ユニット304には、
複数のイベント(カット点検出部306、同一構図検出
部308、色調検出部310、字幕検出部312、デゾ
ルブ検出部314、リプレイ検出部316、スロー再生
検出部318)を検出する機能が設けられているが、本
発明はイベント(検索条件)の種類や数に限られるもの
ではない。
FIG. 3 is a block diagram for explaining the function of a video signal processing system for detecting frame data in which a plurality of events appearing in a video signal and each of which is characterized by a search condition is intended to support video editing. This is an example. As will be described later, events handled in the present embodiment include, for example, a video signal supplied from a moving image reproducing apparatus, for example, the appearance of a transition between cuts divided for each series of scenes or a frame input continuously. There is the appearance of subtitles. The event detection unit 304 in FIG.
A function to detect a plurality of events (cut point detection unit 306, identical composition detection unit 308, color tone detection unit 310, subtitle detection unit 312, dissolve detection unit 314, replay detection unit 316, slow playback detection unit 318) is provided. However, the present invention is not limited to the type and number of events (search conditions).

【0024】入力映像信号12は、映像編集ユニット3
30からの指示に基づき動画像再生装置あるいはチュー
ナから供給され、映像信号分配ユニット302により複
数の同じ性質の映像信号121〜128としてイベント
検出ユニット304、映像編集ユニット(ノンリニア編
集ユニット)330に入力される。映像信号分配ユニッ
ト302は既知の回路構成をもつものでよい。イベント
検出ユニット304の各検出処理部では、映像信号12
1〜128からまずデジタルフレームデータ13とタイ
ムコード14を生成して種々のイベントに関する映像信
号処理(イベント検出)が行われる。各検出部はフレー
ムが検出されると、それぞれの検出対象のイベントを代
表するイベントコードを検出フレームに対し付与する。
検出フレーム(データ)あるいは検出フレームに出現し
たイベントを代表するイベントコードは、タイムコード
とともに映像編集ユニット330に集められた後、編集
部332における編集作業に利用される。イベント検出
ユニット304で個別に処理された結果のそれぞれには
時間関係を正しく配列したタイムコードが記録されてい
ることになるので、各処理を施した結果の映像を統一的
に管理できる。イベントコードは、例えばバイナリコー
ドでよい。
The input video signal 12 is transmitted to the video editing unit 3
The video signal is supplied from the moving image reproducing apparatus or the tuner based on the instruction from the video signal generator 30, and is input to the event detection unit 304 and the video editing unit (non-linear editing unit) 330 as the video signals 121 to 128 having the same property by the video signal distribution unit 302. You. The video signal distribution unit 302 may have a known circuit configuration. In each detection processing unit of the event detection unit 304, the video signal 12
First, digital frame data 13 and time code 14 are generated from 1 to 128, and video signal processing (event detection) relating to various events is performed. When a frame is detected, each detecting unit adds an event code representing the event to be detected to the detected frame.
A detection frame (data) or an event code representing an event appearing in the detection frame is collected in the video editing unit 330 together with the time code, and then used for editing work in the editing unit 332. Since a time code in which the time relationship is correctly arranged is recorded in each of the results individually processed by the event detection unit 304, the video of the result of performing each processing can be uniformly managed. The event code may be, for example, a binary code.

【0025】次に、図3中のイベント検出ユニット30
4に含まれる各ブロックにおける具体的な検出処理につ
いて詳細に説明する。
Next, the event detection unit 30 in FIG.
The specific detection processing in each block included in No. 4 will be described in detail.

【0026】カット点検出部306は、カットの変わり
目を検出し、その時の代表画像(フレームデータ)ある
いは検索対象のカットの変わり目(イベント)を代表す
るイベントコードとタイムコードとを組とするレコード
にして、カット点検出部306内外に設けられた記憶領
域に記録する。システムがアクセスできる範囲ならば、
記録場所は問わない。カット点の検出手法については、
例えば、前述の特開平4−111181号「動画像の変
化点検出方法」で示された方法を利用してもよい。
The cut point detecting unit 306 detects a change in the cut, and generates a record in which a representative image (frame data) at that time or an event code and a time code representing the change (event) of the cut to be searched are paired. Then, recording is performed in a storage area provided inside and outside the cut point detection unit 306. If the system is accessible,
The recording location does not matter. For the detection method of the cut point,
For example, a method described in the above-mentioned Japanese Patent Application Laid-Open No. 4-111181, "Method of detecting change point of moving image" may be used.

【0027】同一構図検出部308は、予め定めた時間
以内の過去に遡って、同じ構図もしくは類似した構図の
絵がフレームに現れているかどうかを検出する。これに
はテンプレートマッチングに代表される画像比較手法を
用いればよい。具体的には、比較する2枚のフレームの
同じ座標位置にある画素の1つ1つについて、輝度差も
しくは色差を求めて全画面分の総和をとり、これを画像
間の相異度とする。この相異度が定めた閾値より小さけ
れば、同一もしくは類似性が高いと判定できる。この処
理結果としては、同一構図の区間情報を開始タイムコー
ドと終了タイムコードとで構成されるタイムコードのセ
ットおよびその時の代表画像あるいは検索対象構図(イ
ベント)を代表するイベントコードとを組とするレコー
ドが記録される。記録の場所については、カット点検出
部306の処理結果と同様にシステムがアクセス可能な
場所であればよい。
The same composition detecting unit 308 detects whether a picture of the same composition or a similar composition appears in a frame by going back in the past within a predetermined time. For this, an image comparison method represented by template matching may be used. Specifically, for each of the pixels at the same coordinate position of the two frames to be compared, a luminance difference or a color difference is obtained, and the sum of all the screens is calculated, and this is set as the difference between the images. . If the degree of difference is smaller than a predetermined threshold value, it can be determined that they are the same or similar. As a result of this processing, a set of a time code composed of a start time code and an end time code, and an event code representing a representative image or a search target composition (event) at that time are set as section information of the same composition. Record is recorded. The recording location may be any location that can be accessed by the system similarly to the processing result of the cut point detection unit 306.

【0028】色調検出部310は、予め定めた時間以内
の過去に遡って、同一の色調もしくは類似した色調の絵
がフレームに現れているかどうかを検出する。これに
は、例えば、フレーム全体についての色度数分布が利用
できる。これは構図に無関係な、どの色がどれだけ使わ
れているかを表した特徴量である。具体的には、比較す
る2枚のフレームのそれぞれについて、画像を表現する
画素の色を64色程度に分別し、それら各色がそれぞれ
フレーム中にどれだけ存在するかをカウントする。そし
て、得られた度数分布の各度数の差分の絶対値の総和を
もって色調の相異度とする。この相異度が定めた閾値よ
り小さければ、同一もしくは類似性が高いと判定でき
る。この処理結果は、同一色調の区間情報を開始タイム
コードと終了タイムコードとで構成されるタイムコード
のセットと検出対象色調(イベント)を代表するイベン
トコードとを組とするレコードとして記録される。記録
の場所については、システムがアクセス可能な場所であ
ればよい。
The color tone detecting section 310 detects whether a picture of the same color tone or a similar color tone appears in a frame retroactively within a predetermined time. For this purpose, for example, a chromaticity distribution for the entire frame can be used. This is a feature quantity that indicates which color is used and how much, regardless of the composition. Specifically, for each of the two frames to be compared, the colors of the pixels representing the image are classified into about 64 colors, and the number of those colors present in each frame is counted. Then, the sum of the absolute values of the differences between the respective frequencies of the obtained frequency distribution is defined as the color difference. If the degree of difference is smaller than a predetermined threshold value, it can be determined that they are the same or similar. This processing result is recorded as a record in which section information of the same color tone is set as a set of a time code composed of a start time code and an end time code, and an event code representing a detection target color tone (event). The recording location may be any location accessible by the system.

【0029】字幕検出部312は、映像中に字幕がフレ
ームに現れているかどうかを検出する。具体的な検出手
法は、例えば、1995年7月28日公開の特開平7−
192003号「動画像検索装置及び方法」に示された
技術を利用すればよい。この処理結果は、同一の字幕発
生区間を開始タイムコードと終了タイムコードとで構成
されるタイムコードのセットと検出対象字幕(イベン
ト)を代表するイベントコードを組とするレコードとし
て記録される。記録の場所については、システムがアク
セス可能な場所であればよい。
The subtitle detection unit 312 detects whether subtitles appear in a frame in the video. A specific detection method is described in, for example, Japanese Patent Application Laid-Open No. 7-1995 published on July 28, 1995.
What is necessary is just to use the technique shown in 192003 "Moving image search apparatus and method". This processing result is recorded as a record in which the same subtitle generation section is composed of a set of a time code composed of a start time code and an end time code and an event code representing a subtitle (event) to be detected. The recording location may be any location accessible by the system.

【0030】デゾルブ検出部314は、映像信号中の連
続するフレーム間のデゾルブ等の特殊効果を検出する。
具体的な検出手法は、特開平9−65287号「動画像
の特徴場面検出方法及び装置」の技術を利用してもよ
い。この処理結果は、デゾルブ発生区間を開始タイムコ
ードと終了タイムコードとで構成されるタイムコードの
セットと検出対象デゾルブ(イベント)を代表するイベ
ントコードを組とするレコードとして記録される。記録
の場所については、システムがアクセス可能な場所であ
ればよい。
The dissolve detector 314 detects a special effect such as a dissolve between successive frames in the video signal.
As a specific detection method, the technology of Japanese Unexamined Patent Publication No. 9-65287, “Method and Apparatus for Detecting Characteristic Scenes of Moving Image” may be used. This processing result is recorded as a record in which a set of a time code composed of a start time code and an end time code in a dissolve generation section and an event code representing a detection target dissolve (event) are set. The recording location may be any location accessible by the system.

【0031】リプレイ検出部316は、予め定めた時間
以内の過去に遡って、全く同一のフレームが現れている
かどうかを検出する。これは同一構図検出部308と同
様にテンプレートマッチング等によってフレームの比較
をすることで行える。しかし、比較する動画像間の各フ
レームごとにテンプレートマッチングを行っていたので
は処理時間がかかりすぎるので、各フレームを数文字分
程度のコードに変換し、そのコード列の照合をもって動
画像の照合とする。1枚のフレームに対応するコード単
体では情報量が極めて小さいが、動画像は多くのフレー
ムから構成されるので、1つの動画像が含むコードの数
も多く、動画像中におけるコードの一連のシーケンス
は、一片の動画像を特定するに足る十分な情報量を持
つ。こうした考え方に立脚した動画像の照合方法は、1
995年5月2日公開の特開平7−114567号「ビ
デオの検索方法および装置」に示されている。この処理
結果は、同一の映像が存在する区間を開始タイムコード
と終了タイムコードとで構成されるタイムコードのセッ
ト、ラベル番号および検出対象フレーム(イベント)を
代表するイベントコードとを組とするレコードが記録さ
れる。ラベル番号とは、映像信号中に含まれている複数
の種類のリプレイシーンに対し、検出順に付された通し
番号である。記録の場所についてはシステムがアクセス
可能な場所であればよい。
The replay detecting section 316 detects whether the same frame appears retroactively in the past within a predetermined time. This can be performed by comparing the frames by template matching or the like, as in the same composition detection unit 308. However, if template matching was performed for each frame between moving images to be compared, it would take too much processing time. Therefore, each frame was converted to a code of about several characters, and the matching of the code sequence was performed to match the moving image. And Although the amount of information of a single code corresponding to one frame is extremely small, since a moving image is composed of many frames, the number of codes included in one moving image is large, and a series of codes in the moving image Has a sufficient amount of information to identify a piece of moving image. A moving image collation method based on this concept is as follows.
This is disclosed in Japanese Unexamined Patent Publication No. Hei 7-114567 published on May 2, 995, “Video Search Method and Apparatus”. This processing result is a record in which a section in which the same video exists is a set of a time code set including a start time code and an end time code, a label number, and an event code representing a detection target frame (event). Is recorded. The label number is a serial number assigned to a plurality of types of replay scenes included in the video signal in the order of detection. The recording location may be any location accessible by the system.

【0032】スロー再生検出部818は、スロー再生の
フレームを検出する。スロー再生は、フレームを標準再
生時よりも長めの間隔(1/2スローで2倍、1/4ス
ローで4倍)で連続表示することで実現されるため、ス
ロー再生の映像の場合、A/D変換器7でデジタル化さ
れる映像データは、全く同じフレームが複数枚続くとい
う特徴がある(1/2スローで2枚、1/4スローで4
枚)。そこで、スロー再生かどうかの判定には、連続す
る2枚のフレームを調べ、そのテンプレートマッチング
によって画像相異度を調べる。そして、一定時間分の相
異度の推移を調べ、相異度が特定の周期で大きい値と小
さい値を繰り返しているようならば、スロー再生である
と判定する。例えば、1/2スローの場合には、2枚ず
つ同じフレームが続くので、相異度は小さい値と大きい
値を交互に繰り返す。1/4の場合には、小さい値が3
回続いて大きい値が1回というように繰り返す。但し、
動画像の場合、スロー再生でなくても連続する2枚のフ
レームは類似しているので、相異度の大小の判定は閾値
を低めにして行う必要がある。この処理結果は、スロー
再生の区間情報を開始タイムコードと終了タイムコード
とで構成されるタイムコードのセットと検出対象スロー
再生フレーム(イベント)を代表するイベントコードを
組とするレコードとして記録される。記録の場所につい
てはシステムがアクセス可能な場所であればよい。
The slow reproduction detecting section 818 detects a slow reproduction frame. Slow playback is realized by displaying frames continuously at longer intervals (twice in 1/2 slow, 4 times in 1/4 slow) than in standard playback. The video data digitized by the / D converter 7 has a feature that a plurality of exactly the same frames continue (two pieces in ス ロ ー slow and four pieces in 4 slow).
Sheet). Therefore, to determine whether or not the playback is slow, two consecutive frames are checked, and the image difference is checked by template matching. Then, the transition of the degree of difference for a certain time is checked, and if the degree of difference repeats a large value and a small value in a specific cycle, it is determined that slow reproduction is performed. For example, in the case of a ス ロ ー slow motion, the same frame continues every two frames, so that the degree of difference alternately repeats a small value and a large value. In the case of 1/4, the smaller value is 3
After that, the larger value is repeated once. However,
In the case of a moving image, two consecutive frames are similar even if they are not in slow playback, so that it is necessary to determine the magnitude of the difference with a lower threshold value. This processing result is recorded as a record in which the section information of the slow reproduction is set as a set of a time code composed of a start time code and an end time code and an event code representing a slow reproduction frame (event) to be detected. . The recording location may be any location accessible by the system.

【0033】以上、イベント検出ユニット304での各
検出処理を詳細に説明した。各処理の具体的な説明の中
では、処理結果の記録場所についてはシステムがアクセ
ス可能な場所であれば良いと説明した。しかし、本実施
例で処理結果を用いて編集処理を行う場合はこれらの処
理結果、すなわち、映像をカット単位に自動的に分割し
たり、デゾルブなどの特殊効果点で分割したり、被写体
の登場区間、字幕表示区間などの各種のイベントを自動
的に検出した結果は、編集部332に集められ、実際に
ユーザが編集処理を行う場合には、その検出したフレー
ムをアイコンとして表示画面上に一覧表示したり、映像
信号中でイベントの存在する区間をバーチャートで表示
したりして、ユーザの映像編集作業の一助とする。編集
対象の映像の構成内容が表示画面上に一覧で表示され、
ユーザが映像の構成を一目で把握できるので所望の場面
が見つかりやすく、また、カットという区切れのよい単
位で扱えるので編集が簡単にできるようになる。
In the above, each detection process in the event detection unit 304 has been described in detail. In the specific description of each process, it has been described that the process result recording location may be any location accessible by the system. However, when editing processing is performed using the processing results in the present embodiment, these processing results, that is, the image is automatically divided into cut units, divided into special effect points such as dissolve, and the appearance of the subject The results of automatically detecting various events such as a section and a subtitle display section are collected in the editing unit 332, and when the user actually performs an editing process, the detected frames are listed as icons on the display screen. Displaying or displaying a section of the video signal where the event is present in a bar chart helps the user to edit the video. The composition of the video to be edited is displayed in a list on the display screen,
Since the user can grasp the structure of the video at a glance, the desired scene can be easily found, and the editing can be easily performed because the user can handle the scene in a well-divided unit called a cut.

【0034】図4は編集部332に集められたイベント
検出結果を、表示画面上に一覧表にして表示されたとき
の例である。1)カット点、2)構図、3)色調、4)
字幕、5)デゾルブ、6)リプレイ、7)スロー再生の
イベント種類を縦軸にとり、横軸には時間をとって表示
することで、映像の全体構成が一目でわかるようにして
ある。このように複数のイベントをリアルタイムに検出
しながらも、検出されたフレームを特定するタイムコー
ドをそのフレームまたはフレームに出現したイベントを
代表するイベントコードとを組として記憶しているた
め、時間軸にそのタイムコードを合わせてそれぞれの検
出結果を表示することができ、正しい時間関係をもって
フレームを管理し表示することができる。図4におい
て、開始タイムコードで表わされる時点の例がts1,t
s2で、終了タイムコードで表わされる時点の例がte1
e2でそれぞれ示されている。
FIG. 4 shows an example in which the event detection results collected in the editing unit 332 are displayed as a list on a display screen. 1) Cut point, 2) Composition, 3) Color tone, 4)
The event type of subtitle, 5) dissolve, 6) replay, and 7) slow playback is shown on the vertical axis, and time is displayed on the horizontal axis, so that the entire configuration of the video can be understood at a glance. As described above, while detecting a plurality of events in real time, the time code specifying the detected frame is stored as a set with the event code representing the event appearing in the frame or the frame. The respective detection results can be displayed together with the time code, and the frames can be managed and displayed with a correct time relationship. In FIG. 4, examples of the time point represented by the start time code are t s1 and t s1 .
In s2 , an example of the time point represented by the end time code is t e1 ,
Each is indicated by t e2 .

【0035】これを利用して、編集部332では、ユー
ザによりカット点のアイコンがポインティングデバイス
で指定されると、そのアイコンで指定するタイムコード
に対応する映像記録部3の映像を瞬時に、かつ、正確に
検索し頭出して、再生することが可能になる。
Using this, when the user designates the icon of the cut point with the pointing device, the editing unit 332 instantaneously and immediately displays the image of the video recording unit 3 corresponding to the time code designated by the icon. , It will be possible to search, find, and play back accurately.

【0036】以上のイベント検出の映像信号処理を、一
般のテレビジョン信号のように1秒間に30フレーム発
生する映像信号に対して実時間で正確に行うためには、
超高速の映像処理装置が必要となる。これを安価なパー
ソナルコンピュータなどの処理装置を複数台使用して実
現する図5において、動画像再生システム10は図1の
ものと同じく、テレビジョン等の放送番組を受信するチ
ューナ装置、動画再生装置等である。映像分配器20は
図3における映像分配器302と同様の機能を有するも
のであり、入力された信号を同じ性質の複数の信号12
−1,12−2,…,12−nに分けて出力する。処理
装置2−1,2−2,…,2−nは図1におけるコンピ
ュータ2に相当するものである。
In order to perform the above-described video signal processing for event detection accurately and in real time with respect to a video signal generated 30 frames per second like a general television signal,
An ultra-high-speed video processing device is required. In FIG. 5, which realizes this by using a plurality of processing devices such as inexpensive personal computers, a moving image reproducing system 10 is a tuner device for receiving a broadcast program such as a television, and a moving image reproducing device as in FIG. And so on. The video distributor 20 has the same function as the video distributor 302 in FIG. 3, and converts the input signal into a plurality of signals 12 having the same property.
-1, 12-2,..., 12-n. The processing devices 2-1, 2-2,..., 2-n correspond to the computer 2 in FIG.

【0037】図5において、処理装置2−1はマスター
処理装置として機能する。このマスター処理装置2−1
は図5に示されるシステム全体を制御するとともに必要
に応じて映像編集も行う。従って、図3における映像編
集ユニット330の機能も果すものである。処理装置2
−2から処理装置2−nはそれぞれ分担するイベント検
出処理を行う。これらの処理装置2−2〜2−nはマス
ター処理装置からの指示に基づいて動作するスレーブ処
理装置である。どのイベント検出をどのスレーブ処理装
置に割り当てるかは、予め設定することができる。マス
ター処理装置2−1から、制御線11を介して、動画像
再生の指示が動画像再生装置10に発行されると、動画
像再生装置10はビデオテープ等の媒体に記録された映
像を再生したり、受信した放送映像を映像分配器20へ
出力する。再生された映像信号12は映像分配器20に
よりn本の全く同じ映像信号12−1〜12−nに分け
られ、処理装置2−1〜2−nにそれぞれ供給される。
各処理装置2−1〜2−nのそれぞれは、図1に示され
たコンピュータ2と同様の構成をもち、従ってデジタル
化されたフレームデータおよびタイムコードをメモリに
記憶して保持しており、そのメモリからデータを読み出
して、図3の説明で述べた、所定の映像信号処理(イベ
ント検出及びユーザ指示に応じた編集処理)を実行す
る。
In FIG. 5, the processing device 2-1 functions as a master processing device. This master processing device 2-1
Controls the entire system shown in FIG. 5 and also performs video editing as needed. Therefore, the function of the video editing unit 330 in FIG. 3 is also fulfilled. Processing unit 2
-2 to the processing devices 2-n perform the event detection processing assigned respectively. These processing devices 2-2 to 2-n are slave processing devices that operate based on instructions from the master processing device. Which event detection is assigned to which slave processing device can be set in advance. When an instruction to reproduce a moving image is issued from the master processing device 2-1 to the moving image reproducing device 10 via the control line 11, the moving image reproducing device 10 reproduces a video recorded on a medium such as a video tape. And outputs the received broadcast video to the video distributor 20. The reproduced video signal 12 is divided into n identical video signals 12-1 to 12-n by the video distributor 20, and supplied to the processing devices 2-1 to 2-n, respectively.
Each of the processing devices 2-1 to 2-n has the same configuration as the computer 2 shown in FIG. 1, and thus stores and holds digitized frame data and time code in a memory. The data is read from the memory, and the predetermined video signal processing (event detection and editing processing according to a user instruction) described in the description of FIG. 3 is executed.

【0038】各処理装置2−1〜2−nにおいて、図3
で説明した個々のイベント検出処理は、例えば図1にお
けるメモリ4中に格納されたイベント検出プログラム1
5により設けられており、このイベント検出プログラム
15がCPU3に読み出されて実行されることにより行
われる。なお、本実施例の説明では、各処理装置2−2
〜2−nに対して図3に示すイベント検出処理(30
6,308、310、312、314、316、31
8)の各々を割り当てることとしているが、コンピュー
タ2が毎秒30フレーム以上の画像処理が可能な高性能
の場合、実時間での動画像処理の条件を満足させる限り
においては、複数のイベント検出処理を1台のコンピュ
ータに割り当てることも可能である。マスター処理装置
2−1の指示で終了指示が発行されるまで、各処理装置
2−2〜2−nでは、担当のイベント検出処理を行う。
マスター処理装置2−1からの終了指示により各処理装
置2−2〜2−nは処理を終了し、処理結果(検出フレ
ームまたは検出フレームに出現したイベントを代表する
イベントコード)を検出フレームを特定するタイムコー
ドとともにメモリ4(図1)から読み出してマスター処
理装置2−1に、ネットワーク50を介して転送する。
マスター処理装置ではこれらの結果を使って、映像を編
集することになる。なお、図示されていないが、図5の
システムには各種の処理のため、少なくとも図1に示さ
れたものと同様の表示装置と入力指示装置が設けられ
る。
In each of the processing units 2-1 to 2-n, FIG.
The individual event detection process described in the above is performed by, for example, the event detection program 1 stored in the memory 4 in FIG.
The event detection program 15 is read out and executed by the CPU 3. In the description of the present embodiment, each processing device 2-2
Event detection processing (30) shown in FIG.
6,308,310,312,314,316,31
8), but if the computer 2 has a high performance capable of performing image processing of 30 frames or more per second, a plurality of event detection processes can be performed as long as the condition of the moving image processing in real time is satisfied. Can be assigned to one computer. Until a termination instruction is issued by the instruction of the master processing device 2-1, each of the processing devices 2-2 to 2-n performs an event detection process in charge.
In response to a termination instruction from the master processing device 2-1, each of the processing devices 2-2 to 2-n terminates the processing, specifies the processing result (detected frame or an event code representing an event that appears in the detected frame), and identifies the detected frame. The time code is read out from the memory 4 (FIG. 1) together with the time code to be transferred to the master processor 2-1 via the network 50.
The master processor edits the video using these results. Although not shown, the system of FIG. 5 is provided with at least the same display device and input instruction device as those shown in FIG. 1 for various processes.

【0039】図6は図5のシステム全体の制御フローチ
ャートである。まず、ボックス60でマスター処理装置
2−1から、各スレーブ処理装置2−2,2−3,…,
2−nにイベント検出の処理プログラムの起動の指示を
発行する。次に、ボックス62ではマスター処理装置2
−1から、動画像再生装置10に映像再生の指示を発行
する。
FIG. 6 is a control flowchart of the whole system of FIG. First, in the box 60, each of the slave processors 2-2, 2-3,...
An instruction to start an event detection processing program is issued to 2-n. Next, in box 62, the master processing device 2
From -1, an instruction to reproduce a video is issued to the moving image reproducing apparatus 10.

【0040】この状態で各種のイベント検出が各処理装
置2−1〜2−n上で実行される。所定時間の映像が処
理されると、ボックス64でマスター処理装置2−1か
ら動画像再生装置10へ映像再生停止の指示を発行す
る。続いて、ボックス66でマスター処理装置2−1か
ら各スレーブの処理装置2−2〜2−nにイベント検出
の処理停止の指示を発行する。そして、ボックス68で
マスター処理装置2−1に、各スレーブ処理装置2−2
〜2−nの処理結果を検出フレームに付随するタイムコ
ードをメモリ4から読み出してそれと共に転送する。最
後に、ボックス70でマスター処理装置2−1上で、処
理結果を表示しつつ、ユーザが映像を編集する。
In this state, various event detections are executed on each of the processing devices 2-1 to 2-n. When the video for a predetermined time is processed, an instruction to stop video reproduction is issued from the master processing device 2-1 to the moving image reproducing device 10 in box 64. Subsequently, in box 66, the master processing device 2-1 issues an instruction to stop processing of event detection to the processing devices 2-2 to 2-n of the slaves. Then, in box 68, the master processor 2-1 is connected to each slave processor 2-2.
The time code attached to the detected frame is read out from the memory 4 and the processing result of .about.2-n is transferred together therewith. Finally, the user edits the video while displaying the processing result on the master processing device 2-1 in box 70.

【0041】図7は、図5に示すパーソナルコンピュー
タなどの処理装置2−1〜2−nを複数台使用して実現
するシステムの別の一実施例である。
FIG. 7 shows another embodiment of a system realized by using a plurality of processing devices 2-1 to 2-n such as a personal computer shown in FIG.

【0042】動画像再生装置10からの映像信号には、
タイムコードが含まれていないケースや、含まれていて
もフレームアドレスが連続していない場合もある。この
ような場合は、図7に示すように動画像再生装置10か
らの映像信号に対して、タイムコードジェネレータ70
で生成した連続するフレームアドレス情報を付加して、
映像信号12を映像分配器20へ入力するようにする。
その他の構成や諸機能は図5に示す装置の説明と同じで
ある。このようにすると連続するフレームアドレスが映
像信号に付加されることになり、フレーム番号の付与さ
れていない映像や不連続なフレーム番号が付与されてい
る映像に対しても、複数の処理装置で映像処理した結果
を統合することが可能になる。
The video signal from the moving picture reproducing apparatus 10 includes
In some cases, the time code is not included, and even when the time code is included, the frame addresses are not continuous. In such a case, as shown in FIG. 7, a video signal from the moving image
Add the continuous frame address information generated in
The video signal 12 is input to the video distributor 20.
Other configurations and various functions are the same as those of the device shown in FIG. In this way, a continuous frame address is added to the video signal, and even a video without a frame number or a video with a discontinuous frame number can be processed by a plurality of processing devices. Processing results can be integrated.

【0043】図8は、図7の実施例に使用することがで
きるタイムコードジェネレータの構成例である。動画像
再生装置10から得られる映像信号12−aおよび垂直
同期信号12−bを入力として、フレームアドレス情報
を付加した映像信号12を出力する。タイムコードジェ
ネレータは垂直同期信号あるいはそれに基づいて発生さ
れたパルスをカウントするカウンタ71を有する。この
カウンタの値は1ずつ増加する。カウンタの内容はフレ
ーム毎に付加するフレームアドレス情報として利用す
る。このカウンタの内容をD/A変換器72でアナログ
に変換し、ミキシング部73で映像信号2−aの非映像
データ部の走査線部分に付加する。なお、カウンタの0
リセットはリセット信号11により行う。システムの起
動時に1回だけマスタのプロセッサから動画像再生装置
を経由してリセット信号を供給する。あるいは、直接マ
スタのプロセッサからリセット信号を発行してもよい。
FIG. 8 shows a configuration example of a time code generator which can be used in the embodiment of FIG. The video signal 12-a and the vertical synchronizing signal 12-b obtained from the moving image reproducing apparatus 10 are input, and the video signal 12 to which frame address information is added is output. The time code generator has a counter 71 that counts a vertical synchronization signal or a pulse generated based on the signal. The value of this counter increases by one. The contents of the counter are used as frame address information added for each frame. The content of this counter is converted into an analog signal by a D / A converter 72 and added to a scanning line portion of a non-video data portion of the video signal 2-a by a mixing section 73. Note that the counter 0
Reset is performed by a reset signal 11. A reset signal is supplied from the master processor only once when the system is started up via the moving image reproducing apparatus. Alternatively, a reset signal may be issued directly from the master processor.

【0044】[0044]

【発明の効果】上記実施例によれば、1つの入力ポート
から供給された映像信号中に含まれる非映像データから
タイムコードを直接生成するので、検出処理装置側の処
理の遅れに起因して、実際の映像と読み取ったタイムコ
ードがずれるという問題が生じることがない。さらに、
複数の検出処理を複数の処理装置で独立に処理できるの
で、個々の処理装置の処理能力は低くてよく、したがっ
て、低コストでスケーラブルなシステムが実現できる。
According to the above embodiment, the time code is directly generated from the non-video data included in the video signal supplied from one input port. Thus, there is no problem that the read time code is shifted from the actual video. further,
Since a plurality of detection processes can be independently processed by a plurality of processing devices, the processing capability of each processing device may be low, and thus a low-cost and scalable system can be realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例による映像信号処理システム
ブロック図である。
FIG. 1 is a block diagram of a video signal processing system according to an embodiment of the present invention.

【図2】システム上で映像を処理するときの映像信号の
構成図である。
FIG. 2 is a configuration diagram of a video signal when a video is processed on the system.

【図3】映像信号中に現れる検索条件に特徴づけられる
複数個のイベントが生じるフレームを検出する機能を説
明するためのブロック図である。
FIG. 3 is a block diagram for explaining a function of detecting a frame in which a plurality of events characterized by a search condition appearing in a video signal occurs.

【図4】映像信号中に検出されたイベントの一覧表示の
例である。
FIG. 4 is an example of a list display of events detected in a video signal.

【図5】処理装置を複数台使用して実現する、本発明の
一実施例による映像信号処理システムブロック図であ
る。
FIG. 5 is a block diagram of a video signal processing system according to an embodiment of the present invention, which is realized by using a plurality of processing devices.

【図6】図5のシステムの制御フローチャートである。FIG. 6 is a control flowchart of the system of FIG. 5;

【図7】処理装置を複数台使用して実現する、本発明の
一実施例による映像信号処理システムブロック図であ
る。
FIG. 7 is a block diagram of a video signal processing system according to an embodiment of the present invention, which is realized by using a plurality of processing devices.

【図8】タイムコードジェネレータの一構成例を示すブ
ロック図である。
FIG. 8 is a block diagram illustrating a configuration example of a time code generator.

【符号の説明】[Explanation of symbols]

1…ディスプレイ、2…コンピュータ、3…CPU、4
…メモリ、5…ポインティングデバイス、6…外部情報
記録装置、7…A/D変換器、8…アドレス情報デコー
ダ、11…制御線、12…映像信号、13…デジタル画
像データ、14…タイムコード、20…映像分配器、7
0…タイムコードジェネレータ。
1 display, 2 computer, 3 CPU, 4
... Memory, 5 pointing device, 6 external information recording device, 7 A / D converter, 8 address information decoder, 11 control line, 12 video signal, 13 digital image data, 14 time code, 20 ... Video distributor, 7
0: Time code generator.

Claims (18)

【特許請求の範囲】[Claims] 【請求項1】それぞれ映像データと非映像データとを含
む複数個のフレームを有し、非映像データには対応する
フレームを特定するフレームアドレス情報が含まれる映
像信号をフレーム単位で時系列に入力する入力手段と、 上記映像信号中の映像データをデジタルフレームデータ
列に変換する第1のA/D変換器と、該映像信号中の非
映像データに含まれた該アドレス情報をデジタル化して
複数個のタイムコードに変換する第2のA/D変換器
と、上記デジタルフレームデータ列および複数個のタイ
ムコードを記憶するメモリと、該フレームデータ列の各
フレームの特徴量を計算し、或るイベントが出現するフ
レームデータを検出するための検索条件を特徴量が満足
するかどうかを決定する手段と、及び、特徴量が検索条
件を満足したときそのフレームデータまたはそのフレー
ムデータに出現したイベントを代表するイベントコード
とフレームデータを特定するタイムコードとを組とする
レコードを生成する手段とを有することを特徴とする映
像信号処理システム。
1. A video signal including a plurality of frames each including video data and non-video data, and a video signal including frame address information specifying a corresponding frame is input to the non-video data in a time-series manner in frame units. An A / D converter for converting video data in the video signal into a digital frame data string; digitizing the address information included in the non-video data in the video signal to generate a plurality of digital data; A second A / D converter for converting the time code into a plurality of time codes, a memory for storing the digital frame data sequence and a plurality of time codes, and calculating a feature value of each frame of the frame data sequence. Means for determining whether a feature satisfies a search condition for detecting frame data in which an event appears, and a method for determining whether the feature satisfies the search condition. Means for generating a record in which a set of frame data or an event code representing an event appearing in the frame data and a time code specifying the frame data are generated.
【請求項2】複数個の処理装置と、それぞれ映像データ
と非映像データとを含む複数個のフレームを有し、非映
像データには対応するフレームを特定するフレームアド
レス情報が含まれる、映像信号を上記複数個の処理装置
に分配する分配装置とを有する映像信号処理システムで
あって、上記処理装置のそれぞれは、 上記分配された映像信号をフレーム単位で時系列に入力
する入力手段と、 上記映像信号中の映像データをデジタルフレームデータ
列に変換する第1のA/D変換器と、該映像信号中の非
映像データに含まれた該アドレス情報をデジタル化して
複数個のタイムコードに変換する第2のA/D変換器
と、上記デジタルフレームデータ列および複数個のタイ
ムコードを記憶するメモリと、該フレームデータ列の各
フレームの特徴量を計算し、或るイベントが出現するフ
レームデータを検出するための検索条件を特徴量が満足
するかどうかを決定する手段と、及び、特徴量が検索条
件を満足したときそのフレームデータまたはそのフレー
ムデータに出現したイベントを代表するイベントコード
とフレームデータを特定するタイムコードとを組とする
レコードを生成する手段とを有し、 上記各処理装置のそれぞれは相互に異なる特徴量の計算
をし、その特徴量が検索条件を満足するかどうかを決定
し、上記処理装置の1つにおいて、残りの処理装置によ
り生成されたレコードが上記タイムコードに基づいて時
系列に配列されることを特徴とする映像処理システム。
2. A video signal comprising a plurality of processing units and a plurality of frames each including video data and non-video data, wherein the non-video data includes frame address information for specifying a corresponding frame. A distribution device that distributes the distributed video signal to the plurality of processing devices, wherein each of the processing devices includes: an input unit configured to input the distributed video signal in a time series in frame units; A first A / D converter for converting video data in a video signal into a digital frame data sequence, and digitizing the address information included in non-video data in the video signal to convert the address information into a plurality of time codes A second A / D converter, a memory for storing the digital frame data sequence and a plurality of time codes, and a feature amount of each frame of the frame data sequence. Means for calculating and determining whether or not the feature amount satisfies a search condition for detecting frame data in which an event appears; and, when the feature amount satisfies the search condition, the frame data or the frame data. Means for generating a record as a set of an event code representing an event that has appeared and a time code for specifying frame data, wherein each of the processing devices calculates mutually different feature amounts, Determining whether the feature quantity satisfies a search condition, and in one of the processing devices, records generated by the remaining processing devices are arranged in a time series based on the time code; Processing system.
【請求項3】それぞれ映像データと非映像データとを含
む複数個のフレームを有する映像信号に対して各フレー
ムを特定するアドレス情報を該映像信号の非映像データ
に付加するタイムコードジェネレータと、 複数個の処理装置と、 該タイムコードジェネレータからアドレス情報の付加さ
れた映像信号を受けるようにタイムコードジェネレータ
に接続され、その映像信号を上記複数個の処理装置に分
配する分配装置とを有する映像信号処理システムであっ
て、上記処理装置のそれぞれは、 上記アドレス情報が付加された映像信号をフレーム単位
で時系列に入力する入力手段と、 上記映像信号中の映像データをデジタルフレームデータ
列に変換する第1のA/D変換器と、該映像信号中の非
映像データに含まれた該アドレス情報をデジタル化して
複数個のタイムコードに変換する第2のA/D変換器
と、上記デジタルフレームデータ列および複数個のタイ
ムコードを記憶するメモリと、該フレームデータ列の各
フレームの特徴量を計算し、或るイベントが出現するフ
レームデータを検出するための検索条件を特徴量が満足
するかどうかを決定する手段と、及び、特徴量が検索条
件を満足したときそのフレームデータまたはそのフレー
ムデータに出現したイベントを代表するイベントコード
とフレームデータを特定するタイムコードとを組とする
レコードを生成する手段とを有し、 上記各処理装置のそれぞれは相互に異なる特徴量を計算
し、その特徴量が検索条件を満足するかどうか決定し、
上記処理装置の1つにおいて、残りの処理装置により生
成されたレコードの上記タイムコードに基づいて時系列
に配列されることを特徴とする映像信号処理システム。
3. A time code generator for adding address information specifying each frame to a non-video data of a video signal having a plurality of frames each including video data and non-video data, Video signal comprising: a plurality of processing devices; and a distribution device connected to the time code generator so as to receive the video signal added with the address information from the time code generator, and distributing the video signal to the plurality of processing devices. A processing system, wherein each of the processing devices includes: an input unit configured to input a video signal to which the address information is added in a time series on a frame basis; and converts video data in the video signal into a digital frame data sequence. A first A / D converter, and digitizing the address information included in the non-video data in the video signal A second A / D converter for converting the data into a plurality of time codes, a memory for storing the digital frame data sequence and the plurality of time codes, and calculating a feature amount of each frame of the frame data sequence. Means for determining whether or not the feature value satisfies a search condition for detecting frame data in which an event appears; and, when the feature value satisfies the search condition, the frame data or the frame data Means for generating a record in which an event code representative of the generated event and a time code specifying the frame data are set, and each of the processing devices calculates a feature amount different from each other, and the feature amount is Determine whether the search criteria are satisfied,
A video signal processing system, wherein one of the processing devices is arranged in a time series based on the time code of records generated by the remaining processing devices.
【請求項4】複数フレームを含むアナログ動画像信号か
らデジタルフレーム画像列を生成する手段と、 上記アナログ動画像信号からフレーム画像列の各フレー
ム画像に付加されているタイムコードを生成する手段
と、 上記デジタルフレーム画像列と、イベントを代表するイ
ベントコードのデータを備え、該フレーム画像列を対象
としてイベントが出現するフレームを検出する処理プロ
グラムと、上記タイムコードとを格納するメモリと、 上記処理プログラムを読み出して該検出処理を実行し、
該処理の結果検出されたフレーム画像あるいはそのフレ
ーム画像に出現するイベントを代表するイベントコード
とそのフレーム画像とを特定するタイムコードとを組に
したレコードを作成する制御手段とを有することを特徴
とする映像信号処理システム。
4. A means for generating a digital frame image sequence from an analog moving image signal including a plurality of frames; a means for generating a time code added to each frame image of the frame image sequence from the analog moving image signal; A processing program that includes the digital frame image sequence and event code data representing the event, and detects a frame in which the event appears in the frame image sequence; a memory that stores the time code; And performs the detection processing,
Control means for creating a record in which a set of a frame image detected as a result of the processing or an event code representing an event appearing in the frame image and a time code specifying the frame image are provided. Video signal processing system.
【請求項5】複数フレームを含むアナログ動画像信号か
らデジタルフレーム画像列を生成する手段と、 上記アナログ動画像信号からフレーム画像列の各フレー
ム画像に付加されているタイムコードを生成する手段
と、 上記デジタルフレーム画像列と、イベントを代表するイ
ベントコードのデータを備え、該フレーム画像列を対象
としてイベントが出現するフレーム画像を検出する処理
プログラムと、上記タイムコードとを格納するメモリ
と、 上記処理プログラムを読み出して該検出処理を実行し、
該検出処理の結果検出されたフレーム画像あるいはその
フレーム画像に出現するイベントを代表するイベントコ
ードとそのフレーム画像を特定するタイムコードとを組
にしたレコードを作成する制御手段と、 表示装置とを有し、 該表示装置には検出された上記フレーム画像の出現時間
範囲が、検出されたタイムコードに基づいて表示された
フレーム画像列に対応して表示されることを特徴とする
映像信号処理システム。
5. A means for generating a digital frame image sequence from an analog moving image signal including a plurality of frames; a means for generating a time code added to each frame image of the frame image sequence from the analog moving image signal; A processing program that includes the digital frame image sequence and event code data representing an event, detects a frame image in which an event appears in the frame image sequence, and a memory that stores the time code; Read out the program and execute the detection process;
Control means for creating a record in which an event code representative of a frame image detected as a result of the detection processing or an event appearing in the frame image and a time code specifying the frame image, and a display device; A video signal processing system, wherein the display device displays an appearance time range of the detected frame image corresponding to a frame image sequence displayed based on the detected time code.
【請求項6】パーソナルコンピュータの拡張スロットに
挿入され、上記パーソナルコンピュータのバスラインに
接続される接続部と、上記接続部を介して入力される映
像信号から、該映像信号のフレームアドレス情報を読み
出して出力するアドレス情報デコーダとを備えたアドレ
ス情報読みとり機能を有する拡張ボード。
6. A connection portion inserted into an expansion slot of a personal computer and connected to a bus line of the personal computer, and frame address information of the video signal is read from a video signal input through the connection portion. An extension board having an address information reading function provided with an address information decoder for outputting an address information.
【請求項7】それぞれ映像データと非映像データとを含
む複数個のフレームを有し、非映像データには対応する
フレームを特定するフレームアドレス情報が含まれる、
映像信号をフレーム単位で時系列に入力する入力手段
と、 上記映像信号中の映像データをデジタルフレームデータ
列に変換して記憶する第1のメモリ領域と、該映像信号
中の非映像データに含まれた該アドレス情報をデジタル
化して複数のタイムコードに変換して記憶する第2のメ
モリ領域と、イベントを代表するイベントコードのデー
タを備え該フレームデータ列の各フレームの特徴量を得
る手順を含む処理プログラムを記憶する第3の領域と、
及び、該フレームデータまたはフレームデータに出現し
たイベントを代表するイベントコードとそのフレームデ
ータを特定するタイムコードとを組とするレコードを記
録する第4の領域とを有する記憶手段と、上記処理プロ
グラムを読み出してそこに示された処理を実行する制御
手段とを有することを特徴とする映像信号処理システ
ム。
7. A plurality of frames each including video data and non-video data, wherein the non-video data includes frame address information for specifying a corresponding frame.
Input means for inputting a video signal in a time series on a frame basis; a first memory area for converting video data in the video signal into a digital frame data string and storing the digital video data; and a non-video data included in the video signal A second memory area for digitizing the obtained address information and converting it into a plurality of time codes and storing the digitized address information, and a procedure for obtaining a feature amount of each frame of the frame data sequence including event code data representing an event. A third area for storing a processing program including:
A storage unit having a fourth area for recording a record in which the frame data or an event code representing an event appearing in the frame data and a time code specifying the frame data are recorded; Control means for reading out and executing the processing indicated therein.
【請求項8】複数個の処理装置と、それぞれ映像データ
と非映像データとを含む複数個のフレームを有し、非映
像データには対応するフレームを特定するフレームアド
レス情報が含まれる、映像信号を上記複数個の処理装置
に分配する分配装置とを有する映像信号処理システムで
あって、上記処理装置のそれぞれは、 上記分配された映像信号をフレーム単位で時系列に入力
する入力手段と、 上記映像信号中の映像データをデジタルフレームデータ
列に変換して記憶する第1のメモリ領域と、該映像信号
中の非映像データに含まれた該アドレス情報をデジタル
化して複数のタイムコードに変換して記憶する第2のメ
モリ領域と、イベントを代表するイベントコードのデー
タを備え該フレームデータ列の各フレームの特徴量を得
る手順を含む処理プログラムを記憶する第3の領域と、
及び、該フレームデータまたはフレームデータに出現し
たイベントを代表するイベントコードとそのフレームデ
ータを特定するタイムコードとを組とするレコードを記
録する第4の領域とを有する記憶手段と、上記処理プロ
グラムを読み出してそこに示された処理を実行する制御
手段とを有し、 上記処理装置のそれぞれは異なる処理プログラムを独立
に実行し、上記映像処理装置の1つにおいて、上記異な
る処理プログラムが実行された結果得られた処理結果が
上記タイムコードに基づいて統合されることを特徴とす
る映像信号処理システム。
8. A video signal comprising a plurality of processing units and a plurality of frames each including video data and non-video data, wherein the non-video data includes frame address information for specifying a corresponding frame. A distribution device that distributes the distributed video signal to the plurality of processing devices, wherein each of the processing devices includes: an input unit configured to input the distributed video signal in a time series in frame units; A first memory area for converting the video data in the video signal into a digital frame data string and storing the digital data; and converting the address information included in the non-video data in the video signal into a plurality of time codes. Including a second memory area for storing and storing event code data representing an event and obtaining a feature amount of each frame of the frame data sequence. A third area for storing a program,
A storage unit having a fourth area for recording a record in which the frame data or an event code representing an event appearing in the frame data and a time code specifying the frame data are recorded; Control means for reading and executing the processing indicated therein, wherein each of the processing devices independently executes a different processing program, and the one of the video processing devices executes the different processing program. A video signal processing system, wherein the processing results obtained are integrated based on the time code.
【請求項9】それぞれ映像データと非映像データとを含
む複数個のフレームを有し、非映像データには対応する
フレームを特定するフレームアドレス情報が含まれる映
像信号を処理する方法において、上記映像信号をフレー
ム単位で時系列に処理装置に入力し、該処理装置では、
該映像信号の映像データをデジタルフレームデータ列に
変換し、そのデジタルフレームデータ列をメモリに記録
し、かつ、該映像信号の非映像データに含まれた該アド
レス情報をデジタル化してタイムコードとして上記メモ
リに記録し、該フレームデータ列の各フレームの特徴量
を計算し、或るイベントが出現するフレームデータを検
出するための検索条件をその特徴量が満足するかどうか
を決定し、もし満足していれば該フレームデータまたは
該フレームデータを代表するタイムコードを組とするレ
コードを生成する各ステップを有することを特徴とする
映像信号処理方法。
9. A method of processing a video signal having a plurality of frames each including video data and non-video data, wherein the non-video data includes frame address information for specifying a corresponding frame. A signal is input to a processing device in a time series in a frame unit, and in the processing device,
The video data of the video signal is converted into a digital frame data sequence, the digital frame data sequence is recorded in a memory, and the address information included in the non-video data of the video signal is digitized and converted as a time code. Recorded in a memory, calculates the feature amount of each frame of the frame data sequence, determines whether the feature amount satisfies a search condition for detecting frame data in which a certain event appears, and determines whether the feature amount satisfies the search condition. A video signal processing method comprising the steps of: generating a record in which the frame data or a time code representative of the frame data is set.
【請求項10】請求項9において、上記処理装置におけ
る特徴量の計算および特徴量が検索条件を満足している
かどうかの決定ステップは、入力された映像信号のフレ
ームデータ列における変化点を検出することを含むこと
を特徴とする映像信号処理方法。
10. The method according to claim 9, wherein the step of calculating the characteristic amount and determining whether the characteristic amount satisfies the search condition in the processing device detects a change point in the frame data sequence of the input video signal. A video signal processing method.
【請求項11】アナログ映像データ列とアナログ非映像
データとを含むアナログ映像信号が、それを介して供給
される映像信号入力ポートと、 上記映像信号入力ポートを介して供給される上記映像信
号のアナログ映像データ列をデジタルフレームデータ列
に変換する第1の変換器と、 上記映像信号入力ポートを介して供給される上記映像信
号のアナログ非映像データを、それぞれ上記デジタルフ
レームデータ列のうちの対応の一つのデジタルフレーム
データを代表する複数個のタイムコードに変換する第2
の変換器と、 上記デジタルフレームデータ列およびそれらに対応する
タイムコードを記憶するメモリと、 イベントコードによりイベントが代表され、そのような
イベントを検出するための検索条件を設定する手段と、 上記メモリ内のデジタルフレームデータ列の中から上記
検索条件を満足するデジタルフレームデータを検出し、
その検出されたフレームデータを特定するタイムコード
および検出されたデジタルフレームに出現したイベント
を代表するイベントコードを指示する手段とを有するこ
とを特徴とする映像信号処理システム。
11. A video signal input port through which an analog video signal including an analog video data sequence and analog non-video data is supplied, and a video signal input port supplied through said video signal input port. A first converter for converting an analog video data sequence into a digital frame data sequence; and a non-video data analog video signal supplied via the video signal input port, each of which corresponds to one of the digital frame data sequences. To convert a plurality of time codes representing one digital frame data into a plurality of time codes
A memory for storing the digital frame data string and the time code corresponding thereto, an event represented by an event code, and means for setting a search condition for detecting such an event; and the memory Detect digital frame data that satisfies the above search condition from the digital frame data sequence in
Means for instructing a time code specifying the detected frame data and an event code representing an event appearing in the detected digital frame.
【請求項12】請求項11において、上記アナログ映像
データ列の各映像データに対し、上記アナログ映像信号
のアナログ非映像データの一部として付加するタイムコ
ードジェネレータを有することを特徴とする映像信号処
理システム。
12. A video signal processing apparatus according to claim 11, further comprising a time code generator for adding, as a part of analog non-video data of said analog video signal, to each video data of said analog video data sequence. system.
【請求項13】請求項11において、動画再生装置を有
し、その出力端子は上記アナログ映像信号を供給するた
めに上記映像信号入力ポートに接続されることを特徴と
する映像信号処理システム。
13. A video signal processing system according to claim 11, further comprising a moving picture reproducing apparatus, wherein an output terminal thereof is connected to said video signal input port for supplying said analog video signal.
【請求項14】請求項11において、チューナを有し、
その出力端子は上記アナログ映像信号を供給するため上
記映像信号入力ポートに接続されることを特徴とする映
像信号処理システム。
14. The method according to claim 11, further comprising a tuner,
A video signal processing system, wherein the output terminal is connected to the video signal input port for supplying the analog video signal.
【請求項15】それぞれ映像信号入力ポートを備えた複
数個の処理装置と、それら複数個の処理装置のそれぞれ
の映像信号入力ポートにアナログ映像データ列とアナロ
グ非映像データとを含むアナログ映像信号を分配する映
像信号分配ユニットとを有し、 上記複数個の処理装置のそれぞれは、 上記映像信号入力ポートを介して供給される上記映像信
号のアナログ映像データ列をデジタルフレームデータ列
に変換する第1の変換器と、 上記映像信号入力ポートを介して供給される上記映像信
号のアナログ非映像データを、それぞれ上記デジタルフ
レームデータ列のうちの対応の一つのデジタルフレーム
データを特定する複数個のタイムコードに変換する第2
の変換器と、 上記デジタルフレーム列およびそれらに対応するタイム
コードを記憶するメモリと、 イベントコードによりイベントが代表され、そのような
イベントを検出するための検索条件を設定する手段と、 上記メモリ内のデジタルフレームデータ列の中から上記
検索条件を満足するデジタルフレームデータを検出し、
その検出されたフレームデータを特定するタイムコード
および検出されたデジタルフレームデータに出現したイ
ベントを代表するイベントコードを指示する手段とを備
え、 上記処理装置の一つは、残余の処理装置を管理し、残余
の処理装置による検出結果を回収することを特徴とする
映像信号処理システム。
15. A plurality of processing devices each having a video signal input port, and an analog video signal including an analog video data sequence and analog non-video data is supplied to each video signal input port of each of the plurality of processing devices. A video signal distribution unit for distributing the video signal, wherein each of the plurality of processing devices converts an analog video data stream of the video signal supplied via the video signal input port into a digital frame data stream. And a plurality of time codes each of which specifies analog one non-video data of the video signal supplied through the video signal input port and a corresponding one of the digital frame data strings. Convert to the second
A memory for storing the digital frame sequence and the time code corresponding thereto, an event represented by an event code, and a means for setting a search condition for detecting such an event; Detect digital frame data that satisfies the above search condition from the digital frame data sequence of
Means for indicating a time code specifying the detected frame data and an event code representing an event appearing in the detected digital frame data, wherein one of the processing devices manages the remaining processing devices. A video signal processing system for collecting detection results obtained by the remaining processing devices.
【請求項16】アナログ映像データ列とアナログ非映像
データとを含むアナログ映像信号を処理する方法であっ
て、 上記映像信号のアナログ映像データ列をデジタルフレー
ムデータ列に変換することと、 上記映像信号のアナログ非映像データを、それぞれ対応
のデジタルフレームデータを特定する複数個のタイムコ
ードに変換することと、 上記デジタルフレームデータ列および複数個のタイムコ
ードメモリに記憶することと、 上記メモリ内におけるデジタルフレームデータ列の中か
ら或るイベントを検出するための検索条件を満足するデ
ジタルフレームデータを検出し、その検出されたデジタ
ルフレームデータを特定するタイムコードおよび検出さ
れたデジタルフレームデータに出現したイベントを代表
するイベントコードを指示することとを有することを特
徴とするアナログ映像信号を処理する方法。
16. A method for processing an analog video signal including an analog video data sequence and analog non-video data, comprising: converting an analog video data sequence of the video signal into a digital frame data sequence; Converting the analog non-video data into a plurality of time codes that respectively specify the corresponding digital frame data; storing the digital non-video data in the digital frame data sequence and a plurality of time code memories; Digital frame data that satisfies a search condition for detecting a certain event is detected from a frame data sequence, and a time code specifying the detected digital frame data and an event appearing in the detected digital frame data are detected. Indicate a representative event code And a method for processing an analog video signal.
【請求項17】請求項16において、各タイムコードが
デジタルフレームデータ列の中の対応のデジタルフレー
ムデータを正しく特定するよう、上記アナログ映像デー
タ列とアナログ非映像データとを含むアナログ映像信号
は、映像信号入力ポートを介して供給されることを特徴
とするアナログ映像信号を処理する方法。
17. An analog video signal including the analog video data sequence and the analog non-video data so that each time code correctly specifies a corresponding digital frame data in the digital frame data sequence. A method for processing an analog video signal supplied via a video signal input port.
【請求項18】請求項16において、上記イベントコー
ドおよびタイムコードを用いてフレームを検索すること
と、検索されたフレームを表示することとを有すること
を特徴とするアナログ映像信号を処理する方法。
18. The method for processing an analog video signal according to claim 16, further comprising: searching for a frame using the event code and the time code; and displaying the searched frame.
JP10078826A 1997-03-31 1998-03-26 Synchronous video processing system and method Pending JPH10336593A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10078826A JPH10336593A (en) 1997-03-31 1998-03-26 Synchronous video processing system and method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP7958597 1997-03-31
JP9-79585 1997-03-31
JP10078826A JPH10336593A (en) 1997-03-31 1998-03-26 Synchronous video processing system and method

Publications (1)

Publication Number Publication Date
JPH10336593A true JPH10336593A (en) 1998-12-18

Family

ID=26419881

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10078826A Pending JPH10336593A (en) 1997-03-31 1998-03-26 Synchronous video processing system and method

Country Status (1)

Country Link
JP (1) JPH10336593A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008108166A (en) * 2006-10-27 2008-05-08 Matsushita Electric Ind Co Ltd Musical piece selection device and musical piece selection method
JP2009302779A (en) * 2008-06-11 2009-12-24 Casio Hitachi Mobile Communications Co Ltd Video with caption-reproducing device, and video with caption-reproducing method and program
US7720235B2 (en) 2001-10-22 2010-05-18 Sony Corporation Signal processing method and apparatus, signal processing program, and recording medium
US7729545B2 (en) 2001-10-22 2010-06-01 Sony Corporation Signal processing method and method for determining image similarity
JP2011199477A (en) * 2010-03-18 2011-10-06 Hitachi Kokusai Electric Inc Video signal capturing device
US8255214B2 (en) 2001-10-22 2012-08-28 Sony Corporation Signal processing method and processor

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7720235B2 (en) 2001-10-22 2010-05-18 Sony Corporation Signal processing method and apparatus, signal processing program, and recording medium
US7729545B2 (en) 2001-10-22 2010-06-01 Sony Corporation Signal processing method and method for determining image similarity
US8255214B2 (en) 2001-10-22 2012-08-28 Sony Corporation Signal processing method and processor
JP2008108166A (en) * 2006-10-27 2008-05-08 Matsushita Electric Ind Co Ltd Musical piece selection device and musical piece selection method
JP2009302779A (en) * 2008-06-11 2009-12-24 Casio Hitachi Mobile Communications Co Ltd Video with caption-reproducing device, and video with caption-reproducing method and program
JP2011199477A (en) * 2010-03-18 2011-10-06 Hitachi Kokusai Electric Inc Video signal capturing device

Similar Documents

Publication Publication Date Title
US7031596B2 (en) Digital video reproduction method, digital video reproducing apparatus and digital video recording and reproducing apparatus
US5818439A (en) Video viewing assisting method and a video playback system therefor
US7181757B1 (en) Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing
US6341168B1 (en) Method and apparatus for detecting and displaying a representative image of a shot of short duration in a moving image
US20050198671A1 (en) Transmit device and method thereof, record/play device and method thereof as well as recording system and media
JP2003052011A (en) Video editing method and system for editing video project
JP4278189B2 (en) Digital multimedia editing and data management system
EP1222634A1 (en) Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing
JPH09219835A (en) Method and device for summarizing video
JP2000350156A (en) Method for storing moving picture information and recording medium recording the information
US20030095792A1 (en) Information recording and playback apparatus
JPH10336593A (en) Synchronous video processing system and method
JP3543491B2 (en) Moving image representative screen display method, detection method and apparatus
CN113301389B (en) Comment processing method and device for generating video
US20030115605A1 (en) Broadcast program timetable generating apparatus and method thereof
JPH0779404A (en) Method and device for generating representative picture list of video image
JP4366439B1 (en) Video content editing method, editing apparatus using the same, and remote editing apparatus
JPH1032773A (en) Summary video browsing method/device
US6782549B1 (en) Programme retrieval system and method, and storage in which programme retrieval program is stored
US6243086B1 (en) Reproduction apparatus
JP2008118523A (en) Reservation acceptance device and reservation acceptance method
JP2001054076A (en) Program information display device and program recording medium
JPH0895986A (en) Database device for moving image and registering method for the same
US6731862B1 (en) Video image edit device
JP3461148B2 (en) Automatic recording device for programs and specific scenes