JP3144285B2 - Video processing equipment - Google Patents

Video processing equipment

Info

Publication number
JP3144285B2
JP3144285B2 JP31200495A JP31200495A JP3144285B2 JP 3144285 B2 JP3144285 B2 JP 3144285B2 JP 31200495 A JP31200495 A JP 31200495A JP 31200495 A JP31200495 A JP 31200495A JP 3144285 B2 JP3144285 B2 JP 3144285B2
Authority
JP
Japan
Prior art keywords
video
image
unit
time
file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP31200495A
Other languages
Japanese (ja)
Other versions
JPH09154097A (en
Inventor
克洋 金森
伸 山田
康弘 菊池
幸治 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP31200495A priority Critical patent/JP3144285B2/en
Publication of JPH09154097A publication Critical patent/JPH09154097A/en
Application granted granted Critical
Publication of JP3144285B2 publication Critical patent/JP3144285B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、音声を含む映像
を、地上波放送、衛星放送、ケーブルテレビ、ビデオテ
ープなどから入力して再生時にユーザに応じた映像再生
方法を提供するための映像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video processing for inputting a video including audio from a terrestrial broadcast, a satellite broadcast, a cable television, a video tape or the like and providing a video reproduction method suitable for a user at the time of reproduction. Related to the device.

【0002】[0002]

【従来の技術】従来、知られている放送受信記録再生装
置として特開平6−105280号公報がある。放送映
像はVTRなどを介在せずに直接リアルタイムに圧縮・
ディスク装置に録画され、圧縮映像を伸張してから映像
のシーン変化を検出して間引き映像を生成し、同様にデ
ィスク装置に蓄積される。ユーザは間引き映像から短時
間で見たいシーンを選択し、番組の途中から映像を再生
できる。これによって従来家庭用VTRで予約録画する
場合、番組を探すのに多くの時間がかかっていた、とい
う問題が解決されている。
2. Description of the Related Art Conventionally, as a known broadcast receiving / recording / reproducing apparatus, there is JP-A-6-105280. Broadcast video is directly compressed in real time without VTR
The recorded video is recorded on the disk device, and after the compressed video is decompressed, a scene change of the video is detected to generate a thinned-out video, which is similarly stored in the disk device. The user can select a scene desired to be viewed in a short time from the culled video and reproduce the video from the middle of the program. This solves the problem that it has conventionally taken a lot of time to search for a program when making a scheduled recording with a home VTR.

【0003】[0003]

【発明が解決しようとする課題】第1に特開平6−10
5280号公報で示す構成では、単体システムで映像圧
縮と再生する場合を記載しており、間引き画像からみた
い映像を探し、どの部分に記録されている番組でもディ
スク装置から即座に映像を再生できると想定されてい
る。しかし、現実には圧縮映像を蓄積するサーバと映像
再生を行うクライアントがコンピュータネットワークに
接続されており、ネットワークの速度限界により通常の
映像再生が困難な場合やクライアントで使用している計
算機能力の限界から映像再生が困難な場合もある。この
場合には間引き画像、すなわちインデクス画像から見た
い映像を選択した後に、映像再生のための別の手段が必
要になるという課題がある。また、近年はWWWブラウ
ザのような手段によりインターネットへ地球的な規模で
映像を提供することも行われており、その場合にはクラ
イアント側の端末状態や回線容量をあらかじめ知ること
はほぼ不可能であるから大きな課題となる。
SUMMARY OF THE INVENTION First, Japanese Patent Application Laid-Open No. Hei 6-10
The configuration disclosed in Japanese Patent No. 5280 discloses a case in which video compression and reproduction are performed by a single system. A video to be viewed from a thinned image is searched, and it is assumed that a video recorded in any part can be reproduced immediately from a disk device. It is assumed. However, in reality, a server that stores compressed video and a client that plays video are connected to a computer network, and when the normal video playback is difficult due to the speed limit of the network, or when the computing function used by the client is limited It is sometimes difficult to reproduce the video. In this case, there is a problem that another means for reproducing the video is required after selecting the video to be viewed from the thinned image, that is, the index image. Also, in recent years, video has been provided to the Internet on a global scale by means such as a WWW browser, in which case it is almost impossible to know in advance the terminal status and the line capacity of the client side. This is a major issue.

【0004】第2に放送映像では、シーン切り替えは編
集作業によりワイプ、デゾルブ、スライドなど特殊な編
集効果が多用される。これら編集効果などのシーンチェ
ンジ検出については、1秒30フレームある映像の全フ
レームの画像処理が前提になる。TV放送をリアルタイ
ムに圧縮蓄積する場合、この秒30フレームのレートで
のキャプチャと圧縮の性能を満たすものとして、MPE
Gリアルタイムエンコーダがある。しかしMPEGのリ
アルタイムのエンコード処理は非常に負荷がかかりソフ
トウエアでの実現は難しく、一方ハードウエアは高価で
通常の家庭やオフィスでは用いることはできない。した
がって特開平6−105280号公報で示す構成では、
安価なシステム構成がとれないという課題がある。ま
た、MPEGエンコード手法はフレーム間圧縮を用いて
おり、時間方向の編集、やサンプリングなどユーザ好み
の表示を自由に行う場合に障害になる。
Second, in the case of broadcast video, scene editing uses special editing effects such as wipe, dissolve, slide, etc. by editing work. The detection of a scene change such as an editing effect requires image processing of all frames of a video having 30 frames per second. In the case of real-time compression and accumulation of TV broadcasts, the MPE must satisfy the performance of capture and compression at a rate of 30 frames per second.
There is a G real-time encoder. However, MPEG real-time encoding processing is very burdensome and difficult to implement in software, while hardware is expensive and cannot be used in ordinary homes and offices. Therefore, in the configuration disclosed in Japanese Patent Application Laid-Open No. 6-105280,
There is a problem that an inexpensive system configuration cannot be obtained. In addition, the MPEG encoding method uses inter-frame compression, which hinders the user from freely performing display in the time direction, such as sampling, sampling, and the like.

【0005】第3に、コンピュータを用いたシステムで
ニュース放送などを連日決まった時間に記録し、ビデオ
サーバに取り込み、インデクス付けをして加工する、な
どの作業は非常に人手を要し、工程の全自動化が求めら
れる。その際に映像管理情報として放送がシステムで記
録された日付と時間を用いることが多い。ところがニュ
ース番組などで深夜近くの放送の番組では、しばしば深
夜以降に前日分のニュース放送を行っており、映像管理
情報の日付とニュース内容の日付にずれを生じる課題が
ある。
[0005] Third, the operation of recording a news broadcast or the like at a fixed time every day by a system using a computer, taking it into a video server, indexing and processing it, etc., is very labor-intensive. Is required to be fully automated. At that time, the date and time when the broadcast was recorded by the system are often used as the video management information. However, in news programs and the like that are broadcast near midnight, news broadcasts for the previous day are often performed after midnight, and there is a problem that a difference occurs between the date of the video management information and the date of the news content.

【0006】本発明は、以上のような課題の解決を目的
とする。
An object of the present invention is to solve the above problems.

【0007】[0007]

【課題を解決するための手段】この課題を解決するため
に本発明では、まず、ネットワーク自身の回線容量とネ
ットワークに接続された表示端末自体の性能によっては
映像を通常に再生表示できない場合に対応するために、
映像編集装置において、シーン先頭縮小画像であるイン
デクス画像を生成するインデクス画像生成手段と、縮小
映像の等時間間隔サンプリングであるストロボピクチャ
を生成するストロボピクチャ生成手段と前記インデクス
画像にて指定された映像へのランダムアクセスを高速化
するための情報である頭出し再生テーブルの作成部とを
備える構成としたものであり、表示側においては、圧縮
映像を再生するデコーダと、インデクス画像表示手段と
ストロボピクチャ再生手段と映像表示部とを備える表示
端末部で構成される。
In order to solve this problem, the present invention first deals with a case where a video cannot be normally reproduced and displayed depending on the line capacity of the network itself and the performance of the display terminal itself connected to the network. To do
In the video editing apparatus, an index image generating unit that generates an index image that is a scene head reduced image, a strobe picture generating unit that generates a strobe picture that is an equal time interval sampling of the reduced image, and a video specified by the index image And a creation unit for a cueing reproduction table that is information for speeding up random access to the data. On the display side, a decoder for reproducing compressed video, index image display means, and a strobe picture It is composed of a display terminal unit having a reproducing unit and a video display unit.

【0008】つぎにフレーム内映像符号化アルゴリズム
(モーションJPEGなど)を用いて映像を全フレーム
分キャプチャして録画し圧縮蓄積する第1のエンコーダ
と、圧縮映像を蓄積する第1のディスク装置と圧縮映像
をフレームごとに伸張再生する第1のデコーダと、映像
を外部へ送出する映像出力部と映像のシーンチェンジ検
出処理手段とからなる第1の映像編集部を備える。第1
の映像編集部では、映像をキャプチャして圧縮記録し、
次に1フレームづつ伸張してフレーム画像ごとに処理す
ることにより、秒30フレームの精度で映像シーンを検
出できる。シーンチェンジ検出処理はかならずしもリア
ルタイムには行われず数時間を要することもある。さら
に伸張された映像は、アナログ信号、デジタル信号、い
ずれかの形態にて次の第2の映像編集部に送られる。映
像信号を今度はフレーム間映像符号化アルゴリズム(M
PEGなど)を用いてエンコードする第2のエンコーダ
と、圧縮映像を蓄積する第2のディスク装置と頭出し再
生テーブル生成部とからなる第2の映像編集部を備え
る。
Next, a first encoder for capturing, recording, compressing and storing video for all frames using an intra-frame video coding algorithm (such as motion JPEG), a first disk device for storing compressed video, and a compression system The image processing apparatus includes a first decoder that expands and reproduces a video for each frame, a first video editing unit that includes a video output unit that sends the video to the outside, and a video scene change detection processing unit. First
The video editing section captures, compresses and records the video,
Next, the video scene can be detected with an accuracy of 30 frames per second by decompressing one frame at a time and processing each frame image. The scene change detection processing is not always performed in real time, and may require several hours. Further, the expanded video is sent to the next second video editing unit in any form of an analog signal or a digital signal. The video signal is then converted to an inter-frame video encoding algorithm (M
PEG), and a second video editing unit including a second disk device for storing compressed video and a cue reproduction table generation unit.

【0009】さらに、映像入力制御部はテレビ番組情報
をネットワーク、その他の手段により取得して、番組の
放送時間の変更に対処し、深夜以降の放送でも放送内容
と番組とが食い違わないようにするため該当番組の開始
以前にあらかじめ起動し、その後エンコーダを起動す
る。また、番組を確実に録画するために番組開始以前に
録画を開始し、番組の放映時間より長時間録画をするよ
うに構成したものである。
[0009] Further, the video input control unit obtains the television program information through a network or other means to deal with a change in the broadcast time of the program so that the broadcast contents and the program do not conflict even in the broadcast after midnight. For this purpose, the program is started before the start of the corresponding program, and then the encoder is started. Further, in order to reliably record the program, the recording is started before the start of the program, and the recording is performed for a longer time than the broadcast time of the program.

【0010】[0010]

【発明の実施の形態】本発明の請求項1に記載の発明
は、各種の映像を入力する映像入力制御部と、記映像入
力制御部で入力された映像を蓄積するディスク装置と、
前記蓄積された映像のシーンチェンジを検出し、前記の
シーンチェンジの先頭の画像を集めたインデクス画像フ
ァイルを作成する第1の映像編集部と、前記第1の映像
編集部から出力された映像とインデクス画像ファイルか
らストロボピクチャを作成する第2の映像編集部と、ネ
ットワークを介して圧縮映像、インデクス画像ファイル
及びストロボピクチャを入力し、前記インデクス画像を
出力するインデクス画像表示手段と、前記ストロボピク
チャを出力するストロボピクチャ表示手段と、前記ディ
スク装置からの映像、インデクス画像表示手段及びスト
ロボピクチャ表示手段の出力の少なくとも1つを表示す
る映像表示手段とからなる表示端末部とを具備する映像
処理装置であり、確実なシーンチェンジ検出と標準圧縮
方式のエンコーダ構成の両立という課題を解決する、と
いう作用を有する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention according to claim 1 of the present invention provides a video input control unit for inputting various video images, a disk device for storing the video image input by the video input control unit ,
Detecting a scene change of the stored video,
Index image file that collects the first image of the scene change
A first video editor for creating a file, and the first video
Video and index image files output from the editor
A second video editing unit for creating a strobe picture from the
Video and index image files via the network
And a strobe picture, and the index image
An index image display means for outputting, and the strobe picture
A strobe picture display means for outputting a channel;
Video, index image display means and storage
Displaying at least one of the outputs of the robo-picture display means
A video processing device comprising a display terminal unit comprising video display means, and has the effect of solving the problem of achieving both reliable scene change detection and a standard compression type encoder configuration.

【0011】[0011]

【0012】また、システムは、あらかじめインデクス
画像、圧縮映像の他にストロボピクチャを生成、蓄積し
ておく。このストロボピクチャは、シーン検出手段によ
って得られるシーン先頭画面であるインデクス画像とは
異なり、サイズ縮小された映像を等時間間隔でサンプリ
ングした画像である。低速なネットワークや低速な映像
端末において、映像をインデクス画像から選択した後に
通常再生の代わりにストロボピクチャ再生を行うことに
よりネットワークの容量の制限や表示端末自体の性能不
足にかかわらずユーザが映像の概要をすばやく把握する
ことができるという作用を有する。
Further, the system generates and stores a strobe picture in addition to an index image and a compressed image in advance. The strobe picture is an image obtained by sampling the reduced-size video at equal time intervals, unlike the index image which is the scene top screen obtained by the scene detecting means. In a low-speed network or low-speed video terminal, the user can select a video from an index image and then perform strobe picture playback instead of normal playback, allowing the user to summarize the video regardless of network capacity limitations or lack of performance of the display terminal itself. Can be grasped quickly.

【0013】[0013]

【0014】[0014]

【0015】[0015]

【0016】[0016]

【0017】請求項に記載の発明は、映像とテレビ番
組情報を取得する映像入力制御部と、前記インターネッ
トを介して取得したテレビ番組情報を基に予め設定され
た録画時間を変更して録画制御する映像編集部とを備え
ることを特徴とするもので、たとえば1週間内の各曜日
における特定番組の放送時間の変更に自動的に対処で
き、目的の番組映像を確実に録画できる、という作用を
有する。
[0017] According to a second aspect of the invention, an image input control unit for acquiring video and television program information, the Internet
And a video editing unit for controlling the recording by changing the preset recording time based on the TV program information obtained through the TV program. It has an effect that it is possible to automatically cope with a change in broadcast time and to reliably record a target program video.

【0018】請求項記載の発明は、請求項2記載の映
像処理装置において、テレビ番組情報の取得は、任意時
間毎に取得し録画時間を変更することを特徴とするもの
で、たとえば1週間内の各曜日における特定番組の放送
時間の変更に自動的に対処でき、目的の番組映像を確実
に録画できる、という作用を有する。
According to the third aspect of the present invention, there is provided the video camera according to the second aspect.
In the image processing apparatus, the acquisition of the TV program information can be performed at any time.
Characterized by acquiring and changing the recording time every interval
For example, broadcast of a specific program on each day of the week
Automatically responds to time changes, ensuring the desired program video
It has the effect of being able to record to

【0019】請求項記載の発明は、請求項3または4
記載の映像処理装置において、前記取得したテレビ番組
情報からのテレビ番組の放映時間を含むように録画開始
時間及び録画終了時間を長く設定することを特徴とする
もので、たとえば1週間内の各曜日における特定番組の
放送時間の変更に自動的に対処でき、システムの時計や
ハードウエア装置に起因する時間誤差の影響をなくし、
目的の番組映像を確実に録画できる、という作用を有す
る。
The invention described in claim 4 is the invention according to claim 3 or 4.
The video processing apparatus according to claim 1, wherein the acquired television program
Start recording to include the broadcast time of the TV program from the information
The feature is to set the time and recording end time longer
For example, for a specific program on each day of the week
It can automatically respond to changes in broadcast time,
Eliminate the effects of time errors caused by hardware devices,
This has the effect that the desired program video can be reliably recorded .

【0020】[0020]

【0021】[0021]

【0022】[0022]

【0023】請求項記載の発明は、ネットワークを介
して圧縮映像、インデクス画像ファイル及びストロボピ
クチャを入力し、前記圧縮映像を伸張するデコーダと、
前記インデクス画像ファイルの画像を出力するインデク
ス画像表示手段と、前記ストロボピクチャを出力するス
トロボピクチャ表示手段と、前記デコーダ、インデクス
画像表示手段及びストロボピクチャ表示手段の出力の少
なくとも1つを表示する映像表示手段とを備えることを
特徴とするもので、表示端末装置はインサーネットなど
コンピュータネットワークに接続された映像表示用端
末であり、ネットワーク自身の回線容量とネットワーク
に接続された表示端末自体の性能等ユーザに相応の映像
データ供給を可能にする、という作用を有する。以下、
本発明の実施の形態について、図1から図11を用いて
説明する。
According to a fifth aspect of the present invention, there is provided a wireless communication system comprising:
Compressed image, index image file and strobe copy
A decoder for inputting a structure and expanding the compressed image;
An index for outputting an image of the index image file
Image display means and a strobe for outputting the strobe picture.
Trobo picture display means, the decoder, and index
The output of the image display means and the strobe picture display means is small.
Video display means for displaying at least one.
Display terminal device such as Internet
A video display terminal connected to a computer network, bandwidth of the network itself and the network
Video corresponding to the user, such as the performance of the display terminal itself connected to
It has the effect of enabling data supply . Less than,
An embodiment of the present invention will be described with reference to FIGS.

【0024】(実施の形態1)図1は、本発明の全体構
成図を示し、101の映像入力制御部は、衛星放送など
の放送電波を受信し、ビデオ映像信号を102のエンコ
ーダにてキャプチャし映像をデジタル圧縮し、103の
ディスクに蓄積する。このエンコーダの圧縮方法として
はリアルタイム圧縮が可能で映像オーディオともに圧縮
できる方式であれば何でも構わない。映像が従来のVT
Rなどを経由して記録されないために、ビデオテープへ
の録画による画質の劣化がなくなり、VTRの頭出しな
どのキャプチャ時の煩雑な制御も不要になる。映像入力
制御部101は家庭用VTRのタイマー録画とおなじ
く、あらかじめ決められた録画開始時間にシステムを起
動し、キャプチャと圧縮を行い、録画終了時間にシステ
ムをストップする。これによって所望の番組が連日、あ
るいは毎週録画できる。ところが、いくらシステムの時
計が正確でも、放送番組の開始時間が放送局の番組編成
の都合により1週間単位程度に不規則に変動したり、ス
ポーツ中継などの影響で当日になって放送時間が突然変
更されたりする。本発明においては、映像入力制御部は
テレビ番組情報をネットワーク、映像自身、その他の手
段により適宜自動的に取得し、第1の問題を解決する。
各放送局は、インターネットを利用して自社のホームペ
ージを公開しているがこの情報の中に1週間の番組編成
を開示している放送局も存在する。この情報をシステム
が自動的に取得して所望の番組の開始時間を知ることが
できる。これにより1週間単位程度の番組変更の情報は
得ることができ、映像入力制御部は確実に番組を録画で
きる。これらの情報を取得、処理して所望の番組の録画
開始時間は、あらかじめ録画時間テーブルにただしく蓄
積されているものとする。番組の録画における別の問題
点として、システムのメカ二ズム部分、たとえばディス
ク装置などにおいて、微少な時間遅れを生じるために、
正確な時間からやや遅れてから録画が開始されてしまう
ことがある。したがって映像入力制御部は、番組を確実
に録画するため番組開始数秒前に録画を開始し、番組の
放映時間より数秒後まで長時間録画をするようにあらか
じめ構成されているものとする。
(Embodiment 1) FIG. 1 shows the overall configuration of the present invention. A video input control unit 101 receives a broadcast wave such as a satellite broadcast and captures a video video signal by an encoder 102. The video is digitally compressed and stored on the disk 103. As the compression method of this encoder, any method can be used as long as it can perform real-time compression and can compress both video and audio. Video is a conventional VT
Since the recording is not performed via the R or the like, the image quality is not degraded due to the recording on the video tape, and the complicated control at the time of capture, such as cueing of the VTR, is not required. The video input control unit 101 starts the system at a predetermined recording start time, performs capture and compression, and stops the system at the recording end time, similarly to timer recording of a home VTR. Thus, a desired program can be recorded every day or every week. However, no matter how accurate the system clock is, the start time of a broadcast program fluctuates irregularly on a weekly basis due to the programming of the broadcast station, or the broadcast time suddenly changes on the day due to the effects of sports broadcasting. Or change. In the present invention, the video input control unit automatically and appropriately acquires television program information by a network, a video itself, or other means, thereby solving the first problem.
Each broadcast station publishes its own homepage using the Internet, but there is also a broadcast station that discloses a one-week program schedule in this information. This information can be automatically obtained by the system to know the start time of the desired program. As a result, information on a program change on a weekly basis can be obtained, and the video input control unit can reliably record the program. It is assumed that the recording start time of a desired program by acquiring and processing such information is stored in advance in the recording time table. Another problem in recording a program is that a small time delay occurs in the mechanism part of the system, such as a disk device,
Recording may start slightly after the correct time. Therefore, the video input control unit is pre-configured to start recording a few seconds before the start of the program and to record for a long time until a few seconds after the broadcast time of the program in order to reliably record the program.

【0025】録画された番組の管理上の問題として、深
夜以降の放送でも放送内容と番組とが食い違わないよう
にするため該当番組の開始以前にあらかじめ起動し、そ
の後エンコーダを起動するように構成されている。図2
において詳細に記す。本日のニュース番組(名称を仮
に"TOD"とする)が25分番組として連日深夜に放送さ
れており、それを、連日録画圧縮してファイル名称をTO
Dmmddとして記録し管理するシステムを想定する。ここ
でmmは月、ddは日付であり、今日が11月1日であれ
ば、ファイル名称は、TODNov1となる。番組の標準放送
時間帯は時刻23:35から25分間であるが1週間の放送
スケジュールは不規則で、放送が遅い曜日では、時刻0:
30から放送されるものとする。このような番組を自動録
画するため従来は1週間分の録画時間テーブルを用意
し、このテーブルから本日の録画開始時間T_startを取
得し、時刻T_startに録画処理を行うプログラムを起動
し、25分間の録画を実行していた。しかしながらファ
イル名称の決定部201、202は本プログラムの起動
時に実行されるため、11月1日が標準時間帯の放送日
であれば、正しくTODNov1なる名称になるものの、放送
が遅い曜日であれば、TODNov2となって、ニュースと日
付の対応がとれなくなる。そこで本発明では、図2の下
段に示すように、連日決まった時間T_everyにまず第1
のプログラム203が起動され、録画ファイル名はその
時点での日付から決定する。第1のプログラム203
は、録画時間テーブルから本日の録画開始時間T_Rec_
startを調べて、録画を行う第2のプログラム204を
自動実行させる。このため、11月1日のニュース放送
が遅い場合の時間帯でもファイル名は正しくTODNov1と
なる。この処理の流れを図3に示す。システムは連日、
T_everyの時刻に起動され、初期化処理301を実行し
た後、録画ファイル名称を302のように現在の日付か
ら決定する。次に303において、図1には記載されて
いない録画時間テーブルを読み出し、本日の録画開始時
間T_Rec_startを読みだし、その時間までまつ。ここ
までが図2における203に相当する処理になる。T_r
ec_start以降に処理304で録画、すなわち映像のキ
ャプチャとリアルタイム圧縮を行いう。ここで録画時間
T_Lengthは前記のように番組の確実な録画のために2
5分よりも長い時間とする。、処理305では、この映
像に対して図2の録画以降に行われる図2には書いてい
ない映像編集処理を施す。
As a problem in the management of recorded programs, even in the case of broadcasting after midnight, in order to prevent discrepancies between the broadcast contents and the program, the program is started before the start of the program, and then the encoder is started. Have been. FIG.
Will be described in detail. Today's news program (tentatively named "TOD") is broadcast every day at midnight as a 25-minute program.
Assume a system that records and manages it as Dmmdd. Here, mm is the month and dd is the date. If today is November 1, the file name will be TODNov1. The standard broadcast time of the program is 25 minutes from time 23:35, but the broadcast schedule for one week is irregular.
It shall be broadcast from 30. Conventionally, a recording time table for one week is prepared in order to automatically record such a program, a recording start time T_start of today is obtained from this table, a program for performing a recording process is started at time T_start, and a program for 25 minutes is started. Recording was being performed. However, since the file name determination units 201 and 202 are executed at the time of starting this program, if November 1 is a broadcasting day in a standard time zone, the name will be correctly named TODNov1, but if broadcasting is late on a weekday. , Becoming TODNov2, the news and date cannot be corresponded. Therefore, in the present invention, as shown in the lower part of FIG.
Is started, and the recording file name is determined from the current date. First program 203
Is the current recording start time T_Rec_ from the recording time table.
The start is checked, and the second program 204 for recording is automatically executed. Therefore, the file name is correctly TODNov1 even in the time zone when the news broadcast on November 1 is late. FIG. 3 shows the flow of this processing. The system is daily
It is started at the time of T_every, and after executing the initialization processing 301, the recording file name is determined from the current date as indicated by 302. Next, at 303, a recording time table not shown in FIG. 1 is read out, and today's recording start time T_Rec_start is read out until the time is reached. The process up to this point corresponds to the process 203 in FIG. T_r
After ec_start, recording is performed in process 304, that is, video capture and real-time compression are performed. Where recording time
T_Length is 2 for secure recording of the program as described above.
The time is longer than 5 minutes. In the process 305, a video editing process not shown in FIG. 2 performed after the recording in FIG.

【0026】録画処理が終了した時点で、第1のディス
ク装置103には、ニュース映像が25分間圧縮記録さ
れている。これを第1の圧縮映像とする。音声は同時に
キャプチャされ、別ファイルとして記録蓄積されてい
る。また、第1のエンコード・デコードは、シーンチェ
ンジ検出処理など、あくまで映像処理、映像編集のため
に映像を蓄積するものであってエンドユーザが実際に目
にするものではない。したがって視覚特性を利用した高
圧縮率の映像圧縮方式よりも、映像の持つ情報を保存し
た圧縮方式をとるべきである。そこで簡単なハードウエ
ア装置で圧縮と伸張が可能しかも秒30フレーム程度の
キャプチャが可能なモーションJPEGなどの方式を採
用する。この方式はフレーム内圧縮方式のために圧縮率
は低く、標準的な動画圧縮方式でない、音声を同時に圧
縮することができない、などの欠点を持っているの映像
処理のみに用いるには好適である。
When the recording process is completed, the news video is compressed and recorded on the first disk device 103 for 25 minutes. This is the first compressed video. The audio is captured at the same time and recorded and stored as a separate file. In addition, the first encoding / decoding is for accumulating a video for video processing and video editing, such as a scene change detection process, and is not actually seen by an end user. Therefore, rather than a video compression method with a high compression ratio using visual characteristics, a compression method that preserves information possessed by a video should be used. Therefore, a method such as motion JPEG that can compress and decompress with a simple hardware device and capture about 30 frames per second is adopted. This method has a low compression rate due to the intra-frame compression method, and is not a standard video compression method, and has drawbacks such as the inability to compress audio simultaneously. .

【0027】以降、前記305の映像編集処理を第1の
映像編集部113、第2の映像編集部114を用いて行
う部分について説明していく。図4は、前記305の映
像編集処理の流れ図である。処理401での映像出力
は、録画によって、第1のエンコーダ102により、映
像をデジタル圧縮し、第1のディスク装置103に蓄積
された映像を第1のディスク装置103から第1のデコ
ーダ104により読み出しリアルタイム伸張して映像出
力部106から第2の映像編集部へ送る。ここで映像信
号は、デジタル、アナログのいずれのビデオ映像として
出力することも可能である。しかしデジタル信号で出力
する場合でも第1のエンコード時にモーションJPEG
などのいわゆるロッシィな圧縮を用いる場合には、一度
伸張してからの再度の圧縮による画質劣化は避けられな
い。また本実施形態においては第2のエンコーダ107
が映像キャプチャ機能と圧縮機能とをハードウエアとし
て持っている場合を想定している。これらの理由から、
本実施形態では映像出力部106は伸張された映像を一
旦アナログビデオ信号にまで変換して第2の映像編集部
114の第2のエンコーダ107に入力する形態を採用
している。これによって第2のエンコードがリアルタイ
ムに行え、全体の処理時間の短縮に貢献する。
Hereinafter, a portion in which the video editing process of 305 is performed using the first video editing unit 113 and the second video editing unit 114 will be described. FIG. 4 is a flowchart of the video editing process of the step 305. The video output in the process 401 is that the video is digitally compressed by the first encoder 102 by recording, and the video stored in the first disk device 103 is read from the first disk device 103 by the first decoder 104. The data is decompressed in real time and sent from the video output unit 106 to the second video editing unit. Here, the video signal can be output as either a digital or analog video image. However, even when outputting as a digital signal, motion JPEG
In the case of using so-called lossy compression such as that described above, it is inevitable that image quality is degraded due to decompression and subsequent compression. In the present embodiment, the second encoder 107
Has a video capture function and a compression function as hardware. because of these reasons,
In the present embodiment, the video output unit 106 adopts a form in which the decompressed video is temporarily converted into an analog video signal and input to the second encoder 107 of the second video editing unit 114. As a result, the second encoding can be performed in real time, which contributes to a reduction in the overall processing time.

【0028】ビデオ信号まで伸張され再び第2のエンコ
ードをする際に第1、第2のエンコードで、各々デジタ
ル化された映像本体の開始フレームと末尾フレームを正
確に一致させるため、マーカ映像を映像の開始以前と末
尾以降に数秒付加する。マーカとは、カラー調整用の
「カラーバー」など対象映像とは明らかに異なる映像で
ある。本実施形態では、デジタル的にカラーバー映像を
10秒程度の長さだけ生成し映像出力部で、(1)カラ
ーバー映像、(2)第1の記録映像25分、(3)カラ
ーバー映像の順序にて隙間無く連続してビデオ出力して
いる。
When the video signal is expanded to the second encoding and the second encoding is performed again, in order to make the start frame and the end frame of the video body digitized by the first and second encodings exactly coincide with each other, the marker video is converted to the video. Add a few seconds before the start and after the end. The marker is an image clearly different from the target image, such as a “color bar” for color adjustment. In the present embodiment, a color bar video is digitally generated for a length of about 10 seconds, and the video output unit outputs (1) a color bar video, (2) a first recorded video 25 minutes, and (3) a color bar video. The video is output continuously without gaps in the following order.

【0029】401の映像出力と同期して、第2の映像
編集部114では、処理402において第2のエンコー
ダ107によって、ビデオ信号をキャプチャしてリアル
タイム圧縮し、第2のディスク装置112に蓄積する。
第2のエンコーダ107では、第1のエンコーダとは異
なり、表示端末部115でエンドユーザが映像、音声の
再生を行う前提のもとに、標準的な動画圧縮方式で圧縮
率が高く音声も一緒に圧縮可能なMPEGなどの方式を
用いる。ただし、MPEGの秒30フレームでのリアル
タイムキャプチャとビデオとオーディオを多重化したエ
ンコードを行うにはきわめて高い計算能力を必要とし高
価なハードウエアが必要になる。本発明においては通常
のワークステーションで使用可能なビデオ映像のみのエ
ンコードを行うハードウエアを想定している。この前提
ではビデオ信号として入力される映像は秒18フレーム
(18fps)程度のレートでMPEGビデオストリー
ムに圧縮するのが限界である。これでも、表示端末側の
性能やネットワーク容量を考慮すれば、十分な映像品質
ということができる。図5は処理402の内容を示した
ものである。映像信号とオーディオ信号は、前記のハー
ドウエアでキャプチャされリアルタイムにMPEGビデ
オストリーム501とオーディオファイル502として
別々にデジタル記録される。次にオーディオエンコード
処理で、オーディオファイルがMPEGオーディオスト
リーム503にソフトウエア的に変換され、MPEGビ
デオストリームとMPEGオーディオストリームとが別
個に第2のディスク装置112内に生成される。
In synchronization with the video output of 401, the second video editing unit 114 captures the video signal by the second encoder 107 in process 402, compresses the video signal in real time, and stores the video signal in the second disk device 112. .
Unlike the first encoder, the second encoder 107 has a high compression rate using a standard moving image compression method and a high audio level under the premise that the end user performs video and audio reproduction on the display terminal unit 115. A method such as MPEG which can be compressed is used. However, real-time capture at 30 frames per second of MPEG and encoding that multiplexes video and audio require extremely high computational power and expensive hardware. In the present invention, hardware that encodes only video images that can be used in a normal workstation is assumed. On this premise, it is limited that a video input as a video signal is compressed into an MPEG video stream at a rate of about 18 frames per second (18 fps). Even in this case, sufficient video quality can be obtained in consideration of the performance and network capacity of the display terminal. FIG. 5 shows the contents of the process 402. The video signal and the audio signal are captured by the above-described hardware and digitally recorded separately as an MPEG video stream 501 and an audio file 502 in real time. Next, in an audio encoding process, the audio file is converted into an MPEG audio stream 503 by software, and an MPEG video stream and an MPEG audio stream are separately generated in the second disk device 112.

【0030】次に403のシステムエンコード処理では
システムエンコーダ108において、ビデオストリー
ム、オーディオストリームを多重化させてMPEGシス
テムストリーム504が作成され、これを第2の圧縮映
像として第2のディスク装置112に蓄積する。システ
ムストリームはMPEGにおいて映像と音声を同期して
再生するための標準的なフォーマットでありデジタル映
像をネットワーク上の様々なマシン上で汎用的に扱うた
めに、この処理を行う。第2の映像編集部におけるシス
テムストリームの作成処理は、後述するシーンチェンジ
検出処理の実行時間に並行して行うことができ処理時間
が短縮できる。
Next, in the system encoding process 403, the system encoder 108 multiplexes the video stream and the audio stream to create an MPEG system stream 504, and stores this in the second disk device 112 as a second compressed video. I do. The system stream is a standard format for synchronously reproducing video and audio in MPEG, and performs this processing in order to handle digital video on various machines on a network in general. The process of creating the system stream in the second video editing unit can be performed in parallel with the execution time of the scene change detection process described later, and the processing time can be reduced.

【0031】システムエンコード処理と並行して、第1
の映像編集部113のシーンチェンジ検出部105にお
いてシーンチェンジ検出処理404が行われる。図6に
シーンチェンジ検出の概要を記す。第1のディスク装置
103から第1の圧縮映像601が1フレームごとに伸
張され、所定のシーンチェンジ検出処理602が行わ
れ、最終的にシーンチェンジ検出結果ファイル603と
ダイジェストデータファイル604、シーン先頭縮小画
像を集めたインデクス画像ファイル605が生成され
る。シーンチェンジとは映像の切り替わり場所である
が、特に放送素材では様々なカメラワークと編集効果に
よる人工的なシーンチェンジがあり、各々の特性を生か
して検出が精度よく行われるようにしてある。本発明で
は計4種類のシーンチェンジ検出方法を組み合わせて使
用している。
In parallel with the system encoding process, the first
A scene change detection process 404 is performed in the scene change detection unit 105 of the video editing unit 113. FIG. 6 outlines the scene change detection. A first compressed video 601 is expanded from the first disk device 103 for each frame, a predetermined scene change detection process 602 is performed, and finally a scene change detection result file 603, a digest data file 604, and a scene head reduction An index image file 605 in which images are collected is generated. A scene change is a switching point of an image. In particular, in a broadcast material, there are artificial scene changes due to various camera works and editing effects, and the detection is performed with high accuracy by making use of each characteristic. In the present invention, a total of four types of scene change detection methods are used in combination.

【0032】短時間長型の検出処理606は前映像から
後映像までの変化が5フレーム以内に収まるカメラ切り
替えなどのすばやいシーンチェンジを対象とする。画像
を16ブロックに分割し、各ブロックごとのカラーヒス
トグラムを計算し、連続フレームどうしで類似度を算出
する。時間軸上でこの類似度が減少から増加にいたる箇
所をシーンチェンジ候補とする。映像移動型の検出処理
607は「引き抜き」など前映像が次第に移動して除去
されて後映像が出現するタイプの編集効果を検出するた
めのものである。連続フレームどうしで画素の輝度差が
規定値以上ある箇所の面積(画素変化面積)の時間的変
化が所期には大きく、次第に減少していくまでの間をシ
ーンチェンジ候補とする。画素合成型の検出処理608
は「デゾルブ」など前映像と後映像が合成されながら次
第に変化していくタイプの編集効果を検出するためのも
のである。画像のエッジ強度の和が時間的に下に凸形状
を呈する箇所をシーンチェンジ候補とする。画素置換型
の検出処理609は「ワイプ」など、前映像が後映像に
一部分から次第に大きく置き換わっていくタイプの編集
効果を検出するためのものである。これらの検出方法に
より、検出されたシーンチェンジ箇所は、シーンチェン
ジ検出ファイル603に格納され、後でインデクス画像
生成のために使用される。
The short and long detection processing 606 targets a quick scene change such as a camera change in which a change from the previous image to the subsequent image is within 5 frames. The image is divided into 16 blocks, a color histogram is calculated for each block, and a similarity is calculated between consecutive frames. A point on the time axis where the similarity increases from a decrease to an increase is defined as a scene change candidate. The image movement type detection processing 607 is for detecting an editing effect of a type in which a previous image gradually moves and is removed and a subsequent image appears, such as “pull-out”. A scene change candidate is defined as a region in which the temporal change in the area (pixel change area) of a portion where the luminance difference between pixels is equal to or more than a specified value between successive frames is large and gradually decreases. Pixel synthesis type detection processing 608
Is for detecting an editing effect of a type that gradually changes while the preceding image and the succeeding image are combined, such as “dissolve”. A portion where the sum of the edge intensities of the image has a temporally downward convex shape is set as a scene change candidate. The pixel replacement type detection processing 609 is for detecting an editing effect, such as “wipe”, in which a previous image is gradually and largely replaced by a part of a subsequent image. The scene change location detected by these detection methods is stored in the scene change detection file 603, and is later used for generating an index image.

【0033】ここで、シーンチェンジ検出結果ファイル
のテーブル内容につき(表1)で説明する。
Here, the contents of the table of the scene change detection result file will be described with reference to (Table 1).

【0034】[0034]

【表1】 (表1)において、上から5段まではヘッダ情報であ
り、シーンチェンジとは無関係である。本ファイルで
は、フレーム数表記をする場合には全て30フレーム/
秒の意味で使用されるが、以降これを明確に表現するた
めに「フレーム(30)」という表現を用いることとす
る。TOTAL 14400は、全フレーム(30)数
であり、この例では映像が14400フレーム(3
0)、すなわち8分間あることを示す。MFNUMは、
第2のエンコード時の情報であり、第2の圧縮映像の全
フレーム(30)数を示す。全述のように第2のエンコ
ーダでは、全フレームの圧縮は期待できないために、フ
レーム数は8910枚に減少している。CBARS、C
BAREの2項目は、映像前後のマーカ映像のフレーム
数である。これらは後述するマーカ映像検出後に記入さ
れる項目であり、シーンチェンジ検出直後には空欄であ
る。次のFPS 17.97は第2のエンコード時の情
報であり、エンコード時の秒あたりのフレーム数を示
す。前記TOTALと(MFNUM−CBARS−CB
ARE)の比と 30とFPSの比は、ほぼ等しいが、
このFPS値は第2のエンコーダ107から得られる情
報である。START以降はシーンチェンジ結果、記入
される項目であり、START(フレーム(30)番号
000000)からTO(フレーム(30)番号000
004)までが1つのシーンで、次のCUT(フレーム
(30)番号000005)において、シーンチェンジ
が検出され、そこからTO(フレーム番号00010
6)までが1つの連続するシーンになっていることを意
味する。CUT、WIPE,DISLV,OTHERと
いうタグは、検出されたシーンチェンジの種類に相当
し、それぞれ短時間長型、映像置換型、画素合成型、映
像移動型を意味する。
[Table 1] In (Table 1), the top five rows are header information and have nothing to do with a scene change. In this file, when expressing the number of frames, all 30 frames /
Although used in the meaning of seconds, the expression "frame (30)" will be used hereafter to clearly express this. TOTAL 14400 is the total number of frames (30), and in this example, the video is 14400 frames (3
0), that is, 8 minutes. MFNUM is
This is information at the time of the second encoding, and indicates the number of all frames (30) of the second compressed video. As described above, in the second encoder, since compression of all frames cannot be expected, the number of frames is reduced to 8910. CBARS, C
The two items of BARE are the number of frames of the marker video before and after the video. These are items to be entered after marker image detection described later, and are blank immediately after scene change detection. The next FPS 17.97 is information at the time of the second encoding, and indicates the number of frames per second at the time of encoding. The TOTAL and (MFNUM-CBARS-CB
ARE) and the ratio of 30 to FPS are almost equal,
This FPS value is information obtained from the second encoder 107. The items after START are the items to be entered as a result of the scene change, from START (frame (30) number 000000) to TO (frame (30) number 000).
004) is one scene, a scene change is detected in the next CUT (frame (30) number 000005), and TO (frame number
It means that up to 6) is one continuous scene. The tags CUT, WIPE, DISLV, and OTHER correspond to the type of the detected scene change, and mean a short-time long type, a video replacement type, a pixel synthesis type, and a video movement type, respectively.

【0035】シーンチェンジ検出処理では、シーンチェ
ンジ検出されたフレーム、すなちシーンの先頭のフレー
ムを縮小して保存する。本実施例では現フレーム画像が
640x480画素の画像である場合、縦横4分の1、あるいは
8分の1に縮小処理された160x120画素、あるいは80x60
画素の画像とする。これらの画像は別個の画像ファイル
であり、第1のディスク装置に蓄えられ、後のインデク
ス画像生成に用いられる。
In the scene change detection processing, the frame in which the scene change is detected, that is, the first frame of the scene is reduced and stored. In this embodiment, the current frame image is
If the image is 640x480 pixels, it will be 1/4 length and width, or
160x120 pixels or 80x60 reduced by 1/8
The image is a pixel image. These images are separate image files, stored in the first disk device, and used for generating an index image later.

【0036】シーンチェンジ検出部105では、同時に
ダイジェストデータファイル604が作成される。 ダ
イジェストデータファイルは、映像をストロボピクチャ
再生する場合に類似して冗長な映像部分を少なくし、効
果的に表示するための情報ファイルである。以下、後述
するストロボピクチャが、秒3コマを基準として作成さ
れる場合を説明する。この時、ストロボピクチャは10
フレーム(30)づつサンプリングして解像度を縮小す
ることで作成される。そこで図6における伸張映像で、
規定のサンプリング間隔である10フレーム(30)お
きに次々に基準画像との類似度を計算し、類似度がしき
い値以下の場合にダイジェストデータファイルにフレー
ム番号を書き出し、同時に基準画像を現在フレームの画
像に切り替える。以下順次繰り返してダイジェストデー
タファイルを作成する。次に、インデクス画像作成処理
が行われる。インデクス画像生成処理ではシーンチェン
ジ検出時に、縮小され、蓄積された複数の縮小画像群が
1つのファイルにまとめて、第2のディスク装置112
に蓄積保存される。
The scene change detection unit 105 creates a digest data file 604 at the same time. The digest data file is an information file for reducing redundant video portions and displaying the video effectively, similar to the case of reproducing a video with a strobe picture. Hereinafter, a case in which a strobe picture described later is created based on three frames per second will be described. At this time, the strobe picture is 10
It is created by sampling each frame (30) and reducing the resolution. Therefore, in the expanded image in FIG.
The similarity to the reference image is calculated one after another every 10 frames (30), which is a specified sampling interval, and when the similarity is equal to or less than the threshold value, the frame number is written to the digest data file, and at the same time, the reference image is set Switch to the image. Thereafter, a digest data file is created by repeating the above steps sequentially. Next, an index image creation process is performed. In the index image generation processing, when a scene change is detected, a plurality of reduced image groups that have been reduced and accumulated are combined into one file, and the second disk device 112
Is stored.

【0037】第1の映像編集部113でシーンチェンジ
検出処理が終了後、第2の映像編集部114において、
マーカ映像検出処理404が行われる。この処理は第1
の映像編集部113からビデオ信号として出力された映
像を第2の映像編集部114にて受信した後、開始フレ
ーム位置のずれを明確にし、補正するために必要であ
る。図7を用いてマーカ映像検出部109によるマーカ
映像検出につき説明する。まず、第2のエンコーダ10
7にて第1の圧縮映像とは異なるキャプチャレート、た
とえば18fpsなどのレートでキャプチャされ圧縮さ
れた第2の圧縮映像701のビデオストリームを第2の
デコーダ116により再生順の先頭から順次伸張する。
以降18fpsのレートでのフレームをフレーム(18)
と表現することとする。この映像は出力時に先頭、末尾
にマーカ映像が付加されている。そこで先頭画像702
がマーカ映像であることを仮定し順次、次のフレーム
(18)と先頭画像702との類似度を計算していく。
類似度がしきい値以下になった箇所703のフレーム
(18)番号Sを検出し、映像先頭のマーカ映像フレー
ム数(18)とする。次に圧縮映像のビデオストリーム
の再生順の末尾から1フレームずつ伸張する。再び、末
尾画像705がマーカ映像であることを仮定して、順次
末尾画像との類似度を計算していき、類似度がしきい値
以下になった箇所704のフレーム番号N−Eおよび全
フレーム(18)数Nから、Eを求めて末尾マーカ映像
フレーム(18)数とする。次に、シーンチェンジ検出
結果ファイルの前述の2項目であるCBARS、CBR
AEにS,およびEを記載するのであるが、シーンチェ
ンジ検出結果ファイルでは、フレーム数はフレーム(3
0)にて表現されているので、フレーム番号補正部70
6においてフレーム番号補正を行う。フレーム番号補正
は、表1に示すようにシーンチェンジ検出結果ファイル
707にFPSとして記載されているのでこれを用いて
After the scene change detection processing is completed in the first video editing unit 113, the second video editing unit 114
A marker video detection process 404 is performed. This process is the first
After the video output from the video editing unit 113 as a video signal is received by the second video editing unit 114, it is necessary to clarify and correct the shift of the start frame position. The marker image detection by the marker image detection unit 109 will be described with reference to FIG. First, the second encoder 10
At 7, the video stream of the second compressed video 701 captured and compressed at a capture rate different from that of the first compressed video, for example, at a rate such as 18 fps, is sequentially expanded by the second decoder 116 from the beginning in the reproduction order.
After that, the frame at the rate of 18 fps is framed (18)
It will be expressed as At the time of output, this video has a marker video added at the beginning and end. Therefore, the top image 702
Is a marker video, and sequentially calculates the similarity between the next frame (18) and the leading image 702.
The frame (18) number S of the portion 703 where the similarity is equal to or less than the threshold value is detected, and is set as the number (18) of marker video frames at the head of the video. Next, the compressed video stream is expanded one frame at a time from the end in the reproduction order. Again, assuming that the last image 705 is a marker video, the similarity with the last image is sequentially calculated, and the frame numbers NE and all frames of the portion 704 where the similarity becomes equal to or less than the threshold value are calculated. (18) E is obtained from the number N and is set as the number of tail marker video frames (18). Next, CBARS and CBR, which are the two items described above, of the scene change detection result file
Although S and E are described in AE, the number of frames is frame (3
0), the frame number correction unit 70
At 6, the frame number is corrected. Since the frame number correction is described as FPS in the scene change detection result file 707 as shown in Table 1,

【0038】[0038]

【数1】 にて行われる。以上で、CBARS、CBAREが記載
され、改めてシーンチェンジ検出結果ファイル708が
完成する。
(Equation 1) It is performed in. Thus, CBARS and CBARE are described, and the scene change detection result file 708 is completed again.

【0039】次に第2の映像編集部114の頭出し再生
用テーブル生成部108において頭出し再生用テーブル
作成処理405を行う。これは、第1の映像編集部11
3でのシーンチェンジ検出結果ファイルから指定された
シーンチェンジフレーム番号から第2の映像編集部11
4での映像への頭出し再生を高速に行う目的で、システ
ムストリームにまでエンコードされた第2の圧縮映像を
解析しながらシステムストリームの任意フレームからの
デコード開始場所までの第2のディスク装置112上で
のシーク量を取得するためのテーブルを作成する処理で
ある。図8は頭出し再生用テーブル作成処理を示す。
Next, the cueing reproduction table creation processing 405 is performed in the cueing reproduction table generation unit 108 of the second video editing unit 114. This is the first video editing unit 11
3 from the scene change frame number designated from the scene change detection result file in the second video editing unit 11
The second disk device 112 from the arbitrary frame of the system stream to the decoding start position while analyzing the second compressed video encoded to the system stream for the purpose of performing the start reproduction to the video at high speed in step 4. This is a process for creating a table for obtaining the above seek amount. FIG. 8 shows a cueing reproduction table creation process.

【0040】頭出し再生用テーブルは、シーンチェンジ
検出結果ファイルから指定されたシーンチェンジフレー
ム番号によってマーカ映像を含んだ第2の圧縮映像を頭
出しするものであり、再びフレーム数の対応が問題とな
る。シーンチェンジ検出結果ファイルでのシーン先頭フ
レーム(30)から、頭出しすべきシーンのフレーム
(18)を求めるためには、
The cue reproduction table locates the second compressed video including the marker video according to the scene change frame number designated from the scene change detection result file. Become. In order to find the frame (18) of the scene to be searched from the scene top frame (30) in the scene change detection result file,

【0041】[0041]

【数2】 が使用される。801はMPEGシステムストリームを
読み込み、ストリーム中に含まれるパックスタートコー
ド、およびパケットスタートコードを検出しそれらのコ
ード位置を記憶しビデオパケットとオーディオパケット
の分離をするシステムコード検出手段である。802は
複数のビデオパケットを1本のシステムストリームとし
て解析するビデオパケット解析手段、803は複数のオ
ーディオパケットを1本のオーディオストリームとして
解析するオーディオパケット解析手段である。805
は、複数のビデオパケットからピクチャコード,GOP
コードを含むビデオパケットを検出するパケット内コー
ド検出手段である。806はピクチャコード数をカウン
トし,GOPコードを検出する度に各GOPコード直前
までの累積フレーム数とパケット内のGOPコード以降
のピクチャコードを出力するビデオフレーム算出手段で
ある。807はビデオストリームデコード時のパラメー
タ、総フレームなどの情報を記憶しておくビデオストリ
ーム情報記憶手段である。808は805においてGO
Pコードを検出する度に、パケット内フレーム数、累積
フレーム数、ストリーム先頭からパックヘッダまでの接
待オフセットバイト数、パックヘッダからパケットヘッ
ダまでの相対オフセットバイト数をまとめるビデオ頭出
し再生レコード作成手段である。809から812まで
はオーディオについて以上と同様の解析処理を行う。テ
ーブル作成手段804は以上のビデオ頭出し再生レコー
ド、オーディオ頭出し再生レコードを集めてテーブル化
して、頭出し再生テーブルファイルを作成する。頭出し
再生テーブルファイルは、以上のようにランダムアクセ
スしやすい複数の固定長レコードに、フレームからMP
EGシステムストリームオフセットまでのランダムアク
セスを可能にする情報が記載されており、MPEGシス
テムストリーム映像の頭出し再生を高速にするためのフ
ァイルである。
(Equation 2) Is used. Reference numeral 801 denotes a system code detecting unit that reads an MPEG system stream, detects a pack start code and a packet start code included in the stream, stores the code positions thereof, and separates a video packet and an audio packet. Reference numeral 802 denotes a video packet analysis unit that analyzes a plurality of video packets as one system stream, and 803 denotes an audio packet analysis unit that analyzes a plurality of audio packets as one audio stream. 805
Is the picture code, GOP from multiple video packets
This is an intra-packet code detecting means for detecting a video packet including a code. Reference numeral 806 denotes a video frame calculation unit that counts the number of picture codes, and outputs the cumulative number of frames up to immediately before each GOP code and the picture codes after the GOP code in the packet each time a GOP code is detected. Reference numeral 807 denotes a video stream information storage unit that stores information such as parameters for decoding the video stream and total frames. 808 is GO at 805
Each time a P-code is detected, a video cueing / reproducing record creating means for summarizing the number of frames in a packet, the number of accumulated frames, the number of offset bytes from the head of a stream to a pack header, and the number of relative offset bytes from a pack header to a packet header. is there. From 809 to 812, the same analysis processing as described above is performed for audio. The table creation means 804 collects the above-mentioned video cue reproduction record and audio cue reproduction record and creates a table to generate a cue reproduction table file. The cue reproduction table file is composed of a plurality of fixed-length records that are easily accessed at random as described above, and the MP from the frame.
This file describes information enabling random access up to the EG system stream offset, and is a file for speeding up the start reproduction of the MPEG system stream video.

【0042】次に第2の映像編集部114のストロボピ
クチャ生成部110においてストロボピクチャ作成処理
406が行われる。図9は、ストロボピクチャ作成処理
を示す図である。ストロボピクチャとは、映像を時間的
に、たとえば秒3コマ程度にサンプリングして、フィル
ムイメージに映像を表示することにより、映像の時間的
な流れを瞬時に空間的に把握させるものである。また、
ネットワーク通信容量が小さい場合でもオーディオ情報
に付加する縮小映像を送りたい場合に使用されるもので
ある。再びシーンチェンジ検出結果テーブルファイルか
ら、FPSを読みとりサンプリング間隔決定手段から、
以下の式でフレーム数(18)でのサンプリング間隔n
を求める。
Next, in the strobe picture generation unit 110 of the second video editing unit 114, a strobe picture creation process 406 is performed. FIG. 9 is a diagram showing a strobe picture creation process. The strobe picture is a technique of sampling a video temporally, for example, at about three frames per second, and displaying the video on a film image, thereby instantly and spatially grasping the temporal flow of the video. Also,
This is used when it is desired to send a reduced video to be added to audio information even when the network communication capacity is small. Read the FPS again from the scene change detection result table file, and
The sampling interval n at the number of frames (18) is expressed by the following equation.
Ask for.

【0043】[0043]

【数3】 サンプリングされた画像は縦横2分の1程度に縮小処理
されて集められストロボピクチャファイルを生成する。
以上で、映像の編集処理は終了する。以上のような一連
の処理を実行すると、第2のディスク装置112上に以
下のファイルが生成される。 (1)第2の圧縮映像ファイル(MPEGビデオストリ
ーム) (2)オーディオファイル (3)MPEGオーディオストリーム (4)MPEGシステムストリームファイル (5)シーンチェンジ検出結果テーブルファイル (6)ダイジェストデータファイル (7)頭出し再生テーブルファイル (8)インデクス画像ファイル (9)ストロボピクチャファイル これらのうち、(1)のMPEGビデオストリームは
(4)のMPEGシステムストリームが生成された時点
で不要になる。その他のファイルはそれぞれ表示端末に
よって適宜使用される。図10、図11は、映像編集が
終了し各ファイルが図1における第2のディスク装置1
12に格納されている状態を示す。図10はコンピュー
タネットワークが10MBPS程度の通信速度しか確保でき
ず、しかも表示端末もPCなどを想定している。ネット
ワークは構内ネットワークとして他の様々なマシンが接
続されている。このような一般的なネットワーク形態で
映像をネットワーク配信することは他のサービスへの圧
迫となり現実的ではない。表示端末のPC(パーソナル
コンピュータ)としても一般ビジネスアプリケーション
を動かしながらの動画表示は負荷が重い。そこで、本実
施形態では表示端末部115では、インデクス画像表示
手段117によるインデクス画像(オーディオなし)表
示とストロボピクチャ表示手段118によるストロボピ
クチャ(オーディオなし)表示とストロボピクチャにオ
ーディオを同期させる機能としての映像表示のみとす
る。つまり映像表示手段1007は、第2の圧縮映像を
ネットワーク受信することはしない。そして高品質な動
画再生が必要な場合、ローカルな画像サーバを各表示端
末部115に設置する。ローカルな映像サーバとして
は、簡単なものとしてアナログ光ディスク、あるいは第
2の圧縮映像ファイルをコピーしたメディアがあげら
れ、映像とオーディオがあらかじめ録画されているもの
とする。表示端末部115ではエンドユーザが制御手段
1001に指令することにより、シーンチェンジ検出結
果テーブルファイル1002を読みこむ。次にサーバプ
ロセス1003がインデクス画像ファイルを必要な部分
のみ送出し、表示端末部115ではクライアントプロセ
ス1004がインデクス画像を受信し、映像表示部11
9に表示する。サーバプロセスとクライアントプロセス
はネットワーク上で大容量の映像ファイルなどを全部読
むことなしに必要な部分のみをストリームとしてリアル
タイムに送出するために用意されている。このサーバプ
ロセスとクライアントプロセスの機能により、たとえ
ば、ユーザがインデクス画像によって頭出ししたい映像
の部分を指定した場合、表示制御手段1001は、サー
バプロセス1005に該当フレームからストロボピクチ
ャファイルを送出するように指令し、サーバプロセス1
005はストロボピクチャファイルを任意位置からネッ
トワークへ送出し、クライアントプロセス1006は、
ストロボピクチャファイルおよびオーディオファイルを
読みこんで映像表示手段1007は映像表示部にストロ
ボピクチャを、オーディオをスピーカに出力する。この
時、ストロボピクチャだけを表示することもむろん可能
である。また、ストロボピクチャ表示において類似した
画像が並ぶことをさけたければダイジェストデータファ
イルを読み込み、類似度が低いストロボピクチャのみを
表示することによって冗長度を下げることも可能であ
る。
(Equation 3) The sampled image is reduced and processed to about half the length and width and collected to generate a strobe picture file.
Thus, the video editing processing ends. When the above-described series of processing is executed, the following files are generated on the second disk device 112. (1) Second compressed video file (MPEG video stream) (2) Audio file (3) MPEG audio stream (4) MPEG system stream file (5) Scene change detection result table file (6) Digest data file (7) Start-up playback table file (8) Index image file (9) Strobe picture file Of these, the MPEG video stream of (1) becomes unnecessary when the MPEG system stream of (4) is generated. The other files are appropriately used by the display terminal. 10 and 11 show that the video editing is completed and each file is stored in the second disk device 1 in FIG.
12 shows the state stored therein. FIG. 10 assumes that the computer network can only secure a communication speed of about 10 MBPS, and that the display terminal is a PC or the like. The network is connected to various other machines as a private network. It is not realistic to distribute a video in a network in such a general network form because it puts pressure on other services. Displaying moving images while running general business applications as a display terminal PC (personal computer) is heavy. Therefore, in the present embodiment, the display terminal unit 115 has a function as a function of synchronizing the index image (no audio) display by the index image display unit 117, the strobe picture (no audio) display by the strobe picture display unit 118, and the strobe picture. Only video display. That is, the video display unit 1007 does not receive the second compressed video over the network. When high-quality moving image reproduction is required, a local image server is installed in each display terminal unit 115. As the local video server, a simple one is an analog optical disk or a medium on which a second compressed video file is copied, and it is assumed that video and audio are recorded in advance. The display terminal unit 115 reads the scene change detection result table file 1002 when the end user instructs the control unit 1001. Next, the server process 1003 transmits only the necessary portion of the index image file, and the client process 1004 receives the index image in the display terminal unit 115, and the video display unit 11
9 is displayed. The server process and the client process are provided to transmit only a necessary portion as a stream in real time without reading the entire large-capacity video file on the network. For example, when the user specifies a portion of a video to be searched for by an index image by the functions of the server process and the client process, the display control unit 1001 instructs the server process 1005 to send a strobe picture file from the corresponding frame. And server process 1
005 sends a strobe picture file from an arbitrary position to the network, and the client process 1006
The image display unit 1007 reads the strobe picture file and the audio file, and outputs the strobe picture to the image display unit and the audio to the speaker. At this time, it is of course possible to display only the strobe picture. In addition, if it is desired to prevent similar images from being arranged in the strobe picture display, it is possible to read the digest data file and display only strobe pictures having a low similarity to reduce the redundancy.

【0044】また、ローカルな映像サーバ1008を設
ければ、1008に指令することによってインデクス画
像で指定されたフレーム番号から頭出しされた映像を高
画質な動画オーディオ同期出力として得ることが出来
る。これらの表示機能はすべて表示制御手段によってユ
ーザインタフェースと一緒に制御され、エンドユーザに
自由に映像にアクセスすることを許す。
Further, if a local video server 1008 is provided, it is possible to obtain a high-quality moving image audio synchronous output of a video fetched from a frame number designated by an index image by instructing the local video server 1008. All of these display functions are controlled by the display control means together with the user interface, allowing the end user to freely access the video.

【0045】図11は、コンピュータネットワークが16
0MBのATMなどを使用し、表示端末部115としても高性
能ワークステーションなどを用いる系、あるいは、ネッ
トワーク自体の性能は低いが映像専用のネットワークが
用意されている系である。ここでも、インデクス画像表
示とストロボピクチャ表示としては図10と同様のデー
タの流れを呈するが、映像表示の場合に、表示制御手段
が頭出し再生テーブルファイル1101を読み込んでお
く。それを元に、ユーザがインデクス画像によって頭出
し再生したい部分を指定すると、第2の圧縮映像ファイ
ル1102内の任意位置までシークし、シーク位置より
第2の圧縮映像ファイルをサーバプロセス1003が送
出し、クライアントプロセス1104が圧縮映像を受信
して第3のデコーダ1105へ送る。第3のデコーダで
は、頭出しMPEGシステムストリームのデコード開始
位置を前記頭出し再生テーブルから取得し、ビデオスト
リームとオーディオストリームに分離して、ビデオ映像
を映像表示部へ、オーディオをスピーカへ出力する。
FIG. 11 shows that the computer network is 16
This is a system that uses a 0 MB ATM or the like and uses a high-performance workstation or the like as the display terminal unit 115, or a system in which the network itself is low but a video-only network is prepared. Here also, the index image display and the strobe picture display show the same data flow as in FIG. 10, but in the case of video display, the display control means reads the cue reproduction table file 1101 in advance. When the user specifies a portion to be searched and reproduced by an index image based on the index image, the server process 1003 seeks to an arbitrary position in the second compressed video file 1102 and sends the second compressed video file from the seek position. , The client process 1104 receives the compressed video and sends it to the third decoder 1105. The third decoder obtains the decoding start position of the cueing MPEG system stream from the cueing reproduction table, separates the stream into a video stream and an audio stream, and outputs a video image to a video display unit and audio to a speaker.

【0046】以上のようにエンドユーザは、インデクス
画像を指定することにより、ストロボピクチャ、オーデ
ィオ付きのストロボピクチャ、通常映像を、映像の任意
の場所から即座に頭出しして再生することができる。
As described above, by specifying an index image, the end user can immediately search for a strobe picture, a strobe picture with audio, and a normal video from an arbitrary position in the video and reproduce it.

【0047】なお、本実施の形態では、図1における映
像出力部106は映像をアナログビデオ、オーディオ信
号として出力しているが、デジタル出力することも可能
である。この場合には、第1の映像編集部113での映
像出力部106にけるマーカ映像付加と、第2の映像編
集部114でのマーカ映像検出部109は不要になる。
また、第1のディスク装置103と第2のディスク装置
112も便宜上、分離されているが同一でもよい。ま
た、第2の映像編集部114におけるシステムエンコー
ダ108は第2のエンコーダ107がシステムストリー
ムまで作成するものであれば不必要である。
In the present embodiment, the video output unit 106 shown in FIG. 1 outputs video as analog video and audio signals, but digital output is also possible. In this case, the addition of the marker video in the video output unit 106 in the first video editing unit 113 and the marker video detection unit 109 in the second video editing unit 114 become unnecessary.
Also, the first disk device 103 and the second disk device 112 are separated for convenience, but may be the same. Further, the system encoder 108 in the second video editing unit 114 is unnecessary if the second encoder 107 creates up to a system stream.

【0048】また、第2のデコーダ116と第3のデコ
ーダは同じものでも良い。
The second decoder 116 and the third decoder may be the same.

【0049】[0049]

【発明の効果】以上のように本発明によればまず、ネッ
トワーク自身の回線容量とネットワークに接続された表
示端末自体の性能によっては映像を通常に再生表示でき
ない場合に対応するために、ストロボピクチャ再生表示
という手段をとってすべてのユーザに相応の映像データ
供給を可能にしている。
As described above, according to the present invention, first, in order to cope with a case where a video cannot be normally reproduced and displayed depending on the line capacity of the network itself and the performance of the display terminal connected to the network, a strobe picture is used. By means of reproduction and display, appropriate video data can be supplied to all users.

【0050】つぎにフレーム内映像符号化アルゴリズム
(モーションJPEGなど)を用いて映像を全フレーム
分キャプチャしチェンジ検出処理手段などに向けて最適
化し、次にフレーム間映像符号化アルゴリズム(MPE
Gなど)を用いて再エンコードすることによりユーザ表
示用の圧縮映像を作成する構成をとることによりコス
ト、性能的に効率的な映像編集を可能にしている。
Next, the video is captured for all the frames using an intra-frame video encoding algorithm (such as motion JPEG) and optimized for the change detection processing means, and then the inter-frame video encoding algorithm (MPE).
G, etc.) to create a compressed video for user display by re-encoding, thereby enabling cost-effective and efficient video editing.

【0051】さらに、映像入力制御部は完全無人化での
番組録画をねらい、番組の放送時間が曜日ごとに変更さ
れても録画管理情報はこれに対処できる、などという有
利な結果が得られる。
Further, the video input control section aims at completely unattended recording of the program, and the recording management information can cope with this even if the broadcast time of the program is changed for each day of the week.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態によるシステム構成を示す
FIG. 1 is a diagram showing a system configuration according to an embodiment of the present invention;

【図2】同実施形態における録画時間の変動に対処する
FIG. 2 is a diagram for coping with a change in recording time according to the embodiment;

【図3】同実施形態におけるシステムの動作全体の流れ
FIG. 3 is a flowchart showing the entire operation of the system according to the embodiment;

【図4】同実施形態における映像編集処理の流れ図FIG. 4 is a flowchart of a video editing process according to the embodiment;

【図5】同実施形態における第2のエンコードとシステ
ムエンコードを示す図
FIG. 5 is a view showing a second encoding and a system encoding in the embodiment.

【図6】同実施形態におけるシーンチェンジ検出処理を
示す図
FIG. 6 is an exemplary view showing a scene change detection process in the embodiment.

【図7】同実施形態におけるストロボピクチャ作成処理
を示す図
FIG. 7 is an exemplary view showing strobe picture creation processing in the embodiment.

【図8】同実施形態における頭出し再生テーブル作成を
示す図
FIG. 8 is a view showing creation of a cue reproduction table in the embodiment.

【図9】同実施形態におけるストロボピクチャ作成を示
す図
FIG. 9 is a view showing strobe picture creation in the embodiment.

【図10】同実施形態における低速コンピュータネット
ワークにおけるデータの流れを示す図
FIG. 10 is a diagram showing a data flow in the low-speed computer network in the embodiment.

【図11】同実施形態における高速コンピュータネット
ワークにおけるデータの流れを示す図
FIG. 11 is a diagram showing a data flow in the high-speed computer network in the embodiment.

【符号の説明】[Explanation of symbols]

101 映像入力制御部 102 第1のエンコーダ 103 第1のディスク装置 104 第1のデコーダ 105 シーンチェンジ検出部 106 映像出力部 107 第2のエンコーダ 108 システムエンコーダ 109 マーカ映像検出部 110 ストロボピクチャ生成部 111 頭出し再生テーブル生成部 112 第2のディスク装置 113 第1の映像編集部 114 第2の映像編集部 115 表示端末部 116 第2のデコーダ 117 インデクス画像表示手段 118 ストロボピクチャ表示手段 119 映像表示部 120 第3のデコーダ 101 video input control unit 102 first encoder 103 first disk device 104 first decoder 105 scene change detection unit 106 video output unit 107 second encoder 108 system encoder 109 marker video detection unit 110 strobe picture generation unit 111 head Output / playback table generator 112 second disk device 113 first video editor 114 second video editor 115 display terminal 116 second decoder 117 index image display 118 strobe picture display 119 video display 120 3 decoders

───────────────────────────────────────────────────── フロントページの続き (72)発明者 谷口 幸治 神奈川県川崎市多摩区東三田3丁目10番 1号 松下技研株式会社内 (56)参考文献 特開 平6−236593(JP,A) 特開 平3−89786(JP,A) 特開 平6−36389(JP,A) 特開 平2−294957(JP,A) 特開 平6−105280(JP,A) 特開 昭64−68084(JP,A) 特開 平2−32473(JP,A) (58)調査した分野(Int.Cl.7,DB名) H04N 5/76 - 5/956 H04N 7/24 - 7/68 H04N 9/79 - 9/898 G11B 20/10 - 20/12 ──────────────────────────────────────────────────続 き Continuation of the front page (72) Koji Taniguchi 3-10-1, Higashi Mita, Tama-ku, Kawasaki City, Kanagawa Prefecture Inside Matsushita Giken Co., Ltd. (56) References JP-A-6-236593 (JP, A) JP-A-3-89786 (JP, A) JP-A-6-36389 (JP, A) JP-A-2-294957 (JP, A) JP-A-6-105280 (JP, A) JP-A-64-68084 ( JP, A) JP-A-2-32473 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) H04N 5/76-5/956 H04N 7 /24-7/68 H04N 9 / 79-9/898 G11B 20/10-20/12

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 映像を入力する映像入力制御部と、前記
映像入力制御部で入力された映像を蓄積するディスク装
置と、前記蓄積された映像のシーンチェンジを検出し、
前記のシーンチェンジの先頭の画像を集めたインデクス
画像ファイルを作成する第1の映像編集部と、前記第1
の映像編集部から出力された映像とインデクス画像ファ
イルからストロボピクチャを作成する第2の映像編集部
と、ネットワークを介して圧縮映像、インデクス画像フ
ァイル及びストロボピクチャを入力し、前記インデクス
画像を出力するインデクス画像表示手段と、前記ストロ
ボピクチャを出力するストロボピクチャ表示手段と、前
記ディスク装置からの映像、インデクス画像表示手段及
びストロボピクチャ表示手段の出力の少なくとも1つを
表示する映像表示手段とからなる表示端末部とを具備す
る映像処理装置。
1. An image input control unit for inputting an image, a disk device for storing the image input by the image input control unit, and detecting a scene change of the stored image.
A first video editing unit for creating an index image file in which the first image of the scene change is collected;
And a second video editing unit that creates a strobe picture from the video output from the video editing unit and the index image file, and a compressed video, an index image file, and a strobe picture via a network, and output the index image. A display comprising: an index image display means; a strobe picture display means for outputting the strobe picture; and a video display means for displaying at least one of the video from the disk device, the output of the index image display means and the output of the strobe picture display means. A video processing device comprising a terminal unit.
【請求項2】 映像とテレビ番組情報を取得する映像入
力制御部と、前記インターネットを介して取得したテレ
ビ番組情報を基に予め設定された録画時間を変更して録
画制御する映像編集部とを備えることを特徴とする映像
処理装置。
2. A video input control unit for acquiring video and television program information, and a video editing unit for controlling recording by changing a preset recording time based on the television program information acquired via the Internet. A video processing device comprising:
【請求項3】 ネットワークを介して圧縮映像、インデ
クス画像ファイル及びストロボピクチャを入力し、前記
圧縮映像を伸張するデコーダと、前記インデクス画像フ
ァイルの画像を出力するインデクス画像表示手段と、前
記ストロボピクチャを出力するストロボピクチャ表示手
段と、前記デコーダ、インデクス画像表示手段及びスト
ロボピクチャ表示手段の出力の少なくとも1つを表示す
る映像表示手段とを備えることを特徴とする表示端末装
置。
3. A decoder which inputs a compressed video, an index image file and a strobe picture via a network, and expands the compressed video, an index image display means for outputting an image of the index image file, and the strobe picture. A display terminal device comprising: a strobe picture display unit for outputting; and a video display unit for displaying at least one of the outputs of the decoder, the index image display unit, and the strobe picture display unit.
JP31200495A 1995-11-30 1995-11-30 Video processing equipment Expired - Fee Related JP3144285B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31200495A JP3144285B2 (en) 1995-11-30 1995-11-30 Video processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31200495A JP3144285B2 (en) 1995-11-30 1995-11-30 Video processing equipment

Publications (2)

Publication Number Publication Date
JPH09154097A JPH09154097A (en) 1997-06-10
JP3144285B2 true JP3144285B2 (en) 2001-03-12

Family

ID=18024053

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31200495A Expired - Fee Related JP3144285B2 (en) 1995-11-30 1995-11-30 Video processing equipment

Country Status (1)

Country Link
JP (1) JP3144285B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3102407B2 (en) 1998-02-26 2000-10-23 日本電気株式会社 Dynamic editing method for received broadcast data and dynamic editing device for received broadcast data
KR100368324B1 (en) * 1999-06-23 2003-01-24 한국전자통신연구원 A apparatus of searching with semantic information in video and method therefor
US6574417B1 (en) * 1999-08-20 2003-06-03 Thomson Licensing S.A. Digital video processing and interface system for video, audio and ancillary data
JP3710992B2 (en) * 2000-03-31 2005-10-26 株式会社東芝 Video index production system
KR20020024666A (en) * 2000-09-26 2002-04-01 엄정수 Broadcasting apparatus in the internet and method
EP2202649A1 (en) 2002-04-12 2010-06-30 Mitsubishi Denki Kabushiki Kaisha Hint information describing method for manipulating metadata

Also Published As

Publication number Publication date
JPH09154097A (en) 1997-06-10

Similar Documents

Publication Publication Date Title
US7694320B1 (en) Summary frames in video
JP4515465B2 (en) Moving picture photographing apparatus and moving picture photographing method, moving picture reproducing apparatus and moving picture reproducing method for reproducing a video signal recorded on a recording medium
US20020089602A1 (en) Compressed timing indicators for media samples
EP1781030A1 (en) Recording apparatus and method, reproducing apparatus and method, recording medium, and program
EP1143719A2 (en) Method and apparatus for concealing disk soft errors in recorded digital television signals
US7496281B2 (en) Signal recording apparatus and method and signal reproduction apparatus and method
JPH0923403A (en) Information recording device and information reproducing device
JP2003521173A (en) Suspension and resumption of extended television broadcasting
KR101055494B1 (en) Transmission device and transmission method, playback device and playback method, and recording medium
US5867229A (en) Video effects using a video record/playback device
JP2004180290A (en) Apparatus and method of transmission, apparatus and method of reproduction, program and recording medium
US20070086728A1 (en) Digital video recording device ticker playback system and method
US7921445B2 (en) Audio/video speedup system and method in a server-client streaming architecture
WO2010125757A1 (en) Video/audio reproduction device, video/audio recording/ reproduction device, video/audio reproduction method, and video/audio recording/reproduction method
JP3144285B2 (en) Video processing equipment
JP2004153791A (en) Moving image/sound recording apparatus and moving image/sound recording method
WO2000027113A1 (en) Recording/reproducing apparatus and method
JPH08237592A (en) Real time video recording/reproducing device and method therefor and video library system
JPH1155626A (en) Television signal coder and television signal recorder
CN107018442B (en) A kind of video recording synchronized playback method and device
JP3632028B2 (en) Multi-channel video compression method and apparatus
JPH10276388A (en) Device, method for processing and reproducing image and recording medium
JP2004040579A (en) Digital broadcast reception device and synchronous reproduction method for digital broadcast
US6128435A (en) Good quality video for the internet at very low bandwidth
KR100899046B1 (en) Moving-image shooting device, moving-image reproducing device, method of shooting moving-image, method of reproducing a coded video signal and method of reproducing the moving-image

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080105

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090105

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100105

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110105

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120105

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees