JP2005237020A - Digital video processing apparatus and method - Google Patents

Digital video processing apparatus and method Download PDF

Info

Publication number
JP2005237020A
JP2005237020A JP2005069901A JP2005069901A JP2005237020A JP 2005237020 A JP2005237020 A JP 2005237020A JP 2005069901 A JP2005069901 A JP 2005069901A JP 2005069901 A JP2005069901 A JP 2005069901A JP 2005237020 A JP2005237020 A JP 2005237020A
Authority
JP
Japan
Prior art keywords
signal
input
data
video
audio signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005069901A
Other languages
Japanese (ja)
Inventor
Kenji Kawai
賢治 川合
Koji Takahashi
宏爾 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005069901A priority Critical patent/JP2005237020A/en
Publication of JP2005237020A publication Critical patent/JP2005237020A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a digital video processing apparatus which minimizes video deterioration, even when if further proprietary compression process is conducted to a compression-processed input image information. <P>SOLUTION: The apparatus comprises an input means to input encoded picture signal and sound signal; a first identification means to identify the picture signal and the sound signal input by the input means; a decoding means to decode the picture signal and the sound signal identified by the identification means; a reencoding means to re-encode at least either of the image signal and the sound signal by a different encoding system from the image signal or the sound signal; an identification information generating means to generate information to identify the picture signal and the sound signal encoded by the reencoding means as a set of data blocks; a recording means to record in a recording medium, by adding the identification information to the reencoded image signal and the sound signal; a detecting means to detect the identification information; a reproducing means to reproduce the image signal and the sound signal; and an operating means to instruct recording, reproduction and detection of the image signal and the sound signal. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、多段に圧縮処理を行いながら入出力においてデータの取り扱いの容易性をはかるようにしたディジタル映像処理装置及びディジタル映像処理方法に関する。   The present invention relates to a digital video processing apparatus and a digital video processing method that facilitate data handling in input / output while performing multistage compression processing.

近年、画像のディジタル処理が検討されている。特に、画像データを圧縮するための高能率符号化については、標準化に向けて各種方式が提案されている。高能率符号化技術は、ディジタル伝送及び記録等の効率を向上させるために、より小さいビットレートで画像データを符号化するものである。このような高能率符号化方式として、CCITTは、テレビ会議/電話用の標準化勧告案H.261、カラー静止画用のJPEG(Joint Photographic Coding Experts Group )方式及び動画用のMPEG(Moving Picture Image Coding Experts Group )方式を提案している。これら3種類の提案はいずれもDCTを基本としたシステムである。
また、HDTVへの応用として米国ではFCCにおいてATV(Advanced Television )と称してMPEG方式を改良した圧縮技術を用いてディジタルHDTV放送の実現化を進めている。
In recent years, digital processing of images has been studied. In particular, for high-efficiency coding for compressing image data, various methods have been proposed for standardization. The high-efficiency encoding technique encodes image data at a smaller bit rate in order to improve the efficiency of digital transmission and recording. As such a high-efficiency coding system, CCITT is a standardization recommendation H.264 for video conference / telephone. 261, a JPEG (Joint Photographic Coding Experts Group) system for color still images and an MPEG (Moving Picture Image Coding Experts Group) system for moving pictures are proposed. These three types of proposals are all based on DCT.
In addition, as an application to HDTV, in the United States, the FCC is promoting the realization of digital HDTV broadcasting by using a compression technique improved by the MPEG method called ATV (Advanced Television).

特開平4−371074号公報Japanese Patent Laid-Open No. 4-371074

上述のように、入出力画像の形態が多様化すると、例えば記録しようとした場合、ハードの対応や記録容量の増大に係る問題を招く。従来は圧縮された画像を受けた場合、その画像をそのまま記録するか伸張して再生していた。しかし、記録媒体の記憶容量を考慮すると、更なる圧縮処理を必要とする場合が出てくる。
また、コンポーネント方式のD1型VTRは、業務用VTR市場において、コンポジット方式のD2型VTRよりも画質が良いとされながらも、スタジオシステムに浸透していない理由として、価格以外にシステム接続時のデータ形式の不一致が指摘されている。
As described above, when the input / output image forms are diversified, for example, when recording is attempted, problems associated with hardware compatibility and an increase in recording capacity are caused. Conventionally, when a compressed image is received, the image is recorded as it is or expanded and reproduced. However, when the storage capacity of the recording medium is taken into consideration, there are cases where further compression processing is required.
The component-type D1-type VTR has better image quality than the composite-type D2-type VTR in the commercial VTR market. Inconsistencies in format have been noted.

本発明は、上記の実情に鑑み成されたもので、圧縮処理された入力画像情報に対してさらに独自の圧縮処理を行っても画質劣化が少なく、出力時に入力画像情報と同じデータ構造にすることのできるディジタル映像処理装置及びディジタル映像処理方法を得ることを目的とする。   The present invention has been made in view of the above-described circumstances, and even when an original compression process is further performed on the compressed input image information, there is little deterioration in image quality, and the data structure is the same as that of the input image information at the time of output. An object of the present invention is to obtain a digital video processing apparatus and a digital video processing method.

本発明のディジタル映像処理装置は、符号化された映像信号及び音声信号を入力する入力手段と、前記入力手段により入力された映像信号及び音声信号を識別する第1の識別手段と、前記識別手段により識別された映像信号及び音声信号を復号する復号手段と、前記映像信号または音声信号と異なる符号化方式で前記映像信号及び音声信号の少なくとも一方を再符号化する再符号化手段と、前記再符号化手段で符号化された映像信号及び音声信号を一組のデータブロックとして識別する情報を発生する識別情報発生手段と、前記再符号化された映像信号及び音声信号に前記識別情報を付加して記録媒体に記録する記録手段と、前記識別情報を検出する検出手段と、前記映像信号及び音声信号を再生する再生手段と、前記映像信号及び音声信号の記録、再生、及び検索を指示する操作手段とを備えたことを特徴とする。   The digital video processing apparatus of the present invention includes an input means for inputting an encoded video signal and an audio signal, a first identification means for identifying the video signal and the audio signal input by the input means, and the identification means Decoding means for decoding the video signal and audio signal identified by the recoding means, re-encoding means for re-encoding at least one of the video signal and audio signal by a different encoding method from the video signal or audio signal, and the re-encoding means. Identification information generating means for generating information for identifying the video signal and audio signal encoded by the encoding means as a set of data blocks; and adding the identification information to the re-encoded video signal and audio signal. Recording means for recording on the recording medium, detecting means for detecting the identification information, reproducing means for reproducing the video signal and audio signal, and the video signal and audio signal Recording, reproduction, and is characterized in that an operating means for instructing the search.

また、本発明のディジタル映像処理方法は、符号化された映像信号及び音声信号を入力する入力工程と、前記入力工程により入力された映像信号及び音声信号を識別する第1の識別工程と、前記識別工程により識別された映像信号及び音声信号を復号する復号工程と、前記映像信号または音声信号と異なる符号化方式で前記映像信号及び音声信号の少なくとも一方を再符号化する再符号化工程と、前記再符号化工程で符号化された映像信号及び音声信号を一組のデータブロックとして識別する情報を発生する識別情報発生工程と、前記再符号化された映像信号及び音声信号に前記識別情報を付加して記録媒体に記録する記録工程と、前記識別情報を検出する検出工程と、前記映像信号及び音声信号を再生する再生工程と、前記映像信号及び音声信号の記録、再生、及び検索を指示する操作工程とを備えたことを特徴とする。   The digital video processing method of the present invention includes an input step of inputting an encoded video signal and an audio signal, a first identification step of identifying the video signal and the audio signal input by the input step, A decoding step of decoding the video signal and the audio signal identified by the identification step, and a re-encoding step of re-encoding at least one of the video signal and the audio signal by an encoding scheme different from the video signal or the audio signal; An identification information generating step for generating information for identifying the video signal and audio signal encoded in the re-encoding step as a set of data blocks; and the identification information in the re-encoded video signal and audio signal. In addition, a recording step for recording on the recording medium, a detection step for detecting the identification information, a reproduction step for reproducing the video signal and the audio signal, and the video signal and sound Recording of the signal, playback, and is characterized in that an operation step of instructing the search.

本発明によれば、入力された映像信号及び音声信号に対して異なる符号化方式を選択し再符号化することにより、画質劣化が少なく入力時よりも少ないデータ量で記録媒体に画像を記録することが可能となる。また、記録された識別情報により所望の箇所の映像信号および音声信号の再生が可能となる。   According to the present invention, by selecting and re-encoding different encoding methods for the input video signal and audio signal, the image is recorded on the recording medium with less image quality degradation and less data amount than the input time. It becomes possible. Further, it is possible to reproduce a video signal and an audio signal at a desired location based on the recorded identification information.

以下、本発明のディジタル画像情報処理装置の一実施例を図面を参照しながら詳細に説明する。
(1)処理ステップとデータ量との関係
図1、図2に情報源の入力から出力となる伝送路までの各処理ステップにおけるデータ量の変化を示す。
図1では、情報源から米国FCCに提案されているATV(Advanced TV )方式によって圧縮された信号がディジタル伝送されたものをMPEG−1の方式で内部圧縮する場合を例にとって説明する。
Hereinafter, an embodiment of a digital image information processing apparatus of the present invention will be described in detail with reference to the drawings.
(1) Relationship between processing steps and data amount FIGS. 1 and 2 show changes in the data amount in each processing step from the input of the information source to the output transmission path.
In FIG. 1, a case where a signal compressed by an ATV (Advanced TV) system proposed by the US FCC from an information source and digitally transmitted is internally compressed by the MPEG-1 system will be described as an example.

ATV方式は、米国ディジタルHDTVの統一規格として、グランド・アライアンス(大同盟)によって固められつつある。このATV方式の特徴は次のとおりである。 走査方式は、有効走査線数1080本のインターレース方式とスクエア・ピクセルによる720本プログレッシブ方式の両方式をサポートするマルチ走査を採用している。また、フレーム・レートでは24Hzと30Hz、フィールド周波数でも59.94Hzと60Hzの両方をサポートするシステムとしている。   The ATV system is being consolidated by the Grand Alliance as a unified standard for US digital HDTV. The features of this ATV system are as follows. The scanning method employs multi-scanning that supports both an interlace method with 1080 effective scanning lines and a 720 progressive method with square pixels. Further, the system supports both 24 Hz and 30 Hz in the frame rate and 59.94 Hz and 60 Hz in the field frequency.

映像方式では、MPEG−2に準拠し、メインプロファイルのハイレベルで完全互換を確保している。このため、Bフレームを採用しACリークを除外した。この様に、MPEG−2に準拠しているため、MPEG−2の基本となるMPEG−1とは共通の処理パラメーターが多い。MPEGシステム内では、デコーダーのアッパーコンパチは確保されるが、本例の様に、二段で圧縮する場合においても、後述するMPEG−1のアルゴリズムや、パラメータの相似点からも判る通り、画質維持の点で効果が有る。   The video system conforms to MPEG-2 and ensures complete compatibility at the high level of the main profile. For this reason, the B frame was adopted and AC leakage was excluded. In this way, since it is compliant with MPEG-2, there are many common processing parameters with MPEG-1, which is the basis of MPEG-2. In the MPEG system, the decoder's upper compatibility is ensured. However, even in the case of two-stage compression as in this example, the image quality is maintained as can be seen from the MPEG-1 algorithm and parameter similarity described later. It is effective in terms of

このようなATV方式の入力信号をMPEG−1の方式で内部圧縮するが、このMPEG−1の特徴を以下に説明する。
MPEG−1は、1.5Mbpsの符号化レートを確保し、動き補償フレーム間予測とDCTを用いた符号化方式を基本としている。そして、ランダムアクセス機能を実現するために、GOP(Group of Pictures )と呼ばれる複数の画像フレームから構成されるレイヤーを設けている。GOPは、フレーム内符号化フレーム(Iピクチャ)、前方向予測符号化フレーム(Pピクチャ)、両方向予測符号化フレーム(Bピクチャ)の3種類の符号化フレームから構成される。
各フレーム(Picture レイヤー)は、Slice 、Macro Block (MB)、Block の各レイヤーによって、階層的に構成されている。Picrure は1つ以上の S lice、Slice は1つ以上のMB、MBは6つのBlocK (4つの輝度信号Block と2つの色差信号Block )で構成される。Block のサイズは8画素*8ラインである。
Such an ATV system input signal is internally compressed by the MPEG-1 system. The characteristics of this MPEG-1 will be described below.
MPEG-1 has a coding rate of 1.5 Mbps and is based on a coding method using motion compensated interframe prediction and DCT. In order to realize the random access function, a layer composed of a plurality of image frames called GOP (Group of Pictures) is provided. The GOP is composed of three types of encoded frames: an intra-frame encoded frame (I picture), a forward predictive encoded frame (P picture), and a bidirectional predictive encoded frame (B picture).
Each frame (Picture layer) is hierarchically configured by Slice, Macro Block (MB), and Block layers. Picrure is composed of one or more slices, Slice is composed of one or more MBs, and MB is composed of six BlocKs (four luminance signals Block and two color difference signals Block). The block size is 8 pixels * 8 lines.

また、動きに関しては、予測法としてフレーム間の相関を利用する手法や、フレーム内予測法がある。さらに、動きを16*16のブロック単位でサーチしたり、画面全体をサーチする方法により、動き補償を行ってもよい。例えば、ハーフペル動き補償は、予測画素の位置が2画素の間で2画素の丸め付き平均をとるものである。
尚、圧縮の変換原理としては、例えばNTSC方式であればDCTの代わりにアダマール変換を用いても良い。
Regarding motion, there are a method using a correlation between frames and an intra-frame prediction method as a prediction method. Furthermore, motion compensation may be performed by searching for motion in units of 16 * 16 blocks or by searching the entire screen. For example, in the half-pel motion compensation, a predicted pixel position is an average with two pixels rounded between two pixels.
As a compression conversion principle, for example, in the NTSC system, Hadamard conversion may be used instead of DCT.

図1において、第1圧縮回路50では、DCTを用いたATV方式の圧縮処理により、情報源のデータ量が削減される。この状態で映像信号は伝送路を経て受信側へと供給される。入力された映像信号は、第1伸張回路51で元の情報源のデータ量まで戻す。次に、内部処理を規定するための前処理にあたる標準化回路52で、例えばCCIR勧告601に準じたデータ構造の標準化を行う。輝度信号は13.5MHz、色信号は6.75MHzでサンプリングし8bitで量子化を行う。また、MPEG−1の基本画像フォーマットとなるSIF(Source Input Format )のサンプリングに合わせるために、クロマのサンプリングを4:2:2から4:2:0に変換する。こうすることによりMPEG−1準拠のデータとして取り扱いが容易になる。   In FIG. 1, in the first compression circuit 50, the data amount of the information source is reduced by the ATV compression process using DCT. In this state, the video signal is supplied to the receiving side through the transmission path. The input video signal is returned to the data amount of the original information source by the first decompression circuit 51. Next, standardization of the data structure in accordance with, for example, the CCIR recommendation 601 is performed in the standardization circuit 52 which is a preprocessing for defining internal processing. The luminance signal is sampled at 13.5 MHz, the color signal is sampled at 6.75 MHz, and quantization is performed at 8 bits. Also, in order to match the SIF (Source Input Format) sampling, which is the basic image format of MPEG-1, the chroma sampling is converted from 4: 2: 2 to 4: 2: 0. This facilitates handling as MPEG-1 compliant data.

次に標準化された映像信号を第2圧縮回路53により圧縮処理を行い、更なるデータ量の削減を行う。この状態で蓄積媒体54に圧縮されたデータの記録を行う。尚、記録動作についての詳細は後述する。次に、再生時には第2伸張回路55で圧縮前のデータ量まで伸張し、第1圧縮回路56にて再び圧縮し伝送路を経て出力する。   Next, the standardized video signal is compressed by the second compression circuit 53 to further reduce the data amount. In this state, the compressed data is recorded on the storage medium 54. Details of the recording operation will be described later. Next, at the time of reproduction, the data is decompressed by the second decompression circuit 55 to the data amount before compression, compressed again by the first compression circuit 56, and output through the transmission line.

図2は情報源から世界標準としての共通中間フォーマットであるCIF規格によって圧縮された信号がディジタル伝送された場合を示す。
CIF(Common Intermediate Format)は、CIFの画素数を1/4に減らしたQCIF(Quater CIF)と共にテレビ会議、テレビ電話用符号化として規格化され、動き補償付き予測とDCTを基本とした世界標準フォーマットである。DCTは8*8画素ブロックで行う。入力信号をそのまま符号化するフレーム内符号化モードと、8*8画素の輝度信号ブロックを4つとそれに対応する色差信号ブロックからなるマクロブロック単位で前フレームからの予測誤差を符号化するフレーム間予測符号化モードがある。
FIG. 2 shows a case where a signal compressed by the CIF standard, which is a common intermediate format as a world standard, is digitally transmitted from an information source.
CIF (Common Intermediate Format) is standardized as a video conference and videophone coding together with QCIF (Quater CIF) with the number of CIF pixels reduced to 1/4, and is a global standard based on motion compensated prediction and DCT Format. DCT is performed in 8 * 8 pixel blocks. Intraframe coding mode that encodes the input signal as it is, and interframe prediction that encodes the prediction error from the previous frame in units of macroblocks consisting of four 8 * 8 pixel luminance signal blocks and corresponding color difference signal blocks There is an encoding mode.

動き補償は、マクロブロック単位で水平垂直と+−15画素の範囲で行う。フレーム内符号化は、JPEGベースライン・システムと同様の方法で行う。このようなCIF画像が入力されると、図2のように図1とは逆に伝送路から供給された入力データ量が少ないので、標準化の過程でデータ量を増やして内部処理を行い易くする。その他の圧縮、伸張処理は図1の例と同様である。   Motion compensation is performed in the range of horizontal and vertical and + -15 pixels in units of macroblocks. Intraframe coding is performed in the same manner as the JPEG baseline system. When such a CIF image is input, the amount of input data supplied from the transmission path is small as shown in FIG. 2 in contrast to FIG. 1, so that the amount of data is increased during the standardization process to facilitate internal processing. . Other compression and decompression processes are the same as in the example of FIG.

以上のように、本発明はデータ構造の異なる情報源に応じて、内部で標準化を行い圧縮処理をして記録再生を行い、出力時に入力時のデータ構造と一致させるものである。   As described above, according to the present invention, in accordance with information sources having different data structures, internal standardization is performed, compression processing is performed, and recording / reproduction is performed.

次に、本発明による具体的な処理について図3、図4を参照しながら説明する。尚、図3、図4においては図1同一箇所は同一符号を付している。
図3、図4において、伝送路から入力された入力信号は第1伸張回路51に入力されると共に方式判別回路57に入力されて画像の方式判別をし、その判別された情報を第1の判別情報ID1として蓄積媒体54に記録する。このID1はさらに表1のルールブック1を参照して決定する第1ルールブック回路58に入力し、入力された画像方式を第1伸張回路51に入力する。これにより、当該方式に見合った伸張を行うことができる。
Next, specific processing according to the present invention will be described with reference to FIGS. In FIGS. 3 and 4, the same portions as those in FIG. 1 are denoted by the same reference numerals.
3 and 4, the input signal input from the transmission line is input to the first decompression circuit 51 and also input to the method determination circuit 57 to determine the image method, and the determined information is used as the first information. Recorded in the storage medium 54 as the discrimination information ID1. This ID 1 is further input to the first rule book circuit 58 determined with reference to the rule book 1 in Table 1, and the input image system is input to the first decompression circuit 51. Thereby, the expansion | extension suitable for the said system can be performed.

Figure 2005237020
Figure 2005237020

<具体例−1>
図3の例は、ATVのシンタックス等に基づいて判別する方式判別回路57からのID1は、方式決定回路60に入力される。方式決定回路60では最適な方式を決定するために、表1、表2のルールブック1及びルールブック2を参照し、方式決定回路60で決定された方式を第2の判別情報ID2として蓄積媒体54に記録する。
<Specific example-1>
In the example of FIG. 3, ID <b> 1 from the method determining circuit 57 that determines based on the syntax of ATV or the like is input to the method determining circuit 60. In order to determine the optimum method, the method determining circuit 60 refers to the rule book 1 and rule book 2 in Tables 1 and 2 and uses the method determined by the method determining circuit 60 as the second discrimination information ID2 as a storage medium. 54.

Figure 2005237020
Figure 2005237020

例えば、HD1125という方式と判別されたら、ルールブック1で規定されているファクタの内、画質劣化を極力少なくするために共通するファクタをルールブック2の中から選択する。本実施例では、特に再符号化時の画質決定の大きな要因であるブロックサイズを重視し、ブロック数16*16でDCTを行い8bitで量子化する点で共通する方式を第2ルールブック回路59の中から選択すると、方式2−4が決定されることになる。   For example, if it is determined that the method is HD1125, a common factor is selected from the rule book 2 in order to minimize image quality degradation among factors defined in the rule book 1. In the present embodiment, the second rulebook circuit 59 uses a common method in that DCT is performed with the number of blocks 16 * 16 and quantization is performed with 8 bits, with particular emphasis on the block size, which is a major factor in determining image quality during re-encoding. Method 2-4 is determined by selecting from the above.

このようにして決定されたID2は、第2ルールブック回路59を経て、決定された方式に応じて圧縮処理するように第2圧縮回路53に供給される。これにより、入力信号に最適な内部独自の圧縮処理が行われる。上記第1伸張回路51による伸張後、前処理として標準化回路52により標準化を行い、更に入力時の圧縮形態と同様なファクタで圧縮処理を行うことによって、画質劣化が少なく入力時よりも少ないデータ量で蓄積媒体54に画像を記録することが可能となる。   The ID2 determined in this way is supplied to the second compression circuit 53 through the second rule book circuit 59 so as to be compressed in accordance with the determined method. Thereby, an internal unique compression process optimal for the input signal is performed. After decompression by the first decompression circuit 51, standardization is performed by the standardization circuit 52 as preprocessing, and further compression processing is performed with the same factor as the compression mode at the time of input, thereby reducing image quality degradation and a smaller amount of data than at the time of input. Thus, an image can be recorded on the storage medium 54.

<具体例−2>
図4は方式決定に関し、予め方式判別と方式毎の圧縮率を規定した対応表61を用いる例を示す。図中の対応表61の詳細を表3に示す。
<Specific example-2>
FIG. 4 shows an example of using the correspondence table 61 that predetermines the method discrimination and the compression rate for each method regarding the method determination. Details of the correspondence table 61 in the figure are shown in Table 3.

Figure 2005237020
Figure 2005237020

まず、ID1が方式決定回路60に供給され、方式が決定されるが、さらに圧縮率に応じてA、B、Cの3種類の方式を選択可能とすることで、画質の劣化を極力防ぐことが可能となる。尚、パラメータとして、Q特性等も考慮に入れて選択しても良い。そして、決定された方式をID2として記録し、かつ第2圧縮回路53に供給して圧縮処理を行い、画像を記録する。   First, ID1 is supplied to the method determination circuit 60, and the method is determined. Further, by making it possible to select three types of A, B, and C according to the compression rate, deterioration of image quality is prevented as much as possible. Is possible. Note that the parameter may be selected in consideration of the Q characteristic and the like. Then, the determined method is recorded as ID2 and supplied to the second compression circuit 53 to perform compression processing and record an image.

再生時は、蓄積媒体54からID2の情報を読み取り、第2ルールブック回路59に従って方式に関する情報が決定される。この出力信号に応じて第2伸張回路55により伸張される。さらに、蓄積媒体54から、ID1の情報を読み取り、入力時のデータ量と一致するように、第1ルールブック回路58に従って第1圧縮回路56で圧縮を行う。このようにして出力させることで、入出力で同じデータを取り扱うことが可能となり、その間の画質の劣化は極力排除される。   At the time of reproduction, ID2 information is read from the storage medium 54, and information on the method is determined according to the second rulebook circuit 59. In response to the output signal, the second decompression circuit 55 decompresses the signal. Further, the ID1 information is read from the storage medium 54 and compressed by the first compression circuit 56 in accordance with the first rulebook circuit 58 so as to coincide with the data amount at the time of input. By outputting in this way, it becomes possible to handle the same data in input and output, and the deterioration of image quality during that time is eliminated as much as possible.

尚、ルールブック1に示した画像構造の各画素数は以下の通りである。
CIF :360*288
QCIF:180*144
NTSC:720*525
HDTV:1920*1125
The number of pixels of the image structure shown in the rule book 1 is as follows.
CIF: 360 * 288
QCIF: 180 * 144
NTSC: 720 * 525
HDTV: 1920 * 1125

更に、画像構造別の画面の画素数の詳細を図5に示す。図5においては、入出力画面を画素イメージで図示した。また、( )内の数字は符号化有効画素数を示す。尚、NTSC/PAL、SECAMを併記した。   Further, FIG. 5 shows details of the number of pixels on the screen for each image structure. In FIG. 5, the input / output screen is illustrated as a pixel image. The numbers in parentheses indicate the number of encoded effective pixels. NTSC / PAL and SECAM are also shown.

<具体例−3>
上記各具体例では、常時方式決定の際ルールブックを参照し書き込んであるため、ルールブックへのアクセス時間がかかる。そこでこの具体例−3では、入力信号に応じて方式変更フラグを発生させる方式をとる。つまり、入力信号の映像処理方式がいつも同じであれば、CFL=0とし方式変更無しとして一定のルールに従って処理する。一方、映像方式が途中で終わると、CFL=1を検出して上記具体例1又は2で示したID1を確認し、所定のルールブックに従い映像方式に応じた最適な圧縮を選択し処理する。
<Specific example-3>
In each of the above specific examples, since the rule book is always referred to and written when determining the method, it takes time to access the rule book. Therefore, in this specific example-3, a method of generating a method change flag according to the input signal is adopted. That is, if the video processing method of the input signal is always the same, CFL = 0 and no processing is changed and processing is performed according to a certain rule. On the other hand, when the video system ends in the middle, CFL = 1 is detected, ID1 shown in the above specific example 1 or 2 is confirmed, and optimum compression according to the video system is selected and processed according to a predetermined rule book.

このようにすることにより、方式が変更しない限り同一方式でルールブックにアクセスすることなく圧縮処理されるため、効率良く映像方式に見合った圧縮処理を行うことができる。
また、各データブロック内のID1及びID2の記録を止めた場合、データレートが削減される。
更に、ID1、ID2とCFLを併記した場合には、上記効率化を図りながらもサーチ等の特殊画面再生時におけるデコード処理に破綻をきたさない。
By doing so, since the compression processing is performed without accessing the rule book by the same method unless the method is changed, the compression processing corresponding to the video method can be performed efficiently.
Further, when recording of ID1 and ID2 in each data block is stopped, the data rate is reduced.
Further, when ID1, ID2 and CFL are written together, the decoding process at the time of reproduction of a special screen such as search does not break down while improving the efficiency.

(2)記録動作
以下、図6を参照して記録動作について説明する。
音声信号入力端子1、2より各々左(L)右(R)のステレオ音声信号が入力され、A/D変換器4、5でディジタル音声信号に変換される。このディジタル音声信号は各々信号処理回路7、8で各種雑音除去やダイナミックレンジの制限等を施した後、オーディオデータ圧縮回路10で音声信号用のデータ圧縮処理を行う。例えば、MPEGで提案されている適応変換符号化(ATAC,ASPEC)や帯域分割符号化(MUSICAM,SB/ADPCM)を用いてもよいし、L/Rの相関を用いた2チャンネル混合でのベクトル符号化等を用いても良い。
(2) Recording Operation Hereinafter, the recording operation will be described with reference to FIG.
Left (L) and right (R) stereo audio signals are input from the audio signal input terminals 1 and 2, respectively, and are converted into digital audio signals by the A / D converters 4 and 5. The digital audio signal is subjected to various noise removal and dynamic range restriction by the signal processing circuits 7 and 8, respectively, and then the audio data compression circuit 10 performs data compression processing for the audio signal. For example, adaptive transform coding (ATAC, ASPEC) or band division coding (MUSICAM, SB / ADPCM) proposed by MPEG may be used, or a vector in a two-channel mixture using L / R correlation. Encoding or the like may be used.

一方、映像入力端子3より入力されたビデオ等の映像信号は、上記A/D変換器4、5より高速処理可能なA/D変換器6により、ディジタル映像信号に変換される。このディジタル映像信号はビデオ信号処理回路9で処理された後、映像信号用のビデオデータ圧縮回路11でデータ量を数10〜数100分の1程度に圧縮する。例えば、時間的な画像相関を用いたフレーム間相関処理と、上記の手法における画質劣化を減少させるための動き補償(MC)、さらに、MPEGの符号化方式によれば、所定枚数のフレーム画像でGOPを構成し、これを時間軸で前方向から行う前方向予測フレーム(Pピクチャ)や前後(過去と未来)から行う両方向予測フレーム(Bピクチャ)による圧縮等を適宜組合わせることで実現可能である。   On the other hand, a video signal such as video input from the video input terminal 3 is converted into a digital video signal by the A / D converter 6 capable of processing at higher speed than the A / D converters 4 and 5. After this digital video signal is processed by the video signal processing circuit 9, the video data compression circuit 11 for the video signal compresses the data amount to about several tenths to several hundredths. For example, inter-frame correlation processing using temporal image correlation, motion compensation (MC) for reducing image quality degradation in the above-described method, and according to the MPEG encoding method, a predetermined number of frame images This can be realized by composing GOP and appropriately combining compression with forward prediction frames (P pictures) performed from the front on the time axis and bidirectional prediction frames (B pictures) performed from the front and back (past and future). is there.

具体的には、MPEGで提案されているアルゴリズムの内、MPEG−1では、1/2インチVTR程度の標準画質、MPEG−2ではNTSC以上の画質を確保することができる。処理の詳細は、例えば1992年日経BP社発行の「最前線レポート ディジタルテレビ」第34〜第44頁に記載されている。   Specifically, among the algorithms proposed in MPEG, MPEG-1 can ensure a standard image quality of about 1/2 inch VTR, and MPEG-2 can ensure an image quality higher than NTSC. Details of the processing are described, for example, in “Front-line report digital television” published by Nikkei BP in 1992, pages 34-44.

次に後述するID信号発生回路12よりのデータと音声データ及び映像データとをデータ合成回路13により合成した後、メイン・メモリ18へ格納する。このメイン・メモリ18は、メモリ・コントローラ17によりメモリ・アドレスや書き込み/読み出し等の制御が行われている。更に、メモリ・コントローラ17は、システム・コントローラ16により、動作の切り換え等の装置全体としての制御が行われている。   Next, data from an ID signal generation circuit 12 (to be described later), audio data, and video data are synthesized by the data synthesis circuit 13 and then stored in the main memory 18. The main memory 18 is controlled by a memory controller 17 such as a memory address and writing / reading. Further, the memory controller 17 is controlled by the system controller 16 as a whole device such as operation switching.

このシステム・コントローラ16は、操作キー19により記録/再生/検索などの指示が入力され、これを受けてメモリ・コントローラ17の制御を行うと同時に、動作状況や記録/再生時間等を示すタイムコード等の情報を表示部材20に表示し、アドレス情報生成回路15へもタイムコード等を知らせる。このタイムコードには主に2種類ある。その第1は、記録媒体もしくは映像プログラムの冒頭からの経過時間やカメラ撮影の累積時間等である。第2は記録またはカメラ撮影時の年月日や時分秒フレームの時刻等である。後者のタイムコード発生のために、カレンダ・クロック発生回路14を備えている。   The system controller 16 receives an instruction such as recording / playback / search by the operation key 19 and controls the memory controller 17, and at the same time, indicates a time code indicating an operation state, recording / playback time, and the like. And the like are displayed on the display member 20, and the address information generation circuit 15 is also notified of the time code and the like. There are mainly two types of time codes. The first is the elapsed time from the beginning of the recording medium or video program, the cumulative time of camera shooting, and the like. The second is the date of recording or camera shooting, time of hour / minute / second frame, and the like. In order to generate the latter time code, a calendar clock generation circuit 14 is provided.

アドレス情報生成回路15は、メモリ・コントローラ17からの情報格納状況等のデータを受取り、各情報のデータ量等を示す情報としてID信号発生回路12へデータを転送する。このデータの内容の一例を図7に示す。   The address information generation circuit 15 receives data such as information storage status from the memory controller 17 and transfers the data to the ID signal generation circuit 12 as information indicating the data amount of each information. An example of the contents of this data is shown in FIG.

システム・コントローラ16からの情報に基づきタイムコード、画質や音声のモード選択等を生成し、メモリ・コントローラ17からの情報に基づき映像や音声のデータ量(可変長符号可の場合はデータ長)とデータ格納のメモリ上の先頭のアドレス値とを生成し、ID信号発生回路12へ転送し、各IDデータ・ブロックとして一まとめにし、データ合成回路13によりデータ・ブロックを構成する。このデータ・ブロックの格納されているメイン・メモリ18の先頭番地を順次IDファイルに書き込んでいく。   Based on information from the system controller 16, a time code, image quality, audio mode selection, and the like are generated. Based on information from the memory controller 17, the amount of video and audio data (data length when variable length code is possible) and The first address value on the memory for storing data is generated and transferred to the ID signal generation circuit 12 to be grouped as each ID data block, and the data synthesis circuit 13 forms a data block. The head address of the main memory 18 in which this data block is stored is sequentially written to the ID file.

(3)データ構成
図7に固体メモリで構成されたメイン・メモリ18中のデータ格納例を示す。
図7の上部に横軸を時間軸とし、所定時間(T0 )毎にID信号を生成する様子を示している。
図7の中央部には、固体メモリのアドレス空間の概念図を示す。ID信号の後には、可変長符号化により処理期間毎にデータ量の異なる映像及び音声の情報データが順次格納されていく。そのため、IDデータ発生は一定間隔(T0 )であるが、メモリ上では図示の通り等間隔にはならない。
(3) Data Configuration FIG. 7 shows an example of data storage in the main memory 18 configured with a solid-state memory.
FIG. 7 shows a state in which the horizontal axis is a time axis and an ID signal is generated every predetermined time (T 0 ).
7 shows a conceptual diagram of the address space of the solid-state memory. After the ID signal, video and audio information data having different data amounts for each processing period are sequentially stored by variable length coding. For this reason, ID data is generated at regular intervals (T 0 ), but not at regular intervals on the memory as shown in the figure.

そこで、検索時にデータブロックに高速アクセスできるようにするため、図7の上部に示すように、データブロックの格納場所を示すアドレスを一まとめにしたIDファイルを生成しておく。このIDファイルは、データブロックの先頭番地だけを整然とメイン・メモリ18の記憶容量に応じて予め設定されたエリアに格納するものである。このIDデータは固定長で、図7の例では、合計10種類の基本情報を有している。   Therefore, in order to enable high-speed access to the data block at the time of retrieval, an ID file in which addresses indicating the storage locations of the data blocks are collected as shown in the upper part of FIG. In this ID file, only the head address of the data block is stored in an area preset according to the storage capacity of the main memory 18 in an orderly manner. This ID data has a fixed length, and in the example of FIG. 7, has a total of 10 types of basic information.

これらの基本情報は、SMPTEに準じたタイムコード、記録時間とのトレードオフで画質や音質を選択し、可変長のAV(オーディオ及びビデオ)の各データの先頭番地及びデータ量を格納する。映像方式判別は、入力映像情報に応じて伸張や記録媒体への圧縮の方式を選択する2つの判別情報IDを有する。情報源からの信号の圧縮形態を判別するものを映像方式判別1とし前述のID1を取り扱うものであり、受信側で圧縮方式を決定するものを映像方式判別2とし前述のID2を取り扱うものとする。削除済フラグは、一度記録したデータを消去する際に、物理的なデリート処理の前に復帰可能な論理消去状態として、前記フラグにて通常の再生を禁止するものである。   As these basic information, image quality and sound quality are selected by trade-off with time code and recording time according to SMPTE, and the start address and data amount of each data of variable length AV (audio and video) are stored. The video system discrimination has two discrimination information IDs for selecting a decompression or compression method to a recording medium according to input video information. What determines the compression form of the signal from the information source is the video system discrimination 1 and handles the above-mentioned ID1, and what determines the compression system on the receiving side is the video system discrimination 2 and handles the above-mentioned ID2. . The deleted flag is a logical erasure state that can be restored before physical delete processing when data once recorded is erased, and normal reproduction is prohibited by the flag.

音声信号は、L、R各チャンネルの初期化情報(リセット・データ)と圧縮処理を施した可変長のオーディオ・データで構成される。
映像信号は、例えばフレーム内符号化等による初期化画面(映像リセット・データ)と各種の圧縮方式により、可変長符号化された圧縮データにより構成されている。
The audio signal is composed of initialization information (reset data) for each of the L and R channels and variable-length audio data subjected to compression processing.
The video signal is composed of, for example, an initialization screen (video reset data) by intra-frame encoding or the like and compressed data variable-length encoded by various compression methods.

各IDデータ毎に、以上の構成の映像データと音声データが一組としてデータ・ブロックを構成している。本データ・ブロックは、時間軸により定義された間隔で生成される点に特徴がある。
映像信号の一例を図8に示す。ここでは、HDTV方式(垂直1125本)のTV信号を基本として、アスペクト比9:16のTV信号を入力信号としている。HDTV信号では、NTSC信号に対して、ほぼ水平方向で2.5倍、垂直方向で2倍の解像度になっており、全体で5倍の情報量が毎秒30画面分発生し、図6の入力端子3へ供給される。
For each ID data, the video data and audio data having the above configuration constitute a data block as a set. This data block is characterized in that it is generated at intervals defined by the time axis.
An example of the video signal is shown in FIG. Here, a TV signal having an aspect ratio of 9:16 is used as an input signal based on a TV signal of the HDTV system (vertical 1125 lines). The HDTV signal is approximately 2.5 times the resolution in the horizontal direction and 2 times the resolution in the vertical direction with respect to the NTSC signal, and a total of 5 times the amount of information is generated for 30 screens per second. Supplied to terminal 3.

この映像信号は、A/D変換器6でディジタルデータ化された後、ビデオ信号処理回路9にコンポーネント信号(Y:R−Y:B−Y=4:2:2)として入力される。ここで、1画素当たり輝度(Y)を8bit、色差を各々1/2のサンプリングレートで8bit量子化すると、1.2Gbpsとなる。これに、1/200の圧縮処理を施し、約6Mbpsまでデータ量を削除する。   This video signal is converted into digital data by the A / D converter 6 and then input as a component signal (Y: RY: BY = 4: 2: 2) to the video signal processing circuit 9. Here, when the luminance (Y) per pixel is 8 bits and the color difference is 8 bits quantized at a sampling rate of 1/2, 1.2 Gbps is obtained. This is subjected to a 1/200 compression process, and the data amount is deleted up to about 6 Mbps.

また、コンパクト・ディスク相当の音質のステレオ音声信号のデータレートは、1.5Mbpsなので、これに1/5の圧縮処理を施し1.3Mbpsとする。よって、AV合計で約6.3Mbpsとなる。従って、1Gbitで10分記録できることになる。   Further, since the data rate of a stereo audio signal having a sound quality equivalent to that of a compact disc is 1.5 Mbps, the data is subjected to 1/5 compression to 1.3 Mbps. Therefore, the AV total is about 6.3 Mbps. Therefore, it can be recorded for 10 minutes at 1 Gbit.

なお、映像信号として他に、現行の標準TV放送方式のNTSC/PALは勿論のこと、H.261に規定されるテレビ電話の国際規格であるQCIF、CIFの形態であってもよい。
以上のようなデータ処理にてメイン・メモリ18にAVデータを格納することになるが、メイン・メモリの増設や、ICカード等の交換可能なメモリ形態を採ることも可能になる。
In addition to the current standard TV broadcast system NTSC / PAL, H. It may be in the form of QCIF and CIF, which are international standards for videophones defined in H.261.
The AV data is stored in the main memory 18 by the data processing as described above, but it is possible to increase the main memory or replace the memory form such as an IC card.

(4)再生動作
操作キー19により再生動作を指示すると、システムコントローラ16は表示部材20に再生動作中の旨を表示し、メモリコントローラ17によりメモリアドレスとリード/ライトを制御し、メイン・メモリ18から記録動作により格納した情報信号を読み出す。前述の例で言えば毎秒30画面の映像情報と、ステレオ(または2チャンネル分の)音声情報とこれらの検索のためのID情報とが読み出される。
(4) Reproduction Operation When a reproduction operation is instructed by the operation key 19, the system controller 16 displays on the display member 20 that the reproduction operation is in progress, the memory controller 17 controls the memory address and read / write, and the main memory 18 The information signal stored by the recording operation is read out. In the above example, 30 screens of video information per second, stereo (or 2 channels) audio information, and ID information for searching for them are read out.

上記3種のデータが混合された状態(シリアルデータ情報)でデータ分配器21へ情報供給される。データ分配器21にて、データは各々以下の通り分配される。
IDデータは、検索情報再生回路22において各ID毎に図7に示す通りの情報を検出し、モニタのための表示情報を表示情報再生回路23で発生し、ビデオデータ伸張回路24により復元された映像情報と加算器27で合成し、D/A変換器28で汎用性のあるアナログ信号に変換し、映像モニタ30へ表示する。
Information is supplied to the data distributor 21 in a mixed state (serial data information). The data distributor 21 distributes the data as follows.
For the ID data, the information shown in FIG. 7 is detected for each ID in the search information reproduction circuit 22, display information for monitoring is generated in the display information reproduction circuit 23, and restored by the video data decompression circuit 24. The video information is combined with the adder 27, converted into a general-purpose analog signal by the D / A converter 28, and displayed on the video monitor 30.

オーディオデータは、オーディオデータ伸張回路25においてビデオデータと同様に記録時のデータ圧縮処理と逆のデータ伸張処理を施し、記録時の入力信号と同等の音声信号を再生する。データ選択回路26では音響モニタ用の音声信号を生成するためのD/A変換器29及びディジタルオーディオ出力端子33へ供給するデータを出力する。   The audio data is subjected to a data expansion process opposite to the data compression process at the time of recording in the audio data expansion circuit 25 as with the video data, and an audio signal equivalent to the input signal at the time of recording is reproduced. The data selection circuit 26 outputs data to be supplied to the D / A converter 29 and the digital audio output terminal 33 for generating an audio signal for acoustic monitoring.

映像と音声の各データは、前述のID信号を用いて、再生信号処理に要する遅延時間等によるズレを補正し再生する。表示情報生成回路23からの情報に同期させ、各々の映像及び音声の再生信号をデータ選択回路26により出力する。このIDは、MPEG−1におけるビットストリーム構成の内、第3層のパケットヘッダ中に位置しパケットデータのでコードタイミング情報を与えることにより、異メディア間の同期をとる、いわゆるタイムスタンプに相当するものである。   Each video and audio data is reproduced by correcting the deviation due to the delay time required for the reproduction signal processing using the above-mentioned ID signal. In synchronization with the information from the display information generation circuit 23, the video and audio reproduction signals are output by the data selection circuit 26. This ID corresponds to a so-called time stamp that synchronizes between different media by providing code timing information in the packet data located in the third layer packet header in the bit stream configuration in MPEG-1. It is.

(5)ファイル構成
以上主たるデータの構造とデータ処理について詳細に説明してきたが、次に図9を用いてデータの検索性向上のために採られたデータ・ファイル構成について以下に説明する。
主たるAVデータを格納するAVデータ・ファイル40と、各種制御を行うシステム・コントローラ47と、システム・コントローラ47に各種の指示を入力する操作キー48と、システム・コントローラ47よりの指示に応じてデータ処理を行う情報処理回路41と、情報の入出力に関係する処理を行う情報入出力回路42とよりなる基本構成に検索用のファイルを追加した。
(5) File Configuration The main data structure and data processing have been described in detail above. Next, the data file configuration adopted for improving data search performance will be described below with reference to FIG.
An AV data file 40 for storing main AV data, a system controller 47 for performing various controls, an operation key 48 for inputting various instructions to the system controller 47, and data in accordance with instructions from the system controller 47 A search file is added to a basic configuration including an information processing circuit 41 that performs processing and an information input / output circuit 42 that performs processing related to information input / output.

上述の基本構成は、先に説明したように図7に含まれるので、ハード的な説明は省略してファイル構成及びその生成に関するソフト的な説明のみを以下に行う。
ビデオカメラを用いた撮影と、この時に自動発生したインデックス情報を基に検索を行う場合を例にとり図10、図11のフローチャートを用いて説明する。
Since the basic configuration described above is included in FIG. 7 as described above, the hardware description is omitted, and only the software configuration related to the file configuration and its generation will be described below.
An example of shooting using a video camera and searching based on index information automatically generated at this time will be described with reference to the flowcharts of FIGS.

<記録系>
図9、図10において、入力端子を経由して不図示のビデオカメラからの映像および音声の信号が供給されている状態で、図10のステップS1、S2で操作キー48により撮影開始または撮影終了の指示が入力されると、システム・コントローラ47はインデックス生成回路46へインデックス情報を発生させるべく指示を出す。これを受けて、インデックス生成回路46はステップS3〜S9により2つの検索用のファイルを生成もしくは更新する。インデックス情報は内容に応じてレベル1〜3に分けられる。
その一つは時刻ファイル44で、インデックス情報の生成指示の出された時刻を入力中のAVデータと対応したIDファイルに連動させ時刻データとして格納する。このため、時刻を基にした検索作業が迅速に行えるようになる。すでに説明した通り、IDファイルは一定時間間隔で生成しているので、撮影の開始時刻と終了時刻がわかれば、途中の任意の時刻とAVデータの対応付けは可能である。
<Recording system>
9 and 10, in a state where video and audio signals from a video camera (not shown) are supplied via the input terminal, shooting starts or ends with the operation key 48 in steps S1 and S2 in FIG. Is input, the system controller 47 instructs the index generation circuit 46 to generate index information. In response to this, the index generation circuit 46 generates or updates two search files in steps S3 to S9. The index information is divided into levels 1 to 3 according to the contents.
One of them is a time file 44, which stores the time at which an index information generation instruction is issued in conjunction with an ID file corresponding to the AV data being input as time data. For this reason, the search operation based on the time can be quickly performed. As described above, since the ID file is generated at regular time intervals, if the shooting start time and end time are known, any time in the middle can be associated with AV data.

もう一つは目次ファイル45であり、ステップS10〜S11で行われる。この目次情報とは、書籍でいうところの章や段落等に相当し、音楽で言えば楽章や小節等に相当するものである。具体的には、記録の開始/停止が小見出しで、電源の入り/切りが中身出しで、日付変わりで大見出しを振り付けるようにすれば、手軽に自動生成が可能となる。更に複雑な目次生成は、手動によれば好みに応じ如何様にも作成可能である。
この時刻ファイル及び目次ファイルの構成例を表4に示す。
The other is a table of contents file 45, which is performed in steps S10 to S11. This table of contents information corresponds to chapters and paragraphs in the book, and in music, it corresponds to movements and measures. Specifically, if the start / stop of recording is a small headline, the power is turned on / off, the content is out, and a large headline is choreographed according to the date, automatic generation can be easily performed. Further, a complicated table of contents can be generated in any way according to preference according to manual operation.
Table 4 shows a configuration example of the time file and the table of contents file.

Figure 2005237020
Figure 2005237020

また、ステップS12、S13でインデックス生成回路46からIDファイル43へ撮影開始指示に応じてIDの新規作成命令が出され、ステップS14〜S16により撮影終了指示に応じてID生成の中止命令が出される。この流れを図9では一点鎖線で示したが、AVデータ・ファイル40から直接IDファイルの空きエリアへデータ量等の情報を書き込みに行く構成としてもよい。   In steps S12 and S13, a new ID creation command is issued from the index generation circuit 46 to the ID file 43 in response to a shooting start instruction, and an ID generation stop command is issued in steps S14 to S16 according to a shooting end instruction. . Although this flow is indicated by a one-dot chain line in FIG. 9, a configuration may be adopted in which information such as the data amount is directly written from the AV data file 40 to the empty area of the ID file.

<再生系>
表4に示す時刻ファイル及び目次ファイルの構成例を用いて図11に従い再生時の検索手順を説明する。
インデックス情報はレベル1からレベル4まで設定可能であり、本例では前述の大中小の見出しを各々1から3にあて、4は未使用のためオールゼロを割り当てている。この最小レベル単位にインデックス・ワードを構成している。
IDファイルの項目には開始ID番号と終了ID番号が、時刻ファイルの項目には開始時刻の年月日及び時分秒が、目次ファイルの項目には必要に応じてインデックスの目次名称が登録される。勿論ブランクでも構わない。
<Reproduction system>
A search procedure at the time of reproduction will be described with reference to FIG. 11 using configuration examples of a time file and a table of contents file shown in Table 4.
Index information can be set from level 1 to level 4. In this example, the above-mentioned large, medium, and small headings are assigned to 1 to 3, respectively, and 4 is unused, so all zeros are assigned. An index word is formed in this minimum level unit.
The start ID number and end ID number are registered in the ID file item, the start date and time and the hour, minute, and second are registered in the time file item, and the index table of contents name is registered in the table of contents file item as required. The Of course, it can be blank.

従って、このような状態において、ステップS21〜S34により、インデックスに対応するIDを用いてIDファイルにアクセスし、AVデータの格納アドレスを読みだし、このアドレス情報でAVデータ・ファイル40をアクセスすることで所望の箇所の再生が可能となる。   Accordingly, in such a state, in steps S21 to S34, the ID file is accessed using the ID corresponding to the index, the AV data storage address is read, and the AV data file 40 is accessed using this address information. Thus, it becomes possible to reproduce a desired portion.

一方、目次ファイルからの検索は、S36〜S40によりインデックスをサーチし、目次名称が登録されていれば、目次名称をディスプレイ表示し、登録されていなければ、時刻検索とほぼ同様の手順(インデックス→ID→AV)でAVデータ・ファイルにアクセスし、映像情報としてディスプレイ表示しても良い。   On the other hand, in the search from the table of contents file, the index is searched in S36 to S40. If the table of contents name is registered, the table of contents name is displayed on the display. If the table of contents is not registered, the procedure is almost the same as the time search (index → The AV data file may be accessed by ID → AV) and displayed on the display as video information.

他の実施例として、記録・再生という蓄積系のみならず情報伝送の通信系に応用することもできる。
また、2段の圧縮方式の組み合わせ例としては、DCTを用いた圧縮とフラクタル法を用いた圧縮との組み合わせでもよい。
As another embodiment, the present invention can be applied not only to a recording / reproducing storage system but also to an information transmission communication system.
As an example of a combination of two-stage compression methods, a combination of compression using DCT and compression using a fractal method may be used.

本発明の実施例による処理ステップとデータ量との関係を示した構成図である。It is the block diagram which showed the relationship between the process step by the Example of this invention, and data amount. 本発明の他の実施例による処理ステップとデータ量との関係を示した構成図である。It is the block diagram which showed the relationship between the process step by other Example of this invention, and data amount. 本発明の実施例によるディジタル画像情報処理装置の要部を示すブロック図である。It is a block diagram which shows the principal part of the digital image information processing apparatus by the Example of this invention. 本発明の他の実施例によるディジタル画像情報処理装置の要部を示すブロック図である。It is a block diagram which shows the principal part of the digital image information processing apparatus by the other Example of this invention. 入出力画像の代表例を示す説明図である。It is explanatory drawing which shows the representative example of an input-output image. 本発明の実施例によるディジタル画像情報処理装置の全体を示すブロック図である。1 is a block diagram showing an entire digital image information processing apparatus according to an embodiment of the present invention. 本発明の実施例によるデータ構成の概念図である。It is a conceptual diagram of the data structure by the Example of this invention. 本発明の実施例による入力情報の概念図である。It is a conceptual diagram of the input information by the Example of this invention. 本発明の実施例によるファイル構成の概念図である。It is a conceptual diagram of the file structure by the Example of this invention. 本発明の実施例によるフローチャートである。3 is a flowchart according to an embodiment of the present invention. 本発明の実施例による検索時のフローチャートである。5 is a flowchart at the time of search according to an embodiment of the present invention.

符号の説明Explanation of symbols

53 第2圧縮回路
57 方式判別回路
58 ルールブック1
59 ルールブック2
60 方式決定回路
53 Second compression circuit 57 Method discrimination circuit 58 Rule book 1
59 Rulebook 2
60 Method decision circuit

Claims (4)

符号化された映像信号及び音声信号を入力する入力手段と、
前記入力手段により入力された映像信号及び音声信号を識別する第1の識別手段と、
前記識別手段により識別された映像信号及び音声信号を復号する復号手段と、
前記映像信号または音声信号と異なる符号化方式で前記映像信号及び音声信号の少なくとも一方を再符号化する再符号化手段と、
前記再符号化手段で符号化された映像信号及び音声信号を一組のデータブロックとして識別する情報を発生する識別情報発生手段と、
前記再符号化された映像信号及び音声信号に前記識別情報を付加して記録媒体に記録する記録手段と、
前記識別情報を検出する検出手段と、
前記映像信号及び音声信号を再生する再生手段と、
前記映像信号及び音声信号の記録、再生、及び検索を指示する操作手段と
を備えたことを特徴とするディジタル映像処理装置。
Input means for inputting encoded video and audio signals;
First identification means for identifying a video signal and an audio signal input by the input means;
Decoding means for decoding the video signal and the audio signal identified by the identification means;
Re-encoding means for re-encoding at least one of the video signal and the audio signal in a different encoding method from the video signal or the audio signal;
Identification information generating means for generating information for identifying the video signal and the audio signal encoded by the re-encoding means as a set of data blocks;
Recording means for adding the identification information to the re-encoded video and audio signals and recording the recording information on a recording medium;
Detecting means for detecting the identification information;
Reproducing means for reproducing the video signal and the audio signal;
A digital video processing apparatus comprising operating means for instructing recording, reproduction, and retrieval of the video signal and audio signal.
前記再符号化手段は、複数種類の符号化の中から選択可能であることを特徴とする請求項1に記載のディジタル映像処理装置。   The digital video processing apparatus according to claim 1, wherein the re-encoding unit is selectable from a plurality of types of encoding. 符号化された映像信号及び音声信号を入力する入力工程と、
前記入力工程により入力された映像信号及び音声信号を識別する第1の識別工程と、
前記識別工程により識別された映像信号及び音声信号を復号する復号工程と、
前記映像信号または音声信号と異なる符号化方式で前記映像信号及び音声信号の少なくとも一方を再符号化する再符号化工程と、
前記再符号化工程で符号化された映像信号及び音声信号を一組のデータブロックとして識別する情報を発生する識別情報発生工程と、
前記再符号化された映像信号及び音声信号に前記識別情報を付加して記録媒体に記録する記録工程と、
前記識別情報を検出する検出工程と、
前記映像信号及び音声信号を再生する再生工程と、
前記映像信号及び音声信号の記録、再生、及び検索を指示する操作工程と
を備えたことを特徴とするディジタル映像処理方法。
An input step of inputting the encoded video signal and audio signal;
A first identification step for identifying the video signal and the audio signal input in the input step;
A decoding step of decoding the video signal and the audio signal identified by the identification step;
A re-encoding step of re-encoding at least one of the video signal and the audio signal by an encoding method different from the video signal or the audio signal;
An identification information generating step for generating information for identifying the video signal and the audio signal encoded in the re-encoding step as a set of data blocks;
A recording step of adding the identification information to the re-encoded video signal and audio signal and recording it on a recording medium;
A detection step of detecting the identification information;
A reproduction step of reproducing the video signal and the audio signal;
A digital video processing method comprising: an operation step of instructing recording, reproduction, and retrieval of the video signal and the audio signal.
前記再符号化工程は、複数種類の符号化の中から選択可能であることを特徴とする請求項3に記載のディジタル映像処理方法。   4. The digital video processing method according to claim 3, wherein the re-encoding step can be selected from a plurality of types of encoding.
JP2005069901A 2005-03-11 2005-03-11 Digital video processing apparatus and method Pending JP2005237020A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005069901A JP2005237020A (en) 2005-03-11 2005-03-11 Digital video processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005069901A JP2005237020A (en) 2005-03-11 2005-03-11 Digital video processing apparatus and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP6195262A Division JPH0865663A (en) 1994-08-19 1994-08-19 Digital image information processor

Publications (1)

Publication Number Publication Date
JP2005237020A true JP2005237020A (en) 2005-09-02

Family

ID=35019430

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005069901A Pending JP2005237020A (en) 2005-03-11 2005-03-11 Digital video processing apparatus and method

Country Status (1)

Country Link
JP (1) JP2005237020A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007143971A (en) * 2005-11-29 2007-06-14 Sankyo Kk Slot machine using game balls

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007143971A (en) * 2005-11-29 2007-06-14 Sankyo Kk Slot machine using game balls

Similar Documents

Publication Publication Date Title
KR100291404B1 (en) Digital recorder
JP3261844B2 (en) Digital video recording device and recording method
JP4769717B2 (en) Image decoding method
JP3742432B2 (en) Method for generating a signal representing an MPEG-compatible digital image that facilitates playback at multiple speeds
US7359615B2 (en) Method and device for ensuring storage time for digital broadcast
US20060039469A1 (en) Scalable video compression based on remaining battery capacity
JP3147792B2 (en) Video data decoding method and apparatus for high-speed playback
JPH0865663A (en) Digital image information processor
US6643453B1 (en) Motion picture recording/reproduction apparatus
JP3172643B2 (en) Digital recording and playback device
US7650062B2 (en) Information recording apparatus, information reproducing apparatus, and related computer programs
JP2007142809A (en) Video recording apparatus
JP3317440B2 (en) Still image playback device for recording media
JP2005237020A (en) Digital video processing apparatus and method
JP2004328796A (en) Digital image information processing apparatus and digital image information processing method
JP3964563B2 (en) Video server device
JP3800819B2 (en) Image synthesizer
JP3196764B2 (en) Moving image recording / playback method
JP2011091592A (en) Image encoder, code converter, image recorder, image reproduction device, image encoding method, and integrated circuit
JP3897783B2 (en) Image processing apparatus, control method therefor, computer program, and computer-readable storage medium
KR100225326B1 (en) Digital video signal record and playback device and method for recording and playing back the same
JP3939907B2 (en) Signal processing device
JPH10108200A (en) Image coding method and its device
GB2359438A (en) Method of changing bit rate in accordance with user selected storage mode
JP3541910B2 (en) Video signal processing device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060328

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060808