JP2009260436A - Information processing unit and information processing method, and program - Google Patents

Information processing unit and information processing method, and program Download PDF

Info

Publication number
JP2009260436A
JP2009260436A JP2008103982A JP2008103982A JP2009260436A JP 2009260436 A JP2009260436 A JP 2009260436A JP 2008103982 A JP2008103982 A JP 2008103982A JP 2008103982 A JP2008103982 A JP 2008103982A JP 2009260436 A JP2009260436 A JP 2009260436A
Authority
JP
Japan
Prior art keywords
data
rate
frame
video
video data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008103982A
Other languages
Japanese (ja)
Other versions
JP2009260436A5 (en
Inventor
Tsutomu Ichinose
勉 一ノ瀬
Hiroshi Mizuno
博志 水野
Takashi Kinoshita
隆史 木下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008103982A priority Critical patent/JP2009260436A/en
Publication of JP2009260436A publication Critical patent/JP2009260436A/en
Publication of JP2009260436A5 publication Critical patent/JP2009260436A5/ja
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information processing unit and an information processing method, capable of compressing data with high quality and efficiency, and to provide a program. <P>SOLUTION: The information processing unit has: a frame unit bit rate calculation circuit 202 for subtracting a rate distribution value obtained by performing variable-rate compression to audio data from the maximum transfer rate of primary video data and audio data to calculate a bit rate in frame units; and a primary video compression processing circuit 206 for compressing the primary video data based on the bit rate in frame units. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、コンテンツデータを圧縮処理する情報処理装置及び情報処理方法、並びにプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program for compressing content data.

従来、光ディスク等の記録メディアの作成現場において使用されるオーサリング装置は、ビデオデータ、オーディオデータ等に対してそれぞれ例えばMPEG(Moving Picture Experts Group)規格を用いたエンコード処理(圧縮符号化処理)を施す。そして、オーサリング装置は、各エンコード処理の結果得られる各エンコードデータを多重化し、この多重ストリームを記録メディアに記録する。   2. Description of the Related Art Conventionally, an authoring apparatus used in the production site of a recording medium such as an optical disc performs encoding processing (compression encoding processing) using, for example, MPEG (Moving Picture Experts Group) standards on video data, audio data, and the like. . Then, the authoring device multiplexes each encoded data obtained as a result of each encoding process, and records this multiplexed stream on a recording medium.

このようなオーサリング装置は、記録メディアに記録可能なビット量をビデオデータ、オーディオデータ等にそれぞれ配分し、配分されたビット量に納まるように、各データに対してエンコード処理を施す。   Such an authoring apparatus distributes the bit amount that can be recorded on the recording medium to video data, audio data, and the like, and performs an encoding process on each data so as to be within the allocated bit amount.

ビデオデータのエンコード手法として、いわゆる「2パスエンコード」が知られている(例えば特許文献1参照。)。2パスエンコードは、仮の(事前の)エンコード処理と、本番のエンコード処理とからなる手法である。   As a video data encoding method, so-called “two-pass encoding” is known (see, for example, Patent Document 1). Two-pass encoding is a technique that includes temporary (preliminary) encoding processing and actual encoding processing.

以下、仮のエンコード処理を1パス目のエンコード処理と称し、本番のエンコード処理を2パス目のエンコード処理と称し、2パスエンコードの概略について説明する。   Hereinafter, the temporary encoding process is referred to as a first pass encoding process, the actual encoding process is referred to as a second pass encoding process, and an outline of the two pass encoding will be described.

エンコーダは、符号化対象の一連のビデオデータに対して、エンコード条件が一定に保持された1パス目のエンコード処理を施す。このとき、1パス目のエンコード処理の際に得られる各種データ、例えば発生ビット量をフレーム単位で順次検出する。   The encoder performs a first-pass encoding process in which the encoding condition is kept constant for a series of video data to be encoded. At this time, various data obtained in the encoding process of the first pass, for example, the amount of generated bits is sequentially detected in units of frames.

次に、エンコーダは、このようにして検出されたフレーム毎の発生ビット量に基づいて、ビデオデータを構成する各フレームのそれぞれに対してビットの配分を行う。即ち、2パス目のエンコード処理で利用される目標ビット量をフレーム単位で設定する。   Next, the encoder allocates bits to each of the frames constituting the video data based on the generated bit amount for each frame detected in this way. That is, the target bit amount used in the second pass encoding process is set in units of frames.

さらに、エンコーダは、2パス目のエンコード処理で利用されるピクチャタイプの割り当てを行う。ピクチャタイプの割り当てとは、各フレームのそれぞれに対してエンコードタイプを割り当てることを示す。   Further, the encoder assigns a picture type used in the second pass encoding process. The assignment of the picture type indicates that an encoding type is assigned to each frame.

具体的には、MPEGでは、Iピクチャ(Intra-Picture)、Pピクチャ(Predictive-Picture)、及びBピクチャ(Bidirectionally Predictive-Picture)のうちのいずれかのエンコードタイプで、各フレームのそれぞれがエンコードされる。Iピクチャとは、1フレーム分の画像データを他のフレームの画像データを利用することなくそのままエンコードするといったエンコードタイプを指す。即ち、Iピクチャとは、フレーム内エンコード処理といったエンコードタイプを指す。また、PピクチャとBピクチャとは、フレーム間エンコード処理といったエンコードタイプを指す。即ち、Pピクチャとは、基本的には、1フレーム分の画像データと、それより時間的に先行するIピクチャまたはPピクチャの予測フレームの画像データとの差分(予測誤差)を求め、その差分をエンコードするといったエンコードタイプを指す。また、Bピクチャとは、基本的には、1フレーム分の画像データと、時間的に先行または後行するIピクチャ若しくはPピクチャの予測フレームの画像データとの差分(予測誤差)を求め、その差分をエンコードするといったエンコードタイプを指す。   Specifically, in MPEG, each frame is encoded with any encoding type of I picture (Intra-Picture), P picture (Predictive-Picture), and B picture (Bidirectionally Predictive-Picture). The An I picture indicates an encoding type in which image data for one frame is encoded as it is without using image data of other frames. In other words, the I picture refers to an encoding type such as an intra-frame encoding process. P picture and B picture indicate an encoding type such as an inter-frame encoding process. That is, a P picture basically calculates a difference (prediction error) between image data for one frame and image data of a predicted frame of an I picture or a P picture that precedes it in time. Encoding type such as encoding. The B picture is basically a difference (prediction error) between the image data for one frame and the image data of the predicted frame of the I picture or P picture that precedes or follows in time. An encoding type that encodes the difference.

従って、ピクチャタイプの割り当てとは、各フレームのそれぞれを、Iピクチャ、Pピクチャ、及びBピクチャといった3つのエンコードタイプのうちのいずれかに割り当てることを指す。換言すると、ピクチャタイプの割り当てとは、各GOP(Group Of Picture)構造の設定であるとも言える。   Therefore, picture type assignment refers to assigning each frame to one of three encoding types such as an I picture, a P picture, and a B picture. In other words, it can be said that the picture type assignment is a setting of each GOP (Group Of Picture) structure.

このようにして、1パス目のエンコード処理後に、その処理結果を利用して目標ビット量の設定やピクチャタイプの割り当てがフレーム単位で行われる。   In this way, after the first pass encoding process, setting of the target bit amount and picture type assignment are performed on a frame basis using the processing result.

次に、フレーム毎のピクチャタイプと目標ビット量とを少なくとも含むエンコード条件が設定されて、そのエンコード条件に従った2パス目のエンコード処理が実行される。   Next, an encoding condition including at least the picture type and the target bit amount for each frame is set, and the second pass encoding process is executed according to the encoding condition.

即ち、エンコーダは、1パス目と同一のビデオデータに対して2パス目のエンコード処理を施し、その結果得られるエンコードビデオデータを出力する。詳細には、エンコーダは、ビデオデータを構成する各フレームのデータを、割り当てられたピクチャタイプで、かつ、目標ビット量のデータとなるように順次エンコードしていく。その結果、I,B,Pピクチャのうちの何れかのエンコードフレームデータが連続配置されて形成されるビットストリームが、エンコードビデオデータとして、エンコーダから出力される。   That is, the encoder performs the second pass encoding process on the same video data as the first pass, and outputs the encoded video data obtained as a result. Specifically, the encoder sequentially encodes the data of each frame constituting the video data so as to be data of an assigned picture type and a target bit amount. As a result, a bit stream formed by continuously arranging encoded frame data of any one of I, B, and P pictures is output from the encoder as encoded video data.

また、その他のビデオデータのエンコード手法としては、例えば特許文献2及び特許文献3にも開示されている。   Other video data encoding methods are also disclosed in Patent Document 2 and Patent Document 3, for example.

特許文献2に開示されている手法とは、次の第1の処理乃至第3の処理がその順番で実行される手法である。即ち、第1の処理とは、ビデオデータの全区間に対して1パス目のエンコード処理を施す処理である。第2の処理とは、そのビデオデータのうちの一部の特定区間のみに対して2パス目のエンコード処理を施す処理である。第3の処理とは、1パス目のエンコードビデオデータのうちの特定区間のデータのみを、2パス目のエンコードビデオデータに置き換え、その結果得られるデータを最終的なエンコードビデオデータとして出力するという処理である。   The technique disclosed in Patent Document 2 is a technique in which the following first to third processes are executed in that order. That is, the first process is a process for performing the first pass encoding process on all sections of the video data. The second process is a process of performing the second pass encoding process on only a part of specific sections of the video data. In the third process, only the data in a specific section of the encoded video data of the first pass is replaced with the encoded video data of the second pass, and the resulting data is output as final encoded video data. It is processing.

また、特許文献3に開示されている手法とは次の手法である。即ち、1パス目のエンコードビデオデータのうちのビット量を削っても問題ない区間の割当量を減らして、その分のビット量を問題が発生する他の区間に割り当てるように目標ビット量を設定し、その目標ビット量に従って2パス目のエンコード処理を行う、という手法が特許文献3に開示されている。   The technique disclosed in Patent Document 3 is the following technique. In other words, the target bit amount is set so that the allocated amount of the section in which there is no problem even if the bit amount of the encoded video data in the first pass is reduced is allocated to another section where the problem occurs. Japanese Patent Application Laid-Open No. H10-228688 discloses a method of performing the second pass encoding process according to the target bit amount.

特開2000−278042号公報JP 2000-278042 A 特開2002−326864号公報JP 2002-326864 A 特開2001−53570号公報JP 2001-53570 A 特開2006−74461号公報JP 2006-74461 A

ところで、Blu-Ray(商標)ディスクで規定されているオーディオ規格には、可変レート(VBR:Variable Bit Rate)転送が可能なTureHD、DTS-HDなどがある。DTS-HDの最大転送レートは24.5Mbpsと規定され、TrueHDの最大転送レートは18Mbpsと規定されている。また、ビデオ規格については、最大転送レートが40Mbpsと規定され、セカンダリビデオデータの最大転送レートは8Mbpsと規定されている。また、Blu-Rayディスク自体の最大転送レートは54Mbpsと規定されている。   By the way, audio standards defined for Blu-Ray (trademark) discs include TureHD, DTS-HD, and the like capable of variable rate (VBR) transfer. The maximum transfer rate of DTS-HD is specified as 24.5 Mbps, and the maximum transfer rate of TrueHD is specified as 18 Mbps. As for video standards, the maximum transfer rate is defined as 40 Mbps, and the maximum transfer rate of secondary video data is defined as 8 Mbps. The maximum transfer rate of the Blu-Ray disc itself is specified as 54 Mbps.

オーディオ、セカンダリビデオなどの可変レート転送を使用したディスク製作工程では、例えば、Blu-Ray規格の転送レートに収めるために、可変レートのオーディオデータに最大レートと最小レートの差を極力抑える処理工程を追加で施し、Blu-Rayディスクのオーディオ転送帯域の余りを少なくしていた。また、セカンダリビデオデータは、セカンダリビデオの最大転送レートに収まるように平均レートを抑えてエンコードを行うか、均一レート(CBR:Constant Bit Rate)でエンコードを行っていた。   In the disc production process that uses variable rate transfer for audio, secondary video, etc., for example, a process that minimizes the difference between the maximum rate and the minimum rate for variable-rate audio data in order to keep the transfer rate of the Blu-Ray standard. In addition, the audio transfer bandwidth of Blu-Ray discs was reduced. Also, the secondary video data is encoded with an average rate suppressed so as to be within the maximum transfer rate of the secondary video, or encoded at a uniform rate (CBR: Constant Bit Rate).

また、実運用上では、オーディオ、又はセカンダリビデオの可変レートの平均レートと最大レートとを計算してBlu-Rayディスクの最大転送レートに収まるようにエンコードを行っていた。   In actual operation, the average rate and maximum rate of the variable rate of audio or secondary video are calculated and encoded so as to be within the maximum transfer rate of the Blu-Ray disc.

しかし、これらの手法では、オーディオ、セカンダリビデオなどの可変レートの最大レートが計算の基準になってしまうため、プライマリビデオデータの圧縮レート帯域が、可変レートのピークによって制限されていた。このため、ディスク規格上の転送レートが十分に活用されず、本来の可変レートの目的である高品位かつ効率化が実現されていなかった。   However, in these methods, since the maximum rate of variable rates such as audio and secondary video becomes a reference for calculation, the compression rate band of the primary video data is limited by the peak of the variable rate. For this reason, the transfer rate according to the disk standard has not been fully utilized, and the high quality and efficiency that is the purpose of the original variable rate has not been realized.

本発明は、このような従来の実情に鑑みて提案されたものであり、高品位かつ高効率にデータを圧縮することができる情報処理装置及び情報処理方法、並びにプログラムを提供する。   The present invention has been proposed in view of such conventional circumstances, and provides an information processing apparatus, an information processing method, and a program capable of compressing data with high quality and high efficiency.

本発明に係る情報処理装置は、主データと副データの最大転送レートから上記副データを可変レート圧縮して得られるレート配分値を減算してフレーム単位のビットレートを算出する算出部と、上記フレーム単位のビットレートに基づいて主データを圧縮する圧縮部とを備える。   An information processing apparatus according to the present invention includes a calculation unit that subtracts a rate distribution value obtained by variable rate compression of the sub data from a maximum transfer rate of main data and sub data to calculate a bit rate in units of frames, and A compression unit that compresses the main data based on the bit rate of each frame.

また、本発明に係る情報処理方法は、主データと副データの最大転送レートから上記副データを可変レート圧縮して得られるレート配分値を減算してフレーム単位のビットレートを算出する算出工程と、上記フレーム単位のビットレートに基づいて主データを圧縮する圧縮工程とを有する。   The information processing method according to the present invention includes a calculation step of subtracting a rate distribution value obtained by variable rate compression of the sub data from the maximum transfer rate of the main data and the sub data to calculate a bit rate in units of frames. And a compression step of compressing main data based on the bit rate of the frame unit.

また、本発明に係るプログラムは、主データと副データの最大転送レートから上記副データを可変レート圧縮して得られるレート配分値を減算してフレーム単位のビットレートを算出する算出工程と、上記フレーム単位のビットレートに基づいて主データを圧縮する圧縮工程とをコンピュータに実行させる。   Further, the program according to the present invention includes a calculation step of subtracting a rate distribution value obtained by variable rate compression of the sub data from the maximum transfer rate of the main data and sub data to calculate a bit rate in units of frames, And causing the computer to execute a compression step of compressing the main data based on the bit rate of each frame.

本発明によれば、主データと副データの最大転送レートから副データを可変レート圧縮して得られるレート配分値を減算してフレーム単位のビットレートを算出し、このフレーム単位のビットレートに基づいて主データを圧縮するため、最大転送レートを最大限に活用して、高品位かつ高効率にデータを圧縮することができる。したがって、高品位かつ効率的なディスク製作が可能になる。   According to the present invention, a bit rate for each frame is calculated by subtracting a rate distribution value obtained by variable rate compression of the sub data from the maximum transfer rate of the main data and the sub data, and based on this bit rate for each frame. Since the main data is compressed, the data can be compressed with high quality and high efficiency by making maximum use of the maximum transfer rate. Therefore, it is possible to manufacture a high-quality and efficient disk.

以下、本発明の具体的な実施の形態について、図面を参照しながら詳細に説明する。ここでは、先ずオーサリング装置の全体構成を説明し、続いてビデオデータを圧縮処理する情報処理装置について説明する。   Hereinafter, specific embodiments of the present invention will be described in detail with reference to the drawings. Here, the overall configuration of the authoring apparatus will be described first, and then the information processing apparatus that compresses video data will be described.

〔全体構成〕
図1は、本発明が適用される、スタジオ側に設置されるオーサリング装置(以下、「スタジオ側オーサリング装置」と称する)の一構成例を示している。
〔overall structure〕
FIG. 1 shows a configuration example of an authoring apparatus installed on the studio side (hereinafter referred to as “studio-side authoring apparatus”) to which the present invention is applied.

このスタジオ側オーサリング装置11は、メニュー信号処理装置21と、サブタイトル信号処理装置22と、オーディオ信号処理装置23と、ビデオ信号処理装置24と、マルチプレクサ25と、ダウンローダ26と、ファイルサーバ27と、オーサリングアプリケーション実行装置28とがネットワーク29を介して相互に接続されて構成されている。また、ダウンローダ26には、ライタ30を介して、DLT(Digital Linear Tape)31、HDD(Hard Disk Drive)32、及びネットワーク33が接続されている。なお、以下では、メニュー信号処理装置21乃至ダウンローダ26のそれぞれを「内部装置」とも称する。   The studio authoring device 11 includes a menu signal processing device 21, a subtitle signal processing device 22, an audio signal processing device 23, a video signal processing device 24, a multiplexer 25, a downloader 26, a file server 27, and an authoring. The application execution apparatus 28 is connected to each other via a network 29. Further, a DLT (Digital Linear Tape) 31, a HDD (Hard Disk Drive) 32, and a network 33 are connected to the downloader 26 via a writer 30. Hereinafter, each of the menu signal processing device 21 to the downloader 26 is also referred to as an “internal device”.

スタジオ側オーサリング装置11は、光ディスクに記録させる多重ストリームをファイルとして生成して、DLT31、HDD32、及びネットワーク33のうちの少なくとも1つに出力させる。例えば、ネットワーク33にデータを出力させた場合、ネットワーク33に接続された他の装置、例えば後述する図5のプラント側オーサリング装置101に対してデータを転送して、そのデータを他の装置に保持(記憶)させる。   The studio-side authoring device 11 generates a multiplexed stream to be recorded on the optical disc as a file and outputs it to at least one of the DLT 31, the HDD 32, and the network 33. For example, when data is output to the network 33, the data is transferred to another device connected to the network 33, for example, the plant-side authoring device 101 in FIG. 5 described later, and the data is held in the other device. (Remember).

このスタジオ側オーサリング装置11において、メニュー信号処理装置21は、オーサリングアプリケーション実行装置28により制御され、例えばビデオテープレコーダ等より供給されるメニュー画面のビデオデータに対してエンコード処理を施し、その結果得られるエンコードビデオデータをファイルサーバ27に記憶させる。   In the studio-side authoring device 11, the menu signal processing device 21 is controlled by the authoring application execution device 28, performs an encoding process on the video data of the menu screen supplied from, for example, a video tape recorder, and the result is obtained. The encoded video data is stored in the file server 27.

サブタイトル信号処理装置22は、オーサリングアプリケーション実行装置28により制御され、例えば外部のビデオテープレコーダより供給されるタイトル等のビデオデータに対してエンコード処理を施して、その結果得られるエンコードビデオデータをファイルサーバ27に記憶させる。   The subtitle signal processing device 22 is controlled by the authoring application execution device 28 and performs encoding processing on video data such as a title supplied from an external video tape recorder, for example, and the resulting encoded video data is file server 27.

オーディオ信号処理装置23は、オーサリングアプリケーション実行装置28により制御され、例えばビデオテープレコーダより供給されるオーディオデータに対してエンコード処理を施して、その結果得られるエンコードオーディオデータをファイルサーバ27に記憶させる。   The audio signal processing device 23 is controlled by the authoring application execution device 28, performs an encoding process on audio data supplied from, for example, a video tape recorder, and stores the encoded audio data obtained as a result in the file server 27.

ビデオ信号処理装置24は、オーサリングアプリケーション実行装置28により制御され、例えばビデオテープレコーダより供給されるビデオデータに対してエンコード処理を施して、その結果得られるエンコードビデオデータをファイルサーバ27に記憶させる。ビデオデータは、光ディスクに記録させる編集対象(データ)のうちの主データとなる。なお、このビデオ信号処理装置24の詳細な構成例については、図3を参照して後述する。   The video signal processing device 24 is controlled by the authoring application execution device 28, performs an encoding process on the video data supplied from, for example, a video tape recorder, and stores the encoded video data obtained as a result in the file server 27. The video data is the main data among editing objects (data) to be recorded on the optical disc. A detailed configuration example of the video signal processing device 24 will be described later with reference to FIG.

マルチプレクサ25は、オーサリングアプリケーション実行装置28により制御され、ファイルサーバ27に記憶されているエンコードオーディオデータやエンコードビデオデータをそれぞれ多重化し、その結果得られる多重ストリームをファイルとして生成する(以下、「多重化ストリームファイル」と称する。)。マルチプレクサ25により生成された多重化ストリームファイルは、ネットワーク29を介してダウンローダ26に供給される。   The multiplexer 25 is controlled by the authoring application execution device 28, multiplexes the encoded audio data and encoded video data stored in the file server 27, and generates the resulting multiplexed stream as a file (hereinafter referred to as "multiplexed"). Referred to as a stream file). The multiplexed stream file generated by the multiplexer 25 is supplied to the downloader 26 via the network 29.

ダウンローダ26は、多重化ストリームファイルを、ライタ30を介して、DLT31、HDD32、及びネットワーク33のうちの少なくとも1つに出力する。この多重化ストリームファイルは、ディスクイメージデータとして、例えば後述する図5のプラント側オーサリング装置101に供給される。なお、プラント側オーサリング装置101のさらなる説明については後述する。   The downloader 26 outputs the multiplexed stream file to at least one of the DLT 31, the HDD 32, and the network 33 via the writer 30. This multiplexed stream file is supplied as disk image data, for example, to the plant-side authoring apparatus 101 of FIG. Further explanation of the plant-side authoring apparatus 101 will be described later.

ファイルサーバ27は、例えば、ネットワーク管理機能をもつコンピュータと高速アクセス可能なディスクアレイにより構成される。ファイルサーバ27は、各内部装置からネットワーク29を介して供給されるエンコードビデオデータやエンコードオーディオデータをそれぞれ記憶する。また、ファイルサーバ27は、マルチプレクサ25等の要求に応動して、記憶されているエンコードビデオデータやエンコードオーディオデータを、ネットワーク29を介してマルチプレクサ25等に出力する。   The file server 27 is composed of, for example, a computer having a network management function and a disk array that can be accessed at high speed. The file server 27 stores encoded video data and encoded audio data supplied from each internal device via the network 29. The file server 27 outputs the stored encoded video data and encoded audio data to the multiplexer 25 and the like via the network 29 in response to a request from the multiplexer 25 and the like.

オーサリングアプリケーション実行装置28は、例えば、オーサリングアプリケーションソフトウエアを実行可能なコンピュータにより構成される。オーサリングアプリケーションソフトウエアとは、このスタジオ側オーサリング装置11全体の動作を制御するためのソフトウエアを指す。即ち、オーサリングアプリケーション実行装置28は、例えば、オペレータにより設定された各種条件に従って、上述したように各内部装置の動作を制御することになる。   The authoring application execution device 28 is constituted by, for example, a computer that can execute authoring application software. The authoring application software refers to software for controlling the overall operation of the studio authoring apparatus 11. That is, the authoring application execution device 28 controls the operation of each internal device as described above, for example, according to various conditions set by the operator.

次に、図2のフローチャートを参照して、スタジオ側オーサリング装置11の動作例について説明する。   Next, an operation example of the studio-side authoring apparatus 11 will be described with reference to the flowchart of FIG.

ステップS1において、オーサリングアプリケーション実行装置28は、オペレータの操作に従って各内部装置に対して編集リストを通知することにより、編集対象をビデオ信号処理装置24等の各内部装置に通知する。   In step S1, the authoring application execution device 28 notifies each internal device such as the video signal processing device 24 of the editing target by notifying each internal device of the edit list in accordance with the operation of the operator.

ここで、編集対象とは、例えばビデオ信号処理装置24の処理対象のビデオデータを少なくとも含む。また、その他必要に応じて、オーディオ信号処理装置23の処理対象のオーディオデータ、サブタイトル信号処理装置22の処理対象のビデオデータ、及びメニュー信号処理装置21の処理対象のビデオデータのうちの任意の数の任意の種類のデータを含むいわゆる素材(データ)を指す。   Here, the editing target includes at least video data to be processed by the video signal processing device 24, for example. In addition, if necessary, any number of audio data to be processed by the audio signal processing device 23, video data to be processed by the subtitle signal processing device 22, and video data to be processed by the menu signal processing device 21. The so-called material (data) including any kind of data.

ステップS2において、オーサリングアプリケーション実行装置28は、エンコード処理に必要な各種情報を生成し、これを一括して所定のファイルに含めた符号化ファイルを内部装置に通知する。   In step S2, the authoring application execution device 28 generates various types of information necessary for the encoding process, and notifies the internal device of an encoded file that is collectively included in a predetermined file.

具体的には、オーサリングアプリケーション実行装置28は、例えば編集対象がこれから記録される光ディスクの記録可能なデータ量を取得し、そのデータ量に基づいて、編集対象を構成する各データに割り当てるデータ量をそれぞれ計算する。そして、オーサリングアプリケーション実行装置28は、計算された各データ量のそれぞれを符号化ファイルに含めて、各内部装置のうちの対応する内部装置にそれぞれ通知する。   Specifically, the authoring application execution device 28 acquires, for example, the recordable data amount of the optical disc on which the editing target is to be recorded, and based on the data amount, assigns the data amount allocated to each data constituting the editing target. Calculate each. Then, the authoring application execution device 28 includes each of the calculated data amounts in the encoded file, and notifies the corresponding internal device among the internal devices.

例えば、ビデオ信号処理装置24に符号化ファイルを通知する場合、オーサリングアプリケーション実行装置28は、ビデオ信号処理装置24の処理対象のビデオデータを通知する。即ち、編集対象のうちのメニューやタイトルを除くビデオデータに割り当てるデータ量(以下、「ビデオデータに割り当て可能なデータ量」と称する)を、符号化ファイルに含めてビデオ信号処理装置24に通知する。   For example, when the encoded file is notified to the video signal processing device 24, the authoring application execution device 28 notifies the video data to be processed by the video signal processing device 24. That is, the amount of data allocated to video data excluding menus and titles to be edited (hereinafter referred to as “data amount that can be allocated to video data”) is included in the encoded file and notified to the video signal processing device 24. .

また、例えば、オーサリングアプリケーション実行装置28は、編集対象のうちのメニューやタイトルを除くビデオデータについて、オペレータにより設定されたチャプターの時間情報(以下、「アクセス(チャプター)ポイント」と称する)を符号化ファイルに含めてビデオ信号処理装置24に通知する。チャプターとは、フレーム内符号化処理(Iピクチャ)が強制的に割り当てられるフレームを指す。光ディスクを取り扱うことが可能な装置は、このチャプターを目標にしてトラックジャンプして記録内容を確認することができる。   Further, for example, the authoring application execution device 28 encodes chapter time information (hereinafter referred to as “access (chapter) point”) set by the operator for video data excluding menus and titles to be edited. It is included in the file and notified to the video signal processing device 24. A chapter refers to a frame to which intra-frame coding processing (I picture) is forcibly assigned. An apparatus capable of handling an optical disk can confirm the recorded contents by performing a track jump with this chapter as a target.

また、例えば、オーサリングアプリケーション実行装置28は、編集対象のうちのメニューやタイトルを除くビデオデータについて、GOPの最大表示フレーム数(例えば15フレーム)や、各GOPにおけるエンコード処理の配列等を符号化ファイルに含めてビデオ信号処理装置24に通知する。   Further, for example, the authoring application execution apparatus 28 encodes the maximum number of GOP display frames (for example, 15 frames) and the encoding processing array in each GOP for video data excluding menus and titles to be edited. To the video signal processing device 24.

また、例えば、オーサリングアプリケーション実行装置28は、必要に応じて、マルチアングルの処理対象も符号化ファイルに含めてビデオ信号処理装置24に通知する。マルチアングルとは、複数のビデオ素材を時分割多重化して光ディスクに記録することにより、ユーザの選択に応じて、例えば列車の走行シーン等を異なる撮影箇所より視聴できるようにした処理を指す。   Further, for example, the authoring application execution device 28 notifies the video signal processing device 24 of a multi-angle processing target, if necessary, in the encoded file. Multi-angle refers to a process in which a plurality of video materials are time-division multiplexed and recorded on an optical disc so that, for example, a train traveling scene can be viewed from different shooting locations according to a user's selection.

また、例えば、オーサリングアプリケーション実行装置28は、必要に応じて、「シーンチェンジ自動検出(ON/OFF)」、「光ディスクのディスク容量」、「VTRの開始及び終了時刻」等も符号化ファイルに含めてビデオ信号処理装置24に通知する。   Also, for example, the authoring application execution device 28 includes “automatic scene change detection (ON / OFF)”, “disk capacity of the optical disk”, “VTR start and end times”, etc. in the encoded file as necessary. To the video signal processing device 24.

ステップS3において、各内部装置は、この符号化ファイルに含まれる各種情報に基づいて、編集対象のうちの対応するデータをエンコードし、その結果得られる各エンコードデータのそれぞれをファイルサーバ27に記憶させる。具体的には、例えば、ビデオ信号処理装置24は、後述する図4の「ビデオデータ生成処理」を実行することになる。   In step S3, each internal device encodes corresponding data in the editing target based on various information included in the encoded file, and stores each encoded data obtained as a result in the file server 27. . Specifically, for example, the video signal processing device 24 executes “video data generation processing” in FIG. 4 to be described later.

ステップS4において、マルチプレクサ25は、ステップS3の処理でファイルサーバ27に記憶された各エンコードデータのそれぞれを多重化することで、多重化ストリームファイルを生成し、ダウンローダ26に供給する。   In step S4, the multiplexer 25 generates a multiplexed stream file by multiplexing each encoded data stored in the file server 27 in the process of step S3, and supplies the multiplexed stream file to the downloader 26.

ステップS5において、ダウンローダ26は、この多重化ストリームファイルを、ライタ30を介して、DLT31、HDD32、及びネットワーク33のうちの少なくとも1つに出力する。これにより、スタジオ側オーサリング装置11の処理は終了となる。   In step S <b> 5, the downloader 26 outputs the multiplexed stream file to at least one of the DLT 31, the HDD 32, and the network 33 via the writer 30. Thereby, the process of the studio side authoring apparatus 11 is complete | finished.

次に、図3を参照して、このスタジオ側オーサリング装置11のうちのビデオ信号処理装置24の詳細な構成例について説明する。   Next, a detailed configuration example of the video signal processing device 24 in the studio-side authoring device 11 will be described with reference to FIG.

図3に示されるように、ビデオ信号処理装置24は、例えば、ビデオテープレコーダ51、主コントローラ52、エンコーダ53、及びモニタ装置54から構成される。   As shown in FIG. 3, the video signal processing device 24 includes, for example, a video tape recorder 51, a main controller 52, an encoder 53, and a monitor device 54.

上述したステップS1の処理により、編集リストがオーサリングアプリケーション実行装置28からビデオ信号処理装置24に供給される。具体的には、編集リストは、図3に示されるように主コントローラ52に供給され、その後、ビデオテープレコーダ51に供給される。即ち、編集リストは、主コントローラ52を介してビデオテープレコーダ51に供給される。   The edit list is supplied from the authoring application execution device 28 to the video signal processing device 24 by the processing in step S1 described above. Specifically, the edit list is supplied to the main controller 52 as shown in FIG. 3 and then supplied to the video tape recorder 51. That is, the edit list is supplied to the video tape recorder 51 via the main controller 52.

ビデオテープレコーダ51は、この編集リストに従って磁気テープを再生し、これにより処理対象のビデオデータD1を出力して、エンコーダ53に供給する。   The video tape recorder 51 reproduces the magnetic tape in accordance with this edit list, thereby outputting the video data D1 to be processed and supplying it to the encoder 53.

エンコーダ53は、主コントローラ52により設定される各種エンコード条件に従って動作を切り換え、ビデオテープレコーダ51から出力されるビデオデータD1に対して、例えばMPEG規格によるエンコード処理を施す。このとき、各種エンコード条件の設定が主コントローラ52により可変制御されることにより、エンコーダ53からの発生ビット量が制御されるようになされている。   The encoder 53 switches its operation according to various encoding conditions set by the main controller 52, and performs encoding processing according to, for example, the MPEG standard on the video data D1 output from the video tape recorder 51. At this time, the setting of various encoding conditions is variably controlled by the main controller 52 so that the amount of bits generated from the encoder 53 is controlled.

さらに、エンコーダ53は、このエンコード処理の結果を主コントローラ52に通知する。これにより、主コントローラ52は、エンコーダ53のエンコード処理で使用されたピクチャタイプや、そのエンコード処理における発生ビット量をフレーム単位で検出することができる。   Further, the encoder 53 notifies the main controller 52 of the result of the encoding process. As a result, the main controller 52 can detect the picture type used in the encoding process of the encoder 53 and the generated bit amount in the encoding process in units of frames.

また、エンコーダ53は、いわゆる2パスエンコードを行う場合、1パス目と2パス目との何れのエンコード処理も実行する。   In addition, when performing so-called two-pass encoding, the encoder 53 performs both the first-pass and second-pass encoding processes.

具体的には、エンコーダ53は、2パス目のエンコード処理で利用されるエンコード条件を事前に設定するために、1パス目のエンコード処理、例えば後述する図4のステップS22の処理の一部であるエンコード処理を実行する。詳細には、エンコーダ53は、自分自身の内部処理でピクチャタイプを割り振る。そして、エンコーダ53は、そのようにして割り振られたピクチャタイプを利用してビデオデータD1に対して1パス目のエンコード処理を施し、その1パス目のエンコード処理の結果、例えば各フレームのピクチャタイプや発生ビット量等を主コントローラ52に通知する。   Specifically, the encoder 53 performs a first pass encoding process, for example, a part of the process of step S22 in FIG. 4 to be described later in order to set in advance the encoding conditions used in the second pass encoding process. Perform some encoding process. Specifically, the encoder 53 allocates a picture type by its own internal processing. Then, the encoder 53 performs the first pass encoding process on the video data D1 using the picture type allocated in this way, and the result of the first pass encoding process is, for example, the picture type of each frame. And the generated bit amount and the like are notified to the main controller 52.

2パス目のエンコード処理では、エンコーダ53は、例えば後述する図4のステップS30のエンコード処理を実行する。即ち、エンコーダ53は、主コントローラ52により設定されたフレーム単位のピクチャタイプと目標ビット量とを使用して、2パス目のエンコード処理をビデオデータD1に対して施し、その結果得られるエンコードビデオデータD2を、ネットワーク29を介してファイルサーバ27に記憶させる。このとき、エンコーダ53は、ファイルサーバ27に記憶されたビデオデータD2のデータ量等を主コントローラ52に通知する。   In the second pass encoding process, the encoder 53 executes, for example, an encoding process in step S30 in FIG. That is, the encoder 53 performs the second pass encoding process on the video data D1 using the picture type and the target bit amount set by the main controller 52, and the encoded video data obtained as a result thereof. D2 is stored in the file server 27 via the network 29. At this time, the encoder 53 notifies the main controller 52 of the data amount of the video data D2 stored in the file server 27.

モニタ装置54は、例えばディスプレイ装置等で構成され、主コントローラ52のエンコーダ53を介する制御に基づいて、エンコーダ53から出力されるエンコードビデオデータD2に対応する映像を表示する。即ち、エンコーダ53は、エンコードビデオデータD2をデコードして、その結果得られるビデオ信号をモニタ装置54に供給する。モニタ装置54は、供給されたビデオ信号に対応する映像、即ち、エンコードビデオデータD2に対応する映像を表示する。   The monitor device 54 is configured by a display device, for example, and displays video corresponding to the encoded video data D2 output from the encoder 53 based on control through the encoder 53 of the main controller 52. That is, the encoder 53 decodes the encoded video data D2 and supplies the resulting video signal to the monitor device 54. The monitor device 54 displays a video corresponding to the supplied video signal, that is, a video corresponding to the encoded video data D2.

これにより、オペレータは、エンコーダ53の処理結果をモニタ装置54で必要に応じて確認することができる。即ち、ビデオ信号処理装置24は、モニタ装置54を利用して、エンコーダ53の処理結果のプレビューを行うことができる。さらに、オペレータは、このプレビュー結果に基づいて主コントローラ52を操作することで、各種エンコード条件のそれぞれを細かく変更することができる。   Thereby, the operator can confirm the processing result of the encoder 53 on the monitor device 54 as necessary. That is, the video signal processing device 24 can preview the processing result of the encoder 53 using the monitor device 54. Further, the operator can finely change each of the various encoding conditions by operating the main controller 52 based on the preview result.

主コントローラ52は、例えば、このビデオ信号処理装置24に割り当てられたコンピュータにより構成される。主コントローラ52は、オーサリングアプリケーション実行装置28との間でネットワーク29を介するデータ通信を行うことで、このビデオ信号処理装置24全体の動作を制御する。   The main controller 52 is constituted by, for example, a computer assigned to the video signal processing device 24. The main controller 52 controls the overall operation of the video signal processing device 24 by performing data communication with the authoring application execution device 28 via the network 29.

このため、主コントローラ52には、例えば図3に示されるように、グラフィカルユーザーインターフェース(GUI:Graphical User Interface)61、ビデオテープレコーダ(VTR:Video Tape Recorder)コントロール部62、ビットアサイン部63、及び、エンコードコントロール部64が設けられている。   Therefore, for example, as shown in FIG. 3, the main controller 52 includes a graphical user interface (GUI) 61, a video tape recorder (VTR) control unit 62, a bit assign unit 63, and An encoding control unit 64 is provided.

即ち、主コントローラ52は、オーサリングアプリケーション実行装置28からの制御とオペレータの操作とのそれぞれをGUI61の管理により受け付ける。また、このGUI61により管理されるVTRコントロール部62とビットアサイン部63とエンコードコントロール部64とを用いて、ビデオテープレコーダ51、エンコーダ53、及びモニタ装置54のそれぞれの動作を制御する。   That is, the main controller 52 receives the control from the authoring application execution device 28 and the operation of the operator by the management of the GUI 61. In addition, the VTR control unit 62, the bit assign unit 63, and the encode control unit 64 managed by the GUI 61 are used to control the operations of the video tape recorder 51, the encoder 53, and the monitor device 54.

これにより、主コントローラ52は、例えば、オーサリングアプリケーション実行装置28から通知された符号化ファイルに基づいて各種エンコード条件を設定することが可能になる。なお、以下、他の内部装置に供給される符号化ファイルと区別するために、ビデオ信号処理装置24に供給される符号化ファイルを、図3の記載と併せて、符号化ファイルVENC.XMLと称する。   Accordingly, the main controller 52 can set various encoding conditions based on the encoded file notified from the authoring application execution device 28, for example. Hereinafter, in order to distinguish from the encoded file supplied to other internal devices, the encoded file supplied to the video signal processing device 24 is referred to as an encoded file VENC.XML together with the description of FIG. Called.

さらに、主コントローラ52は、上述したように、GUI61を介してオペレータの設定を受け付け、これにより、例えば、各種エンコード条件の設定を更新することができる。   Further, as described above, the main controller 52 accepts operator settings via the GUI 61, and can thereby update, for example, various encoding condition settings.

そして、主コントローラ52は、例えば、このようにして設定された或いは更新された各種エンコード条件に従ったエンコード処理を、エンコーダ53が処理対象のビデオデータD1に対して施すことを制御する。   The main controller 52 controls, for example, that the encoder 53 performs encoding processing on the video data D1 to be processed in accordance with various encoding conditions set or updated as described above.

また、主コントローラ52は、エンコーダ53から通知されたエンコード処理の結果を受け取り、そのエンコード処理の結果をオーサリングアプリケーション実行装置28に通知することができる。   The main controller 52 can receive the result of the encoding process notified from the encoder 53 and notify the authoring application execution apparatus 28 of the result of the encoding process.

VTRコントロール部62は、オーサリングアプリケーション実行装置28から通知される編集リストに従ってビデオテープレコーダ51の動作を制御することで、編集対象のビデオデータD1をビデオテープレコーダ51から再生させる。   The VTR control unit 62 controls the operation of the video tape recorder 51 in accordance with the edit list notified from the authoring application execution device 28 to reproduce the video data D1 to be edited from the video tape recorder 51.

ビットアサイン部63は、例えば、オーサリングアプリケーション実行装置28から通知される符号化ファイルVENC.XMLに従って各種エンコード条件を設定し、このエンコード条件に対応する制御データをエンコードコントロール部64に通知する。このとき、ビットアサイン部63は、例えば、オペレータのGUI61の操作に応じて、各種エンコード条件の設定を変更することができる。   For example, the bit assigning unit 63 sets various encoding conditions according to the encoded file VENC.XML notified from the authoring application execution device 28, and notifies the encoding control unit 64 of control data corresponding to the encoding conditions. At this time, the bit assigning unit 63 can change the setting of various encoding conditions in accordance with, for example, the operator's operation of the GUI 61.

ビットアサイン部63が設定するエンコード条件としては、例えば、1パス目のエンコード処理で利用される第1のエンコード条件と、2パス目のエンコード処理で利用される第2のエンコード条件とが該当する。第1のエンコード条件の中には、例えば、エンコーダ53が1パス目のエンコード処理を実行する際にその内部処理でピクチャタイプを設定するために必要な各種条件等が含まれる。これに対して、第2のエンコード条件の中には、例えば、2パス目のエンコード処理で利用される各フレームのそれぞれのピクチャタイプや目標ビット量等が含まれる。   The encoding conditions set by the bit assigning unit 63 include, for example, the first encoding condition used in the first pass encoding process and the second encoding condition used in the second pass encoding process. . The first encoding condition includes, for example, various conditions necessary for setting the picture type in the internal process when the encoder 53 executes the first pass encoding process. On the other hand, the second encoding condition includes, for example, the picture type and the target bit amount of each frame used in the second pass encoding process.

エンコードコントロール部64は、例えば、ビットアサイン部63から通知される制御ファイルに従って、エンコーダ53の1パス目と2パス目のそれぞれのエンコード処理を制御する。   For example, the encoding control unit 64 controls each encoding process of the first pass and the second pass of the encoder 53 according to the control file notified from the bit assigning unit 63.

また、エンコードコントロール部64は、エンコーダ53による1パス目のエンコード処理の結果から、エンコード処理に要する困難度と、ピクチャタイプとのそれぞれをフレーム単位で検出し、その検出結果をビットアサイン部63に通知する。すると、ビットアサイン部63は、通知されたフレーム毎の困難度とピクチャタイプとを利用して、2パス目のエンコード処理で利用される第2のエンコード条件を設定する。なお、困難度については後述する。   Further, the encoding control unit 64 detects the difficulty level required for the encoding process and the picture type from the result of the first pass encoding process by the encoder 53 in units of frames, and the detection result is sent to the bit assigning unit 63. Notice. Then, the bit assignment unit 63 sets the second encoding condition used in the second pass encoding process using the notified difficulty level and picture type for each frame. The difficulty level will be described later.

さらに、エンコードコントロール部64は、エンコーダ53の最終的な2パス目のエンコード処理の結果得られたエンコードビデオデータD2を、ネットワーク29を介してファイルサーバ27に記憶させることを制御する。   Further, the encoding control unit 64 controls the encoded video data D2 obtained as a result of the final second-pass encoding process of the encoder 53 to be stored in the file server 27 via the network 29.

次に、図4のフローチャートを参照して、このビデオ信号処理装置24におけるビデオデータ生成処理の動作例を説明する。   Next, an example of the operation of the video data generation process in the video signal processing device 24 will be described with reference to the flowchart of FIG.

オーサリングアプリケーション実行装置28から、上述した図2のステップS1の処理で編集リスト(編集対象)が通知され、ステップS2の処理で符号化ファイルVENC.XMLが供給される。さらに、この「ビデオデータ生成処理」の開始が指示されると、GUI61の管理により、VTRコントロール部62、ビットアサイン部63、及び、エンコードコントロール部64が起動されて、この「ビデオデータ生成処理」が開始される。即ち、処理は図2のステップS3に進み、ステップS3の処理のうちのビデオ信号処理装置24の処理として、この「ビデオデータ生成処理」が開始される。   The authoring application execution device 28 notifies the edit list (edit target) in the process of step S1 of FIG. 2 described above, and the encoded file VENC.XML is supplied in the process of step S2. Further, when the start of the “video data generation process” is instructed, the VTR control unit 62, the bit assignment unit 63, and the encoding control unit 64 are activated by the management of the GUI 61, and this “video data generation process” Is started. That is, the process proceeds to step S3 in FIG. 2, and this “video data generation process” is started as the process of the video signal processing device 24 in the process of step S3.

ステップS21において、主コントローラ52は、オーサリングアプリケーション実行装置28から供給された符号化ファイルVENC.XMLから、編集対象のビデオデータD1のエンコード処理に必要な各種情報を取得する。   In step S21, the main controller 52 acquires various types of information necessary for the encoding process of the video data D1 to be edited from the encoded file VENC.XML supplied from the authoring application execution device 28.

具体的には、例えば、符号化ファイルVENC.XMLに含まれる「アクセス(チャプター)ポイント」、「シーンチェンジ自動検出(ON/OFF)」、「ディスク容量」、「VTRの開始及び終了時刻」、「ビデオデータD1に割り当て可能なデータ量」などの各種情報が取得される。   Specifically, for example, “access (chapter) points”, “scene change automatic detection (ON / OFF)”, “disk capacity”, “VTR start and end times” included in the encoded file VENC.XML, Various types of information such as “amount of data that can be allocated to the video data D1” are acquired.

ステップS22において、主コントローラ52は、ビデオテープレコーダ51とエンコーダ53とを制御して、ステップS21の処理で取得された各種情報により設定される第1のエンコード条件に従った1パス目のエンコード処理を、編集対象のビデオデータD1に対して施す。そして、主コントローラ52は、1パス目のエンコード処理の結果得られる第1のエンコードビデオデータから、エンコード処理に要する困難度と、ピクチャタイプとのそれぞれをフレーム単位で検出する。   In step S22, the main controller 52 controls the video tape recorder 51 and the encoder 53 to perform the first pass encoding process according to the first encoding condition set by the various information acquired in the process of step S21. Is applied to the video data D1 to be edited. Then, the main controller 52 detects the difficulty level required for the encoding process and the picture type for each frame from the first encoded video data obtained as a result of the first pass encoding process.

具体的には、エンコーダ53は、次のようにビデオテープレコーダ51で再生された編集対象のビデオデータD1を処理する。   Specifically, the encoder 53 processes the video data D1 to be edited reproduced by the video tape recorder 51 as follows.

エンコーダ53は、このビデオデータD1を構成する各フレームのそれぞれのピクチャタイプを設定する。即ち、エンコーダ53は、主コントローラ52からの指示により指定されたフレームをIピクチャに設定する。さらに、エンコーダ53は、ステップS21の処理で取得された「シーンチェンジ自動検出」がONに設定されている場合(そのことが主コントローラ52から通知された場合)には、その前後のフレームの相関関係からシーンチェンジと判定されたフレームを強制的にIピクチャに設定する。そして、エンコーダ53は、Iピクチャに設定されたフレームから、次のIピクチャの直前のフレームまでのフレーム群をGOPとして設定していく処理を実行する。   The encoder 53 sets each picture type of each frame constituting the video data D1. That is, the encoder 53 sets the frame designated by the instruction from the main controller 52 as an I picture. Furthermore, when “automatic scene change detection” acquired in the process of step S21 is set to ON (when notified from the main controller 52), the encoder 53 correlates the frames before and after that. A frame determined to be a scene change from the relationship is forcibly set as an I picture. Then, the encoder 53 executes a process of setting a frame group from the frame set as the I picture to the frame immediately before the next I picture as the GOP.

また、エンコーダ53は、このようにして設定されたピクチャタイプを使用して、ビデオデータD1を構成する各フレームのそれぞれに対して、固定量子化ステップによる1パス目のエンコード処理を順次施していく。そして、エンコーダ53は、その際に発生するビット量、即ち、各フレームのそれぞれがエンコードされた際の発生ビット量のそれぞれを主コントローラ52に通知するとともに、各フレームのピクチャタイプを主コントローラ52に通知する。   Further, the encoder 53 sequentially performs the first pass encoding process by the fixed quantization step on each of the frames constituting the video data D1 using the picture type set in this way. . The encoder 53 notifies the main controller 52 of the amount of bits generated at that time, that is, the amount of generated bits when each frame is encoded, and the picture type of each frame to the main controller 52. Notice.

すると、主コントローラ52は、エンコーダ53からのこの通知により、困難度とピクチャタイプとのそれぞれをフレーム単位で検出する。即ち、主コントローラ52は、エンコーダ53から通知された各フレームのピクチャタイプを、そのまま各フレームのピクチャタイプとして検出する。また、主コントローラ52は、エンコーダ53から通知された各フレームの発生ビット量のそれぞれを、各フレームのそれぞれの困難度として検出(測定)する。   Then, the main controller 52 detects each of the difficulty level and the picture type in units of frames based on this notification from the encoder 53. That is, the main controller 52 detects the picture type of each frame notified from the encoder 53 as the picture type of each frame as it is. Further, the main controller 52 detects (measures) each generated bit amount of each frame notified from the encoder 53 as each difficulty level of each frame.

このように、本明細書で言う困難度とは、固定量子化ステップによるエンコード処理が編集対象のビデオデータD1に対して施された際の、エンコード処理後の各フレームのそれぞれのデータ量を指す。   As described above, the difficulty level in the present specification refers to the data amount of each frame after the encoding process when the encoding process by the fixed quantization step is performed on the video data D1 to be edited. .

即ち、フレーム間エンコード処理(PまたはBピクチャのエンコードタイプ)においては動きの激しい部分で予測フレームからの予測誤差(差分)が大きくなり、その分、画質劣化を低減させるために多くのデータが必要となる。またフレーム内符号化処理(Iピクチャのエンコードタイプ)においては、高周波数成分が多い場合に、ディスクリートコサイン変換処理により高次の係数データが発生することにより、その分、画質劣化を低減させるために多くのデータ量が必要となる。従って、固定量子化ステップによるエンコード処理がビデオデータD1に対して施された場合、画質劣化を低減させるための多くのデータ量を要する部分(フレーム)において、多くのデータ量が検出されることになる。以上のことから、固定量子化ステップによるエンコード処理が編集対象のビデオデータD1に対して施された結果得られるエンコードビデオデータを構成する各フレームのデータのそれぞれのデータ量こそが、各フレームのそれぞれについての困難度を指すことになる。   In other words, in the inter-frame encoding process (P or B picture encoding type), the prediction error (difference) from the prediction frame becomes large at a portion where the motion is intense, and much data is required to reduce the image quality degradation accordingly. It becomes. In addition, in the intra-frame encoding process (I-picture encoding type), when there are many high frequency components, high-order coefficient data is generated by the discrete cosine transform process. A large amount of data is required. Therefore, when the encoding process by the fixed quantization step is performed on the video data D1, a large amount of data is detected in a portion (frame) that requires a large amount of data to reduce image quality degradation. Become. From the above, the data amount of each frame data constituting the encoded video data obtained as a result of the encoding process by the fixed quantization step being applied to the video data D1 to be edited is the respective data amount of each frame. Will refer to the degree of difficulty.

ステップS23において、主コントローラ52は、ステップS22の処理によりフレーム単位で検出された困難度とピクチャタイプとを用いて「ビット配分計算処理」を実行することで、目標ビット量をフレーム単位で設定する。   In step S23, the main controller 52 sets the target bit amount in units of frames by executing “bit allocation calculation processing” using the difficulty level and the picture type detected in units of frames in the process of step S22. .

「ビット配分計算処理」とは、例えば次のような処理を指す。即ち、ステップS22の処理で検出された各フレームの困難度とピクチャタイプとを用いて、編集対象のビデオデータD1に対して2パス目のエンコード処理が施された場合に得られるエンコードビデオデータD2全体の目標ビット量を、各フレームのそれぞれに割り振るための計算処理が、「ビット配分計算処理」である。   The “bit allocation calculation process” refers to the following process, for example. In other words, the encoded video data D2 obtained when the second pass encoding process is performed on the video data D1 to be edited using the difficulty level and the picture type of each frame detected in the process of step S22. A calculation process for allocating the entire target bit amount to each frame is a “bit allocation calculation process”.

以下、「ビット配分計算処理」についてさらに詳しく説明する。   Hereinafter, the “bit allocation calculation process” will be described in more detail.

即ち、主コントローラ52は、次の式(1)の演算処理を実行し、ビデオデータD1(エンコードデータD2)に対して実際に割り当て可能な総ビット量TOTAL_SUPPLYを計算する。
TOTAL_SUPPLY = TOTAL_BYTES − TOTAL_HEADER ・・・(1)
式(1)において、TOTAL_BYTESは、ステップS21の処理で取得された「ビデオデータD1に割り当て可能なデータ量」を示し、ネットワーク29上のファイルサーバ27に記録されるエンコードビデオデータD2全体の目標データ量に相当する。また、TOTAL_HEADERは、エンコードビデオデータD2のうちのヘッダー等の付随的なデータのデータ量を示しており、GOPの総数により特定されるデータ量である。
That is, the main controller 52 executes the arithmetic processing of the following equation (1), and calculates the total bit amount TOTAL_SUPPLY that can be actually allocated to the video data D1 (encoded data D2).
TOTAL_SUPPLY = TOTAL_BYTES − TOTAL_HEADER (1)
In equation (1), TOTAL_BYTES indicates the “data amount that can be allocated to the video data D1” acquired in the process of step S21, and the target data of the entire encoded video data D2 recorded in the file server 27 on the network 29. It corresponds to the amount. Further, TOTAL_HEADER indicates the data amount of accompanying data such as a header in the encoded video data D2, and is the data amount specified by the total number of GOPs.

従って、主コントローラ52は、この式(1)の演算処理により、エンコードビデオデータD2のうちの付随的なデータを除いたデータに対して割り当て可能なデータ量を、ビデオデータD1に対して実際に割り当て可能な総ビット量TOTAL_SUPPLYとして計算することになる。   Therefore, the main controller 52 actually allocates the data amount that can be allocated to the data excluding the incidental data of the encoded video data D2 to the video data D1 by the arithmetic processing of the equation (1). The total amount of bits that can be allocated is calculated as TOTAL_SUPPLY.

次に、主コントローラ52は、ビデオデータD1に対して実際に割り当て可能な総ビット量TOTAL_SUPPLYを、各エンコード処理単位(エンコードユニット)のそれぞれに分配する。なお、以下、このようにして分配された各エンコードユニットのそれぞれのデータ量を、対応するエンコードユニットの目標ビット量と称し、かつ、SUPPLY_BYTESと記述する。 また、主コントローラ52は、各エンコードユニットのそれぞれについて、対応するエンコードユニットに属する各フレームの困難度(ステップS22の処理で検出された困難度)の総和を演算する。なお、以下、各フレームの困難度をDIFと記述し、また、各困難度DIFの総和をDIF_SUMと記述する。   Next, the main controller 52 distributes the total bit amount TOTAL_SUPPLY that can be actually allocated to the video data D1 to each encoding processing unit (encoding unit). Hereinafter, the data amount of each encoding unit distributed in this way is referred to as a target bit amount of the corresponding encoding unit and is described as SUPPLY_BYTES. Further, the main controller 52 calculates, for each encode unit, the total sum of the difficulty levels of the frames belonging to the corresponding encode unit (difficulty levels detected in the process of step S22). Hereinafter, the difficulty level of each frame is described as DIF, and the sum of the difficulty levels DIF is described as DIF_SUM.

続いて、主コントローラ52は、各エンコードユニットのそれぞれについて、GOP単位のビット配分を行うための評価関数を計算する。ここでの評価関数は、例えば次の式(2)で表される。
Y = BX ・・・(2)
式(2)において、Yは、演算対象のエンコードユニットの目標ビット量SUPPLY_BYTESを示し、Xは、演算対象のエンコードユニットに属する各フレームの困難度DIFの総和DIF_SUMを示している。
Subsequently, the main controller 52 calculates an evaluation function for performing bit allocation in GOP units for each encoding unit. The evaluation function here is expressed by the following equation (2), for example.
Y = BX (2)
In Expression (2), Y represents the target bit amount SUPPLY_BYTES of the encoding unit to be calculated, and X represents the total DIF_SUM of the difficulty levels DIF of each frame belonging to the encoding unit to be calculated.

主コントローラ52は、このようにして式(2)の評価関数を設定すると、換言すると、式(2)の評価関数における係数Bを演算すると、各エンコードユニットのそれぞれについて、この係数Bを用いる次の式(3)の演算処理を順次実行していく。
GOP_TGT = B × GOP_DIF_SUM ・・・(3)
なお、式(3)において、GOP_DIF_SUMは、演算対象のGOPに属する各フレームの困難度DIFの総和を示している。また、GOP_TGTは、演算対象のGOPの目標ビット量を示している。
When the main controller 52 sets the evaluation function of the expression (2) in this way, in other words, when the coefficient B in the evaluation function of the expression (2) is calculated, the following uses the coefficient B for each encoding unit. The calculation process of Equation (3) is sequentially executed.
GOP_TGT = B × GOP_DIF_SUM (3)
In Expression (3), GOP_DIF_SUM indicates the sum of the difficulty levels DIF of each frame belonging to the GOP to be calculated. GOP_TGT indicates the target bit amount of the GOP to be calculated.

即ち、演算対象のGOPの目標ビット量GOP_TGTとは、演算対象のGOPが含まれるエンコードユニットの目標ビット量SUPPLY_BYTESの中から、演算対象のGOPの困難度GOP_DIF_SUMに応じて演算対象のGOPに配分された分のデータ量を指す。   That is, the target bit amount GOP_TGT of the calculation target GOP is allocated to the calculation target GOP from the target bit amount SUPPLY_BYTES of the encoding unit including the calculation target GOP according to the difficulty level GOP_DIF_SUM of the calculation target GOP. Refers to the amount of data.

そして、主コントローラ52は、対象のGOPの目標ビット量GOP_TGTを、対象のGOPに属する各フレームのそれぞれに割り振る処理を各GOPのそれぞれについて実行することで、各フレームの目標ビット量をそれぞれ設定する。   Then, the main controller 52 sets the target bit amount of each frame by executing, for each GOP, the process of allocating the target bit amount GOP_TGT of the target GOP to each of the frames belonging to the target GOP. .

このように、ステップS23の「ビット配分計算処理」では、1パス目のエンコード処理結果(ステップS22の処理結果)を基準にして、2パス目のエンコード処理で利用される第2のエンコード条件のひとつ、即ち、目標ビット量が設定される。   As described above, in the “bit allocation calculation process” in step S23, the second encoding condition used in the second pass encoding process is set based on the first pass encoding process result (the process result in step S22). One, that is, a target bit amount is set.

ステップS24において、主コントローラ52は、直前の「ビット配分計算処理」(いまの場合、ステップS23の「ビット配分計算処理」)により設定されたフレーム毎の目標ビット量と、直前のステップS22の処理で検出された各フレームのピクチャタイプとを少なくとも含む第2のエンコード条件を設定する。   In step S24, the main controller 52 determines the target bit amount for each frame set by the immediately preceding “bit allocation calculation process” (in this case, the “bit allocation calculation process” in step S23) and the process in the immediately preceding step S22. The second encoding condition including at least the picture type of each frame detected in step (b) is set.

次に、ステップS25において、主コントローラ52は、この第2のエンコード条件に従った2パス目のエンコード処理が編集対象のビデオデータD1に対して施された場合に得られるはずの第2のエンコードビデオデータD2のプレビュー処理を実行する。   Next, in step S25, the main controller 52 performs the second encoding that should be obtained when the second pass encoding process according to the second encoding condition is performed on the video data D1 to be edited. A preview process of the video data D2 is executed.

ステップS25のプレビュー処理とは、例えば次のような一連の処理を指す。即ち、ビデオテープレコーダ51が、オペレータのGUI61の操作に応動して、即ち、主コントローラ52の制御に応動して、編集対象のビデオデータD1を再生して、エンコーダ53に供給する。エンコーダ53が、第2のエンコード条件に従ってこのビデオデータD1を一旦エンコードし、その結果得られるエンコードビデオデータD2を再デコードして、その結果得られるビデオ信号をモニタ装置54に供給する。モニタ装置54は、このビデオ信号に対応する映像を表示する。即ち、第2のエンコード条件に従った2パス目のエンコード処理が編集対象のビデオデータD1に対して施された場合に得られるはずの第2のエンコードビデオデータD2に対応する映像が、モニタ装置54にプレビュー映像として表示される。以上の一連の処理が、ステップS25のプレビュー処理である。   The preview processing in step S25 indicates, for example, the following series of processing. That is, the video tape recorder 51 reproduces the video data D1 to be edited and supplies it to the encoder 53 in response to the operator's operation of the GUI 61, that is, in response to the control of the main controller 52. The encoder 53 once encodes the video data D1 according to the second encoding condition, re-decodes the resulting encoded video data D2, and supplies the resulting video signal to the monitor device 54. The monitor device 54 displays an image corresponding to this video signal. That is, the video corresponding to the second encoded video data D2 that should be obtained when the second pass encoding process according to the second encoding condition is performed on the video data D1 to be edited is displayed on the monitor device. 54 is displayed as a preview image. The series of processes described above is the preview process in step S25.

ステップS26において、主コントローラ52は、オペレータの画質評価が「O.K」であるか否かを判定する。   In step S26, the main controller 52 determines whether or not the image quality evaluation of the operator is “O.K”.

即ち、オペレータは、ステップS25の処理によりモニタ装置54に表示されるプレビュー映像、即ち、エンコードビデオデータD2に対応する映像の画質の評価を行い、その評価結果を、GUI61を操作することで主コントローラ52に入力させることができる。   That is, the operator evaluates the image quality of the preview image displayed on the monitor device 54 by the process of step S25, that is, the image corresponding to the encoded video data D2, and operates the GUI 61 to display the evaluation result as the main controller. 52 can be input.

例えば、オペレータが画質に満足して、GUI61を操作して2パス目のエンコード処理の開始を指示すると、ステップS26において、オペレータの画質評価が「O.K」であると判定されて、処理はステップS30に進む。   For example, when the operator is satisfied with the image quality and operates the GUI 61 to instruct the start of the second pass encoding process, it is determined in step S26 that the operator's image quality evaluation is “OK”, and the process proceeds to step S30. Proceed to

ステップS30において、主コントローラ52は、ビデオテープレコーダ51とエンコーダ53とを制御して、直前のステップS24の処理で設定された第2のエンコード条件に従った2パス目のエンコード処理を編集対象のビデオデータD1に対して施す。また、その結果得られる第2のエンコードビデオデータD2をファイルサーバ27に記憶させる。   In step S30, the main controller 52 controls the video tape recorder 51 and the encoder 53 to perform the second pass encoding process in accordance with the second encoding condition set in the immediately preceding step S24. This is applied to the video data D1. Further, the second encoded video data D2 obtained as a result is stored in the file server 27.

具体的には例えば、ビデオテープレコーダ51は、主コントローラ52の制御に基づいて、編集対象のビデオデータD1を再生して、エンコーダ53に供給する。エンコーダ53は、主コントローラ52から指示される第2のエンコード条件に従った2パス目のエンコード処理を、ビデオデータD1に対して施し、その結果得られる第2のエンコードビデオデータD2を、主コントローラ52の制御に基づいてネットワーク29を介してファイルサーバ27に記憶させる。   Specifically, for example, the video tape recorder 51 reproduces the video data D1 to be edited based on the control of the main controller 52 and supplies it to the encoder 53. The encoder 53 performs the second-pass encoding process according to the second encoding condition instructed from the main controller 52 on the video data D1, and uses the resulting second encoded video data D2 as the main controller. Based on the control of 52, it is stored in the file server 27 via the network 29.

その後、ステップS31において、主コントローラ52は、2パス目のエンコード処理の結果をオーサリングアプリケーション実行装置28に通知する等の後処理を実行する。これにより、「ビデオデータ生成処理」は終了となる。   Thereafter, in step S31, the main controller 52 executes post-processing such as notifying the authoring application execution device 28 of the result of the second pass encoding process. This completes the “video data generation process”.

これに対して、オペレータが、ステップS25のプレビュー処理によりモニタ装置54に表示されているプレビュー映像、即ち、ファイルサーバ27に記憶される前のエンコードビデオデータD2に対応する映像の画質に満足するかを評価する。オペレータが画質に満足せず、例えば、GUI61を操作してカスタマイズの処理を選択すると、ステップS26において、オペレータの画質評価が「O.K」ではないと判定されて、処理はステップS27に進む。   On the other hand, is the operator satisfied with the image quality of the preview video displayed on the monitor device 54 by the preview processing in step S25, that is, the video corresponding to the encoded video data D2 before being stored in the file server 27? To evaluate. If the operator is not satisfied with the image quality, for example, if the customization process is selected by operating the GUI 61, it is determined in step S26 that the image quality evaluation of the operator is not “O.K”, and the process proceeds to step S27.

ステップS27において、主コントローラ52は、ピクチャタイプの変更が指示されたか否かを判定する。   In step S27, the main controller 52 determines whether or not an instruction to change the picture type is given.

即ち、オペレータは、GUI61を操作することで、編集対象のビデオデータD1を構成する各フレームのうちの1枚以上のフレームのピクチャタイプを、BまたはPピクチャからIピクチャに変更させる指示を、主コントローラ52に入力させることができる。
このようなオペレータの指示がない場合には、ステップS27において、ピクチャタイプの変更が指示されていないと判定されて、処理はステップS28に進む。
That is, the operator operates the GUI 61 to give an instruction to change the picture type of one or more frames constituting the video data D1 to be edited from B or P picture to I picture. The data can be input to the controller 52.
If there is no such instruction from the operator, it is determined in step S27 that there is no instruction to change the picture type, and the process proceeds to step S28.

ステップS28において、主コントローラ52は、「カスタマイズ処理」を実行する。ここで言う「カスタマイズ処理」とは、例えば、オペレータのGUI61の操作に応動して部分的にエンコード条件を変更することにより、部分的に画質を変更する処理を指す。   In step S <b> 28, the main controller 52 executes “customization processing”. The “customization process” here refers to a process of partially changing the image quality by partially changing the encoding condition in response to the operator's operation of the GUI 61, for example.

さらに、主コントローラ52は、続くステップS29において、上述したステップS23と同様の「ビット配分計算処理」を再実行することで、目標ビット量の設定を更新する。即ち、ステップS29の処理とは、上述したステップS23の処理と基本的に同様の処理である。ただし、ステップS29の処理では、直前のステップS28の「カスタマイズ処理」の結果を利用する点が、ステップS23の処理とは異なる点である。   Further, in the subsequent step S29, the main controller 52 re-executes the “bit distribution calculation process” similar to step S23 described above, thereby updating the setting of the target bit amount. That is, the process of step S29 is basically the same process as the process of step S23 described above. However, the process of step S29 is different from the process of step S23 in that the result of the “customization process” of the immediately preceding step S28 is used.

このステップS29の処理が終了すると、処理はステップS24に戻され、それ以降の処理が繰り返される。   When the process of step S29 ends, the process returns to step S24, and the subsequent processes are repeated.

これに対して、オペレータからのピクチャタイプ変更の指示があった場合、ステップS27において、ピクチャタイプの変更が指示されたと判定されて、処理はステップS21に戻され、それ以降の処理が繰り返される。   On the other hand, if there is an instruction to change the picture type from the operator, it is determined in step S27 that an instruction to change the picture type is given, the process returns to step S21, and the subsequent processes are repeated.

即ち、オペレータからピクチャタイプの変更が指示されたフレームがシーンチェンジポイントであるとみなされて、その結果、上述したステップS21の各種情報の取得処理以降の一連の処理がやり直されることになる。   That is, the frame instructed by the operator to change the picture type is regarded as a scene change point, and as a result, a series of processes after the above-described various information acquisition process in step S21 is performed again.

以上説明したように、ビデオ信号処理装置24は、フレーム毎の困難度とピクチャタイプとを基準にして、2パス目のエンコード処理で利用される第2のエンコード条件を設定することができる。さらに、このビデオ信号処理装置24は、オペレータの操作に応動して、この第2のエンコード条件を変更することができる。これにより、最終的にオペレータの満足する第2のエンコード条件によりビデオデータD1がエンコードされ、その結果得られるエンコードビデオデータD2がファイルサーバ27に記憶されるのである。   As described above, the video signal processing device 24 can set the second encoding condition used in the second pass encoding process based on the difficulty level and the picture type for each frame. Further, the video signal processing device 24 can change the second encoding condition in response to the operation of the operator. As a result, the video data D1 is finally encoded under the second encoding condition satisfied by the operator, and the encoded video data D2 obtained as a result is stored in the file server 27.

その後、上述したように、図1のスタジオ側オーサリング装置11において、このエンコードビデオデータD2と、その他のエンコードビデオデータやエンコードオーディオデータとが多重化され、その結果得られる多重化ストリームファイルが、DLT31、HDD32、及びネットワーク33のうちの少なくとも1つに出力される。   Thereafter, as described above, in the studio-side authoring apparatus 11 of FIG. 1, the encoded video data D2 is multiplexed with other encoded video data and encoded audio data, and the resulting multiplexed stream file is converted into a DLT 31. , HDD 32, and network 33.

そして、上述したように、DLT31、HDD32、及びネットワーク33のうちの少なくとも1つに出力された多重化ストリームファイルは、ディスクイメージデータとして、例えばプラント側に設置される図5のオーサリング装置(以下、プラント側オーサリング装置と称する)に供給される。   As described above, the multiplexed stream file output to at least one of the DLT 31, the HDD 32, and the network 33 is the disk image data, for example, the authoring apparatus (hereinafter, referred to as FIG. 5) installed on the plant side. (Referred to as plant-side authoring device).

図5は、本発明が適用されるプラント側オーサリング装置の一構成例を示している。   FIG. 5 shows a configuration example of a plant-side authoring apparatus to which the present invention is applied.

図5に示されるように、このプラント側オーサリング装置101は、例えば、プリマスタリング装置111、フォーマッタ112、及びカッティング装置113から構成される。   As shown in FIG. 5, the plant-side authoring device 101 includes, for example, a premastering device 111, a formatter 112, and a cutting device 113.

ここで、図6のフローチャートを参照して、このプラント側オーサリング装置101の処理例について説明する。   Here, with reference to the flowchart of FIG. 6, the process example of this plant side authoring apparatus 101 is demonstrated.

ステップS41において、プリマスタリング装置111は、ディスクイメージデータ(図3のエンコードビデオデータD2を含む多重化ストリームファイル)を取得する。   In step S41, the premastering apparatus 111 acquires disk image data (multiplexed stream file including the encoded video data D2 in FIG. 3).

次に、ステップS42において、プリマスタリング装置111は、外部から与えられるコピープロテクションデータを用いてディスクイメージデータを暗号化し、その結果得られる暗号化データをフォーマッタ112に供給する。   Next, in step S42, the premastering device 111 encrypts the disk image data using copy protection data given from the outside, and supplies the encrypted data obtained as a result to the formatter 112.

ステップS43において、フォーマッタ112は、信号のレベル変換処理等各種処理を暗号化データに対して施し、その結果得られる信号をカッティング装置113に供給する。   In step S 43, the formatter 112 performs various processes such as a signal level conversion process on the encrypted data, and supplies the resulting signal to the cutting device 113.

ステップS44において、カッティング装置113は、フォーマッタ112から供給される信号を元に、マスターディスク114(ディスクイメージデータが記録された光ディスクの原盤114)を作成する。これにより、プラント側オーサリング装置101の処理は終了となる。   In step S44, the cutting device 113 creates a master disc 114 (an optical disc master 114 on which disc image data is recorded) based on the signal supplied from the formatter 112. Thereby, the process of the plant side authoring apparatus 101 is complete | finished.

以上説明したように、上述した図3のビデオデータD1に対する1パス目のエンコード処理において、ビデオ素材に最適化されたピクチャタイプが設定されて利用され、そのピクチャタイプを基準にして各フレームの目標ビット量の設定が行われる。その後、1パス目と同一のそのピクチャタイプが利用され、かつ、1パス目で設定されたその目標ビット量が利用されて、2パス目のエンコード処理がビデオデータD1に対して施され、その結果としてエンコードビデオデータD2が得られる。そして、このエンコードビデオデータD2を含むディスクイメージデータがプラント側オーサリング装置101に供給されて、光ディスク114に記録される。   As described above, in the first pass encoding process for the video data D1 in FIG. 3 described above, the picture type optimized for the video material is set and used, and the target of each frame based on the picture type is used. The bit amount is set. Thereafter, the same picture type as in the first pass is used, and the target bit amount set in the first pass is used, and the second pass encoding process is performed on the video data D1, As a result, encoded video data D2 is obtained. Then, the disk image data including the encoded video data D2 is supplied to the plant-side authoring apparatus 101 and recorded on the optical disk 114.

従って、光ディスク114の使用可能ディスク容量を図1のスタジオ側オーサリング装置11に事前に通知しておくことで、図3のビデオ信号処理装置24は、その通知に見合った目標ビット量を設定することが可能になる。その結果、光ディスク114に記録されるディスクイメージデータのデータ量が、光ディスク114の使用可能ディスク容量に比較して不足したり余剰となってしまうことを防ぐことができる。これにより、光ディスク114のディスク容量を最大限使い切ることが可能になり、結果として光ディスク114に記録されるビデオデータの画質が向上されることになる。   Accordingly, by notifying the studio-side authoring apparatus 11 in FIG. 1 in advance of the usable disk capacity of the optical disk 114, the video signal processing apparatus 24 in FIG. 3 sets a target bit amount corresponding to the notification. Is possible. As a result, it is possible to prevent the data amount of the disk image data recorded on the optical disk 114 from becoming insufficient or excessive as compared to the usable disk capacity of the optical disk 114. As a result, the disc capacity of the optical disc 114 can be fully used, and as a result, the image quality of the video data recorded on the optical disc 114 is improved.

ところで、上述した一連の処理は、ハードウエアにより実行させることもできるが、ソフトウエアにより実行させることができる。   By the way, the series of processes described above can be executed by hardware, but can also be executed by software.

この場合、図1のスタジオ側オーサリング装置11全体またはその一部分は、例えば後述するコンピュータとして構成することができる。なお、スタジオ側オーサリング装置11の一部分とは、例えば、図1のビデオ信号処理装置24全体のときもあるし、或いは、さらに、そのビデオ信号処理装置24の一部分、例えば、図3の主コントローラ52等のときもある。   In this case, the entire studio-side authoring apparatus 11 shown in FIG. 1 or a part of the studio-side authoring apparatus 11 can be configured, for example, as a computer described later. The part of the studio-side authoring apparatus 11 may be, for example, the entire video signal processing apparatus 24 of FIG. 1, or may be a part of the video signal processing apparatus 24, for example, the main controller 52 of FIG. Sometimes.

同様に、図5のプラント側オーサリング装置101全体またはその一部分は、例えば後述するコンピュータとして構成することができる。なお、プラント側オーサリング装置101の一部分とは、スタジオ側オーサリング装置11のそれと同様に、例えば、カッティング装置113全体のときもあるし、或いは、さらに、そのカッティング装置113の図示せぬ一部分のときもある。   Similarly, the whole plant-side authoring apparatus 101 in FIG. 5 or a part thereof can be configured as a computer to be described later, for example. The part of the plant-side authoring apparatus 101 may be, for example, the entire cutting apparatus 113, as in the studio-side authoring apparatus 11, or may be a part of the cutting apparatus 113 (not shown). is there.

〔ビデオデータ圧縮処理〕
次に、ビデオデータを圧縮処理する情報処理装置について説明する。具体例として示す情報処理装置は、主データと副データの最大転送レートを最大限に活用して、高品位かつ高効率に主データのビデオデータをレート配分するものである。なお、情報処理装置は、上述したビデオ信号処理装置24のビットアサイン部63、エンコードコントロール部64、エンコーダ53に対応する。
[Video data compression processing]
Next, an information processing apparatus that compresses video data will be described. The information processing apparatus shown as a specific example uses the maximum transfer rate of main data and sub data to the maximum to distribute the video data of the main data with high quality and high efficiency. Note that the information processing apparatus corresponds to the bit assigning unit 63, the encoding control unit 64, and the encoder 53 of the video signal processing device 24 described above.

図7は、オーディオストリームの可変レート配分値に基づいてビデオデータを圧縮処理する情報処理装置の構成を示すブロック図である。この情報処理装置は、レート配分変換回路201と、フレーム単位ビットレート算出回路202と、整合性検出回路203と、ピクチャタイプ生成回路204と、色空間変換回路205と、プライマリビデオ圧縮処理回路206とを備えている。   FIG. 7 is a block diagram illustrating a configuration of an information processing apparatus that compresses video data based on a variable rate distribution value of an audio stream. This information processing apparatus includes a rate distribution conversion circuit 201, a frame unit bit rate calculation circuit 202, a consistency detection circuit 203, a picture type generation circuit 204, a color space conversion circuit 205, and a primary video compression processing circuit 206. It has.

レート配分変換回路201は、オーディオストリームの可変レート配分値をサンプリング単位からフレーム単位に変換する。すなわち、レート配分変換回路201は、サンプリング単位に割り当てられているビットレートを時間軸上に変換する。   The rate allocation conversion circuit 201 converts the variable rate allocation value of the audio stream from a sampling unit to a frame unit. That is, the rate distribution conversion circuit 201 converts the bit rate assigned to the sampling unit on the time axis.

フレーム単位ビットレート算出回路202は、規格上の最大転送レートからフレーム単位のオーディオストリームの可変レート配分値を減算してフレーム単位のビットレートを算出する。例えば、Blu-Rayディスクの最大転送レートである54Mbpsから可変レート配分値を差し引くことによって、時間軸上つまり、プライマリビデオのフレーム単位のビットレートが導き出される。   The frame unit bit rate calculation circuit 202 calculates the frame unit bit rate by subtracting the variable rate distribution value of the audio stream in units of frames from the standard maximum transfer rate. For example, by subtracting the variable rate distribution value from 54 Mbps, which is the maximum transfer rate of the Blu-Ray disc, the bit rate on the time axis, that is, the frame unit of the primary video is derived.

図8は、オーディオの可変レート配分値に基づくプライマリビデオのビット配分を示す模式図である。図8に示すようにBlu-Rayディスクに規定されている最大転送レートである54Mbpsからオーディオの可変レート配分値を減算することで、Blu-Rayディスクの最大転送レートを余すことなく、有効に活用することができ、さらなる高品位なコンテンツを製作することができる。なお、可変レート(VBR:Variable Bit Rate)転送が可能なオーディオ規格には、例えばTureHD、DTS−HDなどがある。DTS−HDの最大転送レートは24.5Mbpsと規定され、TrueHDの最大転送レートは18Mbpsと規定されている。   FIG. 8 is a schematic diagram showing bit distribution of primary video based on audio variable rate distribution values. As shown in Fig. 8, the maximum transfer rate of Blu-Ray discs is subtracted from the maximum transfer rate of 54 Mbps, which is the maximum transfer rate specified for Blu-Ray discs. It is possible to produce higher-quality content. Note that audio standards capable of variable rate (VBR: Variable Bit Rate) transfer include, for example, TrueHD and DTS-HD. The maximum transfer rate of DTS-HD is defined as 24.5 Mbps, and the maximum transfer rate of TrueHD is defined as 18 Mbps.

整合性検出回路203は、プライマリビデオの割当ピクチャタイプが入力される。そして、Iピクチャ(フレーム内符号化画像:Intra-Picture)又はPピクチャ(フレーム間順方向予測符号化画像:Predictive-Picture)のフレーム位置において、フレーム単位ビットレート算出回路202で算出されたフレーム単位のビットレートが、ピクチャタイプ変更基準値を超えているかの判定を行う。   The consistency detection circuit 203 receives the assigned picture type of the primary video. The frame unit calculated by the frame unit bit rate calculation circuit 202 at the frame position of the I picture (intra-frame encoded image: Intra-Picture) or P picture (inter-frame forward prediction encoded image: Predictive-Picture) It is determined whether the bit rate exceeds the picture type change reference value.

ピクチャタイプ生成回路204は、整合性検出回路203においてピクチャ変更基準値を超えていないと判定された場合、後述するようにGOP(Group Of Picture)構造の再構築を行い、エンコード時の割当ピクチャタイプを決定する。このGOPの再構築は、上述した「ビット配分計算処理」の一部として行われる。   When the consistency detection circuit 203 determines that the picture change reference value has not been exceeded, the picture type generation circuit 204 reconstructs a GOP (Group Of Picture) structure as will be described later, and assigns the assigned picture type at the time of encoding. To decide. This GOP reconstruction is performed as part of the above-described “bit allocation calculation process”.

色空間変換回路205は、エンコード対象素材であるプライマリビデオデータの色空間を変換し、プライマリビデオ圧縮処理回路206に出力する。なお、YUV=4:2:2は、水平方向4ピクセルにおいて,輝度はピクセル毎に8bit、色差は2ピクセル毎に平均化して8bitでサンプリングしたものであり、情報量は、1ピクセル平均16bitである。また、YUV=4:2:0は、YUV=4:2:2でサンプリングしたのち、輝度情報はそのまま残し、色差情報を垂直方向に2ピクセル分平均化(サブサンプリング)して記録するフォーマットであり、情報量は、1ピクセル平均12bitである。   The color space conversion circuit 205 converts the color space of the primary video data that is the material to be encoded and outputs it to the primary video compression processing circuit 206. Note that YUV = 4: 2: 2 is obtained by sampling the luminance in 8 bits for each pixel in 4 pixels in the horizontal direction, averaging the color difference for every 2 pixels, and sampling in 8 bits, and the amount of information is 16 bits in average for each pixel. is there. YUV = 4: 2: 0 is a format in which the luminance information is left as it is after sampling with YUV = 4: 2: 2, and the color difference information is averaged (subsampled) by two pixels in the vertical direction and recorded. Yes, the amount of information is an average of 12 bits per pixel.

プライマリビデオ圧縮処理回路206は、フレーム単位のビットレートに基づいてビデオデータを圧縮する。また、プライマリビデオ圧縮処理回路206は、ピクチャタイプ生成回路204で決定された割当ピクチャタイプに従い圧縮処理を施し、圧縮データを出力する。   The primary video compression processing circuit 206 compresses video data based on a bit rate in units of frames. The primary video compression processing circuit 206 performs compression processing according to the assigned picture type determined by the picture type generation circuit 204 and outputs compressed data.

このように最大転送レートからフレーム単位のオーディオストリームの可変レート配分値を減算してフレーム単位のビットレートを算出することにより、最大転送レートを最大限に活用することができる。また、セカンダリビデオの可変レート配分値に基づいても同様に最大転送レートを最大限に活用することができる。   Thus, by subtracting the variable rate distribution value of the audio stream in frame units from the maximum transfer rate to calculate the bit rate in frame units, the maximum transfer rate can be utilized to the maximum. Similarly, the maximum transfer rate can be maximally utilized based on the variable rate distribution value of the secondary video.

図9は、セカンダリビデオの可変レート配分値に基づいてプライマリビデオデータを圧縮処理する情報処理装置の構成を示すブロック図である。この情報処理装置は、フレーム単位ビットレート算出回路211と、整合性検出回路212と、ピクチャタイプ生成回路213と、色空間変換回路214と、プライマリビデオ圧縮処理回路215とを備えている。   FIG. 9 is a block diagram illustrating a configuration of an information processing apparatus that compresses primary video data based on a variable rate distribution value of secondary video. This information processing apparatus includes a frame unit bit rate calculation circuit 211, a consistency detection circuit 212, a picture type generation circuit 213, a color space conversion circuit 214, and a primary video compression processing circuit 215.

フレーム単位ビットレート算出回路211は、規格上の最大転送レートからフレーム単位のセカンダリビデオの可変レート配分値を減算してフレーム単位のビットレートを算出する。例えば、Blu-Rayディスクのビデオ規格の最大転送レートである40Mbpsから可変レート配分値を差し引くことによって、プライマリビデオのフレーム単位のビットレートが導き出される。   The frame unit bit rate calculation circuit 211 calculates a frame unit bit rate by subtracting the variable rate distribution value of the secondary video in frame units from the standard maximum transfer rate. For example, the bit rate of the frame unit of the primary video is derived by subtracting the variable rate distribution value from 40 Mbps which is the maximum transfer rate of the video standard of the Blu-Ray disc.

図10は、セカンダリビデオの可変レート配分値に基づくプライマリビデオのビット配分を示す模式図である。図10に示すようにBlu-Rayディスクのビデオ規格の最大転送レートである40Mbpsからセカンダリビデオの可変レート配分値を減算することで、Blu-Rayディスクの最大転送レートを余すことなく、有効に活用することができ、さらなる高品位なコンテンツを製作することができる。なお、ビデオ規格については、最大転送レートが40Mbpsと規定され、セカンダリビデオデータの最大転送レートは8Mbpsと規定されている。また、Blu-Rayディスク自体の最大転送レートは54Mbpsと規定されている。   FIG. 10 is a schematic diagram showing bit distribution of the primary video based on the variable rate distribution value of the secondary video. As shown in Fig. 10, by subtracting the secondary video variable rate distribution value from the maximum transfer rate of 40 Mbps for the Blu-Ray disc video standard, the maximum transfer rate of the Blu-Ray disc can be used effectively. It is possible to produce higher-quality content. As for the video standard, the maximum transfer rate is defined as 40 Mbps, and the maximum transfer rate of secondary video data is defined as 8 Mbps. The maximum transfer rate of the Blu-Ray disc itself is specified as 54 Mbps.

また、整合性検出回路212、ピクチャタイプ生成回路213、色空間変換回路214、及びプライマリビデオ圧縮処理回路215は、それぞれ整合性検出回路203、ピクチャタイプ生成回路204、色空間変換回路205、及びプライマリビデオ圧縮処理回路206と同様であるため、説明を省略する。   In addition, the consistency detection circuit 212, the picture type generation circuit 213, the color space conversion circuit 214, and the primary video compression processing circuit 215 are respectively included in the consistency detection circuit 203, the picture type generation circuit 204, the color space conversion circuit 205, and the primary video compression processing circuit 215. Since this is the same as the video compression processing circuit 206, the description thereof is omitted.

このようにビデオ規格の最大転送レートからセカンダリビデオの可変レート配分値を減算することにより、最大転送レートを最大限に活用することができる。   Thus, by subtracting the variable rate distribution value of the secondary video from the maximum transfer rate of the video standard, the maximum transfer rate can be utilized to the maximum.

なお、上述の説明では、可変レートのオーディオと、可変レートのセカンダリビデオとを別々の情報処理装置で処理することとしたが、1つの情報処理装置を用いてもプライマリビデオデータを圧縮処理することは可能である。   In the above description, variable-rate audio and variable-rate secondary video are processed by separate information processing apparatuses. However, primary video data can be compressed by using a single information processing apparatus. Is possible.

次に、整合性検出回路203,212、ピクチャタイプ生成回路204,213、色空間変換回路205,214、及びプライマリビデオ圧縮処理回路206,215の処理について具体例を挙げて説明する。   Next, processing of the consistency detection circuits 203 and 212, picture type generation circuits 204 and 213, color space conversion circuits 205 and 214, and primary video compression processing circuits 206 and 215 will be described with specific examples.

図11は、素材の難易度に則したピクチャタイプ判定結果の一例を示す図である。このピクチャタイプ判定は、プライマリビデオ圧縮処理回路206,215で行われる。詳細には、例えば、ビデオ信号処理装置24のエンコーダ53において、1パス目のエンコードにより検出されたエンコード処理に要する困難度からピクチャタイプが判定される。   FIG. 11 is a diagram illustrating an example of the picture type determination result in accordance with the difficulty level of the material. This picture type determination is performed by the primary video compression processing circuits 206 and 215. Specifically, for example, the encoder 53 of the video signal processing device 24 determines the picture type from the degree of difficulty required for the encoding process detected by the first pass encoding.

また、図12は、セカンダリビデオの可変レート配分値に基づいて設定されたプライマリビデオのレート配分値の一例を示す図である。これは、Blu-Rayディスクのビデオ規格の最大転送レートである40Mbpsからセカンダリビデオの可変レート配分値を減算してプライマリビデオの配分値が設定されたものである。   FIG. 12 is a diagram illustrating an example of the rate distribution value of the primary video set based on the variable rate distribution value of the secondary video. In this case, the distribution value of the primary video is set by subtracting the variable rate distribution value of the secondary video from 40 Mbps, which is the maximum transfer rate of the video standard of the Blu-Ray disc.

また、図13は、35Mbpsをピクチャタイプ変更基準値と設定した場合の整合性検出回路203の判定例を示す図である。整合性検出回路203,212は、Iピクチャ又はPピクチャのフレーム位置において、プライマリビデオのビットレートが、ピクチャタイプ変更基準値を超えているかの判定を行う。この図13に示す例では、ピクチャタイプ変更基準値を超えていないフレーム02、フレーム05及びフレーム11が検出される。   FIG. 13 is a diagram illustrating a determination example of the consistency detection circuit 203 when 35 Mbps is set as the picture type change reference value. The consistency detection circuits 203 and 212 determine whether the bit rate of the primary video exceeds the picture type change reference value at the frame position of the I picture or P picture. In the example shown in FIG. 13, frames 02, 05, and 11 that do not exceed the picture type change reference value are detected.

Iピクチャ又はPピクチャのフレーム位置において、ピクチャタイプ変更基準値を超えていない場合、画質に大きな影響を及ぼすIピクチャ又はPピクチャを割り当てることが困難である。   If the picture type change reference value is not exceeded at the frame position of the I picture or P picture, it is difficult to assign an I picture or P picture that greatly affects image quality.

そこで、ピクチャタイプ生成回路204,213は、GOP(Group Of Picture)構造の再構築を行う。具体的には、図14に示すようにピクチャタイプ変更基準値を超えていないIピクチャ又はPピクチャをBピクチャ(双方向予測符号化画像:Bidirectionally predictive-Picture)に変更するとともに、ピクチャタイプ変更基準値以上のピクチャタイプをIピクチャ又はPピクチャに変更する。このようにエンコード時の割当ピクチャタイプを決定することにより、より高品位な画質のBlu-Rayディスクの製作が可能になる。   Therefore, the picture type generation circuits 204 and 213 reconstruct a GOP (Group Of Picture) structure. Specifically, as shown in FIG. 14, an I picture or a P picture that does not exceed the picture type change reference value is changed to a B picture (bidirectional predictive-picture), and a picture type change reference. Change the picture type greater than the value to I picture or P picture. Thus, by determining the assigned picture type at the time of encoding, it is possible to produce a Blu-Ray disc with higher quality.

図15は、情報処理装置におけるビデオデータ圧縮処理を示すフローチャートである。先ず、ステップS101において、この情報処理装置には、プライマリビデオ以外の転送レート配分値が入力される。   FIG. 15 is a flowchart showing video data compression processing in the information processing apparatus. First, in step S101, a transfer rate distribution value other than the primary video is input to the information processing apparatus.

ステップS102において、情報処理装置は、入力された転送レート配分値がセカンダリビデオか否かを判別する。転送レート配分値がセカンダリビデオのものである場合、ステップS103に進み、転送レート配分値がセカンダリビデオのものでない場合、ステップS104に進む。   In step S102, the information processing apparatus determines whether or not the input transfer rate distribution value is a secondary video. If the transfer rate distribution value is that of the secondary video, the process proceeds to step S103, and if the transfer rate distribution value is not that of the secondary video, the process proceeds to step S104.

ステップS103において、フレーム単位ビットレート算出回路211は、ビデオ規格の最大転送レートからセカンダリビデオのレート配分値を引いて、プライマリビデオのフレーム単位のビットレートを算出する。   In step S103, the frame unit bit rate calculation circuit 211 subtracts the secondary video rate distribution value from the maximum transfer rate of the video standard to calculate the frame rate of the primary video.

ステップS104において、レート配分変換回路201は、オーディオのサンプリング単位のレート配分値をフレーム単位のレート配分値に変換する。   In step S104, the rate distribution conversion circuit 201 converts the rate distribution value in the audio sampling unit into the rate distribution value in the frame unit.

ステップS105において、フレーム単位ビットレート算出回路202は、Blu-Rayディスクの最大転送レートからオーディオのレート配分値を引いてプライマリビデオのフレーム単位ビットレートを算出する。   In step S105, the frame unit bit rate calculation circuit 202 subtracts the audio rate distribution value from the maximum transfer rate of the Blu-Ray disc to calculate the frame unit bit rate of the primary video.

ステップS106において、整合性検出回路203,212は、Iピクチャ又はPピクチャのフレーム位置において、プライマリビデオのビットレートが、ピクチャタイプ変更基準値以上かの判定を行う。ここで、ピクチャタイプ変更基準値に満たない場合、ステップS107に進み、ピクチャタイプ変更基準値以上の場合、ステップS108に進む。   In step S106, the consistency detection circuits 203 and 212 determine whether the bit rate of the primary video is greater than or equal to the picture type change reference value at the frame position of the I picture or P picture. If the picture type change reference value is not satisfied, the process proceeds to step S107. If the picture type change reference value is greater than or equal to the picture type change reference value, the process proceeds to step S108.

ステップS107において、ピクチャタイプ生成回路204,213は、GOP(Group Of Picture)構造の再構築を行う。具体的には、Iピクチャ又はPピクチャがピクチャタイプ変更基準値以上になるまで繰り返し再構築処理を行う。このようにGOP構造の再構築を行うことで、高画質な割当ピクチャタイプを決定することができる。   In step S107, the picture type generation circuits 204 and 213 reconstruct a GOP (Group Of Picture) structure. Specifically, the reconstruction process is repeatedly performed until the I picture or P picture reaches or exceeds the picture type change reference value. By reconstructing the GOP structure in this way, it is possible to determine an assigned picture type with high image quality.

ステップS108において、プライマリビデオ圧縮処理回路206,215は、フレーム単位のビットレート及び割当ピクチャタイプに基づいてプライマリビデオデータを圧縮処理する。   In step S108, the primary video compression processing circuits 206 and 215 compress the primary video data based on the bit rate and the assigned picture type in units of frames.

このように情報処理装置は、エンコード対象以外のレート配分値を入力し、最大転送レートからエンコード対象以外のレート配分値を引くことによってエンコード対象のレート配分値を決定することにより、転送レートを最大限に活用することができる。   In this way, the information processing apparatus inputs the rate distribution value other than the encoding target and determines the encoding target rate distribution value by subtracting the non-encoding rate distribution value from the maximum transfer rate, thereby maximizing the transfer rate. It can be used as much as possible.

また、情報処理装置は、レート配分値を決定した後、エンコード割当ピクチャタイプの画質に大きな影響を及ぼすIピクチャ又はPピクチャのフレーム位置でのレート配分値が設定基準値以上になっているかの判定をする。そして、設定基準以下の場合は、GOP構造を再構成して割当ピクチャタイプをBピクチャに割り当てを変更することにより、Blu-Rayディスクの転送レートを最大限に活用して、より高品位な画質のBlu-Rayディスク製作が可能になる。   Further, after determining the rate distribution value, the information processing apparatus determines whether the rate distribution value at the frame position of the I picture or P picture that greatly affects the image quality of the encoding assigned picture type is equal to or greater than the set reference value. do. And if it is below the setting standard, the GOP structure is reconfigured and the allocation picture type is changed to B picture allocation, so that the transfer rate of the Blu-Ray disc can be fully utilized to achieve higher quality image quality. Blu-Ray disc production becomes possible.

また、上述した一連の処理は、ハードウエアにより実行させることもできるが、ソフトウエアにより実行させることができる。この場合、図7及び図9に示す情報処理装置は、コンピュータとして構成することができる。   The series of processes described above can be executed by hardware, but can also be executed by software. In this case, the information processing apparatus illustrated in FIGS. 7 and 9 can be configured as a computer.

図16は、コンピュータの構成を示すブロック図である。CPU(Central Processing Unit)301は、ROM(Read Only Memory)302に記録されているプログラム、または記憶部308からRAM(Random Access Memory)303にロードされたプログラムに従って各種の処理を実行する。RAM303にはまた、CPU301が各種の処理を実行する上において必要なデータなども適宜記憶される。   FIG. 16 is a block diagram illustrating a configuration of a computer. A CPU (Central Processing Unit) 301 executes various processes according to a program recorded in a ROM (Read Only Memory) 302 or a program loaded from a storage unit 308 to a RAM (Random Access Memory) 303. The RAM 303 also appropriately stores data necessary for the CPU 301 to execute various processes.

CPU301、ROM302、及びRAM303は、バス304を介して相互に接続されている。このバス304にはまた、入出力インタフェース305も接続されている。   The CPU 301, ROM 302, and RAM 303 are connected to each other via a bus 304. An input / output interface 305 is also connected to the bus 304.

入出力インタフェース305には、入力部306、出力部307、記憶部308、及び、通信部309が接続されている。また、入出力インタフェース305には、必要に応じてドライブ310が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどよりなるリムーバブル記録媒体311が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部308にインストールされる。   An input unit 306, an output unit 307, a storage unit 308, and a communication unit 309 are connected to the input / output interface 305. A drive 310 is connected to the input / output interface 305 as necessary, and a removable recording medium 311 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately installed, and a computer read from them is read. The program is installed in the storage unit 308 as necessary.

入力部306は、例えば、出力部307の表示部も兼ねたタッチパネル、キーボード、受光部を含むリモートコントローラ、マウスなどの入力機器で構成される。   The input unit 306 includes input devices such as a touch panel that also serves as a display unit of the output unit 307, a keyboard, a remote controller including a light receiving unit, and a mouse.

出力部307は、例えば、ディスプレイ等の表示部単体、スピーカやヘッドフォン出力端子等の音声出力部単体、または、それらの組合せで構成される。   The output unit 307 includes, for example, a display unit such as a display, a sound output unit such as a speaker or a headphone output terminal, or a combination thereof.

記憶部308は、例えばハードディスクなどで構成される。また、通信部309は、例えばモデム、ターミナルアダプタ、無線通信機器などより構成され、他の情報処理装置との間の通信を制御する。   The storage unit 308 is configured with, for example, a hard disk. The communication unit 309 includes, for example, a modem, a terminal adapter, a wireless communication device, and the like, and controls communication with other information processing apparatuses.

このようなコンピュータを用いて上述したプライマリビデオを圧縮する情報処理装置を構成する場合、入力部306、出力部307、及びCPU301が実行するプログラムの組み合わせで構成することができる。   When an information processing apparatus that compresses the above-described primary video using such a computer is configured, it can be configured by a combination of programs executed by the input unit 306, the output unit 307, and the CPU 301.

以上、実施形態の一例を示したが、上述の実施形態に限定される物ではなく、この発明の技術的思想に基づく各種の変形が可能である。   As mentioned above, although an example of embodiment was shown, it is not a thing limited to the above-mentioned embodiment, Various modifications based on the technical idea of this invention are possible.

例えば、上述した一連の処理もソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータにネットワークや記録媒体からインストールされる。または、各種のプログラムをインストールすることで各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどにインストールされる。   For example, when the above-described series of processing is also executed by software, a program constituting the software is installed from a network or a recording medium into a computer incorporated in dedicated hardware. Or it installs in a general purpose personal computer etc. which can perform various functions by installing various programs.

また、このようなプログラムを含む記録媒体は、装置本体とは別に、ユーザにプログラムを提供するために配布されるものである。例えば、プログラムが記録されている磁気ディスク(フロッピディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)を含む)、半導体メモリ等よりなるリムーバブル記録媒体(パッケージメディア)である。また、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROMや、ハードディスクなどで構成されてもよい。   Further, a recording medium including such a program is distributed to provide a program to the user separately from the apparatus main body. For example, a magnetic disk (including a floppy disk) on which a program is recorded, an optical disk (including a compact disk-read only memory (CD-ROM), a DVD (digital versatile disk)), a magneto-optical disk (MD (mini-disk) )), And a removable recording medium (package medium) made of a semiconductor memory or the like. Further, it may be configured by a ROM, a hard disk, or the like that is provided to the user in a state of being pre-installed in the apparatus main body and in which a program is recorded.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the order, but is not necessarily performed in chronological order, either in parallel or individually. The process to be executed is also included.

スタジオ側オーサリング装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a studio side authoring apparatus. スタジオ側オーサリング装置の処理例を示すフローチャートである。It is a flowchart which shows the process example of a studio side authoring apparatus. スタジオ側オーサリング装置のうちのビデオ信号処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the video signal processing apparatus among studio side authoring apparatuses. ビデオ信号処理装置が実行する「ビデオデータ生成処理」の例を示すフローチャートである。It is a flowchart which shows the example of the "video data generation process" which a video signal processing apparatus performs. プラント側オーサリング装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a plant side authoring apparatus. プラント側オーサリング装置の処理例を示すフローチャートである。It is a flowchart which shows the process example of a plant side authoring apparatus. オーディオストリームの可変レート配分値に基づいてビデオデータを圧縮処理する情報処理装置の構成を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration of an information processing apparatus that compresses video data based on a variable rate distribution value of an audio stream. オーディオの可変レート配分値に基づくプライマリビデオのビット配分を示す模式図である。It is a schematic diagram which shows bit distribution of the primary video based on the variable rate distribution value of audio. セカンダリビデオの可変レート配分値に基づいてプライマリビデオデータを圧縮処理する情報処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the information processing apparatus which compresses primary video data based on the variable rate distribution value of secondary video. セカンダリビデオの可変レート配分値に基づくプライマリビデオのビット配分を示す模式図である。It is a schematic diagram which shows bit allocation of the primary video based on the variable rate allocation value of secondary video. 素材の難易度に則したピクチャタイプ判定結果の一例を示す図である。It is a figure which shows an example of the picture type determination result according to the difficulty of a raw material. セカンダリビデオの可変レート配分値に基づいて設定されたプライマリビデオのレート配分値の一例を示す図である。It is a figure which shows an example of the rate distribution value of the primary video set based on the variable rate distribution value of secondary video. 整合性検出回路の検出例を示す図である。It is a figure which shows the example of a detection of a consistency detection circuit. ピクチャタイプ変更基準値以上のピクチャタイプをIピクチャ又はPピクチャに変更する一例を示す図である。It is a figure which shows an example which changes the picture type more than a picture type change reference value into an I picture or a P picture. 情報処理装置におけるビデオデータ圧縮処理を示すフローチャートである。It is a flowchart which shows the video data compression process in information processing apparatus. コンピュータの構成を示すブロック図である。It is a block diagram which shows the structure of a computer.

符号の説明Explanation of symbols

11 スタジオ側オーサリング装置、 21 メニュー信号処理装置、 22 サブタイトル信号処理装置、 23 オーディオ信号処理装置、 24 ビデオ信号処理装置、 25 マルチプレクサ、 26 ダウンローダ、 27 ファイルサーバ、 28 オーサリングアプリケーション実行装置、 29 ネットワーク、 30 ライタ、 31 DLT、 32 HDD、 33 ネットワーク、 51 ビデオテープレコーダ、 52 主コントローラ、 53 エンコーダ、 54 モニタ装置、 61 GUI、 62 VTRコントロール部、 63 ビットアサイン部、 64 エンコードコントロール部、 101 プラント側オーサリング装置、 111 プリマスタリング装置、 112 フォーマッタ、 113 カッティング装置、 114 光ディスク装置、 201 レート配分変換回路、 202 フレーム単位ビットレート算出回路、 203 整合性検出回路、 204 ピクチャタイプ生成回路、 205 色空間変換回路、 206 プライマリビデオ圧縮処理回路、 211 フレーム単位ビットレート算出回路、 212 整合性検出回路、 213 ピクチャタイプ生成回路、 214 色空間変換回路、 215 プライマリビデオ圧縮処理回路   11 Studio-side authoring device, 21 Menu signal processing device, 22 Subtitle signal processing device, 23 Audio signal processing device, 24 Video signal processing device, 25 Multiplexer, 26 Downloader, 27 File server, 28 Authoring application execution device, 29 Network, 30 Writer, 31 DLT, 32 HDD, 33 Network, 51 Video tape recorder, 52 Main controller, 53 Encoder, 54 Monitor device, 61 GUI, 62 VTR control unit, 63 Bit assignment unit, 64 Encode control unit, 101 Plant side authoring device 111 pre-mastering device, 112 formatter, 113 cutting device, 114 optical data Disk device, 201 rate distribution conversion circuit, 202 frame unit bit rate calculation circuit, 203 consistency detection circuit, 204 picture type generation circuit, 205 color space conversion circuit, 206 primary video compression processing circuit, 211 frame unit bit rate calculation circuit, 212 Consistency Detection Circuit, 213 Picture Type Generation Circuit, 214 Color Space Conversion Circuit, 215 Primary Video Compression Processing Circuit

Claims (5)

主データと副データの最大転送レートから上記副データを可変レート圧縮して得られるレート配分値を減算してフレーム単位のビットレートを算出する算出部と、
上記フレーム単位のビットレートに基づいて主データを圧縮する圧縮部と
を備える情報処理装置。
A calculation unit for subtracting a rate distribution value obtained by variable rate compression of the sub data from the maximum transfer rate of the main data and the sub data to calculate a bit rate in units of frames;
An information processing apparatus comprising: a compression unit that compresses main data based on the bit rate of the frame unit.
上記主データは、ビデオデータであり、
上記圧縮部は、上記ビデオデータにおけるフレーム内符号化画像又はフレーム間順方向予測符号化画像のフレーム位置のビットレートが所定レート配分値以下の場合、当該フレーム位置のピクチャタイプを双方向予測符号化画像に変更する請求項1記載の情報処理装置。
The main data is video data,
When the bit rate of the frame position of the intra-frame encoded image or the inter-frame forward prediction encoded image in the video data is equal to or less than a predetermined rate distribution value, the compression unit bi-predictively encodes the picture type of the frame position The information processing apparatus according to claim 1, wherein the information processing apparatus is changed to an image.
上記副データは、オーディオデータであり、
上記サンプリング単位の可変レート配分値をフレーム単位の可変レート配分値に変換する変換部を備える請求項1記載の情報処理装置。
The sub data is audio data,
The information processing apparatus according to claim 1, further comprising: a conversion unit that converts the variable rate distribution value in sampling units into a variable rate distribution value in frame units.
主データと副データの最大転送レートから上記副データを可変レート圧縮して得られるレート配分値を減算してフレーム単位のビットレートを算出する算出工程と、
上記フレーム単位のビットレートに基づいて主データを圧縮する圧縮工程と
を有する情報処理方法。
A calculation step of subtracting a rate distribution value obtained by variable rate compression of the sub data from the maximum transfer rate of the main data and sub data to calculate a bit rate in units of frames;
A compression step of compressing main data based on the bit rate of each frame.
主データと副データの最大転送レートから上記副データを可変レート圧縮して得られるレート配分値を減算してフレーム単位のビットレートを算出する算出工程と、
上記フレーム単位のビットレートに基づいて主データを圧縮する圧縮工程と
をコンピュータに実行させるためのプログラム。
A calculation step of subtracting a rate distribution value obtained by variable rate compression of the sub data from the maximum transfer rate of the main data and sub data to calculate a bit rate in units of frames;
A program for causing a computer to execute a compression step of compressing main data based on the bit rate of each frame.
JP2008103982A 2008-04-11 2008-04-11 Information processing unit and information processing method, and program Pending JP2009260436A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008103982A JP2009260436A (en) 2008-04-11 2008-04-11 Information processing unit and information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008103982A JP2009260436A (en) 2008-04-11 2008-04-11 Information processing unit and information processing method, and program

Publications (2)

Publication Number Publication Date
JP2009260436A true JP2009260436A (en) 2009-11-05
JP2009260436A5 JP2009260436A5 (en) 2010-03-11

Family

ID=41387337

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008103982A Pending JP2009260436A (en) 2008-04-11 2008-04-11 Information processing unit and information processing method, and program

Country Status (1)

Country Link
JP (1) JP2009260436A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3361747A1 (en) * 2017-02-13 2018-08-15 Markany Inc. Watermark embedding apparatus and method through image structure conversion

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07202820A (en) * 1993-12-28 1995-08-04 Matsushita Electric Ind Co Ltd Bit rate control system
JPH08237133A (en) * 1995-02-28 1996-09-13 Toshiba Corp Variable rate compressor and variable rate expander
JPH11196410A (en) * 1997-12-25 1999-07-21 Victor Co Of Japan Ltd Method and device for dynamic picture encoding and dynamic picture signal record medium
JP2001094937A (en) * 1999-09-22 2001-04-06 Canon Inc Image recorder, method and storage medium
JP2005123829A (en) * 2003-10-15 2005-05-12 Nec Electronics Corp Transcoder, data recorder having same, and method for recording data
JP2006074461A (en) * 2004-09-02 2006-03-16 Sony Corp Information processing device and method, recording medium and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07202820A (en) * 1993-12-28 1995-08-04 Matsushita Electric Ind Co Ltd Bit rate control system
JPH08237133A (en) * 1995-02-28 1996-09-13 Toshiba Corp Variable rate compressor and variable rate expander
JPH11196410A (en) * 1997-12-25 1999-07-21 Victor Co Of Japan Ltd Method and device for dynamic picture encoding and dynamic picture signal record medium
JP2001094937A (en) * 1999-09-22 2001-04-06 Canon Inc Image recorder, method and storage medium
JP2005123829A (en) * 2003-10-15 2005-05-12 Nec Electronics Corp Transcoder, data recorder having same, and method for recording data
JP2006074461A (en) * 2004-09-02 2006-03-16 Sony Corp Information processing device and method, recording medium and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3361747A1 (en) * 2017-02-13 2018-08-15 Markany Inc. Watermark embedding apparatus and method through image structure conversion
US10134100B2 (en) 2017-02-13 2018-11-20 Markany Inc. Watermark embedding apparatus and method through image structure conversion

Similar Documents

Publication Publication Date Title
JP4430580B2 (en) Method and system for adding video to an encoded video bitstream
KR20060050974A (en) Information processing apparatus and method, and recording medium and program used therewith
EP0742674A2 (en) Video encoding method and system using a rate-quantizer model
JP3710820B2 (en) Audio video encoding system with a reduced number of audio encoders
JP4539754B2 (en) Information processing apparatus and information processing method
EP0824824A1 (en) System for altering the encoded video frames
JP2001128126A6 (en) Method and system for exchanging sections of an encoded video bitstream
KR20070056077A (en) Information processing device, information processing method, recording medium, and program
JP4582185B2 (en) Information processing apparatus and information processing method
JP5088215B2 (en) Information processing system, information processing method, and program
KR20080014633A (en) Recording apparatus, recording method, and recording program
JP2009260436A (en) Information processing unit and information processing method, and program
JP4539755B2 (en) Information processing system, information processing method, and program
JP4301237B2 (en) Encoding apparatus and method thereof, recording apparatus and method thereof, and recording medium
JPH1198514A (en) Image coder and its method
JP4416845B2 (en) Encoding apparatus and method thereof, and recording apparatus and method thereof
JP2007259493A (en) Encoding device and encoding method
JP3445278B6 (en) Method and system for exchanging sections of an encoded video bitstream
JP2004297829A (en) Mpeg data reproduction equipment
JP2008066852A (en) Information processor and information processing method, recording medium, and program
JP2006121415A (en) Moving image encoding device
JP2004254347A (en) Mpeg data playback method
JP2008294527A (en) Image recording device and method
JP2005245003A (en) Recording apparatus
JP2004289871A (en) Method for reproducing mpeg data

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120424

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120814