JP5088215B2 - Information processing system, information processing method, and program - Google Patents

Information processing system, information processing method, and program Download PDF

Info

Publication number
JP5088215B2
JP5088215B2 JP2008103980A JP2008103980A JP5088215B2 JP 5088215 B2 JP5088215 B2 JP 5088215B2 JP 2008103980 A JP2008103980 A JP 2008103980A JP 2008103980 A JP2008103980 A JP 2008103980A JP 5088215 B2 JP5088215 B2 JP 5088215B2
Authority
JP
Japan
Prior art keywords
encoding
video data
information processing
processing
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008103980A
Other languages
Japanese (ja)
Other versions
JP2009260434A (en
JP2009260434A5 (en
Inventor
勉 一ノ瀬
博志 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008103980A priority Critical patent/JP5088215B2/en
Publication of JP2009260434A publication Critical patent/JP2009260434A/en
Publication of JP2009260434A5 publication Critical patent/JP2009260434A5/ja
Application granted granted Critical
Publication of JP5088215B2 publication Critical patent/JP5088215B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、エンコードの並列処理を実行する情報処理システム及び情報処理方法、並びにプログラムに関する。   The present invention relates to an information processing system, an information processing method, and a program that execute parallel processing of encoding.

従来、光ディスク等の記録メディアの作成現場において使用されるオーサリング装置は、ビデオデータ、オーディオデータ等に対してそれぞれ例えばMPEG(Moving Picture Experts Group)規格を用いたエンコード処理(圧縮符号化処理)を施す。そして、オーサリング装置は、各エンコード処理の結果得られる各エンコードデータを多重化し、この多重ストリームを記録メディアに記録する。   2. Description of the Related Art Conventionally, an authoring apparatus used in the production site of a recording medium such as an optical disc performs encoding processing (compression encoding processing) using, for example, MPEG (Moving Picture Experts Group) standards on video data, audio data, and the like. . Then, the authoring device multiplexes each encoded data obtained as a result of each encoding process, and records this multiplexed stream on a recording medium.

このようなオーサリング装置は、記録メディアに記録可能なビット量をビデオデータ、オーディオデータ等にそれぞれ配分し、配分されたビット量に納まるように、各データに対してエンコード処理を施す。   Such an authoring apparatus distributes the bit amount that can be recorded on the recording medium to video data, audio data, and the like, and performs an encoding process on each data so as to be within the allocated bit amount.

ビデオデータのエンコード手法として、いわゆる「2パスエンコード」が知られている(例えば特許文献1参照。)。2パスエンコードは、仮の(事前の)エンコード処理と、本番のエンコード処理とからなる手法である。   As a video data encoding method, so-called “two-pass encoding” is known (see, for example, Patent Document 1). Two-pass encoding is a technique that includes temporary (preliminary) encoding processing and actual encoding processing.

以下、仮のエンコード処理を1パス目のエンコード処理と称し、本番のエンコード処理を2パス目のエンコード処理と称し、2パスエンコードの概略について説明する。   Hereinafter, the temporary encoding process is referred to as a first pass encoding process, the actual encoding process is referred to as a second pass encoding process, and an outline of the two pass encoding will be described.

エンコーダは、符号化対象の一連のビデオデータに対して、エンコード条件が一定に保持された1パス目のエンコード処理を施す。このとき、1パス目のエンコード処理の際に得られる各種データ、例えば発生ビット量をフレーム単位で順次検出する。   The encoder performs a first-pass encoding process in which the encoding condition is kept constant for a series of video data to be encoded. At this time, various data obtained in the encoding process of the first pass, for example, the amount of generated bits is sequentially detected in units of frames.

次に、エンコーダは、このようにして検出されたフレーム毎の発生ビット量に基づいて、ビデオデータを構成する各フレームのそれぞれに対してビットの配分を行う。即ち、2パス目のエンコード処理で利用される目標ビット量をフレーム単位で設定する。   Next, the encoder allocates bits to each of the frames constituting the video data based on the generated bit amount for each frame detected in this way. That is, the target bit amount used in the second pass encoding process is set in units of frames.

さらに、エンコーダは、2パス目のエンコード処理で利用されるピクチャタイプの割り当てを行う。ピクチャタイプの割り当てとは、各フレームのそれぞれに対してエンコードタイプを割り当てることを示す。   Further, the encoder assigns a picture type used in the second pass encoding process. The assignment of the picture type indicates that an encoding type is assigned to each frame.

具体的には、MPEGでは、Iピクチャ(Intra-Picture)、Pピクチャ(Predictive-Picture)、及びBピクチャ(Bidirectionally Predictive-Picture)のうちのいずれかのエンコードタイプで、各フレームのそれぞれがエンコードされる。Iピクチャとは、1フレーム分の画像データを他のフレームの画像データを利用することなくそのままエンコードするといったエンコードタイプを指す。即ち、Iピクチャとは、フレーム内エンコード処理といったエンコードタイプを指す。また、PピクチャとBピクチャとは、フレーム間エンコード処理といったエンコードタイプを指す。即ち、Pピクチャとは、基本的には、1フレーム分の画像データと、それより時間的に先行するIピクチャまたはPピクチャの予測フレームの画像データとの差分(予測誤差)を求め、その差分をエンコードするといったエンコードタイプを指す。また、Bピクチャとは、基本的には、1フレーム分の画像データと、時間的に先行または後行するIピクチャ若しくはPピクチャの予測フレームの画像データとの差分(予測誤差)を求め、その差分をエンコードするといったエンコードタイプを指す。   Specifically, in MPEG, each frame is encoded with any encoding type of I picture (Intra-Picture), P picture (Predictive-Picture), and B picture (Bidirectionally Predictive-Picture). The An I picture indicates an encoding type in which image data for one frame is encoded as it is without using image data of other frames. In other words, the I picture refers to an encoding type such as an intra-frame encoding process. P picture and B picture indicate an encoding type such as an inter-frame encoding process. That is, a P picture basically calculates a difference (prediction error) between image data for one frame and image data of a predicted frame of an I picture or a P picture that precedes it in time. Encoding type such as encoding. The B picture is basically a difference (prediction error) between the image data for one frame and the image data of the predicted frame of the I picture or P picture that precedes or follows in time. An encoding type that encodes the difference.

従って、ピクチャタイプの割り当てとは、各フレームのそれぞれを、Iピクチャ、Pピクチャ、及びBピクチャといった3つのエンコードタイプのうちのいずれかに割り当てることを指す。換言すると、ピクチャタイプの割り当てとは、各GOP(Group Of Picture)構造の設定であるとも言える。   Therefore, picture type assignment refers to assigning each frame to one of three encoding types such as an I picture, a P picture, and a B picture. In other words, it can be said that the picture type assignment is a setting of each GOP (Group Of Picture) structure.

このようにして、1パス目のエンコード処理後に、その処理結果を利用して目標ビット量の設定やピクチャタイプの割り当てがフレーム単位で行われる。   In this way, after the first pass encoding process, setting of the target bit amount and picture type assignment are performed on a frame basis using the processing result.

次に、フレーム毎のピクチャタイプと目標ビット量とを少なくとも含むエンコード条件が設定されて、そのエンコード条件に従った2パス目のエンコード処理が実行される。   Next, an encoding condition including at least the picture type and the target bit amount for each frame is set, and the second pass encoding process is executed according to the encoding condition.

即ち、エンコーダは、1パス目と同一のビデオデータに対して2パス目のエンコード処理を施し、その結果得られるエンコードビデオデータを出力する。詳細には、エンコーダは、ビデオデータを構成する各フレームのデータを、割り当てられたピクチャタイプで、かつ、目標ビット量のデータとなるように順次エンコードしていく。その結果、I,B,Pピクチャのうちの何れかのエンコードフレームデータが連続配置されて形成されるビットストリームが、エンコードビデオデータとして、エンコーダから出力される。   That is, the encoder performs the second pass encoding process on the same video data as the first pass, and outputs the encoded video data obtained as a result. Specifically, the encoder sequentially encodes the data of each frame constituting the video data so as to be data of an assigned picture type and a target bit amount. As a result, a bit stream formed by continuously arranging encoded frame data of any one of I, B, and P pictures is output from the encoder as encoded video data.

また、その他のビデオデータのエンコード手法としては、例えば特許文献2及び特許文献3にも開示されている。   Other video data encoding methods are also disclosed in Patent Document 2 and Patent Document 3, for example.

特許文献2に開示されている手法とは、次の第1の処理乃至第3の処理がその順番で実行される手法である。即ち、第1の処理とは、ビデオデータの全区間に対して1パス目のエンコード処理を施す処理である。第2の処理とは、そのビデオデータのうちの一部の特定区間のみに対して2パス目のエンコード処理を施す処理である。第3の処理とは、1パス目のエンコードビデオデータのうちの特定区間のデータのみを、2パス目のエンコードビデオデータに置き換え、その結果得られるデータを最終的なエンコードビデオデータとして出力するという処理である。   The technique disclosed in Patent Document 2 is a technique in which the following first to third processes are executed in that order. That is, the first process is a process for performing the first pass encoding process on all sections of the video data. The second process is a process of performing the second pass encoding process on only a part of specific sections of the video data. In the third process, only the data in a specific section of the encoded video data of the first pass is replaced with the encoded video data of the second pass, and the resulting data is output as final encoded video data. It is processing.

また、特許文献3に開示されている手法とは次の手法である。即ち、1パス目のエンコードビデオデータのうちのビット量を削っても問題ない区間の割当量を減らして、その分のビット量を問題が発生する他の区間に割り当てるように目標ビット量を設定し、その目標ビット量に従って2パス目のエンコード処理を行う、という手法が特許文献3に開示されている。
また、特許文献4には、記録メディアに用意された容量を効率的に使ってエンコードビデオデータを作成できるようにする技術が開示されている。具体的に、1パス目のエンコード処理の結果得られる第1のエンコードビデオデータからピクチャタイプと困難度とがフレーム単位で検出され、その検出結果に基づいて第2のエンコード条件を設定し、その第2のエンコード条件に従った2パス目のエンコード処理をビデオデータに施す、という手法が開示されている。
The technique disclosed in Patent Document 3 is the following technique. In other words, the target bit amount is set so that the allocated amount of the section in which there is no problem even if the bit amount of the encoded video data in the first pass is reduced is allocated to another section where the problem occurs. Japanese Patent Application Laid-Open No. H10-228688 discloses a method of performing the second pass encoding process according to the target bit amount.
Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique that enables the encoded video data to be created by efficiently using the capacity prepared in the recording medium. Specifically, the picture type and the degree of difficulty are detected in units of frames from the first encoded video data obtained as a result of the first pass encoding process, and a second encoding condition is set based on the detection result, A technique is disclosed in which video data is subjected to a second pass encoding process in accordance with a second encoding condition.

このようにエンコード処理には、ビット量演算等に高い負荷を必要とする。このため、例えば、Blu-Ray(商標)で採用されているコーデックの1つであるMPEG-4 AVC(H.264/AVC)で符号化する場合、DVD(Digital Versatile Disc)で採用されていたMPEG-2に比べて演算処理負荷が高いためにエンコード処理時間が長くなってしまう。   Thus, the encoding process requires a high load for bit amount calculation and the like. For this reason, for example, when encoding with MPEG-4 AVC (H.264 / AVC), which is one of the codecs adopted in Blu-Ray (trademark), it was adopted in DVD (Digital Versatile Disc). Compared with MPEG-2, the calculation processing load is higher, so the encoding processing time becomes longer.

これを補うためにエンコード処理を分散させて並列処理を行うことでエンコード処理時間を短くする手法がある。例えば、同一条件のエンコード用PC(Personal Computer)を複数台用意し、エンコード用PC台数分に素材を均等に割り振り、並列処理を実行することにより、H.264/AVC エンコードを効率的に処理し、エンコード時間を短縮させることができる。   In order to compensate for this, there is a method of shortening the encoding processing time by distributing the encoding processing and performing parallel processing. For example, H.264 / AVC encoding can be efficiently processed by preparing multiple encoding PCs (Personal Computers) with the same conditions, allocating materials equally to the number of encoding PCs, and executing parallel processing. Encoding time can be shortened.

特開平11−004445号公報Japanese Patent Laid-Open No. 11-004445 特開平11−346365号公報JP-A-11-346365 特許第3253971号公報Japanese Patent No. 3253971 特開2006−74461号公報JP 2006-74461 A

ところで、エンコードの並列処理を実行する際、理想的にはすべてのエンコード処理が同時に完了することが望ましい。しかし、エンコードを実行するPCの処理性能にばらつきがあった場合には、その処理性能の差が大きいほどシステムとして無駄が発生していた。   By the way, when executing parallel processing of encoding, ideally, it is desirable that all encoding processing is completed simultaneously. However, if there are variations in the processing performance of PCs that perform encoding, the larger the difference in processing performance, the more wasteful the system is.

また、MPEG-4 AVCエンコードを実行していたシステム上にMPEG-2エンコードを実行させた場合には、演算処理負荷が軽減されるのでエンコード用PCの性能を十分に活用したエンコード処理にはならずに無駄が発生していた。   In addition, when MPEG-2 encoding is executed on a system that has been executing MPEG-4 AVC encoding, the calculation processing load is reduced, so that encoding processing that fully utilizes the performance of the encoding PC cannot be used. There was a waste.

本発明は、このような従来の実情に鑑みて提案されたものであり、エンコード処理を効率良く行うことができる情報処理システム及び情報処理方法、並びにプログラムを提供する。   The present invention has been proposed in view of such a conventional situation, and provides an information processing system, an information processing method, and a program capable of efficiently performing an encoding process.

本発明に係る情報処理システムは、複数の情報処理装置の仕様情報を取得する取得部と、上記仕様情報に基づいて各情報処理装置の性能指数を算出するとともに、上記仕様情報及びビデオデータの符号化条件に基づいて情報処理装置にビデオデータを符号化処理させる処理単位数を算出し、各情報処理装置に処理単位数の符号化処理を起動させる算出起動部と、上記ビデオデータの符号化条件と同等のテストデータを用いて、上記処理単位数の符号化処理を起動させた情報処理装置の符号化処理速度を測定する測定部と、上記性能指数及び上記符号化処理速度に基づいて各情報処理装置の優先順位を決定する決定部と上記優先順位に基づいて上記ビデオデータを分割し、当該分割ビデオデータを各情報処理装置に割り当てる割当制御部とを備える。 An information processing system according to the present invention includes an acquisition unit that acquires specification information of a plurality of information processing devices, calculates a performance index of each information processing device based on the specification information, and codes the specification information and video data. A calculation starting unit for calculating the number of processing units for encoding the video data in the information processing apparatus based on the encoding conditions , and starting the encoding process for the number of processing units in each information processing apparatus, and the encoding conditions for the video data A measurement unit that measures the encoding processing speed of the information processing apparatus that has started the encoding processing of the number of processing units using the test data equivalent to the above, and each information based on the performance index and the encoding processing speed a determination unit which determines the priority of the processing unit, based on the priority and dividing the video data, the allocation controller for allocating the divided video data into the information processing apparatus Obtain.

また、本発明に係る情報処理方法は、複数の情報処理装置の仕様情報を取得する取得工程と、上記仕様情報に基づいて各情報処理装置の性能指数を算出するとともに、上記仕様情報及びビデオデータの符号化条件に基づいて情報処理装置にビデオデータを符号化処理させる処理単位数を算出し、各情報処理装置に処理単位数の符号化処理を起動させる算出起動工程と、上記ビデオデータの符号化条件と同等のテストデータを用いて、上記処理単位数の符号化処理を起動させた情報処理装置の符号化処理速度を測定する測定工程と、上記性能指数及び上記符号化処理速度に基づいて各情報処理装置の優先順位を決定する決定工程と上記優先順位に基づいて上記ビデオデータを分割し、当該分割ビデオデータを各情報処理装置に割り当てる割当制御工程とを有する。 The information processing method according to the present invention includes an acquisition step of acquiring specification information of a plurality of information processing devices, and calculates a performance index of each information processing device based on the specification information, and the specification information and video data. of it based on encoding conditions to calculate the number of processing units for processing coded video data to the information processing apparatus, a calculation start step of starting the encoding process of the number of processing units to each information processing apparatus, the sign of the video data Based on the measurement step of measuring the encoding processing speed of the information processing apparatus that has started the encoding processing of the number of processing units, using the test data equivalent to the encoding conditions, and the performance index and the encoding processing speed a determination step of determining a priority of each information processing apparatus divides the video data based on the priority assigned to the divided video data into the information processing apparatus assigned And a control process.

また、本発明に係るプログラムは、複数の情報処理装置の仕様情報を取得する取得工程と、上記仕様情報に基づいて各情報処理装置の性能指数を算出するとともに、上記仕様情報及びビデオデータの符号化条件に基づいて情報処理装置にビデオデータを符号化処理させる処理単位数を算出し、各情報処理装置に処理単位数の符号化処理を起動させる算出起動工程と、上記ビデオデータの符号化条件と同等のテストデータを用いて、上記処理単位数の符号化処理を起動させた情報処理装置の符号化処理速度を測定する測定工程と、上記性能指数及び上記符号化処理速度に基づいて各情報処理装置の優先順位を決定する決定工程と上記優先順位に基づいて上記ビデオデータを分割し、当該分割ビデオデータを各情報処理装置に割り当てる割当制御工程とをコンピュータに実行させる。 In addition, the program according to the present invention obtains specification information of a plurality of information processing devices, calculates a performance index of each information processing device based on the specification information, and encodes the specification information and video data. A calculation start step for calculating the number of processing units for encoding the video data in the information processing device based on the encoding conditions , and starting the encoding processing for the number of processing units in each information processing device, and the encoding conditions for the video data Using the test data equivalent to the above, the measurement step of measuring the encoding processing speed of the information processing apparatus that has started the encoding processing of the number of processing units, and each information based on the performance index and the encoding processing speed a determination step of determining a priority of the processing device divides the video data based on the priority assigned system for allocating the divided video data into the information processing apparatus To execute a process on the computer.

なお、本明細書において、「システム」とは、複数の装置又は特定の機能を実現する機能モジュールが論理的に集合したものを言い、各装置や機能モジュールが単一の筐体内にあるか否かは特に問わない。   In this specification, “system” means a logical collection of a plurality of devices or functional modules that realize a specific function, and whether or not each device or functional module is in a single casing. It doesn't matter.

本発明によれば、仕様情報に基づいて情報処理装置にビデオデータを符号化処理させる処理単位数を算出し、この処理単位数の符号化処理を起動させた情報処理装置に対してビデオデータを分割するため、情報処理装置のエンコード処理性能にばらつきがあっても、エンコード処理を効率良く行うことができる。   According to the present invention, the number of processing units for causing the information processing device to encode the video data is calculated based on the specification information, and the video data is sent to the information processing device that has started the encoding processing for the number of processing units. Since the division is performed, the encoding process can be performed efficiently even if the encoding process performance of the information processing apparatus varies.

以下、本発明の具体的な実施の形態について、図面を参照しながら詳細に説明する。ここでは、先ずオーサリング装置の全体構成を説明し、続いてビデオデータのエンコードを並列処理する情報処理システムについて説明する。   Hereinafter, specific embodiments of the present invention will be described in detail with reference to the drawings. Here, the overall configuration of the authoring apparatus will be described first, and then an information processing system for processing video data encoding in parallel will be described.

〔全体構成〕
図1は、本発明が適用される、スタジオ側に設置されるオーサリング装置(以下、「スタジオ側オーサリング装置」と称する)の一構成例を示している。
〔overall structure〕
FIG. 1 shows a configuration example of an authoring apparatus installed on the studio side (hereinafter referred to as “studio-side authoring apparatus”) to which the present invention is applied.

このスタジオ側オーサリング装置11は、メニュー信号処理装置21と、サブタイトル信号処理装置22と、オーディオ信号処理装置23と、ビデオ信号処理装置24と、マルチプレクサ25と、ダウンローダ26と、ファイルサーバ27と、オーサリングアプリケーション実行装置28とがネットワーク29を介して相互に接続されて構成されている。また、ダウンローダ26には、ライタ30を介して、DLT(Digital Linear Tape)31、HDD(Hard Disk Drive)32、及びネットワーク33が接続されている。なお、以下では、メニュー信号処理装置21乃至ダウンローダ26のそれぞれを「内部装置」とも称する。   The studio authoring device 11 includes a menu signal processing device 21, a subtitle signal processing device 22, an audio signal processing device 23, a video signal processing device 24, a multiplexer 25, a downloader 26, a file server 27, and an authoring. The application execution apparatus 28 is connected to each other via a network 29. Further, a DLT (Digital Linear Tape) 31, a HDD (Hard Disk Drive) 32, and a network 33 are connected to the downloader 26 via a writer 30. Hereinafter, each of the menu signal processing device 21 to the downloader 26 is also referred to as an “internal device”.

スタジオ側オーサリング装置11は、光ディスクに記録させる多重ストリームをファイルとして生成して、DLT31、HDD32、及びネットワーク33のうちの少なくとも1つに出力させる。例えば、ネットワーク33にデータを出力させた場合、ネットワーク33に接続された他の装置、例えば後述する図5のプラント側オーサリング装置101に対してデータを転送して、そのデータを他の装置に保持(記憶)させる。   The studio-side authoring device 11 generates a multiplexed stream to be recorded on the optical disc as a file and outputs it to at least one of the DLT 31, the HDD 32, and the network 33. For example, when data is output to the network 33, the data is transferred to another device connected to the network 33, for example, the plant-side authoring device 101 in FIG. 5 described later, and the data is held in the other device. (Remember).

このスタジオ側オーサリング装置11において、メニュー信号処理装置21は、オーサリングアプリケーション実行装置28により制御され、例えばビデオテープレコーダ等より供給されるメニュー画面のビデオデータに対してエンコード処理を施し、その結果得られるエンコードビデオデータをファイルサーバ27に記憶させる。   In the studio-side authoring device 11, the menu signal processing device 21 is controlled by the authoring application execution device 28, performs an encoding process on the video data of the menu screen supplied from, for example, a video tape recorder, and the result is obtained. The encoded video data is stored in the file server 27.

サブタイトル信号処理装置22は、オーサリングアプリケーション実行装置28により制御され、例えば外部のビデオテープレコーダより供給されるタイトル等のビデオデータに対してエンコード処理を施して、その結果得られるエンコードビデオデータをファイルサーバ27に記憶させる。   The subtitle signal processing device 22 is controlled by the authoring application execution device 28 and performs encoding processing on video data such as a title supplied from an external video tape recorder, for example, and the resulting encoded video data is file server 27.

オーディオ信号処理装置23は、オーサリングアプリケーション実行装置28により制御され、例えばビデオテープレコーダより供給されるオーディオデータに対してエンコード処理を施して、その結果得られるエンコードオーディオデータをファイルサーバ27に記憶させる。   The audio signal processing device 23 is controlled by the authoring application execution device 28, performs an encoding process on audio data supplied from, for example, a video tape recorder, and stores the encoded audio data obtained as a result in the file server 27.

ビデオ信号処理装置24は、オーサリングアプリケーション実行装置28により制御され、例えばビデオテープレコーダより供給されるビデオデータに対してエンコード処理を施して、その結果得られるエンコードビデオデータをファイルサーバ27に記憶させる。ビデオデータは、光ディスクに記録させる編集対象(データ)のうちの主データとなる。なお、このビデオ信号処理装置24の詳細な構成例については、図3を参照して後述する。   The video signal processing device 24 is controlled by the authoring application execution device 28, performs an encoding process on the video data supplied from, for example, a video tape recorder, and stores the encoded video data obtained as a result in the file server 27. The video data is the main data among editing objects (data) to be recorded on the optical disc. A detailed configuration example of the video signal processing device 24 will be described later with reference to FIG.

マルチプレクサ25は、オーサリングアプリケーション実行装置28により制御され、ファイルサーバ27に記憶されているエンコードオーディオデータやエンコードビデオデータをそれぞれ多重化し、その結果得られる多重ストリームをファイルとして生成する(以下、「多重化ストリームファイル」と称する。)。マルチプレクサ25により生成された多重化ストリームファイルは、ネットワーク29を介してダウンローダ26に供給される。   The multiplexer 25 is controlled by the authoring application execution device 28, multiplexes the encoded audio data and encoded video data stored in the file server 27, and generates the resulting multiplexed stream as a file (hereinafter referred to as "multiplexed"). Referred to as a stream file). The multiplexed stream file generated by the multiplexer 25 is supplied to the downloader 26 via the network 29.

ダウンローダ26は、多重化ストリームファイルを、ライタ30を介して、DLT31、HDD32、及びネットワーク33のうちの少なくとも1つに出力する。この多重化ストリームファイルは、ディスクイメージデータとして、例えば後述する図5のプラント側オーサリング装置101に供給される。なお、プラント側オーサリング装置101のさらなる説明については後述する。   The downloader 26 outputs the multiplexed stream file to at least one of the DLT 31, the HDD 32, and the network 33 via the writer 30. This multiplexed stream file is supplied as disk image data, for example, to the plant-side authoring apparatus 101 of FIG. Further explanation of the plant-side authoring apparatus 101 will be described later.

ファイルサーバ27は、例えば、ネットワーク管理機能をもつコンピュータと高速アクセス可能なディスクアレイにより構成される。ファイルサーバ27は、各内部装置からネットワーク29を介して供給されるエンコードビデオデータやエンコードオーディオデータをそれぞれ記憶する。また、ファイルサーバ27は、マルチプレクサ25等の要求に応動して、記憶されているエンコードビデオデータやエンコードオーディオデータを、ネットワーク29を介してマルチプレクサ25等に出力する。   The file server 27 is composed of, for example, a computer having a network management function and a disk array that can be accessed at high speed. The file server 27 stores encoded video data and encoded audio data supplied from each internal device via the network 29. The file server 27 outputs the stored encoded video data and encoded audio data to the multiplexer 25 and the like via the network 29 in response to a request from the multiplexer 25 and the like.

オーサリングアプリケーション実行装置28は、例えば、オーサリングアプリケーションソフトウエアを実行可能なコンピュータにより構成される。オーサリングアプリケーションソフトウエアとは、このスタジオ側オーサリング装置11全体の動作を制御するためのソフトウエアを指す。即ち、オーサリングアプリケーション実行装置28は、例えば、オペレータにより設定された各種条件に従って、上述したように各内部装置の動作を制御することになる。   The authoring application execution device 28 is constituted by, for example, a computer that can execute authoring application software. The authoring application software refers to software for controlling the overall operation of the studio authoring apparatus 11. That is, the authoring application execution device 28 controls the operation of each internal device as described above, for example, according to various conditions set by the operator.

次に、図2のフローチャートを参照して、スタジオ側オーサリング装置11の動作例について説明する。   Next, an operation example of the studio-side authoring apparatus 11 will be described with reference to the flowchart of FIG.

ステップS1において、オーサリングアプリケーション実行装置28は、オペレータの操作に従って各内部装置に対して編集リストを通知することにより、編集対象をビデオ信号処理装置24等の各内部装置に通知する。   In step S1, the authoring application execution device 28 notifies each internal device such as the video signal processing device 24 of the editing target by notifying each internal device of the edit list in accordance with the operation of the operator.

ここで、編集対象とは、例えばビデオ信号処理装置24の処理対象のビデオデータを少なくとも含む。また、その他必要に応じて、オーディオ信号処理装置23の処理対象のオーディオデータ、サブタイトル信号処理装置22の処理対象のビデオデータ、及びメニュー信号処理装置21の処理対象のビデオデータのうちの任意の数の任意の種類のデータを含むいわゆる素材(データ)を指す。   Here, the editing target includes at least video data to be processed by the video signal processing device 24, for example. In addition, if necessary, any number of audio data to be processed by the audio signal processing device 23, video data to be processed by the subtitle signal processing device 22, and video data to be processed by the menu signal processing device 21. The so-called material (data) including any kind of data.

ステップS2において、オーサリングアプリケーション実行装置28は、エンコード処理に必要な各種情報を生成し、これを一括して所定のファイルに含めた符号化ファイルを内部装置に通知する。   In step S2, the authoring application execution device 28 generates various types of information necessary for the encoding process, and notifies the internal device of an encoded file that is collectively included in a predetermined file.

具体的には、オーサリングアプリケーション実行装置28は、例えば編集対象がこれから記録される光ディスクの記録可能なデータ量を取得し、そのデータ量に基づいて、編集対象を構成する各データに割り当てるデータ量をそれぞれ計算する。そして、オーサリングアプリケーション実行装置28は、計算された各データ量のそれぞれを符号化ファイルに含めて、各内部装置のうちの対応する内部装置にそれぞれ通知する。   Specifically, the authoring application execution device 28 acquires, for example, the recordable data amount of the optical disc on which the editing target is to be recorded, and based on the data amount, assigns the data amount allocated to each data constituting the editing target. Calculate each. Then, the authoring application execution device 28 includes each of the calculated data amounts in the encoded file, and notifies the corresponding internal device among the internal devices.

例えば、ビデオ信号処理装置24に符号化ファイルを通知する場合、オーサリングアプリケーション実行装置28は、ビデオ信号処理装置24の処理対象のビデオデータを通知する。即ち、編集対象のうちのメニューやタイトルを除くビデオデータに割り当てるデータ量(以下、「ビデオデータに割り当て可能なデータ量」と称する)を、符号化ファイルに含めてビデオ信号処理装置24に通知する。   For example, when the encoded file is notified to the video signal processing device 24, the authoring application execution device 28 notifies the video data to be processed by the video signal processing device 24. That is, the amount of data allocated to video data excluding menus and titles to be edited (hereinafter referred to as “data amount that can be allocated to video data”) is included in the encoded file and notified to the video signal processing device 24. .

また、例えば、オーサリングアプリケーション実行装置28は、編集対象のうちのメニューやタイトルを除くビデオデータについて、オペレータにより設定されたチャプターの時間情報(以下、「アクセス(チャプター)ポイント」と称する)を符号化ファイルに含めてビデオ信号処理装置24に通知する。チャプターとは、フレーム内符号化処理(Iピクチャ)が強制的に割り当てられるフレームを指す。光ディスクを取り扱うことが可能な装置は、このチャプターを目標にしてトラックジャンプして記録内容を確認することができる。   Further, for example, the authoring application execution device 28 encodes chapter time information (hereinafter referred to as “access (chapter) point”) set by the operator for video data excluding menus and titles to be edited. It is included in the file and notified to the video signal processing device 24. A chapter refers to a frame to which intra-frame coding processing (I picture) is forcibly assigned. An apparatus capable of handling an optical disk can confirm the recorded contents by performing a track jump with this chapter as a target.

また、例えば、オーサリングアプリケーション実行装置28は、編集対象のうちのメニューやタイトルを除くビデオデータについて、GOPの最大表示フレーム数(例えば15フレーム)や、各GOPにおけるエンコード処理の配列等を符号化ファイルに含めてビデオ信号処理装置24に通知する。   Further, for example, the authoring application execution apparatus 28 encodes the maximum number of GOP display frames (for example, 15 frames) and the encoding processing array in each GOP for video data excluding menus and titles to be edited. To the video signal processing device 24.

また、例えば、オーサリングアプリケーション実行装置28は、必要に応じて、マルチアングルの処理対象も符号化ファイルに含めてビデオ信号処理装置24に通知する。マルチアングルとは、複数のビデオ素材を時分割多重化して光ディスクに記録することにより、ユーザの選択に応じて、例えば列車の走行シーン等を異なる撮影箇所より視聴できるようにした処理を指す。   Further, for example, the authoring application execution device 28 notifies the video signal processing device 24 of a multi-angle processing target, if necessary, in the encoded file. Multi-angle refers to a process in which a plurality of video materials are time-division multiplexed and recorded on an optical disc so that, for example, a train traveling scene can be viewed from different shooting locations according to a user's selection.

また、例えば、オーサリングアプリケーション実行装置28は、必要に応じて、「シーンチェンジ自動検出(ON/OFF)」、「光ディスクのディスク容量」、「VTRの開始及び終了時刻」等も符号化ファイルに含めてビデオ信号処理装置24に通知する。   Also, for example, the authoring application execution device 28 includes “automatic scene change detection (ON / OFF)”, “disk capacity of the optical disk”, “VTR start and end times”, etc. in the encoded file as necessary. To the video signal processing device 24.

ステップS3において、各内部装置は、この符号化ファイルに含まれる各種情報に基づいて、編集対象のうちの対応するデータをエンコードし、その結果得られる各エンコードデータのそれぞれをファイルサーバ27に記憶させる。具体的には、例えば、ビデオ信号処理装置24は、後述する図4の「ビデオデータ生成処理」を実行することになる。   In step S3, each internal device encodes corresponding data in the editing target based on various information included in the encoded file, and stores each encoded data obtained as a result in the file server 27. . Specifically, for example, the video signal processing device 24 executes “video data generation processing” in FIG. 4 to be described later.

ステップS4において、マルチプレクサ25は、ステップS3の処理でファイルサーバ27に記憶された各エンコードデータのそれぞれを多重化することで、多重化ストリームファイルを生成し、ダウンローダ26に供給する。   In step S4, the multiplexer 25 generates a multiplexed stream file by multiplexing each encoded data stored in the file server 27 in the process of step S3, and supplies the multiplexed stream file to the downloader 26.

ステップS5において、ダウンローダ26は、この多重化ストリームファイルを、ライタ30を介して、DLT31、HDD32、及びネットワーク33のうちの少なくとも1つに出力する。これにより、スタジオ側オーサリング装置11の処理は終了となる。   In step S <b> 5, the downloader 26 outputs the multiplexed stream file to at least one of the DLT 31, the HDD 32, and the network 33 via the writer 30. Thereby, the process of the studio side authoring apparatus 11 is complete | finished.

次に、図3を参照して、このスタジオ側オーサリング装置11のうちのビデオ信号処理装置24の詳細な構成例について説明する。   Next, a detailed configuration example of the video signal processing device 24 in the studio-side authoring device 11 will be described with reference to FIG.

図3に示されるように、ビデオ信号処理装置24は、例えば、ビデオテープレコーダ51、主コントローラ52、エンコーダ53、及びモニタ装置54から構成される。   As shown in FIG. 3, the video signal processing device 24 includes, for example, a video tape recorder 51, a main controller 52, an encoder 53, and a monitor device 54.

上述したステップS1の処理により、編集リストがオーサリングアプリケーション実行装置28からビデオ信号処理装置24に供給される。具体的には、編集リストは、図3に示されるように主コントローラ52に供給され、その後、ビデオテープレコーダ51に供給される。即ち、編集リストは、主コントローラ52を介してビデオテープレコーダ51に供給される。   The edit list is supplied from the authoring application execution device 28 to the video signal processing device 24 by the processing in step S1 described above. Specifically, the edit list is supplied to the main controller 52 as shown in FIG. 3 and then supplied to the video tape recorder 51. That is, the edit list is supplied to the video tape recorder 51 via the main controller 52.

ビデオテープレコーダ51は、この編集リストに従って磁気テープを再生し、これにより処理対象のビデオデータD1を出力して、エンコーダ53に供給する。   The video tape recorder 51 reproduces the magnetic tape in accordance with this edit list, thereby outputting the video data D1 to be processed and supplying it to the encoder 53.

エンコーダ53は、主コントローラ52により設定される各種エンコード条件に従って動作を切り換え、ビデオテープレコーダ51から出力されるビデオデータD1に対して、例えばMPEG規格によるエンコード処理を施す。このとき、各種エンコード条件の設定が主コントローラ52により可変制御されることにより、エンコーダ53からの発生ビット量が制御されるようになされている。   The encoder 53 switches its operation according to various encoding conditions set by the main controller 52, and performs encoding processing according to, for example, the MPEG standard on the video data D1 output from the video tape recorder 51. At this time, the setting of various encoding conditions is variably controlled by the main controller 52 so that the amount of bits generated from the encoder 53 is controlled.

さらに、エンコーダ53は、このエンコード処理の結果を主コントローラ52に通知する。これにより、主コントローラ52は、エンコーダ53のエンコード処理で使用されたピクチャタイプや、そのエンコード処理における発生ビット量をフレーム単位で検出することができる。   Further, the encoder 53 notifies the main controller 52 of the result of the encoding process. As a result, the main controller 52 can detect the picture type used in the encoding process of the encoder 53 and the generated bit amount in the encoding process in units of frames.

また、エンコーダ53は、いわゆる2パスエンコードを行う場合、1パス目と2パス目との何れのエンコード処理も実行する。   In addition, when performing so-called two-pass encoding, the encoder 53 performs both the first-pass and second-pass encoding processes.

具体的には、エンコーダ53は、2パス目のエンコード処理で利用されるエンコード条件を事前に設定するために、1パス目のエンコード処理、例えば後述する図4のステップS22の処理の一部であるエンコード処理を実行する。詳細には、エンコーダ53は、自分自身の内部処理でピクチャタイプを割り振る。そして、エンコーダ53は、そのようにして割り振られたピクチャタイプを利用してビデオデータD1に対して1パス目のエンコード処理を施し、その1パス目のエンコード処理の結果、例えば各フレームのピクチャタイプや発生ビット量等を主コントローラ52に通知する。   Specifically, the encoder 53 performs a first pass encoding process, for example, a part of the process of step S22 in FIG. 4 to be described later in order to set in advance the encoding conditions used in the second pass encoding process. Perform some encoding process. Specifically, the encoder 53 allocates a picture type by its own internal processing. Then, the encoder 53 performs the first pass encoding process on the video data D1 using the picture type allocated in this way, and the result of the first pass encoding process is, for example, the picture type of each frame. And the generated bit amount and the like are notified to the main controller 52.

2パス目のエンコード処理では、エンコーダ53は、例えば後述する図4のステップS30のエンコード処理を実行する。即ち、エンコーダ53は、主コントローラ52により設定されたフレーム単位のピクチャタイプと目標ビット量とを使用して、2パス目のエンコード処理をビデオデータD1に対して施し、その結果得られるエンコードビデオデータD2を、ネットワーク29を介してファイルサーバ27に記憶させる。このとき、エンコーダ53は、ファイルサーバ27に記憶されたビデオデータD2のデータ量等を主コントローラ52に通知する。   In the second pass encoding process, the encoder 53 executes, for example, an encoding process in step S30 in FIG. That is, the encoder 53 performs the second pass encoding process on the video data D1 using the picture type and the target bit amount set by the main controller 52, and the encoded video data obtained as a result thereof. D2 is stored in the file server 27 via the network 29. At this time, the encoder 53 notifies the main controller 52 of the data amount of the video data D2 stored in the file server 27.

モニタ装置54は、例えばディスプレイ装置等で構成され、主コントローラ52のエンコーダ53を介する制御に基づいて、エンコーダ53から出力されるエンコードビデオデータD2に対応する映像を表示する。即ち、エンコーダ53は、エンコードビデオデータD2をデコードして、その結果得られるビデオ信号をモニタ装置54に供給する。モニタ装置54は、供給されたビデオ信号に対応する映像、即ち、エンコードビデオデータD2に対応する映像を表示する。   The monitor device 54 is configured by a display device, for example, and displays video corresponding to the encoded video data D2 output from the encoder 53 based on control through the encoder 53 of the main controller 52. That is, the encoder 53 decodes the encoded video data D2 and supplies a video signal obtained as a result to the monitor device 54. The monitor device 54 displays a video corresponding to the supplied video signal, that is, a video corresponding to the encoded video data D2.

これにより、オペレータは、エンコーダ53の処理結果をモニタ装置54で必要に応じて確認することができる。即ち、ビデオ信号処理装置24は、モニタ装置54を利用して、エンコーダ53の処理結果のプレビューを行うことができる。さらに、オペレータは、このプレビュー結果に基づいて主コントローラ52を操作することで、各種エンコード条件のそれぞれを細かく変更することができる。   Thereby, the operator can confirm the processing result of the encoder 53 on the monitor device 54 as necessary. That is, the video signal processing device 24 can preview the processing result of the encoder 53 using the monitor device 54. Further, the operator can finely change each of the various encoding conditions by operating the main controller 52 based on the preview result.

主コントローラ52は、例えば、このビデオ信号処理装置24に割り当てられたコンピュータにより構成される。主コントローラ52は、オーサリングアプリケーション実行装置28との間でネットワーク29を介するデータ通信を行うことで、このビデオ信号処理装置24全体の動作を制御する。   The main controller 52 is constituted by, for example, a computer assigned to the video signal processing device 24. The main controller 52 controls the overall operation of the video signal processing device 24 by performing data communication with the authoring application execution device 28 via the network 29.

このため、主コントローラ52には、例えば図3に示されるように、グラフィカルユーザーインターフェース(GUI:Graphical User Interface)61、ビデオテープレコーダ(VTR:Video Tape Recorder)コントロール部62、ビットアサイン部63、及び、エンコードコントロール部64が設けられている。   Therefore, for example, as shown in FIG. 3, the main controller 52 includes a graphical user interface (GUI) 61, a video tape recorder (VTR) control unit 62, a bit assign unit 63, and An encoding control unit 64 is provided.

即ち、主コントローラ52は、オーサリングアプリケーション実行装置28からの制御とオペレータの操作とのそれぞれをGUI61の管理により受け付ける。また、このGUI61により管理されるVTRコントロール部62とビットアサイン部63とエンコードコントロール部64とを用いて、ビデオテープレコーダ51、エンコーダ53、及びモニタ装置54のそれぞれの動作を制御する。   That is, the main controller 52 receives the control from the authoring application execution device 28 and the operation of the operator by the management of the GUI 61. In addition, the VTR control unit 62, the bit assign unit 63, and the encode control unit 64 managed by the GUI 61 are used to control the operations of the video tape recorder 51, the encoder 53, and the monitor device 54.

これにより、主コントローラ52は、例えば、オーサリングアプリケーション実行装置28から通知された符号化ファイルに基づいて各種エンコード条件を設定することが可能になる。なお、以下、他の内部装置に供給される符号化ファイルと区別するために、ビデオ信号処理装置24に供給される符号化ファイルを、図3の記載と併せて、符号化ファイルVENC.XMLと称する。   Accordingly, the main controller 52 can set various encoding conditions based on the encoded file notified from the authoring application execution device 28, for example. Hereinafter, in order to distinguish from the encoded file supplied to other internal devices, the encoded file supplied to the video signal processing device 24 is referred to as an encoded file VENC.XML together with the description of FIG. Called.

さらに、主コントローラ52は、上述したように、GUI61を介してオペレータの設定を受け付け、これにより、例えば、各種エンコード条件の設定を更新することができる。   Further, as described above, the main controller 52 accepts operator settings via the GUI 61, and can thereby update, for example, various encoding condition settings.

そして、主コントローラ52は、例えば、このようにして設定された或いは更新された各種エンコード条件に従ったエンコード処理を、エンコーダ53が処理対象のビデオデータD1に対して施すことを制御する。   The main controller 52 controls, for example, that the encoder 53 performs encoding processing on the video data D1 to be processed in accordance with various encoding conditions set or updated as described above.

また、主コントローラ52は、エンコーダ53から通知されたエンコード処理の結果を受け取り、そのエンコード処理の結果をオーサリングアプリケーション実行装置28に通知することができる。   Further, the main controller 52 can receive the result of the encoding process notified from the encoder 53 and notify the authoring application execution apparatus 28 of the result of the encoding process.

VTRコントロール部62は、オーサリングアプリケーション実行装置28から通知される編集リストに従ってビデオテープレコーダ51の動作を制御することで、編集対象のビデオデータD1をビデオテープレコーダ51から再生させる。   The VTR control unit 62 controls the operation of the video tape recorder 51 in accordance with the edit list notified from the authoring application execution device 28 to reproduce the video data D1 to be edited from the video tape recorder 51.

ビットアサイン部63は、例えば、オーサリングアプリケーション実行装置28から通知される符号化ファイルVENC.XMLに従って各種エンコード条件を設定し、このエンコード条件に対応する制御データをエンコードコントロール部64に通知する。このとき、ビットアサイン部63は、例えば、オペレータのGUI61の操作に応じて、各種エンコード条件の設定を変更することができる。   For example, the bit assigning unit 63 sets various encoding conditions according to the encoded file VENC.XML notified from the authoring application execution device 28, and notifies the encoding control unit 64 of control data corresponding to the encoding conditions. At this time, the bit assigning unit 63 can change the setting of various encoding conditions in accordance with, for example, the operator's operation of the GUI 61.

ビットアサイン部63が設定するエンコード条件としては、例えば、1パス目のエンコード処理で利用される第1のエンコード条件と、2パス目のエンコード処理で利用される第2のエンコード条件とが該当する。第1のエンコード条件の中には、例えば、エンコーダ53が1パス目のエンコード処理を実行する際にその内部処理でピクチャタイプを設定するために必要な各種条件等が含まれる。これに対して、第2のエンコード条件の中には、例えば、2パス目のエンコード処理で利用される各フレームのそれぞれのピクチャタイプや目標ビット量等が含まれる。   The encoding conditions set by the bit assigning unit 63 include, for example, the first encoding condition used in the first pass encoding process and the second encoding condition used in the second pass encoding process. . The first encoding condition includes, for example, various conditions necessary for setting the picture type in the internal process when the encoder 53 executes the first pass encoding process. On the other hand, the second encoding condition includes, for example, the picture type and the target bit amount of each frame used in the second pass encoding process.

エンコードコントロール部64は、例えば、ビットアサイン部63から通知される制御ファイルに従って、エンコーダ53の1パス目と2パス目のそれぞれのエンコード処理を制御する。   For example, the encoding control unit 64 controls each encoding process of the first pass and the second pass of the encoder 53 according to the control file notified from the bit assigning unit 63.

また、エンコードコントロール部64は、エンコーダ53による1パス目のエンコード処理の結果から、エンコード処理に要する困難度と、ピクチャタイプとのそれぞれをフレーム単位で検出し、その検出結果をビットアサイン部63に通知する。すると、ビットアサイン部63は、通知されたフレーム毎の困難度とピクチャタイプとを利用して、2パス目のエンコード処理で利用される第2のエンコード条件を設定する。なお、困難度については後述する。   Further, the encoding control unit 64 detects the difficulty level required for the encoding process and the picture type from the result of the first pass encoding process by the encoder 53 in units of frames, and the detection result is sent to the bit assigning unit 63. Notice. Then, the bit assignment unit 63 sets the second encoding condition used in the second pass encoding process using the notified difficulty level and picture type for each frame. The difficulty level will be described later.

さらに、エンコードコントロール部64は、エンコーダ53の最終的な2パス目のエンコード処理の結果得られたエンコードビデオデータD2を、ネットワーク29を介してファイルサーバ27に記憶させることを制御する。   Further, the encoding control unit 64 controls the encoded video data D2 obtained as a result of the final second-pass encoding process of the encoder 53 to be stored in the file server 27 via the network 29.

次に、図4のフローチャートを参照して、このビデオ信号処理装置24におけるビデオデータ生成処理の動作例を説明する。   Next, an example of the operation of the video data generation process in the video signal processing device 24 will be described with reference to the flowchart of FIG.

オーサリングアプリケーション実行装置28から、上述した図2のステップS1の処理で編集リスト(編集対象)が通知され、ステップS2の処理で符号化ファイルVENC.XMLが供給される。さらに、この「ビデオデータ生成処理」の開始が指示されると、GUI61の管理により、VTRコントロール部62、ビットアサイン部63、及び、エンコードコントロール部64が起動されて、この「ビデオデータ生成処理」が開始される。即ち、処理は図2のステップS3に進み、ステップS3の処理のうちのビデオ信号処理装置24の処理として、この「ビデオデータ生成処理」が開始される。   The authoring application execution device 28 notifies the edit list (edit target) in the process of step S1 of FIG. 2 described above, and the encoded file VENC.XML is supplied in the process of step S2. Further, when the start of the “video data generation process” is instructed, the VTR control unit 62, the bit assignment unit 63, and the encoding control unit 64 are activated by the management of the GUI 61, and this “video data generation process” is started. Is started. That is, the process proceeds to step S3 in FIG. 2, and this “video data generation process” is started as the process of the video signal processing device 24 in the process of step S3.

ステップS21において、主コントローラ52は、オーサリングアプリケーション実行装置28から供給された符号化ファイルVENC.XMLから、編集対象のビデオデータD1のエンコード処理に必要な各種情報を取得する。   In step S21, the main controller 52 acquires various types of information necessary for the encoding process of the video data D1 to be edited from the encoded file VENC.XML supplied from the authoring application execution device 28.

具体的には、例えば、符号化ファイルVENC.XMLに含まれる「アクセス(チャプター)ポイント」、「シーンチェンジ自動検出(ON/OFF)」、「ディスク容量」、「VTRの開始及び終了時刻」、「ビデオデータD1に割り当て可能なデータ量」などの各種情報が取得される。   Specifically, for example, “access (chapter) points”, “scene change automatic detection (ON / OFF)”, “disk capacity”, “VTR start and end times” included in the encoded file VENC.XML, Various types of information such as “amount of data that can be allocated to the video data D1” are acquired.

ステップS22において、主コントローラ52は、ビデオテープレコーダ51とエンコーダ53とを制御して、ステップS21の処理で取得された各種情報により設定される第1のエンコード条件に従った1パス目のエンコード処理を、編集対象のビデオデータD1に対して施す。そして、主コントローラ52は、1パス目のエンコード処理の結果得られる第1のエンコードビデオデータから、エンコード処理に要する困難度と、ピクチャタイプとのそれぞれをフレーム単位で検出する。   In step S22, the main controller 52 controls the video tape recorder 51 and the encoder 53 to perform the first pass encoding process according to the first encoding condition set by the various information acquired in the process of step S21. Is applied to the video data D1 to be edited. Then, the main controller 52 detects the difficulty level required for the encoding process and the picture type for each frame from the first encoded video data obtained as a result of the first pass encoding process.

具体的には、エンコーダ53は、次のようにビデオテープレコーダ51で再生された編集対象のビデオデータD1を処理する。   Specifically, the encoder 53 processes the video data D1 to be edited reproduced by the video tape recorder 51 as follows.

エンコーダ53は、このビデオデータD1を構成する各フレームのそれぞれのピクチャタイプを設定する。即ち、エンコーダ53は、主コントローラ52からの指示により指定されたフレームをIピクチャに設定する。さらに、エンコーダ53は、ステップS21の処理で取得された「シーンチェンジ自動検出」がONに設定されている場合(そのことが主コントローラ52から通知された場合)には、その前後のフレームの相関関係からシーンチェンジと判定されたフレームを強制的にIピクチャに設定する。そして、エンコーダ53は、Iピクチャに設定されたフレームから、次のIピクチャの直前のフレームまでのフレーム群をGOPとして設定していく処理を実行する。   The encoder 53 sets each picture type of each frame constituting the video data D1. That is, the encoder 53 sets the frame designated by the instruction from the main controller 52 as an I picture. Furthermore, when “automatic scene change detection” acquired in the process of step S21 is set to ON (when notified from the main controller 52), the encoder 53 correlates the frames before and after that. A frame determined to be a scene change from the relationship is forcibly set as an I picture. Then, the encoder 53 executes a process of setting a frame group from the frame set as the I picture to the frame immediately before the next I picture as the GOP.

また、エンコーダ53は、このようにして設定されたピクチャタイプを使用して、ビデオデータD1を構成する各フレームのそれぞれに対して、固定量子化ステップによる1パス目のエンコード処理を順次施していく。そして、エンコーダ53は、その際に発生するビット量、即ち、各フレームのそれぞれがエンコードされた際の発生ビット量のそれぞれを主コントローラ52に通知するとともに、各フレームのピクチャタイプを主コントローラ52に通知する。   Further, the encoder 53 sequentially performs the first pass encoding process by the fixed quantization step on each of the frames constituting the video data D1 using the picture type set in this way. . The encoder 53 notifies the main controller 52 of the amount of bits generated at that time, that is, the amount of generated bits when each frame is encoded, and the picture type of each frame to the main controller 52. Notice.

すると、主コントローラ52は、エンコーダ53からのこの通知により、困難度とピクチャタイプとのそれぞれをフレーム単位で検出する。即ち、主コントローラ52は、エンコーダ53から通知された各フレームのピクチャタイプを、そのまま各フレームのピクチャタイプとして検出する。また、主コントローラ52は、エンコーダ53から通知された各フレームの発生ビット量のそれぞれを、各フレームのそれぞれの困難度として検出(測定)する。   Then, the main controller 52 detects each of the difficulty level and the picture type in units of frames based on this notification from the encoder 53. That is, the main controller 52 detects the picture type of each frame notified from the encoder 53 as the picture type of each frame as it is. Further, the main controller 52 detects (measures) each generated bit amount of each frame notified from the encoder 53 as each difficulty level of each frame.

このように、本明細書で言う困難度とは、固定量子化ステップによるエンコード処理が編集対象のビデオデータD1に対して施された際の、エンコード処理後の各フレームのそれぞれのデータ量を指す。   As described above, the difficulty level in the present specification refers to the data amount of each frame after the encoding process when the encoding process by the fixed quantization step is performed on the video data D1 to be edited. .

即ち、フレーム間エンコード処理(PまたはBピクチャのエンコードタイプ)においては動きの激しい部分で予測フレームからの予測誤差(差分)が大きくなり、その分、画質劣化を低減させるために多くのデータが必要となる。またフレーム内符号化処理(Iピクチャのエンコードタイプ)においては、高周波数成分が多い場合に、ディスクリートコサイン変換処理により高次の係数データが発生することにより、その分、画質劣化を低減させるために多くのデータ量が必要となる。従って、固定量子化ステップによるエンコード処理がビデオデータD1に対して施された場合、画質劣化を低減させるための多くのデータ量を要する部分(フレーム)において、多くのデータ量が検出されることになる。以上のことから、固定量子化ステップによるエンコード処理が編集対象のビデオデータD1に対して施された結果得られるエンコードビデオデータを構成する各フレームのデータのそれぞれのデータ量こそが、各フレームのそれぞれについての困難度を指すことになる。   In other words, in the inter-frame encoding process (P or B picture encoding type), the prediction error (difference) from the prediction frame becomes large at a portion where the motion is intense, and much data is required to reduce the image quality degradation accordingly. It becomes. In addition, in the intra-frame encoding process (I-picture encoding type), when there are many high frequency components, high-order coefficient data is generated by the discrete cosine transform process. A large amount of data is required. Therefore, when the encoding process by the fixed quantization step is performed on the video data D1, a large amount of data is detected in a portion (frame) that requires a large amount of data to reduce image quality degradation. Become. From the above, the data amount of each frame data constituting the encoded video data obtained as a result of the encoding process by the fixed quantization step being applied to the video data D1 to be edited is the respective data amount of each frame. Will refer to the degree of difficulty.

ステップS23において、主コントローラ52は、ステップS22の処理によりフレーム単位で検出された困難度とピクチャタイプとを用いて「ビット配分計算処理」を実行することで、目標ビット量をフレーム単位で設定する。   In step S23, the main controller 52 sets the target bit amount in units of frames by executing “bit allocation calculation processing” using the difficulty level and the picture type detected in units of frames in the process of step S22. .

「ビット配分計算処理」とは、例えば次のような処理を指す。即ち、ステップS22の処理で検出された各フレームの困難度とピクチャタイプとを用いて、編集対象のビデオデータD1に対して2パス目のエンコード処理が施された場合に得られるエンコードビデオデータD2全体の目標ビット量を、各フレームのそれぞれに割り振るための計算処理が、「ビット配分計算処理」である。   The “bit allocation calculation process” refers to the following process, for example. In other words, the encoded video data D2 obtained when the second pass encoding process is performed on the video data D1 to be edited using the difficulty level and the picture type of each frame detected in the process of step S22. A calculation process for allocating the entire target bit amount to each frame is a “bit allocation calculation process”.

以下、「ビット配分計算処理」についてさらに詳しく説明する。   Hereinafter, the “bit allocation calculation process” will be described in more detail.

即ち、主コントローラ52は、次の式(1)の演算処理を実行し、ビデオデータD1(エンコードデータD2)に対して実際に割り当て可能な総ビット量TOTAL_SUPPLYを計算する。
TOTAL_SUPPLY = TOTAL_BYTES − TOTAL_HEADER ・・・(1)
式(1)において、TOTAL_BYTESは、ステップS21の処理で取得された「ビデオデータD1に割り当て可能なデータ量」を示し、ネットワーク29上のファイルサーバ27に記録されるエンコードビデオデータD2全体の目標データ量に相当する。また、TOTAL_HEADERは、エンコードビデオデータD2のうちのヘッダー等の付随的なデータのデータ量を示しており、GOPの総数により特定されるデータ量である。
That is, the main controller 52 executes the arithmetic processing of the following equation (1), and calculates the total bit amount TOTAL_SUPPLY that can be actually allocated to the video data D1 (encoded data D2).
TOTAL_SUPPLY = TOTAL_BYTES − TOTAL_HEADER (1)
In equation (1), TOTAL_BYTES indicates the “data amount that can be allocated to the video data D1” acquired in the process of step S21, and the target data of the entire encoded video data D2 recorded in the file server 27 on the network 29. It corresponds to the amount. Further, TOTAL_HEADER indicates the data amount of accompanying data such as a header in the encoded video data D2, and is the data amount specified by the total number of GOPs.

従って、主コントローラ52は、この式(1)の演算処理により、エンコードビデオデータD2のうちの付随的なデータを除いたデータに対して割り当て可能なデータ量を、ビデオデータD1に対して実際に割り当て可能な総ビット量TOTAL_SUPPLYとして計算することになる。   Therefore, the main controller 52 actually allocates the data amount that can be allocated to the data excluding the incidental data of the encoded video data D2 to the video data D1 by the arithmetic processing of the equation (1). The total amount of bits that can be allocated is calculated as TOTAL_SUPPLY.

次に、主コントローラ52は、ビデオデータD1に対して実際に割り当て可能な総ビット量TOTAL_SUPPLYを、各エンコード処理単位(エンコードユニット)のそれぞれに分配する。なお、以下、このようにして分配された各エンコードユニットのそれぞれのデータ量を、対応するエンコードユニットの目標ビット量と称し、かつ、SUPPLY_BYTESと記述する。 また、主コントローラ52は、各エンコードユニットのそれぞれについて、対応するエンコードユニットに属する各フレームの困難度(ステップS22の処理で検出された困難度)の総和を演算する。なお、以下、各フレームの困難度をDIFと記述し、また、各困難度DIFの総和をDIF_SUMと記述する。   Next, the main controller 52 distributes the total bit amount TOTAL_SUPPLY that can be actually allocated to the video data D1 to each encoding processing unit (encoding unit). Hereinafter, the data amount of each encoding unit distributed in this way is referred to as a target bit amount of the corresponding encoding unit and is described as SUPPLY_BYTES. Further, the main controller 52 calculates, for each encode unit, the total sum of the difficulty levels of the frames belonging to the corresponding encode unit (difficulty levels detected in the process of step S22). Hereinafter, the difficulty level of each frame is described as DIF, and the sum of the difficulty levels DIF is described as DIF_SUM.

続いて、主コントローラ52は、各エンコードユニットのそれぞれについて、GOP単位のビット配分を行うための評価関数を計算する。ここでの評価関数は、例えば次の式(2)で表される。
Y = BX ・・・(2)
式(2)において、Yは、演算対象のエンコードユニットの目標ビット量SUPPLY_BYTESを示し、Xは、演算対象のエンコードユニットに属する各フレームの困難度DIFの総和DIF_SUMを示している。
Subsequently, the main controller 52 calculates an evaluation function for performing bit allocation in GOP units for each encoding unit. The evaluation function here is expressed by the following equation (2), for example.
Y = BX (2)
In Expression (2), Y represents the target bit amount SUPPLY_BYTES of the encoding unit to be calculated, and X represents the total DIF_SUM of the difficulty levels DIF of each frame belonging to the encoding unit to be calculated.

主コントローラ52は、このようにして式(2)の評価関数を設定すると、換言すると、式(2)の評価関数における係数Bを演算すると、各エンコードユニットのそれぞれについて、この係数Bを用いる次の式(3)の演算処理を順次実行していく。
GOP_TGT = B × GOP_DIF_SUM ・・・(3)
なお、式(3)において、GOP_DIF_SUMは、演算対象のGOPに属する各フレームの困難度DIFの総和を示している。また、GOP_TGTは、演算対象のGOPの目標ビット量を示している。
When the main controller 52 sets the evaluation function of the expression (2) in this way, in other words, when the coefficient B in the evaluation function of the expression (2) is calculated, the following uses the coefficient B for each encoding unit. The calculation process of Equation (3) is sequentially executed.
GOP_TGT = B × GOP_DIF_SUM (3)
In Expression (3), GOP_DIF_SUM indicates the sum of the difficulty levels DIF of each frame belonging to the GOP to be calculated. GOP_TGT indicates the target bit amount of the GOP to be calculated.

即ち、演算対象のGOPの目標ビット量GOP_TGTとは、演算対象のGOPが含まれるエンコードユニットの目標ビット量SUPPLY_BYTESの中から、演算対象のGOPの困難度GOP_DIF_SUMに応じて演算対象のGOPに配分された分のデータ量を指す。   That is, the target bit amount GOP_TGT of the calculation target GOP is allocated to the calculation target GOP from the target bit amount SUPPLY_BYTES of the encoding unit including the calculation target GOP according to the difficulty GOP_DIF_SUM of the calculation target GOP. Refers to the amount of data.

そして、主コントローラ52は、対象のGOPの目標ビット量GOP_TGTを、対象のGOPに属する各フレームのそれぞれに割り振る処理を各GOPのそれぞれについて実行することで、各フレームの目標ビット量をそれぞれ設定する。   Then, the main controller 52 sets the target bit amount of each frame by executing, for each GOP, the process of allocating the target bit amount GOP_TGT of the target GOP to each of the frames belonging to the target GOP. .

このように、ステップS23の「ビット配分計算処理」では、1パス目のエンコード処理結果(ステップS22の処理結果)を基準にして、2パス目のエンコード処理で利用される第2のエンコード条件のひとつ、即ち、目標ビット量が設定される。   As described above, in the “bit allocation calculation process” in step S23, the second encoding condition used in the second pass encoding process is set based on the first pass encoding process result (the process result in step S22). One, that is, a target bit amount is set.

ステップS24において、主コントローラ52は、直前の「ビット配分計算処理」(いまの場合、ステップS23の「ビット配分計算処理」)により設定されたフレーム毎の目標ビット量と、直前のステップS22の処理で検出された各フレームのピクチャタイプとを少なくとも含む第2のエンコード条件を設定する。   In step S24, the main controller 52 determines the target bit amount for each frame set by the immediately preceding “bit allocation calculation process” (in this case, the “bit allocation calculation process” in step S23) and the process in the immediately preceding step S22. The second encoding condition including at least the picture type of each frame detected in step (b) is set.

次に、ステップS25において、主コントローラ52は、この第2のエンコード条件に従った2パス目のエンコード処理が編集対象のビデオデータD1に対して施された場合に得られるはずの第2のエンコードビデオデータD2のプレビュー処理を実行する。   Next, in step S25, the main controller 52 performs the second encoding that should be obtained when the second pass encoding process according to the second encoding condition is performed on the video data D1 to be edited. A preview process of the video data D2 is executed.

ステップS25のプレビュー処理とは、例えば次のような一連の処理を指す。即ち、ビデオテープレコーダ51が、オペレータのGUI61の操作に応動して、即ち、主コントローラ52の制御に応動して、編集対象のビデオデータD1を再生して、エンコーダ53に供給する。エンコーダ53が、第2のエンコード条件に従ってこのビデオデータD1を一旦エンコードし、その結果得られるエンコードビデオデータD2を再デコードして、その結果得られるビデオ信号をモニタ装置54に供給する。モニタ装置54は、このビデオ信号に対応する映像を表示する。即ち、第2のエンコード条件に従った2パス目のエンコード処理が編集対象のビデオデータD1に対して施された場合に得られるはずの第2のエンコードビデオデータD2に対応する映像が、モニタ装置54にプレビュー映像として表示される。以上の一連の処理が、ステップS25のプレビュー処理である。   The preview process in step S25 indicates, for example, the following series of processes. That is, the video tape recorder 51 reproduces the video data D1 to be edited and supplies it to the encoder 53 in response to the operator's operation of the GUI 61, that is, in response to the control of the main controller 52. The encoder 53 once encodes the video data D1 according to the second encoding condition, re-decodes the resulting encoded video data D2, and supplies the resulting video signal to the monitor device 54. The monitor device 54 displays an image corresponding to this video signal. That is, the video corresponding to the second encoded video data D2 that should be obtained when the second pass encoding process according to the second encoding condition is performed on the video data D1 to be edited is displayed on the monitor device. 54 is displayed as a preview image. The series of processes described above is the preview process in step S25.

ステップS26において、主コントローラ52は、オペレータの画質評価が「O.K」であるか否かを判定する。   In step S26, the main controller 52 determines whether or not the image quality evaluation of the operator is “O.K”.

即ち、オペレータは、ステップS25の処理によりモニタ装置54に表示されるプレビュー映像、即ち、エンコードビデオデータD2に対応する映像の画質の評価を行い、その評価結果を、GUI61を操作することで主コントローラ52に入力させることができる。   That is, the operator evaluates the image quality of the preview image displayed on the monitor device 54 by the process of step S25, that is, the image corresponding to the encoded video data D2, and operates the GUI 61 to display the evaluation result as the main controller. 52 can be input.

例えば、オペレータが画質に満足して、GUI61を操作して2パス目のエンコード処理の開始を指示すると、ステップS26において、オペレータの画質評価が「O.K」であると判定されて、処理はステップS30に進む。   For example, when the operator is satisfied with the image quality and operates the GUI 61 to instruct the start of the second pass encoding process, it is determined in step S26 that the operator's image quality evaluation is “OK”, and the process proceeds to step S30. Proceed to

ステップS30において、主コントローラ52は、ビデオテープレコーダ51とエンコーダ53とを制御して、直前のステップS24の処理で設定された第2のエンコード条件に従った2パス目のエンコード処理を編集対象のビデオデータD1に対して施す。また、その結果得られる第2のエンコードビデオデータD2をファイルサーバ27に記憶させる。   In step S30, the main controller 52 controls the video tape recorder 51 and the encoder 53 to perform the second pass encoding process in accordance with the second encoding condition set in the immediately preceding step S24. This is applied to the video data D1. Further, the second encoded video data D2 obtained as a result is stored in the file server 27.

具体的には例えば、ビデオテープレコーダ51は、主コントローラ52の制御に基づいて、編集対象のビデオデータD1を再生して、エンコーダ53に供給する。エンコーダ53は、主コントローラ52から指示される第2のエンコード条件に従った2パス目のエンコード処理を、ビデオデータD1に対して施し、その結果得られる第2のエンコードビデオデータD2を、主コントローラ52の制御に基づいてネットワーク29を介してファイルサーバ27に記憶させる。   Specifically, for example, the video tape recorder 51 reproduces the video data D1 to be edited based on the control of the main controller 52 and supplies it to the encoder 53. The encoder 53 performs the second-pass encoding process according to the second encoding condition instructed from the main controller 52 on the video data D1, and uses the resulting second encoded video data D2 as the main controller. Based on the control of 52, it is stored in the file server 27 via the network 29.

その後、ステップS31において、主コントローラ52は、2パス目のエンコード処理の結果をオーサリングアプリケーション実行装置28に通知する等の後処理を実行する。これにより、「ビデオデータ生成処理」は終了となる。   Thereafter, in step S31, the main controller 52 executes post-processing such as notifying the authoring application execution device 28 of the result of the second pass encoding process. This completes the “video data generation process”.

これに対して、オペレータが、ステップS25のプレビュー処理によりモニタ装置54に表示されているプレビュー映像、即ち、ファイルサーバ27に記憶される前のエンコードビデオデータD2に対応する映像の画質に満足するかを評価する。オペレータが画質に満足せず、例えば、GUI61を操作してカスタマイズの処理を選択すると、ステップS26において、オペレータの画質評価が「O.K」ではないと判定されて、処理はステップS27に進む。   On the other hand, is the operator satisfied with the image quality of the preview video displayed on the monitor device 54 by the preview processing in step S25, that is, the video corresponding to the encoded video data D2 before being stored in the file server 27? To evaluate. If the operator is not satisfied with the image quality, for example, if the customization process is selected by operating the GUI 61, it is determined in step S26 that the image quality evaluation of the operator is not “O.K”, and the process proceeds to step S27.

ステップS27において、主コントローラ52は、ピクチャタイプの変更が指示されたか否かを判定する。   In step S27, the main controller 52 determines whether or not an instruction to change the picture type is given.

即ち、オペレータは、GUI61を操作することで、編集対象のビデオデータD1を構成する各フレームのうちの1枚以上のフレームのピクチャタイプを、BまたはPピクチャからIピクチャに変更させる指示を、主コントローラ52に入力させることができる。
このようなオペレータの指示がない場合には、ステップS27において、ピクチャタイプの変更が指示されていないと判定されて、処理はステップS28に進む。
That is, the operator operates the GUI 61 to give an instruction to change the picture type of one or more frames constituting the video data D1 to be edited from B or P picture to I picture. The data can be input to the controller 52.
If there is no such instruction from the operator, it is determined in step S27 that there is no instruction to change the picture type, and the process proceeds to step S28.

ステップS28において、主コントローラ52は、「カスタマイズ処理」を実行する。ここで言う「カスタマイズ処理」とは、例えば、オペレータのGUI61の操作に応動して部分的にエンコード条件を変更することにより、部分的に画質を変更する処理を指す。   In step S <b> 28, the main controller 52 executes “customization processing”. The “customization process” here refers to a process of partially changing the image quality by partially changing the encoding condition in response to the operator's operation of the GUI 61, for example.

さらに、主コントローラ52は、続くステップS29において、上述したステップS23と同様の「ビット配分計算処理」を再実行することで、目標ビット量の設定を更新する。即ち、ステップS29の処理とは、上述したステップS23の処理と基本的に同様の処理である。ただし、ステップS29の処理では、直前のステップS28の「カスタマイズ処理」の結果を利用する点が、ステップS23の処理とは異なる点である。   Further, in the subsequent step S29, the main controller 52 re-executes the “bit distribution calculation process” similar to step S23 described above, thereby updating the setting of the target bit amount. That is, the process of step S29 is basically the same process as the process of step S23 described above. However, the process of step S29 is different from the process of step S23 in that the result of the “customization process” of the immediately preceding step S28 is used.

このステップS29の処理が終了すると、処理はステップS24に戻され、それ以降の処理が繰り返される。   When the process of step S29 ends, the process returns to step S24, and the subsequent processes are repeated.

これに対して、オペレータからのピクチャタイプ変更の指示があった場合、ステップS27において、ピクチャタイプの変更が指示されたと判定されて、処理はステップS21に戻され、それ以降の処理が繰り返される。   On the other hand, if there is an instruction to change the picture type from the operator, it is determined in step S27 that an instruction to change the picture type is given, the process returns to step S21, and the subsequent processes are repeated.

即ち、オペレータからピクチャタイプの変更が指示されたフレームがシーンチェンジポイントであるとみなされて、その結果、上述したステップS21の各種情報の取得処理以降の一連の処理がやり直されることになる。   That is, the frame instructed by the operator to change the picture type is regarded as a scene change point, and as a result, a series of processes after the above-described various information acquisition process in step S21 is performed again.

以上説明したように、ビデオ信号処理装置24は、フレーム毎の困難度とピクチャタイプとを基準にして、2パス目のエンコード処理で利用される第2のエンコード条件を設定することができる。さらに、このビデオ信号処理装置24は、オペレータの操作に応動して、この第2のエンコード条件を変更することができる。これにより、最終的にオペレータの満足する第2のエンコード条件によりビデオデータD1がエンコードされ、その結果得られるエンコードビデオデータD2がファイルサーバ27に記憶されるのである。   As described above, the video signal processing device 24 can set the second encoding condition used in the second pass encoding process based on the difficulty level and the picture type for each frame. Further, the video signal processing device 24 can change the second encoding condition in response to the operation of the operator. As a result, the video data D1 is finally encoded according to the second encoding condition satisfied by the operator, and the encoded video data D2 obtained as a result is stored in the file server 27.

さらに、このとき設定される第2のエンコード条件の基準となる困難度とピクチャタイプとは1パス目のエンコード処理結果であるが、1パス目と2パス目とのそれぞれのエンコード処理で利用されるピクチャタイプは全フレームで同一となる。即ち、「1パス目のエンコード処理で利用(設定)されたピクチャタイプをそのまま2パス目のエンコード処理でも利用する」という条件が、この第2の条件に含まれているとも言える。これにより、記録メディアに用意された容量を効率的に使い切るようにエンコードビデオデータD2を作成することが可能になる。   Furthermore, the difficulty level and the picture type, which are the criteria for the second encoding condition set at this time, are the results of the first pass encoding process, but are used in the first pass and second pass encoding processes. The picture type is the same for all frames. That is, it can be said that the condition that “the picture type used (set) in the first pass encoding process is also used in the second pass encoding process as it is” is included in the second condition. As a result, the encoded video data D2 can be created so that the capacity prepared in the recording medium can be used up efficiently.

その後、上述したように、図1のスタジオ側オーサリング装置11において、このエンコードビデオデータD2と、その他のエンコードビデオデータやエンコードオーディオデータとが多重化され、その結果得られる多重化ストリームファイルが、DLT31、HDD32、及びネットワーク33のうちの少なくとも1つに出力される。   Thereafter, as described above, in the studio-side authoring apparatus 11 of FIG. 1, the encoded video data D2 is multiplexed with other encoded video data and encoded audio data, and the resulting multiplexed stream file is converted into a DLT 31. , HDD 32, and network 33.

そして、上述したように、DLT31、HDD32、及びネットワーク33のうちの少なくとも1つに出力された多重化ストリームファイルは、ディスクイメージデータとして、例えばプラント側に設置される図5のオーサリング装置(以下、プラント側オーサリング装置と称する)に供給される。   As described above, the multiplexed stream file output to at least one of the DLT 31, the HDD 32, and the network 33 is the disk image data, for example, the authoring apparatus (hereinafter, referred to as FIG. 5) installed on the plant side. (Referred to as plant-side authoring device).

図5は、本発明が適用されるプラント側オーサリング装置の一構成例を示している。   FIG. 5 shows a configuration example of a plant-side authoring apparatus to which the present invention is applied.

図5に示されるように、このプラント側オーサリング装置101は、例えば、プリマスタリング装置111、フォーマッタ112、及びカッティング装置113から構成される。   As shown in FIG. 5, the plant-side authoring device 101 includes, for example, a premastering device 111, a formatter 112, and a cutting device 113.

ここで、図6のフローチャートを参照して、このプラント側オーサリング装置101の処理例について説明する。   Here, with reference to the flowchart of FIG. 6, the process example of this plant side authoring apparatus 101 is demonstrated.

ステップS41において、プリマスタリング装置111は、ディスクイメージデータ(図3のエンコードビデオデータD2を含む多重化ストリームファイル)を取得する。   In step S41, the premastering apparatus 111 acquires disk image data (multiplexed stream file including the encoded video data D2 in FIG. 3).

次に、ステップS42において、プリマスタリング装置111は、外部から与えられるコピープロテクションデータを用いてディスクイメージデータを暗号化し、その結果得られる暗号化データをフォーマッタ112に供給する。   Next, in step S42, the premastering device 111 encrypts the disk image data using copy protection data given from the outside, and supplies the encrypted data obtained as a result to the formatter 112.

ステップS43において、フォーマッタ112は、信号のレベル変換処理等各種処理を暗号化データに対して施し、その結果得られる信号をカッティング装置113に供給する。   In step S 43, the formatter 112 performs various processes such as a signal level conversion process on the encrypted data, and supplies the resulting signal to the cutting device 113.

ステップS44において、カッティング装置113は、フォーマッタ112から供給される信号を元に、マスターディスク114(ディスクイメージデータが記録された光ディスクの原盤114)を作成する。これにより、プラント側オーサリング装置101の処理は終了となる。   In step S44, the cutting device 113 creates a master disc 114 (an optical disc master 114 on which disc image data is recorded) based on the signal supplied from the formatter 112. Thereby, the process of the plant side authoring apparatus 101 is complete | finished.

以上説明したように、上述した図3のビデオデータD1に対する1パス目のエンコード処理において、ビデオ素材に最適化されたピクチャタイプが設定されて利用され、そのピクチャタイプを基準にして各フレームの目標ビット量の設定が行われる。その後、1パス目と同一のそのピクチャタイプが利用され、かつ、1パス目で設定されたその目標ビット量が利用されて、2パス目のエンコード処理がビデオデータD1に対して施され、その結果としてエンコードビデオデータD2が得られる。そして、このエンコードビデオデータD2を含むディスクイメージデータがプラント側オーサリング装置101に供給されて、光ディスク114に記録される。   As described above, in the first pass encoding process for the video data D1 in FIG. 3 described above, the picture type optimized for the video material is set and used, and the target of each frame based on the picture type is used. The bit amount is set. Thereafter, the same picture type as in the first pass is used, and the target bit amount set in the first pass is used, and the second pass encoding process is performed on the video data D1, As a result, encoded video data D2 is obtained. Then, the disk image data including the encoded video data D2 is supplied to the plant-side authoring apparatus 101 and recorded on the optical disk 114.

従って、光ディスク114の使用可能ディスク容量を図1のスタジオ側オーサリング装置11に事前に通知しておくことで、図3のビデオ信号処理装置24は、その通知に見合った目標ビット量を設定することが可能になる。その結果、光ディスク114に記録されるディスクイメージデータのデータ量が、光ディスク114の使用可能ディスク容量に比較して不足したり余剰となってしまうことを防ぐことができる。これにより、光ディスク114のディスク容量を最大限使い切ることが可能になり、結果として光ディスク114に記録されるビデオデータの画質が向上されることになる。   Accordingly, by notifying the studio-side authoring apparatus 11 in FIG. 1 in advance of the usable disk capacity of the optical disk 114, the video signal processing apparatus 24 in FIG. 3 sets a target bit amount corresponding to the notification. Is possible. As a result, it is possible to prevent the data amount of the disk image data recorded on the optical disk 114 from becoming insufficient or excessive as compared to the usable disk capacity of the optical disk 114. As a result, the disc capacity of the optical disc 114 can be fully used, and as a result, the image quality of the video data recorded on the optical disc 114 is improved.

ところで、上述した一連の処理は、ハードウエアにより実行させることもできるが、ソフトウエアにより実行させることができる。   By the way, the series of processes described above can be executed by hardware, but can also be executed by software.

この場合、図1のスタジオ側オーサリング装置11全体またはその一部分は、例えば後述するコンピュータとして構成することができる。なお、スタジオ側オーサリング装置11の一部分とは、例えば、図1のビデオ信号処理装置24全体のときもあるし、或いは、さらに、そのビデオ信号処理装置24の一部分、例えば、図3の主コントローラ52等のときもある。   In this case, the entire studio-side authoring apparatus 11 shown in FIG. The part of the studio-side authoring apparatus 11 may be, for example, the entire video signal processing apparatus 24 of FIG. 1, or may be a part of the video signal processing apparatus 24, for example, the main controller 52 of FIG. Sometimes.

同様に、図5のプラント側オーサリング装置101全体またはその一部分は、例えば後述するコンピュータとして構成することができる。なお、プラント側オーサリング装置101の一部分とは、スタジオ側オーサリング装置11のそれと同様に、例えば、カッティング装置113全体のときもあるし、或いは、さらに、そのカッティング装置113の図示せぬ一部分のときもある。   Similarly, the whole plant-side authoring apparatus 101 in FIG. 5 or a part thereof can be configured as a computer to be described later, for example. The part of the plant-side authoring apparatus 101 may be, for example, the entire cutting apparatus 113, as in the studio-side authoring apparatus 11, or may be a part of the cutting apparatus 113 (not shown). is there.

〔エンコード並列処理〕
次に、ビデオデータのエンコードを並列処理する情報処理システムについて説明する。具体例として示す情報処理システムは、複数のコンピュータがエンコード処理を並列して行い、エンコード処理の効率化を図るようにしたものである。なお、情報処理システムは、上述したビデオ信号処理装置24のエンコードコントロール部64、エンコーダ53に対応する。
[Encode parallel processing]
Next, an information processing system that processes video data encoding in parallel will be described. An information processing system shown as a specific example is one in which a plurality of computers perform encoding processing in parallel to improve the efficiency of encoding processing. The information processing system corresponds to the encoding control unit 64 and the encoder 53 of the video signal processing device 24 described above.

図7は、エンコードを並列処理する情報処理システムの構成を示すブロック図である。この情報処理システムは、エンコーダ201a〜201dと、スペック読み取り回路202と、起動プロセス算出回路203と、テストデータ測定回路204と、優先順位決定回路205と、エンコード最適化回路206と、分割素材割り当て回路207と、分散ストリーム連結回路208とを備えている。   FIG. 7 is a block diagram illustrating a configuration of an information processing system that performs parallel encoding processing. This information processing system includes encoders 201a to 201d, a specification reading circuit 202, a startup process calculation circuit 203, a test data measurement circuit 204, a priority determination circuit 205, an encoding optimization circuit 206, and a divided material allocation circuit. 207 and a distributed stream connection circuit 208.

エンコーダ201a〜201dは、後述するコンピュータから構成され、分割素材割り当て回路207から出力された分割データをエンコードする。具体的には、例えば上述したように2パスエンコードにより、1パス目で設定されたその目標ビット量が利用されて、2パス目のエンコード処理が分割データに対して施され、その結果として分割ストリームが得られる。各エンコーダ201a〜201dでエンコードされた分散ストリームは、分散ストリーム連結回路に出力される。なお、エンコーダ201a〜201dの数は、これに限られることなく、任意の数であっても良い。   The encoders 201a to 201d are composed of a computer described later, and encode the divided data output from the divided material assignment circuit 207. Specifically, for example, as described above, by the 2-pass encoding, the target bit amount set in the first pass is used, and the second-pass encoding process is performed on the divided data. A stream is obtained. The distributed streams encoded by the encoders 201a to 201d are output to the distributed stream connection circuit. The number of encoders 201a to 201d is not limited to this and may be any number.

図8は、コンピュータの構成を示すブロック図である。CPU(Central Processing Unit)301は、ROM(Read Only Memory)302に記録されているプログラム、または記憶部308からRAM(Random Access Memory)303にロードされたプログラムに従って各種の処理を実行する。RAM303にはまた、CPU301が各種の処理を実行する上において必要なデータなども適宜記憶される。   FIG. 8 is a block diagram illustrating the configuration of the computer. A CPU (Central Processing Unit) 301 executes various processes according to a program recorded in a ROM (Read Only Memory) 302 or a program loaded from a storage unit 308 to a RAM (Random Access Memory) 303. The RAM 303 also appropriately stores data necessary for the CPU 301 to execute various processes.

CPU301、ROM302、及びRAM303は、バス304を介して相互に接続されている。このバス304にはまた、入出力インタフェース305も接続されている。   The CPU 301, ROM 302, and RAM 303 are connected to each other via a bus 304. An input / output interface 305 is also connected to the bus 304.

入出力インタフェース305には、入力部306、出力部307、記憶部308、及び、通信部309が接続されている。また、入出力インタフェース305には、必要に応じてドライブ310が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどよりなるリムーバブル記録媒体311が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部308にインストールされる。   An input unit 306, an output unit 307, a storage unit 308, and a communication unit 309 are connected to the input / output interface 305. A drive 310 is connected to the input / output interface 305 as necessary, and a removable recording medium 311 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately installed, and a computer read from them is read. The program is installed in the storage unit 308 as necessary.

入力部306は、例えば、出力部307の表示部も兼ねたタッチパネル、キーボード、受光部を含むリモートコントローラ、マウスなどの入力機器で構成される。   The input unit 306 includes input devices such as a touch panel that also serves as a display unit of the output unit 307, a keyboard, a remote controller including a light receiving unit, and a mouse.

出力部307は、例えば、ディスプレイ等の表示部単体、スピーカやヘッドフォン出力端子等の音声出力部単体、または、それらの組合せで構成される。   The output unit 307 includes, for example, a display unit such as a display, a sound output unit such as a speaker or a headphone output terminal, or a combination thereof.

記憶部308は、例えばハードディスクなどで構成される。また、通信部309は、例えばモデム、ターミナルアダプタ、無線通信機器などより構成され、他の情報処理装置との間の通信を制御する。例えば、通信部309は、ネットワークを介してスペック読み取り回路202と通信したり、テストデータ測定回路204と通信したりする。   The storage unit 308 is configured with, for example, a hard disk. The communication unit 309 includes, for example, a modem, a terminal adapter, a wireless communication device, and the like, and controls communication with other information processing apparatuses. For example, the communication unit 309 communicates with the specification reading circuit 202 or the test data measurement circuit 204 via a network.

このようなコンピュータを用いてエンコーダ201a〜201dを構成する場合、入力部306、出力部307、及びCPU301が実行するプログラムの組み合わせで構成することができる。   When the encoders 201a to 201d are configured using such a computer, the encoders 201a to 201d can be configured by a combination of an input unit 306, an output unit 307, and a program executed by the CPU 301.

スペック読み取り回路202は、各エンコーダ201a〜201dの仕様情報を取得する。具体的には、図8に示すコンピュータのCPU301、RAM303等のスペック情報をネットワークを介して取得する。スペック情報としては、物理コア数、メモリ容量、クロック周波数などが挙げられる。   The specification reading circuit 202 acquires specification information of the encoders 201a to 201d. Specifically, specification information such as the CPU 301 and RAM 303 of the computer shown in FIG. 8 is acquired via the network. The spec information includes the number of physical cores, memory capacity, clock frequency, and the like.

起動プロセス算出回路203は、仕様情報に基づいて情報処理装置にビデオデータを符号化処理させる処理単位数を算出し、各情報処理装置に処理単位数の符号化処理を起動させる。具体的には、符号化対象素材のビデオデータの符号化処理に必要なスペックがパラメータ化された符号化パラメータ情報に基づいて各エンコーダ201a〜201dに実行させる符号化プロセス数を算出する。   The activation process calculation circuit 203 calculates the number of processing units for causing the information processing apparatus to encode video data based on the specification information, and causes each information processing apparatus to activate the encoding process for the number of processing units. Specifically, the number of encoding processes to be executed by each of the encoders 201a to 201d is calculated based on encoding parameter information in which specifications necessary for encoding processing of video data of the encoding target material are parameterized.

具体例として、表1にコンピュータのスペック情報を示し、表2に符号化パラメータ情報を示す。また、符号化対象素材のエンコード条件を表3に示す。このエンコード条件は、例えば、図3に示すオーサリングアプリケーション実行装置28により、オペレータによって設定され、起動プロセス算出回路203に入力される。   As a specific example, Table 1 shows computer specification information, and Table 2 shows coding parameter information. Table 3 shows the encoding conditions of the encoding target material. This encoding condition is set by an operator by the authoring application execution device 28 shown in FIG. 3 and input to the activation process calculation circuit 203, for example.

Figure 0005088215
Figure 0005088215

Figure 0005088215
Figure 0005088215

Figure 0005088215
起動プロセス算出回路203は、スペック情報、符号化パラメータ情報及びエンコード条件に基づいてパラメータα,βを算出し、αとβのうち値が小さい方を符号化プロセス数とする。例えば表1に示すエンコーダ用PCのスペック情報と、表2に示す符号化パラメータ情報と、表3に示すエンコード条件とから算出される値は、α=4、β=2なので、符号化プロセス数は2である。
Figure 0005088215
The startup process calculation circuit 203 calculates parameters α and β based on the specification information, the encoding parameter information, and the encoding conditions, and sets the smaller one of α and β as the number of encoding processes. For example, the values calculated from the specification information of the encoder PC shown in Table 1, the encoding parameter information shown in Table 2, and the encoding conditions shown in Table 3 are α = 4 and β = 2. Is 2.

このように符号化パラメータ情報は、ビデオデータの解像度、コーデックに対して必要とされるエンコーダ201a〜201dのスペックをパラメータ化したものである。符号化パラメータ情報は、例えば、図9に示すような符号化プロセスの起動数と8コアCPUの負荷率との関係に基づいてパラメータ化される。図9の例は、解像度が1920×1080、コーデックがAVC、メモリが16GBの条件において、エンコーダ用PCのコアの負荷率の閾値を80%に設定した場合のものである。この場合、8コアCPUでの起動プロセスの最適値は、4プロセスとなる。   Thus, the encoding parameter information is obtained by parameterizing the specifications of the encoders 201a to 201d required for the resolution of the video data and the codec. The encoding parameter information is parameterized based on, for example, the relationship between the number of start of the encoding process and the load factor of the 8-core CPU as shown in FIG. The example of FIG. 9 is a case where the threshold of the load factor of the core of the encoder PC is set to 80% under the conditions that the resolution is 1920 × 1080, the codec is AVC, and the memory is 16 GB. In this case, the optimum value of the startup process in the 8-core CPU is 4 processes.

また、符号化パラメータ情報には、各エンコーダ201a〜201dの性能指数も含まれる。例えば、表1に示すスペック情報と表2に示す符号化パラメータ情報により、性能指数γ(3.0/8)が求められる。この性能指数γにより優先順位が設定される。   Also, the encoding parameter information includes the performance index of each of the encoders 201a to 201d. For example, the figure of merit (3.0 / 8) is obtained from the specification information shown in Table 1 and the encoding parameter information shown in Table 2. The priority is set by this performance index γ.

また、起動プロセス算出回路203は、各エンコーダ201a〜201dに対して算出した符号化プロセス数を起動させる。具体的には、ネットワークを介して各エンコーダに201a〜201dに符号化プロセスの起動を指示する。このように各エンコーダに201a〜201dに符号化プロセスを起動させることにより、例えば、負荷率が80%以下のコアを用いて符号化処理を快適に行うことができる。   The activation process calculation circuit 203 activates the number of encoding processes calculated for each of the encoders 201a to 201d. Specifically, the encoders 201a to 201d are instructed to start the encoding process via the network. Thus, by causing each encoder to start the encoding process in 201a to 201d, for example, the encoding process can be comfortably performed using a core having a load factor of 80% or less.

テストデータ測定回路204は、各エンコーダ201a〜201dに対してテストデータを送信し、その応答速度を測定する。例えば、起動プロセス算出回路203に入力されるエンコード条件と同等の解像度及びコーデックのテストデータを送信することにより、各エンコード用PCにおける符号化対象のビデオデータの符号化処理速度を正確に測定することができる。   The test data measurement circuit 204 transmits test data to each of the encoders 201a to 201d and measures the response speed. For example, by transmitting test data of the same resolution and codec as the encoding conditions input to the startup process calculation circuit 203, the encoding processing speed of the video data to be encoded in each encoding PC is accurately measured. Can do.

優先順位決定回路205は、テストデータ測定回路204から入力された符号化プロセスの処理速度及び各エンコーダ201a〜201dの性能指数に基づいてエンコード用PCの優先順位を決定する。例えば、性能指数γに基づいて設定された各エンコード用PCの優先順位と、各エンコード用PCの処理速度を測定して得られた現時点の優先順位とから最終的な優先順位を決定する。   The priority order determination circuit 205 determines the priority order of the encoding PC based on the processing speed of the encoding process input from the test data measurement circuit 204 and the performance index of each of the encoders 201a to 201d. For example, the final priority is determined from the priority of each encoding PC set based on the performance index γ and the current priority obtained by measuring the processing speed of each encoding PC.

エンコード最適化回路206は、所定プロセス数の符号化処理を起動させたエンコーダ用PCの構成を最適化する。具体的には、エンコーダ201a〜201dの優先順位に基づいて実行させるエンコーダ用PCを選択して最適化する。   The encoding optimization circuit 206 optimizes the configuration of the encoder PC that has started the encoding process for a predetermined number of processes. Specifically, the encoder PC to be executed is selected and optimized based on the priority order of the encoders 201a to 201d.

エンコード最適化回路206は、例えば、エンコーダ201a〜201dの処理能力に大きな差がある場合、処理能力の低いエンコーダを実行環境から除外する。これにより、処理速度の違いに伴う遅延を防止することができる。   For example, when there is a large difference in the processing capabilities of the encoders 201a to 201d, the encoding optimization circuit 206 excludes an encoder having a low processing capability from the execution environment. Thereby, the delay accompanying the difference in processing speed can be prevented.

例えば、最も大きい符号化処理速度に比して符号化処理速度の差が閾値以下であるエンコード用PCを選択し、これらのエンコード用PCの優先順位に基づいてビデオデータを分割する比率を算出する。ここで、例えば、各エンコード用PCの符号化処理速度に基づいて、各エンコード用PCの符号化処理時間が同じとなるようにビデオデータを分割する比率を算出することが好ましい。これにより、符号化対象素材のビデオデータを分割する分割処理時間及び分割データを結合する結合処理時間を含む総時間を短くすることができる。   For example, an encoding PC having a difference in encoding processing speed that is equal to or smaller than a threshold value compared to the largest encoding processing speed is selected, and a ratio for dividing the video data is calculated based on the priority of these encoding PCs. . Here, for example, based on the encoding processing speed of each encoding PC, it is preferable to calculate a ratio for dividing the video data so that the encoding processing time of each encoding PC is the same. Thereby, the total time including the division processing time for dividing the video data of the encoding target material and the combination processing time for combining the divided data can be shortened.

これら最適化されたエンコーダ用PCの台数及び割合は、構成情報として分割素材割り当て回路207に出力される。   The number and ratio of the optimized encoder PCs are output to the divided material allocation circuit 207 as configuration information.

分割素材割り当て回路207は、エンコード最適化回路206に指示された割り当て比率に応じて符号化対象素材のデータを分割し、この分割データを各エンコーダ201a〜201dの符号化プロセスに対して割り当てる。   The divided material allocation circuit 207 divides the data of the encoding target material according to the allocation ratio instructed to the encoding optimization circuit 206, and allocates the divided data to the encoding processes of the encoders 201a to 201d.

分散ストリーム連結回路208は、各エンコーダ201a〜201dから出力された分割ストリームを連結処理し、エンコードデータを得る。このエンコードデータは、ファイルサーバ27に出力される。   The distributed stream concatenation circuit 208 concatenates the divided streams output from the encoders 201a to 201d to obtain encoded data. This encoded data is output to the file server 27.

次に、図10に示すフローチャートを参照して符号化対象素材のデータの割り当て処理を説明する。   Next, the data allocation process of the encoding target material will be described with reference to the flowchart shown in FIG.

ステップS101において、スペック読み取り回路202は、各エンコーダ201a〜201dから物理コア数、メモリ容量、クロック周波数などのスペック情報を取得する。また、スペック読み取り回路202は、各エンコーダ201a〜201dのスペック情報を起動プロセス算出回路203に出力する。また、エンコードフォーマット(解像度等)、コーデック(MPEG-2、H.264/AVC等)、エンコード設定パラメータ(Mパターン、スライス数等)などの処理に必要なスペックをパラメータ化した符号化パラメータ設定情報が起動プロセス算出回路203に入力される。   In step S101, the specification reading circuit 202 acquires specification information such as the number of physical cores, memory capacity, and clock frequency from each of the encoders 201a to 201d. Further, the spec reading circuit 202 outputs spec information of the encoders 201 a to 201 d to the activation process calculation circuit 203. Also, encoding parameter setting information that parameterizes specifications necessary for processing such as encoding format (resolution, etc.), codec (MPEG-2, H.264 / AVC, etc.), encoding setting parameters (M pattern, number of slices, etc.) Is input to the startup process calculation circuit 203.

ステップS102において、起動プロセス算出回路203は、スペック情報及び符号化パラメータ情報を元に各エンコーダ用PCで起動させる符号化プロセス数を算出する。具体的には、起動プロセス算出回路203は、例えば表1に示すスペック情報、表2に示す符号化パラメータ情報及び表3に示すエンコード条件に基づいてパラメータα,βを算出し、αとβのうち値が小さい方を符号化プロセス数とする。   In step S102, the activation process calculation circuit 203 calculates the number of encoding processes to be activated on each encoder PC based on the specification information and the encoding parameter information. Specifically, the activation process calculation circuit 203 calculates parameters α and β based on, for example, the specification information shown in Table 1, the encoding parameter information shown in Table 2, and the encoding conditions shown in Table 3, and α and β The smaller value is the number of encoding processes.

また、起動プロセス算出回路203は、各エンコーダ用PCの性能指数を算出し、優先順位を設定する。   The activation process calculation circuit 203 calculates the performance index of each encoder PC and sets the priority order.

また、起動プロセス算出回路203は、ネットワークを介して各エンコーダに201a〜201dに符号化プロセスの起動を指示する。   The activation process calculation circuit 203 instructs each encoder 201a to 201d to activate the encoding process via the network.

ステップS103において、テストデータ測定回路204は、各エンコーダ201a〜201dに対してテストデータを送信し、その応答速度を測定する。また、テストデータ測定回路204は、テストデータの測定結果を優先順位決定回路205に出力する。   In step S103, the test data measurement circuit 204 transmits test data to each of the encoders 201a to 201d and measures the response speed. Further, the test data measurement circuit 204 outputs the test data measurement result to the priority order determination circuit 205.

優先順位決定回路205は、起動プロセス算出回路203にて設定された優先順位及び測定結果に応じてエンコーダ201a〜201dの優先順位を決定し、その優先順位情報をエンコード最適化回路206に出力する。これにより現時点のエンコーダの負荷による処理能力の低下を考慮して常に最適な環境でエンコード処理をすることができる。   The priority order determination circuit 205 determines the priority order of the encoders 201 a to 201 d according to the priority order set by the startup process calculation circuit 203 and the measurement result, and outputs the priority order information to the encoding optimization circuit 206. Accordingly, it is possible to always perform the encoding process in an optimum environment in consideration of a decrease in processing capacity due to the current encoder load.

ステップS104において、エンコード最適化回路206は、起動プロセス算出回路203から入力された符号化プロセス情報と、優先順位決定回路205から入力された優先順位情報とからエンコード用PCを全て使用したほうが早いか否かを判定する。例えば、優先順位情報に基づいてビデオデータの実時間に対して重み付けした割り当て比率を算出し、この比率に応じてビデオデータを分割した場合の各エンコーダのエンコード処理時間を計算する。そして、優先順位が決定されたエンコード用PCを全て使用した方がよい場合、ステップS105に進む。また、例えば、あるエンコーダが他のエンコーダに比べて処理能力が極端に低く、処理能力が低いエンコーダを除外して並列処理を実行した方が早い場合には、ステップS106に進む。   In step S <b> 104, is it faster for the encoding optimization circuit 206 to use all the encoding PCs from the encoding process information input from the startup process calculation circuit 203 and the priority order information input from the priority order determination circuit 205? Determine whether or not. For example, an allocation ratio weighted with respect to the actual time of the video data is calculated based on the priority information, and the encoding processing time of each encoder when the video data is divided according to this ratio is calculated. If it is better to use all the encoding PCs whose priorities are determined, the process proceeds to step S105. For example, if an encoder has an extremely low processing capability compared to other encoders, and it is faster to execute parallel processing excluding an encoder with low processing capability, the process proceeds to step S106.

ステップS105において、エンコード最適化回路206は、全てのエンコード用PCと、全てのエンコード用PCの優先順位に基づく割当比率とを含む構成情報を生成する。分割素材割り当て回路207は、この構成情報に基づいて符号化対象素材のビデオデータを分割し、この分割データをエンコーダ201a〜201dに出力する。   In step S105, the encoding optimization circuit 206 generates configuration information including all encoding PCs and an allocation ratio based on the priority order of all encoding PCs. The divided material allocation circuit 207 divides the video data of the encoding target material based on the configuration information, and outputs the divided data to the encoders 201a to 201d.

ステップS106において、エンコード最適化回路206は、処理能力が低いエンコーダを除外した最適な台数のエンコーダ用PCと、この最適な台数に割り当てる割当比率とを含む構成情報を生成する。分割素材割り当て回路207は、この構成情報に基づいて、符号化対象素材のデータを分割し、この分割データをエンコーダ201a〜201dに出力する。このように最適な台数のエンコーダ用PCと、この最適な台数に割り当てる割当比率とを含む構成情報を生成することによって、エンコード用PCの性能のばらつきや環境負荷による処理能力の低下の影響を考慮した最適かつ最速なエンコード並列処理が可能になる。   In step S106, the encoding optimization circuit 206 generates configuration information including an optimal number of encoder PCs excluding encoders with low processing capability and an allocation ratio assigned to the optimal number. The divided material allocation circuit 207 divides the data of the encoding target material based on the configuration information, and outputs the divided data to the encoders 201a to 201d. In this way, by generating configuration information including the optimal number of encoder PCs and the allocation ratio allocated to the optimal number, consideration is given to the effects of variations in performance of the encoding PCs and a reduction in processing capacity due to environmental load. The optimum and fastest encoding parallel processing becomes possible.

ステップS107において、エンコーダ201a〜201dは、割り当てられた分割データのエンコード処理を施した後、分散ストリーム連結回路208に出力する。   In step S <b> 107, the encoders 201 a to 201 d perform an encoding process on the assigned divided data, and then output to the distributed stream concatenation circuit 208.

ステップS108において、分散ストリーム連結回路208は、分散ストリームの連結処理を施しデータを出力する。   In step S108, the distributed stream connection circuit 208 performs distributed stream connection processing and outputs data.

このように分散処理を行う際に各エンコード用PCのスペック情報と、適応コーデック、設定パラメータを含む符号化パラメータ情報と、各エンコード用PCの現時点のテストデータ測定情報とから、起動プロセス数とエンコード割り当て期間を決定することで、エンコード用PCの増減などの環境変化による処理のばらつきを抑えることができる。また、エンコードを実行する時点での処理能力を考慮することにより、より効率的なエンコード環境を確立することが可能になる。   When performing distributed processing in this way, the number of startup processes and the encoding are determined from the specification information of each encoding PC, the encoding parameter information including the adaptive codec and setting parameters, and the current test data measurement information of each encoding PC. By determining the allocation period, it is possible to suppress variations in processing due to environmental changes such as increase or decrease of the encoding PC. In addition, it is possible to establish a more efficient encoding environment by considering the processing capability at the time of executing encoding.

したがって、エンコード用PCの性能にばらつきがある場合、他のコーデックの同時実行する場合、環境負荷などの要因のために一時的に性能が出せない場合等においても、エンコード処理負荷の均一化を図ることができ、分散処理のメリットを十分に発揮させることができる。   Therefore, even when the performance of the encoding PC varies, when other codecs are executed simultaneously, even when the performance cannot be temporarily achieved due to factors such as environmental load, the encoding processing load is made uniform. And the full advantage of distributed processing can be achieved.

また、エンコード用PCの優先順位を決定した結果、標準以下のPCを除外したほうが全体的な処理性能が向上するかの判定を行う為の統計情報も併せて活用することで、エンコードコーデックの変更、エンコード用PCの状況変化などに関わらず、常に最大のパフォーマンスを発揮させることが可能になる。   Also, as a result of determining the priority order of encoding PCs, it is possible to change the encoding codec by using statistical information to determine whether the overall processing performance is improved by excluding substandard PCs. Regardless of the status change of the encoding PC, the maximum performance can always be exhibited.

以上、実施形態の一例を示したが、上述の実施形態に限定される物ではなく、この発明の技術的思想に基づく各種の変形が可能である。   As mentioned above, although an example of embodiment was shown, it is not a thing limited to the above-mentioned embodiment, Various modifications based on the technical idea of this invention are possible.

例えば、上述した一連の処理もソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータにネットワークや記録媒体からインストールされる。または、各種のプログラムをインストールすることで各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどにインストールされる。   For example, when the above-described series of processing is also executed by software, a program constituting the software is installed from a network or a recording medium into a computer incorporated in dedicated hardware. Or it installs in a general purpose personal computer etc. which can perform various functions by installing various programs.

また、このようなプログラムを含む記録媒体は、装置本体とは別に、ユーザにプログラムを提供するために配布されるものである。例えば、プログラムが記録されている磁気ディスク(フロッピディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)を含む)、半導体メモリ等よりなるリムーバブル記録媒体(パッケージメディア)である。また、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROMや、ハードディスクなどで構成されてもよい。   Further, a recording medium including such a program is distributed to provide a program to the user separately from the apparatus main body. For example, a magnetic disk (including a floppy disk) on which a program is recorded, an optical disk (including a compact disk-read only memory (CD-ROM), a DVD (digital versatile disk)), a magneto-optical disk (MD (mini-disk) )), And a removable recording medium (package medium) made of a semiconductor memory or the like. Further, it may be configured by a ROM, a hard disk, or the like that is provided to the user in a state of being pre-installed in the apparatus main body and in which a program is recorded.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the order, but is not necessarily performed in chronological order, either in parallel or individually. The process to be executed is also included.

スタジオ側オーサリング装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a studio side authoring apparatus. スタジオ側オーサリング装置の処理例を示すフローチャートである。It is a flowchart which shows the process example of a studio side authoring apparatus. スタジオ側オーサリング装置のうちのビデオ信号処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the video signal processing apparatus among studio side authoring apparatuses. ビデオ信号処理装置が実行する「ビデオデータ生成処理」の例を示すフローチャートである。It is a flowchart which shows the example of the "video data generation process" which a video signal processing apparatus performs. プラント側オーサリング装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a plant side authoring apparatus. プラント側オーサリング装置の処理例を示すフローチャートである。It is a flowchart which shows the process example of a plant side authoring apparatus. エンコードを並列処理する情報処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the information processing system which processes an encoding in parallel. コンピュータの構成例を示すブロック図である。It is a block diagram which shows the structural example of a computer. エンコーダ用PCの8コアのCPUの負荷率の一例を示す図である。It is a figure which shows an example of the load factor of 8-core CPU of encoder PC. 符号化対象素材のデータの割り当て処理例を示すフローチャートである。It is a flowchart which shows the example of an allocation process of the data of the encoding target material.

符号の説明Explanation of symbols

11 スタジオ側オーサリング装置、 21 メニュー信号処理装置、 22 サブタイトル信号処理装置、 23 オーディオ信号処理装置、 24 ビデオ信号処理装置、 25 マルチプレクサ、 26 ダウンローダ、 27 ファイルサーバ、 28 オーサリングアプリケーション実行装置、 29 ネットワーク、 30 ライタ、 31 DLT、 32 HDD、 33 ネットワーク、 51 ビデオテープレコーダ、 52 主コントローラ、 53 エンコーダ、 54 モニタ装置、 61 GUI、 62 VTRコントロール部、 63 ビットアサイン部、 64 エンコードコントロール部、 101 プラント側オーサリング装置、 111 プリマスタリング装置、 112 フォーマッタ、 113 カッティング装置、 114 光ディスク装置、 201a〜201d エンコーダ、 202 スペック読み取り回路、 203 起動プロセス算出回路、 204 テストデータ測定回路、 205 優先順位決定回路、 206 エンコード最適化回路、 207 分割素材割り当て回路、 208 分散ストリーム連結回路   11 Studio-side authoring device, 21 Menu signal processing device, 22 Subtitle signal processing device, 23 Audio signal processing device, 24 Video signal processing device, 25 Multiplexer, 26 Downloader, 27 File server, 28 Authoring application execution device, 29 Network, 30 Writer, 31 DLT, 32 HDD, 33 Network, 51 Video tape recorder, 52 Main controller, 53 Encoder, 54 Monitor device, 61 GUI, 62 VTR control unit, 63 Bit assignment unit, 64 Encode control unit, 101 Plant side authoring device 111 pre-mastering device, 112 formatter, 113 cutting device, 114 optical data Disk device, 201a to 201d encoder, 202 specification reading circuit, 203 startup process calculation circuit, 204 test data measurement circuit, 205 priority determination circuit, 206 encoding optimization circuit, 207 divided material allocation circuit, 208 distributed stream connection circuit

Claims (6)

複数の情報処理装置の仕様情報を取得する取得部と、
上記仕様情報に基づいて各情報処理装置の性能指数を算出するとともに、上記仕様情報及びビデオデータの符号化条件に基づいて情報処理装置にビデオデータを符号化処理させる処理単位数を算出し、各情報処理装置に処理単位数の符号化処理を起動させる算出起動部と、
上記ビデオデータの符号化条件と同等のテストデータを用いて、上記処理単位数の符号化処理を起動させた情報処理装置の符号化処理速度を測定する測定部と、
上記性能指数及び上記符号化処理速度に基づいて各情報処理装置の優先順位を決定する決定部と
上記優先順位に基づいて上記ビデオデータを分割し、当該分割ビデオデータを各情報処理装置に割り当てる割当制御部と
を備える情報処理システム。
An acquisition unit for acquiring specification information of a plurality of information processing devices;
Calculate the performance index of each information processing device based on the specification information , calculate the number of processing units for causing the information processing device to encode video data based on the specification information and the video data encoding condition , A calculation starting unit that causes the information processing apparatus to start the encoding processing of the number of processing units;
A test unit that measures the encoding processing speed of the information processing apparatus that has started the encoding processing of the number of processing units, using test data equivalent to the encoding conditions of the video data;
A determination unit that determines the priority of each information processing device based on the performance index and the encoding processing speed ;
An information processing system comprising: an allocation control unit that divides the video data based on the priority order and allocates the divided video data to each information processing device.
上記割当制御部は、最も大きい符号化処理速度に比して符号化処理速度の差が閾値以下である情報処理装置の優先順位に基づいて上記ビデオデータを分割する請求項記載の情報処理システム。 The allocation control unit is greatest information processing system according to claim 1, wherein dividing the video data based on the priority of the information processing apparatus difference encoding processing speed is equal to or smaller than the threshold compared with the coding processing speed . 上記割当制御部は、各情報処理装置の符号化処理時間が同じとなるように上記ビデオデータを分割する請求項記載の情報処理システム。 The information processing system according to claim 2 , wherein the allocation control unit divides the video data so that encoding processing times of the information processing apparatuses are the same. 上記所定数の情報処理装置で符号化処理されて得られた分割符号化データを結合する連結部を備える請求項記載の情報処理システム。 The information processing system according to claim 1, further comprising a connecting portion for coupling the divided coded data obtained by the encoding processing at the predetermined number of the information processing apparatus. 複数の情報処理装置の仕様情報を取得する取得工程と、
上記仕様情報に基づいて各情報処理装置の性能指数を算出するとともに、上記仕様情報及びビデオデータの符号化条件に基づいて情報処理装置にビデオデータを符号化処理させる処理単位数を算出し、各情報処理装置に処理単位数の符号化処理を起動させる算出起動工程と、
上記ビデオデータの符号化条件と同等のテストデータを用いて、上記処理単位数の符号化処理を起動させた情報処理装置の符号化処理速度を測定する測定工程と、
上記性能指数及び上記符号化処理速度に基づいて各情報処理装置の優先順位を決定する決定工程と
上記優先順位に基づいて上記ビデオデータを分割し、当該分割ビデオデータを各情報処理装置に割り当てる割当制御工程と
を有する情報処理方法。
An acquisition step of acquiring specification information of a plurality of information processing devices;
Calculate the performance index of each information processing device based on the specification information , calculate the number of processing units for causing the information processing device to encode video data based on the specification information and the video data encoding condition , A calculation starting step for causing the information processing apparatus to start the encoding processing of the number of processing units;
A measurement step of measuring the encoding processing speed of the information processing apparatus that has started the encoding processing of the number of processing units using test data equivalent to the encoding conditions of the video data;
A determination step of determining the priority of each information processing device based on the performance index and the encoding processing speed ;
An allocation control step of dividing the video data based on the priority and allocating the divided video data to each information processing apparatus.
複数の情報処理装置の仕様情報を取得する取得工程と、
上記仕様情報に基づいて各情報処理装置の性能指数を算出するとともに、上記仕様情報及びビデオデータの符号化条件に基づいて情報処理装置にビデオデータを符号化処理させる処理単位数を算出し、各情報処理装置に処理単位数の符号化処理を起動させる算出起動工程と、
上記ビデオデータの符号化条件と同等のテストデータを用いて、上記処理単位数の符号化処理を起動させた情報処理装置の符号化処理速度を測定する測定工程と、
上記性能指数及び上記符号化処理速度に基づいて各情報処理装置の優先順位を決定する決定工程と
上記優先順位に基づいて上記ビデオデータを分割し、当該分割ビデオデータを各情報処理装置に割り当てる割当制御工程と
をコンピュータに実行させるためのプログラム。
An acquisition step of acquiring specification information of a plurality of information processing devices;
Calculate the performance index of each information processing device based on the specification information , calculate the number of processing units for causing the information processing device to encode video data based on the specification information and the video data encoding condition , A calculation starting step for causing the information processing apparatus to start the encoding processing of the number of processing units;
A measurement step of measuring the encoding processing speed of the information processing apparatus that has started the encoding processing of the number of processing units using test data equivalent to the encoding conditions of the video data;
A determination step of determining the priority of each information processing device based on the performance index and the encoding processing speed ;
A program for causing a computer to execute the assignment control step of dividing the video data based on the priority and assigning the divided video data to each information processing apparatus.
JP2008103980A 2008-04-11 2008-04-11 Information processing system, information processing method, and program Expired - Fee Related JP5088215B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008103980A JP5088215B2 (en) 2008-04-11 2008-04-11 Information processing system, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008103980A JP5088215B2 (en) 2008-04-11 2008-04-11 Information processing system, information processing method, and program

Publications (3)

Publication Number Publication Date
JP2009260434A JP2009260434A (en) 2009-11-05
JP2009260434A5 JP2009260434A5 (en) 2010-03-11
JP5088215B2 true JP5088215B2 (en) 2012-12-05

Family

ID=41387336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008103980A Expired - Fee Related JP5088215B2 (en) 2008-04-11 2008-04-11 Information processing system, information processing method, and program

Country Status (1)

Country Link
JP (1) JP5088215B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5768317B2 (en) * 2009-11-17 2015-08-26 キヤノンマーケティングジャパン株式会社 Movie editing system, control method and program
EP2692131A4 (en) * 2011-03-29 2015-10-07 Lyrical Labs LLC Video encoding system and method
JP6435822B2 (en) * 2014-12-04 2018-12-12 富士通株式会社 Moving picture coding apparatus, moving picture coding method, and moving picture coding computer program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007325027A (en) * 2006-06-01 2007-12-13 Oki Electric Ind Co Ltd Image segmentation method, image segmentation apparatus, and image segmentation program
US8000388B2 (en) * 2006-07-17 2011-08-16 Sony Corporation Parallel processing apparatus for video compression

Also Published As

Publication number Publication date
JP2009260434A (en) 2009-11-05

Similar Documents

Publication Publication Date Title
US8331457B2 (en) Information processing apparatus and method, and recording medium and program used therewith
JP5404038B2 (en) Method, apparatus and system used for multimedia signal encoding
JP4539754B2 (en) Information processing apparatus and information processing method
KR100834322B1 (en) Image encoding apparatus, picture encoding method and image editing apparatus
US7941030B2 (en) Audio/video recording apparatus, recording method, playback apparatus, playback method, playback program, and recording program
JP5088215B2 (en) Information processing system, information processing method, and program
CN1298166C (en) User selectable variable trick mode speed
JP4582185B2 (en) Information processing apparatus and information processing method
US20070263731A1 (en) Moving Picture Re-Encoding Apparatus, Moving Picture Editing Apparatus, Program, and Recording Medium
JP3837889B2 (en) Encoding method and encoding apparatus
US20110228857A1 (en) Video data processing apparatus, video data processing method, and program
CN101094368B (en) Reproduction apparatus and reproduction method
CN100531377C (en) Image processing device and image processing method
JP4539755B2 (en) Information processing system, information processing method, and program
JP2001094933A (en) Recorder, method and recording medium
JP2008072591A (en) Encoding device, encoding method, program, recording medium, and method for manufacturing recording medium
JP2009260436A (en) Information processing unit and information processing method, and program
CN101071617A (en) Reproducing apparatus and method
JPH10108200A (en) Image coding method and its device
JP2007243414A (en) Recorder
JP2008262609A (en) Information processor and information processing method, program storing medium, and program
JP2008066852A (en) Information processor and information processing method, recording medium, and program
JP2006121415A (en) Moving image encoding device
JP3445278B6 (en) Method and system for exchanging sections of an encoded video bitstream
JP2001014834A (en) Device and method for editing data recorded on disk

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120814

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120827

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150921

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150921

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees