JPH1032792A - Signal processor and signal processing method - Google Patents

Signal processor and signal processing method

Info

Publication number
JPH1032792A
JPH1032792A JP20914796A JP20914796A JPH1032792A JP H1032792 A JPH1032792 A JP H1032792A JP 20914796 A JP20914796 A JP 20914796A JP 20914796 A JP20914796 A JP 20914796A JP H1032792 A JPH1032792 A JP H1032792A
Authority
JP
Japan
Prior art keywords
data
encoded data
signal
stream
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP20914796A
Other languages
Japanese (ja)
Inventor
Nobuhisa Obikane
伸久 帯包
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP20914796A priority Critical patent/JPH1032792A/en
Publication of JPH1032792A publication Critical patent/JPH1032792A/en
Pending legal-status Critical Current

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To avoid the deterioration of the recognition work efficiency of a picture and sound by synchronizing first and second encoding data only by means of the detection of second encoding data and transmitting them. SOLUTION: An FIFO memory 23 accumulates an audio stream D2 and the input of a video stream D1 is detected by a signal S2 transmitted when the video stream D1 is accumulated in the half of the FIFO memory 22. Then, a CPU 14 control the starting of the reading/decoding processings of the video stream D1 and the audio stream D2, based on the timing of the signal S1 counted after detection. Thus, data are supplied to a video decoder 24 and an audio decoder 25 in a state where the video stream D1 and the audio stream D2 are synchronized and by data quantity which makes VBV delay to a minimum. Thus, the picture is synchronized with sound and they are outputted without delay.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【目次】以下の順序で本発明を説明する。 発明の属する技術分野 従来の技術 発明が解決しようとする課題 課題を解決するための手段 発明の実施の形態(図1〜図5) 発明の効果[Table of Contents] The present invention will be described in the following order. Technical Field to which the Invention pertains Related Art Problems to be Solved by the Invention Means for Solving the Problems Embodiments of the Invention (FIGS. 1 to 5) Effects of the Invention

【0002】[0002]

【発明の属する技術分野】本発明は信号処理装置及び信
号処理方法に関し、例えばビデオ信号及びオーデイオ信
号を符号化して多重化する多重化装置の信号処理装置及
び信号処理方法に適用して好適なものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a signal processing apparatus and a signal processing method, and more particularly to a signal processing apparatus and a signal processing method for a multiplexing apparatus that encodes and multiplexes a video signal and an audio signal. It is.

【0003】[0003]

【従来の技術】従来、この種の多重化装置においては、
ビデオ信号、オーデイオ信号及び字幕信号等を符号化し
てビデオ、オーデイオ及び字幕等の各データ要素による
符号化されたデータの流れ(以下、これをエレメンタリ
ーストリームと呼ぶ)を各々生成して、得られた各エレ
メンタリーストリームを他のデイジタル信号列と共に多
重化して、所定の周波数帯域内に各エレメンタリースト
リームを収めた伝送形態としてのビツトデータの流れ
(以下、これをトランスポートストリームと呼ぶ)を形
成するようになされている。なお、上述した字幕信号
は、映画等で画面上に付す多カ国語の台詞や、サブタイ
トル等を表示するためのものである。
2. Description of the Related Art Conventionally, in this type of multiplexing apparatus,
A video signal, an audio signal, a caption signal, and the like are encoded to generate a stream of data (hereinafter, referred to as an elementary stream) encoded by each data element such as video, audio, and caption. Each elementary stream is multiplexed with another digital signal sequence to form a bit data flow (hereinafter, referred to as a transport stream) as a transmission form in which each elementary stream is contained within a predetermined frequency band. It has been made to be. Note that the above-described subtitle signal is for displaying multilingual dialogues, subtitles, and the like, which are attached to a screen in a movie or the like.

【0004】[0004]

【発明が解決しようとする課題】ところで上述のような
多重化装置においては、画像データ、音声データ及び付
加データが意図したとおりに符号化されたか否かをモニ
タ装置等を用いて確認することが望ましい。すなわち符
号化処理によつて生成した各エレメンタリーストリーム
に何らかの欠損が生じていた場合は、以降の多重化処理
によつて生成されたトランスポートストリームにも欠損
が生じるのは自明であるからである。ちなみに多重化に
より形成されたトランスポートストリームについても同
様に確認すればさらに望ましいのはもちろんである。こ
のような確認を行うことによつて、どの処理工程でデー
タの欠損が発生したかを知ることができる。このため、
符号化処理の段階で生成された各エレメンタリーストリ
ームをモニタ装置に入力し、これを復号処理してモニタ
画面及びスピーカから出力させて符号化した各データに
欠損が生じていないかどうかを確認する手法が考えられ
る。
In the above-described multiplexing apparatus, it is necessary to confirm whether or not the image data, the audio data and the additional data have been encoded as intended by using a monitor or the like. desirable. That is, if any loss occurs in each elementary stream generated by the encoding process, it is obvious that loss occurs in the transport stream generated by the subsequent multiplexing process. . Incidentally, it is needless to say that the transport stream formed by the multiplexing is more preferably confirmed in the same manner. By performing such confirmation, it is possible to know in which processing step data loss has occurred. For this reason,
Each of the elementary streams generated in the encoding process is input to a monitor device, which is decoded and output from a monitor screen and a speaker to check whether or not each encoded data has any loss. A method is conceivable.

【0005】しかし画像データや音声データを符号化処
理する場合、各データではそれぞれデータ量の違いから
符号化処理に要する時間が異なるため、例えば同タイミ
ングで符号化処理を開始した場合に、音声データが符号
化処理を完了して復号器側に出力し得る状態であるにも
係わらず、画像データが未だ符号化処理を完了していな
いような状態が生じる。この場合、音声データが符号化
処理を完了したタイミングで各符号化データをモニタ装
置側に送出してしまうと、音声のみが出力されて画面に
は何も表示されないことになる。
However, when encoding image data or audio data, the time required for the encoding process differs depending on the data amount of each data. For example, if the encoding process is started at the same timing, Is a state in which the image data has not yet completed the encoding process even though the encoding process has been completed and can be output to the decoder side. In this case, if each encoded data is transmitted to the monitor device at the timing when the audio data has completed the encoding process, only the audio is output and nothing is displayed on the screen.

【0006】したがつて、上述のように符号化された各
データをモニタ装置に供給して画像や音声等を確認する
場合、各々のデータで符号化の際に生じる固有のデイレ
イによつて画像及び音声の同期(いわゆるリツプシン
ク)がとれずに画像と音声とがずれた状態となる。この
ようなリツプシンクのずれは、モニタ装置から出力され
る画像及び音声を視聴して確認作業を行おうとするユー
ザに違和感を感じさせる。人間の感覚として、画像と音
声が一致して同期がとれている場合は両データを同時に
認識して確認することが容易である。しかし画像と音声
にずれが生じている場合は視覚と聴覚とで各々個別に認
識することになるため、ユーザの感覚が混乱して確認が
困難となる。このため、このような画像と音声とのずれ
はユーザによる確認作業の効率を低下させることにな
る。
Accordingly, when each of the data encoded as described above is supplied to a monitor device to check an image, a sound, or the like, an image is generated by a unique delay generated when each data is encoded. In addition, the image and the sound are shifted from each other without synchronizing the sound (so-called Lip Sync). Such a deviation of the lip-sync causes a user who looks at the image and the sound output from the monitor device to perform a check operation to feel uncomfortable. As a human sensation, when the image and the voice match and are synchronized, it is easy to recognize and confirm both data simultaneously. However, if there is a difference between the image and the sound, the visual and auditory senses are individually recognized, so that the user's sense is confused and it is difficult to confirm. For this reason, such a difference between the image and the sound lowers the efficiency of the confirmation operation by the user.

【0007】本発明は以上の点を考慮してなされたもの
で、画像及び音声の確認作業効率の低下を回避し得る信
号処理装置及び信号処理方法を提案しようとするもので
ある。
The present invention has been made in view of the above points, and it is an object of the present invention to propose a signal processing apparatus and a signal processing method capable of avoiding a reduction in the efficiency of image and sound confirmation.

【0008】[0008]

【課題を解決するための手段】かかる課題を解決するた
め本発明においては、第1の符号化処理手段から出力さ
れる第1の符号化データを記憶する記憶手段と、第2の
符号化処理手段から出力される第1の符号化データに比
して符号化処理に時間を要する第2の符号化データを検
出する検出手段と、検出手段の検出結果に応じて第1の
符号化データを読出し開始する制御手段とを設けた。
According to the present invention, there is provided a storage unit for storing first encoded data output from a first encoding unit, and a second encoding unit. Detecting means for detecting second encoded data which requires more time for encoding processing than first encoded data output from the means, and converting the first encoded data according to a detection result of the detecting means. Control means for starting reading.

【0009】第1の符号化データを記憶すると共に第2
の符号化データを検出して、第2の符号化データを検出
したタイミングで第1の符号化データを読出し開始する
ようにしたことにより、第2の符号化データの検出のみ
によつて第1及び第2の符号化データを同期させて送出
することができる。
The first encoded data is stored and the second encoded data is stored in the second encoded data.
The first coded data is detected, and the reading of the first coded data is started at the timing when the second coded data is detected, so that the first coded data is detected only by detecting the second coded data. And the second encoded data can be transmitted in synchronization.

【0010】[0010]

【発明の実施の形態】以下図面について、本発明の一実
施例を詳述する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the drawings.

【0011】図1において、1は全体として多重化装置
を示し、大別して符号化部2、多重化部3及び制御部4
から構成されている。多重化装置1は外部機器(図示せ
ず)から与えられる画像データ及び音声データや、字幕
信号等の付加データを符号化部2に入力する。符号化部
2はビデオエンコーダ5、オーデイオエンコーダ6及び
サブタイトルエンコーダ7で構成されており、外部機器
から多重化装置1に与えられる画像データをビデオエン
コーダ5に、また音声データをオーデイオエンコーダ6
に、さらに付加データをサブタイトルエンコーダ7に入
力する。
In FIG. 1, reference numeral 1 denotes a multiplexing device as a whole, which is roughly classified into an encoding unit 2, a multiplexing unit 3, and a control unit 4.
It is composed of The multiplexing device 1 inputs image data and audio data provided from an external device (not shown) and additional data such as a caption signal to the encoding unit 2. The encoding unit 2 includes a video encoder 5, an audio encoder 6, and a subtitle encoder 7. Image data supplied from an external device to the multiplexer 1 is supplied to the video encoder 5, and audio data is supplied to the audio encoder 6.
Then, additional data is input to the subtitle encoder 7.

【0012】ビデオエンコーダ5は画像データを符号化
し、得られたビデオストリームをデータサイズ計数用イ
ンターフエイス(以下、これをデータサイズIFと呼
ぶ)8A及びFIFO(First In First Out)メモリ9
Aに送出する。またオーデイオエンコーダ6は音声デー
タを符号化し、得られたオーデイオストリームをデータ
サイズIF8B及びFIFOメモリ9Bに送出する。さ
らにサブタイトルエンコーダ7は付加データを符号化
し、得られたサブタイトルストリームをデータサイズI
F8C及びFIFOメモリ9Cに送出する。なお、ここ
でFIFOメモリ9A〜9Cは所謂バツフアメモリであ
り、ビデオストリーム、オーデイオストリーム及びサブ
タイトルストリームをバツフアリングする。
The video encoder 5 encodes the image data and converts the obtained video stream into a data size counting interface (hereinafter referred to as a data size IF) 8A and a FIFO (First In First Out) memory 9
Send to A. Also, the audio encoder 6 encodes the audio data, and sends out the obtained audio stream to the data size IF8B and the FIFO memory 9B. Further, the subtitle encoder 7 encodes the additional data, and converts the obtained subtitle stream into a data size I.
The data is transmitted to the F8C and the FIFO memory 9C. Note that the FIFO memories 9A to 9C are so-called buffer memories, and buffer video streams, audio streams, and subtitle streams.

【0013】多重化部3は符号化部2から与えられるビ
デオストリームをFIFOメモリ9Aに、またオーデイ
オストリームをFIFOメモリ9Bに、さらにサブタイ
トルストリームをFIFOメモリ9Cに各々記憶して蓄
積する。またスイツチ回路10は、制御部4から与えら
れる制御信号に応じて入力側の各端子と出力側の端子と
の接続を切り換えることによつて、FIFOメモリ9
A、9B、9Cから読み出されて入力側の各端子に各々
入力されるビデオストリーム、オーデイオストリーム又
はサブタイトルストリームの何方かを選択して多重化
し、スイツチ回路11に送出する。さらにスイツチ回路
11は、制御部4から与えられる制御信号に応じて入力
側の各端子と出力側の端子との接続を切り換えることに
よつて、スイツチ回路10から与えられる各エレメンタ
リーストリーム又は制御部4から与えられるヘツダ情報
の何方か一方を選択して多重化し、多重化により得られ
たトランスポートストリームをFIFOメモリ12を介
して出力する。なお、スイツチ回路11から送出される
トランスポートストリームはSCSI(Small Computer
System Interface )インターフエイス13にも供給さ
れており、当該SCSIインターフエイス13を介して
接続されたハードデイスクドライブ等の記録装置に記録
し得るようになされている。
The multiplexing unit 3 stores and stores the video stream supplied from the encoding unit 2 in the FIFO memory 9A, the audio stream in the FIFO memory 9B, and the subtitle stream in the FIFO memory 9C. The switch circuit 10 switches the connection between each terminal on the input side and the terminal on the output side in accordance with a control signal given from the control unit 4, whereby the FIFO memory 9 is switched.
A video stream, audio stream or subtitle stream which is read from A, 9B, 9C and input to each terminal on the input side is selected and multiplexed, and transmitted to the switch circuit 11. Further, the switch circuit 11 switches the connection between each input-side terminal and the output-side terminal in accordance with a control signal given from the control unit 4, so that each elementary stream or control unit given from the switch circuit 10 is switched. 4 is selected and multiplexed, and the transport stream obtained by the multiplexing is output via the FIFO memory 12. The transport stream transmitted from the switch circuit 11 is a SCSI (Small Computer).
The system interface is also supplied to an interface 13 and can be recorded on a recording device such as a hard disk drive connected via the SCSI interface 13.

【0014】制御部4はデータサイズIF8A〜8C、
CPU(Central Processing Unit)14、RAM(Ran
dom Access Memory)15及び16、イーサネツト(Eth
er-net )インターフエイス17及びシリアルインター
フエイス18から構成されている。データサイズIF8
Aはビデオエンコーダ5から与えられるビデオストリー
ムのデータサイズを計数する。またデータサイズIF8
Bはオーデイオエンコーダ6から与えられるオーデイオ
ストリームのデータサイズを計数する。さらにデータサ
イズIF8Cはサブタイトルエンコーダ7から与えられ
るサブタイトルストリームのデータサイズを計数する。
こうして計数された各データサイズは、CPUバス19
を介してCPU14に供給される。またイーサネツトイ
ンターフエイス17は、イーサネツト等のLAN(Loca
lArea Network)(図示せず)を介して入力される字幕
用の付加データを受け入れて、CPUバス19を介して
CPU14に供給する。さらにシリアルインターフエイ
ス18は、例えばコンピユータから入力されるシリアル
形式の付加データを受け入れて、CPUバス19を介し
てCPU14に供給する。
The control unit 4 has data sizes IF8A to 8C,
CPU (Central Processing Unit) 14, RAM (Ran
dom Access Memory) 15 and 16, Ethernet (Eth)
er-net) An interface 17 and a serial interface 18 are provided. Data size IF8
A counts the data size of the video stream provided from the video encoder 5. Data size IF8
B counts the data size of the audio stream provided from the audio encoder 6. Further, the data size IF 8C counts the data size of the subtitle stream provided from the subtitle encoder 7.
Each data size counted in this manner is stored in the CPU bus 19.
Is supplied to the CPU 14 via the. Further, the Ethernet interface 17 is a LAN (Loca) such as an Ethernet.
lArea Network) (not shown), receives additional data for subtitles, and supplies it to the CPU 14 via the CPU bus 19. Further, the serial interface 18 accepts, for example, additional data in a serial format input from a computer and supplies it to the CPU 14 via the CPU bus 19.

【0015】CPU14は例えばマイクロプロセツサ、
多重化処理の処理手順プログラムを格納するためのRO
M及びこれらの周辺回路から構成されている。CPU1
4はデータサイズIF8A〜8Cから供給される各エレ
メンタリーストリームのデータサイズをRAM15に一
時記憶し、このデータサイズ及びROMに記憶されてい
るプログラムに基づいて各エレメンタリーストリームを
多重化する順序、多重化のためのタイミング調整及びス
ケジユーリング等の多重化処理手順を計画する。CPU
14は、こうして計画した処理手順にしたがつてスイツ
チ回路10及び11の切換え制御をCPUバス19を介
して行う。またCPU14はイーサネツトインターフエ
イス17又はシリアルインターフエイス18から入力さ
れる付加データをRAM15に記憶し、この付加データ
に所定の処理を施して各エレメンタリーストリームのヘ
ツダ部分に多重化されるヘツダ情報を生成する。CPU
14は、生成したヘツダ情報をRAM15から読み出し
てスイツチ回路11に送出させる。
The CPU 14 is, for example, a microprocessor,
RO for storing a processing procedure program for multiplexing processing
M and their peripheral circuits. CPU1
4 temporarily stores the data size of each elementary stream supplied from the data size IFs 8A to 8C in the RAM 15, and based on the data size and the program stored in the ROM, the order in which each elementary stream is multiplexed, Multiplexing procedures such as timing adjustment for scheduling and scheduling. CPU
14 controls the switching of the switch circuits 10 and 11 via the CPU bus 19 according to the processing procedure thus planned. Further, the CPU 14 stores the additional data input from the Ethernet interface 17 or the serial interface 18 in the RAM 15, performs predetermined processing on the additional data, and outputs header information multiplexed to the header portion of each elementary stream. Generate. CPU
14 reads out the generated header information from the RAM 15 and sends it to the switch circuit 11.

【0016】次に、このような多重化処理の手順をCP
U14の処理手順に基づき説明する。図2に示すように
CPU14は、ステツプSP1で、手順を開始する。C
PU14は、ステツプSP2で、データサイズIF8A
〜8Cから供給されるビデオストリーム、オーデイオス
トリーム及びサブタイトルストリームの各データサイズ
を受信してRAM15に一時記憶する。続いてCPU1
4は、ステツプSP3で、この各エレメンタリーストリ
ームのデータサイズに基づいて多重化処理のための処理
手順を計画する。具体的には上述したように、各エレメ
ンタリーストリームを多重化する順序、多重化のための
タイミング調整及びスケジユーリング等を設定する。
Next, the procedure of such a multiplexing process is described as CP
A description will be given based on the processing procedure of U14. As shown in FIG. 2, the CPU 14 starts the procedure in step SP1. C
The PU 14 has the data size IF8A in step SP2.
The data size of the video stream, audio stream, and subtitle stream supplied from 〜8C is received and temporarily stored in the RAM 15. Then CPU1
Reference numeral 4 denotes a step SP3, which plans a processing procedure for the multiplexing process based on the data size of each elementary stream. Specifically, as described above, the order of multiplexing each elementary stream, timing adjustment for multiplexing, scheduling, and the like are set.

【0017】CPU14は、ステツプSP4で、その時
点で出力するエレメンタリーストリームがビデオストリ
ームであるか否かを判別する。ここでCPU14は、S
P3で設定した多重化計画がその時点でビデオストリー
ムを出力することを示している場合はステツプSP5に
進み、その時点でビデオストリームを出力することを示
していない場合はステツプSP6に進む。CPU14は
ビデオストリームを出力することを判別した場合、ステ
ツプSP5で、スイツチ回路10を制御してFIFOメ
モリ9Aを選択するように接続を切り換える。
At step SP4, the CPU 14 determines whether or not the elementary stream to be output at that time is a video stream. Here, the CPU 14
If the multiplexing plan set in P3 indicates that a video stream is to be output at that time, the process proceeds to step SP5, and if it does not indicate that a video stream is to be output at that time, the process proceeds to step SP6. If the CPU 14 determines that the video stream is to be output, it switches the connection so as to select the FIFO memory 9A by controlling the switch circuit 10 in step SP5.

【0018】またCPU14は、ステツプSP6で、そ
の時点で出力するエレメンタリーストリームがオーデイ
オストリームであるか否かを判別する。ここでCPU1
4は、SP3で設定した多重化計画がその時点でオーデ
イオストリームを出力することを示している場合はステ
ツプSP7に進み、その時点でオーデイオストリームを
出力することを示していない場合はステツプSP8に進
む。CPU14はオーデイオストリームを出力すること
を判別した場合、ステツプSP7で、スイツチ回路10
を制御してFIFOメモリ9Bを選択するように接続を
切り換える。さらに出力するエレメンタリーストリーム
がビデオストリーム又はオーデイオストリームで無い場
合、CPU14は、ステツプSP8で、サブタイトルス
トリームの出力を選択する。すなわちCPU14はスイ
ツチ回路10を制御してFIFOメモリ9Cを選択する
ように接続を切り換える。
At step SP6, the CPU 14 determines whether the elementary stream to be output at that time is an audio stream. Here CPU1
Step 4 proceeds to step SP7 if the multiplexing plan set in SP3 indicates that an audio stream is to be output at that time, and proceeds to step SP8 if it does not indicate to output an audio stream at that time. . If the CPU 14 determines that the audio stream is to be output, the process proceeds to step SP7 where the switch circuit 10 is output.
To switch the connection so as to select the FIFO memory 9B. If the elementary stream to be output is not a video stream or an audio stream, the CPU 14 selects the output of the subtitle stream in step SP8. That is, the CPU 14 controls the switch circuit 10 to switch the connection so as to select the FIFO memory 9C.

【0019】またCPU14は、ステツプSP9で、ス
イツチ回路10を介してスイツチ回路11に送出された
エレメンタリーストリームにヘツダ情報を付加するか否
かを判別する。CPU14は、SP3で設定した多重化
計画がその時点でヘツダ情報を付加することを示してい
る場合はステツプSP10に進み、その時点でヘツダ情
報を付加することを示していない場合はステツプSP1
1に進む。CPU14はヘツダ情報を付加することを判
別した場合、ステツプSP9で、スイツチ回路11を制
御してRAM15側の入力端子を選択するように接続を
切り換える。ここでRAM15には予めイーサネツトイ
ンターフエイス17又はシリアルインターフエイス18
を介して入力された字幕等の付加データが記憶されてい
る。CPU14は、この付加データを処理して生成した
ヘツダ情報をスイツチ回路11に送出させてトランスポ
ートストリームに多重化させる。
At step SP9, the CPU 14 determines whether or not to add header information to the elementary stream sent to the switch circuit 11 via the switch circuit 10. The CPU 14 proceeds to step SP10 if the multiplexing plan set in SP3 indicates that header information is to be added at that time, and if not, it indicates step SP1 if it does not indicate to add header information at that time.
Proceed to 1. If the CPU 14 determines to add the header information, the CPU 14 controls the switch circuit 11 to switch the connection so as to select the input terminal on the RAM 15 side in step SP9. Here, the RAM 15 is previously stored in the Ethernet interface 17 or the serial interface 18.
And additional data such as subtitles input via the PC. The CPU 14 sends the header information generated by processing the additional data to the switch circuit 11 and multiplexes it into a transport stream.

【0020】一方、CPU14はヘツダ情報を付加しな
いことを判別した場合、ステツプSP11で、スイツチ
回路11を制御してスイツチ回路10側の入力端子を選
択するように接続を切り換える。CPU14は、スイツ
チ回路10を制御して各エレメンタリーストリームを選
択的に送出させると共に、スイツチ回路11を制御して
ヘツダ情報を付加することにより各エレメンタリースト
リーム及びヘツダ情報を1つのトランスポートストリー
ムに多重化する。CPU14はスイツチ回路11からヘ
ツダ情報又はエレメンタリーストリームを送出させた
ら、ステツプSP12で、エレメンタリーストリームの
多重化処理が全て完了したか否かを判別する。CPU1
4は、多重化処理が全て完了したならばステツプSP1
3に進んで手順を終了する。一方、未だ多重化処理が完
了していなければステツプSP2に戻つて多重化処理を
続行する。
On the other hand, if the CPU 14 determines that the header information is not added, the connection is switched so as to select the input terminal of the switch circuit 10 by controlling the switch circuit 11 in step SP11. The CPU 14 controls the switch circuit 10 to selectively transmit each elementary stream, and controls the switch circuit 11 to add header information to convert each elementary stream and header information into one transport stream. Multiplex. After transmitting the header information or the elementary stream from the switch circuit 11, the CPU 14 determines whether or not all the multiplexing processes of the elementary stream have been completed in step SP12. CPU1
Step 4 is a step SP1 if all the multiplexing processes are completed.
Proceed to 3 to end the procedure. On the other hand, if the multiplexing process has not been completed, the process returns to step SP2 to continue the multiplexing process.

【0021】多重化装置1は、このような処理手順にし
たがつてビデオストリーム、オーデイオストリーム又は
サブタイトルストリームを選択し、こうした選択を連続
して繰り返すことで読み出される各エレメンタリースト
リームを時分割に多重化処理して送出することにより、
各エレメンタリーストリームを1つに多重化したトラン
スポートストリームを形成して出力する。
The multiplexing apparatus 1 selects a video stream, an audio stream or a subtitle stream in accordance with such a processing procedure, and multiplexes each elementary stream read out by repeating such selection continuously in a time-division manner. And send it out,
A transport stream in which each elementary stream is multiplexed into one is formed and output.

【0022】図1との対応部分に同一符号を付して示す
図3において、20は全体としてモニタ装置を示し、多
重化装置1(図1)のビデオエンコーダ5(図1)及び
オーデイオエンコーダ6(図1)に接続される構成とな
つている。モニタ装置20は、ビデオエンコーダ5によ
る符号化によつて得られたビデオストリームD1及びオ
ーデイオエンコーダ6による符号化によつて得られたオ
ーデイオストリームD2を、信号処理部21に入力す
る。
In FIG. 3, in which parts corresponding to those in FIG. 1 are assigned the same reference numerals, reference numeral 20 denotes a monitor as a whole, and a video encoder 5 (FIG. 1) and an audio encoder 6 of the multiplexer 1 (FIG. 1). (FIG. 1). The monitor device 20 inputs the video stream D1 obtained by encoding by the video encoder 5 and the audio stream D2 obtained by encoding by the audio encoder 6 to the signal processing unit 21.

【0023】信号処理部21は検出手段であるFIFO
メモリ22、記憶手段であるFIFOメモリ23及び制
御手段であるCPU14から構成されている。信号処理
部21に入力されたビデオストリームD1はFIFOメ
モリ22に供給される。また信号処理部21に入力され
たオーデイオストリームD2はFIFOメモリ23に供
給される。この際、ビデオエンコーダ5は、制御手段で
あるCPU14にビデオストリームD1の各画像フレー
ムの境界を示すフレーム信号(以下、これをV−Syn
c信号と呼ぶ)S1を供給する。
The signal processing section 21 is a FIFO which is a detecting means.
It comprises a memory 22, a FIFO memory 23 as storage means, and a CPU 14 as control means. The video stream D1 input to the signal processing unit 21 is supplied to a FIFO memory 22. The audio stream D2 input to the signal processing unit 21 is supplied to the FIFO memory 23. At this time, the video encoder 5 sends a frame signal (hereinafter, referred to as V-Syn) to the CPU 14 as a control unit, which indicates a boundary between image frames of the video stream D1.
c1) is supplied.

【0024】FIFOメモリ22には予め所定のデータ
蓄積量が設定されており、供給されるビデオストリーム
D1を記憶して蓄積し、全記憶容量の半分までビデオス
トリームD1が蓄積された時点でDecOK信号S2を
CPU14に送出する。ちなみにFIFOメモリ22と
して用いられるメモリはハーフフラグと呼ばれる信号を
出力する機能を従来から有しており、データ記憶量が全
容量の半分になつた時点でこのハーフフラグを出力して
いた。信号処理部21では、このハーフフラグをDec
OK信号S2として用いている。
A predetermined data storage amount is set in the FIFO memory 22 in advance. The supplied video stream D1 is stored and stored. When the video stream D1 has been stored to half of the total storage capacity, the DecOK signal is output. S2 is sent to the CPU 14. Incidentally, the memory used as the FIFO memory 22 has a function of outputting a signal called a half flag conventionally, and outputs this half flag when the data storage amount has become half of the total capacity. The signal processing unit 21 sets this half flag to Dec.
Used as the OK signal S2.

【0025】CPU14はビデオエンコーダ5から供給
されるV−Sync信号S1をカウントしながら、FI
FOメモリ22から送出されるDecOK信号S2を待
ち受ける。CPU14はDecOK信号S2が与えられ
た場合、FIFOメモリ22に所望する十分なデータ量
のビデオストリームがバツフアリングされたと判別す
る。この際、CPU14はDecOK信号S2が入力さ
れた時点でカウントされているV−Sync信号S1の
次の入力タイミングを待つ。こうしてCPU14は、次
のタイミングのV−Sync信号S1が入力された時点
で、FIFOメモリ22及び23とビデオデコーダ24
及びオーデイオデコーダ25とに制御信号S3を送出す
る。
While counting the V-Sync signal S1 supplied from the video encoder 5, the CPU 14
It waits for the DecOK signal S2 sent from the FO memory 22. When the DecOK signal S2 is given, the CPU 14 determines that a video stream of a desired and sufficient data amount has been buffered in the FIFO memory 22. At this time, the CPU 14 waits for the next input timing of the V-Sync signal S1 counted at the time when the DecOK signal S2 is input. In this way, when the V-Sync signal S1 at the next timing is input, the CPU 14 sets the FIFO memories 22 and 23 and the video decoder 24
And a control signal S3 to the audio decoder 25.

【0026】例えばMPEG方式では所定の画像フレー
ム(いわゆるIピクチヤ)を基準として、当該画像フレ
ームの前後のフレーム(いわゆるBピクチヤ、Pピクチ
ヤ)を当該画像フレームとの差分部分だけ抽出して圧縮
することにより圧縮率を向上させており、このため所定
の画像フレームを含む複数枚の画像フレームが揃つてい
ないと復号処理し得ない。このためビデオデコーダ24
及びオーデイオデコーダ25には供給されるエレメンタ
リーストリームを記憶するメモリ(図示せず)が内部に
設けられており、このメモリ内に所定量のデータが蓄積
されてから復号処理を開始する。このようにデータが供
給されてから実際に復号処理を開始するまでのデイレイ
をVBV(Video Buffering Verifire)デイレイと呼
ぶ。モニタ装置20は、このようなビデオデコーダ24
及びオーデイオデコーダ25内のメモリに上述した所定
量のデータを供給するために十分な量を所望量として設
定し、この所望量がFIFOメモリ22及び23に確保
された時点でビデオストリームD1及びオーデイオスト
リームD2を送出するようにしたことにより、VBVデ
イレイの発生を最小限にする。
For example, in the MPEG system, a predetermined image frame (so-called I-picture) is used as a reference, and frames before and after the image frame (so-called B-picture and P-picture) are extracted and compressed only in a difference portion from the image frame. Therefore, the decoding process cannot be performed unless a plurality of image frames including a predetermined image frame are aligned. Therefore, the video decoder 24
A memory (not shown) for storing the supplied elementary stream is provided in the audio decoder 25, and the decoding process is started after a predetermined amount of data is accumulated in the memory. The delay from when the data is supplied to when the decoding process is actually started is called a VBV (Video Buffering Verifire) delay. The monitor device 20 includes such a video decoder 24
A sufficient amount for supplying the above-mentioned predetermined amount of data to the memory in the audio decoder 25 is set as a desired amount, and when the desired amount is secured in the FIFO memories 22 and 23, the video stream D1 and the audio stream By transmitting D2, generation of VBV delay is minimized.

【0027】また図4に示すように、FIFOメモリ2
2からCPU14に与えられるDecOK信号S2と各
ビデオストリームの1フレーム毎の境界を示すV−Sy
nc信号S1とは必ずしも同一タイミングで送出されな
い。このため、DecOK信号S2が送出されるタイミ
ングでビデオストリームD1をビデオデコーダ24に供
給開始した場合、不完全な状態で復号処理されるビデオ
フレームが発生することになる。すなわちFIFOメモ
リ22は全記憶容量Dsの半分、Ds/2までビデオス
トリームD1が蓄積された時点でDecOK信号S2を
送出する。またビデオエンコーダ5は、ビデオストリー
ムD1内の1フレーム毎の境界を示すものとしてV−S
ync信号S1を送出している。ここでA1及びA2は
各々ビデオエンコーダ5で符号化されたビデオデータの
1枚目のフレーム、2枚目のフレームの範囲を示してい
る。
Further, as shown in FIG.
2 to the DecOK signal S2 given to the CPU 14 and V-Sy indicating the boundary of each video stream for each frame.
The nc signal S1 is not always transmitted at the same timing. Therefore, when the supply of the video stream D1 to the video decoder 24 is started at the timing when the DecOK signal S2 is transmitted, a video frame that is decoded in an incomplete state occurs. That is, the FIFO memory 22 sends out the DecOK signal S2 when the video stream D1 is accumulated up to Ds / 2, which is half of the total storage capacity Ds. In addition, the video encoder 5 uses the VS to indicate the boundary of each frame in the video stream D1.
The SYNC signal S1 is transmitted. Here, A1 and A2 indicate the ranges of the first frame and the second frame of the video data encoded by the video encoder 5, respectively.

【0028】しかしFIFOメモリ22に蓄積されるビ
デオストリームD1は、DecOK信号S2が送出され
た時点で、フレームA2のデータとしてdsで示したデ
ータ量しか蓄積されていない場合が考えられる。このよ
うな1枚の画像フレームとして不十分なデータ量しか蓄
積されていないビデオストリームD1をビデオデコーダ
24に供給して復号処理を開始した場合、モニタ装置2
0はフレームA2を不完全な画像としてしか表示し得な
い。具体的には、画像フレームが途中までしか表示され
ずにデータ量が不足している部分がブツ切り状態とな
る。こうした画像フレームの欠損は1フレームあたりの
データ量が多いビデオストリーム程、顕著である。例え
ば1フレームの画像データがFIFOメモリ22の半分
の記憶容量に比して十分大きいビデオストリームを蓄積
する場合、FIFOメモリ22はほとんどの画像フレー
ムについて1フレーム分のデータ量が蓄積される以前に
DecOK信号S2を送出してしまう。このためDec
OK信号S2をトリガとして、蓄積されたビデオストリ
ームD1の読み出し及び復号処理を開始した場合、ほと
んどの画像フレームが上述したような不完全な表示しか
行い得ない。
However, it is conceivable that the video stream D1 stored in the FIFO memory 22 stores only the data amount indicated by ds as the data of the frame A2 when the DecOK signal S2 is transmitted. When the decoding process is started by supplying the video stream D1 in which an insufficient amount of data is accumulated as one image frame to the video decoder 24, the monitor device 2
0 can only display frame A2 as an incomplete image. Specifically, a portion where the image frame is displayed only halfway and the amount of data is insufficient is cut off. Such loss of image frames is more remarkable in a video stream having a larger amount of data per frame. For example, when storing a video stream in which one frame of image data is sufficiently large compared to half the storage capacity of the FIFO memory 22, the FIFO memory 22 stores DecOK before storing the data amount of one frame for most image frames. It sends out the signal S2. For this reason Dec
When the reading and decoding processing of the accumulated video stream D1 is started with the OK signal S2 as a trigger, most of the image frames can perform only the incomplete display as described above.

【0029】モニタ装置20は、DecOK信号S2が
送出された次のV−Sync信号S1がCPU14に与
えられた際に、これをトリガとして蓄積されたエレメン
タリーストリームの読み出し及び復号処理の開始を行う
ようにしており、少なくとも1フレーム分のデータ量を
確保した状態でビデオストリームD1をビデオデコーダ
24に供給して、不完全な画像表示を防止する。なお、
このような制御信号S3による同期処理はデータの読み
出しと復号処理開始との際に1度だけ処理すればよい。
またモニタ装置20はV−Sync信号S1及びDec
OK信号S2に基づくタイミングで制御信号S3を送出
するようにしたことにより、各エレメンタリーストリー
ムの同期をとるための複雑な計算処理等を不要としてお
り、CPU14の負担を軽減している。
When the next V-Sync signal S1 to which the DecOK signal S2 has been sent is given to the CPU 14, the monitor device 20 triggers the reading and decoding of the stored elementary stream by using this signal as a trigger. In this way, the video stream D1 is supplied to the video decoder 24 in a state where the data amount for at least one frame is secured, thereby preventing incomplete image display. In addition,
Such a synchronization process based on the control signal S3 may be performed only once at the time of reading data and starting the decoding process.
Further, the monitor device 20 outputs the V-Sync signal S1
By transmitting the control signal S3 at a timing based on the OK signal S2, a complicated calculation process or the like for synchronizing each elementary stream is not required, and the load on the CPU 14 is reduced.

【0030】画像信号復号手段であるビデオデコーダ2
4は制御信号S3を与えられた場合、同様に制御信号S
3を与えられたことによりFIFOメモリ22から読み
出されるビデオストリームD1を入力して復号処理を開
始する。ビデオデコーダ24は復号処理により得られた
ビデオデータD3を画像表示部26に供給する。同様
に、音声信号復号手段であるオーデイオデコーダ25は
制御信号S3を与えられた場合、制御信号S3を与えら
れたことによりFIFOメモリ23から読み出されるオ
ーデイオストリームD2を入力して復号処理を開始す
る。オーデイオデコーダ25は復号処理により得られた
オーデイオデータD4を音声出力部27に供給する。出
力手段である画像表示部26及び音声出力部27は、こ
うしてビデオデコーダ24及びオーデイオデコーダ25
から供給されるビデオデータD3及びオーデイオデータ
D4に基づいて画像表示及び音声出力する。
Video decoder 2 as image signal decoding means
4 is given the control signal S3 when the control signal S3 is given.
3, the video stream D1 read from the FIFO memory 22 is input, and the decoding process is started. The video decoder 24 supplies the video data D3 obtained by the decoding process to the image display unit 26. Similarly, when receiving the control signal S3, the audio decoder 25 serving as the audio signal decoding means inputs the audio stream D2 read from the FIFO memory 23 in response to the control signal S3, and starts decoding. The audio decoder 25 supplies the audio data D4 obtained by the decoding process to the audio output unit 27. The image display unit 26 and the audio output unit 27, which are output means, are thus provided with the video decoder 24 and the audio decoder 25.
Image display and audio output based on the video data D3 and the audio data D4 supplied from.

【0031】次にモニタ装置20がビデオストリームD
1及びオーデイオストリームD2を同期させて出力する
信号処理方法を、以下に示すCPU14の処理手順にし
たがつて説明する。図5に示すようにCPU14は、ス
テツプSP1で、手順を開始する。CPU14は、ステ
ツプSP2で、V−Sync信号S1のカウントを0に
クリアする。次にCPU14は、ステツプSP3で、ビ
デオエンコーダ5からV−Sync信号S1が与えられ
る度にカウントを行う。ここでFIFOメモリ22及び
23には、それぞれビデオストリームD1及びオーデイ
オストリームD2が供給されて順次記憶され、蓄積され
ていく。
Next, the monitor device 20 sets the video stream D
A signal processing method for synchronizing and outputting the audio stream D1 and the audio stream D2 will be described according to a processing procedure of the CPU 14 described below. As shown in FIG. 5, the CPU 14 starts the procedure at step SP1. In step SP2, the CPU 14 clears the count of the V-Sync signal S1 to zero. Next, in step SP3, the CPU 14 counts each time the V-Sync signal S1 is given from the video encoder 5. Here, the video streams D1 and the audio streams D2 are supplied to the FIFO memories 22 and 23, respectively, and are sequentially stored and accumulated.

【0032】続いてCPU14は、ステツプSP4で、
FIFOメモリ22からDecOK信号S2が入力され
たか否かを検出する。CPU14はDecOK信号S2
が入力されていないことを検出した場合、V−Sync
信号S1のカウントを続行する(SP2)。一方、De
cOK信号S2が入力されたことを検出した場合、次の
ステツプに進む。DecOK信号S2が入力された場合
にCPU14は、ステツプSP5で、V−Sync信号
S1の次のカウントを待つ。V−Sync信号S1の次
のカウントが検出されたらCPU14は、ステツプSP
6で、制御信号S3を出力してFIFOメモリ22及び
23に蓄積されたビデオストリームD1及びオーデイオ
ストリームD2を読み出させると共に、ビデオデコーダ
24及びオーデイオデコーダ25の復号処理を開始させ
る。こうして制御信号S3を出力したら、CPU14は
ステツプSP7で手順を終了する。
Subsequently, the CPU 14 proceeds to step SP4.
It detects whether or not the DecOK signal S2 has been input from the FIFO memory 22. The CPU 14 outputs the DecOK signal S2
When it is detected that is not input, V-Sync
The counting of the signal S1 is continued (SP2). On the other hand, De
When it is detected that the cOK signal S2 has been input, the process proceeds to the next step. When the DecOK signal S2 is input, the CPU 14 waits for the next count of the V-Sync signal S1 in step SP5. When the next count of the V-Sync signal S1 is detected, the CPU 14 proceeds to step SP.
At step 6, the control signal S3 is output to read the video stream D1 and the audio stream D2 stored in the FIFO memories 22 and 23, and the decoding process of the video decoder 24 and the audio decoder 25 is started. After outputting the control signal S3, the CPU 14 ends the procedure at step SP7.

【0033】以上の構成において、モニタ装置20は、
一般に符号化処理が先に完了するオーデイオストリーム
D2をバツフアリングしておく。モニタ装置20は、こ
の後にビデオストリームD1の符号化処理が完了したこ
とをDecOK信号S2によつて検出し、このタイミン
グで読み出し及び復号処理を開始させることにより、両
者を同期させている。これによりオーデイオストリーム
D2のデータ蓄積量を検出すること無く、符号化処理を
完了したビデオストリームD1の入力を検出するだけで
両者を容易に同期させることができ、ビデオストリーム
D1を復号処理して得られる画像データ及びオーデイオ
ストリームD2を復号処理して得られる音声データのリ
ツプシンクをとることができる。
In the above configuration, the monitor device 20
Generally, the audio stream D2 whose encoding process is completed first is buffered. Thereafter, the monitor device 20 detects that the encoding process of the video stream D1 is completed by the DecOK signal S2, and starts the reading and decoding processes at this timing to synchronize the two. As a result, without detecting the amount of data stored in the audio stream D2, it is possible to easily synchronize the two just by detecting the input of the video stream D1 for which encoding processing has been completed. Lip sync of audio data obtained by decoding image data and audio stream D2 to be obtained can be obtained.

【0034】またモニタ装置20は、FIFOメモリ2
2に既存の機能として設けられているハーフフラグをD
ecOK信号S2とし、これが送出されたか否かによつ
て符号化処理の完了したビデオストリームD1の入力を
検出するようにしたことにより、新たに構成を追加する
ことなく容易にビデオストリームD1の入力を検出する
ことができる。
The monitor device 20 is provided with a FIFO memory 2
The half flag provided as an existing function in
The ecOK signal S2 is used to detect the input of the video stream D1 that has been subjected to the encoding process based on whether or not the ecOK signal S2 has been transmitted. Therefore, the input of the video stream D1 can be easily performed without adding a new configuration. Can be detected.

【0035】さらにモニタ装置20は、ビデオストリー
ムD1の画像フレームの境目を示すV−Sync信号S
1をCPU14によつてカウントし、DecOK信号S
2によつてビデオストリームD1の入力が検出された後
にカウントされるV−Sync信号S1のタイミングで
ビデオストリームD1の読み出し及び復号処理を開始さ
せるようにしたことにより、確実に1フレーム分のデー
タが確保された段階でビデオストリームD1を復号処理
させることができる。
Further, the monitor device 20 outputs a V-Sync signal S indicating a boundary between image frames of the video stream D1.
1 is counted by the CPU 14, and the DecOK signal S
2, the reading and decoding processing of the video stream D1 is started at the timing of the V-Sync signal S1 counted after the input of the video stream D1 is detected, so that the data of one frame is surely obtained. At the secured stage, the video stream D1 can be decoded.

【0036】以上の構成によれば、FIFOメモリ23
によつてオーデイオストリームD2を蓄積させ、FIF
Oメモリ22に半分までビデオストリームD1が蓄積さ
れた際に送出されるDecOK信号S2によつてビデオ
ストリームD1の入力を検出し、この検出後にカウント
されるV−Sync信号S1のタイミングに基づいて、
ビデオストリームD1及びオーデイオストリームD2の
読み出し及び復号処理の開始をCPU14に制御させる
ようにした。これによりビデオストリームD1及びオー
デイオストリームD2が同期した状態でかつVBVデイ
レイを最小限にし得るデータ量でビデオデコーダ23及
びオーデイオデコーダ24に各々供給することができ、
さらに少なくとも確実に1フレーム分のデータ量が確保
された段階でビデオストリームD1を復号処理させるこ
とができる。かくするにつき、画像と音声を同期させて
遅滞無く出力し得、確実な画像表示を実現することがで
きる。
According to the above configuration, the FIFO memory 23
The audio stream D2 is stored by the
The input of the video stream D1 is detected by the DecOK signal S2 sent when the video stream D1 is stored in the O memory 22 up to half, and based on the timing of the V-Sync signal S1 counted after the detection,
The CPU 14 controls reading and decoding of the video stream D1 and the audio stream D2 to start. As a result, the video stream D1 and the audio stream D2 can be supplied to the video decoder 23 and the audio decoder 24 in a synchronized state and with a data amount capable of minimizing the VBV delay, respectively.
Furthermore, the video stream D1 can be decoded at least at the stage when the data amount for one frame is ensured. In this way, the image and the sound can be synchronized and output without delay, and a reliable image display can be realized.

【0037】なお上述の実施例においては、第2の符号
化データであるビデオストリームと第1の符号化データ
であるオーデイオストリームとを順次書き込むと共に、
制御手段であるCPU14の制御に応じて、各エレメン
タリーストリームを書き込まれた順序で順次読み出すF
IFOメモリ22及び23を用いた場合について述べた
が、本発明はこれに限らず、データを順次書き込むと共
に、書き込まれた順序で順次読み出す記憶手段として、
この他種々のメモリ手段を適用してもよい。
In the above embodiment, the video stream as the second encoded data and the audio stream as the first encoded data are sequentially written,
Under the control of the CPU 14 as a control means, F sequentially reads out the elementary streams in the order in which they are written.
Although the case where the IFO memories 22 and 23 are used has been described, the present invention is not limited to this.
In addition, various memory means may be applied.

【0038】また上述の実施例においては、検出手段で
あるFIFOメモリ22及び記憶手段であるFIFOメ
モリ23からのビデオストリームD1及びオーデイオス
トリームD2の読み出しと、ビデオデコーダ24及びオ
ーデイオデコーダ25による復号処理の開始とを制御手
段であるCPU14が制御するためのトリガとして、F
IFOメモリ22から送出されるDecOK信号S2を
用い、このDecOK信号S2としてFIFOメモリ2
2のハーフフラグを用いる場合について述べたが、本発
明はこれに限らず、例えば全記憶容量全てが記憶された
ことを示すフルフラグを用いるようにしてもよく、メモ
リに所望量のビデオストリームが蓄積されたことを通知
する信号であれば、この他の信号を用いた場合でも実施
例と同様の効果を得ることができる。
In the above embodiment, the video stream D1 and the audio stream D2 are read from the FIFO memory 22 as the detecting means and the FIFO memory 23 as the storing means, and the decoding processing by the video decoder 24 and the audio decoder 25 is performed. As a trigger for controlling the start by the CPU 14 as a control means, F
The DecOK signal S2 sent from the FIFO memory 22 is used, and this DecOK signal S2 is used as the FIFO memory 2
However, the present invention is not limited to this. For example, a full flag indicating that the entire storage capacity has been stored may be used, and a desired amount of video stream is stored in the memory. The same effect as that of the embodiment can be obtained even if other signals are used as long as the signals notify that the signals have been transmitted.

【0039】さらに上述の実施例においては、多重化装
置1の制御手段であるCPU14を信号処理装置を適用
したモニタ装置20の制御手段として共有する場合につ
いて述べたが、本発明はこれに限らず、多重化装置とモ
ニタ装置とで各々個別にCPUを設けるようにしてもよ
い。
Further, in the above-described embodiment, the case where the CPU 14 which is the control means of the multiplexer 1 is shared as the control means of the monitor device 20 to which the signal processing device is applied, but the present invention is not limited to this. Alternatively, a separate CPU may be provided for each of the multiplexing device and the monitor device.

【0040】[0040]

【発明の効果】上述のように本発明によれば、第1の符
号化処理手段から出力される第1の符号化データを記憶
する記憶手段と、第2の符号化処理手段から出力される
第1の符号化データに比して符号化処理に時間を要する
第2の符号化データを検出する検出手段と、検出手段の
検出結果に応じて第1の符号化データを読出し開始する
制御手段とを設けて、第1の符号化データを記憶すると
共に第2の符号化データを検出して、第2の符号化デー
タを検出したタイミングで第1の符号化データを読出し
開始するようにしたことにより、第2の符号化データの
検出のみによつて第1及び第2の符号化データを同期さ
せて送出することができ、かくするにつき、画像及び音
声の確認作業効率の低下を回避し得る信号処理装置及び
信号処理方法を実現することができる。
As described above, according to the present invention, the storage means for storing the first encoded data output from the first encoding processing means and the output from the second encoding processing means are provided. Detecting means for detecting second coded data which requires more time for the coding process than the first coded data, and control means for starting reading of the first coded data in accordance with the detection result of the detecting means Is provided, the first encoded data is stored, the second encoded data is detected, and the reading of the first encoded data is started at the timing when the second encoded data is detected. Thus, the first and second encoded data can be transmitted in synchronization only by detecting the second encoded data, thereby avoiding a reduction in the efficiency of the image and audio confirmation work. The signal processing device and the signal processing method It can be.

【図面の簡単な説明】[Brief description of the drawings]

【図1】多重化装置の全体構成を示すブロツク図であ
る。
FIG. 1 is a block diagram showing the overall configuration of a multiplexing device.

【図2】各エレメンタリーストリームの多重化処理手順
を説明するために供するフローチヤートである。
FIG. 2 is a flowchart provided to explain a multiplexing processing procedure of each elementary stream.

【図3】本発明による信号処理装置を適用したモニタ装
置の一実施例を示すブロツク図である。
FIG. 3 is a block diagram showing an embodiment of a monitor device to which the signal processing device according to the present invention is applied.

【図4】V−Sync信号に対するDecOK信号の位
相ずれ及びその補正の説明に供する略線図である。
FIG. 4 is a schematic diagram for explaining a phase shift of a DecOK signal with respect to a V-Sync signal and a correction thereof;

【図5】実施例による信号処理方法の処理手順の説明に
供するフローチヤートである。
FIG. 5 is a flowchart for explaining a processing procedure of a signal processing method according to an embodiment.

【符号の説明】[Explanation of symbols]

1……多重化装置、2……符号化部、3……多重化部、
4……制御部、5……ビデオエンコーダ、6……オーデ
イオエンコーダ、7……サブタイトルエンコーダ、8
A、8B、8C……データサイズIF、9A、9B、9
C、12、22、23……FIFOメモリ、10、11
……スイツチ回路、13……SCSIインターフエイ
ス、14……CPU、15、16……RAM、17……
イーサネツトインターフエイス、18……シリアルイン
ターフエイス、19……CPUバス、20……モニタ装
置、21……信号処理部、24……ビデオデコーダ、2
5……オーデイオデコーダ、26……画像表示部、27
……音声出力部。
1 multiplexing device, 2 coding unit, 3 multiplexing unit,
4 ... Control unit, 5 ... Video encoder, 6 ... Audio encoder, 7 ... Subtitle encoder, 8
A, 8B, 8C: Data size IF, 9A, 9B, 9
C, 12, 22, 23 ... FIFO memory, 10, 11
... Switch circuit, 13 SCSI interface, 14 CPU, 15, 16 RAM, 17
Ethernet interface, 18 Serial interface, 19 CPU bus, 20 Monitor device, 21 Signal processing unit, 24 Video decoder, 2
5 Audio decoder 26 Image display 27
... Audio output unit.

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】第1の符号化処理手段から出力される第1
の符号化データを記憶する記憶手段と、 第2の符号化処理手段から出力される上記第1の符号化
データに比して符号化処理に時間を要する第2の符号化
データを検出する検出手段と、 上記検出手段の検出結果に応じて上記第1の符号化デー
タを読出し開始する制御手段とを具え、 上記第1及び第2の符号化データを同期したタイミング
で出力することを特徴とする信号処理装置。
A first encoding means for outputting the first encoded data;
Storage means for storing the encoded data of the second encoding processing means, and detection for detecting the second encoded data which requires a longer time for the encoding processing than the first encoded data output from the second encoding processing means. Means, and control means for starting reading of the first encoded data in accordance with the detection result of the detection means, wherein the first and second encoded data are output at synchronized timing. Signal processing device.
【請求項2】上記検出手段は、上記第2の符号化データ
を記憶するメモリでなり、 記憶した上記第2の符号化データのデータ量が所定のデ
ータ量に達した場合に、上記第2の符号化データを検出
したことを示す検出信号を上記制御手段に送出すること
を特徴とする請求項1に記載の信号処理装置。
2. The method according to claim 1, wherein the detecting means is a memory for storing the second coded data. When the data amount of the stored second coded data reaches a predetermined data amount, the second detecting means stores the second coded data. 2. The signal processing device according to claim 1, wherein a detection signal indicating that said encoded data is detected is sent to said control means.
【請求項3】上記制御手段は、 ビデオデータでなる上記第2の符号化データの画像フレ
ーム境界を検出しており、上記検出手段によつて上記第
2の符号化データが検出されたタイミング以降に上記画
像フレーム境界が検出されるタイミングで上記第1の符
号化データを読出し開始することを特徴とする請求項1
に記載の信号処理装置。
3. The control means detects an image frame boundary of the second encoded data composed of video data, and detects a timing after the detection of the second encoded data by the detection means. Reading the first encoded data at a timing when the image frame boundary is detected.
The signal processing device according to claim 1.
【請求項4】入力される第1の符号化データを記憶し、 上記第1の符号化データに比して符号化処理に時間を要
する第2の符号化データを検出し、 上記検出結果に応じて上記第1の符号化データを読出し
開始することにより、上記第1及び第2の符号化データ
を同期したタイミングで出力することを特徴とする信号
処理方法。
4. The method according to claim 1, further comprising the step of: storing the first encoded data to be inputted; detecting second encoded data which requires more time for encoding processing than the first encoded data; A signal processing method for outputting the first and second encoded data at a synchronized timing by starting to read the first encoded data in response thereto.
【請求項5】上記信号処理方法は、 上記第2の符号化データを記憶して当該第2の符号化デ
ータのデータ量が所定のデータ量に達した場合に当該第
2の符号化データの検出を行うことを特徴とする請求項
4に記載の信号処理方法。
5. The signal processing method according to claim 1, wherein the second encoded data is stored, and when the data amount of the second encoded data reaches a predetermined data amount, the second encoded data is stored in the second encoded data. The signal processing method according to claim 4, wherein the detection is performed.
【請求項6】上記信号処理方法は、 上記第2の符号化データが検出されたタイミング以降
に、ビデオデータでなる上記第2の符号化データの画像
フレーム境界が検出されるタイミングで上記第1の符号
化データを読み出すことを特徴とする請求項4に記載の
信号処理方法。
6. The signal processing method according to claim 1, wherein: after the timing at which the second encoded data is detected, at the timing at which an image frame boundary of the second encoded data comprising video data is detected. 5. The signal processing method according to claim 4, wherein the encoded data is read.
JP20914796A 1996-07-18 1996-07-18 Signal processor and signal processing method Pending JPH1032792A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20914796A JPH1032792A (en) 1996-07-18 1996-07-18 Signal processor and signal processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20914796A JPH1032792A (en) 1996-07-18 1996-07-18 Signal processor and signal processing method

Publications (1)

Publication Number Publication Date
JPH1032792A true JPH1032792A (en) 1998-02-03

Family

ID=16568095

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20914796A Pending JPH1032792A (en) 1996-07-18 1996-07-18 Signal processor and signal processing method

Country Status (1)

Country Link
JP (1) JPH1032792A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113938705A (en) * 2020-07-13 2022-01-14 阿里巴巴集团控股有限公司 Method, device, server, terminal equipment and system for video coding and decoding

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113938705A (en) * 2020-07-13 2022-01-14 阿里巴巴集团控股有限公司 Method, device, server, terminal equipment and system for video coding and decoding

Similar Documents

Publication Publication Date Title
JP3215087B2 (en) Audio and video synchronization method and digital video processor
EP1956848A2 (en) Image information transmission system, image information transmitting apparatus, image information receiving apparatus, image information transmission method, image information transmitting method, and image information receiving method
JPH10136312A (en) Information reproducing device
JP3438223B2 (en) Multiplexing device and multiplexing method, and transmission device and transmission method
JPH0965300A (en) Information transmission/reception system, transmission information generator and received information reproducing device used for this system
JP2002359818A (en) Device for transmitting reproduced image
US20120081604A1 (en) Electronic apparatus
JPH11163817A (en) Digital encoding multiplexer
US6718119B1 (en) Video/audio decoding apparatus and method
JP3504216B2 (en) Audio stream transmitting / receiving apparatus and method using digital interface
US20050069289A1 (en) Transport stream recording/editing device and recording/editing method
US6665001B1 (en) Multiplex and demultiplex controlling apparatus, multiplex and demultiplex controlling system, and method thereof
JPH1032792A (en) Signal processor and signal processing method
KR100240331B1 (en) Apparatus for synchronizing a video and an audio signals for a decoder system
JP3520595B2 (en) Encoded image and audio data receiving device
JPH1013809A (en) Vod system and vod terminal equipment
JPH11112944A (en) Device and method for information processing and transmission medium
JPH08191434A (en) Moving picture/audio coding data multiplexing method and moving picture/audio coding data multiplexer
JP2001044866A (en) Information reception method and system thereof
JP2006019997A (en) Moving picture data transfer system
JPH1188878A (en) Processor for discontinuous transport stream packet
JP2007158431A (en) Video recording device and video recording and reproducing device
US7206502B2 (en) Apparatus and method for recording and reproducing digital data
JPH0823526A (en) Video telephone
JP2001111906A (en) Digital broadcast receiver