JPH11112937A - Video-audio synchronization method and video audio signal recording and reproducing device - Google Patents

Video-audio synchronization method and video audio signal recording and reproducing device

Info

Publication number
JPH11112937A
JPH11112937A JP9270171A JP27017197A JPH11112937A JP H11112937 A JPH11112937 A JP H11112937A JP 9270171 A JP9270171 A JP 9270171A JP 27017197 A JP27017197 A JP 27017197A JP H11112937 A JPH11112937 A JP H11112937A
Authority
JP
Japan
Prior art keywords
video
information
audio
frame
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9270171A
Other languages
Japanese (ja)
Other versions
JP3807053B2 (en
Inventor
Toshimichi Hamada
敏道 濱田
Masashi Ota
正志 太田
Toshiya Akiba
俊哉 秋葉
Masami Tomita
真巳 冨田
Taro Mizufuji
太郎 水藤
Masanari Miyata
勝成 宮田
Kouichi Nagatoku
弘一 長徳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP27017197A priority Critical patent/JP3807053B2/en
Publication of JPH11112937A publication Critical patent/JPH11112937A/en
Application granted granted Critical
Publication of JP3807053B2 publication Critical patent/JP3807053B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To attain simply a synchronization of a video and an audio by controlling delay time of the video within one frame, calculating the time information of the video and audio, multiplying this time information together with a video and an audio signals, separating the video and audio signal and the time information from a multiplex signal recorded or transmitted and synchronizing the video and the audio, on the basis of the separated time information. SOLUTION: That a delay time of a video signal from an input of a frame synchronizer 14 to an output ranges 0 to 1 frame means that a delay time between an audio signal inputted and the video signal outputted from the frame synchronizer 14 also ranges 0 to 1 frame. Before multiplexing time audio information A-PTS by a multiplexer MUX 19, time dVFR-int for one frame of an internal reference synchronism is added to the time information A-PTS of audio through an adder inside a microcomputer 11. Thus, the delay time between the audio signal and the video signal is in a ranges of -1 to 0 frame on a time stamp.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、映像と音声の同期
化の技術分野で用いられる映像音声同期化方法及び映像
音声信号記録再生装置に関する。
The present invention relates to a video / audio synchronization method and a video / audio signal recording / reproducing apparatus used in the technical field of video / audio synchronization.

【0002】[0002]

【従来の技術】映像と音声の同期化方法としては、例え
ばいわゆるMPEG(Moving PictureImage Coding Exp
erts Group)で用いられているような映像、音声それぞ
れの信号の同期タイミングの時刻情報をタイムスタンプ
として多重化する方法が、符号化した信号においては有
名である。なお、MPEGとは、ISO/IEC JTC1/SC29(In
ternational Organization for Stan-dardization/Inte
rnational Electrotechnical Commission, Joint Techn
ical Commitee 1/Sub Commitee 29:国際標準化機構/
国際電機標準会議 合同技術委員会1/専門部会 2
9)の蓄積用動画像符号化の検討組織の略称であり、M
PEG1標準としてISO11172が、MPEG2標
準としてISO13818がある。これらの国際標準に
おいて、システム多重化の項目でISO11172−1
及びISO13818−1が、映像符号化(MPEGビ
デオ)の項目でISO11172−2及びISO138
18−2が、音声符号化(MPEGオーディオ)の項目
でISO11172−3及びISO13818−3が、
それぞれ標準化されている。
2. Description of the Related Art As a method of synchronizing video and audio, for example, a so-called MPEG (Moving Picture Image Coding Exp
A method of multiplexing the time information of the synchronization timing of each video and audio signal as a time stamp, which is used in an erts group, is famous for the encoded signal. MPEG means ISO / IEC JTC1 / SC29 (In
ternational Organization for Stan-dardization / Inte
rnational Electrotechnical Commission, Joint Techn
ical Commitee 1 / Sub Commitee 29: International Organization for Standardization /
International Electrotechnical Commission Joint Technical Committee 1 / Specialized Subcommittee 2
9) This is an abbreviation of the organization for studying the video coding for storage in 9).
There are ISO11172 as the PEG1 standard and ISO13818 as the MPEG2 standard. In these international standards, in the item of system multiplexing, ISO117172-1
And ISO13818-1 are ISO117172-2 and ISO138 in the item of video encoding (MPEG video).
18-2 is an item of audio encoding (MPEG audio), and ISO11172-3 and ISO13818-3 are
Each is standardized.

【0003】[0003]

【発明が解決しようとする課題】上記の同期化方法で
は、入力した信号の同期信号のタイミングで基準カウン
タの時刻を取得するため、フレームシンクロナイザなど
の可変の遅延要素が信号に狭まれた場合には、映像の時
刻情報を完全に入力信号に合わせると音声との同期をと
るのが難しく、符号化または復号化時に複雑な処理をし
なくてはならない。
In the above-mentioned synchronization method, the time of the reference counter is obtained at the timing of the synchronization signal of the input signal. Therefore, when the variable delay element such as the frame synchronizer is narrowed down to the signal, It is difficult to synchronize the audio with the audio if the time information of the video is completely matched with the input signal, and complicated processing must be performed at the time of encoding or decoding.

【0004】しかし、今後、MPEG等の符号化器を搭
載した民生機器が登場すると、外部入力としての非標準
信号が入力される状況も必然となり、フレームシンクロ
ナイザなどの同期化手段は必須となってくるはずであ
る。
[0004] However, in the future, when a consumer device equipped with an encoder such as MPEG appears, a situation where a non-standard signal is input as an external input is inevitable, and a synchronization means such as a frame synchronizer is indispensable. Should come.

【0005】そこで、本発明はこのような状況に鑑みて
なされたものであり、フレームシンクロナイザなどの可
変遅延要素がある場合において、映像と音声の遅延を視
聴覚上問題ない範囲に規定することにより、簡単に映像
と音声の同期化を実現する映像音声同期化方法と、簡単
な構成で映像と音声の同期化を実現でき、更にフレーム
シンクロナイザの情報を符号化の画質や復号化時の変速
再生に応用可能な映像音声信号記録再生装置を提供する
ことを目的とする。
Accordingly, the present invention has been made in view of such circumstances, and in the case where there is a variable delay element such as a frame synchronizer, the delay between video and audio is defined within a range in which there is no audiovisual problem. A video and audio synchronization method that easily synchronizes video and audio, and video and audio synchronization can be realized with a simple configuration.Furthermore, the information of the frame synchronizer can be used for encoding image quality and variable-speed playback during decoding. It is an object of the present invention to provide an applicable video / audio signal recording / reproducing apparatus.

【0006】[0006]

【課題を解決するための手段】本発明の映像音声同期化
方法は、入力された映像信号を基準同期信号に同期化さ
せる可変遅延処理を有するものであって、可変遅延処理
による映像の遅延時間を1フレーム以内に制御し、映像
信号の基準同期タイミングから映像の時刻情報を算出
し、音声信号の基準同期と映像信号の基準同期タイミン
グとから音声の時刻情報を算出し、これら時刻情報を映
像,音声信号と共に多重化し、記録或いは伝送された多
重化信号から映像,音声信号及び時刻情報を分離し、こ
の分離した時刻情報に基づいて映像と音声の同期をとる
ことにより、上述した課題を解決するものである。
A video / audio synchronizing method according to the present invention includes a variable delay process for synchronizing an input video signal with a reference synchronization signal. Within one frame, calculate video time information from the reference synchronization timing of the video signal, calculate audio time information from the reference synchronization of the audio signal and the reference synchronization timing of the video signal, and In order to solve the above-mentioned problem, video and audio signals and time information are separated from the multiplexed signal recorded or transmitted by multiplexing with the audio signal, and the video and audio are synchronized based on the separated time information. Is what you do.

【0007】また、本発明の映像音声信号記録再生装置
は、入力された映像信号を基準同期信号に同期化する可
変遅延手段を有するものであって、可変遅延手段による
遅延時間を映像信号の1フレーム以内に制御する手段
と、映像信号の基準同期タイミングから映像の時刻情報
を算出する手段と、音声信号の基準同期と映像信号の基
準同期タイミングとから音声の時刻情報を算出する手段
と、算出した時刻情報を映像,音声信号と共に多重化す
る手段と、記録媒体に対して多重化信号の記録再生を行
う手段と、記録媒体から再生された多重化信号から映
像,音声信号及び時刻情報を分離する手段と、分離した
時刻情報に基づいて映像信号と音声信号の同期をとる手
段とを有することにより、上述した課題を解決するもの
である。
Further, the video / audio signal recording / reproducing apparatus of the present invention has variable delay means for synchronizing an input video signal with a reference synchronizing signal. Means for controlling within a frame; means for calculating video time information from the reference synchronization timing of the video signal; means for calculating time information of audio from the reference synchronization of the audio signal and the reference synchronization timing of the video signal; Means for multiplexing the time information with the video and audio signals, means for recording and reproducing the multiplexed signal on the recording medium, and separation of the video, audio signal and time information from the multiplexed signal reproduced from the recording medium. The above-mentioned problem is solved by having means for performing synchronization of a video signal and an audio signal based on separated time information.

【0008】すなわち、本発明の映像音声同期化方法及
び映像音声信号記録再生装置によれば、映像の可変遅延
処理を行う手段(フレームシンクロナイザ)による遅延
時間が0〜1フレームと任意に変化したときでも、音声
系に回路の追加無しに、映像の基準同期タイミングと音
声の基準同期タイミングから一義的に算出した時刻情報
のみで、視聴覚上問題ない範囲での映像と音声の同期化
を簡易に図ることができる。
That is, according to the video / audio synchronization method and the video / audio signal recording / reproducing apparatus of the present invention, when the delay time of the means (frame synchronizer) for performing the variable delay processing of the video arbitrarily changes from 0 to 1 frame. However, without adding a circuit to the audio system, it is possible to simply synchronize the video and the audio within a range where there is no audiovisual problem, using only the time information uniquely calculated from the reference synchronization timing of the video and the reference synchronization timing of the audio. be able to.

【0009】また、本発明の映像音声同期化方法及び映
像音声信号記録再生装置においては、多重化前に例えば
MPEGのような時間軸上の圧縮(前後のフレーム間差
分)を用いるような符号化を行う場合に、映像の可変遅
延処理を行う手段(フレームシンクロナイザ)によるフ
レーム飛び情報又はフレーム繰り返し情報を検出し、こ
の情報により符号化のパラメータをリアルタイムに変化
させることで、画質の改善を図るようにしている。
In the video / audio synchronizing method and the video / audio signal recording / reproducing apparatus according to the present invention, encoding is performed using compression on the time axis (difference between preceding and following frames) such as MPEG before multiplexing. In this case, the image quality is improved by detecting frame skip information or frame repetition information by means for performing a variable delay process (frame synchronizer) of video and changing coding parameters in real time based on this information. I have to.

【0010】さらに、本発明の映像音声同期化方法及び
映像音声信号記録再生装置においては、映像の可変遅延
処理を行う手段(フレームシンクロナイザ)によるフレ
ーム飛び情報又はフレーム繰り返し情報を検出し、この
情報も映像,音声信号等と同様に多重化することによ
り、変速再生時の付加情報としてこれらフレーム飛び情
報又はフレーム繰り返し情報を用い、スロウ再生やフレ
ーム送り再生などの品質を上げ得るようにしている。
Further, in the video / audio synchronizing method and the video / audio signal recording / reproducing apparatus of the present invention, frame skip information or frame repetition information is detected by a means (frame synchronizer) for performing a variable delay process on video, and this information is also detected. By multiplexing in the same manner as video and audio signals, the frame skip information or the frame repetition information is used as additional information during variable speed reproduction, so that the quality of slow reproduction and frame forward reproduction can be improved.

【0011】[0011]

【発明の実施の形態】以下、本発明の好ましい実施の形
態について、図面を参照しながら説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below with reference to the drawings.

【0012】図1には、本発明の映像音声同期化方法及
び映像音声信号記録再生装置が適用される一実施の形態
として、ディスクレコーダの構成を示す。
FIG. 1 shows the configuration of a disk recorder as an embodiment to which the video / audio synchronization method and the video / audio signal recording / reproducing apparatus of the present invention are applied.

【0013】この図1において、指示符号10にて示す
構成要素は、当該ディスクレコーダの操作パネル上に設
けられた各種キー(Key)と、これら各種キーの何れ
かを操作者が指にて押圧したときに当該押圧されたキー
に対応した電圧を出力する抵抗ラダー回路とからなる
(以下、当該構成をキー回路と呼ぶ)。このキー回路1
0からのキー押圧に応じた出力データは、マイクロコン
ピュータ(以下、マイコンと略称する)11へ供給され
る。ここで、上記各種キーのうち、例えば記録のキーが
押圧されると、マイコン11は、そのキーの押圧に対応
する電圧から記録開始の指示がなされたとの判断をし
て、記録動作を開始させる。なお、マイコン11は、以
下の記録時の一連のデバイス制御を全て行っている。
In FIG. 1, components indicated by reference numeral 10 are various keys (Key) provided on an operation panel of the disc recorder, and an operator presses any of these various keys with a finger. And a resistor ladder circuit that outputs a voltage corresponding to the pressed key when the key is pressed (hereinafter, the configuration is referred to as a key circuit). This key circuit 1
Output data corresponding to a key press from 0 is supplied to a microcomputer (hereinafter abbreviated as a microcomputer) 11. Here, for example, when a recording key is pressed among the various keys, the microcomputer 11 determines that a recording start instruction has been given from a voltage corresponding to the pressing of the key, and starts the recording operation. . The microcomputer 11 performs all of the following series of device controls during recording.

【0014】S映像入力端子12から入力されたS映像
信号は、V−A/D回路13で同期分離やNTSCクロ
マデコードなどのアナログ処理を施された後、YUVデ
ィジタル信号にそれぞれA/D(アナログ/ディジタ
ル)変換され、フレームシンクロナイザ14に入力され
る。また、上記V−A/D回路13で同期分離された同
期信号(VFR−ext)21は入力に同期した信号で
あり、フレームシンクロナイザ14の入力側の制御信号
となる。
The S video signal input from the S video input terminal 12 is subjected to analog processing such as synchronization separation and NTSC chroma decoding by a VA / D circuit 13, and then A / D (Y / D) is converted to a YUV digital signal. (Analog / Digital) conversion and input to the frame synchronizer 14. The synchronization signal (VFR-ext) 21 synchronized and separated by the VA / D circuit 13 is a signal synchronized with the input, and serves as a control signal on the input side of the frame synchronizer 14.

【0015】一方、タイミングジェネレータ(TG)2
4で27MHzの水晶発振子からフリーランに作られた
同期信号(VFR−int)22は、映像信号用の内部
の基準同期信号であり、フレームシンクロナイザ14の
出力側の制御信号となる。上記同期信号(VFR−in
t)22に同期してフレームシンクロナイザ14から出
力されたYUV信号は、MPEG−Vエンコーダ15に
入力されて、MPEGビデオの信号に符号化され、内部
のコードバッファ内に蓄積される。
On the other hand, a timing generator (TG) 2
The synchronization signal (VFR-int) 22 generated free from the 27 MHz crystal oscillator in step 4 is an internal reference synchronization signal for a video signal, and serves as a control signal on the output side of the frame synchronizer 14. The synchronization signal (VFR-in
t) The YUV signal output from the frame synchronizer 14 in synchronization with 22 is input to the MPEG-V encoder 15, encoded into an MPEG video signal, and stored in an internal code buffer.

【0016】また、L(左),R(右)のステレオ音声
信号は、音声信号入力端子16L、16Rから入力され
て、A−A/D回路17でフィルタリング後、A/D変
換されてMPEG−Aエンコーダ18に供給される。M
PEG−Aエンコーダ18では、タイミングジェネレー
タ(TG)24で44.1KHzから作られた音声符号
化用の同期信号(AFR−int)23に同期して、M
PEGオーディオの信号に符号化され、内部のコードバ
ッファ内に蓄積される。
The L (left) and R (right) stereo audio signals are input from audio signal input terminals 16L and 16R, are filtered by an A / A / D circuit 17, are A / D converted, and are MPEG-converted. -A Encoder 18 is supplied. M
The PEG-A encoder 18 synchronizes with a synchronizing signal (AFR-int) 23 for speech encoding generated from 44.1 KHz by a timing generator (TG) 24 and
It is encoded into a PEG audio signal and stored in an internal code buffer.

【0017】そして映像、音声それぞれの符号化コード
は、マルチプレクサ(MUX)19において、MPEG
システムのプログラムストリーム(Program Stream:P
S)に準拠してヘッダ付加と多重化の処理が施され、記
録用バッファ(WBUF)20へ蓄積される。またこの
時のマルチプレクサ19では、基準時刻カウンタ(Re
cSTC)25にて上記同期信号(VFR−int)2
2と同期信号(AFR−int)23のタイミングでラ
ッチされた時刻にフレームシンクロナイザ用処理を行っ
た時刻情報も、それぞれPES(Packetized Elementar
y Stream)ヘッダの中に表示時刻PTS(Presentation
Time Stamp)とデコード時刻DTS(Decoding Time S
tamp)として多重化する。この処理の詳細は、後ほど説
明する。
The encoded codes of the video and audio are converted by a multiplexer (MUX) 19 into an MPEG code.
System Program Stream (P
The header addition and the multiplexing process are performed in accordance with S), and the data are accumulated in the recording buffer (WBUF) 20. At this time, the multiplexer 19 outputs the reference time counter (Re)
cSTC) 25 and the synchronization signal (VFR-int) 2
2 and the time information at which the frame synchronizer processing was performed at the time latched at the timing of the synchronization signal (AFR-int) 23, respectively, is also a PES (Packetized Elementar).
y Stream) header contains the display time PTS (Presentation
Time Stamp) and decoding time DTS (Decoding Time S)
tamp). Details of this processing will be described later.

【0018】最後に記録用バッファ(WBUF)20に
蓄積されたMPEGビットストリームは、ディスクドラ
イブ26の要求に応じて転送され記録媒体としてのディ
スクに記録される。なお、ディスクとしては、光ディス
クやハードディスクなどが考えられる。
Finally, the MPEG bit stream stored in the recording buffer (WBUF) 20 is transferred in response to a request from the disk drive 26 and recorded on a disk as a recording medium. In addition, an optical disk, a hard disk, or the like can be used as the disk.

【0019】次に、再生動作を説明する。Next, the reproducing operation will be described.

【0020】記録時同様、前記各種キーのうち、例えば
再生のキーが押圧されると、マイコン11は、その再生
のキーの押圧に対応する電圧から再生開始が指示された
と判断して再生動作を開始する。なお、マイコン11
は、以下の再生時の一連のデバイス制御をも全て行って
いる。
As in the case of recording, when the reproduction key is pressed, for example, among the various keys, the microcomputer 11 determines that the reproduction start is instructed from the voltage corresponding to the pressing of the reproduction key, and performs the reproduction operation. Start. The microcomputer 11
Performs all of the following series of device controls during playback.

【0021】この再生動作が開始すると、ディスクに記
録されたMPEGビットストリームは、ディスクドライ
ブ26の準備が整い次第、再生されて再生用バッファ
(RBUF)27に順次蓄積されていく。
When this reproducing operation is started, the MPEG bit stream recorded on the disk is reproduced and stored in the reproducing buffer (RBUF) 27 as soon as the disk drive 26 is ready.

【0022】上記再生用バッファ(RBUF)27に蓄
積されたビットストリームは、MPEGシステムに準じ
てデマルチプレクサ(DMUX)28に入力され、ここ
でヘッダの解析後、映像、音声に分離されてそれぞれの
デコーダすなわち映像用のMPEG−Vデコーダ29
と、音声用のMPEG−Aデコーダ33内のコードバッ
ファへと蓄積される。各コードバッファ内の符号化コー
ドは、上記ヘッダ解析で得られた上記デコード時刻DT
S,表示時刻PTSとの位相管理が行われ、再生用の基
準時刻カウンタ(PbSTC)37の時刻と一致したと
きにそれぞれのMPEGデコーダで符号化が行われる。
実際は、デコード時刻DTS,表示時刻PTSの各時刻
に、基準時刻カウンタ(PbSTC)37が映像/音声
それぞれの同期信号(VFR−pb)30,(AFR−
pb)34を発生させて処理のタイミングを図る事にな
る。
The bit stream stored in the reproduction buffer (RBUF) 27 is input to a demultiplexer (DMUX) 28 in accordance with the MPEG system, where the header is analyzed and then separated into video and audio. Decoder, MPEG-V decoder 29 for video
Are stored in a code buffer in the MPEG-A decoder 33 for audio. The encoded code in each code buffer is the decoding time DT obtained by the header analysis.
S, the phase management with the display time PTS is performed, and when the time matches the time of the reproduction reference time counter (PbSTC) 37, the encoding is performed by the respective MPEG decoders.
Actually, at each of the decode time DTS and the display time PTS, the reference time counter (PbSTC) 37 outputs the synchronization signals (VFR-pb) 30, (AFR-
pb) 34 is generated to determine the timing of the processing.

【0023】MPEG−Vデコーダ29は、内部同期信
号(VFR−pb)30に同期して動作し、復号化され
たYUVデータはV−D/A回路31に入力される。V
−D/A回路31では、YUVデータそれぞれをD/A
(ディジタル/アナログ)変換処理してアナログ信号に
変換した後、NTSCクロマエンコードや同期付加等の
アナログ処理を施し、得られたS映像信号がS映像出力
端子32から出力される。
The MPEG-V decoder 29 operates in synchronization with the internal synchronization signal (VFR-pb) 30, and the decoded YUV data is input to the VD / A circuit 31. V
The D / A circuit 31 converts each of the YUV data into a D / A
After performing (digital / analog) conversion processing to convert the analog signal to an analog signal, analog processing such as NTSC chroma encoding and synchronization addition is performed, and the obtained S video signal is output from the S video output terminal 32.

【0024】また、MPEG−Aデコーダ33は、内部
同期信号(AFR−pb)34に同期して動作し、復号
化された音声信号はA−D/A回路35に入力される。
A−D/A回路35では、ステレオのL(左),R
(右)それぞれの信号をD/A変換処理してアナログ信
号に変換し、これらアナログ信号はその後、フィルタリ
ングなどのアナログ処理が施されてステレオ音声信号と
して音声信号出力端子36L、36Rから出力される。
The MPEG-A decoder 33 operates in synchronization with the internal synchronizing signal (AFR-pb) 34, and the decoded audio signal is input to the AD / A circuit 35.
In the AD / A circuit 35, the stereo L (left), R
(Right) Each signal is D / A converted and converted into an analog signal. These analog signals are then subjected to analog processing such as filtering and output from the audio signal output terminals 36L and 36R as stereo audio signals. .

【0025】次に、上述した一実施の形態の構成におけ
るフレームシンクロナイザ14の制御について、図1の
フレームシンクロナイザ14を抜き出して示す図2と、
図3に示すタイミングチャートを参照して説明する。な
お、図3のタイミングチャートは、説明を分かり易くす
るために、通常ではあり得ないかなり大きな周波数変動
で描いてある。また、図3中の番号1,2,3,4,・
・・は、それぞれフレームを示している。
Next, the control of the frame synchronizer 14 in the configuration of the above-described embodiment will be described with reference to FIG.
This will be described with reference to the timing chart shown in FIG. Note that the timing chart of FIG. 3 is drawn with a rather large frequency variation that cannot be normally obtained, in order to make the description easy to understand. Also, the numbers 1, 2, 3, 4,.
Indicates a frame.

【0026】図2に示すフレームシンクロナイザ14
は、通常、フレームメモリを利用してクロック及び同期
タイミングの乗り換えを行う回路であり、非標準信号や
ジッタのある信号を標準信号に変換して、更に所望のフ
レーム同期タイミングに合わせるために使用する。よっ
て、フレームシンクロナイザ14の入力と出力は完全に
非同期でクロックも位相が異なるため、ある周期で出力
の1フレームを抜いたり繰り返したりして時間調整をす
る必要がでてくる。この図2の例では、映像入力信号と
同期している外部同期信号(VFR−ext)21と、
フレームシンクロナイザ14の出力信号と同期している
基準内部同期信号(VFR−int)22とが完全に非
同期であり、また、外部クロック(CLK)と内部クロ
ックも位相が異なっている。
The frame synchronizer 14 shown in FIG.
Is a circuit for switching clocks and synchronization timings using a frame memory, and is used to convert a non-standard signal or a signal with jitter to a standard signal and further adjust the timing to a desired frame synchronization timing. . Therefore, since the input and output of the frame synchronizer 14 are completely asynchronous and the clocks have different phases, it is necessary to adjust the time by removing or repeating one frame of the output in a certain cycle. In the example of FIG. 2, an external synchronization signal (VFR-ext) 21 synchronized with the video input signal,
The reference internal synchronization signal (VFR-int) 22 synchronized with the output signal of the frame synchronizer 14 is completely asynchronous, and the phases of the external clock (CLK) and the internal clock are different.

【0027】図3において、OUT1に示すタイミング
は入力された外部同期信号(VFR−ext)21より
も内部基準同期信号(VFR−int)22の方が周波
数が微妙に高い場合を示しており、この場合は入力され
た外部同期信号(VFR−ext)21と内部の同期信
号(VFR−int)22の位相差が0フレーム以下に
短くなったら、1フレームを繰り返す処理を行う。図3
の例では、番号5のフレームを繰り返した様子を示して
いる。
In FIG. 3, the timing indicated by OUT1 shows a case where the frequency of the internal reference synchronization signal (VFR-int) 22 is slightly higher than that of the input external synchronization signal (VFR-ext) 21, In this case, when the phase difference between the input external synchronizing signal (VFR-ext) 21 and the internal synchronizing signal (VFR-int) 22 becomes shorter than 0 frame, processing for repeating one frame is performed. FIG.
In the example, the frame of the number 5 is repeated.

【0028】また、図3のOUT2に示すタイミング
は、入力された外部同期信号(VFR−ext)21よ
りも内部基準同期信号(VFR−int)22の方が周
波数が微妙に低い場合を示しており、この場合は入力の
外部同期信号(VFR−ext)21と内部の同期信号
(VFR−int)22の位相差が1フレーム以上長く
なったら、1フレームを抜く処理を行う。図3の例で
は、番号6のフレームを抜いた様子を示している。
The timing shown at OUT2 in FIG. 3 shows a case where the frequency of the internal reference synchronization signal (VFR-int) 22 is slightly lower than that of the input external synchronization signal (VFR-ext) 21. In this case, if the phase difference between the input external synchronizing signal (VFR-ext) 21 and the internal synchronizing signal (VFR-int) 22 becomes longer than one frame, a process of removing one frame is performed. The example of FIG. 3 shows a state in which the frame of number 6 is omitted.

【0029】以上のような制御により、入力信号と出力
信号の位相関係は必ず0〜1フレームの遅延となる。
With the above control, the phase relationship between the input signal and the output signal is always delayed by 0 to 1 frame.

【0030】次に、上述した一実施の形態の構成におい
て多重化する時刻情報の生成方法について、図1の一部
を抜き出して示す図4のブロック図を参照して説明す
る。
Next, a method of generating time information to be multiplexed in the configuration of the above-described embodiment will be described with reference to a block diagram of FIG.

【0031】フレームシンクロナイザ14の入力から出
力への映像信号の遅延時間が上述のように0〜1フレー
ムという事は、入力された音声信号とフレームシンクロ
ナイザ14から出力された映像信号との遅延時間も0〜
1フレームという事になる。そこで、音声の時刻情報
(A−PTS)をマルチプレクサ19にて多重化する前
に、マイコン11内部の加算器30によって、下記式
(1)のように、上記音声の時刻情報(A−PTS)に
内部基準同期の1フレーム分の時間(dVFR−in
t)を予め加算しておくようにする。こうすることによ
り、入力された音声信号とフレームシンクロナイザ14
から出力された映像信号との遅延時間が、タイムスタン
プ上では−1〜0フレームとなる。
The delay time of the video signal from the input to the output of the frame synchronizer 14 being 0 to 1 frame as described above means that the delay time between the input audio signal and the video signal output from the frame synchronizer 14 also increases. 0 to
That is, one frame. Therefore, before the audio time information (A-PTS) is multiplexed by the multiplexer 19, the adder 30 in the microcomputer 11 calculates the audio time information (A-PTS) as shown in the following equation (1). Is the time for one frame of the internal reference synchronization (dVFR-in
t) is added in advance. By doing so, the input audio signal and the frame synchronizer 14
The delay time from the video signal output from the time stamp is -1 to 0 frames on the time stamp.

【0032】 A−PTS’=A−PTS+dVFR−int (1) これは、映像に対して音声が時間的に進んでいるより遅
れている方が視聴覚上目立たないためであり、映像1フ
レーム(33.3ms)以内の音声の遅延ならば十分許
容できるはずである。
A-PTS '= A-PTS + dVFR-int (1) This is because the audio signal is delayed more visually than the video image in time, and is less noticeable in the visual sense. .3ms) should be well tolerated.

【0033】上述のように、予め多重化時にこの処理を
することで、再生分離時は通常時と同様に単に時刻情報
だけを見て復号化/出力すればよい。
As described above, by performing this processing at the time of multiplexing in advance, decoding / output can be performed by simply looking at only time information at the time of reproduction / separation as in the normal case.

【0034】なお、本発明は上述した実施の形態にのみ
限定されるものではなく、例えば、図5、図6のような
応用が考えられる。なお、図5,図6は、図1の構成の
必要な部分のみを抜き出して示している。
It should be noted that the present invention is not limited to the above-described embodiment, but can be applied to, for example, FIGS. 5 and 6 show only necessary parts of the configuration shown in FIG.

【0035】図5は、MPEG−Vエンコーダ15のパ
ラメータ制御への応用を示すブロック図である。この図
5において、フレームシンクロナイザ14で出力の1フ
レームを抜いたり、繰り返したりした情報はリアルタイ
ムにマイコン11に送られる。マイコン11では、その
情報を元にMPEG−Vエンコーダ15の符号化パラメ
ータをダイナミックに制御する。
FIG. 5 is a block diagram showing an application of the MPEG-V encoder 15 to parameter control. In FIG. 5, the information obtained by skipping or repeating one frame output by the frame synchronizer 14 is sent to the microcomputer 11 in real time. The microcomputer 11 dynamically controls the encoding parameters of the MPEG-V encoder 15 based on the information.

【0036】例えば、フレームシンクロナイザ14にお
いて、フレームが繰り返されたときには、その繰り返さ
れたフレームの映像が全く前回のフレームと同じ映像な
ので、マイコン11はこのフレームを例えばMPEGに
おけるPピクチャにして動きベクトルを0に固定するよ
うな制御をする。一方で、フレームシンクロナイザ14
において、フレームが抜かれたときには、このフレーム
が抜かれた直後のフレームと前のフレームとの間で時間
的距離が倍になっているため、マイコン11は、それに
応じて動きベクトルの探索範囲などを増やすような制御
を行う。
For example, when a frame is repeated in the frame synchronizer 14, since the image of the repeated frame is exactly the same as the previous frame, the microcomputer 11 sets this frame to a P picture in MPEG, for example, and sets the motion vector as a motion vector. Control is performed so as to be fixed to 0. On the other hand, the frame synchronizer 14
In the above, when a frame is skipped, the temporal distance between the frame immediately after the frame is skipped and the previous frame is doubled, and the microcomputer 11 increases the motion vector search range and the like accordingly. Such control is performed.

【0037】この図5の例の場合、上述のようなパラメ
ータ制御を行うことにより、画質の向上を図ることがで
きる。
In the case of the example shown in FIG. 5, the image quality can be improved by performing the above-described parameter control.

【0038】図6は、変速再生の表示制御への応用を示
すブロック図である。この図6の構成では、表示コント
ローラ40が新たに設けられている。
FIG. 6 is a block diagram showing an application of variable speed reproduction to display control. In the configuration of FIG. 6, a display controller 40 is newly provided.

【0039】この図6において、先ず記録系では、フレ
ームシンクロナイザ14で出力の1フレームを抜いた
り、繰り返したりした情報をマイコン11に送り、また
映像信号との位相を合わせて時刻情報と一緒にマルチプ
レクサ19にて多重化する。再生系では、多重化されて
いるフレーム抜け/繰り返し情報を分離してマイコン1
1に送り、マイコン11はその情報に応じてMPEG−
Vデコーダ29と表示コントローラ40を制御すること
で、変速再生の制御方法をダイナミックに変化させる。
In FIG. 6, first, in the recording system, information obtained by extracting or repeating one frame of the output by the frame synchronizer 14 is sent to the microcomputer 11, and the multiplexer is combined with the time information by matching the phase with the video signal. Multiplex at 19. In the reproduction system, the multiplexed frame missing / repeated information is separated and the microcomputer 1
1 and the microcomputer 11 sends the MPEG-
By controlling the V decoder 29 and the display controller 40, the control method of variable speed reproduction is dynamically changed.

【0040】例えば、スロー再生や、フレーム送り再生
の時に、フレーム繰り返しポイントがあった場合、マイ
コン11は、繰り返しフレームをスキップさせて表示さ
せるように、MPEG−Vデコーダ29と表示コントロ
ーラ40を制御する。一方で、フレーム抜かれたポイン
トがあった場合、マイコン11は、前後のフレームから
補間してフレームを作成して表示するように、MPEG
−Vデコーダ29と表示コントローラ40を制御する。
For example, when there is a frame repetition point during slow reproduction or frame-by-frame reproduction, the microcomputer 11 controls the MPEG-V decoder 29 and the display controller 40 so that the repetition frame is skipped and displayed. . On the other hand, when there is a point where a frame has been omitted, the microcomputer 11 creates a frame by interpolating from the previous and next frames and displays the frame.
-Control the V decoder 29 and the display controller 40.

【0041】なお、上記変速再生時は音声の再生を行わ
ない場合がほとんどなので、映像と音声の同期を考える
必要がないため、このような純粋に原映像信号に忠実な
制御を行うことにより、変速再生の品質向上を図ること
ができる。
It should be noted that since the audio is not reproduced during the variable speed reproduction in most cases, there is no need to consider the synchronization between the video and the audio. Therefore, by performing such purely faithful control on the original video signal, The quality of variable speed reproduction can be improved.

【0042】以上説明したようなことから、本発明の実
施の形態によれば、以下のような効果が得られる。
As described above, according to the embodiment of the present invention, the following effects can be obtained.

【0043】1.簡単な手段で映像入力にフレームシン
クロナイザを入れたときの映像と音声を視聴覚上問題の
ない範囲で同期再生させる時刻情報を生成できる。
1. It is possible to generate time information for synchronizing and reproducing the video and audio when a frame synchronizer is inserted in the video input within a range where there is no audiovisual problem by simple means.

【0044】2.音声系、及び再生系には特別な回路を
必要としないで、フレームシンクロナイザを入れたとき
の映像と音声の同期化が実現できる。
2. Synchronization of video and audio when a frame synchronizer is inserted can be realized without requiring a special circuit in the audio system and the reproduction system.

【0045】3.最小限の追加手段で、符号化の画質改
善や、変速再生時の品質向上が図れる。
3. With the minimum additional means, it is possible to improve the image quality of encoding and the quality at the time of variable speed reproduction.

【0046】[0046]

【発明の効果】以上の説明で明らかなように、本発明に
おいては、映像の可変遅延処理を行う手段(フレームシ
ンクロナイザ)による遅延時間が0〜1フレームと任意
に変化したときでも、映像の基準同期タイミングと音声
の基準同期タイミングから一義的に算出した時刻情報の
みを用いることで、簡単な方法及び構成で(音声系に回
路の追加無しに)、視聴覚上問題ない範囲での映像と音
声の同期化を簡易に図ることができる。また、本発明に
おいては、映像の可変遅延処理を行う手段(フレームシ
ンクロナイザ)の情報を符号化の画質向上や、復号化時
の変速再生の制御にも応用可能としている。
As is apparent from the above description, according to the present invention, even when the delay time of the means (frame synchronizer) for performing the variable delay processing of the video is arbitrarily changed from 0 to 1 frame, the reference of the video is not changed. By using only the time information uniquely calculated from the synchronization timing and the reference synchronization timing of the audio, a simple method and configuration (without adding a circuit to the audio system) allows the video and audio of the audiovisual range to be within a range without any problem. Synchronization can be easily achieved. Further, in the present invention, the information of the means (frame synchronizer) for performing the variable delay processing of the video can be applied to the improvement of the image quality of encoding and the control of variable speed reproduction at the time of decoding.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施の形態としてのディスクレコー
ダの概略構成を示すブロック回路図である。
FIG. 1 is a block circuit diagram showing a schematic configuration of a disk recorder as one embodiment of the present invention.

【図2】本発明実施の形態の構成のフレームシンクロナ
イザ部分を抜き出して示す図である。
FIG. 2 is a diagram illustrating a frame synchronizer of the configuration according to the embodiment of the present invention;

【図3】本発明実施の形態の構成におけるフレームシン
クロナイザの制御を示すタイミングチャートである。
FIG. 3 is a timing chart showing control of the frame synchronizer in the configuration of the embodiment of the present invention.

【図4】本発明実施の形態の構成において多重化する時
刻情報の生成方法の説明に用いる図である。
FIG. 4 is a diagram used to describe a method of generating time information to be multiplexed in the configuration of the embodiment of the present invention.

【図5】本発明実施の形態のMPEGエンコーダのパラ
メータ制御への応用を示すブロック回路図である。
FIG. 5 is a block circuit diagram showing an application of the MPEG encoder of the present invention to parameter control.

【図6】本発明実施の形態のディスクレコーダにおいて
変速再生の表示制御への応用を示すブロック回路図であ
る。
FIG. 6 is a block circuit diagram showing application to display control of variable-speed reproduction in the disk recorder according to the embodiment of the present invention.

【符号の説明】[Explanation of symbols]

10 キー回路、 11 マイコン、 12 S映像信
号入力端子、 13V−A/D回路、 14 フレーム
シンクロナイザ、 15 MPEG−Vエンコーダ、
16L、16R ステレオ音声信号入力端子、 17
A−A/D回路、 18 MPEG−Aエンコーダ、
19 マルチプレクサ(MUX)、20 記録用バッフ
ァ(WBUF)、 21 外部映像同期信号(VFR−
ext)、 22 内部映像同期信号(VFR−in
t)、 23 内部音声同期信号(AFR−int)、
24 タイミングジェネレータ(TG)、 25 記
録用基準時刻カウンタ(RecSTC)、 26 ディ
スクドライブ、 27再生用バッファ(RBUF)、
28 デマルチプレクサ(DMUX)、 29MPEG
−Vデコーダ、 30 再生映像同期信号(VFR−p
b)、 31V−D/A回路、 32 S映像信号出力
端子、 33 MPEG−Aデコーダ、 34 再生音
声同期信号(AFR−pb)、 35 A−D/A回
路、36L、36R ステレオ音声信号出力端子、 3
7 再生用基準時刻カウンタ(PbSTC)
10 key circuit, 11 microcomputer, 12 S video signal input terminal, 13 V-A / D circuit, 14 frame synchronizer, 15 MPEG-V encoder,
16L, 16R stereo audio signal input terminal, 17
A-A / D circuit, 18 MPEG-A encoder,
19 Multiplexer (MUX), 20 Recording buffer (WBUF), 21 External video synchronization signal (VFR-
ext), 22 Internal video synchronization signal (VFR-in)
t), 23 internal audio synchronization signal (AFR-int),
24 timing generator (TG), 25 recording reference time counter (RecSTC), 26 disk drive, 27 reproduction buffer (RBUF),
28 Demultiplexer (DMUX), 29MPEG
-V decoder, 30 playback video synchronization signal (VFR-p
b), 31 V-D / A circuit, 32 S video signal output terminal, 33 MPEG-A decoder, 34 playback audio synchronization signal (AFR-pb), 35 A-D / A circuit, 36 L, 36 R stereo audio signal output terminal , 3
7 Reproduction reference time counter (PbSTC)

───────────────────────────────────────────────────── フロントページの続き (72)発明者 冨田 真巳 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 水藤 太郎 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 宮田 勝成 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 長徳 弘一 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Mami Tomita 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Taro Mizuto 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo No. 72 Inside Sony Corporation (72) Katsunari Miyata 6-7-35 Kita Shinagawa, Shinagawa-ku, Tokyo Sonny Corporation (72) Koichi Nagatoku 6-35 Kita Shinagawa, Shinagawa-ku, Tokyo Soniー Inc.

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 入力された映像信号を基準同期信号に同
期化させる可変遅延処理を有する映像音声同期化方法に
おいて、 上記可変遅延処理による映像の遅延時間を1フレーム以
内に制御し、 映像信号の基準同期タイミングから映像の時刻情報を算
出し、 音声信号の基準同期と映像信号の基準同期タイミングと
から音声の時刻情報を算出し、 上記算出した時刻情報を映像,音声信号と共に多重化し
た多重化信号を生成し、 記録或いは伝送された上記多重化信号から上記映像,音
声信号及び時刻情報を分離し、 上記分離した時刻情報に基づいて映像と音声の同期をと
ることを特徴とする映像音声同期化方法。
1. A video / audio synchronization method having a variable delay process for synchronizing an input video signal with a reference synchronization signal, wherein a video delay time due to the variable delay process is controlled within one frame. Video time information is calculated from the reference synchronization timing, audio time information is calculated from the audio signal reference synchronization and the video signal reference synchronization timing, and the calculated time information is multiplexed with the video and audio signals. Generating a signal, separating the video, audio signal and time information from the recorded or transmitted multiplexed signal, and synchronizing video and audio based on the separated time information. Method.
【請求項2】 上記多重化前の映像,音声信号を時間軸
上で圧縮して符号化し、 上記可変遅延処理によるフレーム飛び情報又はフレーム
繰り返し情報を検出し、 上記検出したフレーム飛び情報又はフレーム繰り返し情
報に基づいて上記符号化のパラメータを制御することを
特徴とする請求項1記載の映像音声同期化方法。
2. The video and audio signals before multiplexing are compressed and encoded on a time axis, and frame jump information or frame repetition information by the variable delay processing is detected. 2. The video / audio synchronization method according to claim 1, wherein said encoding parameters are controlled based on information.
【請求項3】 上記可変遅延処理によるフレーム飛び情
報又はフレーム繰り返し情報を検出し、 上記フレーム飛び情報又はフレーム繰り返し情報をも多
重化し、 記録或いは伝送された上記多重化信号から上記フレーム
飛び情報又はフレーム繰り返し情報をも分離し、 この分離したフレーム飛び情報又はフレーム繰り返し情
報に基づいて変速再生時の制御を行うことを特徴とする
請求項1記載の映像音声同期化方法。
3. The frame skip information or frame repetition information by the variable delay processing is detected, the frame skip information or frame repetition information is also multiplexed, and the frame skip information or frame is obtained from the recorded or transmitted multiplexed signal. 2. The video / audio synchronizing method according to claim 1, wherein repetition information is also separated, and control during variable speed reproduction is performed based on the separated frame skip information or frame repetition information.
【請求項4】 入力された映像信号を基準同期信号に同
期化させる可変遅延手段を有する映像音声信号記録再生
装置において、 上記可変遅延手段による映像信号の遅延時間を1フレー
ム以内に制御する遅延時間制御手段と、 映像信号の基準同期タイミングから映像の時刻情報を算
出する映像時刻情報算出手段と、 音声信号の基準同期と映像信号の基準同期タイミングと
から音声の時刻情報を算出する音声時刻情報算出手段
と、 上記映像時刻情報算出手段及び音声時刻情報算出手段に
て算出した時刻情報を映像,音声信号と共に多重化する
多重化手段と、 上記多重化手段からの多重化信号を記録媒体に記録し、
当該記録媒体に記録された多重化信号を再生する記録再
生手段と、 上記記録媒体から再生された多重化信号から上記映像,
音声信号及び時刻情報を分離する分離手段と、 上記分離した時刻情報に基づいて映像信号と音声信号の
同期をとる同期化手段とを有することを特徴とする映像
音声信号記録再生装置。
4. A video / audio signal recording / reproducing apparatus having variable delay means for synchronizing an input video signal with a reference synchronizing signal, wherein the delay time for controlling the delay time of the video signal by the variable delay means within one frame. Control means; video time information calculating means for calculating video time information from the video signal reference synchronization timing; and audio time information calculation for calculating audio time information from the audio signal reference synchronization and the video signal reference synchronization timing. Means, multiplexing means for multiplexing the time information calculated by the video time information calculating means and audio time information calculating means together with video and audio signals, and recording the multiplexed signal from the multiplexing means on a recording medium. ,
A recording / reproducing means for reproducing a multiplexed signal recorded on the recording medium;
A video / audio signal recording / reproducing apparatus comprising: a separating unit that separates an audio signal and time information; and a synchronizing unit that synchronizes a video signal and an audio signal based on the separated time information.
【請求項5】 上記多重化前の映像,音声信号を時間軸
上で圧縮して符号化する圧縮符号化手段と、 上記可変遅延手段によるフレーム飛び情報又はフレーム
繰り返し情報を検出する検出手段と、 上記検出されたフレーム飛び情報又はフレーム繰り返し
情報に基づいて上記符号化のパラメータを制御する符号
化制御手段とを設けることを特徴とする請求項4記載の
映像音声信号記録再生装置。
5. A compression encoding means for compressing and encoding the video and audio signals before multiplexing on a time axis, a detection means for detecting frame skip information or frame repetition information by said variable delay means, 5. The video / audio signal recording / reproducing apparatus according to claim 4, further comprising coding control means for controlling the coding parameter based on the detected frame skip information or frame repetition information.
【請求項6】 上記可変遅延手段によるフレーム飛び情
報又はフレーム繰り返し情報を検出する検出手段と、 フレーム飛び情報又はフレーム繰り返し情報に基づいて
変速再生時の制御を行う再生制御手段とを設け、 上記多重化手段では、上記検出したフレーム飛び情報又
はフレーム繰り返し情報をも多重化し、 上記分離手段では、記録媒体から再生された多重化信号
から上記フレーム飛び情報又はフレーム繰り返し情報を
も分離し、 上記再生制御手段では、上記分離手段が分離した上記フ
レーム飛び情報又はフレーム繰り返し情報を用いて上記
変速再生時の制御を行うことを特徴とする請求項4記載
の映像音声信号記録再生装置。
6. A multiplexing apparatus comprising: detecting means for detecting frame skip information or frame repetition information by the variable delay means; and reproduction control means for performing control during variable speed reproduction based on the frame skip information or frame repetition information. Multiplexing means also multiplexes the detected frame skip information or frame repetition information. The separation means also separates the frame skip information or frame repetition information from the multiplexed signal reproduced from the recording medium. 5. The video / audio signal recording / reproducing apparatus according to claim 4, wherein the means performs the control at the time of the variable speed reproduction using the frame skip information or the frame repetition information separated by the separating means.
JP27017197A 1997-10-02 1997-10-02 Video / audio synchronization method and video / audio signal recording / reproducing apparatus Expired - Fee Related JP3807053B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27017197A JP3807053B2 (en) 1997-10-02 1997-10-02 Video / audio synchronization method and video / audio signal recording / reproducing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27017197A JP3807053B2 (en) 1997-10-02 1997-10-02 Video / audio synchronization method and video / audio signal recording / reproducing apparatus

Publications (2)

Publication Number Publication Date
JPH11112937A true JPH11112937A (en) 1999-04-23
JP3807053B2 JP3807053B2 (en) 2006-08-09

Family

ID=17482529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27017197A Expired - Fee Related JP3807053B2 (en) 1997-10-02 1997-10-02 Video / audio synchronization method and video / audio signal recording / reproducing apparatus

Country Status (1)

Country Link
JP (1) JP3807053B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008219070A (en) * 2007-02-28 2008-09-18 Nec Corp Video encoding system, method and program
US7683942B2 (en) 2004-05-18 2010-03-23 Canon Kabushiki Kaisha Information recording apparatus and control method thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7683942B2 (en) 2004-05-18 2010-03-23 Canon Kabushiki Kaisha Information recording apparatus and control method thereof
US7932933B2 (en) 2004-05-18 2011-04-26 Canon Kabushiki Kaisha Information recording apparatus and control method thereof
JP2008219070A (en) * 2007-02-28 2008-09-18 Nec Corp Video encoding system, method and program

Also Published As

Publication number Publication date
JP3807053B2 (en) 2006-08-09

Similar Documents

Publication Publication Date Title
US6512884B1 (en) Method and apparatus for synchronized play back of audio-video signals
KR100290331B1 (en) Synchronous playback device for audio-video signals
KR100711328B1 (en) Data processing device and method
CN101076121B (en) Stream generating apparatus, imaging apparatus, data processing apparatus and stream generating method
JPH11205696A (en) Video transmitting device and video transmitting method
KR101132043B1 (en) Decoder and decoding method
JPH10507597A (en) Programmable audio-video synchronization method and apparatus for multimedia systems
US6041067A (en) Device for synchronizing data processing
US8301018B2 (en) Audio/video synchronous playback device
JP2002015527A (en) Clock generator, and recording and reproducing device
KR100693233B1 (en) Data recording and reproducing apparatus
JPH1032815A (en) Image compositing device
JP3807053B2 (en) Video / audio synchronization method and video / audio signal recording / reproducing apparatus
JP2001268520A (en) Data processor and its method
JPH0946630A (en) Image information recorder, image information reproducing device and optical disk
JP2002354419A (en) Recording reproducing equipment and method therefor, recording medium and program thereof
KR100240331B1 (en) Apparatus for synchronizing a video and an audio signals for a decoder system
JP2002354380A (en) Digital video recording/reproducing device
JPH1175155A (en) Image and audio reproducing device
JP2000354241A (en) Image decoder
JP2001359059A (en) Program multiplex system
JP2004200798A (en) Mpeg transport stream generating apparatus and mpeg stream recording- reproducing apparatus
JPH11112451A (en) Information processor, method therefor and transmission medium
JP2000165863A (en) Data coding decoding device
JPH08307862A (en) Signal synchronization control method and decoder

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060117

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060320

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060508

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100526

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100526

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110526

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110526

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120526

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120526

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130526

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees