JP2007288581A - Image recorder, imaging apparatus, control method and program - Google Patents

Image recorder, imaging apparatus, control method and program Download PDF

Info

Publication number
JP2007288581A
JP2007288581A JP2006114454A JP2006114454A JP2007288581A JP 2007288581 A JP2007288581 A JP 2007288581A JP 2006114454 A JP2006114454 A JP 2006114454A JP 2006114454 A JP2006114454 A JP 2006114454A JP 2007288581 A JP2007288581 A JP 2007288581A
Authority
JP
Japan
Prior art keywords
image
signal
image signal
audio
time information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006114454A
Other languages
Japanese (ja)
Other versions
JP2007288581A5 (en
JP4689525B2 (en
Inventor
Shuichi Hosokawa
秀一 細川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006114454A priority Critical patent/JP4689525B2/en
Publication of JP2007288581A publication Critical patent/JP2007288581A/en
Publication of JP2007288581A5 publication Critical patent/JP2007288581A5/ja
Application granted granted Critical
Publication of JP4689525B2 publication Critical patent/JP4689525B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus by which not only video images but sound are smoothly connected and edited without discontinuity. <P>SOLUTION: A digital video camera has: an image compression and expansion part 103; a sound compression and expansion part 104; a multiplexing processing part 105; an external TTC detection part 106; a CPU 109; a recording medium interface 111; a recording medium 112 and an external synchronization detection part 113. The external synchronization detection part 113 synchronizes an image signal of the digital video camera with an image signal of an external digital video camera based on an external synchronizing signal (Genlock signal) input from the outside. The CPU 109 performs control so that compression coding is performed by setting difference between time information of the head PES of image data and time information of the head PES of sound data to zero in a compression coding operation in a state in which the image signal of the digital video camera is synchronized with the image signal of the external digital video camera. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、MPEG(Moving Picture Experts Group)方式により符号化したビットストリームを記録媒体に記録するデジタルビデオカメラに適用される画像記録装置、撮像装置、制御方法、及びプログラムに関する。   The present invention relates to an image recording apparatus, an imaging apparatus, a control method, and a program applied to a digital video camera that records a bit stream encoded by a moving picture experts group (MPEG) system on a recording medium.

例えば2台または2台以上のビデオカメラにより撮影した複数の画像をリアルタイムで切り替える場合または合成する場合、複数の画像をそのままミックスすることはできない。一般的に、ビデオカメラでは、画像を1秒間に30個程度の「コマ」として連続で送ることにより動画を表現しており、それぞれのコマには開始点が定められている。コマの開始点が合わなければ、複数台のビデオカメラからの画像をリアルタイムで切り替えたり合成したりすることができない。   For example, when switching or synthesizing a plurality of images taken by two or more video cameras in real time, the plurality of images cannot be mixed as they are. In general, a video camera expresses a moving image by continuously sending images as about 30 “frames” per second, and a start point is set for each frame. If the frame start points do not match, images from multiple video cameras cannot be switched or combined in real time.

ビデオカメラで用いられるGenLock信号は、コマの開始点を指定するための同期信号であり、複数台のビデオカメラが互いに同期を取るための基準にする信号の一つである。Genlock(位相合わせ)は、一般に、マスタソース側ビデオカメラのコンポジットビデオ信号(色信号や輝度信号を分離せずに送る信号)を、スレーブ側ビデオカメラのシンクジェネレータに通すことにより行う。   The GenLock signal used in the video camera is a synchronization signal for designating the start point of the frame, and is one of the signals used as a reference for synchronizing a plurality of video cameras with each other. Genlock (phase matching) is generally performed by passing a composite video signal (a signal sent without separating color signals and luminance signals) of a master source side video camera through a sink generator of the slave side video camera.

位相合わせ対象(ロック対象)となるスレーブ側ビデオカメラのシンクジェネレータには、垂直ドライブ回路、水平ドライブ回路、及びサブキャリアを分離する回路が設けられている。位相合わせ処理を行うことで、スレーブ側ビデオカメラのシンクジェネレータが、マスタソース側ビデオカメラのサブキャリア分離回路、垂直ドライブ回路、水平ドライブ回路に位相合わせ(ロック)される。結果として、マスタソース側及びスレーブ側の両方のビデオカメラのシンクジェネレータが同じ周波数及び同じ位相で動作するようになる。   The sync generator of the slave video camera to be phased (locked) is provided with a vertical drive circuit, a horizontal drive circuit, and a circuit for separating subcarriers. By performing the phase matching process, the sync generator of the slave video camera is phase-locked (locked) to the subcarrier separation circuit, vertical drive circuit, and horizontal drive circuit of the master source video camera. As a result, both the master source side and slave side video camera sync generators operate at the same frequency and phase.

上述したGenlock信号を用いた複数台のビデオカメラの画像の同期を取る方法に関しては、以下のような技術が提案されている(例えば、特許文献1参照)。
特開平2−149184号公報
As a method for synchronizing the images of a plurality of video cameras using the above-described Genlock signal, the following technique has been proposed (see, for example, Patent Document 1).
JP-A-2-149184

ところで、近年のビデオカメラは、MPEG方式等の高能率符号化技術を用いて動画像を圧縮して記録する方式が主流となっている。一般的なMPEG符号器を有するビデオカメラは、生成するMPEGビットストリームのビデオとオーディオの符号化単位が不一致である。   By the way, in recent video cameras, a method of compressing and recording a moving image using a high-efficiency encoding technique such as an MPEG method has become mainstream. In a video camera having a general MPEG encoder, the video and audio encoding units of the generated MPEG bit stream do not match.

図3は、ビデオのPTS間隔とオーディオのPTS間隔の不一致を説明する図である。図3に示すように、各ビデオPES(Packetized Elementary Stream) のPTS(Presentation Time Stamp)間隔と、各オーディオPESのPTS間隔とが異なる。   FIG. 3 is a diagram for explaining the discrepancy between the video PTS interval and the audio PTS interval. As shown in FIG. 3, the PTS (Presentation Time Stamp) interval of each video PES (Packetized Elementary Stream) is different from the PTS interval of each audio PES.

また、図4は、ビデオの先頭PTSとオーディオの先頭PTSがストリーム毎に異なることを説明する図である。(a)は、ビデオカメラAのビデオPES及びオーディオPESを示す図、(b)は、ビデオカメラBのビデオPES及びオーディオPESを示す図である。図4に示すように、MPEGビットストリームの先頭ビデオPESのPTSと、先頭オーディオPESのPTSとの間隔が、固定値とは限らない。即ち、図4の例では、ビデオカメラAとビデオカメラBとではストリーム先頭からのDelayが異なることを示している。   FIG. 4 is a diagram for explaining that the beginning PTS of video and the beginning PTS of audio differ for each stream. (A) is a diagram showing a video PES and an audio PES of the video camera A, and (b) is a diagram showing a video PES and an audio PES of the video camera B. As shown in FIG. 4, the interval between the PTS of the first video PES and the PTS of the first audio PES of the MPEG bit stream is not always a fixed value. That is, in the example of FIG. 4, the delay from the head of the stream is different between the video camera A and the video camera B.

従って、上述したGenLock信号によりビデオを同期させた複数台のビデオカメラにより生成したMPEGビットストリーム同士を繋ぎ編集しようとした場合、以下のような問題が発生する。図5は、ビデオの同期が取れている2つのビットストリームを繋ぎ編集した際にオーディオの不連続が発生することを説明する図である。(a)は、ビデオカメラAのビデオPES及びオーディオPESを示す図、(b)は、ビデオカメラBのビデオPES及びオーディオPESを示す図、(c)は、編集ストリームを示す図である。図5に示すように、ビデオカメラAのビデオとビデオカメラBのビデオは連続的に繋げることができるが、オーディオは不連続状態が発生する場合がある。   Therefore, when trying to connect and edit MPEG bit streams generated by a plurality of video cameras whose videos are synchronized by the above-described GenLock signal, the following problems occur. FIG. 5 is a diagram for explaining that an audio discontinuity occurs when two bit streams in which video is synchronized are connected and edited. (A) is a diagram showing a video PES and an audio PES of the video camera A, (b) is a diagram showing a video PES and an audio PES of the video camera B, and (c) is a diagram showing an edit stream. As shown in FIG. 5, the video of the video camera A and the video of the video camera B can be continuously connected, but the audio may be discontinuous.

本発明の目的は、映像だけでなく音声に関しても不連続なく円滑に繋ぎ編集することを可能とした画像記録装置、撮像装置、制御方法、及びプログラムを提供することにある。   An object of the present invention is to provide an image recording apparatus, an imaging apparatus, a control method, and a program capable of smoothly connecting and editing not only video but also sound without discontinuity.

上述の目的を達成するために、本発明の画像記録装置は、画像信号及び音声信号を圧縮符号化すると共に、前記圧縮符号化後の画像データ及び音声データに対して圧縮符号化単位毎に再生を行うための時刻情報を付加する機能を有する画像記録装置であって、外部から入力される外部同期信号に基づいて、前記画像記録装置の画像信号を外部機器の画像信号と同期させる同期手段と、前記同期手段により前記画像記録装置の画像信号を前記外部機器の画像信号と同期させた状態での圧縮符号化動作において、画像データの先頭の圧縮符号化単位の時刻情報と、音声データの先頭の圧縮符号化単位の時刻情報との差を、規定値に設定して圧縮符号化を行うよう制御する制御手段と、を備えることを特徴とする。   In order to achieve the above-described object, the image recording apparatus of the present invention compresses and encodes an image signal and an audio signal and reproduces the compressed image data and audio data for each compression encoding unit. An image recording apparatus having a function of adding time information to perform synchronization, and synchronizing means for synchronizing an image signal of the image recording apparatus with an image signal of an external device based on an external synchronization signal input from outside In the compression encoding operation in a state where the image signal of the image recording apparatus is synchronized with the image signal of the external device by the synchronization means, the time information of the first compression encoding unit of the image data and the start of the audio data Control means for controlling to perform compression encoding by setting the difference from the time information of the compression encoding unit to a prescribed value.

本発明によれば、複数台の画像記録装置或いは撮像装置を外部同期信号により互いに同期させ、それぞれ記録した画像データ及び音声データを繋ぎ編集する場合、映像だけでなく音声に関しても不連続なく円滑に繋ぎ編集することが可能となる。   According to the present invention, when a plurality of image recording devices or imaging devices are synchronized with each other by an external synchronization signal, and the recorded image data and audio data are connected and edited, smooth not only for video but also for audio. It is possible to connect and edit.

以下、本発明の実施の形態を図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1の実施の形態]
図1は、本発明の第1の実施の形態に係る撮像装置としてのデジタルビデオカメラの構成を示すブロック図である。
[First Embodiment]
FIG. 1 is a block diagram showing a configuration of a digital video camera as an imaging apparatus according to the first embodiment of the present invention.

図1において、デジタルビデオカメラは、レンズ100、撮像素子(CCD)101、カメラ信号処理部102、画像圧縮伸長部103、音声圧縮伸長部104、多重化処理部105、外部TTC検出部106を備えている。更に、デジタルビデオカメラは、マイクロフォン107、音声信号処理部108、CPU109、メモリ110、記録媒体インターフェース111、記録媒体112、外部同期検出部113、クロック発振器114、不図示の操作部を備えている。   1, the digital video camera includes a lens 100, an image sensor (CCD) 101, a camera signal processing unit 102, an image compression / decompression unit 103, an audio compression / decompression unit 104, a multiplexing processing unit 105, and an external TTC detection unit 106. ing. The digital video camera further includes a microphone 107, an audio signal processing unit 108, a CPU 109, a memory 110, a recording medium interface 111, a recording medium 112, an external synchronization detection unit 113, a clock oscillator 114, and an operation unit (not shown).

本実施の形態のデジタルビデオカメラは、例えば「Specifications of HDV Recording Version 1.0」により仕様が定められた所謂HDV方式に対応したものである。レンズ100は、デジタルビデオカメラにより撮影した被写体の光学像を撮像素子101に結像させる。撮像素子101は、撮像面上に結像されたレンズ100からの光学像を電気信号に光電変換して出力する。カメラ信号処理部102は、撮像素子101から出力された電気信号(光電変換画像信号)が標準的な画像信号になるように信号処理を行う。   The digital video camera according to the present embodiment corresponds to the so-called HDV system whose specifications are defined by, for example, “Specifications of HDV Recording Version 1.0”. The lens 100 forms an optical image of a subject photographed by the digital video camera on the image sensor 101. The imaging element 101 photoelectrically converts an optical image from the lens 100 formed on the imaging surface into an electrical signal and outputs the electrical signal. The camera signal processing unit 102 performs signal processing so that the electrical signal (photoelectric conversion image signal) output from the image sensor 101 becomes a standard image signal.

画像圧縮伸長部103は、カメラ信号処理部102により信号処理された画像信号をMPEG2等の方式により符号化して圧縮するものであり、画像信号の符号化時に1フレームの最大ビット長を設定することが可能である。音声圧縮伸長部104は、マイクロフォン106によりデジタルビデオカメラ周囲から取得した音声信号を、例えばMPEG Audio符号化等の方式により符号化して圧縮する音声処理を行う。画像信号及び音声信号は、圧縮符号化された後、時刻情報である後述のTTCが付加される。   The image compression / decompression unit 103 encodes and compresses the image signal processed by the camera signal processing unit 102 using a method such as MPEG2, and sets the maximum bit length of one frame when the image signal is encoded. Is possible. The audio compression / decompression unit 104 performs audio processing for encoding and compressing an audio signal acquired from around the digital video camera by the microphone 106 using a method such as MPEG Audio encoding. The image signal and the audio signal are compressed and encoded, and then TTC, which will be described later, is added as time information.

多重化処理部105は、画像圧縮伸長部103により圧縮された画像データ及び音声圧縮伸長部104により圧縮された音声データをPackUnit形式に多重化する。更に、多重化処理部105は、前記多重化したデータからHDV方式に準拠したテープフォーマットデータを生成し、メモリ110へ格納する。外部TTC検出部106は、デジタルビデオカメラ外部の他機器から入力されるTTC(Total Time Code)信号からTTCを取得し、他機器とTTCの同期を取れるようにする。   The multiplexing processing unit 105 multiplexes the image data compressed by the image compression / decompression unit 103 and the audio data compressed by the audio compression / decompression unit 104 into a PackUnit format. Further, the multiplexing processing unit 105 generates tape format data compliant with the HDV system from the multiplexed data and stores it in the memory 110. The external TTC detection unit 106 acquires TTC from a TTC (Total Time Code) signal input from another device outside the digital video camera, and allows TTC synchronization with the other device.

マイクロフォン107は、音声を取得する際に使用される。音声信号処理部108は、マイクロフォン107により取得した音声信号が標準的な音声信号になるように信号処理を行う。CPU109は、メモリ110に格納されている制御プログラムに従ってデジタルビデオカメラ全体の動作を制御するものであり、図2のフローチャートに示す処理を実行する。メモリ110は、制御プログラムを格納すると共に、一時的に画像データや音声データを蓄積するメモリとしても使用される。   The microphone 107 is used when acquiring sound. The audio signal processing unit 108 performs signal processing so that the audio signal acquired by the microphone 107 becomes a standard audio signal. The CPU 109 controls the operation of the entire digital video camera according to the control program stored in the memory 110, and executes the processing shown in the flowchart of FIG. The memory 110 stores a control program and is also used as a memory for temporarily storing image data and audio data.

記録媒体インターフェース111は、記録媒体112に対するテープフォーマットデータの記録/再生を行う際のインターフェースを司る。記録媒体インターフェース111は、記録時には多重化処理部105で処理されたテープフォーマットデータが格納されたメモリ110からテープフォーマットデータを記録媒体112へ転送する。記録媒体インターフェース111は、再生時には逆に記録媒体112から再生用テープフォーマットデータをメモリ110へ展開する。記録媒体112は、デジタルビデオカメラで記録/再生されるテープフォーマットデータを格納するものであり、磁気テープとして構成されている。   The recording medium interface 111 serves as an interface for recording / reproducing the tape format data to / from the recording medium 112. The recording medium interface 111 transfers the tape format data from the memory 110 storing the tape format data processed by the multiplexing processing unit 105 to the recording medium 112 during recording. On the contrary, the recording medium interface 111 expands the reproduction tape format data from the recording medium 112 to the memory 110 at the time of reproduction. The recording medium 112 stores tape format data recorded / reproduced by a digital video camera, and is configured as a magnetic tape.

外部同期検出部113は、外部同期信号であるGenlock信号に同期した信号と、デジタルビデオカメラ内部の同期信号とのずれを検出する。更に、外部同期検出部113は、両信号のずれを吸収するよう、クロック発振器114にPLL(Phase Lock Loop)制御を行う。Genlock信号を用いて同期を取る方法の詳細については、例えば上記特許文献1に具体的な解説が記載されているため説明を省略する。クロック発振器114は、デジタルビデオカメラのブロック115内部の各部が動作するためのクロックを供給する。操作部は、画像信号・音声信号の圧縮符号化、圧縮符号化された画像データ・音声データの記録・再生の開始/終了の指示等に用いる。   The external synchronization detection unit 113 detects a shift between a signal synchronized with a Genlock signal that is an external synchronization signal and a synchronization signal inside the digital video camera. Further, the external synchronization detection unit 113 performs PLL (Phase Lock Loop) control on the clock oscillator 114 so as to absorb the difference between both signals. The details of the synchronization method using the Genlock signal are described in, for example, the above-mentioned Patent Document 1, and thus the description thereof is omitted. The clock oscillator 114 supplies a clock for operating each part in the block 115 of the digital video camera. The operation unit is used for compressing and encoding image signals and audio signals, and instructing start / end of recording and reproduction of the compressed and encoded image data and audio data.

次に、本実施の形態のデジタルビデオカメラにおける記録開始時のビデオ及びオーディオのPTS及びDTSについて図2のフローチャートを参照しながら説明する。本実施の形態では、複数台のデジタルビデオカメラで同時に記録開始する場合を例に挙げるものとする。複数台のデジタルビデオカメラのうち1台のデジタルビデオカメラがマスタソース側となり、他のデジタルビデオカメラがスレーブ側となる。   Next, video and audio PTS and DTS at the start of recording in the digital video camera of this embodiment will be described with reference to the flowchart of FIG. In this embodiment, a case where recording is started simultaneously by a plurality of digital video cameras is taken as an example. Of the plurality of digital video cameras, one digital video camera is on the master source side, and the other digital video camera is on the slave side.

図2は、デジタルビデオカメラ(スレーブ側)の記録開始時におけるビデオ及びオーディオのPTSを決定するための処理を示すフローチャートである。   FIG. 2 is a flowchart showing processing for determining video and audio PTSs at the start of recording by the digital video camera (slave side).

図2において、ステップS201で、デジタルビデオカメラのCPU109は、ユーザから操作部を介した記録開始指示を受けると、ステップS202で、記録媒体インターフェース111により記録媒体112への記録動作を開始する。次に、ステップS203で、CPU109は、デジタルビデオカメラが外部同期信号であるGenlock信号により外部と同期を取っている状態であるか否かを外部同期検出部113を用いて判定する。   In FIG. 2, when the CPU 109 of the digital video camera receives a recording start instruction from the user via the operation unit in step S201, the recording medium interface 111 starts a recording operation on the recording medium 112 in step S202. Next, in step S <b> 203, the CPU 109 determines whether or not the digital video camera is synchronized with the outside using the Genlock signal that is an external synchronization signal, using the external synchronization detection unit 113.

上記ステップS203でデジタルビデオカメラが外部と同期を取っている状態である場合、ステップS204で、CPU109は、以下の処理を行う。先ず、CPU109は、記録開始時における記録媒体112(磁気テープ)のトラック位置(ETN)から、ビデオの先頭DTS(Decoding Time Stamp)を次式により計算する。   If the digital video camera is in synchronization with the outside in step S203, the CPU 109 performs the following process in step S204. First, the CPU 109 calculates the leading DTS (Decoding Time Stamp) of the video from the track position (ETN) of the recording medium 112 (magnetic tape) at the start of recording by the following equation.

DTS = (ETN * 3003) / 10 ・・・(フレームレート29.97Hzの場合)
DTS = (ETN * 3600) / 12 ・・・(フレームレート25Hzの場合)
次に、CPU109は、オーディオの先頭PTS及びビデオの先頭PTSを次式により計算する。
DTS = (ETN * 3003) / 10 ... (for frame rate 29.97Hz)
DTS = (ETN * 3600) / 12 ... (when frame rate is 25Hz)
Next, the CPU 109 calculates an audio top PTS and a video top PTS by the following equations.

PTS(Video) = DTS + 3003 ・・・(フレームレート29.97Hzの場合)
PTS(Video) = DTS + 3600 ・・・(フレームレート25Hzの場合)
PTS(Audio) = PTS(Video)
ところで、図5(c)に示したように、記録媒体112(磁気テープ)に既に記録されているデータに対して、オーディオが連続しない場合がある。そこで、必要であれば、記録媒体112に実データを記録する前にInvalidデータを80トラック記録し、MPEGのバッファモデルの連続性を破棄してもよい。図5(c)の場合は、VA3とVB4の間にInvalidデータを記録することになる。
PTS (Video) = DTS + 3003 ... (when frame rate is 29.97Hz)
PTS (Video) = DTS + 3600 ... (when frame rate is 25Hz)
PTS (Audio) = PTS (Video)
Incidentally, as shown in FIG. 5C, audio may not be continuous with data already recorded on the recording medium 112 (magnetic tape). Accordingly, if necessary, 80 tracks of invalid data may be recorded before actual data is recorded on the recording medium 112, and the continuity of the MPEG buffer model may be discarded. In the case of FIG. 5C, Invalid data is recorded between VA3 and VB4.

他方、上記ステップS203でデジタルビデオカメラが外部と同期を取っていない状態である場合、ステップS205で、CPU109は、記録開始時のオーディオの先頭PTS及びビデオの先頭PTSを次のように決定する。   On the other hand, if the digital video camera is not synchronized with the outside in step S203, in step S205, the CPU 109 determines the beginning PTS of audio and the beginning PTS of video at the start of recording as follows.

PTS(Video) = 磁気テープの最後に記録されているVideo PESのPTS + 3003
・・・(フレームレート29.97Hzの場合)
PTS(Video) = 磁気テープの最後に記録されているVideo PESのPTS + 3600
・・・(フレームレート25Hzの場合)
PTS(Audio) = 磁気テープの最後に記録されているAudio PESのPTS + 2160
上記ステップS204または上記ステップS205でオーディオの先頭PTS及びビデオの先頭PTSが決定すれば、CPU109は、それ以降のPTSについてはMPEGの連続性を保つように順次決定していく。CPU109は、ステップS206で、ユーザから操作部を介した記録終了指示を受けるまで、処理を継続する。
PTS (Video) = Video PES recorded at the end of magnetic tape PTS + 3003
... (when frame rate is 29.97Hz)
PTS (Video) = Video PES PTS recorded at the end of magnetic tape + 3600
... (when frame rate is 25Hz)
PTS (Audio) = Audio PES PTS recorded at the end of magnetic tape + 2160
When the audio top PTS and the video top PTS are determined in step S204 or step S205, the CPU 109 sequentially determines the subsequent PTSs so as to maintain MPEG continuity. In step S206, the CPU 109 continues the process until receiving a recording end instruction from the user via the operation unit.

以上の処理を行うことで、Genlock信号により外部と同期をとっている複数台のデジタルビデオカメラで同時に記録開始を指示した場合、それぞれ記録媒体に記録したデータを記録開始から同じ時間経過したフレームで繋ぎ編集すると、以下のようになる。任意の繋ぎ編集点におけるビデオPESのPTSとオーディオPESのPTSとのDelay(遅延量)が一致するため、映像だけでなく音声に関しても不連続なく円滑に繋ぎ編集することができる。   By performing the above processing, when recording start is simultaneously instructed by a plurality of digital video cameras synchronized with the outside by the Genlock signal, the data recorded on the recording medium is a frame that has passed the same time from the recording start. When connecting and editing, the result is as follows. The delay (delay amount) between the PTS of the video PES and the PTS of the audio PES at an arbitrary connection editing point matches, so that not only video but also audio can be smoothly connected and edited.

以上説明したように、本実施の形態によれば、2台または2台以上のデジタルビデオカメラをGenlock信号により互いに同期させ、それぞれ記録媒体に記録した符号化ビットストリームを記録開始から同じ時間経過したフレームで繋ぎ編集する。その場合に、複数のビットストリームの映像だけでなく音声に関しても不連続なく円滑に繋ぎ編集することができる。即ち、複数台のデジタルビデオカメラで同一のタイミングで記録開始した記録媒体上のビットストリームを、任意の点で繋ぎ編集することが可能となる。   As described above, according to the present embodiment, two or more digital video cameras are synchronized with each other by the Genlock signal, and the same time has elapsed since the start of recording the encoded bitstream recorded on the recording medium. Connect and edit with frames. In that case, not only video of a plurality of bit streams but also audio can be smoothly connected and edited without discontinuity. That is, it becomes possible to connect and edit bit streams on a recording medium that have been recorded at the same timing by a plurality of digital video cameras at arbitrary points.

[第2の実施の形態]
本発明の第2の実施の形態は、上述した第1の実施の形態に対して、下記の点において相違する。本実施の形態のその他の要素は、上述した第1の実施の形態(図1)の対応するものと同一なので、説明を省略する。
[Second Embodiment]
The second embodiment of the present invention is different from the first embodiment described above in the following points. Since the other elements of the present embodiment are the same as the corresponding ones of the first embodiment (FIG. 1) described above, description thereof is omitted.

第1の実施の形態では、複数台のデジタルビデオカメラで同時に記録開始する場合について説明した。これに対し、本実施の形態では、複数台のデジタルビデオカメラで別々のタイミングにより記録開始が可能である場合について説明する。   In the first embodiment, the case where recording is started simultaneously by a plurality of digital video cameras has been described. In contrast, in the present embodiment, a case will be described in which recording can be started at different timings with a plurality of digital video cameras.

本実施の形態のデジタルビデオカメラでは、記録時間情報(特にTTC)とオーディオPES及びビデオPESのPTSとの関係を一意に定めている。このため、TTCとオーディオPES及びビデオPESのPTSとが一致するタイミングを予め規定しておく必要がある。本実施の形態では、TTCがBCD形式で00:00:00:00であるタイミングを、オーディオPESのPTSとビデオPESのPTSとが一致する基準タイミングとした場合を例に挙げて説明する。   In the digital video camera of the present embodiment, the relationship between recording time information (particularly TTC) and audio PES and video PES PTS is uniquely determined. For this reason, it is necessary to define in advance the timing at which the TTC matches the PTS of the audio PES and the video PES. In the present embodiment, an example will be described in which the timing at which the TTC is 00: 00: 00: 00 in the BCD format is set as the reference timing at which the PTS of the audio PES and the PTS of the video PES match.

次に、本実施の形態のデジタルビデオカメラにおいてPTSを決定する処理について図2のフローチャートを参照しながら説明する。本実施の形態におけるステップS201〜ステップS203の処理は、上述した第1の実施の形態と同じであるため説明を省略する。   Next, processing for determining PTS in the digital video camera of the present embodiment will be described with reference to the flowchart of FIG. Since the process of step S201-step S203 in this Embodiment is the same as 1st Embodiment mentioned above, description is abbreviate | omitted.

デジタルビデオカメラがGenlock信号により外部と同期して記録を行う場合、ステップS204で、CPU109は、以下の処理を行う。先ず、CPU109は、TTC=00:00:00:00でオーディオPESのPTSとビデオPESのPTSとが一致するようにPTSを付加する。次に、CPU109は、記録開始時における記録媒体112(磁気テープ)のトラック位置(ETN)から、ビデオの先頭DTS及び先頭ビデオPESのPTSを、第1の実施の形態と同様に次式により計算する。   When the digital video camera performs recording in synchronization with the outside using the Genlock signal, in step S204, the CPU 109 performs the following processing. First, the CPU 109 adds the PTS so that the PTS of the audio PES and the PTS of the video PES match at TTC = 00: 00: 00: 00. Next, the CPU 109 calculates the start DTS of the video and the PTS of the start video PES from the track position (ETN) of the recording medium 112 (magnetic tape) at the start of recording, using the following equations, as in the first embodiment. To do.

DTS = (ETN * 3003) / 10 ・・・(フレームレート29.97Hzの場合)
DTS = (ETN * 3600) / 12 ・・・(フレームレート25Hzの場合)
PTS(Video) = DTS + 3003 ・・・(フレームレート29.97Hzの場合)
PTS(Video) = DTS + 3600 ・・・(フレームレート25Hzの場合)
次に、CPU109は、先頭ビデオPESのPTSと先頭オーディオPESのPTSとのDelay(遅延量)を以下のように計算する。
DTS = (ETN * 3003) / 10 ... (for frame rate 29.97Hz)
DTS = (ETN * 3600) / 12 ... (when frame rate is 25Hz)
PTS (Video) = DTS + 3003 ... (when frame rate is 29.97Hz)
PTS (Video) = DTS + 3600 ... (when frame rate is 25Hz)
Next, the CPU 109 calculates the delay (delay amount) between the PTS of the leading video PES and the PTS of the leading audio PES as follows.

(1)基準タイミング(00:00:00:00)から記録開始時に設定するTTCまでの間に入るビデオのフレーム数Video_Framesを計算
Video_Frames = (記録開始時のTTC - 00:00:00:00)
(2)基準タイミング(00:00:00:00)から記録開始時に設定するTTCまでの間に入るオーディオのフレーム数Audio_Frameを計算
Audio_Frame = (Video_Frame * 3003) / 2160
・・・(フレームレート29.97Hzの場合):除算結果切り上げ
Audio_Frame = (Video_Frame * 3600) / 2160
・・・(フレームレート25Hzの場合):除算結果切り上げ
(3)基準タイミング(00:00:00:00)から記録開始時のTTCまで連続記録を行うことを想定した場合の、オーディオとビデオのDelay(遅延量)を計算
Delay = (Audio_Frame * 2160) - (Video_Frame * 3003)
・・・(フレームレート29.97Hzの場合)
Delay = (Audio_Frame * 2160) - (Video_Frame * 3600)
・・・(フレームレート25Hzの場合)
最後に、CPU109は、先頭オーディオPESのPTSを以下のように計算する。
(1) Calculate the number of video frames Video_Frames between the reference timing (00: 00: 00: 00) and the TTC set at the start of recording
Video_Frames = (TTC at start of recording-00: 00: 00: 00)
(2) Calculate the number of audio frames Audio_Frame that falls between the reference timing (00: 00: 00: 00) and the TTC set at the start of recording.
Audio_Frame = (Video_Frame * 3003) / 2160
... (for frame rate 29.97Hz): Rounding up the division result
Audio_Frame = (Video_Frame * 3600) / 2160
... (for frame rate 25Hz): Rounding up the division result (3) Audio and video when assuming continuous recording from the reference timing (00: 00: 00: 00) to TTC at the start of recording Calculate Delay
Delay = (Audio_Frame * 2160)-(Video_Frame * 3003)
... (when frame rate is 29.97Hz)
Delay = (Audio_Frame * 2160)-(Video_Frame * 3600)
... (when frame rate is 25Hz)
Finally, the CPU 109 calculates the PTS of the head audio PES as follows.

PTS(Audio) = PTS(Video) + Delay
ステップS205以降については、上述した第1の実施の形態と同じであるため説明を省略する。
PTS (Audio) = PTS (Video) + Delay
Since step S205 and subsequent steps are the same as those in the first embodiment described above, description thereof will be omitted.

以上の処理を行うことで、Genlock信号により外部と同期を取る複数台のデジタルビデオカメラでは、TTCが同一であるタイミングにおいて、映像だけでなく音声に関しても不連続なく円滑に繋ぎ編集することができる。   By performing the above processing, multiple digital video cameras that synchronize with the outside using the Genlock signal can smoothly connect and edit not only video but also audio at the same TTC timing. .

以上説明したように、本実施の形態によれば、2台または2台以上のデジタルビデオカメラをGenlock信号により互いに同期させ、TTCを入力してタイムコードを同期化し、それぞれ記録媒体に記録した符号化ビットストリームを任意の点で繋ぎ編集する。その場合に、複数のビットストリームの同一TTCを有するフレームにおいて、映像だけでなく音声に関しても不連続なく円滑に繋ぎ編集することができる。即ち、複数台のデジタルビデオカメラで個々のタイミングで記録開始した記録媒体上のビットストリームを、任意の点で繋ぎ編集することが可能となる。   As described above, according to the present embodiment, two or more digital video cameras are synchronized with each other by the Genlock signal, TTC is input to synchronize the time code, and the codes recorded on the recording medium, respectively. Edit bitstreams at arbitrary points. In that case, in a frame having the same TTC of a plurality of bit streams, not only video but also audio can be smoothly connected and edited without discontinuity. That is, it becomes possible to connect and edit bitstreams on a recording medium that have been recorded at individual timings by a plurality of digital video cameras at arbitrary points.

[他の実施の形態]
上記第1の実施の形態では、HDV方式に準拠したデジタルビデオカメラを例に挙げたが、本発明は、これに限定されるものではない。時刻情報を用いてビデオ及びオーディオを多重化して記録媒体に記録する方式のものであればよい。
[Other embodiments]
In the first embodiment, the digital video camera conforming to the HDV system has been described as an example, but the present invention is not limited to this. Any method may be used as long as video and audio are multiplexed using time information and recorded on a recording medium.

上記第2の実施の形態では、基準タイミングのTTCを00:00:00:00とした場合を例に挙げたが、本発明は、これに限定されるものではない。基準タイミングのTTCは、デジタルビデオカメラにおいて予め定められている値でもよいし、ユーザがデジタルビデオカメラの操作部から設定した値でもよい。   In the second embodiment, the case where the TTC of the reference timing is set to 00: 00: 00: 00 has been described as an example, but the present invention is not limited to this. The TTC of the reference timing may be a value set in advance in the digital video camera or a value set by the user from the operation unit of the digital video camera.

上記第2の実施の形態では、基準タイミングを取得するためにTTCを使用した場合を例に挙げたが、本発明は、これに限定されるものではない。時刻情報を得られるものであれば、任意の情報を用いることが可能であり、例えばRecTime(記録時間)等の情報を用いてもよい。   In the second embodiment, the case where TTC is used to acquire the reference timing is taken as an example, but the present invention is not limited to this. Any information can be used as long as time information can be obtained. For example, information such as RecTime (recording time) may be used.

また、本発明の目的は、前述した各実施の形態の機能を実現するソフトウェアのプログラムコードを記憶した記憶媒体を、システム或いは装置に供給し、以下の処理を行うことによりも達成される。即ち、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出し実行することによりも達成される。   The object of the present invention can also be achieved by supplying a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus and performing the following processing. That is, it is also achieved by reading and executing the program code stored in the storage medium by the computer (or CPU, MPU, etc.) of the system or apparatus.

この場合、記憶媒体から読み出されたプログラムコード自体が前述した各実施の形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code and the storage medium storing the program code constitute the present invention. .

また、プログラムコードを供給するための記憶媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光磁気ディスクを用いることができる。また、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD+RW等の光ディスク、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。または、プログラムコードをネットワークを介してダウンロードしてもよい。   As a storage medium for supplying the program code, for example, a floppy (registered trademark) disk, a hard disk, or a magneto-optical disk can be used. Further, optical disks such as CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD + RW, magnetic tape, nonvolatile memory card, ROM, and the like can be used. Alternatively, the program code may be downloaded via a network.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した各実施の形態の機能が実現されるだけではなく、以下の場合も含まれる。即ち、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理により前述した各実施の形態の機能が実現される場合も含まれる。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also the following cases are included. That is, based on the instruction of the program code, an OS (operating system) running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing. Cases are also included.

更に、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、次のプログラムコードの指示に基づき、以下の処理を行う場合も含まれる。即ち、その拡張機能を拡張ボードや拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理により前述した各実施の形態の機能が実現される場合も含まれる。   Furthermore, after the program code read from the storage medium is written in the memory provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, the following program code is specified based on the instruction of the next program code. This includes cases where processing is performed. That is, the case where the CPU or the like provided in the extension board or the extension unit performs the part or all of the actual processing and the functions of the above-described embodiments are realized by the processing is included.

本発明の第1及び第2の実施の形態に係る撮像装置としてのデジタルビデオカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital video camera as an imaging device which concerns on the 1st and 2nd embodiment of this invention. デジタルビデオカメラの画像記録開始時におけるビデオ及びオーディオのPTSを決定するための処理を示すフローチャートである。It is a flowchart which shows the process for determining video and audio PTS at the time of the image recording start of a digital video camera. ビデオのPTS間隔とオーディオのPTS間隔の不一致を説明する図である。It is a figure explaining the discrepancy between the PTS interval of video and the PTS interval of audio. ビデオの先頭PTSとオーディオの先頭PTSがストリーム毎に異なることを説明する図である。(a)は、ビデオカメラAのビデオPES及びオーディオPESを示す図、(b)は、ビデオカメラBのビデオPES及びオーディオPESを示す図である。It is a figure explaining that the head PTS of video and the head PTS of audio differ for every stream. (A) is a diagram showing a video PES and an audio PES of the video camera A, and (b) is a diagram showing a video PES and an audio PES of the video camera B. ビデオの同期が取れている2つのビットストリームを繋ぎ編集した際にオーディオの不連続が発生することを説明する図である。(a)は、ビデオカメラAのビデオPES及びオーディオPESを示す図、(b)は、ビデオカメラBのビデオPES及びオーディオPESを示す図、(c)は、編集ストリームを示す図である。FIG. 4 is a diagram for explaining that audio discontinuity occurs when two bitstreams in which video is synchronized are connected and edited. (A) is a diagram showing a video PES and an audio PES of the video camera A, (b) is a diagram showing a video PES and an audio PES of the video camera B, and (c) is a diagram showing an edit stream.

符号の説明Explanation of symbols

103 画像圧縮伸長部
104 音声圧縮伸長部
105 多重化処理部
106 外部TTC検出部(同期手段)
109 CPU(制御手段)
111 記録媒体インターフェース(記録手段)
112 記録媒体(記録手段)
103 Image compression / decompression unit 104 Audio compression / decompression unit 105 Multiplexing processing unit 106 External TTC detection unit (synchronization means)
109 CPU (control means)
111 Recording medium interface (recording means)
112 Recording medium (recording means)

Claims (7)

画像信号及び音声信号を圧縮符号化すると共に、前記圧縮符号化後の画像データ及び音声データに対して圧縮符号化単位毎に再生を行うための時刻情報を付加する機能を有する画像記録装置であって、
外部から入力される外部同期信号に基づいて、前記画像記録装置の画像信号を外部機器の画像信号と同期させる同期手段と、
前記同期手段により前記画像記録装置の画像信号を前記外部機器の画像信号と同期させた状態での圧縮符号化動作において、画像データの先頭の圧縮符号化単位の時刻情報と、音声データの先頭の圧縮符号化単位の時刻情報との差を、規定値に設定して圧縮符号化を行うよう制御する制御手段と、
を備えることを特徴とする画像記録装置。
An image recording apparatus having a function of compressing and encoding an image signal and an audio signal and adding time information for reproducing the compressed image data and audio data for each compression encoding unit. And
Synchronizing means for synchronizing the image signal of the image recording device with the image signal of the external device based on an external synchronization signal input from the outside,
In the compression encoding operation in a state where the image signal of the image recording apparatus is synchronized with the image signal of the external device by the synchronization means, the time information of the compression encoding unit at the beginning of the image data and the beginning of the audio data A control means for controlling the difference between the time information of the compression coding unit to be set to a prescribed value and performing compression coding;
An image recording apparatus comprising:
前記規定値は、0であることを特徴とする請求項1記載の画像記録装置。   The image recording apparatus according to claim 1, wherein the specified value is zero. 前記時刻情報としての記録時間に関する情報が付加された画像データ及び音声データを記録する記録手段を更に備え、
前記制御手段は、前記同期手段により前記画像記録装置の画像信号を前記外部機器の画像信号と同期させた状態での圧縮符号化動作において、圧縮符号化動作開始時の前記記録時間に関する情報の値に応じて、画像データの先頭の圧縮符号化単位の時刻情報と、音声データの先頭の圧縮符号化単位の時刻情報との差を、変更することを特徴とする請求項1記載の画像記録装置。
A recording means for recording image data and audio data to which information relating to the recording time as the time information is added;
In the compression encoding operation in a state where the image signal of the image recording apparatus is synchronized with the image signal of the external device by the synchronization unit, the control unit is a value of information relating to the recording time at the start of the compression encoding operation. The image recording apparatus according to claim 1, wherein the difference between the time information of the first compression coding unit of the image data and the time information of the first compression coding unit of the audio data is changed according to .
前記記録時間に関する情報は、TTC(Total Time Code)、画像データ及び音声データの記録時間を含む群から選択されることを特徴とする請求項3記載の画像記録装置。   4. The image recording apparatus according to claim 3, wherein the information related to the recording time is selected from a group including a recording time of TTC (Total Time Code), image data, and audio data. 前記請求項1乃至4の何れかに記載の画像記録装置を備えることを特徴とする撮像装置。   An image pickup apparatus comprising the image recording apparatus according to claim 1. 画像信号及び音声信号を圧縮符号化すると共に、前記圧縮符号化後の画像データ及び音声データに対して圧縮符号化単位毎に再生を行うための時刻情報を付加する機能を有する画像記録装置の制御方法であって、
外部から入力される外部同期信号に基づいて、前記画像記録装置の画像信号を外部機器の画像信号と同期させる同期ステップと、
前記同期ステップにより前記画像記録装置の画像信号を前記外部機器の画像信号と同期させた状態での圧縮符号化動作において、画像データの先頭の圧縮符号化単位の時刻情報と、音声データの先頭の圧縮符号化単位の時刻情報との差を、規定値に設定して圧縮符号化を行うよう制御する制御ステップと、
を備えることを特徴とする制御方法。
Control of an image recording apparatus having a function of compressing and encoding an image signal and an audio signal, and adding time information for reproducing the compressed image data and audio data for each compression encoding unit A method,
A synchronization step of synchronizing an image signal of the image recording device with an image signal of an external device based on an external synchronization signal input from the outside;
In the compression encoding operation in a state where the image signal of the image recording apparatus is synchronized with the image signal of the external device by the synchronization step, the time information of the first compression encoding unit of the image data and the start of the audio data A control step for controlling the difference from the time information of the compression coding unit to a predetermined value and performing compression coding;
A control method comprising:
画像信号及び音声信号を圧縮符号化すると共に、前記圧縮符号化後の画像データ及び音声データに対して圧縮符号化単位毎に再生を行うための時刻情報を付加する機能を有する画像記録装置の制御方法をCPUに実行させるプログラムであって、
外部から入力される外部同期信号に基づいて、前記画像記録装置の画像信号を外部機器の画像信号と同期させる同期モジュールと、
前記同期モジュールにより前記画像記録装置の画像信号を前記外部機器の画像信号と同期させた状態での圧縮符号化動作において、画像データの先頭の圧縮符号化単位の時刻情報と、音声データの先頭の圧縮符号化単位の時刻情報との差を、規定値に設定して圧縮符号化を行うよう制御する制御モジュールと、
を備えることを特徴とするプログラム。
Control of an image recording apparatus having a function of compressing and encoding an image signal and an audio signal, and adding time information for reproducing the compressed image data and audio data for each compression encoding unit A program for causing a CPU to execute a method,
A synchronization module that synchronizes an image signal of the image recording device with an image signal of an external device based on an external synchronization signal input from the outside;
In the compression encoding operation in a state where the image signal of the image recording apparatus is synchronized with the image signal of the external device by the synchronization module, the time information of the first compression encoding unit of the image data and the beginning of the audio data A control module for controlling the difference between the time information of the compression coding unit to be set to a prescribed value and performing compression coding;
A program comprising:
JP2006114454A 2006-04-18 2006-04-18 Recording device Expired - Fee Related JP4689525B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006114454A JP4689525B2 (en) 2006-04-18 2006-04-18 Recording device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006114454A JP4689525B2 (en) 2006-04-18 2006-04-18 Recording device

Publications (3)

Publication Number Publication Date
JP2007288581A true JP2007288581A (en) 2007-11-01
JP2007288581A5 JP2007288581A5 (en) 2009-05-28
JP4689525B2 JP4689525B2 (en) 2011-05-25

Family

ID=38759922

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006114454A Expired - Fee Related JP4689525B2 (en) 2006-04-18 2006-04-18 Recording device

Country Status (1)

Country Link
JP (1) JP4689525B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012049980A (en) * 2010-08-30 2012-03-08 Canon Inc Imaging apparatus
JP2013141070A (en) * 2011-12-28 2013-07-18 Canon Inc Imaging apparatus and imaging method
CN112003994A (en) * 2019-05-27 2020-11-27 佳能株式会社 Image capturing apparatus, control method thereof, and non-transitory computer-readable storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0750804A (en) * 1993-08-06 1995-02-21 Matsushita Electric Ind Co Ltd Signal recorder and signal recording method
JP2000244914A (en) * 1999-02-18 2000-09-08 Matsushita Electric Ind Co Ltd Camera device for multiplexing video and audio
JP2001057059A (en) * 1999-07-30 2001-02-27 Lg Electronics Inc Voice additionally recording method and optical disk recording and reproducing device
JP2004015457A (en) * 2002-06-07 2004-01-15 Sony Corp Video tape recorder
JP2004242041A (en) * 2003-02-05 2004-08-26 Sony Corp Device and method for processing information

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0750804A (en) * 1993-08-06 1995-02-21 Matsushita Electric Ind Co Ltd Signal recorder and signal recording method
JP2000244914A (en) * 1999-02-18 2000-09-08 Matsushita Electric Ind Co Ltd Camera device for multiplexing video and audio
JP2001057059A (en) * 1999-07-30 2001-02-27 Lg Electronics Inc Voice additionally recording method and optical disk recording and reproducing device
JP2004015457A (en) * 2002-06-07 2004-01-15 Sony Corp Video tape recorder
JP2004242041A (en) * 2003-02-05 2004-08-26 Sony Corp Device and method for processing information

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012049980A (en) * 2010-08-30 2012-03-08 Canon Inc Imaging apparatus
JP2013141070A (en) * 2011-12-28 2013-07-18 Canon Inc Imaging apparatus and imaging method
CN112003994A (en) * 2019-05-27 2020-11-27 佳能株式会社 Image capturing apparatus, control method thereof, and non-transitory computer-readable storage medium
CN112003994B (en) * 2019-05-27 2024-01-05 佳能株式会社 Image pickup apparatus, control method therefor, and non-transitory computer-readable storage medium

Also Published As

Publication number Publication date
JP4689525B2 (en) 2011-05-25

Similar Documents

Publication Publication Date Title
JP3698376B2 (en) Synchronous playback device
JP3094999B2 (en) Audio / video synchronous playback device
EP1603336B1 (en) Data processing device and method
JP4904914B2 (en) STREAM GENERATION DEVICE, IMAGING DEVICE, AND STREAM GENERATION METHOD
US8676038B2 (en) Recording/reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method and computer program
KR19980080385A (en) Synchronous delay control device and method
JP4689525B2 (en) Recording device
JP2002015527A (en) Clock generator, and recording and reproducing device
KR100693233B1 (en) Data recording and reproducing apparatus
JP4534168B2 (en) Information processing apparatus and method, recording medium, and program
JP2004040579A (en) Digital broadcast reception device and synchronous reproduction method for digital broadcast
US20060072395A1 (en) Av data conversion device and method
JP3944845B2 (en) Information processing apparatus and method, recording medium, and program
JP2011151784A (en) Moving image multiplexing apparatus, video and audio recording apparatus and moving image multiplexing method
JP2005198350A (en) After-recording signal reproducing method
JP3794146B2 (en) Information reproducing apparatus and method, and providing medium
JP4725675B2 (en) Recording / reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method, and computer program
JP3588550B2 (en) Video coding device
JP2005198349A (en) Recording medium
JPH10262211A (en) Information reproduction device and reproduction method
JP2010183591A (en) Video/audio recording apparatus
JP2005237021A (en) After-recording signal reproduction program
JP2005245006A (en) Postrecording signal reproducing apparatus
JP2005260978A (en) Program for generating after-recording signal
JP2005260979A (en) Method for transmitting after-recording signal

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090413

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110209

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110216

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140225

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees