WO2004086759A1 - 記録方法、記録装置、記録媒体、再生方法、再生装置および撮像装置 - Google Patents

記録方法、記録装置、記録媒体、再生方法、再生装置および撮像装置 Download PDF

Info

Publication number
WO2004086759A1
WO2004086759A1 PCT/JP2004/002134 JP2004002134W WO2004086759A1 WO 2004086759 A1 WO2004086759 A1 WO 2004086759A1 JP 2004002134 W JP2004002134 W JP 2004002134W WO 2004086759 A1 WO2004086759 A1 WO 2004086759A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
decoding
unit
reproduction
time
Prior art date
Application number
PCT/JP2004/002134
Other languages
English (en)
French (fr)
Inventor
Kenichiro Aridome
Katsumi Matsuno
Osamu Date
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US10/511,609 priority Critical patent/US7675555B2/en
Priority to EP04714002A priority patent/EP1615432A4/en
Publication of WO2004086759A1 publication Critical patent/WO2004086759A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10009Improvement or modification of read or write signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2562DVDs [digital versatile discs]; Digital video discs; MMCDs; HDCDs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals

Definitions

  • the present invention relates to a method and apparatus for compressing time-series information such as image information and audio information and recording the compressed information on a recording medium such as a disc, and a reproduction method and apparatus therefor.
  • time-series information such as image information and audio information on a recording medium such as a disk, a tape, or a semiconductor memory
  • the time-series information for a long time is written in a limited writing area.
  • time-series information should be subjected to de-air compression.
  • the M P EG Mo v n g P i ct E E E E E p p p G G G G r s G G r u u u p ⁇ ⁇ ⁇ ⁇ method has been widely used.
  • an image of each frame (or a field, which is the same as the following, but for simplicity of explanation, only the word “frame” is used in the following description) is compressed. It can be divided into three types of I picture, P picture and B picture.
  • An I picture is an image (intra-frame encoded image) which performs closed compression encoding only within one frame.
  • the P picture is an image (forward predictive coded image) to be subjected to compression coding using a correlation with an image frame preceding the image frame.
  • the B picture is an image (bidirectional predictive coded image) to be subjected to compression coding using the correlation of image frames before and after the image frame.
  • the unit of writing / reading to / from the recording medium is composed of so-called GOP (G r o u p i p f i c t u r e) consisting of a plurality of frames.
  • Figures 9A to 9B show an example of the GOP.
  • I picture and P picture are encoded in the same order as the original picture, but B picture is encoded after I picture and P picture are encoded first.
  • the order of the images is rearranged from the original order of the state of FIG. 9A to that shown in FIG. A process of compression encoding is performed on the changed image information (see Japanese Patent Application Laid-Open No. 8-2 1 2 4 5 6).
  • P picture performs predictive coding using forward I picture or P picture.
  • the B picture is sandwiched between the forward and backward I pictures or P pictures.
  • the B picture uses the subsequent I picture or P picture during encoding, as shown in FIG. 9B, the B picture is to be predictively encoded. It rearranges in order of the later I picture or P picture used for. Then, as described later, management information for decoding and reproduction processing is added to the data to be decoded and reproduced, that is, data on a picture unit basis, to the compressed and encoded image data, and the data is recorded on the recording medium. Then, at the time of reproduction of the image data compressed by the MPEG method, management information for decoding and reproduction processing is extracted from the recording data, and the reproduced image in picture units is extracted based on the management information. The output is controlled, and the order of the pictures is restored.
  • the frame order is rearranged as shown in FIG. 9B and the image data is recorded.
  • the correspondence between the information of each decoding and reproduction unit and the additional information becomes difficult.
  • the present invention in consideration of the above points, in the case where the information in the read / write unit to the recording medium includes the information of a plurality of decoded playback units, additional information about each information of the decoded playback unit is The purpose is to provide a method and an apparatus for recording to ensure that the unit response can be taken. Disclosure of the invention
  • a method for compressing time series information and recording it on a recording medium wherein management information for decoding and reproduction processing is added to each of the information of the decoding and reproduction unit of the compressed time series information and recorded.
  • management information for decoding and reproduction processing is added to each of the information of the decoding and reproduction unit of the compressed time series information and recorded.
  • additional information about the information of the decoding reproduction unit for each predetermined time is recorded in association with the management information for the decoding reproduction processing of the information of the corresponding decoding reproduction unit.
  • the additional information on the information on the decoding and reproduction unit is recorded in association with the management information for the decoding and reproduction process on the information on the decoding and reproduction unit.
  • the management information it becomes possible to associate and reproduce the information of the decryption reproduction unit and the additional information thereof.
  • FIG. 1 is a view showing a configuration example of an imaging apparatus to which an embodiment of a recording method according to the present invention is applied.
  • FIG. 2 is a view for explaining an example of the configuration of the data encoding and multiplexing processing portion in FIG. 1;
  • FIG. 3 is a diagram showing logical arrangement on an optical disc in the D V D-V i d e o format.
  • FIG. 4 is a view for explaining an example of the main part of the embodiment of the recording method according to the present invention.
  • FIG. 5 is a view for explaining another example of the main part of the embodiment of the recording method according to the present invention.
  • FIG. 6 is a view for explaining an example of the configuration of the data separation processing and the data decoder portion in FIG. 1;
  • FIG. 7 is a view for explaining another example of the main part of the embodiment of the recording method according to the present invention.
  • FIG. 8 is a view for explaining another example of the main part of the embodiment of the recording method according to the present invention.
  • FIGS. 9A to 9B are diagrams for explaining reordering of pictures in a GOP in the MP E G system.
  • a writable optical disc such as DVD _ R (D costumer Versatile D isc R ecordable DVD-RW (Digita 1 Versatile D isc R e-Writable)) is used as the optical disc.
  • the MP EG 2 method is used as the data compression method, and the recorded data is composed of MPEG 2-PS (PS; Program Memory).
  • FIG. 1 is a block diagram showing a configuration example of a digital force camera according to the embodiment.
  • the digital camera of this example comprises a camera unit 10, a recording and reproduction processing unit 20, and a control unit 30.
  • the control unit 30 has a program ROM (R e d O n ally M e ry) 3 0 3 and a work area via the system bus 3 0 2 with respect to the CPU (C entral P rocessing U nit) 3 0 1 for RAM (R and om Acces ess Memory) 3 04 and operation input unit 3 1 for connecting operation input interface 3 0 5 and L CD as a display device (L iq C rystal D isplay) 3 Communication interface such as L CD controller 3 0 6 for connecting 2 and memory card interface 3 0 7 for loading memory 'card 5 0 and USB (Universal Server Bus) Evening face 3 0 8, clock circuit 3 0 9, and I / O port 3 1 0, 3 1 1, 3 1 2, 3 1 3, 3 14 3 1 5 3 1 6 are connected. It is configured.
  • a program for controlling the camera unit 10, recording control and reproduction control for captured image information and sound information from the microphone, and other programs are written in the ROM 303.
  • the operation input unit 31 has a mode switching key for switching between the shooting mode and other modes such as the playback mode, a zoom adjustment key, a key for exposure adjustment, a shirt evening, a movie shooting key, Several keys such as white balance adjustment keys are provided.
  • the CPU 301 analyzes the operation signal from the operation input unit 31 input through the operation input interface 305, and determines which key of the operation input unit 31 has been operated. , Control processing according to the judgment result.
  • the image and shooting conditions at the time of shooting are displayed on the L CD 32 under the control of the CPU 300, and the playback image and additional information played back from the recording medium are TC ⁇ O
  • the clock circuit 300 measures a clock signal from a reference clock signal generation circuit (not shown) and generates time information representing year, month, day, hour, minute, and second. As a second, you can count the frame unit of the image
  • the clock circuit 3 0 9 is configured to generate information with such decimal precision.
  • the digital camera of this example is configured to be able to record recording data onto an optical disc 40 (hereinafter referred to as DVD 40), as well as to a memory card 50.
  • DVD 40 optical disc 40
  • the memory card 50 records compression data through the memory card interface 3 07.
  • the communication interface 300 is used, for example, to connect the digital camera of this example to a personal computer and exchange recorded data and other data.
  • the camera unit 10 comprises a camera optical system 11, a camera control unit 12, an imaging device 13, an imaging signal processing unit 14, a microphone 15, and an input signal processing unit 16. Be done.
  • the camera optical system 11 includes a lens group for imaging an object, an aperture adjustment mechanism, a focus adjustment mechanism, a zoom mechanism, a shirt mechanism, and a flash (flash) mechanism. It has a camera shake correction mechanism.
  • the camera control unit 12 receives a control signal passing through the I ZO port 3 10 of the control unit 30 and generates a control signal to be supplied to the camera optical system 1 1. Then, the generated control signal is supplied to the camera optical system 11, and control such as zoom control, shutter control, and exposure control is performed. Not only the control signal corresponding to the operation input at that point in the operation input unit 31 but also the operation input at the operation input unit 31 are the signals sent through the I ZO port 3 1 0 of the control unit 30. Control signals based on imaging conditions set in advance.
  • the imaging element 13 is formed of a CCD (CD) (Chage Coupled Device), and the imaging optical system 1 1 The same image is formed. Then, in response to the shutter operation, the image capture timing signal generated from the IZ port 31 1 of the control unit 30 is received, and the subject image formed on the image forming plane is converted into an image capture signal.
  • CCD Compact Image
  • the imaging signal processing unit 14 performs processing such as gamma correction on the imaging signal and AGC (Au to Gain Control) based on the control through the I / O port 32 of the control unit 30. Also performs processing to convert an imaging signal into a digital signal.
  • processing such as gamma correction on the imaging signal and AGC (Au to Gain Control) based on the control through the I / O port 32 of the control unit 30. Also performs processing to convert an imaging signal into a digital signal.
  • the microphone 15 collects the sound around the subject at the time of shooting. Then, the audio signal from this microphone 15 is supplied to the input audio signal processing unit 16.
  • the input audio signal processing unit 16 performs correction of the input audio signal and processing such as AGC (Au to Gain Control) based on the control through the I / O port 3 1 2 of the control unit 30. Also performs processing to convert audio signals into digital signals.
  • AGC Al to Gain Control
  • the digital camera of this example has an external microphone terminal, and when an external microphone is connected to the external microphone terminal, the input audio signal processing unit 16 is Is configured to be switched automatically so that an audio signal from the external microphone is supplied instead of the built-in microphone 15.
  • the AGC processing in the input audio signal processing unit 16 is different between when the audio signal from the built-in microphone 15 is input and when the audio signal from the external microphone is input. , It is designed to be processed taking into consideration the difference in its characteristics.
  • AGC station The switching of the logic is configured to be interlocked with the switching of the input of the audio signal to the input audio signal processing unit 16.
  • the recording / reproducing processing unit 20 is composed of D S P (D i g i t i S i n i 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 1 2 1), a DVD signal processing unit 22, a writing Z reading unit 23, and a video / audio output processing unit 24.
  • a buffer memory 25 composed of, for example, S D R A M is connected to D S P 21.
  • the digital image signal from the imaging signal processing unit 14 and the digital audio signal from the input audio signal processing unit 16 are input to the DSP 2 1, and through the I / O port 3 13 of the control unit 30.
  • the shooting information is entered.
  • the shooting information input through the I / O port 3 1 3 includes shooting time per frame and shooting condition information.
  • the time information from the clock circuit 3 0 9 is read and used as information on the photographing time each time.
  • the time information (shooting start time) of the clock circuit 3 0 9 is captured, and thereafter, the relative time (frame number may be a frame number) relative to the shooting start time is taken. It may be used as time.
  • the shooting condition information includes both information automatically set and information set by the user.
  • exposure control information information for automatic white balance adjustment, digital zoom magnification information, camera shake correction It includes setting information such as information, f-number (f-number), exposure time, AGC gain value, lens focal length and so on.
  • information as to whether the built-in microphone 15 or external microphone is used as means for capturing voice information can be included in the information at the time of shooting.
  • the information at the time of shooting described above is generated as additional information in frame units of an image and recorded.
  • the DSP 2 1 performs automatic white balance control, control for exposure compensation, and digital zoom magnification for digital image signals from the image signal processing unit 14 based on camera information through the I ZO port 3 1 3. Control, etc. Then, D 2 S 2 compresses data of the digital image signal to which such control is added and the digital audio signal from the input audio signal processing unit 16 according to the MP E G 2 method.
  • D 2 S P 2 1 performs additional information processing for recording the information at the time of shooting as additional information with the compressed image data and the compressed audio data.
  • the DSP 2 1 further performs processing to multiplex compressed image data, compressed audio data, and the above-mentioned additional information into data strings according to the MP EG-PS format. .
  • the data of MP EG-PS from the DSP 2 1 is written through the recording signal processing unit of the DVD signal processing unit 22 under the control of the control unit 30 through the I ZO port 3 14.
  • the data is supplied to the reading unit 23 and is written to D VD 40 by the writing / reading unit 23.
  • the write / read unit 23 is controlled by the control unit 30 through the I / O port 316.
  • the data read out from the DVD 40 by the write Z readout unit 23 is supplied to the DSP 21 through the reproduction signal processing unit of the DVD signal processing unit 22.
  • the DSP 2 1 separates multiplexed compressed image data, compressed audio data, and additional information. And DSP 2 1 is separated Uncompressed the compressed image data, reproduce the image data in frame unit in the original order, output to the video / audio output processing unit 24 and decompress the separated compressed audio data. The audio data is played back and output to the video Z audio output processing unit 24.
  • the video / audio output processing unit 24 receives control of the control unit 30 through the IZ port 35 and processes image data and audio data to be output, and the image data as digital data and Audio data is supplied to the control unit 30 through the I / 0 port 3 1 5, and image signals and audio signals converted to analog signals by DZA conversion are output to the output terminals 26 V and 26 A. Do.
  • the reproduced image by the image data input to the control unit 30 through the I / O port 3 15 is reproduced and displayed on the screen of the L C D 32 based on the control of the L C D control 3 0 6.
  • the image data from the imaging signal processing unit 14 is subjected to control processing according to the setting conditions and control conditions at the time of imaging, and then the video is transmitted through the buffer 201. It is supplied to the encoding unit 202.
  • the video encoding unit 202 forms a GOP consisting of at least one I picture and a plurality of P pictures and B pictures, and this G o P is used as a unit of writing to a DVD as a recording medium, and is compressed. To do. That is, in the video encoding unit 202, first, in the picture order rearranging unit 2021, as described with reference to FIGS. 9A to 9B described above, the order of pictures in the GOP is arranged. Make a change.
  • the I picture is subjected to intra-frame coding processing to perform data compression, and for the P picture, the correlation with the forward I picture or P picture is used.
  • Inter-frame prediction coding processing is performed to perform data compression
  • B-pictures inter-frame prediction coding processing using correlation with forward and backward I-pictures or P-pictures is performed to perform data compression.
  • the image data subjected to compression encoding processing in the compression encoding unit 2022 is subjected to variable length encoding processing using a Huffman code or the like in the variable length encoding unit 2023. After being performed, it is supplied to the multiplex unit (multiplexing unit) 2 1 1 through the buffer 2 0 3.
  • audio data from the input audio signal processing unit 16 is fetched in synchronization with the imaging timing and supplied to the audio encoding unit 205 through the buffer 204, and a predetermined amount of audio data is received. Audio data (called an audio frame) is compressed and encoded as a decoding and playback unit. The compression encoded audio data is supplied to the multiplex unit 2 1 1 through the buffer 2 0 6.
  • the shooting time information input from the IZO port 3 1 3 is supplied to the additional information processing unit 2 0 8 through the buffer 2 0 7 and the additional information to be added in frame units of the image is It is generated. Then, the generated additional information is supplied to the multiplex unit 2 1 1 through the buffer 2 0 9.
  • the multiplex unit 21 1 packetizes each of the image data, audio data, and additional information, and multiplexes the image data, audio data, and additional information. In this case, pack headers are added to one or more packet data and grouped to form a pack.
  • the multiplexed output data from the multiplex unit 21 1 is output to the DVD signal processing unit 22, and is written to the DVD 40 by the write Z reading unit 23 as described above.
  • the decoded reproduction unit of the image data or audio data (image data is in one frame unit, in the audio data is one frame unit)
  • Each time, management information called time stamp is added.
  • time management information generation unit 210 supplies information on this time stamp from time management information generation unit 210 to multiplex unit 21 1.
  • This timestamp is given a time reference by the SCR (Sy s tern C l o ck R e f e r e n e c e; reference value).
  • the time stamp is added to the packet header if there is the beginning of the information on the decryption unit in the packet in the multiplex unit 21 1, and if the start of the information on the decryption unit is not in the bucket. Is not added.
  • time stamps There are two types of time stamps: PT S (P r e s e t i t i t i t s i t s amp) and DTS (D e cod i n g i t S i t s amp).
  • the PTS is time management information of reproduction output of information of decoding reproduction unit. That is, PTS is time management information on when to reproduce and output the information on the decryption reproduction unit.
  • timestamp DTS is time management information of decryption of information of decryption reproduction unit.
  • both timestamps are added to the packet header, and if they match, generally only the timestamp P T S is added to the packet header.
  • the time stamp P T S corresponds to the original arrangement order of the frames of the image data, and is time management information corresponding to each frame one to one.
  • the timestamp D T S is not added, only the timestamp P T S is added.
  • the additional information is generated corresponding to each frame of the image data.
  • the image information in frame units is generated. In other words, in conjunction with the change in the order of the encoding process, it is necessary to devise some correspondence between the additional information of each frame and the image information of the corresponding frame. is there.
  • the PTS of the time management information described above corresponds to the original arrangement order of the frames of the image data, and that the time management information corresponds to each frame one to one.
  • this PTS as a medium, it is made to associate the image data of a frame unit as a decoding and reproduction unit with the additional information about the image data. The processing of this association is performed in the multiplex unit 21 1.
  • the first example of this is the case of recording with the DVD-Vide 0 format.
  • the logical arrangement of the recorded data on the optical disc according to the DVD-Video format is as shown in FIG.
  • the recording area of the optical disc is divided into a lead-in area, a data zone area, and a lead-out area in order from the innermost circumference side as viewed in the radial direction of the optical disc.
  • -Data such as management information and image data are recorded in the evening zone area.
  • the data zone area is divided into a UDF (Universal Disk area) area, a VMG (Video area) area, and a real time data recording area in this order from the lead-in area side.
  • the UDF area and the VMG area are recording areas of management information for managing files such as image data recorded on an optical disc.
  • the UDF area is for enabling a computer to read an optical disc by supporting the UDF standard and the ISO 9660 standard.
  • VMG area, t real-time data recording area is a recording area of the DVD management information is Eria for recording image data and Odode Isseki, as shown in FIG. 3 (B), VTS (V ideo T itle Data is recorded in units of data groups called S et).
  • VTS is a VT SI (Video Itie Inte mation), VTS M_VO BS (Video Oject S et F orthe VTSMe nu), and VTS TT_VO. It consists of BS (V ideo Object Set F or T itlesina VT S) and VTS I—BUP (Backup of VT SI).
  • VT SI Video Itie Inte mation
  • VTS M_VO BS Video Oject S et F orthe VTSMe nu
  • VTS TT_VO It consists of BS (V ideo Object Set F or T itlesina VT S) and VTS I—BUP (Backup of VT SI).
  • the compressed data of MP EG 2-PS format is recorded in VT S TT-VO BS as an information block called VOB U (V id o 0 bject Un it) as a read / write unit.
  • the image data contains 1 GOP
  • the audio data contains information corresponding to the 1 GOP.
  • the VO BU also includes additional information on each of the image data in units of frames making up the GOP.
  • VTSI-BUP is backup information of VTSI.
  • the read / write unit data VO B U consists of a plurality of pack P CKs.
  • a pack PCK consists of one or more packets.
  • the pack consists of one packet.
  • One pack in this case is as shown in FIG. 3 (F). That is, the top of the pack PCK is a pack header. Then, in the next package Kuhedda, and packet header position, subsequent to the packet header, the packet former bract image data and audio O data t the bucket Doo data is located made of Isseki the image data and Odode is Private 1 ⁇ It is considered as a packet.
  • the pack header contains the above-mentioned time-based information SCR.
  • a packet start code At the top of the packet header is a packet start code, and in this packet header, flags such as PTS flag and DTS flag Information and timestamp information PTS and DTS are included.
  • the PTS flag and the DTS flag indicate whether or not timestamp information PTS and DTS are included in the packet. As described above, timestamp information PTS and DTS are added to the packet when the beginning of the picture is included in the packet.
  • the additional information constitutes one pack (one packet) per one frame.
  • the packet of additional information includes the corresponding image data timestamp P T S. Therefore, in this example, the additional information packet is in the form of a private 1 packet.
  • this additional information pack is multiplexed before the pack of the image data to which the timestamp P TS is added.
  • FIG. 4 is a diagram for explaining multiplexing processing of additional information and image data for image data of one GOP, and in order to simplify the explanation, multiplexing for audio data is explained. Omitted.
  • 1 G OP consists of 15 frames (1 5 pictures).
  • FIG. 4 (A) shows the image data and additional information input to the buffers 201 and 207.
  • B 0, B 1, 1 2, B 3, B 4, P 5 ⁇ ⁇ ⁇ P 1 4 is the image data in frame units, also considering the picture type, and B is the B picture.
  • I indicate an I picture and P indicates a P picture, respectively.
  • each suffix number is given a serial number in frame units regardless of the picture type.
  • A0 to A14 indicate additional information on the image frame of each suffix number. That is, each of the additional information A 0 to A 14 is It is additional information for image frames with the same suffix number.
  • the image data shown in FIG. 4 (A) is reordered in the picture order in the picture order reordering unit 2 0 2 1 of the video encoding unit 202, and FIG. 4 (B) As shown in.
  • the order of the additional information is not changed, so the additional information shown in FIG. 4 (B) is the same as the order of the additional information shown in FIG. 4 (A). It has become. Therefore, as the arrangement order, it is difficult to associate each picture with additional information about it.
  • the time stamp PTS which is time management information of reproduction output
  • Time stamp PTS # (# is a suffix number, and the smaller the number is, the earlier the time is) shown at the bottom of each picture in Fig. 4 (B) shows the time stamp PTS to be added to each picture. Since the playback output is in the original frame order, the suffix number of each picture and the suffix number of the timestamp PTS are equal.
  • timestamps P T S with the same suffix number are given to additional information on each picture. Therefore, even if the picture order is rearranged, it is possible to associate which additional information is for which picture by referring to the time stamp PTS.
  • V-PCK indicates a video pack (pack of image data)
  • I #,? # ⁇ 8 # indicates that it is compressed image data of each picture shown in FIGS. 4 (A) and 4 (B).
  • the timestamp PTS is included in the packet header of the packet including the beginning of each picture.
  • the timestamp PTS is included in the pack containing the packet.
  • each additional information pack AR I-P CK # (# is a suffix number) is multiplexed immediately before the video pack containing the timestamp PTS, as shown in FIG. 4 (C). Ru.
  • the first pack NV_P CK of the VOBU that contains the GOP data is called the navigation pack, and it is used to specify the search information (for example, to which sector the jump should occur). Management information such as control information) is included.
  • the additional information includes shooting time information (recording time information) for each frame and camera setting information.
  • the camera setting information includes information such as F number, exposure time, exposure program, exposure correction value, AGC gain value, lens focal length, flash, white balance adjustment value, digital zoom magnification, etc. There is.
  • the time stamp PTS of the video pack V—PCK is multiplexed one pack at a time immediately before the pack to be added to the bucket header, but the time stamp PTS It is also possible to multiplex one pack at a time immediately after the pack added to the data.
  • the pack of additional information for each of the 15 pictures making up the GOP AR I-P CK # has the timestamp PTS of the video pack VP CK added to the bucket header.
  • the pack is multiplexed one pack at a time immediately before or after the pack, but additional information packs AR I-P CK # for each of the 15 pictures are collected at a specific position in the VO BU.
  • good c the second example be arranged is an example of this case, as shown in FIG. 5 (B), in each of V_ ⁇ BU shown in FIG.
  • the additional information pack AR I-P CK 0 to AR I _P CK 14 has been placed together immediately after the navigation pack NV-P CK, but at the end of the VOBU It may be arranged collectively, or may be arranged collectively at an intermediate predetermined position in the VO BU.
  • De-multiplexer 2 2 1 separates pack headers and bucket headers from each pack and supplies their header information to control unit 2 20.
  • the control unit 220 analyzes the header information and Extract TS and DTS to control decoding processing and playback output of image data, audio data and additional information.
  • the demultiplexer * multiplexer 21 supplies compressed image data extracted from the separated image data pack to the video decoder 225 through the buffer 22 2, and extracts compressed image data extracted from the separated audio data pack.
  • the audio data is supplied to the audio decoder unit 2 2 6 via the buffer 2 2 3, and the additional information extracted from the separated additional information pack is supplied to the additional information decoder unit 2 2 7 via the buffer 2 2 4.
  • the image data is decompressed / decompressed in the order according to the timestamp DTS to restore the image data in frame units, Output to buffer 2 2 8.
  • the control unit 220 reads out the image data of the frame unit from the buffer 2 2 8 in the order according to the timestamp PTS contained in the image data pack, and the video signal processing unit 2 3 Control to supply to 1.
  • the audio decoder unit 226 sequentially decompresses and decompresses audio data according to the control from the control unit 220 to decompress the audio data and output it to the buffer 229. Then, the control unit 220 reads out audio data from this buffer 229 in the order according to the time stamp PTS contained in the audio data pack, and sends it to the audio signal processing unit 2 32 Control to supply.
  • the additional information decoder unit 2 2 2 7 reproduces the additional information on the image data of the frame unit under the control of the control unit 2 2 0 and outputs it to the buffer 2 3 0.
  • the additional information is information AV for controlling image data, information for controlling audio data A A and display information Ad such as shooting date and time are generated and output to the buffer 230 respectively.
  • the control unit 220 reads out additional information on the image data in units of frames from this buffer 230 in the order according to the time stamp PTS included in the additional information pack.
  • the video signal processor 2 3 1 the audio data control information A a, the audio signal processor 2 3 2, the display information Ad is an O SD (On S creen D islay) circuit 2 3 Control to supply to 3 respectively.
  • the control signal AV of the image data and the control information A of the audio data control are supplied from the buffer 2 3 0 to the video signal processing unit 2 3 1 and the audio signal processing unit 2 3 2.
  • the control information AV and Aa are image data and audio data of the corresponding frame, and are automatically associated. Therefore, for the image data and audio data, appropriate control processing is performed by the corresponding control information AV and Aa.
  • the video signal processing unit 21 performs image data processing according to the control information AV of the image data. For example, it performs image data control according to the auto white balance adjustment at the time of shooting.
  • audio data control processing is performed according to the audio data control information Aa.
  • Display information A d is display information such as shooting date, shooting time, and zoom magnification, and is supplied to the combining unit 2 34 via the OSD circuit 2 3 3 and an image from the video signal processing unit 2 3 1 Synthesized into data.
  • the image data from the combining unit 234 is supplied to the control unit 30 through the video / audio output processing unit 24 and displayed on the screen of the L CD 32.
  • the image data and the display information A d of the additional information are read out from the buffers 2 2 8 and 2 3 0 based on the same time stamp PTS for the corresponding frame and synthesized. As a result, the frame-by-frame shooting time will be displayed correctly on the LCD 32 screen.
  • the additional information is for each of the image frames
  • additional information on 15 pictures (frames) in the OBU may be recorded collectively.
  • FIG. 7 shows an example of the data format in that case. That is, in this example, for each of the VO BUs shown in FIG. 7 (A), as shown in FIG. 7 (B), a navigation pack NV ⁇ P
  • the additional information pack AR I _P CK a set of additional information about each image frame and PTS is included for the 15 image frames constituting the GOP. That is, as shown in FIG. 7 (C), the additional information on each image frame is delineated as AR I-DT # (# is a frame number) and the time stamp PTS added to the image frame. A pair of data # that is mapped to # generates an ARI — SET #. Then, 15 sets of data AR I-S ET 0 to AR I-S ET 14 for 1 5 frames constituting the GOP should be included in the additional information pack AR I-P CK in order. Make it
  • private 1 ⁇ packets can be used as packets of bucketed AR I-P CK for additional information as in the previous example, but the private 2 shown in FIG. 7 (D) ⁇ Packets are also available.
  • PTS is detected from each set of data AR I-S ET and, using this PTS, as in the above-mentioned example, image data and image data are used.
  • image data and image data are used.
  • the additional information pack to which the timestamp PTS is added and the video including the PTS in the bucket header, regardless of the reordering in the picture order, remains in the original chronological order.
  • the pack V is added before (or after) the P CK, the PTS is included in the bucket header as well as the additional information, according to the reordering of the picture order of the image data.
  • the video pack V-P CK and the additional information pack AR I-P CK have the same PTS contained in the packet header, so that they can be easily matched. become.
  • the pack ARI-PCK of the additional information is a video pack of the image frame to which the additional information corresponds, and the PTS is added before or after the pack included in the bucket header. Therefore, the correspondence between the additional information and the image frame to which the additional information corresponds can be easily related to the additional information even if there is no PTS.
  • the pack of additional information ARI-PCK is a video pack of the image frame to which the additional information corresponds, and the PTS is a buckethead header.
  • the packet of the additional information pack can be the private 2.
  • the fourth other example is a modification of the example shown in FIG. 5 and the additional information pack ARI—PCK does not include the timestamp PTS. That is, in the fourth other example, when the image data is restored, the PTS returns to the original picture order (frame order) and the image is reproduced based on the PTS.
  • the additional information pack ARIPCK is also arranged in the order in which it is performed. Therefore, The additional information pack AR I-PCK is arranged in the order as shown in FIG. 5 (B).
  • the additional information corresponding to each image frame is sequentially returned to the original image frame whose reproduction order has been restored and output.
  • the output it can be used as control information and display information in correspondence with the restored reproduction output image data and audio data.
  • additional information is generated and added for each image frame, but additional information may not be generated for all image frames.
  • This sixth other example is an example of that case, and in this example, for example, one frame for every two image frames, one frame for every three image frames,...
  • additional information about the image frame is generated for the image frame and associated with the management information for the decoding and playback process for the image frame.
  • PTS timestamp
  • additional information on the image frame is synchronized with the reproduction of the information on the image frame as a decoding and reproduction unit for each predetermined time. It is easy to reproduce and use it.
  • the additional information when the additional information is a recording time, the recording time for the image frame in which the additional information is not recorded can be easily obtained by calculation from the recording time as the additional information recorded. Further, as for image frames in the vicinity of an image frame in which additional information is recorded, the additional information may be used as additional information on image frames in the vicinity thereof.
  • the recording method and the reproducing method according to the present invention are not limited to the case where they are applied only to the above-described imaging device, and can be applied to various electronic devices that compress and record image data and audio data. It goes without saying that there are certain things.
  • the above example has mainly described the case where additional information is added to one frame unit of image data, it is also possible to add additional information as a decoding reproduction unit as a frame of audio data.
  • additional information on each piece of information on the decoding and reproduction unit is recorded so that the correspondence on each decoding and reproduction unit can be reliably taken. Can.
  • the additional information on the information on the decoding and reproduction unit is recorded on the recording medium so that the correspondence on the decoding and reproduction unit can be reliably taken.
  • signal control such as correction control becomes possible based on the additional information for the information of the decoding and reproduction unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

記録媒体に対する読み書き単位内の情報内に、複数の復号再生単位の情報が含まれる場合において、復号再生単位の情報についての付加情報を、当該復号再生単位についての対応が確実に取れる記録方法である。時系列情報をデータ圧縮して記録媒体に記録する。圧縮された時系列情報の復号再生単位の情報のそれぞれには、復号再生処理のための管理情報を付加して記録する。復号再生単位の情報についての付加情報を、対応する復号再生単位の情報についての復号再生処理のための管理情報に関連付けて記録する。

Description

明細 ; 記録方法、 記録装置、 記録媒体、 再生方法、 再生装置および撮像装置 技術分野
この発明は、 例えば画像情報やオーディォ情報等の時系列情報を圧縮 してディスクなどの記録媒体に記録する方法、 装置およびその再生方法、 装置に関する。 背景技術
例えば、 画像情報およびオーディオ情報等の時系列情報を、 ディスク, テープ、 半導体メモリなどの記録媒体に記録する場合には、 限られた書 き込み領域に、 より長時間分の時系列情報を書き込むことができるよう にするため、 一般に、 時系列情報は、 デ一夕圧縮するようにする。
このデータ圧縮の方法としては、 従来から、 M P EG (Mo v i n g P i c t u r e E x p e r t s G r o u p) 方式が広く利用されて いる。
MP EG方式では、 画像情報については、 画像情報の復号再生単位で ある画像フレーム (あるいは画像フィールド) の情報の相関を利用した 予測符号化と、 DCT (D i s c r e t e C o s i n e T r a n s f o rm ;離散コサイン変換) を用いたデータ圧縮を行なう。
MP EG方式においては、 各フレーム (またはフィールド。 以下同様 であるが、 説明の簡単のため、 以下の説明においては、 「フレーム」 の 語のみを使用するものとする) の画像は、 圧縮の仕方の違いにより、 I ピクチャと、 Pピクチャと、 Bピクチャとの、 3つ'のタイプに分けられ る。 I ピクチャは、 1フレーム内だけで閉じた圧縮符号化を行なう画像 (フレーム内符号化画像) である。 Pピクチャは、 当該画像フレームよ りも前の画像フレームとの相関を利用した圧縮符号化を行なう画像 (順 方向予測符号化画像) である。 また、 Bピクチャは、 当該画像フレーム の前と後の画像フレームの相関を利用した圧縮符号化を行なう画像 (双 方向予測符号化画像) である。
そして、 MP E G方式においては、 記録媒体に対する書き込み/読み 出しの単位 (読み書き単位) は、 複数フレーム分からなるいわゆる GO P (G r o u p o f P i c t u r e ) で構成される。 第 9 A図乃至 第 9 B図に GO Pの一例を示す。
第 9 A図乃至第 9 B図に示すように、 MP E G方式では、 G〇 Pには, I ピクチャが、 少なくとも 1枚必ず含まれるようにされている。 Pピク チヤと Bピクチャだけでは、 画像の復号ができないからである。 このよ うに GO Pに I ピクチャが含まれることにより、 GO P単位でランダム アクセスが可能となる。
I ピクチャおよび Pピクチャは、 元の画像と同じ順序で符号化処理さ れるが、 Bピクチャは、 I ピクチャおよび Pピクチャを先に符号化処理 した後、 符号化処理するようにする。 この符号化の順番を考慮して、 M P E Gエンコーダにおいては、 画像の順序が、 第 9 A図の状態のもとの 並び順のものから、 第 9 B図に示すように並び換えられ、 当該並び換え られた画像情報に対して、 圧縮符号化の処理がなされる (特開平 8 — 2 1 4 2 6 5号公報参照) 。
すなわち、 第 9 A図において矢印で示すように、 Pピクチャは、 前方 の I ピクチャあるいは Pピクチャを利用した予測符号化を行なう。 また, Bピクチャは、 前方および後方の I ピクチャまたは Pピクチャに挟まれ る 2枚分について、 それら前方および後方の I ピクチャまたは Pピクチ ャを利用した予測符号化を行なう。
このように Bピクチャは、 符号化の際に、 後方の I ピクチャまたは P ピクチャを利用することになるので、 第 9 B図に示すように、 当該 Bピ クチャは、 それを予測符号化するために用いる後方の I ピクチャまたは Pピクチャよりも後の順序となるように並び換えを行なうものである。 そして、 後述するように、 圧縮符号化された画像データには、 復号再 生単位、 つまり、 ピクチャ単位のデータに、 復号再生処理のための管理 情報が付加されて、 記録媒体に記録される。 そして、 M P E G方式で圧 縮された画像デ一夕の再生の際には、 復号再生処理のための管理情報が 記録データから抽出され、 当該管理情報に基づいて、 再生されたピクチ ャ単位の画像出力が制御され、 ピクチャの並び順が元に戻される。
ところで、 例えば、 静止画のみではなく動画も撮影できるデジ夕ルカ メラにおいても、 データ圧縮方式として M P E G方式が採用されている t デジタルカメラにおいては、 撮影時刻のほか-. 絞り 露出値、 ホワイト バランスの状態などの撮影条件を画像情報に付加情報として、 記録媒体 に記録することができれば便利である。
特に、 画像のフレーム単位での撮影時刻や撮影条件などの付加情報が、 各フレームの画像情報に対応して記録されれば、 どのようにして当該フ レームの画像が撮影されたかを知ることができ、 便利である。 また、 そ れらのフレーム単位の画像についての付加情報は、 画像再生処理や編集 処理の際に参照することにより、 再生画質の向上が図られたり、 また、 きめの細かい編集処理が可能になったりするなど、 種々の用途への応用 が期待される。
しかしながら、 M P E G方式の記録データの伝送フォ一マットにおい ては、 画像データやオーディオデータについての付加情報の記録 (伝 送) についての方策は提案されておらず、 どのようにして付加情報を便 宜に利用できる状態で付加するかということが技術的な課題となってい る。
そして、 この場合に、 前述の M P E G方式のように、 復号再生単位と しての画像のフレームを、 記録媒体に対する読み書き単位である G O P 内に、 複数単位分含むような場合において、 復号再生単位の情報のそれ ぞれについて、 付加情報を記録しょうとする場合には、 各復号再生単位 についての付加情報を、 どのようにして復号再生単位の情報に対応付け て記録するかということが重要となる。
とりわけ、 前述したように、 M P E G方式における読み書き単位であ る G O P内のように、 符号化処理の際に、 フレーム順序が第 9 B図に示 すように並び換えられて画像データが記録される場合には、 各復号再生 単位の情報と、 その付加情報との対応がつきにくくなるという問題があ る。
この発明は、 以上の点にかんがみ、 記録媒体に対する読み書き単位内 の情報内に、 複数の復号再生単位の情報が含まれる場合において、 復号 再生単位の情報のそれぞれについての付加情報を、 各復号再生単位につ いての対応が確実に取れるように記録する方法および装置を提供するこ とを目的とする。 発明の開示
上記課題を解決するために、 この発明は、
時系列情報をデータ圧縮して記録媒体に記録する方法であって、 前記 圧縮された前記時系列情報の復号再生単位の情報のそれぞれには、 復号 再生処理のための管理情報を付加して記録する方法において、 前記復号再生単位の情報のうち、 所定時間毎の復号再生単位の情報に ついての付加情報を、 対応する前記復号再生単位の情報についての前記 復号再生処理のための管理情報に関連付けて記録する
ことを特徴とする。
この発明によれば、 復号再生単位の情報についての復号再生処理のた めの管理情報に関連付けられて、 復号再生単位の情報についての付加情 報が記録されているので、 復号再生処理のための管理情報を参照するこ とにより、 復号再生単位の情報とその付加情報とを関連付けて再生する ことが可能になる。
したがって、 付加情報を対応する復号再生単位の情報の再生出力に合 わせて出力することが可能になる。 また、 付加情報を用いて、 対応する 復号再生単位の情報の再生処理を制御することも容易にできるようにな
•o。 図面の簡単な説明
第 1図は、 この発明による記録方法の実施形態が適用された撮像装置 の構成例を示す図である。
第 2図は、 第 1図におけるデータェンコ一ドおよび多重化処理部分の 構成例を説明するための図である。
第 3図は、 D V D— V i d e oフォーマットによる光ディスク上の論 理配置を示す図である。
第 4図は、 この発明による記録方法の実施形態の要部の一例を説明す るための図である。
第 5図は、 この発明による記録方法の実施形態の要部の他の例を説明 するための図である。 第 6図は、 第 1図におけるデータ分離処理およびデータデコーダ部分 の構成例を説明するための図である。
第 7図は、 この発明による記録方法の実施形態の要部の他の例を説明 するための図である。
第 8図は、 この発明による記録方法の実施形態の要部の他の例を説明 するための図である。
第 9 A図乃至第 9 B図は、 MP E G方式における GO P内のピクチャ の並び換えを説明するための図である。 発明を実施するための最良の形態
以下、 この発明による記録方法および再生方法の実施形態を、 記録媒 体として例えば光ディスクを用いたデジタルカメラに適用した場合を例 にとつて、 図を参照しながら説明する。
この例では、 光ディスクとして DVD _ R (D i g i t a l V e r s a t i l e D i s c R e c o r d a b l e ゃ DVD— RW (D i g i t a 1 V e r s a t i l e D i s c R e — W r i t a b l e ) などの書き込み可能な光ディスクを用いる場合である。 そして、 デ 一夕圧縮方式としては、 MP E G 2方式が用いられ、 記録データは、 M P E G 2— P S (P S ; P r o g r am S t r e am) の構成とされ る。
第 1図は、 実施形態のデジタル力メラの構成例を示すブロック図であ る。 この例のデジタルカメラは、 カメラ部 1 0と、 記録再生処理部 2 0 と、 制御部 3 0とからなる。
制御部 3 0は、 C P U (C e n t r a l P r o c e s s i n g U n i t ) 3 0 1に対して、 システムバス 3 0 2を介して、 プログラム R OM (R e a d O n l y M e mo r y) 3 0 3と、 ワークエリァ用 RAM (R a n d om Ac c e s s Memo r y) 3 04と、 操作 入力部 3 1を接続するための操作入カイン夕一フェース 3 0 5と、 表示 装置としての L CD (L i q u i d C r y s t a l D i s p l a y) 3 2を接続するための L CDコントローラ 3 0 6と、 メモリ ' カー ド 5 0を装填するためのメモリ ·カードインタ一フェース 3 0 7と、 U S B (Un i v e r s a l S e r i a l B u s ) などの通信ィン夕 一フェース 3 0 8と、 時計回路 3 0 9と、 I /Oポート 3 1 0, 3 1 1, 3 1 2, 3 1 3, 3 14, 3 1 5, 3 1 6とが接続されて構成されてい る。
ROM 3 0 3には、 カメラ部 1 0を制御するためのプログラムや、 撮 影した画像情報やマイクロホンからの音声情報についての記録制御およ び再生制御、 その他のプログラムが書き込まれている
操作入力部 3 1には、 撮影モードと再生モードなどの他のモードとを 切り換えるモード切り換えキ一、 ズーム調整キー、 露出調整のためのキ -, シャツ夕一キ一、 動画撮影用キ一、 ホワイトバランス調整用キーな どの複数のキーが設けられている。
C P U 3 0 1は、 操作入カインタ一フエ一ス 3 0 5を通じて入力され る操作入力部 3 1からの操作信号を解析して、 操作入力部 3 1のいずれ のキーが操作されたかを判別し、 その判別結果に応じた制御処理を行な う。
L CD 3 2には、 C P U 3 0 1の制御の下に、 撮影時の画像や撮影条 件が表示されると共に、 記録媒体から再生された再生画像や付加情報が TC ^れ O
時計回路 3 0 9は、 図示を省略した基準クロック信号発生回路からの クロック信号を計測して、 年、 月、 日、 時間、 分、 秒を表わす時間情報 を生成する。 秒としては、 画像のフレーム単位を計数することができる ような小数点以下の精度の情報を発生するように、 この時計回路 3 0 9 は構成されている。
この例のデジタルカメラは、 記録データを光ディスク 40 (以下、 D VD 40と表す。 ) に記録することができるほかに、 メモリ ·カード 5 0にも記録できるように構成されている。 その場合には、 メモリ ·カー ド 5 0には、 メモリ ·カードインタ一フェース 3 0 7を通じて圧縮デ一 夕が記録される。
通信ィンターフェース 3 0 8は、 例えばこの例のデジタルカメラをパ 一ソナルコンピュータに接続して、 記録データやその他のデータのやり 取りをする際に用いられる。
カメラ部 1 0は、 カメラ光学系 1 1と、 カメラコントロール部 1 2と, 撮像素子 1 3と、 撮像信号処理部 14と、 マイクロホン 1 5と、 入カオ —ディォ信号処理部 1 6とから構成される。
カメラ光学系 1 1は、 図示を省略したが、 被写体を撮像するためのレ ンズ群と、 絞り調整機構 フォ一カス調整機構、 ズーム機構、 シャツ夕 一機構、 フラッシュ (ストロボ) 機構を備えると共に、 手ぶれ補正機構 を備えている。
カメラコントロール部 1 2は、 制御部 3 0の I ZOポ一ト 3 1 0を通 じた制御信号を受けて、 カメラ光学系 1 1に供給する制御信号を生成す る。 そして、 生成した制御信号をカメラ光学系 1 1に供給して、 ズ一ム 制御、 シャッター制御、 露出制御などの制御を行なう。 制御部 3 0の I ZOポート 3 1 0を通じた信号には、 操作入力部 3 1でのその時点での 操作入力に応じた制御信号だけでなく、 操作入力部 3 1での操作入力に 応じて予め設定された撮影条件に基づく制御信号が含まれる。
撮像素子 1 3は、 この例では、 C CD (C h a r g e C o u p l e d D e v i c e) で構成され、 その結像面に、 カメラ光学系 1 1を通 じた像が結像される。 そして、 シャッター操作に応じて制御部 3 0の I Z〇ポート 3 1 1から発生する画像取り込みタイミング信号を受けて、 結像面に結像されている被写体像を撮像信号に変換し、 撮像信号処理部
1 4に供給する。
撮像信号処理部 1 4では、 制御部 3 0の I /Oポート 3 1 2を通じた 制御に基づいて、 撮像信号についてのガンマ補正や AG C (Au t o G a i n C o n t r o l ) などの処理を行なうと共に、 撮像信号をデ ジタル信号に変換する処理も行なう。
また、 マイクロホン 1 5により、 撮影時の被写体周辺の音声が収集さ れる。 そして、 このマイクロホン 1 5からの音声信号が入力オーディオ 信号処理部 1 6に供給される。
入力オーディォ信号処理部 1 6では、 制御部 3 0の I /Oポート 3 1 2を通じた制御に基づいて、 入力オーディォ信号についての補正や A G C (Au t o G a i n C o n t r o l ) などの処理を行なうと共に, オーディォ信号をデジタル信号に変換する処理も行なう。
第 1図では、 図示を省略したが、 この例のデジタルカメラにおいては, 外部マイクロホン端子を備え、 当該外部マイクロホン端子に外部マイク 口ホンが接続された場合には、 入力オーディオ信号処理部 1 6には、 内 蔵マイクロホン 1 5ではなく、 当該外部マイクロホンからのオーディォ 信号が供給されるように、 自動的に切り換えられるように構成されてい る。
そして、 この例においては、 入力オーディオ信号処理部 1 6での AG C処理は、 内蔵マイクロホン 1 5からのオーディオ信号が入力された場 合と、 外部マイクロホンからのオーディォ信号が入力された場合とでは, その特性の違いを考慮した処理がなされるようにされている。 AGC処 理の切り換えは、 入力オーディオ信号処理部 1 6へのオーディオ信号の 入力切り換えに連動して行なわれるように構成されている。
記録再生処理部 2 0は、 D S P (D i g i t a l S i n a l P r o c e s s o r) 2 1と、 DVD信号処理部 2 2ヒ、 書き込み Z読み 出し部 2 3と、 ビデオ/オーディオ出力処理部 24とからなる。 D S P 2 1には、 例えば S D R A Mからなるバッファメモリ 2 5が接続されて いる。
D S P 2 1には、 撮像信号処理部 1 4からのデジタル画像信号および 入力オーディォ信号処理部 1 6からのデジタルオーディォ信号が入力さ れると共に、 制御部 3 0の I /Oポート 3 1 3を通じて、 撮影時の情報 が入力される。 I /Oポート 3 1 3を通じて入力される撮影時の情報に は、 フレーム単位の撮影時刻や、 撮影条件情報が含まれる。
撮影時刻の情報としては、 この例では、 時計回路 3 0 9からの時刻情 報をその都度読み込んで用いる。 しかし、 動画の撮影開始時点で、 時計 回路 3 0 9の時刻情報 (撮影開始時刻) を取り込み、 それ以降は、 前記 撮影開始時刻を基準にしたフレーム単位の相対時刻 (フレーム番号でも よい) を撮影時刻として用いるようにしても良い。
また、 撮影条件情報には、 自動的に設定される情報およびユーザ一に より設定される情報との両方を含み、 例えば、 露出制御情報、 自動ホヮ ィトバランス調整用情報、 デジタルズーム倍率情報、 手ぶれ補正情報、 F値 (Fナンバー) 、 露出時間、 AGCゲイン値、 レンズ焦点距離など の設定情報を含む。
また、 この例においては、 音声情報の取り込み手段として内蔵マイク 口ホン 1 5を使用したか、 あるいは外部マイクロホンを使用したかの情 報も、 撮影時の情報に含められる。 上述した撮影時の情報は、 この実施形態では、 後述するように、 付加 情報として画像のフレーム単位に生成されて、 記録されるようにされて いる
D S P 2 1は、 I ZOポート 3 1 3を通じたカメラ情報に基づき、 撮 像信号処理部 1 4からのデジタル画像信号について、 自動ホワイトバラ ンス制御や、 露出補正のための制御、 デジタルズーム倍率に応じた制御 などを行なう。 そして、 D S P 2 1は、 このような制御が加えられたデ ジタル画像信号と、 入力オーディォ信号処理部 1 6からのデジタルォー ディォ信号とを、 MP E G 2方式によりデータ圧縮する。
また、 D S P 2 1は、 入力された撮影時情報について、 当該撮影時情 報を付加情報として圧縮画像デ一タや圧縮オーディオデータと共に記録 するための付加情報処理を行なう。
D S P 2 1は、 さらに、 圧縮した画像データと、 圧縮したオーディオ データと、 前述の付加情報とを、 多重化して、 MP E G— P Sフォーマ ットに従ったデータ列となるようにする処理も行なう。
そして、 D S P 2 1からの MP EG— P Sフォ一マツ 卜のデ一夕は、 I ZOポート 3 1 4を通じて制御部 3 0の制御を受ける D V D信号処理 部 2 2の記録信号処理部を通じて書き込み Z読み出し部 2 3に供給され, この書き込み/読み出し部 2 3により、 D VD 4 0に書き込まれる。 書 き込み/読み出し部 2 3は、 I /Oポート 3 1 6を通じて制御部 3 0の 制御を受ける。
そして、 書き込み Z読み出し部 2 3によって DVD 4 0から読み出さ れたデ一夕は、 D VD信号処理部 2 2の再生信号処理部を通じて D S P 2 1に供給される。
D S P 2 1では、 多重化されている圧縮画像デ一夕と、 圧縮オーディ ォデータと、 付加情報とを分離する。 そして、 D S P 2 1は、 分離され た圧縮画像データの圧縮を解凍し、 元の並び順のフレーム単位の画像デ 一夕を再生し、 ビデオ/オーディオ出力処理部 2 4に出力すると共に、 分離された圧縮オーディォデ一夕の圧縮を解凍して、 オーディォデータ を再生し、 ビデオ Zオーディオ出力処理部 2 4に出力する。
ビデオ/オーディオ出力処理部 2 4は、 I Z〇ポート 3 1 5を通じて 制御部 3 0の制御を受けて、 出力すべき画像データおよびオーディオデ 一夕についての処理をし、 デジタルデータとしての画像データおよびォ —ディォデータは、 I / 0ポ一ト 3 1 5を通じて制御部 3 0に供給する と共に、 D Z A変換してアナログ信号にした画像信号およびオーディォ 信号は、 出力端子 2 6 Vおよび 2 6 Aに出力する。 I / Oポート 3 1 5 を通じて制御部 3 0に入力された画像デ一夕による再生画像は、 L C D コントロ一ラ 3 0 6の制御に基づいて、 L C D 3 2の画面において再生 表示される。
[データ圧縮および多重化処理について]
次に D S P 2 1におけるデ一夕圧縮および多重化の処理について、 第 2図を参照して、 さらに詳細に説明する。
すなわち、 D S P 2 1においては、 撮像信号処理部 1 4からの画像デ 一夕は、 前述したように、 撮像時の設定条件や制御条件に従って制御処 理がなされた後、 バッファ 2 0 1を通じてビデオエンコード部 2 0 2に 供給される。
ビデオエンコード部 2 0 2では、 少なくとも 1枚の I ピクチャと、 複 数枚の Pピクチャおよび Bピクチャからなる G O Pを構成し、 この G〇 Pを、 記録媒体としての D V Dに対する書き込み単位として、 圧縮処理 するようにする。 すなわち、 ビデオエンコード部 2 0 2では、 先ず、 ピクチャ順並び換 え部 2 0 2 1において、 前述の第 9 A図乃至第 9 B図を用いて説明した ように、 G O P内におけるピクチャ順の並び換えを行なう。
そして、 次に、 圧縮符号化部 2 0 2 2において、 I ピクチャについて は、 フレーム内符号化処理を行なってデータ圧縮を行ない、 Pピクチャ については、 前方の I ピクチャまたは Pピクチャとの相関を利用したフ レーム間予測符号化処理を行なってデータ圧縮を行ない、 Bピクチャに ついては、 前方および後方の I ピクチャまたは Pピクチャとの相関を利 用したフレーム間予測符号化処理を行なってデ一夕圧縮を行なう。 なお, Pピクチャについては、 フレーム内符号化処理を行なう画像部分も存在 する。
以上のようにして、 圧縮符号化部 2 0 2 2において圧縮符号化処理が 行なわれた画像データは、 可変長符号化部 2 0 2 3においてハフマン符 号などを用いた可変長符号化処理が行なわれた後、 バッファ 2 0 3を通 じてマルチプレックス部 (多重化部) 2 1 1に供給される。
また、 D S P 2 1においては、 入力オーディォ信号処理部 1 6からの オーディォデータは、 撮像タイミングに同期して取り込まれてバッファ 2 0 4を通じてオーディォエンコード部 2 0 5に供給され、 所定量のォ 一ディォデータ (オーディオフレームと呼ばれる) を復号再生単位とし て、 圧縮符号化される。 圧縮符号化されたオーディォデータは、 バッフ ァ 2 0 6を通じてマルチプレックス部 2 1 1に供給される。
さらに、 D S P 2 1においては、 I Z Oポート 3 1 3から入力された 撮影時情報は、 バッファ 2 0 7を通じて付加情報処理部 2 0 8に供給さ れて、 画像のフレーム単位に付加する付加情報が生成される。 そして、 生成された付加情報は、 バッファ 2 0 9を通じてマルチプレックス部 2 1 1に供給される。 マルチプレックス部 2 1 1では、 画像データ、 オーディオデータ、 付 加情報のそれぞれをパケット化して、 画像データ、 オーディオデータ、 付加情報を多重化する。 この場合に、 1または複数個のパケットデータ にパックヘッダを付加してグループ化して、 パックを構成する。 このマ ルチプレックス部 2 1 1からの多重化出力データは、 DVD信号処理部 2 2に出力され、 書き込み Z読み出し部 2 3により、 上述したようにし て、 D VD 40に書き込まれる。
そして、 画像データとオーディオとの同期を取るために、 MP EG方 式においては、 画像データあるいはオーディォデータの復号再生単位 (画像データは、 1フレーム単位、 オーディオデータでは、 ォ一ディォ フレーム単位) ごとに、 タイムスタンプと呼ばれる管理情報が付加され る。
このタイムスタンプの情報は、 時刻管理情報発生部 2 1 0からマルチ プレックス部 2 1 1に供給される。 このタイムスタンプは、 S CR (S y s t ern C l o c k R e f e r e n c e ; システム時刻基準参照 値) によって時間基準が与えられる。
タイムスタンプは、 マルチプレックス部 2 1 1において、 パケットの 中に復号再生単位の情報の先頭がある場合に、 そのバケツトヘッダに付 加され、 バケツトの中に復号再生単位の情報の先頭がない場合には付加 されない。
タイムスタンプには、 PT S (P r e s e n t a t i o n T i me S t amp) と、 DTS (D e c o d i n g T i me S t amp) との 2種類がある。
PTSは、 復号再生単位の情報の再生出力の時刻管理情報である。 す なわち、 PTSは、 復号再生単位の情報を、 いつ再生出力するかの時刻 管理情報である。 また、 タイムスタンプ D T Sは、 復号再生単位の情報の復号の時刻管 理情報である。 これは、 前述したように、 M P E G方式では、 ピクチャ の並び順を符号化の際に並び換えることにより、 再生出力順序と、 復号 順序とが異なることに対応して設けられたものである。
タイムスタンプ P T Sと D T Sとが異なる場合には、 両方のタイムス タンプがパケットヘッダに付加され、 一致する場合には、 一般にタイム スタンプ P T Sのみがパケットヘッダに付加される。
以上のように、 タイムスタンプ P T Sは、 画像デ一夕のフレームの、 元の並び順に対応するものであり、 かつ、 各フレームに 1対 1に対応す る時刻管理情報である。 オーディオデ一夕については、 タイムスタンプ D T Sは付加されず、 タイムスタンプ P T Sのみが付加される。
ところで、 この実施形態では、 付加情報は、 前述したように、 画像デ 一夕の各フレームに対応して発生させるようにしているが、 前述したよ うに、 M P E G方式においては、 フレーム単位の画像情報、 つまりピク チヤは、 符号化処理の際に並び順が変更されることとも相俟って、 各フ レームについての付加情報と、 対応するフレームの画像情報との対応付 けについて工夫が必要である。
この実施形態では、 上述した時刻管理情報の P T Sが、 画像デ一夕の フレームの、 元の並び順に対応するものであり、 かつ、 各フレームに 1 対 1に対応する時刻管理情報であることを利用して、 この P T Sを媒介 にして、 復号再生単位としてのフレーム単位の画像デ一夕と、 当該画像 データについての付加情報との対応を付けるようにする。 この対応付け の処理は、 マルチプレックス部 2 1 1においてなされる。
以下に、 このマルチプレックス部 2 1 1における画像フレームと、 付 加情報との対応付けのための処理のいくつかの例を説明する。
[画像フレームと付加情報との対応付けの第 1の例] この第 1の例は、 D VD— V i d e 0フォーマツトによる記録時の場 合である。 DVD— V i d e oフォーマツトによる光ディスク上におけ る記録データの論理配置は、 第 3図に示すようなものとなる。
すなわち、 光ディスクの記録エリアは、 第 3図 (A) に示すように、 光ディスクの半径方向に見て、 最内周側から、 順に、 リードインエリア, データゾーンエリア、 リードアウトエリアに区分けされる。 そして、 デ
—夕ゾーンエリアに、 管理情報および画像データ等のデータが記録され る。
デ—夕ゾーンエリアは、 リードインエリア側から、 順に、 UDF (U n i v e r s a l D i s c F o rma t ) エリア、 VMG (V i d e o M a n a G e r ) エリア、 リアルタイムデータ記録エリアに区分 けされる。 U D Fエリアおよび V M Gエリアは、 光ディスクに記録され た画像デ一夕等のファイルを管理する管理用情報の記録エリァである。 UD Fエリアは、 UD F規格と I S O 9 6 6 0規格をサボ一トすること により、 コンピュータで光ディスクを読むことができるようにするため のものである。 VMGエリアは、 DVD管理用情報の記録エリアである t リアルタイムデータ記録エリアは、 画像データやオーディォデ一夕を 記録するエリァであり、 第 3図 (B) に示すように、 VTS (V i d e o T i t l e S e t ) と呼ばれるデータ群を単位として、 データの 記録がなされる。
VT Sは、 第 3図 (C) に示すように、 VT S I (V i d e o T i t i e S e t I n f o rma t i o n) と、 VTS M_VO B S (V i d e o O b j e c t S e t F o r t h e VTSMe n u) と、 VTS TT_VO B S (V i d e o Ob j e c t S e t F o r T i t l e s i n a VT S) と、 VTS I— BUP (B a c k u p o f VT S I ) とからなる。 VT S TT— VO B Sには、 第 3図 (D) に示すように、 MP E G 2 — P Sフォーマツトの圧縮データが、 VOB U (V i d e o 0 b j e c t Un i t ) と呼ばれる情報ブロックを読み書き単位として記録さ れる。 VO B Uには、 画像データは、 1 GO Pが含まれ、 オーディオデ —タは、 当該 1 GO Pに対応する情報が含まれる。 つまり、 光ディスク には、 1 GO P単位で読み書きされることに等しい。 そして、 この実施 形態では、 後述するように、 VO B Uには、 GO Pを構成するフレーム 単位の画像データのそれぞれについての付加情報も含まれる。
VT S Iには、 画像データ等の記録位置情報等の管理情報が記録され る。 また、 VT S M— VO B Sには、 画像データ等のル一トメニューが 記録される。 この VT S M— V〇B Sはォプションである。 さらに、 V T S I— BUPは、 VT S Iのバックアップ情報である。
読み書き単位データ VO B Uは 第 3図 (E) に示すように、 複数個 のパック P CKから構成される。 パック P C Kは、 1または複数個のパ ケットからなる。 この例では、 パックは 1パケットからなるものとされ ている。 D VD— V i d e oフォ一マツ卜では、 1八。ックは、 2 0 4 8 バイト ( 1セクタに対応) と定められている。
この例の場合の 1パックは、 第 3図 (F) に示すようなものとなる。 すなわち、 パック P C Kの先頭はパックヘッダとされる。 そして、 パッ クヘッダの次には、 パケットヘッダが位置し、 パケットヘッダに続いて, 画像データやオーディォデータなどからなるバケツトデータが位置する t この画像データやオーディォデ一夕のパケットフォーマツトは、 プライ ベ一ト 1 ·パケットとされている。
パックヘッダ内には、 前述した時間基準の情報 S C Rが含まれる。 そ して、 パケットヘッダの先頭は、 パケット開始コードとされると共に、 このパケットヘッダ内には、 P T Sフラグ、 D T Sフラグなどのフラグ 情報と、 タイムスタンプの情報 P T S、 DT Sが含まれる。 PT Sフラ グ、 DT Sフラグは、 当該パケット内にタイムスタンプの情報 P T S, D T Sが含まれるか否かを示すものである。 前述したように、 タイムス タンプの情報 P T S, DT Sは、 パケット内にピクチャの先頭が含まれ る場合に、 そのパケットへッダ内に付加される。
そして、 この第 1の実施形態では、 付加情報は、 1フレーム分ごとに 1パック ( 1パケット) を構成する。 前述したように、 この例では、 付 加情報のパケットには、 対応する画像デー夕のタイムスタンプ P T Sが 含まれる。 したがって、 この例では、 付加情報のパケットは、 プライべ —ト 1 ·パケットの形式とされる。 この付加情報のパックは、 第 1の実 施形態では、 タイムスタンプ P T Sが付加される画像デ一夕のパックの 前に多重化するようにする。
この第 1の実施形態における多重化の処理を、 第 4図を参照しながら 説明する。 第 4図は、 1 GOP分の画像データについて、 付加情報と画 像デ一夕との多重化処理を説明するための図であり 説明の簡単のため に、 オーディオデ一夕についての多重化は省略した。 この例では、 1 G OPは、 1 5フレーム ( 1 5枚のピクチャ) で構成される。
第 4図 (A) は、 バッファ 2 0 1および 2 0 7に入力される画像デ一 夕と付加情報とを示すものである。 B 0, B 1 , 1 2, B 3 , B 4 , P 5 · · · P 1 4は、 フレーム単位の画像データをピクチャタイプをも考 慮して示したものであり、 Bは Bピクチヤを、 Iは I ピクチャを、 Pは Pピクチャを、 それぞれ示している。 そして、 各サフィックス番号は、 ピクチャタイプに関係なく、 フレーム単位の連続番号を付与したもので ある。
また、 A 0〜A 1 4は、 各サフィックス番号の画像フレームについて の付加情報を示している。 つまり、 付加情報 A 0〜A 1 4のそれぞれは、 サフィックス番号が同一である画像フレームについての付加情報となつ ている。
第 4図 (A ) に示されている画像デ一夕は、 ビデオエンコード部 2 0 2のピクチャ順並び換え部 2 0 2 1において、 ピクチャ順の並び換えが なされて、 第 4図 (B ) に示すようにされる。 これに対して、 この例で は、 付加情報については、 並び順は変更されないので、 第 4図 (B ) に 示す付加情報は、 第 4図 (A ) に示した付加情報と同じ並び順となって いる。 したがって、 並び順としては、 各ピクチャと、 それについての付 加情報との対応がつきにくくなる。
前述したように、 マルチプレックス部 2 1 1では、 各ピクチャの画像 データには、 再生出力の時間管理情報であるタイムスタンプ P T Sが、 そのピクチャの先頭が含まれるパケッ卜のヘッダに含められるようにさ れている。 第 4図 (B ) の各ピクチャの下側に示したタイムスタンプ P T S # ( #はサフィックス番号で、 番号が小さいほど早い時刻となる) は、 各ピクチャに対して付加されるタイムスタンプ P T Sを示している, 再生出力は、 元のフレーム順であるので、 各ピクチャのサフィックス番 号とタイムスタンプ P T Sのサフィックス番号は等しいものとなる。 同様にして、 この実施の形態では、 マルチプレックス部 2 1 1におい ては、 各ピクチャについての付加情報に対しても、 それぞれ同じサフィ ックス番号のタイムスタンプ P T Sが付与される。 したがって、 ピクチ ャ順が並び換えられても、 タイムスタンプ P T Sを参照することにより、 各付加情報がいずれのピクチャについてのものであるかの対応付けをす ることが可能になる。
そして、 各ピクチャの圧縮画像データは、 第 4図 (C ) に示すように、 1または複数個のパックとして記録される。 第 4図 (C ) で、 V—P C Kはビデオパック (画像データのパック) を示しており、 その末尾の I #、 ? #ぉょび8 #は、 第 4図 (A) , (B) に示した各ピクチャの圧 縮画像データであることを示している。
前述したように、 タイムスタンプ P TSは、 各ピクチャの先頭が含ま れるパケットのパケットヘッダに含まれる。 この例ではパックには、 1 パケットが含まれるものとしているので、 当該パケットを含むパック内 にタイムスタンプ P T Sが含まれる。
この実施形態では、 各付加情報のパック AR I— P CK# (#はサフ ィックス番号) は、 第 4図 (C) に示すように、 タイムスタンプ P T S が含まれるビデオパックの直前に多重化される。
なお、 GOPのデ一夕が含まれる VOBUの先頭のパック NV_P C Kは、 ナビゲ一シヨンパックと呼ばれるもので、 これには、 デ一夕サー チインフォメーション (例えばジャンプ時にどのセクタまで飛ぶかを指 示する制御情報) などの再生管理情報が含められている。
なお、 付加情報には、 各フレーム単位の撮影時刻情報 (記録時刻情 報) と、 カメラ設定情報とが含まれる。 カメラ設定情報には、 前述もし たように、 Fナンバー、 露出時間、 露出プログラム、 露光補正値、 AG Cゲイン値、 レンズ焦点距離、 フラッシュ、 ホワイトバランス調整値、 デジタルズーム倍率などの情報が含められている。
上述の第 1の例では、 ビデオパック V— P CKのうちのタイムスタン プ P T Sがバケツトヘッダに付加されるパックの直前に 1パックずつ多 重化するようにしたが、 タイムスタンプ P T Sがバケツトへッダに付加 されるパックの直後に 1パックずつ多重化するようにしてもよい。
[画像フレームと付加情報との対応付けの第 2の例]
上述した第 1の例においては、 GO Pを構成する 1 5枚のピクチャの それぞれについての付加情報のパック AR I— P CK#は、 ビデオパッ ク V P CKのうちのタイムスタンプ P T Sがバケツトヘッダに付加さ れるパックの直前または直後に 1パックずつ多重化するようにしたが、 VO BU内の特定の位置に、 1 5枚のピクチャのそれぞれについての付 加情報のパック AR I— P CK#をまとめて配置するようにしてもよい c この第 2の例は、 その場合の例であり、 第 5図 (B) に示すように、 第 5図 (A) に示す V〇 B Uのそれぞれにおいて、 ナビゲーシヨンパッ ク NV— P CKの直後に、 1 5枚のピクチャのそれぞれに対する付加情 報のパック AR I— P CK 0〜AR I— P CK 1 4をまとめて配置する c 付加情報のパック AR I— P CK 0〜AR I— P CK 1 4には、 それ ぞれの付加情報が対応しているピクチャに付加されるタイムスタンプ P T Sと同じタイムスタンプ P T Sが付加されているのは、 第 1の例と同 様でめる。
なお、 以上の説明では、 付加情報のパック AR I— P CK 0〜AR I _P C K 1 4は、 ナビゲ一ションパック NV— P CKの直後にまとめて 配置するようにしたが、 VOBUの最後にまとめて配置するようにする こともできるし、 また、 VO B U内の中間の予め定められた位置に、 ま とめて配置するようにしてもよい。
[データ分離およびデータ圧縮解凍処理について]
次に、 D S P 2 1における画像データ、 オーディオデータおよび付加 情報の分離処理および画像データとオーディォデータの圧縮解凍処理に ついて、 第 6図を参照して説明する。
書き込み 読み出し部 2 3にょり0 04 0から、 VOB U単位で読 み出されたデータは、 デ,マルチプレクサ 2 2 1において、 画像デ一夕 パックと、 オーディオデータパックと、 付加情報パックとに分離される- デ ·マルチプレクサ 2 2 1では、 それぞれのパックからパックへッダ およびバケツトヘッダを分離し、 それらのヘッダ情報を制御部 2 2 0に 供給する。 制御部 2 2 0では、 ヘッダ情報を解析し、 タイムスタンプ P T Sおよび D T Sを抽出して、 画像データ、 オーディオデータおよび付 加情報のデコード処理および再生出力を制御する。
また、 デ *マルチプレクサ 2 2 1は、 分離した画像データパックから 抽出した圧縮画像データは、 バッファ 2 2 2を通じてビデオデコ一ダ部 2 2 5に供給し、 分離したオーディオデータパックから抽出した圧縮ォ —ディォデータは、 バッファ 2 2 3を通じてオーディォデコーダ部 2 2 6に供給し、 分離した付加情報パックから抽出した付加情報はバッファ 2 2 4を通じて付加情報デコーダ部 2 2 7に供給する。
そして、 ビデオデコーダ部 2 2 5では、 制御部 2 2 0からの制御に従 い、 タイムスタンプ D T Sに従った順序で、 画像データの圧縮解凍処理 を行なって、 フレーム単位の画像データを復元し、 バッファ 2 2 8に出 力する。 そして、 制御部 2 2 0は、 このバッファ 2 2 8から、 画像デー 夕パックに含まれていたタイムスタンプ P T Sに従つた順序で、 フレー ム単位の画像データを読み出して、 ビデオ信号処理部 2 3 1に供給する ように制御する。
また、 オーディオデコーダ部 2 2 6では、 制御部 2 2 0からの制御に 従い、 順次にオーディオデータの圧縮解凍処理を行なって、 オーディオ データを復元し、 バッファ 2 2 9に出力する。 そして、 制御部 2 2 0は, このバッファ 2 2 9から、 オーディォデ一タパックに含まれていたタイ ムスタンプ P T Sに従った順序で、 オーディォデ一タを読み出して、 ォ —ディォ信号処理部 2 3 2に供給するように制御する。
さらに、 付加情報デコーダ部 2 2 7では、 制御部 2 2 0からの制御に 従い、 フレーム単位の画像データについての付加情報を再生し、 バッフ ァ 2 3 0に出力する。 この場合、 付加情報デコーダ部 2 2 7では、 付加 情報は、 画像データの制御用情報 A Vと、 オーディオデ一タ制御用情報 A aと、 撮影年月日、 時間などの表示用情報 Adとを生成して、 それぞ れバッファ 2 3 0に出力する。
そして、 制御部 2 2 0は、 このバッファ 2 3 0から、 付加情報パック に含まれていたタイムスタンプ P T Sに従った順序で、 フレーム単位の 画像データについての付加情報を読み出すが、 画像データの制御用情報 Avは、 ビデオ信号処理部 2 3 1に、 オーディオデータ制御用情報 A a は、 オーディオ信号処理部 2 3 2に、 表示用情報 Adは、 O SD (On S c r e e n D i s l a y) 回路 2 3 3に、 それぞれ供給するよう に制御する。
この場合、 タイムスタンプ P T Sに従ってバッファ 2 3 0からビデオ 信号処理部 2 3 1およびオーディォ信号処理部 2 3 2に、 画像データの 制御用情報 A Vおよびオーディオデータ制御用情報 A aが供給されるの で、 それらの制御用情報 A Vおよび A aは、 対応するフレームの画像デ —夕およびオーディォデータとなっており、 自動的に対応付けがなされ ている。 したがって、 画像データおよびオーディオデータについては、 対応する制御用情報 A Vおよび A aによって、 適切な制御処理がなされ る。
ビデオ信号処理部 2 3 1では、 画像データの制御用情報 A Vに応じた 画像データ処理がなされる。 例えば、 撮影時のオートホワイトバランス 調整に応じた画像データ制御などを行なう。
また、 オーディオ信号処理部 2 3 2では、 オーディオデータ制御用情 報 A aに応じたオーディオデータ制御処理がなされる。 例えば、 内蔵マ ィクロホンで収音した音声か、 外部マイクロホンで収音した音声かによ り、 AG C特性が変えられて記録されているので、 それに対応した制御 処理をするようにする。 表示用情報 A dは、 撮影年月日、 撮影時刻、 ズーム倍率などの表示情 報であり、 O S D回路 2 3 3を通じて合成部 2 3 4に供給され、 ビデオ 信号処理部 2 3 1からの画像データに合成される。 この合成部 2 3 4か らの画像データがビデオ/オーディォ出力処理部 2 4を通じて制御部 3 0に供給され、 L CD 3 2の画面に表示される。
前述したように、 画像データと付加情報の表示用情報 A dとは、 対応 するフレームのものについては、 同一のタイムスタンプ P T Sに基づい てバッファ 2 2 8および 2 3 0から読み出されて合成されるので、 L C D 3 2の画面には、 フレーム単位の撮影時刻が正しく表示されるように なる。
[その他の実施形態]
[第 1の他の例]
上述の実施形態では、 付加情報は、 画像フレームのそれぞれに対して
1パックとして記録するようにしたが、 1個の VOB Uについて、 1パ Vク分を付加情報パック A R I— P C Kとして-. その 1パック内に、 V
OB U内の、 この例では 1 5枚のピクチャ (フレーム) についての付加 情報をまとめて記録するようにしてもよい。
第 7図は、 その場合のデータフォーマツトの一例を示すものである。 すなわち、 この例においては、 第 7図 (A) に示す VO BUのそれぞれ に対して、 第 7図 (B) に示すように、 ナビゲ一ションパック NV— P
CKの直後に、 1パック分の付加情報のパック AR I— P CKを配置す る。
そして、 この付加情報のパック AR I _P C Kには、 各画像フレーム についての付加情報と P T Sとの組を、 GO Pを構成する 1 5枚の画像 フレーム分、 含めるようにする。 すなわち、 第 7図 (C) に示すように、 各画像フレームについての付 加情報のデ一夕 AR I— DT # (#はフレーム番号) と、 その画像フレ ームに付加されるタイムスタンプ P T S #とを対応付けた組のデータ A R I— S E T #を生成する。 そして、 GO Pを構成する 1 5枚のフレ一 ムについての 1 5組のデータ AR I— S ET 0〜AR I— S ET 14を 順番に、 付加情報パック AR I— P CK内に含めるようにする。
この例の場合には、 付加情報用のバケツト AR I— P CKのパケット としては、 前述例と同様に、 プライベート 1 ·パケットを使用すること ができるが、 第 7図 (D) に示すプライベート 2 ·パケットも使用可能 である。
この例の場合には、 データ再生時には、 各組のデータ AR I— S ET から PTSを検出し、 この PTSを用いて、 前述の例と同様に、 画像デ 一夕およびォ一ディォデ一夕との時間合わせをして、 付加情報を出力す ることにより、 画像データやオーディォデ一夕の制御用として使用する と共に 画面の表示デ一夕として使用することが可能である。
[第 2の他の例]
第 4図に示した例では、 付加情報については、 ピクチャ順の並び換え に関係なく、 元の時系列順のままとして、 タイムスタンプ PTSを付加 した付加情報パックを、 P T Sがバケツトヘッダに含まれるビデオパッ ク V— P CKの前 (または後) に付加するようにしたが、 付加情報につ いても、 画像データについてのピクチャ順の並び換えに応じて並び換え て、 PT Sがバケツトヘッダに含まれるビデオパック V— P CKの前
(または後) に付加するようにしてもよい。
この第 2の他の例の場合には、 ビデオパック V— P CKと、 付加情報 のパック AR I— P CKとは、 パケットヘッダに含まれる PTSが同一 のものが並んで、 対応付けが容易になる。 [第 3の他の例]
上述の第 2の他の例によれば、 付加情報のパック A R I— P C Kは、 その付加情報が対応する画像フレームのビデオパックであって、 P T S がバケツトヘッダに含まれるパックの前または後に付加されるので、 付 加情報と、 その付加情報が対応する画像フレームとの対応は、 付加情報 に P T Sが存在しなくても容易に関係付けることができる。
そこで、 第 3の他の例は、 前記第 2の他の例と同様に、 付加情報のパ ック A R I—P C Kは、 その付加情報が対応する画像フレームのビデオ パックであって、 P T Sがバケツトヘッダに含まれるパックの前または 後に付加するが、 付加情報パックには、 P T Sを含めない。 したがって、 この第 3の他の例においては、 付加情報のパックのパケットとしては、 第 7図 ( D ) に示したプライベート 2 ·パケットを用いることができる t そして、 この第 3の他の例の場合には、 再生時には、 それぞれの画像 フレームに対応する付加情報を、 前記記録位置による対応関係から抽出 するようにすると共に、. 例えば、 ビデオパックに付加されている P T S に基づいて、 再生出力管理したり、 対応する付加情報の順序を並び換え て再生出力したりすることにより、 上述と同様にして、 復元された再生 出力画像データやオーディォデ一夕と対応させて、 制御用情報や表示用 情報として用いるようにするものである。
[第 4の他の例]
この第 4の他の例は、 第 5図に示した例の変形例であって、 付加情報 パック A R I— P C Kには、 タイムスタンプ P T Sを含まない場合であ る。 すなわち、 この第 4の他の例においては、 画像データを復元したと きには、 P T Sにより元のピクチャ順 (フレーム順) に戻って再生され ることから、 この P T Sに基づいて画像フレームが再生される順番に、 付加情報パック A R I P C Kも並べておくものである。 したがって、 第 5図 (B) に示したとおりの並び順で、 付加情報パック AR I— P C Kが配置される。
そして、 この第 4の他の例の塲合には、 再生時には、 それぞれの画像 フレームに対応する付加情報を、 並び順が元に戻されて再生出力される 画像フレームに対して、 順番に順次に出力するようにすることにより、 復元された再生出力画像デ一夕やオーディォデータと対応させて、 制御 用情報や表示用情報として用いることができる。
[第 5の他の例]
以上の例は、 DVD-V i d e oフォ一マツ卜で記録する場合に、 こ の発明を適用した場合であるが、 D VD— V i d e 0 R e c o r d i n g (D VD- VR) フォーマツ卜のおける VOBUのデータにも、 上 述と全く同様に処理して適用することができる。
そして-, さらに、 D V D— V Rフォーマツ 卜の場合には.. 第 8図に示 すように、 VOBUの先頭に配置されるパック RD I_P CK内の RD Iパケットの RD I ·データ領域内に、 第 7図の例と同様の形式の付加 情報を配置するようにすることもできる。
[第 6の他の例]
以上の例は、 いずれも画像フレームのそれぞれについて付加情報を生 成して、 付加するようにしたが、 すべての画像フレームについて付加情 報を生成しなくてもよい。
この第 6の他の例は、 その場合の例であり、 この例においては、 例え ば、 2画像フレーム毎の 1フレーム、 3画像フレーム毎の 1フレ一 ム、 · · · 1 5画像フレーム毎の 1フレーム · · ' のように、 所定時間 毎の復号再生単位としての画像フレームについて、 当該画像フレームに ついての付加情報を生成し、 当該画像フレームについての復号再生処理 のための管理情報に関連付けて記録するようにする。 復号再生処理のための管理情報として、 前述のタイムスタンプ P T S を用いるようにすれば、 所定時間毎の復号再生単位としての画像フレー ムの情報の再生に同期して、 当該画像フレームについての付加情報を再 生して、 利用することが容易である。
なお、 例えば付加情報が記録時間の場合においては、 付加情報が記録 されない画像フレームについての記録時間については、 記録されている 付加情報としての記録時間から容易に計算により求めることができる。 また、 付加情報が記録されている画像フレームの近傍の画像フレームに ついては、 当該付加情報をそれらの近傍の画像フレームについての付加 情報として利用するようにしても良い。
[その他の変形例]
なお、 この発明による記録方法および再生方法は、 上述した撮像装置 にのみ適用される場合に限られるものではなく、 画像デ一夕やオーディ ォデータを圧縮して記録する種々の電子機器に適用可能であることは言 うまでもない。
また、 以上の例は 主として、 画像デ一夕の 1フレーム単位に対して 付加情報を付加する場合について説明したが、 オーディォデ一夕のフレ —ムを復号再生単位として付加情報を付加する場合にも適用可能である, 以上説明したように、 この発明による記録方法によれば、 復号再生単 位の情報のそれぞれについての付加情報を、 各復号再生単位についての 対応が確実に取れるように記録することができる。
また、 この発明による再生方法によれば、 記録媒体には、 復号再生単 位の情報についての付加情報が、 当該復号再生単位についての対応が確 実に取れるように記録されているので、 再生された復号再生単位の情報 について、 付加情報に基づいて補正制御などの信号制御が可能になると 共に、 復号再生単位の表示情報に、 対応する付加情報の表示情報を合成 して表示することが可能になるものである。

Claims

請求の範囲
1 . 時系列情報をデータ圧縮して記録媒体に記録する方法であって、 前記圧縮された前記時系列情報の復号再生単位の情報のそれぞれには、 復号再生処理のための管理情報を付加して記録する方法において、 前記復号再生単位の情報のうち、 所定時間毎の復号再生単位の情報に ついての付加情報を、 対応する前記復号再生単位の情報についての前記 復号再生処理のための管理情報に関連付けて記録する
ことを特徴とする記録方法。
2 . 請求の範囲第 1項に記載の記録方法において、
前記記録媒体に対する書き込み /読み出しの単位である読み書き単位 の情報には、 前記時系列情報の復号再生単位の情報を複数単位分、 含む と共に、
前記復号再生単位の情報は、 前記読み書き単位の情報内においては、 時系列方向の順序が変更されている
ことを特徴とする記録方法。
3 . 請求の範囲第 1項または第 2項に記載の記録方法において、 前記復号再生処理のための管理情報は、 前記復号再生単位の情報の再 生出カタイミングに関する時間管理情報である
ことを特徴とする記録方法。
4 . 請求の範囲第 2項に記載の記録方法において、
前記所定時間毎の復号再生単位の情報についての付加情報は、 前記読 み書き単位の情報内において定められた位置に、 対応する前記復号再生 単位の情報についての復号再生処理のための管理情報を付加して記録す る
ことを特徴とする記録方法。
5 . 請求の範囲第 2項に記載の記録方法において、
前記読み書き単位の情報は、 複数個のパケットからなるものであり、 前記所定時間毎の復号再生単位の情報についての付加情報は、 対応す る前記復号再生単位の情報についての復号再生処理のための管理情報を 含むパケットとして、 前記読み書き単位の情報内において記録する ことを特徴とする記録方法。
6 . 請求の範囲第 2項に記載の記録方法において、
前記読み書き単位の情報は、 複数個のバケツトからなるものであり、 前記所定時間毎の復号再生単位の情報についての付加情報は、 前記圧 縮された時系列情報のパケットのうちの対応する前記復号再生単位につ いての前記復号再生処理のための管理情報を含むパケットに対して定め られた位置に記録する
ことを特徴とする記録方法。
7 . 請求の範囲第 1項または第 2項に記載の記録方法において、 前記付加情報は、 前記時系列情報の前記復号再生単位の情報の取得時 間に関する情報を少なくとも含む
ことを特徴とする記録方法。
8 . 請求の範囲第 1項または第 2項に記載の記録方法において、 前記付加情報は、 前記時系列情報の前記復号再生単位の情報の取得条 件に関する情報を含む
ことを特徴とする記録方法。
9 . 請求の範囲第 1項または第 2項に記載の記録方法において、 前記時系列情報は画像情報であり、 前記復号再生単位の情報は、 フィ ールドまたはフレ一ム単位の情報であるとともに、
前記デ一夕圧縮は、 前記復号再生単位の情報の相関を利用したもので ある ことを特徴とする記録方法。
1 0 . 時系列情報をデータ圧縮するデータ圧縮手段と、
前記圧縮された前記時系列情報の復号再生単位の情報のそれぞれに付 加する、 復号再生処理のための管理情報を発生する管理情報発生手段と、 前記復号再生単位の情報のうち、 所定時間毎の復号再生単位の情報に ついての付加情報を生成する付加情報生成手段と、
前記データ圧縮された前記時系列情報を、 前記復号再生単位の情報に 前記管理情報発生手段からの前記復号再生処理のための管理情報を付加 した状態で記録媒体に記録すると共に、 前記付加情報生成手段からの前 記付加情報を、 前記管理情報発生手段からの、 対応する前記復号再生単 位の情報についての前記復号再生処理のための管理情報に関連付けて記 録するように制御する記録制御手段と、
を備える記録装置。
1 1 . 請求の範囲第 1 0項に記載の記録装置において、
前記記録制御手段は 前記記録媒体に対する書き込み/読み出しの単 位である読み書き単位の情報として、 前記時系列情報の復号再生単位の 情報を複数単位分、 含む情報を生成するものであり、
前記復号再生単位の情報は、 前記読み書き単位の情報内においては、 時系列方向の順序が変更されている
ことを特徴とする記録装置。
1 2 . 請求の範囲第 1 0項または第 1 1項に記載の記録装置において、 前記復号再生処理のための管理情報は、 前記復号再生単位の情報の再 生出力タイミングに関する時間管理情報である
ことを特徴とする記録装置。
1 3 . 請求の範囲第 1 1項に記載の記録装置において、 前記記録制御手段は、 前記所定時間毎の復号再生単位の情報について の付加情報は、 前記読み書き単位の情報内において定められた位置に、 対応する前記復号再生単位の情報についての復号再生処理のための管理 情報を付加して記録する
ことを特徴とする記録装置。
1 4 . 請求の範囲第 1 1項に記載の記録装置において、
前記読み書き単位の情報は、 複数個のパケットからなるものであり、 前記記録制御手段は、 前記所定時間毎の復号再生単位の情報について の付加情報は、 対応する前記復号再生単位の情報についての復号再生処 理のための管理情報を含むパケットとして、 前記読み書き単位の情報内 において記録する
ことを特徴とする記録装置。
1 5 . 請求の範囲第 1 1項に記載の記録装置において、
前記読み書き単位の情報は、 複数個のパケットからなるものであり、 前記記録制御手段は 前記所定時間毎の復号再生単位の情報について の付加情報は、 前記圧縮された時系列情報のパケットのうちの対応する 前記復号再生単位についての前記復号再生処理のための管理情報を含む バケツトに対して定められた位置に記録する
ことを特徴とする記録装置。
1 6 . 請求の範囲第 1 0項または第 1 1項に記載の記録装置において, 前記付加情報は、 前記時系列情報の前記復号再生単位の情報の取得時 間に関する情報を少なくとも含む
ことを特徴とする記録装置。
1 7 . 請求の範囲第 1 0項または第 1 1項に記載の記録装置において、 前記付加情報は、 前記時系列情報の前記復号再生単位の情報の取得条 件に関する情報を含む ことを特徴とする記録装置。
1 8 . 請求の範囲第 1 0項または第 1 1項に記載の記録装置において. 前記時系列情報は画像情報であり、 前記復号再生単位の情報は、 フィ ールドまたはフレーム単位の情報であるとともに、
前記データ圧縮は、 前記復号再生単位の情報の相関を利用したもので ある
ことを特徴とする記録装置。
1 9 . 時系列情報がデ一夕圧縮されて記録されると共に、 前記圧縮さ れた前記時系列情報の復号再生単位の情報のそれぞれには、 復号再生処 理のための管理情報が付加されて記録される記録媒体であって、
前記復号再生単位の情報のうち、 所定時間毎の復号再生単位の情報に ついての付加情報は、 対応する前記復号再生単位の情報についての前記 復号再生処理のための管理情報に関連付けられて記録されている
ことを特徴とする記録媒体。
2 0 . 請求の範囲第 1 9項に記載の記録媒体において、
前記記録媒体に対する書き込み Z読み出しの単位である読み書き単位 の情報には、 前記時系列情報の復号再生単位の情報を複数単位分、 含む と共に、
前記復号再生単位の情報は、 前記読み書き単位の情報内においては、 時系列方向の順序が変更されている
ことを特徴とする記録媒体。
2 1 . 請求の範囲第 1 9項または第 2 0項に記載の記録媒体において. 前記復号再生処理のための管理情報は、 前記復号再生単位の情報の再 生出力夕イミングに関する時間管理情報である
ことを特徴とする記録媒体。
2 2 . 請求の範囲第 2 0項に記載の記録媒体において、 前記所定時間毎の復号再生単位の情報についての付加情報は、 前記読 み書き単位の情報内において定められた位置に、 対応する前記復号再生 単位の情報についての復号再生処理のための管理情報が付加されて記録 されている
ことを特徴とする記録媒体。
2 3 . 請求の範囲第 2 0項に記載の記録媒体において、
前記読み書き単位の情報は、 複数個のパケッ卜からなるものであり、 前記所定時間毎の復号再生単位の情報についての付加情報は、 対応す る前記復号再生単位の情報についての復号再生処理のための管理情報を 含むパケットとして、 前記読み書き単位の情報内において記録されてい る
ことを特徴とする記録媒体。
2 4 . 請求の範囲第 2 0項に記載の記録媒体において、
前記読み書き単位の情報は、 複数個のパケットからなるものであり、 前記所定時間毎の復号再生単位の情報についての付加情報は、 前記圧 縮された時系列情報のバケツトのうちの対応する前記復号再生単位につ いての前記復号再生処理のための管理情報を含むパケッ卜に対して定め られた位置に記録されている
ことを特徴とする記録媒体。
2 5 . 請求の範囲第 1 9項または第 2 0項に記載の記録媒体において、 前記付加情報は、 前記時系列情報の前記復号再生単位の情報の取得時 間に関する情報を少なくとも含む
ことを特徴とする記録媒体。
2 6 . 請求の範囲第 1 9項または第 2 0項に記載の記録媒体において、 前記付加情報は、 前記時系列情報の前記復号再生単位の情報の取得条 件に関する情報を含む ことを特徴とする記録媒体。
2 7 . 請求の範囲第 1 9項または第 2 0項に記載の記録媒体において, 前記時系列情報は画像情報であり、 前記復号再生単位の情報は、 フィ —ルドまたはフレーム単位の情報であるとともに、
前記データ圧縮は、 前記復号再生単位の情報の相関を利用したもので ある
ことを特徴とする記録媒体。
2 8 . 請求の範囲第 1 9項〜第 2 7項のいずれかに記載の記録媒体の 再生方法であって、
前記時系列情報の前記復号再生単位の情報の圧縮を解凍し、 前記復号 再生処理のための管理情報を用いて再生出力すると共に、
前記復号再生処理のための管理情報を用いて、 前記付加情報を、 対応 する前記時系列情報の前記復号再生単位の情報の再生出力に同期させて- 再生出力する
ことを特徴とする再生方法。
2 9 . 請求の範囲第 1 9項〜第 2 7項のいずれかに記載の記録媒体の 再生方法であって、
前記時系列情報の前記復号再生単位の情報の圧縮を解凍し、 前記復号 再生処理のための管理情報を用いて再生出力すると共に、
前記復号再生処理のための管理情報を用いて、 前記付加情報を、 対応 する前記時系列情報の前記復号再生単位の情報の再生出力に同期させて 再生し、 当該再生した前記付加情報により、 前記対応する復号再生単位 の情報を制御する
ことを特徴とする再生方法。
3 0 . 請求の範囲第 1 9項〜第 2 7項のいずれかに記載の記録媒体の 再生装置であって、 前記記録媒体から前記圧縮されている時系列情報と前記付加情報とを 読み出す読み出し手段と、
前記読み出し手段から、 前記圧縮されている時系列情報と前記付加情 報とを分離する分離手段と、
前記分離手段からの前記時系列情報の圧縮を解凍する手段と、 前記圧縮を解凍した時系列情報について、 前記復号再生処理のための 管理情報を用いて前記復号再生単位の情報を再生出力する手段と、 前記分離手段からの前記付加情報を、 前記復号再生処理のための管理 情報を用いて前記時系列情報の前記復号再生単位の情報の再生出力に同 期させて、 再生出力する手段と、
を備えることを特徴とする再生装置。
3 1 . 請求の範囲第 1 9項〜第 2 7項のいずれかに記載の記録媒体の 再生装置であって、
前記記録媒体から前記圧縮されている時系列情報と前記付加情報とを 読み出す読み出し手段と、
前記読み出し手段から、 前記圧縮されている時系列情報と前記付加情 報とを分離する分離手段と、
前記分離手段からの前記時系列情報の圧縮を解凍する手段と、 前記圧縮を解凍した時系列情報について、 前記復号再生処理のための 管理情報を用いて前記復号再生単位の情報を再生出力する手段と、 前記分離手段からの前記付加情報を、 前記復号再生処理のための管理 情報を用いて前記時系列情報の前記復号再生単位の情報の再生出力に同 期させて再生し、 当該再生した前記付加情報により、 前記対応する復号 再生単位の情報を制御する手段と、
を備えることを特徴とする再生装置。
3 2 . 撮像素子と、 前記撮像素子に被写体像を結像させるための撮像光学系と、
前記撮像素子からの画像情報をデータ圧縮処理するデータ圧縮手段と、 前記データ圧縮手段により圧縮された前記画像情報の復号再生単位の 情報のそれぞれに付加する、 復号再生処理のための時間管理情報を発生 する時間管理情報発生手段と、
前記復号再生単位の情報のうち、 所定時間毎の復号再生単位の情報に ついての付加情報を生成する付加情報生成手段と、
前記データ圧縮された前記画像情報を、 前記復号再生単位の情報に前 記管理情報発生手段からの前記復号再生処理のための管理情報を付加し た状態で記録媒体に記録すると共に、 前記付加情報発生手段からの前記 付加情報を、 前記管理情報発生手段からの、 対応する前記復号再生単位 の情報についての前記復号再生処理のための管理情報に関連付けて記録 する記録制御手段と、
を備える撮像装置。
3 3 . 請求の範囲第 3 2項に記載の撮像装置において、
前記記録制御手段は、 前記記録媒体に対する書き込み Z読み出しの単 位である読み書き単位の情報として、 前記画像情報の復号再生単位の情 報を複数単位分、 含む情報を生成するものであり、
前記復号再生単位の情報は、 前記読み書き単位の情報内においては、 時系列方向の順序が変更されている
ことを特徴とする撮像装置。
3 4 . 請求の範囲第 3 2項に記載の撮像装置において、
前記記録制御手段は、 前記所定時間毎の復号再生単位の情報について の付加情報は、 前記読み書き単位の情報内において定められた位置に、 対応する前記復号再生単位の情報についての復号再生処理のための管理 情報を付加して記録する ことを特徴とする撮像装置。
3 5 . 請求の範囲第 3 2項に記載の撮像装置において、
前記読み書き単位の情報は、 複数個のパケットからなるものであり、 前記記録制御手段は、 前記所定時間毎の復号再生単位の情報について の付加情報は、 対応する前記復号再生単位の情報についての復号再生処 理のための管理情報を含むバケツトとして、 前記読み書き単位の情報内 において定められた位置に記録する
ことを特徴とする撮像装置。
3 6 . 請求の範囲第 3 2項に記載の撮像装置において、
前記読み書き単位の情報は、 複数個のパケットからなるものであり、 前記記録制御手段は、 前記所定時間毎の復号再生単位の情報について の付加情報は、 それぞれ、 前記圧縮された時系列情報のパケットのうち の対応する前記復号再生単位についての前記復号再生処理のための管理 情報を含むパケッ卜に対して定められた位置に記録する
ことを特徴とする撮像装置。
3 7 . 請求の範囲第 3 2項に記載の撮像装置において、
前記付加情報は、 前記画像情報の前記復号再生単位の情報の撮影時刻 に関する情報を含む
ことを特徴とする撮像装置。
3 8 . 請求の範囲第 3 2項に記載の撮像装置において、
前記付加情報は、 前記画像情報の前記復号再生単位の情報を得たとき の撮像条件に関する情報を含む
ことを特徴とする撮像装置。
3 9 . 請求の範囲第 3 2項に記載の撮像装置において、
前記復号再生単位の情報は、 フィールドまたはフレーム単位の情報で あるとともに、 前記データ圧縮は、 前記復号再生単位の情報の相関を利用したもので ある
ことを特徴とする撮像装置。
PCT/JP2004/002134 2003-03-25 2004-02-24 記録方法、記録装置、記録媒体、再生方法、再生装置および撮像装置 WO2004086759A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US10/511,609 US7675555B2 (en) 2003-03-25 2004-02-24 Recording method, recording apparatus, recording medium, reproduction method, reproduction apparatus and image pickup apparatus
EP04714002A EP1615432A4 (en) 2003-03-25 2004-02-24 METHOD, DEVICE, RECORDING MEDIUM, METHOD, REPRODUCTION DEVICE, AND IMAGE CAPTURE DEVICE

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2003083143 2003-03-25
JP2003-083143 2003-03-25
JP2003172780A JP3912536B2 (ja) 2003-03-25 2003-06-18 記録方法、記録装置、記録媒体、撮像装置および撮像方法
JP2003-172780 2003-06-18

Publications (1)

Publication Number Publication Date
WO2004086759A1 true WO2004086759A1 (ja) 2004-10-07

Family

ID=33100371

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/002134 WO2004086759A1 (ja) 2003-03-25 2004-02-24 記録方法、記録装置、記録媒体、再生方法、再生装置および撮像装置

Country Status (6)

Country Link
US (1) US7675555B2 (ja)
EP (1) EP1615432A4 (ja)
JP (1) JP3912536B2 (ja)
KR (1) KR101015737B1 (ja)
TW (1) TWI249286B (ja)
WO (1) WO2004086759A1 (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7779340B2 (en) * 2005-03-17 2010-08-17 Jds Uniphase Corporation Interpolated timestamps in high-speed data capture and analysis
CN101228584B (zh) * 2005-07-27 2010-12-15 松下电器产业株式会社 信息记录装置以及记录方法
JP4534971B2 (ja) 2005-11-28 2010-09-01 ソニー株式会社 動画記録装置、動画記録方法、動画伝送方法、動画記録方法のプログラム及び動画記録方法のプログラムを記録した記録媒体
CA2629998C (en) * 2005-12-22 2015-08-11 Samsung Electronics Co., Ltd. Digital broadcasting transmitter, turbo stream processing method thereof, and digital broadcasting system having the same
JP4552889B2 (ja) 2006-05-10 2010-09-29 ソニー株式会社 記録装置、記録方法および記録プログラム、ならびに、撮像装置および撮像方法
JP4910475B2 (ja) 2006-05-18 2012-04-04 ソニー株式会社 記録装置、記録方法および記録プログラム、ならびに、撮像装置、撮像方法および撮像プログラム
US9198084B2 (en) 2006-05-26 2015-11-24 Qualcomm Incorporated Wireless architecture for a traditional wire-based protocol
JP4337849B2 (ja) 2006-07-26 2009-09-30 ソニー株式会社 記録装置、記録方法および記録プログラム、ならびに、撮像装置、撮像方法および撮像プログラム
JP4622950B2 (ja) 2006-07-26 2011-02-02 ソニー株式会社 記録装置、記録方法および記録プログラム、ならびに、撮像装置、撮像方法および撮像プログラム
JP4737003B2 (ja) 2006-08-10 2011-07-27 ソニー株式会社 編集装置、編集方法、編集プログラムおよび編集システム
JP4211818B2 (ja) 2006-08-10 2009-01-21 ソニー株式会社 記録装置、記録方法および記録プログラム
US20080107396A1 (en) * 2006-11-08 2008-05-08 Tsung-Ning Chung Systems and methods for playing back data from a circular buffer by utilizing embedded timestamp information
KR101432994B1 (ko) * 2007-08-13 2014-08-22 삼성전자주식회사 미디어 객체 기반 메타데이터의 생성 방법, 재생 방법 및그 장치
JP2009060542A (ja) * 2007-09-03 2009-03-19 Sharp Corp データ送信装置、データ送信方法、視聴環境制御装置、視聴環境制御システム、及び視聴環境制御方法
US9398089B2 (en) * 2008-12-11 2016-07-19 Qualcomm Incorporated Dynamic resource sharing among multiple wireless devices
US20100205321A1 (en) * 2009-02-12 2010-08-12 Qualcomm Incorporated Negotiable and adaptable periodic link status monitoring
US9264248B2 (en) 2009-07-02 2016-02-16 Qualcomm Incorporated System and method for avoiding and resolving conflicts in a wireless mobile display digital interface multicast environment
US9582238B2 (en) 2009-12-14 2017-02-28 Qualcomm Incorporated Decomposed multi-stream (DMS) techniques for video display systems
US9787725B2 (en) 2011-01-21 2017-10-10 Qualcomm Incorporated User input back channel for wireless displays
US20130003624A1 (en) * 2011-01-21 2013-01-03 Qualcomm Incorporated User input back channel for wireless displays
US9413803B2 (en) 2011-01-21 2016-08-09 Qualcomm Incorporated User input back channel for wireless displays
US20130013318A1 (en) 2011-01-21 2013-01-10 Qualcomm Incorporated User input back channel for wireless displays
US9065876B2 (en) 2011-01-21 2015-06-23 Qualcomm Incorporated User input back channel from a wireless sink device to a wireless source device for multi-touch gesture wireless displays
US10135900B2 (en) * 2011-01-21 2018-11-20 Qualcomm Incorporated User input back channel for wireless displays
US8964783B2 (en) 2011-01-21 2015-02-24 Qualcomm Incorporated User input back channel for wireless displays
US9503771B2 (en) 2011-02-04 2016-11-22 Qualcomm Incorporated Low latency wireless display for graphics
US10108386B2 (en) 2011-02-04 2018-10-23 Qualcomm Incorporated Content provisioning for wireless back channel
US9525998B2 (en) 2012-01-06 2016-12-20 Qualcomm Incorporated Wireless display with multiscreen service
BR112014018408A8 (pt) 2012-02-03 2017-07-11 Sony Corp Dispositivo e método de processamento de informação, meio de gravação de informação, e programa

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08214265A (ja) * 1995-01-31 1996-08-20 Sony Corp 符号化データの再生方法および再生装置
JP2003078859A (ja) * 2001-09-06 2003-03-14 Sony Corp 画像記録再生装置、再生装置、記録再生方法および再生方法
JP2003224810A (ja) * 2002-01-29 2003-08-08 Matsushita Electric Ind Co Ltd 音声/映像データ記録再生装置および方法、音声/映像データ記録再生装置および方法により記録が行われた記録媒体、音声/映像データ再生装置、音声/映像データ記録再生システムおよび方法、音声/映像データ記録再生システムおよび方法により記録が行われた記録媒体、ならびにデータ構造体

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5574505A (en) * 1995-05-16 1996-11-12 Thomson Multimedia S.A. Method and apparatus for operating a transport stream encoder to produce a stream of packets carrying data representing a plurality of component signals
JP3326670B2 (ja) * 1995-08-02 2002-09-24 ソニー株式会社 データ符号化/復号化方法および装置、および符号化データ記録媒体
US6801575B1 (en) * 1997-06-09 2004-10-05 Sharp Laboratories Of America, Inc. Audio/video system with auxiliary data
WO1999016196A1 (en) * 1997-09-25 1999-04-01 Sony Corporation Device and method for generating encoded stream, system and method for transmitting data, and system and method for edition
JPH11203838A (ja) 1998-01-14 1999-07-30 Sanyo Electric Co Ltd 素材編集装置、及び素材編集方法
WO2000046989A1 (fr) * 1999-02-05 2000-08-10 Sony Corporation Dispositifs de codage et de decodage et methodes correspondantes, systeme de codage et procede correspondant
JP4218112B2 (ja) 1999-02-26 2009-02-04 三菱電機株式会社 マルチメディア通信システム
JP2001188686A (ja) 1999-10-22 2001-07-10 Sony Corp データ書換装置、制御方法および記録媒体
US7340153B2 (en) * 2000-01-11 2008-03-04 Hitachi, Ltd. Apparatus and method for recording and reproducing information
JP4668515B2 (ja) 2001-01-30 2011-04-13 韓國電子通信研究院 マルチメディアコンテンツに同期化されたメタデータ伝送装置及び方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08214265A (ja) * 1995-01-31 1996-08-20 Sony Corp 符号化データの再生方法および再生装置
JP2003078859A (ja) * 2001-09-06 2003-03-14 Sony Corp 画像記録再生装置、再生装置、記録再生方法および再生方法
JP2003224810A (ja) * 2002-01-29 2003-08-08 Matsushita Electric Ind Co Ltd 音声/映像データ記録再生装置および方法、音声/映像データ記録再生装置および方法により記録が行われた記録媒体、音声/映像データ再生装置、音声/映像データ記録再生システムおよび方法、音声/映像データ記録再生システムおよび方法により記録が行われた記録媒体、ならびにデータ構造体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1615432A4 *

Also Published As

Publication number Publication date
TW200501561A (en) 2005-01-01
US7675555B2 (en) 2010-03-09
KR20050111722A (ko) 2005-11-28
EP1615432A4 (en) 2008-12-10
KR101015737B1 (ko) 2011-02-22
JP2004350251A (ja) 2004-12-09
TWI249286B (en) 2006-02-11
JP3912536B2 (ja) 2007-05-09
EP1615432A1 (en) 2006-01-11
US20050175321A1 (en) 2005-08-11

Similar Documents

Publication Publication Date Title
JP3912536B2 (ja) 記録方法、記録装置、記録媒体、撮像装置および撮像方法
JP4224690B2 (ja) 記録方法、記録装置、再生方法、再生装置および撮像装置
JP4424396B2 (ja) データ処理装置および方法、並びにデータ処理プログラムおよびデータ処理プログラムが記録された記録媒体
JP5783737B2 (ja) 撮像装置および動画記録装置の制御方法
US9530455B2 (en) Video recording method and video recording device
JP5600405B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2005303336A (ja) 映像信号記録装置および映像信号再生装置
JP4164696B2 (ja) 撮像装置および撮像方法
JP2008067117A (ja) 映像記録方法、装置、媒体
JP2008219921A (ja) 記録装置、記録方法、撮像装置および撮像方法
US20090040382A1 (en) Camera apparatus and still image generating method of camera apparatus
JP4366609B2 (ja) 記録方法、記録装置、再生方法、再生装置、記録再生装置および記録再生方法
US7298764B2 (en) Image recording method and device, and image converting method and device
JP4366610B2 (ja) 記録方法、記録装置、再生方法、再生装置および撮像装置
JP2015029211A (ja) 撮像装置
JP5610495B2 (ja) 映像記録再生装置及び映像記録再生方法
JP5458073B2 (ja) 映像記録装置及び映像記録方法
JP2010015640A (ja) 情報処理装置と情報処理方法およびプログラム
JP2006222818A (ja) 情報記録方法、情報編集方法、及び情報記録再生装置
JP2010199781A (ja) 動画編集装置および動画編集方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

WWE Wipo information: entry into national phase

Ref document number: 10511609

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2004714002

Country of ref document: EP

Ref document number: 1-2004-501902

Country of ref document: PH

WWE Wipo information: entry into national phase

Ref document number: 1020047018985

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 20048002641

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 1020047018985

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2004714002

Country of ref document: EP