WO2006114954A1 - 映像情報記録装置、映像情報記録方法、映像情報記録プログラム、及び映像情報記録プログラムを記録した記録媒体 - Google Patents

映像情報記録装置、映像情報記録方法、映像情報記録プログラム、及び映像情報記録プログラムを記録した記録媒体 Download PDF

Info

Publication number
WO2006114954A1
WO2006114954A1 PCT/JP2006/305380 JP2006305380W WO2006114954A1 WO 2006114954 A1 WO2006114954 A1 WO 2006114954A1 JP 2006305380 W JP2006305380 W JP 2006305380W WO 2006114954 A1 WO2006114954 A1 WO 2006114954A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
recording
encoded
encoding
mpeg
Prior art date
Application number
PCT/JP2006/305380
Other languages
English (en)
French (fr)
Inventor
Nobukazu Kurauchi
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to US11/918,955 priority Critical patent/US8218949B2/en
Priority to CN2006800132343A priority patent/CN101164336B/zh
Priority to EP20060729370 priority patent/EP1879388B1/en
Priority to JP2007514493A priority patent/JP5090158B2/ja
Publication of WO2006114954A1 publication Critical patent/WO2006114954A1/ja

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/21Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with binary alpha-plane coding for video objects, e.g. context-based arithmetic encoding [CAE]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/467Embedding additional information in the video signal during the compression process characterised by the embedded information being invisible, e.g. watermarking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440218Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4408Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video stream encryption, e.g. re-encrypting a decrypted video stream for redistribution in a home network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/913Television signal processing therefor for scrambling ; for copy protection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal

Definitions

  • An invention according to the present patent application receives video information transmitted individually or in a multicast manner using various wired or wireless networks, and receives the received video information.
  • the present invention relates to an image information recording apparatus, an image information recording method, an image information recording program, and a recording medium recording the image information recording program for recording image information.
  • a video information recording apparatus a video information recording method, which receives video information transmitted individually or in a multicast manner using various wired or wireless networks, and records the received video information.
  • a technology relating to a video information recording program and a recording medium on which the video information recording program is recorded for example, there is a moving picture coding method conversion apparatus described in Patent Document 1 below.
  • FIG. 8 shows a schematic configuration diagram of this conventional moving picture coding scheme converter 900
  • FIG. 9 shows the case where this conventional moving picture coding scheme converter 900 performs coding scheme conversion. Shows the procedure of In FIG. 8, only the part directly related to the present invention is shown, and the other parts are omitted.
  • the conventional moving picture coding method converter 900 receives the video information broadcasted by the receiving unit 901 (S 901). Next, from the received video information, the tuning 'decoding unit 904 selects and decodes the program content (S 902). Next, the control unit 902 encodes the selected program content into the MPEG-2 format (S 903), and records the program content 941 encoded into the MPEG-2 format in the recording unit 903 (S 904). ).
  • the program content 942 encoded in the MPEG-4 format may not necessarily be recorded in the MPEG-2 format, and may be recorded in the recording unit 903.
  • the program content encoded in the MPEG-2 format may be used. Both the 941 and the program content 942 encoded in the MPEG-4 format may be recorded in the recording unit 903.
  • Program content 941 encoded in the MPEG-2 format and program content 942 encoded in the MPEG-4 format due to problems such as copyright management and capacity problems of the recording unit 903. In some cases, it is impossible to record both in the recording unit 903. In such a case, only one of the contents is recorded in the recording unit 903.
  • each program content may be encrypted using the encryption / decryption key 944 and recorded in the recording unit 903.
  • This encryption / decryption key may be used for each program content. It may be a different key! /, It may be a key common to several program contents! /, And encryption and decryption may be a common key And encryption and decryption may be different keys.
  • the moving picture coding method conversion apparatus 900 records only the program content 941 coded in the MPEG-2 format in the recording unit 903 due to the copyright management or other circumstances. It is assumed that only the program content encoded in the MPEG-4 format can be used in 931.
  • control unit 902 of the video coding system conversion device 900 reads out and decodes the program content 941 coded in the MPEG-2 format from the recording unit 903 (S 905).
  • control unit 902 encodes the decoded program content into program content 942 in the MPEG-4 format (S 906).
  • the key of the encryption key may be the same as the encryption / decryption key 944 or may be a different key, and various keys can be used as in the above. Detailed description is omitted.
  • control unit 902 writes the program content 942 in the MPEG-4 format to the SD memory card 922 via the input / output unit 905 (S 907).
  • This MPEG-4 program content 942 recorded on the SD memory card 922 can be used by other devices 931. (S908).
  • step S 907 the program content 942 in the MPEG-4 format is written out to the SD memory card 922 via the input / output unit 905 due to copyright management and other circumstances, and at the same time the control unit 902
  • the program content 941 encoded in the MPEG-2 format recorded in the recording unit 903 may be deleted. Or, it may not necessarily be deleted due to copyright management or other circumstances.
  • Patent Document 2 discloses an image information conversion apparatus that generates MPEG-4 motion vector information from MPEG-2 motion vector information.
  • this image information conversion apparatus when converting encoded data encoded in the MPEG-2 format into encoded data encoded in the MPEG-4 format, data that was P-frame in the MPEG-2 is converted to MPEG —
  • MPEG-4 motion vector information When converting to 4 P-VOPs, generate MPEG-4 motion vector information from the MPEG-2 motion vector information, and convert the data that was an I-frame in MPEG-2 to an MPEG-4 P-VOP
  • the motion vector information of the P-VOP is calculated using the motion vector information of the immediately preceding P-VOP to reduce the amount of calculation of the motion vector calculation.
  • FIG. 10 is a schematic view showing a macroblock used for motion compensation in MPEG-2
  • FIG. 11 is a schematic view showing a macroblock used for motion compensation in MPEG-4
  • FIG. 12 is a reference for H.264.
  • It is a schematic diagram which shows a frame.
  • motion compensation is performed using a macroblock R1 of 16 ⁇ 16 pixels
  • MPEG-4 macro blocks closer in color are searched.
  • Motion compensation is performed using a macroblock R2 of 8 x 8 pixels, and the macroblocks used differ depending on the coding scheme.
  • H. 264 as shown in the upper part of FIG. 12, a frame of the immediately preceding or GOP (GROUP OF PICTURES) is used as a reference frame, and motion compensation is performed using macroblock R3 alone. As shown in the lower part of the figure, a wide range of frames beyond I frame can be used as a reference frame, and motion compensation can be performed using the macroblock R4, and more effective image compression can be performed. In this case, motion prediction can not be performed using a conventional motion vector, and motion prediction needs to be performed again.
  • GOP GROUP OF PICTURES
  • Patent Document 1 Japanese Patent Application Laid-Open No. 9-84011
  • Patent Document 2 Japanese Patent Application Laid-Open No. 2002-152752
  • the object of the present invention is to prevent the same content from being recorded in duplicate by plural coding methods using different coding methods because of restrictions such as copyright management or recording capacity.
  • Video information encoded by one encoding method Video information encoded by the other encoding method can be generated at extremely high speed and used by other devices A recording device, a video information recording method, a video information recording program, and a recording medium recording the video information recording program.
  • a video information recording apparatus comprising: recording means for recording first encoded information obtained by encoding video information including a certain content by a first encoding method; Method of creating partial information for creating second encoded information encoded by the second encoding method different from the encoding method and containing the content based on the first encoding information And the recording means records the partial information created by the creating means together with the first encoded information.
  • the second encoded information is encoded by the second encoding method different from the first encoding method together with the first encoded information and includes the same content. Since the partial information for creating the information based on the first code information is recorded, it is possible to generate the second code information using the first code information and the partial information. it can. As a result, due to restrictions such as copyright management or recording capacity, it is not possible to redundantly record a plurality of pieces of video information in which the same content is encoded by a different encoding method! Video information encoded by the encoding method It is possible to generate video information encoded by the other encoding method at extremely high speed and use it in other devices.
  • FIG. 1 is a schematic block diagram of a digital broadcast receiver according to an embodiment of the present invention.
  • FIG. 2 is a flowchart showing the procedure when the digital broadcast receiver shown in FIG. 1 performs encoding scheme conversion.
  • FIG. 3 is a circuit block diagram showing the main components for recording program content coded in the MPEG-4 format.
  • FIG. 4 The control unit of the digital broadcast receiver shown in FIG. 1 shows the main components for recording part of the information necessary for encoding in the MPEG-4 format in the recording unit. It is a circuit diagram.
  • FIG. 5 The control unit of the digital broadcast receiver shown in FIG. 1 is for converting program content encoded in MPEG-2 format into program content encoded in MPEG-4 format. It is a circuit block diagram which shows the main components.
  • FIG. 6 is a schematic view showing an example of program content recorded on an SD memory card.
  • FIG. 7 is a view showing the relationship between a stream in the MPEG-4 format and a frame image.
  • FIG. 8 is a schematic block diagram of a conventional moving picture coding system converter.
  • FIG. 9 is a diagram showing a procedure when a conventional moving picture coding scheme conversion apparatus performs coding scheme conversion.
  • FIG. 10 is a schematic view showing macroblocks used for motion compensation in MPEG-2.
  • FIG. 11 is a schematic view showing macroblocks used for motion compensation of MPEG-4.
  • FIG. 12 is a schematic view showing a reference frame of H.264.
  • a video information recording apparatus a video information recording method, and a method for receiving video information transmitted individually or in a broadcast using various wired or wireless networks and recording the received video information
  • a video information recording program and a recording medium recording the video information recording program will be described with reference to the drawings for a digital broadcast receiver according to an embodiment of the present invention.
  • FIG. 1 is a schematic block diagram of a digital broadcast receiver according to an embodiment of the present invention.
  • FIG. 1 only the parts directly related to the essence of the present invention are shown, and the other parts are omitted.
  • the digital broadcast receiver 100 includes a receiving unit 101, a channel selection 'decoding unit 104, a control unit 102, a recording unit 103, and an input / output unit 105.
  • the digital broadcast receiver 100 receives the video information, encodes the program content into the MPEG-2 format, and records the program content 141 encoded into the MPEG-2 format in the recording unit 103, and also the MPEG-4.
  • the motion vector stream 147 is recorded in the recording unit 103 by obtaining a motion vector by performing coding of a form or a part thereof.
  • the digital broadcast receiver 100 reads out the program content 141 coded in the MPEG-2 format from the recording unit 103 and decodes it, and the decoded program content is M PEG-4
  • program content encoded in the MPEG-4 format is created from the decoded program content using the motion vector stream 147 recorded in the recording unit 103.
  • the input / output unit 105 is configured to be able to mount the SD memory card 122, and the digital broadcast receiver 100 is program content encoded in the MPEG-4 format on the SD memory card 122 mounted to the input / output unit 105. Record The SD memory card 122 is attached to the other device 131 after the digital broadcast receiver 100 power is also removed, and the other device 131 is recorded on the SD memory card 122, and the program content of the MPEG-4 format is stored. To play.
  • FIG. 2 is a flowchart showing a procedure for the digital broadcast receiver 100 shown in FIG. 1 to receive program content, record it, and use it on other devices.
  • the receiving unit 101 of the digital broadcast receiver 100 uses the various wired or wireless networks to individually or simultaneously broadcast video information. It receives (S101).
  • the channel selection 'decoding unit 104 selects the program content of the received video information copy and decodes the selected program content (S102).
  • the control unit 102 encodes the program content into the MPEG-2 format (S10).
  • the program content 142 encoded in the MPEG-4 format may not necessarily be recorded in the MPEG-2 format, and may be recorded in the recording unit 103.
  • Program content encoded in the MPEG-2 format may be used.
  • Both of 141 and program content 142 encoded in the MPEG-4 format may be recorded in the recording unit 103.
  • the control unit 102 receives the received MPEG-2 format program content 141 without encoding the program content in the MPEG-2 format. You may record in the recording section 103 as it is!
  • the control unit 102 may encrypt each program content using the encryption / decryption key 144 and record the encrypted program content in the recording unit 103.
  • the encryption / decryption key 144 may be a key different for each program content, or may be a key common to several program contents, and the encryption and decryption keys are common keys. It does not matter, and the encryption and decryption may be different keys.
  • the program content received by the receiving unit 101 and selected and selected by the decoding unit 104 is information compressed as in the MPEG-2 format or the MPEG-4 format.
  • the program content may be recorded as it is in the recording unit 103 as it is or may not be compressed.
  • the above is substantially the same as the above-described conventional moving picture coding system converter 900.
  • both the program content 141 encoded in the MPEG-2 format and the program content 142 encoded in the MPEG-4 format are recorded in the recording unit 103 by the copyright management etc. In some cases, only one of the contents is recorded in the recording unit 103 in such a case.
  • program content 141 encoded in the MPEG-2 format by copyright management and the like and program content 142 encoded in the MPEG-4 format. It is a case where both of them can not be recorded in the recording unit 103, and in such a case, only one of the contents is recorded in the recording unit 103.
  • the program content has normal television image quality! /
  • the high-definition image quality is recorded
  • the program content is recorded with CIF (Common Intermediate Format) image quality etc. so that it can be played back on mobile devices such as mobile phones. Therefore, since the MPEG-2 format is considered to be superior in image quality, it is assumed that the digital transceiver 100 records only the program content 141 of the MPEG-2 format in the recording unit 103. .
  • control unit 102 In parallel with encoding the program content 141 into MPEG-2 format (S 103) and recording the program content 141 encoded into MPEG-2 format in the recording unit 103 (S 104) A motion vector is determined (S103), and the determined motion vector is recorded as a motion vector stream 147 in the recording unit 103 (S104).
  • the above-mentioned coding process of MPEG-4 format and motion vector calculation process do not necessarily require the information strength coded into MPEG-2 format before encoding into MPEG-2 format.
  • the program content that has been received by the reception unit 101 and has been selected and decoded by the channel selection / decoding unit 104 may be used.
  • the information encoded in the MPEG-2 format may be decoded once, and the encoded information and motion vector of the MPEG-4 format may also be obtained as the decoded information strength! /.
  • control unit 102 it is necessary for the control unit 102 to code the program content in the MPEG-2 format, and it is necessary for the receiving unit 101 to receive the program and the program selected and decoded by the channel selection 'decoding unit 104.
  • the content may already be coded in the MPEG-2 format.
  • the motion vector stream 147 recorded in the recording unit 103 contains only motion vector information and does not contain DCT coefficients, so it is possible to reproduce the program content by itself. It can not be done and it does not violate copyright management etc. Also, since the motion vector information is generally smaller in data size than the DCT information, when the recording capacity of the recording unit 103 is small, the motion vector information is calculated in advance and recorded in the recording unit 103. Is valid.
  • FIG. 3 records the program content 142 encoded in the MPEG-4 format in the recording unit 103. It is a circuit block diagram which shows the main components in a case. The following description is provided for the sake of convenience in order to facilitate the description of the procedure for recording the motion vector stream 147 in the recording unit 103, which will be described later with reference to FIG.
  • the program content 141 encoded in the MPEG-2 format and the program content 142 encoded in the MPEG-4 format are simultaneously processed unless there is a restriction such as copyright management or recording capacity.
  • the recording unit 103 does not record.
  • the digital television broadcast signal is received by the reception unit 101, and is selected and decoded by the selection and decoding unit 104. Up to this point is as described above.
  • the program content subjected to channel selection and decoding is encoded by the MPEG-2 encoder 311 into the program content 141 of the MPEG-2 format and recorded in the recording unit 103. This is also as described above, and the MPEG-2 encoder 311 is not directly related to the essence of the present invention, so a detailed description is omitted.
  • the program content selected and decoded by the channel selection 'decoding unit 104 is a macro block which is a basic processing unit for each VOP (video' object 'plane, frame) in the control unit 102. Divided into The content is sent to the difference calculation unit 321 in units of macroblocks, and the difference from the motion-compensated optimal predicted macroblock, which will be described later, is determined.
  • the difference signal is sent to the DCT unit 323, and the DCT unit 323 performs discrete cosine transform (DCT). It is sent to the DCT coefficient quantization unit 325 obtained by the DCT, and quantization of the DCT coefficients is performed. Specifically, the coding coefficient is reduced by dividing the DCT coefficient by a predetermined value and expressing it by a smaller number.
  • DCT discrete cosine transform
  • a coefficient prediction unit 327 adaptively calculates a prediction value and a prediction error according to the DC component and AC component of the adjacent macro block, and Further reductions in volume will be made.
  • variable-length coding section 349 the motion vector prediction section 346 described later performs motion prediction.
  • the predicted DCT coefficients are variable-length coded, and the program content 142 of the MPEG-4 format is generated and recorded in the recording unit 103. Ru.
  • the DCT coefficient quantized by the quantization unit 325 is returned to the DCT coefficient before quantization by the inverse quantization unit 331, and is returned to the state before discrete cosine transformation by the inverse DCT unit 333.
  • the addition unit 335 adds the data of the difference of the predicted macroblock data to the information returned to the state before discrete cosine transformation to restore the original macroblock, and this information strength is stored in the S memory unit 337. Be done.
  • each divided macroblock of each VOP is sent to the motion detection unit 341, and there is forward prediction that predicts only from the previous VOP, there is! /, Between the previous VOP and the later VOP. From the temporally neighboring VOPs such as bi-directional prediction predicted from both, a motion vector with small error is detected by the motion detection method including block matching. Furthermore, motion vector information is generated in the motion detection unit 341 as a signal indicating the motion to the predicted macroblock with the smallest error.
  • the motion vector information is sent to the motion vector prediction unit 346.
  • the motion vector prediction unit 346 calculates a predicted value using the motion vector of the adjacent macro block, and the predicted value and this motion vector information are calculated. Thus, predicted motion vector information is generated.
  • this predicted motion vector information together with the predicted DCT coefficients generated by the coefficient prediction unit 327 and the shape coding information generated by the shape coding unit 345 described later, can be subjected to variable-length coding.
  • the part 349 is subjected to variable length coding, and the program content 142 of the MPEG-4 format is generated and recorded in the recording part 103.
  • the motion vector information generated by the motion detection unit 341 is also sent to the motion compensation unit 339, and motion compensation is performed using the macroblock information recorded in the memory unit 337.
  • MPEG-4 it is possible to perform motion compensation of a prediction signal using respective motion vectors for blocks of four luminance components (Y) that constitute a macroblock.
  • Y luminance components
  • the optimal prediction macroblock motion-compensated by the motion compensation unit 339 is sent to the difference calculation unit 321, It is used to calculate the above difference for the next VOP macroblock input.
  • each divided macroblock of each VOP is also sent to shape coding (CAE) unit 345.
  • shape coding (CAE) unit 345 this macroblock is completely out of VOP (ALL 0) Or, when not completely within VOP (ALL 256), it is encoded by an arithmetic coding method called shape information force CAE (Context-based Arithmetic Encoding) which is determined depending on whether each pixel is inside or outside the object. .
  • the motion detection unit 341 detects a motion vector for shape information separately from the motion vector of the luminance signal, and the motion vector for the shape information is sent to the motion compensation unit 343, The motion compensation is performed together with the CAE code / shape information of the VOP to be recorded in the memory unit 347 and the shape information on which the motion compensation is performed is transmitted to the shape coding (CAE) unit 345.
  • CAE shape coding
  • the shape coding (CAE) unit 345 uses the CAE-coded shape information of the current VOP and the CAE-coded shape information of the previous VOP subjected to the motion compensation to perform inter-VOP prediction. Is done.
  • the shape code information thus subjected to CAE coding and inter-VOP prediction is sent to the variable-length coding unit 349.
  • the variable-length coding unit 349 as described above, the DCT coefficients and motion vectors are transmitted.
  • variable length coding is performed, and program content 142 of the MPEG-4 format is generated and recorded in the recording unit 103.
  • FIG. 4 is a main configuration for recording in the recording unit 103 a part of information necessary for coding in the MPEG-4 format in the control unit 102 of the digital broadcast receiver 100 shown in FIG. It is a circuit block diagram showing a part.
  • each divided macroblock of each VOP is sent to the motion detection unit 341, and is a forward prediction that predicts only from the previous VOP, and is a force prediction with both the previous VOP and the later VOP.
  • a motion vector with small error is detected by a motion detection method including block matching. Furthermore, motion vector information is generated in the motion detection unit 341 as a signal indicating the motion to the predictive macroblock with the smallest error.
  • the motion vector information is sent to the motion vector prediction unit 346, and the motion vector prediction unit 346 calculates a predicted value using the motion vector of the adjacent macro block, and the predicted value and this motion vector information are calculated. Thus, predicted motion vector information is generated.
  • the predicted motion vector predicted by the motion vector prediction unit 346 is recorded as the motion vector stream 147 in the recording unit 103 as it is or with some coding process. .
  • variable length coding unit 349 When the motion vector stream 147 is generated and recorded in the recording unit 103, the motion vector information is sent to the variable length coding unit 349, and the motion vector information for which this prediction has been performed is A variable length coding process may be performed in the variable length coding section 349 together with the DCT coefficient and the shape coding parameter information.
  • DCT digital coherence tomography
  • quantization of DCT coefficient motion compensation
  • DCT coefficient Prediction variable length coding including the predicted DCT coefficients
  • generation of CAE coded shape information and motion compensation prediction of the shape information
  • variable length coding including the predicted CAE coded shape information Etc. may or may not be performed.
  • variable length coding section 349 may or may not generate the MPEG-4 formatted program content 142, but at least this may not be generated.
  • the program content 142 is not recorded in the recording unit 103.
  • the program content 141 is used by another device 131 other than the digital broadcast receiver 100 recording such program content 141.
  • the digital broadcast receiver 100 is configured to receive only program content 141 and motion vector stream 147 encoded in the MPEG-2 format, for the convenience of copyright management or some other circumstances. It is assumed that only the program content coded in the MPEG-4 format is available in the other device 131, as recorded in the recording unit 103. In such a case, it is necessary to convert the program content 141 encoded in the MPEG-2 format into the program content 142 encoded in the MPEG-4 format, and the following processing is performed.
  • control unit 102 of digital broadcast receiver 100 reads program content 141 encoded in the MPEG-2 format from recording unit 103 and decodes it (see FIG. 2). S105). Next, the control unit 102 encodes the decoded program content into program content 142 in the MPEG-4 format (S106).
  • the program content 142 of the MPEG-4 format can also be encrypted by various methods simultaneously or after a predetermined time (S106).
  • control unit 102 reads out the motion vector stream 147 from the recording unit 103 and uses it to encode the decoded program content into the program content 142 in the MPEG-4 format.
  • the control unit 102 uses this previously determined motion vector stream 147, it is possible to significantly reduce the time required to encode program content into program content 142 in the MPEG-4 format.
  • the power that requires real time to encode program content into program content 142 in MPEG-4 format If the processing content is viewed in more detail, it is necessary that the real time is It is a process to obtain motion balance such as motion detection, motion compensation, prediction error calculation
  • control unit 102 codes the program content into the MPEG-2 format (S 103), and records the program content 141 encoded into the MPEG-2 format in the recording unit 103 (S 104)
  • MPEG-4 encoding is also performed (S103). If motion vectors are determined, it is considered that the video information is usually broadcasted in real time, so the time That needing ,.
  • the program content 141 encoded in the MPEG-2 format is used. Since I-frame DCT coefficients can be diverted, higher speed operation is possible.
  • control unit 102 writes the program content 142 of the MPEG-4 format into the SD memory card 122 via the input / output unit 105 (S 107).
  • the user can use the program content 142 of the MPEG-4 format recorded on the SD memory card 122 with another device 131 (S108).
  • FIG. 5 shows the conversion of the program content 141 encoded in the MPEG-2 format in the control unit 102 of the digital broadcast receiver 100 shown in FIG. 1 into the program content 142 encoded in the MPEG-4 format.
  • FIG. 2 is a circuit block diagram showing main components for performing the processing.
  • the MPEG-2 decoder 351 of the control unit 102 reads out the program content 141 coded in the MPEG-2 format from the recording unit 103, decodes the program content 141, and calculates the difference calculation unit 321 in units of macroblocks. And output to shape coding (CAE) unit 347.
  • CAE shape coding
  • difference operation section 321 finds the difference between each divided macroblock of each VOP and the motion-compensated optimal prediction macroblock, and DCT section 323 executes discrete cosine transformation.
  • the quantization unit 325 quantizes the DCT coefficient, and the coefficient prediction unit 327 adaptively calculates the prediction value and the prediction error according to the DC component and AC component of the adjacent macro block, and the prediction is completed.
  • the DCT coefficients are output to the variable-length code unit 349.
  • the inverse quantization unit 331 restores the DCT coefficient quantized by the quantization unit 325 to the DCT coefficient before quantization, and the inverse DCT unit 333 performs discrete cosine transform on the DCT coefficient before quantization. Revert to the previous state.
  • the addition unit 335 adds the data of the predicted macro block obtained by the difference to the information returned to the state before the discrete cosine conversion to restore the original macro block, and this information strength S memory unit 337 is recorded. Ru.
  • the motion vector restoration unit 351 reads the motion vector stream 147 from the recording unit 103. And restores the predicted motion vector information into motion vector information and outputs the motion vector information to the motion compensation unit 339.
  • the motion compensation unit 339 performs motion compensation using the macroblock information stored in the memory unit 337, and the difference calculation unit 321 includes the next VOP macroblock and the motion-compensated optimal prediction macroblock. Find the difference of
  • the motion vector restoration unit 351 restores the motion vector for shape information separately from the motion vector of the luminance signal, and the motion compensation unit 343 and the motion vector for this shape information Motion compensation is performed using the previous VOP CAE code and shape information stored in the memory unit 347, and the shape information subjected to this motion compensation is output to the shape encoding (CAE) unit 345. Do.
  • a shape coding (CAE) unit 345 performs inter-VOP prediction using CAE-coded shape information of the current VOP and CAE-coded shape information of the previous VOP motion-compensated above. To output the shape code information to the memory unit 347 and the variable-length code unit 349.
  • variable-length coding unit 349 reads the motion vector stream 147 from the recording unit 103, and this motion vector stream 147, the DCT information output from the coefficient prediction unit 327, and the shape code symbol (CAE) Variable-length coding is performed on the shape code information output from the unit 345 to generate program content in the MPEG-4 format, and the program content is output to the input / output unit 105.
  • the input / output unit 105 records this MPEG-4 program content on the SD memory card 122. As a result, the user can use the MPEG-4 program content 142 recorded on the SD memory card 122 with the other device 131.
  • the digital broadcast receiver 100 which converts the program content 141 encoded in the MPEG-2 format into the program content 142 encoded in the MP EG-4 format is sent to the digital broadcast receiver 100.
  • An example of the operation is described.
  • the program content 141 encoded in MPEG-2 format and the motion vector stream 147 are recorded on the SD memory card 122 and recorded on the SD memory card 122 and encoded in MPEG-2 format.
  • the above process may be performed by another device 131 using the decimated program content 141 and the motion vector stream 147.
  • the program content is encoded into the MPEG-2 format (S 103), and the program content 141 encoded into the MPEG-2 format is recorded in the recording unit 103 (S 104).
  • the case has been described where only the motion vector stream 147 is recorded as the information to be recorded in the recording unit 103 by performing encoding of the MPEG-4 format or a part thereof (S103).
  • the encoding in the MPEG-4 format or a part thereof is performed.
  • Information to be recorded is not necessarily limited to the motion vector stream 147.
  • MPEG-4 encoding when MPEG-4 encoding is performed based on a program content 141 encoded in the MPEG-2 format, the MPEG-4 encoding is performed later. Any information that is effective for high-speed execution, and can not restore the content only with that information, and may be any information.
  • the reason why the first condition is required is that the purpose is to perform MPEG-4 coding at high speed later by this information, and the reason why the second condition is required is because Because of the request for copyright management, the program content can not be restored with this information alone.
  • DCT information and shape code information can be mentioned in addition to the motion vector stream 147.
  • the process of recording the DCT information 167 in the recording unit 103 will be described. As shown in FIG. 4, the procedure for coding the MPEG-4 format or only a part of it, obtaining the DCT coefficient, and recording the obtained DCT coefficient as the DCT information 167 in the recording unit 103 is almost the same. The part is the same as the above-described process of generating the number thread content 142 coded in the MPEG-4 format and recording it in the recording unit 103.
  • Each of the divided macroblocks of each VOP is sent to the difference calculation unit 321, and the difference from the motion-compensated optimal prediction macroblock is determined.
  • the difference signal is sent to the DCT unit 323, and discrete cosine transformation is performed in the DCT unit 323.
  • the DCT coefficients obtained by the DCT are sent to the quantizing unit 325, where quantization of the DCT coefficients is performed.
  • the adjacent macro is The prediction value and prediction error are adaptively calculated according to the DC component and AC component of the block to further reduce the coding amount.
  • the predicted DCT coefficient that has been predicted by the coefficient prediction unit 327 is recorded as it is or as DCT information 167 in the recording unit 103 as it is or with some coding or formatting.
  • variable-length coding unit 349 When the DCT information 167 is generated and recorded in the recording unit 103, the DCT coefficient is sent to the variable-length coding unit 349, and the DCT coefficient strength that has been predicted is changed by the variable-length coding unit 349.
  • a process may be performed in which variable length coding is performed along with motion vector information and shape code information.
  • variable length coding including the predicted motion vector, the generation and motion compensation of CAE coded shape information, the prediction of the shape information, and the variable length coding including the predicted CAE coded shape information May or may not be performed.
  • the DCT information 167 is recorded in the recording unit 103, if there is no motion vector, it is not reproduced as an accurate video, and the possibility of causing a copyright problem is low. Furthermore, if one or both of the quantization table and the Huffman table necessary for restoring the DCT information 167 to uncompressed video are not recorded, the restoration of the DCT information 167 becomes very difficult. It is even less likely to create a rights issue.
  • processing for recording the shape code information 165 in the recording unit 103 will be described. As shown in FIG. 4, the procedure for performing encoding in MPEG-4 format or only a part of it, obtaining shape code information 165 and recording the obtained shape code information 165 in the recording unit 103 is also described. Most of the parts are the same as when the program content 142 coded in the above-mentioned MPEG-4 format is generated and recorded in the recording unit 103.
  • Each divided macroblock of each VOP is sent to shape coding (CAE) section 345.
  • shape coding (CAE) section 345 this macroblock is completely out of VOP (ALL 0).
  • shape information determined by whether each pixel is inside or outside the object is encoded by an arithmetic coding method called CAE.
  • the motion detection unit 341 detects a motion vector for shape information separately from the motion vector of the luminance signal, and the motion vector for the shape information is sent to the motion compensation unit 343, The motion compensation is performed together with the CAE code / shape information of the VOP to be recorded in the memory unit 347 and the shape information on which the motion compensation is performed is transmitted to the shape coding (CAE) unit 345.
  • CAE shape coding
  • the shape coding (CAE) unit 345 uses the CAE-coded shape information of the current VOP and the CAE-coded shape information of the previous VOP subjected to the motion compensation to perform inter-VOP prediction. Is done.
  • the predicted shape coding information that has been predicted by the shape coding (CAE) unit 345 is recorded as the shape coding information 165 in the recording unit 103 as it is or with some coding process. .
  • the shape code information 165 is generated and recorded in the recording unit 103, the shape code information is sent to the variable-length code unit 349, and the shape code for which this prediction is performed is generated.
  • Information may be subjected to variable length coding in the variable length code section 349 together with DCT coefficients and motion vector information.
  • the DCT information 167 and the shape encoding information 165 in the recording unit 103 instead of the motion vector stream 147, later, it is possible to encode the program content encoded in the MPEG-2 format.
  • the DCT information 167 and the shape code information 165 recorded in the recording unit 103 are used to perform the MPEG-4 coding at high speed. .
  • the motion vector stream 147, the DCT information 167, and the shape code information 165 are information that can not be restored by using the information itself and the content can not be restored.
  • the force described for one information may be information other than these, or may be a combination of some of them!
  • the above information is not particularly limited to the motion vector stream 147, the DCT information 167, and the shape coding information 165.
  • the compression is performed in the video compression standard other than MPEG such as H. 264.
  • Various information can be recorded as long as it is information that requires calculation time specific to the standard and can not reproduce a complete video image by using only that information. For example, data for error recovery, intermediate data, etc. You may choose to record
  • the selection of the above information can be made according to the recordable capacity of the recording unit 103 or the SD memory card 122 that the digital broadcast receiver has.
  • the recordable capacity of the recording unit 103 or the SD memory card 122 is relatively small, it is one effective method to select the motion vector stream 147 preferentially.
  • FIG. 6 is a schematic view showing an example of program content recorded on the SD memory card 122. As shown in FIG.
  • the SD memory card 122 includes program content 151 of the MPEG-2 format of a whole program G and program content 161 of the MPEG-4 format which is a part of the program G (program content Information used when converting 151 to MPEG-4 program content at high speed is recorded.
  • the program content 151 includes DCT information 152 necessary for reproduction of the program G and information 153 such as motion vectors other than DCT information necessary for reproduction of the program G.
  • the program content 161 includes the program G And the information 163 such as the motion vector other than the DCT information necessary for the reproduction of the program G.
  • the control unit 102 detects an empty storage capacity of the SD memory card 122 using the input / output unit 150, and records the DCT information 162 selected by the following selection method according to the detected empty storage capacity. Let
  • the DCT information is selected according to the temporal position of the video information. For example, based on the free storage capacity of the SD memory card 122, the playback time of the thread spool G corresponding to the determined storage capacity is calculated, and the DCT information up to the playback time is recorded on the SD memory card 122. It is also possible not to record DCT information after this playback time.
  • the method of judging based on the temporal position is not particularly limited to this example, and for example, the DCT information of the reproduction time which is a multiple of a certain number may not be recorded.
  • the information to be recorded is selected according to the calculation time of the information. For example, information which takes time for calculation may be recorded with high priority, and information which does not take time for calculation may be recorded with low priority.
  • FIG. 7 is a diagram showing the relationship between a MPEG-4 format stream and a frame image.
  • the macro block with the original image 172 of frame n of the stream 171, in which the stream 171, which is program content of the MPEG-4 format, is recorded on the SD memory card 122 before powering off Let MVa be the motion vector and difference of stream 171 corresponding to macroblock MBa.
  • control unit 102 Reads the stream 171 from the SD memory card 122 when encoding frame n, decodes the stream 171 using an internal MPEG-4 decoder (not shown), and obtains an image obtained from the motion vector and the difference MVa, and the frame n
  • the original image 173 is compared with the macroblock MBa. If the difference between the two is less than a predetermined threshold, the control unit 102 determines that the motion vector and the difference MVa are appropriate, and executes motion prediction processing of the macroblock MBa of the original image 173 without performing motion vector and difference MVa.
  • the program content 141 of the MPEG-2 format and the motion vector stream 147 for performing the coding of the MPEG-4 format are created and recorded in advance.
  • a method for performing the MPEG-4 encoding at high speed has been described.
  • the present invention generates program content information encoded in another encoding format based on program content information encoded in various encoding formats which is not necessarily limited to such an example. Sometimes it can be applied as well.
  • program content information encoded in advance in the MPEG-4 format and information necessary to generate program content information encoded in the MPEG-2 format In particular, by previously creating and recording information requiring a long time for generation, for example, motion vector information for encoding in the MPEG-2 format, a program content encoded in the MP EG 4 format is then generated.
  • MPEG-2 encoding is performed, the MPEG-2 code can be executed at high speed.
  • MPEG-4 format High-level code processing to 2 formats It is possible to execute quickly or to record information necessary for high-speed execution.
  • the procedure for the digital broadcast receiver 100 to receive program content, record it, and use it on other devices is an embodiment of the video information recording method according to the present patent application.
  • the digital broadcast receiver 100 and the control unit 102 may be realized by a microcomputer and a program that controls its operation.
  • This program is an embodiment of a video information recording program according to the present patent application, and records information in a semiconductor memory such as RAMZ ROM, HDD ZDVD, etc., magnetic system, optical system, combination of these, or various other systems.
  • the recording medium is an embodiment of a recording medium on which the video information recording program according to the present invention is recorded.
  • program content 141 is encoded in the MPEG-2 format in the same digital broadcast receiver 100, and the program content 141 encoded in the MPEG-2 format is recorded in the recording unit 103.
  • MPEG-4 encoding or a part of it is performed to obtain a motion vector, and the program content 141 encoded in the MPEG-2 format is read from the recording unit 103.
  • the motion vector stream 147 is read out from the recording unit 103, and the decoded program content is decoded.
  • a video information recording apparatus comprises: recording means for recording first encoded information obtained by encoding video information including a certain content by a first encoding method; Create partial information to be used to generate second encoding information encoded from the first encoding information and encoded by the second encoding method different from the first encoding method and including the content Creating means, and the recording means records the partial information created by the creating means together with the first encoded information.
  • the video information recording method comprises the steps of: recording, on a recording unit, first encoded information obtained by encoding video information including a certain content according to a first encoding method; A second encoding method different from the second method and encoded with the content; Creating the partial information used to generate the second encoding information from the first encoding information, and recording the created partial information together with the first encoding information in the recording means. And is included.
  • a video information recording program comprises: recording means for recording first encoded information obtained by encoding video information including a certain content according to a first encoding method; and the first encoding method Creating means for creating partial information which is encoded by a second encoding method different from the first encoding information and is used to generate second encoding information including the content;
  • the recording function causes the computer to function, and the recording means records the partial information created by the creating means together with the first encoded information.
  • a recording medium comprises: recording means for recording first encoded information obtained by encoding video information including a certain content by the first encoding method; and the first encoding method Creation means for creating partial information which is encoded by a different second encoding method and used to generate the second encoding information including the content and the first encoding information power
  • the second encoding information encoded by the second encoding method different from the first encoding method and including the same content is Since the partial information used to generate from the encoded information is recorded, the first code information and the partial information can be used to generate the second code information. As a result, due to restrictions such as copyright management or recording capacity, it is not possible to redundantly record a plurality of pieces of video information in which the same content is encoded by different encoding methods. It is possible to generate video information encoded by the coding method and other video information encoded by the other coding method at high speed and to use it in other devices.
  • the video information recording apparatus further includes a receiving unit that receives the first encoded information, and the recording unit is generated by the creating unit together with the first encoded information received by the receiving unit.
  • the recorded partial information is recorded.
  • the first encoded information and the partial information are recorded together with the received first code information. Can be used to generate the second code information.
  • the creating means may be parallel to at least one process of the receiving process of the first encoded information by the first receiving means and the recording process of the first encoded information by the recording means.
  • the partial information is created.
  • the process of creating the partial information is performed in parallel with at least one of the process of receiving the first encoded information and the process of recording the first encoded information, the first code
  • the partial information can be created within the time to record the format information, and it is possible to prevent wasting extra time for creating the partial information.
  • the video information recording apparatus comprises: receiving means for receiving video information including the content; and encoding the video information received by the receiving means according to the first encoding method to obtain first encoded information And encoding means for creating the partial information, and the recording means preferably records the partial information created by the creating means together with the first code information created by the encoding means, .
  • video information including content is received, the received video information and the like first encoded information are created, and the partial information is recorded together with the created first encoded information. Therefore, the second coded information can be generated using the first coded information and the partial information.
  • the creation unit may perform reception processing of the video information by the reception unit, encoding processing of the first encoded information by the encoding unit, and processing of the first encoded information by the recording unit.
  • the partial information is created in parallel with at least one of the recording processes.
  • the partial information creation process is performed in parallel with at least one of the video information reception process, the first encoding information encoding process, and the first code information recording process. But As it is performed, it is possible to create partial information within the time to record the first code information, and to prevent wasting extra time to create partial information.
  • the video information recording apparatus is a receiving means for receiving third encoded information which is encoded by a third encoding method different from the first and second encoding methods and which includes the content. And encoding means for encoding, according to the first encoding method, third encoding information received by the receiving means, to create first encoding information, the recording means comprising It is preferable to record the partial information created by the creating means together with the first code information created by the means.
  • third encoded information encoded by the third encoding method and including content is received, and the first encoded information is created from the received third encoded information. Since the partial information is recorded together with the created first code information, the second coded information can be generated using the first encoded information and the partial information.
  • the generation means may receive the third coded information by the receiving means, encode the first coded information by the coding means, and the first code may be recorded by the recording means.
  • the partial information is created in parallel with at least one process of recording the information.
  • At least one of the reception process of the third encoded information, the encoding process of the first encoded information, and the recording process of the first encoded information is performed in parallel with at least one process. Since the creation process is performed, the partial information can be created within the time to record the second code information, and it is possible to prevent wasting extra time to create the partial information. It is
  • the video information recording apparatus further includes generation means for generating the second encoded information using the first encoded information and the partial information recorded in the recording means. preferable.
  • Another video information recording apparatus is a first encoding information obtained by encoding video information including a certain content by a first encoding method, and a first encoding information different from the first encoding method. Recording means for recording the first coded information information generated by the second coding method and containing the content, and the partial information used to generate the first coded information information; Means for generating the second code information using the first encoded information and the partial information recorded in the means.
  • the first coding information and the second coding information encoded by the second coding method different from the first coding method and containing the same content are Since the second code information can be generated using the encoded information power and the partial information used to generate the same content, the same content may be different due to restrictions such as copyright management or recording capacity. Even if multiple pieces of video information encoded by the decoy method can not be recorded in duplicate, video information encoded by one decod method is encoded by another decoy method. Video information can be generated at extremely high speed and used by other devices.
  • the video information recording apparatus further includes recording means for recording the second encoded information generated by the generation means, and the generation means generates the second encoded information. It is preferable to generate the second encoded information after the interruption using the second code information already recorded in the recording means when the generation process is resumed after that. .
  • the first encoding method is preferably a coding method for compressing video information U ,.
  • the second code information can be created using storage means with a small recording capacity.
  • the first coded information is one of coded information compliant with MPEG-2 and coded information compliant with MPEG-4
  • the second coded information is Is preferred.
  • recording both the program content of the MPEG-2 format and the program content of the MPEG-4 format is ascribed to copyright management restrictions, capacity problems of the recording section, and the like. Even under conditions where it is not permitted, program content of MPEG-4 format is generated from program content of MPEG-2 format extremely rapidly, or program content of MPEG-2 format is generated from program content of MPEG-4 format. Can be used with other devices.
  • the first encoding method may be a coding method that does not compress video information.
  • the second encoded information can be created using compressed and high definition video information, high definition second code information can be created.
  • the partial information preferably includes motion information.
  • the second code information can be generated at extremely high speed using the code information and partial information of the second code information.
  • the partial information preferably includes DCT information.
  • DCT information since it is not necessary to create DCT information from the first encoded information, there is no need to execute the creation process of DCT information S, and the second code information and partial information are used. Code information can be generated at extremely high speed.
  • the partial information preferably does not have at least one of a quantization table and a table. In this case, the restoration of DCT information becomes difficult, which can lower the possibility of copyright problems.
  • the partial information preferably includes shape code information.
  • shape code information since it is not necessary to create the shape coding information from the first code information, there is no need to execute the process of creating and coding the shape coding information, and the first coding information and the partial information are used.
  • the second code information can be generated extremely fast.
  • the partial information is preferably information in an inter-frame compression frame of video information including the content.
  • the partial information is information requiring more computation time than other information used to generate the second encoded information from the first encoded information, and only the partial information is Therefore, it is preferable that the information can not reproduce the original video.
  • At least one of the first and second pieces of encoded information is encoded information compliant with H.264.
  • program content in H. 264 format and program content in other formats (in H. 264 format, the encoding method differs depending on the profile etc. H. 264 format program content is extremely fast, even under conditions where recording both of program content and the like is not permitted due to copyright management restrictions or storage capacity problems etc.
  • program content in H. 264 format and program content in other formats is extremely fast, even under conditions where recording both of program content and the like is not permitted due to copyright management restrictions or storage capacity problems etc.
  • program content in H. 264 different encoding format including program content in H. 264 different encoding format
  • the video information recording apparatus further includes selection means for selecting information to be recorded as the partial information according to the recordable capacity of the recording means, and the recording means has the first code symbol. It is preferable to record the information selected by the selection means as the partial information together with the information.
  • the information to be recorded as the partial information is selected according to the recordable capacity of the recording means, it is possible to record the partial information suitable for the recordable capacity.
  • the selection means preferentially selects motion vector information.
  • the second coding information can be generated extremely rapidly using the first coding information and the motion vector information. can do.
  • the selection unit selects the information to be recorded as the partial information based on the temporal position of the information.
  • the information to be recorded as the partial information is selected based on the temporal position of the information which is not the only recordable capacity of the recording means, recording is possible It is possible to select and record the optimum partial information according to the available capacity and the temporal position of the information.
  • the selection unit selects the information to be recorded as the partial information based on the spatial position of the information.
  • the information to be recorded as the partial information is selected based on the spatial position of the information which is not the only recordable capacity of the recording means, so the optimum according to the recordable capacity and the spatial position of the information. Partial information can be selected and recorded.
  • the selection unit selects information to be recorded as the partial information based on a color component of the information.
  • the information to be recorded as partial information is selected based on the color component of the information which is equal to only the recordable capacity of the recording means. Therefore, the optimum partial information is selected according to the recordable capacity and It can be recorded.
  • the selection unit selects the information to be recorded as the partial information based on the calculation time of the information.
  • the information to be recorded as partial information is selected based on the calculation time of the information which is equal to the recordable capacity of the recording means, the optimum partial information is selected according to the recordable capacity and the information calculation time. It can be recorded.
  • the first encoding method preferably includes one of an encryption process and a decryption process.
  • video information including a certain content can be encrypted or decrypted and recorded as first coded information.
  • recording both MPEG-2 program content and MPEG-4 program content is a copyright management restriction and recording capacity problem. Even under conditions where it is not permitted, etc., it is possible to generate program con- tent of MPEG-4 format from program con- tent of MPEG-2 format at extremely high speed, and use it with other devices, which is industrially applicable Sex is extremely high.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

 デジタル放送受信機100の制御部102は、番組コンテンツをMPEG-2形式に符号化し、MPEG-2形式に符号化した番組コンテンツ141を記録部103に記録するのと並行して、MPEG-4形式の符号化の一部を行って動きベクトルを求め、求めた動きベクトルを動きベクトルストリーム147として記録部103に記録する。その後、制御部102は、記録部103に記録されているMPEG-2形式の番組コンテンツ141及び動きベクトルストリーム147からMPEG-4形式の番組コンテンツを生成し、他の機器131で利用する。

Description

明 細 書
映像情報記録装置、映像情報記録方法、映像情報記録プログラム、及び 映像情報記録プログラムを記録した記録媒体
技術分野
[0001] 本特許出願に係る発明(以後、「本発明」という)は、有線あるいは無線の各種ネット ワークを使って、個別にあるいは同報的に送信される映像情報を受信し、受信した映 像情報を記録する、映像情報記録装置、映像情報記録方法、映像情報記録プログ ラム、及び映像情報記録プログラムを記録した記録媒体に関するものである。
背景技術
[0002] 従来の、有線あるいは無線の各種ネットワークを使って、個別にあるいは同報的に 送信される映像情報を受信し、受信した映像情報を記録する、映像情報記録装置、 映像情報記録方法、映像情報記録プログラム、映像情報記録プログラムを記録した 記録媒体に関する技術には、例えば、下記特許文献 1に記載の動画符号化方式変 換装置があった。
[0003] 図 8に、この従来の動画符号ィ匕方式変換装置 900の概略構成図を示し、図 9に、こ の従来の動画符号ィ匕方式変換装置 900が符号ィ匕方式変換を行う時の手順を示す。 なお、図 8では、本発明に直接関係する部分だけを示し、それ以外の部分は省略し ている。
[0004] まず、この従来の動画符号化方式変換装置 900は、受信部 901で放送された映像 情報を受信する(S901)。次に、この受信した映像情報から、選局'復号部 904が番 組コンテンツを選局し、復号化する(S902)。次に、制御部 902が、選局.復号ィ匕した 番組コンテンツを MPEG— 2形式に符号化し(S903)、 MPEG— 2形式に符号化し た番組コンテンッ 941を記録部 903に記録する(S 904)。
[0005] この時、必ずしも MPEG— 2形式に限らず、 MPEG— 4形式に符号化した番組コン テンッ 942を記録部 903に記録しても構わないし、 MPEG— 2形式に符号化した番 組コンテンッ 941と MPEG— 4形式に符号化した番組コンテンッ 942との両方を記録 部 903に記録しても構わない。 [0006] し力しながら、著作権管理や記録部 903の容量的な問題等によって、 MPEG— 2 形式に符号ィ匕した番組コンテンツ 941と MPEG— 4形式に符号ィ匕した番組コンテン ッ 942との両方を記録部 903に記録できないこともあり、そのようなケースではどちら か一方のコンテンツだけを記録部 903に記録する。
[0007] また、このような時、各番組コンテンツを暗号'復号鍵 944を使って暗号ィ匕して、記 録部 903に記録しても構わないし、この暗号 '復号鍵は、番組コンテンツ毎に異なる 鍵であっても構わな!/、し、幾つかの番組コンテンツに共通の鍵であっても構わな!/、し 、暗号化と復号ィ匕が共通の鍵であっても構わないし、暗号化と復号化とが異なる鍵で あっても構わない。
[0008] 次に、このような番組コンテンツ 941を記録している動画符号ィ匕方式変換装置 900 以外の他の機器 931で、この番組コンテンツ 941を利用するケースを考える。ここで、 動画符号化方式変換装置 900は、著作権管理の都合、あるいは他の何らかの事情 によって、 MPEG— 2形式で符号ィ匕された番組コンテンツ 941だけを記録部 903に 記録しており、他の機器 931では MPEG— 4形式で符号化された番組コンテンツだ けが利用可能であると仮定する。
[0009] このようなケースでは、 MPEG— 2形式で符号化された番組コンテンツ 941を MPE G— 4形式で符号ィ匕された番組コンテンツ 942に変換することが必要になる。そこで、 動画符号ィ匕方式変換装置 900の制御部 902は、記録部 903から MPEG— 2形式で 符号ィ匕された番組コンテンツ 941を読み出してー且復号ィ匕する(S905)。次に、制御 部 902は、復号化された番組コンテンツを MPEG— 4形式の番組コンテンツ 942に 符号化する(S906)。
[0010] この時、同時にあるいは所定時間後に種々の方法で暗号ィ匕することも可能である。
また、暗号ィ匕の鍵は、暗号'復号鍵 944と同じものであっても構わないし、異なる鍵で あっても構わないし、各種の鍵を使用することができることは、上記と同様であるから 詳細な説明は省略する。
[0011] そして、制御部 902は、この MPEG— 4形式の番組コンテンツ 942を SDメモリカー ド 922に入出力部 905を経由して書き出す(S907)。この SDメモリカード 922に記録 された MPEG— 4形式の番組コンテンツ 942を他の機器 931で利用することができる (S908)。
[0012] なお、ステップ S907においては、著作権管理その他の事情によって、 MPEG— 4 形式の番組コンテンツ 942を SDメモリカード 922に入出力部 905を経由して書き出 すと同時に、制御部 902は、記録部 903に記録している MPEG— 2形式で符号ィ匕さ れた番組コンテンツ 941を削除することもある。あるいは、著作権管理その他の事情 によって必ずしも削除しないこともある。
[0013] また、特許文献 2には、 MPEG— 2の動きベクトル情報から MPEG— 4の動きべタト ル情報を生成する画像情報変換装置が開示されて 、る。この画像情報変換装置で は、 MPEG— 2形式で符号化された符号化データを MPEG— 4形式で符号化され た符号化データに変換する際、 MPEG— 2で Pフレームであったデータを MPEG— 4の P- VOPに変換するときは、 MPEG— 2の動きベクトル情報から MPEG— 4の動 きベクトル情報を生成し、 MPEG— 2で Iフレームであったデータを MPEG— 4の P- VOPに変換するときは、直前の P—VOPの動きベクトル情報を用いて当該 P-VOP の動きベクトル情報を算出し、動きベクトル演算の演算量を削減している。
[0014] しかしながら、前者の動画符号化方式変換装置 900では、動画符号化方式変換装 置 900に記録して!/、る MPEG— 2形式の番組コンテンッ 941を他の機器で利用する 時に、 MPEG— 2形式の番組コンテンツ 941から MPEG— 4形式の番組コンテンツ 9 42に変換することが必要になる。この MPEG— 2形式の番組コンテンツ 941から MP EG— 4形式の番組コンテンツ 942への変換には実時間を要するため、例えばこの番 組コンテンッ 941が 1時間の番組であつたならば、 MPEG - 2形式の番組コンテンッ 941から MPEG— 4形式の番組コンテンツ 942への変換に 1時間を要する。従って、 MPEG— 4形式の番組コンテンツ 942を SDメモリカードに書き出して他の機器 931 で利用するまで 1時間を要し、この時間待って 、なければならな!/、と!/、う課題があつ た。
[0015] なお、予め MPEG— 4形式の番組コンテンツ 942を動画符号化方式変換装置 900 で作成し、記録部 903に記録しておけば、このような問題は生じないが、 MPEG - 2 形式の番組コンテンッ 941と MPEG— 4形式の番組コンテンッ 942との両方を記録 しておくことは、著作権管理上の制約や記録部 903の容量的な問題等によって許さ れないケースがある。
[0016] また、後者の画像情報変換装置には以下の課題がある。図 10は、 MPEG— 2の動 き補償に用いられるマクロブロックを示す模式図、図 11は、 MPEG— 4の動き補償に 用いられるマクロブロックを示す模式図、図 12は、 H. 264の参照フレームを示す模 式図である。図 10に示すように、 MPEG— 2では、 16 X 16画素のマクロブロック R1 を用いて動き補償が行われ、図 11に示すように、 MPEG— 4では、色的により近いマ クロブロックを検索することができ、 8 X 8画素のマクロブロック R2を用いて動き補償が 行われ、使用されるマクロブロックが符号ィ匕方式によって異なる。
[0017] また、 H. 264では、図 12の上段に示すように、直前もしくは GOP (GROUP OF PICTURES)のフレームを参照フレームとし、マクロブロック R3を用いて動き補償が 行われるだけでなぐ図 12の下段に示すように、 Iフレームを超えて広範囲のフレーム を参照フレームとし、マクロブロック R4を用いて動き補償を行うこともでき、より効果的 な画像圧縮を行うことができる。この場合、従来の動きベクトルを用いて動き予測を行 うことができず、動き予測をやり直す必要がある。
[0018] このように、 MPEG— 2、 MPEG— 4、 H. 264等の各符号化方式における動きべク トル演算では、符号ィ匕方式により参照フレームの範囲、動き補償の単位、及び任意 形状符号化のサポートの有無等が異なる。このため、上記の画像情報変換装置では 、変換後の符号ィ匕方式に最適化された動きベクトル情報を求めることができない。こ の結果、上記の画像情報変換装置でも、変換後の符号化方式に最適化された動き ベクトル情報を求めるためには、変換後の符号ィ匕方式に基づいた動きベクトル演算 を再度行う必要があり、この演算に長時間を要することとなる。
特許文献 1:特開平 9 -84011号公報
特許文献 2 :特開 2002— 152752号公報
発明の開示
[0019] 本発明の目的は、著作権管理又は記録容量等の制約により、同一のコンテンツを 異なる符号ィヒ方法で符号ィヒした複数の映像情報を重複して記録することができない 場合でも、一の符号ィ匕方法で符号化された映像情報カゝら他の符号ィ匕方法で符号ィ匕 された映像情報を極めて高速に生成して他の機器で利用することができる映像情報 記録装置、映像情報記録方法、映像情報記録プログラム、映像情報記録プログラム を記録した記録媒体を提供することである。
[0020] 本発明の一の局面に従う映像情報記録装置は、あるコンテンツを含む映像情報を 第 1の符号化方法で符号化した第 1の符号化情報を記録する記録手段と、前記第 1 の符号ィ匕方法と異なる第 2の符号ィ匕方法で符号化され且つ前記コンテンツを含む第 2の符号化情報を前記第 1の符号化情報を基に作成するための部分情報を作成す る作成手段とを備え、前記記録手段は、前記第 1の符号化情報とともに、前記作成手 段により作成された部分情報を記録するものである。
[0021] この映像情報記録装置においては、第 1の符号化情報とともに、第 1の符号化方法 と異なる第 2の符号ィ匕方法で符号化され且つ同一コンテンツを含む第 2の符号ィ匕情 報を第 1の符号ィ匕情報を基に作成するための部分情報を記録しているので、第 1の 符号ィ匕情報及び部分情報を用いて第 2の符号ィ匕情報を生成することができる。この 結果、著作権管理又は記録容量等の制約により、同一のコンテンツを異なる符号ィ匕 方法で符号ィ匕した複数の映像情報を重複して記録することができな!/、場合でも、一 の符号ィ匕方法で符号化された映像情報カゝら他の符号ィ匕方法で符号化された映像情 報を極めて高速に生成して他の機器で利用することができる。
図面の簡単な説明
[0022] [図 1]本発明の一実施の形態によるデジタル放送受信機の概略構成図である。
[図 2]図 1に示すデジタル放送受信機が符号化方式変換を行う時の手順を示すフロ 一チャートである。
[図 3]MPEG— 4形式に符号ィ匕した番組コンテンツを記録するための主要構成部を 示す回路ブロック図である。
[図 4]図 1に示すデジタル放送受信機の制御部にお!/ヽて MPEG— 4形式に符号化す るために必要な情報の一部を記録部に記録するための主要構成部を示す回路プロ ック図である。
[図 5]図 1に示すデジタル放送受信機の制御部にお 、て MPEG— 2形式で符号化さ れた番組コンテンツを MPEG— 4形式で符号ィ匕された番組コンテンツに変換するた めの主要構成部を示す回路ブロック図である。 [図 6]SDメモリカードに記録される番組コンテンツの一例を示す模式図である。
[図 7]MPEG— 4形式のストリームとフレーム画像との関係を示す図である。
[図 8]従来の動画符号化方式変換装置の概略構成図である。
[図 9]従来の動画符号ィ匕方式変換装置が符号ィ匕方式変換を行う時の手順を示す図 である。
[図 10]MPEG— 2の動き補償に用いられるマクロブロックを示す模式図である。
[図 11]MPEG— 4の動き補償に用いられるマクロブロックを示す模式図である。
[図 12]H. 264の参照フレームを示す模式図である。
発明を実施するための最良の形態
[0023] 以下に、有線あるいは無線の各種ネットワークを使って、個別にあるいは同報的に 送信される映像情報を受信し、受信した映像情報を記録する、映像情報記録装置、 映像情報記録方法、映像情報記録プログラム、及び映像情報記録プログラムを記録 した記録媒体にっ 、ての本発明の一実施の形態であるデジタル放送受信機にっ ヽ て図面を参照して説明する。
[0024] 図 1は、本発明の一実施の形態によるデジタル放送受信機の概略構成図である。
なお、図 1では、本発明の本質に直接関係する部分だけを示し、それ以外の部分は 省略している。
[0025] 図 1に示すように、デジタル放送受信機 100は、受信部 101、選局'復号部 104、 制御部 102、記録部 103、及び入出力部 105を備える。デジタル放送受信機 100は 、映像情報を受信して番組コンテンツを MPEG— 2形式に符号ィ匕し、 MPEG— 2形 式に符号化した番組コンテンッ 141を記録部 103に記録するとともに、 MPEG - 4形 式の符号ィ匕又はその一部を行って動きベクトルを求め、動きベクトルストリーム 147を 記録部 103に記録する。
[0026] また、デジタル放送受信機 100は、記録部 103から MPEG— 2形式で符号ィ匕され た番組コンテンッ 141を読み出してー且復号ィ匕し、復号化された番組コンテンッを M PEG - 4形式の番組コンテンッ 142に符号化するときに、記録部 103に記録されて いる動きベクトルストリーム 147を用いて、復号化された番組コンテンツから MPEG— 4形式で符号化した番組コンテンツを作成する。 [0027] 入出力部 105は、 SDメモリカード 122を装着可能に構成され、デジタル放送受信 機 100は、入出力部 105に装着された SDメモリカード 122に MPEG— 4形式で符号 化した番組コンテンツを記録する。 SDメモリカード 122は、デジタル放送受信機 100 力も取り外された後、他の機器 131に装着され、他の機器 131は、 SDメモリカード 12 2に記録されて!、る MPEG— 4形式の番組コンテンッを再生する。
[0028] 図 2は、図 1に示すデジタル放送受信機 100が番組コンテンツを受信し、それを記 録し、他の機器で利用するための手順を示すフローチャートである。
[0029] 図 2に示すように、まず、このデジタル放送受信機 100の受信部 101は、有線ある いは無線の各種ネットワークを使って、個別にあるいは同報的に放送された映像情 報を受信する(S101)。次に、操作者の指示に従って、選局 '復号部 104は、この受 信した映像情報カゝら番組コンテンツを選局し、選局した番組コンテンツを復号ィ匕する (S102)。次に、制御部 102は、番組コンテンツを MPEG— 2形式に符号化し(S 10
3)、 MPEG— 2形式に符号化した番組コンテンツ 141を記録部 103に記録する(S1
04)。
[0030] この時、必ずしも MPEG— 2形式に限らず、 MPEG— 4形式に符号化した番組コン テンッ 142を記録部 103に記録しても構わないし、 MPEG— 2形式に符号化した番 組コンテンツ 141と MPEG— 4形式に符号化した番組コンテンツ 142との両方を記録 部 103に記録しても構わない。また、受信した番組コンテンツが既に MPEG— 2形式 に符号化されている場合、制御部 102は、番組コンテンツを MPEG— 2形式に符号 化することなく、受信した MPEG— 2形式の番組コンテンッ 141をそのまま記録部 10 3に記録するようにしてもよ!、。
[0031] また、このような時、制御部 102は、各番組コンテンツを暗号.復号鍵 144を使って 暗号ィ匕して、記録部 103に記録しても構わない。この暗号 '復号鍵 144は、番組コン テンッ毎に異なる鍵であっても構わないし、幾つかの番組コンテンツに共通の鍵であ つても構わないし、暗号ィ匕と復号ィ匕が共通の鍵であっても構わないし、暗号化と復号 化とが異なる鍵であっても構わな 、。
[0032] さらに、上記受信部 101により受信され、選局《復号部 104により選局及び復号ィ匕さ れる番組コンテンツは、 MPEG— 2形式や MPEG— 4形式のように圧縮された情報 でなくても構わな 、し、この圧縮されて ヽな 、番組コンテンツをそのまま記録部 103 に記録しても構わない。ここまでについては、上記従来の動画符号化方式変換装置 900と実質的には同一である。
[0033] しカゝしながら、著作権管理等によって、 MPEG— 2形式に符号ィ匕した番組コンテン ッ 141と、 MPEG— 4形式に符号化した番組コンテンツ 142との両方を記録部 103 に記録できないこともあり、そのようなケースではどちらか一方のコンテンツだけを記 録部 103に記録する。
[0034] 本発明の特徴が発揮されるのは、上記の通り、著作権管理等によって、 MPEG - 2 形式に符号化した番組コンテンッ 141と、 MPEG - 4形式に符号化した番組コンテ ンッ 142との両方を記録部 103に記録できない場合であり、そのようなケースでどちら か一方のコンテンツだけを記録部 103に記録する時である。
[0035] このような時、一般的には、 MPEG— 4形式と MPEG— 2形式とを比較すると、 MP EG— 2形式では、番組コンテンツが通常のテレビ画質ある!/、はハイビジョン画質で 記録され、 MPEG— 4形式では、番組コンテンツが携帯電話等のモパイル機器で再 生できるように CIF (Common Intermediate Format)画質等で記録される。よつ て、 MPEG— 2形式の方が画質的には優れていると考えられるため、このデジタル放 送受信機 100は、記録部 103に MPEG— 2形式の番組コンテンツ 141だけを記録し たと仮定する。
[0036] しかしながら、それでは、上記課題に示す通り、 MPEG— 2形式の番組コンテンツ 1 41を他の機器で利用する時に、 MPEG— 2形式の番組コンテンツ 141から MPEG 4形式の番組コンテンツに変換することが必要になり、なおかつこの MPEG— 2形 式の番組コンテンツ 141から MPEG— 4形式の番組コンテンツへの変換には、実時 間を要する。このため、例えばこの番組コンテンツ 141が 1時間の番組であったなら ば、 MPEG 2形式の番組コンテンッ 141から MPEG— 4形式の番組コンテンッへ の変換に 1時間を要し、従って、 MPEG— 4形式の番組コンテンツを SDメモリカード 122に書き出して他の機器 131で利用するまで 1時間を要し、ユーザはこの時間待つ ていなければならない。
[0037] そこで、本発明の実施の形態であるデジタル放送受信機 100では、制御部 102が 、番組コンテンツを MPEG— 2形式に符号化し(S 103)、 MPEG— 2形式に符号化 した番組コンテンツ 141を記録部 103に記録する(S104)のと並行して、 MPEG— 4 形式の符号化、あるいはその一部を行い、動きベクトルを求め(S103)、求めた動き ベクトルを動きベクトルストリーム 147として記録部 103に記録する(S 104)。
[0038] なお、上記 MPEG— 4形式の符号ィヒ処理と動きベクトルの算出処理は、必ずしも、 MPEG— 2形式に符号ィ匕された情報力 行う必要はなぐ MPEG— 2形式に符号化 する前の、受信部 101により受信され、選局,復号部 104により選局及び復号ィ匕され た番組コンテンツ力 行っても構わない。あるいは、 MPEG— 2形式に符号化された 情報を一且復号化し、復号化された情報力も上記 MPEG— 4形式の符号化と動きべ タトルを求めても構わな!/、。
[0039] また、必ずしも制御部 102が番組コンテンツを MPEG— 2形式に符号ィ匕することは 必要でなぐ受信部 101により受信され、選局'復号部 104により選局及び復号化さ れた番組コンテンツが、すでに MPEG— 2形式に符号ィ匕されたものであっても構わ ない。
[0040] 上記の処理により、記録部 103に記録された動きベクトルストリーム 147は、動きべ タトル情報だけを含んでおり、 DCT係数を含んでいないため、それ単独では番組コ ンテンッを再生することができず、著作権管理等に反することもない。また、動きべ外 ル情報は、一般的に DCT情報よりもデータサイズが小さいので、記録部 103の記録 容量が小さい時には、動きベクトル情報を予め計算して記録部 103に記録しておくこ とが有効である。
[0041] ここで、 MPEG— 4形式の符号化、あるいはその一部を行い(S103)、動きベクトル を求め、求めた動きベクトルを動きベクトルストリーム 147として記録部 103に記録す る(S104)ための手順をより詳細に説明する。
[0042] まず、動きベクトルストリーム 147を記録部 103に記録するための手順の理解を容 易にするために、番組コンテンツを MPEG— 4形式に符号化し、 MPEG— 4形式に 符号ィ匕した番組コンテンツを記録する手順を、図 1に示すデジタル放送受信機 100 の制御部 102を例に図 3によって説明する。
[0043] 図 3は、 MPEG— 4形式に符号化した番組コンテンツ 142を記録部 103に記録する 場合における主要構成部を示す回路ブロック図である。なお、以下の説明は、図 4を 用いて後述する、動きベクトルストリーム 147を記録部 103に記録するための手順の 説明を容易にするために便宜的に行うものであり、本実施の形態によるデジタル放送 受信機 100では、著作権管理又は記録容量等の制約がない場合を除き、 MPEG— 2形式に符号化した番組コンテンッ 141と、 MPEG - 4形式に符号化した番組コンテ ンッ 142とを同時に記録部 103に記録することはしない。
[0044] まず、デジタルテレビ放送信号は、受信部 101により受信され、選局'復号部 104 により選局及び復号される。ここまでは、上記の通りである。選局及び復号ィ匕が行わ れた番組コンテンツは、 MPEG— 2エンコーダ 311により MPEG— 2形式の番組コン テンッ 141に符号ィ匕され、記録部 103に記録される。これも上記の通りであり、 MPE G— 2エンコーダ 311については、本発明の本質とは直接関係しないので、詳細な説 明は省略する。
[0045] 次に、選局及び復号化が行われた番組コンテンツ力 MPEG— 4形式の番組コン テンッ 142に符号ィ匕されて記録部 103に記録される手順を説明する。
[0046] まず、選局 '復号部 104により選局及び復号ィ匕された番組コンテンツは、制御部 10 2において、 VOP (ビデオ'オブジェクト 'プレーン、フレーム)毎に基本処理単位であ るマクロブロックに分割される。番糸且コンテンツは、このマクロブロック単位で差分演算 部 321へ送られ、後述する動き補償された最適な予測マクロブロックとの差分が求め られる。
[0047] この差分信号が DCT部 323へ送られ、 DCT部 323で離散コサイン変換 (DCT: Di screte Cosine Transform)が行われる。 DCTによって得られた DCT係数力 量 子化部 325へ送られ、 DCT係数の量子化が行われる。具体的には、 DCT係数を所 定の値で割り算し、より小さな数で表現することによって符号ィ匕量の削減が行われる
[0048] そして、この量子化された DCT係数に対して、係数予測部 327で、隣接するマクロ ブロックの DC成分及び AC成分に応じて適応的に予測値及び予測誤差が計算され 、符号ィ匕量の更なる削減が行われる。
[0049] 可変長符号ィ匕部 349では、後述する動きベクトル予測部 346で予測が行われた動 きベクトルや形状符号化部 345で生成された形状符号化情報と共に、予測済み DC T係数が可変長符号ィ匕され、 MPEG— 4形式の番組コンテンツ 142が生成されて記 録部 103に記録される。
[0050] また、量子化部 325で量子化された DCT係数は、逆量子化部 331で量子化前の DCT係数に戻され、逆 DCT部 333で離散コサイン変換前の状態に戻される。さらに 、加算部 335で、差分をとつた予測マクロブロックのデータ力 離散コサイン変換前の 状態に戻された情報に加算されて、元のマクロブロックが復元され、この情報力 Sメモリ 部 337に記録される。
[0051] また、各 VOPの分割された各マクロブロックは、動き検出部 341に送られて、先の V OPからのみ予測する前方予測、ある!/、は先の VOPと後の VOPとの両方から予測す る双方向予測等、時間的に近傍の VOPの中から、ブロックマッチングを初めとする動 き検出方法で、誤差の小さい動きベクトルが検出される。さらに、この誤差が最も小さ い予測マクロブロックへの動きを示す信号として、動き検出部 341において、動きべク トル情報が生成される。
[0052] この動きベクトル情報は、動きベクトル予測部 346へ送られ、動きベクトル予測部 34 6では、隣接するマクロブロックの動きベクトルを用いて予測値が計算され、その予測 値とこの動きベクトル情報とから、予測済みの動きベクトル情報が生成される。
[0053] この予測済み動きベクトル情報は、上記の通り、係数予測部 327で生成された予測 済み DCT係数や、後述する形状符号化部 345で生成された形状符号化情報と共に 、可変長符号化部 349で可変長符号化され、 MPEG— 4形式の番組コンテンツ 142 が生成されて記録部 103に記録される。
[0054] また、動き検出部 341で生成された動きベクトル情報は、動き補償部 339へも送ら れ、メモリ部 337に記録しているマクロブロック情報を使って動き補償が行われる。 M PEG— 4では、マクロブロックを構成する 4つの輝度成分 (Y)のブロックに対して、そ れぞれの動きベクトルを使って予測信号を動き補償することができる。また、ブロック 単位で動き補償する場合には、 1マクロブロックあたり 4つの動きベクトルがあり、この 4 つの動きベクトルを平均化して色差信号の動きベクトルとして使用する。この動き補 償部 339で動き補償された最適な予測マクロブロックは、差分演算部 321へ送られ、 次の VOPのマクロブロックの入力に対して、上記差分を求めるために使用される。
[0055] さらに、各 VOPの分割された各マクロブロックは、形状符号化 (CAE)部 345へも送 られ、形状符号化(CAE)部 345では、このマクロブロックが完全に VOP外 (ALL 0 )あるいは完全に VOP内(ALL 256)でない時、各画素が物体内あるいは物体外の どちらであるかによって定まる形状情報力 CAE (Context -based Arithmetic Encoding)と呼ばれる算術符号化方法で符号化される。
[0056] これと同時に、動き検出部 341では、上記輝度信号の動きベクトルとは別に、形状 情報用の動きベクトルが検出され、この形状情報用の動きベクトルが動き補償部 343 へ送られて、メモリ部 347に記録されて ヽる先の VOPの CAE符号ィ匕形状情報と共に 、動き補償が行われ、この動き補償が行われた形状情報は、形状符号化 (CAE)部 3 45〖こ送られる。
[0057] 形状符号化 (CAE)部 345では、上記現在の VOPの CAE符号化された形状情報 と、この動き補償された先の VOPの CAE符号化された形状情報とを使い、 VOP間 予測が行われる。このように CAE符号化され、 VOP間予測が行われた形状符号ィ匕 情報は、可変長符号化部 349へ送られ、可変長符号化部 349では、上記の通り、 D CT係数や動きベクトルと共に、可変長符号化され、 MPEG— 4形式の番組コンテン ッ 142が生成されて記録部 103に記録される。
[0058] 次に、上記の MPEG— 4形式の符号化、あるいはその一部だけを行い、動きべタト ルを求め(S103)、求めた動きベクトルを動きベクトルストリーム 147として記録部 103 に記録する(S104)ための手順を、図 4を使って説明する。
[0059] 図 4は、図 1に示すデジタル放送受信機 100の制御部 102において MPEG— 4形 式に符号ィ匕するために必要な情報の一部を記録部 103に記録するための主要構成 部を示す回路ブロック図である。
[0060] 図 4に示す通り、 MPEG— 4形式の符号化、あるいはその一部だけを行い、動きべ タトルを求め(S103)、求めた動きベクトルを動きベクトルストリーム 147として記録部 103に記録する(S104)ための手順も、そのほとんどの部分は、上記 MPEG— 4形 式で符号ィ匕された番組コンテンツ 142を生成し、記録部 103に記録する時と同様で あるから、その同様の部分については説明を省略し、異なる部分だけを説明する。 [0061] 各 VOPの分割された各マクロブロックは、動き検出部 341に送られて、先の VOPか らのみ予測する前方予測、ある 、は先の VOPと後の VOPとの両方力 予測する双 方向予測等、時間的に近傍の VOPの中から、ブロックマッチングを初めとする動き検 出方法で、誤差の小さい動きベクトルが検出される。さらに、この誤差が最も小さい予 測マクロブロックへの動きを示す信号として、動き検出部 341において、動きベクトル 情報が生成される。
[0062] この動きベクトル情報は、動きベクトル予測部 346へ送られ、動きベクトル予測部 34 6では、隣接するマクロブロックの動きベクトルを用いて予測値が計算され、その予測 値とこの動きベクトル情報とから、予測済みの動きベクトル情報が生成される。動きべ タトル予測部 346で予測が行われた予測済み動きベクトルは、そのまま、あるいは何 らかの符号ィ匕ゃフォーマツトイ匕が行われて、動きベクトルストリーム 147として記録部 1 03に記録される。
[0063] なお、動きベクトルストリーム 147を生成し、記録部 103に記録するときに、動きべク トル情報が可変長符号ィ匕部 349に送られ、この予測が行われた動きベクトル情報が、 可変長符号ィ匕部 349で DCT係数や形状符号ィ匕情報と共に可変長符号化される処 理が行われても構わない。
[0064] 同様に、 MPEG— 4形式で符号化された番組コンテンツ 142を生成し記録部 103 に記録する時のその他の処理、例えば、 DCT、 DCT係数の量子化、動き補償、 DC T係数の予測、この予測済みの DCT係数を含む可変長符号化、 CAE符号化された 形状情報の生成や動き補償、この形状情報の予測、この予測済みの CAE符号化形 状情報を含む可変長符号化等が、行われても構わないし、行われなくても構わない。
[0065] 一般的には、これらの処理を行わない場合は、消費電力を低減するのに有効であ り、一方、これらの処理を行う場合は、 MPEG— 4形式で符号化された番組コンテン ッ 142を生成し記録部 103に記録する時との整合性を確保するのに有効と考えられ る力 必ずしもそうでないこともあり、それぞれ最適な実施の形態を選ぶことができる。
[0066] いずれにしても、可変長符号ィ匕部 349で可変長符号ィ匕された MPEG— 4形式の番 組コンテンツ 142が生成されることはあってもなくても構わないが、少なくともこの番組 コンテンツ 142が、記録部 103に記録されることはない。 [0067] 次に、このような番組コンテンツ 141を記録しているデジタル放送受信機 100以外 の他の機器 131でこの番組コンテンッ 141を利用するケースを考える。
[0068] ここで、デジタル放送受信機 100は、著作権管理の都合、あるいは他の何らかの事 情によって、 MPEG— 2形式で符号ィ匕された番組コンテンツ 141と動きベクトルストリ ーム 147とだけを記録部 103に記録しており、他の機器 131では、 MPEG— 4形式 で符号ィ匕された番組コンテンツだけが利用可能であると仮定する。このようなケース では、 MPEG— 2形式で符号化された番組コンテンツ 141を MPEG— 4形式で符号 化された番組コンテンツ 142に変換することが必要になり、以下の処理が実行される
[0069] 再び、図 2を参照して、デジタル放送受信機 100の制御部 102は、記録部 103から MPEG— 2形式で符号ィ匕された番組コンテンツ 141を読み出してー且復号ィ匕する( S105)。次に、制御部 102は、復号化された番組コンテンツを MPEG— 4形式の番 組コンテンツ 142に符号化する(S 106)。なお、 MPEG— 4形式の番組コンテンツ 14 2は、同時にあるいは所定時間後に種々の方法で暗号ィ匕することも可能である(S10 6)。
[0070] この時、制御部 102は、記録部 103から動きベクトルストリーム 147を読み出して、 復号化された番組コンテンツを MPEG— 4形式の番組コンテンツ 142に符号化する ために利用する。この予め求めてある動きベクトルストリーム 147を利用することによ つて、番組コンテンツを MPEG— 4形式の番組コンテンツ 142に符号化するために 要する時間を大幅に短縮することができる。
[0071] 上記の通り、番組コンテンツを MPEG— 4形式の番組コンテンツ 142に符号化する ためには実時間を必要とする力 より詳細に処理内容を見ると、その実時間を必要と するのは、動き検出、動き補償、予測誤差計算等の動きべ外ルを求める処理である
[0072] そして上記の通り、制御部 102が、番組コンテンツを MPEG— 2形式に符号ィ匕し(S 103)、 MPEG— 2形式に符号化した番組コンテンツ 141を記録部 103に記録する( S104)のと並行して、 MPEG— 4形式の符号化も行い(S103)、動きベクトルを求め るならば、映像情報は通常実時間で放送されていると考えられるので、全く超過時間 を必要とすることちな 、。
[0073] また、 MPEG— 2形式で符号化した番組コンテンツ 141と MPEG— 4形式で符号 化した番組コンテンツ 142との画面サイズが同じであるなら、 MPEG— 2形式で符号 化した番組コンテンツ 141の Iフレームの DCT係数を流用することができるので、さら に高速ィ匕が可能となる。
[0074] そして、制御部 102は、この MPEG— 4形式の番組コンテンツ 142を、入出力部 10 5を経由して SDメモリカード 122に書き出す(S107)。この結果、ユーザは、この SD メモリカード 122に記録された MPEG— 4形式の番組コンテンツ 142を他の機器 131 で利用することができる(S108)。
[0075] ここで、 MPEG— 2形式で符号化された番組コンテンツ 141を MPEG— 4形式で符 号化された番組コンテンツ 142に変換するための手順を、図 5を使って説明する。
[0076] 図 5は、図 1に示すデジタル放送受信機 100の制御部 102において MPEG— 2形 式で符号化された番組コンテンッ 141を MPEG— 4形式で符号化された番組コンテ ンッ 142に変換するための主要構成部を示す回路ブロック図である。
[0077] まず、制御部 102の MPEG— 2デコーダ 351は、記録部 103から MPEG— 2形式 で符号ィ匕された番組コンテンツ 141を読み出して復号ィ匕し、マクロブロック単位で差 分演算部 321及び形状符号化 (CAE)部 347へ出力する。
[0078] 次に、差分演算部 321は、各 VOPの分割された各マクロブロックと、動き補償され た最適な予測マクロブロックとの差分を求め、 DCT部 323は、離散コサイン変換を実 行する。また、量子化部 325は、 DCT係数の量子化を行い、係数予測部 327は、隣 接するマクロブロックの DC成分及び AC成分に応じて適応的に予測値及び予測誤 差を計算し、予測済み DCT係数を可変長符号ィ匕部 349へ出力する。
[0079] このとき、逆量子化部 331は、量子化部 325で量子化された DCT係数を量子化前 の DCT係数に戻し、逆 DCT部 333は、量子化前の DCT係数を離散コサイン変換前 の状態に戻す。加算部 335は、差分をとつた予測マクロブロックのデータを離散コサ イン変換前の状態に戻された情報に加算し、元のマクロブロックが復元され、この情 報力 Sメモリ部 337に記録される。
[0080] また、動きベクトル復元部 351は、記録部 103から動きベクトルストリーム 147を読み 出し、予測済みの動きベクトル情報を動きベクトル情報に復元して動き補償部 339へ 出力する。動き補償部 339は、メモリ部 337に記録しているマクロブロック情報を使つ て動き補償を行い、差分演算部 321は、次の VOPのマクロブロックと、動き補償され た最適な予測マクロブロックとの差分を求める。
[0081] これと同時に、動きベクトル復元部 351は、上記輝度信号の動きベクトルとは別に、 形状情報用の動きベクトルを復元し、動き補償部 343は、この形状情報用の動きべク トルと、メモリ部 347に記録されている先の VOPの CAE符号ィ匕形状情報とを用いて、 動き補償を行 ヽ、この動き補償が行われた形状情報を形状符号化 (CAE)部 345へ 出力する。
[0082] 形状符号化 (CAE)部 345は、現在の VOPの CAE符号化された形状情報と、上記 の動き補償された先の VOPの CAE符号化された形状情報とを用いて VOP間予測 を行い、形状符号ィ匕情報をメモリ部 347及び可変長符号ィ匕部 349へ出力する。
[0083] 可変長符号化部 349は、記録部 103から動きベクトルストリーム 147を読み出し、こ の動きベクトルストリーム 147と、係数予測部 327から出力される DCT情報と、形状符 号ィ匕 (CAE)部 345から出力される形状符号ィ匕情報とを可変長符号ィ匕し、 MPEG— 4形式の番組コンテンツを生成して入出力部 105へ出力する。入出力部 105は、この MPEG— 4形式の番組コンテンツを SDメモリカード 122に記録する。この結果、ユー ザは、 SDメモリカード 122に記録された MPEG— 4形式の番組コンテンツ 142を他 の機器 131で利用することができる。
[0084] なお、上記の説明では、 MPEG— 2形式で符号化された番組コンテンツ 141を MP EG— 4形式で符号ィ匕された番組コンテンツ 142に変換するデジタル放送受信機 10 0にお 、て行う例を説明した力 MPEG— 2形式で符号ィ匕された番組コンテンツ 141 及び動きベクトルストリーム 147を SDメモリカード 122に記録し、 SDメモリカード 122 に記録されて ヽる MPEG— 2形式で符号ィ匕された番組コンテンツ 141及び動きべク トルストリーム 147を用いて、他の機器 131で上記の処理を実行するようにしてもょ ヽ
[0085] 上記の説明では、番組コンテンツを MPEG— 2形式に符号化し(S 103)、 MPEG —2形式に符号ィ匕した番組コンテンツ 141を記録部 103に記録する(S104)のと並 行して、 MPEG— 4形式の符号化、あるいはその一部を行い(S103)、記録部 103 に記録する情報として、動きベクトルストリーム 147だけを記録する場合について説明 した。
[0086] しかしながら、 MPEG— 2形式に符号化した番組コンテンツ 141を記録部 103に記 録するのと並行して、 MPEG— 4形式の符号化、あるいはその一部を行い、記録部 1 03に記録する情報は、必ずしも動きベクトルストリーム 147に限るものではない。
[0087] すなわち、上記説明力 わ力る通り、後で MPEG— 2形式で符号ィ匕された番組コン テンッ 141を元に MPEG— 4形式の符号化を行う時に、その MPEG— 4符号化を高 速実行するために有効な情報であり、なおかつ、その情報だけでは番糸且コンテンツを 復元できな 、情報であるならば、何であっても構わな 、。
[0088] 上記第 1の条件が必要とされる理由は、この情報によって後で MPEG— 4符号ィ匕を 高速に行うことが目的だからであり、上記第 2の条件が必要とされる理由は、著作権 管理の要請から、この情報だけで番組コンテンツを復元可能であってはならな 、から である。このような、 2つの条件を満たす情報の具体的な例として、上記動きベクトル ストリーム 147以外に、 DCT情報と、形状符号ィ匕情報とを挙げることができる。
[0089] 以下に、これらの DCT情報と、形状符号化情報とを、上記動きベクトルストリーム 14 7に代えて、あるいは、動きベクトルストリーム 147と共に、記録部 103に記録する手 順を、図 4を使って説明する。
[0090] まず、 DCT情報 167を記録部 103に記録する処理について説明する。図 4に示す 通り、 MPEG— 4形式の符号化、あるいはその一部だけを行い、 DCT係数を求め、 求めた DCT係数を DCT情報 167として記録部 103に記録するための手順も、その ほとんどの部分は、上記 MPEG— 4形式で符号ィ匕された番糸且コンテンツ 142を生成 し、記録部 103に記録する時と同様である。
[0091] 各 VOPの分割された各マクロブロックは、差分演算部 321へ送られ、動き補償され た最適な予測マクロブロックとの差分が求められる。この差分信号が DCT部 323へ 送られ、 DCT部 323で離散コサイン変換が行われる。 DCTによって得られた DCT 係数は、量子化部 325へ送られ、 DCT係数の量子化が行われる。
[0092] そして、この量子化された DCT係数に対して、係数予測部 327で、隣接するマクロ ブロックの DC成分及び AC成分に応じて適応的に予測値及び予測誤差が計算され 、符号化量の更なる削減が行われる。係数予測部 327で予測が行われた予測済み DCT係数は、そのまま、あるいは何らかの符号化やフォーマツトイ匕が行われて、 DC T情報 167として記録部 103に記録される。
[0093] なお、 DCT情報 167を生成し、記録部 103に記録するときに、 DCT係数が可変長 符号化部 349に送られ、この予測が行われた DCT係数力 可変長符号化部 349で 動きべ外ルゃ形状符号ィ匕情報と共に可変長符号化される処理が行われても構わな い。
[0094] 同様に、 MPEG— 4形式で符号化された番組コンテンツ 142を生成し記録部 103 に記録する時のその他の処理、例えば、動きベクトルの計算、動き補償、動きべタト ルの予測、この予測済みの動きベクトルを含む可変長符号化、 CAE符号化された形 状情報の生成や動き補償、この形状情報の予測、この予測済みの CAE符号化形状 情報を含む可変長符号化等が、行われても構わないし、行われなくても構わない。
[0095] また、 DCT情報 167が記録部 103に記録されていたとしても、動きベクトルがなけ れば、正確な映像として再生されないので、著作権上の問題を生じる可能性が低くな る。さらに、 DCT情報 167を非圧縮映像に復元する際に必要な量子化テーブル及 びハフマンテーブルの何れか又は両方を記録せずにおけば、 DCT情報 167の復元 が非常に困難となるため、著作権上の問題を生じる可能性がさらに低くなる。
[0096] 次に、形状符号ィ匕情報 165を記録部 103に記録する処理について説明する。図 4 に示す通り、 MPEG— 4形式の符号化、あるいはその一部だけを行い、形状符号ィ匕 情報 165を求め、求めた形状符号ィ匕情報 165を記録部 103に記録するための手順 も、そのほとんどの部分は、上記 MPEG— 4形式で符号ィ匕された番組コンテンツ 142 を生成し、記録部 103に記録する時と同様である。
[0097] 各 VOPの分割された各マクロブロックは、形状符号化 (CAE)部 345へ送られ、形 状符号化(CAE)部 345では、このマクロブロックが完全に VOP外 (ALL 0)あるい は完全に VOP内(ALL 256)でない時、各画素が物体内あるいは物体外のどちら であるかによって定まる形状情報が、 CAEと呼ばれる算術符号化方法で符号化され る。 [0098] これと同時に、動き検出部 341では、上記輝度信号の動きベクトルとは別に、形状 情報用の動きベクトルが検出され、この形状情報用の動きベクトルが動き補償部 343 へ送られて、メモリ部 347に記録されて ヽる先の VOPの CAE符号ィ匕形状情報と共に 、動き補償が行われ、この動き補償が行われた形状情報は、形状符号化 (CAE)部 3 45〖こ送られる。
[0099] 形状符号化 (CAE)部 345では、上記現在の VOPの CAE符号化された形状情報 と、この動き補償された先の VOPの CAE符号化された形状情報とを使い、 VOP間 予測が行われる。形状符号化 (CAE)部 345で予測が行われた予測済み形状符号 化情報は、そのまま、あるいは何らかの符号ィ匕ゃフォーマツトイ匕が行われ、形状符号 化情報 165として記録部 103に記録される。
[0100] なお、形状符号化情報 165を生成し、記録部 103に記録するときに、形状符号ィ匕 情報が可変長符号ィ匕部 349に送られ、この予測が行われた形状符号ィ匕情報が、可 変長符号ィ匕部 349で DCT係数や動きべ外ル情報と共に可変長符号化される処理 が行われても構わない。
[0101] 同様に、 MPEG— 4形式で符号化された番組コンテンツ 142を生成し記録部 103 に記録する時のその他の処理、例えば、 DCT係数の計算、動き補償、 DCT係数の 予測、この予測済みの DCT係数を含む可変長符号化、動きベクトルの計算、動き補 償、動きベクトルの予測、この予測済みの動きベクトルを含む可変長符号化等が、行 われても構わないし、行われなくても構わない。
[0102] このように、上記動きベクトルストリーム 147に代えて、 DCT情報 167や形状符号化 情報 165を記録部 103に記録する例では、後で、 MPEG— 2形式で符号化された番 組コンテンッ 141を元に MPEG - 4形式の符号化を行う時に、その MPEG— 4符号 化を高速実行するために、この記録部 103に記録されている DCT情報 167や形状 符号ィ匕情報 165を使用する。
[0103] なお、後で MPEG— 2形式で符号化された番組コンテンツ 141を元に MPEG— 4 形式の符号化を行う時に、その MPEG— 4符号化を高速実行するために有効な情 報であり、なおかつ、その情報だけでは番糸且コンテンツを復元できない情報として、 上記の通り、動きベクトルストリーム 147、 DCT情報 167、形状符号ィ匕情報 165の 3 つについて説明した力 これら以外の情報であっても構わないし、これらの幾つかを 組み合わせたものであっても構わな!/、。
[0104] また、上記の情報としては、動きベクトルストリーム 147、 DCT情報 167、形状符号 化情報 165に特に限定されず、例えば、 H. 264等の MPEG以外の他の動画圧縮 規格において、当該圧縮規格に特有の計算時間を要する情報であって且つその情 報のみでは完全な映像を再現できない情報であれば、種々の情報を記録することが でき、例えば、エラーリカバリー用のデータ、中間データ等を記録するようにしてもよ い。
[0105] 上記の情報の選択は、デジタル放送受信機が有する記録部 103又は SDメモリ力 ード 122の記録可能な容量に応じて行うことができる。また、この記録部 103又は SD メモリカード 122の記録可能な容量が比較的少ない時には、動きベクトルストリーム 1 47を優先的に選択することも、有効な方法の 1つである。
[0106] 同様の方法として、 Pフレームや Bフレームについてのみ予め計算して記録部 103 に記録しておき、その後、 MPEG— 2形式で符号化された番組コンテンツ 141を元に MPEG— 4形式の符号化を行う時には、 Iフレームについてのみ計算を行っても構わ ない。
[0107] また、著作権上の制限により、動きベクトルストリーム及び形状符号ィ匕情報を記録す ることはできるが、 DCT情報をすベては記録できない場合、 SDメモリカード 122の記 憶容量に応じて、 DCT係数の記録データ量を変更するようにしてもよい。図 6は、 SD メモリカード 122に記録される番組コンテンツの一例を示す模式図である。
[0108] 図 6に示すように、 SDメモリカード 122には、ある番組 G全体の MPEG— 2形式の 番組コンテンツ 151と、番組 Gの一部である MPEG— 4形式の番組コンテンツ 161 ( 番組コンテンッ 151を MPEG - 4形式の番組コンテンッへ高速に変換するときに利 用される情報)が記録されている。番組コンテンツ 151は、番組 Gの再生に必要なす ベての DCT情報 152と、番組 Gの再生に必要な DCT情報以外の、動きベクトル等の 情報 153とから構成され、番組コンテンツ 161は、番組 Gの一部の DCT情報 162と、 番組 Gの再生に必要な DCT情報以外の、動きべクトル等の情報 163とから構成され ている。 [0109] 制御部 102は、入出力部 150を用いて、 SDメモリカード 122の空記憶容量を検出 し、検出した空記憶容量に応じて、以下の選択方法により選択された DCT情報 162 を記録させる。
[0110] (1)映像情報の時間的な位置によって DCT情報を選択する。例えば、 SDメモリ力 ード 122の空記憶容量を基に記憶可能と判断した容量に対応する番糸且 Gの再生時 間を算出し、当該再生時間までの DCT情報を SDメモリカード 122に記録させ、この 再生時間以降の DCT情報を記録させないようにしてもよい。なお、時間的な位置を 基準に判断する方法は、この例に特に限定されず、例えば、ある数の倍数となる再生 時間の DCT情報を記録しな 、ようにしてもょ 、。
[0111] (2)映像情報の空間的な位置によって DCT情報を選択する。例えば、 SDメモリ力 ード 122の空記憶容量を基に記憶可能と判断した容量に対応する番糸且 Gの各フレー ムの特定部分を算出し、各フレームの特定部分の DCT情報を SDメモリカード 122に 記録させ、特定分以外の部分の DCT情報を記録させな 、ようにしてもょ 、。
[0112] (3)映像情報の色成分によって DCT情報を選択する。例えば、 YUV成分の映像 信号が用いられている場合、 UV成分の DCT情報を SDメモリカード 122に記録させ 、 Y成分の DCT情報を記録させな 、ようにしてもょ 、。
[0113] (4)情報の計算時間によって記録する情報を選択する。例えば、計算に時間がか 力る情報を高優先で記録させ、計算に時間が力からない情報を低優先で記録するよ うにしてもよい。
[0114] 次に、上記の変換処理により作成された MPEG— 4形式の番組コンテンツを、制御 部 102が SDメモリカード 122に書き込み中に、ユーザがデジタル放送受信機 100の 電源をオフした場合の対処方法について説明する。図 7は、 MPEG— 4形式のストリ ームとフレーム画像との関係を示す図である。
[0115] 図 7に示すように、 MPEG— 4形式の番組コンテンツであるストリーム 171が電源断 前に SDメモリカード 122に記録され、ストリーム 171のフレーム nの原画像 172のある マクロブロックを MBa、マクロブロック MBaに対応するストリーム 171の動きベクトル及 び差分を MVaとする。
[0116] その後、ユーザがデジタル放送受信機 100の電源を再びオンしたとき、制御部 102 は、フレーム nのエンコードに際し、 SDメモリカード 122からストリーム 171を読み出し 、内部の MPEG— 4デコーダ(図示省略)を用いてストリーム 171をデコードし、動き ベクトル及び差分 MVaから得られる画像と、フレーム nの原画像 173のマクロブロック MBaとを比較する。両者の差が所定の閾値以下の場合、制御部 102は、動きべタト ル及び差分 MVaを妥当と判断し、原画像 173のマクロブロック MBaの動き予測処理 を実行することなぐ動きベクトル及び差分 MVaを使用する。この結果、エンコード時 に最も時間の力かる動き予測処理を省略することができるので、電源断による不慮の エンコード中断が発生したとしても、その後のエンコードのやり直し時間を大幅に短 縮することができる。
[0117] なお、本実施の形態では、 MPEG— 2形式の番組コンテンツ 141と、 MPEG— 4形 式の符号ィ匕を行うための動きベクトルストリーム 147とを予め作成して記録しておくこ とによって、その後、 MPEG— 2形式で符号化された番組コンテンツ 141を元に MP EG 4形式の符号化を行う時に、その MPEG— 4符号化を高速実行する手法につ いて説明した。しかしながら、本発明は必ずしもこのような例に限るものではなぐ種 々の符号化形式で符号化された番組コンテンツ情報を元に、他の符号化形式で符 号化された番組コンテンツ情報を生成する時にも、同様に適用することができる。
[0118] 例えば、予め、 MPEG— 4形式で符号化された番組コンテンツ情報と、この番組コ ンテンッ情報力 MPEG— 2形式で符号ィ匕された番組コンテンツ情報を生成するた めに必要な情報、特に生成に長時間を要する情報、例えば MPEG— 2形式の符号 化のための動きベクトル情報を予め作成して記録しておくことによって、その後、 MP EG 4形式で符号化された番組コンテンッを元に MPEG— 2形式の符号化を行う 時に、その MPEG— 2符号ィ匕を高速実行することができる。
[0119] 特に、デジタル放送受信機 100が、モノィル機器あるいは可搬型機器等であった 場合、モパイル機器等であることによる仕様上'性能上の制約から、 MPEG— 4形式 で番組コンテンツ情報等が記録されることが多ぐさらに記録部 103の容量が限られ ていることが多い。このような場合、予め作成し、記録しておく動きベクトル情報はデ ータサイズが比較的小さいので、モパイル機器等においても、記録部 103の記憶容 量を圧迫することがなぐ MPEG— 4形式力 MPEG— 2形式への符号ィ匕処理を高 速に実行したり、あるいは高速実行に必要な情報を記録しておくことが可能となる。
[0120] なお、このデジタル放送受信機 100が番組コンテンツを受信し、それを記録し、他 の機器で利用するための手順は、本特許出願に係る映像情報記録方法の実施の形 態であり、このデジタル放送受信機 100及び制御部 102は、マイクロコンピュータとそ の動作を制御するプログラムによって実現されてもよい。また、このプログラムは、本 特許出願に係る映像情報記録プログラムの実施の形態であり、 RAMZROM等の 半導体メモリや HDDZDVD等、磁気方式、光方式、これらの組み合わせ、あるいは その他の各種方式で情報を記録する何らかの記録媒体に記録保持され、この記録 媒体は本発明に係る映像情報記録プログラムを記録した記録媒体の実施の形態で ある。
[0121] また、本実施の形態では、同じデジタル放送受信機 100にお 、て、番組コンテンツ を MPEG— 2形式に符号化し、 MPEG— 2形式に符号化した番組コンテンツ 141を 記録部 103に記録する処理と並行して、 MPEG— 4形式の符号化、あるいはその一 部を行い、動きベクトルを求める処理と、記録部 103から MPEG— 2形式で符号ィ匕さ れた番組コンテンツ 141を読み出してー且復号ィ匕し、復号化された番組コンテンツを MPEG— 4形式の番組コンテンツ 142に符号ィ匕する時、記録部 103から動きべタト ルストリーム 147を読み出して、復号化された番組コンテンツを MPEG— 4形式の番 組コンテンツ 142に符号化するために利用する処理とを実行する場合について説明 したが、これら処理をそれぞれ異なる装置や機器が実行するようにしてもょ ヽ。
[0122] 上記のように、本発明に係る映像情報記録装置は、あるコンテンツを含む映像情報 を第 1の符号化方法で符号化した第 1の符号化情報を記録する記録手段と、前記第 1の符号ィ匕方法と異なる第 2の符号ィ匕方法で符号化され且つ前記コンテンツを含む 第 2の符号化情報を前記第 1の符号化情報から生成するために使用される部分情報 を作成する作成手段とを備え、前記記録手段は、前記第 1の符号化情報とともに、前 記作成手段により作成された部分情報を記録するものである。
[0123] 本発明に係る映像情報記録方法は、あるコンテンツを含む映像情報を第 1の符号 化方法で符号化した第 1の符号化情報を記録手段に記録するステップと、前記第 1 の符号ィ匕方法と異なる第 2の符号ィ匕方法で符号化され且つ前記コンテンツを含む第 2の符号化情報を前記第 1の符号化情報から生成するために使用される部分情報を 作成するステップと、作成された部分情報を前記第 1の符号化情報とともに前記記録 手段に記録するステップとを含むものである。
[0124] 本発明に係る映像情報記録プログラムは、あるコンテンツを含む映像情報を第 1の 符号化方法で符号化した第 1の符号化情報を記録する記録手段と、前記第 1の符号 化方法と異なる第 2の符号ィ匕方法で符号化され且つ前記コンテンツを含む第 2の符 号ィ匕情報を前記第 1の符号ィ匕情報力 生成するために使用される部分情報を作成 する作成手段としてコンピュータを機能させ、前記記録手段は、前記第 1の符号化情 報とともに、前記作成手段により作成された部分情報を記録するものである。
[0125] 本発明に係る記録媒体は、あるコンテンツを含む映像情報を第 1の符号ィ匕方法で 符号化した第 1の符号化情報を記録する記録手段と、前記第 1の符号化方法と異な る第 2の符号ィ匕方法で符号化され且つ前記コンテンツを含む第 2の符号ィ匕情報を前 記第 1の符号ィ匕情報力 生成するために使用される部分情報を作成する作成手段と してコンピュータを機能させ、前記記録手段は、前記第 1の符号化情報とともに、前 記作成手段により作成された部分情報を記録することを特徴とする映像情報記録プ ログラムを記録したコンピュータ読み取り可能な記録媒体である。
[0126] 上記の各構成により、第 1の符号化情報とともに、第 1の符号化方法と異なる第 2の 符号化方法で符号化され且つ同一コンテンツを含む第 2の符号化情報を第 1の符号 化情報から生成するために使用される部分情報を記録しているので、第 1の符号ィ匕 情報及び部分情報を用いて第 2の符号ィ匕情報を生成することができる。この結果、著 作権管理又は記録容量等の制約により、同一のコンテンツを異なる符号ィ匕方法で符 号ィ匕した複数の映像情報を重複して記録することができな 、場合でも、一の符号ィ匕 方法で符号化された映像情報カゝら他の符号ィ匕方法で符号化された映像情報を極め て高速に生成して他の機器で利用することができる。
[0127] 例えば、 MPEG— 2形式の番組コンテンツと MPEG— 4形式の番組コンテンツとの 両方を記録しておくことは著作権管理上の制約や記録部の容量的な問題等によって 許されないような条件下でも、極めて高速に、 MPEG— 2形式の番組コンテンツから MPEG— 4形式の番組コンテンツを生成し、他の機器で利用することが可能となる。 [0128] 前記映像情報記録装置は、第 1の符号化情報を受信する受信手段をさらに備え、 前記記録手段は、前記受信手段により受信された第 1の符号化情報とともに、前記 作成手段により作成された部分情報を記録することが好ましい。
[0129] この場合、第 1の符号ィ匕情報が受信され、受信された第 1の符号ィ匕情報とともに、作 成された部分情報が記録されるので、第 1の符号化情報及び部分情報を用いて第 2 の符号ィ匕情報を生成することができる。
[0130] 前記作成手段は、前記第 1の受信手段による前記第 1の符号化情報の受信処理、 及び前記記録手段による前記第 1の符号化情報の記録処理のうち少なくとも一つの 処理と並行して前記部分情報を作成することが好ましい。
[0131] この場合、第 1の符号化情報の受信処理及び第 1の符号化情報の記録処理のうち 少なくとも一つの処理と並行して部分情報の作成処理が実行されるので、第 1の符号 化情報を記録する時間内に部分情報を作成することができ、部分情報を作成するた めに余分な時間を浪費することを防止することができる。
[0132] 前記映像情報記録装置は、前記コンテンツを含む映像情報を受信する受信手段と 、前記受信手段により受信された映像情報を前記第 1の符号化方法で符号化して第 1の符号化情報を作成する符号化手段とをさらに備え、前記記録手段は、前記符号 化手段により作成された第 1の符号ィ匕情報とともに、前記作成手段により作成された 部分情報を記録することが好まし 、。
[0133] この場合、コンテンツを含む映像情報が受信され、受信された映像情報力ゝら第 1の 符号化情報が作成され、作成された第 1の符号化情報とともに、部分情報が記録さ れるので、第 1の符号化情報及び部分情報を用いて第 2の符号化情報を生成するこ とがでさる。
[0134] 前記作成手段は、前記受信手段による前記映像情報の受信処理、前記符号化手 段による前記第 1の符号化情報の符号化処理、及び前記記録手段による前記第 1の 符号化情報の記録処理のうち少なくとも一つの処理と並行して前記部分情報を作成 することが好ましい。
[0135] この場合、映像情報の受信処理、第 1の符号化情報の符号化処理、及び第 1の符 号ィ匕情報の記録処理のうち少なくとも一つの処理と並行して部分情報の作成処理が 実行されるので、第 1の符号ィ匕情報を記録する時間内に部分情報を作成することが でき、部分情報を作成するために余分な時間を浪費することを防止することができる
[0136] 前記映像情報記録装置は、前記第 1及び第 2の符号化方法と異なる第 3の符号ィ匕 方法で符号化され且つ前記コンテンツを含む第 3の符号化情報を受信する受信手 段と、前記受信手段により受信された第 3の符号化情報を前記第 1の符号化方法で 符号化して第 1の符号化情報を作成する符号化手段とをさらに備え、前記記録手段 は、前記符号ィ匕手段により作成された第 1の符号ィ匕情報とともに、前記作成手段によ り作成された部分情報を記録することが好まし ヽ。
[0137] この場合、第 3の符号化方法で符号化され且つコンテンツを含む第 3の符号化情 報が受信され、受信された第 3の符号化情報から第 1の符号化情報が作成され、作 成された第 1の符号ィ匕情報とともに、部分情報が記録されるので、第 1の符号化情報 及び部分情報を用いて第 2の符号ィ匕情報を生成することができる。
[0138] 前記作成手段は、前記受信手段による前記第 3の符号化情報の受信処理、前記 符号化手段による前記第 1の符号化情報の符号化処理、及び前記記録手段による 前記第 1の符号化情報の記録処理のうち少なくとも一つの処理と並行して前記部分 情報を作成することが好ま 、。
[0139] この場合、第 3の符号化情報の受信処理、第 1の符号化情報の符号化処理、及び 第 1の符号化情報の記録処理のうち少なくとも一つの処理と並行して部分情報の作 成処理が実行されるので、第丄の符号ィ匕情報を記録する時間内に部分情報を作成 することができ、部分情報を作成するために余分な時間を浪費することを防止するこ とがでさる。
[0140] 前記映像情報記録装置は、前記記録手段に記録されている前記第 1の符号化情 報及び前記部分情報を用いて前記第 2の符号化情報を生成する生成手段をさらに 備えることが好ましい。
[0141] この場合、第 1の符号化情報及び部分情報を用いて第 2の符号化情報を生成して いるので、第 1の符号化情報及び部分情報を用いて第 2の符号化情報を極めて高速 に生成することができる。 [0142] 本発明に係る他の映像情報記録装置は、あるコンテンツを含む映像情報を第 1の 符号化方法で符号化した第 1の符号化情報と、前記第 1の符号化方法と異なる第 2 の符号化方法で符号化され且つ前記コンテンツを含む第 2の符号化情報を前記第 1 の符号ィヒ情報力 生成するために使用される部分情報とを記録する記録手段と、前 記記録手段に記録されて!、る前記第 1の符号化情報及び前記部分情報を用いて前 記第 2の符号ィ匕情報を生成する生成手段を備えるものである。
[0143] 上記の構成により、第 1の符号化情報と、第 1の符号化方法と異なる第 2の符号ィ匕 方法で符号化され且つ同一コンテンツを含む第 2の符号化情報を第 1の符号化情報 力 生成するために使用される部分情報とを用いて第 2の符号ィ匕情報を生成すること ができるので、著作権管理又は記録容量等の制約により、同一のコンテンツを異なる 符号ィ匕方法で符号ィ匕した複数の映像情報を重複して記録することができない場合で も、一の符号ィ匕方法で符号化された映像情報カゝら他の符号ィ匕方法で符号化された 映像情報を極めて高速に生成して他の機器で利用することができる。
[0144] 前記映像情報記録装置は、前記生成手段により生成された前記第 2の符号化情報 を記録する記録手段をさらに備え、前記生成手段は、前記第 2の符号化情報を生成 する生成処理が中断され、その後に生成処理を再開する場合、前記記録手段に既 に記録されている第 2の符号ィ匕情報を用いて、中断後の第 2の符号化情報を生成す ることが好ましい。
[0145] この場合、既に記録されている第 2の符号ィ匕情報を用いて、中断後の第 2の符号化 情報を生成しているので、時間の要する処理を再度実行する必要がなくなり、電源断 等による不慮の生成中断が発生したとしても、その後の生成処理のやり直し時間を大 幅に短縮することができる。
[0146] 前記第 1の符号化方法は、映像情報を圧縮する符号ィ匕方法であることが好ま U、。
この場合、少ない記録容量で第 1の符号ィ匕情報を記録することができるので、記録容 量の少ない記憶手段を用いて第 2の符号ィ匕情報を作成することができる。
[0147] 前記第 1の符号化情報は、 MPEG— 2に準拠する符号化情報及び MPEG— 4に 準拠する符号ィヒ情報のうちの一方であり、前記第 2の符号化情報は、他方であること が好ましい。 [0148] この場合、 MPEG— 2形式の番組コンテンツと MPEG— 4形式の番組コンテンツと の両方を記録しておくことは著作権管理上の制約や記録部の容量的な問題等によつ て許されないような条件下でも、極めて高速に、 MPEG— 2形式の番組コンテンツか ら MPEG— 4形式の番組コンテンツを、又は、 MPEG— 4形式の番組コンテンツから MPEG— 2形式の番組コンテンツを生成し、他の機器で利用することが可能となる。
[0149] 前記第 1の符号化方法は、映像情報を圧縮しない符号ィ匕方法であってもよい。この 場合、圧縮されて!ヽな ヽ高精細な映像情報を用いて第 2の符号化情報を作成するこ とができるので、高精細な第 2の符号ィ匕情報を作成することができる。
[0150] 前記部分情報は、動きべ外ル情報を含むことが好ましい。この場合、第 1の符号化 情報力 動きベクトルを作成する必要がなくなるので、処理時間が他の処理時間より 2桁余計に処理時間を要する動きべ外ル演算を実行する必要がなくなり、第 1の符 号ィ匕情報及び部分情報を用いて第 2の符号ィ匕情報を極めて高速に生成することが できる。
[0151] 前記部分情報は、 DCT情報を含むことが好ましい。この場合、第 1の符号化情報か ら DCT情報を作成する必要がなくなるので、 DCT情報の作成処理を実行する必要 力 Sなくなり、第 1の符号ィ匕情報及び部分情報を用いて第 2の符号ィ匕情報を極めて高 速に生成することができる。
[0152] 前記部分情報は、量子化テーブル及びノ、フマンテーブルのうち少なくとも一方を有 していないことが好ましい。この場合、 DCT情報の復元が困難になるので、著作権上 の問題が生じる可能性をより低くすることができる。
[0153] 前記部分情報は、形状符号ィ匕情報を含むことが好ましい。この場合、第 1の符号ィ匕 情報から形状符号化情報を作成する必要がなくなるので、形状符号化情報の作成 処理を実行する必要がなくなり、第 1の符号化情報及び部分情報を用いて第 2の符 号ィ匕情報を極めて高速に生成することができる。
[0154] 前記部分情報は、前記コンテンツを含む映像情報のフレーム間圧縮フレームにお ける情報であることが好ましい。この場合、フレーム間圧縮フレームに関する演算処 理を実行する必要がなくなるので、第 1の符号化情報及び部分情報を用いて第 2の 符号ィ匕情報を極めて高速に生成することができる。 [0155] 前記部分情報は、前記第 2の符号化情報を前記第 1の符号化情報から生成するた めに使用される他の情報より計算時間を要する情報であって且つ当該部分情報の みでは元の映像を再現できない情報であることが好ましい。この場合、著作権上の問 題を発生することなぐ一の符号ィ匕方法で符号化された映像情報力 他の符号ィ匕方 法で符号化された映像情報を極めて高速に生成することができる。
[0156] 前記第 1及び第 2の符号化情報の少なくとも一方は、 H. 264に準拠する符号化情 報であることが好ましい。
[0157] この場合、 H. 264形式の番組コンテンツと他の形式の番組コンテンツ(H. 264形 式では、プロファイル等に応じ符号ィ匕方法が異なるため、 H. 264形式の異なる符号 化形式の番組コンテンツを含む)との両方を記録しておくことは著作権管理上の制約 や記録部の容量的な問題等によって許されないような条件下でも、極めて高速に、 H . 264形式の番組コンテンツから他の形式の番組コンテンツ(H. 264形式の異なる 符号化形式の番組コンテンツを含む)を、又は、他の形式の番組コンテンツ(H. 264 形式の異なる符号化形式の番組コンテンツを含む)カゝら H. 264形式の番組コンテン ッを生成し、他の機器で利用することが可能となる。
[0158] 前記映像情報記録装置は、前記記録手段の記録可能容量に応じて、前記部分情 報として記録する情報を選択する選択手段をさらに備え、前記記録手段は、前記第 1 の符号ィヒ情報とともに、前記選択手段により選択された情報を前記部分情報として 記録することが好ましい。
[0159] この場合、記録手段の記録可能容量に応じて、部分情報として記録する情報が選 択されるので、記録可能容量に適した部分情報を記録することができる。
[0160] 前記選択手段は、動きベクトル情報を優先して選択することが好ま 、。この場合、 最も処理時間に影響する動きべ外ル情報を優先して記録することができるので、第 1の符号化情報及び動きベクトル情報を用いて第 2の符号化情報を極めて高速に生 成することができる。
[0161] 前記選択手段は、前記部分情報として記録する情報を、当該情報の時間的な位置 を基に選択することが好ましい。この場合、記録手段の記録可能容量だけでなぐ情 報の時間的な位置を基準に部分情報として記録する情報が選択されるので、記録可 能容量及び情報の時間的な位置に応じて最適な部分情報を選択して記録すること ができる。
[0162] 前記選択手段は、前記部分情報として記録する情報を、当該情報の空間的な位置 を基に選択することが好ましい。この場合、記録手段の記録可能容量だけでなぐ情 報の空間的な位置を基準に部分情報として記録する情報が選択されるので、記録可 能容量及び情報の空間的な位置に応じて最適な部分情報を選択して記録すること ができる。
[0163] 前記選択手段は、前記部分情報として記録する情報を、当該情報の色成分を基に 選択することが好ましい。この場合、記録手段の記録可能容量だけでなぐ情報の色 成分を基準に部分情報として記録する情報が選択されるので、記録可能容量及び 情報の色成分に応じて最適な部分情報を選択して記録することができる。
[0164] 前記選択手段は、前記部分情報として記録する情報を、当該情報の計算時間を基 に選択することが好ましい。この場合、記録手段の記録可能容量だけでなぐ情報の 計算時間を基準に部分情報として記録する情報が選択されるので、記録可能容量 及び情報の計算時間に応じて最適な部分情報を選択して記録することができる。
[0165] 前記第 1の符号化方法は、暗号化処理及び復号化処理の一方を含むことが好まし い。この場合、あるコンテンツを含む映像情報を暗号ィ匕又は復号ィ匕して第 1の符号ィ匕 情報として記録することができる。
産業上の利用可能性
[0166] 本発明によれば、例えば、 MPEG— 2形式の番組コンテンツと MPEG— 4形式の 番組コンテンッとの両方を記録しておくことは著作権管理上の制約や記録部の容量 的な問題等によって許されないような条件下でも、極めて高速に、 MPEG— 2形式の 番組コンテンッから MPEG— 4形式の番組コンテンッを生成し、他の機器で利用す ることが可能となり、産業上の利用可能性は極めて高 、。

Claims

請求の範囲
[1] あるコンテンツを含む映像情報を第 1の符号ィ匕方法で符号ィ匕した第 1の符号ィ匕情 報を記録する記録手段と、
前記第 1の符号化方法と異なる第 2の符号化方法で符号化され且つ前記コンテン ッを含む第 2の符号化情報を前記第 1の符号化情報から生成するために使用される 部分情報を作成する作成手段とを備え、
前記記録手段は、前記第 1の符号化情報とともに、前記作成手段により作成された 部分情報を記録することを特徴とする映像情報記録装置。
[2] 前記第 1の符号化情報を受信する受信手段をさらに備え、
前記記録手段は、前記受信手段により受信された第 1の符号化情報とともに、前記 作成手段により作成された部分情報を記録することを特徴とする請求項 1記載の映 像情報記録装置。
[3] 前記作成手段は、前記第 1の受信手段による前記第 1の符号化情報の受信処理、 及び前記記録手段による前記第 1の符号化情報の記録処理のうち少なくとも一つの 処理と並行して前記部分情報を作成することを特徴とする請求項 2記載の映像情報 記録装置。
[4] 前記コンテンツを含む映像情報を受信する受信手段と、
前記受信手段により受信された映像情報を前記第 1の符号化方法で符号化して第 1の符号化情報を作成する符号化手段とをさらに備え、
前記記録手段は、前記符号化手段により作成された第 1の符号化情報とともに、前 記作成手段により作成された部分情報を記録することを特徴とする請求項 1記載の 映像情報記録装置。
[5] 前記作成手段は、前記受信手段による前記映像情報の受信処理、前記符号化手 段による前記第 1の符号化情報の符号化処理、及び前記記録手段による前記第 1の 符号化情報の記録処理のうち少なくとも一つの処理と並行して前記部分情報を作成 することを特徴とする請求項 4記載の映像情報記録装置。
[6] 前記第 1及び第 2の符号化方法と異なる第 3の符号化方法で符号化され且つ前記 コンテンツを含む第 3の符号化情報を受信する受信手段と、 前記受信手段により受信された第 3の符号化情報を前記第 1の符号化方法で符号 化して第 1の符号化情報を作成する符号化手段とをさらに備え、
前記記録手段は、前記符号化手段により作成された第 1の符号化情報とともに、前 記作成手段により作成された部分情報を記録することを特徴とする請求項 1記載の 映像情報記録装置。
[7] 前記作成手段は、前記受信手段による前記第 3の符号化情報の受信処理、前記 符号化手段による前記第 1の符号化情報の符号化処理、及び前記記録手段による 前記第 1の符号化情報の記録処理のうち少なくとも一つの処理と並行して前記部分 情報を作成することを特徴とする請求項 6記載の映像情報記録装置。
[8] 前記記録手段に記録されて!、る前記第 1の符号化情報及び前記部分情報を用い て前記第 2の符号化情報を生成する生成手段をさらに備えることを特徴とする請求項 1〜7のいずれかに記載の映像情報記録装置。
[9] あるコンテンツを含む映像情報を第 1の符号ィ匕方法で符号ィ匕した第 1の符号ィ匕情 報と、前記第 1の符号化方法と異なる第 2の符号化方法で符号化され且つ前記コン テンッを含む第 2の符号化情報を前記第 1の符号化情報から生成するために使用さ れる部分情報とを記録する記録手段と、
前記記録手段に記録されて!、る前記第 1の符号化情報及び前記部分情報を用い て前記第 2の符号化情報を生成する生成手段をと備えることを特徴とする映像情報 記録装置。
[10] 前記生成手段により生成された前記第 2の符号化情報を記録する記録手段をさら に備え、
前記生成手段は、前記第 2の符号化情報を生成する生成処理が中断され、その後 に生成処理を再開する場合、前記記録手段に既に記録されている第 2の符号化情 報を用いて、中断後の第 2の符号化情報を生成することを特徴とする請求項 9記載の 映像情報記録装置。
[11] 前記第 1の符号ィ匕方法は、映像情報を圧縮する符号ィ匕方法であることを特徴とする 請求項 1〜10のいずれかに記載の映像情報記録装置。
[12] 前記第 1の符号化情報は、 MPEG— 2に準拠する符号化情報及び MPEG— 4に 準拠する符号ィヒ情報のうちの一方であり、前記第 2の符号化情報は、他方であること を特徴とする請求項 1〜11のいずれかに記載の映像情報記録装置。
[13] 前記第 1の符号化方法は、映像情報を圧縮しな ヽ符号ィ匕方法であることを特徴と する請求項 1〜10のいずれかに記載の映像情報記録装置。
[14] 前記部分情報は、動きべ外ル情報を含むことを特徴とする請求項 1〜13のいずれ かに記載の映像情報記録装置。
[15] 前記部分情報は、 DCT情報を含むことを特徴とする請求項 1〜14のいずれかに記 載の映像情報記録装置。
[16] 前記部分情報は、量子化テーブル及びノ、フマンテーブルのうち少なくとも一方を有 して!/ヽな!ヽことを特徴とする請求項 15記載の映像情報記録装置。
[17] 前記部分情報は、形状符号ィ匕情報を含むことを特徴とする請求項 1〜16のいずれ かに記載の映像情報記録装置。
[18] 前記部分情報は、前記コンテンツを含む映像情報のフレーム間圧縮フレームにお ける情報であることを特徴とする請求項 1〜17のいずれかに記載の映像情報記録装 置。
[19] 前記部分情報は、前記第 2の符号化情報を前記第 1の符号化情報から生成するた めに使用される他の情報より計算時間を要する情報であって且つ当該部分情報の みでは元の映像を再現できな 、情報であることを特徴とする請求項 1〜18の 、ずれ かに記載の映像情報記録装置。
[20] 前記第 1及び第 2の符号化情報の少なくとも一方は、 H. 264に準拠する符号化情 報であることを特徴とする請求項 1〜11のいずれかに記載の映像情報記録装置。
[21] 前記記録手段の記録可能容量に応じて、前記部分情報として記録する情報を選択 する選択手段をさらに備え、
前記記録手段は、前記第 1の符号化情報とともに、前記選択手段により選択された 情報を前記部分情報として記録することを特徴とする請求項 1〜20のいずれかに記 載の映像情報記録装置。
[22] 前記選択手段は、動きベクトル情報を優先して選択することを特徴とする請求項 21 記載の映像情報記録装置。
[23] 前記選択手段は、前記部分情報として記録する情報を、当該情報の時間的な位置 を基に選択することを特徴とする請求項 21記載の映像情報記録装置。
[24] 前記選択手段は、前記部分情報として記録する情報を、当該情報の空間的な位置 を基に選択することを特徴とする請求項 21記載の映像情報記録装置。
[25] 前記選択手段は、前記部分情報として記録する情報を、当該情報の色成分を基に 選択することを特徴とする請求項 21記載の映像情報記録装置。
[26] 前記選択手段は、前記部分情報として記録する情報を、当該情報の計算時間を基 に選択することを特徴とする請求項 21記載の映像情報記録装置。
[27] 前記第 1の符号化方法は、暗号化処理及び復号化処理の一方を含むことを特徴と する請求項 1〜26のいずれかに記載の映像情報記録装置。
[28] あるコンテンツを含む映像情報を第 1の符号ィ匕方法で符号ィ匕した第 1の符号ィ匕情 報を記録手段に記録するステップと、
前記第 1の符号化方法と異なる第 2の符号化方法で符号化され且つ前記コンテン ッを含む第 2の符号化情報を前記第 1の符号化情報から生成するために使用される 部分情報を作成するステップと、
作成された部分情報を前記第 1の符号化情報とともに前記記録手段に記録するス テツプとを含むことを特徴とする映像情報記録方法。
[29] あるコンテンツを含む映像情報を第 1の符号ィ匕方法で符号ィ匕した第 1の符号ィ匕情 報を記録する記録手段と、
前記第 1の符号化方法と異なる第 2の符号化方法で符号化され且つ前記コンテン ッを含む第 2の符号化情報を前記第 1の符号化情報から生成するために使用される 部分情報を作成する作成手段としてコンピュータを機能させ、
前記記録手段は、前記第 1の符号化情報とともに、前記作成手段により作成された 部分情報を記録することを特徴とする映像情報記録プログラム。
[30] あるコンテンツを含む映像情報を第 1の符号ィ匕方法で符号ィ匕した第 1の符号ィ匕情 報を記録する記録手段と、
前記第 1の符号化方法と異なる第 2の符号化方法で符号化され且つ前記コンテン ッを含む第 2の符号化情報を前記第 1の符号化情報から生成するために使用される 部分情報を作成する作成手段としてコンピュータを機能させ、 前記記録手段は、前記第 1の符号化情報とともに、前記作成手段により作成された 部分情報を記録することを特徴とする映像情報記録プログラムを記録したコンビユー タ読み取り可能な記録媒体。
PCT/JP2006/305380 2005-04-22 2006-03-17 映像情報記録装置、映像情報記録方法、映像情報記録プログラム、及び映像情報記録プログラムを記録した記録媒体 WO2006114954A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US11/918,955 US8218949B2 (en) 2005-04-22 2006-03-17 Video information recording device, video information recording method, and recording medium containing the video information recording program
CN2006800132343A CN101164336B (zh) 2005-04-22 2006-03-17 影像信息记录装置以及影像信息记录方法
EP20060729370 EP1879388B1 (en) 2005-04-22 2006-03-17 Video information recording device, video information recording method, video information recording program, and recording medium containing the video information recording program
JP2007514493A JP5090158B2 (ja) 2005-04-22 2006-03-17 映像情報記録装置、映像情報記録方法、映像情報記録プログラム、及び映像情報記録プログラムを記録した記録媒体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005124658 2005-04-22
JP2005-124658 2005-04-22

Publications (1)

Publication Number Publication Date
WO2006114954A1 true WO2006114954A1 (ja) 2006-11-02

Family

ID=37214585

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/305380 WO2006114954A1 (ja) 2005-04-22 2006-03-17 映像情報記録装置、映像情報記録方法、映像情報記録プログラム、及び映像情報記録プログラムを記録した記録媒体

Country Status (5)

Country Link
US (1) US8218949B2 (ja)
EP (1) EP1879388B1 (ja)
JP (1) JP5090158B2 (ja)
CN (1) CN101164336B (ja)
WO (1) WO2006114954A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009004984A (ja) * 2007-06-20 2009-01-08 Fujitsu Microelectronics Ltd トランスコーダ、映像記憶装置および映像データ記憶・読出方法
WO2011040302A1 (ja) * 2009-09-30 2011-04-07 ソニー株式会社 画像処理装置および方法

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050111545A1 (en) 2003-11-25 2005-05-26 Ram Prabhakar Dynamic packet size control for MPEG-4 data partition mode
US8705630B2 (en) * 2006-02-10 2014-04-22 Nvidia Corporation Adapting one type of encoder to another type of encoder
US7966361B1 (en) 2006-02-10 2011-06-21 Nvidia Corporation Single-cycle modulus operation
JP2008099027A (ja) * 2006-10-12 2008-04-24 Canon Inc 信号処理装置、撮像装置、及び信号処理方法
US8255226B2 (en) * 2006-12-22 2012-08-28 Broadcom Corporation Efficient background audio encoding in a real time system
US20130101023A9 (en) * 2007-03-12 2013-04-25 Vixs Systems, Inc. Video encoder with video decoder reuse and method for use therewith
US8775825B2 (en) * 2009-08-17 2014-07-08 Cram Worldwide Llc Digital content management and delivery
KR101611437B1 (ko) * 2009-10-28 2016-04-26 삼성전자주식회사 복수의 프레임을 참조하여 영상을 부호화, 복호화하는 방법 및 장치
US9633391B2 (en) 2011-03-30 2017-04-25 Cram Worldwide, Llc Secure pre-loaded drive management at kiosk
JP6411862B2 (ja) * 2013-11-15 2018-10-24 パナソニック株式会社 ファイル生成方法およびファイル生成装置
JP2017183910A (ja) * 2016-03-29 2017-10-05 富士通株式会社 画像符号化装置及び画像符号化方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000299857A (ja) * 1999-02-09 2000-10-24 Sony Corp 符号化ストリーム記録装置および方法、符号化ストリーム再生装置および方法、トランスコーディングシステム、変換装置および方法、ビデオ符号化装置および方法、ストリーム処理装置および方法、ストリーム処理システム、ビデオ復号装置および方法、並びに記録媒体
JP2003032617A (ja) * 2001-07-17 2003-01-31 Victor Co Of Japan Ltd データ記録再生装置及び方法
JP2003116104A (ja) * 2001-10-02 2003-04-18 Sony Corp 情報処理装置及び情報処理方法

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6553143B2 (en) * 1992-06-30 2003-04-22 Canon Kabushiki Kaisha Image encoding method and apparatus
TW280884B (ja) * 1993-10-14 1996-07-11 Philips Electronics Nv
EP0710028A3 (en) * 1994-10-28 2000-01-19 Kabushiki Kaisha Toshiba Image decoding apparatus
JPH0984011A (ja) 1995-09-14 1997-03-28 Hitachi Ltd 動画符号化方式変換装置
EP0853857B1 (en) * 1995-10-06 2000-04-05 Matsushita Electric Industrial Co., Ltd. Compressed video data processing with conversion of image compression format
US20020196853A1 (en) * 1997-06-04 2002-12-26 Jie Liang Reduced resolution video decompression
JP3409834B2 (ja) * 1997-07-10 2003-05-26 ソニー株式会社 画像処理装置および画像処理方法、並びに記録媒体
KR100328417B1 (ko) * 1998-03-05 2002-03-16 마츠시타 덴끼 산교 가부시키가이샤 화상부호화장치및화상복호화장치, 화상부보화방법 및 화상복호화방법, 및 데이터기억매체
US6523113B1 (en) * 1998-06-09 2003-02-18 Apple Computer, Inc. Method and apparatus for copy protection
US7663695B2 (en) * 2000-05-05 2010-02-16 Stmicroelectronics S.R.L. Method and system for de-interlacing digital images, and computer program product therefor
GB2364841B (en) * 2000-07-11 2002-09-11 Motorola Inc Method and apparatus for video encoding
JP2002152752A (ja) 2000-11-13 2002-05-24 Sony Corp 画像情報変換装置及び方法
EP1334617B1 (en) * 2000-11-14 2015-04-01 Cisco Technology, Inc. Networked subscriber television distribution
JP2002300581A (ja) * 2001-03-29 2002-10-11 Matsushita Electric Ind Co Ltd 映像符号化装置、及び映像符号化プログラム
KR100895559B1 (ko) * 2001-07-23 2009-04-29 파나소닉 주식회사 정보기록매체, 정보기록매체에 정보를 기록하는 장치 및방법
US7327789B2 (en) * 2001-08-06 2008-02-05 Matsushita Electric Industrial Co., Ltd. Decoding apparatus, decoding method, decoding program, and decoding program storage medium
JP2003244293A (ja) * 2002-02-14 2003-08-29 Nec Corp 折り畳み式携帯情報端末
US7280700B2 (en) * 2002-07-05 2007-10-09 Microsoft Corporation Optimization techniques for data compression
US7433824B2 (en) * 2002-09-04 2008-10-07 Microsoft Corporation Entropy coding by adapting coding between level and run-length/level modes
JP2004173069A (ja) * 2002-11-21 2004-06-17 Canon Inc 画像データ記録装置及び記録方法
JP4133526B2 (ja) * 2003-04-11 2008-08-13 シャープ株式会社 画像形成方法、画像形成システム及び画像形成装置
US7609763B2 (en) * 2003-07-18 2009-10-27 Microsoft Corporation Advanced bi-directional predictive coding of video frames
JP4127818B2 (ja) * 2003-12-24 2008-07-30 株式会社東芝 動画像符号化方法及びその装置
US20060013305A1 (en) * 2004-07-14 2006-01-19 Sharp Laboratories Of America, Inc. Temporal scalable coding using AVC coding tools
US20060140277A1 (en) * 2004-12-28 2006-06-29 Ju Chi-Cheng Method of decoding digital video and digital video decoder system thereof
US7864840B2 (en) * 2005-04-15 2011-01-04 Inlet Technologies, Inc. Scene-by-scene digital video processing

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000299857A (ja) * 1999-02-09 2000-10-24 Sony Corp 符号化ストリーム記録装置および方法、符号化ストリーム再生装置および方法、トランスコーディングシステム、変換装置および方法、ビデオ符号化装置および方法、ストリーム処理装置および方法、ストリーム処理システム、ビデオ復号装置および方法、並びに記録媒体
JP2003032617A (ja) * 2001-07-17 2003-01-31 Victor Co Of Japan Ltd データ記録再生装置及び方法
JP2003116104A (ja) * 2001-10-02 2003-04-18 Sony Corp 情報処理装置及び情報処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1879388A4 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009004984A (ja) * 2007-06-20 2009-01-08 Fujitsu Microelectronics Ltd トランスコーダ、映像記憶装置および映像データ記憶・読出方法
WO2011040302A1 (ja) * 2009-09-30 2011-04-07 ソニー株式会社 画像処理装置および方法
JP2011077761A (ja) * 2009-09-30 2011-04-14 Sony Corp 画像処理装置および方法
US8744182B2 (en) 2009-09-30 2014-06-03 Sony Corporation Image processing device and method
US9503748B2 (en) 2009-09-30 2016-11-22 Sony Corporation Image processing device and method for assigning luma blocks to chroma blocks
US9510015B2 (en) 2009-09-30 2016-11-29 Sony Corporation Image processing device and method for assigning luma blocks to chroma blocks
US9510014B2 (en) 2009-09-30 2016-11-29 Sony Corporation Image processing device and method for assigning luma blocks to chroma blocks
US9544614B2 (en) 2009-09-30 2017-01-10 Sony Corporation Image processing device and method for assigning luma blocks to chroma blocks
US9979981B2 (en) 2009-09-30 2018-05-22 Velos Media, Llc Image processing device and method

Also Published As

Publication number Publication date
US20090060470A1 (en) 2009-03-05
EP1879388B1 (en) 2013-02-20
JPWO2006114954A1 (ja) 2008-12-18
CN101164336A (zh) 2008-04-16
CN101164336B (zh) 2010-06-23
EP1879388A4 (en) 2011-01-19
EP1879388A1 (en) 2008-01-16
US8218949B2 (en) 2012-07-10
JP5090158B2 (ja) 2012-12-05

Similar Documents

Publication Publication Date Title
JP5090158B2 (ja) 映像情報記録装置、映像情報記録方法、映像情報記録プログラム、及び映像情報記録プログラムを記録した記録媒体
CA2421066C (en) Transcoder-based adaptive quantization for digital video recording
JP2011130494A (ja) 画像符号化方法
EP1730966A1 (en) Converter-assisted video encoder
KR101147744B1 (ko) 비디오 트랜스 코딩 방법 및 장치와 이를 이용한 pvr
JP2008187735A (ja) デジタルビデオ符号化処理における可変精度ピクチャ間タイミング指定方法及び装置
US20040013399A1 (en) Information processing method and apparatus
KR20170066709A (ko) 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법, 및 동화상 예측 복호 프로그램
JP2007104231A (ja) トランスコーダ、記録装置及びトランスコード方法
US20100020883A1 (en) Transcoder, transcoding method, decoder, and decoding method
US20050265444A1 (en) Moving image encoding/decoding apparatus and method
JPH0818979A (ja) 画像処理装置
KR101915079B1 (ko) 동화상 예측 부호화 및 복호 장치, 방법, 그리고 프로그램
JP2005223631A (ja) データ処理装置およびその方法と符号化装置および復号装置
JP2006246277A (ja) 再符号化装置、再符号化方法、および再符号化用プログラム
JP5240230B2 (ja) トランスコーダ、記録装置及びトランスコード方法
JP2009290387A (ja) エンコーダ、デコーダ、及び記録再生装置
JP2008193444A (ja) 情報処理装置
JP2010011185A (ja) 動画像復号装置及び動画像復号方法
CN102316321A (zh) 利用非语法重用的视频编码器及其使用的方法
WO2019017327A1 (ja) 動画像符号化装置、動画像符号化方法、及び、動画像符号化プログラムが格納された記録媒体
JP2004193897A (ja) 動画像符号化方法、動画像復号化方法、動画像符号化装置、動画像復号化装置、及びこれらを実行するためのプログラム
KR20080080819A (ko) 동영상 부호화 및 재생 방법 및 장치
JP2001061145A (ja) 画像符号化装置および画像符号化方法、並びに画像復号装置および画像復号方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680013234.3

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2007514493

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 11918955

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2006729370

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: RU

WWP Wipo information: published in national office

Ref document number: 2006729370

Country of ref document: EP