WO2010150470A1 - 動画像符号化方法、動画像符号化装置、プログラム、および集積回路 - Google Patents

動画像符号化方法、動画像符号化装置、プログラム、および集積回路 Download PDF

Info

Publication number
WO2010150470A1
WO2010150470A1 PCT/JP2010/003812 JP2010003812W WO2010150470A1 WO 2010150470 A1 WO2010150470 A1 WO 2010150470A1 JP 2010003812 W JP2010003812 W JP 2010003812W WO 2010150470 A1 WO2010150470 A1 WO 2010150470A1
Authority
WO
WIPO (PCT)
Prior art keywords
resolution
image
encoded
frame rate
encoding
Prior art date
Application number
PCT/JP2010/003812
Other languages
English (en)
French (fr)
Inventor
佐藤真一
角野眞也
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to CN201080002454.2A priority Critical patent/CN102138327B/zh
Priority to JP2011519520A priority patent/JP5479470B2/ja
Priority to US13/061,216 priority patent/US8559503B2/en
Publication of WO2010150470A1 publication Critical patent/WO2010150470A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Definitions

  • the present invention relates to an image coding method and an image coding apparatus, and more particularly, to an MPEG (Moving Picture Experts Group) -4 AVC system, that is, ITU-T H.264.
  • the present invention relates to an image coding method and an image coding apparatus that adaptively switch between resolution and a frame rate according to a target bit rate in the H.264 system.
  • multimedia In recent years, with the age of multimedia handling voice, images and other pixel values in an integrated manner, the means by which information is transmitted to people, such as newspapers, magazines, televisions, radios and telephones, can be multimedia. It has come to be taken as a target.
  • multimedia means to simultaneously represent not only characters but also graphics or sounds, in particular images, etc. simultaneously.
  • the amount of information possessed by each information medium is estimated as the amount of digital information
  • the amount of information per character is 1 to 2 bytes.
  • voice 64 Kbits (telephone quality) per second
  • an information amount of 100 Mbits (second current television reception quality) or more is required per second. Therefore, it is not realistic to handle the vast amount of information as it is in digital form in the above information media.
  • videophones have been put to practical use by the Integrated Services Digital Network (ISDN), which has a transmission rate of 64 Kbit / s to 1.5 Mbit / s.
  • ISDN Integrated Services Digital Network
  • MPEG Motion Picture Experts Group
  • ISO / IEC International Organization for Standardization International Electrotechnical Commission
  • MPEG-1 is a standard for compressing moving picture signals up to 1.5 Mbit / s, that is, information on television signals to about one hundredth.
  • the MPEG-1 standard satisfies the requirement for higher image quality based on the target quality being medium quality, that is, the quality that the transmission speed can be realized mainly at about 1.5 Mbit / s.
  • MPEG-2 has been standardized to In MPEG-2, TV broadcast quality is realized at 2 to 15 Mbit / s for moving image signals.
  • MPEG-4 has been standardized, which enables encoding, decoding, and manipulation, and realizes new functions necessary for the multimedia age. MPEG-4 achieves compression rates over MPEG-1 and MPEG-2, and also enables object-by-object encoding, decoding and manipulation.
  • MPEG-4 was initially promoted to standardize low bit rate coding methods, it was extended to more general-purpose coding including high bit rate coding methods including interlaced images.
  • MPEG-4 AVC ISO / IEC and ITU-T.
  • An image signal can be considered to be a series of pictures (also called frames or fields) which are a set of pixels at the same time.
  • compression is performed using the correlation of pixels in a picture based on the strong correlation between the pixels and neighboring pixels in the picture.
  • compression is also performed using correlation of pixels between pictures based on strong correlation of pixels between consecutive pictures.
  • inter coding compression using the correlation of pixels between pictures and the correlation of pixels within a picture.
  • intra coding compression using only the correlation of pixels in a picture without using the correlation of pixels between pictures. Since this inter coding utilizes correlation between pictures, it can realize a higher compression rate than intra coding.
  • MPEG-1 MPEG-2, MPEG-4, and MPEG-4 AVC (H.264)
  • a high-speed network using ADSL or optical fiber is not an expensive band-guaranteed dedicated network for companies, but an inexpensive best effort network jointly used by a plurality of users.
  • the upper limit of the sum of bit rates used by each user at that time is fixed. For this reason, the available bit rate per user is low when the number of users used is large, and the available bit rate per user is high when the number of users is small. That is, there is a feature that the usable bit rate is largely converted depending on the time.
  • moving images include images that are very easy to compress, such as single-color solid images (images with the same color and the same brightness on the entire screen).
  • images that are very easy to compress, such as single-color solid images (images with the same color and the same brightness on the entire screen).
  • image which is very difficult to compress such as white noise, which has no correlation between pixels at all.
  • it is important to be able to perform stable image coding without significant image quality degradation even for moving images that differ greatly in ease of compression.
  • FIG. 24 is an explanatory diagram of a conventional moving picture coding apparatus.
  • the left column of FIG. 24 is the image size (resolution) of the encoding target image to be encoded from now on, and indicates the resolution that is actually encoded.
  • the right-hand column in FIG. 24 indicates the display image size displayed on the display device after enlarging the image size after decoding the corresponding encoding target image.
  • the image to be encoded includes an image that is relatively easy to compress and an image that is relatively difficult to compress.
  • encoding is performed without changing the resolution of the image to be encoded, and a display image obtained by decoding with the image decoding device is displayed as it is. There is.
  • the number of pixels (resolution) of the image to be encoded is reduced to 3/4 (middle in FIG. 24) or 1/2 (lower in FIG. 24) Encode the image to be encoded with a small number of pixels (small resolution). Further, the display image decoded by the image decoding apparatus is enlarged in resolution by 4/3 or 2 ⁇ in both vertical and horizontal directions, and is displayed with the same number of pixels (resolution) as the original moving image.
  • FIG. 25 is a block diagram showing a conventional image coding apparatus with dynamic change of resolution, frame rate and quantization step.
  • the conventional image coding apparatus has a resolution changing circuit 501, a frame rate changing circuit 502, a moving image coding circuit 503, a quantization step control circuit 506, and a frame rate control circuit 507. And a resolution setting circuit 508 mainly.
  • the resolution setting circuit 508 determines the resolution to be encoded according to the difficulty of image compression as in Patent Document 1, and notifies the resolution change circuit 501 of the resolution of the image to be encoded as a resolution signal S64.
  • the resolution changing circuit 501 converts the moving image signal S60 input from the moving image input terminal 500 at a predetermined resolution into the resolution notified from the resolution setting circuit 508.
  • the frame rate control circuit 507 notifies the frame rate change circuit 502 of the frame rate of the image to be encoded as a frame rate signal S67.
  • the frame rate changing circuit 502 changes the frame rate of the moving image signal S61 whose resolution has been changed to the frame rate notified from the frame rate control circuit 507.
  • the quantization step control circuit 506 notifies the moving picture coding circuit 503 of the quantization step to be quantized by the moving picture coding circuit 503 as a quantization step signal S66.
  • the moving picture coding circuit 503 quantizes and codes the moving picture signal S62 whose frame rate has been changed in the quantization step notified from the quantization step control circuit 506, and outputs a bit stream S63 to the bit stream output terminal 504. .
  • the quantization step control circuit 506 determines the quantization step on the basis of the target coding bit rate, the code amount of the bit stream S63 output from the moving picture coding circuit 503, and the value of the frame rate signal S64. . Also, the frame rate control circuit 507 determines the frame rate in accordance with the value of the quantization step signal S66 determined by the quantization step control circuit 506.
  • the resolution is determined by the resolution setting circuit 508 in accordance with the difficulty of image compression.
  • the frame rate and the quantization step are dynamically controlled to operate at the target bit rate.
  • the resolution setting circuit 508 is set to the maximum resolution. Notice.
  • the quantization step becomes large and blurring or block distortion occurs.
  • frame thinning is increased to reduce the frame rate, the correlation between the remaining frames is reduced, so that the compression effect by the frame thinning is reduced.
  • the image may be unsightly unless the resolution is lowered.
  • bit rate that can be transmitted fluctuates greatly depending on the time when it is congested (it may be a bit rate of a few parts).
  • PC personal computer
  • bit rate available to the image encoding device decreases sharply. As soon as the PC operation is interrupted, there are many situations where rapid changes such as an increase in bit rate occur.
  • the resolution is frequently switched in conjunction with the bit rate, resulting in poor image quality.
  • the present invention solves the problems of the prior art as described above, and the image quality does not feel unnatural even if the degree of difficulty in compression of the input moving image or the target encoding bit rate changes significantly. It is an object of the present invention to provide a moving picture coding method that enables coding.
  • a moving picture coding method codes an input image to generate a coded bit stream, and transmits the coded bit stream to a transmission path.
  • an image conversion step of changing at least one of the resolution and the frame rate of the input image and outputting the image to be encoded according to the degree of difficulty of encoding the input image, and the image conversion A moving image encoding step of encoding the image to be encoded output in a step to generate the encoded bit stream and transmitting the encoded bit stream onto the transmission path; and transmitting the encoded bit stream onto the transmission path
  • the resolution range selecting step determines a lower limit value of the resolution of the image to be encoded according to the encoding bit rate determined in the bit rate determining step, and the resolution of the image to be encoded is the resolution
  • the change in the image conversion step may be controlled so as not to fall below the lower limit value.
  • the code is changed until at least one of a predetermined time has elapsed and a predetermined number of the input image has been processed after changing the resolution of the image to be encoded.
  • the resolution of the conversion target image may not be changed. Since the image to be encoded immediately after the resolution change is encoded using intra prediction, the encoding efficiency temporarily decreases. Therefore, it is desirable not to change the resolution of the coding target image again until a predetermined time required for the coding efficiency to stabilize and / or until a predetermined number of input images (frames) are processed.
  • the coding bit rate may be determined based on the transmittable bit rate of the transmission path obtained by measuring the amount of coded bit stream actually transmitted and received between the transmitting device and the receiving device. .
  • the code amount that can be actually transmitted and received can be acquired by notifying the number of data received from the receiving device to the transmitting device or the number of data not received.
  • the method of determining the encoding bit rate is not limited to this, and may be, for example, a fixed value designated by the user.
  • the moving picture coding method calculates and calculates a quantization step such that the coded bit stream becomes a code amount that can be transmitted at the coding bit rate determined in the bit rate determination step.
  • the image conversion step determines the degree of difficulty in encoding the input image based on the quantization step average value calculated in the average value calculation step, and the resolution of the image to be encoded and An image quality determination step of determining a frame rate, a resolution change step of changing the input image to the resolution determined in the image quality determination step, and a frame rate of changing the input image to a frame rate determined in the image quality determination step And a change step.
  • the “average value of quantization steps calculated in a predetermined time” may be, for example, an average value from the first frame of the image to be encoded to the present. Furthermore, since the value of the quantization step becomes unstable in the predetermined period after changing the resolution, it may be excluded from the calculation process of the average value.
  • the image quality determination step may hold in advance at least one of a first resolution smaller than the resolution determined immediately before and a large second resolution. Then, when the quantization step average value calculated in the average value calculation step is larger than a predetermined first threshold and the first resolution held is equal to or more than the lower limit, the resolution The resolution of the input image is changed to the first resolution in the changing step, and the quantization step average value calculated in the average value calculating step is smaller than a predetermined second threshold and held. When the second resolution is less than or equal to the upper limit value, the resolution changing step may change the resolution of the input image to the second resolution.
  • the image quality determination step may hold in advance at least one of a first frame rate smaller than a frame rate determined immediately before and a larger second frame rate.
  • the frame rate changing step changes the frame rate of the input image to the second frame rate, and the resolution is changed.
  • the frame rate changing step may change the frame rate of the input image to the first frame rate.
  • Resolution has a greater impact on coding efficiency and image quality than frame rate. Therefore, by changing the frame rate in accordance with the reduction in resolution and reducing the frame rate in accordance with the increase in resolution, it is possible to suppress abrupt fluctuations in coding efficiency and image quality.
  • the image quality determination step may hold in advance at least one of a first frame rate smaller than a frame rate determined immediately before and a larger second frame rate. And, when the quantization step average value calculated in the average value calculation step is larger than a predetermined first threshold and the first resolution held is lower than the lower limit value, the frame rate The frame rate of the input image is changed to the first frame rate in the changing step, and the quantization step average value calculated in the average value calculating step is smaller than a predetermined second threshold and held.
  • the frame rate changing step may change the frame rate of the input image to the second frame rate when the second resolution exceeds the upper limit value.
  • the resolution can be changed within the range of the upper limit value and the lower limit value, and the resolution is further changed If this is not possible, the frame rate can be changed and adjusted.
  • the parameter for determining “the degree of difficulty in encoding the input image” in the image conversion step is not limited to the quantization step, but may be any numerical value necessary for deriving the quantization step. Other numbers may be used.
  • quantization parameters may be used.
  • the quantization step is a set of a plurality of numerical values which are different for each frequency component. Then, the quantization step calculation step holds a plurality of sets (for example, 32 sets) by changing the magnification. Therefore, a numerical value corresponding to this magnification may be used as a parameter for determining the "degree of difficulty of encoding of the input image".
  • a moving picture coding apparatus codes an input image to generate a coded bit stream, and transmits the coded bit stream to a transmission path. Specifically, according to the degree of difficulty in encoding the input image, at least one of the resolution and the frame rate of the input image is changed to output an encoding target image, and the image conversion A video encoding unit for encoding the encoding target image output from the unit to generate the encoded bit stream, and transmitting the encoded bit stream onto the transmission path; A bit rate determination unit that determines a coding bit rate that is a bit rate of a coded bit stream, and an upper limit value of the resolution of the image to be coded according to the coding bit rate determined by the bit rate determination unit And a resolution range selection unit configured to control the image conversion unit such that the resolution of the image to be encoded does not exceed the upper limit value.
  • a program causes a computer to encode an input image to generate a coded bit stream, and send the coded bit stream to a transmission path.
  • an image conversion step of changing at least one of the resolution and the frame rate of the input image and outputting the image to be encoded according to the degree of difficulty of encoding the input image, and the image conversion A moving image encoding step of encoding the image to be encoded output in a step to generate the encoded bit stream and transmitting the encoded bit stream onto the transmission path; and transmitting the encoded bit stream onto the transmission path
  • An integrated circuit encodes an input image to generate a coded bit stream, and transmits the coded bit stream to a transmission path. Specifically, according to the degree of difficulty in encoding the input image, at least one of the resolution and the frame rate of the input image is changed to output an encoding target image, and the image conversion A video encoding unit for encoding the encoding target image output from the unit to generate the encoded bit stream, and transmitting the encoded bit stream onto the transmission path; A bit rate determination unit that determines a coding bit rate that is a bit rate of a coded bit stream, and an upper limit value of the resolution of the image to be coded according to the coding bit rate determined by the bit rate determination unit And a resolution range selection unit configured to control the image conversion unit such that the resolution of the image to be encoded does not exceed the upper limit value.
  • the present invention can be realized not only as a moving picture coding method or a moving picture coding apparatus, but also as an integrated circuit for realizing these functions or as a program for causing a computer to execute such functions. You can also Needless to say, such a program can be distributed via a recording medium such as a CD-ROM and a transmission medium such as the Internet.
  • the moving picture coding method and the moving picture coding apparatus of the present invention an image which can be easily compressed even if the degree of difficulty in compression of the input moving picture or the target coding bit rate changes significantly
  • encoding at a low bit rate encoding at a large resolution can be prevented.
  • FIG. 1A is a block diagram of a video encoding apparatus according to a first embodiment.
  • FIG. 1B is a block diagram showing a minimum configuration of the moving picture coding apparatus according to Embodiment 1.
  • FIG. 1C is a flowchart showing the operation of the moving picture coding apparatus of FIG. 1B.
  • FIG. 2 is a detailed block diagram of the resolution changing circuit of FIG.
  • FIG. 3 is a diagram showing the relationship between an image (a) before resolution change processing and images (b) to (d) after resolution change processing.
  • FIG. 4 is a detailed block diagram of the frame rate changing circuit of FIG.
  • FIG. 5 is a time chart of the frame rate change process.
  • FIG. 6 is a detailed block diagram of the moving picture coding circuit of FIG. FIG.
  • FIG. 7 is a flowchart showing the operation of the quantization step control circuit of FIG.
  • FIG. 8 is a flowchart showing the operation of the quantization step averaging circuit of FIG.
  • FIG. 9 is a diagram showing the relationship between the bit rate held by the resolution range selection circuit of FIG. 1 and the resolution range.
  • FIG. 10 is a flow chart showing the operation of the resolution and frame rate selection circuit of FIG.
  • FIG. 11 is a diagram showing an example of state transition performed by the resolution / frame rate selection circuit.
  • FIG. 12 is a diagram illustrating a specific example of state transition.
  • FIG. 13 is a diagram showing the resolution, the frame rate, the transition condition, and the transition destination state ID in each state of FIG.
  • FIG. 14 is a diagram illustrating another specific example of state transition.
  • FIG. 15A is a diagram showing an example of a physical format of a magnetic disk which is a recording medium main body.
  • FIG. 15B is a front view, a cross-sectional view, and a view showing the magnetic disk of a case for holding the magnetic disk.
  • FIG. 15C is a diagram showing a configuration for recording and reproducing the program on a flexible disk.
  • FIG. 16 is a schematic view showing an example of the entire configuration of a content supply system for realizing content distribution service.
  • FIG. 17 is a view showing the appearance of a mobile phone.
  • FIG. 18 is a block diagram showing a configuration example of a mobile phone.
  • FIG. 19 is a schematic view showing an example of the entire configuration of the digital broadcasting system.
  • FIG. 20 is a block diagram showing a configuration example of a television.
  • FIG. 21 is a block diagram showing an example of the configuration of an information reproduction and recording unit that reads and writes information on a recording medium, which is an optical disk.
  • FIG. 22 is a view showing an example of the structure of a recording medium which is an optical disc.
  • FIG. 23 is a block diagram showing a configuration example of an integrated circuit for realizing the image coding method and the image decoding method according to each embodiment.
  • FIG. 24 is a diagram showing the relationship between a conventional encoding target image and a display image.
  • FIG. 25 is a block diagram of a conventional moving picture coding apparatus.
  • FIG. 1A is a block diagram showing the configuration of a moving picture coding apparatus 10 according to Embodiment 1 of the present invention.
  • the moving picture coding apparatus 10 includes a resolution changing circuit (resolution changing unit) 101, a frame rate changing circuit (frame rate changing unit) 102, a moving picture coding circuit (moving picture coding unit) 103, and a bit rate determination.
  • a resolution / frame rate selection circuit image quality determination unit
  • the resolution changing circuit 101 changes the resolution of the moving image signal S10 acquired from the moving image input terminal 100 to the resolution notified by the resolution selection signal S18.
  • the frame rate change circuit 102 changes the frame rate of the moving image signal S11 whose resolution has been changed to the frame rate notified from the frame rate selection signal S19.
  • an input image (corresponding to "moving image signal S10") is encoded with an image to be encoded ("moving image signal S12") by the resolution changing circuit 101 and the frame rate changing circuit 102 described above and the resolution / frame rate selecting circuit 109 described later.
  • Image conversion unit 110 that converts The image conversion unit 110 changes at least one of the resolution and the frame rate of the input image according to the degree of difficulty in encoding the input image, and outputs the image to be encoded.
  • the moving picture coding circuit 103 acquires the quantization step (or quantization parameter) notified by the quantization step signal S16 and the resolution change occurrence signal S20 indicating the presence or absence of resolution change, and the moving picture whose frame rate is changed.
  • the signal S12 is encoded to generate a bit stream S13. It is assumed that the information on the resolution of the image and the information on the frame rate necessary for encoding by the video encoding circuit 103 are included in the video signal S11 or the video signal S12. Then, the moving picture coding circuit 103 sends the generated bit stream S13 onto the transmission path via the bit stream output terminal 104.
  • the quantization step control circuit 106 obtains the coding bit rate signal S14, the frame rate selection signal S19, and the bit stream S13 to determine the quantization step.
  • the quantization step control circuit 106 may receive the number of bits of the bit stream S13 instead of the bit stream S13.
  • the quantization step averaging circuit 107 obtains the quantization step signal S16 and the resolution change occurrence signal S20, and obtains a quantization step average value which is an average value of quantization steps at the same resolution within a predetermined time.
  • a quantization step average value is not specifically limited, For example, it can calculate by index weighted moving average calculation.
  • the bit rate determination circuit 105 determines the encoding bit rate of the bit stream S13 output from the moving picture encoding circuit 103. Although a specific determination method of the coding bit rate is not particularly limited, it may be determined based on, for example, a transmittable bit rate in a transmission path. Alternatively, an input of a coding bit rate specified by the user may be accepted.
  • the resolution range selection circuit 108 obtains the coding bit rate signal S14, and determines a resolution selection range including the upper limit value and the lower limit value of the resolution of the image to be coded from the coding bit rate.
  • the resolution and frame rate selection circuit 109 obtains the quantization step average value signal S17 and the resolution selection range signal S15, and determines the resolution and frame rate of the image to be encoded. Then, the resolution / frame rate selection circuit 109 outputs a resolution selection signal S18, a frame rate selection signal S19, and a resolution change generation signal S20.
  • the moving picture coding apparatus 10 includes an image conversion unit 20, a moving picture coding unit 30, a bit rate determination unit 40, and a resolution range selection unit 50.
  • the moving picture coding apparatus 10 codes an input image to generate a coded bit stream, and transmits the coded bit stream to a transmission path.
  • the image conversion unit 20 has the image conversion unit 110 of FIG. 1A
  • the moving image encoding unit 30 has the moving image encoding circuit 103, the quantization step control circuit 106, and the quantization step averaging circuit 107 of FIG.
  • the rate determination unit 40 corresponds to the bit rate determination circuit 105 in FIG. 1A
  • the resolution range selection unit 50 corresponds to the resolution range selection circuit 108 in FIG. 1A.
  • the image conversion unit 110 acquires the input image, changes at least one of the resolution and the frame rate of the acquired input image to generate the encoding target image, and generates the encoding target image to the moving image encoding circuit 103.
  • Output (Step 11).
  • the resolution and frame rate of the image to be encoded are determined based on the degree of difficulty in encoding the input image acquired from the quantization step averaging circuit 107 and the upper limit value of the resolution acquired from the resolution range selection circuit 108. It is determined.
  • the moving picture coding circuit 103 acquires an encoding target image from the image conversion unit 110, encodes the acquired encoding target image to generate a coded bit stream, and transmits the generated coded bit stream to a transmission path. Do it (Step 12).
  • the moving picture coding circuit 103, the quantization step control circuit 106, and the quantization step averaging circuit 107 calculate the next input image based on the result of the coding process of the coding target image coded up to the present time. The degree of difficulty in encoding is estimated and notified to the image conversion unit 110.
  • the bit rate determination circuit 105 determines a coding bit rate which is a bit rate of the coded bit stream sent on the transmission path, and notifies the resolution range selection circuit 108 of the determined coding bit rate (Step 13).
  • the resolution range selection circuit 108 determines the upper limit value of the resolution of the image to be encoded according to the encoding bit rate determined in the bit rate determination step, and notifies the image conversion unit 110 of the determined upper limit value of resolution.
  • the processing in the image conversion unit 110 is controlled so that the resolution of the encoding target image does not exceed the upper limit value (Step 14).
  • FIG. 2 is a block diagram of the resolution changing circuit 101 of FIG. Further, (a) to (b) of FIG. 3 are diagrams showing a write address and a read address corresponding to the pixel position of the frame memory.
  • the resolution changing circuit 101 includes a horizontal LPF circuit 301, a vertical LPF circuit 302, a frame memory 303, and a write / read control circuit 305.
  • the resolution change circuit 101 acquires the moving image signal S10 from the moving image input terminal 300 and the resolution selection signal S18 from the resolution selection signal input terminal 304, and changes the resolution of the moving image signal S10 to the moving image output terminal 306. Output.
  • the horizontal direction LPF circuit 301 applies low-pass filter processing in the horizontal direction to the moving image signal S10 to output a moving image signal S31.
  • the vertical LPF circuit 302 applies a low pass filter process in the vertical direction to the moving image signal S31 to output a moving image signal S32.
  • the frame memory 303 stores one frame of the moving image signal S32.
  • the write and read control circuit 305 controls writing and reading of the frame memory 303.
  • the horizontal direction LPF circuit 301 and the vertical direction LPF circuit 302 perform averaging processing of the input image, and switch the low-pass characteristics according to the resolution selection signal S18 input from the resolution selection signal input terminal 304.
  • the passband of the low pass filter is narrow so that only low frequency components are passed, and the resolution reduction ratio is small (medium When changing to an image with a certain degree of resolution), the passband of the low pass filter is broadened to pass low and middle frequency components.
  • the low-pass filter process is a process for suppressing aliasing noise generated in downsampling due to the reduction process.
  • the moving image signal S10 input from the moving image input terminal 300 is subjected to low-pass filter processing in the horizontal direction and the vertical direction of the appropriate pass band in accordance with the resolution selection signal S18.
  • the moving image signal S32 subjected to the low pass filter processing is sequentially written to the write address position of the frame memory 303 by the write and read control circuit 305.
  • (A) of FIG. 3 is an example of the moving image signal S10.
  • the pixels are arranged at addresses in a two-dimensional space from left to right on the memory, and the address of one row lower in the horizontal direction is increased by H.
  • the write / read control circuit 305 controls the write address and the read address of the image after reduction in accordance with the reduction ratio of the resolution selection signal S 18 acquired from the resolution selection signal input terminal 304.
  • FIG. 3 outputs the read address of the corresponding pixel of the moving image signal S10 in the case of output at a reduction ratio of 3/4, and (d) in FIG. It is a figure which shows the read-out address of the applicable pixel of animation signal S10, respectively.
  • the write and read control circuit 305 sequentially reads out the extracted address from the frame memory 303, and outputs it as a moving image signal S11 to the moving image output terminal 306.
  • FIG. 4 is a block diagram of the frame rate change circuit 102 of FIG.
  • FIG. 5 is a time chart showing the operation of the frame rate change circuit 102.
  • the frame rate change circuit 102 has a moving image input terminal 200 to which a moving image signal S11 whose resolution is changed is input, and a frame rate selection signal input terminal 201 to which a frame rate selection signal S19 is input. It includes a frame memory 202 for storing the acquired moving image signal S11, a write / read control circuit 203 for controlling writing and reading of the frame memory 202, and a moving image output terminal 204 for outputting a moving image signal S12 having a changed frame rate.
  • the moving image signal S11 input from the moving image input terminal 200 is written to the frame memory 202.
  • the write / read control circuit 203 performs write control of the frame memory 202 as shown in the write frame number of the time chart (uppermost stage) shown in FIG. 5, and sequentially writes the moving image signal S11 in the frame memory.
  • the write / read control circuit 203 causes the read frame numbers of the time chart (second to fifth stages) shown in FIG. Similarly, the frame is thinned out from the frame memory 202 and intermittently read, and is output as a moving image signal S12. This makes it possible to change the frame rate.
  • FIG. 6 is a block diagram showing the configuration of the moving picture coding circuit 103.
  • the moving picture coding circuit 103 deciphers the input image memory 401, the difference operation circuit 402, the orthogonal transformation circuit 403, the quantization circuit 404, the variable length coding circuit 405, and The circuit 408, the inverse orthogonal transformation circuit 409, the addition operation circuit 410, the reference image memory 411, the motion vector detection circuit 412, the motion compensation circuit 413, the in-plane prediction circuit 414, and the coding mode selection control circuit 415 And a predictive image selector circuit 416.
  • the video encoding circuit 103 acquires a video signal S12 from a video input terminal 400, a quantization step signal S16 from a quantization step input terminal 407, and a resolution change generation signal S20 from a resolution change generation signal input terminal 417. , And outputs the bit stream S13 to the bit stream output terminal 406.
  • the input image memory 401 changes the pixel order of the input moving image signal S12 and converts it into a moving image signal S41 in units of blocks.
  • the difference calculation circuit 402 calculates the difference between the block-divided moving image signal S41 and the predicted image signal S48, and outputs a difference signal S42.
  • the orthogonal transformation circuit 403 orthogonally transforms the difference signal S42 and outputs a coefficient signal S43.
  • the quantization circuit 404 quantizes the coefficient signal S43 with the quantization step signal S16, and outputs a quantization value S44.
  • the variable-length coding circuit 405 performs variable-length coding on the quantization value S44.
  • the inverse quantization circuit 408 inversely quantizes the quantization value S44 with the quantization step signal S16, and outputs an inverse quantized coefficient signal S46.
  • the inverse orthogonal transformation circuit 409 performs inverse orthogonal transformation on the dequantized coefficient signal S46, and outputs the inverse orthogonal transformed moving image signal S47.
  • the addition operation circuit 410 adds the inverse orthogonal transform-completed moving image signal S47 and the predicted image signal S48 to generate reference image data S49.
  • the reference image memory 411 temporarily stores reference image data S49.
  • the motion vector detection circuit 412 compares the reference image data S50 read from the reference image memory 411 with the block-divided moving image signal S41, detects a motion vector of the block-divided moving image signal S41, and outputs a motion vector signal S52. Output.
  • the motion compensation circuit 413 reads the reference image data S50 from the reference image memory 411 corresponding to the motion vector signal S52, performs motion compensation using the read reference image data S50, and outputs the generated motion predicted image data S51. .
  • the in-plane prediction circuit 414 performs in-plane prediction by comparing the image data in the vicinity of the encoding target block read from the reference image memory 411 with the block-divided moving image signal S41 to generate in-plane predicted image data S53. Do.
  • the coding mode selection control circuit 415 obtains the block-divided moving image signal S41, the motion prediction image data S51, the in-plane prediction image data S53, and the resolution change generation signal S20, and based on these, the mode selection signal Output S54.
  • the specific determination method is not particularly limited, for example, the difference absolute value sum of the moving image signal S41 divided into blocks and the motion predicted image data S51, and the difference absolute between the moving image signal S41 divided into blocks and the in-plane predicted image data S53 Compare with the value sum. Then, if the former value is small, inter-screen prediction may be selected, and if the latter value is small, intra-frame prediction may be selected. On the other hand, when it is the first frame in which the resolution change has occurred, the intra prediction is always selected.
  • the prediction image selector circuit 416 selects one of the in-plane prediction image data S53 and the motion prediction image data S51 in accordance with the mode selection signal S54, and outputs a prediction image signal S48.
  • the moving picture coding circuit 103 orthogonally transforms the difference signal S42 between the block-divided moving picture signal S41 and the predicted picture signal S48, and inputs the obtained coefficient signal S43 from the quantization step input terminal 407.
  • a quantization step signal S16 is used for quantization, the obtained quantization value S44 is subjected to variable length coding, and a bit stream signal is output.
  • the generated code amount decreases as the value of the quantization step signal S16 increases, and conversely, increases as the value of the quantization step signal S16 decreases. That is, the generated code amount is controlled using the quantization step signal S16.
  • FIG. 7 is a flowchart showing the operation of the quantization step control circuit 106.
  • the quantization step control circuit 106 first determines whether the input frame is the first frame to be encoded (Step 100). If it is not the first frame of the stream (No in Step 100), the quantization step control circuit 106 waits for the end of encoding of the frame in the quantization step determined in Step 103 to Step 106 (Step 102). Note that since the encoding of a frame is performed by the moving image encoding circuit 103, the quantization step control circuit 106 only operates to wait for the end of encoding of the frame.
  • the quantization step control circuit 106 resets the accumulated difference code amount (TBD) to 0, and performs the initial quantization step determined in advance as the current frame. Step of quantization (step 101). Then, it waits for the end of encoding of the frame (Step 102).
  • the quantization step control circuit 106 sets the target using Equation 1 based on the acquired target bit rate (TBR) and frame rate (FR) when encoding of the frame is completed.
  • An average code amount (AFB) per frame is obtained (Step 103).
  • AFB TBR / FR (equation 1)
  • the quantization step control circuit 106 counts the code amount of the bit stream S13. Then, the quantization step control circuit 106 uses the equation 2 to calculate the accumulated difference code amount (TBD) based on the resultant generated code amount (FBT) of one frame and the target code amount (AFB) of one frame. ) Is obtained (Step 104).
  • TBD + FBT-AFB (Equation 2)
  • the quantization step control circuit 106 uses Equation 3 to calculate the target code amount (TFB) of the next frame based on the average code amount (AFB) per frame and the accumulated difference code amount (TBD). Determine (Step 105).
  • the quantization step control circuit 106 calculates the quantization step (QS (n-1)) of the current frame, the generated code amount of one frame (FBT), and the target code amount (TFB) of the next frame. Based on the equation (4), the quantization step (QS (n)) of the next frame is obtained, and the value is output (Step 106).
  • the quantization step control circuit 106 determines whether or not encoding of all the frames is completed (Step 107). If a frame to be encoded remains (No in Step 107), the above process (Step 100 to Step 106) is performed on the next frame. On the other hand, when the encoding of all the frames is completed (Yes in Step 107), the process ends. That is, the above process is repeatedly performed until encoding of all frames is completed.
  • the value obtained by adding the difference between the code amount (FBT) generated when encoding of one frame is completed and the average code amount (AFB) to the accumulated difference code amount (TBD) is the current frame.
  • FIG. 8 is a flowchart showing the operation of the quantization step averaging circuit 107. Note that FIG. 8 shows an example in which the quantization step average value is calculated using the exponential weighted moving average calculation.
  • the quantization step averaging circuit 107 first determines whether the input frame is the first frame to be encoded (Step 200). When it is not the first frame of the stream (No in Step 200), the quantization step averaging circuit 107 waits for the end of encoding of the frame (Step 202). Note that since the encoding of a frame is performed by the moving image encoding circuit 103, the quantization step averaging circuit 107 only operates to wait for the end of encoding of the frame.
  • the quantization step averaging circuit 107 initializes the quantization step average value (Step 201), and waits for the encoding of the frame to end (Step 202). ).
  • the quantization step averaging circuit 107 determines whether a predetermined number of frames has elapsed from the first frame to be encoded (Step 203) and whether a predetermined number of frames has elapsed since a change in resolution has occurred. (Step 204). If both of the two conditions hold (Yes in both Step 203 and Step 204), the quantization step averaging circuit 107 calculates the quantization step value (QS (n)) of the current frame and the quantization step average of the previous frame. Based on the value (QSema (n-1)) and the weighting factor W, the quantization step average value (QSema (n)) of the current frame is obtained using Equation 5 (Step 205).
  • Equation 5 The weighting factor W in Equation 5 is a constant calculated using Equation 6.
  • the weight coefficient W controls the degree of fluctuation of the quantization step average value, and the larger the weight coefficient W, the less the fluctuation, and the smaller the fluctuation, the more easily the fluctuation.
  • the weighting factor W may be a fixed value designated at the time of design or the like, or may be a variable value which can be changed according to the situation.
  • the quantization step averaging circuit 107 determines whether or not encoding of all the frames is completed (Step 206). If a frame to be encoded remains (No in Step 206), the above process (Step 200 to Step 205) is performed on the next frame. On the other hand, when the encoding of all the frames is completed (Yes in Step 206), the process ends. That is, the above process (Step 200 to Step 205) is repeatedly performed until encoding of all the frames is completed.
  • FIG. 9 is a reference table for explaining the operation of the resolution range selection circuit 108.
  • the resolution range selection circuit 108 associates and holds the bit rate and the lower limit value and the upper limit value of the resolution of the image to be encoded.
  • threshold Rth 0 or more referred to as “high bit rate”
  • threshold Rth 1 or more and less than threshold Rth 0 referred to as “medium bit rate”
  • less than threshold Rth 1 The lower limit value and the upper limit value of the resolution of the image to be encoded are set for each of the cases of “described as“ low bit rate ”).
  • the resolution range selection circuit 108 compares the value of the encoded bit rate signal S14 acquired from the bit rate determination circuit 105 with the threshold Rth0 and the threshold Rth1. Then, according to the result, the resolution range selection circuit 108 outputs a resolution selection range signal S15 composed of the upper limit value and the lower limit value of the resolution of the image to be encoded.
  • FIG. 10 is a flowchart showing the operation of the resolution / frame rate selection circuit 109.
  • the resolution and frame rate selection circuit 109 determines the resolution and frame rate of the image to be encoded according to the flow of FIG. 10 based on the acquired quantization step average value signal S17 and the resolution selection range signal S15. is there.
  • the resolution and frame rate selection circuit 109 first determines whether the input encoding target frame is the first frame (Step 300). If the frame to be encoded is not the first frame (No in Step 300), the resolution / frame rate selection circuit 109 waits for the frame to be encoded with the currently set resolution and frame rate (Step 302) . Note that since encoding of a frame is performed by the moving image encoding circuit 103, the resolution / frame rate selection circuit 109 only operates to wait for the end of encoding of the frame.
  • the resolution / frame rate selection circuit 109 sets an initial state ID determined in advance as the state ID. Further, the resolution indicated by the initial state ID is output as a resolution selection signal S18, and the frame rate indicated by the initial state ID is output as a frame rate selection signal S19 (Step 301). Then, the resolution / frame rate selection circuit 109 waits for the end of the encoding of the frame with the resolution and the frame rate (Step 302).
  • the resolution / frame rate selection circuit 109 determines whether a predetermined number of frames has elapsed from the beginning of the stream (Step 303), or after a change in resolution occurs. Number of frames and / or whether a predetermined time has elapsed (Step 304). When one of these two conditions does not hold (No in Step 303 or Step 304), the resolution / frame rate selection circuit 109 changes the current state ID and the resolution and frame rate indicated by the ID. Hold without. On the other hand, when both of the two conditions are satisfied (Yes in both Step 303 and Step 304), the resolution and frame rate to be used in the encoding of the next frame are determined.
  • the resolution and frame rate selection circuit 109 determines the resolution and frame rate of the image to be encoded according to the degree of difficulty in encoding the input image.
  • the “degree of difficulty in encoding” in the first embodiment is determined based on the quantization step average value signal S17. That is, it is determined that the larger the quantization step average value signal S17, the more difficult the encoding is, and the smaller the smaller the quantization step average value signal S17, the easier the encoding.
  • the resolution of the image to be encoded is selected within the range of the upper limit value and the lower limit value of the resolution indicated by the resolution selection range signal S15. Specifically, it is determined according to the state transition diagram as shown in FIG.
  • FIG. 11 shows a generalized combination of resolution and frame rate.
  • a state ID (S 11 to S 44 ) is assigned to each combination of resolution and frame rate.
  • Each state ID holds transition conditions for transitioning from the current state ID to another state ID.
  • the current state ID and another state ID are in contact with each other in the vertical direction (resolution change), not only in the horizontal direction (frame rate change) but also in an oblique direction (resolution and frame rate) Changes) may also be included.
  • they do not necessarily have to be adjacent to each other. However, in many cases, only a limited combination of these combinations is used, and the transition condition to a state that does not actually transition is always “False”.
  • FIG. 12 is a diagram illustrating an example of state transition.
  • any state ID is always set.
  • the threshold value of the quantization step average value signal S17 is held as a transition condition for transitioning from the current state ID to another state ID.
  • FIG. 13 is a table showing resolutions, frame rates, transition conditions 1 and 2, and state transition destinations 1 and 2 in each state ID.
  • transition condition 1 indicates the upper limit (QpUth) of quantization step average value signal S17
  • transition condition 2 indicates the lower limit (QpLth) of quantization step average value signal S17.
  • Transition condition 1 is a condition for reducing one of the resolution and the frame rate
  • transition condition 2 is a condition for increasing one of the resolution and the frame rate.
  • transition is made only from the current state ID to another state ID adjacent in the vertical direction (resolution) and the horizontal direction (frame rate).
  • FIG. 14 is a diagram illustrating another example of state transition.
  • state transition is performed also when transition conditions 3 and 4 are satisfied.
  • Transition condition 3 indicates a second upper limit (QpUth2) larger than the upper limit (QpUth) of transition condition 1, and transition condition 4 a second lower limit (QpLth2) smaller than the lower limit (QpLth) of transition condition 2 Point to.
  • QpUth2 a second upper limit
  • QpLth2 second lower limit
  • FIG. 12 and FIG. 14 there are cases where the transition conditions are different even if the state transition is the same.
  • the resolution / frame rate selection circuit 109 reads transition condition 1, transition condition 2, state transition destination 1, and state transition destination 2 corresponding to the current state ID (Step 305). Assuming that the current state ID is S11, the first line of FIG. 13 is read.
  • the resolution / frame rate selection circuit 109 compares the quantization step average value signal S17 with the transition condition 1 (Step 306). Further, it is determined whether the resolution of the state transition destination 1 is included in the resolution selection range (Step 307).
  • the resolution / frame rate selection circuit 109 The table is searched to output the resolution value indicated by the state ID of the state transition destination 1 as the resolution selection signal S18, and the frame rate value as the frame rate selection signal S19 (Step 308). Further, the state ID is changed to the state ID of the state transition destination 1 (Step 309). Furthermore, when there is a change in resolution due to a change in status ID (Yes in Step 320), the resolution change occurrence signal S20 is set valid (Step 322), and when there is no change in resolution (No in Step 320) The signal S20 is set to be invalid (Step 321).
  • the resolution selection range signal S15 in the following description is assumed to indicate the resolution selection range in the case of a high bit rate.
  • the state transition destination 1 when the transition condition 1 is satisfied is S 21.
  • the resolution of S 21 is 1280 ⁇ 720, included within the resolution selection in the case of high bit-rate (Fig. 9). In other words, it is possible to state transition from S 11 to S 21.
  • the state transition destination 1 when the transition condition 1 is satisfied it is S 22.
  • This resolution in S 21 is, coincides with the lower limit of resolution in the high bit rate, because there is no room to decrease the resolution. Therefore, the state is transitioned from S 21 to S 22 without changing the resolution.
  • the state transition destination when transition condition 1 is satisfied is determined in advance, but the present invention is not limited to this, and other methods can be used. For example, even if the state transition in the direction to decrease the resolution (the downward direction in FIG. 12) does not fall below the lower limit value of the resolution selection range, the state transition in the direction is made. On the other hand, when the value is lower than the lower limit value, the state transition may be made in the direction of decreasing the frame rate (right direction in FIG. 12).
  • the resolution selection range signal S15 in the following description is assumed to indicate the resolution selection range in the case of a high bit rate.
  • the state transition destination 1 when the transition condition 1 is satisfied it is S 21. That is, the example of FIG. 14 differs from the example of FIG. 12 in that the frame rate is increased as the resolution is reduced. This is because compression is facilitated by reducing the resolution, so that even if the frame rate is slightly increased, the image quality does not deteriorate compared to the state immediately before the high resolution.
  • transition condition 1 in order to further reduce the frame rate (ie, the transition from S 22 to S 23 ), transition condition 1 must be satisfied with respect to quantization step average value rather than transition condition 1, as shown in FIG. Different from the example. This is because better to reduce the resolution is not noticeable image quality degradation than to reduce the frame rate, in order to facilitate a transition to S 31 is smaller resolution.
  • the condition of the quantization step average value earlier than the transition condition 3 corresponds to the transition condition 1 and the transition to the small resolution S 31 is made.
  • the process proceeds to S 23 frame rate is less by a transition condition 3.
  • the resolution / frame rate selection circuit 109 compares the quantization step average value signal S17 with the transition condition 2 (Step 310). Further, it is determined whether the resolution of the state transition destination 2 is included in the resolution selection range (Step 311).
  • the resolution / frame rate selection circuit 109 performs state transition The table is searched and the resolution value indicated by the state ID of the state transition destination 2 is output as the resolution selection signal S18, and the frame rate value is output as the frame rate selection signal S19 (Step 312). Further, the state ID is changed to the state ID of the state transition destination 2 (Step 313). Furthermore, when there is a change in resolution due to a change in status ID (Yes in Step 320), the resolution change occurrence signal S20 is set valid (Step 322). When there is no change in resolution (No in Step 320), the resolution change occurrence signal Is set to be invalid (Step 321).
  • the resolution selection range signal S15 in the following description is assumed to indicate the resolution selection range in the case of the medium bit rate.
  • the state transition destination 2 when the transition condition 2 is satisfied is S 22.
  • the resolution of S 22 is 1280 ⁇ 720, included within the resolution selection range for medium bit rate (Fig. 9). In other words, it is possible to state transition from S 32 to S 22.
  • the present invention is not limited to this, and other methods can be used. For example, even if the state transition in the direction to increase the resolution (upper direction in FIG. 12) does not exceed the upper limit value of the resolution selection range, the state transition in the direction is made. On the other hand, when it exceeds the upper limit value, the state transition may be made in the direction of increasing the frame rate (left direction in FIG. 12).
  • the resolution selection range signal S15 in the following description is assumed to indicate the resolution selection range in the case of the medium bit rate.
  • the example of FIG. 14 differs from the example of FIG. 12 in that the frame rate is reduced in accordance with the increase in resolution. This is because compression becomes rapidly difficult by increasing the resolution, and by reducing the frame rate to make compression a little easier, it is possible to alleviate the possibility of the image quality deteriorating sharply.
  • the state transition destination 1 when the transition condition 2 is satisfied it is S 21, common to the example of FIG. 12.
  • the transition condition 4 of the quantization step average value must be satisfied more than the transition condition 2. Since the image quality improving effect than if it increases the resolution to increase the frame rate is significant, in order to easily transition to S 33 is greater resolution.
  • the resolution / frame rate selection circuit 109 outputs the value of the resolution indicated by the current state ID as the resolution selection signal S18.
  • the value of the rate is output as a frame rate selection signal S19. Further, since there is no change in resolution, the resolution change occurrence signal S20 is set to be invalid.
  • the resolution and frame rate selection circuit 109 determines whether or not encoding of all the frames is completed (Step 323). If a frame to be encoded remains (No in Step 323), the above process (Step 300 to Step 322) is performed on the next frame. On the other hand, when the encoding of all the frames is completed (Yes in Step 323), the process ends. That is, the above-described processing from Step 300 to Step 322 is repeatedly performed until encoding of all frames is completed.
  • the moving picture coding apparatus 10 configured as described above has an initial state preset in the resolution / frame rate selection circuit 109 when the first frame of the moving picture signal S10 input to the moving picture input terminal 100 is coded.
  • the resolution indicated by the ID is output as a resolution selection signal S18
  • the frame rate indicated by the initial state ID is output as a frame rate selection signal S19.
  • the resolution change circuit 101 changes the acquired moving image signal S10 to the resolution specified by the resolution selection signal S18, and outputs a moving image signal S11.
  • the frame rate changing circuit 102 changes the moving image signal S11 to the frame rate specified by the frame rate selection signal S19, and outputs the moving image signal S12. Further, when the frame to be encoded is the first frame, the quantization step control circuit 106 outputs the initial quantization step value as the quantization step signal S16.
  • the moving image signal S12 is encoded by the moving image encoding circuit 103 and output to the bit stream output terminal 104 as a bit stream S13. At this time, the moving picture coding circuit 103 selects the intra prediction mode if the frame to be coded is the first frame.
  • the quantization step control circuit 106 determines the quantization step value of the next frame from the target bit rate information contained in the coding bit rate signal S14 and the frame rate information contained in the frame rate selection signal S19.
  • the target bit rate information included in the coding bit rate signal S14 is the bit rate set by the user or the device manager at the start of communication, or the moving picture coding apparatus 10 actually transmits the coded bit stream It may be a value obtained from the maximum bit rate that can be transmitted by the network, which is sent out on the road and calculated from the packet loss rate notified from the image decoding apparatus.
  • the quantization step value of the next frame is input to the quantization step averaging circuit 107.
  • the calculation of the quantization step average value and the quantization step average value output Do not update the This is because the first frame of the stream is encoded by in-plane prediction, and the amount of generated code is larger than in the case of using intra-frame prediction and inter-frame prediction adaptively used other than at the beginning of the stream . Therefore, it is necessary to process a predetermined number of frames before the quantization step value output from the quantization step control circuit 106 is stabilized.
  • the resolution / frame rate selection circuit 109 outputs the resolution indicated by the initial state ID as the resolution selection signal S18 until the predetermined number of frames elapses from the beginning of the stream, and the initial state ID indicates The frame rate is output as a frame rate selection signal S19. Therefore, only the code amount adjustment by the quantization step is continued until the predetermined number of frames elapses from the beginning.
  • resolution / frame rate selection circuit 109 compares transition condition 1 or transition condition 2 with the quantization step average value included in quantization step average value signal S17. This enables state transition.
  • the quantization step average value when the quantization step average value is larger than transition condition 1 and the resolution of the transition destination is within the resolution selection range, a state transition occurs in the direction in which the frame rate decreases or the resolution decreases.
  • the quantization step average value is smaller than transition condition 2 and the resolution of the transition destination is within the resolution selection range, the frame rate increases or state transition in the direction of increasing resolution occurs.
  • the resolution selection range is the resolution range selection circuit 108 determining the upper limit value and the lower limit value of the resolution according to the encoding bit rate value. In the case of a high bit rate, a high resolution range is specified, and in the case of a low bit rate, a low resolution range is specified.
  • the resolution does not temporarily decrease to the low resolution even at the high bit rate.
  • the resolution does not temporarily increase to a high resolution although the bit rate is low. As a result, stable resolution change operation is possible.
  • the resolution change generation signal S20 becomes valid.
  • the moving picture coding circuit 103 selects the intra prediction mode for the first frame whose resolution has been converted. This is a measure resulting from the difficulty in referring to the previous frame based on the change in resolution.
  • the quantization step averaging circuit 107 calculates the quantization step average value and outputs the quantization step average value until the predetermined number of frames and / or the predetermined time elapses after the resolution change occurs. Do not update and. Further, the resolution / frame rate selection circuit 109 prohibits state transition until a predetermined number of frames and / or a predetermined time elapses after the change of resolution occurs, and immediately after the change of resolution occurs. Hold the state ID. That is, the resolution immediately after the resolution conversion occurs and the frame rate are maintained, and only the code amount control by the quantization step is continued.
  • the moving picture coding apparatus 10 includes a resolution changing circuit 101 that dynamically changes the resolution of an input moving picture, and a frame that adaptively thins out the number of frames of the moving picture output from the resolution changing circuit 101. It includes a rate change circuit 102 and a moving picture coding circuit 103 that codes a moving picture output from the frame rate change circuit 102 to generate a bit stream of a required coding bit rate.
  • the dynamic resolution changing process selects the maximum resolution and the minimum resolution from the plurality of resolutions according to the encoding bit rate, and the resolution changing circuit 101 from the plurality of resolutions from the maximum resolution to the minimum resolution. Select the output resolution of. That is, when the degree of difficulty of compression of the input moving image or the target encoding bit rate changes significantly, within the range of the maximum resolution and the minimum resolution of the resolution according to the encoding bit rate, The correct resolution is selected.
  • the present invention is not only realized as the moving picture coding apparatus 10 and the moving picture coding method as in the first embodiment, but is a program for causing a computer to execute the moving picture coding method according to the first embodiment. It may be realized as
  • FIGS. 15A to 15C are explanatory diagrams in the case of being implemented by a computer system using the flexible disk FD storing the moving picture coding method according to the first embodiment.
  • FIG. 15A shows an example of the physical format of the magnetic disk MD, which is a recording medium main body.
  • FIG. 15B shows a front view, a cross-sectional view, and a magnetic disk MD of a case F holding the magnetic disk MD.
  • FIG. 15C shows a configuration for recording and reproducing the program on the flexible disk FD.
  • the flexible disk FD is composed of a magnetic disk MD as a recording medium main body and a case F for holding the magnetic disk MD.
  • a plurality of tracks Tr are formed concentrically from the outer periphery toward the inner periphery, and each track Tr is divided into 16 sectors Se in the angular direction. Therefore, in the flexible disk FD storing the above-described program, the moving picture coding method as the above-described program is recorded in the area allocated on the magnetic disk MD.
  • the moving image coding method as the program is written from the computer system Cs via the flexible disk drive FDD.
  • the program is read from the flexible disk FD by the flexible disk drive FDD and transferred to the computer system Cs.
  • the recording medium is not limited to this, and any recording medium such as an IC card, a ROM cassette, and the like can be used as long as the program can be recorded.
  • some or all of the components constituting the video encoding device 10 may be configured from one system LSI (Large Scale Integration).
  • the system LSI is a super multifunctional LSI manufactured by integrating a plurality of components on one chip.
  • only the means for storing data to be encoded may be separately configured without being integrated into one chip.
  • the storage medium may be a magnetic disk, an optical disk, a magneto-optical disk, an IC card, a semiconductor memory, or the like as long as the program can be recorded.
  • FIG. 16 is a diagram showing an overall configuration of a content supply system ex100 for realizing content distribution service.
  • the area for providing communication service is divided into desired sizes, and base stations ex106 to ex110, which are fixed wireless stations, are installed in each cell.
  • This content supply system ex100 includes a computer ex111, a personal digital assistant (PDA) ex112, a camera ex113, a mobile phone ex114, and a game machine via the Internet ex101, the Internet service provider ex102 and the telephone network ex104, and the base stations ex106 to ex110. Each device such as ex115 is connected.
  • PDA personal digital assistant
  • each device may be directly connected to the telephone network ex104 without passing through the base stations ex106 to ex110, which are fixed wireless stations.
  • the devices may be directly connected to each other via near field communication or the like.
  • the camera ex113 is a device capable of shooting moving images such as a digital video camera
  • the camera ex116 is a device capable of shooting still images and moving images such as a digital camera.
  • the mobile phone ex114 is a GSM (Global System for Mobile Communications) system, a CDMA (Code Division Multiple Access) system, a W-CDMA (Wideband-Code Division Multiple Access) system, or an LTE (Long Term Evolution) system, HSPA ( It may be a High Speed Packet Access mobile phone, a PHS (Personal Handyphone System), or the like.
  • live distribution and the like become possible by connecting the camera ex113 and the like to the streaming server ex103 through the base station ex109 and the telephone network ex104.
  • live distribution encoding processing is performed on content (for example, video of music live, etc.) captured by the user using the camera ex113 as described in the above embodiment, and the encoded content is transmitted to the streaming server ex103.
  • the streaming server ex 103 streams the content data transmitted to the requested client.
  • the clients include the computer ex111, the PDA ex112, the camera ex113, the mobile phone ex114, the game machine ex115 and the like capable of decoding the above-mentioned encoded data.
  • Each device that has received the distributed data decrypts and reproduces the received data.
  • encoding processing of captured data may be performed by the camera ex 113, may be performed by the streaming server ex 103 that performs data transmission processing, or may be performed sharing each other.
  • the decryption processing of similarly distributed data may be performed by the client, may be performed by the streaming server ex 103, or may be performed sharing each other.
  • not only the camera ex113 but also still images and / or moving image data captured by the camera ex116 may be transmitted to the streaming server ex103 via the computer ex111.
  • the encoding process in this case may be performed by any of the camera ex 116, the computer ex 111, and the streaming server ex 103, or may be performed sharing each other.
  • the encoding process and the decoding process are generally performed by a computer ex 111 and a large scale integration (LSI) ex 500 included in each device.
  • the LSI ex 500 may be a single chip or a plurality of chips.
  • Software for image coding and image decoding is incorporated in any recording medium (CD-ROM, flexible disk, hard disk, etc.) readable by computer ex111 etc., and the coding process and decoding process are performed using the software. May be Furthermore, when the cellular phone ex114 is equipped with a camera, moving image data acquired by the camera may be transmitted. The moving image data at this time is data encoded by the LSI ex 500 included in the mobile phone ex 114.
  • the streaming server ex103 may be a plurality of servers or a plurality of computers, and may process, record, or distribute data in a distributed manner.
  • the client can receive and reproduce the encoded data.
  • the client can receive, decode, and reproduce the information transmitted by the user in real time, and even a user who does not have special rights or facilities can realize personal broadcasting.
  • the image coding method shown in the above-mentioned embodiment may be used for coding of each device constituting the content supply system.
  • the mobile phone ex114 will be described as an example.
  • FIG. 17 is a diagram showing a mobile phone ex114 using the image coding method described in the above embodiment.
  • the cellular phone ex114 is an antenna ex601 for transmitting and receiving radio waves to and from the base station ex110, a video such as a CCD camera, a camera unit ex603 capable of taking a still image, a video shot with the camera unit ex603, and the antenna ex601.
  • a display unit ex602 such as a liquid crystal display for displaying data obtained by decoding a received video or the like, a main body unit including operation keys ex604, an audio output unit ex608 such as a speaker for audio output, and audio input Voice input unit ex605 such as a microphone, captured moving or still image data, received mail data, moving image data or still image data, etc.
  • the recording medium ex 607 stores a flash memory element, which is a type of EEPROM, which is a non-volatile memory that can be electrically rewritten and erased, in a plastic case such as an SD card.
  • a mobile phone ex114 is provided with a power control circuit ex710, an operation input control unit ex704, an image encoding, and a main control unit ex711 that is configured to integrally control each unit of the main unit including the display unit ex602 and the operation key ex604.
  • Unit ex712, camera interface unit ex703, LCD (Liquid Crystal Display) control unit ex702, image decoding unit ex709, demultiplexing unit ex708, recording / reproduction unit ex707, modulation / demodulation circuit unit ex706, and audio processing unit ex705 are mutually connected via synchronization bus ex713 It is connected.
  • the power supply circuit unit ex710 activates the camera-equipped digital mobile phone ex114 to an operable state by supplying power from the battery pack to each unit when the end of the call and the power key are turned on by the operation of the user. .
  • the mobile phone ex114 converts the audio signal collected by the audio input unit ex605 into digital audio data by the audio processing unit ex705 based on the control of the main control unit ex711 including CPU, ROM, RAM, etc. This is spread spectrum processing in the modulation / demodulation circuit unit ex706, subjected to digital / analog conversion processing and frequency conversion processing in the transmission / reception circuit unit ex701, and then transmitted through the antenna ex601.
  • the cellular phone ex114 amplifies the reception data received by the antenna ex601, performs frequency conversion processing and analog-to-digital conversion processing, performs spectrum despreading processing in the modulation / demodulation circuit unit ex706, and performs analog sound processing in the sound processing unit ex705. After conversion into data, the data is output via the audio output unit ex 608.
  • text data of the electronic mail input by the operation of the operation key ex604 of the main unit is sent to the main control unit ex711 via the operation input control unit ex704.
  • the main control unit ex711 performs spread spectrum processing on the text data in the modulation / demodulation circuit unit ex706, performs digital / analog conversion processing and frequency conversion processing in the transmission / reception circuit unit ex701, and transmits the data to the base station ex110 via the antenna ex601.
  • the image data captured by the camera unit ex603 is supplied to the image coding unit ex712 via the camera interface unit ex703.
  • the image data captured by the camera unit ex603 can be directly displayed on the display unit ex602 via the camera interface unit ex703 and the LCD control unit ex702.
  • the image coding unit ex712 is configured to include the image coding apparatus described in the present invention, and uses the image data supplied from the camera unit ex603 for the image coding apparatus shown in the above embodiment.
  • the compression image data is converted into encoded image data by compression coding, and this is sent to the demultiplexing unit ex 708.
  • the cellular phone ex114 simultaneously transmits the sound collected by the audio input unit ex605 during imaging by the camera unit ex603 to the demultiplexing unit ex708 as digital audio data via the audio processing unit ex705.
  • the demultiplexing unit ex708 multiplexes the encoded image data supplied from the image coding unit ex712 and the audio data supplied from the audio processing unit ex705 according to a predetermined method, and the multiplexed data obtained as a result thereof is converted to a modulation / demodulation circuit unit
  • the spread spectrum processing is performed in ex706, the digital analog conversion processing and the frequency conversion processing are performed in the transmission / reception circuit unit ex701, and then transmission is performed via the antenna ex601.
  • the reception data received from base station ex110 via antenna ex601 is subjected to spectrum despreading processing by modulation / demodulation circuit unit ex706, and the resulting multiplex is obtained Integrated data to the demultiplexing unit ex 708.
  • the demultiplexing unit ex708 divides the multiplexed data into a bit stream of image data and a bit stream of audio data, and performs synchronization bus synchronization.
  • the encoded image data is supplied to the image decoding unit ex709 via the ex 713, and the audio data is supplied to the audio processing unit ex705.
  • the image decoding unit ex 709 has a configuration including an image decoding apparatus, and decodes the bit stream of the image data by the decoding method corresponding to the encoding method described in the above embodiment, thereby reproducing reproduced moving image data. It is generated and supplied to the display unit ex602 via the LCD control unit ex702, whereby, for example, moving image data included in a moving image file linked to a home page is displayed.
  • the audio processing unit ex 705 simultaneously converts the audio data into analog audio data, and supplies this to the audio output unit ex 608, whereby the audio data included in, for example, the moving image file linked to the home page is reproduced. Ru.
  • At the broadcast station ex201 audio data, video data, or a bit stream in which the data is multiplexed is transmitted to the communication or broadcast satellite ex202 via radio waves.
  • the broadcast satellite ex202 receiving this transmits a radio wave for broadcasting
  • the antenna ex204 of the home having a satellite broadcasting reception facility receives this radio wave
  • the device decodes the bitstream and reproduces it.
  • an image decoding apparatus is also mounted on a reader / recorder ex 218 that reads and decodes image data recorded on recording media ex215 and ex216 such as CD and DVD, which are recording media, and a bit stream in which audio data is multiplexed. Is possible.
  • the reproduced video signal is displayed on the monitor ex 219.
  • the image decoding apparatus is mounted in the set top box ex217 connected to the cable ex203 for cable television or the antenna ex204 for satellite / terrestrial broadcast, and this is reproduced by the monitor ex219 of the television.
  • the image decoding apparatus may be incorporated in the television instead of the set top box.
  • a car ex210 having an antenna ex205 can also receive a signal from the satellite ex202 or a base station and reproduce a moving image on a display device such as a car navigation system ex211 set in the car ex210.
  • the image coding apparatus shown in the above-described embodiment can also be implemented in a reader / recorder ex 218 that encodes and stores the following data as multiplexed data.
  • the reproduced video signal is displayed on the monitor ex 219.
  • other devices and systems can reproduce video signals.
  • the other reproduction device ex212 can reproduce the video signal on the monitor ex213 using the recording medium ex214 to which the encoded bit stream is copied.
  • the image decoding apparatus may be mounted in the set top box ex217 connected to the cable ex203 for cable television or the antenna ex204 for satellite / terrestrial broadcast, and this may be displayed on the monitor ex219 of the television.
  • the image decoding apparatus may be incorporated in the television instead of the set top box.
  • FIG. 20 is a diagram showing a television (receiver) ex300 that uses the image coding method described in the above embodiment.
  • the television ex300 acquires or outputs a bit stream of video information via the antenna ex204 or the cable ex203 which receives the broadcast, and demodulates or generates received encoded data.
  • a modulation / demodulation unit ex302 that modulates data to be transmitted to the outside, a multiplexing / demultiplexing unit ex303 that separates the demodulated video data and audio data, or multiplexes encoded video data and audio data Equipped with Further, the television ex300 decodes the audio data and the video data, or an audio signal processing unit ex304 that encodes each information, a signal processing unit ex306 having the video signal processing unit ex305, and the decoded audio signal. It has a speaker ex307 for outputting, and an output unit ex309 having a display unit ex308 such as a display for displaying a decoded video signal.
  • the television ex300 includes an interface unit ex317 including an operation input unit ex312 and the like that receive an input of a user operation. Furthermore, the television ex300 includes a control unit ex310 that centrally controls each unit, and a power supply circuit unit ex311 that supplies power to each unit.
  • the interface unit ex317 is, besides the operation input unit ex312, a bridge ex313 connected to an external device such as a reader / recorder ex218, a slot unit ex314 for enabling attachment of a recording medium ex216 such as an SD card, external recording such as a hard disk It may have a driver ex 315 for connecting to a medium, a modem ex 316 connected to a telephone network, and the like. Note that the recording medium ex216 can electrically record information by a nonvolatile / volatile semiconductor memory element to be stored.
  • the components of the television ex300 are connected to one another via a synchronization bus.
  • the television ex300 decodes data acquired from the outside with the antenna ex204 and the like and reproduces the data.
  • the television ex300 receives the user operation from the remote controller ex220 and the like, and demultiplexes the video data and audio data demodulated by the modulation / demodulation unit ex302 by the multiplexing / demultiplexing unit ex303 based on the control of the control unit ex310 having a CPU etc. .
  • the television ex300 decodes the separated audio data by the audio signal processing unit ex304, and decodes the separated video data by the video signal processing unit ex305 using the decoding method described in the above embodiment.
  • the decoded audio signal and video signal are output from the output unit ex309 to the outside.
  • these signals may be temporarily stored in the buffers ex318, ex319, etc. so that the audio signal and the video signal are reproduced synchronously.
  • the television ex300 may read the encoded bit stream not from the broadcast or the like, but from the recording media ex215 and ex216 such as a magnetic / optical disc and an SD card.
  • the recording media ex215 and ex216 such as a magnetic / optical disc and an SD card.
  • the television ex300 encodes an audio signal in the audio signal processing unit ex304 based on the control of the control unit ex310, and the video signal processing unit ex305 in the above embodiment. Encoding is performed using the described encoding method.
  • the encoded audio signal and video signal are multiplexed by multiplexer / demultiplexer ex303 and output to the outside. At the time of multiplexing, these signals may be temporarily stored in the buffers ex320, ex321, etc. so that the audio signal and the video signal are synchronized.
  • a plurality of buffers ex318 to ex321 may be provided as illustrated, or one or more buffers may be shared.
  • data may be stored in a buffer as a buffer material to avoid system overflow and underflow, for example, between the modulation / demodulation unit ex302 and the multiplexing / demultiplexing unit ex303.
  • television ex300 In addition to acquiring audio data and video data from broadcasts and recording media, etc., television ex300 is also configured to receive AV input from a microphone and a camera, and even if data acquired from them is encoded. Good.
  • television ex300 is described as a configuration capable of the above encoding processing, multiplexing, and external output, but all of these processing can not be performed, and the above reception, decoding processing, and external processing can not be performed. Only one of the outputs may be possible.
  • the encoding process may be performed by any of the television ex300 and the reader / recorder ex218, or with the television ex300.
  • the reader / recorder ex 218 may share with each other.
  • FIG. 21 shows a configuration of an information reproducing / recording unit ex400 in the case of reading or writing data from an optical disc.
  • the information reproducing / recording unit ex400 includes elements ex401 to ex407 described below.
  • the optical head ex401 irradiates a laser spot on the recording surface of the recording medium ex215 which is an optical disk to write information, detects reflected light from the recording surface of the recording medium ex215, and reads the information.
  • the modulation recording unit ex402 electrically drives the semiconductor laser incorporated in the optical head ex401 and modulates the laser light according to the recording data.
  • the reproduction / demodulation unit ex403 amplifies the reproduction signal obtained by electrically detecting the reflected light from the recording surface by the photodetector incorporated in the optical head ex401, separates and demodulates the signal component recorded in the recording medium ex215, and Play back information.
  • the buffer ex 404 temporarily holds information to be recorded on the recording medium ex 215 and information reproduced from the recording medium ex 215.
  • the disk motor ex405 rotates the recording medium ex215.
  • the servo control unit ex406 moves the optical head ex401 to a predetermined information track while controlling the rotational drive of the disk motor ex405, and performs the laser spot tracking process.
  • the system control unit ex407 controls the entire information reproducing / recording unit ex400.
  • the system control unit ex407 uses various information held in the buffer ex404, and generates and adds new information as necessary.
  • the modulation recording unit ex402, reproduction demodulation This is realized by performing recording and reproduction of information through the optical head ex401 while cooperatively operating the unit ex403 and the servo control unit ex406.
  • the system control unit ex 407 is configured of, for example, a microprocessor, and executes the processing of reading and writing by executing the program.
  • the optical head ex401 may be configured to perform higher-density recording using near-field light.
  • FIG. 22 shows a schematic view of a recording medium ex 215 which is an optical disc.
  • a guide groove (groove) is formed in a spiral shape on the recording surface of the recording medium ex215, and in the information track ex230, address information indicating the absolute position on the disc is recorded in advance by the change of the groove shape.
  • This address information includes information for specifying the position of the recording block ex231, which is a unit for recording data, and the apparatus which performs recording and reproduction specifies the recording block by reproducing the information track ex230 and reading the address information. be able to.
  • the recording medium ex215 includes a data recording area ex233, an inner circumference area ex232, and an outer circumference area ex234.
  • An area used to record user data is data recording area ex233, and inner circumference area ex232 and outer circumference area ex234 arranged on the inner circumference or outer circumference of data recording area ex233 are used for specific applications other than user data recording. Used.
  • the information reproducing / recording unit ex400 reads / writes encoded audio data, video data, or encoded data obtained by multiplexing those data from / to the data recording area ex233 of such a recording medium ex215.
  • an optical disc such as a single layer DVD or BD has been described as an example, but the optical disc is not limited to these, and may be an optical disc having a multilayer structure and capable of recording other than the surface.
  • multi-dimensional recording / reproduction such as recording information in the same place of the disc using light of colors of different wavelengths, recording layers of information different from different angles, etc. It may be an optical disc.
  • the configuration of the car navigation system ex211 may be, for example, a configuration in which a GPS reception unit is added, and the same may be considered for the computer ex111, the mobile phone ex114, and the like.
  • the terminal such as the above-mentioned mobile phone ex114 is, like the television ex300, in addition to a transceiving type terminal having both an encoder and a decoder, a transmitter terminal of only an encoder and a receiver terminal of only a decoder.
  • the implementation style of can be considered.
  • Embodiment 4 The image coding method and apparatus described in each of the above embodiments are typically realized by an LSI which is an integrated circuit.
  • FIG. 23 shows a configuration of an LSI ex 500 formed into one chip.
  • the LSI ex 500 includes elements ex 501 to ex 509 described below, and the elements are connected via a bus ex 510.
  • the power supply circuit unit ex505 starts up to an operable state by supplying power to each unit when the power is on.
  • the LSI ex500 receives an AV signal from the microphone ex117 and the camera ex113 by the AV I / O ex 509 based on the control of the control unit ex 501 having the CPU ex 502, the memory controller ex 503, the stream controller ex 504, and the like.
  • Accept The input AV signal is temporarily stored in an external memory ex 511 such as an SDRAM.
  • the accumulated data is appropriately divided into a plurality of times according to the processing amount and the processing speed, and the like, and is sent to the signal processing unit ex507.
  • the signal processing unit ex 507 performs coding of an audio signal and / or coding of a video signal.
  • the coding process of the video signal is the coding process described in the above embodiment.
  • the signal processing unit ex 507 further performs processing such as multiplexing of encoded audio data and encoded video data as needed, and outputs the multiplexed data from the stream I / O ex 506 to the outside.
  • the output bit stream is transmitted to the base station ex 107 or written to the recording medium ex 215. Note that data may be temporarily stored in the buffer ex 508 so as to be synchronized when multiplexing.
  • the LSI ex 500 is obtained by reading from the encoded data obtained by the stream I / O ex 506 via the base station ex 107 or from the recording medium ex 215 under the control of the control unit ex 501.
  • the encoded data is temporarily stored in the memory ex 511 or the like.
  • the accumulated data is appropriately divided into a plurality of times according to the processing amount and the processing speed and sent to the signal processing unit ex507.
  • the signal processing unit ex ⁇ b> 507 decodes audio data and / or video data.
  • each signal is temporarily store in a buffer ex508 or the like so that the decoded audio signal and the decoded video signal can be reproduced synchronously in some cases.
  • the decoded output signal is output from each output unit such as the mobile phone ex114, the game machine ex115, the television ex300 and the like via the memory ex511 and the like as appropriate.
  • the memory ex 511 has been described as an external configuration of the LSI ex 500, but may be included in the LSI ex 500.
  • the buffer ex 508 is not limited to one, and may have a plurality of buffers.
  • the LSI ex 500 may be integrated into one chip or a plurality of chips.
  • LSI LSI
  • IC system LSI
  • super LSI ultra LSI
  • the method of circuit integration is not limited to LSI's, and implementation using dedicated circuitry or general purpose processors is also possible.
  • a programmable FPGA or a reconfigurable processor capable of reconfigurable connection and setting of circuit cells in the LSI may be used after the LSI is manufactured.
  • the maximum resolution and the minimum resolution are set in the resolution range selection circuit 108 according to the first embodiment, if an image which is very difficult to compress and which may have a very small resolution is not input. You may set only the maximum resolution.
  • the maximum resolution and the minimum resolution are set by the resolution range selection circuit 108 according to the bit rate derived by the bit rate determination circuit 105, the present invention is not limited thereto, and the user explicitly sets the bit rate
  • the maximum resolution and the minimum resolution may be set by the resolution range selection circuit 108 according to the bit rate set by the user.
  • the present invention is advantageously used in a moving picture coding apparatus and a moving picture coding method for coding a moving picture and transmitting it on a transmission path.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

 動画像符号化方法は、入力画像の符号化の困難さの程度に応じて、入力画像の解像度およびフレームレートの少なくとも一方を変更して符号化対象画像を出力する画像変換ステップ(S11)と、画像変換ステップで出力される符号化対象画像を符号化し、符号化ビットストリームを伝送路上に送出する動画像符号化ステップ(S12)と、伝送路上に送出される符号化ビットストリームのビットレートである符号化ビットレートを決定するビットレート決定ステップ(S13)と、ビットレート決定ステップで決定された符号化ビットレートに応じて符号化対象画像の解像度の上限値を決定し、符号化対象画像の解像度が前記上限値を上回らないように画像変換ステップでの変更を制御する解像度範囲選択ステップ(S14)とを含む。

Description

動画像符号化方法、動画像符号化装置、プログラム、および集積回路
 本発明は、画像符号化方法および画像符号化装置に関し、特に、MPEG(Moving Picture Experts Group)-4 AVC方式、すなわちITU-T H.264方式にて、目標とするビットレートに応じて解像度とフレームレートとを適応的に切り換える画像符号化方法および画像符号化装置に関する。
 近年、音声、画像およびその他の画素値を統合的に扱うマルチメディア時代を迎え、従来の情報メディア、つまり新聞、雑誌、テレビ、ラジオおよび電話等の、情報を人に伝達する手段がマルチメディアの対象として取り上げられるようになってきた。一般に、マルチメディアとは、文字だけでなく、図形あるいは、音声、特に画像等を同時に関連づけて表すことをいう。上記従来の情報メディアをマルチメディアの対象とするには、その情報をデジタル形式にして表すことが必須条件となる。
 ところが、上記各情報メディアの持つ情報量をデジタル情報量として見積もってみると、文字の場合1文字当たりの情報量は1~2バイトである。それに対し、音声の場合は、1秒当たり64Kbits(電話品質)、さらに動画像の場合については、1秒当たり100Mbits(現行テレビ受信品質)以上の情報量が必要となる。それ故、上記情報メディアでその膨大な情報をデジタル形式でそのまま扱うことは現実的ではない。例えば、テレビ電話は、64Kbit/s~1.5Mbit/sの伝送速度を持つサービス総合デジタル網(ISDN:Integrated Services Digital Network)によって実用化されている。しかし、テレビ・カメラの映像をそのままのデジタル情報量でISDNにて送ることは不可能である。
 そこで、必要となってくるのが情報の圧縮技術である。例えば、テレビ電話の場合、ITU-T(国際電気通信連合 電気通信標準化部門)によって勧告されたH.261あるいはH.263規格の動画圧縮技術が用いられている。また、MPEG-1規格の情報圧縮技術では、通常の音楽用CD(コンパクト・ディスク)に音声情報とともに画像情報を入れることも可能となる。
 ここで、MPEG(Moving Picture Experts Group)とは、ISO/IEC(国際標準化機構 国際電気標準会議)によって標準化された動画像信号圧縮の国際規格である。MPEG-1は、動画像信号を1.5Mbit/sまで、つまりテレビ信号の情報を約100分の1にまで圧縮する規格である。また、MPEG-1規格では、対象とする品質を中程度の品質、すなわち伝送速度が主として約1.5Mbit/sで実現できる程度の品質としたことに基づいて、さらに高画質化の要求を満たすべくMPEG-2が規格化された。MPEG-2では、動画像信号を2~15Mbit/sでTV放送品質を実現する。
 さらに、現状では、MPEG-1、MPEG-2と標準化を進めてきた作業グループ(ISO/IEC JTC1/SC29/WG11)によって、MPEG-1、MPEG-2を上回る圧縮率を達成し、さらに物体単位で符号化、復号化、および操作を可能とし、マルチメディア時代に必要な新しい機能を実現するMPEG-4が規格化された。MPEG-4は、MPEG-1、およびMPEG-2を上回る圧縮率を達成し、さらに物体単位で符号化、復号化および操作を可能とする。
 このMPEG-4では、当初、低ビットレートの符号化方法の標準化を目指して進められたが、インタレース画像も含む高ビットレートの符号化方法も含む、より汎用的な符号化に拡張された。さらに、現在は、ISO/IECとITU-Tとによって共同で、より高圧縮率の画像符号化方式として、MPEG-4 AVC(ITU-T H.264)が規格化された。
 画像信号は、同じ時刻の画素の集合であるピクチャ(フレームまたはフィールドとも呼ばれる)が連続したものであると考えることができる。また、画素は、ピクチャ内での近傍画素との相関が強いことに基づいて、ピクチャ内の画素の相関を利用した圧縮が行われる。さらに、連続するピクチャ間では、画素の相関も強いことに基づいて、ピクチャ間の画素の相関を利用した圧縮も行われる。
 ここで、ピクチャ間の画素の相関とピクチャ内の画素の相関とを利用した圧縮をインター符号化と呼ぶ。そして、ピクチャ間の画素の相関を用いず、ピクチャ内の画素の相関のみを利用した圧縮をイントラ符号化と呼ぶ。このインター符号化は、ピクチャ間の相関を利用しているので、イントラ符号化よりも高い圧縮率を実現できる。
 また、MPEG-1、MPEG-2、MPEG-4、MPEG-4 AVC(H.264)では、2次元の矩形領域の、画素の集合であるブロック(もしくは、複数のブロックをまとめた上位概念ブロックであるマクロブロック)を構成し、ブロック単位でイントラ符号化とインター符号化とを切り換えることができる。
 一方、近年は、ADSLまたは光ファイバを用いた高速ネットワーク環境が普及している。これにより、一般家庭でも数Mbit/sを越えるビットレートで送受信が可能となっている。さらに、今後数年で数十Mbit/sでの送受信が可能になる見込みである。
 その結果、上記の画像符号化技術を用いることで、専用回線を用いた企業だけでなく、一般家庭でもTV放送品質およびHDTV放送品質のTV電話およびTV会議システムの導入が進むと予想される。
 さて、ADSLまたは光ファイバを用いた高速ネットワークは、企業向けの高価な帯域保証型専用ネットワークではなく、複数のユーザが共同で使用する安価なベストエフォート型ネットワークである。ベストエフォート型ネットワークでは、各ユーザがその時刻に使用しているビットレートの和の上限値が決まっている。このため、使用するユーザ数が多い時刻はユーザあたりの使用可能なビットレートが低くなり、使用するユーザ数が少ない時刻はユーザあたりの使用可能なビットレートが高くなる。つまり、時刻によって使用可能なビットレートが大きく変換する特徴がある。
 また、動画像には、単一色のベタ画像(画面全てが同じ色で同じ明るさの画像)のように非常に圧縮が容易な画像がある。一方で、ホワイトノイズのように、画素間の相関が全くなく、非常に圧縮が困難な画像がある。このように、圧縮の容易さが大きく異なる動画像に対しても、大きな画質劣化がなく安定した画像符号化を行えることが重要である。
 従来の画像符号化装置においては、圧縮が困難な動画像を符号化する場合には、予め画像の解像度を低い解像度に変換して符号化する画素数を少なくしてから符号化している(特許文献1)。
 図24は、従来の動画像符号化装置の説明図である。図24の左側列は、これから符号化を行う符号化対象画像の画像サイズ(解像度)であり、実際に符号化されている解像度を示している。一方、図24の右側列は、対応する符号化対象画像を復号した後に画像サイズを拡大し表示装置で表示される表示画像サイズを示している。
 ここで、符号化対象画像には、圧縮が比較的容易な画像と、比較的難しい画像とが存在する。圧縮が容易な動画像の場合(図24の上段)は、符号化対象画像の解像度を変更せずに符号化し、さらに画像復号装置で復号して得られる表示画像をそのままの解像度で表示している。
 一方、圧縮が困難な動画像の場合は、符号化対象画像の画素数(解像度)を縦横それぞれ、3/4倍(図24の中段)もしくは1/2倍(図24の下段)に小さくし、少ない画素数(小さな解像度)の符号化対象画像を符号化する。さらに、画像復号装置で復号した表示画像は、縦横それぞれ4/3倍もしくは2倍に解像度を拡大し、もとの動画像と同じ画素数(解像度)で表示する。
 少ない画素数(解像度)で符号化することで、圧縮が困難な画像を符号化しても大幅な画質劣化となることを防止できる。しかしながら、表示の際に小さな画素数の画像を大きな画素数の画像に拡大しても、符号化されている画素数である少ない画素数で表現できる精細さ(緻密さ)以上を表現できないため、等倍のまま符号化した画像よりもぼけた画像になる。
 また、圧縮が困難な画像に対して、解像度を変更するだけでなく、符号化対象画像の単位時間あたりのフレーム数である動画像のフレームレート、およびブロック単位の符号化の量子化ステップを制御する方法がある。
 図25は、解像度、フレームレート、および量子化ステップの動的変更を伴う従来の画像符号化装置を示すブロック図である。従来の画像符号化装置は、図25に示されるように、解像度変更回路501と、フレームレート変更回路502と、動画像符号化回路503と、量子化ステップ制御回路506と、フレームレート制御回路507と、解像度設定回路508とを主に備える。
 解像度設定回路508は、特許文献1のように画像の圧縮の困難さに応じて符号化する解像度を決定し、符号化する画像の解像度を解像度信号S64として解像度変更回路501に通知する。解像度変更回路501は、動画入力端子500から所定の解像度で入力した動画信号S60を解像度設定回路508から通知された解像度に変換する。
 フレームレート制御回路507は、符号化する画像のフレームレートをフレームレート信号S67としてフレームレート変更回路502に通知する。フレームレート変更回路502は、解像度が変更された動画信号S61のフレームレートをフレームレート制御回路507から通知されたフレームレートに変更する。
 量子化ステップ制御回路506は、動画像符号化回路503で量子化する量子化ステップを量子化ステップ信号S66として動画像符号化回路503に通知する。動画像符号化回路503は、フレームレートが変更された動画信号S62を量子化ステップ制御回路506から通知された量子化ステップで量子化して符号化し、ビットストリームS63をビットストリーム出力端子504に出力する。
 量子化ステップ制御回路506では、目標とする符号化ビットレートと、動画像符号化回路503が出力したビットストリームS63の符号量と、フレームレート信号S64の値とに基づいて量子化ステップを決定する。また、フレームレート制御回路507は、量子化ステップ制御回路506で決定された量子化ステップ信号S66の値に応じてフレームレートを決定する。
 このような構成において、解像度は、画像の圧縮の困難さに応じて解像度設定回路508によって決定される。また、解像度変更後の画像の、圧縮の困難さの程度が変化した場合には、フレームレートと量子化ステップとが動的に制御されて、目標のビットレートとなるよう動作する。
特開2001-160969号公報
 しかしながら、上記の従来の構成では、入力画像の圧縮の困難さの程度が大きく変化した場合に、特に低ビットレートで画質が大幅に劣化する課題があった。
 圧縮が非常に容易な場合またはインター符号化を用いて符号化する静止画像の場合には、非常に低いビットレートで符号化できるため、解像度設定回路508で最大解像度とするよう解像度変更回路501に通知する。一方、低ビットレートでは少し圧縮が難しい画像(人物または物体が動く)になるだけで、量子化ステップが大きくなりボケまたはブロック歪みが発生する。また、フレーム間引きを大きくしてフレームレートを低下させたとしても、残りのフレーム間の相関が小さくなるのでフレーム間引きによる圧縮効果が小さくなる。その結果、極端なコマ送り状になるため、解像度を低くしなければ見苦しい映像となってしまうことがあった。
 圧縮の難しさの小さな変化(動きのわずかな変化)で頻繁に解像度を切り換えると、このような、ブロック歪またはコマ送り状になる画質劣化は防止できる。しかしながら、圧縮の難しさの小さな変化で頻繁に解像度を切り換えると、頻繁な解像度の切り換えに起因する、頻繁なボケ度合いの変化が、画質劣化として目立ってしまう。
 ベストエフォート型のインターネットでは、混雑してくると伝送可能なビットレートが時刻によって大きく変動する(数分の1のビットレートになる場合もある)。最近は、画像符号化装置でTV会議またはTV電話を行いつつ、PC(パーソナル・コンピュータ)で作業することも多い。
 接続中にPCから同じネットワーク経由でファイルをダウンロードしたり、サーバのファイルを閲覧・編集したりすると、画像符号化装置で使用可能なビットレートが急激に小さくなる。このようなPC操作を中断した途端にビットレートが大きくなる等の急激な変化が起きる状況が多くなっている。
 このように、伝送可能なビットレートが変動する状況では、画像の内容に依存する圧縮の困難さ以外に、ビットレートにも連動して頻繁に解像度が切り替わることになり、見苦しい画質劣化となる。
 本発明は、このように従来の課題を解決するものであり、入力動画像の圧縮の困難さの程度、または目標とする符号化ビットレートが大きく変化しても、違和感のない画質で画像の符号化を可能にする動画像符号化方法を提供することを目的とする。
 本発明の一形態に係る動画像符号化方法は、入力画像を符号化して符号化ビットストリームを生成し、当該符号化ビットストリームを伝送路上に送出する。具体的には、前記入力画像の符号化の困難さの程度に応じて、前記入力画像の解像度およびフレームレートの少なくとも一方を変更して符号化対象画像を出力する画像変換ステップと、前記画像変換ステップで出力される前記符号化対象画像を符号化して前記符号化ビットストリームを生成し、当該符号化ビットストリームを前記伝送路上に送出する動画像符号化ステップと、前記伝送路上に送出される前記符号化ビットストリームのビットレートである符号化ビットレートを決定するビットレート決定ステップと、前記ビットレート決定ステップで決定された前記符号化ビットレートに応じて前記符号化対象画像の解像度の上限値を決定し、前記符号化対象画像の解像度が前記上限値を上回らないように前記画像変換ステップでの変更を制御する解像度範囲選択ステップとを含む。
 上記構成によれば、入力画像の符号化の困難さの程度が急激に変化しても、解像度が大きく変更されることがない。特に、解像度が大きい状態で圧縮が困難な画像を低ビットレートで符号化することを防止できる。その結果、主観的な画質劣化を有効に防止することができる。
 さらに、前記解像度範囲選択ステップは、前記ビットレート決定ステップで決定された前記符号化ビットレートに応じて、前記符号化対象画像の解像度の下限値を決定し、前記符号化対象画像の解像度が前記下限値を下回らないように前記画像変換ステップでの変更を制御してもよい。
 また、前記解像度変換ステップでは、前記符号化対象画像の解像度を変更した後、所定の時間が経過するまで、および所定数の前記入力画像を処理するまでの少なくとも一方の条件を満たすまで、前記符号化対象画像の解像度を変更しないようにしてもよい。解像度変更直後の符号化対象画像は画面内予測を用いて符号化されるので、一時的に符号化効率が下がる。そこで、符号化効率が安定するのに要する所定の時間が経過するまで、および/または、所定数の入力画像(フレーム)を処理するまで、符号化対象画像の解像度を再び変更しないのが望ましい。
 また、前記符号化ビットレートは、送信機器と受信機器との間で実際に送受信できた符号化ビットストリーム量を計測して得られる前記伝送路の伝送可能ビットレートに基づいて決定してもよい。なお、実際に送受信できた符号量は、受信機器から送信機器に受信したデータ数、もしくは受信できなかったデータ数を通知することで取得できる。符号化ビットレートの決定方法は、これに限定されず、例えば、ユーザが指定した固定値としてもよい。
 さらに、該動画像符号化方法は、前記符号化ビットストリームが、前記ビットレート決定ステップで決定された前記符号化ビットレートで伝送可能な符号量となるような量子化ステップを算出し、算出した前記量子化ステップで前記動画像符号化ステップに前記符号化対象画像を量子化させる量子化ステップ算出ステップと、所定の時間内に前記量子化ステップ算出ステップで算出された前記量子化ステップの平均値である量子化ステップ平均値を算出する平均値算出ステップとを含んでもよい。同様に、前記画像変換ステップは、前記平均値算出ステップで算出された前記量子化ステップ平均値に基づいて前記入力画像の符号化の困難さの程度を判断し、前記符号化対象画像の解像度およびフレームレートを決定する画質決定ステップと、前記入力画像を前記画質決定ステップで決定された解像度に変更する解像度変更ステップと、前記入力画像を前記画質決定ステップで決定されたフレームレートに変更するフレームレート変更ステップとを含んでもよい。
 なお、「所定の時間内に算出された量子化ステップの平均値」とは、例えば、符号化対象画像の最初のフレームから現在までの平均値であってもよい。さらに、解像度を変更した後の所定期間は量子化ステップの値が不安定となるので、平均値の算出処理から除外してもよい。
 具体的には、前記画質決定ステップは、直前に決定された解像度より小さい第1の解像度および大きい第2の解像度の少なくとも一方を予め保持していてもよい。そして、前記平均値算出ステップで算出された前記量子化ステップ平均値が予め定めた第1の閾値より大きく、かつ保持している前記第1の解像度が前記下限値以上である場合に、前記解像度変更ステップに前記入力画像の解像度を前記第1の解像度に変更させ、前記平均値算出ステップで算出された前記量子化ステップ平均値が予め定めた第2の閾値より小さく、かつ保持している前記第2の解像度が前記上限値以下である場合に、前記解像度変更ステップに前記入力画像の解像度を前記第2の解像度に変更させてもよい。
 さらに、前記画質決定ステップは、直前に決定されたフレームレートより小さい第1のフレームレートおよび大きい第2のフレームレートの少なくとも一方を予め保持していてもよい。そして、前記解像度変更ステップで前記入力画像の解像度が前記第1の解像度に変更された場合に、前記フレームレート変更ステップに前記入力画像のフレームレートを前記第2のフレームレートに変更させ、前記解像度変更ステップで前記入力画像の解像度が前記第2の解像度に変更された場合に、前記フレームレート変更ステップに前記入力画像のフレームレートを前記第1のフレームレートに変更させてもよい。
 解像度は、フレームレートに比べて、符号化効率および画質への影響が大きい。そこで、解像度を小さくするのに合わせてフレームレートを大きくし、解像度を大きくするのに合わせてフレームレートを小さくすることにより、符号化効率および画質の急激な変動を抑制することができる。
 さらに、前記画質決定ステップは、直前に決定されたフレームレートより小さい第1のフレームレートおよび大きい第2のフレームレートの少なくとも一方を予め保持していてもよい。そして、前記平均値算出ステップで算出された前記量子化ステップ平均値が予め定めた第1の閾値より大きく、かつ保持している前記第1の解像度が前記下限値を下回る場合に、前記フレームレート変更ステップに前記入力画像のフレームレートを前記第1のフレームレートに変更させ、前記平均値算出ステップで算出された前記量子化ステップ平均値が予め定めた第2の閾値より小さく、かつ保持している前記第2の解像度が前記上限値を上回る場合に、前記フレームレート変更ステップに前記入力画像のフレームレートを前記第2のフレームレートに変更させてもよい。
 上記構成とすることにより、入力画像の困難さの程度を示す「量子化ステップの平均値」が変化した際に、上限値および下限値の範囲内で解像度を変更できると共に、解像度をこれ以上変更できない場合には、フレームレートを変更して調整することができる。
 なお、画像変換ステップにおいて「入力画像の符号化の困難さの程度」を判断するためのパラメータは、量子化ステップに限定されず、量子化ステップを導出するのに必要となる数値であれば、他の数値を使用してもよい。例えば、量子化パラメータを使用してもよい。または、量子化ステップは、周波数成分毎に異なる、複数の数値のセットである。そして、量子化ステップ算出ステップは、このセットを、倍率を変えて複数保持している(例えば、32セット)。そこで、この倍率に相当する数値を「入力画像の符号化の困難さの程度」を判断するパラメータとして使用してもよい。
 本発明の一形態に係る動画像符号化装置は、入力画像を符号化して符号化ビットストリームを生成し、当該符号化ビットストリームを伝送路上に送出する。具体的には、前記入力画像の符号化の困難さの程度に応じて、前記入力画像の解像度およびフレームレートの少なくとも一方を変更して符号化対象画像を出力する画像変換部と、前記画像変換部から出力される前記符号化対象画像を符号化して前記符号化ビットストリームを生成し、当該符号化ビットストリームを前記伝送路上に送出する動画像符号化部と、前記伝送路上に送出される前記符号化ビットストリームのビットレートである符号化ビットレートを決定するビットレート決定部と、前記ビットレート決定部で決定された前記符号化ビットレートに応じて前記符号化対象画像の解像度の上限値を決定し、前記符号化対象画像の解像度が前記上限値を上回らないように前記画像変換部を制御する解像度範囲選択部とを備える。
 本発明の一形態に係るプログラムは、コンピュータに、入力画像を符号化して符号化ビットストリームを生成させ、当該符号化ビットストリームを伝送路上に送出させる。具体的には、前記入力画像の符号化の困難さの程度に応じて、前記入力画像の解像度およびフレームレートの少なくとも一方を変更して符号化対象画像を出力する画像変換ステップと、前記画像変換ステップで出力される前記符号化対象画像を符号化して前記符号化ビットストリームを生成し、当該符号化ビットストリームを前記伝送路上に送出する動画像符号化ステップと、前記伝送路上に送出される前記符号化ビットストリームのビットレートである符号化ビットレートを決定するビットレート決定ステップと、前記ビットレート決定ステップで決定された前記符号化ビットレートに応じて前記符号化対象画像の解像度の上限値を決定し、前記符号化対象画像の解像度が前記上限値を上回らないように前記画像変換ステップでの変更を制御する解像度範囲選択ステップとを、コンピュータに実行させる。
 本発明の一形態に係る集積回路は、入力画像を符号化して符号化ビットストリームを生成し、当該符号化ビットストリームを伝送路上に送出する。具体的には、前記入力画像の符号化の困難さの程度に応じて、前記入力画像の解像度およびフレームレートの少なくとも一方を変更して符号化対象画像を出力する画像変換部と、前記画像変換部から出力される前記符号化対象画像を符号化して前記符号化ビットストリームを生成し、当該符号化ビットストリームを前記伝送路上に送出する動画像符号化部と、前記伝送路上に送出される前記符号化ビットストリームのビットレートである符号化ビットレートを決定するビットレート決定部と、前記ビットレート決定部で決定された前記符号化ビットレートに応じて前記符号化対象画像の解像度の上限値を決定し、前記符号化対象画像の解像度が前記上限値を上回らないように前記画像変換部を制御する解像度範囲選択部とを備える。
 なお、本発明は、動画像符号化方法または動画像符号化装置として実現できるだけでなく、これらの機能を実現する集積回路として実現したり、そのような機能をコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD-ROM等の記録媒体およびインターネット等の伝送媒体を介して流通させることができるのは言うまでもない。
 本発明の動画像符号化方法および動画像符号化装置によれば、入力動画像の圧縮の困難さの程度、または目標とする符号化ビットレートが大きく変化しても、圧縮が容易な画像を低ビットレートで符号化した場合に大きな解像度で符号化することを防止できる。その結果、低ビットレートで解像度が頻繁に切り替わることに起因するボケなどの違和感が発生しない動画像符号化をすることができ、主観的な画質劣化を防止できる。
図1Aは、実施の形態1に係る動画像符号化装置のブロック図である。 図1Bは、実施の形態1に係る動画像符号化装置の最小構成を示すブロック図である。 図1Cは、図1Bの動画像符号化装置の動作を示すフローチャートである。 図2は、図1の解像度変更回路の詳細ブロック図である。 図3は、解像度変更処理前の画像(a)と、解像度変更処理後の画像(b)~(d)との関係を示す図である。 図4は、図1のフレームレート変更回路の詳細ブロック図である。 図5は、フレームレート変更処理のタイムチャートである。 図6は、図1の動画像符号化回路の詳細ブロック図である。 図7は、図1の量子化ステップ制御回路の動作を示すフローチャートである。 図8は、図1の量子化ステップ平均回路の動作を示すフローチャートである。 図9は、図1の解像度範囲選択回路が保持しているビットレートと解像度範囲との関係を示す図である。 図10は、図1の解像度・フレームレート選択回路の動作を示すフローチャートである。 図11は、解像度・フレームレート選択回路で行われる状態遷移の一例を示す図である。 図12は、状態遷移の具体例を示す図である。 図13は、図12の各状態における解像度、フレームレート、遷移条件、遷移先状態IDを示す図である。 図14は、状態遷移の他の具体例を示す図である。 図15Aは、記録媒体本体である磁気ディスクの物理フォーマットの例を示す図である。 図15Bは、磁気ディスクを保持するケースの正面図、断面図、および磁気ディスクを示す図である。 図15Cは、フレキシブルディスクに上記プログラムの記録再生を行うための構成を示す図である。 図16は、コンテンツ配信サービスを実現するコンテンツ供給システムの全体構成の一例を示す模式図である。 図17は、携帯電話の外観を示す図である。 図18は、携帯電話の構成例を示すブロック図である。 図19は、デジタル放送用システムの全体構成の一例を示す模式図である。 図20は、テレビの構成例を示すブロック図である。 図21は、光ディスクである記録メディアに情報の読み書きを行う情報再生記録部の構成例を示すブロック図である。 図22は、光ディスクである記録メディアの構造例を示す図である。 図23は、各実施の形態に係る画像符号化方法および画像復号方法を実現する集積回路の構成例を示すブロック図である。 図24は、従来の符号化対象画像と表示画像との関係を示す図である。 図25は、従来の動画像符号化装置のブロック図である。
 以下、本発明の具体的な内容について、実施の形態1~4を用いて説明する。
 (実施の形態1)
 図1Aは、本発明の実施の形態1に係る動画像符号化装置10の構成を示すブロック図である。
 動画像符号化装置10は、解像度変更回路(解像度変更部)101と、フレームレート変更回路(フレームレート変更部)102と、動画像符号化回路(動画像符号化部)103と、ビットレート決定回路(ビットレート決定部)105と、量子化ステップ制御回路(量子化ステップ算出部)106と、量子化ステップ平均回路(平均値算出部)107と、解像度範囲選択回路(解像度範囲選択部)108と、解像度・フレームレート選択回路(画質決定部)109とを備える。そして、この動画像符号化装置10は、動画信号S10を動画入力端子100から取得し、生成したビットストリームS13をビットストリーム出力端子104から伝送路に送出する。
 解像度変更回路101は、動画入力端子100から取得した動画信号S10の解像度を、解像度選択信号S18で通知された解像度に変更する。フレームレート変更回路102は、解像度が変更された動画信号S11のフレームレートを、フレームレート選択信号S19から通知されたフレームレートに変更する。
 なお、上記の解像度変更回路101およびフレームレート変更回路102と、後述する解像度・フレームレート選択回路109とで、入力画像(「動画信号S10」に相当)を符号化対象画像(「動画信号S12」に相当)に変換する画像変換部110を構成する。この画像変換部110は、入力画像の符号化の困難さの程度に応じて、入力画像の解像度およびフレームレートの少なくとも一方を変更して符号化対象画像を出力する。
 動画像符号化回路103は、量子化ステップ信号S16で通知される量子化ステップ(もしくは量子化パラメータ)と、解像度変更有無を示す解像度変更発生信号S20とを取得し、フレームレートが変更された動画信号S12を符号化してビットストリームS13を生成する。なお、動画像符号化回路103で符号化に必要な画像の解像度の情報およびフレームレートの情報は、動画信号S11または動画信号S12に含まれているものとする。そして、動画像符号化回路103は、生成したビットストリームS13を、ビットストリーム出力端子104を介して伝送路上に送出する。量子化ステップ制御回路106は、符号化ビットレート信号S14と、フレームレート選択信号S19と、ビットストリームS13とを取得して量子化ステップを決定する。なお、量子化ステップ制御回路106は、ビットストリームS13の代わりに、ビットストリームS13のビット数を入力としてもよい。
 量子化ステップ平均回路107は、量子化ステップ信号S16と、解像度変更発生信号S20とを取得し、所定の時間内の同じ解像度での量子化ステップの平均値である量子化ステップ平均値を求める。量子化ステップ平均値の具体的な算出方法は特に限定されないが、例えば、指数加重移動平均演算によって算出することができる。
 ビットレート決定回路105は、動画像符号化回路103から出力されるビットストリームS13の符号化ビットレートを決定する。符号化ビットレートの具体的な決定方法は、特に限定されないが、例えば、伝送路で伝送可能ビットレートに基づいて決定してもよい。または、ユーザが指定する符号化ビットレートの入力を受け付けてもよい。
 解像度範囲選択回路108は、符号化ビットレート信号S14を取得し、符号化ビットレートから符号化対象画像の解像度の上限値と下限値とからなる解像度選択範囲を決定する。解像度・フレームレート選択回路109は、量子化ステップ平均値信号S17と、解像度選択範囲信号S15とを取得し、符号化対象画像の解像度およびフレームレートを決定する。そして、解像度・フレームレート選択回路109は、解像度選択信号S18と、フレームレート選択信号S19と、解像度変更発生信号S20とを出力する。
 次に、図1Bおよび図1Cを参照して、実施の形態1に係る動画像符号化装置10の最小構成を説明する。まず、動画像符号化装置10は、図1Bに示されるように、画像変換部20と、動画像符号化部30と、ビットレート決定部40と、解像度範囲選択部50とを備える。この動画像符号化装置10は、入力画像を符号化して符号化ビットストリームを生成し、当該符号化ビットストリームを伝送路上に送出する。なお、画像変換部20は図1Aの画像変換部110に、動画像符号化部30は図1Aの動画像符号化回路103、量子化ステップ制御回路106、および量子化ステップ平均回路107に、ビットレート決定部40は図1Aのビットレート決定回路105に、解像度範囲選択部50は図1Aの解像度範囲選択回路108に、それぞれ相当する。
 画像変換部110は、入力画像を取得し、取得した入力画像の解像度およびフレームレートの少なくとも一方を変更して符号化対象画像を生成し、生成した符号化対象画像を動画像符号化回路103に出力する(Step11)。なお、符号化対象画像の解像度およびフレームレートは、量子化ステップ平均回路107から取得した入力画像の符号化の困難さの程度と、解像度範囲選択回路108から取得した解像度の上限値とに基づいて決定される。
 動画像符号化回路103は、画像変換部110から符号化対象画像を取得し、取得した符号化対象画像を符号化して符号化ビットストリームを生成し、生成した符号化ビットストリームを伝送路上に送出する(Step12)。また、動画像符号化回路103、量子化ステップ制御回路106、および量子化ステップ平均回路107は、現時点までに符号化した符号化対象画像の符号化処理の結果に基づいて、次の入力画像の符号化の困難さの程度を推定して、画像変換部110に通知する。
 ビットレート決定回路105は、伝送路上に送出される符号化ビットストリームのビットレートである符号化ビットレートを決定し、決定した符号化ビットレートを解像度範囲選択回路108に通知する(Step13)。
 解像度範囲選択回路108は、ビットレート決定ステップで決定された符号化ビットレートに応じて符号化対象画像の解像度の上限値を決定し、決定した解像度の上限値を画像変換部110に通知することにより、符号化対象画像の解像度が上限値を上回らないように、画像変換部110での処理を制御する(Step14)。
 図2は、図1の解像度変更回路101のブロック構成を示す図である。また、図3の(a)~(b)は、フレームメモリの画素位置に対応した書き込みアドレスと読み出しアドレスとを示した図である。
 解像度変更回路101は、図2に示されるように、水平方向LPF回路301と、垂直方向LPF回路302と、フレームメモリ303と、書き込み読み出し制御回路305とを備える。この解像度変更回路101は、動画入力端子300から動画信号S10を、解像度選択信号入力端子304から解像度選択信号S18をそれぞれ取得し、動画信号S10の解像度を変更した動画信号S11を動画出力端子306に出力する。
 水平方向LPF回路301は、動画信号S10に水平方向のローパスフィルタ処理を適用して動画信号S31を出力する。垂直方向LPF回路302は、動画信号S31に垂直方向のローパスフィルタ処理を適用して動画信号S32を出力する。フレームメモリ303は、動画信号S32を1フレーム分記憶する。書き込み読み出し制御回路305は、フレームメモリ303の書き込みおよび読み出しを制御する。
 水平方向LPF回路301および垂直方向LPF回路302は、入力画像の平均化処理を行うものであって、解像度選択信号入力端子304から入力した解像度選択信号S18に応じてローパス特性を切り換える。具体的には、解像度の縮小率が大きなとき(小さな解像度の画像に変更するとき)は低周波数成分のみを通過させるべくローパスフィルタの通過域の帯域は狭く、解像度の縮小率が小さいとき(中程度の解像度の画像に変更するとき)は低中周波数成分を通過させるべくローパスフィルタの通過域の帯域を広くする。なおローパスフィルタ処理は、縮小処理によるダウンサンプリングで発生する折り返しノイズを抑圧するための処理である。
 動画入力端子300から入力される動画信号S10には、解像度選択信号S18に応じて適正な通過域の水平方向および垂直方向のローパスフィルタ処理が施される。次に、ローパスフィルタ処理が施された動画信号S32は、書き込み読み出し制御回路305によって、フレームメモリ303の書き込みアドレス位置に順次書き込まれる。
 図3の(a)は、動画信号S10の一例である。画素はメモリ上に左から右に2次元上のアドレスに配置されており、水平方向に1行下のアドレスはHだけアドレスが増加する。書き込み読み出し制御回路305は、解像度選択信号入力端子304から取得した解像度選択信号S18の縮小率に応じて、縮小後の画像の書き込みアドレスおよび読み出しアドレスを制御する。図3の(b)は、図3の(a)の画像を、水平方向の縮小率=垂直方向の縮小率=1(以下、単に「縮小率」と表記する)で出力する場合の動画信号S10の該当画素の読み出しアドレスを示す図である。同様に、図3の(c)は縮小率=3/4で出力する場合の動画信号S10の該当画素の読み出しアドレスを、図3の(d)は縮小率=1/2で出力する場合の動画信号S10の該当画素の読み出しアドレスをそれぞれ示す図である。このように、動画信号S10にローパスフィルタ処理を行った画素の該当位置の画素のみを抽出してフレームメモリ303に書き出すことにより、縮小後の画像を生成する。次に、書き込み読み出し制御回路305は、抽出したアドレスをフレームメモリ303から順次読み出し、動画信号S11として動画出力端子306に出力する。
 図4は、図1のフレームレート変更回路102のブロック構成を示す図である。図5は、フレームレート変更回路102の動作を示すタイムチャートである。
 フレームレート変更回路102は、図4に示すように、解像度の変更された動画信号S11が入力される動画入力端子200と、フレームレート選択信号S19が入力されるフレームレート選択信号入力端子201と、取得した動画信号S11を記憶するフレームメモリ202と、フレームメモリ202の書き込みおよび読み出しを制御する書き込み読み出し制御回路203と、フレームレートを変更した動画信号S12を出力する動画出力端子204とを備える。
 動画入力端子200から入力される動画信号S11は、フレームメモリ202に書き込まれる。具体的には、書き込み読み出し制御回路203は、図5に示されるタイムチャート(最上段)の書き込みフレーム番号に示す様にフレームメモリ202を書き込み制御し、動画信号S11をフレームメモリに順次書き込む。
 次に、書き込み読み出し制御回路203は、フレームレート選択信号入力端子201から取得したフレームレート選択信号S19に応じて、図5に示すタイムチャート(2段目~5段目)の読み出しフレーム番号に示す様に、フレームメモリ202からフレームを間引いて間欠的に読み出し、動画信号S12として出力する。これによってフレームレートの変更を行うことができる。
 図6は、動画像符号化回路103の構成を示すブロック構成である。動画像符号化回路103は、図6に示すように、入力画像メモリ401と、差分演算回路402と、直交変換回路403と、量子化回路404と、可変長符号化回路405と、逆量子化回路408と、逆直交変換回路409と、加算演算回路410と、参照画像メモリ411と、動きベクトル検出回路412と、動き補償回路413と、面内予測回路414と、符号化モード選択制御回路415と、予測画像セレクター回路416とを備える。この動画像符号化回路103は、動画入力端子400から動画信号S12を、量子化ステップ入力端子407から量子化ステップ信号S16を、解像度変更発生信号入力端子417から解像度変更発生信号S20をそれぞれ取得し、ビットストリームS13をビットストリーム出力端子406に出力する。
 入力画像メモリ401は、入力した動画信号S12の画素順序を入れ替えてブロック単位の動画信号S41に変換する。差分演算回路402は、ブロック分割された動画信号S41と予測画像信号S48との差分を演算し、差分信号S42を出力する。
 直交変換回路403は、差分信号S42を直交変換し、係数信号S43を出力する。量子化回路404は、係数信号S43を量子化ステップ信号S16で量子化し、量子化値S44を出力する。可変長符号化回路405は、量子化値S44を可変長符号化する。
 逆量子化回路408は、量子化値S44を量子化ステップ信号S16で逆量子化し、逆量子化済み係数信号S46を出力する。逆直交変換回路409は、逆量子化済み係数信号S46を逆直交変換し、逆直交変換済み動画信号S47を出力する。加算演算回路410は、逆直交変換済み動画信号S47と予測画像信号S48とを加算し、参照画像データS49を生成する。参照画像メモリ411は、参照画像データS49を一時記憶する。
 動きベクトル検出回路412は、参照画像メモリ411から読み出した参照画像データS50とブロック分割された動画信号S41とを比較し、ブロック分割された動画信号S41の動きベクトルを検出し、動きベクトル信号S52を出力する。動き補償回路413は、動きベクトル信号S52に対応して参照画像メモリ411から参照画像データS50を読み出し、読み出した参照画像データS50を用いて動き補償を行い、生成した動き予測画像データS51を出力する。
 面内予測回路414は、参照画像メモリ411から読み出した符号化対象ブロック近傍の画像データと、ブロック分割された動画信号S41とを比較して面内予測を行い、面内予測画像データS53を生成する。
 符号化モード選択制御回路415は、ブロック分割された動画信号S41と、動き予測画像データS51と、面内予測画像データS53と、解像度変更発生信号S20とを取得し、これらに基づいてモード選択信号S54を出力する。解像度変更が発生していない場合、予測モードとして画面内予測および画面間予測のどちらが最適かを判定する。具体的な判定方法は特に限定されないが、例えば、ブロック分割された動画信号S41および動き予測画像データS51の差分絶対値和と、ブロック分割された動画信号S41および面内予測画像データS53の差分絶対値和とを比較する。そして、前者の値が小さい場合は画面間予測を選択し、後者の値が小さい場合は画面内予測を選択してもよい。一方、解像度変更が発生した、最初のフレームである場合は、必ず画面内予測を選択する。
 予測画像セレクター回路416は、モード選択信号S54に従って、面内予測画像データS53および動き予測画像データS51のいずれか一方を選択し、予測画像信号S48を出力する。
 これによれば、解像度の変更が発生していない場合は、入力した動画像信号のブロック毎に最適な予測モードが選択される。一方、解像度の変更が発生した、最初のフレームである場合は、画面内予測モードが選択される。そして、動画像符号化回路103は、ブロック分割された動画信号S41とその予測画像信号S48との差分信号S42を直交変換し、得られた係数信号S43を量子化ステップ入力端子407から入力した量子化ステップ信号S16で量子化し、得られた量子化値S44を可変長符号化してビットストリーム信号を出力する。発生符号量は、量子化ステップ信号S16の値が大きい程少なくなり、逆に量子化ステップ信号S16の値が小さい程多くなる。つまり、量子化ステップ信号S16を用いて、発生符号量が制御されるのである。
 図7は、量子化ステップ制御回路106の動作を示すフローチャートである。
 量子化ステップ制御回路106は、まず始めに、入力されたフレームが符号化する最初のフレームであるかを判定する(Step100)。ストリームの最初のフレームでない場合(Step100でNo)、量子化ステップ制御回路106は、Step103~Step106で決定した量子化ステップで当該フレームの符号化の終了を待つ(Step102)。なお、フレームの符号化は動画像符号化回路103で行われるため、量子化ステップ制御回路106では当該フレームの符号化が終了するのを待つだけの動作になる。
 また、符号化する最初のフレームである場合(Step100でYes)、量子化ステップ制御回路106は、累積差分符号量(TBD)を0にリセットし、事前に決められた初期量子化ステップを現フレームの量子化ステップとする(Step101)。そして、当該フレームの符号化が終了するのを待つ(Step102)。
 次に、量子化ステップ制御回路106は、当該フレームの符号化が終了した時点で、取得した目標ビットレート(TBR)とフレームレート(FR)とに基づいて、式1を用いて目標とする1フレーム当たりの平均符号量(AFB)を求める(Step103)。
  AFB=TBR/FR         (式1)
 次に、量子化ステップ制御回路106は、ビットストリームS13の符号量をカウントする。そして、量子化ステップ制御回路106は、その結果得られた1フレームの発生符号量(FBT)と1フレームの目標符号量(AFB)とに基づいて、式2を用いて累積差分符号量(TBD)を求める(Step104)。
  TBD+=FBT-AFB       (式2)
 次に、量子化ステップ制御回路106は、1フレーム当たりの平均符号量(AFB)と累積差分符号量(TBD)とに基づいて、式3を用いて次のフレームの目標符号量(TFB)を求める(Step105)。
  TFB=AFB-TBD         (式3)
 次に、量子化ステップ制御回路106は、現フレームの量子化ステップ(QS(n-1))と、1フレームの発生符号量(FBT)と、次のフレームの目標符号量(TFB)とに基づいて、式4を用いて次のフレームの量子化ステップ(QS(n))を求め、その値を出力する(Step106)。
  QS(n)=QS(n-1)×FBT/TFB     (式4)
 そして、量子化ステップ制御回路106は、全フレームの符号化が終了したか否かを判定する(Step107)。符号化すべきフレームが残っている場合(Step107でNo)、次フレームについて上記の処理(Step100~Step106)を実行する。一方、全てのフレームの符号化が終了した場合(Step107でYes)、当該処理を終了する。つまり、上記の処理は、全フレームの符号化が終了するまで繰り返し実行される。
 上記の処理により、1フレームの符号化が終了した時点で発生した符号量(FBT)と、平均符号量(AFB)との差を累積差分符号量(TBD)に加えた値は、現在のフレームの符号化が終了した時点での、発生符号の累積誤差である。そこで、量子化ステップ制御回路106は、次のフレームで累積差分符号量(TBD)が0になる様に、次のフレームの目標符号量(TFB)を求めている。
 目標符号量(TFB)と実際の発生符号量(FBT)とは一般に一致しないため、新たな誤差が発生するが、上記処理を繰り返すことで、発生符号量の平均値は目標とする1フレーム当たりの平均符号量と一致する様になる。つまり、上記処理で算出された量子化ステップを用いて符号化を行うことにより、目標ビットレート(TBR)で伝送可能な符号化ビットストリームを得ることができる。
 図8は、量子化ステップ平均回路107の動作を示すフローチャートである。なお、図8では、指数加重移動平均演算を用いて量子化ステップ平均値を算出する例を示している。
 量子化ステップ平均回路107は、まず始めに、入力されたフレームが符号化する最初のフレームであるかを判定する(Step200)。ストリームの最初のフレームでない場合(Step200でNo)、量子化ステップ平均回路107は、当該フレームの符号化が終了するのを待つ(Step202)。なお、フレームの符号化は動画像符号化回路103で行われるため、量子化ステップ平均回路107では当該フレームの符号化が終了するのを待つだけの動作になる。
 一方、符号化する最初のフレームである場合(Step200でYes)、量子化ステップ平均回路107は、量子化ステップ平均値を初期化し(Step201)、当該フレームの符号化が終了するのを待つ(Step202)。
 次に、量子化ステップ平均回路107は、符号化する最初のフレームから所定のフレーム数が経過したか(Step203)、および解像度の変更が発生してから所定のフレーム数が経過したかを判定する(Step204)。そして、2つの条件のどちらも成り立つ場合(Step203、Step204の両方でYes)、量子化ステップ平均回路107は、現フレームの量子化ステップ値(QS(n))と、前フレームの量子化ステップ平均値(QSema(n-1))と、重み係数Wとに基づいて、式5を用いて現フレームの量子化ステップ平均値(QSema(n))を求める(Step205)。
 QSema(n)=W×QSema(n-1)+(1-W)×QS(n) (式5)
 式5における重み係数Wは、式6を用いて算出される定数である。この重み係数Wは、量子化ステップ平均値の変動の程度を制御するものであり、重み係数Wが大きい程変動しにくく、小さい程変動しやすくなる。なお、重み係数Wは、設計時等に指定される固定値であってもよいし、状況に応じて変更可能な可変値であってもよい。
  W=m/256(m=0~255)            (式6)
 また、2つの条件のうち、どちらか一つでも成り立たない場合(Step203、Step204の一方でNo)は、量子化ステップ平均値(QSema)の演算は行わず、前回の量子化ステップ平均値(QSema)を保持する。
 そして、量子化ステップ平均回路107は、全フレームの符号化が終了したか否かを判定する(Step206)。符号化すべきフレームが残っている場合(Step206でNo)、次フレームについて上記の処理(Step200~Step205)を実行する。一方、全てのフレームの符号化が終了した場合(Step206でYes)、当該処理を終了する。つまり、上記の処理(Step200~Step205)は、全フレームの符号化が終了するまで繰り返し実行される。
 図9は、解像度範囲選択回路108の動作を説明する参照テーブルである。解像度範囲選択回路108は、図9に示されるように、ビットレートと、符号化対象画像の解像度の下限値および上限値とを対応付けて保持している。図9に示される例では、閾値Rth0以上(「高ビットレート」と表記する)の場合、閾値Rth1以上、かつ閾値Rth0未満(「中ビットレート」と表記する)の場合、および閾値Rth1未満(「低ビットレート」と表記する)の場合のそれぞれについて、符号化対象画像の解像度の下限値および上限値が設定されている。
 そして、解像度範囲選択回路108は、ビットレート決定回路105から取得した符号化ビットレート信号S14の値と、閾値Rth0および閾値Rth1とを比較する。そして、その結果に応じて、解像度範囲選択回路108は、符号化対象画像の解像度の上限値と下限値とからなる解像度選択範囲信号S15を出力する。
 図10は、解像度・フレームレート選択回路109の動作を示すフローチャートである。解像度・フレームレート選択回路109は、取得した量子化ステップ平均値信号S17と、解像度選択範囲信号S15とに基づいて、図10のフローに従って符号化対象画像の解像度とフレームレートとを決定するものである。
 解像度・フレームレート選択回路109は、まず、入力された符号化対象フレームが最初のフレームであるか否かを判定する(Step300)。符号化対象フレームが最初のフレームでない場合(Step300でNo)、解像度・フレームレート選択回路109は、現在設定されている解像度とフレームレートとで、当該フレームが符号化されるのを待つ(Step302)。なお、フレームの符号化は動画像符号化回路103で行われるため、解像度・フレームレート選択回路109では当該フレームの符号化が終了するのを待つだけの動作になる。
 一方、符号化対象フレームが最初のフレームである場合(Step300でYes)、解像度・フレームレート選択回路109は、状態IDに事前に決められた初期状態IDを設定する。さらに、初期状態IDが示す解像度を解像度選択信号S18として出力し、初期状態IDが示すフレームレートをフレームレート選択信号S19として出力する(Step301)。そして、解像度・フレームレート選択回路109は、その解像度とフレームレートとで当該フレームの符号化が終了するのを待つ(Step302)。
 フレームの符号化が終了した時点(Step302でYes)で、解像度・フレームレート選択回路109は、ストリームの最初から所定のフレーム数が経過したか(Step303)、また解像度の変更が発生してから所定のフレーム数、および/または、所定の時間が経過したかを判定する(Step304)。そして、この2つの条件のうちどちらか一つでも成り立たない場合(Step303、Step304の一方でNo)、解像度・フレームレート選択回路109は、現状の状態IDとそのIDの示す解像度およびフレームレートを変更せず保持する。一方、2つの条件のどちらも成り立つ場合(Step303、Step304の両方でYes)は、次のフレームの符号化で使用する解像度とフレームレートとを決定する。
 解像度・フレームレート選択回路109は、入力画像の符号化の困難さの程度に応じて、符号化対象画像の解像度およびフレームレートを決定する。実施の形態1における「符号化の困難さの程度」は、量子化ステップ平均値信号S17に基づいて判断される。すなわち、量子化ステップ平均値信号S17が大きいほど符号化が困難であり、小さいほど符号化が容易であると判断される。また、符号化対象画像の解像度は、解像度選択範囲信号S15に示される解像度の上限値および下限値の範囲内で選択される。具体的には、図11に示されるような状態遷移図に従って決定する。
 図11は、解像度およびフレームレートの組み合わせを一般化して示したものである。解像度およびフレームレートの組み合わせそれぞれには、状態ID(S11~S44)が割り当てられている。各状態IDは、現在の状態IDから他の状態IDへ遷移するための遷移条件を保持している。なお、現在の状態IDと他の状態IDとは、上下方向に接する場合(解像度の変更)、左右方向に接する場合(フレームレートの変更)のみならず、斜め方向に接する場合(解像度およびフレームレートの変更)をも含んでもよい。また、必ずしも隣接する場合でなくてもよい。ただし、多く場合、これらの組み合わせのうち限られた組み合わせのみが用いられ、実際には遷移しない状態への遷移条件は、常に「偽(False)」とされる。
 図10、図12、図13、および図14を参照して、状態遷移の具体例を説明する。
 図12は、状態遷移の一例を示す図である。解像度・フレームレート選択回路109には、常にいずれかの状態IDが設定されている。そして、現在の状態IDから他の状態IDへ遷移するための遷移条件としては、具体的には、量子化ステップ平均値信号S17の閾値を保持している。
 図13は、各状態IDにおける解像度、フレームレート、遷移条件1、2、および状態遷移先1、2を示す表である。なお、図13の例において、遷移条件1は量子化ステップ平均値信号S17の上限値(QpUth)を指し、遷移条件2は量子化ステップ平均値信号S17の下限値(QpLth)を指す。また、遷移条件1は解像度およびフレームレートのいずれか一方を小さくするための条件であり、遷移条件2は解像度およびフレームレートのいずれか一方を大きくするための条件である。なお、図12および図13の例では、現在の状態IDから上下方向(解像度)および左右方向(フレームレート)に隣接する他の状態IDにのみ遷移する。
 図14は、状態遷移の他の例を示す図である。図14の例では、図12および図13に示される遷移条件1、2に加えて、遷移条件3、4を満たした場合にも状態遷移が行われる。遷移条件3は遷移条件1の上限値(QpUth)より大きい第2の上限値(QpUth2)を指し、遷移条件4は遷移条件2の下限値(QpLth)より小さい第2の下限値(QpLth2)を指す。また、図12と図14とでは、同じ状態遷移であっても、遷移条件が異なる場合がある。
 まず、解像度・フレームレート選択回路109は、現在の状態IDに対応する遷移条件1、遷移条件2、状態遷移先1、および状態遷移先2を読み出す(Step305)。現在の状態IDをS11とすれば、図13の1行目が読み出される。
 次に、解像度・フレームレート選択回路109は、量子化ステップ平均値信号S17と遷移条件1とを比較する(Step306)。また、状態遷移先1の解像度が解像度選択範囲内に含まれるか否かを判定する(Step307)。
 量子化ステップ平均値>遷移条件1であり(Step306でYes)、かつ状態遷移先1の解像度が解像度選択範囲内に含まれる場合(Step307でYes)、解像度・フレームレート選択回路109は、状態遷移表を検索して状態遷移先1の状態IDが示す解像度の値を解像度選択信号S18として出力し、フレームレートの値をフレームレート選択信号S19として出力する(Step308)。また、状態IDを状態遷移先1の状態IDに変更する(Step309)。さらに、状態IDの変更によって解像度の変更がある場合(Step320でYes)には解像度変更発生信号S20を有効に設定し(Step322)、解像度の変更がない場合(Step320でNo)には解像度変更発生信号S20を無効に設定する(Step321)。
 ここで、図12および図13を参照して、図10のStep306~Step307の処理の具体例を説明する。なお、下記の説明における解像度選択範囲信号S15は、高ビットレートの場合の解像度選択範囲を示しているものとする。
 例えば、現在の状態IDがS11であった場合、遷移条件1が成立したときの状態遷移先1はS21である。ここで、S21の解像度は1280×720であり、高ビットレートの場合の解像度選択範囲内に含まれる(図9)。すなわち、S11からS21への状態の遷移が可能となる。
 一方、現在の状態IDがS21であった場合、遷移条件1が成立したときの状態遷移先1はS22である。これは、S21における解像度が、高ビットレートにおける解像度の下限値に一致しており、解像度を小さくする余地がないからである。そこで、解像度の変更を伴わないS21からS22へと、状態を遷移することになる。
 なお、上記の例では、遷移条件1が成立した場合の状態遷移先が予め定められていたが、これに限ることなく、他の方法を用いることもできる。例えば、解像度を減少させる方向(図12の下方向)に状態遷移しても解像度選択範囲の下限値を下回らない場合には、当該方向に状態遷移する。一方、下限値を下回る場合には、フレームレートを減少させる方向(図12の右方向)に状態遷移するようにしてもよい。
 さらに、図14を参照して、図10のStep306~Step307の処理の他の具体例を説明する。なお、下記の説明における解像度選択範囲信号S15は、高ビットレートの場合の解像度選択範囲を示しているものとする。
 例えば、現在の状態IDがS12であった場合、遷移条件1が成立したときの状態遷移先1はS21である。すなわち、図14の例では、解像度を小さくするのに合わせて、フレームレートを大きくしている点で、図12の例と異なる。これは、解像度を小さくすることによって圧縮が容易になるため、フレームレートを少し大きくしても解像度が高い直前の状態と比べて画質が劣化しないためである。
 また、現在の状態IDがS21であった場合、遷移条件1が成立したときの状態遷移先1はS22であり、図12の例と共通する。しかし、フレームレートをさらに小さくするためには(すなわち、S22からS23への遷移)、遷移条件1より量子化ステップ平均値に関して条件の厳しい遷移条件3を満たさなければならない点で、図12の例と異なる。これは、解像度を小さくする方がフレームレートを小さくするよりも画質劣化が目立たないので、小さい解像度であるS31に遷移しやすくするためである。
 すなわち、中ビットレートの場合は、遷移条件3よりも量子化ステップ平均値の条件が緩い遷移条件1に先に該当し、小さい解像度のS31に遷移する。一方、高ビットレートではS31の解像度が選択範囲外のため遷移条件1を満たさず、遷移条件3によってフレームレートが小さいS23に遷移する。
 一方、量子化ステップ平均値≦遷移条件1であった場合(Step306でNo)、解像度・フレームレート選択回路109は、量子化ステップ平均値信号S17と遷移条件2とを比較する(Step310)。また、状態遷移先2の解像度が解像度選択範囲内に含まれるか否かを判定する(Step311)。
 量子化ステップ平均値<遷移条件2であり(Step310でYes)、かつ状態遷移先2の解像度が解像度選択範囲内に含まれる場合(Step311でYes)、解像度・フレームレート選択回路109は、状態遷移表を検索して状態遷移先2の状態IDが示す解像度の値を解像度選択信号S18として出力し、フレームレートの値をフレームレート選択信号S19として出力する(Step312)。また、状態IDを状態遷移先2の状態IDに変更する(Step313)。さらに、状態IDの変更によって解像度の変更がある場合(Step320でYes)には解像度変更発生信号S20を有効に設定し(Step322)、解像度の変更がない場合(Step320でNo)は解像度変更発生信号を無効に設定する(Step321)。
 次に、図12および図13を参照して、図10のStep310~Step311の処理の具体例を説明する。なお、下記の説明における解像度選択範囲信号S15は、中ビットレートの場合の解像度選択範囲を示しているものとする。
 例えば、現在の状態IDがS32であった場合、遷移条件2が成立したときの状態遷移先2はS22である。ここで、S22の解像度は1280×720であり、中ビットレートの場合の解像度選択範囲内に含まれる(図9)。すなわち、S32からS22への状態遷移が可能となる。
 一方、現在の状態IDがS22であった場合、遷移条件2が成立したときの状態遷移先2はS21である。これは、S22における解像度が、中ビットレートにおける解像度の上限値に一致しており、解像度を大きくする余地がないからである。そこで、解像度の変更を伴わないS22からS21へと状態を遷移することになる。
 なお、上記の例では、遷移条件2が成立した場合の状態遷移先が予め定められていたが、これに限ることなく、他の方法を用いることもできる。例えば、解像度を増大させる方向(図12の上方向)に状態遷移しても解像度選択範囲の上限値を上回らない場合には、当該方向に状態遷移する。一方、上限値を上回る場合には、フレームレートを増大させる方向(図12の左方向)に状態遷移するようにしてもよい。
 さらに、図14を参照して、図10のStep310~Step311の処理の他の具体例を説明する。なお、下記の説明における解像度選択範囲信号S15は、中ビットレートの場合の解像度選択範囲を示しているものとする。
 例えば、現在の状態IDがS31であった場合、遷移条件2が成立したときの状態遷移先2はS22である。すなわち、図14の例では、解像度を大きくするのに合わせて、フレームレートを小さくしている点で、図12の例と異なる。これは、解像度を大きくすることによって圧縮が急激に困難になるため、フレームレートを小さくして圧縮を少し容易にすることで急激に画質が悪くなる可能性を緩和するためである。
 また、現在の状態IDがS22であった場合、遷移条件2が成立したときの状態遷移先1はS21であり、図12の例と共通する。しかし、解像度との関係でフレームレートが大きくなりすぎる場合(例えば、S42からS41への遷移)、遷移条件2より量子化ステップ平均値の条件の厳しい遷移条件4を満たさなければならない。解像度を大きくする方がフレームレートを大きくするよりも画質向上効果が顕著なため、大きい解像度であるS33に遷移しやすくするためである。
 すなわち、低ビットレートの場合は、遷移条件4よりも量子化ステップ平均値の条件が緩い遷移条件2に先に該当し、大きい解像度のS33に遷移する。一方、図示していないが超低ビットレートでS33の解像度が選択範囲外で遷移条件2を満たさない場合は、遷移条件4を満たすとフレームレートが大きいS41に遷移する。
 さらに、遷移条件1および遷移条件2のいずれもが成立しない場合(Step310でNo)、解像度・フレームレート選択回路109は、現状の状態IDが示す解像度の値を解像度選択信号S18として出力し、フレームレートの値をフレームレート選択信号S19として出力する。また、解像度の変更がないため、解像度変更発生信号S20を無効に設定する。
 そして、解像度・フレームレート選択回路109は、全フレームの符号化が終了したか否かを判定する(Step323)。符号化すべきフレームが残っている場合(Step323でNo)、次フレームについて上記の処理(Step300~Step322)を実行する。一方、全てのフレームの符号化が終了した場合(Step323でYes)、当該処理を終了する。つまり、上記のStep300~Step322までの処理は、全フレームの符号化が完了するまで繰り返し実行される。
 上記構成の動画像符号化装置10は、動画入力端子100に入力された動画信号S10のうちの最初のフレームを符号化する場合に、解像度・フレームレート選択回路109に予め設定されている初期状態IDが示す解像度を解像度選択信号S18として出力し、初期状態IDが示すフレームレートをフレームレート選択信号S19として出力する。
 解像度変更回路101は、取得した動画信号S10を解像度選択信号S18で指定された解像度に変更し、動画信号S11を出力する。フレームレート変更回路102は、動画信号S11をフレームレート選択信号S19で指定されたフレームレートに変更し、動画信号S12を出力する。また、量子化ステップ制御回路106は、符号化するフレームが最初のフレームである場合、初期量子化ステップ値を量子化ステップ信号S16として出力する。
 動画信号S12は、動画像符号化回路103で符号化されて、ビットストリームS13としてビットストリーム出力端子104に出力される。このとき、動画像符号化回路103は、符号化するフレームが最初のフレームである場合は、画面内予測モードを選択する。
 量子化ステップ制御回路106は、ストリームの最初のフレームの符号化を終了すると、当該フレームの発生符号量を知ることができる。そこで、量子化ステップ制御回路106は、符号化ビットレート信号S14に含まれる目標ビットレート情報と、フレームレート選択信号S19に含まれるフレームレート情報とから、次のフレームの量子化ステップ値を決定する。ここで、符号化ビットレート信号S14に含まれる目標ビットレート情報は、利用者または機器の管理者が通信開始時に設定したビットレート、若しくは動画像符号化装置10が符号化ビットストリームを実際に伝送路上に送出し、画像復号化装置から通知されたパケットロス率などから計算したネットワークで通信可能な最大ビットレートから求めた値であってもよい。
 次のフレームの量子化ステップ値は、量子化ステップ平均回路107に入力されるが、ストリームの最初から所定のフレーム数が経過するまでは、量子化ステップ平均値の演算と量子化ステップ平均値出力の更新を行わない。これは、ストリームの最初フレームは面内予測で符号化されるために、ストリームの最初以外で使用する、画面内予測と画面間予測とを適応的に用いた場合よりも発生符号量が大きくなる。そこで、量子化ステップ制御回路106が出力する量子化ステップ値が安定するまでに所定のフレーム数を処理する必要があるためである。
 また、同様の理由から、解像度・フレームレート選択回路109は、ストリームの最初から所定のフレーム数が経過するまでは、初期状態IDが示す解像度を解像度選択信号S18として出力し、初期状態IDが示すフレームレートをフレームレート選択信号S19として出力する。従って、最初から所定のフレーム数が経過するまでは、量子化ステップによる符号量調整のみが続行される。
 最初から所定のフレーム数が経過した後は、解像度・フレームレート選択回路109で、遷移条件1または遷移条件2と、量子化ステップ平均値信号S17に含まれる量子化ステップ平均値との比較を行うことにより、状態遷移が可能となる。
 具体的には、遷移条件1よりも量子化ステップ平均値が大きく、かつ遷移先の解像度が解像度選択範囲内の場合にフレームレートが下がるか、または解像度が下がる方向の状態遷移が発生する。一方、遷移条件2よりも量子化ステップ平均値が小さく、かつ遷移先の解像度が解像度選択範囲内の場合にはフレームレートが上がるか、または解像度が上がる方向の状態遷移が発生する。
 解像度選択範囲は、解像度範囲選択回路108で符号化ビットレート値に応じて解像度の上限値と下限値とを決定したものである。高ビットレートの場合は高解像度範囲を、低ビットレートの場合は低解像度範囲を指定するものである。
 このように、状態遷移に解像度範囲の条件を付けることによって、動画信号の圧縮の困難さが大きく変動した場合でも、高ビットレートでありながら一時的に低解像度まで解像度が下がることがない。同様に、低ビットレートでありながら一時的に高解像度まで解像度が上がることがない。その結果、安定した解像度変更動作が可能になる。
 次に、解像度・フレームレート選択回路109の状態遷移に基づき解像度が変わる場合は、解像度変更発生信号S20が有効となる。その結果、解像度が変換された最初の1フレームについて、動画像符号化回路103は、画面内予測モードを選択する。これは、解像度が変わることに基づいて、前フレームの参照が困難になることに起因する措置である。
 また、量子化ステップ平均回路107では、解像度の変更が発生してから所定のフレーム数、および/または、所定の時間が経過するまでは、量子化ステップ平均値の演算と量子化ステップ平均値出力の更新とを行わない。また、解像度・フレームレート選択回路109では、解像度の変更が発生してから所定のフレーム数、および/または、所定の時間が経過するまでは、状態遷移を禁止し、解像度変更が発生した直後の状態IDを保持する。つまり、解像度の変換が発生した直後の解像度とフレームレートとが保持され、量子化ステップによる符号量制御のみが続行される。
 これは、ストリームの最初と同様、解像度が変わった直後の1フレームが画面内予測で符号化されるために、画面内予測と画面間予測とを適応的に用いた場合よりも発生符号量が大きくなる。その結果、量子化ステップ制御回路106が出力する量子化ステップ値が不安定となり、安定するまでに所定のフレーム数の処理を必要があるためである。
 実施の形態1に係る動画像符号化装置10は、入力動画像の解像度を動的に変更する解像度変更回路101と、解像度変更回路101から出力される動画像のフレーム数を適応的に間引くフレームレート変更回路102と、フレームレート変更回路102から出力される動画像を符号化して要求される符号化ビットレートのビットストリームを生成する動画像符号化回路103とを備える。
 そして、動的な解像度変更処理は、符号化ビットレートに応じて複数の解像度の中から最大解像度と最小解像度を選択し、最大解像度から最小解像度までの、複数の解像度の中から解像度変更回路101の出力解像度を選択する。つまり、入力動画像の圧縮の困難さの程度、または目標とする符号化ビットレートが大きく変化したときに、符号化ビットレートに応じて解像度の最大解像度と最小解像度との制約の範囲内において、適正な解像度が選択される。
 その結果、PC画面の単純な映像の様に圧縮率が上がる場合に過大な解像度が選択されることがなく、一方でカメラがパン・チルトしたときの様に圧縮率が低下した場合に過小な解像度が選択されることがない。これにより、安定して適正範囲の解像度選択が実現でき、解像度が動的に安定して選択されることにより、違和感のない安定した画質を可能にする。
 (実施の形態2)
 また、本発明は、実施の形態1のように、動画像符号化装置10および動画像符号化方法として実現できるだけではなく、実施の形態1の動画像符号化方法をコンピュータに実行させるためのプログラムとして実現してもよい。
 図15A~図15Cは、上記実施の形態1の動画像符号化方法を格納したフレキシブルディスクFDを用いて、コンピュータシステムにより実施する場合の説明図である。
 図15Aは、記録媒体本体である磁気ディスクMDの物理フォーマットの例を示している。図15Bは磁気ディスクMDを保持するケースFの正面図、断面図、および磁気ディスクMDを示している。図15Cは、フレキシブルディスクFDに上記プログラムの記録再生を行うための構成を示している。
 フレキシブルディスクFDは、記録媒体本体である磁気ディスクMDと、磁気ディスクMDを保持するケースFとで構成される。磁気ディスクMDの表面には、同心円状に外周から内周に向かって複数のトラックTrが形成され、各トラックTrは角度方向に16のセクタSeに分割されている。従って、上記プログラムを格納したフレキシブルディスクFDは、磁気ディスクMD上に割り当てられた領域に、上記プログラムとしての動画像符号化方法が記録されている。
 また、上記プログラムをフレキシブルディスクFDに記録する場合は、コンピュータシステムCsから上記プログラムとしての動画像符号化方法をフレキシブルディスクドライブFDDを介して書き込む。また、フレキシブルディスクFD内のプログラムにより動画像符号化方法をコンピュータシステムCs中に構築する場合は、フレキシブルディスクドライブFDDによりプログラムをフレキシブルディスクFDから読み出し、コンピュータシステムCsに転送する。
 なお、上記説明では、記録媒体としてフレキシブルディスクFDを用いて説明を行ったが、光ディスクを用いても同様に行うことができる。また、記録媒体はこれに限らず、ICカード、ROMカセット等、プログラムを記録できるものであれば同様に実施することができる。
 また、本発明は、動画像符号化装置10を構成する構成要素の一部または全部を、1個のシステムLSI(Large Scale Integration)から構成してもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIである。
 また、各機能ブロックのうち、符号化の対象となるデータを格納する手段だけ1チップ化せずに別構成としてもよい。
(実施の形態3)
 上記実施の形態で示した画像符号化方法の構成を実現するためのプログラムを記憶メディアに記録することにより、上記実施の形態で示した処理を独立したコンピュータシステムにおいて簡単に実施することが可能となる。記憶メディアは、磁気ディスク、光ディスク、光磁気ディスク、ICカード、半導体メモリ等、プログラムを記録できるものであればよい。
 さらにここで、上記実施の形態で示した画像符号化方法の応用例とそれを用いたシステムを説明する。
 図16は、コンテンツ配信サービスを実現するコンテンツ供給システムex100の全体構成を示す図である。通信サービスの提供エリアを所望の大きさに分割し、各セル内にそれぞれ固定無線局である基地局ex106~ex110が設置されている。
 このコンテンツ供給システムex100は、インターネットex101にインターネットサービスプロバイダex102および電話網ex104、および、基地局ex106~ex110を介して、コンピュータex111、PDA(Personal Digital Assistant)ex112、カメラex113、携帯電話ex114、ゲーム機ex115などの各機器が接続される。
 しかし、コンテンツ供給システムex100は図16のような構成に限定されず、いずれかの要素を組み合わせて接続するようにしてもよい。また、固定無線局である基地局ex106~ex110を介さずに、各機器が電話網ex104に直接接続されてもよい。また、各機器が近距離無線等を介して直接相互に接続されていてもよい。
 カメラex113はデジタルビデオカメラ等の動画撮影が可能な機器であり、カメラex116はデジタルカメラ等の静止画撮影、動画撮影が可能な機器である。また、携帯電話ex114は、GSM(Global System for Mobile Communications)方式、CDMA(Code Division Multiple Access)方式、W-CDMA(Wideband-Code Division Multiple Access)方式、もしくはLTE(Long Term Evolution)方式、HSPA(High Speed Packet Access)の携帯電話、または、PHS(Personal Handyphone System)等であり、いずれでも構わない。
 コンテンツ供給システムex100では、カメラex113等が基地局ex109、電話網ex104を通じてストリーミングサーバex103に接続されることで、ライブ配信等が可能になる。ライブ配信では、ユーザがカメラex113を用いて撮影するコンテンツ(例えば、音楽ライブの映像等)に対して上記実施の形態で説明したように符号化処理を行い、ストリーミングサーバex103に送信する。一方、ストリーミングサーバex103は要求のあったクライアントに対して送信されたコンテンツデータをストリーム配信する。クライアントとしては、上記符号化処理されたデータを復号することが可能な、コンピュータex111、PDAex112、カメラex113、携帯電話ex114、ゲーム機ex115等がある。配信されたデータを受信した各機器では、受信したデータを復号処理して再生する。
 なお、撮影したデータの符号化処理はカメラex113で行っても、データの送信処理をするストリーミングサーバex103で行ってもよいし、互いに分担して行ってもよい。同様に配信されたデータの復号処理はクライアントで行っても、ストリーミングサーバex103で行ってもよいし、互いに分担して行ってもよい。また、カメラex113に限らず、カメラex116で撮影した静止画像および/または動画像データを、コンピュータex111を介してストリーミングサーバex103に送信してもよい。この場合の符号化処理はカメラex116、コンピュータex111、ストリーミングサーバex103のいずれで行ってもよいし、互いに分担して行ってもよい。
 また、これら符号化処理および復号処理は、一般的にコンピュータex111および各機器が有するLSI(Large Scale Integration)ex500において処理する。LSIex500は、ワンチップであっても複数チップからなる構成であってもよい。なお、画像符号化用および画像復号用のソフトウェアをコンピュータex111等で読み取り可能な何らかの記録メディア(CD-ROM、フレキシブルディスク、ハードディスクなど)に組み込み、そのソフトウェアを用いて符号化処理および復号処理を行ってもよい。さらに、携帯電話ex114がカメラ付きである場合には、そのカメラで取得した動画像データを送信してもよい。このときの動画像データは携帯電話ex114が有するLSIex500で符号化処理されたデータである。
 また、ストリーミングサーバex103は複数のサーバまたは複数のコンピュータであって、データを分散して処理したり記録したり配信するものであってもよい。
 以上のようにして、コンテンツ供給システムex100では、符号化されたデータをクライアントが受信して再生することができる。このようにコンテンツ供給システムex100では、ユーザが送信した情報をリアルタイムでクライアントが受信して復号し、再生することができ、特別な権利または設備を有さないユーザでも個人放送を実現できる。
 このコンテンツ供給システムを構成する各機器の符号化には上記実施の形態で示した画像符号化方法を用いるようにすればよい。
 その一例として携帯電話ex114について説明する。
 図17は、上記実施の形態で説明した画像符号化方法を用いた携帯電話ex114を示す図である。携帯電話ex114は、基地局ex110との間で電波を送受信するためのアンテナex601、CCDカメラ等の映像、静止画像を撮ることが可能なカメラ部ex603、カメラ部ex603で撮影した映像、アンテナex601で受信した映像等が復号されたデータを表示する液晶ディスプレイ等の表示部ex602、操作キーex604群から構成される本体部、音声出力をするためのスピーカ等の音声出力部ex608、音声入力をするためのマイク等の音声入力部ex605、撮影した動画像もしくは静止画像のデータ、受信したメールのデータ、動画像のデータもしくは静止画像のデータ等、符号化されたデータまたは復号されたデータを保存するための記録メディアex607、携帯電話ex114に記録メディアex607を装着可能とするためのスロット部ex606を有している。記録メディアex607はSDカード等のプラスチックケース内に電気的に書き換えおよび消去が可能な不揮発性メモリであるEEPROMの一種であるフラッシュメモリ素子を格納したものである。
 さらに、携帯電話ex114について図18を用いて説明する。携帯電話ex114は表示部ex602および操作キーex604を備えた本体部の各部を統括的に制御するようになされた主制御部ex711に対して、電源回路部ex710、操作入力制御部ex704、画像符号化部ex712、カメラインターフェース部ex703、LCD(Liquid Crystal Display)制御部ex702、画像復号部ex709、多重分離部ex708、記録再生部ex707、変復調回路部ex706および音声処理部ex705が同期バスex713を介して互いに接続されている。
 電源回路部ex710は、ユーザの操作により終話および電源キーがオン状態にされると、バッテリパックから各部に対して電力を供給することによりカメラ付デジタル携帯電話ex114を動作可能な状態に起動する。
 携帯電話ex114は、CPU、ROMおよびRAM等でなる主制御部ex711の制御に基づいて、音声通話モード時に音声入力部ex605で集音した音声信号を音声処理部ex705によってデジタル音声データに変換し、これを変復調回路部ex706でスペクトラム拡散処理し、送受信回路部ex701でデジタルアナログ変換処理および周波数変換処理を施した後にアンテナex601を介して送信する。また携帯電話ex114は、音声通話モード時にアンテナex601で受信した受信データを増幅して周波数変換処理およびアナログデジタル変換処理を施し、変復調回路部ex706でスペクトラム逆拡散処理し、音声処理部ex705によってアナログ音声データに変換した後、音声出力部ex608を介してこれを出力する。
 さらに、データ通信モード時に電子メールを送信する場合、本体部の操作キーex604の操作によって入力された電子メールのテキストデータは操作入力制御部ex704を介して主制御部ex711に送出される。主制御部ex711は、テキストデータを変復調回路部ex706でスペクトラム拡散処理し、送受信回路部ex701でデジタルアナログ変換処理および周波数変換処理を施した後にアンテナex601を介して基地局ex110へ送信する。
 データ通信モード時に画像データを送信する場合、カメラ部ex603で撮像された画像データを、カメラインターフェース部ex703を介して画像符号化部ex712に供給する。また、画像データを送信しない場合には、カメラ部ex603で撮像した画像データをカメラインターフェース部ex703およびLCD制御部ex702を介して表示部ex602に直接表示することも可能である。
 画像符号化部ex712は、本願発明で説明した画像符号化装置を備えた構成であり、カメラ部ex603から供給された画像データを上記実施の形態で示した画像符号化装置に用いた符号化方法によって圧縮符号化することにより符号化画像データに変換し、これを多重分離部ex708に送出する。また、このとき同時に携帯電話ex114は、カメラ部ex603で撮像中に音声入力部ex605で集音した音声を、音声処理部ex705を介してデジタルの音声データとして多重分離部ex708に送出する。
 多重分離部ex708は、画像符号化部ex712から供給された符号化画像データと音声処理部ex705から供給された音声データとを所定の方式で多重化し、その結果得られる多重化データを変復調回路部ex706でスペクトラム拡散処理し、送受信回路部ex701でデジタルアナログ変換処理および周波数変換処理を施した後にアンテナex601を介して送信する。
 データ通信モード時にホームページ等にリンクされた動画像ファイルのデータを受信する場合、アンテナex601を介して基地局ex110から受信した受信データを変復調回路部ex706でスペクトラム逆拡散処理し、その結果得られる多重化データを多重分離部ex708に送出する。
 また、アンテナex601を介して受信された多重化データを復号するには、多重分離部ex708は、多重化データを分離することにより画像データのビットストリームと音声データのビットストリームとに分け、同期バスex713を介して当該符号化画像データを画像復号部ex709に供給すると共に当該音声データを音声処理部ex705に供給する。
 次に、画像復号部ex709は、画像復号装置を備えた構成であり、画像データのビットストリームを上記実施の形態で示した符号化方法に対応した復号方法で復号することにより再生動画像データを生成し、これを、LCD制御部ex702を介して表示部ex602に供給し、これにより、例えばホームページにリンクされた動画像ファイルに含まれる動画像データが表示される。このとき同時に音声処理部ex705は、音声データをアナログ音声データに変換した後、これを音声出力部ex608に供給し、これにより、例えばホームページにリンクされた動画像ファイルに含まれる音声データが再生される。
 なお、上記システムの例に限られず、最近は衛星、地上波によるデジタル放送が話題となっており、図19に示すようにデジタル放送用システムにも上記実施の形態の少なくとも画像符号化装置を組み込むことができる。具体的には、放送局ex201では音声データ、映像データまたはそれらのデータが多重化されたビットストリームが電波を介して通信または放送衛星ex202に伝送される。これを受けた放送衛星ex202は、放送用の電波を発信し、衛星放送受信設備を持つ家庭のアンテナex204はこの電波を受信し、テレビ(受信機)ex300またはセットトップボックス(STB)ex217などの装置はビットストリームを復号してこれを再生する。また、記録媒体であるCDおよびDVD等の記録メディアex215、ex216に記録した画像データと、音声データが多重化されたビットストリームを読み取り、復号するリーダ/レコーダex218にも画像復号装置を実装することが可能である。この場合、再生された映像信号はモニタex219に表示される。また、ケーブルテレビ用のケーブルex203または衛星/地上波放送のアンテナex204に接続されたセットトップボックスex217内に画像復号装置を実装し、これをテレビのモニタex219で再生する構成も考えられる。このときセットトップボックスではなく、テレビ内に画像復号装置を組み込んでもよい。また、アンテナex205を有する車ex210で、衛星ex202または基地局等から信号を受信し、車ex210が有するカーナビゲーションex211等の表示装置に動画像を再生することも可能である。
 また、DVD、BD等の記録メディアex215に記録した音声データ、映像データまたはそれらのデータが多重化された符号化ビットストリームを読み取り復号する、または、記録メディアex215に、音声データ、映像データまたはそれらのデータを符号化し、多重化データとして記録するリーダ/レコーダex218にも上記実施の形態で示した画像符号化装置を実装することが可能である。この場合、再生された映像信号はモニタex219に表示される。また、符号化ビットストリームが記録された記録メディアex215により、他の装置およびシステム等は、映像信号を再生することができる。例えば、他の再生装置ex212は、符号化ビットストリームがコピーされた記録メディアex214を用いて、モニタex213に映像信号を再生することができる。
 また、ケーブルテレビ用のケーブルex203または衛星/地上波放送のアンテナex204に接続されたセットトップボックスex217内に画像復号装置を実装し、これをテレビのモニタex219で表示してもよい。このときセットトップボックスではなく、テレビ内に画像復号装置を組み込んでもよい。
 図20は、上記実施の形態で説明した画像符号化方法を用いたテレビ(受信機)ex300を示す図である。テレビex300は、上記放送を受信するアンテナex204またはケーブルex203等を介して映像情報のビットストリームを取得、または、出力するチューナex301と、受信した符号化データを復調する、または、生成された符号化データを外部に送信するために変調する変調/復調部ex302と、復調した映像データと音声データとを分離する、または、符号化された映像データと音声データとを多重化する多重/分離部ex303を備える。また、テレビex300は、音声データ、映像データそれぞれを復号する、または、それぞれの情報を符号化する音声信号処理部ex304、映像信号処理部ex305を有する信号処理部ex306と、復号された音声信号を出力するスピーカex307、復号された映像信号を表示するディスプレイ等の表示部ex308を有する出力部ex309とを有する。さらに、テレビex300は、ユーザ操作の入力を受け付ける操作入力部ex312等を有するインターフェース部ex317を有する。さらに、テレビex300は、各部を統括的に制御する制御部ex310、各部に電力を供給する電源回路部ex311を有する。インターフェース部ex317は、操作入力部ex312以外に、リーダ/レコーダex218等の外部機器と接続されるブリッジex313、SDカード等の記録メディアex216を装着可能とするためのスロット部ex314、ハードディスク等の外部記録メディアと接続するためのドライバex315、電話網と接続するモデムex316等を有していてもよい。なお記録メディアex216は、格納する不揮発性/揮発性の半導体メモリ素子により電気的に情報の記録を可能としたものである。テレビex300の各部は同期バスを介して互いに接続されている。
 まず、テレビex300がアンテナex204等により外部から取得したデータを復号し、再生する構成について説明する。テレビex300は、リモートコントローラex220等からのユーザ操作を受け、CPU等を有する制御部ex310の制御に基づいて、変調/復調部ex302で復調した映像データ、音声データを多重/分離部ex303で分離する。さらにテレビex300は、分離した音声データを音声信号処理部ex304で復号し、分離した映像データを映像信号処理部ex305で上記実施の形態で説明した復号方法を用いて復号する。復号した音声信号、映像信号は、それぞれ出力部ex309から外部に向けて出力される。出力する際には、音声信号と映像信号が同期して再生するよう、バッファex318、ex319等に一旦これらの信号を蓄積するとよい。また、テレビex300は、放送等からではなく、磁気/光ディスク、SDカード等の記録メディアex215、ex216から符号化された符号化ビットストリームを読み出してもよい。次に、テレビex300が音声信号および映像信号を符号化し、外部に送信または記録メディア等に書き込む構成について説明する。テレビex300は、リモートコントローラex220等からのユーザ操作を受け、制御部ex310の制御に基づいて、音声信号処理部ex304で音声信号を符号化し、映像信号処理部ex305で映像信号を上記実施の形態で説明した符号化方法を用いて符号化する。符号化した音声信号、映像信号は多重/分離部ex303で多重化され外部に出力される。多重化する際には、音声信号と映像信号が同期するように、バッファex320、ex321等に一旦これらの信号を蓄積するとよい。なお、バッファex318~ex321は図示しているように複数備えていてもよいし、一つ以上のバッファを共有する構成であってもよい。さらに、図示している以外に、例えば変調/復調部ex302と多重/分離部ex303との間等でもシステムのオーバフローおよびアンダーフローを避ける緩衝材としてバッファにデータを蓄積することとしてもよい。
 また、テレビex300は、放送および記録メディア等から音声データおよび映像データを取得する以外に、マイクおよびカメラのAV入力を受け付ける構成を備え、それらから取得したデータに対して符号化処理を行ってもよい。なお、ここではテレビex300は、上記の符号化処理、多重化、および、外部出力ができる構成として説明したが、これらの全ての処理を行うことはできず、上記受信、復号処理、および、外部出力のうちいずれかのみが可能な構成であってもよい。
 また、リーダ/レコーダex218で記録メディアから符号化ビットストリームを読み出す、または、書き込む場合には、上記符号化処理はテレビex300およびリーダ/レコーダex218のうちいずれかで行ってもよいし、テレビex300とリーダ/レコーダex218とが互いに分担して行ってもよい。
 一例として、光ディスクからデータの読み込みまたは書き込みをする場合の情報再生/記録部ex400の構成を図21に示す。情報再生/記録部ex400は、以下に説明する要素ex401~ex407を備える。光ヘッドex401は、光ディスクである記録メディアex215の記録面にレーザスポットを照射して情報を書き込み、記録メディアex215の記録面からの反射光を検出して情報を読み込む。変調記録部ex402は、光ヘッドex401に内蔵された半導体レーザを電気的に駆動し記録データに応じてレーザ光の変調を行う。再生復調部ex403は、光ヘッドex401に内蔵されたフォトディテクタにより記録面からの反射光を電気的に検出した再生信号を増幅し、記録メディアex215に記録された信号成分を分離して復調し、必要な情報を再生する。バッファex404は、記録メディアex215に記録するための情報および記録メディアex215から再生した情報を一時的に保持する。ディスクモータex405は記録メディアex215を回転させる。サーボ制御部ex406は、ディスクモータex405の回転駆動を制御しながら光ヘッドex401を所定の情報トラックに移動させ、レーザスポットの追従処理を行う。システム制御部ex407は、情報再生/記録部ex400全体の制御を行う。上記の読み出しおよび書き込みの処理は、システム制御部ex407が、バッファex404に保持された各種情報を利用し、また必要に応じて新たな情報の生成および追加を行うと共に、変調記録部ex402、再生復調部ex403およびサーボ制御部ex406を協調動作させながら、光ヘッドex401を通して、情報の記録再生を行うことにより実現される。システム制御部ex407は、例えばマイクロプロセッサで構成され、読み出し書き込みのプログラムを実行することでそれらの処理を実行する。
 以上では、光ヘッドex401はレーザスポットを照射するとして説明したが、近接場光を用いてより高密度な記録を行う構成であってもよい。
 図22に光ディスクである記録メディアex215の模式図を示す。記録メディアex215の記録面には案内溝(グルーブ)がスパイラル状に形成され、情報トラックex230には、予めグルーブの形状の変化によってディスク上の絶対位置を示す番地情報が記録されている。この番地情報はデータを記録する単位である記録ブロックex231の位置を特定するための情報を含み、記録および再生を行う装置は、情報トラックex230を再生し番地情報を読み取ることで記録ブロックを特定することができる。また、記録メディアex215は、データ記録領域ex233、内周領域ex232、外周領域ex234を含んでいる。ユーザデータを記録するために用いる領域がデータ記録領域ex233であり、データ記録領域ex233の内周または外周に配置されている内周領域ex232と外周領域ex234は、ユーザデータの記録以外の特定用途に用いられる。情報再生/記録部ex400は、このような記録メディアex215のデータ記録領域ex233に対して、符号化された音声データ、映像データまたはそれらのデータを多重化した符号化データの読み書きを行う。
 以上では、1層のDVD、BD等の光ディスクを例に挙げ説明したが、これらに限ったものではなく、多層構造であって表面以外にも記録可能な光ディスクであってもよい。また、ディスクの同じ場所にさまざまな異なる波長の色の光を用いて情報を記録したり、さまざまな角度から異なる情報の層を記録したりするなど、多次元的な記録/再生を行う構造の光ディスクであってもよい。
 また、デジタル放送用システムex200において、アンテナex205を有する車ex210で衛星ex202等からデータを受信し、車ex210が有するカーナビゲーションex211等の表示装置に動画像を再生することも可能である。なお、カーナビゲーションex211の構成は例えば図20に示す構成のうち、GPS受信部を加えた構成が考えられ、同様なことがコンピュータex111および携帯電話ex114等でも考えられる。また、上記携帯電話ex114等の端末は、テレビex300と同様に、符号化器および復号器を両方持つ送受信型端末の他に、符号化器のみの送信端末、復号器のみの受信端末という3通りの実装形式が考えられる。
 このように、上記実施の形態で示した画像符号化方法を上述したいずれの機器およびシステムに用いることは可能であり、そうすることで、上記実施の形態で説明した効果を得ることができる。
 また、本発明は、上記実施の形態に限定されるものではなく、本発明の範囲を逸脱することなく種々の変形または修正が可能である。
 (実施の形態4)
 上記各実施の形態で示した画像符号化方法および装置は、典型的には集積回路であるLSIで実現される。一例として、図23に1チップ化されたLSIex500の構成を示す。LSIex500は、以下に説明する要素ex501~ex509を備え、各要素はバスex510を介して接続している。電源回路部ex505は電源がオン状態の場合に各部に対して電力を供給することで動作可能な状態に起動する。
 例えば符号化処理を行う場合には、LSIex500は、CPUex502、メモリコントローラex503およびストリームコントローラex504等を有する制御部ex501の制御に基づいて、AV I/Oex509によりマイクex117およびカメラex113等からAV信号の入力を受け付ける。入力されたAV信号は、一旦SDRAM等の外部のメモリex511に蓄積される。制御部ex501の制御に基づいて、蓄積したデータは、処理量および処理速度に応じて適宜複数回に分けるなどされ、信号処理部ex507に送られる。信号処理部ex507は、音声信号の符号化および/または映像信号の符号化を行う。ここで映像信号の符号化処理は、上記実施の形態で説明した符号化処理である。信号処理部ex507ではさらに、場合により符号化された音声データと符号化された映像データを多重化するなどの処理を行い、ストリームI/Oex506から外部に出力する。この出力されたビットストリームは、基地局ex107に向けて送信されたり、または、記録メディアex215に書き込まれたりする。なお、多重化する際には同期するよう、一旦バッファex508にデータを蓄積するとよい。
 また、例えば復号処理を行う場合には、LSIex500は、制御部ex501の制御に基づいて、ストリームI/Oex506によって基地局ex107を介して得た符号化データ、または、記録メディアex215から読み出して得た符号化データを一旦メモリex511等に蓄積する。制御部ex501の制御に基づいて、蓄積したデータは、処理量および処理速度に応じて適宜複数回に分けるなどされ信号処理部ex507に送られる。信号処理部ex507は、音声データの復号および/または映像データの復号を行う。さらに、場合により復号された音声信号と復号された映像信号を同期して再生できるようそれぞれの信号を一旦バッファex508等に蓄積するとよい。復号された出力信号は、メモリex511等を適宜介しながら、携帯電話ex114、ゲーム機ex115およびテレビex300等の各出力部から出力される。
 なお、上記では、メモリex511がLSIex500の外部の構成として説明したが、LSIex500の内部に含まれる構成であってもよい。バッファex508も一つに限ったものではなく、複数のバッファを備えていてもよい。また、LSIex500は1チップ化されてもよいし、複数チップ化されてもよい。
 なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
 また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA、または、LSI内部の回路セルの接続および設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
 さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。
 以上、本発明の画像符号化方法および画像符号化装置について、実施の形態1~4に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものあるいは、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の範囲内に含まれる。
 なお、実施の形態1の解像度範囲選択回路108で、最大解像度と最小解像度を設定するものとしたが、非常に圧縮が困難で非常に小さな解像度になる可能性のある画像を入力しないのであれば、最大解像度のみを設定してもよい。
 また、ビットレート決定回路105で導出したビットレートに応じて解像度範囲選択回路108で最大解像度と最小解像度を設定するものとしたが、これに限ることなく、ユーザが明示的にビットレートを設定し、ユーザが設定したビットレートに応じて解像度範囲選択回路108で最大解像度と最小解像度とを設定してもよい。
 この発明は、動画像を符号化して伝送路上に送出する動画像符号化装置および動画像符号化方法に有利に利用される。
 10                    動画像符号化装置
 20                    画像変換部
 30                    動画像符号化部
 40                    ビットレート決定部
 50                    解像度範囲選択部
 100,200,300,400,500   動画入力端子
 101,501               解像度変更回路
 102,502               フレームレート変更回路
 103,503               動画像符号化回路
 104,406,504          ビットストリーム出力端子
 105                   ビットレート決定回路
 106,506               量子化ステップ制御回路
 107                   量子化ステップ平均回路
 108                   解像度範囲選択回路
 109               解像度・フレームレート選択回路
 110                   画像変換部
 201               フレームレート選択信号入力端子
 202,303               フレームメモリ
 203,305              書き込み読み出し制御回路
 204,306               動画出力端子
 301                   水平方向LPF回路
 302                   垂直方向LPF回路
 304                   解像度選択信号入力端子
 401                   入力画像メモリ
 402                   差分演算回路
 403                   直交変換回路
 404                   量子化回路
 405                   可変長符号化回路
 407                   量子化ステップ入力端子
 408                   逆量子化回路
 409                   逆直交変換回路
 410                   加算演算回路
 411                   参照画像メモリ
 412                   動きベクトル検出回路
 413                   動き補償回路
 414                   面内予測回路
 415                  符号化モード選択制御回路
 416                   予測画像セレクター回路
 417                 解像度変更発生信号入力端子
 507                   フレームレート制御回路
 508                   解像度設定回路
 ex100 コンテンツ供給システム
 ex101 インターネット
 ex102 インターネットサービスプロバイダ
 ex103 ストリーミングサーバ
 ex104 電話網
 ex106,ex107,ex108,ex109,ex110 基地局
 ex111 コンピュータ
 ex112 PDA
 ex113,ex116 カメラ
 ex114 カメラ付デジタル携帯電話(携帯電話)
 ex115 ゲーム機
 ex117 マイク
 ex200 デジタル放送用システム
 ex201 放送局
 ex202 放送衛星(衛星)
 ex203 ケーブル
 ex204,ex205,ex601 アンテナ
 ex210 車
 ex211 カーナビゲーション(カーナビ)
 ex212 再生装置
 ex213,ex219 モニタ
 ex214,ex215,ex216,ex607 記録メディア
 ex217 セットトップボックス(STB)
 ex218 リーダ/レコーダ
 ex220 リモートコントローラ
 ex230 情報トラック
 ex231 記録ブロック
 ex232 内周領域
 ex233 データ記録領域
 ex234 外周領域
 ex300 テレビ
 ex301 チューナ
 ex302 変調/復調部
 ex303 多重/分離部
 ex304 音声信号処理部
 ex305 映像信号処理部
 ex306,ex507 信号処理部
 ex307 スピーカ
 ex308,ex602 表示部
 ex309 出力部
 ex310,ex501 制御部
 ex311,ex505,ex710 電源回路部
 ex312 操作入力部
 x313 ブリッジ
 ex314,ex606 スロット部
 ex315 ドライバ
 ex316 モデム
 ex317 インターフェース部
 ex318,ex319,ex320,ex321,ex404,ex508 バッファ
 ex400 情報再生/記録部
 ex401 光ヘッド
 ex402 変調記録部
 ex403 再生復調部
 ex405 ディスクモータ
 ex406 サーボ制御部
 ex407 システム制御部
 ex500 LSI
 ex502 CPU
 ex503 メモリコントローラ
 ex504 ストリームコントローラ
 ex506 ストリームI/O
 ex509 AV I/O
 ex510 バス
 ex603 カメラ部
 ex604 操作キー
 ex605 音声入力部
 ex608 音声出力部
 ex701 送受信回路部
 ex702 LCD制御部
 ex703 カメラインターフェース部(カメラI/F部)
 ex704 操作入力制御部
 ex705 音声処理部
 ex706 変復調回路部
 ex707 記録再生部
 ex708 多重分離部
 ex709 画像復号部
 ex711 主制御部
 ex712 画像符号化部
 ex713 同期バス

Claims (11)

  1.  入力画像を符号化して符号化ビットストリームを生成し、当該符号化ビットストリームを伝送路上に送出する動画像符号化方法であって、
     前記入力画像の符号化の困難さの程度に応じて、前記入力画像の解像度およびフレームレートの少なくとも一方を変更して符号化対象画像を出力する画像変換ステップと、
     前記画像変換ステップで出力される前記符号化対象画像を符号化して前記符号化ビットストリームを生成し、当該符号化ビットストリームを前記伝送路上に送出する動画像符号化ステップと、
     前記伝送路上に送出される前記符号化ビットストリームのビットレートである符号化ビットレートを決定するビットレート決定ステップと、
     前記ビットレート決定ステップで決定された前記符号化ビットレートに応じて前記符号化対象画像の解像度の上限値を決定し、前記符号化対象画像の解像度が前記上限値を上回らないように前記画像変換ステップでの変更を制御する解像度範囲選択ステップとを含む
     動画像符号化方法。
  2.  前記解像度範囲選択ステップは、さらに、前記ビットレート決定ステップで決定された前記符号化ビットレートに応じて、前記符号化対象画像の解像度の下限値を決定し、前記符号化対象画像の解像度が前記下限値を下回らないように前記画像変換ステップでの変更を制御する
     請求項1に記載の動画像符号化方法。
  3.  前記解像度変換ステップでは、前記符号化対象画像の解像度を変更した後、所定の時間が経過するまで、および所定数の前記入力画像を処理するまでの少なくとも一方の条件を満たすまで、前記符号化対象画像の解像度を変更しない
     請求項1または2に記載の動画像符号化方法。
  4.  前記符号化ビットレートは、送信機器と受信機器との間で実際に送受信できた符号化ビットストリーム量を計測して得られる前記伝送路の伝送可能ビットレートに基づいて決定される
     請求項2または3に記載の動画像符号化方法。
  5.  該動画像符号化方法は、さらに、
     前記符号化ビットストリームが、前記ビットレート決定ステップで決定された前記符号化ビットレートで伝送可能な符号量となるような量子化ステップを算出し、算出した前記量子化ステップで前記動画像符号化ステップに前記符号化対象画像を量子化させる量子化ステップ算出ステップと、
     所定の時間内に前記量子化ステップ算出ステップで算出された前記量子化ステップの平均値である量子化ステップ平均値を算出する平均値算出ステップとを含み、
     前記画像変換ステップは、
     前記平均値算出ステップで算出された前記量子化ステップ平均値に基づいて前記入力画像の符号化の困難さの程度を判断し、前記符号化対象画像の解像度およびフレームレートを決定する画質決定ステップと、
     前記入力画像を前記画質決定ステップで決定された解像度に変更する解像度変更ステップと、
     前記入力画像を前記画質決定ステップで決定されたフレームレートに変更するフレームレート変更ステップとを含む
     請求項2~4のいずれか1項に記載の動画像符号化方法。
  6.  前記画質決定ステップは、直前に決定された解像度より小さい第1の解像度および大きい第2の解像度の少なくとも一方を予め保持し、
     前記平均値算出ステップで算出された前記量子化ステップ平均値が予め定めた第1の閾値より大きく、かつ保持している前記第1の解像度が前記下限値以上である場合に、前記解像度変更ステップに前記入力画像の解像度を前記第1の解像度に変更させ、
     前記平均値算出ステップで算出された前記量子化ステップ平均値が予め定めた第2の閾値より小さく、かつ保持している前記第2の解像度が前記上限値以下である場合に、前記解像度変更ステップに前記入力画像の解像度を前記第2の解像度に変更させる
     請求項5に記載の動画像符号化方法。
  7.  前記画質決定ステップは、さらに、直前に決定されたフレームレートより小さい第1のフレームレートおよび大きい第2のフレームレートの少なくとも一方を予め保持し、
     前記解像度変更ステップで前記入力画像の解像度が前記第1の解像度に変更された場合に、前記フレームレート変更ステップに前記入力画像のフレームレートを前記第2のフレームレートに変更させ、
     前記解像度変更ステップで前記入力画像の解像度が前記第2の解像度に変更された場合に、前記フレームレート変更ステップに前記入力画像のフレームレートを前記第1のフレームレートに変更させる
     請求項5に記載の動画像符号化方法。
  8.  前記画質決定ステップは、さらに、直前に決定されたフレームレートより小さい第1のフレームレートおよび大きい第2のフレームレートの少なくとも一方を予め保持し、
     前記平均値算出ステップで算出された前記量子化ステップ平均値が予め定めた第1の閾値より大きく、かつ保持している前記第1の解像度が前記下限値を下回る場合に、前記フレームレート変更ステップに前記入力画像のフレームレートを前記第1のフレームレートに変更させ、
     前記平均値算出ステップで算出された前記量子化ステップ平均値が予め定めた第2の閾値より小さく、かつ保持している前記第2の解像度が前記上限値を上回る場合に、前記フレームレート変更ステップに前記入力画像のフレームレートを前記第2のフレームレートに変更させる
     請求項6または7に記載の動画像符号化方法。
  9.  入力画像を符号化して符号化ビットストリームを生成し、当該符号化ビットストリームを伝送路上に送出する動画像符号化装置であって、
     前記入力画像の符号化の困難さの程度に応じて、前記入力画像の解像度およびフレームレートの少なくとも一方を変更して符号化対象画像を出力する画像変換部と、
     前記画像変換部から出力される前記符号化対象画像を符号化して前記符号化ビットストリームを生成し、当該符号化ビットストリームを前記伝送路上に送出する動画像符号化部と、
     前記伝送路上に送出される前記符号化ビットストリームのビットレートである符号化ビットレートを決定するビットレート決定部と、
     前記ビットレート決定部で決定された前記符号化ビットレートに応じて前記符号化対象画像の解像度の上限値を決定し、前記符号化対象画像の解像度が前記上限値を上回らないように前記画像変換部を制御する解像度範囲選択部とを備える
     動画像符号化装置。
  10.  コンピュータに、入力画像を符号化して符号化ビットストリームを生成させ、当該符号化ビットストリームを伝送路上に送出させるプログラムであって、
     前記入力画像の符号化の困難さの程度に応じて、前記入力画像の解像度およびフレームレートの少なくとも一方を変更して符号化対象画像を出力する画像変換ステップと、
     前記画像変換ステップで出力される前記符号化対象画像を符号化して前記符号化ビットストリームを生成し、当該符号化ビットストリームを前記伝送路上に送出する動画像符号化ステップと、
     前記伝送路上に送出される前記符号化ビットストリームのビットレートである符号化ビットレートを決定するビットレート決定ステップと、
     前記ビットレート決定ステップで決定された前記符号化ビットレートに応じて前記符号化対象画像の解像度の上限値を決定し、前記符号化対象画像の解像度が前記上限値を上回らないように前記画像変換ステップでの変更を制御する解像度範囲選択ステップとを、コンピュータに実行させる
     プログラム。
  11.  入力画像を符号化して符号化ビットストリームを生成し、当該符号化ビットストリームを伝送路上に送出する集積回路であって、
     前記入力画像の符号化の困難さの程度に応じて、前記入力画像の解像度およびフレームレートの少なくとも一方を変更して符号化対象画像を出力する画像変換部と、
     前記画像変換部から出力される前記符号化対象画像を符号化して前記符号化ビットストリームを生成し、当該符号化ビットストリームを前記伝送路上に送出する動画像符号化部と、
     前記伝送路上に送出される前記符号化ビットストリームのビットレートである符号化ビットレートを決定するビットレート決定部と、
     前記ビットレート決定部で決定された前記符号化ビットレートに応じて前記符号化対象画像の解像度の上限値を決定し、前記符号化対象画像の解像度が前記上限値を上回らないように前記画像変換部を制御する解像度範囲選択部とを備える
     集積回路。
PCT/JP2010/003812 2009-06-23 2010-06-08 動画像符号化方法、動画像符号化装置、プログラム、および集積回路 WO2010150470A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201080002454.2A CN102138327B (zh) 2009-06-23 2010-06-08 运动图像编码方法、运动图像编码装置以及集成电路
JP2011519520A JP5479470B2 (ja) 2009-06-23 2010-06-08 動画像符号化方法、動画像符号化装置、プログラム、および集積回路
US13/061,216 US8559503B2 (en) 2009-06-23 2010-06-08 Moving image coding method, moving image coding apparatus, program, and integrated circuit

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-149199 2009-06-23
JP2009149199 2009-06-23

Publications (1)

Publication Number Publication Date
WO2010150470A1 true WO2010150470A1 (ja) 2010-12-29

Family

ID=43386260

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/003812 WO2010150470A1 (ja) 2009-06-23 2010-06-08 動画像符号化方法、動画像符号化装置、プログラム、および集積回路

Country Status (4)

Country Link
US (1) US8559503B2 (ja)
JP (1) JP5479470B2 (ja)
CN (1) CN102138327B (ja)
WO (1) WO2010150470A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013214894A (ja) * 2012-04-03 2013-10-17 Mitsubishi Electric Corp 画像符号化装置
WO2014103131A1 (ja) * 2012-12-26 2014-07-03 パナソニック株式会社 画像監視システム
JP2016039553A (ja) * 2014-08-08 2016-03-22 株式会社リコー 通信装置、通信システム、通信方法およびプログラム
US10148989B2 (en) 2016-06-15 2018-12-04 Divx, Llc Systems and methods for encoding video content
KR101928910B1 (ko) * 2011-08-30 2018-12-14 쏘닉 아이피, 아이엔씨. 복수의 최대 비트레이트 레벨들을 사용하여 인코딩된 비디오를 인코딩하고 스트리밍하기 위한 시스템들 및 방법들
US10708587B2 (en) 2011-08-30 2020-07-07 Divx, Llc Systems and methods for encoding alternative streams of video for playback on playback devices having predetermined display aspect ratios and network connection maximum data rates
US10798143B2 (en) 2011-08-30 2020-10-06 Divx, Llc Selection of resolutions for seamless resolution switching of multimedia content
US11638033B2 (en) 2011-01-05 2023-04-25 Divx, Llc Systems and methods for performing adaptive bitrate streaming
US11785066B2 (en) 2012-12-31 2023-10-10 Divx, Llc Systems, methods, and media for controlling delivery of content
JP7435208B2 (ja) 2020-04-24 2024-02-21 サクサ株式会社 画像処理装置及びプログラム

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9171350B2 (en) * 2010-10-28 2015-10-27 Nvidia Corporation Adaptive resolution DGPU rendering to provide constant framerate with free IGPU scale up
US9215466B2 (en) * 2011-01-31 2015-12-15 Apple Inc. Joint frame rate and resolution adaptation
US9071841B2 (en) * 2011-05-17 2015-06-30 Microsoft Technology Licensing, Llc Video transcoding with dynamically modifiable spatial resolution
JP5853458B2 (ja) * 2011-07-21 2016-02-09 ソニー株式会社 マーク情報記録装置及びマーク情報提示装置
JP5843631B2 (ja) * 2012-01-26 2016-01-13 日本電信電話株式会社 フレームレート制御方法,フレームレート制御装置およびフレームレート制御プログラム
JP2013179572A (ja) * 2012-02-08 2013-09-09 Canon Inc 画像符号化装置および画像符号化方法
US20150022626A1 (en) * 2012-02-10 2015-01-22 Ibrahim Nahla Data, Multimedia & Video Transmission Updating System
ITTO20120986A1 (it) 2012-11-14 2014-05-15 St Microelectronics Srl Procedimento per l'estrazione di informazioni distintive da un flusso di frame video digitali, sistema e prodotto informatico relativi
JP6204655B2 (ja) * 2012-11-22 2017-09-27 キヤノン株式会社 撮像装置、撮像装置の制御方法、及びプログラム
JP6203515B2 (ja) * 2013-03-29 2017-09-27 株式会社メガチップス 画像処理装置
CN104427342A (zh) * 2013-09-06 2015-03-18 聚晶半导体股份有限公司 视频编码方法及装置
JP6333019B2 (ja) * 2014-03-28 2018-05-30 キヤノン株式会社 撮像装置、撮像方法及びプログラム
US9313508B1 (en) 2014-10-29 2016-04-12 Qualcomm Incorporated Feeding intra-coded video frame after port reconfiguration in video telephony
JP6603984B2 (ja) * 2014-11-07 2019-11-13 セイコーエプソン株式会社 画像供給装置、画像供給方法およびプログラム
US10008177B2 (en) * 2016-03-09 2018-06-26 Panasonic Liquid Crystal Display Co., Ltd. Display device
US20180063549A1 (en) * 2016-08-24 2018-03-01 Ati Technologies Ulc System and method for dynamically changing resolution based on content
WO2018068239A1 (zh) * 2016-10-12 2018-04-19 深圳市大疆创新科技有限公司 码率控制的方法、计算机系统和装置
US10979744B2 (en) * 2017-11-03 2021-04-13 Nvidia Corporation Method and system for low latency high frame rate streaming
US10659514B2 (en) * 2018-03-28 2020-05-19 Arlo Technologies, Inc. System for video monitoring with adaptive bitrate to sustain image quality
WO2020137437A1 (ja) * 2018-12-28 2020-07-02 ソニー株式会社 通信装置及び通信方法
JP7238441B2 (ja) * 2019-02-04 2023-03-14 富士通株式会社 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000083253A (ja) * 1998-07-08 2000-03-21 Nec Corp 画像処理装置
JP2003308277A (ja) * 2002-04-17 2003-10-31 Sony Corp 端末装置、データ送信装置、データ送受信システム及びデータ送受信方法
JP2004040517A (ja) * 2002-07-04 2004-02-05 Hitachi Ltd 携帯端末および画像配信システム
JP2005020731A (ja) * 2003-06-14 2005-01-20 Lg Electronics Inc 移動通信端末機の映像データ処理方法
JP2005073218A (ja) * 2003-08-07 2005-03-17 Matsushita Electric Ind Co Ltd 画像処理装置
WO2006003808A1 (ja) * 2004-07-06 2006-01-12 Matsushita Electric Industrial Co., Ltd. 符号化または復号化装置、および記録再生端末

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0841820A3 (en) * 1996-11-08 2005-11-09 Matsushita Electric Industrial Co., Ltd. Method and apparatus for encoding, multiplexing and transmitting a video signal
US6625322B1 (en) * 1999-06-08 2003-09-23 Matsushita Electric Industrial Co., Ltd. Image coding apparatus
JP2001359096A (ja) * 1999-06-08 2001-12-26 Matsushita Electric Ind Co Ltd 画像符号化装置
JP2001160969A (ja) * 1999-12-01 2001-06-12 Matsushita Electric Ind Co Ltd 動画像符号化装置、動画像伝送装置、および動画像記録装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000083253A (ja) * 1998-07-08 2000-03-21 Nec Corp 画像処理装置
JP2003308277A (ja) * 2002-04-17 2003-10-31 Sony Corp 端末装置、データ送信装置、データ送受信システム及びデータ送受信方法
JP2004040517A (ja) * 2002-07-04 2004-02-05 Hitachi Ltd 携帯端末および画像配信システム
JP2005020731A (ja) * 2003-06-14 2005-01-20 Lg Electronics Inc 移動通信端末機の映像データ処理方法
JP2005073218A (ja) * 2003-08-07 2005-03-17 Matsushita Electric Ind Co Ltd 画像処理装置
WO2006003808A1 (ja) * 2004-07-06 2006-01-12 Matsushita Electric Industrial Co., Ltd. 符号化または復号化装置、および記録再生端末

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11638033B2 (en) 2011-01-05 2023-04-25 Divx, Llc Systems and methods for performing adaptive bitrate streaming
US10931982B2 (en) 2011-08-30 2021-02-23 Divx, Llc Systems and methods for encoding and streaming video encoded using a plurality of maximum bitrate levels
US10645429B2 (en) 2011-08-30 2020-05-05 Divx, Llc Systems and methods for encoding and streaming video encoded using a plurality of maximum bitrate levels
US10708587B2 (en) 2011-08-30 2020-07-07 Divx, Llc Systems and methods for encoding alternative streams of video for playback on playback devices having predetermined display aspect ratios and network connection maximum data rates
KR101928910B1 (ko) * 2011-08-30 2018-12-14 쏘닉 아이피, 아이엔씨. 복수의 최대 비트레이트 레벨들을 사용하여 인코딩된 비디오를 인코딩하고 스트리밍하기 위한 시스템들 및 방법들
KR20180135087A (ko) * 2011-08-30 2018-12-19 쏘닉 아이피, 아이엔씨. 복수의 최대 비트레이트 레벨들을 사용하여 인코딩된 비디오를 인코딩하고 스트리밍하기 위한 시스템들 및 방법들
KR102020764B1 (ko) 2011-08-30 2019-09-11 디브이엑스, 엘엘씨 복수의 최대 비트레이트 레벨들을 사용하여 인코딩된 비디오를 인코딩하고 스트리밍하기 위한 시스템들 및 방법들
KR20190105136A (ko) * 2011-08-30 2019-09-11 디브이엑스, 엘엘씨 복수의 최대 비트레이트 레벨들을 사용하여 인코딩된 비디오를 인코딩하고 스트리밍하기 위한 시스템들 및 방법들
KR20200014940A (ko) * 2011-08-30 2020-02-11 디브이엑스, 엘엘씨 복수의 최대 비트레이트 레벨들을 사용하여 인코딩된 비디오를 인코딩하고 스트리밍하기 위한 시스템들 및 방법들
US10798143B2 (en) 2011-08-30 2020-10-06 Divx, Llc Selection of resolutions for seamless resolution switching of multimedia content
US11611785B2 (en) 2011-08-30 2023-03-21 Divx, Llc Systems and methods for encoding and streaming video encoded using a plurality of maximum bitrate levels
US11457054B2 (en) 2011-08-30 2022-09-27 Divx, Llc Selection of resolutions for seamless resolution switching of multimedia content
KR102163151B1 (ko) 2011-08-30 2020-10-08 디빅스, 엘엘씨 복수의 최대 비트레이트 레벨들을 사용하여 인코딩된 비디오를 인코딩하고 스트리밍하기 위한 시스템들 및 방법들
KR102074148B1 (ko) 2011-08-30 2020-03-17 엔엘디 엘엘씨 복수의 최대 비트레이트 레벨들을 사용하여 인코딩된 비디오를 인코딩하고 스트리밍하기 위한 시스템들 및 방법들
JP2013214894A (ja) * 2012-04-03 2013-10-17 Mitsubishi Electric Corp 画像符号化装置
WO2014103131A1 (ja) * 2012-12-26 2014-07-03 パナソニック株式会社 画像監視システム
US11785066B2 (en) 2012-12-31 2023-10-10 Divx, Llc Systems, methods, and media for controlling delivery of content
JP2016039553A (ja) * 2014-08-08 2016-03-22 株式会社リコー 通信装置、通信システム、通信方法およびプログラム
US10148989B2 (en) 2016-06-15 2018-12-04 Divx, Llc Systems and methods for encoding video content
US11483609B2 (en) 2016-06-15 2022-10-25 Divx, Llc Systems and methods for encoding video content
US11729451B2 (en) 2016-06-15 2023-08-15 Divx, Llc Systems and methods for encoding video content
US10595070B2 (en) 2016-06-15 2020-03-17 Divx, Llc Systems and methods for encoding video content
JP7435208B2 (ja) 2020-04-24 2024-02-21 サクサ株式会社 画像処理装置及びプログラム

Also Published As

Publication number Publication date
CN102138327A (zh) 2011-07-27
CN102138327B (zh) 2014-09-24
JP5479470B2 (ja) 2014-04-23
US20110164679A1 (en) 2011-07-07
JPWO2010150470A1 (ja) 2012-12-06
US8559503B2 (en) 2013-10-15

Similar Documents

Publication Publication Date Title
JP5479470B2 (ja) 動画像符号化方法、動画像符号化装置、プログラム、および集積回路
JP5588438B2 (ja) 画像符号化方法及び画像符号化装置
JP5574345B2 (ja) 符号化方法、エラー検出方法、復号方法、符号化装置、エラー検出装置及び復号装置
EP2495973B1 (en) Decoding method, decoder apparatus, encoding method, and encoder apparatus
WO2010087157A1 (ja) 画像符号化方法及び画像復号方法
WO2010061607A1 (ja) 動画像復号方法、動画像符号化方法、動画像復号装置、動画像符号化方法、プログラム、及び集積回路
WO2010026770A1 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、システム、プログラム、及び集積回路
WO2010050156A1 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、集積回路およびプログラム
WO2010113524A1 (ja) 動画像符号化方法、動画像復号方法、動画像符号化装置および動画像復号装置
WO2011004577A1 (ja) 画像復号装置、画像符号化装置、画像復号方法、画像符号化方法、プログラムおよび集積回路
JP5659160B2 (ja) 動画像復号装置、動画像符号化装置、動画像復号回路及び動画像復号方法
WO2010143427A1 (ja) 画像符号化方法、画像復号方法、およびそれらの装置
WO2011052217A1 (ja) 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置、プログラム、及び集積回路
JPWO2010070897A1 (ja) 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、プログラム、及び集積回路
RU2441340C1 (ru) Способ кодирования, способ декодирования, устройство кодирования, устройство декодирования, программа и интегральная схема
JP5679980B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置及び画像復号装置
JP5546044B2 (ja) 画像復号装置、画像符号化装置、画像復号回路及び画像復号方法
JP5499035B2 (ja) 画像符号化方法、画像符号化装置、プログラムおよび集積回路
JP5468604B2 (ja) 画像復号装置、集積回路、画像復号方法及び画像復号システム
WO2011089865A1 (ja) 画像符号化方法、画像復号方法、それらの装置、プログラムおよび集積回路
JP2011182132A (ja) 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法、集積回路およびプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080002454.2

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 2011519520

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 13061216

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10791796

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10791796

Country of ref document: EP

Kind code of ref document: A1