WO2007088912A1 - 画像符号化方法、画像復号化方法、画像符号化装置及び画像復号化装置 - Google Patents

画像符号化方法、画像復号化方法、画像符号化装置及び画像復号化装置 Download PDF

Info

Publication number
WO2007088912A1
WO2007088912A1 PCT/JP2007/051645 JP2007051645W WO2007088912A1 WO 2007088912 A1 WO2007088912 A1 WO 2007088912A1 JP 2007051645 W JP2007051645 W JP 2007051645W WO 2007088912 A1 WO2007088912 A1 WO 2007088912A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
image
data
circuit
encoding
Prior art date
Application number
PCT/JP2007/051645
Other languages
English (en)
French (fr)
Inventor
Hideo Kuroda
Original Assignee
Nagasaki University, National University Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagasaki University, National University Corporation filed Critical Nagasaki University, National University Corporation
Priority to JP2007556901A priority Critical patent/JPWO2007088912A1/ja
Publication of WO2007088912A1 publication Critical patent/WO2007088912A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Definitions

  • Image encoding method image decoding method, image encoding device, and image decoding device
  • the present invention relates to an encoding method and apparatus for encoding image data, and a decoding method and apparatus for decoding encoded image data, and more particularly to a technique for encoding with high efficiency.
  • an image of one frame is divided into a plurality of blocks, a plurality of pieces of information such as an average value, a standard deviation, and quantization information of each divided block are generated, and a plurality of pieces of information related to the images are encoded.
  • FIG. 12 is a diagram illustrating an example of a flow of motion vector detection processing in a conventional MPEG (Moving Pictures Experts Group) coding system.
  • one image one frame is divided into blocks in units of predetermined pixels.
  • the target motion compensation area is set near the block image, and the image data in the set area one frame before is also input ( Step Sl).
  • step S2 The input block image data is read (step S2), and block matching processing is performed between the read input block image and the reference block image in the motion compensation region (step S3). It is determined whether or not the evaluation function value force obtained by the block matching process is the minimum value (step S4). If it is not the minimum value in this determination, the address of the reference block is updated to shift the position of the reference block to be compared (step S5), and the block matching process at step S3 and the comparison at step S4 are performed. Repeat.
  • step S4 when it is determined in step S4 that the evaluation function value is the minimum, that is the case.
  • the reference block image force detected one frame before is considered as having moved to the position of the current input block image, and the difference between the address of the corresponding reference block and the input block address is also generated by generating motion vector information.
  • the motion vector information is output (step S6).
  • the DCT-converted DC component and AC component of each block are also obtained. It should be noted that the data types shown here are only some of the types when encoding image data in the MPEG format.
  • Japanese Patent Application Laid-Open No. 8-274648 issued by the Japan Patent Office, has a description of an example in which this type of block is divided into high-efficiency codes.
  • the amount of data is reduced by embedding a part of the encoding parameter in the image signal in other code data of its own image.
  • some data is embedded in the image data, it is roughened by quantization or the like, and the embedded data is embedded in the empty bits created there.
  • the image signal and the embedded data that are band-compressed by quantization or the like are transmitted separately. There is no point in changing anything.
  • the present invention has been made in view of the strong point, and an object thereof is to enable further highly efficient encoding and decoding of image data.
  • the present invention is classified when image data constituting a moving image or a still image is classified into a plurality of pieces of information generated from the image data itself, and the plurality of pieces of classified information are encoded. Based on the value of some information in the plurality of pieces of information, encoding that changes the coding state of other information in the plurality of pieces of information is performed to reduce the information amount of some pieces of information. It is made to do.
  • a part of information in a plurality of classified information is integrated with a part of a plurality of pieces of information when a part of the information is encoded.
  • the information power in the integrated state is detected and decoded, and other encoded information is also decoded.
  • the original image is played back.
  • the code status of other information changes, and information on some information Since the amount of information is reduced, it is encoded as image data with a reduced amount of information, and the encoded image data is decoded to effectively reduce the amount of information to be transmitted and stored. It has an effect that can be done.
  • the plurality of classified information is data of predetermined characteristics of the image and address data of other blocks similar to each block when one image data is divided into blocks, Data power at a specific bit position of address data Information that has been processed by searching for other similar blocks so that it matches the data at the predetermined bit position of the specified characteristics, reducing the data at the specified bit position. The amount can be effectively reduced.
  • the address data of another block similar to each block is the address data of a block of image data before or after the one image data, and other similar blocks.
  • the information amount of the encoded image data is measured, and when the measured information amount exceeds a predetermined threshold value, a process of embedding a part of information in other information is performed.
  • the amount of information generated can be reduced to a predetermined amount, and the amount of image data can be effectively reduced.
  • the range embedded in the image is reduced. It will be set properly.
  • FIG. 1 is a block diagram showing a configuration example of a sign key according to an embodiment of the present invention.
  • FIG. 2 is a flowchart showing an example of sign key processing according to an embodiment of the present invention.
  • FIG. 3 is an explanatory diagram showing an example of block matching search according to an embodiment of the present invention.
  • FIG. 4 is an explanatory diagram showing a processing example in each frame according to the embodiment of the present invention.
  • FIG. 5 is a characteristic diagram comparing the data compression rate by the sign key according to the embodiment of the present invention with other methods.
  • FIG. 6 is a block diagram showing a configuration example of a sign key according to another embodiment of the present invention.
  • FIG. 7 is a block diagram showing a configuration example of a decoding key according to another embodiment of the present invention.
  • FIG. 8 is a block diagram showing a configuration example of a fractal image encoding according to another embodiment of the present invention.
  • FIG. 9 is a block diagram illustrating a configuration example of a fractal image decoding according to another embodiment of the present invention.
  • FIG. 10 is a block diagram illustrating a configuration example of a JPEG code key and a decoding key according to still another embodiment of the present invention.
  • FIG. 11 is an explanatory diagram showing an example of the zigzag scan of FIG. 10 example.
  • FIG. 12 is a flowchart showing an example of conventional sign key processing.
  • the present embodiment is an example applied to a process of encoding and decoding image data by the MPEG encoding method.
  • FIG. 1 is a diagram showing an outline of a configuration for performing MPEG encoding in this example.
  • the image input terminal 11 is supplied with video data for performing compression coding.
  • image data (video data) of 30 frames per second is supplied to the image input terminal 11.
  • This image data is data in which the pixel values of each pixel in one frame are arranged in a predetermined state, and each one pixel of data is indicated by a predetermined number of bits and is compressed and encoded. It is image data.
  • the image data obtained at the image input terminal 11 is compression-coded with the configuration shown in FIG. 1 described below.
  • image data obtained at the image input terminal 11 is supplied to the subtractor 12.
  • the subtractor 12 is a circuit that obtains difference data by subtracting image data supplied from the frame memory 20 side, which will be described later, via the motion compensation prediction circuit 21 from the image data obtained at the image input terminal 11. is there.
  • the video data for subtraction output from the frame memory 20 is also data in which the pixel values of each pixel in one frame are arranged in a predetermined state, and each pixel data is indicated by a predetermined number of bits.
  • the subtractor 12 takes the difference between the pixel values.
  • the output of the subtractor 12 is supplied to a DCT (Discrete Cosine Transform) circuit 13 to perform discrete cosine transform, and the converted image data is sent to the quantizer 14 for quantization.
  • DCT Discrete Cosine Transform
  • the quantizer 14 for quantization is performed by the quantizer 14, for example, the least significant bit quantized of the DC component is supplied to the motion compensation prediction circuit 21 after being delayed by a predetermined period via the delay circuit 22.
  • the quantized image data (DCT transform coefficient) is sent to the entropy coding unit 15 for entropy coding.
  • the DC component data sent from the quantizer 14 to the entropy coding unit 15 is data in which the least significant bit is omitted.
  • the data entropy-coded by the entropy coding unit 15 is output from the data output terminal 16, and image data is transmitted using a predetermined transmission path or recorded on a recording medium.
  • the motion vector generated by the motion compensation prediction circuit 21 to be described later is also sent to the entropy coding unit 15 for entropy coding. After output, output from data output terminal 16.
  • the motion vector generation processing in the motion compensated prediction circuit 21 will be described.
  • the image data quantized by the quantizer 14 is supplied to the inverse quantizer 17, and the data before being quantized is supplied. Return to the table.
  • the data supplied to the inverse quantizer 17 by the quantizer 14 is also data, omitting the least significant bit.
  • the image data inversely quantized by the inverse quantizer 17 is supplied to the inverse DCT circuit 18 for inverse DCT conversion, and the image data subjected to the inverse DCT conversion is supplied to the adder 19 for the motion compensation prediction circuit 21. Is added to the output of.
  • the output of the adder 19 is stored in the frame memory 20.
  • Past image data stored in the frame memory 20 is read by the motion compensation prediction circuit 21 and compared with the current image data obtained at the image input terminal 11.
  • the motion compensation prediction circuit 21 detects motion in the image by the comparison, and generates motion vector information. A specific example of the motion vector information will be described later.
  • the generated motion vector information is sent to the entropy coding unit 15 .
  • the motion vector information and the DCT transform coefficient are efficient with variable-length code ⁇ or arithmetic code ⁇ , respectively! Compression encoding is performed.
  • the motion compensation prediction circuit 21 detects motion in an image
  • the motion compensation prediction circuit 21 detects a block formed by dividing an image in one frame. That is, for example, an image in one frame is divided into 64-pixel blocks each having 8 pixels in the vertical direction and 8 pixels in the horizontal direction, and processing for detecting a block similar to the block of 64 pixels is performed.
  • the motion compensation prediction circuit 21 performs motion detection processing in units of blocks
  • the DC component (DC component) of the past DCT conversion coefficient generated by the DCT circuit 13 is supplied,
  • the DC component is embedded in the motion vector.
  • the DCT conversion coefficient generated by the DCT circuit 13 is stored in the delay circuit 22 and delayed, and then supplied to the motion compensation prediction circuit 21.
  • the motion compensated prediction circuit 21 performs a process of embedding a part of the DC component of the past DCT transform coefficient in the motion vector. Details of the embedding process will be described later.
  • the embedded DC component information is not supplied from the quantization circuit 14 to the entropy coding unit 15. For example, as described later, when the least significant bit of the DC component of the DCT transform coefficient is embedded, the least significant bit is not supplied to the entropy coding unit 15.
  • an input image (one frame) is divided into blocks in units of predetermined pixels.
  • the block is divided into 64 pixels of 8 pixels in the horizontal direction and 8 pixels in the vertical direction.
  • the target motion compensation area is set near the block image, and the image data in the set area one frame before is also input ( Step Sl l).
  • the motion compensation area here is divided into a motion compensation area composed of block groups whose pixel addresses start with odd addresses and a motion compensation area composed of block groups whose pixel addresses begin with even addresses.
  • FIG. 3 (a) a specific block bl in one frame of image Fa currently being processed detects a motion vector. It is assumed that the image block is an object to be processed.
  • FIG. 3 (b) an image F (a-1) one frame before the image Fa is prepared, and the position of a specific block bl in the image F (a-1) is prepared.
  • a predetermined range centered at is defined as a motion compensation region bx.
  • this motion compensation area bx when it is detected that a block similar to the block bl after one frame exists, the object shown in the image moves from the detected block position to the current block bl. And motion vector information of the corresponding motion is generated.
  • the process of embedding the specific data in the motion vector information is to relate the specific data of the image to the generation of the motion vector information.
  • embedding means changing the generation state of motion vector information based on specific data.
  • the data of the target input block image is read (step S12). Then, it is determined whether the value of the least significant bit W of the DC component is 1 or 0 (step S13). If the value of the least significant bit W of the DC component is determined by this determination (that is, if it is an odd number), block matching processing is performed to compare the input block image with the pixel block in the motion compensation region (step S1). S14). At this time, only the pixel block whose pixel address starts with an odd address is used as the pixel block in the motion compensation region to be compared.
  • step S15 When the comparison is performed and a match is detected, it is determined whether or not the evaluation function value indicating the matching degree is the minimum (step S15). The address (odd address) is updated (step S17), and the process returns to the block matching process of step S14.
  • step S 15 If it is determined in step S 15 that the value is minimum, the block address having the smallest evaluation function value is used as motion vector information, and the motion vector information is sent to the subsequent processing unit (step S 16). .
  • step S13 If the value of the least significant bit W of the DC component is ⁇ (that is, if it is an even number) in step S13, the input block image and the pixel block in the motion compensation region are Block matching processing to be compared is performed (step S18). At this time, only the pixel block whose pixel address starts with an even address is used as the pixel block in the motion compensation region to be compared.
  • step S19 When the comparison is performed and a match is detected, it is determined whether or not the evaluation function value indicating the matching degree is the minimum (step S19). The address (even address) is updated (step S20), and the process returns to the block matching process of step S18.
  • step S19 If it is determined in step S19 that the evaluation function value is minimum, the reference function value having the minimum evaluation function value is determined.
  • the lock address is used as motion vector information, and the motion vector information is sent to the subsequent processing unit (step S21).
  • the motion vector information includes the information of the least significant bit of the DC component of the DCT transform coefficient, and the amount of information of the encoded image data can be reduced accordingly.
  • the data structure is such that the least significant bit of the DC component is embedded in the motion vector information.
  • Image data compression-encoded with such a data configuration is transmitted through a transmission line or stored in a recording (storage) medium, thereby effectively reducing transmission capacity and recording capacity. It is out.
  • the reverse process may be performed. That is, it is possible to determine whether the address of the reference block, which is motion vector information, is an even address or an odd address, and to decode the predetermined bit position (least significant bit) of the DC component of the DCT transform coefficient.
  • the search range of the reference block is limited to half, even if the detection accuracy deteriorates, only one pixel is shifted from the optimal block position, and the motion detection accuracy decreases. Although the image quality degradation due to is small, the effect of reducing the data volume of image data is great.
  • the address data of the force image block which is an example of thinning out the lower 1 bit of the DC component, is actually the vertical (vertical) address and the horizontal (horizontal) address.
  • 1S or other data in which specific bits of the DC component of the DCT conversion coefficient are thinned out may be embedded and thinned out in the same manner.
  • some bits of the standard deviation or average value may be thinned out in the same manner.
  • the bit positions that are thinned by embedding are also thinned (reduced) except for the lower bit positions. You may do it.
  • compression encoding is applied to an example in which a motion vector is detected by referring to past frame data, the current frame to be processed is temporally changed. In comparison with the previous frame, it is clear that the same method can be used when motion vectors need to be detected.
  • the method described so far is applied to all frame images of MPEG image data that is a moving image. Only the image data of a specific frame is referred to as embedding here. You may make it perform the process which is.
  • embedding in a B (Bi-directionally predictive coded) picture is desirable in terms of image quality. That is, for example, in the MPEG2 encoding method, there are three types of image data: I (Intra coded) picture, P (Predictive coded) picture, and B picture.
  • I picture Independent codes are performed within one frame.
  • the P picture is a forward predictive coding screen, and the I picture or P picture power existing in the past also performs the predictive coding.
  • a B picture is a bi-directional predictive coding screen, and predictive coding is performed from I pictures or P pictures existing before and after in time.
  • I picture II, B picture Bl, B picture B2, P picture PI, B picture B3, ..., I picture, P picture, and B picture are arranged periodically. Yes.
  • the arrangement order of each picture is an example.
  • the information embedding process already described is applied only to the code key data of the B picture.
  • the present invention can also be applied to the case where image data other than the B picture is compressed and encoded.
  • encoding methods using similar motion vectors can be applied to systems other than MPEG.
  • Table 1 shows an example of a change in compression rate when the compression processing according to the present embodiment is executed.
  • the example in Table 1 is an example applied to an example of transmitting image data having a relatively high compression rate that is transmitted by a broadcasting method called one-segment broadcasting.
  • the amount of information for 1-segment broadcasting used to calculate the amount of information in Table 1 is based on the “1 Seg textbook” issued by Impress.
  • the transmission rate is 13 Mbps.
  • a transmission rate of 130 kbps can be achieved.
  • the transmission rate can be reduced to 112 kbps by applying the processing of the present embodiment to the image data having the transmission rate of 130 kbps.
  • data with a transmission rate of 130 kbps consists of 8667 bits per frame.
  • the image data is 320 ⁇ 240 pixels and the block configuration is 8 ⁇ 8, there are 1200 blocks per frame. Converting 8667 bits per frame into a value per block results in 7.22 bits per block.
  • 1 bit can be reduced per block, so that 7.22 bit power is 6.22 bits, resulting in a transmission rate of 112 kbps and a compression rate of 13 It can be improved by 8%.
  • FIG. 5 is a diagram comparing the compression rate of each encoding method that has been put to practical use up to now and the compression rate of the encoding method according to the present embodiment.
  • MPEG1 system MPEG2 system
  • H the compression rate has improved as the H.264ZAVC system and the coding method have advanced.
  • the compression rate can be further improved by further combining the processing of the present embodiment with the H.264ZAVC method.
  • FIG. 6 shows the image coding configuration of the present embodiment.
  • 1 is an image input terminal
  • 2 is an encoded data output terminal
  • 100 is an image input interface
  • 200 is an information processing 'separation circuit
  • 300 is an embedding area determination' information quantization circuit
  • 400 is an embedded data separation Quantization circuit
  • 500 is a data embedding / information quantization circuit
  • 600 is a code allocation circuit
  • 700 is a multiplexing circuit
  • 800 is a transmission buffer memory
  • 900 is a data output interface.
  • the image input terminal 1 When it is desired to encode an analog image signal, the image input terminal 1 is supplied with a signal digitized by analog / digital conversion (AZD conversion) or a digital image signal as it is.
  • the image input interface 100 converts the supplied image signal into a predetermined format such as that defined by JPEG, MPEG, etc., and supplies it to the image processing / separation circuit 200.
  • the separation circuit 200 performs predetermined image processing on the input image signal.
  • information source coding processing based on any predetermined method such as JPEG, MPEG, vector quantization, wavelet transform coding, or fractal image coding can be applied. It can be applied to both still images and moving images.
  • This image processing / separation circuit 200 is also classified into a plurality of pieces of information such as an average value, standard deviation, and other information for each block, which is a code unit, corresponding to a predetermined source coding applied. And output each.
  • the information quantization circuit 300 determines the information embedding position using a part of the information output from the image processing / separation circuit 200. This embedding position is controlled using an information generation amount control signal supplied from the transmission buffer memory 800. As the embedding position of the information to be determined, for example, an area where the luminance change in the image is large is determined as the embedding position.
  • Embedded data separation ⁇ Information quantization circuit 400 is output from image processing ⁇ separation circuit 200 Part of the information is input, part or all of the information is selected as data to be embedded in the other information, and the data is embedded and output to the information quantization circuit 500. Data selected as the embedded data is controlled using an information generation amount control signal supplied from the transmission buffer memory 800. Further, the remaining data not selected as the embedded data is output to the code allocation circuit 600.
  • Data embedding / information quantization circuit 500 embeds data supplied from embedded data separation 'information quantization circuit 400 into image processing' part of other information supplied from separation circuit 200
  • the obtained synthesized data is output to the code assignment circuit 600.
  • the data embedding method is controlled using an information generation amount control signal supplied from the transmission buffer memory 800.
  • the code allocation circuit 600 receives embedded data separation 'information quantization circuit 400, data embedding, information quantization circuit 500, data output from the image processing / separation circuit 200, and performs variable length encoding, Code allocation is performed by a predetermined method such as arithmetic coding, run-length code, etc., and each is output to the multiplexing circuit 700.
  • the code allocation method is controlled using an information generation amount control signal supplied from the transmission buffer memory 800.
  • the multiplexing circuit 700 multiplexes the data supplied from the code allocation circuit 600 and the information generation amount control signal supplied from the transmission buffer memory 800 by a predetermined method, and converts the multiplexed data into one data series. Output to the transmission buffer memory 800.
  • the transmission buffer memory 800 stores and stores the nonuniform data supplied from the multiplexing circuit 700, reads out the data in the order of the previously stored data, and outputs the data to the data output interface 900. To do.
  • This transmission buffer memory measures the amount of stored information, and if the stored information amount exceeds a predetermined threshold, an information generation amount control signal for controlling the subsequent information generation amount is sent to the image processing / separation circuit 200, Output to embedded area determination, information quantization circuit 300, embedded data separation, information quantization circuit 400, data embedding / information quantization circuit 500, code allocation circuit 600, and multiplexing circuit 700.
  • the data output interface 900 converts the data supplied from the transmission buffer memory 800 in accordance with the format of the connected digital transmission path or storage medium and outputs the converted data.
  • 3 is encoded data input terminal
  • 4 is image output terminal
  • 950 is data input interface
  • 850 is reception buffer memory
  • 750 is data separation circuit
  • 650 is decoding circuit
  • 550 is embedded data extraction Quantization circuit
  • 450 is an embedded data synthesis / information inverse quantization circuit
  • 350 is an embedded region determination 'information inverse quantization circuit
  • 250 is an image decoding' synthesis circuit
  • 150 is an image output interface.
  • the data input interface 950 receives received data supplied in the format of a digital transmission line or storage medium from the code input data input terminal 3, converts it into a format of decoded data, and inputs it to the receive buffer memory 850. Output.
  • the reception buffer memory 850 stores the uniform data supplied from the data input interface 950 and reads it at a predetermined decoding rate in the order of the previously stored data, and sends it to the data separation circuit 750. Output.
  • the data separation circuit 750 receives one data sequence supplied from the reception buffer memory 850, and receives information used for the determination of the embedding area, information obtained by separating some data, and some other data. Information obtained by embedding the separated data, information related to embedding, information generation amount control signals used on the encoding side, and the like are classified and output to the decoding circuit 650.
  • the code decoding circuit 650 decodes each code assigned on the encoding side from the data input from the data separation circuit 750, and extracts embedded data / information inverse quantization circuit 550, embedded data Synthesis, information inverse quantization circuit 450, embedding area determination, information inverse quantization circuit 350, image decoding • Data corresponding to synthesis circuit 250 is output. It also decodes the information generation amount control signal used on the encoding side and extracts embedded data, information dequantization circuit 550, embedded data synthesis, information dequantization circuit 450, embedded region determination, information inverse quantum Circuit 350, image decoding 'output to synthesis circuit 250.
  • Embedded Data Extraction ⁇ Information Inverse Quantization Circuit 550 receives the data supplied from the decoding circuit 650, extracts other embedded data, and embeds data synthesis' information inverse The data is output to the quantization circuit 450, and other information is subjected to the reverse processing of the quantization on the encoding side, and the result is output to the image decoding / synthesis circuit 250. Inverse quantization characteristics were used on the encoding side It is controlled based on the information generation amount control signal.
  • the embedded data synthesis / information dequantization circuit 450 receives the data supplied from the decoding circuit 650, and is supplied from the embedded data extraction / information dequantization circuit 550 to embed other data.
  • the input data is input, both input data are combined, the reverse processing of the encoding side quantization is performed, and the result is output to the image decoding / synthesizing circuit 250.
  • the inverse quantization characteristic is controlled based on the information generation amount control signal used on the encoding side.
  • Embedding area determination Information dequantization circuit 350 receives data supplied from code decoding circuit 650 and encodes information used for the determination of the embedding area on the code side. The reverse processing of the quantization on the side is performed, and the result is output to the image decoding / synthesis circuit 250. The inverse quantization characteristic is controlled based on the information generation amount control signal used on the encoding side.
  • Image decoding ⁇ Synthesis circuit 250 is code decoding circuit 650, embedded data extraction ⁇ Information inverse quantization circuit 550, Embedded data synthesis ⁇ Information inverse quantization circuit 450, Embedded region determination ⁇ Information inverse quantization circuit
  • Each information supplied from 350 is synthesized and based on any predetermined method applied on the encoding side, such as JPEG, MPEG, vector quantization, wavelet transform coding, or fractal image code. Performs the information source decryption process! ⁇ ⁇ Output the decoded image signal to the image output interface 150.
  • the image output interface 150 converts a predetermined format supplied from the image decoding / synthesis circuit 250, for example, as defined in JPEG, MPEG, or the like into a format defined in the image output terminal 4. To output digital image data. If you want to obtain an analog image signal, it is not shown in Fig. 7, but it can be converted to an analog signal by DZA conversion.
  • FIG. 8 shows an example in the case of fractal image coding.
  • the same reference numerals are used for the same circuit configuration as FIG. 201 is an image processing 'separation block', 202 is an image processing 'separation circuit', 301 is an embedding area determination 'information quantization circuit, 401 is an embedded data separation / information quantization circuit, 501 Is a data embedding / information quantization circuit, 601 is a code allocation circuit, 701 is a multiplexing circuit, 801 is a transmission buffer memory, and 900 is a data output interface.
  • the image processing / separation circuit 202 and the data embedding / information quantization circuit 501 are configured in an image processing / separation block 201.
  • the image processing / separation circuit 202 divides an image into range blocks (block size R XR) that are units of code keys that do not overlap with each other, as in a normal fractal image code key.
  • range blocks block size R XR
  • domain blocks block size D X D, D> R
  • the domain pool has eight times the number of domain blocks Configure. This affine transformation information is output to the code assignment circuit 601.
  • the standard deviation of the block is calculated, and this is output to the embedding area determination / information quantization circuit 301. Also, the average value of the block is calculated and output to the embedded data separation / information quantization circuit 401.
  • search for the optimal domain block with good matching of the domain pool, and address information (Ax, Ay) of this optimal domain block is embedded in the data. ⁇ Output to information quantization circuit 501.
  • the embedding area determination and information quantization circuit 301 controls the amount of information generated from the transmission buffer memory 801 with respect to the standard deviation for each block supplied from the image processing / separation circuit 202. Threshold control is performed using the signal to determine the embedding position. Table 2 shows the method for determining the buried region using the information generation amount control signal.
  • each individual sign is performed.
  • data embedding is allowed only in the region where the standard deviation ⁇ is relatively large, the threshold ⁇ or more.
  • the transmission buffer memory storage information amount ⁇ becomes larger than that, embedment of data is permitted only in the region where the standard deviation ⁇ is smaller than the threshold value ⁇ .
  • the amount of information stored in the transmission buffer memory ⁇ is large ⁇ , the data is stored only in the area where the standard deviation ⁇ is smaller than the threshold ⁇ .
  • ⁇ 3 embeds data in all areas regardless of the value of standard deviation ⁇ .
  • Table 3 shows a standard deviation information quantization method based on the information generation amount control signal.
  • the quantization characteristic Q... Is a quantization characteristic with a standard deviation ⁇ .
  • the information generation amount control signal ⁇ has a small amount of memory in the transmission buffer memory, information generation is still permitted.
  • the information quantization circuit 401 uses the information generation amount control signal supplied from the transmission buffer memory 801 to quantize the average value for each block supplied from the image processing / separation circuit 202. Take control.
  • Table 3 shows the average quantization control method using the information generation amount control signal.
  • the quantized average m is assigned a fixed-length code.
  • the information generated from the transmission buffer memory 801 is generated in order from the low-order bit of the fixed-length bit of the block average value corresponding to the embedded region specified by the embedded region determination 'information quantization circuit 301. Separation control is performed as embedded data using a quantity control signal. Table 5 shows the embedded data separation method based on the information generation amount control signal.
  • Table 4 and the two left columns are the same, and information is still generated when the information generation amount control signal BM is used.
  • the embedding bit is not separated and embedding is not performed.
  • the subscript of BM increases (that is, as the amount of memory in the transmission buffer memory increases), the value of the number of embedded bits b increases, and in the case of BM, all bits of the average value are extracted as embedded bits.
  • data embedding As the subscript of BM increases (that is, as the amount of memory in the transmission buffer memory increases), the value of the number of embedded bits b increases, and in the case of BM, all bits of the average value are extracted as embedded bits.
  • Image processing 'Data embedding in separation block 201' Information quantization circuit 501 embeds an embedded region for the address information (Ax, Ay) of the optimum domain block supplied from image processing 'separation circuit 202 Judgment ⁇
  • the embedded bit of the average value supplied from the embedded data separation 'information quantization circuit 401 is embedded in the embedded region specified by the information quantization circuit 301. When only 1 bit is embedded, for example, it is embedded in Ax. When the embedded data is “0”, only the domain block having an even number of addresses is linked to the image processing 'separation circuit 202.
  • Optimal domain block And the least significant bit of Ax is set to "0".
  • Data Embedding 'Information quantization circuit 501 performs code allocation circuit 601, multiplexing circuit 701, and transmission buffer memory 801 perform processing corresponding to the above-described fractal image code.
  • FIG. 9 shows a configuration example in which this example is applied to fractal image decoding.
  • This is the reverse of the fractal image encoding shown in FIG. That is, the encoded data obtained at the encoded data input terminal 3 is sent to the data separation circuit 751 via the data input interface 950 and the reception buffer memory 851. Each data separated by the data separation circuit 751 is sent to the code decoding circuit 651, where the code is decoded.
  • the decoded data is sent to embedded data extraction ⁇ information inverse quantization circuit 551, embedded data synthesis ⁇ information inverse quantization circuit 451, and embedded region determination 'information inverse quantization circuit 351, Corresponding processing is performed in each circuit, the embedded data is extracted, the code data including the extracted data is sent to the image decoding 'combining circuit 251, and the image data is decoded. Is synthesized.
  • the decoded image data is sent to the image output terminal 4 via the image output interface 150 and output to the outside.
  • copyright information is embedded in DCT (discrete cosine transform) used in JPEG, MPEG, etc.
  • copyright information is used in wavelet transform used in JPEG2000. It can be easily inferred that the present invention can be applied to a method in which copyright information can be embedded, such as an embedded method.
  • the JPEG encoding method is an encoding method mainly applied to still image data.
  • Fig. 10 shows encoding using the PEG encoding method and decoding of image data encoded by the encoding. It is.
  • FIG. 10 The configuration of FIG. 10 will be described.
  • One piece of image data obtained at the image input terminal 51 is supplied to the subtractor 52 and subtracted from the offset value output from the offset generator 53 to obtain the difference value.
  • the output difference value is supplied to the two-dimensional DCT circuit 54 for 8 pixels.
  • X Performs DCT conversion in units of 8 pixels.
  • the DCT-transformed data is supplied to the quantizer 55, and is quantized with reference to the quantization table 56.
  • the data quantized by the quantizer 55 is supplied to the zigzag scan circuit 57 to obtain an AC component (alternating current component), and the AC component is supplied to the embedding unit 58. Also, the DC component (DC component) of the data quantized by the quantizer 55 is processed by the DPCM circuit 59 and the variable length encoder 60, and the lowest order of the outputs of the variable length encoder 60. The bit is supplied to the embedding unit 58. The other bits in the output of the variable length encoder 60 are included in the output data in the transmission path 63 and sent to the transmission path 63.
  • the embedding unit 58 performs processing for embedding the least significant bit of the DC component in the low frequency component of the AC component. A specific example of the embedding process will be described later.
  • the AC component data in which the DC component is embedded by the embedding unit 58 is processed by the quantization changing circuit 61 and the variable length encoder 62. In this way, the output of the image data encoded by the JPEG method is obtained, and the image data encoded by the JPEG method is transmitted through the transmission path 63.
  • the AC component of the JPEG image data transmitted through the transmission path 63 is decoded from the variable length code by the variable length decoder 64, and the least significant bit of the DC component embedded by the embedding unit 58 is used. Extraction is performed by the extraction circuit 65. The AC component output from the extraction circuit 65 is supplied to the inverse quantizer 69 via the zigzag scanning circuit 66.
  • variable length decoder 67 that decodes the DC component
  • the least significant bit of the DC component is supplied from extraction circuit 65, and the other bit positions are data received via transmission path 63.
  • Gain power The DC component decoded from the variable length code by the variable length decoder 67 is sent to the inverse DPCM circuit 68 to obtain the original DC component data, and the obtained DC component data is supplied to the inverse quantizer 69.
  • the inverse quantizer 69 performs inverse quantization with reference to the inverse quantization table 70.
  • the inversely quantized data is subjected to inverse DCT conversion by a two-dimensional inverse DCT circuit 71, and an adder 72 adds an offset value from an offset generator 73 to the inverse DCT converted data.
  • the decoded image data is obtained at the image output terminal 74.
  • FIG. 11 is a diagram showing an example of processing for embedding the DC component in the low frequency component of the AC component in the embedding unit 58 at the time of encoding.
  • 8 pixel x 8 pixel block is shown, horizontal Assume that 0 to 7 are assigned as addresses in the direction v and the vertical direction u, respectively.
  • the DC component of this block is the coefficient value at the top left.
  • each pixel is scanned zigzag as shown by a solid line in FIG. 11, and an AC component is obtained.
  • This AC component is a lower-frequency component as it is closer to the start position of the scan, and is a wider component as it is closer to the end position of the scan.
  • the coefficient of the AC component of the embedding range is set to an even number, and when the value is “1”, the coefficient is set to an odd number.
  • the reverse process is performed. That is, when the coefficient of the AC component in the embedding range is an even number, the value of the least significant bit of the DC component is detected as “0”, and when the coefficient is an odd number, the least significant bit of the DC component is detected. Detects that the value is '1'.
  • Information processing' separation block, 202 Information processing 'separation circuit, 250, 251 ... Image decoding ⁇ Composition circuit, 300, 301 ... , Information quantization circuit, 350, 351 ... Embedding area determination ⁇ Information inverse quantization circuit, 400,401 ... Embedded data separation, information quantization circuit, 450, 451 ... Embedded data synthesis ⁇ Information inverse quantum circuit , 500, 501 ⁇ Data ffi included ⁇ '[Blue information quantum circuit, 550, 551—Embedded data extraction ⁇ Information inverse quantization circuit, 600, 601... Code allocation circuit, 650, 651... Code decoding Circuit, 700, 701 ... Multiplex circuit, 750, 751 ... Data separation circuit, 800, 801 ... Transmission nota memory, 850, 851 ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ Receiver buffer memory, 900, 901

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

  画像データのより一層の高能率符号化及び復号化が行えるようにする。このために、動画又は静止画を構成する画像データを、その画像データ自身から生成した複数の情報に分類し、分類された複数の情報を符号化する場合に、分類された複数の情報の内の一部の情報の値に基づいて、画像データを構成する他の情報の符号化状態を変化させる符号化を行い、一部の情報の情報量を削減した符号化を行うようにした。また、このように符号化されたものを復号化する場合において、複数の情報の内の一部の情報を、画像データを構成する情報の状態から、一部の情報を検出し、その検出した情報と他の情報を復号化し、復号化されたそれぞれの情報に基づいて、原画像を再生する。

Description

明 細 書
画像符号化方法、画像復号化方法、画像符号化装置及び画像復号化装 置
技術分野
[0001] 本発明は、画像データを符号化する符号化方法及び装置、並びに符号化された 画像データを復号化する復号化方法及び装置に関し、特に高能率で符号化する技 術に関する。
背景技術
[0002] 従来、画像データは、データ量が膨大なものになるので、情報量を圧縮した高能 率符号化方式が各種開発されている。例えば、 1フレームの画像を、複数のブロック に分割して、分割された各ブロックの平均値,標準偏差,量子化情報などの複数の 情報を生成させ、この画像に関する複数の情報を符号化して伝送又は保管させ、画 像情報の復号ィ匕時には、それぞれの情報に基づいて原画像の再生ができるようにし た方式がある。
[0003] 図 12は、従来の MPEG (Moving Pictures Experts Group)符号化方式における、 動きベクトルの検出処理の流れの一例を示した図である。まず、 1枚(1フレーム)の 画像を所定画素単位でブロック分割する。そのブロック分割された画像データである ブロック画像が入力されると、対象となる動き補償領域をブロック画像の近傍に設定 し、 1フレーム前のその設定された領域内の画像データについても入力させる (ステツ プ Sl)。
[0004] そして、入力ブロック画像のデータを読出し (ステップ S2)、その読出した入力ブロッ ク画像と、動き補償領域内の参照用ブロック画像とのブロックマッチング処理を行う( ステップ S3)。そのブロックマッチング処理で得た評価関数値力 最小値である力否 か判断する (ステップ S4)。この判断で最小値でない場合には、比較する参照ブロッ クの位置をシフトさせるために、参照ブロックのアドレスを更新させ (ステップ S5)、ス テツプ S3でのブロックマッチング処理とステップ S4での比較を繰り返し行う。
[0005] このようにしてステップ S4で、評価関数値が最小であると判断された場合には、そ のときに検出された 1フレーム前の参照ブロック画像力 現在の入力ブロック画像の 位置に移動したと見なして、該当する参照ブロックのアドレスと入力ブロックのアドレス との差力も動きベクトル情報を生成させて、その動きベクトル情報を出力させる (ステ ップ S6)。
[0006] MPEG符号ィ匕方式では、動きベクトル情報の他に、各ブロックの DCT変換された 直流成分と交流成分についても得るようにしてある。なお、ここで示したデータの種類 は、 MPEG方式で画像データを符号ィ匕する場合の一部の種類だけを示してある。
[0007] 日本国特許庁発行の特開平 8— 274648号公報には、この種のブロック分けして 高能率符号ィ匕する一例についての記載がある。
[0008] ところで、今まで提案されて実用化されている高能率符号化方式でも、それなり〖こ 情報量の圧縮処理が行われては 、るが、伝送効率の改善や記憶容量の削減を現在 以上に行うために、より一層の画像データの高能率符号ィ匕を行うことが求められてい た。
[0009] 画像信号に関する処理として、従来から画像信号に他の情報を埋め込む技術が知 られている。そのような画像信号への埋め込み技術として、従来カゝら知られているも のに、通信秘匿 (ステガノグラフィ)、電子透力しがある。前者は、スパイ通信を目的と して、真に伝えたい情報を見せかけの画像の中に埋め込んで、伝送するものである。 一方、後者は、著作権保護を目的として、伝送する画像に関する著作権情報を当該 画像の中に埋め込んで、伝送するものである。いずれの場合も、埋込み後の画像品 質の劣化が極力小さくなるようにされることが望ましい。このため、人間の視覚特性を 利用して、画像信号のうち、劣化として感じられにくい領域の画像信号を、量子化な どにより粗くし、そこに作られた空きビットに埋め込みデータが埋め込まれる。このよう な方式では、伝送容量の観点から言えば、量子化等により帯域圧縮された画像信号 と埋め込みデータを個別に伝送することと何も変わりはない。
[0010] 一方、画像信号の高能率符号化を目的として、画像信号の中の符号化パラメータ の一部を、自分自身の画像の他の符号ィ匕データの中に埋め込むことで、データ量を 圧縮する方式は、従来は存在しない。なお、一部のデータを画像データ中に埋め込 む場合において、量子化などにより粗くし、そこに作られた空きビットに埋め込みデー タを埋め込むような、電子透力 技術などと同様の方法では、前述したように、伝送容 量の観点から言えば、量子化等により帯域圧縮された画像信号と埋め込みデータを 個別に伝送することと何も変わりはなぐ意味のないことである。
[0011] 本発明は力かる点に鑑みてなされたものであり、画像データのより一層の高能率符 号化及び復号化が行えるようにすることを目的とする。
発明の開示
[0012] 本発明は、動画又は静止画を構成する画像データを、その画像データ自身から生 成した複数の情報に分類し、分類された複数の情報を符号化する場合において、分 類された複数の情報の内の一部の情報の値に基づいて、複数の情報の内の他の情 報の符号化状態を変化させる符号化を行 、、一部の情報の情報量を削減した符号 化を行うようにしたものである。
[0013] また本発明は、分類された複数の情報の内の一部の情報が、複数の情報の内の、 他の情報の符号ィヒの際に一体となった符号ィヒが行われて、情報量が削減されたもの を復号ィ匕する場合において、一体となった状態の情報力 一部の情報を検出して復 号化し、さらに符号化されている他の情報も復号化し、復号化されたそれぞれの情報 に基づ!/、て、原画像を再生するようにしたものである。
[0014] 本発明によると、複数の種類に分類されて符号化された情報の内の一部の情報に 基づいて、他の情報の符号ィ匕状態が変化して、一部の情報の情報量の削減が行わ れるので、それだけ情報量が削減された画像データとして符号化されると共に、その 符号化された画像データが復号化され、伝送や保管させる情報量を効果的に削減 することができる効果を有する。
[0015] この場合、分類された複数の情報は、画像の所定の特性のデータと、 1枚の画像デ ータをブロック分けした場合の各ブロックに類似する他のブロックのアドレスデータで あり、アドレスデータの特定ビット位置のデータ力 所定の特性の所定のビット位置の データと一致するように、類似する他のブロックを探索する処理を行い、所定のビット 位置のデータを削減したことで、情報量を効果的に削減できる。
[0016] また、各ブロックに類似する他のブロックのアドレスデータは、当該 1枚の画像デー タより前又は後の画像データのブロックのアドレスデータであり、類似する他のブロッ クのアドレスデータで、画像の動きベクトルを示すことで、動きベクトル情報を利用した 符号ィ匕を行う符号ィ匕方式での情報量の削減を効果的に行うことができる。
[0017] また、符号化された画像データの情報量を計測し、計測した情報量が所定の閾値 を越えた場合に、一部の情報を他の情報に埋込む処理を行うことで、符号化された 情報量を所定量に抑えることができ、画像データの情報量を効果的に削減できる。
[0018] また、符号化された画像データの情報量を計測し、計測した情報量に応じて、一部 の情報を埋込む埋込範囲を可変設定することで、画像に埋込まれる範囲が適正に設 定されるようになる。
図面の簡単な説明
[0019] [図 1]本発明の一実施の形態による符号ィ匕構成例を示すブロック図である。
[図 2]本発明の一実施の形態による符号ィ匕処理例を示すフローチャートである。
[図 3]本発明の一実施の形態によるブロックマッチングの探索例を示す説明図である
[図 4]本発明の一実施の形態による各フレームでの処理例を示す説明図である。
[図 5]本発明の一実施の形態による符号ィ匕によるデータ圧縮率を他の方式と比較し た特'性図である。
[図 6]本発明の他の実施の形態による符号ィ匕構成例を示すブロック図である。
[図 7]本発明の他の実施の形態による復号ィ匕構成例を示すブロック図である。
[図 8]本発明の他の実施の形態によるフラクタル画像符号化構成例を示すブロック図 である。
[図 9]本発明の他の実施の形態によるフラクタル画像復号化構成例を示すブロック図 である。
[図 10]本発明のさらに他の実施の形態による JPEG符号ィ匕及び復号ィ匕の構成例を示 すブロック図である。
[図 11]図 10例のジグザグスキャンの一例を示す説明図である。
[図 12]従来の符号ィ匕処理例を示すフローチャートである。
発明を実施するための最良の形態
[0020] 以下、本発明の一実施の形態の例を、図 1〜図 5を参照して説明する。 本実施の形態においては、 MPEG符号ィ匕方式により画像データを符号ィ匕し復号 化する処理に適用した例である。
[0021] 図 1は、本例の MPEG符号ィ匕を行う構成の概要を示す図である。画像入力端子 11 には圧縮符号ィ匕を行う映像データが供給される。画像入力端子 11には、例えば毎 秒 30フレームの画像データ(映像データ)が供給される。この画像データは、 1フレー ム内の各画素の画素値が所定状態で配列されたデータであり、各々の 1画素のデー タが所定のビット数の値で示される、圧縮符号化がされて ヽな 、画像データである。 この画像入力端子 11に得られる画像データを、以下に説明する図 1に示す構成で 圧縮符号化する。
[0022] 圧縮符号化する構成としては、画像入力端子 11に得られる画像データを、減算器 12に供給する。減算器 12は、画像入力端子 11に得られる画像データから、後述す るフレームメモリ 20側から動き補償予測回路 21を介して供給される画像データを減 算して、差分のデータを得る回路である。フレームメモリ 20が出力する減算用の映像 データについても、 1フレーム内の各画素の画素値が所定状態で配列されたデータ であり、各々の 1画素のデータが所定のビット数の値で示され、減算器 12では画素値 の差分がとられる。
[0023] 減算器 12の出力は、 DCT (Discrete Cosine Transform:離散コサイン変換)回路 1 3に供給して、離散コサイン変換を行い、変換された画像データを量子化器 14に送り 、量子化する。量子化器 14で量子化する際には、例えば DC成分の量子化された最 下位ビットについては、遅延回路 22を介して所定期間遅延して動き補償予測回路 2 1に供給する。
量子化された画像データ (DCT変換係数)は、エントロピーコーディング部 15に送 り、エントロピーコーディングを行う。量子化器 14からエントロピーコーディング部 15 に送る例えば DC成分のデータについては、最下位ビットを省略したデータとする。そ して、エントロピーコーディング部 15でエントロピーコーディングが行われたデータを データ出力端子 16から出力させ、所定の伝送路を使用した画像データの伝送、或 いは記録媒体への記録処理を行う。後述する動き補償予測回路 21で生成された動 きベクトルについても、エントロピーコーディング部 15に送り、エントロピーコーディン グを行った後、データ出力端子 16から出力させる。
[0024] 動き補償予測回路 21での動きベクトルの生成処理について説明すると、量子化器 14で量子化された画像データは、逆量子化器 17に供給して、量子化される前のデ ータに戻す。この量子化器 14力も逆量子化器 17に供給されるデータについては、 最下位ビットを省略して 、な 、データである。逆量子化器 17で逆量子化された画像 データは、逆 DCT回路 18に供給して逆 DCT変換し、逆 DCT変換された画像デー タを加算器 19に供給して、動き補償予測回路 21の出力と加算する。加算器 19の出 力は、フレームメモリ 20に記憶させる。
[0025] フレームメモリ 20に記憶された過去の画像データは、動き補償予測回路 21に読み 出されて、画像入力端子 11に得られる現在の画像データと比較される。動き補償予 測回路 21では、その比較により画像内の動きを検出し、動きベクトル情報を生成する 。動きベクトル情報の具体的な例については後述する。生成された動きベクトル情報 は、エントロピーコーディング部 15に送る。エントロピーコーディング部 15では、動き ベクトル情報及び DCT変換係数がそれぞれ可変長符号ィ匕或いは算術符号ィ匕など で効率のよ!、圧縮符号化が行われる。
[0026] 動き補償予測回路 21で画像内の動きを検出する際には、 1フレーム内の画像を分 割させて形成させたブロックを単位として検出する。即ち、例えば 1フレーム内の画像 を縦 8画素 X横 8画素の 64画素のブロックに分割し、その 64画素のブロックに類似 するブロックを検出する処理が行われる。
[0027] そして、動き補償予測回路 21でブロック単位の動き検出処理が行われる際には、 D CT回路 13で生成された過去の DCT変換係数の DC成分 (直流成分)の供給を受け て、その DC成分を動きベクトルに埋め込む処理を行う。
[0028] このため、 DCT回路 13で生成された DCT変換係数を、遅延回路 22に記憶させて 遅延させた上で、動き補償予測回路 21に供給する構成とする。動き補償予測回路 2 1では、その過去の DCT変換係数の DC成分の一部を、動きベクトルに埋め込む処 理を行う。その埋め込み処理の詳細については後述する。また、埋め込まれた DC成 分の情報は、量子化回路 14からエントロピーコーディング部 15には供給させない構 成としてある。 [0029] 例えば、後述するように DCT変換係数の DC成分の最下位ビットを埋め込んだ場 合、その最下位ビットについてはエントロピーコーディング部 15には供給されない。
[0030] 本実施の形態においては、この図 1に示すような動きベクトルを使用した動画デー タの符号ィ匕が行われる場合にぉ 、て、例えば所定のブロック数前の DCT変換後の 直流成分などの一部の値に基づ 、て、動きベクトル情報の生成処理を変化させて、 情報量を圧縮させる処理を行うようにしてある。なお、このように符号化された画像デ ータを復号ィ匕する際には、図 1の構成と逆の処理構成にて復号化が行われる。
[0031] 以下、図 2のフローチャートを参照して、本実施の形態による動きベクトル情報に関 係した符号化処理例を説明する。この動きベクトル情報に関する処理は、動き補償 予測回路 21とその周辺回路で実行される。
まず、入力された 1枚(1フレーム)の画像は、所定画素単位でブロック分割される。 例えば、水平方向 8画素 X垂直方向 8画素の 64画素単位でブロック分割される。ブ ロック分割された画像データであるブロック画像が入力されると、対象となる動き補償 領域をブロック画像の近傍に設定し、 1フレーム前のその設定された領域内の画像 データについても入力させる (ステップ Sl l)。ここでの動き補償領域としては、画素 アドレスが奇数アドレスで始まるブロック群で構成される動き補償領域と、画素アドレ スが偶数アドレスで始まるブロック群で構成される動き補償領域とに分ける。
[0032] この動き補償領域について、図 3を参照して説明すると、例えば図 3 (a)に示すよう に、現在処理中の 1フレームの画像 Fa内の特定のブロック blが、動きベクトルを検出 するための対象となる画像ブロックであるとする。このとき、図 3 (b)に示すように、画 像 Faより 1フレーム前の画像 F (a— 1)を用意し、その画像 F (a— 1)の中で、特定の ブロック blの位置を中心とした所定範囲を、動き補償領域 bxとする。この動き補償領 域 bx内で、 1フレーム後のブロック blに類似したブロックが存在することを検出したと き、その検出したブロック位置から、現在のブロック blまで画像で示される物体が移 動したと見なして、該当する動きの動きベクトル情報を生成させる。
[0033] 本実施の形態においては、この動きベクトル情報を生成させる際に、その動きべタト ル情報の生成に関係させる画像の特定の種類のデータについても用意する。そのデ ータとしては、ここでは遅延回路 22で遅延される所定の時間だけ前の DCT変換係 数の DC成分の最下位ビット Wとする。なお、以下の説明では、画像の特定のデータ を、動きベクトル情報の生成に関係させることを、特定のデータを動きベクトル情報に 埋め込む処理を行うと説明する。ここでの埋め込みとは、特定のデータに基づいて、 動きベクトル情報の生成状態を変化させることを示す。
[0034] 図 2のフローチャートの動きベクトル情報の生成処理の説明に戻ると、対象となる入 カブロック画像のデータを読出す (ステップ S12)。そして、 DC成分の最下位ビット W の値が 1か 0か判断する(ステップ S13)。この判断で、 DC成分の最下位ビット Wの値 力 である場合 (即ち奇数である場合)には、入力ブロック画像と、動き補償領域内の 画素ブロックとを比較するブロックマッチング処理を行う(ステップ S14)。このときの比 較対象となる動き補償領域内の画素ブロックとしては、画素アドレスが奇数アドレスで 始まる画素ブロックだけを使用する。
[0035] このように比較を行って、ほぼ一致が検出された場合には、一致度を示す評価関数 値が最小か否力判断し (ステップ S 15)、最小でない場合には、比較するブロックのァ ドレス(奇数アドレス)を更新させ (ステップ S 17)、ステップ S 14のブロックマッチング 処理に戻る。
[0036] ステップ S 15で最小であると判断した場合には、その評価関数値が最小のブロック アドレスを動きベクトル情報とし、その動きベクトル情報を、後段の処理部に送出する (ステップ S 16)。
[0037] また、ステップ S 13の判断で、 DC成分の最下位ビット Wの値力 ^である場合 (即ち 偶数である場合)には、入力ブロック画像と、動き補償領域内の画素ブロックとを比較 するブロックマッチング処理を行う(ステップ S 18)。このときの比較対象となる動き補 償領域内の画素ブロックとしては、画素アドレスが偶数アドレスで始まる画素ブロック だけを使用する。
[0038] このように比較を行って、ほぼ一致が検出された場合には、一致度を示す評価関数 値が最小か否力判断し (ステップ S 19)、最小でない場合には、比較するブロックのァ ドレス(偶数アドレス)を更新させ (ステップ S 20)、ステップ S 18のブロックマッチング 処理に戻る。
[0039] ステップ S 19で最小であると判断した場合には、その評価関数値が最小の参照ブ ロックのアドレスを、動きベクトル情報とし、その動きベクトル情報を後段の処理部に 送出する (ステップ S21)。
[0040] この図 2のフローチャートに示すように、 DCT変換係数の DC成分の最下位ビットに 基づいて、動きベクトルの検出状態を変化させることで、符号化時に動きベクトル情 報だけを送ることで、その動きベクトル情報に DCT変換係数の DC成分の最下位ビッ トの情報が含まれることになり、それだけ符号化された画像データの情報量を削減す ることができる。即ち、動きベクトル情報に DC成分の最下位ビットが埋め込まれたデ ータ構成となる。
[0041] このようなデータ構成で圧縮符号化された画像データを伝送路で伝送させるか、又 は記録 (記憶)媒体に記憶させることで、伝送容量や記録容量を効果的に削減するこ とがでさる。
伝送された画像データを受信した側、或いは、記録された画像データを再生した側 では、逆の処理を行えばよい。即ち、動きベクトルの情報である、参照ブロックのアド レスが偶数アドレスか奇数アドレスかの判断をして、 DCT変換係数の DC成分の所定 ビット位置 (最下位ビット)を復号ィ匕する処理をおこなえばょ 、。
[0042] なお、参照ブロックを探索する範囲が半分に制限されることになるが、検出精度に 劣化があつたとしても、最適なブロック位置から 1画素ずれるだけであり、動き検出精 度の低下による画質の劣化はわずかであるのに対して、画像データのデータ容量の 削減効果は大きい。
図 2のフローチャートの例では、 DC成分の下位 1ビットを間引く例とした力 画像ブ ロックのアドレスデータは、実際には縦方向(垂直方向)のアドレスと横方向(水平方 向)のアドレスとがあり、それぞれのアドレスの選択に適用することで、 DC成分の 2ビ ットをアドレスデータに埋め込んで間引くことが可能である。
[0043] また、ここまでの説明では、 DCT変換係数の DC成分の特定ビットを間引くようした 1S その他のデータを同様の手法で埋め込んで間引くようにしてもよい。例えば、ブロ ックの平均値や標準偏差などのデータを伝送する必要がある符号ィ匕方式の場合に は、その標準偏差や平均値の一部のビットを同様の手法で間引くようにしてもよい。 埋め込みで間引くビット位置についても、下位のビット位置以外を間引く(削減)する ようにしてもよい。上述例では、圧縮符号化する際に、過去のフレームのデータを参 照して動きベクトルを検出する処理を行う例に適用したが、処理対象となる現在のフ レームに対して、時間的に先のフレームとの比較で、動きベクトルを検出する必要が ある場合にも同様の手法で実現できることは明らかである。
[0044] また、ここまで説明した手法は、動画像である MPEGの画像データの全てのフレー ム画像に対して適用するようにした力 特定のフレームの画像データにだけ、ここで 埋め込みと称している処理を行うようにしてもよい。例えば、 MPEG符号ィ匕では、 B (B i-directionally predictive coded)ピクチャへの埋込が画質上望ましい。即ち、例えば MPEG2方式の符号化方式では、 I (Intra coded)ピクチャ, P (Predictive coded)ピク チヤ, Bピクチャの 3種類の画像データが存在する。 Iピクチャは、 1フレーム内で独立 した符号ィ匕が行われる。 Pピクチャは、前方向予測符号化画面で、時間的に過去に 存在する Iピクチャ又は Pピクチャ力も予測符号ィ匕を行う。 Bピクチャは、両方向予測 符号化画面で、時間的に前後に存在する Iピクチャ又は Pピクチャから予測符号ィ匕を 行う。
[0045] 図 4に示すように、例えば Iピクチャ II, Bピクチャ Bl, Bピクチャ B2, Pピクチャ PI, B ピクチャ B3,……と、 Iピクチャと Pピクチャと Bピクチャが周期的に配置されている。各 ピクチャの配置順序は一例である。ここで符号ィ匕データの情報量などに応じた埋込 処理の制御を行うことで、例えば図 4に示すように、 Bピクチャの符号ィ匕データにだけ 、既に説明した情報の埋込処理を行うようにする。なお、 Bピクチャ以外の画像データ を圧縮符号ィ匕する際にも適用可能であることは勿論である。また、同様の動きべタト ルを利用した符号化処理であれば、 MPEG以外の方式にも適用可能である。
[0046] ここで、本実施の形態による圧縮処理を実行した場合の圧縮率の変化例を、表 1に 示す。
[0047] [表 1] 動 画 元の画像の ^縮後の情報 本実施の形態の情報量
像 情報量 量
1 セ 1 3 b p 1ノ 1 0 0に • 130kbps/15i^8667bps
グ メ s 圧縮で 1 3 0 • 320 240両像サイズで S X 8のブコック構成とする ン ト Q V G A ( 3 k b p s と、 320/8 X 240/8=1200ブロック/フレームとなる。
放送 2 0 X 2 4 (H. 2 6 4 • 8667bpf71200=7.22bits block
0〉、 /AV C ) • 1ブロック当たり lbitの埋め込みで 1 7.22で ] 3,8%
1 5 f p s 圧縮でき、 112kbpsになる。
で計算 •すなわち、 約 1 16に圧縮されたことになる。
動画像の情報量
[0048] この表 1の例では、 1セグメント放送と称される放送方式で伝送される、比較的圧縮 率の高い画像データを伝送する例に適用した例である。この表 1の情報量の算出を する上で使用した 1セグメント放送の情報量は、インプレス社発行の「1セグ教科書」 に基づく。
まず、元の画像データの情報量としては、 1フレームが 320画素 X 240画素で構成 されて、 1秒あたり 15フレームのフレームレートであるとすると、伝送レートとして 13M bpsとなる。この 13Mbpsのデータを、従来から知られた H. 264ZAVC方式で lZl 00の情報量に圧縮符号化することで、 130kbpsの伝送レートとすることができる。
[0049] さらに、この 130kbpsの伝送レートの画像データに対して、本実施の形態の処理を 適用することで、 112kbpsに伝送レートを削減できる。具体的には、 130kbpsの伝送 レートのデータは、 1フレーム当たり 8667ビットで構成されることになる。このとき、 32 0 X 240画素の画像データカ、 8 X 8のブロック構成であるとすると、 1フレーム当たり 1200ブロックとなる。 1フレーム当たりの 8667ビットを、 1ブロック当たりの値に換算す ると、 1ブロック当たり 7. 22ビットとなる。
[0050] 本実施の形態の場合には、 1ブロック当たり 1ビットの削減が可能であるので、その 7 . 22ビット力 6. 22ビットとなり、結果的に 112kbpsの伝送レートとなり、圧縮率を 13. 8%向上させることがでさる。
[0051] 図 5は、現在まで実用化されている各符号化方式の圧縮率と本実施の形態による 符号化方式による圧縮率とを比較した図である。 MPEG1方式、 MPEG2方式、 H. 264ZAVC方式と、符号ィ匕方式が高度化するに従って圧縮率が向上していることが 判る。ここで、例えば H. 264ZAVC方式に、さらに本実施の形態の処理を組み合 わせることで、さらに圧縮率を向上させることが可能であることが判る。
[0052] 次に、本発明の他の実施の形態を、図 6〜図 9を参照して説明する。
本実施の形態の画像符号化構成を図 6に示す。 1は画像入力端子、 2は符号化デ ータ出力端子、 100は画像入力インターフェース、 200は情報処理 '分離回路、 300 は埋込領域判定 '情報量子化回路、 400は埋込データ分離 ·情報量子化回路、 500 はデータ埋込 ·情報量子化回路、 600は符号割当回路、 700は多重化回路、 800は 送信バッファメモリ、 900はデータ出力インターフェースである。
[0053] 図 6に示した構成による処理及び動作について詳細に説明する。画像入力端子 1 には、アナログ画像信号を符号化したい場合には、アナログ/ディジタル変換 (AZ D変換)により、ディジタル化された信号が、あるいはディジタル画像信号であればそ のまま供給される。画像入力インターフェース 100は、供給された画像信号を、例え «JPEGや MPEG等で規定されるような、所定のフォーマットに変換し、画像処理 '分 離回路 200に供給する。
[0054] 画像処理 '分離回路 200は、入力される画像信号に対して所定の画像処理を行う。
ここで行われる画像処理は、例えば、 JPEG, MPEG,ベクトル量子化、ウェーブレツ ト変換符号化、あるいはフラクタル画像符号ィ匕等、任意の所定の方式に基づいた情 報源符号ィヒ処理が適用可能であり、静止画、動画いずれの画像にも適用可能である 。この画像処理 ·分離回路 200はまた、適用される所定の情報源符号化に対応して、 例えば符号ィヒ単位であるブロック毎の平均値や標準偏差やその他の情報等、複数 の情報に分類し、それぞれ出力する。
[0055] 埋込領域判定 '情報量子化回路 300は、画像処理 ·分離回路 200から出力される 一部の情報を用いて、情報の埋込位置を判定する。この埋込位置は、送信バッファメ モリ 800から供給される情報発生量制御信号を用いて制御される。判定される情報 の埋込位置としては、例えば、画像中の輝度の変化が大きい領域を埋込位置として 判定する。
[0056] 埋込データ分離 ·情報量子化回路 400は、画像処理 ·分離回路 200から出力され る一部の情報を入力して、その情報の一部または全部を他の情報に埋込むデータと して選び、データ埋込 '情報量子化回路 500に出力する。埋込データとして選ばれる データは、送信バッファメモリ 800から供給される情報発生量制御信号を用いて制御 される。また、埋込データとして選ばれな力つた残りのデータは符号割当回路 600に 出力される。
[0057] データ埋込 ·情報量子化回路 500は、埋込データ分離 '情報量子化回路 400から 供給されるデータを、画像処理 '分離回路 200から供給される他の一部の情報に埋 込、得られた合成データを符号割当回路 600に出力する。データの埋込方法は、送 信バッファメモリ 800から供給される情報発生量制御信号を用いて制御される。
[0058] 符号割当回路 600は、埋込データ分離 '情報量子化回路 400、データ埋込,情報 量子化回路 500、画像処理 ·分離回路 200から出力されるデータを入力し、可変長 符号化、算術符号化、ランレングス符号ィ匕等所定の方法により符号割当を行い、そ れぞれを多重化回路 700に出力する。符号割当方法は、送信バッファメモリ 800から 供給される情報発生量制御信号を用いて制御される。
[0059] 多重化回路 700は、符号割当回路 600から供給されるデータ、および送信バッファ メモリ 800から供給される情報発生量制御信号を所定の方法により多重化して、一つ のデータ系列に変換して送信バッファメモリ 800に出力する。
[0060] 送信バッファメモリ 800は、多重化回路 700から供給される不均一なデータをー且 記憶し、先に記憶されたデータ力 順番に所定の速度で読み出し、データ出力イン ターフェース 900に出力する。この送信バッファメモリは記憶情報量を計測し、記憶 情報量が所定の閾値を超えた場合は、以後の情報発生量を制御するための情報発 生量制御信号を、画像処理 ·分離回路 200、埋込領域判定,情報量子化回路 300、 埋込データ分離,情報量子化回路 400、データ埋込 ·情報量子化回路 500、符号割 当回路 600、多重化回路 700に出力する。
[0061] データ出力インターフェース 900は送信バッファメモリ 800から供給されるデータを 接続されるディジタル伝送路あるいは蓄積メディアのフォーマットに対応させて変換し 出力する。
[0062] 次に、図 6の構成で符号化された画像データを復号化する、画像復号化の構成例 を図 7に示す。
3は符号化データ入力端子、 4は画像出力端子、 950はデータ入力インターフエ一 ス、 850は受信バッファメモリ、 750はデータ分離回路、 650は符号解読回路、 550 は埋込データ抽出 ·情報逆量子化回路、 450は埋込データ合成 ·情報逆量子化回 路、 350は埋込領域判定'情報逆量子化回路、 250は画像復号 '合成回路、 150は 画像出力インターフェースである。
[0063] 図 7の構成による処理及び動作について詳細に説明する。
データ入力インターフェース 950は、符号ィ匕データ入力端子 3から、ディジタル伝送 路あるいは蓄積メディアのフォーマットで供給される受信データを入力し、復号化デ ータの形式に変換して、受信バッファメモリ 850に出力する。
[0064] 受信バッファメモリ 850は、データ入力インターフェース 950から供給される均一な データをー且記憶し、先に記憶されたデータ力 順番に所定の復号ィ匕速度で読み 出し、データ分離回路 750に出力する。
[0065] データ分離回路 750は、受信バッファメモリ 850から供給される一つのデータ系列 を入力し、埋込領域判定に使われた情報、一部のデータを分離された情報、他の一 部の分離されたデータを埋込まれた情報、埋込に関らな力つた情報、符号化側で用 いられた情報発生量制御信号等を分類して、符号解読回路 650に出力する。
[0066] 符号解読回路 650は、データ分離回路 750から入力されるデータから、符号化側 で割当られた各符号を解読し、埋込データ抽出 ·情報逆量子化回路 550、埋込デ一 タ合成,情報逆量子化回路 450、埋込領域判定,情報逆量子化回路 350、画像復号 •合成回路 250に該当するデータをそれぞれ出力する。また、符号化側で用いられ た情報発生量制御信号を解読し、埋込データ抽出 ·情報逆量子化回路 550、埋込 データ合成 ·情報逆量子化回路 450、埋込領域判定 ·情報逆量子化回路 350、画像 復号 '合成回路 250に出力する。
[0067] 埋込データ抽出 ·情報逆量子化回路 550は、符号解読回路 650から供給されるデ ータを入力し、埋込まれている他のデータを抽出して埋込データ合成'情報逆量子 化回路 450に出力し、その他の情報を符号化側の量子化と逆の処理を行い、その結 果を画像復号 '合成回路 250に出力する。逆量子化特性は、符号化側で用いられた 情報発生量制御信号に基づ!、て制御される。
[0068] 埋込データ合成 ·情報逆量子化回路 450は、符号解読回路 650から供給されるデ ータを入力するとともに、埋込データ抽出'情報逆量子化回路 550から供給され、他 に埋込まれていたデータを入力し、両入力データを合成し、符号化側の量子化と逆 の処理を行い、その結果を画像復号 '合成回路 250に出力する。逆量子化特性は、 符号化側で用いられた情報発生量制御信号に基づ!、て制御される。
[0069] 埋込領域判定 ·情報逆量子化回路 350は、符号解読回路 650から供給されるデー タを入力し、符号ィ匕側で埋込領域判定に用いられた情報に対して、符号化側の量子 化と逆の処理を行い、その結果を画像復号 '合成回路 250に出力する。逆量子化特 性は、符号化側で用いられた情報発生量制御信号に基づ!、て制御される。
[0070] 画像復号 ·合成回路 250は、符号解読回路 650、埋込データ抽出 ·情報逆量子化 回路 550、埋込データ合成 ·情報逆量子化回路 450、埋込領域判定 ·情報逆量子化 回路 350から供給される各情報を合成し、例えば、 JPEG, MPEG,ベクトル量子化 、ウェーブレット変換符号化、あるいはフラクタル画像符号ィ匕等、符号化側で適用さ れた任意の所定の方式に基づ ヽた情報源復号化処理を行!ヽ、復号画像信号を画像 出力インターフェース 150に出力する。
[0071] 画像出力インターフェース 150は、画像復号'合成回路 250から供給された、例え «JPEGや MPEG等で規定されるような、所定のフォーマットを、画像出力端子 4に 規定されるフォーマットに変換してディジタル画像データを出力する。アナログ画像 信号を得たい場合には、図 7には記載していないが、 DZA変換によりアナログ信号 に変換すればよい。
[0072] 次に、図 6及び図 7に示した符号ィ匕及び復号ィ匕のより具体的な例として、フラクタル 画像符号ィ匕に適用した場合の例について、図 8及び図 9を参照して説明する。なお、 ここではフラクタル画像符号ィ匕そのものの技術の詳細な説明は省略してあり、本発明 の実施の形態を適用する上で特徴となる部分について詳細に述べる。
[0073] 図 8は、フラクタル画像符号化の場合の例を示す。図 6と同じ回路構成には同じ符 号を使用してある。 201は画像処理 '分離ブロック、 202は画像処理 '分離回路、 301 は埋込領域判定 '情報量子化回路、 401は埋込データ分離 ·情報量子化回路、 501 はデータ埋込 ·情報量子化回路、 601は符号割当回路、 701は多重化回路、 801は 送信バッファメモリ、 900はデータ出力インターフェースである。画像処理 '分離回路 202とデータ埋込 ·情報量子化回路 501は、画像処理 ·分離ブロック 201内に構成さ れている。
[0074] 図 8の構成による処理及び動作について詳細に説明する。図 6の構成と同じ処理 や動作にっ ヽては省略する。
画像処理 '分離回路 202は、通常のフラクタル画像符号ィ匕で行うように、画像を、相 互に重ならない、符号ィ匕の単位であるレンジブロック (ブロックサイ R XR)に分割す る。また、これとは別に、自画像の中力も相互に重なるドメインブロック(ブロックサイズ D X D、 D>R)を抽出し、ドメインプールに蓄積する。ドメインブロックのパターンの種 類を多くするために、各ドメインブロックに対して、縦、横、斜め方向等の折り返し等に より 8種類のァフィン変換を行 、、 8倍のドメインブロック数のドメインプールを構成す る。このァフィン変換情報を符号割当回路 601に出力する。
[0075] 符号ィ匕しょうとする各レンジプロックに対して、当該ブロックの標準偏差を計算し、こ れを埋込領域判定 ·情報量子化回路 301に出力する。また、当該ブロックの平均値 を計算し、これを埋込データ分離 ·情報量子化回路 401に出力する。さらに、各レン ジブロックのパターンに対して、上記ドメインプールの中力らもつともパターンマツチン グの良 、最適ドメインブロックを探索し、この最適ドメインブロックのアドレス情報 (Ax , Ay)をデータ埋込 ·情報量子化回路 501に出力する。
[0076] 次に、埋込領域判定,情報量子化回路 301は、画像処理 ·分離回路 202から供給 されるブロック毎の標準偏差に対して、送信バッファメモリ 801から供給される情報発 生量制御信号を用いて閾値制御を行い、埋込位置を判定する。表 2に情報発生量 制御信号による埋込領域判定法を示す。
[0077] [表 2] 送倌バッファメモリ 情報発生 1 埋込領域
記僳情報 IBM
制御信号
T8M3< = BM ΒΜ4 全領域
Τ ΒΜ3 ひ > = τσ3
ΒΜ2 σ > = Τσ2
Β , σ > = Τσ 1
ΒΜ<ΤΒΜ0 ΒΜ0 埋込なし
ΤΒΜ【:ΒΜに対する蘭慷 τσΙ : σに対する Μ値
情報発生量制御信号による埋込領域判定法
[0078] 表 2において、左の 2つの列は、送信バッファメモリ記憶情報量 BMと情報発生量制 御信号との関係を示す。 BMの添え字が小さいほど送信バッファメモリ記憶情報量 B Mが小さい状態であることを表す。 σは画像データの標準偏差であり、標準偏差 σ が大きいほど、その領域の画像の輝度などの変化が大きいことを示す。標準偏差 σ の閾値 Τ , Τ ……は、添え字が大きいほど閾値が小さくなる。後述する表 2,表 3, 表 4につ 、ても、同じ符号にっ ヽては意味が同じである。
[0079] 表 2に示すように、 ΒΜの時は、まだ情報発生を許せるため、埋込を行わず従来通
0
りの個別の符号ィ匕を行う。 ΒΜの時は、標準偏差 σが比較的大きい閾値 Τ 以上の 領域にのみデータの埋込を許すこととする。そして、それよりも送信バッファメモリ記 憶情報量 ΒΜが大きくなつた ΒΜの時は、標準偏差 σが小さい閾値 Τ 以上の領域 にのみデータの埋込を許すこととする。さらに送信バッファメモリ記憶情報量 ΒΜが大 きくなつた Β の時は、標準偏差 σがより小さい閾値 Τ 以上の領域にのみデータの
Μ3 σ 3
埋込を許すこととし、さらに送信バッファメモリ記憶情報量 ΒΜが大きくなつた Β の時
Μ3 は、標準偏差 σの値に関係なく全領域でデータの埋込をする。
[0080] 表 3に、情報発生量制御信号による標準偏差の情報の量子化法を示す。
[0081] [表 3]
Figure imgf000020_0001
Offk:irtt (び Zqffk +0. 5) :最子化係数
锖報発生量制御侰号による楝準偏差量子化制御法
[0082] 表 3において、量子化特性 Q ……は、標準偏差 σの量子化特性である。送信パ ッファメモリの記憶量が少ない情報発生量制御信号 Β の時は、まだ情報発生を許
ΜΟ
せるため、小さい量子化係数 Q で標準偏差びを割り、標準偏差 ΒΜの添え字が大 きくなるにつれて (即ち送信バッファメモリの記憶量が大きくなるにつれて)、量子化特 性 Q の値を大きくする。なお、量子化特性 Q は、表 2の末尾の数式で示す演算で σ k a k
求まるものであり、標準偏差 σと量子化係数 q 力も求まる特性である。
σ k
[0083] 次に、埋込データ分離'情報量子化回路 401について述べる。埋込データ分離. 情報量子化回路 401は、画像処理 ·分離回路 202から供給されるブロック毎の平均 値に対して、送信バッファメモリ 801から供給される情報発生量制御信号を用いて量 子化制御を行う。表 3に情報発生量制御信号による平均値量子化制御法を示す。
[0084] [表 4] 送傕バッファメモリ 情報発生量 平 ½値 量子化特性
S5«情報量 BM m
制御信号
TaM3< = BM BM4 Tm3 > = rT1
= BM<TBMa BM。 > = m >Tm3 Qm3
ΒΜ2 Tml > = m>Tmi, Qmi
TBMD< =BM<TBM1 ΒΜ, Tm0> = m>Tml Qm
BM <TBM0 ΒΜ0 m>丁 m0 Qm
TBM: BMに対する閱値 ^ Γπに *lする SB懷
Qmk: int(m/-qmk+0. 5) qm 量子化係数
情報 US生量制御倌号による平均値量子化制御法
[0085] 表 3との違いは右の 2つの列のみであり、情報発生量制御信号 BMの時はまだ情 報発生を許せるため、小さい量子化係数 Q で
mO 平均値 mを割り、 BMの添え字が大き くなるにつれて (即ち送信バッファメモリの記憶量が大きくなるにつれて)、平均値の 量子化特性 Q の値を大きくする。量子化された平均値 mは固定長符号を割当られ
mk
る。なお、量子化特性 Q は、表 4の末尾の数式で示す演算で求まるものであり、平
mk
均値 mと量子化係数 q カゝら求まる特性である。
mk
[0086] また、埋込領域判定'情報量子化回路 301により指定される埋込領域に対応する ブロック平均値の固定長ビットの下位のビットから順に、送信バッファメモリ 801から供 給される情報発生量制御信号を用いて埋込データとして分離制御を行う。表 5に情 報発生量制御信号による埋込データ分離法を示す。
[0087] [表 5]
Figure imgf000022_0001
情報発生量制御信号による埋込データ分離法
[0088] 表 4と左の 2つの列は同じであり、情報発生量制御信号 BMの時はまだ情報発生
0
を許せるため、埋込ビットを分離せず、埋込は行わない。 BMの添え字が大きくなるに つれて (即ち送信バッファメモリの記憶量が大きくなるにつれて)、埋込ビット数 bの値 を大きくし、 BMの時は平均値の全ビットを埋込ビットとして抽出し、データ埋込 '情
4
報量子化回路 501に出力する。
[0089] 画像処理 '分離ブロック 201内のデータ埋込 '情報量子化回路 501は、画像処理' 分離回路 202から供給される最適ドメインブロックのアドレス情報 (Ax, Ay)に対して 、埋込領域判定 ·情報量子化回路 301により指定される埋込領域に、埋込データ分 離'情報量子化回路 401か供給される平均値の埋込ビットを埋込む。 1ビットのみ埋 込む時は、例えば Axに埋込むこととし、埋込データが" 0"のとき、画像処理 '分離回 路 202と連繋して、偶数のアドレスをもつドメインブロックのみ力 最適ドメインブロック を探索し、 Axの最下位ビットを" 0"にする。埋込データが" 1"のとき、奇数のアドレス をもつドメインブロックのみカゝら最適ドメインブロックを探索し、 Axの最下位ビットを" 1 "にする。埋込ビット数が 2ビットのときは Ayも用い、さらに多いときは、 Ax, Ayの下位 力 2ビット目も用いて埋込むこととする。 [0090] データ埋込 '情報量子化回路 501は符号割当回路 601、多重化回路 701、送信バ ッファメモリ 801は、上述したフラクタル画像符号ィ匕に対応した処理を行うこととなる。
[0091] 図 9は、本例をフラクタル画像復号化に適用した構成例を示す。これは、図 8に示し たフラクタル画像符号化と逆の処理を行うことになる。即ち、符号化データ入力端子 3 に得られる符号ィ匕データを、データ入力インターフェース 950と受信バッファメモリ 85 1を介してデータ分離回路 751に送る。データ分離回路 751で分離された各データ は、符号解読回路 651に送られ、符号が解読される。その解読されたデータが、埋込 データ抽出 ·情報逆量子化回路 551と、埋込データ合成 ·情報逆量子化回路 451と 、埋込領域判定'情報逆量子化回路 351とに送られて、それぞれの回路で対応した 処理が行われて、埋込まれたデータが取り出され、取り出されたデータを含む符号ィ匕 データが画像復号 '合成回路 251に送られ、画像データの復号化が行われ、合成さ れる。復号化された画像データは、画像出力インターフェース 150を介して画像出力 端子 4に送られ、外部に出力される。
[0092] なお、ここまで説明した各実施の形態で説明した符号化やその符号化された画像 データを復号ィ匕する処理は、それぞれの例で説明した具体的な方式に限定されるも のではない。
例えば、 JPEG, MPEG等で用いられている DCT (離散コサイン変換)に対して、著 作権情報を埋込んで 、る方法、 JPEG2000で用いられて 、るウェーブレット変換に 対して、著作権情報を埋込んでいる方法等、著作権情報を埋込むことができる方式 に対して、本発明が適用できることは容易に類推できる。
[0093] ここで、本発明を JPEG符号ィ匕方式に適用した場合の実施の形態を、図 10及び図 11を参照して説明する。
JPEG符号ィ匕方式は、主として静止画像データに適用される符号化方式で、図 10 で〖お PEG符号化方式での符号化と、その符号化で符号化された画像データの復号 化を示してある。
[0094] 図 10の構成について説明すると、画像入力端子 51に得られる 1枚の画像データ を減算器 52に供給して、オフセット発生器 53が出力するオフセット値との減算を行い 、差分値を出力する。出力された差分値は、 2次元 DCT回路 54に供給して、 8画素 X 8画素単位での DCT変換を行う。 DCT変換されたデータは、量子化器 55に供給 し、量子化テーブル 56を参照して量子化する。
[0095] 量子化器 55で量子化されたデータは、ジグザグスキャン回路 57に供給して AC 成分 (交流成分)を得て、その AC成分を埋め込み部 58に供給する。また、量子化器 55で量子化されたデータの内の DC成分(直流成分)は、 DPCM回路 59及び可変 長符号器 60での処理を行い、可変長符号器 60の出力の内の最下位ビットを埋め込 み部 58に供給する。可変長符号器 60の出力の内のその他のビットについては、伝 送路 63に出力データに含ませ、伝送路 63に送出する。
[0096] 埋め込み部 58では、 AC成分の低周波数成分に DC成分の最下位ビットを埋め込 む処理を行う。埋め込み処理の具体例については後述する。埋め込み部 58で DC 成分が埋め込まれた AC成分のデータは、量子化変更回路 61及び可変長符号器 6 2での処理を行う。このようにして、 JPEG方式で符号ィ匕された画像データの出力を得 、その JPEG方式で符号化された画像データを伝送路 63で伝送する。
[0097] 伝送路 63で伝送され^ JPEG方式の画像データの AC成分は、可変長復号器 64 で可変長符号からの復号を行 、、埋め込み部 58で埋め込まれた DC成分の最下位 ビットを抽出回路 65で抽出する。抽出回路 65の出力する AC成分は、ジグザグスキ ヤン回路 66を経て逆量子化器 69に供給する。
[0098] また、 DC成分を復号する可変長復号器 67では、 DC成分の最下位ビットについ ては、抽出回路 65から供給され、その他のビット位置については、伝送路 63を介し て受信したデータ力 得る。可変長復号器 67で可変長符号から復号された DC成分 は、逆 DPCM回路 68に送り、元の DC成分のデータを得、得られた DC成分のデー タを逆量子化器 69に供給する。逆量子化器 69では、逆量子化テーブル 70を参照し て逆量子化を行う。その逆量子化されたデータは、 2次元逆 DCT回路 71での逆 DC T変換を行い、その逆 DCT変換されたデータに対して、加算器 72でオフセット発生 器 73からのオフセット値を加算し、復号化された画像データを画像出力端子 74に得 る。
[0099] 図 11は、符号化時の埋め込み部 58での、 AC成分の低周波数成分に DC成分を 埋め込む処理の例を示した図である。 8画素 X 8画素のブロックを示してあり、水平方 向 vと垂直方向 uのそれぞれのアドレスとして 0から 7が付与してあるとする。このブロッ クの DC成分は、左上の係数値である。ジグザグスキャン回路 57では、図 11に実線 で示すように各画素をジグザグにスキャンして、 AC成分が得られる。この AC成分は 、スキャンの開始位置に近いほど低域の成分であり、スキャンの終了位置に近づくほ ど、広域の成分である。
[0100] ここで、本例の場合には、図 11に破線で囲って示すように、低域の AC成分 Lに対 して、 DC成分の所定ビット(最下位ビット)を埋め込む処理を行う。
ここでの埋め込み処理としては、例えば DC成分の最下位ビットの値が" 0"の場合 には、埋め込み範囲の AC成分の係数を偶数に設定し、 "1"の場合には係数が奇数 になるように、量子化を変更する。
復調側の抽出回路 65では、これとは逆の処理が行われる。即ち、埋め込み範囲 の AC成分の係数が偶数である場合には、 DC成分の最下位ビットの値が" 0"である と検出し、係数が奇数の場合には、 DC成分の最下位ビットの値カ '1"であると検出 する。
[0101] このようにして AC成分に DC成分の一部を埋め込むようにしたことで、 JPEG方式 で符号ィ匕された画像データの情報量を削減することができる。この場合、図 11の例 では、 DC成分の値に応じて AC成分が変化する範囲を、低域成分に制限してあるの で、埋め込みによる画質劣化を最小限に抑えることができる。
引用符号の説明
[0102] 1…画像入力端子、 2…符号ィ匕データ出力端子、 3…符号ィ匕データ入力端子、 4· ·· 画像出力端子、 11· ··画像入力端子、 12· ··減算器、 13 DCT回路、 14· ··量子化器 、 ι5· ··エントロピーコーディング部、 16· ··符号ィ匕データ出力端子、 17· ··逆量子化器 、 18· ··逆 DCT回路、 19· ··加算器、 20…フレームメモリ、 21· ··動き補償予測回路、 2 2…遅延回路、 51· ··画像入力端子、 52· ··減算器、 53· ··オフセット発生器、 54· ··2次 元 DCT回路、 55· ··量子化器、 56…量子化テーブル、 57…ジグザグスキャン回路、 58…埋め込み部、 59 DPCM回路、 60…可変長符号器、 61…量子化変更回路、 62· ··可変長符号器、 63· ··伝送路、 64…可変長復号器、 65 DC成分抽出回路、 6 6…ジグザグスキャン回路、 67…可変長復号器、 68· ··逆 DPCM回路、 69· ··逆量子 ィ匕器、 70…逆量子化テーブル、 71· ··2次元逆 DCT回路、 72· ··カロ算器、 73· ··オフ セット発生器、 74…画像出力端子、 100…画像入力インターフェース、 150…画像 出力インターフェース、 200…情報処理 '分離回路、 201…情報処理 '分離ブロック、 202· ··情報処理 '分離回路、 250, 251…画像復号 ·合成回路、 300, 301…埋込 領域判定,情報量子化回路、 350, 351…埋込領域判定 ·情報逆量子化回路、 400 , 401…埋込データ分離,情報量子化回路、 450, 451…埋込データ合成 ·情報逆 量子ィ匕回路、 500, 501· ··データ ffi込 ·'[·青報量子ィ匕回路、 550, 551—埋込データ 抽出 ·情報逆量子化回路、 600, 601…符号割当回路、 650, 651…符号解読回路 、 700, 701· ··多重ィ匕回路、 750, 751· ··データ分離回路、 800, 801· ··送信ノッフ ァメモリ、 850, 851· ··受信ノ ッファメモリ、 900, 901· ··データ出力インターフェース、 950· · ·データ入力インターフェース

Claims

請求の範囲
[1] 動画又は静止画を構成する画像データを、その画像データ自身から生成した複数 の情報に分類し、分類された複数の情報を符号化して、伝送用又は記録用の画像 データとする画像符号化方法にぉ ヽて、 前記分類された複数の情報の内の一部の情報の値に基づいて、前記複数の情報 の内の他の情報の符号化状態を変化させる符号化処理を行い、前記一部の情報の 情報量を削減したことを特徴とする画像符号化方法。
[2] 請求の範囲第 1項記載の画像符号化方法において、
前記分類された複数の情報は、画像の所定の特性のデータと、 1枚の画像データ をブロック分けした場合の各ブロックに類似する他のブロックのアドレスデータであり、 前記アドレスデータの特定ビット位置のデータが、前記所定の特性のデータの所定 のビット位置と一致するように、前記類似する他のブロックを探索する処理を行い、前 記所定のビット位置のデータを削減したことを特徴とする画像符号ィ匕方法。
[3] 請求の範囲第 1項記載の画像符号化方法において、
前記各ブロックに類似する他のブロックのアドレスデータは、当該 1枚の画像データ より前又は後の画像データのブロックのアドレスデータであり、類似する他のブロック のアドレスデータで、画像の動きベクトルを示すことを特徴とする画像符号化方法。
[4] 請求の範囲第 1項記載の画像符号化方法において、
符号化された画像データの情報量を計測し、計測した情報量が所定の閾値を越え た場合に、前記一部の情報に基づいて、他の情報の符号ィ匕処理を変化させることを 特徴とする画像符号化方法。
[5] 請求の範囲第 1項記載の画像符号化方法において、
符号化された画像データの情報量を計測し、計測した情報量に応じて、前記符号 化処理を変化させる範囲を可変設定することを特徴とする画像符号化方法。
[6] 分類された複数の情報の内の一部の情報が、複数の情報の内の他の情報の符号 化の際に一体となった符号ィヒが行われて、情報量が削減されたものを復号ィヒする画 像復号化方法であって、
当該一体となった状態の情報力 前記一部の情報を検出して復号ィ匕し、さらに符 号化されて 、る他の情報も復号ィ匕し、
復号化されたそれぞれの情報に基づ!ヽて、原画像を再生することを特徴とする画 像復号化方法。
[7] 請求の範囲第 6項記載の画像復号化方法にお 、て、
前記分類された複数の情報は、画像の所定の特性のデータと、 1枚の画像データ をブロック分けした場合の各ブロックに類似する他のブロックのアドレスデータであり、 前記アドレスデータの特定ビット位置のデータから、前記所定のビット位置のデータ を決定して復号化することを特徴とする画像符号化方法。
[8] 画像データを複数の情報に分類し、分類された複数の情報を符号化する画像符号 化装置において、
画像データを複数の情報に分類する分類手段と、
前記分類手段で分類された複数の情報の内の一部の情報に基づいて、前記複数 の情報の内の他の情報の符号化状態を変化させて符号化し、前記一部の情報の情 報量を削減する符号化を行う符号化手段とを備えたことを特徴とする画像符号化装 置。
[9] 複数の情報に分類された画像データが、それぞれの情報ごとに符号化されたもの を復号ィ匕する画像復号ィ匕装置において、
前記複数の情報の内の一部の情報を、前記複数の情報の内の他の情報の符号ィ匕 状態から検出する検出手段と、
前記検出手段で検出された情報を含む全ての情報を復号化する復号化手段とを 含み、
前記復号ィ匕手段で復号化されたそれぞれの情報に基づ ヽて、原画像を再生するこ とを特徴とする画像復号化装置。
PCT/JP2007/051645 2006-01-31 2007-01-31 画像符号化方法、画像復号化方法、画像符号化装置及び画像復号化装置 WO2007088912A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007556901A JPWO2007088912A1 (ja) 2006-01-31 2007-01-31 画像符号化方法、画像復号化方法、画像符号化装置及び画像復号化装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-023532 2006-01-31
JP2006023532 2006-01-31

Publications (1)

Publication Number Publication Date
WO2007088912A1 true WO2007088912A1 (ja) 2007-08-09

Family

ID=38327483

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/051645 WO2007088912A1 (ja) 2006-01-31 2007-01-31 画像符号化方法、画像復号化方法、画像符号化装置及び画像復号化装置

Country Status (2)

Country Link
JP (1) JPWO2007088912A1 (ja)
WO (1) WO2007088912A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115348453A (zh) * 2022-10-14 2022-11-15 广州市绯影信息科技有限公司 一种航拍影像的全并行分形编码方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001358935A (ja) * 2000-06-16 2001-12-26 Sharp Corp 電子情報埋込み装置および電子情報埋込みプログラムを記録したコンピュータ読取可能な記録媒体
JP2003230095A (ja) * 2001-11-28 2003-08-15 Victor Co Of Japan Ltd 可変長データ符号化方法及び可変長データ符号化装置
JP2004080096A (ja) * 2002-08-09 2004-03-11 Canon Inc 画像処理装置及び画像処理方法
JP2004343694A (ja) * 2003-05-13 2004-12-02 Lg Electronics Inc デジタルウォーターマーキングを利用した動画像符号化/復号化装置及びその方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001358935A (ja) * 2000-06-16 2001-12-26 Sharp Corp 電子情報埋込み装置および電子情報埋込みプログラムを記録したコンピュータ読取可能な記録媒体
JP2003230095A (ja) * 2001-11-28 2003-08-15 Victor Co Of Japan Ltd 可変長データ符号化方法及び可変長データ符号化装置
JP2004080096A (ja) * 2002-08-09 2004-03-11 Canon Inc 画像処理装置及び画像処理方法
JP2004343694A (ja) * 2003-05-13 2004-12-02 Lg Electronics Inc デジタルウォーターマーキングを利用した動画像符号化/復号化装置及びその方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KURODA H. ET AL.: "Denshi Sukashi Gijutsu o Mochiita Gazo Fugoka", THE INSTITUTE OF IMAGE ELECTRONICS ENGINEERS OF JAPAN KENKYUKAI KOEN YOKO, vol. 224, 17 March 2006 (2006-03-17), pages 25 - 29, XP003016171 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115348453A (zh) * 2022-10-14 2022-11-15 广州市绯影信息科技有限公司 一种航拍影像的全并行分形编码方法及系统
CN115348453B (zh) * 2022-10-14 2023-01-24 广州市绯影信息科技有限公司 一种航拍影像的全并行分形编码方法及系统

Also Published As

Publication number Publication date
JPWO2007088912A1 (ja) 2009-06-25

Similar Documents

Publication Publication Date Title
JP3788823B2 (ja) 動画像符号化装置および動画像復号化装置
JP4991699B2 (ja) ビデオ信号のスケーラブルなエンコーディング方法およびデコーディング方法
JP3888597B2 (ja) 動き補償符号化装置、及び動き補償符号化復号化方法
US8532187B2 (en) Method and apparatus for scalably encoding/decoding video signal
KR101266577B1 (ko) 화상 처리 방법 및 장치
US20070086516A1 (en) Method of encoding flags in layer using inter-layer correlation, method and apparatus for decoding coded flags
JP2003250157A (ja) 静止映像及び動映像を符号化/復号化するための変換係数の最適走査方法
JP2005295504A (ja) 動画像符号化装置及び復号装置及びその制御方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
JP2007028579A (ja) ビデオデータストリームの統合及び補償方法
US20010038669A1 (en) Precise bit control apparatus with look-ahead for mpeg encoding
JP2018517317A (ja) ビデオコーディングシステムにおける残差変換及び逆変換方法
JP2003517796A (ja) 「ムラのあるピクチャ」効果を減らす方法
JP4023324B2 (ja) 透かし埋め込み及び画像圧縮部
US7280689B2 (en) Anti-compression techniques for visual images
JP2002521881A (ja) 圧縮ビデオ信号における透かしの検出
KR100566290B1 (ko) 스캔 테이블을 이용한 영상 주사방법과 그를 적용한 이산코사인 변환 장치
WO2007088912A1 (ja) 画像符号化方法、画像復号化方法、画像符号化装置及び画像復号化装置
CN111587575B (zh) 基于高频归零确定变换系数扫描顺序的方法及其设备
JPH10276437A (ja) 階層的動画像信号符号化/復号化方法及び装置
JP3776735B2 (ja) 画像予測復号化方法,画像予測復号化装置,画像予測符号化方法,画像予測符号化装置,及びデータ記憶媒体
US20200128240A1 (en) Video encoding and decoding using an epitome
JP5235850B2 (ja) 画像符号化装置、画像復号化装置、画像符号化・復号化システム及びその方法
CN114762339A (zh) 基于变换跳过和调色板编码相关高级语法元素的图像或视频编码
JP2000032458A (ja) 画像圧縮法
WO2016154929A1 (en) Accompanying message data inclusion in compressed video bitsreams systems and methods

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
ENP Entry into the national phase

Ref document number: 2007556901

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07707831

Country of ref document: EP

Kind code of ref document: A1