WO2011049175A1 - 画像符号化装置、画像復号化装置、画像符号化方法、及び画像復号化方法 - Google Patents

画像符号化装置、画像復号化装置、画像符号化方法、及び画像復号化方法 Download PDF

Info

Publication number
WO2011049175A1
WO2011049175A1 PCT/JP2010/068615 JP2010068615W WO2011049175A1 WO 2011049175 A1 WO2011049175 A1 WO 2011049175A1 JP 2010068615 W JP2010068615 W JP 2010068615W WO 2011049175 A1 WO2011049175 A1 WO 2011049175A1
Authority
WO
WIPO (PCT)
Prior art keywords
prediction
region
image information
information
image
Prior art date
Application number
PCT/JP2010/068615
Other languages
English (en)
French (fr)
Inventor
横山徹
村上智一
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Publication of WO2011049175A1 publication Critical patent/WO2011049175A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/41Bandwidth or redundancy reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock

Definitions

  • the present invention relates to an image encoding / decoding device and an image encoding / decoding method for encoding / decoding an image signal with high efficiency.
  • lossless image coding that compresses and stores captured images without deterioration in medical institution diagnostic imaging devices, electronic microscope images for industrial use, aerial / satellite photographs, and the like.
  • a conventional lossless image encoding technique an encoding method for compressing an image information amount by reducing a redundant information amount by using a correlation between pixels in a picture has been put into practical use.
  • Such lossless encoding methods include JPEG-LS (JointoPhotographic Experts Group-Lossless) and JPEG2000.
  • JPEG-LS determines the prediction value P of the target pixel from four pixels in the vicinity of the target pixel in consideration of the gradient in the horizontal direction and the vertical direction around the target pixel to be encoded, and the encoding target pixel and the prediction value P Entropy encoding the prediction error.
  • arithmetic encoding, Golomb encoding, or the like can be selected.
  • JPEG2000 performs discrete wavelet transform (DWT) in block units or line units to convert to a frequency space, and models the obtained wavelet coefficients to perform arithmetic coding.
  • DWT discrete wavelet transform
  • the above-described existing image coding method assumes natural images as the main application.
  • medical images captured by diagnostic imaging devices such as X-ray CT (Computed Tomography) and MRI (Magnetic Resonance Imaging) are used to determine the X-ray dose that has passed through the human body and the state of nuclear magnetic resonance of the nuclei in the body tissue. It is reconstructed as an image, and the features of the image are greatly different from those of a natural image.
  • One feature of medical images is that they can be easily divided into multiple areas. This is because the same body tissue has the same or close pixel value. This area includes areas outside the imaging area (normally nothing is captured).
  • encoding information is stored in units of pixels or square blocks.
  • an image is divided into regions, and the encoding information is stored in units of the regions.
  • Patent Document 1 describes a method of applying region division to moving image coding.
  • Patent Document 2 discloses that a picture is divided into regions by performing block integration and division based on pixel value dispersion and edge information in a square block, and a motion vector and quantization are performed for each region.
  • a method for storing encoded information such as parameters is described.
  • image coding based on region division in moving picture coding as described in Patent Documents 1 and 2 is a technique related to prediction (hereinafter referred to as inter-screen prediction) using correlation between pictures. This is not applicable to prediction using the correlation of pixels.
  • the present invention has been made in view of such a situation, and a technique that can improve the prediction accuracy of a region boundary part in intra prediction in an image encoding / decoding process with region division. It is to provide.
  • an image encoding apparatus includes an area processing unit, an intra-screen prediction unit, and an entropy encoding unit.
  • the region processing unit includes a region determination unit that performs region determination in a picture and a region encoding unit that compresses and encodes region information.
  • the in-screen prediction unit predicts the encoding target pixel based on the pixels in the vicinity of the encoding target pixel, and generates a prediction error image thereof.
  • This intra-screen prediction unit has a function of determining which region a neighboring pixel belongs to based on the region information, and correcting a prediction parameter applied to intra-screen prediction near the region boundary as necessary.
  • prediction parameter information and correction information of the prediction parameter at the region boundary are stored for each region along with the information of the prediction difference image.
  • the correction information of the prediction parameter can be specified for the entire region and can be specified for the pixels at the individual region boundary positions.
  • the entropy encoding unit performs entropy encoding on the prediction error image obtained by the in-screen prediction unit, and outputs it to the encoded stream.
  • the image decoding apparatus includes an area decoding unit, an intra-screen prediction unit, an entropy decoding unit, and an image generation unit.
  • the region decoding unit decodes region information in the encoded stream, and acquires region division information in the picture.
  • the intra prediction unit performs intra prediction based on the region division information obtained by the region decoding unit, the prediction parameter encoded for each region, and the prediction parameter correction information, and generates a predicted image.
  • the entropy decoding unit decodes the prediction error image in the encoded stream.
  • the image generation unit adds the predicted image and the prediction error image to generate a final decoded image.
  • the image coding method when a region in a picture is determined and divided into regions, and intra prediction within a picture is performed, which region the neighboring pixels used for prediction belong to based on the region division information And the prediction parameter at the region boundary is corrected as necessary.
  • the image decoding method obtains region division information from an encoded stream to generate an intra-screen prediction image, and uses the prediction parameters stored in the encoded stream for each region to calculate pixels in the region. Intra-screen prediction is performed, and a prediction image is generated by correcting prediction parameters applied to intra-screen prediction based on prediction coefficient correction information stored in the encoded stream for pixels near the region boundary.
  • the present invention it is possible to improve the accuracy of in-screen prediction of pixels near the region boundary, and to improve the compression rate at the time of image coding with region division.
  • FIG. 1 It is a figure which shows schematic structure of the image coding apparatus by embodiment of this invention. It is a figure which shows the internal structural example of an area
  • the present invention improves the prediction accuracy in the vicinity of the outline that is the region boundary when predicting the encoding target pixel using the intra-screen prediction method, reduces the information amount of the prediction error, and improves the encoding efficiency.
  • the present invention relates to a technique for preventing a decrease.
  • the present invention is particularly suitable for lossless image coding, but is also applicable to lossy coding.
  • FIG. 1 is a diagram showing a schematic configuration of an image encoding device according to an embodiment of the present invention.
  • the image encoding device performs image encoding using intra-screen prediction based on region division, and includes not only image diagnostic devices such as X-ray CT and MRI, but also SEM images, satellite images, aerial photographs, etc. This is also effective for an image that can be expected to improve encoding efficiency by area division.
  • an image encoding device 100 analyzes an input image 107 by dividing an input image 107 and generates a region information 108 related to a divided region by encoding a control unit 101 that controls the entire device.
  • a differentiator 106 that generates a prediction error image 110
  • an entropy encoding unit 104 that entropy encodes the prediction error image 110 and generates prediction error image information (encoded image information) 111, region information 108, prediction information 114, and
  • a stream generation unit 105 that integrates (multiplexes) the prediction error image information 11 to generate an encoded stream 1012. That.
  • the image encoding apparatus 100 is configured to execute only intra prediction, but the method with the higher efficiency of intra prediction and inter prediction (the one with less code amount) is selected. It is good also as a simple structure. In this case, for example, a method of determining which one to select by comparing the code amount by intra prediction and the code amount by inter prediction is conceivable.
  • a delay unit is provided as appropriate between the blocks shown in FIG.
  • FIG. 2 is a diagram showing an internal configuration of the area processing unit 102.
  • the region processing unit 102 includes a region dividing unit 200 and a region information encoding unit 201.
  • the area dividing unit 200 analyzes the input image 107 and performs area division in the picture. With reference to FIG. 3, a processing example in the area dividing unit 200 will be described.
  • FIG. 3 is a diagram showing an example in which an input image is divided into regions by multi-valued (four-valued in FIG. 3).
  • FIG. 3A is a diagram showing the distribution (histogram) of each pixel in the image.
  • An example of an algorithm for automatically selecting this threshold is an iterative method as shown below.
  • Step 1 Select the initial values of the three thresholds at regular intervals.
  • Step 3 The midpoint between the average values of adjacent classes is newly set as a threshold by the following formula.
  • Step 4 If there is no change in the threshold value, the process ends. If there is a change, jump to step 2.
  • FIG. 3B shows an example of the result of quaternizing the image based on the threshold value selected by the above method.
  • the four divided classes may be defined as four areas as they are, or even if they are classified into the same class but are not connected, they are separated as separate areas. May be.
  • the region R1 and the region R5 classified into the same class by the quaternarization are defined as separate regions.
  • the determination of image connectivity is omitted in this application, but for example, the method disclosed in Non-Patent Document 1 can be used. If the area is small, the area may be deleted, or a process such as noise removal may be performed by applying a median filter to the entire quaternary image.
  • the region dividing unit 200 gives label information indicating which region of the regions R1 to R5 belongs to each pixel value of the four-valued image. .
  • This label information is used in the encoding process.
  • an image to which label information of this region is given is referred to as a region image.
  • the region information encoding unit 201 encodes it into the encoded region information 108.
  • FIG. 4 is a diagram for explaining region information encoding processing in the region information encoding unit 201.
  • the region information encoding unit 201 according to the embodiment of the present invention performs boundary tracking of the regions R1 to R5 given by the region image 113.
  • a boundary tracking algorithm for the region R2 is shown as an example.
  • Step 1 The area image 113 is raster-scanned to search for the first R2 pixel adjacent to the pixel other than R2 on the left side, and this is set as the boundary tracking start point A1. However, the already scanned pixel is ignored and raster scanning is continued. If the entire area around A1 is other than R2, this is ignored and raster scanning is continued.
  • Step 2 In the eight neighborhoods of the boundary pixel An, the region label of the pixel is examined in order counterclockwise from the previous boundary pixel An ⁇ 1, and the R2 pixel that appears first is set as the next boundary pixel An + 1 (see FIG. 4 (a)).
  • a certain boundary pixel Am coincides with the start point A1, one boundary tracking is finished and the process returns to Step 1.
  • A1 to Am are one boundary.
  • FIG. 4B shows an example of one boundary tracking obtained by this algorithm. Note that a tracked mark is attached to each boundary pixel An during tracking. However, when the tracked boundary is included in another boundary, this boundary is excluded (a boundary inside the region R2 in FIG. 3B).
  • the boundary line of each region can be obtained by performing the boundary tracking for all the regions (however, R1 can be excluded if set as outside the region).
  • the area information encoding unit 201 encodes each boundary line.
  • An example of this encoding method is an encoding method using a chain code.
  • this chain code encoding method boundary line information as shown in FIG. 4 (b) is used for boundary pixel information that continues sequentially from the start point A1 to the coordinate value information and from the start point to the start point again.
  • the direction is encoded by a code expressed in accordance with FIG.
  • the boundary information inside the area is not retained. This is because, in FIG. 3B, for example, the inner boundary of the region R2 is equal to the outer boundary of the region R3, and therefore it is redundant to have the outer and inner boundary information as the region R2.
  • the outer boundary line of R2 completely includes the outer boundary line of R3, and the outer boundary line of R3 includes the boundary line of R4 and R5.
  • priority level information is assigned to each boundary line, which is also encoded.
  • the point A in the figure is inside the three regions R2, R3, R4, but is treated as a pixel inside the region R4 having the highest priority level.
  • the point B is treated as a pixel inside the region R3, and information equivalent to the region image in FIG. 3B can be held.
  • the boundary information of each region and the priority level information of each boundary described above are output from the region information encoding unit 201 as the encoded region information 108.
  • the intra-screen prediction unit 103 generates a predicted image 109 by predicting each target pixel in the picture using its surrounding pixels.
  • FIG. 6 is a flowchart for explaining an overview of overall processing of the in-screen prediction unit 103.
  • the intra-screen prediction unit 103 determines whether or not there is an area for which intra-screen prediction processing is not performed for each area (for example, R1 to 5) indicated by the area image 113 (step S61). If there is, this area is selected as a processing target (step S62). If there is no unprocessed area, the process proceeds to step S65.
  • the intra-screen prediction unit 103 determines one prediction coefficient for performing intra-screen prediction within the region (step S63). Next, using the obtained prediction coefficient, the in-screen prediction unit 103 determines whether or not to correct the determined prediction coefficient for pixels straddling the boundary of the region at the time of prediction (step) S64). Note that the prediction coefficient is assigned to each region.
  • the intra-screen prediction unit 103 If the prediction coefficient determination and correction processing is completed for all regions (No in step S61), the intra-screen prediction unit 103 generates a prediction image using the prediction coefficient (step S65).
  • Step S63 The process for determining the prediction coefficient (prediction parameter) in the region in step S63 will be described below.
  • FIG. 7 is a diagram illustrating an example of a target pixel prediction method.
  • X is an encoding target pixel
  • X0 to X5 are peripheral pixels used for prediction of the encoding target pixel
  • a predicted value P of X is obtained by linear summation using prediction coefficients ⁇ 0 to ⁇ 5.
  • the intra-screen prediction unit 103 selects a pixel in the region for each region indicated by the region image 113 according to the raster scanning order, and determines the prediction coefficient.
  • An example of a method for determining a prediction coefficient is a method using a least square method.
  • FIG. 8 is a diagram for explaining a method of determining a prediction coefficient.
  • N representative pixels S in the region are selected (see FIG. 8A).
  • the evaluation value e of the prediction error is given by FIG.
  • a coefficient that minimizes the evaluation value e is determined by the method of least squares.
  • description of the arithmetic method for efficiently calculating the least squares method is omitted, but for example, the method introduced in Non-Patent Document 2 can be used.
  • the number N of the representative pixels S can be determined more appropriately as the number of representative pixels S is increased. However, an appropriate value may be determined in advance in consideration of an increase in the calculation amount. If the number of pixels in the region is larger than N, another representative pixel S is selected and the above calculation is repeated, and the average value of the prediction coefficients obtained by the repetition is obtained. It is good also as a prediction coefficient.
  • Step S64 the region boundary prediction coefficient correction determination process in step S64 will be described.
  • the process in step S64 is executed according to the following flow.
  • Step 1 Select a pixel to be used for determination of prediction coefficient correction.
  • the boundary information of the selected region pixel region is selected using the region information 108.
  • all the boundary pixels may be selected as the pixels to be selected, or only some of the outer boundary pixels may be selected as representative pixels in order to reduce the processing amount (see FIG. 9).
  • “ ⁇ ” represents a representative pixel used for prediction coefficient correction determination on the outer boundary of the region R3
  • “ ⁇ ” represents a representative pixel used for prediction coefficient correction determination on the outer boundary of the region R4
  • “ ⁇ ” represents a representative pixel used for prediction coefficient correction determination on the outer boundary of the region R5.
  • Method 1 A prediction value P is calculated by correcting the prediction coefficient and performing prediction.
  • the coefficient correction method is determined in advance. For example, there is a method of multiplying the prediction coefficient corresponding to the pixels in the boundary by 6 / (6-Nout), where Nout is the number of pixels across the boundary among the peripheral pixels X0 to X5 of the boundary pixel.
  • Nout the number of pixels across the boundary among the peripheral pixels X0 to X5 of the boundary pixel.
  • Step 3 If there is an unprocessed pixel among the pixels selected in Step 1, Step 2 is executed. If there is no unprocessed pixel (that is, step 2 has been executed for all the pixels selected in step 1), the method with more marking is determined as the prediction coefficient correction method (rule) at the region boundary ( Decided by majority vote).
  • Step 4 If there is an unprocessed area boundary among the boundaries of the selected area indicated by the area information 108, the process jumps to Step 1. If the processing has been performed for all the region boundaries, the prediction coefficient correction determination processing ends.
  • step S65 the predicted image generation process in step S65 will be described.
  • the encoding target pixel in the picture is selected in the raster scan order, and the prediction pixel value P is calculated using the prediction coefficient determined in step S63, and this is basically used as the prediction pixel.
  • the correction determination rule for the prediction coefficient determined in step S64 is used. That is, when correcting the prediction coefficient, the prediction pixel value P is calculated by correcting the prediction coefficient according to a predetermined rule.
  • the boundary information including the pixel (X1 and X2) included in the region information 108 of the region (for example, region 1 and 2) including the pixel (for example, X1 and X2) straddling the region Based on the information, the prediction coefficient correction determination determined in step S64 is referred to, and the prediction coefficient is corrected. Specifically, the following processing is performed.
  • FIG. 11 is a diagram illustrating an example of correction of the prediction coefficient in the process 2.
  • determination of whether or not the prediction coefficient is corrected at this boundary is performed as processing of the area 1 and the area 2 in FIG. .
  • X2 belongs to region 1, and it is determined that “prediction coefficient is corrected” in region 1 (the boundary corresponds to an outer boundary as viewed from region 1).
  • X1, X3, and X5 belong to the region 2, and it is determined that “prediction coefficient is not corrected” in the region 2 (the boundary corresponds to an outer boundary when viewed from the region 2).
  • the pixel whose prediction coefficient is corrected is one coefficient of X2, so that the pixel is inappropriate for use in predicting the pixel in the region 3. .
  • the region boundary to which the encoding target pixel X belongs corresponds to the boundary outside the region
  • the information on the boundary pixel is used as the information on the region. It is encoded, and it is determined whether or not the above-described prediction coefficient is to be corrected.
  • the region boundary corresponds to the inner boundary of the region
  • the information of the boundary pixel is not encoded as the information of the region, but is encoded as the boundary pixel of another region and the prediction is performed. Whether or not the coefficient is corrected is determined. Therefore, by performing the above processing depending on whether the boundary of the region to which the pixel to be encoded belongs is an outer boundary or an inner boundary, the pixels near all the boundaries in the region are processed. Thus, it is possible to set whether or not to correct the prediction coefficient.
  • the predicted image 109 can be generated by the in-screen prediction unit 103 by executing the processing from step S61 to step S65.
  • the prediction coefficient information and the correction information of the prediction coefficient in each area described above are sent to the stream generation unit 105 as the prediction parameter 114.
  • the differentiator 106 takes the difference between the input image (pixel) 107 and the predicted image (pixel) 109 and generates a predicted error image (residual) 110.
  • a delay device for delaying the input image 107 is provided between the image input unit and the differentiator 106 in order to match the timing of the target pixel. Yes.
  • the entropy encoding unit 104 performs entropy encoding on the prediction error image 110 to generate prediction error image information 111.
  • the entropy coding include variable length codes such as Golomb code and Huffman code, arithmetic coding, and the like. Since the present invention is not directly related to entropy coding, detailed description thereof is omitted.
  • the stream generation unit 105 integrates (multiplexes) the encoded region information 108 from the region processing unit 102, the prediction parameters (prediction coefficient information and prediction coefficient correction information) 114 of each region, and the prediction error image information 111. And an encoded stream 112 is generated.
  • FIG. 12 is a diagram illustrating an example of the encoded stream 112.
  • the encoded stream 112 includes, for example, basic image information, information on the number of regions N, region information that is information on each region, and prediction error image information.
  • Basic information such as the image size is stored in the basic image information.
  • the number of areas N stores the number of subsequent area information.
  • the area information stores area shape information and prediction coefficient information applied at the time of intra prediction within the area.
  • the region shape information includes the number M of boundary information forming the region, individual boundary information (for example, the above-described boundary pixel series chain code and priority level of the boundary), and a prediction coefficient for each boundary. M sets of coefficient correction information indicating whether to correct or not are stored.
  • the image encoding device 100 can store the correction information of the prediction parameter of the intra-frame prediction of the pixels near the region boundary in the encoded stream, and can improve the prediction accuracy.
  • the compression rate at the time of image encoding accompanying can be improved.
  • FIG. 13 is a diagram showing a schematic configuration of an image decoding apparatus according to an embodiment of the present invention.
  • the image decoding apparatus 1300 analyzes the decoding control unit 1301 that controls the entire apparatus, the encoded stream 1307, encoding area information 1308 (including coefficient correction information), and prediction coefficient information 1311 (prediction parameter 114).
  • Stream analysis unit 1306 that separates into prediction error image information 1313 (corresponding to prediction error image information 111), and a region decoding unit that generates region information 1309 by decoding the encoded region information 1308 1302, a prediction image generation unit 1303 that generates a prediction image 1312 using the already generated decoded image 1315, prediction coefficient information 1311, and coefficient correction information included in the coding region information 1308, and prediction error image information 1313
  • An entropy decoding unit 1304 that generates a prediction error image 1314 by decoding, and a prediction image 1 12 and an adder 1305 to generate a decoded image 1315 adds the prediction error image 1314 has a.
  • the decoded image 1315 is decoded pixel information (decoded block information when processed in units of blocks)
  • one frame of decoded pixel information is accumulated to form one frame.
  • An image configuration processing unit (example) for outputting as a frame image is required.
  • the image configuration processing unit may be provided in the image decoding apparatus 1300 or may be provided outside the image decoding apparatus 1300.
  • FIG. 14 is a diagram for explaining region decoding processing by the region decoding unit 1300.
  • the stream analysis unit 1306 analyzes the encoded stream 1307, extracts the encoded region information 1308, and provides it to the region decoding unit 1300.
  • An example of the configuration of the encoded stream 1307 is described in FIG.
  • the encoded area information 1308 stores boundary information that forms individual areas.
  • the boundary information includes start pixel coordinate information, a chain code indicating individual boundaries as described in FIG. And priority level information.
  • start pixel coordinate information e.g., start pixel coordinate information
  • chain code e.g., a chain code indicating individual boundaries as described in FIG.
  • priority level information e.g., priority level information
  • Step 1 From the pixels constituting the boundary, a left edge that satisfies the condition shown in FIG. 14A and a right edge that satisfies the condition shown in FIG. That is, the left edge is a boundary pixel in which the immediately preceding boundary pixel is in any of the upper left, upper, upper right, or right, and the next boundary pixel is in any of the lower left, lower, lower right, or right.
  • the right edge is a boundary pixel in which the immediately preceding boundary pixel is in any of left, lower left, lower, and lower right, and the next boundary pixel is in upper left, upper, upper right, or left.
  • Step 2 Using the coordinates of the start pixel as a reference, the area between the left edge and the right edge is labeled as an in-region pixel (FIG. 14C).
  • the pixels in the area surrounded by the boundary pixel can be restored from the chain code indicating the boundary pixel.
  • the processing as described above is performed for all regions in the order of the priority level of the boundary line, and the label of the pixel in the region with the lower priority level is overwritten with the label of the pixel in the region with the higher priority level.
  • the region information 1309 is restored.
  • the predicted image generation unit 1303 generates a predicted image 1312 based on the prediction coefficient information 1311, the coefficient correction information included in the encoded region information 1308, the region information 1309, and the decoded image 1315. Since the process in the predicted image generation unit 1303 is the same as the predicted image generation step S65 (FIG. 6) in the intra-screen prediction unit 103 in the encoding process, the description is omitted.
  • the entropy decoding unit 1304 decodes the prediction error image information 1313 in the encoded stream 1307 to restore the prediction error image 1314.
  • the prediction image 1312 and the prediction error image 1314 are added by an adder 1305, and a decoded image 1315 is generated and output.
  • the decoded image 1315 is also provided to the predicted image generation unit 1303 for use in the intra-screen prediction process.
  • the image decoding unit 1300 can decode the encoded stream 1307 created in the image decoding device 100.
  • the image decoding apparatus can decode the encoded stream 1307 created in the image decoding apparatus 100 and including information related to the correction of the prediction coefficient at the region boundary. Become.
  • a prediction parameter is generated for each of a plurality of regions obtained by dividing one frame into regions having the same features during intra prediction.
  • the predicted image information is generated using the generated prediction parameter.
  • the peripheral image information belonging to the second region is encoded efficiency ( In order to reduce the influence on the prediction), it is determined whether or not the correction of the prediction parameter is necessary.
  • the prediction parameter (when it is determined that correction is unnecessary) or the corrected prediction parameter (correction required) Predictive image information is generated using (if determined).
  • region boundary part can be improved, and encoding efficiency can be improved also in lossless encoding.
  • the in-screen prediction unit employs a different method for correcting the prediction parameter depending on whether the boundary between the first region and the second region is an outer region or an inner region of the first region. That is, when the boundary is an outer boundary, the prediction parameter of the peripheral image information in the first region is expressed as (number of peripheral image information used for prediction) / (number of peripheral image information used for prediction ⁇ second number).
  • the prediction parameter is corrected by multiplying the number of surrounding image information in the region) and the prediction image information is generated using the corrected prediction parameter, and when the prediction image information is generated using the prediction parameter before correction And whether or not the prediction parameter needs to be corrected is determined based on which prediction error is small.
  • a prediction parameter correction method of the encoding target image information is determined based on information on whether or not the prediction parameter is corrected in the second region. In this way, by making the prediction parameter correction method different depending on whether the boundary is the outer boundary or the inner boundary of the first region, it is possible to more efficiently execute encoding of pixels near the boundary.
  • the encoded stream may be generated by integrating coefficient correction information indicating that the prediction parameter is corrected.
  • the coordinate information of the start point and the information of the direction of the boundary continuing from the start point are encoded (using a chain code) to generate region boundary information.
  • the information amount of the encoded stream can be reduced.
  • the boundary reproduction process is simple.
  • coefficient correction information transmitted from the encoding device indicating that the prediction parameter is to be corrected is acquired from the encoded stream, and the prediction parameter needs to be corrected based on the coefficient correction information. Presence / absence may be determined, and predicted image information may be generated using the modified prediction parameter. In this way, it is not necessary to determine whether or not the prediction parameter has been corrected during the decoding process, so that the decoding process can be executed efficiently.
  • the present invention can also be realized by a program code of software that realizes the functions of the embodiment.
  • a storage medium in which the program code is recorded is provided to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus reads the program code stored in the storage medium.
  • the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code itself and the storage medium storing the program code constitute the present invention.
  • a storage medium for supplying such program code for example, a flexible disk, CD-ROM, DVD-ROM, hard disk, optical disk, magneto-optical disk, CD-R, magnetic tape, nonvolatile memory card, ROM Etc. are used.
  • an OS operating system
  • the computer CPU or the like performs part or all of the actual processing based on the instruction of the program code.
  • the program code is stored in a storage means such as a hard disk or memory of a system or apparatus, or a storage medium such as a CD-RW or CD-R
  • the computer (or CPU or MPU) of the system or apparatus may read and execute the program code stored in the storage means or the storage medium when used.
  • DESCRIPTION OF SYMBOLS 100 ... Image coding apparatus 101 ... Coding control part 102 ... Area processing part 103 ... In-screen prediction part 104 ... Entropy coding part 105 ... Stream generation part 108 ... Area information 113 ... Area image 114 ... Prediction parameter 1300 ... Image decoding Encoding device 1301 ... decoding control unit 1302 ... region decoding unit 1303 ... predicted image generation unit 1304 ... entropy decoding unit 1306 ... stream analysis unit 1308 ... coding region information 1309 ... region information 1311 ... prediction coefficient information

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

 画面内予測では符号化対象画素の予測を行う際、領域境界である輪郭線の近辺での予測精度を改善する。画像符号化装置は、領域処理部、画面内予測部、及びエントロピー符号化部を備える。領域処理部は、ピクチャ内の領域判定を行う領域判定部と、領域情報を圧縮して符号化する領域符号化部を有する。画面内予測部では、符号化対象画素の近傍の画素を基に符号化対象画素を予測し、その予測誤差画像を生成する。この画面内予測部では、領域情報を基に近傍の画素がどの領域に属するかを判別し、必要に応じて領域境界付近での画面内予測に適用する予測パラメータを修正する機能を有する(図1参照)。

Description

画像符号化装置、画像復号化装置、画像符号化方法、及び画像復号化方法
 本発明は、画像信号を高効率で符号化・復号化する画像符号化・復号化装置、及び画像符号化・復号化方法に関する。
 医療機関の画像診断装置や産業用途での電子顕微鏡画像、航空・衛星写真等を圧縮して伝送・保存する用途においては、撮影画像を劣化なく圧縮保存するロスレス画像符号化のニーズが高い。従来のロスレス画像符号化技術としては、ピクチャ内の画素間の相関性を利用して冗長な情報量を削減することで、画像情報量を圧縮する符号化方式が実用化されている。このようなロスレス符号化方式には、JPEG-LS(Joint Photographic Experts Group - Lossless)やJPEG2000等がある。
 JPEG-LSは、符号化対象画素の周辺の水平方向や垂直方向の勾配を考慮して、対象画素の近傍の4画素から対象画素の予測値Pを決定し、符号化対象画素と予測値Pとの予測誤差をエントロピー符号化する。エントロピー符号化方法としては算術符号化やGolomb符号化等を選択することができる。
 JPEG2000は、ブロック単位、もしくはライン単位で離散ウェーブレット変換(DWT)を施すことで周波数空間に変換し、得られたウェーブレット係数をモデル化して算術符号化を行う。
 上記の既存の画像符号化方式は自然画像を主な用途として想定している。しかし、X線CT(Computed Tomography)やMRI(Magnetic Resonance Imaging)等の画像診断装置で撮像される医用画像は、人体を透過したX線量や体内組織内の原子核の核磁気共鳴の状態などを、画像として再構成したものであり、自然画像とは画像の特徴が大きく異なる。
 医用画像の特徴の1つとして、複数領域に分割しやすいことが挙げられる。これは同一の体内組織は同一もしくは近い画素値をもつためである。この領域には撮像領域外の領域(通常何も撮影されない)も含まれる。
 上記既存の符号化方式では、画素単位、もしくは正方形のブロック単位で符号化情報を格納しているのに対し、医用画像に対しては画像を領域に分割し、この領域単位で符号化情報を格納することにより、符号化効率の向上が期待できる。
 特に、領域単位で符号化情報を格納する技術は、動画像符号化の分野では多く開示されてきている。例えば、特許文献1には、領域分割を動画像符号化に適用する方式が記載されている。また、特許文献2には、正方形ブロック内の画素値の分散やエッジ情報などに基づいて、ブロックの統合や分割を行うことでピクチャ内を領域に分割し、この領域毎に動きベクトルや量子化パラメータなどの符号化情報を格納する方式が記載されている。
 領域分割に基づく画像符号化を動画像に適用した場合、時間的に連続するピクチャ間で対応する領域の動きを求め、領域単位で動き情報を格納することにより、領域の画像情報の大幅な圧縮が期待できる。
特開2001-45494号公報 特開2006-314126号公報
「コンピュータ画像処理」オーム社出版局(田村 秀行 編著) ディジタル信号処理シリーズ第10巻「適応信号処理」昭晃堂(辻井 重男 編著)
 しかしながら、特許文献1及び2に記載されるような動画像符号化における領域分割に基づいた画像符号化は、ピクチャ間の相関を利用した予測(以降、画面間予測)に関する技術であり、ピクチャ内の画素の相関を利用する予測に関して適用できるものではない。
 通常、画面内予測では符号化対象画素の予測を行う際、領域境界である輪郭線の近辺で高周波成分が発生し、予測精度が悪くなるという課題があった。予測精度が悪くなると予測誤差の情報量が大きくなるため、符号化効率の低下につながる。特にロスレス画像符号化では、こうした予測誤差の情報の切捨てを行うことができないため、予測誤差の情報量が大きくなると、符号化効率の低下がロッシー符号化に比べてより顕著となる。
 本発明はこのような状況に鑑みてなされたものであり、領域分割をともなう画像符号化・復号化処理において、画面内予測での領域境界部の予測精度を改善することを可能とする技術を提供するものである。
 上記課題を解決するため、本発明による画像符号化装置は、領域処理部、画面内予測部、及びエントロピー符号化部を備える。領域処理部は、ピクチャ内の領域判定を行う領域判定部と、領域情報を圧縮して符号化する領域符号化部を有する。画面内予測部では、符号化対象画素の近傍の画素を基に符号化対象画素を予測し、その予測誤差画像を生成する。この画面内予測部では、領域情報を基に近傍の画素がどの領域に属するかを判別し、必要に応じて領域境界付近での画面内予測に適用する予測パラメータを修正する機能を有する。
 画像符号化装置が出力する符号化ストリームには、予測差分画像の情報とともに、領域単位で、予測パラメータ情報と、領域境界における予測パラメータの修正情報が格納される。この予測パラメータの修正情報は、領域全体に指定することが可能な上、個々の領域境界位置の画素に対して指定することが可能である。
 エントロピー符号化部は、画面内予測部で得られた予測誤差画像をエントロピー符号化し、符号化ストリームに出力する。
 本発明による画像復号化装置は、領域復号部、画面内予測部、エントロピー復号化部、及び画像生成部を備える。領域復号部は、符号化ストリーム中の領域情報を復号し、ピクチャ内の領域分割情報を取得する。画面内予測部は、領域復号部で得られた領域分割情報と、領域毎に符号化された予測パラメータ、及び予測パラメータ修正情報を基に画面内予測を行い、予測画像を生成する。エントロピー復号化部は、符号化ストリーム中の予測誤差画像を復号化する。画像生成部は、予測画像と予測誤差画像とを加算し、最終的な復号画像を生成する。
 本発明による画像符号化方法は、ピクチャ内の領域を判定して領域に分割し、ピクチャ内の画面内予測を行う際、領域分割情報を基に、予測に用いる近傍画素がどの領域に属するかを判別し、必要に応じて領域境界での予測パラメータを修正する。
 本発明による画像復号化方法は、画面内予測画像を生成するために、符号化ストリームから領域分割情報を取得し、領域毎に符号化ストリームに格納される予測パラメータを用いた領域内の画素の画面内予測を行い、領域境界付近の画素に対しては、符号化ストリームに格納される予測係数修正情報を基に、画面内予測に適用する予測パラメータを修正して予測画像を生成する。
 さらなる本発明の特徴は、以下本発明を実施するための最良の形態および添付図面によって明らかになるものである。
 本発明によれば、領域境界付近の画素の画面内予測の精度を向上させることができ、領域分割をともなう画像符号化時の圧縮率を向上させることができるようになる。
本発明の実施形態による画像符号化装置の概略構成を示す図である。 領域処理部の内部構成例を示す図である。 領域処理部における領域分割処理を説明するための図である。 領域処理部における領域の境界追跡処理と境界画素の符号化方法を説明するための図である。 複数の領域の包含関係を示す図である。 画面内予測部における処理を説明するためのフローチャートである。 画面内予測部における予測方法を説明するための図である。 領域内の予測係数を決定する処理を説明するための図である。 領域境界付近での予測係数の修正判定処理を説明するための図である。 領域境界付近での予測処理を説明するための図である。 領域内の内側の境界付近での予測係数の修正処理を説明するための図である。 符号化ストリームの構成例を示す図である。 本発明の実施形態による画像復号化装置の概略構成を示す図である。 領域復号部における領域画像の復元処理を説明するための図である。
 本発明は、画面内予測方式を用いて符号化対象画素の予測を行う際、領域境界である輪郭線の近辺での予測精度を向上させ、予測誤差の情報量が小さくし、符号化効率の低下を防止するための技術に関する。本発明は、特にロスレス画像符号化に適しているが、ロッシー符号化にも適用可能である。
 以下、添付図面を参照して本発明の実施形態について説明する。ただし、本実施形態は本発明を実現するための一例に過ぎず、本発明の技術的範囲を限定するものではないことに注意すべきである。また、各図において共通の構成については同一の参照番号が付されている。
 <画像符号化装置の構成>
 図1は、本発明の実施形態による画像符号化装置の概略構成を示す図である。当該画像符号化装置は、領域分割に基づく画面内予測を用いて画像符号化を行うものであり、X線CTやMRIなどの画像診断装置のみならず、SEM画像、衛星画像や航空写真等、領域分割による符号化効率の向上が期待できる画像に対しても有効である。
 図1において、画像符号化装置100は、装置全体の制御を行う符号化制御部101と、入力画像107を解析して1以上の領域に分割し、分割領域に関する領域情報108を生成する領域処理部102と、予測パラメータ114を用いて所定単位(例えば、画素単位やブロック単位)で画面内予測を行い、予測画像109を生成する画面内予測部103と、入力画像107と予測画像109との予測誤差画像110を生成する差分器106と、予測誤差画像110をエントロピー符号化し、予測誤差画像情報(符号化画像情報)111を生成するエントロピー符号化部104と、領域情報108、予測情報114及び予測誤差画像情報11を統合(多重化)して符号化ストリーム1012を生成するストリーム生成部105と、を備えている。
 なお、本実施形態による画像符号化装置100では、画面内予測のみを実行する構成となっているが、画面内予測と画面間予測の効率の良い方(符号量の少ない方)を選択するような構成としても良い。この場合、何れを選択するかは、例えば、画面内予測による符号量と画面間予測による符号量を比較して決定する方法が考えられる。
 また、図示してはいないが、図1の各ブロック間には必要に応じて演算タイミングを合わせるための遅延器が適宜設けられている。
 <領域処理部の処理内容>
 以下、図2から図4を参照して、領域処理部102の処理内容について詳細に説明する。
 図2は、領域処理部102の内部構成を示す図である。図2で示されるように、領域処理部102は、領域分割部200と領域情報符号化部201とを有している。領域分割部200は、入力画像107を解析してピクチャ内の領域分割を行う。図3を参照して、領域分割部200における処理例を説明する。
 図3は、入力画像を多値化(同図では4値化)することで領域分割する例を示す図である。図3(a)は、画像内の各画素の分布(ヒストグラム)を示す図であり、同図では、3個の閾値t1,t2,t3により、画素値を区間[ti,ti+1](i=1,2,3)にある画素が1つのクラスに分類されている。この閾値を自動的に選択するアルゴリズムの一例しては、以下に示すような反復法が挙げられる。
 (ステップ1)3個の閾値の初期値を等間隔に選ぶ。このとき、t1とt3はそれぞれ、画素値の最小値、最大値+1とし、画素値を区間[ti,ti+1](i=1,2,3)にある画素を1つのクラスに分類する。
 (ステップ2)各クラスの画素値の平均値Mi(i=1,2,3)を求める。
 (ステップ3)次式により隣り合うクラスの平均値間の中点を新たに閾値とする。
      ti=(Mi+Mi+1)/2  (i=1,2,3)
 (ステップ4)閾値に変化がなければ終了。変化があればステップ2へジャンプする。
 図3(b)は、以上の方法によって選択された閾値に基づいて画像を4値化した結果の例を示している。同図に示されるように、分けられた4つのクラスをそのまま4つの領域として定義してもよいし、同じクラスに分類されていても、連結していない領域であれば、別々の領域として分けてもよい。図3(b)では、4値化により同じクラスに分類されている領域R1と領域R5とを別々の領域として定義している。画像の連結性の判定については、本願では記載を省略するが、例えば非特許文献1に示されている方法を用いることが可能である。なお、もし小さな領域であればその領域を消去してもよいし、4値化画像全体に対してメジアンフィルタをかけることで雑音を除去するなどの処理を行っても構わない。
 このようにして、領域R1からR5を決定すると、領域分割部200は、4値化された画像の個々の画素値に対して、領域R1からR5のどの領域に属するかのラベル情報を付与する。このラベル情報は、符号化処理の際に用いられる。以下、この領域のラベル情報が付与された画像を領域画像と記す。
 領域分割部200が生成した領域画像113は、このままでは情報量が多いため領域情報符号化部201において符号化領域情報108に符号化される。
 図4は、領域情報符号化部201における領域情報の符号化処理を説明するための図である。本発明の実施形態による領域情報符号化部201は、領域画像113で与えられる領域R1~R5の境界追跡を行う。以下に、一例として領域R2の境界追跡アルゴリズムを示す。
 (ステップ1)領域画像113をラスタ走査し、左側にR2以外の画素が隣接する最初のR2画素を探索し、これを境界追跡の開始点A1とする。ただし既に追跡済みの画素は無視してラスタ走査を続行する。また、A1の周囲全てがR2以外であれば、これを無視してラスタ走査を続行する。
 (ステップ2)境界画素Anの8つの近傍において、直前の境界画素An-1から順に反時計回りに画素の領域ラベルを調べ、最初に現れるR2の画素を、次の境界画素An+1とする(図4(a)参照)。ある境界画素Amが開始点A1と一致したら、一本の境界追跡を終了してステップ1へ戻る。A1~Amが1本の境界となる。
 図4(b)は、このアルゴリズムによって求められた一本の境界追跡の例を示している。なお、追跡の途中で各境界画素Anには追跡済みのマークを付しておく。ただし、追跡した境界が他の境界に内包される場合には、この境界を除外する(図3(b)における領域R2の内側の境界)。
 以上のように、境界追跡を全ての領域(ただしR1は領域外として設定すれば除外できる)に対して行うことで、個々の領域の境界線を得ることができる。
 続いて、領域情報符号化部201は、個々の境界線を符号化する。この符号化方法の一例としてはチェーンコードによる符号化方法がある。このチェーンコードによる符号化方法は、図4(b)で示されるような境界線情報を、開始点A1の座標値の情報と、開始点から再度その開始点に戻るまで順次継続する境界画素の方向を図4(c)に従って表したコードとにより符号化するものである。このようにチェーンコードを用いることにより、境界画素A1~Amを座標系列で直接表現する場合よりも、領域情報の情報量を小さくすることができる。
 上記の境界追跡では、領域の内部の境界情報は保持していない。この理由としては、図3(b)において、例えば領域R2の内側の境界は領域R3の外側の境界と等しいため、領域R2として外側と内側の境界情報を持つことは冗長なためである。
 この場合、図5に示すように、R2の外側の境界線は、R3の外側の境界線を完全に内包し、R3の外側の境界線は、R4とR5の境界線を内包する。このようにある境界線の内部が他の境界線内部と完全、もしくは一部が重なるような場合は、各々の境界線に対して優先レベル情報を付与し、これも符号化しておく。
 図5の例では、優先レベルがR2<R3<R4=R5となるように設定しておく。こうすることで同図中の点Aは、3つの領域R2、R3、R4の内部であるが、最も優先レベルの高い領域R4内部の画素として扱われる。同様に点Bは領域R3内部の画素として扱われ、図3(b)の領域画像と等価の情報が保持することができる。
 以上で述べた、各領域の境界線情報と個々の境界線の優先レベル情報とが、符号化領域情報108として領域情報符号化部201から出力される。
 <画面内予測部の処理内容>
 次に本発明の実施形態による画面内予測部103の処理内容について説明する。画面内予測部103は、ピクチャ内の各対象画素を、その周辺の画素を用いて予測することにより予測画像109を生成する。
(1)処理全体の概要
 図6は、画面内予測部103の全体の処理の概要を説明するためのフローチャートである。
 まず、画面内予測部103は、領域画像113で示される各々の領域(例えば、R1乃至5)について、画面内予測処理を行っていない領域の有無を判定し(ステップS61)、未処理領域があれば、この領域を処理対象として選択する(ステップS62)。未処理領域がなければ、処理はステップS65に移行する。
 そして、ステップS62で選択された領域に対して、画面内予測部103は、領域内の画面内予測を行うための予測係数を1つ決定する(ステップS63)。次に、得られた予測係数を用いて、画面内予測部103は、予測の際に領域の境界を跨ぐ画素に対して、決定された予測係数を修正するかしないかの判定を行う(ステップS64)。なお、予測係数は領域毎に割り当てられる。
 そして、全ての領域について予測係数の決定及び修正処理が完了すれば(ステップS61でNoの場合)、画面内予測部103は、当該予測係数を用いて予測画像を生成する(ステップS65)。
(2)予測係数決定処理(ステップS63)の詳細
 ステップS63における領域内の予測係数(予測パラメータ)の決定処理について以下に説明する。
 図7は、対象画素の予測方法の一例を示す図である。同図中、Xは符号化対象画素、X0からX5は符号化対象画素の予測に用いる周辺画素であり、Xの予測値Pは予測係数α0~α5による線形和によって得られる。
 画面内予測部103は、領域画像113で示される各々の領域に対し、領域内の画素を、ラスタ走査順に従って選択し、上記の予測係数を決定する。予測係数の決定方法の例とて、最小2乗法を用いる方法がある。
 図8は予測係数を決定する方法を説明するための図である。最小2乗法により、領域内で1組の最適な係数を決定するため、領域内の任意の代表画素SをN個選択する(図8(a)参照)。このとき、予測誤差の評価値eは、図8(b)によって与えられる。この評価値eを最小とするような係数を最小2乗法により決定する。本願では、最小2乗法を効率よく計算する算法についての記述は省略するが、例えば非特許文献2に紹介されている方法を用いることが可能である。図8(a)において、「×」は領域R3の予測係数決定に用いる代表画素Sj(j=1,…N)を表している。
 なお、上記の代表画素Sの個数Nは、これを大きくするほどより適切な予測係数を決定できるが、演算量が増すことを考慮した上で、適切な値を予め決めておくとよい。もしもNに比べて領域内の画素数が多い場合には、別の代表画素Sを選択して上記計算を行うことを繰り返し、繰り返しにより得られた予測係数の平均値をとることで、領域の予測係数としてもよい。
(3)予測係数の修正判定処理(ステップS64)の詳細
 次に、ステップS64における、領域境界の予測係数の修正判定処理について説明する。ステップS64における処理は、以下のような流れで実行される。
 (ステップ1) 予測係数修正の判定に用いる画素を選択する。これには領域情報108を用いて、選択された領域画素領域の境界画素を選択する。ここで選択する画素は、境界画素全てを選択してもよいし、処理量削減のため、外側境界画素のうちのいくつかのみを代表画素として選択してもよい(図9参照)。なお、図9において、「×」は領域R3の外側境界上の予測係数修正判定に用いる代表画素を表し、「○」は領域R4の外側境界上の予測係数修正判定に用いる代表画素を表し、「△」は領域R5の外側境界上の予測係数修正判定に用いる代表画素を表している。
 (ステップ2) 選択された外側境界画素に対して、ステップS63で決定された予測係数を基に、以下の2つの方式で予測値Pを算出し、予測誤差E=X-Pが小さい方をマーキングする。
 方式1:予測係数を修正して予測を行い、予測値Pを算出する。係数の修正方法はあらかじめ定めておくものとする。例えば、境界画素の周辺画素X0からX5のうち、境界を跨ぐ画素数をNoutとすると、境界内の画素に対応する予測係数を6/(6-Nout)倍する、という方法がある。図10に示す例では、境界画素Xに対して境界を跨ぐ画素はX1、X3、X5の3個であるので、Nout=3となる。このため境界内の画素X0、X2、X4に対応する予測係数α0、α2、α4をそれぞれ2倍(=6/(6-3))する。
 従って、方式1(領域境界での係数修正がある場合)では、α0=2×α0、α2=2×α2、α4=2×α4、P=Σ(αi×Xi)となる(i=0,2,4,・・・)。
 方式2:予測係数を修正せず(ステップS63で求めた予測係数を用いる)に予測を行い、予測値Pを算出する。従って、P=Σ(αi×Xi)となる(i=0,1,2,3,4,5)。
 (ステップ3)ステップ1で選択した画素のうち、未処理の画素があればステップ2を実行する。未処理の画素がなければ、(すなわちステップ1で選択した全ての画素についてステップ2を実行済み)、多くマーキングされた方の方式を、領域境界での予測係数修正方法(ルール)として決定する(多数決で決定)。
 (ステップ4)領域情報108が示す選択領域の境界のうち、未処理の領域境界があれば、ステップ1にジャンプする。全ての領域境界について処理が行われていれば、予測係数の修正判定処理を終了する。
(4)予測画像生成処理(ステップS65)の詳細
 次に、ステップS65における予測画像生成処理について説明する。ステップS65では、ピクチャ内の符号化対象画素をラスタ走査順に選択し、ステップS63にて決定した予測係数を用いて予測画素値Pを算出し、基本的にこれを予測画素とする。
 ただし、符号化対象画素の予測に用いる周辺画素が領域境界を跨る場合、その領域境界がその領域における外側の境界であるか、内側の境界であるかに応じて以下の2つの処理のいずれかを行う。
 (処理1:外側の領域境界の場合)
 ステップS64で決められた予測係数の修正判定ルールを用いる。すなわち予測係数の修正を行う場合には、予め定めたルールに従って予測係数を修正して予測画素値Pを算出する。
 (処理2:内側の領域境界の場合)
 予測に用いる周辺画素のうち領域を跨っている画素(例えば、X1及びX2)を含む領域(例えば、領域1及び2)の領域情報108に含まれる、その画素(X1及びX2)を含む境界の情報に基づいて、ステップS64で決められた予測係数の修正判定を参照し、予測係数を修正する。具体的には次のような処理が行われる。
 図11は、処理2における予測係数の修正の例を示す図である。符号化対象画素Xが符号化対象領域の内側の境界上にある場合、この境界において予測係数修正の有無の判定は、同図中、領域1と領域2の処理として行われていることになる。予測に用いる画素のうち、X2は領域1に属し、領域1(当該境界は、領域1から見て外側の境界に相当する)においては「予測係数修正有り」と判定されているとする。また、X1、X3、及びX5は領域2に属し、領域2(当該境界は、領域2から見て外側の境界に相当する)においては「予測係数修正無し」と判定されているとする。このとき、X0からX5の予測係数のうち、予測係数の修正を行う画素はX2の1個の係数となるので、その画素は領域3の画素を予測するために用いるには不適切とされる。
 図11における式は、上で述べた予測係数の修正方法と、修正された予測係数で重みづけを行うことで画素Xを予測する方法とを式で示している。すなわち、同図中、予測に用いる画素は、X2以外のX0、X1、X3、X4、X5の5つである。そこでステップS64のステップ2と同様、予測に用いない画素数Nout=1であるため、画素Xi(i=0、1、3、4、5)に対応する予測係数αiをそれぞれ6/5倍(=6/(6-Nout))に修正する。そして修正された予測係数αiで、対象画素Xiを重みづけし、その総和を予測値Pとする。
 すなわち、領域情報符号化部201の処理の説明で述べたように、符号化対象画素Xが属する領域境界がその領域の外側の境界に相当すれば、その境界画素の情報がその領域の情報として符号化されており、上述の予測係数の修正を行うか否かの判定が行われていることになる。一方、領域境界がその領域の内側の境界に相当すれば、その境界画素の情報は、その領域の情報としては符号化されておらず、別の領域の境界画素として符号化されて、その予測係数の修正の有無が判定されていることになる。よって、符号化対象画素の属する領域の境界が、その領域の外側の境界であるか内側の境界であるかによって上述のような処理を行うことで、領域内の全ての境界近辺の画素に対して、予測係数の修正の有無を設定することが可能となる。
 以上に述べたように、ステップS61からステップS65の処理を実行することにより、画面内予測部103において予測画像109を生成することができる。上述した個々の領域における予測係数情報と予測係数の修正情報は、予測パラメータ114としてストリーム生成部105へ送られる。
 <符号化ストリーム生成処理について>
 差分器106は、入力画像(画素)107と予測画像(画素)109との差分を取り、予測誤差画像(残差)110を生成する。なお、図1には示されていないが、対象画素のタイミングを合致させるため、入力画像107を遅延するための遅延器が画像入力部と差分器106との間に設けられていることは言うまでもない。
 そして、エントロピー符号化部104は、当該予測誤差画像110をエントロピー符号化し、予測誤差画像情報111を生成する。このエントロピー符号化の例としては、ゴロム符号、ハフマン符号等の可変長符号や、算術符号化などが挙げられる。なお、本発明は、エントロピー符号化とは直接的には関連しないため、詳細の説明は省略する。
 さらに、ストリーム生成部105は、領域処理部102からの符号化領域情報108と、各領域の予測パラメータ(予測係数情報及び予測係数の修正情報)114と、予測誤差画像情報111とを統合(多重化)し、符号化ストリーム112を生成する。
 図12は、符号化ストリーム112の例を示す図である。符号化ストリーム112は、例えば、画像基本情報と、領域数Nの情報と、各領域の情報である領域情報と、予測誤差画像情報と、から構成される。画像基本情報には、画像サイズ等の基本的情報が格納される。領域数Nには後続する領域情報の数が格納される。領域情報には、領域形状情報と、その領域内の画面内予測時に適用される予測係数情報とが格納される。領域形状情報には、その領域を形成する境界情報の数Mと、個々の境界情報(例としては上述した境界画素系列のチェーンコードとその境界の優先レベル)、個々の境界に対して予測係数を修正するか否かを示す係数修正情報との組が、M個格納される。
 以上により、画像符号化装置100では、領域境界付近の画素の画面内予測の予測パラメータの修正情報を符号化ストリームに格納することができ、その予測精度を向上させることができるので、領域分割をともなう画像符号化時の圧縮率を向上させることができる。
 <画像復号化装置の構成>
 続いて、本発明の実施形態による、上述の画像符号化装置により生成された符号化ストリームを復号する画像復号化装置について説明する。
 図13は、本発明の実施形態による画像復号化装置の概略構成を示す図である。画像復号化装置1300は、装置全体の制御を行う復号制御部1301と、符号化ストリーム1307を解析し、符号化領域情報1308(係数修正情報も含まれる)と、予測係数情報1311(予測パラメータ114の予測係数情報に相当)と、予測誤差画像情報1313(予測誤差画像情報111に相当)に分離するストリーム解析部1306と、符号化領域情報1308を復号化して領域情報1309を生成する領域復号部1302と、既に生成された復号画像1315と予測係数情報1311と符号化領域情報1308に含まれる係数修正情報とを用いて予測画像1312を生成する予測画像生成部1303と、予測誤差画像情報1313を復号化して予測誤差画像1314を生成するエントロピー復号化部1304と、予測画像1312と予測誤差画像1314とを加算して復号画像1315を生成する加算器1305と、を備えている。なお、本実施形態では、復号画像1315は復号画素情報(ブロック単位で処理する場合は復号ブロック情報)であるので、1フレームを構成するためには1フレーム分の復号画素情報を蓄積し、1フレーム画像として出力する画像構成処理部(例)が必要となる。この画像構成処理部は画像復号化装置1300内に設けても良いし、画像復号化装置1300外に設けても良い。
 <各処理部の動作の詳細>
 図14は、領域復号部1300による領域復号処理を説明するための図である。ストリーム解析部1306は、符号化ストリーム1307を解析して符号化領域情報1308を抽出し、それを領域復号部1300に提供する。符号化ストリーム1307の構成としては、例えば図12で述べたような例が挙げられるので説明は省略する。
 符号化領域情報1308には、個々の領域を形成する境界情報が格納されており、この境界情報は、開始画素座標情報と、図10で述べたような個々の境界を示すチェーンコードと、領域の優先レベルの情報と、を含んでいる。以下、この境界を示すチェーンコードから領域情報1309を復元する方法の一例について説明する。
 (ステップ1)境界を構成する画素のうち、図14(a)に示すような条件を満たす左エッジと、図14(b)に示すような条件を満たす右エッジを求める。すなわち左エッジとは、直前の境界画素が左上、上、右上、右のいずれかにあり、次の境界画素が左下、下、右下、右のいずれかにある境界画素である。右エッジとは、直前の境界画素が左、左下、下、右下のいずれかにあり、次の境界画素が左上、上、右上、左のいずれかにある境界画素である。
 (ステップ2)開始画素の座標を基準とし、左エッジと右エッジの間を、その領域内画素としてラベリングする(図14(c))。
 以上の処理により、境界画素を示すチェーンコードから、その境界画素に囲まれる領域内の画素を復元できる。上記のような処理を、全ての領域に対して、その境界線の優先レベルが低い順に行い、優先レベルの高い領域の画素のラベルにより、優先レベルの低い領域の画素のラベルを上書きする。以上の処理により、領域情報1309を復元される。
 予測画像生成部1303は、予測係数情報1311と、符号化領域情報1308に含まれる係数修正情報と、領域情報1309と、既復号画像1315に基づいて、予測画像1312を生成する。予測画像生成部1303における処理は、符号化処理における画面内予測部103内の予測画像生成ステップS65(図6)と同様のため、説明は省略する。
 エントロピー復号部1304は、符号化ストリーム1307内の予測誤差画像情報1313を復号化して予測誤差画像1314を復元する。
 予測画像1312と予測誤差画像1314とは、加算器1305において加算され、復号画像1315が生成され、出力される。この復号画像1315は、画面内予測処理に用いるため、予測画像生成部1303にも提供される。
 以上により、画像復号化部1300では、画像復号化装置100に作成された符号化ストリーム1307を復号することができる。
 以上に述べたように、本実施例による画像復号化装置では、画像復号化装置100に作成された、領域境界での予測係数の修正に関する情報を含む符号化ストリーム1307を復号することが可能となる。
 <まとめ>
 本実施形態では、画面内予測の際に、1フレームを、特徴を同一にする領域に分割して得られた複数の領域のそれぞれに対して予測パラメータを生成する。そして、符号化に用いる周辺画像情報が符号化対象画像情報の属する領域と同じ領域にある場合には、生成した予測パラメータを用いて前記予測画像情報を生成する。一方、周辺画像情報が符号化対象画像情報の属する領域(第1の領域)とは異なる領域(第2の領域)に属する場合には、第2の領域に属する周辺画像情報が符号化効率(予測)に与える影響をより小さくするためには予測パラメータの修正が必要か否か判定し、当該判定結果に基づいて、予測パラメータ(修正不要と判定された場合)或いは修正予測パラメータ(修正要と判定された場合)を用いて予測画像情報を生成する。このようにすることにより、領域境界部の画素の予測精度を向上させることができ、ロスレス符号化においても符号化効率を改善することができる。
 なお、画面内予測部は、第1の領域と第2の領域の境界が第1の領域の外側の領域か内側の領域かによって予測パラメータの修正について異なる方法を採用する。つまり、当該境界が外側の境界の場合、第1の領域内にある周辺画像情報の予測パラメータを、(予測に用いる周辺画像情報の個数)/(予測に用いる周辺画像情報の個数-第2の領域内の周辺画像情報の数)倍して予測パラメータを修正し、当該修正予測パラメータを用いて予測画像情報を生成した場合と、修正前の前記予測パラメータを用いて予測画像情報を生成した場合とを比較し、何れの予測誤差が小さいかに基づいて予測パラメータの修正の必要性の有無を判定する。また、境界が内側の境界の場合、第2の領域における予測パラメータの修正の有無の情報に基づいて、符号化対象画像情報の予測パラメータの修正方法を決定する。このように、境界が第1の領域の外側の境界か内側の境界かによって予測パラメータの修正方法を異ならしめることにより、境界に付近における画素の符号化をより効率よく実行することができる。
 また、予測パラメータを修正して予測画像情報を生成する場合、予測パラメータを修正することを示す係数修正情報を統合して符号化ストリームを生成するようにしても良い。このようにすることにより、復号化処理の際に、係数修正情報に従って予測画像を生成すればよいので、復号化処理を効率よく実行することができる。
 さらに、複数の領域の各境界について、開始点の座標情報と、当該開始点から継続する境界の方向の情報をコード化(チェーンコードを用いる)して領域境界情報を生成する。このようにすることにより、境界画素の座標情報をストリーム化して伝送する必要がないので、符号化ストリームの情報量を削減することができる。また、開始点の画素からチェーンコードにしたがって境界を特定できるので、境界の再現の処理が簡単である。
 復号化のときの画面内予測の際にも同様に、周辺画像情報が復号化対象画像情報の属する領域と同じ領域にある場合には、予測パラメータを用いて予測画像情報を生成する。一方、周辺画像情報が復号化対象画像情報の属する領域(第1の領域)とは異なる領域(第2の領域)に属する場合には、異なる領域に属する周辺画像情報が予測に与える影響をより小さくするためには予測パラメータの修正が必要か否か判定し、当該判定結果に基づいて、予測パラメータ或いは修正予測パラメータを用いて予測画像情報を生成する。これにより、領域を跨ぐ周辺画素を用いて効率よく符号化画像を復号化することが可能となる。
 復号化処理の際には、符号化装置から送信されてきた、予測パラメータを修正することを示す係数修正情報を符号化ストリームから取得し、係数修正情報に基づいて予測パラメータを修正の必要性の有無を判定し、当該修正予測パラメータを用いて予測画像情報を生成するようにしても良い。このようにすることにより、復号化処理の際に、予測パラメータの修正の有無を判断する必要がなくなるので、効率よく復号化処理を実行することができるようになる。
 なお、本発明は、実施形態の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をシステム或は装置に提供し、そのシステム或は装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD-ROM、DVD-ROM、ハードディスク、光ディスク、光磁気ディスク、CD-R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。
 また、プログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現されるようにしてもよい。さらに、記憶媒体から読み出されたプログラムコードが、コンピュータ上のメモリに書きこまれた後、そのプログラムコードの指示に基づき、コンピュータのCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現されるようにしてもよい。
 また、実施の形態の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することにより、それをシステム又は装置のハードディスクやメモリ等の記憶手段又はCD-RW、CD-R等の記憶媒体に格納し、使用時にそのシステム又は装置のコンピュータ(又はCPUやMPU)が当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしても良い。
 100…画像符号化装置
 101…符号化制御部
 102…領域処理部
 103…画面内予測部
 104…エントロピー符号化部
 105…ストリーム生成部
 108…領域情報
 113…領域画像
 114…予測パラメータ
 1300…画像復号化装置
 1301…復号化制御部
 1302…領域復号部
 1303…予測画像生成部
 1304…エントロピー復号化部
 1306…ストリーム解析部
 1308…符号化領域情報
 1309…領域情報
 1311…予測係数情報

Claims (13)

  1.  入力画像を圧縮して符号化画像データを生成する画像符号化装置であって、
     前記入力画像を解析して前記入力画像において特徴を異にする複数の領域を判別し、領域境界情報を生成する領域処理部と、
     符号化対象画像情報の周辺画像情報を用いて、前記符号化対象画像情報に対して画面内予測処理を実行し、前記符号化対象画像情報の予測画像情報を生成する画面内予測部と、
     前記符号化対象画像情報と前記予測画像情報との差分を取り、予測誤差情報を生成する差分器と、
     前記予測誤差情報を符号化し、符号化予測誤差情報を生成する符号化部と、
     前記領域境界情報と、前記予測画像情報を生成するために用いる予測パラメータと、前記予測誤差情報とを統合して符号化ストリームを生成するストリーム生成部と、を備え、
     前記画面内予測部は、前記複数の領域のそれぞれに対して前記予測パラメータを生成し、i)前記周辺画像情報が前記符号化対象画像情報の属する領域と同じ領域にある場合には、前記予測パラメータを用いて前記予測画像情報を生成し、ii)前記周辺画像情報が前記符号化対象画像情報の属する領域(第1の領域)とは異なる領域(第2の領域)に属する場合には、前記異なる領域に属する周辺画像情報が符号化効率に与える影響をより小さくするためには前記予測パラメータの修正が必要か否か判定し、当該判定結果に基づいて、前記予測パラメータ或いは前記修正予測パラメータを用いて前記予測画像情報を生成することを特徴とする画像符号化装置。
  2.  請求項1において、
     前記画面内予測部は、前記第1の領域と前記第2の領域の境界が前記第1の領域の外側の領域か内側の領域かによって前記予測パラメータの修正について異なる方法を採用することを特徴とする画像符号化装置。
  3.  請求項2において、
     前記第1の領域と前記第2の領域との境界が前記第1の領域の外側の境界の場合、前記画面内予測部は、前記第1の領域内にある前記周辺画像情報の前記予測パラメータを、(予測に用いる前記周辺画像情報の個数)/(予測に用いる前記周辺画像情報の個数-前記第2の領域内の前記周辺画像情報の数)倍して前記予測パラメータを修正し、当該修正予測パラメータを用いて前記予測画像情報を生成した場合と、修正前の前記予測パラメータを用いて前記予測画像情報を生成した場合とを比較し、何れの前記予測誤差が小さいかに基づいて前記予測パラメータの修正の必要性の有無を判定することを特徴とする画像符号化装置。
  4.  請求項2において、
     前記第1の領域と前記第2の領域との境界が前記第1の領域の内側の境界の場合、前記画面内予測部は、前記第2の領域における予測パラメータの修正の有無の情報に基づいて、前記符号化対象画像情報の前記予測パラメータの修正方法を決定することを特徴とする画像符号化装置。
  5.  請求項1において、
     前記予測パラメータを修正して前記予測画像情報を生成する場合、前記ストリーム生成部は、さらに、前記予測パラメータを修正することを示す係数修正情報を統合して符号化ストリームを生成することを特徴とする画像符号化装置。
  6.  請求項1において、
     前記領域処理部は、前記複数の領域の各境界について、開始点の座標情報と、当該開始点から継続する境界の方向の情報をコード化して前記領域境界情報を生成することを特徴とする画像符号化装置。
  7.  入力された符号化ストリームを復号化し、復号化画像を出力する画像復号化装置であって、
     前記符号化ストリームを解析し、画像内の領域を示す領域境界情報と、予測パラメータと、符号化予測誤差情報と、を取得するストリーム解析部と、
     前記予測パラメータと、復号化対象画像情報の周辺画像情報を用いて、画面内予測処理を実行し、予測画像情報を生成する画面内予測部と、
     前記符号化予測誤差情報を復号化して予測誤差情報を生成する復号化部と、
     前記予測誤差情報と前記予測画像情報とを加算し、復号化画像を生成する復号化部と、を備え、
     前記画面内予測部は、i)前記周辺画像情報が前記復号化対象画像情報の属する領域と同じ領域にある場合には、前記予測パラメータを用いて前記予測画像情報を生成し、ii)前記周辺画像情報が前記復号化対象画像情報の属する領域(第1の領域)とは異なる領域(第2の領域)に属する場合には、前記異なる領域に属する周辺画像情報が予測に与える影響をより小さくするためには前記予測パラメータの修正が必要か否か判定し、当該判定結果に基づいて、前記予測パラメータ或いは前記修正予測パラメータを用いて前記予測画像情報を生成することを特徴とする画像復号化装置。
  8.  請求項7において、
     前記画面内予測部は、前記第1の領域と前記第2の領域の境界が前記第1の領域の外側の領域か内側の領域かによって前記予測パラメータの修正について異なる方法を採用することを特徴とする画像復号化装置。
  9.  請求項8において、
     前記第1の領域と前記第2の領域との境界が前記第1の領域の外側の境界の場合、前記画面内予測部は、前記第1の領域内にある前記周辺画像情報の前記予測パラメータを、(予測に用いる前記周辺画像情報の個数)/(予測に用いる前記周辺画像情報の個数-前記第2の領域内の前記周辺画像情報の数)倍して前記予測パラメータを修正し、当該修正予測パラメータを用いて前記予測画像情報を生成した場合と、修正前の前記予測パラメータを用いて前記予測画像情報を生成した場合とを比較し、何れの前記予測誤差が小さいかに基づいて前記予測パラメータの修正の必要性の有無を判定することを特徴とする画像復号化装置。
  10.  請求項8において、
     前記第1の領域と前記第2の領域との境界が前記第1の領域の内側の境界の場合、前記画面内予測部は、前記第2の領域における予測パラメータの修正の有無の情報に基づいて、前記復号化対象画像情報の前記予測パラメータの修正方法を決定することを特徴とする画像復号化装置。
  11.  請求項7において、
     前記ストリーム解析部は、さらに、前記予測パラメータを修正することを示す係数修正情報を前記符号化ストリームから取得し、
     前記画面内予測部は、前記係数修正情報に基づいて前記予測パラメータの修正の必要性の有無を判定し、当該修正予測パラメータを用いて前記予測画像情報を生成することを特徴とする画像復号化装置。
  12.  入力画像を圧縮して符号化画像データを生成する画像符号化方法であって、
     前記入力画像を解析して前記入力画像において特徴を異にする複数の領域を判別し、領域境界情報を生成する領域処理ステップと、
     符号化対象画像情報の周辺画像情報を用いて、前記符号化対象画像情報に対して画面内予測処理を実行し、前記符号化対象画像情報の予測画像情報を生成する画面内予測ステップと、
     前記符号化対象画像情報と前記予測画像情報との差分を取り、予測誤差情報を生成する差分ステップと、
     前記予測誤差情報を符号化し、符号化予測誤差情報を生成する符号化ステップと、
     前記領域境界情報と、前記予測画像情報を生成するために用いる予測パラメータと、前記予測誤差情報とを統合して符号化ストリームを生成するストリーム生成ステップと、を備え、
     前記画面内予測ステップでは、前記複数の領域のそれぞれに対して前記予測パラメータが生成され、i)前記周辺画像情報が前記符号化対象画像情報の属する領域と同じ領域にある場合には、前記予測パラメータを用いて前記予測画像情報が生成され、ii)前記周辺画像情報が前記符号化対象画像情報の属する領域(第1の領域)とは異なる領域(第2の領域)に属する場合には、前記異なる領域に属する周辺画像情報が符号化効率に与える影響をより小さくするためには前記予測パラメータの修正が必要か否か判定され、当該判定結果に基づいて、前記予測パラメータ或いは前記修正予測パラメータを用いて前記予測画像情報が生成されることを特徴とする画像符号化方法。
  13.  入力された符号化ストリームを復号化し、復号化画像を出力する画像復号化方法であって、
     前記符号化ストリームを解析し、画像内の領域を示す領域境界情報と、予測パラメータと、符号化予測誤差情報と、を取得するストリーム解析ステップと、
     前記予測パラメータと、復号化対象画像情報の周辺画像情報を用いて、画面内予測処理を実行し、予測画像情報を生成する画面内予測ステップと、
     前記符号化予測誤差情報を復号化して予測誤差情報を生成する復号化ステップと、
     前記予測誤差情報と前記予測画像情報とを加算し、復号化画像を生成する復号化画像生成ステップと、を備え、
     前記画面内予測ステップでは、i)前記周辺画像情報が前記復号化対象画像情報の属する領域と同じ領域にある場合には、前記予測パラメータを用いて前記予測画像情報が生成され、ii)前記周辺画像情報が前記復号化対象画像情報の属する領域(第1の領域)とは異なる領域(第2の領域)に属する場合には、前記異なる領域に属する周辺画像情報が予測に与える影響をより小さくするためには前記予測パラメータの修正が必要か否か判定され、当該判定結果に基づいて、前記予測パラメータ或いは前記修正予測パラメータを用いて前記予測画像情報が生成されることを特徴とする画像復号化方法。
PCT/JP2010/068615 2009-10-22 2010-10-21 画像符号化装置、画像復号化装置、画像符号化方法、及び画像復号化方法 WO2011049175A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009243087A JP2013034036A (ja) 2009-10-22 2009-10-22 画像符号化装置、画像復号化装置、画像符号化方法、及び画像復号化方法
JP2009-243087 2009-10-22

Publications (1)

Publication Number Publication Date
WO2011049175A1 true WO2011049175A1 (ja) 2011-04-28

Family

ID=43900398

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/068615 WO2011049175A1 (ja) 2009-10-22 2010-10-21 画像符号化装置、画像復号化装置、画像符号化方法、及び画像復号化方法

Country Status (2)

Country Link
JP (1) JP2013034036A (ja)
WO (1) WO2011049175A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111583285A (zh) * 2020-05-12 2020-08-25 武汉科技大学 一种基于边缘关注策略的肝脏影像语义分割方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06164940A (ja) * 1992-11-19 1994-06-10 Mitsubishi Electric Corp 符号化装置
JP2000092333A (ja) * 1998-09-17 2000-03-31 Fuji Xerox Co Ltd 画像符号化復号装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06164940A (ja) * 1992-11-19 1994-06-10 Mitsubishi Electric Corp 符号化装置
JP2000092333A (ja) * 1998-09-17 2000-03-31 Fuji Xerox Co Ltd 画像符号化復号装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111583285A (zh) * 2020-05-12 2020-08-25 武汉科技大学 一种基于边缘关注策略的肝脏影像语义分割方法
CN111583285B (zh) * 2020-05-12 2023-08-04 武汉科技大学 一种基于边缘关注策略的肝脏影像语义分割方法

Also Published As

Publication number Publication date
JP2013034036A (ja) 2013-02-14

Similar Documents

Publication Publication Date Title
JP5283628B2 (ja) 映像復号方法及び映像符号化方法
JP2004201290A (ja) 画像処理方法および画像処理装置、並びに画像処理プログラムおよび記録媒体
US7561736B2 (en) Image processing apparatus and method of the same
CN112913237A (zh) 使用深度神经网络的人工智能编码和人工智能解码方法和设备
KR20210050186A (ko) 영상의 ai 부호화 및 ai 복호화 방법, 및 장치
EP2378775B1 (en) Image decoding device and image coding device
CA2674310C (en) System and method for reducing artifacts in images
JP2007295170A (ja) 画像圧縮装置、画像圧縮プログラム、画像圧縮方法
JPWO2006054667A1 (ja) データ圧縮伸張方法、プログラム及び装置
JP2006114979A (ja) 画像符号化装置及びその方法
JP6065613B2 (ja) 動画像符号化装置
KR20200000543A (ko) 지도 학습을 이용한 영상 개선 방법 및 장치
WO2011049175A1 (ja) 画像符号化装置、画像復号化装置、画像符号化方法、及び画像復号化方法
US11496735B2 (en) Image encoding device, image decoding device and program
US11350134B2 (en) Encoding apparatus, image interpolating apparatus and encoding program
JP2018107692A (ja) 動画像復号装置、動画像復号方法、動画像符号化装置、動画像符号化方法及びコンピュータ可読記録媒体
KR20150096353A (ko) 이미지 인코딩 시스템, 디코딩 시스템 및 그 제공방법
JP2007019687A (ja) Csrbfを用いる画像処理方法
US20240064331A1 (en) Image decoding apparatus and method and image encoding apparatus and method
US12022074B2 (en) Image encoding device, image decoding device and program
JP7185467B2 (ja) 画像復号装置、画像符号化装置、画像処理システム及びプログラム
JP7310919B2 (ja) フィルタ生成方法、フィルタ生成装置及びプログラム
JP3027605B2 (ja) 画像処理装置
Al-Khafaji et al. Hierarchical Fixed Prediction of Mixed based for Medical Image Compression
WO2011049074A1 (ja) 画像符号化装置、及び画像復号装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10825024

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 10825024

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP