WO2011096091A1 - 画像圧縮装置、画像伸張装置、画像圧縮方法、画像伸張方法および記録媒体 - Google Patents

画像圧縮装置、画像伸張装置、画像圧縮方法、画像伸張方法および記録媒体 Download PDF

Info

Publication number
WO2011096091A1
WO2011096091A1 PCT/JP2010/052125 JP2010052125W WO2011096091A1 WO 2011096091 A1 WO2011096091 A1 WO 2011096091A1 JP 2010052125 W JP2010052125 W JP 2010052125W WO 2011096091 A1 WO2011096091 A1 WO 2011096091A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
feature
pixels
value
image
Prior art date
Application number
PCT/JP2010/052125
Other languages
English (en)
French (fr)
Inventor
偉剛 許
Original Assignee
Xu Weigang
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xu Weigang filed Critical Xu Weigang
Priority to PCT/JP2010/052125 priority Critical patent/WO2011096091A1/ja
Publication of WO2011096091A1 publication Critical patent/WO2011096091A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/93Run-length coding

Definitions

  • the present invention relates to an image compression apparatus, an image expansion apparatus, an image compression method, an image expansion method, and a recording medium.
  • a technique for compressing image data is known in order to facilitate handling of image data (still images and moving images) with a large amount of data.
  • DCT Discrete Cosine Transform
  • quantization corresponding to human visual characteristics is performed for each frequency band, and the image data is compressed by further encoding.
  • the entropy increases when the difference between the pixel values of adjacent pixels in the input image is large. Therefore, the compression rate is not so high. And mosquito noise occurred.
  • an image data compression method is known in which image data is divided into two and encoded (see, for example, Patent Document 1).
  • pixels of image data are grouped into a pixel in which the pixel value of an adjacent pixel exceeds a predetermined threshold and other pixels, and encoding is performed for each grouped pixel.
  • the group of pixels that do not exceed the predetermined threshold value has a smaller pixel value entropy, and thus the compression rate can be increased.
  • the present invention has been made in view of the above, and has an image compression apparatus, an image expansion apparatus, an image compression method, an image compression apparatus that has a high compression rate, prevents occurrence of block noise and mosquito noise, and has high image reproducibility.
  • An object is to provide a decompression method and a recording medium.
  • the present invention provides image data based on pixel values of pixels in a predetermined direction of image data acquired from the outside and pixel positions in the predetermined direction.
  • a feature pixel that is a pixel indicating a change point of the pixel value of the pixel is determined, and the pixel value of the determined feature pixel is stored in association with the distance between the feature pixel and the feature pixel adjacent to the feature pixel.
  • the obtained pixel value and distance are entropy-encoded.
  • the present invention receives compressed data obtained by entropy encoding the pixel value of a feature pixel, which is a pixel indicating a change point of the pixel value in image data, and the distance between the feature pixel and the feature pixel adjacent to the feature pixel.
  • the received compressed data is entropy decoded, the pixel value and distance of the feature pixel are restored, and the pixel value of the pixel between the feature pixels is interpolated based on the restored pixel value and distance of the feature pixel.
  • FIG. 1 is a block diagram illustrating a configuration of an image compression apparatus according to the first embodiment.
  • FIG. 2 is a graph showing a part of the relationship between pixel values and pixel positions of pixels arranged in the scanning direction of image data.
  • FIG. 3 is a graph showing a part of the relationship between pixel values and positions of pixels arranged in the scanning direction in other image data.
  • FIG. 4 is an explanatory diagram illustrating an example of a data configuration of the feature pixel storage unit.
  • FIG. 5 is a flowchart showing an image compression processing procedure performed by the image compression apparatus.
  • FIG. 6 is a flowchart showing an image compression processing procedure performed by the image compression apparatus.
  • FIG. 5 is a flowchart showing an image compression processing procedure performed by the image compression apparatus.
  • FIG. 7 is a graph showing a part of the relationship between pixel values and pixel positions of pixels arranged in the scanning direction of image data.
  • FIG. 8 is a block diagram illustrating a configuration of the image expansion apparatus according to the first embodiment.
  • FIG. 9 is an explanatory diagram illustrating an example in which pixel values of pixels between feature pixels are interpolated with straight lines.
  • FIG. 10 is an explanatory diagram illustrating an example in which pixel values of pixels between feature pixels are interpolated with curves.
  • FIG. 11 is a flowchart showing an image expansion processing procedure performed by the image expansion apparatus.
  • FIG. 12 is a flowchart illustrating an image expansion processing procedure performed by the image expansion apparatus.
  • FIG. 13 is a block diagram illustrating a configuration of an image compression apparatus according to the second embodiment.
  • FIG. 14 is a graph showing the relationship between the pixel values of feature pixels in two adjacent rows in one image data and the position in the scanning direction.
  • FIG. 15 is a graph showing a part of the relationship between pixel values and pixel positions of pixels arranged in the scanning direction of image data in the third embodiment.
  • FIG. 1 is a block diagram illustrating a configuration of an image compression apparatus 100 according to the first embodiment.
  • the image data is described as a color moving image.
  • the present invention is not limited to this, and a monochrome moving image, a color still image, or a monochrome still image may be used instead of a color moving image.
  • the image compression apparatus 100 includes an image data receiving unit 101, an image data storage unit 102, a color conversion unit 103, a frame storage unit 104, a change amount calculation unit 105, and a feature pixel determination unit 106.
  • the image data receiving unit 101 receives color moving image data (RGB pixel values) input from the outside (for example, a digital video camera or the like), and stores the received image data in the image data storage unit 102.
  • the image data storage unit 102 stores the image data received from the image data receiving unit 101.
  • the color conversion unit 103 acquires image data of one frame among a plurality of frames (screens) stored in the image data storage unit 102, and converts the acquired image data into respective pixel values of YCrCb.
  • the frame storage unit 104 stores each pixel value of YCrCb converted by the color conversion unit 101 for each frame.
  • the image data is converted into YCrCb as an example.
  • the image data is not limited to YCrCb, and other color representations YIQ, XYZ, L * a * b * , CMYK, etc.
  • the pixel value of CrCb is obtained by averaging the pixel values of four pixels. Value is used, and image data with a data amount of 1/4 is used.
  • the change amount calculation unit 105 uses the pixel value of each YCrCb obtained from the image data stored in the frame storage unit 104 and the pixel position in a predetermined direction (for example, the scanning direction of the image data) to increase or decrease the pixel value. The amount of change is calculated.
  • the change amount of the increase / decrease rate of the pixel value is a scale indicating whether or not the pixel values of the pixels arranged in a predetermined direction are changing at a constant increase / decrease rate.
  • the area of the region connecting the three pixels that are subject to determination of the change amount of the increase / decrease rate of the pixel value is A case where the change amount of the increase / decrease rate of the pixel value is described. If the pixel values of the three pixels change at a constant rate of increase / decrease, the pixels drawn on the graph are substantially in a straight line, and the area of the region connecting the three pixels is reduced.
  • the relationship that the change amount of the increase / decrease rate of the pixel value is small is established.
  • the pixels drawn on the graph deviate from the straight line.
  • the area of the region that connects is increased. Therefore, if the area is large, the relationship that the change amount of the increase / decrease rate of the pixel value is large is established. In this way, by determining the area of the region connecting the pixel values of the three pixels, it is possible to determine whether the increase / decrease rate of the pixel values of the three pixels has changed.
  • the feature pixel determination unit 106 determines whether or not the change amount of the increase / decrease rate of the pixel value calculated by the change amount calculation unit 105 exceeds a threshold value. When the amount of change in the increase / decrease rate of the pixel value exceeds the threshold, the feature pixel determination unit 106 determines that the pixel indicating the point where the increase / decrease rate of the pixel value has changed is a feature pixel, and the pixel value of the feature pixel and the feature
  • the distance between the pixel and the feature pixel adjacent to the feature pixel (hereinafter referred to as the distance between the feature pixels) is stored in the feature pixel storage unit 107.
  • FIG. 2 is a graph showing a part of the relationship between pixel values and pixel positions of pixels arranged in the scanning direction of image data.
  • the change amount calculation unit 105 calculates the area connecting the pixels 22 and 23 as the change amount of the increase / decrease rate of the pixel value with the pixel 21 positioned at the head of the pixels arranged in the scanning direction as a feature pixel. As shown in FIG. 2, since the pixels 21 to 23 are drawn almost on a straight line, the area is almost zero.
  • the feature pixel determination unit 106 determines that the amount of change does not exceed the threshold and does not determine the pixel 22 as a feature pixel.
  • the area connecting the pixel 21, the pixel 23, and the pixel 24 is calculated. As shown in FIG. 2, since the pixel 21, the pixel 23, and the pixel 24 are also drawn on a substantially straight line, the area becomes almost zero. . Therefore, the feature pixel determination unit 106 determines that the amount of change does not exceed the threshold and does not determine the pixel 23 as a feature pixel.
  • an area 28 (horizontal line region) of a region connecting the pixel 21, the pixel 24, and the pixel 25 is calculated.
  • the rate of increase of the pixel value is slightly changed, but is not so large, and thus the area of the region connecting them is calculated to be smaller than the threshold value.
  • the feature pixel determination unit 106 determines that the amount of change does not exceed the threshold, and determines that the pixel 24 is not a feature pixel.
  • information on the pixels 22, 23, and 24 that are not determined as feature pixels is not stored in the feature pixel storage unit 107, and the amount of data is reduced.
  • the compression rate is improved.
  • the change amount calculation unit 105 calculates an area 29 (vertical line region) of a region connecting the pixel 21, the pixel 25, and the pixel 26 as a change amount of the increase / decrease rate of the pixel value.
  • the area of the region connecting the pixel 21, the pixel 25, and the pixel 26 is larger than the threshold value. A large value is calculated. Accordingly, the feature pixel determination unit 106 determines that the amount of change exceeds the threshold, and determines that the pixel 25 existing between the pixel 21 and the pixel 26 is a feature pixel.
  • the pixel value of the feature pixel 25 and the distance L between the feature pixel 21 and the feature pixel 25 are stored in the feature pixel storage unit 107.
  • the change amount calculation unit 105 calculates an area connecting the pixel 25, which is a feature pixel, the pixel 26, and the pixel 27, and the feature pixel determination unit 106 determines the feature pixel. In this way, by sequentially determining the feature pixels, the pixel values of the feature pixels and the pixel values of the pixels arranged in the scanning direction can be represented by the distance between the feature pixels.
  • FIG. 3 is a graph showing a part of the relationship between pixel values and positions of pixels arranged in the scanning direction in other image data. The graph shown in FIG. 3 is assumed to be image data including characters and graphics.
  • the area of the region connecting the three selected pixels is calculated to be almost 0 and does not exceed the threshold value, so that the pixels 32 to 33 are not determined as feature pixels. .
  • the amount of data can be greatly reduced, and the compression rate is improved.
  • the area of the pixel 31, the pixel 34, and the pixel 35 is calculated as a value that exceeds the threshold value, so that the pixel 34 is determined as a feature pixel. In this way, by holding the edge portion where the brightness and color of characters and figures greatly change as the feature pixel, the edge portion can be accurately reproduced when decompressing the compressed data.
  • the feature pixel storage unit 107 stores the pixel values of the feature pixels determined one after another by the feature pixel determination unit 106 and the distance between the feature pixels.
  • FIG. 4 is an explanatory diagram illustrating an example of a data configuration of the feature pixel storage unit 107.
  • the feature pixel storage unit 107 stores, for each YCrCb, the pixel value of each feature pixel in each pixel row arranged in the scanning direction of the image data and the distance between the feature pixels in association with each other.
  • the quantization unit 108 quantizes the pixel value of the feature pixel stored in the feature pixel storage unit 107. All pixel values are quantized using the characteristics of the human eye that cannot recognize minute changes in pixel values. This quantization is realized, for example, by setting pixel values to 1/2 and 1/4. As a result, it is possible to improve the data compression rate while suppressing the deterioration of the image quality recognized visually.
  • the entropy encoding unit 109 entropy encodes the quantized pixel value of the feature pixel and the distance between the feature pixels. More specifically, the entropy encoding unit 109 entropy-encodes the pixel values of the quantized feature pixels and the distance between the feature pixels to perform Huffman code, arithmetic code, LZW (Lempel Ziv Welch) code, PPM (Prediction by). Compressed data is generated by representing it with a Partial Matching code or the like.
  • Huffman code arithmetic code
  • LZW Lempel Ziv Welch
  • PPM Prediction by
  • the image data receiving unit 101 receives image data (step S501), and stores the received image data in the image data storage unit 102 (step S502).
  • the color conversion unit 103 converts the RGB image data into YCrCb image data (step S503).
  • the color conversion unit 103 stores the converted YCrCb image data in the frame storage unit 104 (step S504).
  • the frame storage unit 104 stores a Y component pixel value, a Cr component pixel value, and a Cb component pixel value for each frame.
  • the change amount calculation unit 105 acquires the pixel values of one row of pixels arranged in the image data scanning direction from the frame storage unit 104 (step S505).
  • the change amount calculation unit 105 calculates the area of the region connecting the three pixels by using the pixel values of the three pixels and the position in the scanning direction (step S506).
  • the position of the pixel can be indicated by the number of the pixel from the end of the image data in the pixels arranged in the scanning direction.
  • the feature pixel determination unit 106 determines whether or not the calculated area exceeds a predetermined threshold (step S507). When it is determined that the calculated area exceeds a predetermined threshold (step S507: Yes), the feature pixel determination unit 106 determines the pixel value of the pixel determined as the feature pixel and the distance between the feature pixels as the feature pixel.
  • the data is stored in the storage unit 107 (step S508).
  • step S507 When it is determined that the calculated area does not exceed a predetermined threshold (step S507: No), the process proceeds to step S509.
  • the feature pixel determination unit 106 determines whether or not the processing for all the rows has been completed (step S509). If it is determined that all the processing for one line has been completed (step S509: Yes), the feature pixel determination unit 106 determines whether all the processing for one frame has been completed (step S510). On the other hand, if it is determined that the processing for all the lines has not been completed (step S509: No), the process returns to step S506.
  • step S510 If it is determined that all the processing for one frame has been completed (step S510: Yes), the quantization unit 108 acquires the pixel value of the feature pixel of one frame and the distance between the feature pixels from the feature pixel storage unit 107 ( Step S511). If it is determined that all the processing for one frame has not been completed (step S510: No), the process returns to step S505, and the pixel values of the pixels in the next row are acquired.
  • the quantization unit 108 quantizes the pixel value of the feature pixel in one frame (step S512).
  • the entropy encoding unit 109 entropy encodes the quantized pixel value of the feature pixel and the distance between the feature pixels to generate compressed data (step S513).
  • color moving image compression data is generated by sequentially executing the above-described processing for all of a plurality of image data.
  • image data As described above, only the feature pixels determined based on the pixel values and positions of pixels in a predetermined direction (scanning direction as an example) are to be encoded, thereby reducing the number of pixels to be encoded. Therefore, the compression rate can be improved. Further, since DCT conversion is not performed on the input image, it is possible to prevent occurrence of block noise and mosquito noise.
  • the image data can be represented by data approximating the pixel value with a straight line for each pixel row.
  • the amount of image data can be reduced, and the compression rate of the image data can be improved.
  • the feature pixel that is a pixel indicating the change point of the pixel value is accurately determined, and the target is to be encoded without omission. Therefore, it is possible to improve image reproducibility when decompressing compressed data. Specifically, by holding the pixel value of a feature pixel whose pixel value increase / decrease rate changes, the image can be restored using a pixel indicating a characteristic image such as an edge portion. Reproducibility can be improved.
  • FIG. 7 is a graph showing a part of the relationship between pixel values and pixel positions of pixels arranged in the scanning direction of image data. As shown in FIG.
  • FIG. 8 is a block diagram illustrating a configuration of the image expansion device 200 according to the first embodiment.
  • the image expansion apparatus 200 includes a compressed data receiving unit 201, a compressed data storage unit 202, an entropy decoding unit 203, an inverse quantization unit 204, a feature pixel storage unit 205, a pixel value interpolation unit 206, image data And a storage unit 207.
  • the compressed data receiving unit 201 receives compressed data transmitted from the outside.
  • the external is, for example, a server (hereinafter referred to as a content server) that is connected to a network such as the Internet or a LAN (Local Area Network), stores content, and distributes or transmits content.
  • the compressed data receiving unit 201 stores the compressed data received from the outside in the compressed data storage unit 202.
  • the compressed data storage unit 202 stores the compressed data received by the compressed data receiving unit 201.
  • the entropy decoding unit 203 performs entropy decoding on the compressed data stored in the compressed data storage unit 202, and restores the quantized pixel values of the feature pixels and the distances between the feature pixels.
  • the inverse quantization unit 204 inversely quantizes the quantized pixel value of the feature pixel, and restores the pixel value of the feature pixel and the distance between the feature pixels.
  • the inverse quantization unit 204 stores the pixel value of the restored feature pixel and the distance between the feature pixels in the feature pixel storage unit 205.
  • the feature pixel storage unit 205 stores the pixel value of the restored feature pixel and the distance between the feature pixels.
  • the pixel value interpolation unit 206 interpolates the pixel value of the pixel between the feature pixels from the pixel value of the feature pixel stored in the feature pixel storage unit 205 and the distance between the feature pixels, and obtains image data including the pixel values of each of YCrCb. Restore. More specifically, the pixel value interpolation unit 206 interpolates the pixel values of the pixels between the feature pixels with values on a straight line connecting the pixel values of the feature pixels.
  • FIG. 9 is an explanatory diagram illustrating an example in which pixel values of pixels between feature pixels are interpolated with straight lines.
  • the characteristic pixels are pixels 51-53. Since it can be determined from the distance between the pixel 51 and the pixel 52 that the three pixels between the pixel 51 and the pixel 52 are omitted, the straight line passing through the feature pixel 51 and the feature pixel 52, the pixel 51 and the pixel 52 Intersection points 54 to 56 with straight lines indicating the positions of the pixels in between are obtained, and pixel values Y11, Y12, and Y13 of the omitted pixels are calculated. In this way, the pixel value of the omitted pixel can be interpolated as a pixel value on a straight line passing through the feature pixel.
  • the pixel value interpolation unit 206 may interpolate the pixel values of the omitted pixels by connecting the pixel values of the feature pixels with a curve instead of a straight line and calculating the pixel values on the curve.
  • FIG. 10 is an explanatory diagram illustrating an example in which pixel values of pixels between feature pixels are interpolated with curves. Also in FIG. 10, the pixel values and positions of the feature pixels are the same as those in FIG. 9, and the feature pixels are pixels 51 to 53.
  • the pixel value interpolation unit 206 generates a curve (for example, a spline curve) passing through the pixels 51 to 53, obtains intersections 57 to 59 between the curve and a straight line indicating the position of the pixel between the pixel 51 and the pixel 52, and Pixel values Y21, Y22, and Y23 of the omitted pixels are calculated. In this way, by using the value on the curve passing through the feature pixel as the pixel value, it is possible to interpolate with a pixel value closer to the original image data, thereby improving image reproducibility.
  • a curve for example, a spline curve
  • FIGS. 11 and 12 are flowcharts showing the image expansion processing procedure performed by the image expansion apparatus 200.
  • the compressed data receiving unit 201 receives the compressed data (step S1001), and stores the received compressed data in the compressed data storage unit 202 (step S1002).
  • the entropy decoding unit 203 decodes the compressed data stored in the compressed data storage unit 202 (step S1003).
  • the entropy decoding unit 203 decodes the compressed data
  • the pixel value of the quantized feature pixel and the distance between the feature pixels are obtained.
  • the inverse quantization unit 204 inversely quantizes the pixel value of the quantized feature pixel (step S1004). Thereby, the pixel value of the feature pixel and the distance between the feature pixels are restored.
  • the inverse quantization unit 204 stores the restored pixel value and distance of the feature pixel in the feature pixel storage unit 205 (step S1005).
  • the feature pixel storage unit 205 stores the pixel value and distance of the Y feature pixel for each frame, the pixel value and distance of the Cr feature pixel, and the pixel value and distance of the Cb feature pixel.
  • the pixel value interpolation unit 206 acquires the pixel values and distances of the feature pixels for one line of the image data from the feature pixel storage unit 205 (S1006).
  • the pixel value interpolation unit 206 interpolates the pixel values of the pixels omitted between the feature pixels based on the pixel values of the feature pixels and the distance between the feature pixels, and restores the image data (step S1007).
  • the pixel value is calculated by obtaining the intersection of the straight line passing through the characteristic pixel and the straight line indicating the position of the pixel to be interpolated, and the image data is restored from the calculated pixel value.
  • the pixel value interpolation unit 206 stores the interpolated pixel value and the pixel value of the feature pixel in the image data storage unit 207 in the order of the pixels arranged in the image data (step S1008).
  • the pixel value interpolation unit 206 determines whether or not processing for one row has been completed (step S1009). If it is determined that the processing for one row has been completed (step S1009: Yes), the pixel value interpolation unit 206 determines whether all the processing for one frame has been completed (step S1010).
  • step S1009 determines whether all the lines have not been processed. If it is determined that all the processes for one frame have been completed (step S1010: Yes), the process ends. If it is determined that all the processes for one frame have not been completed (step S1010: No), the process returns to step S1006 to obtain the pixel values of the next row of pixels.
  • the image compression apparatus 100 generates compressed data in which pixel values of pixels between feature pixels are omitted, and transmits the compressed data to the image expansion apparatus 200, thereby reducing the amount of data received by the image expansion apparatus 200. Therefore, the reception time can be shortened.
  • the processing load when decompressing the compressed data is small, it is possible to restore the image data in a short processing time. Accordingly, when the image expansion apparatus 200 includes a monitor that displays the expanded image data, power consumption can be reduced, and thus the image data can be displayed on the monitor for a long time.
  • the image compression apparatus 100 and the image expansion apparatus 200 according to the present embodiment do not use DCT or inverse DCT, JPEG (Joint Photographic Experts Group) format data or MPEG (Moving Picture Experts Group) format data is used. Generation of mosquito noise and block noise around the edge as seen when stretched can be prevented.
  • the predetermined area specifically refers to an area obtained by dividing image data by a predetermined number of pixels (for example, 8 pixels), or for each predetermined block (for example, for every 8 pixels ⁇ 8 pixels). This is an area obtained by dividing image data.
  • the characteristic pixels are determined for the pixels arranged in the scanning direction in a predetermined pixel width or a predetermined block unit, and the pixel values of the characteristic pixels are held, whereby the dispersion of the pixel values is reduced, and the entropy. Since the code length can be shortened, the compression rate can be increased.
  • the predetermined area does not need to be a rectangle, and is an area composed of polygons or curves previously indicated by coordinates on the image data, an area determined as a person using a known technique, a person's face, and the like. It may be a determined region, a region including a region determined to be a person or a human face, and the like.
  • the above-described image compression is performed on image data in a predetermined area, and a known image compression technique (for example, other JPEG or JPEG2000) is used on image data in other areas.
  • a known image compression technique for example, other JPEG or JPEG2000
  • another modified example will be described.
  • feature pixels are determined with a width of a predetermined number of pixels in the scanning direction (for example, with a width of 8 pixels) in one frame of image data.
  • the feature pixel is determined for these pixels, that is, pixels arranged in a direction orthogonal to the scanning direction.
  • the pixel value of the feature pixel determined in this way and the distance between the feature pixels are quantized and entropy encoded.
  • the feature pixel is determined in the direction orthogonal to the scan direction as compared with the case where the feature pixel is determined with a predetermined number of pixels in the scan direction (every 8 pixels). Therefore, the compression rate of the image data can be increased.
  • the column of pixels for obtaining the feature pixel need not be limited to the above-described rectangular end of the 8-pixel width.
  • the above-described polygon or a region determined to be a person is also arranged on the outer periphery of the region.
  • the characteristic pixel may be determined with respect to a pixel that is first detected by scanning from the scanning direction. Since the pixels in the outer periphery of such an area are reference pixels, they are determined as feature pixels. However, by determining the feature pixels from these pixels, the compression target can be reduced, so the compression rate of image data can be reduced. Can be increased. Further, the above-described image compression apparatus 100 and image expansion apparatus 200 may be applied to a monitoring system including a monitoring camera and a security device.
  • the surveillance camera determines the feature pixel from the captured image data, quantizes the pixel value of the determined feature pixel, and encodes the quantized feature pixel value and the distance between the feature pixels to generate compressed data To do.
  • a transmission unit included in the monitoring camera transmits the generated compressed data to a monitoring device connected via a network.
  • the monitoring device decodes and inverse-quantizes the received compressed data, and generates image data by interpolating the pixel value from the restored pixel value of the feature pixel and the distance between the feature pixels.
  • the monitoring device displays the generated image data on a monitoring monitor monitored by a guard.
  • image compression apparatus 100 and the image expansion apparatus 200 described above may be applied to an image imaging apparatus in the medical field such as CT (Computed Tomography) or MRI (Magnetic Resonance Imaging).
  • image compression apparatus 100 according to the present embodiment is not limited to the above-described apparatus and method, and the CPU (processor) in the image compression apparatus 100 performs image compression for realizing the above-described embodiment.
  • An image compression program executed by the image compression apparatus 100 includes a module configuration including the above-described units (image data reception unit, color conversion unit, change amount calculation unit, feature pixel determination unit, quantization unit, entropy encoding unit).
  • the CPU reads the image compression program from the ROM and executes it, so that the above-described units are loaded onto the main storage device, and the image data receiving unit 101, the color conversion unit 103, the change amount calculation The unit 105, the feature pixel determination unit 106, the quantization unit 108, and the entropy encoding unit 109 are generated on the main storage device.
  • the image data storage unit 102, the frame storage unit 104, and the feature pixel storage unit 107 are configured on the main storage device, as well as all commonly used devices such as an HDD (Hard Disk Drive), an optical disk, and a memory card. It can also be constituted by a recording medium.
  • the CPU in the image expansion apparatus 200 of the present embodiment is realized by operating various devices by reading out and executing an image expansion program for realizing the above-described embodiment from the ROM. Also good.
  • the image expansion program executed by the image expansion apparatus 200 has a module configuration including the above-described units (compressed data reception unit, entropy decoding unit, inverse quantization unit, pixel value interpolation unit), and actual hardware
  • the CPU reads out and executes the image compression program from the ROM
  • the above-described units are loaded onto the main storage device, and the compressed data receiving unit 201, the entropy decoding unit 203, the inverse quantization unit 204, and the pixel value interpolation unit 206 is generated on the main memory.
  • the image compression program and the image expansion program are provided by being incorporated in advance in a ROM or the like.
  • the compressed data storage unit 202, the feature pixel storage unit 205, and the image data storage unit 207 are configured on the main storage device, and are configured by any commonly used recording medium such as an HDD, an optical disc, or a memory card.
  • the image compression program and the image expansion program are files in an installable or executable format and can be read by a computer such as a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk). You may provide by recording on a recording medium.
  • the image compression program and the image expansion program may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network.
  • FIG. 13 is a block diagram illustrating a configuration of an image compression apparatus 300 according to the second embodiment.
  • An image compression apparatus 300 according to the present embodiment includes an image data receiving unit 101, an image data storage unit 102, a color conversion unit 103, a frame storage unit 104, a change amount calculation unit 105, and a feature pixel determination unit 106.
  • the difference value calculation unit 310 calculates the pixel value of the feature pixel in one row and the position in the scanning direction of the image data stored in the feature pixel storage unit 107, the pixel value of the feature pixel in the next row, and the position in the scanning direction. The difference value of the pixel value and the difference value of the position in the scanning direction between the feature pixels are calculated.
  • the difference value storage unit 311 stores the calculated difference value of the pixel value for each row and the difference value of the position in the scanning direction.
  • FIG. 14 is a graph showing the relationship between the pixel values of feature pixels in two adjacent rows in one image data and the position in the scanning direction.
  • a curve shown in FIG. 14 is a drawing of pixel values of pixels in two rows in the scanning direction of the image data, and black circles indicate feature pixels.
  • the feature pixels in one row are pixels 61 to 65, and the feature pixels in the next row are pixels 71 to 75. For each feature pixel, the difference value of the pixel value of the corresponding pixel and the difference value of the position in the scanning direction are calculated.
  • the difference value ⁇ Y of the pixel value of the feature pixel 72 and the difference value ⁇ X of the position in the scanning direction can be obtained by the following expression. Note that i indicates the order in which the feature pixels in one row are determined, and j indicates what number row in the image data.
  • ⁇ Y Yi, j + 1 ⁇ Yi, j (1)
  • ⁇ X Xi, j + 1 ⁇ Xi, j (2)
  • ⁇ Y indicated by the expression (1) is a difference value between pixel values, and thus can be either positive or negative.
  • flag information with the difference value of 0 may be stored in the difference value storage unit 311 to reduce the data amount.
  • ⁇ X indicated by the equation (2) is a position difference value, and thus takes either a positive or negative value.
  • flag information having a difference value of 0 may be stored in the difference value storage unit 311 to reduce the data amount.
  • the difference value calculation unit 310 calculates the difference value between the pixel values of the feature pixels from the previous row and the difference value between the positions in the scanning direction.
  • the quantization unit 108 quantizes the calculated pixel value difference value and the position difference value in the scanning direction, and the entropy encoding unit 109 performs entropy encoding to generate compressed data.
  • the compressed data receiving unit 201 receives the compressed data
  • the entropy decoding unit 203 entropy decodes the compressed data
  • the inverse quantization unit 204 performs inverse quantization.
  • the pixel value interpolation unit 206 restores the pixel value of the feature pixel and the distance between the feature pixels from the restored difference value of the pixel value of the feature pixel and the difference value of the position in the scanning direction. Further, the pixel value interpolation unit 206 interpolates the pixel values of the pixels between the feature pixels from the pixel values of the feature pixels and the distance between the feature pixels, and restores the image data. As described above, by using the difference value of the pixel value or the difference value of the position in the scanning direction, the entropy is reduced, so that the compression rate is improved.
  • pixel value difference values and position difference values in the scanning direction in the same row in a plurality of image data May be used to generate compressed data.
  • the compressed data is obtained using the position value of the feature pixel itself and the difference value of the pixel value. You may create it. Note that the position of the feature pixel can be indicated by the number of the pixel from the end of the image data in the pixels arranged in the scanning direction, as in the above-described embodiment.
  • the feature pixel determination unit 106 stores a plurality of threshold values, and determines whether or not the target pixel is a feature pixel from each of the plurality of threshold values and the change amount calculated by the change amount calculation unit 105. .
  • a value corresponding to the level at which image data is compressed is set for each of the plurality of threshold values. For example, three levels of feature pixels can be determined by using three threshold values.
  • the feature pixel determination unit 106 stores the pixel value of the feature pixel and the distance between the feature pixels in the feature pixel storage unit 107 for each threshold value.
  • the feature pixel storage unit 107 stores the pixel value of the feature pixel and the distance between the feature pixels in association with each level.
  • the quantization unit 108 quantizes the data for each level, and the entropy encoding unit 109 performs entropy encoding on the data for each level.
  • compressed data in which pixel values of feature pixels corresponding to a plurality of levels and distances between feature pixels are encoded from one image data is generated.
  • FIG. 15 is a graph showing a part of the relationship between pixel values and pixel positions of pixels arranged in the scanning direction of image data. The curve shown in FIG.
  • the threshold value for determining the level 1 feature pixel is the largest value.
  • pixels 81, 85, and 89 indicated by black circles are determined as level 1 feature pixels.
  • the threshold value for determining level 2 is the second largest value, and pixels 81, 83, 85, 87, 89 indicated by black circles and black triangles are displayed. It is determined as a feature pixel.
  • the feature pixel determination unit 106 stores the pixel value of the feature pixel and the distance between the feature pixels in the feature pixel storage unit 107, if the feature pixels determined with different threshold values overlap, the feature pixel determination unit 106 determines with a larger threshold value.
  • the feature pixel determined that is, the feature pixel determined at level 1 is deleted. Specifically, pixels 83 and 87 are stored as level 2 feature pixels. Furthermore, if level 3 is the level with the lowest compression rate, the threshold value for determining level 3 is the smallest value, and pixels 81 to 89 indicated by black circles, black triangles, and black squares are determined as feature pixels.
  • the feature pixel determination unit 106 stores the pixel value of the feature pixel and the distance between the feature pixels in the feature pixel storage unit 107, if the feature pixels determined with different threshold values overlap, the feature pixel determination unit 106 determines with a larger threshold value.
  • the feature pixels determined that is, the feature pixels determined at level 1 and level 2 are deleted.
  • pixels 82, 84, 86, and 88 are stored as level 3 feature pixels.
  • the image compression apparatus determines feature pixels from a single image data using a threshold corresponding to the level, and generates compressed data for each level, so that various communication bands and processing of the image expansion apparatus can be performed.
  • the compressed data corresponding to the capability and the size of the monitor for displaying the image can be easily generated by combining one or more levels of compressed data.
  • the image compression apparatus generates compressed data having different levels in advance, and stores the generated compressed data for each level in the storage unit.
  • the location where compressed data is stored need not be limited to the image compression apparatus, but may be stored in a content server or the like different from the image compression apparatus.
  • the image compression device transmits compressed data at a level corresponding to the type of the image expansion device from the compressed data stored in the storage unit. To do.
  • one or a plurality of levels of compressed data corresponding to the request among the compressed data generated from one image data and stored in advance for each level are transmitted.
  • compressed data corresponding to the type of the image expansion device can be transmitted to the image expansion device without increasing the communication load between the image compression device and the image expansion device. That is, if the transmission destination is a mobile phone, for example, if the transmission destination is a mobile phone, only the level 1 compressed data is transmitted, and if the transmission destination is HDTV (High Definition television)
  • HDTV High Definition television
  • the image expansion apparatus when generating level 2 image data, receives level 1 compressed data and level 2 compressed data. Next, each compressed data is entropy-decoded and dequantized to restore the pixel value of the feature pixel and the distance between the feature pixels for each level. Next, the pixel value of the feature pixel for each level and the distance between the feature pixels are sorted, and the pixel value of the feature pixel for each row and the distance between the feature pixels are generated. Thereafter, the pixel value interpolation process described above is executed to generate image data. As described above, the image decompression apparatus according to the present embodiment can restore image data from compressed data with the same function and configuration regardless of the level of image data decompression. Standardization of the expansion device can be achieved.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

画像データを圧縮する画像圧縮装置であって、特徴画素判定部(106)は、画像データの所定の方向の画素の画素値および所定の方向における画素の位置に基づいて、画像データでの画素値の変化点を示す画素である特徴画素と判定し、エントロピー符号化部(109)は、判定された特徴画素の画素値と、特徴画素間の距離とを対応づけて記憶する特徴画素記憶部(107)に記憶された画素値および距離をエントロピー符号化する。

Description

画像圧縮装置、画像伸張装置、画像圧縮方法、画像伸張方法および記録媒体
本発明は、画像圧縮装置、画像伸張装置、画像圧縮方法、画像伸張方法および記録媒体に関する。
 従来、データ量が膨大な画像データ(静止画や動画)の取扱いを容易にするため、画像データを圧縮する技術が知られている。かかる技術では、入力画像をDCT(離散コサイン変換)し、周波数帯域ごとに人間の視覚特性に応じた量子化を行い、さらに符号化することによって、画像データを圧縮する。しかし、このような技術を用いると、入力画像で隣接する画素の画素値の差が大きい場合には、エントロピーが大きくなるため、圧縮率があまり高くならず、圧縮率を上げようとするとブロックノイズやモスキートノイズが発生してしまうという問題があった。
 このような問題を解決する技術として、画像データを2つに分けて符号化する画像データ圧縮方法が知られている(例えば特許公報1参照)。かかる技術では、画像データの画素を隣接する画素の画素値が所定の閾値を超える画素とそれ以外の画素にグループ化し、グループ化した画素ごとに符号化する。これにより、所定の閾値を超えない画素のグループは画素値のエントロピーが小さくなるため、圧縮率を上げることができる。
特開2005−294934号公報
 しかしながら、上記特許文献1に記載された技術では、画像データを2つに分けたうちの一方では圧縮率が向上するが、最終的にはすべての画素が符号化の対象となるため、画像データ全体としてはあまり高い圧縮率を実現することができないという問題があった。
 また、上記特許文献1に記載された技術において、符号化する画素数を低減するために、画素値が所定の閾値を超える画素のみを符号化する場合であっても、隣接する画素の画素値の差分値が所定の閾値を超えるか否かによって画素を抽出するため、画素値の変化点となる特徴的な画素を的確に抽出することができず、圧縮データから伸張した画像の再現性が低下するという問題があった。
 本発明は、上記に鑑みてなされたものであって、圧縮率が高く、かつ、ブロックノイズやモスキートノイズの発生を防ぎ、画像再現性が高い画像圧縮装置、画像伸張装置、画像圧縮方法、画像伸張方法および記録媒体を提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明は、外部から取得した画像データの所定の方向の画素の画素値、および、所定の方向における画素の位置に基づいて、画像データでの画素値の変化点を示す画素である特徴画素を判定し、判定された特徴画素の画素値と、特徴画素と特徴画素に隣接する特徴画素との距離と、を対応づけて記憶し、記憶された画素値および距離をエントロピー符号化することを特徴とする。
 また、本発明は、画像データでの画素値の変化点を示す画素である特徴画素の画素値、および、特徴画素と特徴画素に隣接する特徴画素との距離をエントロピー符号化した圧縮データを受信し、受信された圧縮データをエントロピー復号化し、特徴画素の画素値および距離を復元し、復元された特徴画素の画素値および距離に基づいて、特徴画素間の画素の画素値を補間することを特徴とする。
図1は、第1の実施の形態にかかる画像圧縮装置の構成を示すブロック図である。
図2は、画像データの走査方向に並んだ画素の画素値および画素の位置の関係の一部を示すグラフである。
図3は、他の画像データでの走査方向に並んだ画素の画素値および位置の関係の一部を示すグラフである。
図4は、特徴画素記憶部のデータ構成の一例を示す説明図である。
図5は、画像圧縮装置が行なう画像圧縮処理手順を示すフローチャートである。
図6は、画像圧縮装置が行なう画像圧縮処理手順を示すフローチャートである。
図7は、画像データの走査方向に並んだ画素の画素値および画素の位置の関係の一部を示すグラフである。
図8は、第1の実施の形態にかかる画像伸張装置の構成を示すブロック図である。
図9は、特徴画素間の画素の画素値を直線で補間する一例を示す説明図である。
図10は、特徴画素間の画素の画素値を曲線で補間する一例を示す説明図である。
図11は、画像伸張装置が行なう画像伸張処理手順を示すフローチャートである。
図12は、画像伸張装置が行なう画像伸張処理手順を示すフローチャートである。
図13は、第2の実施の形態に画像圧縮装置の構成を示すブロック図である。
図14は、1つの画像データでの隣接する2つの行の特徴画素の画素値と走査方向における位置の関係を示すグラフである。
図15は、第3の実施の形態での画像データの走査方向に並んだ画素の画素値および画素の位置の関係の一部を示すグラフである。
 100 300 画像圧縮装置
 101 画像データ受信部
 102 画像データ記憶部
 103 色変換部
 104 フレーム記憶部
 105 変化量算出部
 106 特徴画素判定部
 107 特徴画素記憶部
 108 量子化部
 109 エントロピー符号化部
 200 画像伸張装置
 201 圧縮データ受信部
 202 圧縮データ記憶部
 203 エントロピー復号化部
 204 逆量子化部
 205 特徴画素記憶部
 206 画素値補間部
 207 画像データ記憶部
 310 差分値算出部
 311 差分値記憶部
 以下に添付図面を参照して、画像圧縮装置、画像伸張装置、画像圧縮方法、画像伸張方法および記録媒体の最良な実施の形態を詳細に説明する。なお、画像圧縮装置、画像伸張装置、画像圧縮方法、画像伸張方法および記録媒体はこれらの実施の形態に限定されるものではない。
第1の実施の形態
 図1は、第1の実施の形態にかかる画像圧縮装置100の構成を示すブロック図である。本実施の形態では、画像データはカラー動画として説明するが、これに限定されるものではなく、カラーの動画に代えてモノクロ動画、カラー静止画またはモノクロ静止画であってもよい。
 本実施の形態にかかる画像圧縮装置100は、画像データ受信部101と、画像データ記憶部102と、色変換部103と、フレーム記憶部104と、変化量算出部105と、特徴画素判定部106と、特徴画素記憶部107と、量子化部108と、エントロピー符号化部109とを備えている。
 画像データ受信部101は、外部(例えばデジタルビデオカメラ等)から入力されたカラー動画の画像データ(RGBの画素値)を受信し、受信した画像データを画像データ記憶部102に格納する。画像データ記憶部102は、画像データ受信部101から受信された画像データを記憶する。
 色変換部103は、画像データ記憶部102に記憶された複数のフレーム(画面)のうちの1フレームの画像データを取得し、取得された画像データを、YCrCbそれぞれの画素値に変換する。フレーム記憶部104は、1フレームごとに、色変換部101で変換されたYCrCbそれぞれの画素値を記憶する。なお、本実施の形態では、一例として画像データをYCrCbに変換しているが、YCrCbに限る必要はなく、他の色表現YIQ、XYZ、L、CMYK等に変換してもよい。また、人間の視覚がY(輝度)成分に比べてCrCb(色差)成分に鈍感であるという特性を利用して、CrCbの画素値については、4つの画素の画素値を平均して1つの画素値とし、データ量を1/4にした画像データを用いる。
 変化量算出部105は、フレーム記憶部104に記憶された画像データから得たYCrCbそれぞれの画素値および所定の方向(例えば画像データの走査方向)における画素の位置を用いて、画素値の増減率の変化量を算出する。画素値の増減率の変化量は、所定の方向に並んだ画素の画素値が一定の増減率で変化しているか否かを示す尺度である。
 一例として、走査方向に並んだ画素それぞれの画素値と、走査方向における画素の位置の関係を示すグラフにおいて、画素値の増減率の変化量の判断対象となる3つの画素を結ぶ領域の面積を画素値の増減率の変化量とする場合について説明する。
 3つの画素の画素値が一定の増減率で変化していれば、グラフ上に描画された画素はほぼ一直線上となるため、3つの画素を結ぶ領域の面積は小さくなる。よって、面積が小さければ、画素値の増減率の変化量が小さいという関係が成立する。一方、画素値の増減率の変化量の判断対象となる3つの画素の画素値が一定の増減率で変化していなければ、グラフ上に描画された画素は一直線上から外れるため、3つの画素を結ぶ領域の面積は大きくなる。よって、面積が大きければ、画素値の増減率の変化量が大きいという関係が成立する。このように、3つの画素の画素値を結ぶ領域の面積を求めることによって、3つの画素の画素値の増減率が変化したか否かを判断することができる。
 特徴画素判定部106は、変化量算出部105によって算出された画素値の増減率の変化量が閾値を超えるか否かを判断する。特徴画素判定部106は、画素値の増減率の変化量が閾値を超えた場合は、画素値の増減率が変化した点を示す画素を特徴画素と判定し、特徴画素の画素値、および特徴画素とその特徴画素に隣接する特徴画素との距離(以下、特徴画素間の距離という)を特徴画素記憶部107に格納する。なお、特徴画素とその特徴画素に隣接する特徴画素との距離は、2つの特徴画素の位置の差分値として求める。
 上述の関係を、さらに図2を用いて説明する。図2は、画像データの走査方向に並んだ画素の画素値および画素の位置の関係の一部を示すグラフである。変化量算出部105は、まず、走査方向に並んだ画素の先頭に位置する画素21を特徴画素として、画素22、画素23を結ぶ面積を画素値の増減率の変化量として算出する。図2に示すように、画素21~23はほぼ直線上に描画されているため、面積はほぼ0となる。よって、特徴画素判定部106は、変化量が閾値を超えていないと判断し、画素22を特徴画素と判定しない。次に、画素21、画素23、画素24を結ぶ面積を算出する、図2に示すように、画素21、画素23、画素24もほぼ直線上に描画されているため、面積はほぼ0となる。よって、特徴画素判定部106は、変化量が閾値を超えていないと判断し、画素23を特徴画素と判定しない。次に、画素21、画素24、画素25を結ぶ領域の面積28(横線の領域)を算出する。画素21、画素24、画素25についても、画素値の増加の割合は多少変化しているが、あまり大きくないため、それらを結ぶ領域の面積は閾値より小さな値が算出される。これにより、特徴画素判定部106は、変化量が閾値を超えていないと判断し、画素24を特徴画素でないと判定する。このように、特徴画素と判定されなかった画素22、画素23、画素24に関する情報(具体的には画素それぞれの画素値および距離)は、特徴画素記憶部107に格納されず、データ量が削減されるため、圧縮率が向上する。
 次に、画素21、画素25、画素26を対象画素とした場合を説明する。変化量算出部105は、画素21、画素25、画素26を結ぶ領域の面積29(縦線の領域)を画素値の増減率の変化量として算出する。この場合は、画素21から画素25までの画素値の増減率と、画素25から画素26の画素値の増減率が大きく異なるため、画素21、画素25、画素26を結ぶ領域の面積は閾値より大きな値が算出される。これにより、特徴画素判定部106は、変化量が閾値を超えると判断し、画素21と画素26の間に存在する画素25を特徴画素であると判定する。従って、特徴画素25の画素値と特徴画素21と特徴画素25との距離Lが特徴画素記憶部107に格納される。これにより、圧縮データを伸張する際には、画素値の変化点である特徴画素25の画素値を使用して画像データが復元されるため、画像の再現性が向上する。
 次に、変化量算出部105は、特徴画素である画素25と、画素26、画素27を結ぶ面積を算出し、特徴画素判定部106は、特徴画素を判定する。このように、次々と特徴画素を判定することによって、特徴画素の画素値と特徴画素間の距離で走査方向に並んだ画素の画素値を表すことができる。なお、特徴画素を判定するための3つの画素を選択する方向は、上述した走査方向に限る必要はなく、逆方向から3つの画素を選択してもよい。また、走査方向の任意の画素を選択し、その画素を最初の特徴画素として、両方向に対して3つの画素を順に選択して特徴画素を判定してもよい。
 さらに、他の画像データの場合について説明する。図3は、他の画像データでの走査方向に並んだ画素の画素値および位置の関係の一部を示すグラフである。図3に示すグラフは、文字や図形を含む画像データであることが想定される。画素31~画素34の間の複数存在する画素のうち、選択された3つの画素を結ぶ領域の面積はほぼ0と算出され、閾値を超えないため、画素32~画素33は特徴画素と判定されない。これにより、データ量を大幅に削減でき、圧縮率が向上する。
 一方、画素31、画素34、画素35の領域の面積は閾値を超える値が算出されるため、画素34は特徴画素と判定される。このように、文字や図形の輝度や色が大きく変化するエッジ部分を特徴画素として保持することにより、圧縮データを伸張する際にエッジ部分を正確に再現することができる。なお、画素値の増減率の変化量を面積としているため、画素34の画素値と画素35の画素値との差分値があまり大きくない場合であっても、画素間の距離に応じて面積は大きくなるため、確実に画素値の変化点を把握することができる。
 特徴画素記憶部107は、特徴画素判定部106で次々に判定される特徴画素の画素値と特徴画素間の距離を記憶する。図4は、特徴画素記憶部107のデータ構成の一例を示す説明図である。特徴画素記憶部107は、YCrCbごとに、画像データの走査方向に並んだ画素行それぞれの特徴画素の画素値と、特徴画素間の距離とを対応づけて記憶する。
 量子化部108は、特徴画素記憶部107に記憶された特徴画素の画素値を量子化する。微細な画素値の変化を認識することができないという人間の目の特性を利用して、すべての画素値を量子化する。この量子化は、例えば画素値を1/2、1/4とすることによって実現する。これにより、視覚で認識される画質の低下を抑えつつ、データの圧縮率を向上させることができる。
 エントロピー符号化部109は、量子化された特徴画素の画素値と特徴画素間の距離をエントロピー符号化する。より具体的には、エントロピー符号化部109は量子化された特徴画素の画素値と特徴画素間の距離をエントロピー符号化してハフマン符号、算術符号、LZW(Lempel Ziv Welch)符号、PPM(Prediction by Partial Matching)符号等で表すことにより、圧縮データを生成する。
 次に、上述したように構成されている画像圧縮装置100の画像圧縮処理について説明する。図5、図6は、画像圧縮装置100が行なう画像圧縮処理手順を示すフローチャートである。
 まず、画像データ受信部101は、画像データを受信し(ステップS501)、受信した画像データを画像データ記憶部102に格納する(ステップS502)。色変換部103は、RGBの画像データをYCrCbの画像データに変換する(ステップS503)。色変換部103は、変換したYCrCbの画像データをフレーム記憶部104に格納する(ステップS504)。フレーム記憶部104は、1フレームごとのY成分の画素値、Cr成分の画素値、Cb成分の画素値を記憶している。
 変化量算出部105は、フレーム記憶部104から画像データの走査方向に並んだ、1行分の画素の画素値を取得する(ステップS505)。変化量算出部105は、3つの画素の画素値および走査方向における位置を用いて3つの画素を結ぶ領域の面積を算出する(ステップS506)。ここで、画素の位置は、走査方向に並んだ画素において、画像データの端部から何番目の画素であるかによって示すことができる。特徴画素判定部106は、算出された面積が予め定められた閾値を超えるか否かを判断する(ステップS507)。
 算出された面積が予め定められた閾値を超えると判断した場合は(ステップS507:Yes)、特徴画素判定部106は特徴画素と判定された画素の画素値と、特徴画素間の距離を特徴画素記憶部107に格納する(ステップS508)。算出された面積が予め定められた閾値を超えないと判断した場合は(ステップS507:No)、ステップS509に進む。
 特徴画素判定部106は、1行すべての処理が終了したか否かを判断する(ステップS509)。1行すべての処理が終了したと判断した場合は(ステップS509:Yes)、特徴画素判定部106は1フレームのすべての処理が終了したか否かを判断する(ステップS510)。また、1行すべての処理が終了していないと判断した場合は(ステップS509:No)、ステップS506に戻る。
 1フレームのすべての処理が終了したと判断した場合は(ステップS510:Yes)、量子化部108は特徴画素記憶部107から1フレームの特徴画素の画素値および特徴画素間の距離を取得する(ステップS511)。また、1フレームのすべての処理が終了していないと判断した場合は(ステップS510:No)、ステップS505に戻り、次の1行の画素の画素値を取得する。
 量子化部108は、1フレームの特徴画素の画素値を量子化する(ステップS512)。エントロピー符号化部109は、量子化された1フレームの特徴画素の画素値と特徴画素間の距離をエントロピー符号化し、圧縮データを生成する(ステップS513)。なお、複数の画像データすべてについて、上述した処理を順次実行することにより、カラー動画の圧縮データを生成する。
 このように、所定の方向(一例として走査方向)の画素の画素値と位置に基づいて判定された特徴画素のみを符号化の対象とすることにより、符号化の対象である画素数が低減されるため、圧縮率を向上することができる。また、入力画像に対してDCT変換を行わないため、ブロックノイズやモスキートノイズの発生を防ぐことができる。
 また、画像データを特徴画素の画素値と特徴画素間の距離とすることにより、画像データを画素行ごとに画素値を直線で近似したデータで表現することができ、特徴画素間の画素のデータを省略することができるため、画像データのデータ量が削減され、画像データの圧縮率が向上することができる。
 また、所定の方向の画素の画素値と位置に基づいて特徴画素を判定することにより、画素値の変化点を示す画素である特徴画素を的確に判定し、漏れなく符号化の対象とすることができるため、圧縮データを伸長した際に画像の再現性を向上することができる。具体的には、画素値の増減率が変化する特徴画素の画素値を保持することにより、エッジ部分のような特徴的な画像を示す画素を用いて画像が復元することができるため、画像の再現性が向上することができる。
 また、特徴画素を判定する際に画素値の増減率の変化量として求める面積は、画素値を積分することで算出することができる。従って、DCT処理で乗算や除算を用いる場合と比べて、演算処理の負荷を抑えることができる。
 なお、上述した実施の形態では、3つの画素を結ぶ領域の面積を画素値の増減率の変化量としたが、面積に限ることなく、画素値の増減率の変化量を示す値であれはどのようなものを用いてもよい。図7は、画像データの走査方向に並んだ画素の画素値および画素の位置の関係の一部を示すグラフである。図7に示すように、3つの画素41~43のうち、特徴画素の候補である画素42と、その画素42から画素値軸方向に延ばした直線と他の2つの画素41、画素43を結ぶ直線との交点44との距離を変化量としてもよい。
 次に、上述した画像圧縮装置100で生成した圧縮データを伸張する画像伸張装置について説明する。図8は、第1の実施の形態にかかる画像伸張装置200の構成を示すブロック図である。画像伸張装置200は、圧縮データ受信部201と、圧縮データ記憶部202と、エントロピー復号化部203と、逆量子化部204と、特徴画素記憶部205と、画素値補間部206と、画像データ記憶部207とを備えている。
 圧縮データ受信部201は、外部から送信された圧縮データを受信する。外部とは、例えば、インターネットやLAN(Local Area Network)のようなネットワークに接続され、コンテンツを格納し、コンテンツの配信や送信等を行なうサーバ(以下、コンテンツサーバという)等である。圧縮データ受信部201は、外部から受信した圧縮データを、圧縮データ記憶部202に格納する。圧縮データ記憶部202は、圧縮データ受信部201が受信した圧縮データを記憶する。
 エントロピー復号化部203は、圧縮データ記憶部202に記憶された圧縮データをエントロピー復号化し、量子化された特徴画素の画素値と特徴画素間の距離とに復元する。逆量子化部204は、量子化された特徴画素の画素値を逆量子化し、特徴画素の画素値と特徴画素間の距離を復元する。逆量子化部204は、復元された特徴画素の画素値と特徴画素間の距離を特徴画素記憶部205に格納する。特徴画素記憶部205は、復元された特徴画素の画素値と特徴画素間の距離を記憶する。
 画素値補間部206は、特徴画素記憶部205に記憶された特徴画素の画素値と特徴画素間の距離から特徴画素間の画素の画素値を補間し、YCrCbそれぞれの画素値からなる画像データを復元する。より具体的には、画素値補間部206は、特徴画素間の画素の画素値を、特徴画素の画素値を結んだ直線上の値で補間する。以下、図9を用いて、直線で特徴画素間の画素の画素値を補間する場合を説明する。
 図9は、特徴画素間の画素の画素値を直線で補間する一例を示す説明図である。図9では、特徴画素が画素51~53である。画素51と画素52との距離から、画素51と画素52の間の3つの画素が省略されていることが判断できるため、特徴画素51と特徴画素52を通る直線と、画素51と画素52の間の画素の位置を示す直線との交点54~56を求め、省略された画素の画素値Y11、Y12、Y13を算出する。このように、省略されていた画素の画素値を、特徴画素を通る直線上の画素値として補間することができる。
 また、画素値補間部206は、直線に代えて、特徴画素の画素値を曲線で結び、曲線上の画素値を算出することにより、省略されている画素の画素値を補間してもよい。図10は、特徴画素間の画素の画素値を曲線で補間する一例を示す説明図である。図10でも、特徴画素の画素値および位置は図9と同一であり、特徴画素は画素51~画素53である。画素値補間部206は、画素51~53を通る曲線(例えばスプライン曲線等)を生成し、曲線と、画素51と画素52の間の画素の位置を示す直線との交点57~59を求め、省略された画素の画素値Y21、Y22、Y23を算出する。このように、特徴画素を通る曲線上の値を画素値とすることにより、原画像データにより近い画素値で補間することができるため、画像の再現性が向上する。
 また、画素値補間部206は、画素値補間部206で補間された特徴画素間の画素の画素値と特徴画素の画素値を、画像データに並んだ画素の順に格納する。画像データ記憶部207は、伸長された画像データを記憶する。
 次に、上述したように構成されている画像伸張装置200の画像伸張処理について説明する。図11、図12は、画像伸張装置200が行なう画像伸張処理手順を示すフローチャートである。
 まず、圧縮データ受信部201は、圧縮データを受信し(ステップS1001)、受信した圧縮データを圧縮データ記憶部202に格納する(ステップS1002)。エントロピー復号化部203は、圧縮データ記憶部202に記憶された圧縮データを復号化する(ステップS1003)。エントロピー復号化部203が圧縮データを復号化することにより、量子化された特徴画素の画素値と特徴画素間の距離が得られる。逆量子化部204は、量子化された特徴画素の画素値を逆量子化する(ステップS1004)。これにより、特徴画素の画素値と特徴画素間の距離が復元される。
 逆量子化部204は、復元された特徴画素の画素値と距離を特徴画素記憶部205に格納する(ステップS1005)。特徴画素記憶部205は、1フレームごとのY成分の特徴画素の画素値と距離、Cr成分の特徴画素の画素値と距離、Cb成分の特徴画素の画素値と距離を記憶している。次に、画素値補間部206は、特徴画素記憶部205から画像データの1行分の特徴画素の画素値と距離を取得する(S1006)。
 画素値補間部206は、特徴画素の画素値と特徴画素間の距離から特徴画素間で省略された画素の画素値を補間し、画像データを復元する(ステップS1007)。具体的には、上述したように特徴画素を通る直線と補間する画素の位置を示す直線との交点を求めることによって画素値を算出し、算出された画素値から画像データが復元される。このように、画像伸張装置200は、逆DCTを行なわないことにより、圧縮データを伸張する際の処理負荷が大きくならないため、処理能力が高くない装置に適用することができる。
 画素値補間部206は、補間された画素値と特徴画素の画素値を、画像データに並んだ画素の順に画像データ記憶部207に格納する(ステップS1008)。画素値補間部206は、1行すべての処理が終了したか否かを判断する(ステップS1009)。1行すべての処理が終了したと判断した場合は(ステップS1009:Yes)、画素値補間部206は1フレームのすべての処理が終了したか否かを判断する(ステップS1010)。また、1行すべての処理が終了していないと判断した場合は(ステップS1009:No)、ステップS1007に戻る。
 1フレームのすべての処理が終了したと判断した場合は(ステップS1010:Yes)、処理を終了する。また、1フレームのすべての処理が終了していないと判断した場合は(ステップS1010:No)、ステップS1006に戻り、次の1行の画素の画素値を取得する。
 上述したように、画像圧縮装置100が特徴画素間の画素の画素値を省略した圧縮データを生成し、画像伸張装置200に送信することにより、画像伸張装置200で受信するデータ量を小さくすることができるため、受信時間を短縮することができる。また、圧縮データを伸長する際の処理負荷が小さいため、少ない処理時間で画像データを復元することができる。これらにより、画像伸張装置200が伸長した画像データを表示するモニタを備える場合には、電力の消費を削減することができるため、画像データを長時間モニタで表示することができる。
 また、本実施の形態にかかる画像圧縮装置100や画像伸張装置200では、DCTや逆DCTを用いないため、JPEG(Joint Photographic Experts Group)形式のデータやMPEG(Moving Picture Experts Group)形式のデータを伸張した際に見られるようなエッジ周辺でのモスキートノイズやブロックノイズの発生を防ぐことができる。
 また、変形例として、上述した画像圧縮処理において、画像データの走査方向に並んだ画素行すべてについて特徴画素を判定することに代えて、画像データのうち、所定の領域ごとに、特徴画素を判定し、判定された特徴画素の画素値と特徴画素間の距離を量子化、エントロピー符合化してもよい。ここで、所定の領域とは、具体的には、所定の画素数の幅で(例えば8画素で)画像データを分割した領域や、所定のブロックごとに(例えば8画素×8画素ごとに)画像データを分割した領域である。このように、所定の画素数幅や所定のブロック単位で走査方向に並んだ画素に対して特徴画素を判定し、特徴画素の画素値を保持することにより、画素値の分散が小さくなり、エントロピーを小さくすることができるため、符号長が短くなり、圧縮率を高くすることができる。
 また、所定の領域は、矩形である必要はなく、予め画像データ上の座標で示した多角形や曲線からなる領域、または、既知の技術を用いて人と判断した領域や、人の顔と判断した領域、人や人の顔と判定した領域を含む領域等であってもよい。また、所定の領域の画像データに対しては、上述した画像圧縮を行い、他の領域の画像データに対しては、既知の画像圧縮技術(例えば、他のJPEGやJPEG2000等)を用いることにより、画質の劣化を防ぎたい領域で高画質な画像が得るとともに、画像データの圧縮率を高くすることができる。
 さらに、他の変形例について説明する。まず、上述した変形例と同様に、1フレームの画像データのうち、走査方向に所定の画素数の幅で(例えば8画素の幅で)特徴画素を判定する。この場合、8画素のうちの最初の1画素は、必ず基準として特徴画素と判定されるため、これらの画素、すなわち走査方向に直交する方向に並んだ画素に対して特徴画素を判定する。このように判定された特徴画素の画素値と特徴画素間の距離を量子化、エントロピー符号化する。これにより、上述した走査方向に所定の画素数の幅で(8画素ごとに)特徴画素を判定しただけの場合に比べて、走査方向に直交する方向でも特徴画素を判定することによって、圧縮対象となる画素を削減することができるため、画像データの圧縮率を高くすることができる。
 なお、さらに特徴画素を求める画素の列としては、上述した8画素幅の矩形の端部に限る必要はなく、例えば上述した多角形や人と判断した領域等においてもその領域内の外周に並ぶ画素のうち、走査方向から走査して最初に検出される画素に対して特徴画素を判定してもよい。このような領域の外周の画素は、基準の画素となるあるため、特徴画素と判定されるが、これらの画素から特徴画素を判定することによって圧縮対象を削減できるため、画像データの圧縮率を高めることができる。
 また、上述した画像圧縮装置100および画像伸張装置200を、監視カメラと警備装置とを備える監視システムに適用してもよい。監視カメラでは、撮像した画像データから特徴画素を判定し、判定された特徴画素の画素値を量子化し、量子化された特徴画素の画素値と特徴画素間の距離を符号化して圧縮データを生成する。監視カメラが備える送信部は、生成された圧縮データを、ネットワークを介して接続された監視装置に送信する。監視装置は、受信した圧縮データを復号化、逆量子化し、復元された特徴画素の画素値および特徴画素間の距離から画素値を補間して画像データを生成する。監視装置は、生成された画像データを警備員が監視する監視モニタに表示する。
 また、携帯電話にモバイル機器向けの地上デジタルテレビ放送で放送局から放送されるコンテンツ(ニュースやスポーツ等の番組の画像データ)や、コンテンツプロバイダのコンテンツサーバから配信されるコンテンツ(映画等の画像データ)の圧縮や伸張処理を行なう際に、上述した画像圧縮装置100および画像伸張装置200を適用してもよい。
 さらに、上述した画像圧縮装置100および画像伸張装置200を、CT(Computed Tomography)やMRI(magnetic resonance imaging)等の医療分野での画像撮像装置に適応してもよい。
 また、本実施の形態の画像圧縮装置100は、上述した装置および方法のみに限定されるものではなく、画像圧縮装置100内のCPU(プロセッサ)が、上述した実施形態を実現するための画像圧縮プログラムをROM(Read Only Memory)から読み出して実行することにより、各種デバイスを動作させることによって実現してもよい。画像圧縮装置100で実行される画像圧縮プログラムは、上述した各部(画像データ受信部、色変換部、変化量算出部、特徴画素判定部、量子化部、エントロピー符号化部)を含むモジュール構成となっており、実際のハードウェアとしてはCPUが上記ROMから画像圧縮プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、画像データ受信部101、色変換部103、変化量算出部105、特徴画素判定部106、量子化部108、エントロピー符号化部109が主記憶装置上に生成される。
 なお、画像データ記憶部102、フレーム記憶部104、特徴画素記憶部107は、主記憶装置上に構成するほか、HDD(Hard Disk Drive)、光ディスク、メモリカードなどの一般的に利用されているあらゆる記録媒体によって構成することもできる。
 また、同様に本実施の形態の画像伸張装置200内のCPUが、上述した実施形態を実現するための画像伸張プログラムをROMから読み出して実行することにより、各種デバイスを動作させることによって実現してもよい。画像伸張装置200で実行される画像伸張プログラムは、上述した各部(圧縮データ受信部、エントロピー復号化部、逆量子化部、画素値補間部)を含むモジュール構成となっており、実際のハードウェアとしてはCPUが上記ROMから画像圧縮プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、圧縮データ受信部201、エントロピー復号化部203、逆量子化部204、画素値補間部206が主記憶装置上に生成される。なお、画像圧縮プログラムおよび画像伸張プログラムは、ROM等に予め組み込まれて提供される。また、圧縮データ記憶部202、特徴画素記憶部205、画像データ記憶部207は、主記憶装置上に構成するほか、HDD、光ディスク、メモリカードなどの一般的に利用されているあらゆる記録媒体によって構成することもできる。
 また、画像圧縮プログラムおよび画像伸張プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供してもよい。
 さらに、画像圧縮プログラムおよび画像伸張プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、画像圧縮プログラムおよび画像伸張プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
第2の実施の形態
 第2の実施の形態について、添付図面を参照して説明する。本実施の形態が適用される画像圧縮装置および画像伸張装置については、第1の実施の形態と異なる部分について説明する。第1の実施の形態と同様の部分については、第1の実施の形態の説明を参照する。
 図13は、第2の実施の形態に画像圧縮装置300の構成を示すブロック図である。本実施の形態にかかる画像圧縮装置300は、画像データ受信部101と、画像データ記憶部102と、色変換部103と、フレーム記憶部104と、変化量算出部105と、特徴画素判定部106と、特徴画素記憶部107と、差分値算出部310と、差分値記憶部311と、量子化部108と、エントロピー符号化部109とを備えている。なお、第1の実施の形態と同様の機能を有する部分については同一の番号を付しており、ここでの説明は省略する。
 差分値算出部310は、特徴画素記憶部107に記憶された画像データの1行の特徴画素の画素値および走査方向における位置と、次の行の特徴画素の画素値および走査方向における位置から、画素値の差分値および特徴画素間の走査方向における位置の差分値を算出する。差分値記憶部311は、算出された行ごとの画素値の差分値および走査方向における位置の差分値を記憶する。
 図14は、1つの画像データでの隣接する2つの行の特徴画素の画素値と走査方向における位置の関係を示すグラフである。図14に示す曲線は、画像データの走査方向の2つの行の画素の画素値を描画したものであり、黒丸は特徴画素を示す。ある1行の特徴画素は画素61~65であり、次の行の特徴画素は、画素71~75である。特徴画素それぞれについて、対応する画素の画素値の差分値と、走査方向における位置の差分値を算出する。例えば、特徴画素62の画素値“Yi,j”、走査方向の位置“Xi,j”であり、特徴画素72の画素値“Yi,j+1”、走査方向の位置“Xi,j+1”であるとすると、特徴画素72の画素値の差分値ΔYと、走査方向における位置の差分値ΔXは、以下の式で求められる。なお、iは1行での特徴画素が判定された順番を示し、jは,画像データでの何番目の行であるかを示す。
 ΔY = Yi,j+1 − Yi,j    ・・・・(1)
 ΔX = Xi,j+1 − Xi,j    ・・・・(2)
 式(1)が示すΔYは、画素値の差分値であるため、正負いずれの値もとる。なお、画素値の差分値が0である場合は、差分値記憶部311に差分値が0であるフラグ情報を格納して、データ量を削減してもよい。また、式(2)が示すΔXも、位置の差分値であるため、正負いずれの値もとる。なお、位置の差分値が0である場合は、差分値記憶部311に差分値が0であるフラグ情報を格納して、データ量を削減してもよい。
 差分値算出部310は、前の行との特徴画素の画素値の差分値と、走査方向における位置の差分値を算出する。量子化部108は、算出された画素値の差分値と、走査方向における位置の差分値とを量子化し、エントロピー符号化部109は、エントロピー符号化し、圧縮データを生成する。
 画像伸張装置200では、圧縮データ受信部201が圧縮データを受信し、エントロピー復号化部203が圧縮データをエントロピー復号化し、逆量子化部204が逆量子化する。次に、画素値補間部206は、復元された特徴画素の画素値の差分値と、走査方向における位置の差分値から特徴画素の画素値および特徴画素間の距離を復元する。さらに、画素値補間部206は、特徴画素の画素値および特徴画素間の距離から特徴画素間の画素の画素値を補間し、画像データを復元する。このように、画素値の差分値や走査方向における位置の差分値を用いることにより、エントロピーが小さくなるため、圧縮率が向上する。
 また、変形例として、同一画像データの走査方向の異なる行の特徴画素に代えて、複数の画像データでの同一の行の特徴画素についての画素値の差分値および走査方向における位置の差分値を用いて圧縮データを生成してもよい。
 また、他の変更例として、走査方向における画素の位置の差分値に代えて、特徴画素の位置の差分値を求めず、特徴画素の位置自体と画素値の差分値とを用いて圧縮データを作成してもよい。なお、特徴画素の位置は、上述した実施の形態と同様に、走査方向に並んだ画素において、画像データの端部から何番目の画素であるかによって示すことができる。
第3の実施の形態
 第3の実施の形態について、添付図面を参照して説明する。本実施の形態が適用される画像圧縮装置および画像伸張装置について、第1の実施の形態と異なる部分について説明する。第1の実施の形態と同様の部分については、第1の実施の形態の説明を参照する。
 特徴画素判定部106は、複数の閾値を記憶しておき、複数の閾値それぞれと、変化量算出部105によって算出された変化量から、対象である画素が特徴画素であるか否かを判定する。ここで、複数の閾値それぞれには、画像データを圧縮するレベルに応じた値が設定される。例えば3つの閾値を用いることにより、3つのレベルの特徴画素を判定することができる。特徴画素判定部106は、閾値ごとに特徴画素の画素値および特徴画素間の距離を特徴画素記憶部107に格納する。特徴画素記憶部107は、レベルごとに、特徴画素の画素値と特徴画素間の距離とを対応づけて記憶する。量子化部108は、レベルごとのデータに量子化し、エントロピー符号化部109はレベルごとのデータにエントロピー符号化する。これにより、1つの画像データから複数のレベルに応じた特徴画素の画素値と特徴画素間の距離を符号化した圧縮データが生成される。
 図15は、画像データの走査方向に並んだ画素の画素値および画素の位置の関係の一部を示すグラフである。図15に示す曲線は、画像データの走査方向に並んだ画素の画素値を描画したものであり、特徴画素は、黒丸、黒三角、黒四角で示している。例えば、レベル1を最も圧縮率の高いレベルとすると、レベル1の特徴画素を判定する閾値は最も大きな値となる。図15では、黒丸で示す画素81、85、89がレベル1の特徴画素として判定される。
 次に、レベル2を2番目に圧縮率が高いレベルとすると、レベル2を判定する閾値は2番目に大きな値となり、黒丸および黒三角で示された画素81、83、85、87、89が特徴画素として判定される。特徴画素判定部106は、特徴画素記憶部107に特徴画素の画素値および特徴画素間の距離を格納する際に、異なる閾値で判定された特徴画素が重複している場合、より大きい閾値で判定された特徴画素、すなわちレベル1で判定された特徴画素を削除する。具体的には、レベル2の特徴画素として、画素83、87が格納される。
 さらに、レベル3を最も圧縮率が低いレベルとすると、レベル3を判定する閾値は最も小さな値となり、黒丸、黒三角および黒四角で示された画素81~89が特徴画素として判定される。特徴画素判定部106は、特徴画素記憶部107に特徴画素の画素値および特徴画素間の距離を格納する際に、異なる閾値で判定された特徴画素が重複している場合、より大きい閾値で判定された特徴画素、すなわちレベル1およびレベル2で判定された特徴画素を削除する。具体的には、レベル3の特徴画素として、画素82、84、86、88が格納される。
 このように、画像圧縮装置は、1つの画像データからレベルに応じた閾値を用いて特徴画素を判定し、レベルごとの圧縮データを生成することにより、様々な通信の帯域、画像伸張装置の処理能力や画像を表示するモニタのサイズに応じた圧縮データを、1つまたは複数のレベルの圧縮データを組み合せることによって容易に生成することができる。
 また、変形例として、画像伸張装置からの圧縮データの送信要求に応じ、圧縮データを送信する場合について説明する。画像圧縮装置は、予めレベルの異なる圧縮データを生成し、生成されたレベルごとの圧縮データを記憶部に格納しておく。なお、圧縮データを格納する場所は、画像圧縮装置に限る必要はなく、画像圧縮装置とは異なるコンテンツサーバ等に格納してもよい。画像圧縮装置は、画像伸張装置から送信された画像伸張装置の種別を含む画像データ送信要求に応じて、記憶部に格納された圧縮データから画像伸張装置の種別に対応したレベルの圧縮データを送信する。
 このように、画像伸張装置からの要求に応じ、1つの画像データから生成され、予めレベルごとに格納された圧縮データのうち要求に対応する、1つまたは複数のレベルの圧縮データを送信することにより、画像圧縮装置と画像伸張装置との間の通信負荷を増大させることなく、画像伸張装置の種別に応じた圧縮データを画像伸張装置に送信することができる。すなわち、1つの画像データから生成されたレベルごとの圧縮データを、例えば送信先が携帯電話であれば、レベル1の圧縮データのみを送信し、送信先がHDTV(High Definition television)の場合はレベル1~3の圧縮データを送信することにより、複数のレベルに格納された1つの圧縮データで、高圧縮からロスレスまでの様々な要求に対応した圧縮データを送信することができる。
 一方、画像伸張装置では、例えばレベル2の画像データを生成する場合には、レベル1の圧縮データとレベル2の圧縮データを受信する。次に、それぞれの圧縮データをエントロピー復号化し、逆量子化してレベルごとの特徴画素の画素値と特徴画素間の距離を復元する。次に、レベルごとの特徴画素の画素値と特徴画素間の距離をソートし、1行ごとの特徴画素の画素値と特徴画素間の距離を生成する。その後、上述した画素値補間処理を実行して画像データを生成する。このように、本実施の形態にかかる画像伸張装置は、いずれのレベルの画像データに伸張する場合であっても、同一の機能、構成で圧縮データから画像データを復元することができるため、画像伸張装置の標準化を図ることができる。
 なお、上述した実施の形態では、レベルごとに重複しない特徴画素を保持する場合について説明したが、レベルごとに閾値で判定された特徴画素のすべてを重複して保持してもよい。
 以上、本発明を第1~第3の実施の形態を用いて説明したが、上記実施の形態に多様な変更または改良を加えることができる。また、第1~第3の実施の形態において説明した機能、構成は、自由に組み合わせることができる。

Claims (15)

  1. 画像データを圧縮する画像圧縮装置であって、
     前記画像データの所定の方向の画素の画素値、および、前記所定の方向における画素の位置に基づいて、前記画像データでの画素値の変化点を示す画素である特徴画素を判定する特徴画素判定部と、
     判定された前記特徴画素の画素値と、前記特徴画素と前記特徴画素に隣接する特徴画素との距離と、を対応づけて記憶する特徴画素記憶部と、
     前記特徴画素記憶部に記憶された前記画素値および前記距離をエントロピー符号化するエントロピー符号化部と、を備えることを特徴とする画像圧縮装置。
  2. 前記所定の方向の画素の画素値と、前記所定の方向における画素の位置との関係を表すグラフに示された、前記画素のうちの第1の画素と、前記第1の画素と異なる第2の画素と、前記第1の画素および前記第2の画素の間に存在する第3の画素とを頂点とする領域の面積を、画素値の増減率の変化量として算出する変化量算出部、をさらに備え、
     前記特徴画素判定部は、算出された前記変化量が予め定められた閾値を超える場合に、前記第3の画素を前記特徴画素と判定すること、を特徴とする請求項1に記載の画像圧縮装置。
  3. 前記所定の方向の画素の画素値と、前記所定の方向における画素の位置との関係を表すグラフに示された、前記画素のうちの第1の画素と、前記第1の画素と異なる第2の画素とを結ぶ直線と、前記第1の画素および前記第2の画素の間に存在する第3の画素から画素値軸方向に延ばした直線との交点を求め、求められた前記交点と前記前記第3の画素との距離を、画素値の増減率の変化量として算出する変化量算出部、をさらに備え、
     前記特徴画素判定部は、算出された前記変化量が予め定められた閾値を超える場合に、前記第3の画素を前記特徴画素と判定すること、を特徴とする請求項1に記載の画像圧縮装置。
  4. 前記変化量算出部は、前記画像データにおける所定の領域に含まれる前記第1の画素と前記第2の画素と前記第3の画素から前記変化量を算出し、
     前記エントロピー符号化部は、前記所定の領域ごとに、前記特徴画素記憶部に記憶された前記画素値および前記距離をエントロピー符号化すること、を特徴とする請求項2または請求項3に記載の画像圧縮装置。
  5. 前記変化量算出部は、さらに前記所定の領域内の外周に並ぶ画素のうち、前記所定の方向から走査して最初に検出される画素における、前記第1の画素と前記第2の画素と前記第3の画素から前記変化量を算出し、
     前記エントロピー符号化部は、さらに前記特徴画素記憶部に記憶された前記所定の方向と直交する方向の特徴画素の前記画素値および前記距離をエントロピー符号化すること、を特徴とする請求項4に記載の画像圧縮装置。
  6. 前記所定の方向の第1の行の前記特徴画素と、前記第1の行に隣接する第2の行の前記特徴画素との画素値の差分値と、前記第1の行の特徴画素と前記第2の行の特徴画素との前記所定の方向における位置の差分値とを算出する差分値算出部と、
     算出された前記画素値の差分値と前記位置の差分値とを対応づけて記憶する差分値記憶部と、をさらに備え、
     前記エントロピー符号化部は、前記差分値記憶部に記憶された前記画素値の差分値と前記位置の差分値とをエントロピー符号化すること、を特徴とする請求項1乃至5のいずれか一つに記載の画像圧縮装置。
  7. 複数の画像データのうちの第1の画像データの所定の行の前記特徴画素と、前記第1の画像データに連続する第2の画像データの前記所定の行の前記特徴画素との画素値の差分値と、前記第1の画像データの特徴画素と前記第2の画像データの特徴画素との前記所定の方向における位置の差分値を算出する差分値算出部と、
     算出された前記画素値の差分値と前記位置の差分値とを対応づけて記憶する差分値記憶部と、をさらに備え、
     前記エントロピー符号化部は、前記差分値記憶部に記憶された前記画素値の差分値と前記位置の差分値とをエントロピー符号化すること、を特徴とする請求項1乃至5のいずれか一つに記載の画像圧縮装置。
  8. 前記特徴画素判定部は、複数のレベルに応じた閾値を用いて前記特徴画素を判定し、
     前記特徴画素記憶部は、前記レベルごとに、前記特徴画素の画素値と、前記特徴画素と前記特徴画素に隣接する特徴画素との距離と、を対応づけて記憶し、
     前記エントロピー符号化部は、前記レベルごとに、前記特徴画素記憶部に記憶された前記特徴画素の画素値と、前記距離とをエントロピー符号化すること、を特徴とする請求項1乃至7のいずれか一つに記載の画像圧縮装置。
  9. 画像データでの画素値の変化点を示す画素である特徴画素の画素値、および、前記特徴画素と前記特徴画素に隣接する特徴画素との距離をエントロピー符号化した圧縮データを伸張する画像伸張装置であって、
     前記圧縮データを受信する圧縮データ受信部と、
     受信された前記圧縮データをエントロピー復号化し、前記特徴画素の画素値および前記距離を復元するエントロピー復号化部と、
     復元された前記特徴画素の画素値および前記距離に基づいて、前記特徴画素間の画素の画素値を補間する画素値補間部と、を備えることを特徴とする画像伸張装置。
  10. 前記画素値補間部は、前記特徴画素の画素値、および、前記距離から算出した前記特徴画素の位置の関係を表すグラフにおける、前記特徴画素の画素値を通る直線上の画素値で、前記特徴画素間の画素の画素値を補間すること、を特徴とする請求項9に記載の画像伸張装置。
  11. 前記画素値補間部は、前記特徴画素の画素値、および、前記距離から算出した前記特徴画素の位置の関係を表すグラフにおける、前記特徴画素の画素値を通る曲線上の画素値で、前記特徴画素間の画素の画素値を補間すること、を特徴とする請求項9に記載の画像伸張装置。
  12. 画像データを圧縮する画像圧縮装方法であって、
     前記画像データの所定の方向の画素の画素値、および、前記所定の方向における画素の位置に基づいて、前記画像データでの画素値の変化点を示す画素である特徴画素を判定する工程と、
     判定された前記特徴画素の画素値と、前記特徴画素と前記特徴画素に隣接する特徴画素との距離と、を対応づけて記憶する特徴画素記憶部に記憶された前記画素値および前記距離をエントロピー符号化する工程と、を含むことを特徴とする画像圧縮方法。
  13. 画像データでの画素値の変化点を示す画素である特徴画素の画素値、および、前記特徴画素と前記特徴画素に隣接する特徴画素との距離をエントロピー符号化した圧縮データを伸張する画像伸張方法であって、
     前記圧縮データを受信する工程と、
     受信された前記圧縮データをエントロピー復号化し、前記特徴画素の画素値および前記距離を復元する工程と、
     復元された前記特徴画素の画素値および前記距離に基づいて、前記特徴画素間の画素の画素値を補間する工程と、を含むことを特徴とする画像伸張方法。
  14. 画像データの所定の方向の画素の画素値、および、前記所定の方向における画素の位置に基づいて、前記画像データでの画素値の変化点を示す画素である特徴画素を判定する工程と、
     判定された前記画素の画素値と、前記特徴画素と前記特徴画素に隣接する特徴画素との距離と、を対応づけて記憶する特徴画素記憶部に記憶された前記画素値および前記距離をエントロピー符号化する工程と、をコンピュータに実行させるための画像圧縮プログラムを記録したコンピュータ読み取り可能な記録媒体。
  15. 画像データでの画素値の変化点を示す画素である特徴画素の画素値、および、前記特徴画素と前記特徴画素に隣接する特徴画素との距離をエントロピー符号化した圧縮データを受信する工程と、
     受信された前記圧縮データをエントロピー復号化し、前記特徴画素の画素値および前記距離を復元する工程と、
     復元された前記特徴画素の画素値および前記距離に基づいて、前記特徴画素間の画素の画素値を補間する工程と、をコンピュータに実行させるための画像伸張プログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2010/052125 2010-02-08 2010-02-08 画像圧縮装置、画像伸張装置、画像圧縮方法、画像伸張方法および記録媒体 WO2011096091A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/052125 WO2011096091A1 (ja) 2010-02-08 2010-02-08 画像圧縮装置、画像伸張装置、画像圧縮方法、画像伸張方法および記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/052125 WO2011096091A1 (ja) 2010-02-08 2010-02-08 画像圧縮装置、画像伸張装置、画像圧縮方法、画像伸張方法および記録媒体

Publications (1)

Publication Number Publication Date
WO2011096091A1 true WO2011096091A1 (ja) 2011-08-11

Family

ID=44355115

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/052125 WO2011096091A1 (ja) 2010-02-08 2010-02-08 画像圧縮装置、画像伸張装置、画像圧縮方法、画像伸張方法および記録媒体

Country Status (1)

Country Link
WO (1) WO2011096091A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113808012A (zh) * 2020-06-17 2021-12-17 京东方科技集团股份有限公司 图像处理方法、计算机设备及计算机可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01248874A (ja) * 1988-03-30 1989-10-04 Matsushita Graphic Commun Syst Inc 画像情報処理方法
JPH0690358A (ja) * 1990-05-11 1994-03-29 Hewlett Packard Co <Hp> データフィールド画像圧縮方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01248874A (ja) * 1988-03-30 1989-10-04 Matsushita Graphic Commun Syst Inc 画像情報処理方法
JPH0690358A (ja) * 1990-05-11 1994-03-29 Hewlett Packard Co <Hp> データフィールド画像圧縮方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113808012A (zh) * 2020-06-17 2021-12-17 京东方科技集团股份有限公司 图像处理方法、计算机设备及计算机可读存储介质

Similar Documents

Publication Publication Date Title
US10455210B2 (en) Method, medium, and apparatus encoding and/or decoding an image using the same coding mode across components
RU2736421C1 (ru) Способ кодирования и декодирования изображений и устройство кодирования и декодирования
WO2010004726A1 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、プログラム、及び集積回路
JP4371245B2 (ja) 画像処理装置
JPWO2008084745A1 (ja) 画像符号化装置および画像復号化装置
US20130266232A1 (en) Encoding device and encoding method, and decoding device and decoding method
JP2006262390A (ja) 画像圧縮伸張法、画像圧縮装置及び画像伸張装置
JP2002238054A (ja) 画像符号化・復号方法、画像符号化装置及び画像復号装置
KR20210020971A (ko) 영상 변환 부호화/복호화 방법 및 장치
CN106028031B (zh) 视频编码装置和方法、视频解码装置和方法
JP5087724B2 (ja) 画像圧縮装置、画像伸張装置、画像圧縮プログラムおよび画像伸張プログラム
KR102321895B1 (ko) 디지털 비디오의 디코딩 장치
JP5800362B2 (ja) 動画像送出装置、動画像受信装置、動画像伝送システム、動画像送出方法、動画像受信方法、およびプログラム
WO2011096091A1 (ja) 画像圧縮装置、画像伸張装置、画像圧縮方法、画像伸張方法および記録媒体
WO2012173063A1 (ja) 画像処理装置および方法
JP2018107692A (ja) 動画像復号装置、動画像復号方法、動画像符号化装置、動画像符号化方法及びコンピュータ可読記録媒体
JP7118604B2 (ja) 映像符号化装置、映像復号装置及びプログラム
US20070242751A1 (en) Moving picture decoding device and moving picture generating device
JP4655791B2 (ja) 符号化装置、符号化方法およびそのプログラム
US20110103705A1 (en) Image encoding method and apparatus, and image decoding method and apparatus
JP2012039181A (ja) 画像伝送装置
JP7323685B2 (ja) 映像復号装置及びプログラム
US11218725B2 (en) Method for encoding video using effective differential motion vector transmission method in omnidirectional camera, and method and device
JP5488168B2 (ja) 画像符号化装置
JP2007221389A (ja) データ挿入装置および方法ならびに画像圧縮符号化装置および方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10845223

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 22/11/12)

122 Ep: pct application non-entry in european phase

Ref document number: 10845223

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP