WO1998054905A1 - Image mapping device and method, and image generating device and method - Google Patents

Image mapping device and method, and image generating device and method Download PDF

Info

Publication number
WO1998054905A1
WO1998054905A1 PCT/JP1998/002415 JP9802415W WO9854905A1 WO 1998054905 A1 WO1998054905 A1 WO 1998054905A1 JP 9802415 W JP9802415 W JP 9802415W WO 9854905 A1 WO9854905 A1 WO 9854905A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
block
decoding
decoded image
decoded
Prior art date
Application number
PCT/JP1998/002415
Other languages
English (en)
French (fr)
Inventor
Takahiro Fukuhara
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to IL12827898A priority Critical patent/IL128278A0/xx
Priority to EP98923069A priority patent/EP0928112A1/en
Publication of WO1998054905A1 publication Critical patent/WO1998054905A1/ja
Priority to US09/239,140 priority patent/US6526178B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals

Definitions

  • the present invention decodes a codeword obtained by iteratively transform-encoding an image, restores the image, and restores the restored image.
  • the present invention relates to an image mapping apparatus and method for mapping an image to a polygon having a three-dimensional shape (so-called texture mapping), and an image generating apparatus and method for generating an image used for the mapping.
  • BACKGROUND ART As a typical conventional image compression method, a so-called Joint Photographic Coding Experts Group (JPEG) method standardized by ISO is known. It is known that this J PEG system uses DCT (Discrete Cosine Transform), and provides a good encoded / decoded image when relatively high bit cas ij is applied. However, if the number of coding bits is reduced to some extent, the block distortion peculiar to DCT becomes remarkable, and the deterioration becomes subjectively conspicuous.
  • DCT Discrete Cosine Transform
  • an image compression method using an iterated function system has begun to attract attention.
  • This iterative transform method does not have noticeable block distortion as in the JPEG described above, and uses the self-similarity between blocks of different sizes in an image. There is an advantage that it does not.
  • This iterative transform coding also known as fractal coding, is expected to be applied to various areas.c For example, we applied the function of a fractal to restore an image with a small amount of information to a game machine. The technology is known. About this technology
  • the game machine shown in Fig. 1 has a CPU 50, work RAM 51, ROM 52, external IZF (interface) 53, fractorano drawing unit 55, and GDC (graphics 'display' controller).
  • GDC 57 are connected to VRAM 56, GDC 57 is connected to CRT 59 via graphic I / F 58, and KB (key board) IZF 60 is keyboard. 1 6 1 is connected.
  • the CPU 50 When the game ROM 54 is mounted on the external interface 53 and the power is turned on by operating the power switch, the CPU 50 reads a fixed amount of the head of the game software from the game ROM 54, and returns to the peak RAM. 5 Store in G 1 and transfer the initial screen included in this to G DC 57. GDC 57 displays the transferred initial screen on V RAM 556 It is read out at regular intervals and transferred to the graphic interface 58, so that it is output to the CRT 59. When the CPU 50 receives a command input by the user from the keyboard 61 via the keyboard interface 60, the CPU 50 reads the corresponding graphic data from the work RAM 51 in accordance with the command, and sends the data to the GDC 57. Transfer or issue a command to move the display figure to GDC 57 to update the display screen.
  • the game software read from the game ROM 54 via the external interface 53 and stored in the work RAM 51 includes a fractal drawing command in addition to a conventional control program and graphic data.
  • This fractal drawing command is composed of mathematical formulas (algorithms) that define the rules for generating figures and initial values related to the starting position of the generated figures. If the data read from the work RAM 51 in accordance with a command or the like input from the keyboard 61 is not graphic data but a fractal drawing command, the CPU 50 converts the data into a fractal instead of a GD C 57. Transfer to drawing unit 5 5.
  • the fractal drawing unit 55 sequentially generates graphic elements such as line segments in accordance with the initial values and the mathematical formulas, and develops them on the VRAM 56 so that various figures, for example, Draw natural objects such as mountains, trees and leaves, and figures such as characters. As described above, a complex figure with a large data amount can be drawn according to the fractal drawing command with a small data amount.
  • the figures that can be drawn are limited, and since there is no function for compressing and restoring a general natural image, it can be expressed. There is a problem that the image is limited to the image.
  • the JPEG method is used as a texture (image) compression (encoding) method when texture mapping is performed on object shapes that are frequently used on personal computers and game machines. .
  • texture mapping is performed on object shapes that are frequently used on personal computers and game machines.
  • the apparent resolution of the texture is increased, resulting in a noticeable deterioration of the image and loss of sharpness of the image, resulting in a blurred image.
  • An object of the present invention is to provide a device and method for mapping an image in which the image quality of a texture is not easily degraded, and an image generating device and method for generating an image used for the mapping.
  • the present invention provides an iterative transform-encoded image data that is subjected to iterative transform decoding while performing scaling, and performs the iterative transform-decoded demodulation to obtain an object shape obtained while performing scaling.
  • the feature is that images are mapped.
  • the image mapping apparatus and method according to the present invention perform iterative transform decoding while performing scaling on the iterative transform-encoded image data, and temporarily store the decoded image from the iterative transform decoding unit in a buffer memory.
  • To calculate the shape of the scaled object by scaling the shape of the given object, and calculate the shape of the scaled object. It is characterized in that the decoded image is matted in a shape.
  • the iterative transform-encoded image data includes a block number indicating a block position and a conversion parameter
  • the decoded image reproduces a source block based on a block number.
  • To reproduce a block at a predetermined position scale the block to generate a scaled block, apply a conversion process corresponding to the conversion parameter to the block image corresponding to the scaled block, and perform conversion decoding. It is characterized by being generated by executing an operation a predetermined number of times.
  • the iteratively transformed and encoded image data includes a block number indicating a block position and a transformation parameter
  • the decoded image is a transform source based on the block number.
  • the block is reproduced by reproducing the block to reproduce the block at the predetermined position, the block is scaled to generate a scaled block, and the block image corresponding to the scaled block is subjected to the conversion process corresponding to the conversion parameter.
  • the degree of convergence between the current decoded image obtained by performing the iterative transform decoding and the decoded image previously decoded with respect to the current decoded image is obtained, and the transform decoding operation is performed based on the result. It is characterized by being generated by repeated execution.
  • a decoded image finally obtained by iterative transform decoding is temporarily stored in a buffer memory.
  • FIG. 1 is a block diagram showing an example of a game machine utilizing drawing by a decoded image of fractal encoded data according to the background art.
  • FIG. 2 is a block diagram showing a configuration of a text matching apparatus for iteratively transformed decoded images according to the first embodiment of the present invention.
  • FIG. 3 is a diagram for explaining an example of a basic operation of texture matching.
  • FIG. 4 is a diagram for describing an example of texture matching of a decoded image using a conventional technique.
  • FIG. 5 is a diagram for explaining an example of texture mapping of a decoded image according to the embodiment of the present invention.
  • FIG. 6 is a diagram showing mapping transformation between blocks.
  • FIG. 7 is a block diagram showing a configuration of a text mapping apparatus for iteratively transformed decoded images according to a second embodiment of the present invention.
  • FIG. 8 is a block diagram showing a configuration of a texture matching device for iteratively transformed decoded images according to a third embodiment of the present invention.
  • FIG. 9 is a block diagram showing a configuration of a texturing apparatus for iteratively transformed decoded images according to a fourth embodiment of the present invention.
  • FIG. 10 is a block diagram showing a configuration of a texture matching device for iteratively transformed decoded images according to a fifth embodiment of the present invention.
  • FIG. 11 is a block diagram showing a configuration of a texture matching device for iteratively transformed decoded images according to a sixth embodiment of the present invention.
  • FIG. 12 is a block diagram showing a configuration of a texture matching device for iteratively transformed decoded images according to a seventh embodiment of the present invention.
  • FIG. 13 is a block diagram showing a configuration of a texture matching device for iteratively transformed decoded images according to the eighth embodiment of the present invention.
  • FIG. 14 is a block diagram showing a configuration of a texture matching device for iteratively transformed decoded images according to a ninth embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating a schematic configuration of a texture matching device for iteratively transformed decoded images according to the first embodiment of the present invention.
  • the texture matching device for iteratively transformed decoded images is composed of a decoding / multiplexing / demultiplexing unit 1 that separates the multiplexed codewords into respective codewords and decodes them separately.
  • An iterative transform decoding unit 20 that performs iterative transform decoding while performing scaling on the encoded image data; a buffer unit 9 that temporarily stores the decoded image from the iterative transform decoding unit 20; A shape information calculation unit 12 that performs scaling on the shape of the object to calculate the scaled shape of the object, and a buffer unit for the scaled shape of the object obtained from the shape information calculation unit 12.
  • An image masking unit 10 that maps the decoded image from 9 and a control unit for controlling scaling and mapping. And a mapping control section 11 for outputting a control signal. Further, if necessary, a display unit 13 for displaying a mapping image finally obtained from the image mapping unit 10 is provided.
  • the iterative transform coding unit 20 includes, for example, a source block reproducing unit 2 that reproduces a source block based on a block number from the decoding / demultiplexing unit 1 and reproduces a block at a predetermined position.
  • the scaling of the block according to the external signal is performed, and the scaling section 3, the initial image input section 4 for supplying the initial image, and the conversion parameter from the decoding / demultiplexing section 1 are used to convert the block image into a block image.
  • Image conversion / generation unit 6 that performs predetermined conversion processing, image memory unit 7 that stores the converted block image for one screen, control unit 8 that controls the number of decoding loops, and decoding of the initial image or loop And a switch 5 for selecting an image.
  • a codeword 1 ⁇ 0 obtained by iterative transform coding is input to the decoding / demultiplexing unit 1 in a multiplexed state, and the decoding / demultiplexing unit 1
  • the separated codeword 100 is demultiplexed and decoded for each separated codeword.
  • the encoder corresponding to this decoder multiplexes the codewords and sends them out of the encoder for the sake of convenience in reducing the amount of encoded bits and data handling. If the decoder does not take the form of multiplexing and transmitting codewords, the decoding / demultiplexing unit 1 may be omitted.
  • the block number 101 of the demultiplexed and decoded block image and the conversion parameter 102 are output from the decoding / demultiplexing unit 1.
  • the block number 101 is input to the conversion source block reproduction unit 2, but the conversion source block reproduction unit 2 It calculates whether the block is located at the position, and outputs block position information 104 as the result.
  • the block position information 104 is input to the scaling unit 3, and the scaling unit 3 calculates the block position information 104 based on the scaling information 115 output from the mapping control unit 11 described later. Perform scheduling.
  • Proc positional information 1 0 4 the position coordinates of the four points is sufficient information to represent the position of the block ⁇ ( ⁇ ⁇ , ⁇ ⁇ ) , ⁇ ( ⁇ ⁇ , ⁇ ⁇ ), C (Xc, Yc) and D (X., YD), and if the scaling information 115 indicates an enlargement of the magnification R, the scaled block position information 105 is newly added.
  • coordinates a of a 4-point '(RXA. RYA), B , (RXB, RYB), C (RXC. RYC), D' (RXD, RY D) will have the information.
  • the scaled block position information 105 and the conversion parameter 102 are input to the image conversion / generation unit 6, and an initial image or a decoded image in a loop is input from the switch 5.
  • the image conversion 'generation unit 6 performs a predetermined rotation / translation' enlargement / reduction 'conversion process on the block image at the position indicated by the block position information based on the conversion parameters, and the converted block image. Generate and output 109.
  • the switch 5 first supplies the initial image from the initial image input unit 4 to the image transformation and generation unit 6, and thereafter transforms the decoded image in the loop into an image.
  • the initial image from the initial image input unit 4 may be an arbitrary image. This utilizes the characteristic of the iterative transform decoding that the convergence destination image is the same no matter which initial image is started. A specific example of the conversion process will be described later in detail.
  • the above-mentioned operation is executed for one screen image, After the memory image 109 is stored and held in the image memory unit 7, the converted image 110 is input to the control unit 8. As shown in this example, the control unit 8 is at the end of the decoding loop and counts the number of times the decoding loop is performed. Then, after a certain number of times, the decoding operation in the decoding loop ends. That is, when decoding is continued in the decoding loop, the decoded image is output from the control unit 8 as the in-loop converted image 108 and input to the switch 5. On the other hand, when the decoding loop is completed by the above-described operation, the decoded image is input to the buffer unit 9 as the decoded image 111.
  • the above is the description of the part corresponding to the decoding in the present apparatus, that is, the iterative transform decoding unit 20.
  • the decoded image 111 stored and held in the buffer unit 9 reads and outputs the decoded image 112 in accordance with the data read instruction signal 113 from the mapping control unit 111.
  • the mapping instruction signal 114 at this time is, for example, when the present apparatus is connected to another apparatus, the control signal 111 is received by the mapping control section 111 which receives the control signal 118 from the outside.
  • the contents of 8 are decoded, and an operation of transmitting a predetermined control signal to each unit constituting the apparatus is performed.
  • the shape information calculation unit 12 receives shape information 1 17 of the object from outside.
  • the shape information 117 is recalculated based on the scaling information 115 described above.
  • the buffer unit 9 having received the data read instruction signal 113 outputs the stored and held decoded image 112 to the image mapping unit 10.
  • Image receiving the mapping instruction signal 1 1 4 from the mapping control unit 11 The image mapping unit 10 maps the decoded image 1 12 to the object shape obtained by expanding the new shape information 1 16.
  • the resulting mapping image 1 19 is drawn on the display unit 13.
  • the object shape information 117 is, for example, three-dimensional data of the shape of the object collected by an optical reading device (three-dimensional digitizer) or a Dallas file on a computer.
  • the created polygon data can be considered.
  • FIG. 3 shows an outline of a general texture mapping process.
  • the texture (image) 201 is mapped to a polygon (polyhedron) 202 with a side surface 203 having a texture (image). ) Indicates the processing to be performed. Note that the reason why the texture is divided by equally-spaced cells in FIG. 3 is to show a situation in which the texture is mated to the polygon in pixel units for convenience of explanation.
  • FIG. 4 is a view for explaining a conventionally known texturing process with scaling.
  • FIG. 4 is a view for explaining a conventionally known texturing process with scaling.
  • JPEG is a typical texture encoding / decoding method used here. In fact, it is a source for traditional texture mapping. In most cases, JPEG has been used to compress textures. The problem in this case is that, as shown in Fig. 4, after texture mapping is performed first, the entire texture-matched polygon is scaled, so pixels that are newly generated by the enlargement are particularly large.
  • the linear interpolation method between pixels is a method generally used conventionally.
  • Fig. 4 shows an example of scaling a texture-mapped polygon. Even if the operation of matting is performed, the processing of the pixel values in the image is exactly the same, and there is no difference in the obtained texture matting image.
  • the block is iteratively transformed and decoded while scaling, and the decoded image is mapped to the scaled polygon.
  • the bit stream 221 of the code word of the iteratively transformed and encoded texture is read, and (A) the iteratively transformed and decoded texture is scaled while being scaled. Perform iterative transform decoding with function to restore texture 2 2 2c Also, (B) scale the polygon 222 and (C) map the restored texture 222 while scaling this scaled polygon as described above to obtain a scaled texture mapping. Polygon 2 2 4 is obtained.
  • the decoded image obtained as a result of the above operation (A) has been restored to the one-pixel level by iterative transform decoding, the image generated by simply linearly interpolating the JPEG image It is characterized by higher resolution and better image quality.
  • the mapped image is decoded at the same time while being scaled by iterative transform decoding. Therefore, even when scaling is zooming, it is possible to perform iterative transform decoding.
  • the decoded image can be restored without depending on the resolution, there is an effect that the image degradation is significantly less than that of the conventional method.
  • “zooming + iterative transform decoding” and “smoothing of object shape” can be processed in parallel, there is also an effect that the processing speed is increased.
  • image coding is usually performed by iteratively performing reduced mapping from a domain block to a range block on all range blocks constituting a screen. At this time, the position information and conversion parameters of the domain block that most closely approximates each of the range blocks may be encoded.
  • R k corresponds to a range block
  • D k corresponds to a domain block
  • the block size of R k is m X n
  • the block size of Dk is MX N.
  • FIG. 5 shows that there are L'X L range blocks. The block size of the range block and the domain block is a factor that greatly affects the coding efficiency, and this size determination is important.
  • the block image conversion in the image conversion and generation unit 6 is a conversion from this to R k , and the mapping function to block k is w k , and the domain block required to perform mapping conversion of the whole screen is Assuming that the number of blocks is P, the image f becomes
  • W (f) w "f) UW2 (f) U... UWP (f) ... (1) Therefore, W is represented by the following equation.
  • mapping function w only needs to converge regardless of what is selected, and in general, reduced mapping is often used to ensure convergence. Furthermore, the affine transformation is often used because of simplification of the processing.
  • Dk is mapped to Rk by the affine transformation, and the actual conversion function is defined as v i, is expressed as follows.
  • the image conversion / generation unit 6 has a built-in circuit for performing the conversion such as rotation, translation, reduction, enlargement, etc. shown in equation (3).
  • equation (3) Strange By performing a conversion process using the conversion parameter 102, a block image 109 after the conversion is obtained.
  • FIG. 6 shows how D k located at the lower right of the screen is mapped to R k located at the upper left of the screen.
  • a texturing apparatus for texturing an iteratively transformed decoded image according to a second embodiment of the present invention will be described with reference to FIG.
  • a texturing device for iteratively transformed decoded images according to the second embodiment shown in FIG. 7 includes a decoding / demultiplexing / demultiplexing unit that separates multiplexed codewords into respective codewords and decodes them separately.
  • Iterative transform decoding unit 20 that performs iterative transform decoding while scaling iterative transform encoded image data, buffer unit 9 that temporarily stores the decoded image finally obtained, and object shape
  • the shape information calculation unit 12 calculates the shape of the scaled object by performing scaling on the object, and the scaled shape object obtained from the shape information calculation unit 12 And a mapping control unit 11 that outputs a control signal for controlling scaling and mapping. Further, if necessary, a display unit 13 for displaying a mapping image finally obtained from the image mapping unit 10 is provided.
  • the iterative transform decoding section 20 reproduces the source block based on the block number from the decoding / demultiplexing section 1 and reproduces the block at a predetermined position, and the source block reproducing section 2 according to an external signal. Performs scaling of the block.Scaling unit 3, initial image input unit 4 that supplies the initial image, and decoding ⁇ image conversion that performs a predetermined conversion process on the block image using the conversion parameters from the demultiplexing unit 1.
  • the basic operation of the second embodiment is the same as that of the first embodiment of FIG. The description of the basic operation is omitted.
  • the decoded image 122 is output to the frame memory 15.
  • To frame memory 1 5 In the next decoding loop comes one times, 1 only during the loop, the decoded image 1 2 1 and c and the convergence calculation and control unit 1 4 holds the decoded image 1 of the current loop 10 is compared with the decoded image 120 of the previous loop read from the frame memory 15 to measure the degree of convergence of the decoded image. As a result, if the convergence degree satisfies a certain condition, the decoding loop is terminated and the final decoded image 111 is output.
  • the above operation is schematically illustrated as follows.
  • dec (n) indicates a decoded image at the time of the n-th decoding loop
  • Th indicates a convergence degree threshold for terminating the decoding loop
  • the degree of convergence of the decoded image is calculated, and when the convergence reaches a certain level, the decoding loop is terminated and the decoding is completed. Since an image can be output, in addition to the effect of the first embodiment, the effect of shortening the processing time for an image with fast convergence can be obtained.
  • FIG. 8 The components constituting the texture mapping apparatus for the iteratively transformed decoded image according to the third embodiment shown in FIG. 8 are the same as those in the first embodiment shown in FIG. 2 described above.
  • the difference from the first embodiment is that the decoded image from the decoding unit 20 is extracted from the image memory unit 6.
  • the decoded image outputted from the image memory unit 6 of the iteratively transformed decoding unit 20 is directly sent to the buffer unit 9 so as to be processed in the decoding loop.
  • the obtained decoded image is output to the image mapping unit 10 via the buffer unit 9 for each loop, and texture mapping is performed on the object shape.
  • the operation of the third embodiment will be described.
  • the basic operation of the third embodiment is the same as that of the first embodiment of FIG. 2 described above, and therefore, the description of the basic operation will be omitted.
  • the decoded image 110 read from the image memory unit 7 in the decoding loop in the iterative transform decoding unit 20 in FIG. 8 is output to the control unit 8 and directly input to the buffer unit 9.
  • the buffer unit 9 that has received the data read instruction signal 113 outputs the stored and held decoded image 112 to the image mapping unit 10.
  • the image mapping unit 110 Upon receiving the mapping instruction signal 114 from the mapping control unit 111, the image mapping unit 110 receives the shape information.
  • the decoded image 1 1 2 is mapped to the shape of the object obtained by expanding the report 1 16.
  • the mapping image 1 19 obtained as a result is drawn on the display unit 13.
  • the decoded image obtained in the decoding loop is output to the buffer unit 9 as needed, and is stored and held therein. Further, the decoded image is texture-mapped into an object shape according to the data read instruction signal 113. Therefore, unlike the first embodiment of FIG. 2 in which texture matching is not performed until the decoding loop ends, a progressive image in which the matching image of the decoded image updated in each decoding loop is displayed as needed. Take a display format. This is very effective, for example, in the case where it takes time for the decoded image to converge in the decoding loop, the texture-mapped image of the decoded image is displayed from the beginning. For example, when the system is applied to an environment where the line speed is low, such as the Internet, the progress is displayed, so that the user is less likely to experience frustration or discomfort due to waiting time, which is effective and effective. is there.
  • the basic configuration of the iteratively transformed decoded image texture mapping apparatus of the fourth embodiment shown in FIG. 9 is the same as that of the first embodiment of FIG. 2 described above, but in the example of FIG.
  • the conversion decoding unit 20 is connected to the other units via a communication path, a transmission path, and a recording medium 126. That is, the texturing apparatus for iteratively transformed decoded images of the fourth embodiment shown in FIG. 9 includes a decoding / demultiplexing / demultiplexing unit 1 that separates multiplexed codewords into respective codewords and decodes them separately.
  • the iterative transform is coded It has an iterative transform decoding unit 20 that performs iterative transform decoding while performing scaling on the scaled image data, and a texture mapping unit 30 that maps the decoded image to the shape of the scaled object.
  • the inverse transform decoding unit 20 and the texture mapping unit 30 are connected via a communication path, a transmission path, or a recording medium 116.
  • the iterative transform decoding section 20 reproduces the source block based on the block number from the decoding / demultiplexing section 1 and reproduces the block at a predetermined position.
  • a scaling section 3 for scaling the block, an image conversion and generation section 6 for performing a predetermined conversion process on the block image using the conversion parameters from the decoding / demultiplexing section 1, and a block image after conversion 1
  • An image memory unit 7 for storing images for each screen, a control unit 8 for controlling the number of decoding loops, and a switch 5 for selecting an initial image or a decoded image in the loop are provided.
  • the texture mapping unit 30 includes a buffer unit 9 for temporarily storing the decoded image finally obtained, and shape information for calculating a scaled object shape by performing scaling on the shape of the object.
  • a calculation unit 12 an image mapping unit 10 that maps the decoded image from the buffer unit 9 to the scaled object shape obtained from the shape information calculation unit 12, and controls scaling and mapping.
  • a mapping control section 11 for outputting a control signal is provided.
  • a mapping image finally obtained by the texture mapping section 30 is supplied to the display section 13 and the image is displayed.
  • the communication path, transmission path, and recording medium 1 26 are communication path and transmission path.
  • a recording medium such as an existing telephone line, ISDN (Integrated Service Digital Network), wireless line, private premises line, so-called Internet, etc. Recording media such as ROM, CD-R, DVD-ROM, and hard disk may be used.
  • the communication path, the transmission path, and the recording medium 126 are connected to the input terminal 122 of the decoded image 111 output from the control unit 8 in the iterative decoder, and the output terminal to the buffer unit 9 of the texture mapping device.
  • the communication path, transmission path, and recording medium 126 are composed of an input terminal 124 of the scaling information 115 output from the mapping control unit 111 in the texture matching device, and a scaling of the iterative decoder. It has an output terminal 1 25 to the unit 3.
  • two input / output terminals for signal transfer are provided on the communication path, the transmission path, and the recording medium 126 (ie, 1 22 and 123, 124 and 125) These are the actual communication path, transmission path, and recording medium 126, and it is obvious that they pass through the same path.
  • the basic operation of the fourth embodiment is the same as that of the first embodiment described with reference to FIG. However, in the fourth embodiment, it is assumed that the iterative transform decoding unit and the texture mapping unit are separately connected via a communication path, a transmission path, or a recording medium. The same applies to the case where a decoded image already decoded by the iterative transform decoding unit is recorded on a recording medium such as a CD-ROM, and is read out directly or via a communication path or a transmission path to perform texture matching. Can be realized.
  • iterative transform decoder and texture map decoder Since it is only necessary to have a separate networking device, the hardware can be reduced and the resources on the network can be effectively used.
  • the basic configuration of the texture mapping device for iteratively transformed decoded images of the fifth embodiment shown in FIG. 10 is the same as that of the first embodiment shown in FIG. 2 and the fourth embodiment shown in FIG.
  • the difference between the decoded image outputs from the iterative transform decoding unit 20, for example, the frame difference is calculated and sent to the communication path, transmission path, and recording medium 126.
  • the communication channels and transmission channels are provided with frame memories 18 and 19 on the transmitting and receiving sides of the decoded image transmitted via the recording medium 126, and transmit and receive the difference image of the decoded image. Texture mating is performed.
  • the finally output decoded image 11 1 is input to the differentiator 16 and stored and held in the frame memory 18.
  • the differentiator 16 calculates the difference between the current decoded image 1 1 1 and the decoded image 1 27 already stored in the frame memory 18.
  • the difference image 1 2 8 is sent from the output end 1 2 3 of the communication path, the transmission path Is input to The adder 17 adds the decoded image 12 9 already stored and held in the frame memory 19 to the difference image 1 28, and the obtained decoded image 130 is added to the buffer unit 9.
  • the fifth embodiment has a configuration capable of supporting texture mapping of an iteratively transformed decoded image of a moving image. That is, the iterative transform decoding unit 20 sequentially reads the encoded bitstream 100 obtained by iteratively transform-encoding the moving image in frame units, and obtains a decoded image by the above-described operation. Further, since a difference image from the decoded image of the previous frame obtained by the differentiator 16 is transmitted to the communication channel, the transmission channel, and the recording medium 126, the difference image is shown in the fourth embodiment of FIG.
  • FIG. 11 is a block diagram showing an example of a texture matching device for iteratively transformed decoded images according to a sixth embodiment of the present invention.
  • the texture mapping apparatus for iteratively transformed decoded images according to the sixth embodiment shown in FIG. 11 includes a decoding / multiplexing / demultiplexing unit 1 that separates multiplexed codewords into respective codewords and performs decoding separately.
  • An iterative transform decoder 20 that performs iterative transform decoding while scaling image data that has been subjected to iterative transform coding, and a texture mapping unit 30 that maps decoded images to the shape of the scaled object.
  • the iterative conversion decoding unit 20 and the texture matching unit 30 are connected via a communication path, a transmission path, or a recording medium 116.
  • the iterative transform decoding section 20 reproduces the source block based on the block number from the decoding / demultiplexing section 1 and reproduces the block at a predetermined position, and the source block reproducing section 2 according to an external signal.
  • a scaling unit 3 that scales the block
  • an image conversion and generation unit 6 that performs a predetermined conversion process on the block image using the conversion parameters from the decoding and demultiplexing unit 1, and a block image after the conversion.
  • Image memory unit 7 that stores the decoded image of one loop before and a frame that stores and holds the decoded image of the previous loop.
  • the texture mapping section 30 calculates the shape of the scaled object by scaling the shape of the object, and the buffer section 9 for temporarily storing the decoded image finally obtained.
  • an image mapping unit 10 that maps the decoded image from the buffer unit 9 to the shape of the scaled object obtained from the shape information calculation unit 12.
  • the mapping image finally obtained by the matching unit 30 is supplied to the display unit 13 and the image is displayed.
  • the operation of the iterative transform decoding unit 20 of the sixth embodiment is the same as the operation of the iterative transform decoding unit 20 of the second embodiment shown in FIG.
  • Convergence degree calculation of 20A decoded image 1 1 1 output from the control unit 14 is input from an input terminal 1 2 2 of a communication channel, a transmission line, and a recording medium 126, and a texture mapping unit 30 is inputted.
  • the data is sent to the buffer unit 9 via the communication path, the transmission path, and the output terminal 123 of the recording medium 126.
  • scaling information 1 15, which is an output signal from the mapping control section 11, is input from the input 1 2 4 of the communication path, transmission path, and recording medium 1 26, and the communication path, transmission path, recording The output 1 25 of the medium 1 26 is output to the scaling section 3 of the iterative transform decoder.
  • the sixth embodiment it is the same as the above-described second embodiment.
  • the effect that the processing time is shortened is obtained, and the fourth embodiment described above.
  • hardware Reduction ⁇ Effects such as effective use of resources on the network can be obtained.
  • FIG. 12 is a block diagram showing an example of a texture matching device for iteratively transformed decoded images according to a seventh embodiment of the present invention.
  • the configuration of the seventh embodiment shown in FIG. 12 is different from the device of the sixth embodiment of FIG. 11 described above in that the output terminal of the iterative transform decoding unit 20 and the texturing unit 30 Frame memory 18 at both input terminals
  • the configuration is such that texture matching of the iteratively converted decoded image of the moving image can be performed.
  • the decoded image 111 output from the convergence degree calculation / control unit 14 is output to the subtracter 16 and the frame memory 18. Further, the subtracter 16 calculates the current decoded image 1 1 1 and the frame memory
  • the difference from the decoded image 1 2 7 stored and stored in 18 is taken, and the difference image 1 28 is used as the input end 1 2 of the communication path, transmission path, and recording medium 1 26.
  • the difference image 128 is transmitted from the output end 123 of the communication path, transmission path, and recording medium 126 and input to the adder 17.
  • the adder 17 adds the decoded image 12 9 already stored and held in the frame memory 19 to the difference image 128 and outputs the obtained decoded image 130 to the buffer unit 9. At the same time, the data is output to the frame memory 19 again and stored.
  • the other processes are the same as those in the sixth embodiment of FIG. 11 described above, and thus the description is omitted.
  • the seventh embodiment in addition to the effects of the sixth embodiment of FIG. 11 described above, as described in the fifth embodiment of FIG. Since the difference image from the decoded image of the previous frame obtained in 6 is transmitted to the communication path, transmission path, and recording medium 126, there is an advantage that the information amount of the decoded image to be transmitted can be greatly reduced.
  • the eighth embodiment shown in FIG. 13 is a combination of the above-described third embodiment shown in FIG. 8 and the above-described fourth embodiment shown in FIG.
  • the configuration and operation of the iterative transform decoding unit 20 are the same as those of the above-described iterative transform decoding unit 20 of the third embodiment in FIG.
  • the decoded image 110 in the decoding loop read from the image memory unit 7 of the iterative transform decoding unit 20 in FIG. 12 is transmitted from the communication channel, the transmission channel, and the input terminal 122 of the recording medium 126.
  • scaling information 1 15 which is an output signal from the mapping control section 11, is input from the input end 124 of the communication path, transmission path, and recording medium 126, and the communication path, transmission path, recording It is output from the output terminal 125 of the medium 126 to the scaling section 3 of the iterative transform decoder.
  • the progressive display format is used in which a mapped image of a decoded image updated in each decoding loop is displayed at any time. Further, the iterative transform decoding unit 20 and the texture mapping unit 30 and communication channel, transmission line, recording medium 1 2 6 This is effective in reducing hardware and effectively using resources on the network.
  • FIG. 14 is a block diagram showing a texture matching device for iteratively transformed decoded images according to a ninth embodiment of the present invention.
  • the ninth embodiment shown in FIG. 14 differs from the device of the eighth embodiment shown in FIG. 13 described above in that the output terminal of the iterative transform decoding unit 20 and the texture matching unit 30 Frame memories 18 and 19 are provided at both input terminals, and the difference between decoded images is transmitted so that it is possible to deal with texture matching of iteratively converted decoded images of moving images. It is.
  • the decoded image 110 in the decoding loop output from the image memory unit 7 is output to the subtractor 16 and the frame memory 18. Further, the subtractor 16 calculates a difference between the decoded image 110 in the current decoding loop and the decoded image 127 already stored and held in the frame memory 18, and calculates the difference image 128. , Communication path, transmission path, recording medium 1 2 6
  • the difference image 128 is taken out from the output end 123 of the communication path / transmission path / recording medium 126 and input to the adder 17.
  • the adder 17 adds the decoded image 12 9 already stored in the frame memory 19 to the difference image 128 and outputs the obtained decoded image 130 to the buffer unit 9. At the same time, the data is output to the frame memory 19 again, and stored and retained.
  • the other processes are the same as those of the third embodiment of FIG. 8 described above, and thus the description is omitted.
  • the ninth embodiment in FIG. 14 in addition to the effects of the eighth embodiment in FIG. 13 described above, the ninth embodiment in FIG. As described above, since the difference image from the decoded image of the previous frame obtained by the differentiator 16 is transmitted to the communication path, transmission path, and recording medium 126, the amount of information of the decoded image to be transmitted is large. There is an advantage that it can be reduced. Therefore, the texture matching device can display the texture matched image at a very high speed.
  • encoding / decoding of a texture image includes hierarchical coding / decoding, in addition to the above-described iterative transform coding / decoding.
  • a decoded texture image subjected to scaling may be obtained by using multi-resolution encoding / decoding.
  • the embodiment of the present invention is realized using the configuration shown in the block diagram, the present invention is not limited to only the above-described embodiment, and includes a CPU, a memory, and the like. It can also be implemented in software by using it.
  • the gist of the present invention is not limited to the examples.
  • the present invention it is possible to perform iterative transform decoding while performing scaling on image data that has been subjected to iterative transform coding, and to map a decoded image subjected to iterative transform decoding into a scaled object shape. Therefore, since the mapped image is decoded at the same time as scaling by iterative transform decoding, even if scaling is zooming, the decoded image, which is a feature of iterative transform decoding, does not depend on resolution. By taking advantage of the feature that it can be restored, there is the effect that image degradation is significantly less than in the conventional method. Furthermore, since "zooming + iterative transform decoding" and “smoothing of object shape" can be processed in parallel, there is an effect that the processing speed is increased.
  • the decoding loop by controlling the decoding loop by calculating the degree of convergence of the decoded image using the decoded image one loop before in the iterative transformation decoding loop, when the convergence reaches a certain level, the decoding loop is activated. Since the decoded image can be output after finishing, the processing time can be shortened for an image that converges quickly.
  • the decoded image obtained in the iterative transform decoding loop is temporarily stored in the buffer unit for each loop, and the image mapping unit obtains the decoded image for each loop from the buffer unit from the shape information calculation unit.
  • mapping to the object shape it is a progressive display format where the decoded image updated in each decoding loop is displayed at any time, so it is effective in an environment where the line speed is low, such as the Internet. It is a target.
  • the mapping device can display very fast I-mapped images.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Description

明 細 書 画像のマツビング装置及び方法、 並びに画像生成装置及び方法 技 術 分 野 本発明は、 画像を反復変換符号化することにより得られた符号語 を復号して画像を復元し、 復元された画像を 3次元形状を有するポ リゴンにマッピング (いわゆるテキスチャマッピング) するような 画像のマッビング装置及び方法、 並びにそのマッビングに利用する 画像を生成する画像生成装置及び方法に関するものである。 背 景 技 術 従来の代表的な画像圧縮方式として、 I S Oによって標準化され たいわゆる J P E G (Joint Photographic Coding Experts Group) 方式が知られている。 この J P E G方式は、 D C T (離散コサイン 変換: Discrete Cosine Transform) を用い、 比較的高いビッ トカ S害 ij り当てられる場合には、 良好な符号化 ·復号画像を供することが知 られている。 ところが、 ある程度符号化ビッ ト数を少なくすると、 D C T特有のプロック歪みが顕著になり、 主観的に劣化が目立つよ うになる。
これとは別に最近、 反復変換方式 ( I F S : Iterated Function Systems) を利用した画像圧縮方式が注目され始めている。 この方式 は、 画像全体の中で、 その画像の一部分を取り出した場合に、 その 取り出された画像と良く似た別の画像が、 その画像の中に異なるサ ィズの形で存在するという前提で、 画像の自己相似性を利用したも のである。 この反復変換方式は、 上述した J P EGのよ うなブロッ ク歪みが目立つことがなく、 しかも画像内の異なるサイズのブロッ ク間の自己相似性を利用していることから、 復号時には解像度に依 存しないという利点がある。 この反復変換符号化は、 別名フラクタ ル符号化とも呼ばれており、 様々な領域への応用が期待されている c 例えば、 フラクタルの持つ少ない情報量で画像を復元できる機能 をゲーム機に応用した技術が知られている。 この技術について、 図
1を参照しながら説明する。
この図 1に示すゲーム機は、 C PU 5 0、 ワーク RAM5 1、 R OM5 2、 外部 I ZF (インタ一フェース) 5 3、 フラクタノレ描画 部 5 5、 GDC (グラフィ ックス ' ディスプレイ ' コン トローラ)
5 7、 及び KB (キーボード) I ZF 6 0がシステムバス 6 2に接 続されており、 外部 I ZF 5 3を介してゲーム ROM5 4からのデ ータが読み出されるようになつている。 また、 フラクタル描画部 5
5及び G D C 5 7には V RAM 5 6が接続され、 G D C 5 7にはグ ラフィック I /F 5 8を介して C RT 5 9が接続され、 KB (キ一 ボード) I ZF 60にはキーボ一ド 6 1が接続されている。
次に動作について説明する。
外部ィンターフェイス 5 3にゲーム ROM54が装着され、 電源 スィ ツチの操作によって電源が投入されると、 C PU 5 0はゲーム ROM 54からゲームソフ トの先頭部分を一定量読み出して、 ヮー ク RAM 5 1に蓄積し、 これに含まれる初期画面を G DC 5 7に転 送する。 GDC 5 7は、 転送されてきた初期画面を V RAM 5 6上 に展開すると共に、 これを一定周期で読み出してグラフィックイン ターフェイス 5 8に転送することにより、 CRT 5 9に出力する。 C PU 5 0は、 キーボード 6 1からキーボードインタ一フェイス 6 0を介してュ一ザが投入したコマンドを受け取ると、 このコマンド に従ってワーク RAM5 1から、 対応の図形データを読み出して、 G D C 5 7に転送し、 あるいは GDC 5 7に表示図形の移動指令な どを発することにより、 表示画面を更新させる。
ゲーム ROM54から外部ィンターフェイス 5 3を介して読み出 され、 ワーク RAM 5 1に蓄積されるゲームソフ トには、 従来の制 御プログラムや図形データに加えてフラクタル描画コマンドが含ま れている。 このフラクタル描画コマン ドは、 図形生成の規則を定め た数式 (アルゴリズム) と生成図形の開始位置等に関する初期値と から構成される。 C PU 50は、 キ一ボード 6 1から投入されたコ マンド等に従ってワーク RAM 5 1から読み出したデータが図形デ ータでなく、 フラクタル描画コマンドであれば、 これを GD C 5 7 ではなくフラクタル描画部 5 5に転送する。 これを受信したフラク タル描画部 5 5では、 初期値と数式に従って、 線分等の図形要素を 順次生成し、 これを V RAM 5 6上に展開してゆく ことにより、 種 々の図形、 例えば、 山や樹木や葉っぱ等の自然物やキャラクタ等の 図形を描く。 以上の様に、 小さいデータ量のフラクタル描画コマン ドに従って、 データ量の大きな複雑な図形を描く ことができる。 ところで、 上述した背景技術においては、 フラクタルを描画コマ ンドによって出力するので、 描画できる図形が限定されており、 ま た、 一般の自然画像を圧縮 ·復元する機能を備えていないので、 表 現できる画像に限られてしまうという問題点があった。 また、 上述した技術とは別に、 現在パソコン上やゲーム機で多用 する物体形状へテキスチャマッピングを行う際の、 テキスチャ (画 像) の圧縮 (符号化) 手法としては、 J P E G方式が用いられてい る。 そのため、 物体形状をズーミングした時にはテキスチャの見か け上の解像度が上がるため、 画像の劣化が顕著になったり、 画像の シャープネスが失われてボケた画像が表示されてしまう、 という欠 点があった。 発 明 の 開 示 本発明は、 このような実情に鑑みてなされたものであり、 上述の ように、 一般の自然画像のテキスチャをマッビングした物体の形状 を、 ズーミング等の変形をした際にもテキスチャの画質が劣化しに くい画像のマッビング装置及び方法、 並びにそのマッビングに利用 する画像を生成する画像生成装置及び方法を提供することを目的と する。
本発明は、 上述した課題を解決するために、 反復変換符号化され た画像データをスケーリングを施しながら反復変換復号し、 スケー リングを施しながら得られた物体形状に上記反復変換復号された復 号画像をマッビングすることを特徴としている。
すなわち、 本発明における画像のマッピング装置及び方法は、 反 復変換符号化された画像データに対してスケーリ ングを施しながら 反復変換復号を行い、 反復変換復号部からの復号画像を一時的にバ ッファメモリに保存し、 所定の物体の形状をスケーリングしてスケ ーリングされた物体の形状を計算し、 スケーリングされた物体の形 状に復号画像をマツビングすることを特徴としている。
また、 本発明における画像のマッビング装置および方法において、 反復変換符号化された画像データはプロックの位置を示すプロック 番号と変換パラメータとからなり、 復号画像は、 ブロック番号に基 いて変換元プロックを再現して所定の位置にあるプロックを再現し、 ブロックのスケーリングを行ってスケーリングされたブロックを生 成し、 上記スケーリングされたプロックに対応するプロック画像に 変換パラメータに対応する変換処理を施し、 変換復号動作を所定回 数繰り返し実行することにより生成されることを特徴としている。
さらに、 本発明における画像のマッビング装置および方法におい て、 反復変換符号化された画像データはプロックの位置を示すブロ ック番号と変換パラメータとからなり、 復号画像は、 プロック番号 に基いて変換元プロックを再現して所定の位置にあるブロックを再 現し、 プロックのスケーリングを行ってスケーリングされたプロッ クを生成し、 上記スケーリングされたブロックに対応するブロック 画像に変換パラメータに対応する変換処理を施し、 反復変換復号を 行うことにより得られた現在の復号画像とその現在の復号画像に対 して先に復号した復号画像との間の収束度を求め、 その結果に基い て変換復号動作を繰り返し実行することにより生成されることを特 徴としている。
また、 本発明における画像のマッビング装置および方法において、 反復変換復号することにより最終的に得られた復号画像がバッファ メモリに一時的に保存されることを特徴としている。
さらに、 本発明における画像のマッビング装置および方法におい て、 反復変換復号を行う際に、 各変換復号動作で得られる各復号画 像がバッファメモリに一時的に順次保存され、 ノ ッファメモリから の各変換復号動作で得られる各復号画像を順次スケーリングされた 物体の形状にマッビングすることを特徴としている。 図面の簡単な説明 図 1は、 背景技術に係わるフラクタル符号化データの復号画像に よる描画を利用したゲーム機の一例を示すプロック図である。 図 2は、 本発明の第 1の実施の形態となる反復変換復号画像のテ キスチヤマツビング装置の構成を示すブロック図である。
図 3は、 テキスチャマツビングの基本動作の一例を説明するため の図である。
図 4は、 従来の技術を用いた復号画像のテキスチャマツビングの 一例を説明するための図である。
図 5は、 本発明の実施の形態による復号画像のテキスチャマツピ ングの一例を説明するための図である。
図 6は、 ブロック間の写像変換を示した図である。
図 7は、 本発明の第 2の実施の形態となる反復変換復号画像のテ キスチヤマッピング装置の構成を示すブロック図である。
図 8は、 本発明の第 3の実施の形態となる反復変換復号画像のテ キスチヤマツビング装置の構成を示すプロック図である。
図 9は、 本発明の第 4の実施の形態となる反復変換復号画像のテ キスチヤマツビング装置の構成を示すプロック図である。
図 1 0は、 本発明の第 5の実施の形態となる反復変換復号画像の テキスチャマツビング装置の構成を示すプロック図である。 図 1 1は、 本発明の第 6の実施の形態となる反復変換復号画像の テキスチャマツビング装置の構成を示すプロック図である。
図 1 2は、 本発明の第 7の実施の形態となる反復変換復号画像の テキスチャマツビング装置の構成を示すプロック図である。
図 1 3は、 本発明の第 8の実施の形態となる反復変換復号画像の テキスチャマツビング装置の構成を示すプロック図である。
図 1 4は、 本発明の第 9の実施の形態となる反復変換復号画像の テキスチャマツビング装置の構成を示すブロック図である。 発明を実施するための最良の形態 以下、 本発明に係る実施の形態について図面を参照しながら説明 する。
図 2は、 本発明の第 1の実施の形態としての反復変換復号画像の テキスチャマツビング装置の概略構成を示すプロック図である。 図 2において、 反復変換復号画像のテキスチャマツビング装置は, 多重化された符号語を各符号語に分離して別々に復号を行う復号 · 多重化分離部 1 と、 反復変換符号化 (例えばフラクタル符号化) さ れた画像データに対してスケーリ ングを施しながら反復変換復号を 行う反復変換復号部 2 0と、 反復変換復号部 2 0からの復号画像を 一時的に保存するバッファ部 9 と、 物体の形状に対してスケーリン グを施してスケーリングされた物体の形状を計算する形状情報計算 部 1 2と、 形状情報計算部 1 2から得られたスケーリングされた物 体の.形状に、 バッファ部 9からの復号画像をマツビングする画像マ ッビング部 1 0と、 スケーリング及びマッピングを制御するための 制御信号を出力するマッピング制御部 1 1 とを有して構成されてい る。 さらに、 必要に応じて、 画像マッピング部 1 0から最終的に得 られたマッビング画像を表示する表示部 1 3を設けている。
反復変換符号部 2 0は、 例えば、 復号 ' 多重化分離部 1 からのブ 口ック番号に基いて変換元ブロックを再現し所定の位置にあるプロ ックを再現する変換元プロック再現部 2と、 外部信号に従ってプロ ックのスケーリングを行ぅスケーリング部 3 と、 初期画像を供給す る初期画像入力部 4と、 復号 · 多重化分離部 1からの変換パラメ一 タを用いてプロック画像に所定の変換処理を施す画像変換 · 生成部 6と、 変換後のプロック画像を 1画面分記憶する画像メモリ部 7と、 復号ループの回数を制御する制御部 8と、 初期画像もしくはループ 内の復号画像を選択するスィツチ 5とで構成されている。
次に動作について説明する。
図 2において、 反復変換符号化されることにより得られた符号語 1 ◦ 0は、 多重化された状態で復号 · 多重化分離部 1に入力され、 復号 ·多重分離部 1は、 その多重化された符号語 1 0 0を多重化分 離し、 さらに分離された符号語毎に復号する。 通常は、 符号化ビッ ト量削減とデータハンドリ ングの便宜性から、 本復号器に対応する 符号化器では、 符号語を多重化して符号化器より送出するが、 機器 の構成上、 符号化器が符号語を多重化して送出する形態を取らない 場合には、 本復号 ·多重化分離部 1は省略して良い。 多重化分離さ れ、 さらに復号されたブロック画像のブロック番号 1 0 1 と、 変換 パラメータ 1 0 2とは、 復号 · 多重化分離部 1から出力される。 ブ 口ック番号 1 0 1は変換元プロック再現部 2に入力されるが、 変換 元プロック再現部 2はブロック番号 1 0 1から画面全体の中のどの 位置にあるブロックであるかを計算して、 その結果として、 ブロッ ク位置情報 1 0 4を出力する。 ブロック位置情報 1 0 4はスケーリ ング部 3に入力され、 スケーリング部 3は、 後述のマッピング制御 部 1 1から出力されたスケ一リング情報 1 1 5に基づいて、 プロッ ク位置情報 1 0 4のスケ一リングを行う。
例えば、 プロック位置情報 1 0 4が、 ブロックの位置を表現する のに十分な情報である 4点の位置座標 Α (ΧΑ, ΥΑ), Β (ΧΒ,ΥΒ), C (Xc, Yc), D (X。, YD)の情報を有しており、 スケ一リ ング情報 1 1 5 が倍率 R倍の拡大を示していた場合、 スケーリングされたプロック 位置情報 1 0 5は、 新たな 4点の位置座標 A' (RXA. RYA), B, (RXB, RYB), C (RXC. RYC), D' (RXD,RYD)の情報を持つことになる。
画像変換 ·生成部 6には、 スケ一リングされたプロック位置情報 1 0 5及び変換パラメータ 1 0 2が入力されるとともに、 スィツチ 5から初期画像もしくはループ内の復号画像が入力される。 画像変 換 '生成部 6は、 変換パラメータに基いて、 ブロック位置情報で示 される位置のプロック画像に対して所定の回転 ·並進 '拡大 .縮小 等の変換処理を行い、 変換後のブロック画像 1 0 9を生成して出力 する。 なお、 スィ ッチ 5は、 反復変換復号が開始された際に、 最初 に初期画像入力部 4からの初期画像を画像変換 ·生成部 6に供給し, 以後、 ループ内の復号画像を画像変換 ·生成部 6に供給するように. 切り換えられる。 初期画像入力部 4からの初期画像は、 任意画像で 良い。 これは、 反復変換復号の特徴である 「どんな初期画像からス タートしても収束先の画像は同じ」 という性質を利用している。 変換処理の具体例については、 後で詳述する。
上述した動作を 1画面の画像に対して実行して、 1画面分のプロ ック画像 1 0 9が画像メモリ部 7に記憶 ·保持された後、 変換画像 1 1 0が制御部 8に入力される。 制御部 8は、 本例で示す通り、 復 号ループの末端にあって、 復号ループを回る回数をカウントしてい る。 そして、 ある所定の回数を経た時点で、 同復号ループでの復号 動作を終了する。 すなわち、 復号ループ内で復号を継続する場合に は、 ループ内変換画像 1 0 8として制御部 8より出力され、 スイツ チ 5に入力される。 一方、 上述した動作により復号ループを終了し た場合には、 復号画像 1 1 1 としてバッファ部 9に入力される。 以上が、 本装置における復号に相当する部分、 すなわち反復変換 復号部 2 0の説明である。
以後、 復号画像のテキスチャマツビング部について説明する。 バッファ部 9に記憶 ·保持された復号画像 1 1 1は、 マッピング 制御部 1 1からのデータ読み出し指示信号 1 1 3に従って、 復号画 像 1 1 2を読み出し出力する。 この時のマッビング指示信号 1 1 4 は、 本装置が別の装置に接続されている場合等は、 例えば外部から の制御信号 1 1 8を受け取ったマッピング制御部 1 1において、 制 御信号 1 1 8の内容が解読され、 所定の制御信号を、 本装置を構成 する各部に対して送出する動作が行われる。 形状情報計算部 1 2に は、 物体の形状情報 1 1 7が外部より入力される。 データ読み出し 指示信号 1 1 3が、 形状情報計算部 1 2に伝送されると、 上述した スケーリング情報 1 1 5に基づき、 形状情報 1 1 7が再計算されて- 新たな形状情報 1 1 6が画像マッピング部 1 0に出力される。 デー タ読み出し指示信号 1 1 3を受信したバッファ部 9では、 記憶 ·保 持されていた復号画像 1 1 2を画像マッピング部 1 0へ出力する。 マツピング制御部 1 1からのマツピング指示信号 1 1 4を受けた画 像マッピング部 1 0は、 新たな形状情報 1 1 6を展開して得られた 物体形状に対して、 復号画像 1 1 2をマッピングする。 その結果得 られたマッビング画像 1 1 9は、 表示部 1 3において描画される。 なお、 上述した実施の形態の中で、 物体の形状情報 1 1 7として は、 例えば光学読み取り装置 (3次元デジタイザ) で採取した物体 の形状の 3次元データや、 コンピュータ上のダラフィ ックスッ一ノレ で作成したポリゴンデータ等が考えられる。
次に、 上述した図 2の画像マッビング部 1 0において行われる画 像の物体形状へのテキスチャマツビングについて、 図面を参照しな がら説明する。
先ず、 図 3は、 一般のテキスチャマッピング処理の概要を図示し たものであり、 テキスチャ (画像) 2 0 1があるポリ ゴン (多面 体) 2 0 2のある側面 2 0 3にマッピング (貼り付け) される処理 を示している。 なお、 この図 3でテキスチャを等間隔の桝目で区切 つているのは、 説明の都合上、 テキスチャを画素単位にポリ ゴンに マツビングする様子を示すためである。
図 4は、 従来より知られれているスケーリングを伴ったテキスチ ャマツビング処理を説明するための図である。 この図 4において、
( A ) 符号化ビッ トス トリ一ム 2 1 1からテキスチャ 2 1 2への復 号を行い、 (B ) このテキスチャ 2 1 2をポリゴンにマッピングし てテキスチャマッピングされたポリゴン 2 1 3を作成し、 (C ) こ のテキスチャマツビングされたポリゴン 2 1 3をスケーリングして スケーリングされたポリゴン 2 1 4を作成している。 ここで用いら れる'テキスチャの符号化 ·復号手法の代表的なものとして J P E G がある。 実際、 従来テキスチャマッピングを行うためのソースとな るテキスチャの圧縮には、 ほとんどのケースで J P E Gが利用され てきた。 この場合の問題点は、 図 4で示す様に、 最初にテキスチャ マッビングを行った後、 テキスチャマツビングされたポリゴン全体 がスケーリ ングされるため、 特に拡大されることによって新たに生 成される画素は、 テキスチャの画素間の線形補間によって算出され るため、 画像の肌理が粗くなり、 画像の劣化が顕著になったり、 画 像のシャープネスが失われて暈けた画像が表示されることになる。 なお、 該画素間の線形補間法は、 従来より一般に用いられている手 法である。
また、 図 4ではテキスチャマッピングされたポリゴンをスケーリ ングする例を示したが、 復号されたテキスチャを所定の大きさにス ケーリングして、 同じくスケーリングされたポリゴンにスケ一リン グされたテキスチャをテキスチャマツビングする操作を行っても、 画像内の画素値の処理としては、 全く同様であり、 得られたテキス チヤマツビング画像には相違が無い。
これに対して、 本発明の第 1の実施の形態として図 2に示す反復 変換復号画像のテキスチャマツビング装置においては、 図 5に示す ように、 反復変換符号化されたテキスチャ (特に、 本実施の形態の 場合はブロック) をスケーリングしながら反復変換復号して、 その 復号画像をスケーリングされたポリゴンにマッビングするようにし ている。
すなわち、 図 5において、 反復変換符号化されたテキスチャの符 号語のビッ トストリ一ム 2 2 1を読み込んで、 (A ) その反復変換 符号化されたテキスチャをスケ—リングしながら反復変換復号する 機能を有する反復変換復号を行って、 テキスチャ 2 2 2を復元する c また、 (B ) ポリゴン 2 2 3をスケーリングし、 (C ) このスケー リングされたポリゴンに上述したようにスケ一リングしながら復元 されたテキスチャ 2 2 2をマツピングすることにより、 スケーリン グされテキスチャマッピングされたポリゴン 2 2 4を得ている。 こ の場合には、 上述した (A ) の操作の結果得られた復号画像は、 1 画素レベルまで反復変換復号によって復元されたものであるので、 J P E G画像を単に線形補間して生成された画像に比べて、 解像度 が高く、 画質も良好であるという特徴がある。
以上が、 第 1の実施の形態の基本動作である。 このような第 1の 実施の形態によれば、 マッピングされた画像は、 反復変換復号によ つてスケーリングしながら同時に復号されたものであるので、 スケ 一リングがズーミングの場合でも、 反復変換復号の特徴である、 復 号画像が解像度に依存しないで復元できるという特徴を生かし、 画 像の劣化が従来方式に比べて大幅に少ないという効果がある。 さら に、 「ズーミング +反復変換復号」 と 「物体形状のス一ミング」 と を並列処理できるので処理が高速になるという効果もある。
ここで、 本発明の実施の形態の基本技術の 1つである反復変換符号 化 ·復号の基礎理論について図 6を参照しながら説明する。
反復変換符号化では、 通常、 ドメインブロックからレンジブロック への縮小写像を画面を構成するすべてのレンジブ口ックに対して、 反復して行うことで、 画符号化を行う手法である。 この時、 各レン ジブ口ックを最も近似する ドメインブロ ックの位置情報、 変換パラ メータを符号化すれば良い。
図 6において R k は、 レンジブロックに相当し、 D k はドメイン ブロックに相当する。 ここでは、 R k のブロックサイズを m X n、 Dk のブロックサイズを MX Nとしている。 図 5では、 レンジブ口 ックが L'X L個存在することを示している。 このレンジブロックと ドメインプロックのプロックサイズは、 符号化効率に大きく影響す る要素であり、 このサイズ決定は重要である。
また、 画像変換 ·生成部 6でのブロック画像変換は、 この か ら Rk への変換であり、 ブロック kへのマッピング関数を wk 、 画 面全体を写像変換するために要したドメインブロックのブロック数 を Pとすると、 画像 f は画像全体のマツビング関数 Wによって、
W ( f ) = w" f ) U W 2 ( f ) U ··· U W P ( f ) …… ( 1 ) に写像される。 従って、 Wは下式によって表される。
W = U p, = ! wk …… ( 2 )
ここで、 上述したマッピング関数 wは、 どのようなものを選択し ても収束すれば良く、 収束を確実にするために一般に縮小写像が用 いられることが多い。 さらに、 処理の簡単化からァフィン変換がよ く用いられる。 ァフィン変換によって Dk が Rk に写像されるケ一 スを、 実際の変換関数を v i として、 数式化すると下記のようにな る。
Figure imgf000016_0001
この ( 3 ) 式によって、 2ブロック間の回転 '並進 .縮小 .拡大 等の変換がすべて表現できることになる。 画像変換 ·生成部 6では. 例え.ば (3 ) 式で示される回転 ·並進 ·縮小 ·拡大等の変換を行う 回路を内蔵していて、 ブロック画像 1 0 5に対して、 (3 ) 式の変 換パラメ一タ 1 0 2を用いて変換処理を施すことで、 変換後のブロ ック画像 1 0 9を得る。 図 6では、 画面右下にあった D k が画面左 上にある R k に、 写像変換される様子を示している。
次に、 本発明の第 2の実施の形態となる反復変換復号画像のテキ スチヤマツビング装置について、 図 7を参照しながら説明する。 図 7に示す第 2の実施の形態となる反復変換復号画像のテキスチ ャマツビング装置は、 多重化された符号語を各符号語に分離して別 々に復号を行う復号 · 多重化分離部と、 反復変換符号化された画像 データに対してスケーリングを施しながら反復変換復号を行う反復 変換復号部 2 0と、 最終的に得られた復号画像を一時的に保存する バッファ部 9と、 物体の形状に対してスケーリングを施してスケー リングされた物体の形状を計算する形状情報計算部 1 2と、 形状情 報計算部 1 2から得られたスケーリ ングされた形状の物体に、 バッ ファ部 9からの復号画像をマツピングする画像マッピング部 1 0と、 スケーリング及びマッビングを制御するための制御信号を出力する マッピング制御部 1 1 とを有して構成されている。 さらに、 必要に 応じて、 画像マッピング部 1 0から最終的に得られたマッピング画 像を表示する表示部 1 3を設けている。
反復変換復号部 2 0は、 復号 ·多重化分離部 1からのプロック番 号に基いて変換元プロックを再現し所定の位置にあるプロックを再 現する変換元プロック再現部 2と、 外部信号に従ってプロックのス ケーリングを行ぅスケーリング部 3 と、 初期画像を供給する初期画 像入力部 4と、 復号 '多重化分離部 1からの変換パラメータを用い てプロック画像に所定の変換処理を施す画像変換 ·生成部 6 と、 変 換後のブロック画像を 1画面分記憶する画像メモリ部 7と、 1ルー プ前の復号画像を記憶 ·保持するフレームメモリ 1 5と、 復号画像 の収束度を計算して復号ループの制御を行う収束度計算 ·制御部 1 4と、 初期画像もしくはループ内の復号画像を選択するスィツチ 5 とで構成されている。
次に、 この図 7に示す第 2の実施の形態の動作について説明する c この第 2の実施の形態の基本動作は、 図 2の第 1の実施の形態と動 作と同様であるため、 その基本動作については説明を省略する。 図 7において、 1画面分の変換後のブロック画像 1 0 9が画像メ モリ部 7にて記憶 ·保持された後、 フレームメモリ 1 5に復号画像 1 2 1が出力される。 フレームメモリ 1 5では次の復号ループが回 つてくるまで、 1ループの間だけ、 復号画像 1 2 1を保持している c そして収束度計算 ·制御部 1 4において、 現在のループの復号画像 1 1 0と、 フレームメモリ 1 5から読み出された前回のループの復 号画像 1 2 0とを比較して、 復号画像の収束度を測定する。 その結 果、 収束度がある一定の条件を満たしている場合には、 復号ループ を終了して、 最終的な復号画像 1 1 1を出力する。 上述した動作を 図式化すると、 下記のようになる。
i f ( I dec (n) - dec (n- l) | /dec (n) く Th ) then
{ 復号ループを終了 }
el se
{ 次の復号ループを開始 }
ここで、 dec (n)は、 n番目の復号ループ時の復号画像を示し、 Thは. 復号ループを終了するための収束度の閾値を示す。
この第 2の実施の形態によれば、 復号画像の収束度を計算して、 収束がある一定のレベルまで達した際には、 復号ループを終えて復 号画像を出力できるので、 第 1の実施の形態の持つ効果に加えて、 収束が早い画像の場合には処理時間が短縮される、 という効果が得 られる。
次に、 本発明の第 3の実施の形態となる反復変換復号画像のテキ スチヤマツビング装置について、 図 8を参照しながら説明する。 図 8に示す第 3の実施の形態の反復変換復号画像のテキスチャマ ッビング装置を構成する各部要素は、 上述した図 2の第 1の実施の 形態と同様であるが、 図 8においては、 反復変換復号部 2 0からの 復号画像を、 画像メモリ部 6から取り出している点が上記第 1 の実 施の形態と異なっている。
すなわち、 図 8に示す反復変換復号画像のテキスチャマツビング 装置においては、 反復変換復号部 2 0の画像メモリ部 6から出力さ れる復号画像を、 直接バッファ部 9に送ることにより、 復号ループ 内で得られる復号画像を各ループ毎にバッファ部 9を介して画像マ ッビング部 1 0に出力し、 物体形状にテキスチャマッピングするよ うにしている。
次に、 第 3の実施の形態の動作について説明する。 ここで、 第 3 の実施の形態の基本動作は上述した図 2の第 1の実施の形態と同様 であるため、 その基本動作については説明を省略する。
図 8の反復変換復号部 2 0での復号ループ内で画像メモリ部 7か ら読み出された復号画像 1 1 0は、 制御部 8に出力されると共に、 バッファ部 9に直接入力される。 データ読み出し指示信号 1 1 3を 受信したバッファ部 9は、 記憶 ·保持されていた復号画像 1 1 2を 画像マッピング部 1 0へ出力する。 マッピング制御部 1 1からのマ ッビング指示信号 1 1 4を受けた画像マッピング部 1 0は、 形状情 報 1 1 6を展開して得られた物体の形状に対して、 復号画像 1 1 2 をマッピングする。 その結果得られたマッピング画像 1 1 9は、 表 示部 1 3において描画される。
図 8に示す第 3の実施の形態では、 復号ループ内で得られた復号 画像が、 随時バッファ部 9に出力されここで記憶 ·保持される。 さ らに、 復号画像はデータ読み出し指示信号 1 1 3に従って、 物体形 状にテキスチャマッピングされる。 従って、 復号ループが終了する までテキスチャマツビングが行われなかった図 2の第 1の実施の形 態とは異なり、 随時、 各復号ループで更新された復号画像のマツピ ング画像が表示されるプログレッシブ表示形式を取る。 これは、 例 えば、 復号ループの中で復号画像が収束するまでに時間を要する場 合には、 最初から復号画像のテキスチャマッピングされた画像が表 示されるので非常に有効である。 例えば、 いわゆるインターネッ ト のよ うな回線速度が遅い環境等に適用する際には、 途中経過が表示 されるため、 待ち時間による焦燥感ゃ不快感を使用者に与えること が軽減され、 効果的である。
次に、 本発明の第 4の実施の形態となる反復変換復号画像のテキ スチヤマツビング装置について、 図 9を参照しながら説明する。 この図 9に示す第 4の実施の形態の反復変換復号画像のテキスチ ャマッピング装置の基本構成は、 上述した図 2の第 1の実施の形態 と同様であるが、 図 9の例においては、 反復変換復号部 2 0 と他の 部分とを、 通信路 ·伝送路 ·記録媒体 1 2 6を介して接続している。 すなわち、 図 9に示す第 4の実施の形態の反復変換復号画像のテキ スチヤマツビング装置は、 多重化された符号語を各符号語に分離し て別々に復号を行う復号 ·多重化分離部 1 と、 反復変換符号化され た画像データに対してスケーリ ングを施しながら反復変換復号を行 う反復変換復号部 2 0と、 スケーリングされた物体の形状に復号画 像をマツピングするテキスチャマッピング部 3 0を有しており、 反 復変換復号部 2 0とテキスチャマッピング部 3 0とが通信路、 伝送 路又は記録媒体 1 1 6を介して接続されている。
反復変換復号部 2 0は、 復号 · 多重化分離部 1からのブロック番 号に基いて変換元プロックを再現し所定の位置にあるブロックを再 現する変換元プロック再現部 2と、 外部信号に従ってプロックのス ケーリングを行うスケーリング部 3 と、 復号 · 多重化分離部 1から の変換パラメータを用いてブロック画像に所定の変換処理を施す画 像変換 ·生成部 6と、 変換後のプロック画像を 1画面分記憶する画 像メモリ部 7と、 復号ループの回数を制御する制御部 8と、 初期画 像もしくはループ内の復号画像を選択するスィツチと 5を備えてい る。 また、 テキスチャマッピング部 3 0は、 最終的に得られた復号 画像を一時的に保存するバッファ部 9と、 物体の形状に対してスケ —リングを施してスケーリングされた物体形状を計算する形状情報 計算部 1 2と、 形状情報計算部 1 2から得られたスケーリ ングされ た物体の形状に、 バッファ部 9からの復号画像をマツピングする画 像マッビング部 1 0と、 スケーリ ング及びマッピングを制御する制 御信号を出力するマッピング制御部 1 1 を備えており、 テキスチャ マッピング部 3 0によって最終的に得られたマッピング画像が表示 部 1 3に供給されて、 その画像が表示される。 このような構成によ り、 第 4の実施の形態となる反復変換復号画像のテキスチャマツピ ング装置を構成している。
ここで、 通信路 ·伝送路 ·記録媒体 1 2 6とは、 通信路、 伝送路. 又は記録媒体のいずれかの形態を取るものであり、 例えば、 既存の 電話回線、 I S DN (Integrated Service Digital Network) 、 無 線回線、 構内専用回線、 いわゆるインターネッ ト等の伝送路の他、 CD- ROM, CD-R, DVD-ROM, ハードディスク等の記 録媒体であっても構わない。 この通信路 ·伝送路 ·記録媒体 1 2 6 は、 反復復号器内の制御部 8から出力された復号画像 1 1 1の入力 端 1 2 2と、 テキスチャマッピング装置のバッファ部 9への出力端 1 2 3 とを有している。 また、 通信路 ·伝送路 ·記録媒体 1 2 6は、 テキスチャマツビング装置内のマッビング制御部 1 1から出力され たスケ一リング情報 1 1 5の入力端 1 24 と、 反復復号器のスケー リング部 3への出力端 1 2 5 とを有している。
なお、 この図 9に示す第 4の実施の形態の例では、 説明の都合上, 通信路 ·伝送路 ·記録媒体 1 2 6上に信号の受け渡しの入出力端を 2つずつに (すなわち 1 2 2と 1 23、 1 24と 1 2 5に) 分けた 、 これらは実際の通信路 ·伝送路 ·記録媒体 1 2 6では、 同一の 経路を通ることは自明である。
第 4の実施の形態の基本動作は、 上述した図 2と共に説明した第 1の実施の形態と同様である。 ただし、 第 4の実施の形態において は、 反復変換復号部とテキスチャマッピング部とが、 別々に、 通信 路、 伝送路あるいは記録媒体を隔てて接続された場合を想定してい る。 また、 すでに反復変換復号部によって復号された復号画像が、 CD— ROM等の記録媒体に記録され、 これを直接または通信路、 伝送路を介して読み出して、 テキスチャマツビングを行う場合にも 同様の構成で実現することができる。
第 4の実施の形態によれば、 反復変換復号器とテキスチャマツピ ング装置とを別々に持てばよいので、 ハードウェアの削減、 ネッ ト ワーク上の資源の有効利用が実現できる。
次に、 本発明の第 5の実施の形態となる反復変換復号画像のテキ スチヤマツビング装置について、 図 1 0を参照しながら説明する。 図 1 0に示す第 5の実施の形態の反復変換復号画像のテキスチャ マッビング装置の基本構成は、 上述した図 2の第 1の実施の形態、 及び上述した図 9の第 4の実施の形態と同様であるが、 図 1 0の例 においては、 反復変換復号部 2 0からの復号画像出力の差分、 例え ばフレーム差分をとって、 通信路 ·伝送路 ·記録媒体 1 2 6へ送る ようにしている点が異なっており、 通信路 ·伝送路 .記録媒体 1 2 6を介して伝送される復号画像の送受信側にフレームメモリ 1 8、 1 9を備え、 復号画像の差分画像を送受信してテキスチャマツピン グを行うようにしている。
すなわち、 反復変換復号部 2 0の制御部 8から、 復号ループ終了 後、 最終的に出力された復号画像 1 1 1は、 差分器 1 6に入力され ると共にフレームメモリ 1 8に記憶 '保持される。 さらに差分器 1 6では、 現在の復号画像 1 1 1 と既にフレームメモリ 1 8に記憶 . 保持されていた復号画像 1 2 7 との差分を取り、 その差分画像 1 2 8を、 通信路 ·伝送路 ·記録媒体 1 2 6の入力端 1 2 2に出力する c 一方、 差分画像 1 2 8は、 通信路 ·伝送路 ·記録媒体 1 2 6の出力 端 1 2 3より送出され加算器 1 7に入力される。 加算器 1 7では、 既にフレームメモリ 1 9に記憶 ·保持されていた復号画像 1 2 9 と 差分画像 1 2 8との加算を行い、 得られた復号画像 1 3 0をバッフ ァ部.9に出力すると共に、 再度フレームメモリ 1 9に出力し、 記憶 •保持する。 これ以外の処理は、 既に述べたものと同様である。 第 5の実施の形態は、 動画像の反復変換復号画像のテキスチャマ ッビングに対応可能な構成である。 すなわち、 反復変換復号部 2 0 では、 動画像を反復変換符号化して得られた符号化ビッ トス トリー ム 1 0 0をフレーム単位で次々と読み込み、 上述した動作によって 復号画像を得る。 さらに、 差分器 1 6で得られた前フレームの復号 画像との差分画像を通信路 ·伝送路 ·記録媒体 1 2 6に送出するの で、 上述した図 9の第 4の実施の形態で示した手法に比べて、 伝送 すべき復号画像の情報量を大幅に削減できるという利点がある。 次に、 図 1 1は、 本発明の第 6の実施の形態となる反復変換復号 画像のテキスチャマツビング装置の、 一例を示すブロック図である。 図 1 1に示す第 6の実施の形態の反復変換復号画像のテキスチャマ ッビング装置は、 多重化された符号語を各符号語に分離して別々に 復号を行う復号 ·多重化分離部 1 と、 反復変換符号化された画像デ ータに対してスケーリングを施しながら反復変換復号を行う反復変 換復号部 2 0と、 スケーリングされた物体の形状に復号画像をマツ ビングするテキスチャマッピング部 3 0を有しており、 反復変換復 号部 2 0とテキスチャマツビング部 3 0 とが通信路、 伝送路又は記 録媒体 1 1 6を介して接続されている。
反復変換復号部 2 0は、 復号 ·多重化分離部 1からのプロック番 号に基いて変換元プロックを再現し所定の位置にあるプロックを再 現する変換元プロック再現部 2と、 外部信号に従ってプロックのス ケーリングを行うスケ一リング部 3 と、 復号 ·多重化分離部 1から の変換パラメータを用いてプロック画像に所定の変換処理を施す画 像変換 ·生成部 6と、 変換後のプロック画像を 1画面分記憶する画 像メモリ部 7と、 1ループ前の復号画像を記憶 ·保持するフレーム メモリ 1 5と、 復号画像の収束度を計算して復号ループの制御を行 う収束度計算 ·制御部 1 4と、 初期画像もしくはループ内の復号画 像を選択するスィ ッチ 5とを備えている。 また、 テキスチャマツピ ング部 3 0は、 最終的に得られた復号画像を一時的に保存するバッ ファ部 9と、 物体の形状に対してスケーリングを施してスケーリン グされた物体の形状を計算する形状情報計算部 1 2と、 形状情報計 算部 1 2から得られたスケーリングされた物体の形状に、 バッファ 部 9からの復号画像をマツビングする画像マッビング部 1 0 とを備 えており、 テキスチャマツビング部 3 0によって最終的に得られた マッピング画像が表示部 1 3に供給されて、 その画像が表示される c このような構成により、 第 6の実施の形態となる反復変換復号画像 のテキスチャマツビング装置を構成している。
この第 6の実施の形態の反復変換復号部 2 0での動作は、 上述し た図 7の第 2の実施の形態の反復変換復号部 2 0の動作と同一であ り、 反復変換復号部 2 0の収束度計算 ·制御部 1 4の出力である復 号画像 1 1 1を、 通信路 ·伝送路 ·記録媒体 1 2 6の入力端 1 2 2 から入力し、 テキスチャマッピング部 3 0のバッファ部 9 へ、 通信 路 ·伝送路 ·記録媒体 1 2 6の出力端 1 2 3を介して送っている。 他方、 マッピング制御部 1 1からの出力信号であるスケーリング情 報 1 1 5を、 通信路 ·伝送路 ·記録媒体 1 2 6の入力 1 2 4から入 力して、 通信路 ·伝送路 ·記録媒体 1 2 6の出力 1 2 5より、 反復 変換復号器のスケーリング部 3に出力する。
第 6の実施の形態によれば、 上述した第 2の実施の形態と同様の. 収柬が早い画像の場合には処理時間が短縮されるという効果が得ら れると共に、 上述した第 4の実施の形態と同様の、 ハードウェアの 削減ゃネッ トワーク上の資源の有効利用等の効果が得られる。
次に、 図 1 2は、 本発明の第 7の実施の形態となる反復変換復号 画像のテキスチャマツビング装置の、 一例を示すプロック図である。 図 1 2に示す第 7の実施の形態の構成は、 上述した図 1 1の第 6 の実施の形態の装置において、 反復変換復号部 2 0の出力端及びテ キスチヤマツビング部 3 0の入力端の双方にフレームメモリ 1 8,
1 9をそれぞれ備え、 復号画像の差分を伝送するようにすることに より、 動画像の反復変換復号画像のテキスチャマツビングに対応可 能な構成としたものである。
図 1 2において、 収束度計算 ·制御部 1 4から出力された復号画 像 1 1 1は、 減算器 1 6 とフレームメモリ 1 8に出力される。 さら に、 減算器 1 6では、 現在の復号画像 1 1 1 と既にフレームメモリ
1 8に記憶 ·保持されていた復号画像 1 2 7との差分を取り、 その 差分画像 1 2 8を、 通信路 ·伝送路 ·記録媒体 1 2 6の入力端 1 2
2に送る。
この差分画像 1 2 8は、 通信路 ·伝送路 ·記録媒体 1 2 6の出力 端 1 2 3より送出され加算器 1 7に入力される。 加算器 1 7では、 既にフレームメモリ 1 9に記憶 ·保持されていた復号画像 1 2 9と 差分画像 1 2 8との加算を行い、 得られた復号画像 1 3 0をバッフ ァ部 9に出力すると共に、 再度フレームメモリ 1 9に出力し、 記憶 '保持する。 これ以外の処理は、 既に述べた図 1 1の第 6の実施の 形態と同様であるため、 説明を省略する。
なお、 図 1 2中の復号ループ内のフレームメモリ 1 5と、 復号ル ープ外の減算器 1 6に接続されたフレームメモリ 1 8、 加算器 1 Ί に接続されたフレームメモリ 1 9とは、 同一の構造 ·機能を持つも ので良い。
第 7の実施の形態によれば、 上述した上記図 1 1の第 6の実施の 形態の効果に加えて、 上述した図 1 0の第 5の実施の形態で述べた 様に、 差分器 1 6で得られた前フレームの復号画像との差分画像を 通信路 ·伝送路 ·記録媒体 1 2 6に送出するので、 伝送すべき復号 画像の情報量が大幅に削減できるという利点がある。
次に、 本発明の第 8の実施の形態となる反復変換復号画像のテキ スチヤマツビング装置について、 図 1 3を参照しながら説明する。 この図 1 3示す第 8の実施の形態は、 上述した図 8に示した第 3 の実施の形態と、 上述した図 9に示した第 4の実施の形態とを組み 合わせたものであり、 反復変換復号部 2 0の構成及び動作は、 上述 した図 8の第 3の実施の形態の反復変換復号部 2 0と同様である。 図 1 2の反復変換復号部 2 0の画像メモリ部 7から読み出された復 号ループ内の復号画像 1 1 0を、 通信路 ·伝送路 ·記録媒体 1 2 6 の入力端 1 2 2から入力し、 テキスチャマッピング部 3 0のバッフ ァ部 9へ、 通信路 ·伝送路 ·記録媒体 1 2 6の出力端 1 2 3を介し て出力している。 他方、 マッピング制御部 1 1からの出力信号であ るスケーリング情報 1 1 5を、 通信路 ·伝送路 ·記録媒体 1 2 6の 入力端 1 2 4から入力して、 通信路 ·伝送路 ·記録媒体 1 2 6の出 力端 1 2 5から反復変換復号器のスケーリング部 3に対して出力し ている。
図 1 3の第 8の実施の形態によれば、 随時、 各復号ループで更新 された復号画像のマッビング画像が表示されるプログレッシブ表示 形式であり、 さらに、 反復変換復号部 2 0とテキスチャマッピング 部 3 0とを通信路 ·伝送路 ·記録媒体 1 2 6を隔てて別々に持てば よいので、 ハードウェアの削減、 ネッ トワーク上の資源の有効利用 が実現できるという効果がある。
次に、 図 1 4は、 本発明の第 9の実施の形態となる反復変換復号 画像のテキスチャマツビング装置を示すブロック図である。
この図 1 4に示す第 9の実施の形態は、 上述した図 1 3に示した 第 8の実施の形態の装置において、 反復変換復号部 2 0の出力端及 びテキスチャマツビング部 3 0の入力端の双方にフレームメモリ 1 8, 1 9をそれぞれ備え、 復号画像の差分を伝送するようにするこ とにより、 動画像の反復変換復号画像のテキスチャマツビングに対 応可能な構成としたものである。
この図 1 4において、 画像メモリ部 7から出力された復号ループ 内の復号画像 1 1 0は、 減算器 1 6とフレームメモリ 1 8に出力さ れる。 さらに、 減算器 1 6では、 現在の復号ループ内の復号画像 1 1 0 と既にフレームメモリ 1 8に記憶 ·保持されていた復号画像 1 2 7 との差分を取り、 その差分画像 1 2 8を、 通信路 ·伝送路 ·記 録媒体 1 2 6の入力端 1 2 2に送る。 この差分画像 1 2 8は、 通信 路 ·伝送路 .記録媒体 1 2 6の出力端 1 2 3より取り出され、 加算 器 1 7に入力される。 加算器 1 7では、 既にフレームメモリ 1 9に 記憶 .保持されていた復号画像 1 2 9と差分画像 1 2 8との加算を 行い、 得られた復号画像 1 3 0をバッファ部 9に出力すると共に、 再度フレームメモリ 1 9に出力し、 記憶 ·保持する。 これ以外の処 理は、 既に述べた図 8の第 3の実施の形態と同様であるため、 説明 を省略する。
図 1 4の第 9の実施の形態によれば、 上述した図 1 3の第 8の実 施の形態の効果に加えて、 上述した図 1 0の第 5の実施の形態で述 ベた様に、 差分器 1 6で得られた前フレームの復号画像との差分画 像を通信路 ·伝送路 ·記録媒体 1 2 6に送出するので、 伝送すべき 復号画像の情報量が大幅に削減できるという利点がある。 従って、 テキスチャマツビング装置側では、 非常に高速にテキスチャマツピ ングされた画像を表示することができる。
なお、 本発明は、 上述した実施の形態のみに限定されるものでは なく、 例えば、 テキスチャ画像の符号化 ·復号には、 上述した反復 変換符号化 ·復号以外にも、 階層符号化 ·復号、 あるいは多重解像 度符号化 ·復号を用いて、 スケ一リングが施された復号テキスチャ 画像を得るようにしてもよい。
さらに、 本発明の実施の形態は、 ブロ ック図に示された構成を用 いて実現しているが、 本発明は上述した実施の形態にのみ限定され るものではく、 C P Uやメモリなどを用いてソフ トウェアで実現す ることも可能である。
なお、 本発明の主旨を逸脱しない範囲において、 さまざまな変形 や応用例が考えうる。 従って、本発明の要旨は、 実施例に限定される ものではない。
本発明によれば、 反復変換符号化された画像デ一タに対してスケ ーリングを施しながら反復変換復号を行い、 スケーリングされた物 体の形状に反復変換復号された復号画像をマツビングすることによ り、 マッピングされた画像は、 反復変換復号によってスケーリ ング しながら同時に復号されたものであるので、 スケーリングがズーミ ングの場合でも、 反復変換復号の特徴である、 復号画像が解像度に 依存しないで復元できるという特徴を生かし、 画像の劣化が従来方 式に比べて大幅に少ないという効果がある。 さらに、 「ズーミング +反復変換復号」 と 「物体形状のス一ミン グ」 とを並列処理できるので処理が高速になるという効果もある。 また、 反復変換復号ループにおける 1ループ前の復号画像を用い て復号画像の収束度を計算して復号ループの制御を行うことにより、 収束がある一定のレベルまで達した際には、 復号ループを終えて復 号画像を出力できるので、 収束が早い画像の場合には処理時間を短 縮できる。
また、 反復変換復号ループ内で得られる復号画像を各ループ毎に バッファ部に一時的に保存し、 画像マッピング部ではバッファ部か らの各ループ毎の復号画像を形状情報計算部から得られた物体形状 にマッピングすることにより、 随時、 各復号ループで更新された復 号画像のマッビング画像が表示されるプログレッシブ表示形式であ るので、 例えばインタ一ネッ トの様な回線速度が遅い環境で効果的 である。
また、 反復変換復号部とテキスチャマツビング部とを通信路 ·伝 送路 ·記録媒体を隔てて接続して復号画像を伝送することにより、 これらの各部を別々に持てばよいので、 ハードウェアの削減、 ネッ トワーク上の資源の有効利用が実現できる。
このとき、 復号画像の差分、 例えばフレーム差分を伝送すること により、 動画像の反復変換復号画像のテキスチャマツビングに対応 でき、 差分器で得られた前フレームの復号画像との差分画像を通信 路 ·伝送路 ·記録媒体に送出するので、 伝送すべき復号画像の情報 量が大幅に削減するという効果もある。
ざらに、 復号ル一プ内の各ループ毎の復号画像の差分画像を、 随 時通信路 ·伝送路 ·記録媒体を隔てて伝送することにより、 テキス チヤマッピング装置では、 非常に高速 I マツピングされ た画像を表示することができる。 産業上の利用可能性
3次元形状を有するポリゴンに種々の図形や画像 (自然画やキャラ クタなど) をマッピング (いわゆるテキスチャマッピング) する技 術を利用する、 ゲーム機、 パソコン、 コンピュータグラフィ ックス、 CAD/CAM (Computer Aided Design I Computer Aided Manuf acturing) ような分野に利用できる。 符号の説明
1. . . 復号 ·多重化分離部、 2. . . 変換元プロック再現部. 3. . . スケーリ ング部、 4. . . 初期画像入力部、 5. . . スィ ッチ、 6. · . 画像変換 ·生成部、 7. . . 画像メモリ部.
8. . . 制御部、 9. . · ノくッファ部、 1 0. . . 画像マツ ビング部、 1 1. . . べク トル量子化部、 1 2. . . 形状情報 S十^ · P|5、 1 . . . 表示部、 1 4. . . 収束度計算 ·制御部、
1 5, 1 8, 1 9. . . フレームメモリ、 1 6. . . 差分器、
1 7. . . 加算器、 2 0. . . 反復変換復号部

Claims

請 求 の 範 囲
1 . 所定の物体に画像をマッビングする画像のマッビング装置に おいて、
反復変換符号化された画像データに対してスケーリ ングを施しな がら反復変換復号を行う反復変換復号部と、
上記反復変換復号部からの復号画像を一時的に保存するバッファ メモリ と、
所定の物体の形状をスケーリングし、 スケーリングされた物体の 形状を計算する形状情報計算部と、
スケーリングされた物体の形状に上記復号画像をマッビングする マッビング部と、
スケーリング及びマッビング動作を制御する制御部と
を有することを特徴とする画像のマッピング装置。
2 . 上記反復変換符号化された画像データは、 ブロックの位置を 示すブロック番号と変換パラメータとカゝらなり、
上記反復変換復号部は、
上記プロック番号に基づいて変換元プロックを再現して所定の位 置にあるプロックを再現する変換元プロック再現部と、
プロックのスケーリングを行い、 スケーリングされたブロックを 生成するスケ一リング部と、
上記スケ一リングされたブロックに対応するプロック画像に上記 変換パラメータに対応する変換処理を施す画像変換 ·生成部と、 変換復号動作を繰り返し実行する回数を制御する回数制御部と を有してなることを特徴とする請求の範囲第 1項記載の画像のマツ ビング装置。
3 . 上記バッファメモリは、 上記反復変換復号部によって繰り返 し復号することにより最終的に得られた復号画像を一時的に保存す ることを特徴とする請求の範囲第 1項記載の画像のマッピング装置
4 . 上記バッファメモリは、 上記反復変換復号部によって変換復 号を行う際に、 各変換復号動作で得られる各復号画像を一時的に順 次保存し、
上記マッビング部は、 上記バッファメモリからの各変換復号動作 で得られる各復号画像を順次スケーリングされた物体の形状にマッ ピングする
ことを特徴とする請求の範囲第 1項記載の画像のマッビング装置。
5 . 上記反復変換符号化された画像データは、 プロックの位置を 示すプロック番号と変換パラメ一タとカゝらなり、
上記反復変換復号部は、
上記プロック番号に基づいて変換元プロックを再現して所定の位 置にあるプロックを再現する変換元プロック再現部と、
プロックのスケーリングを fレ、、 スケーリングされたブロックを 生成するスケーリング部と、
上記スケーリングされたプロックに対応するプロック画像に上記 変換パラメータに対応する変換処理を施す画像変換 ·生成部と、 反復変換復号を行うことにより得られた現在の復号画像とその現 在の復号画像に対して先に復号した復号画像との間の収束度を求め、 その結果に基づいて変換復号の繰り返し動作を制御する収束度計算 •制御部と を有してなることを特徴とする請求の範囲第 1項記載の画像のマツ ビング装置。
6 . 所定の物体に画像をマッビングするための画像を生成する画 像生成装置において、
反復変換符号化された画像データに対してスケーリングを施しな がら反復変換復号を行う反復変換復号部と、
スケーリングされた物体の形状に画像をマッビングするマツピン グ部で利用されるように上記復号画像を出力する出力部と を有することを特徴とする画像生成装置。
7 . 上記出力部は、 上記反復変換復号部によって繰り返し復号す ることにより最終的に得られた復号画像を出力することを特徴とす る請求の範囲第 6項記載の画像生成装置。
8 . 上記出力部は、 上記反復変換復号部によって変換復号動作を 行う際に、 各変換復号動作で得られる各復号画像を一時的に順次出 力し、
上記出力される復号画像の各々は、 上記マッビング部において順 次スケーリングされた物体の形状にマッビングされる
ことを特徴とする請求の範囲第 6項記載の画像生成装置。
9 . 反復変換復号を行うことにより得られた現在の復号画像とそ の現在の復号画像に対して先に復号した復号画像との差分を演算す る演算部をさらに有し、
上記出力部は、 その差分データを出力する
ことを特徴とする請求の範囲第 6項記載の画像生成装置。
1 0 . 所定の物体に画像をマッピングする画像のマッピング装置 において、 所定の物体の形状をスケーリングし、 スケーリングされた物体の 形状を計算する形状情報計算部と、
スケ一リングされた物体の形状に復号画像をマツビングするマツ ビング部と、
スケーリング及びマッビング動作を制御する制御部とを有し、 上記復号画像は、 反復変換符号化された画像データに対してスケ ーリングを施しながら反復変換復号を行うことにより得られたもの であることを特徴とする画像のマッビング装置。
1 1 . 上記復号画像は、 変換変換復号することにより最終的に得 られた復号画像であることを特徴とする請求の範囲第 1 0項記載の 画像のマツビング装置。
1 2 . 上記復号画像は、 変換変換復号を行う際に、 各変換復号動 作で得られる各復号画像であり、
上記マッピング部は、 各復号画像を順次スケーリングされた物体 の形状にマッビングすることを特徴とする請求の範囲第 1 0項記載 の画像のマッビング装置。
1 3 . 上記復号画像は、 反復変換復号を行うことにより得られた 現在の復号画像とその現在の復号画像に対して先に復号した復号画 像との間の差分データとして供給され、
さらに、 すでに供給されている復号画像と上記差分データとを加 算することにより復号画像を生成する演算部を有する
ことを特徴とする請求の範囲第 1 0項記載の画像のマッピング装置 c
1 4 . 所定の物体に画像をマッピングする画像のマッピング方法 において、
反復変換符号化された画像データに対してスケーリングを施しな がら反復変換復号を行う反復変換復号ステップと、 上記反復変換復号ステップにより得られた復号画像を一時的にバ ッファメモリに保存するステップと、
所定の物体の形状をスケーリングし、 スケーリングされた物体の 形状を計算するステップと、
スケーリングされた物体の形状に、 上記復号画像をマツビングす るマツピンダステップと
を有することを特徴とする画像のマッビング方法。
1 5 . 上記反復変換符号化された画像データは、 ブロ ックの位置 を示すブロック番号と変換パラメータとからなり、
上記反復変換復号ステップは、
上記プロック番号に基づいて変換元ブロックを再現し、 所定の位 置にあるプロックを再現し、
ブロックのスケーリングを行ってスケーリングされたプロックを 生成し、
上記スケーリングされたプロックに対応するプロック画像に上記 変換パラメータに対応する変換処理を施し、
変換復号動作を繰り返し実行する
ことを特徴とする請求の範囲第 1 4項記載の画像のマツビング方法 c 1 6 . 上記反復変換復号ステップによって反復変換復号すること により最終的に得られた復号画像が上記バッファメモリに一時的に 保存されることを特徴とする請求の範囲第 1 4項記載の画像のマッ ビング方法。
1 7 , 上記反復変換復号ステップによって変換復号動作を行う際 に、 各変換復号動作で得られる各復号画像が上記バッファメモリ に 一時的に順次保存され、
上記マッピングステップは、 上記バッファメモリからの各変換復 号動作で得られる各復号画像を順次スケーリングされた物体の形状 にマッビングする
ことを特徴とする請求の範囲第 1 4項記載の画像のマッビング方法。
1 8 . 上記反復変換符号化された画像データは、 ブロックの位置 を示すプロック番号と変換パラメータとからなり、
上記反復変換復号ステップは、
上記プロック番号に基づいて変換元プロックを再現して所定の位 置にあるプロックを再現し、
ブロックのスケーリングを行ってスケーリングされたブロックを 生成し、
上記スケ一リングされたブロックに対応するブロック画像に上記 変換パラメータに対応する変換処理を施し、
反復変換復号を行うことにより得られた現在の復号画像とその現 在の復号画像に対して先に復号した復号画像との間の収束度を求め、 その結果に基づいて変換復号を繰り返し実行する
ことを特徴とする請求の範囲第 1 4項記載の画像のマッビング方法。
1 9 . 所定の物体に画像をマッピングするための画像を生成する 画像生成方法において、
反復変換符号化された画像データに対してスケーリングを施しな がら反復変換復号を行う反復変換復号ステップと、
スケーリングされた物体の形状に画像をマッビングするマツピン グ部で利用されるように上記復号画像を出力する出力ステップと を有することを特徴とする画像生成方法。
2 0 . 上記反復変換符号化された画像データは、 ブロ ックの位置 を示すプロック番号と変換パラメータとからなり、
上記反復変換復号ステップは、
上記ブロック番号に基づいて変換元プロックを再現して所定の位 置にあるブロックを再現し、
プロックのスケーリングを行ってスケーリングされたブロックを 生成し、
上記スケーリングされたブロックに対応するブロック画像に上記 変換パラメータに対応する変換処理を施し、
変換復号動作を繰り返し実行する
ことを特徴とする請求の範囲第 1 9項記載の画像生成方法。
2 1 . 上記出力ステップは、 上記反復変換復号ステップにて反復 変換復号することにより最終的に得られた復号画像を出力すること を特徴とする請求の範囲第 1 9項記載の画像生成方法。
2 2 . 上記出力ステップは、 反復変換復号を行う際に、 各変換復 号動作で得られる各復号画像を一時的に順次出力し、
上記出力される復号画像の各々は、 上記マッビングステップにお いて順次スケ一リングされた物体の形状にマッビングされる ことを特徴とする請求の範囲第 1 9項記載の画像生成方法。
2 3 . 上記反復変換符号化された画像データは、 ブロックの位置 を示すプロック番号と変換パラメ一タとからなり、
上記反復変換復号ステップは、
上記プロック番号に基づいて変換元プロックを再現して所定の位 置にあるプロックを再現し、
ブロックのスケーリングを行ってスケーリングされたブロックを 生成し、
上記スケーリングされたブロックに対応するプロック画像に上記 変換パラメータに対応する変換処理を施し、
反復変換復号を行うことにより得られた現在の復号画像とその現 在の復号画像に対して先に復号した復号画像との間の収束度を求め、 その結果に基づいて変換復号を繰り返し実行する
ことを特徴とする請求の範囲第 1 9項記載の画像生成方法。
2 4 . 反復変換復号を行うことにより得られた現在の復号画像と その現在の復号画像に対して先に復号した復号画像との差分を演算 するステップをさらに有し、
上記出力ステップは、 その差分データを出力する
ことを特徴とする請求の範囲第 1 9項記載の画像生成方法。
2 5 . 所定の物体に画像をマッピングする画像のマッピング方法 において、
所定の物体の形状をスケーリングし、 スケ一リングされた物体の 形状を計算するステップと、
スケーリングされた物体の形状に復号画像をマツビングするマツ ビングステップとを有し、
上記復号画像は、 反復変換符号化された画像データに対してスケ ーリングを施しながら反復変換復号を行うことにより得られたもの である
ことを特徴とする画像のマッピング方法。
2 6 . 上記反復変換符号化された画像データは、 ブロックの位置 を示すプロック番号と変換パラメ一タとからなり、
上記復号画像は、 上記プロック番号に基づいて変換元プロックを再現して所定の位 置にあるブロックを再現し、
ブロックのスケーリングを行い、 スケーリングされたブロックを 生成し、
上記スケーリングされたプロックに対応するブロック画像に上記 変換パラメータに対応する変換処理を施し、
変換復号動作を繰り返し実行することにより生成される
ことを特徴とする請求の範囲第 2 5項記載の画像のマッビング方法。 2 7 . 上記復号画像は、 反復変換復号することにより最終的に得 られた復号画像であることを特徴とする請求の範囲第 2 5項記載の 画像のマッビング方法。
2 8 . 上記復号画像は、 反復変換復号を行う際に、 各変換復号動 作で得られる各復号画像であり、
上記マッビングステップは、 各復号画像を順次スケーリングされ た物体の形状にマツビングする
ことを特徴とする請求の範囲第 2 5項記載の画像のマッビング方法。 2 9 . 上記反復変換符号化された画像データは、 ブロックの位置 を示すプロック番号と変換パラメータとからなり、
上記復号画像は、
上記ブロック番号に基づいて変換元プロックを再現して所定の位 置にあるプロックを再現し、
ブロックのスケーリングを行ってスケーリングされたブロックを 生成し、
上記スケーリングされたプロックに対応するプロック画像に上記 変換パラメータに対応する変換処理を施し、 反復変換復号を行うことにより得られた現在の復号画像とその現 在の復号画像に対して先に復号した復号画像との間の収束度を求め、 その結果に基づいて変換復号を繰り返し実行することにより得られ る
ことを特徴とする請求の範囲第 2 5項記載の画像のマッビング方法 c 3 0 . 上記復号画像は、 反復変換復号を行うことにより得られた 現在の復号画像とその現在の復号画像に対して先に復号した復号画 像との間の差分データとして供給され、
さらに、 すでに供給されている復号画像と上記差分データとを加 算することにより復号画像を生成する演算ステップを有する ことを特徴とする請求の範囲第 2 5項記載の画像のマッビング方法 c
PCT/JP1998/002415 1997-05-30 1998-06-01 Image mapping device and method, and image generating device and method WO1998054905A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
IL12827898A IL128278A0 (en) 1997-05-30 1998-06-01 Image mapping device and method and image generating device and method
EP98923069A EP0928112A1 (en) 1997-05-30 1998-06-01 Image mapping device and method, and image generating device and method
US09/239,140 US6526178B1 (en) 1997-05-30 1999-01-28 Picture mapping apparatus and picture mapping method, and picture generation apparatus and picture generation method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP14251097 1997-05-30
JP9/142510 1997-05-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US09/239,140 Continuation US6526178B1 (en) 1997-05-30 1999-01-28 Picture mapping apparatus and picture mapping method, and picture generation apparatus and picture generation method

Publications (1)

Publication Number Publication Date
WO1998054905A1 true WO1998054905A1 (en) 1998-12-03

Family

ID=15317039

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1998/002415 WO1998054905A1 (en) 1997-05-30 1998-06-01 Image mapping device and method, and image generating device and method

Country Status (6)

Country Link
US (1) US6526178B1 (ja)
EP (1) EP0928112A1 (ja)
KR (1) KR20000029715A (ja)
CN (1) CN1231101A (ja)
IL (1) IL128278A0 (ja)
WO (1) WO1998054905A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7146058B2 (en) * 2003-04-26 2006-12-05 Hewlett-Packard Development Company, L.P. Compression of images using object maps
US7464029B2 (en) 2005-07-22 2008-12-09 Qualcomm Incorporated Robust separation of speech signals in a noisy environment
US7649534B2 (en) * 2006-02-01 2010-01-19 Microsoft Corporation Design of arbitrary linear and non-linear maps
JP4487959B2 (ja) * 2006-03-17 2010-06-23 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US8984025B1 (en) * 2008-06-30 2015-03-17 Symantec Corporation Method and apparatus for processing a transform function, a reference file and parameter information that represent a data file
US9286643B2 (en) 2011-03-01 2016-03-15 Applaud, Llc Personalized memory compilation for members of a group and collaborative method to build a memory compilation
CN104427337B (zh) * 2013-08-21 2018-03-27 杭州海康威视数字技术股份有限公司 基于目标检测的感兴趣区域视频编码方法及其装置
US20150228106A1 (en) * 2014-02-13 2015-08-13 Vixs Systems Inc. Low latency video texture mapping via tight integration of codec engine with 3d graphics engine

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06223199A (ja) * 1992-08-26 1994-08-12 Namco Ltd 画像合成装置
JPH06334868A (ja) * 1993-05-24 1994-12-02 Matsushita Electric Ind Co Ltd 画像符号化および復号化装置
JPH07230555A (ja) * 1993-12-22 1995-08-29 Matsushita Electric Ind Co Ltd ミップマップ画像生成装置および生成方法
JPH07264473A (ja) * 1994-02-04 1995-10-13 Thomson Broadcast テクスチャー画像と特殊ビデオ効果を生成する方法及びその装置
JPH08190626A (ja) * 1995-01-12 1996-07-23 Hitachi Ltd データ処理装置
JPH0923428A (ja) * 1995-07-07 1997-01-21 Minolta Co Ltd フラクタル画像圧縮データの復元装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4941193A (en) 1987-10-02 1990-07-10 Iterated Systems, Inc. Methods and apparatus for image compression by iterated function system
US5065447A (en) 1989-07-05 1991-11-12 Iterated Systems, Inc. Method and apparatus for processing digital data
GB9204360D0 (en) * 1992-02-28 1992-04-08 Monro Donald M Fractal coding of data
GB2270243B (en) * 1992-08-26 1996-02-28 Namco Ltd Image synthesizing system
US5566284A (en) * 1993-12-22 1996-10-15 Matsushita Electric Industrial Co., Ltd. Apparatus and method for mip-map generation using low-pass filtering based on resolution ratio
WO1995020296A1 (en) * 1994-01-19 1995-07-27 University Of Strathclyde Fractal data compression
US5838833A (en) * 1995-06-30 1998-11-17 Minolta Co., Ltd. Fractal image compression method and device and fractal image restoration method and device
JP3859325B2 (ja) * 1997-10-22 2006-12-20 ソニー株式会社 画像の反復変換復号化装置及び方法、並びに記録媒体

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06223199A (ja) * 1992-08-26 1994-08-12 Namco Ltd 画像合成装置
JPH06334868A (ja) * 1993-05-24 1994-12-02 Matsushita Electric Ind Co Ltd 画像符号化および復号化装置
JPH07230555A (ja) * 1993-12-22 1995-08-29 Matsushita Electric Ind Co Ltd ミップマップ画像生成装置および生成方法
JPH07264473A (ja) * 1994-02-04 1995-10-13 Thomson Broadcast テクスチャー画像と特殊ビデオ効果を生成する方法及びその装置
JPH08190626A (ja) * 1995-01-12 1996-07-23 Hitachi Ltd データ処理装置
JPH0923428A (ja) * 1995-07-07 1997-01-21 Minolta Co Ltd フラクタル画像圧縮データの復元装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BARNSLEY M F, HARD L P: "MULTIMEDIA FRACTAL IMAGE COMPRESSION", MULTIMEDIA FRACTAL IMAGE COMPRESSION, XX, XX, 20 March 1995 (1995-03-20), XX, pages 91 - 137 + 203, XP002917242 *
OISHI N, YAMAMOTO T, AOKI Y: "AN EVALUATION OF IMAGE COMPRESSION BY FRACTAL-BLOCK CODING", TECHNICAL REPORT OF THE INSTITUTE OF TELEVISION ENGINEERS OFJAPAN, XX, XX, vol. 16, no. 10, 1 January 1992 (1992-01-01), XX, pages 01 - 06, XP002917241 *

Also Published As

Publication number Publication date
EP0928112A1 (en) 1999-07-07
US6526178B1 (en) 2003-02-25
CN1231101A (zh) 1999-10-06
KR20000029715A (ko) 2000-05-25
IL128278A0 (en) 1999-11-30

Similar Documents

Publication Publication Date Title
Fenney Texture compression using low-frequency signal modulation
US9183582B2 (en) Tiling process for digital image retrieval
US8369629B2 (en) Image processing using resolution numbers to determine additional component values
US6985630B2 (en) Image processing apparatus and method, program and storage medium
JP2000132704A (ja) 画像情報処理装置及び方法
WO2006119051A1 (en) Compression and decompression of media data
JP3790728B2 (ja) 画像符号化装置、画像復号化装置及びそれらの方法
WO2008123822A1 (en) Vector-based image processing
CN113170140A (zh) 数据阵列的位平面编码
US20010012397A1 (en) Image processing apparatus and method
WO1998054905A1 (en) Image mapping device and method, and image generating device and method
JP3264245B2 (ja) 画像情報処理装置
JP2009077183A (ja) データ圧縮装置、データ圧縮・伸張システム、およびデータ圧縮方法
JP2003189109A (ja) 画像処理装置及び方法、並びにコンピュータ・プログラム
JP3158064B2 (ja) 動画像符号化装置及び動画像復号装置
JP3859325B2 (ja) 画像の反復変換復号化装置及び方法、並びに記録媒体
WO1998058328A1 (en) Digital signal converting method and device, transformation matrix generating method and device, and supply medium
JP3777649B2 (ja) 画像圧縮方法及び画像伸張方法
JP2000048182A (ja) 画像情報処理装置及び方法、並びにエンタテインメント装置
WO1998050887A1 (fr) Processeur d'images et procede de traitement d'images
JPH07222151A (ja) 画像処理方法及び装置
TW476921B (en) Method of block-based texture compression using edge information in a block
JP4957572B2 (ja) 画像処理装置、画像処理システム、画像処理方法および画像処理プログラム
JPH11284840A (ja) 画像形成装置
KR0170934B1 (ko) 프랙탈 영상 부호화를 위한 고속 아핀 변환 장치

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 98800952.8

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN IL JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

WWE Wipo information: entry into national phase

Ref document number: 09239140

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1019997000817

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 1998923069

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 1998923069

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1019997000817

Country of ref document: KR

WWW Wipo information: withdrawn in national office

Ref document number: 1998923069

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 1019997000817

Country of ref document: KR