WO2008052773A2 - Verfahren und system zur kompression von volumendaten - Google Patents

Verfahren und system zur kompression von volumendaten Download PDF

Info

Publication number
WO2008052773A2
WO2008052773A2 PCT/EP2007/009472 EP2007009472W WO2008052773A2 WO 2008052773 A2 WO2008052773 A2 WO 2008052773A2 EP 2007009472 W EP2007009472 W EP 2007009472W WO 2008052773 A2 WO2008052773 A2 WO 2008052773A2
Authority
WO
WIPO (PCT)
Prior art keywords
image
motion estimation
images
dimensional
volume data
Prior art date
Application number
PCT/EP2007/009472
Other languages
English (en)
French (fr)
Other versions
WO2008052773A3 (de
Inventor
Uwe-Erik Martin
Original Assignee
Siemens Aktiengesellscahft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellscahft filed Critical Siemens Aktiengesellscahft
Publication of WO2008052773A2 publication Critical patent/WO2008052773A2/de
Publication of WO2008052773A3 publication Critical patent/WO2008052773A3/de

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation

Definitions

  • the invention relates to a method and a system for the compression of four-dimensional volume data, which are present in a sequence of two-dimensional partial images.
  • Digitized images are used in almost all technical fields, whereby the resolution and compression of the image data are subject to very different requirements. If the digital images have to meet high standards, then very large amounts of data in the range of several megabytes per image are necessary. For storing or transferring these images, efficient data compression is therefore essential.
  • redundancy reduction which is performed as a lossless, reversible process based on input signal statistics.
  • the redundancy reduction takes into account properties of the source with the aim of reducing the amount of data to be transmitted.
  • a decorrelating image transformation for example in the form of a discrete cosine transformation, then takes place as part of the compression of image data sets.
  • the final step of a compression process is usually a so-called entropy coding.
  • Image determined Depending on the frequency distribution, at least one search position is determined in a reference image. At the respective search position, a reference picture element for which an error measure is determined is determined for an element of an image to be coded. The error measure describes the similarity between the element of the picture to be coded and the reference picture element.
  • WO 98/051085 A1 discloses a method for encoding and decoding a digitized image.
  • the pixels are grouped into image blocks.
  • a DC component of the encoding information becomes the pixel contained in the at least one part of the image block is determined and the DC component is subtracted from the coding information of each pixel of the at least one part of the image block.
  • the coding information of the pixels of the image block reduced by the DC component is finally subjected to a transformation coding.
  • High-resolution medical imaging devices such as a computed tomography scanner, for example, generate three-dimensional volume data sets that contain a non-moving three-dimensional image information.
  • a temporal sequence of such volume data records can often be recorded with modern medical image acquisition devices. This creates a four-dimensional, moving volumetric image data set.
  • Both three-dimensional (still) volume data sets and four-dimensional (moving) volume data sets are usually present as a sequence of two-dimensional partial images or slice images.
  • Three-dimensional (immobile) volume data sets are usually in the form of a sequence of two-dimensional partial images (or slice images), which reproduce the structure of spatially adjacent layers of a recorded spatial region at substantially a common acquisition time.
  • a recording time period is also referred to as recording time, which is short against typical time scales of a movement of the spatial structure, so that this movement is negligible within the recording period.
  • different recording times whose time interval is synchronous with a periodic structure movement (eg, a heartbeat-related structural movement), are also understood as a common recording time.
  • Four-dimensional (moving) volume data sets usually consist of a sequence of three-dimensional volume images at successive recording times, each of which in turn consists of a sequence of spatially adjacent two-dimensional partial images.
  • the object of the invention is to specify an easily realizable and effective method for compressing four-dimensional volume data, which is also suitable in particular for application to medical volume data sets is.
  • the invention is further based on the object of specifying a suitable system for carrying out the method.
  • the application of the motion estimation algorithm is an upstream component of a decorrelating image transformation, which is an essential part of the process in the context of the compression process.
  • Methods of decorrelating image transformation generally seek to detect and reduce dependencies within an image or between different images using signal processing, mathematical methods. The reduction of the dependencies changes the occurrence probabilities of the signals used to represent an image in such a way that a reduction of the amount of data to be stored is possible with the aid of subsequent compression steps (quantization and / or entropy coding).
  • Examples of such decorrelative image transformations are the discrete cosine transformation (DCT) or the discrete wavelet transformation (DWT).
  • the discrete cosine transform is commonly used in video coding methods such as MPEG or digital television as a decorrelating transform.
  • the discrete WaveIet transformation is used in the new image compression standard JPEG2000.
  • the decorrelating transformation is complemented by a motion estimation.
  • the motion estimation exploits the graphical similarities between adjacent, two-dimensional images (interframes) to determine the decorrelating properties of the transformation. equal to a decorrelation within a two-dimensional frame (intraframe).
  • interframes adjacent, two-dimensional images
  • the term "motion estimation” is due to the fact that such algorithms are conventionally applied to "temporally adjacent fields" of a moving image sequence, ie to those fields which correspond to successive recording times. From the comparison of such partial images, a temporal change of the image information contained therein, and thus a movement of this image information, is obtained.
  • Such interframe coding can relate both to the temporally preceding picture (predictive, P-frames) and to the temporally preceding and following picture (bidirectional, B-frames).
  • three-dimensional image information determines the similarity of spatially adjacent sub-images of a volume data set in a manner similar to that of moving image information, the similarity of temporally adjacent sub-images.
  • recorded objects-in the medical application for example, an organ or a vascular system of a patient's body-are very likely to be imaged in a plurality of time-sequential partial images, and thus a high degree of similarity
  • the similarity of the temporally successive partial images is thus essentially determined by the movement of the objects imaged therein, in that the temporally adjacent partial images are generally more similar the less the objects imaged therein move between the acquisition times of the partial images relative to the image section.
  • a three-dimensional object in a three-dimensional volume data set becomes a plurality spatially adjacent subpictures, in that each of these subpictures contains only one profile, ie a sectional view, of this object.
  • This profile is also displayed in the different spatially adjacent partial images usually at different positions and possibly with different shape. This profile change can be interpreted and processed like a movement in the sequence of spatially successive partial images.
  • Motion estimation technique on the compression of still medical volume data sets.
  • a "motion estimation” is applied between two spatially adjacent sub-images in order to improve the correlation between these sub-images, although such a volume data record in fact contains no motion information.
  • the input information required by the motion estimation algorithm may be provided by a three-dimensional segmentation algorithm.
  • segmentation algorithms are common in medical imaging and serve to recognize three-dimensional image structures in volume data and to record them as so-called image segments.
  • image structure an arrangement of contiguous pixels, which stand out from the surrounding pixels by a color or brightness contrast or a closed contour surface, is referred to as image structure.
  • image structures are formed in particular by the image of recorded body structures, eg organs, skeletal components, tissue, etc.
  • a data object that is the three-dimensional geometric shape of an associated image structure, is called an image segment and reproduces its geometric position within a spatial region imaged in the volume data over the layer boundaries of the individual partial images.
  • segmentation information generated by a segmentation algorithm reflects the shape and location of image structures in the volume covered by the volume data, this segmentation information can be taken as an input to a motion estimation algorithm.
  • An advantage of the method lies, in particular, in the fact that suitable segmentation algorithms and motion estimation algorithms per se are common in the field of image processing.
  • the segmentation information output by the segmentation algorithm comprises, in an expedient embodiment of the method, in particular for each partial image, the profile of the or each recognized image segment that intersects this partial image.
  • the profile is the sectional area of the image segment with the image plane of the partial image or information corresponding to this sectional area (for example the outline of this sectional area).
  • the profiles of spatially adjacent partial images determined by the segmentation algorithm are used here as the input variable of the motion estimation algorithm.
  • the motion algorithm is optimally oriented in such a way that, in addition to or as an alternative to a positional difference of the profiles compared, it recognizes a difference in orientation and / or a size difference of the profiles.
  • the applied segmentation algorithm can basically be selected on a voxel-oriented, an edge-oriented and / or a modular or texture-based segmentation method.
  • a voxel-oriented segmentation algorithm makes a decision for each individual pixel as to whether or not it belongs to a specific image segment. In this case, in particular a threshold value comparison of the color or brightness value of the pixel is used as the decision criterion.
  • An edge-oriented segmentation algorithm usually uses so-called edge filters to capture so-called edges and thus image segment boundaries in the volume data.
  • Model-based segmentation methods are based on one or more stored models of searched image objects. In this case, it is decided in accordance with the agreement with the model or one of the models whether an image structure is detected as an image segment.
  • the stored models can specify the image segments to be searched, in particular based on a shape specification, size specification and / or texture specification. In the latter case one also speaks of a texture-based segmentation.
  • Model- or texture-based segmentation is a form of pattern recognition in which expected image objects are defined and determined in the volume data.
  • model-based segmentation is preferred.
  • the models stored in this context are especially adapted to the recognition of body structures such as organs, skeletal components, etc.
  • the motion estimation according to the invention is carried out not only to a locally adjacent field, but also to a temporally adjacent field. This leads to a multi-dimensional motion estimation. Even with this "real”, ie temporal motion estimation, only the temporally preceding subpicture (P frames) or such probably the temporally preceding as well as the temporally subsequent field (B-frames) are taken into account.
  • P frames temporally preceding subpicture
  • B-frames temporally subsequent field
  • the segmentation algorithm can be applied to temporally adjacent volume acquisitions in a method step preceding the motion estimation, the segmentation information resulting from this being used as input variable for the motion estimation algorithm.
  • the motion estimation succeeds in adapting the method to four-dimensional volume data which is particularly spatial / temporal in structure compared to conventional video images or conventional three-dimensional volume data in terms of your compression effect.
  • This approach is based on the insight that within the four-dimensional volume data each two-dimensional volume data
  • This increases the probability of finding particularly similar sub-fields or areas or blocks within these sub-images, whereby a better compression rate is achieved or - at one lossy compression - the number and image distortion effect of compression artifacts is reduced.
  • This "serpent line” can, of course, also be transferred to a purely spatial, purely temporal or “diagonal” spatial / temporal straight line in individual cases.
  • the "movement" of the image information determined by motion estimation namely both the only apparent movement which is obtained from the comparison of spatially adjacent partial images and the actual movement which may be obtained from the comparison of temporally adjacent partial images-is preferably by means of a particularly common one Motion compensation algorithm compensated.
  • a block-based algorithm is used for the motion estimation.
  • a partial image is subdivided into blocks before the motion estimation algorithm is used-for example, rectangular blocks of 8 ⁇ 8 or 16 ⁇ 16 pixels each.
  • the motion estimation algorithm assigns a block of reference of a (spatially or temporally) adjacent field to each block of the field in accordance with graphical matches, and determines a motion vector for each block representing the positional difference of the block in the frame of the fields relative to the reference block.
  • a lossless image transformation in particular a discrete cosine transformation (DCT) or a wavelet transformation, is preferably carried out.
  • DCT discrete cosine transformation
  • wavelet transformation a loss-free redundancy reduction
  • the compression method described above is advantageously designed in such a way that the compression takes place loss-free, that is to say that the original volume data record can be restored identically on the basis of a compressed volume data record in accordance with the method in the course of a decompression.
  • the process steps carried out in the course of the compression are advantageously carried out in the reverse order.
  • the entropy coding can also be preceded by a lossy quantization step in the course of which irrelevant image information, which is not or hardly detectable for human perception, is eliminated.
  • a system for the compression of four-dimensional volume data, the values being lum data in a sequence of two-dimensional partial images.
  • the system includes a computing unit configured to carry out the compression method described above.
  • the present invention may be implemented in the form of hardware, software or a combination of hardware and software. For this purpose, any type of system or any other device adapted to carry out the method according to the invention is suitable.
  • the present invention may also be incorporated into a computer program product that includes all the features that enable it to implement the computerized method described herein, and that is capable of performing this method after being loaded into a computer system.
  • the terms computer program means, computer program, and computer application means any term in any computer language, code, or notation of a set of instructions that enables a computer system to process data and thus perform a particular function.
  • the computer program agent, the computer program or the computer application is executable on the computer system either directly or after being converted into another language, code, notation or by displaying it in a different material form.
  • FIG. 1 shows a schematic illustration of a three-dimensional volume data record and a spatial area depicted therein
  • FIG. 2 shows a flowchart of a method for compressing the volume data set according to FIG. 7 and FIG.
  • FIG. 3 shows a representation according to FIG. 1 of a four-dimensional volume data record as well as the spatial area depicted therein;
  • 4 is a schematic representation of the correlation of image blocks between a sub-image and its adjacent B-frames according to the prior art;
  • FIG. 5 shows a schematic representation of the correlation of image blocks between a sub-image and its extended Q-frames in its environment;
  • FIG. 6 shows a further schematic representation of the three-dimensional volume data record and the spatial area depicted therein;
  • FIG. 7 shows a flowchart of a method for compressing the volume data set according to FIG. 6,
  • FIG. 8 shows a representation according to FIG. 6 of the four-dimensional volume data record and the spatial region depicted therein.
  • FIG. 1 initially shows schematically a spatial region V and a digital volume data set B which images them.
  • the space area V is a section of a three-dimensional space (here merely exemplary cuboid) defined by coordinate axes x, y and z.
  • the illustrated space area V contains a three-dimensional object O or a plurality of such objects.
  • the space area V is usually a body area of a patient, in which the object O is around a delimited body component of the patient, e.g. a blood vessel, an organ, a skeletal component, etc.
  • the volume data record B according to FIG. 1 is a three-dimensional volume data record which contains a still image of the space region V.
  • Several partial images T 1 in the example shown, even all partial images Ti) also contain a sectional image of the object O, which is referred to below as the xy profile of the object O.
  • Each sub-image Ti comprises a two-dimensional array of voxels (i.e., three-dimensional pixels), each of which includes digital brightness or color information in a manner known per se.
  • the image information of each partial image Ti is given by the absolute brightness or color values of the voxels, but in particular also by the local brightness or color distribution deposited in the voxels.
  • the object O Since the position of the xy profile of the object O in the space area V varies in the direction of the coordinate axis z, the object O appears in the different fields Ti at always different positions with respect to the image detail.
  • the shape of the xy profile of the object O also varies from partial image Ti to partial image Ti. If the partial images T 1 are viewed successively in the sequence of their z-coordinate in the manner of a film, the object O therefore appears in the image section of the partial images Ti to wander.
  • the geometric shape and position change of the xy-profile of the object O in the direction of the coordinate axis z is expressed in this consideration of the volume data set B as a movement of the object O in relation to the space region V.
  • This effect is used in the method for compressing the still volume data set B by applying a motion estimation algorithm to spatially adjacent fields Ti + i and Ti of the volume data set B.
  • a (arbitrary) partial image Ti + i is divided into blocks of 8 ⁇ 8 (or 16 ⁇ 16) pixels in a first method step 100.
  • a "motion estimation” is performed by assigning to each block of the partial picture Ti + i to be compressed (referred to as reference block hereinafter) an associated reference block of a preceding partial picture Ti (likewise entered by way of example in FIG the reference block has the greatest graphic match.
  • This assignment according to graphical similarity is made according to a conventional motion estimation algorithm, eg one of the algorithms mentioned in WO 98/43434 A1.
  • a matrix of motion vectors is generated which determines the positional difference of each (reference) block of the sub-image Ti + i to be compressed to the corresponding reference block of the sub-image Ti within the image section, and thus within the axes spanned by the coordinate axes x and y Plays level.
  • the thus determined motion vectors contain information about the shape and position change of the object O in the comparison of the sub-images T i + i and T if thus information about an apparent movement of the object O.
  • the pixels of the partial image Ti are rearranged in a following method step 300.
  • the result of this rearrangement is a "motion compensated" partial image Ti, in which the influence of the apparent movement of the object O in the comparison of the partial images T i + i and Ti is eliminated or at least reduced.
  • the position and shape of the object O in the sub-image Ti is thus due to the motion compensation - in simple terms - to the position and
  • a difference image is then generated by means of a divisional subtraction of the partial image T i + 1 and of the motion-compensated partial image Ti.
  • An image transformation 500 in the form of a discrete cosine transformation (DCT) is performed on this difference image in a following method step.
  • a wavelet transformation can also be carried out.
  • the entropy coding is a per se known method for lossless data compression, which assigns a different length sequence of bits to each pixel of an image data set. Since a certain minimum number of bits is necessary to distinguish all colors or brightness values from each other, the number of bits that must be assigned to a pixel can not be infinitely small. The minimum number of bits that should be assigned to a pixel with a given probability is determined by the entropy.
  • Entropy in the information technology sense is a measure of the average information content of a sign that is in a system or an information sequence.
  • a per se known entropy coding algorithm in particular a Huffman coding
  • a Huffman coding is applied to the transformed difference picture.
  • an arithmetic entropy coding can also be used.
  • Combined method step 700 stored and / or transmitted via a data channel.
  • the effect of the method described above in terms of compression is based, in particular, on the fact that the difference image generated in method step 400 contains only "new" image information in comparison with each partial image Ti + i with the respectively preceding partial image Ti.
  • any image information which is contained in successive partial images Ti and Ti + i unchanged or merely shifted in position is eliminated in the difference formation in method step 400.
  • the degree of redundancy of the difference image is increased in comparison to the original partial images Ti, which in turn enables an improved efficiency of the subsequent compression steps.
  • the method expands the field of application of motion-compensating decorrelation methods to non-moving volume data sets.
  • the position and shape of an object in the space is used in the decorrelation.
  • the correlation of the partial image Ti + i with both spatially adjacent partial images Ti and Ti + 2 can also be taken into account in the course of the motion estimation.
  • the block which is closest to the reference block is always determined from two adjacent partial images Ti and Ti + 2 and selected as the reference block.
  • the motion-compensated partial image is in this case composed of the respectively selected reference blocks of the partial images Ti and Ti +2 .
  • this is aligned to the compression of a four-dimensional volume data set B ', as shown schematically in FIG.
  • a volume data set B * contains, in addition to a three-dimensional spatial image information of the imaged spatial area V, a development of this image information with the time t, ie thus information about an actual movement of the objects O contained in the spatial area V and possibly further objects.
  • FIG. 3 shows correspondingly (in the figure on the left) a first representation of the spatial region V at an earlier time t j and (in the figure on the right) a second representation of the same spatial region V at a later time t j + 1 , in which the object O has moved relative to the time t j (the original position of the object at time t j is indicated by dashed lines here for comparison).
  • the volume data set B ⁇ thus contains such a set of spatially different partial images Ti j and Ti, j + 1 , respectively, for each time tj, in particular also for the earlier time t j as well as for the later time t j + i each corresponds to a fixed volume data set B according to FIG.
  • the original position of the object O at the earlier time t j is shown in dashed lines.
  • both alternatively to the field T i + i, j + 1 temporally adjacent partial images T i + 1 / j and Ti + 1, J + 2 (the latter not explicitly shown) and / or both to the subimage Ti +1 , j + i spatially adjacent subpictures Ti, j + 1 and Ti +2 , j + i are taken into account in the motion estimation. If all temporally and spatially adjacent partial images T i + i, j and Ti + i, j + 2 as well as Ti, j + i and Ti + 2 , j + i are taken into account, then the motion-compensated partial image results from four dependent images (so-called Q-). Frames).
  • the movement of the object O in the spatial region V is also used for decorrelation.
  • FIG. 4 serves to illustrate the video compression according to the prior art.
  • the FIGURE shows a partial image T i + i, its adjacent B-frames Ti and Ti + 2 and correlated image blocks Si-S 5 .
  • the sub-images Ti-Ti +2 may be, for example, successive images of a video sequence. Based on their respective pairwise similarity, three image blocks in the subpicture T i + i each having an image block Si, S 2 and S 3 in the preceding B frame Ti and two further image blocks in the subimage Ti +1 respectively with an image block S 4 and S 5 in the following B-frame T 1 + 2 correlated.
  • the image block Si has moved from the first B frame to the partial image Ti +1 slightly to the upper left, S 2 is approximately unchanged and S 3 has moved slightly to the upper left.
  • the image block S 4 has moved significantly from the partial image Ti to the second B-frame to the upper left and S 5 slightly to the upper left.
  • the remaining picture blocks in the sub-picture Ti +1 can be correlated in a similar way with picture blocks in one of the two B-frames.
  • FIG. 5 shows a partial image T i + 1 , j + i with its spatial / temporal environment consisting of 8 further sub-images Ti, j , T 1 + 1 , j , T 1 + 2 , j , T 1 , j + i, T 1 +2 , j + i, Ti, j + 27 T i + i, j + 2 and T 1 + 2 , j + 2 .
  • the time axis t runs from left to right, the spatial axis z from bottom to top.
  • the sub-images with the second index j, j + 1 and j + 1 represent slice images by the volume index.
  • the sub-images with the first index i, i + 1 and i + 2 are sectional images in the section plane z ⁇ , Zi Zi +1 or +2 represents ,
  • Ti + i, j + i correlates with corresponding image blocks S 3 from the B frame T 1 + 1 , j and S 5 from the B frame Ti + 1 , j + 2 .
  • the image block S 3 moves slightly to the upper left in the period between t j and t j + i
  • S 5 moves slightly to the right in the period between t j + i and t j + 2 .
  • the image block S 4 from the Q-frame T ⁇ j +1 is correlated with an image block in the sub-image Ti + i, j + i. This image block is shifted from the layer plane z ⁇ to Zi +1 approximately down to the right.
  • the image block S 2 from the Q-frame Ti + 2 , j + 1 is correlated with an image block in the sub-image T 1 + 1 , j + 1 . This image block is unchanged from the layer plane z i + 1 to the layer plane Zi + 2 in its position.
  • all partial images T 1 , j , T i + 1 , -j , T i + 2 , j , Ti, j + i located in the vicinity of the partial image T i + i, j + i are also obtained , T 1 + 2 , j + i, T 1 , j + 2 , T i + i, j + 2 and T 1 + 2 , j + 2 - ie the so-called extended Q-frames.
  • the image block S 1 from the extended Q-frame Ti +1 , j has been correlated with an image block in the sub-image T 1 + 1 , j + 1 . This image block has moved to the top left in the period between ti and ti +1 and from the layer plane Zi + 2 to the layer plane z i + 1 .
  • This method is applied analogously to all partial images Ti + 1 , j + 1 of the four-dimensional volume data.
  • the image block S 1 in the sub-picture T 1 + 2 , j can in turn be compared with an image block S 1 'in an extended Q-frame T 1 + 3 ⁇ -1 of the
  • Partial image Ti +2, j are correlated. In other words, i passes through the number of all layer planes Z 1 and j, the number of all times t j .
  • FIG. 6 again schematically shows the spatial region V as well as the digital volume data set B imaged thereon according to FIG. 1.
  • the number assigned to the counting index i corresponds here to the number of the associated partial image Ti, the partial image Ti thus contains the profile Pi, etc.
  • the profile Pi of the object O in the different sub-images Ti appears at always different positions with respect to the image detail.
  • the shape of the profile Pi also varies from partial image Ti to partial image Ti. If the partial images Ti are viewed successively in the sequence of their z-coordinate in the manner of a film, the object O therefore appears to migrate in the image section of the partial images Ti.
  • the geometric shape and position change of the profile Pi in the direction of the coordinate axis z is expressed in this consideration of the volume data set B as a movement of the object O with respect to the space area V.
  • This effect is used in the method for compressing the still volume data set B by applying a motion estimation algorithm to spatially adjacent fields Ti + i and Ti of the volume data set B.
  • a three-dimensional segmentation algorithm is applied to the volume data set B in a first method step 800.
  • the segmentation algorithm is designed to detect the image structures of the volume data set B corresponding to such a body structure as a three-dimensional image segment by comparison with stored models of body structures.
  • the deposited models include information on the shape, and optionally also on the size and / or texture of the image structures to be recognized.
  • the segmentation algorithm is designed to recognize the object O in the volume data as an image segment.
  • the segmentation algorithm supplies the outline of the associated profile Pi as segmentation information for each of the partial images Ti.
  • the segmentation algorithm provides additional information, the assignment allows the profiles to the associated image segment.
  • a "motion estimation” is performed by means of a motion estimation algorithm, in which the profiles Pj + i (hereinafter referred to as reference profile) and Pi (hereinafter referred to as reference profile) of spatially adjacent fields T 1 and T i + i associated with a common image segment are compared their position within the image section of the partial images Ti and Ti + i, ie, with respect to their position within the xy plane, are compared with each other.
  • a motion vector is generated, which reproduces the positional difference of the reference profile Pi + i relative to the reference profile Pi, which therefore also contains information about an apparent movement of the object O.
  • the motion vector additionally contains information about an orientation difference and / or a size difference of the profiles P 1 and P i + i.
  • the motion estimation algorithm determines this information, for example, by attempting to maximize the overlap with the profile Pi + i within the xy plane, not only by displacement but also by rotation or change in the size of the profile P 1 .
  • the reference profile P 1 corresponding to rearranged pixels of the partial image Ti is a "motion-compensated" partial image Ti, in which the influence of the apparent movement of the object O in the comparison of the partial images T i + 1 and Ti is eliminated or at least reduced.
  • the position and shape of the object O in the partial image Ti is therefore at least essentially attributed to the position and shape occupied by the object O in the partial image T i + i by the motion compensation.
  • a difference image is then generated by means of a divisional subtraction of the partial image T i + 1 and of the motion-compensated partial image Ti.
  • An image transformation 1200 in the form of a discrete cosine transformation (DCT) is performed on this difference image in a following method step.
  • DCT discrete cosine transformation
  • a wavelet transformation can also be carried out.
  • a lossless entropy coding 1300 is applied to the transformed difference image.
  • the entropy coding is a per se known method for lossless data compression, which assigns a different length sequence of bits to each pixel of an image data set. Since a certain minimum number of bits is necessary to distinguish all colors or brightness values from each other, the number of bits that must be assigned to a pixel can not be infinitely small. The minimum number of bits that should be assigned to a pixel with a given probability is determined by the entropy.
  • Entropy in the information technology sense is a measure of the average information content of a sign that is in a system or an information sequence.
  • method step 1300 in particular a per se known entropy coding algorithm, in particular a Huffman coding applied to the transformed difference image.
  • a per se known entropy coding algorithm in particular a Huffman coding applied to the transformed difference image.
  • an arithmetic entropy coding can also be used.
  • the method steps 800 to 1300 described above are repeated for each partial image Ti of the volume data set B.
  • the video-compressed image data record resulting from the application of the method steps is stored in a concluding method step 1400 and / or transmitted via a data channel.
  • the correlation of the partial image Ti + i with both spatially adjacent partial images Ti and T 1 + 2 can also be taken into account in the course of the motion estimation.
  • the profile Pi or Pi +2 which is closest to the reference profile Pi + i is determined from the two adjacent partial images Ti and Ti +2 and selected as the reference profile, in accordance with the smallest possible error measure.
  • the motion-compensated partial image is in this case (in the case of several recognized segments) composed of the respectively selected reference profiles of both partial images T 1 and T i + 2 .
  • this is aligned to the compression of a four-dimensional volume data set B ', as shown schematically in FIG.
  • FIG. 8 shows correspondingly (in the figure on the left) a first representation of the spatial region V at an earlier time tj and (in the figure on the right) a second representation of the same spatial region V at a later time tj + i , in which the object O has moved relative to the time tj (the original position of the object at time t j is indicated by dashed lines here for comparison).
  • the time j + i t corresponding subpictures Ti 1y + 1 the receiving volume Aj the original position of the object O at the previous time t i + j in turn registered in phantom.
  • the method described in conjunction with FIG. 7 is modified such that in the course of method step 800 the segmentation algorithm is applied separately to each volume acquisition A j , and thus the temporal evolution of the or each recognized image segment is detected. Furthermore, in the course of method step 900, the motion estimation is not only applied to the spatially adjacent sub-images Ti, j + i and Ti + i, j + i, but additionally (in a conventional manner) to the temporally adjacent sub-images T i + li j + i and T i + lij is applied. In turn, these go through the segmentation algorithm in the temporally adjacent
  • both alternatively to the field Ti + 1, j + i temporally adjacent partial images Ti + 1, j and Ti + i, j +2 (the latter not explicitly shown) and / or both to the field Ti + i, j + i spatially adjacent sub-images Ti 1 j +1 and T i + 2 , j + i are considered in the motion estimation.
  • the method variants described above are preferably executed by a corresponding computer program on a computer system.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Es wird ein effektives Verfahren zur Kompression von vierdi- mensionalen Volumendaten (B') angegeben, die als Abfolge zweidimensionaler Teilbilder (Ti+1,,j+1) vorliegen. Verfahrensgemäß wird ein Bewegungsschätzungsalgorithmus auf räumlich benachbarte Teilbilder (Ti+j, Ti+1,,j/ Ti+2, j, Ti,,j+1, Ti+2,,j+i, Ti, j+2, Ti+1, J+2, Ti+2, j+2) angewendet. Gemäß einem Ausführungsbeispiel werden bei der Anwendung des Bewegungsschätzungsalgorithmus auf ein bestimmtes Teilbild (Ti+i,j+i) jeweils benachbarte Teilbilder (Ti, j, Ti+1, j, Ti+2, j, Ti,j+1, Ti+2, j+1, Ti,j+2, Ti+1, j+2, Ti+2, j+2) aus der gesamten räumlich/zeitlichen Umgebung des be- stimmten Teilbilds (Tij) berücksichtigt.

Description

Beschreibung
Verfahren und System zur Kompression von Volumendaten
Die Erfindung betrifft ein Verfahren und ein System zur Kompression von vierdimensionalen Volumendaten, die in einer Abfolge von zweidimensionalen Teilbildern vorliegen.
Digitalisierte Bilder werden in nahezu allen technischen Be- reichen eingesetzt, wobei an die Auflösung und Kompression der Bilddaten höchst unterschiedliche Anforderung gestellt werden. Müssen die digitalen Bilder hohe Ansprüche erfüllen, sind dafür sehr große Datenmengen im Bereich von mehreren Megabytes pro Bild notwendig. Für eine Speicherung oder Über- tragung dieser Bilder ist eine effiziente Datenkompression daher unabdingbar .
Die Anforderungen an die visuelle Qualität von digitalen Bildern sind höchst unterschiedlich. Für eine Übertragung der Bilder über das Internet steht zumeist eine effiziente Übertragung der Bilddaten im Vordergrund, die sich nur durch eine starke verlustbehaftete Kompression erzielen lässt, wodurch die resultierende Bildqualität typischerweise eher gering ist. Gängige Kompressionsverfahren für Ton, Bild und Film sind in der Regel verlustbehaftet, da sonst die oftmals enormen Datenmengen praktisch nicht zu handhaben wären.
Gängige Methoden der Kompression beruhen auf einer Redundanz- reduktion, die als verlustfreier, reversibler Prozess auf Grundlage der Statistik des EingangsSignals durchgeführt wird. Hierbei werden ausschließlich die Signalanteile der Bilddaten unterdrückt, die keine Information enthalten und die auf der Empfangsseite wieder zugesetzt werden können. Die Redundanzreduktion berücksichtigt Eigenschaften der Quelle mit dem Ziel, die zu übertragende Datenmenge zu reduzieren.
Hierzu werden statistische Eigenschaften des Bildsignals, zum Beispiel Korrelation zwischen zeitlich benachbarten Bildpunk- ten, ausgenutzt, um einen möglichst kompakten Code zu erzeugen.
In der Regel erfolgt im Rahmen der Kompression von Bilddaten- sätzen anschließend eine dekorrelierende Bildtransformation, beispielsweise in Form einer diskreten Kosinustransformation.
Zumeist erfolgt anschließend im Rahmen der Kompression eine so genannte Irrelevanzreduktion, bei der die Eigenheiten der audio-visuellen Wahrnehmung des menschlichen Auges bzw. des Ohres genutzt werden, beispielsweise eine hybride Codierung unter Berücksichtigung der psycho-optischen und psycho- akustischen Wahrnehmung wie bei dem MPEG-Standard. Dieser Verfahrensschritt wird auch als Quantisierung bezeichnet und ist mit einem Verlust an Bildqualität verbunden.
Den abschließenden Verfahrensschritt eines Kompressionsverfahrens bildet üblicherweise eine sogenannte Entropiekodierung.
Aus WO 98/43434 sind ein Verfahren und eine Anordnung zur rechnergestützten Bewegungsschätzung eines Elements eines codierenden Bildes bekannt. In einem ersten Schritt einer Bewegungsschätzung wird eine Häufigkeitsverteilung von Bewegungs- vektoren und/oder der Komponenten von Bewegungsvektoren eines
Bildes ermittelt. Abhängig von der Häufigkeitsverteilung wird mindestens eine Suchposition in einem Referenzbild bestimmt. An der jeweiligen Suchposition wird für ein Element eines zu codierenden Bildes ein Referenzbildelement bestimmt, für die ein Fehlermaß ermittelt wird. Mit dem Fehlermaß wird die Ähnlichkeit zwischen dem Element des zu codierenden Bildes und dem Referenzbildelement beschrieben.
WO 98/051085 Al offenbart ein Verfahren zur Codierung und De- Codierung eines digitalisierten Bildes. Bei dem Verfahren gemäß der dortigen Erfindung werden die Bildpunkte zu Bildblöcken gruppiert. Für mindestens einen Teil eines Bildblocks wird ein Gleichanteil der Codierungsinformation der in dem mindestens einen Teil des Bildblocks enthaltenen Bildpunkte ermittelt und der Gleichanteil wird von der Codierungsinformation jedes Bildpunktes des mindestens einen Teil des Bildblocks abgezogen. Die um den Gleichanteil reduzierte Codierungsinformation der Bildpunkte des Bildblocks wird schließlich einer Transformationscodierung unterzogen wird.
Hochauflösende medizinische Bildaufnahmegeräte, wie beispielsweise ein Computertomograph, erzeugen zum einen dreidi- mensionale Volumendatensätze, die eine unbewegte dreidimensionale Bildinformation enthalten. Zum anderen kann mit modernen medizinischen Bildaufnahmegeräten häufig auch eine zeitliche Sequenz solcher Volumendatensätze aufgenommen werden. Hierdurch entsteht ein vierdimensionaler, bewegter volumetri- scher Bilddatensatz.
Sowohl dreidimensionale (unbewegte) Volumendatensätze als auch vierdimensionale (bewegte) Volumendatensätze liegen üblicherweise als Abfolge von zweidimensionalen Teilbildern bzw. Schichtbildern vor.
Dreidimensionale (unbewegte) Volumendatensätze liegen üblicherweise als Abfolge zweidimensionaler Teilbilder (bzw. Schichtbilder) vor, die die Struktur räumlich benachbarter Schichten eines aufgenommenen Raumbereichs zu im Wesentlichen einem gemeinsamen Aufnahmezeitpunkt wiedergeben. Als Aufnahmezeitpunkt wird hierbei auch ein Aufnähmezeiträum bezeichnet, der kurz gegen typische Zeitskalen einer Bewegung der Raumstruktur ist, so dass diese Bewegung innerhalb des Auf- nahmezeitraums vernachlässigbar ist. Als gemeinsamer Aufnahmezeitpunkt werden ferner auch verschiedene Aufnähmezeitpunk- te verstanden, deren zeitlicher Abstand mit einer periodischen Strukturbewegung (z.B. einer herzschlagbedingten Strukturbewegung) synchron ist. Vierdimensionale (bewegte) VoIu- mendatensätze bestehen üblicherweise aus einer Abfolge dreidimensionaler Volumenaufnahmen zu aufeinanderfolgenden Aufnahmezeitpunkten, deren jede wiederum aus einer Abfolge räumlich benachbarter zweidimensionaler Teilbilder besteht. Die Datenmenge eines derartigen Bilddatensatzes ist sehr hoch und muss zur weiteren Verarbeitung, Übertragung oder Archivierung komprimiert werden. Diese Kompression sollte aus me- dizinischen und juristischen Gründen mathematisch verlustfrei sein. Da gängige Verlustfreie Kompressionsverfahren meist nur auf zweidimensionale Bilddatensätze anwendbar sind, werden die zweidimensionalen Teilbilder medizinischer Volumendaten bisher häufig unabhängig voneinander komprimiert und weiter- verarbeitet. Verfahrensbedingt bleiben bei dieser Methode die Abhängigkeiten zwischen den einzelnen Teilbildern bei der Kompression unberücksichtigt. Hierdurch wird für medizinische Bilddaten in der Regel ein nur vergleichsweise geringer Kompressionsgrad erzielt.
Aus dem Artikel „Wavelet based 3D compression with fast ran- dom access for very large volume data" von F.F. Rodler (IEEE 1999, Proceedings of the Seventh Pacific Conference on Computer Graphics and Applications; Seiten 108-117; ISBN: 0- 7695-0293-8) ist bekannt dreidimensionale Bilddaten durch die Anwendung von Methoden der Videokompression zu komprimieren, wobei die auf dem Gebiet der Videokompression bekannte „Bewegungsschätzung" bei zeitlich aufeinanderfolgenden Videobildern auf eine räumliche Abfolge von zweidimensionalen Schnittbildern aus dem dreidimensionalen Bilddaten übertragen wird.
Weitere Details zu bekannten Videokompressionsverfahren sind aus dem Artikel „Overwies of the H.264/AVC Video Coding Stan- dard" von Wiegand et al . (IEEE, JuIy 2003, Transactions of Circuit and Systems for Video Technology, Vol. 13, No. 7, Seiten 560-576) bekannt.
Der Erfindung liegt die Aufgabe zugrunde, ein einfach reali- siebares und effektives Verfahren zur Kompression von vierdi- mensionalen Volumendaten anzugeben, das insbesondere auch für die Anwendung auf medizinische Volumendatensätze tauglich ist. Der Erfindung liegt weiterhin die Aufgabe zugrunde, ein geeignetes System zur Durchführung des Verfahrens anzugeben.
Diese Aufgabe wird erfindungsgemäß gelöst durch die Merkmale des Anspruchs 1. Danach ist vorgesehen, einen Bewegungsschät- zungsalgorithmus auf "räumlich und zeitlich benachbarte Teil- bilder" eines Volumendatensatzes anzuwenden, d.h. auf Teil- bilder des Volumendatensatzes, deren Bildinformation benachbarten Raumabschnitten eines aufgenommenen dreidimensionalen und zeitlich veränderlichen Raumbereichs entspricht.
Die Anwendung des Bewegungsschätzungsalgorithmus ist ein vorgeschalteter Bestandteil einer dekorrelierenden Bildtransformation, die einen wesentlichen Verfahrensabschnitt im Rahmen des Kompressionsverfahrens darstellt. Mittels Methoden der dekorrelierenden Bildtransformation wird allgemein die Erkennung und Reduktion von Abhängigkeiten innerhalb eines Bildes oder zwischen unterschiedlichen Bildern mit signalverarbeitenden, mathematischen Methoden angestrebt. Die Reduktion der Abhängigkeiten verändert die Auftrittswahrscheinlichkeiten der zur Darstellung eines Bildes benutzten Signale derart, dass mit Hilfe nachfolgender Kompressionsschritte (Quantisierung und/oder Entropiekodierung) eine Reduktion der zu speichernden Datenmenge möglich ist. Beispiele für derartige de- korrelierende Bildtransformationen sind die diskrete Kosinustransformation (DCT) oder die diskrete Wavelet-Transformation (DWT) . Die diskrete Kosinustransformation wird üblicherweise bei Videokodierverfahren wie MPEG oder dem digitalem Fernsehen als dekorrelierende Transformation angewendet. Die dis- krete WaveIet-Transformation findet im neuen Bildkompressionsstandard JPEG2000 Anwendung.
Um die dekorrelierenden Eigenschaften der Transformation bei bewegten Aufnahmen zu verbessern, wird die dekorrelierende Transformation durch eine Bewegungsschätzung ergänzt. Die Bewegungsschätzung nutzt die graphische Ähnlichkeiten zwischen benachbarten, zweidimensionalen Bildern (Interframe) aus, um die dekorrelierenden Eigenschaften der Transformation im Ver- gleich zu einer Dekorrelation innerhalb eines zweidimensionalen Einzelbildes (Intraframe) zu verbessern. Der Begriff "Bewegungsschätzung" rührt dabei daher, dass derartige Algorithmen herkömmlicherweise auf "zeitlich benachbarte Teilbilder" einer bewegten Bildsequenz angewendet werden, d.h. auf solche Teilbilder, die aufeinanderfolgenden Aufnahmezeitpunkten entsprechen. Aus dem Vergleich solcher Teilbilder wird dabei eine zeitliche Änderung der darin enthaltenen Bildinformation, mithin eine Bewegung dieser Bildinformation bezogen. Eine derartige Interframe-Kodierung kann sowohl sich auf das zeitlich vorhergehende Bild beziehen (Prädiktiv, P-Frames) als auch auf das zeitlich vorhergehende und nachfolgende Bild beziehen (Bidirektional, B-Frames) .
Es wird von der Erkenntnisgebrauch gemacht, dass eine dreidimensionale Bildinformation die Ähnlichkeit räumlich benachbarter Teilbilder eines Volumendatensatzes in ähnlicher Weise bestimmt wie eine sich bewegende Bildinformation die Ähnlichkeit zeitlich benachbarter Teilbilder.
So werden in letzterem Fall aufgenommene Objekte - in der medizinischen Anwendung beispielweise ein Organ oder ein Gefäßsystem eines Patientenkörpers - mit hoher Wahrscheinlichkeit in einer Mehrzahl zeitlich aufeinanderfolgender Teilbilder abgebildet sein und hierdurch eine hohe Ähnlichkeit dieser
Bilder sicherstellen. Jedoch werden sich bewegende Objekte in den zeitlich aufeinanderfolgenden Teilbildern stets an unterschiedlicher Position und eventuell auch in unterschiedlicher Form auftauchen. Die Ähnlichkeit der zeitlich aufeinanderfol- genden Teilbilder wird somit im Wesentlichen durch die Bewegung der darin abgebildeten Objekte bestimmt, indem zeitlich benachbarte Teilbilder in der Regel um so ähnlicher sind, je weniger sich die darin abgebildeten Objekte zwischen den Aufnahmezeitpunkten der Teilbilder gegenüber dem Bildausschnitt bewegen.
In ähnlicher Weise wird ein dreidimensionales Objekt bei einem dreidimensionalen Volumendatensatz in einer Mehrzahl räumlich benachbarter Teilbilder abgebildet, indem jedes dieser Teilbilder lediglich ein Profil, d.h. eine Schnittansicht, dieses Gegenstands enthält. Auch dieses Profil wird in den verschiedenen räumlich benachbarten Teilbildern in der Regel an unterschiedlicher Position und gegebenenfalls mit verschiedener Form abgebildet. Diese Profiländerung kann in der Abfolge räumlich aufeinanderfolgender Teilbilder wie eine Bewegung interpretiert und verarbeitet werden.
Dieses Verfahren erweitert somit den Anwendungsbereich der
Technik der Bewegungsschätzung auf die Kompression unbewegter medizinischer Volumendatensätze. Dabei wird im Fall der unbewegten Volumendatensätze eine "Bewegungsschätzung" zwischen zwei räumlich nebeneinander liegenden Teilbildern angewendet, um die Korrelation zwischen diesen Teilbildern zu verbessern, obwohl ein solcher Volumendatensatz de facto keine Bewegungs- information enthält.
Hierzu wird analog zum Zeitverfahren wahlweise die Korrelati- on nur eines räumlich benachbarten Teilbildes (P-Frames) oder beider räumlich benachbarter Teilbilder (B-Frames) berücksichtigt .
Weiterhin kann die von dem Bewegungsschätzungsalgorithmus be- nötigte Eingangsinformation von einem dreidimensionalen Segmentierungsalgorithmus zur Verfügung gestellt werden. Solche Segmentierungsalgorithmen sind in der medizinischen Bildge- bung gängig und dienen dazu, dreidimensionale Bildstrukturen in Volumendaten zu erkennen und als sogenannte Bildsegmente zu erfassen. Als Bildstruktur wird hierbei eine Anordnung zusammenhängender Bildpunkte bezeichnet, die sich durch einen Färb- oder Helligkeitskontrast oder eine geschlossene Umrissfläche von den umgebenden Bildpunkten abheben. In der medizinischen Anwendung werden solche Bildstrukturen insbesondere durch das Abbild aufgenommener Körperstrukturen, z.B. Organe, Skelettbestandteile, Gewebe, etc. gebildet. Als Bildsegment wird andererseits ein Datenobjekt bezeichnet, dass die dreidimensional-geometrische Form einer zugehörigen Bildstruktur und ihre geometrische Lage innerhalb eines in den Volumendaten abgebildeten Raumbereichs über die Schichtgrenzen der einzelnen Teilbilder hinweg wiedergibt.
Da die von einem Segmentierungsalgorithmus erzeugte Segmentierungsinformation die Form und Lage von Bildstrukturen in dem von den Volumendaten abgedeckten Raum wiedergibt, kann diese Segmentierungsinformation erkanntermaßen als Eingangsgröße für einen Bewegungsschätzungsalgorithmus herangezogen werden.
Ein Vorteil des Verfahrens liegt insbesondere darin, dass geeignete Segmentierungsalgorithmen und Bewegungsschätzungsal- gorithmen an sich in dem Bereich der Bildbearbeitung gängig sind. Die Möglichkeit, bekannte Algorithmen im Zuge des Verfahrens zweckentfremdet für die Komprimierung von Volumendaten einsetzen zu können, vereinfacht dabei wesentlich die Realisierung des Verfahrens.
Die von dem Segmentierungsalgorithmus ausgegebene Segmentierungsinformation umfasst in zweckmäßiger Ausführung des Verfahrens insbesondere für jedes Teilbild das Profil des oder jeden erkannten Bildsegments, das dieses Teilbild schneidet. Als Profil wird hierbei die Schnittfläche des Bildsegments mit der Bildebene des Teilbilds oder eine dieser Schnittfläche entsprechende Information (z.B. die Umrisslinie dieser Schnittfläche) bezeichnet. Die von dem Segmentierungsalgorithmus bestimmten Profile räumlich benachbarter Teilbilder werden hierbei als Eingangsgröße des Bewegungsschätzungsalgo- rithmus herangezogen.
Der Bewegungsalgorithmus ist optimal derart ausgerichtet, dass er zusätzlich oder alternativ zu einem Lageunterschied der verglichenen Profile einen Orientierungsunterschied und/oder einen Größenunterschied der Profile erkennt.
Der angewendete Segmentierungsalgorithmus kann grundsätzlich wahlweise auf einem voxelorientierten, einem kantenorientier- ten und/oder einem modeil- bzw. texturbasierten Segmentierungsverfahren beruhen. Ein voxelorientierter Segmentierungs- algorithmus trifft für jeden einzelnen Bildpunkt eine Entscheidung, ob dieser zu einem bestimmten Bildsegment gehört oder nicht. Als Entscheidungskriterium wird hierbei insbesondere ein Schwellwertvergleich des Färb- oder Helligkeitswerts des Bildpunktes herangezogen.
Ein kantenorientierter Segmentierungsalgorithmus benutzt meist sogenannte Kantenfilter, um in den Volumendaten sogenannte Kanten und damit Bildsegmentgrenzen zu erfassen.
Bei modellbasierten Segmentierungsverfahren werden ein oder mehrere hinterlegte Modelle gesuchter Bildobjekte zugrunde gelegt. Hierbei wird nach Maßgabe der Übereinstimmung mit dem Modell bzw. einem der Modelle entschieden, ob eine Bildstruktur als Bildsegment erfasst wird. Die hinterlegten Modelle können die zu suchenden Bildsegmente insbesondere anhand einer Formvorgabe, Größenvorgabe und/oder einer Texturvorgabe spezifizieren. In letzterem Fall spricht man auch von einer texturbasierten Segmentierung. Bei der modell- bzw. texturbasierten Segmentierung handelt sich um eine Form der Mustererkennung, bei der zu erwartende Bildobjekte definiert und in den Volumendaten ermittelt werden.
Unter den vorstehend beschriebenen Segmentierungsverfahren wird eine modellbasierte Segmentierung bevorzugt eingesetzt. Die in diesem Zusammenhang hinterlegten Modelle sind dabei insbesondere auf die Erkennung von Körperstrukturen wie Orga- nen, Skelettbestandteilen, etc. abgestimmt.
In Anwendung auf vierdimensionale, d.h. bewegte Volumendatensätze wird die Bewegungsschätzung erfindungsgemäß nicht nur zu einem örtlich benachbarten Teilbild, sondern auch zu einem zeitlich benachbarten Teilbild durchgeführt. Dies führt zu einer mehrdimensionalen BewegungsSchätzung. Auch bei dieser "echten", d.h. zeitlichen Bewegungsschätzung können wahlweise nur das zeitlich vorausgehende Teilbild (P-Frames) oder so- wohl das zeitlich vorausgehende als auch das zeitlich nachfolgende Teilbild (B-Frames) berücksichtigt werden.
Werden alle benachbarten Teilbilder, sowohl zeitlich als auch räumlich berücksichtigt, so erhält man vier abhängige Teilbilder (im Folgenden als Q-Frames bezeichnet) bei der Bewegungsschätzung und Kodierung.
Der Segmentierungsalgorithmus kann hierbei in einem der Bewe- gungsschätzung vorausgehenden Verfahrensschritt auf zeitlich benachbarte Volumenaufnahmen angewendet werden, wobei die hieraus resultierende Segmentierungsinformation als Eingangsgröße für den Bewegungsschätzungsalgorithmus herangezogen wird.
Durch eine Berücksichtigung der benachbarten Teilbilder aus der gesamten räumlich/zeitlichen Umgebung des jeweiligen Teilbildes, auf das der Bewegungsschätzungsalgorithmus angewendet wird, gelingt es - in Anpassung des Verfahrens an die gegenüber herkömmlichen Videobildern oder herkömmlichen dreidimensionalen Volumendaten besondere räumlich/zeitliche Struktur vierdimensionalen Volumendaten - die Bewegungsschätzung hinsichtlich Ihrer Kompressionswirkung zu verbessern. Diesem Ansatz liegt die Erkenntnis zugrunde, dass innerhalb der vierdimensionalen Volumendaten jedes zweidimensionale
Teilbild nicht nur jeweils ein vor und hinter dem jeweiligen Teilbild räumlich benachbartes Teilbild aufweist bzw. dass das jeweilige Teilbild nicht nur jeweils ein zeitlich vorhergehendes und nachfolgendes Teilbild aufweist, sondern dass das jeweilige Teilbild ein ganzes Umfeld von voraussichtlich ähnlichen Teilbildern aufweist, das auch quasi „diagonal" in einer räumlich/zeitlichen Schnittebene benachbarte Teilbilder umfasst. Dadurch werden neben den zuvor genannten vier Q- Frames vier weitere „diagonal" gelegene Teilbilder bei der Bewegungsschätzung berücksichtigt. Dies erhöht die Wahrscheinlichkeit besonders ähnliche Teilbilder bzw. Bereiche oder Blöcke innerhalb dieser Teilbilder zu finden, wodurch eine bessere Kompressionsrate erzielt wird bzw. - bei einer verlustbehafteten Kompression - die Zahl und Bildstörungswirkung von Kompressionsartefakten reduziert wird.
Durch dieses Vorgehen, bei dem die zeitliche und räumliche Änderung der Teilbilder quasi durchmischt wird, ist es möglich, sich gegenseitig kompensierende Änderungen in räumlicher bzw. zeitlicher Richtung zur Erhöhung der Kompressions- Wirkung zu nutzen. Beispielweise könnte sich ein Bildbereich (z.B. ein Block) eines Teilbildes zum räumlich nächsten Teil- bild um lmm in eine bestimmte Richtung verschieben, wobei die entgegengesetzte Bewegung zum zeitlich nächsten Teilbild erfolgt. In einem solchen Fall ist wahrscheinlich, dass in dem räumlich/zeitlich quasi „diagonal" benachbarten Teilbild der zugehörige Bildbereich annähernd unbewegt ist. Die acht in der räumlich/zeitlichen Umgebung eines Teilbildes befindlichen Teilbilder werden im folgenden erweiterte Q- Frames genannt .
Durch eine iterative Fortsetzung der Berücksichtigung der ge- samten Teilbildumgebung können ähnliche Bildbereiche in einer beliebigen Bahn durch die räumlich/zeitliche Anordnung der Teilbilder verfolgt werden. Dies stellt eine Abkehr von der vorbekannten linearen, d.h. lediglich räumlichen oder lediglich zeitlichen, Bewegungsverfolgung dar. Anders ausgedrückt können durch ihre Ähnlichkeit verwandte Bildblöcke in
„Schlangenlinien" durch die räumlich/zeitlichen Abfolge von Teilbildern verfolgt werden. Diese „Schlangenlinie" kann im Einzelfall natürlich auch in eine rein räumlich, rein zeitlich oder „diagonal" räumlich/zeitliche gerade Linie überge- hen.
Die durch Bewegungsschätzung ermittelte "Bewegung" der Bildinformation - und zwar sowohl die nur scheinbare Bewegung, die aus dem Vergleich räumlich benachbarter Teilbilder gewon- nen wird, als auch die gegebenenfalls aus dem Vergleich zeitlich benachbarter Teilbilder gewonnene tatsächliche Bewegung - wird bevorzugt mittels eines insbesondere gängigen Bewe- gungskompensationsalgorithmus kompensiert . Bevorzugt wird für die Bewegungsschätzung ein blockbasierter Algorithmus herangezogen. Hierbei wird ein Teilbild vor Anwendung des Bewegungsschätzungsalgorithmus in Blöcke - bei- spielsweise Rechteckblöcke zu je 8x8 oder 16x16 Bildpunkten unterteilt. Der Bewegungsschätzungsalgorithmus ordnet jedem Block des Teilbilds nach Maßgabe graphischer Übereinstimmungen einen Referenzblock eines (örtlich oder zeitlich) benachbarten Teilbildes zu und ermittelt zu jedem Block einen Bewe- gungsvektor, der den Lageunterschied des Blocks im Bildausschnitt der Teilbilder im Vergleich zu dem Referenzblock wiedergibt .
Nach der Bewegungsschätzung und gegebenenfalls Bewegungskom- pensation wird bevorzugt eine verlustfreie Bildtransformation, insbesondere eine Diskrete Cosinus Transformation (DCT) oder eine Wavelet-Transformation durchgeführt. In Anschluss an die Bildtransformation wird zweckmäßigerweise eine verlustfreie Redundanzreduktion, insbesondere in Form einer Ent- ropiecodierung, durchgeführt.
Das vorstehend beschriebene Kompressionsverfahren ist vorteilhafterweise derart ausgebildet, dass die Kompression verlustfrei erfolgt, dass also anhand eines verfahrensgemäß komprimierten Volumendatensatzes im Zuge einer Dekompression der ursprüngliche Volumendatensatz identisch wiederhergestellt werden kann. Im Rahmen der Dekompression werden die im Rahmen der Kompression durchgeführten Verfahrensschritte vorteilhafterweise in der umgekehrten Reihenfolge durchlaufen.
Optional kann der Entropiekodierung aber auch ein verlustbehafteter Quantisierungsschritt vorgeschaltet sein, im Zuge dessen irrelevante - weil für die menschliche Wahrnehmung nicht oder kaum erfassbare Bildinformation - eliminiert wird.
Gelöst wird die Aufgabe ebenfalls durch die Merkmale des Anspruchs 12. Erfindungsgemäß ist ein System zur Kompression von vierdimensionalen Volumendaten vorgesehen, wobei die Vo- lumendaten in einer Abfolge von zweidimensionalen Teilbildern vorliegen. Das System umfasst eine zur Ausführung des vorstehend beschriebenen Kompressionsverfahrens ausgebildete Recheneinheit.
Die vorliegende Erfindung kann in Form von Hardware, Software oder einer Kombination von Hardware und Software realisiert werden. Hierfür ist jede Art von System bzw. jede andere zum Ausführen des erfindungsgemäßen Verfahrens eingerichtete Vor- richtung geeignet. Die vorliegende Erfindung kann auch in ein Computerprogrammprodukt integriert werden, welches alle Merkmale umfasst, die es zur Realisierung des hier beschriebenen computergestützten Verfahrens befähigen, und welches nach dem Laden in ein ComputerSystem in der Lage ist, dieses Verfahren auszuführen.
Unter den Begriffen Computerprogrammmittel, Computerprogramm und Computeranwendung ist im vorliegenden Zusammenhang jeder Ausdruck in einer beliebigen Computersprache, Code oder Nota- tion eines Satzes von Anweisungen zu verstehen, welche ein ComputerSystem zur Datenverarbeitung und so zur Ausführung einer bestimmten Funktion befähigen. Das Computerprogrammmittel, das Computerprogramm bzw. die Computeranwendung ist entweder direkt oder nach einer Umwandlung in eine andere Spra- che, Code, Notation oder durch die Darstellung in einer anderen materiellen Form auf dem Computersystem lauffähig.
Nachfolgend werden Ausführungsbeispiele der Erfindung anhand einer Zeichnung näher erläutert. Darin zeigen:
FIG 1 in schematischer Darstellung einen dreidimensionalen Volumendatensatz sowie einen darin abgebildeten Raumbereich,
FIG 2 ein AblaufSchema eines Verfahrens zur Kompres- sion des Volumendatensatzes gemäß FIG I7 und
FIG 3 in Darstellung gemäß FIG 1 einen vierdimensio- nalen Volumendatensatz sowie den darin abgebildeten Raumbereich, FIG 4 in schematischer Darstellung die Korrelation von Bildblöcken zwischen einem Teilbild und seinen benachbarten B-Frames gemäß dem Stand der Technik, FIG 5 in schematischer Darstellung die Korrelation von Bildblöcken zwischen einem Teilbild und seinen den erweiterten Q-Frames in seiner Umgebung,
FIG 6 in einer weiteren schematischer Darstellung den dreidimensionalen Volumendatensatz sowie den darin abgebildeten Raumbereich,
FIG 7 ein AblaufSchema eines Verfahrens zur Kompression des Volumendatensatzes gemäß FIG 6, und
FIG 8 in Darstellung gemäß FIG 6 den vierdimensiona- len Volumendatensatz sowie den darin abgebildeten Raumbereich.
Einander entsprechende Größen und Strukturen sind in allen Figuren stets mit gleichen Bezugszeichen versehen.
FIG 1 zeigt zunächst schematisch einen Raumbereich V sowie einen diesen abbildenden digitalen Volumendatensatz B.
Der Raumbereich V ist ein (hier lediglich beispielhaft wür- feiförmiger) Ausschnitt eines dreidimensionalen Raumes, der durch Koordinatenachsen x,y und z definiert ist. Der dargestellte Raumbereich V enthält ein dreidimensionales Objekt O oder mehrere solcher Objekte. In der medizinischen Bildge- bung, die den Hauptanwendungsfall des nachfolgend beschriebe- nen Verfahrens bildet, handelt es sich bei dem Raumbereich V in aller Regel um einen Körperbereich eines Patienten, bei dem Objekt O um einen abgegrenzten Körperbestandteil des Patienten, z.B. ein Blutgefäß, ein Organ, einen Skelettbestandteil, etc.
Bei dem Volumendatensatz B gemäß FIG 1 handelt es sich um einen dreidimensionalen Volumendatensatz, der eine unbewegte Aufnahme des Raumbereichs V enthält. Der Volumendatensatz B umfasst hierbei eine Anzahl von zweidimensionalen Teilbildern Ti (i=l, 2, 3, ... ) , deren jedes einem Schnitt durch den Raumbereich V entlang einer xy-Ebene entspricht, wobei verschiedene Teilbilder Ti parallele Schnitte auf jeweils unterschiedli- eher Höhe der Koordinatenachse Z wiedergeben. Mehrere Teilbilder T1 (im dargestellten Beispiel sogar alle Teilbilder Ti) enthalten dabei auch eine Schnittabbildung des Objekts O, die nachfolgend als xy-Profil des Objekts O bezeichnet ist.
Jedes Teilbild Ti umfasst eine zweidimensionale Anordnung von Voxeln (d.h. dreidimensionalen Bildpunkten), deren jeder in an sich bekannter Weise eine digitale Helligkeits- oder Farbinformation enthält. Die Bildinformation eines jeden Teilbildes Ti ist durch die absoluten Helligkeits- bzw. Farbwerte der Voxel, insbesondere aber auch durch die in den Voxeln niedergelegt örtliche Helligkeits- bzw. Farbverteilung gegeben.
Da die Lage des xy-Profils des Objekts O in dem Raumbereich V in Richtung der Koordinatenachse z variiert, erscheint das Objekt O in den verschiedenen Teilbildern Ti an stets unterschiedlicher Position bezüglich des Bildausschnitts. Gegebenenfalls variiert auch die Form des xy-Profils des Objekts O von Teilbild Ti zu Teilbild Ti. Betrachtet man die Teilbilder T1 in der Abfolge ihrer z-Koordinate nach Art eines Films nacheinander, so scheint daher das Objekt O in dem Bildausschnitt der Teilbilder Ti zu wandern. Die geometrische Formund Lageänderung des xy-Profils des Objekts O in Richtung der Koordinatenachse z äußert sich in dieser Betrachtung des Vo- lumendatensatzes B wie eine Bewegung des Objekts O gegenüber dem Raumbereich V.
Dieser Effekt wird bei dem Verfahren zur Komprimierung des unbewegten Volumendatensatzes B herangezogen, indem ein Bewe- gungsschätzungsalgorithmus auf räumlich benachbarte Teilbilder Ti+i und Ti des Volumendatensatzes B angewendet wird. Im Zuge des in FIG 2 schematisch dargestellten Verfahrensablaufs wird in einen ersten Verfahrensschritt 100 ein (beliebiges) zu komprimierendes Teilbild Ti+i (beispielhaft in FIG 1 eingetragen) in Blöcke zu je 8x8 (oder 16x16) Bildpunkten aufgeteilt.
In einem folgenden Verfahrensschritt 200 wird eine "Bewegungsschätzung" vorgenommen, indem jedem Block des zu komprimierenden Teilbildes Ti+i (nachfolgend als Bezugsblock be- zeichnet) ein zugehöriger Referenzblock eines vorausgehenden Teilbildes Ti (ebenfalls beispielhaft in FIG 1 eingetragen) zugeordnet wird, der zu dem Bezugsblock die größte graphische Übereinstimmung aufweist. Diese Zuordnung nach graphischer Ähnlichkeit erfolgt nach einem an sich herkömmlichen Bewe- gungsschätzungsalgorithmus, z.B. einem der in WO 98/43434 Al erwähnten Algorithmen. Als Resultat dieser Zuordnung wird eine Matrix von Bewegungsvektoren erzeugt, die den Lageunterschied eines jeden (Bezugs-) Blocks des zu komprimierenden Teilbildes Ti+i zu dem korrespondierenden Referenzblock des Teilbildes Ti innerhalb des Bildausschnittes, und somit innerhalb der durch die Koordinatenachsen x und y aufgespannten Ebene wiedergibt. Die solchermaßen bestimmten Bewegungsvektoren enthalten eine Information über die Form- und Lageänderung des Objekts O im Vergleich der Teilbilder Ti+i und Tif mithin also eine Information über eine scheinbare Bewegung des Objekts O.
Entsprechend dieser Bewegungsvektoren werden in einem folgenden Verfahrensschritt 300 die Bildpunkte des Teilbilds Ti um- geordnet. Resultat dieser Umordnung ist ein "bewegungskompen- siertes" Teilbild Ti, in dem der Einfluss der scheinbaren Bewegung des Objekts O im Vergleich der Teilbilder Ti+i und Ti eliminiert oder zumindest reduziert ist. Die Lage und Form des Objekts O im Teilbild Ti wird also durch die Bewegungs- kompensation - vereinfacht ausgedrückt - auf die Lage und
Form zurückgeführt, die das Objekt O im Teilbild Ti+1 einnimmt . In einem weiteren Verfahrensschritt 400 wird dann durch vo- xelweise Differenzbildung des Teilbilds Ti+1 und des bewe- gungskompensierten Teilbilds Ti ein Differenzbild erzeugt.
Auf dieses Differenzbild wird in einem folgenden Verfahrens- schritt eine Bildtransformation 500 in Form einer Diskreten Kosinus Transformation (Discrete Cosine Transformation - DCT) durchgeführt. Alternativ hierzu kann auch eine Wavelet- Transformation durchgeführt werden.
Auf das transformierte Differenzbild wird anschließend eine verlustfreie Entropiecodierung 600 angewendet. Die Entropiekodierung ist eine an sich bekannte Methode zur verlustfreien Datenkompression, die jedem Bildpunkt eines Bilddatensatzes eine unterschiedlich lange Folge von Bits zuordnet. Da eine bestimmte Mindestanzahl von Bits notwendig ist, um alle Farben bzw. Helligkeitswerte voneinander zu unterscheiden, kann die Anzahl der Bits, die einem Bildpunkt zugeordnet werden muss, nicht unbegrenzt klein werden. Die minimale Anzahl von Bits, die einem Bildpunkt mit einer gegebenen Wahrscheinlichkeit zugeordnet werden sollte, wird durch die Entropie bestimmt .
Entropie im informationstechnischen Sinne ist hierbei ein Maß für den mittleren Informationsgehalt eines Zeichens, der in einem System oder einer Informationsfolge steckt.
In dem Verfahrensschritt 600 wird insbesondere ein an sich bekannter Entropiecodierungsalgorithmus, insbesondere eine Huffmann-Codierung, auf das transformierte Differenzbild angewendet. Alternativ hierzu kann auch eine arithmetische Entropiekodierung angewendet werden.
Die vorstehend beschriebenen Verfahrensschritte 100 bis 600 werden für jedes Teilbild Ti des Volumendatensatzes B wiederholt. Der aus der Anwendung der Verfahrensschritte resultierende videokomprimierte Bilddatensatz wird in einem abschlie- ßenden Verfahrensschritt 700 abgespeichert und/oder über einen Datenkanal übertragen.
Die Wirkung des vorstehend beschriebenen Verfahrens im Sinne einer Kompression beruht insbesondere darauf, dass das im Verfahrensschritt 400 erzeugte Differenzbild nur die im Vergleich eines jeden Teilbilds Ti+i mit dem jeweils vorausgehenden Teilbild Ti "neue" Bildinformation enthält. Dagegen wird jede Bildinformation, die in aufeinanderfolgenden Teilbildern Ti und Ti+i unverändert oder lediglich lageverschoben enthalten ist, bei der Differenzbildung in dem Verfahrensschritt 400 eliminiert. Hierdurch wird der Redundanzgrad des Differenzbildes im Vergleich zu den ursprünglichen Teilbildern Ti erhöht, wodurch wiederum ein verbesserter Wirkungsgrad der nachfolgenden Komprimierungsschritte ermöglicht wird.
Das Verfahren erweitert insbesondere den Anwendungsbereich von bewegungskompensierenden Dekorrelationsverfahren auf unbewegte Volumendatensätze. Hierbei wird anstelle einer tat- sächlichen Bewegung die Lage und Form eines Objektes im Raum bei der Dekorrelation verwendet.
Alternativ zu dem vorstehend beschriebenen Verfahren kann im Zuge der Bewegungsschätzung auch die Korrelation des Teil- bilds Ti+i mit beiden räumlich benachbarten Teilbildern Ti und Ti+2 berücksichtigt werden. Hierbei wird nach Maßgabe eine möglichst geringen Fehlermaßes stets der zu dem Bezugsblock ähnlichste Block aus beiden benachbarten Teilbildern Ti und Ti+2 bestimmt und als Referenzblock ausgewählt. Das bewegungs- kompensierte Teilbild wird hierbei aus den jeweils ausgewählten Referenzblöcken der Teilbilder Ti und Ti+2 zusammengesetzt.
In einer Variante des vorstehend beschriebenen Verfahrens ist dieses auf die Kompression eines vierdimensionalen Volumendatensatzes B' ausgerichtet, wie er in FIG 3 schematisch dargestellt ist. Ein solcher Volumendatensatz B* enthält zusätzlich zu einer dreidimensional-räumlichen Bildinformation des abgebildeten Raumbereichs V eine Entwicklung dieser Bildinformation mit der Zeit t, mithin also eine Information über eine tatsächli- che Bewegung der in dem Raumbereich V enthaltenen Objekte O sowie der gegebenenfalls weiteren Objekte.
FIG 3 zeigt entsprechend (in der Figur links) eine erste Darstellung des Raumbereichs V zu einem früheren Zeitpunkt tj sowie (in der Figur rechts) eine zweite Darstellung desselben Raumbereichs V zu einem späteren Zeitpunkt tj+1, in der sich das Objekt O gegenüber dem Zeitpunkt tj bewegt hat (die ursprüngliche Lage des Objekts zum Zeitpunkt tj ist hierin zum Vergleich gestrichelt angedeutet) .
Der entsprechende Volumendatensatz Bx enthält für eine Vielzahl solcher Zeitpunkte tj (j=l,2,...) jeweils einen Satz von räumlich verschiedenen Teilbildern Tij (i, j =1, 2 ,...). Der Volumendatensatz BΛ enthält somit für jeden Zeitpunkt tj , ins- besondere also sowohl für den früheren Zeitpunkt tj als auch für den späteren Zeitpunkt tj+i jeweils einen solchen Satz von räumlich verschiedenen Teilbildern Tij bzw. Ti,j+1, der jeweils einem unbewegten Volumendatensatz B gemäß FIG 1 entspricht. In die dem Zeitpunkt tj+i entsprechenden Teilbilder Ti1J+1 ist wiederum die ursprüngliche Lage des Objekts O zu dem früheren Zeitpunkt tj gestrichelt eingetragen.
Zur Komprimierung des vierdimensionalen Volumendatensatzes Bv wird das im Zusammenhang mit FIG 2 beschriebene Verfahren da- hingehend modifiziert, dass im Zuge des Verfahrensschritts
200 nicht nur die Bewegungsschätzung nicht nur auf die räumlich benachbarten Teilbilder Ti,j+1 und Ti+1,j+1/ sondern zusätzlich auch (in herkömmlicher Weise) auf die zeitlich benachbarten Teilbilder Ti+1,j+1 und Ti+1,j angewendet wird.
Auch in dieser Verfahrensvariante können alternativ beide zu dem Teilbild Ti+i,j+1 zeitlich benachbarten Teilbilder Ti+1/j und Ti+1,J+2 (letzteres nicht explizit dargestellt) und/oder beide zu dem Teilbild Ti+1, j+i räumlich benachbarten Teilbilder Ti,j+1 und Ti+2,j+i bei der Bewegungsschätzung berücksichtigt werden. Werden alle zeitlich und räumlich benachbarten Teilbilder Ti+i,j und Ti+i, j+2 sowie Ti, j+i und Ti+2,j+i berücksichtigt, so er- gibt sich das bewegungskompensierte Teilbild also aus vier abhängigen Bildern (sogenannte Q-Frames) .
Neben der Lage und Form im Raum wird in der im Zusammenhang mit FIG 3 beschriebenen Verfahrensvariante somit auch die Be- wegung des Objektes O im Raumbereich V zur Dekorrelation verwendet .
FIG 4 dient zur Veranschaulichung der Videokompression gemäß dem Stand der Technik. Die Figur zeigt ein Teilbild Ti+i, sei- ne benachbarten B-Frames Ti und Ti+2 und korrelierte Bildblöcke Si-S5. Bei den Teilbildern Ti-Ti+2 kann es sich z.B. um aufeinanderfolgenden Bildern einer Videosequenz handeln. Basierend auf ihrer jeweiligen paarweisen Ähnlichkeit wurden drei Bildblöcken im Teilbild Ti+i jeweils mit einem Bildblock Si, S2 bzw. S3 im vorhergehenden B-Frame Ti und zwei weitere Bildblöcke im Teilbild Ti+1 jeweils mit einem Bildblock S4 bzw. S5 im nachfolgenden B-Frame T1+2 korreliert. Wie durch Vergleich der Teilbilder zu erkennen ist, hat sich der Bildblock Si vom ersten B-Frame zum Teilbild Ti+1 etwas nach links oben bewegt, S2 ist annähernd unverändert und S3 hat sich etwas nach links oben bewegt. Der Bildblock S4 hat sich vom Teilbild Ti zum zweiten B-Frame deutlich nach links oben bewegt und S5 etwas nach links oben. Die übrigen Bildblöcke in dem Teilbild Ti+1 können in ähnlich- erweise mit Bildblöcken in einem der beiden B-Frames korreliert werden.
FIG 5 zeigt ein Teilbild Ti+1,j+i mit seiner räumlich/zeitlichen Umgebung aus 8 weiteren Teilbilden Ti,j, T1+1,j, T1+2, j, T1, j+i, T1+2,j+i, Ti,j+27 Ti+i, j+2 und T1+2, j+2. Die Zeitachse t verläuft von links nach recht, die räumliche Achse z von unten nach oben. Somit stellen die Teilbilder mit dem zweiten Index j, j+1 und j+1 Schnittbilder durch das Volumen- bild zu einem Zeitpunkt tj , tj+i bzw. tj+2 dar. Die Teilbilder mit dem ersten Index i, i+1 und i+2 stellen Schnittbilder in der Schnittebene z±, Zi+1 bzw. Zi+2 dar.
Wie zu sehen ist, werden zwei Bildblöcke in dem Teilbild
Ti+i,j+i mit entsprechenden Bildblöcken S3 aus dem B-Frame T1+1, j und S5 aus dem B-Frame Ti+1,j+2 korreliert. Der Bildblock S3 bewegt sich im Zeitraum zwischen tj und tj+i etwas nach links oben, S5 bewegt sich im Zeitraum zwischen tj+i und tj+2 etwas nach rechts unten.
Neben dieser zeitlichen Korrelation erfolgt auch eine Korrelation in der räumlichen z-Richtung. Der Bildblock S4 aus dem Q-Frame T^j+1 ist mit einem Bildblock im Teilbild Ti+i,j+i kor- reliert. Dieser Bildblock ist von der Schichtebene z± nach Zi+1 etwa nach unten rechts verschoben. Der Bildblock S2 aus dem Q-Frame Ti+2,j+1 ist mit einem Bildblock im Teilbild T1+1,j+1 korreliert. Dieser Bildblock ist von der Schichtebene zi+1 zur Schichtebene Zi+2 in seine Position unverändert.
Darüber hinaus werden bei der in FIG 5 dargestellten Bewegungskompensation auch sämtliche sich in der Umgebung des Teilbilds Ti+i,j+i befindlichen Teilbilder T1, j, Ti+1,-j, Ti+2,j, Ti,j+i, T1+2,j+i, T1,j+2, Ti+i,j+2 und T1+2,j+2 - also die sog. erwei- terten Q-Frames - berücksichtigt. In dem dargestellten Beispiel wurde der Bildblock S1 aus dem erweiterten Q-Frame Ti+1, j mit einem Bildblock im Teilbild T1+1, j+1 korreliert. Dieser Bildblock hat sich im Zeitraum zwischen ti und ti+1 und von der Schichtebene Zi+2 zur Schichtebene zi+1 nach links oben be- wegt .
Dieses Verfahren auf alle Teilbilder Ti+1,j+1 der vierdimensio- nalen Volumendaten in analoger Weise angewendet. Beispielsweise kann der Bildblock S1 im Teilbild T1+2, j wiederum mit ei- nem Bildblock S1' in einem erweiterten Q-Frame T1+3^-1 des
Teilbildes Ti+2, j korreliert werden. Anders ausgedrückt durchläuft i die Anzahl aller Schichtebenen Z1 und j die Anzahl aller Zeitpunkte tj . FIG 6 zeigt erneut schematisch den Raumbereich V sowie den diesen abbildenden digitalen Volumendatensatz B gemäß FIG 1.
Mehrere Teilbilder Ti (im dargestellten Beispiel sogar alle Teilbilder Ti) enthalten dabei auch die Schnittabbildung des Objekts O, die nachfolgend als Profil Pi (i = 1,2,...) des Objekts O bezeichnet ist. In der vorstehend gewählten Nomenklatur entspricht hierbei die dem Zählindex i zugewiesene Nummer der Nummer des zugehörigen Teilbildes Ti, das Teilbild Ti enthält somit das Profil Pi, etc.
Da die Lage des Objekts 0 innerhalb der xy-Ebene in Richtung der Koordinatenachse z variiert, erscheint das Profil Pi des Objekts O in den verschiedenen Teilbildern Ti an stets unterschiedlicher Position bezüglich des Bildausschnitts. Gegebenenfalls variiert auch die Form des Profils Pi von Teilbild Ti zu Teilbild Ti. Betrachtet man die Teilbilder Ti in der Abfolge ihrer z-Koordinate nach Art eines Films nacheinander, so scheint daher das Objekt O in dem Bildausschnitt der Teilbilder Ti zu wandern. Die geometrische Form- und Lageänderung des Profils Pi in Richtung der Koordinatenachse z äußert sich in dieser Betrachtung des Volumendatensatzes B wie eine Bewegung des Objekts O gegenüber dem Raumbereich V.
Dieser Effekt wird bei dem Verfahren zur Komprimierung des unbewegten Volumendatensatzes B herangezogen, indem ein Bewe- gungsschätzungsalgorithmus auf räumlich benachbarte Teilbilder Ti+i und Ti des Volumendatensatzes B angewendet wird.
Im Zuge des in FIG 7 schematisch dargestellten Verfahrensablaufs wird in einen ersten Verfahrensschritt 800 ein dreidimensionaler Segmentierungsalgorithmus auf den Volumendatensatz B angewendet. Der Segmentierungsalgorithmus ist dazu ausgebildet, durch Vergleich mit hinterlegten Modellen von Körperstrukturen die einer solchen Körperstruktur entsprechenden Bildstrukturen des Volumendatensatzes B als dreidimensionales Bildsegment zu erkennen. Die hinterlegten Modelle umfassen Angaben zu der Form, sowie optional auch zu Größe und/oder Textur der zu erkennenden Bildstrukturen. Für den beispielhaft beschriebenen Anwendungsfall ist der Segmentierungsalgorithmus dazu ausgebildet, das Objekt O in den VoIu- mendaten als Bildsegment zu erkennen. Der Segmentierungsalgorithmus liefert als Segmentierungsinformation für jedes der Teilbilder Ti die Umrisslinie des zugehörigen Profils Pi. Insbesondere für den Fall, dass für einen Volumendatensatz - abweichend von dem dargestellten Beispiel - mehrere Objekte als Bildsegment erkannt werden, liefert der Segmentierungsalgorithmus zusätzlich eine Information, die eine Zuordnung der Profile zu dem zugehörigen Bildsegment ermöglicht.
In einem folgenden Verfahrensschritt 900 wird mittels eines Bewegungsschätzungsalgorithmus eine "Bewegungsschätzung" vorgenommen, indem die einem gemeinsamen Bildsegment zugeordneten Profile Pj.+i (nachfolgend als Bezugsprofil bezeichnet) und Pi (nachfolgend als Referenzprofil bezeichnet) räumlich benachbarter Teilbilder T1 und Ti+i hinsichtlich ihrer Lage in- nerhalb des Bildausschnitts der Teilbilder Ti und Ti+i, d.h. hinsichtlich ihrer Lage innerhalb der xy-Ebene, miteinander verglichen werden. Als Resultat dieses Vergleichs wird ein Bewegungsvektor erzeugt, der den Lageunterschied des Bezugsprofils Pi+i zu dem Referenzprofil Pi wiedergibt, der mithin also eine Information über eine scheinbare Bewegung des Objekts O enthält.
Optional enthält der Bewegungsvektor zusätzlich eine Information über einen Orientierungsunterschied und/oder einen Grö- ßenunterschied der Profile P1 und Pi+i . Der Bewegungsschätzungsalgorithmus ermittelt diese Angaben z.B. indem er nicht nur durch Verschiebung, sondern auch durch Drehung bzw. Größenänderung des Profils P1 versucht, dieses mit dem Profil Pi+i innerhalb der xy-Ebene in größtmögliche Überdeckung zu bringen.
Entsprechend dieses Bewegungsvektors werden in einem folgenden Verfahrensschritt 1000 die dem Referenzprofil P1 entspre- chenden Bildpunkte des Teilbilds Ti umgeordnet. Resultat dieser Umordnung ist ein "bewegungskompensiertes" Teilbild Ti , in dem der Einfluss der scheinbaren Bewegung des Objekts O im Vergleich der Teilbilder Ti+1 und Ti eliminiert oder zumindest reduziert ist. Die Lage und Form des Objekts O im Teilbild Ti wird also durch die Bewegungskompensation - vereinfacht ausgedrückt - zumindest im Wesentlichen auf die Lage und Form zurückgeführt, die das Objekt O im Teilbild Ti+i einnimmt.
In einem weiteren Verfahrensschritt 1100 wird dann durch vo- xelweise Differenzbildung des Teilbilds Ti+1 und des bewe- gungskompensierten Teilbilds Ti ein Differenzbild erzeugt.
Auf dieses Differenzbild wird in einem folgenden Verfahrens- schritt eine Bildtransformation 1200 in Form einer Diskreten Kosinus Transformation (Discrete Cosine Transformation - DCT) durchgeführt. Alternativ hierzu kann auch eine Wavelet- Transformation durchgeführt werden.
Auf das transformierte Differenzbild wird anschließend eine verlustfreie Entropiecodierung 1300 angewendet. Die Entropiekodierung ist eine an sich bekannte Methode zur verlustfreien Datenkompression, die jedem Bildpunkt eines Bilddatensatzes eine unterschiedlich lange Folge von Bits zuordnet. Da eine bestimmte Mindestanzahl von Bits notwendig ist, um alle Farben bzw. Helligkeitswerte voneinander zu unterscheiden, kann die Anzahl der Bits, die einem Bildpunkt zugeordnet werden muss, nicht unbegrenzt klein werden. Die minimale Anzahl von Bits, die einem Bildpunkt mit einer gegebenen Wahrscheinlich- keit zugeordnet werden sollte, wird durch die Entropie bestimmt .
Entropie im informationstechnischen Sinne ist hierbei ein Maß für den mittleren Informationsgehalt eines Zeichens, der in einem System oder einer Informationsfolge steckt.
In dem Verfahrensschritt 1300 wird insbesondere ein an sich bekannter Entropiekodierungsalgorithmus, insbesondere eine Huffmann-Kodierung, auf das transformierte Differenzbild angewendet. Alternativ hierzu kann auch eine arithmetische Entropiekodierung angewendet werden.
Die vorstehend beschriebenen Verfahrensschritte 800 bis 1300 werden für jedes Teilbild Ti des Volumendatensatzes B wiederholt. Der aus der Anwendung der Verfahrensschritte resultierende videokomprimierte Bilddatensatz wird in einem abschließenden Verfahrensschritt 1400 abgespeichert und/oder über ei- nen Datenkanal übertragen.
Alternativ zu dem vorstehend beschriebenen Verfahren kann im Zuge der Bewegungsschätzung auch die Korrelation des Teil- bilds Ti+i mit beiden räumlich benachbarten Teilbildern Ti und T1+2 berücksichtigt werden. Hierbei wird nach Maßgabe eines möglichst geringen Fehlermaßes stets das zu dem Bezugsprofil Pi+i ähnlichste Profil Pi oder Pi+2 aus den beiden benachbarten Teilbildern Ti und Ti+2 ermittelt und als Referenzprofil ausgewählt. Das bewegungskompensierte Teilbild wird hierbei (bei mehreren erkannten Segmenten) aus den jeweils ausgewählten Referenzprofilen beider Teilbilder T1 und Ti+2 zusammengesetzt .
In einer Variante des vorstehend beschriebenen Verfahrens ist dieses auf die Kompression eines vierdimensionalen Volumendatensatzes B' ausgerichtet, wie er in FIG 8 schematisch dargestellt ist.
FIG 8 zeigt entsprechend (in der Figur links) eine erste Dar- Stellung des Raumbereichs V zu einem früheren Zeitpunkt tj sowie (in der Figur rechts) eine zweite Darstellung desselben Raumbereichs V zu einem späteren Zeitpunkt tj+i, in der sich das Objekt O gegenüber dem Zeitpunkt tj bewegt hat (die ursprüngliche Lage des Objekts zum Zeitpunkt tj ist hierin zum Vergleich gestrichelt angedeutet) .
Der entsprechende Volumendatensatz Bx enthält für eine Vielzahl solcher Zeitpunkte tj (j=l,2,...) jeweils eine Volumen- aufnähme Aj (j=l,2, ...) , die jeweils der Form nach dem dreidimensionalen Volumendatensatz B gemäß FIG 6 entspricht, und somit einen Satz von räumlich verschiedenen Teilbildern Tj.j (i=l,2,... bei festem Wert von j) enthält. In die dem Zeit- punkt tj+i entsprechenden Teilbilder Ti1J+1 der Volumenaufnahme Aj+i ist wiederum die ursprüngliche Lage des Objekts O zu dem früheren Zeitpunkt tj gestrichelt eingetragen.
Zur Komprimierung des vierdimensionalen Volumendatensatzes B1 wird das im Zusammenhang mit FIG 7 beschriebene Verfahren dahingehend modifiziert, dass im Zuge des Verfahrensschritts 800 der Segmentierungsalgorithmus separat auf jede Volumenaufnahme Aj angewendet, und somit die zeitliche Entwicklung des oder eines jeden erkannten Bildsegments erfasst wird. Weiterhin wird im Zuge des Verfahrensschritts 900 die Bewegungsschätzung nicht nur auf die räumlich benachbarten Teil- bilder Ti,j+i und Ti+i,j+i, sondern zusätzlich auch (in herkömmlicher Weise) auf die zeitlich benachbarten Teilbilder Ti+lij+i und Ti+lij angewendet wird. Hierbei gehen wiederum die durch den Segmentierungsalgorithmus in den zeitlich benachbarten
Teilbildern Ti+i,j+i und Ti+i,j bestimmten Profile der erkannten Segmente als Eingangsgrößen des Bewegungsschätzungsalgorith- mus ein.
Auch in dieser Verfahrensvariante können alternativ beide zu dem Teilbild Ti+1, j+i zeitlich benachbarten Teilbilder Ti+1,j und Ti+i,j+2 (letzteres nicht explizit dargestellt) und/oder beide zu dem Teilbild Ti+i,j+i räumlich benachbarten Teilbilder Ti1 j+1 und Ti+2, j+i bei der Bewegungsschätzung berücksichtigt werden. Werden alle zeitlich und räumlich benachbarten Teilbilder
Ti+i, j und Ti+i, j+2 sowie Ti,j+i und Ti+2,j+i berücksichtigt, so ergibt sich das bewegungskompensierte Teilbild also aus vier abhängigen Bildern (sogenannte Q-Frames) .
Die vorstehend beschriebenen Verfahrensvarianten werden bevorzugt durch ein entsprechendes Computerprogramm auf einem Rechnersystem ausgeführt.

Claims

Patentansprüche
1. Verfahren zur Kompression von vierdimensionaler Volumenda- ten (Bx)/ die als Abfolge zweidimensionaler Teilbilder (Ti+lij+1) vorliegen, wobei ein Bewegungsschätzungsalgorithmus auf räumlich und zeitlich benachbarte Teilbilder (Ti(j, Ti+1/j, Ti+2, j, Ti,j+i, T1+2, j+1, Ti1J+2, T1+1,j+2/ T1+2,J+2) angewendet wird.
2. Verfahren nach Anspruch 2, wobei bei der Anwendung des Be- wegungsschätzungsalgorithmus auf ein bestimmtes Teilbild
(Ti+1,j+1) jeweils benachbarte Teilbilder (T1,j, Ti+lij, Ti+2,j, Ti1J+1, T1+2, j+i, Tiij+2, T1+11J+2, Ti+2,j+2) aus der gesamten räumlich/zeitlichen Umgebung des bestimmten Teilbilds (T1J ) berücksichtigt werden.
3. Verfahren nach einem der Ansprüche 1 oder 2, wobei das jeweilige Teilbild (Ti+I1J+1) vor Anwendung des Bewegungsschätzungsalgorithmus in Blöcke unterteilt wird, und wobei der Bewegungsschätzungsalgorithmus jedem Block des jewei- ligen Teilbilds (Ti+1, j+1) nach Maßgabe graphischer Übereinstimmungen einen Referenzblock eines benachbarten Teilbildes (Ti,j, Ti+1,j, Ti+2,j, Ti1J+1, Ti+2, j+1, Ti1J+2, Ti+1, j+2, Ti+2ij+2) zuordnet und wobei der Bewegungsschätzungsalgorithmus zu jedem Block einen Bewegungsvektor ermittelt, der den Lageunter- schied des Blocks im Bildausschnitt der Teilbilder (T1, j,
T1+1, j, Ti+2ij, Tiij+1, Ti+2,j+i, Tiij+2, Ti+lij+2, Ti+2ij+2) im Vergleich zu dem Referenzblock wiedergibt.
4. Verfahren nach Anspruch 3 , wobei entsprechend der Bewegungsvektoren anhand eines der bei der BewegungsSchätzung berücksichtigten Teilbilder (T1, j, Ti+1, j, Ti+2, j, Ti1J+1, Ti+2(j+1, Ti1J+2, Ti+1,j+2, Ti+2, j+2) ein bewe- gungskompensiertes Teilbild erzeugt wird, und wobei zur Erzeugung eines Differenzbildes eine Differenz des bewegungs- kompensierten Teilbild und des anderen bei der Bewegungsschätzung berücksichtigten Teilbildes gebildet wird.
5. Verfahren nach Anspruch 4 , wobei zur Erzeugung eines transformierten Bilddatensatzes auf das Differenzbild eine Bildtransformation, insbesondere in Form einer Diskreten Kosinus Transformation, angewendet wird.
6. Verfahren nach Anspruch 5 , wobei auf den transformierten Bilddatensatz eine verlustfreie Redundanzreduktion, insbesondere in Form einer Entropiekodierung, durchgeführt werden.
7. Verfahren nach einem der Ansprüche 1 bis 6, bei welchem ein dreidimensionaler Segmentierungsalgorithmus auf die dreidimensionalen Volumendaten (B) angewendet wird, wobei eine von dem Segmentierungsalgorithmus bestimmte Segmentierungsinformation als Eingangsgröße des Bewegungsschät- zungsalgorithmus herangezogen wird.
8. Verfahren nach Anspruch 7 , bei welchem im Rahmen des Segmentierungsalgorithmus eine mehrere räumlich benachbarte Teilbilder (Ti,j, Ti+i,j, Ti+2,j) über- greifende dreidimensionale Bildstruktur als Bildsegment erkannt wird, und bei welchem für diese Teilbilder (Ti1J, Ti+i,j, Ti+2,j) ein darin jeweils enthaltenes Profil (Pi) des erkannten Bildsegments bestimmt wird, wobei die von dem Segmentierungs- algorithmus bestimmten Profile (Pi) räumlich benachbarter Teilbilder (Ti(j, Ti+1/j, Ti+2,j) als Eingangsgröße des Bewe- gungsschätzungsalgorithmus herangezogen werden.
9. Verfahren nach Anspruch 7 oder 8 , wobei im Rahmen des Segmentierungsalgorithmus eine dreidimen- sionale Bildstruktur nach Maßgabe der Übereinstimmung mit einem hinterlegten Modell als Bildsegment erkannt wird.
10. Verfahren nach einem der Ansprüche 7 bis 9, bei welchem bei dem vierdimensionalen Volumendatensatz (B1) der Segmentierungsalgorithmus auf zeitlich benachbarte Volumenaufnahmen (Ai) angewendet wird, wobei die von dem Segmentierungsalgorithmus bestimmten Profile (Pi) zeitlich benach- barter Teilbilder (Ti,j, Ti,j+i, Ti1J+2) als Eingangsgröße für den Bewegungsschätzungsalgorithmus herangezogen werden.
11. Verfahren nach einem der Ansprüche 7 bis 10, wobei im Rahmen des Bewegungsschätzungsalgorithmus im Vergleich der Profile (Pi) zweier benachbarter Teilbilder (Ti(j, Ti+i,j, Ti+2, j, Ti, j+1, Ti+2, j+i, Ti,j+2, Ti+1, j+2, Ti+2,j+2) ein Bewegungsvektor ermittelt wird, der einen Lageunterschied und/oder einen Orientierungsunterschied der verglichenen Pro- file (Pi) bezüglich eines Bildausschnitts der Teilbilder (Ti, j, Ti+1, j, Ti+2, j, Ti, j+1, Ti+2, j+1, Ti,j+2, Ti+1, j+2/ Ti+2, j+2) und/oder einen Größenunterschied wiedergibt .
12. System zur Kompression von vierdimensionalen Volumendaten (Bλ), die in einer Abfolge von mindestens zweidimensionalen
Teilbildern (Tlfj, T1+1, j, T1+2,j, Ti/j+1, T1+2,j+1, Tiij+2, T1+1, j+2, T1+2,j+2) vorliegen, mit einer durch Durchführung des Verfahrens nach einem der Ansprüche 1 bis 11 ausgebildeten Recheneinheit.
13. Computerprogrammprodukt, das in einem computerlesbaren Medium gespeichert ist und computerlesbare Programmmittel um- fasst, mittels derer ein Computer veranlasst wird, ein Verfahren nach einem der Ansprüche 1 bis 11 durchzuführen, wenn das Programm in dem Computer läuft.
PCT/EP2007/009472 2006-12-05 2007-10-31 Verfahren und system zur kompression von volumendaten WO2008052773A2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
DE102006057301 2006-12-05
DE102006057301.3 2006-12-05
DE102006057302.1 2006-12-05
DE102006057302 2006-12-05

Publications (2)

Publication Number Publication Date
WO2008052773A2 true WO2008052773A2 (de) 2008-05-08
WO2008052773A3 WO2008052773A3 (de) 2008-08-21

Family

ID=39276004

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2007/009472 WO2008052773A2 (de) 2006-12-05 2007-10-31 Verfahren und system zur kompression von volumendaten

Country Status (1)

Country Link
WO (1) WO2008052773A2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012213870A1 (de) * 2012-08-06 2014-02-06 Rohde & Schwarz Gmbh & Co. Kg Verfahren und Vorrichtung zur Kompression von Daten eines vorbestimmten Gesamtvolumens

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
BARBARIEN J ET AL: "Wavelet coding of volumetric medical datasets" IEEE TRANSACTIONS ON MEDICAL IMAGING, IEEE SERVICE CENTER, PISCATAWAY, NJ, US, Bd. 22, Nr. 3, 1. März 2003 (2003-03-01), Seiten 441-458, XP011096529 ISSN: 0278-0062 *
CHENG S ET AL: "Lossy-to-lossless compression of medical volumetric data using three-dimensional integer wavelet transforms" IEEE TRANSACTIONS ON MEDICAL IMAGING, IEEE SERVICE CENTER, PISCATAWAY, NJ, US, Bd. 22, Nr. 3, 1. März 2003 (2003-03-01), Seiten 459-470, XP011096530 ISSN: 0278-0062 *
KASSIM A A ET AL: "Motion Compensated Lossy-to-Lossless Compression of 4-D Medical Images Using Integer Wavelet Transforms" IEEE TRANSACTIONS ON INFORMATION TECHNOLOGY IN BIOMEDICINE, IEEE SERVICE CENTER, LOS ALAMITOS, CA, US, Bd. 9, Nr. 1, 1. März 2005 (2005-03-01), Seiten 132-138, XP011127548 ISSN: 1089-7771 *
LALGUDI H G ET AL: "Compression of fMRI and Ultrasound Images Using 4D Spiht" IMAGE PROCESSING, 2005. ICIP 2005. IEEE INTERNATIONAL CONFERENCE ON GENOVA, ITALY 11-14 SEPT. 2005, PISCATAWAY, NJ, USA,IEEE, Bd. 2, 11. September 2005 (2005-09-11), Seiten 746-749, XP010851161 ISBN: 978-0-7803-9134-5 *
PETER SCHELKENS-VRIJE UNIVERSITEIT BRUSSEL ED - JOINT PHOTOGRAPHIC EXPERT GROUP (JPEG): "An overview of Volumetric Coding Techniques" JOINT PHOTOGRAPHIC EXPERT GROUP CONFERENCE, CROWBOROUGH : JPEG FORUM LTD, GB, 16. Juli 2002 (2002-07-16), XP017206106 *
SCHELKENS P ET AL: "JPEG2000 Part 10 - Volumetric Data Encoding" CIRCUITS AND SYSTEMS, 2006. ISCAS 2006. PROCEEDINGS. 2006 IEEE INTERNA TIONAL SYMPOSIUM ON KOS, GREECE 21-24 MAY 2006, PISCATAWAY, NJ, USA,IEEE, 21. Mai 2006 (2006-05-21), Seiten 3874-3877, XP010939536 ISBN: 978-0-7803-9389-9 *
YING LIU ET AL: "Four-Dimensional Wavelet Compression of 4-D Medical Images Using Scalable 4-D SBHP" DATA COMPRESSION CONFERENCE, 2007. DCC '07, IEEE, PI, 1. März 2007 (2007-03-01), Seiten 233-242, XP031073803 ISBN: 978-0-7695-2791-8 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012213870A1 (de) * 2012-08-06 2014-02-06 Rohde & Schwarz Gmbh & Co. Kg Verfahren und Vorrichtung zur Kompression von Daten eines vorbestimmten Gesamtvolumens
DE102012213870B4 (de) * 2012-08-06 2020-12-10 Rohde & Schwarz GmbH & Co. Kommanditgesellschaft Verfahren und Vorrichtung zur Kompression von Daten eines vorbestimmten Gesamtvolumens

Also Published As

Publication number Publication date
WO2008052773A3 (de) 2008-08-21

Similar Documents

Publication Publication Date Title
EP0817496B1 (de) Verfahren und Anordnung zur Reduktion von Blockartefakten in codierten Bildern
DE69831961T2 (de) Bildobjekterzeugungsverfahren für objektbasierte kodierungssysteme unter verwendung von masken und gerundeten mittelwerten
DE69634962T2 (de) Extrapolation von Pixelwerten eines in einem Block enthaltenen Videoobjektes
DE69723550T2 (de) Kodierung und dekodierung von grafischen symbolen
DE602004004379T2 (de) Verfahren und einrichtungen zur codierung und decodierung einer bildsequenz mittels bewegungs-/texturzerlegung und wavelet-codierung
DE19704439C2 (de) Verfahren und Vorrichtung zur Bewegungsschätzung in einem digitalen Videocodierer unter Verwendung von Trajektorien
DE19743202B4 (de) Verfahren zum Codieren eines Bewegungsvektors
WO2012110491A1 (de) Kodierverfahren und bildkodiervorrichtung zur kompression einer bildsequenz
DE19825042A1 (de) Verfahren zur Bewegungsvektorcodierung bei MPEG-4
DE102005025629A1 (de) Bildverarbeitungsverfahren zur Reduzierung von Blocking-Artefakten
DE102014006433A1 (de) Codierung eines Bildes
DE202017007512U1 (de) Bewegungsschätzung durch maschinelles Lernen
DE602004001993T2 (de) Transformations basiertes restbewegungsrahmen kodierungsverfahren mit übervollständiger basis und zugehörige vorrichtung zur videokompression
EP0956539B1 (de) Verfahren und anordnung zur codierung und decodierung eines digitalisierten bildes
DE69915843T2 (de) Teilbandkodierung/-dekodierung
WO2017162835A1 (de) Datenkompression mittels adaptiven unterabtastens
EP0956703B1 (de) Verfahren und anordnung zur codierung und decodierung eines digitalisierten bildes
EP1279291B1 (de) Verfahren und vorrichtung zum speichern und bearbeiten von bildinformation zeitlich aufeinanderfolgender bilder
EP1110407B1 (de) Verfahren und anordnung zur codierung und decodierung eines digitalisierten bildes mit anwendung eines gesamtbewegungsvektors
WO2008052773A2 (de) Verfahren und system zur kompression von volumendaten
DE3733038C2 (de) Verfahren und Schaltungsanordnung zur Bilddatenreduktion für digitale Fernsehsignale
EP0981909B1 (de) Verfahren und vorrichtung zur codierung und decodierung eines digitalisierten bildes
WO2001049038A1 (de) Verfahren, anordnung und computerprogrammerzeugnis zur prädiktion bei der codierung eines in bildblöcke unterteilten bildes
DE60007131T2 (de) Optimaler mpeg-standardvideodekoder
EP1121809B1 (de) Verfahren und anordnung zur codierung eines digitalisierten bildes, verfahren und anordnung zur decodierung eines digitalisierten bildes

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07819504

Country of ref document: EP

Kind code of ref document: A2