DE19509373C1 - Object based coding of image sequences - Google Patents

Object based coding of image sequences

Info

Publication number
DE19509373C1
DE19509373C1 DE19509373A DE19509373A DE19509373C1 DE 19509373 C1 DE19509373 C1 DE 19509373C1 DE 19509373 A DE19509373 A DE 19509373A DE 19509373 A DE19509373 A DE 19509373A DE 19509373 C1 DE19509373 C1 DE 19509373C1
Authority
DE
Germany
Prior art keywords
image
original image
unit
objects
disparity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE19509373A
Other languages
German (de)
Inventor
Manfred Ziegler
Stathis Panis
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE19509373A priority Critical patent/DE19509373C1/en
Application granted granted Critical
Publication of DE19509373C1 publication Critical patent/DE19509373C1/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

The object based image coding system has an image analyser (1) for object coding and receives three input parameters that are a motion map (2), an original image (3) and a disparity map (4). Images (3,5) obtained by two different cameras are received by a disparity circuit (14). The analyser segments the object of the original image and determines object parameters based upon a source model. The parameters are coded (7) and the values received by a decoder (8) provides colour (C'), a motion vector (B), shape (F) and a disparity vector (D). The values are stored in memory and used in the coding cycle as well as by an image synthesiser (10) to generate an image for comparison (12) with the original. The result is used by a model error coding stage.

Description

Eine Technik, die einige Nachteile der blockbasierten Kodierung von Bilddaten, z. B. den sog. Moskito-Effekt, vermeidet, ist die objektbasierte Kodierung von Bilddaten. Ein weiterer Vorteil dieser Technik ist, daß im Gegensatz zu den blockbasierten Kodierungsverfahren nicht mehr die gesamte Bildinformation jeweils eines Pixels übertragen werden muß, sondern nur noch die Parameter der segmentierten Objekte eines Bildes. Damit wird durch den objektbasierten Ansatz eine weitere Kompression der Bilddaten erreicht. Mit Hilfe der objektbasierten Kodierung von Videosequenzen wird außerdem die inhaltsbezogene Verarbeitung der übertragenen Bilder in Multimediaanwendungen ermöglicht. Mögliche Objektparameter, die ein Objekt eines Bildes beschreiben, sind z. B. die Lage des Objekts innerhalb des Bildes, Bewegung des Objekts, Form des Objekts oder Farbe des Objekts.A technique that has some disadvantages of block-based Coding of image data, e.g. B. the so-called mosquito effect, Avoids, the object-based coding of image data. Another advantage of this technique is that, in contrast to the block-based coding method no longer the whole Image information of one pixel must be transmitted, but only the parameters of the segmented objects an image. This is through the object-based approach further compression of the image data is achieved. With help object-based coding of video sequences also the content-related processing of the transmitted Allows images in multimedia applications. Possible Object parameters that describe an object of an image are z. B. the position of the object within the image, movement of the object, shape of the object or color of the object.

Das Hauptproblem bei der objektbasierten Bildkodierung liegt in der korrekten Segmentierung des Bildes in Objekte.The main problem with object-based image coding is in the correct segmentation of the image into objects.

Durch die im vorigen beschriebenen Vorteile des objektbasier­ ten Ansatzes bieten sich Einsatzgebiete an, wie z. B. in den Gebieten der Bildtelefonie oder in den verschiedenen neuen Multimediaanwendungen. In dem Bereich der neuen Multimediaan­ wendungen wird z. B. der Aufbau von interaktiven Bilddatenban­ ken möglich werden.Due to the advantages of object-based described above th approach are possible, such as. Tie Areas of video telephony or in various new ones Multimedia applications. In the area of new multimedia Z is used. B. the construction of an interactive image database ken possible.

Der Prozeß aus einem ersten Originalbild und einem zweiten Originalbild, die von zwei Kameras aufgenommen werden, die eine Szene zur gleichen Zeit aus unterschiedlichen Perspektiven aufnehmen, zum Erhalt von Tiefeninformation, wird binokulares Stereo genannt (vgl. D. Geiger, B. Landendorf, A. Yuille, Occlusions and Binocular Stereo, Computer Vision ECC V-92, 2nd European Conference on Computer Vision, Santa Margharita Ligure, Italy, 18-23 May 1992, S.425-433).The process of a first original picture and a second Original image taken by two cameras that a scene from different at the same time Take perspectives, to receive depth information, is called binocular stereo (cf. D. Geiger, B. Landendorf, A. Yuille, Occlusions and Binocular Stereo,  Computer Vision ECC V-92, 2nd European Conference on Computer Vision, Santa Margharita Ligure, Italy, 18-23 May 1992, P.425-433).

In einem Stereo-Bilderpaar, einem ersten Originalbild und einem zweiten Originalbild, die von zwei Kameras aufgenommen wurden, kann es aufgrund der unterschiedlichen Eigenschaften der Kameras und ihrer Einstellungen zu einer generellen Unausgeglichenheit in den Helligkeitswerten zwischen dem ersten und dem zweiten Kanal kommen. Statistische Model­ lierung dieser Unterschiede und Kompensation dieser Unter­ schiede kann die Disparitätsschätzung verbessern (vgl. M. Ziegler, W. Tengler, T. Tabeling, Influence of Camera Cali­ bration on the Coding of Stereo Sequences, Proc. of the 1. International Festival on 3D Images, Paris, France, Sept. 1991, S. 184-190).In a stereo pair of pictures, a first original picture and a second original image taken by two cameras were, it may be due to the different properties of the cameras and their settings to a general one Imbalance in the brightness values between the first and second channels come. Statistical model This difference and compensation of this sub differences can improve the disparity estimate (see M. Ziegler, W. Tengler, T. Tabeling, Influence of Camera Cali bration on the Coding of Stereo Sequences, Proc. of the 1st International Festival on 3D Images, Paris, France, Sept. 1991, pp. 184-190).

Ein Verfahren zum sog. Matching von Bildern anhand der Disparitätsinformation der Bilder ist bekannt (S. Barnard und W. Thompson, Disparity Analysis of Images, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. PAMI-2, No. 4, S. 333-340, Juli 1980).A process for the so-called matching of images using the Disparity information of the pictures is known (S. Barnard and W. Thompson, Disparity Analysis of Images, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. PAMI-2, No. 4, pp. 333-340, July 1980).

Bekannt sind Verfahren zur objektbasierten Bildkodierung, die Vorwissen über den Inhalt des Bildes benötigen (N.D. Duffy. J.F.S. Yan, A Knowledge Based Approach to Image Coding, Signal Processing IV: Theories + Applications, Elsevier Science Publishers B.V., Eurasip 1988, S.1125-1128). Auch Verfahren, die eine Segmentierung der Objekte aufgrund ihrer Bewegung durchführen, sind bekannt (M. Hötter "Object- Oriented Analysis-Synthesis Coding Based on Moving Two- Dimensional Objects", Signal Processing: Image Communication Journal Vol. 2, 1990, Elsevier Publications, S. 409-428), (J. Ostermann "Object-Based Analysis-Synthesis Coding Based on the Source Model of Moving Rigid 3D Objects", Image Communication Journal, Vol. 6, 1994, S. 143-161). Diese Verfahren sind nur sehr eingeschränkt anwendbar, z. B. in den sog. Head- and Shoulder-Szenen in Bildtelefonsequenzen.Methods for object-based image coding are known which require prior knowledge of the content of the image (ND Duffy. JFS Yan, A Knowledge Based Approach to Image Coding, Signal Processing IV: Theories + Applications, Elsevier Science Publishers BV, Eurasip 1988, p.1125- 1128). Methods that segment the objects based on their movement are also known (M. Hötter "Object-Oriented Analysis-Synthesis Coding Based on Moving Two-Dimensional Objects", Signal Processing: Image Communication Journal Vol. 2, 1990, Elsevier Publications , Pp. 409-428), (J. Ostermann "Object-Based Analysis-Synthesis Coding Based on the Source Model of Moving Rigid 3 D Objects", Image Communication Journal, Vol. 6, 1994, pp. 143-161). These methods can only be used to a very limited extent, e.g. B. in the so-called head and shoulder scenes in videophone sequences.

Das benötigte Vorwissen über den Inhalt der Bilder sowie die Tatsache, daß in der objektbasierten Segmentierung aufgrund der Bewegung der Objekte statische Bildbereiche, z. B. ein statischer Hintergrund, nicht in unterschiedliche Objekte segmentiert werden kann, stellen bedeutende Nachteile bekann­ ter Verfahren dar.The required prior knowledge about the content of the pictures and the Fact that in object-based segmentation due to the movement of the objects static image areas, e.g. B. a static background, not in different objects can be segmented, face significant disadvantages method.

Der Erfindung liegt das Problem zugrunde, eine objektbasierte Kodierung von Bildersequenzen ohne Vorwissen über den Inhalt der Bilder durchzuführen.The problem underlying the invention is an object-based one Coding of image sequences without prior knowledge of the content of the pictures.

Dieses Problem wird durch das Verfahren gemäß Patentanspruch 1 und der Anordnung gemäß Patentanspruch 11 gelöst. Die mit der Erfindung erzielten Vorteile sind im wesentlichen darin zu sehen, daß eine objektbasierte Verarbeitung von Videosequenzen ohne Vorwissen über den Inhalt der Bilder ermöglicht wird und somit das Verfahren allgemein einsetzbar ist ohne die Einschränkungen, denen bekannte Verfahren unterliegen. Durch Zuhilfenahme einer zweiten Kamera und der daraus resultierenden Stereoinformation, auch Disparität genannt, lassen sich außerdem auch statische Objekte, z. B. der Bildhintergrund, in Objekte segmentieren, was mit bekannten Verfahren nicht möglich ist. Durch die in den abhängigen Ansprüchen beschriebenen Schritte zur Realisierung einer Regelschleife wird die zu übertragende Datenmenge erheblich reduziert, da nur noch die Änderungen der Objektparameter übertragen werden und nicht mehr alle Objektparameter. Auch die Qualität der Objektsegmentierung wird verbessert, da die Bildanalyseeinheit anhand der wiederhergestellten Bilder Fehler oder Ungenauigkeiten erkennt und die Segmentierung der folgenden Bilder in Objekte entsprechend angepaßt wird.This problem is solved by the method according to claim 1 and the arrangement according to claim 11 solved. With Advantages achieved by the invention are essentially therein to see that object-based processing of Video sequences without prior knowledge of the content of the images is made possible and thus the method can be used in general is without the limitations known procedures subject to. By using a second camera and the resulting stereo information, also disparity called, can also static objects such. B. the image background, segment into objects, what with known method is not possible. By in the dependent steps described for implementation The amount of data to be transferred becomes a control loop significantly reduced since only the changes to the Object parameters are transferred and not all  Object parameters. Also the quality of the object segmentation is improved because the image analysis unit based on the recovered images errors or inaccuracies recognizes and the segmentation of the following images into objects is adjusted accordingly.

Durch die Einschränkung des Suchbereichs wird eine erhebliche Rechenzeitersparnis bei der Durchführung des Dynamic- Programming-Algorithmus erreicht.Restricting the search area becomes a significant one Computing time savings when performing the dynamic Programming algorithm reached.

Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen.Further developments of the invention result from the dependent Claims.

Ein Ausführungsbeispiel der Erfindung ist in den Zeichnungen dargestellt und wird im folgenden näher beschrieben.An embodiment of the invention is in the drawings shown and is described in more detail below.

Es zeigenShow it

Fig. 1 ein Blockdiagramm, das das gesamte Verfahren zur objektbasierten Bildverarbeitung, die Bewegungs­ schätzung, die Disparitätsschätzung, die Bildanalyse mit Objektsegmentierung, die Parameterkodierung und die Regelschleife zur Verbesserung der übertragenen Bildinformation, darstellt; Fig. 1 is a block diagram showing the entire estimation process for the object-based image processing, the movement, the disparity, the object image analysis with segmentation, the parameter coding and the control loop to improve the transferred image information represents;

Fig. 2 ein Blockdiagramm, das das gesamte Verfahren zur objektbasierten Bildverarbeitung darstellt, wenn der Empfänger die Möglichkeit erhalten soll, selbst zwei Bilder, das wiederhergestellte erste Bild und das wiederhergestellte zweite Bild, zu rekonstruie­ ren; Fig. 2 is a block diagram illustrating the entire procedure for object-based image processing, if the receiver is to obtain the possibility of even two images, the reconstructed first image and the second image restored to rekonstruie reindeer;

Fig. 3 ein Diagramm, das ein Beispiel eines optimalen Pfades darstellt, der mit Hilfe des Dynamic Pro­ gramming Algorithmus mit dreidimensionalem Suchbe­ reich gefunden wurde; Fig. 3 is a diagram illustrating an example of an optimal path, which has been using the Dynamic Pro Gramming algorithm three-dimensional Suchbe rich found;

Fig. 4 zwei Diagramme, die darstellen, wie gemäß Anspruch 13 mit den Verdeckungsbereichen verfahren wird; Fig. 4 is two diagrams illustrating how according to claim 13 is moved with the occlusion areas;

Fig. 5 ein Ablaufdiagramm, das die Segmentierung der Objekte beschreibt; Fig. 5 is a flow chart describing the segmentation of the objects;

Fig. 6 eine Skizze, die den Prozeß der Polygonapproxi­ mation beschreibt. Fig. 6 is a sketch that describes the process of polygon approximation.

Anhand der Fig. 1 bis 6 wird das erfindungsgemäße Verfah­ ren und die erfindungsgemäße Anordnung weiter erläutert.Procedural the invention is ren and further illustrates the arrangement of the invention with reference to FIGS. 1 to 6.

Fig. 1 beschreibt das gesamte Verfahren zur objektbasierten Bildkodierung. Eine Bildanalyseeinheit 1 verwendet zur Ob­ jektsegmentierung die folgenden drei Eingangsgrößen: Eine Bewegungskarte (Motion Map) 2, das erste Originalbild 3 und eine Disparitätskarte (Disparity Map) 4. Das erste Originalbild 3 ist das Bild, das in Objekte unterteilt werden soll. Fig. 1, the entire process for the object-based image encoding describes. An image analysis unit 1 uses the following three input variables for object segmentation: a motion map 2 , the first original image 3 and a disparity map 4 . The first original image 3 is the image that is to be divided into objects.

Die Bildanalyseeinheit 1 segmentiert die Objekte des ersten Originalbildes und bestimmt Objektparameter, die jeweils die segmentierten Objekte beschreiben, nach einem bekannten Quellenmodell 6. Objektparameter sind z. B. die Farbe des Objekts C, ein Bewegungsvektor des Objekts , die Form des Objekts F und der Disparitätsvektor .The image analysis unit 1 segments the objects of the first original image and determines object parameters, each of which describes the segmented objects, according to a known source model 6 . Object parameters are e.g. B. the color of the object C, a motion vector of the object, the shape of the object F and the disparity vector.

Die Objektparameter werden einer Einheit zur Parameterkodierung 7 zur Verfügung gestellt, die die Objektparameter kodiert. Eine Einheit zur Parameter- Dekodierung 8 dekodiert die kodierten Objektparameter lokal, z. B. zu den dekodierten Objektparametern Farbe des wiederhergestellten Objekts C′, Bewegungsvektor des wiederhergestellten Objekts -′, Form des wiederhergestellten Objekts F′ und Disparitätsvektor des wiederhergestellten Objekts ′.The object parameters are made available to a unit for parameter coding 7 , which encodes the object parameters. A parameter decoding unit 8 decodes the encoded object parameters locally, e.g. B. to the decoded object parameters color of the restored object C ', motion vector of the restored object -', shape of the restored object F 'and disparity vector of the restored object'.

Die wiederhergestellten Objektparameter werden in einem Speicher 9 abgelegt. Von diesem Speicher aus werden die wiederhergestellten Objektparameter der Einheit zur Parameterkodierung 7 zugeführt, damit die wiederhergestellten Objektparameter mit den Objektparametern des folgenden Bildes verglichen werden können, um nur noch die Änderungsinformation der einzelnen Objektparameter der folgenden Bilder Kodieren und übertragen zu müssen und somit Übertragungskapazitäten einzusparen. Außerdem werden die wiederhergestellten Objektparameter einer Bildsyntheseeinheit 10 zugeführt, die das erste wiederhergestellte Bild 11 aus den wiederhergestellten Objektparametern rekonstruiert.The restored object parameters are stored in a memory 9 . From this memory, the restored object parameters are fed to the parameter coding unit 7 so that the restored object parameters can be compared with the object parameters of the following image, in order to only have to code and transmit the change information of the individual object parameters of the following images and thus to save transmission capacities. In addition, the restored object parameters are fed to an image synthesis unit 10 , which reconstructs the first restored image 11 from the restored object parameters.

Das wiederhergestellte Bild 11 wird der Bildanalyseeinheit 1 zugeführt. In der Bildanalyseeinheit 1 wird ein Vergleich des wiederhergestellten Bildes mit einem dem ersten Originalbild zeitlich direkt nachfolgenden Bild durchgeführt. Anhand des Vergleichs werden z. B. Änderungen der Objekte entdeckt und die Objektsegmentierung diesen Änderungen angepaßt. Weiterhin wird das wiederhergestellte Bild 11 einer Vergleichseinheit 12 zur Verfügung gestellt, die das erste Originalbild 3 mit dem wiederhergestellten Bild 11 vergleicht und eventuell während der Kodierung aufgetretene Modell-Fehler entdeckt.The restored image 11 is fed to the image analysis unit 1 . A comparison of the restored image with an image immediately following the first original image is carried out in the image analysis unit 1 . Based on the comparison z. B. Changes to the objects discovered and the object segmentation adapted to these changes. Furthermore, the restored image 11 is made available to a comparison unit 12 , which compares the first original image 3 with the restored image 11 and detects any model errors that occurred during the coding.

Die von der Vergleichseinheit 12 entdeckten Modell-Fehler werden von einer Einheit zur Modell-Fehler-Kodierung 13 kodiert und dann zu einem Empfänger übertragen.The model errors discovered by the comparison unit 12 are coded by a model error coding unit 13 and then transmitted to a receiver.

Disparitätsschätzung und Nachbearbeitung 14 Disparity Estimation and Postprocessing 14

Der Prozeß aus einem ersten Originalbild 3 und einem zweiten Originalbild 5, die von zwei Kameras aufgenommen werden, die eine Szene zur gleichen Zeit aus unterschiedlichen Perspektiven aufnehmen, zum Erhalt von Tiefeninformation, wird binokulares Stereo genannt (vgl. D. Geiger, B. Landendorf, A. Yuille, Occlusions and Binocular Stereo, Computer Vision ECC V-92, 2nd European Conference on Computer Vision, Santa Margharita Ligure, Italy, 18-23 May 1992, S.425-433).The process of obtaining a first original image 3 and a second original image 5 , which are recorded by two cameras that record a scene at the same time from different perspectives, for obtaining depth information, is called binocular stereo (cf. D. Geiger, B. Landendorf , A. Yuille, Occlusions and Binocular Stereo, Computer Vision ECC V-92, 2nd European Conference on Computer Vision, Santa Margharita Ligure, Italy, 18-23 May 1992, p.425-433).

Der Algorithmus zur Disparitätsschätzung 14 besteht aus vier Teilen:The disparity estimation algorithm 14 consists of four parts:

  • 1. Globale Modellierung und Kompensation der Unterschiede zwischen den zwei verwendeten Kameras, die das erste Origi­ nalbild 3 und das zweite Originalbild 5 aufnehmen.1. Global modeling and compensation of the differences between the two cameras used, which take the first original image 3 and the second original image 5 .
  • 2. Bestimmung eines brauchbaren Suchbereichs zur Dispa­ ritätsschätzung entlang einer Scan-Linie.2. Determination of a usable search area for Dispa rity estimate along a scan line.
  • 3. Disparitätsschätzung, die auf einem Dynamic Programming Algorithmus mit dreidimensionalem Suchbereich basiert.3. Disparity Estimation Based on Dynamic Programming Algorithm based on three-dimensional search area.
  • 4. Nachbearbeitung der Disparitätskarte 4.4. Post-processing of the disparity card 4 .
Globale Modellierung und Kompensation der Unterschiede zwi­ schen den zwei verwendeten KamerasGlobal modeling and compensation of differences between between the two cameras used

In einem Stereo-Bilderpaar, einem ersten Originalbild 3 und einem zweiten Originalbild 5, die von zwei Kameras aufgenom­ men wurden, kann es aufgrund der unterschiedlichen Eigen­ schaften der Kameras und ihrer Einstellungen zu einer gene­ rellen Unausgeglichenheit in den Helligkeitswerten zwischen dem ersten und dem zweiten Kanal kommen. Statistische Model­ lierung dieser Unterschiede und Kompensation dieser Unter­ schiede kann die Disparitätsschätzung verbessern (vgl. M. Ziegler, W. Tengler, T. Tabeling, Influence of Camera Cali­ bration on the Coding of Stereo Sequences, Proc. of the 1. International Festival on 3D Images, Paris, France, Sept. 1991, S. 184-190). Diese Kompensation ist allerdings nur global und die Qualität des Ergebnisses ist aus zwei Gründen eingeschränkt. Die zwei unterschiedlichen Perspektiven, aus denen das erste Originalbild 3 und das zweite Originalbild 5 von den zwei Kameras aufgenommen werden, führen zu unter­ schiedlichen Reflexionen innerhalb der Bilder. Diese unter­ schiedlichen Reflexionen werden durch das im vorigen be­ schriebene Modell nicht berücksichtigt. Außerdem existieren an den Rändern jeweils des ersten Originalbildes 3 und des zweiten Originalbildes 5 Bereiche, die jeweils nicht in dem anderen Bild vorkommen. Sie fließen dennoch in das zitierte statistische Modell mit ein. Um diese Nachteile auszuglei­ chen, ist es nötig, einen Wert einzuführen, der die Differenz des lokalen Helligkeitswertes zwischen den beiden verwendeten Kameras beschreibt. Der Wert wird in der Kostenfunktion des Dynamic Programming Algorithmus berücksichtigt. Der Wert wird nach folgender bekannter Formel berechnet:In a pair of stereo images, a first original image 3 and a second original image 5 , which were taken by two cameras, there can be a general imbalance in the brightness values between the first and the second due to the different properties of the cameras and their settings Channel come. Statistical modeling of these differences and compensation for these differences can improve the disparity estimate (see M. Ziegler, W. Tengler, T. Tabeling, Influence of Camera Calibration on the Coding of Stereo Sequences, Proc. Of the 1st International Festival on 3D Images, Paris, France, Sept. 1991, pp. 184-190). However, this compensation is only global and the quality of the result is limited for two reasons. The two different perspectives from which the first original image 3 and the second original image 5 are recorded by the two cameras lead to different reflections within the images. These different reflections are not taken into account by the model described above. In addition, there are areas on the edges of the first original image 3 and the second original image 5 that do not appear in the other image. Nevertheless, they flow into the statistical model cited. To compensate for these disadvantages, it is necessary to introduce a value that describes the difference in the local brightness value between the two cameras used. The value is taken into account in the cost function of the dynamic programming algorithm. The value is calculated using the following known formula:

Die einzelnen Elemente der Formel haben folgende Bedeutung:
n, m: Pixelkoordinaten
b(n, m): lokaler Kompensationsfaktor für große Hellig­ keitsunterschiede zwischen den zwei Bildern
N=(τ+1)*3: Anzahl der Pixel in dem bearbeiteten Fenster
2τ+1: Breite des bearbeiteten Fensters in x-Richtung
WL(i, j): Helligkeitswert des ersten Originalbildes an dem Punkt (i, j)
WR(i, j): Helligkeitswert des zweiten Originalbildes an dem Punkt (i, j)(): Verschiebungsvektor für das Pixel mit der Pixelkoordinate n.
The individual elements of the formula have the following meaning:
n, m: pixel coordinates
b (n, m): local compensation factor for large differences in brightness between the two images
N = (τ + 1) * 3: number of pixels in the edited window
2τ + 1: Width of the processed window in the x direction
W L (i, j): brightness value of the first original image at the point (i, j)
W R (i, j): brightness value of the second original image at the point (i, j) (): displacement vector for the pixel with the pixel coordinate n.

Bestimmung eines brauchbaren Suchbereichs zur Disparitäts­ schätzung entlang einer Scan-LinieDetermination of a usable search area for disparity estimation along a scan line

Die drei Achsen des dreidimensionalen Suchbereichs des Dyna­ mic Programming Algorithmus (vgl. Fig. 3) sind die x-Achse des Bildes 15, die Verschiebung in x-Richtung dx 16 und die Verschiebung in y-Richtung dy 17. Je größer die Bereiche der Verschiebungswerte sind, desto größer wird der Suchbereich sein. Folglich müssen mehr Pfade in der Berechnung für den Dynamic Programming Algorithmus berücksichtigt werden. Da der Dynamic Programming Algorithmus sehr rechenaufwendig ist, ist es vorteilhaft, die Anzahl der zu berücksichtigenden Pfade zu reduzieren, indem man den Bereich, in denen sich die Verschiebungsvektoren befinden können, vorberechnet. Das geschieht in der Weise, daß zuerst durch ein Block-Matching- Verfahren der Wertebereich, in dem sich die Disparitätsvektoren wahrscheinlich befinden, abgeschätzt wird. Dies verringert den Suchbereich für den Dynamic- Programming-Algorithmus. Zur Glättung der entstandenen Disparitätskarte 4 wird auf die Disparitätskarte 4 eine blockbasierte Median-Filterung angewendet, um die einzelnen Blöcke der Disparitätskarte mit den jeweiligen Nachbarblöcken zu korrelieren. Eine blockweise Berechnung des minimalen Suchbereichs und des maximalen Suchbereichs unter Berücksichtigung der benachbarten Blöcke folgt der Median- Filterung.The three axes of the three-dimensional search area of the dynamic programming algorithm (see FIG. 3) are the x axis of the image 15 , the displacement in the x direction d x 16 and the displacement in the y direction d y 17 . The larger the ranges of the shift values, the larger the search area will be. As a result, more paths have to be taken into account in the calculation for the dynamic programming algorithm. Since the dynamic programming algorithm is very computationally complex, it is advantageous to reduce the number of paths to be taken into account by precalculating the area in which the displacement vectors can be located. This is done by first using a block matching method to estimate the range of values in which the disparity vectors are likely to be found. This reduces the search area for the dynamic programming algorithm. In order to smooth the resulting disparity card 4 , block-based median filtering is applied to the disparity card 4 in order to correlate the individual blocks of the disparity card with the respective neighboring blocks. A block-by-block calculation of the minimum search area and the maximum search area taking into account the neighboring blocks follows the median filtering.

Disparitätsschätzung mit Hilfe des Dynamic Programming Algo­ rithmus mit dreidimensionalem SuchbereichDisparity estimation using Dynamic Programming Algo rhythm with three-dimensional search area

Der Dynamic Programming Algorithmus verwendet eine sog. Kostenfunktion, die in diesem Zusammenhang den Unterschied zwischen Bereichen auf den beiden untersuchten Bildern, dem ersten Originalbild 3 und dem zweiten Originalbild 5, bewer­ tet. Die gesamte Kostenfunktion setzt sich zusammen aus der Differenz der Helligkeitswerte zweier untersuchter Fenster, genannt Feature Difference (FD), und den sog. Disparitäts­ sprungkosten.The dynamic programming algorithm uses a so-called cost function, which in this connection evaluates the difference between areas on the two examined images, the first original image 3 and the second original image 5 . The entire cost function is made up of the difference in the brightness values of two examined windows, called the feature difference (FD), and the so-called disparity jump costs.

Feature DifferenceFeature difference

Die zur Berechnung der FD verwendeten Fenster können unter­ schiedlicher Größe sein, wobei zu beachten ist, daß ein sehr kleines Fenster ein sehr kleines untersuchtes Gebiet darstellt, dessen Verwendung dazu führen kann, daß zu viele Muster eines ersten Fensters im Suchbereich gefunden werden können und somit einen falschen Verschiebungsvektor liefern. In einem zu großen Fenster sind meist Verdeckungen enthalten. Unter Verdeckungen versteht man in der Stereobildverarbeitung einen Bereich, der nur in dem ersten Originalbild zu sehen ist, nicht aber in dem zweiten. Diese Verdeckungen stellen ein Problem dar beim sog. Matching. Ein guter Kompromiß in der Fenstergröße ist z. B. ein Fenster, das neun Pixel breit und drei Pixel hoch ist. Die FD wird normalisiert auf einen Wert zwischen 0 und 1. Der Extremwert FD = 0 bedeutet, daß eine Übereinstimmung der Helligkeitswerte in den beiden untersuchten Fenstern besteht, und FD = 1 zeigt eine totale Nichtübereinstimmung der Helligkeitswerte an. Die FD wird auf folgende Weise berechnet:The windows used to calculate the FD can be found under be of different sizes, it should be noted that a very small window a very small area under investigation represents, the use of which can lead to too many Patterns of a first window can be found in the search area can and therefore supply an incorrect displacement vector. In a window that is too large, there are usually hidden areas. Masking is understood in stereo image processing an area that can only be seen in the first original image is, but not in the second. Make these concealments is a problem with so-called matching. A good compromise in  the window size is e.g. B. a window that is nine pixels wide and is three pixels high. The FD is normalized to one Value between 0 and 1. The extreme value FD = 0 means that a match of the brightness values in the two examined windows exists, and FD = 1 shows a total Inconsistency of the brightness values. The FD will calculated in the following way:

Bis auf eine neu eingeführte Konstante c, die eine Normalisierungskonstante mit einem empirischen Wert 1/12 beschreibt, werden die Bezeichnungen in dieser Formel in derselben Bedeutung verwendet wie oben erläutert.Except for a newly introduced constant c, the one Normalization constant with an empirical value 1/12 describes the terms in this formula in used the same meaning as explained above.

DisparitätssprungkostenDisparity jump costs

Es hat sich als günstig erwiesen, zusätzlich zur FD in der gesamten Kostenfunktion einen Regularisierungsfaktor zu berücksichtigen, der große Disparitätsunterschiede entlang der horizontalen Richtung bestraft. Eine geeignete Funktion ist angegeben in (D. Geiger, B. Landendorf, A. Yuille, Occlu­ sions and Binocular Stereo, Computer Vision ECC V-92, 2nd European Conference on Computer Vision, Santa Margharita Ligure, Italy, 18-23 May 1992, S.425-433):It has proven to be cheap, in addition to the FD in the a regularization factor for the entire cost function take into account the large disparity differences along punished in the horizontal direction. A suitable function is given in (D. Geiger, B. Landendorf, A. Yuille, Occlu sions and Binocular Stereo, Computer Vision ECC V-92, 2nd European Conference on Computer Vision, Santa Margharita Ligure, Italy, 18-23 May 1992, pp.425-433):

Experimente haben gezeigt, daß die Werte µ = 0,3 und ε = 0,15 die besten Ergebnisse liefern.Experiments have shown that the values µ = 0.3 and ε = 0.15 deliver the best results.

Gesamte KostenfunktionEntire cost function

Die gesamte Kostenfunktion ergibt sich aus der Summe der Knotenkosten und der Pfadkosten. Die Knotenkosten sind jeweils die FDn().The entire cost function results from the sum of the node costs and the path costs. The node costs are the FD n ().

Die Pfadkosten ergeben sich nach folgender Vorschrift:The path costs result from the following rule:

jeweils den absoluten Disparitätsvektor darstellen. Die gesamten Kosten eines Knotens ergeben sich aus:each represent the absolute disparity vector. The total costs of a node result from:

Die Berechnung der Werte von n-1best, geschieht auf folgende Weise:The values of n-1 best are calculated in the following way:

Sobald die Kosten für einen Knoten berechnet sind, können, aufbauend auf diesen Kosten des vorhergehenden Knotens, die zusätzlichen Kosten der Pfade bis an das Ende der Zeile berechnet werden. Die Disparität und der y-Vektor jedes Vorgängerknotens wird gespeichert, um später ein bekanntes Backtracking zu ermöglichen. Wenn man in der letzten Spalte angelangt ist, wird der niedrigste Wert der Gesamtkosten verwendet und in einem Backtracking-Verfahren der diese Kosten repräsentierende Pfad ausgewählt.Once the cost of a node is calculated, building on this cost of the previous node, the additional cost of the paths to the end of the line  be calculated. The disparity and the y vector of each Predecessor node is saved to later a known one To enable backtracking. If you look at the last column the lowest value of the total cost used and in a backtracking process of this Path representing cost selected.

Dieser gewählte Pfad entspricht dem Disparitätsverlauf einer Bildzeile. Das beschriebene Verfahren ist für jede Bildzeile durchzuführen. Nach Bearbeitung aller Bildzeilen eines Bildes stellt das Ergebnis die im weiteren verwendete Disparitätskarte 4 dar.This selected path corresponds to the disparity curve of an image line. The procedure described is to be carried out for each image line. After processing all image lines of an image, the result is the disparity card 4 used in the following.

Nachbearbeitung der Disparitätskarte 4 Post-processing of the disparity card 4

Eine wichtige Voraussetzung für die anschließende Segmentie­ rung der Objekte ist die Nachbearbeitung der Disparitätskar­ te, die sich aus dem Dynamic Programming Algorithmus mit dreidimensionalem Suchbereich ergeben hat. Die Bedeutung der Nachbearbeitung liegt vor allem in den folgenden Punkten:An important prerequisite for the subsequent segmentation The object is the post-processing of the disparity card te resulting from the dynamic programming algorithm three-dimensional search area. The meaning of Post-processing is mainly based on the following points:

  • - Es werden unkorrekte Disparitäten durch Korrelationen zu Nachbarpixeln korrigiert.- Incorrect disparities due to correlations Neighbor pixels corrected.
  • - Die Disparitätskarte wird geglättet.- The disparity card is smoothed.
  • - Verdeckungen, die durch die Disparität entstanden sind, werden nach einem im folgenden beschriebenen Verfahren aufge­ füllt.- obscurations caused by the disparity, are based on a method described below fills.

Für die anschließende Bildkodierung ist es sehr nützlich, die Anzahl der Objekte möglichst zu reduzieren und die Konturen zu glätten, damit weniger Information zur Beschreibung der Objekte benötigt wird.For subsequent image coding, it is very useful to use the To reduce the number of objects as possible and the contours to smooth out so less information to describe the Objects is needed.

Die Nachbearbeitung untergliedert sich in drei Schritte:Post-processing is divided into three steps:

  • 1. Eine Medianfilterung mit einem 3×3-Fenster.1. A median filtering with a 3 × 3 window.
  • 2. Interpolation der Verdeckungen.2. Interpolation of the concealments.
  • 3. Medianfilterung mit 1×5-Fenster.3. Median filtering with 1 × 5 window.

Nachdem eine Medianfilterung mit einem 3×3-Fenster durchge­ führt wurde, um einzelne Pixelstrukturen zu eliminieren und die Disparität des mittleren Pixels zu seinen direkt angren­ zenden Nachbarpixeln zu korrelieren, besteht der zweite Schritt in einem Verfahren, die entstandenen Verdeckungen in der Disparitätskarte zu interpolieren.After median filtering with a 3 × 3 window was carried out in order to eliminate individual pixel structures and directly adjust the disparity of the middle pixel to its correlating neighboring pixels, there is the second Step in a process that occludes in interpolate the disparity map.

Interpolation der VerdeckungenInterpolation of concealments

Fig. 4 zeigt den Bereich einer Verdeckung 18 und den dazugehörigen Verlauf des Luminanzgradienten 19 eines Bildbereichs. Für jede Verdeckung wird der Verlauf des Luminanzgradienten 19 untersucht und das lokale Maximum des Luminanzgradienten 20 verwendet, um jeweils den Bildbereich zwischen der Stelle des lokalen Maximums des Luminanzgradienten 20 und dem angrenzenden Objekt mit dem Luminanzwert des angrenzenden Objekts aufgefüllt. Das Bild zeigt beispielhaft das Auffüllen eines Bereichs 21 zwischen dem lokalen Maximum des Luminanzgradienten 20 und einem Bereich 22 eines angrenzenden Objekts mit dem Luminanzwert 144 mit dem Luminanzwert 144. Ein anderer Bereich 23, der sich zwischen dem lokalen Maximum des Luminanzgradienten 20 und einem anderen Bereich 24 mit dem Luminanzwert 132 befindet, wird mit dem Luminanzwert 132 aufgefüllt. FIG. 4 shows the area of an occlusion 18 and the associated course of the luminance gradient 19 of an image area. For each occlusion, the course of the luminance gradient 19 is examined and the local maximum of the luminance gradient 20 is used to fill the image area between the location of the local maximum of the luminance gradient 20 and the adjacent object with the luminance value of the adjacent object. The image shows an example of the filling of an area 21 between the local maximum of the luminance gradient 20 and an area 22 of an adjacent object with the luminance value 144 with the luminance value 144 . Another area 23 , which is located between the local maximum of the luminance gradient 20 and another area 24 with the luminance value 132 , is filled with the luminance value 132 .

Dieser Bearbeitung schließt sich eine Medianfilterung mit einem 1×5-Fenster an, die verwendet wird, um einzelne hori­ zontale Linienstrukturen zu eliminieren. Diese sind durch die horizontale Bearbeitung der Disparität entstanden und müssen wieder eliminiert werden.This processing is accompanied by median filtering a 1 × 5 window that is used to display single hori to eliminate zonal line structures. These are through the horizontal processing of the disparity arose and must be eliminated again.

Bewegungsschätzung 25 Motion estimation 25

Zur Bewegungsschätzung 25 wird ein prinzipiell gleiches Verfahren wie zur Disparitätsschätzung 14 verwendet. In principle, the same method is used for motion estimation 25 as for disparity estimation 14 .

Das Ergebnis der Bewegungsschätzung 25 wird der Bildanalyse­ einheit 1 in Form einer Bewegungskarte 2, entsprechend der Disparitätskarte 4, zur Verfügung gestellt.The result of the motion estimation 25 is made available to the image analysis unit 1 in the form of a motion card 2 , corresponding to the disparity card 4 .

BildanalyseImage analysis

Als ein Objekt ist ein 2 1/2-dimensionaler Bereich mit fol­ genden Eigenschaften definiert:A 2 1/2-dimensional area with fol defining properties:

  • 1. Die Bereiche besitzen gleiche Bewegungsvektoren 25.1. The areas have the same motion vectors 25 .
  • 2. die Bereiche besitzen gleiche Disparitätsvektoren 14.2. The areas have the same disparity vectors 14 .

Diese beiden Eigenschaften werden zur Definition eines Objekts verwendet, da sie eine sehr gute Voraussetzung für die weitere Segmentierung bilden. Diese Eigenschaften werden auch zur Bestimmung der Beziehung zwischen aufeinanderfolgenden Bildern benötigt. Im Falle einer Stereokodierung, die im weiteren beschrieben wird, sind diese Eigenschaften die Grundlage, um zwischen einer ersten Ansicht und einer zweiten Ansicht zu unterscheiden.These two properties are used to define one Used as a very good prerequisite for form the further segmentation. These properties will also to determine the relationship between consecutive images needed. In case of a Stereo encoding, which will be described later, are these Properties the basis to switch between a first view and a second view.

Segmentierung der ObjekteSegmentation of the objects

Die Segmentierung der Objekte unterteilt sich in fünf Schrit­ te (vgl. Fig. 5):The segmentation of the objects is divided into five steps (see Fig. 5):

  • 1. Segmentierung der Objekte 26.1. Segmentation of objects 26 .
  • 2. Herausarbeiten der Objekteigenschaften 27.2. Working out the object properties 27 .
  • 3. Elimination kleiner Objekte 28.3. Elimination of small objects 28 .
  • 4. Verschmelzung von Objekten 29.4. Fusion of objects 29 .
  • 5. Bestimmung der Objektparameter zur Beschreibung der Objekte 30.5. Determination of the object parameters for describing the objects 30 .

Um Objekte herauszuarbeiten, die denselben Disparitätsvektor und denselben Bewegungsvektor haben, wird ein Histogrammklas­ sifikator verwendet. Die Elemente, die zur Segmentierung verwendet werden, sind in einem Vektorfeld zusammengefaßt und bezeichnen im einzelnen die Disparität di,j, die horizontale Bewegung hi,j und die Bewegung in vertikaler Richtung vi,j. A histogram classifier is used to work out objects that have the same disparity vector and the same motion vector. The elements that are used for segmentation are combined in a vector field and denote in detail the disparity d i, j , the horizontal movement h i, j and the movement in the vertical direction v i, j .

Die Segmentierung der Objekte wird durch eine Maske kontrol­ liert, die die Bereiche des Bildes, die zur Segmentierung in Frage kommen, bestimmt. Auf dieser Maske werden die Bereiche markiert, die Modellfehler darstellen, und Bereiche, die unbedeckt geblieben sind durch sich von diesem Bereich wegbe­ wegende Objekte aus vorangegangenen Bildern. Im ersten Originalbild markiert die Maske das gesamte Bild als segmentierbar.The segmentation of the objects is controlled by a mask The areas of the image that are used for segmentation Question come, definitely. The areas on this mask marked that represent model errors and areas that have remained uncovered by themselves from this area moving objects from previous pictures. In the first Original mask marks the entire image as segmentable.

Die Disparität ist der wichtigste Unterscheidungsfaktor. Durch die Disparität erhält man ein Maß, das proportional zur Tiefe ist und mit dem es möglich ist, die Rekonstruktion der Bilder in hierarchischer Reihenfolge, beginnend mit den Hintergrundobjekten, aufzubauen.Disparity is the main differentiator. The disparity gives a measure that is proportional to the Depth is and with which it is possible to reconstruct the Images in hierarchical order, starting with the Background objects to build.

Elimination kleiner Objekte 28 Small Object Elimination 28

Um die Anzahl der segmentierten Objekte zu verringern, werden kleine Objekte eliminiert, indem sie nach einem im folgenden beschriebenen Kriterium dem optimalen Nachbarobjekt zugeord­ net werden. In diesem Zusammenhang bedeutet ein kleines Objekt ein Objekt, dessen maximale Größe im Bereich von ca. 100 Pixeln liegt. Die folgenden zwei Bedingungen müssen erfüllt sein, damit ein Objekt einem größeren benachbarten Objekt zugeordnet wird:To reduce the number of segmented objects eliminated small objects by following one below described criterion assigned to the optimal neighboring property be net. In this context, means a small one Object an object whose maximum size is in the range of approx. 100 pixels. The following two conditions must be met be satisfied so that an object is a larger neighboring one Object is assigned:

  • 1. (Sj ≠ ERASED,FAULTY) ˆ (Aj X) = TRUE1. (S j ≠ ERASED, FAULTY) ˆ (A j X) = TRUE
  • 2. (Sj = Sn) ˆ (Aj An) = TRUE2. (S j = S n ) ˆ (A j A n ) = TRUE

Mit X ist in diesem Zusammenhang die Größe eines Objekts bezeichnet, bis zu dem ein Objekt als ein kleines Objekt betrachtet wird.With X in this context is the size of an object referred to, up to which an object is a small object is looked at.

Für jedes Objekt, das zur Elimination nach den beiden vorher­ gehenden Voraussetzungen in Frage kommt, wird das folgende Kriterium verwendet, um das Nachbarobjekt herauszufinden, dem das zu eliminierende Objekt zugeordnet werden soll:For each object to be eliminated after the two before qualifications, the following will occur  Criterion used to find out the neighboring object the object to be eliminated should be assigned:

Die Elemente der vorangegangenen Formeln werden im folgenden erläutert:The elements of the previous formulas are as follows explains:

Das Nachbarobjekt, bei dem das oben beschriebene Kriterium Qj,n minimal wird, erhält das zu eliminierende Objekt zuge­ ordnet. Der Prozeß der Elimination verläuft iterativ und wird so lange fortgesetzt, bis kein Objekt mehr die Voraus­ setzungen zur Elimination erfüllt.The neighboring object in which the above-described criterion Q j, n becomes minimal is assigned the object to be eliminated. The process of elimination proceeds iteratively and continues until no object fulfills the requirements for elimination.

Verschmelzung von Objekten 29 Fusion of objects 29

Zur weiteren Reduzierung der Anzahl der Objekte, werden Objekte miteinander verschmolzen, die die folgende Bedingung erfüllen:To further reduce the number of objects, be Objects merged together, the following condition fulfill:

(S₁ ≠ ERASED, FAULTY) ˆ (S₂ ≠ ERASED, FAULTY) ˆ
(S₁ = S₂) ˆ (D₂ = D₁ ±1) ˆ (H₁ = H₂) ˆ (V₁ = V₂) = TRUE
(S₁ ≠ ERASED, FAULTY) ˆ (S₂ ≠ ERASED, FAULTY) ˆ
(S₁ = S₂) ˆ (D₂ = D₁ ± 1) ˆ (H₁ = H₂) ˆ (V₁ = V₂) = TRUE

Sollten zwei oder mehr benachbarte Objekte dieses Kriterium erfüllen, so wird ein weiteres Kriterium herangezogen:Should two or more neighboring objects meet this criterion another criterion is used:

Das Objekt, das für Q einen maximalen Wert erreicht, ist das beste Objekt und wird verschmolzen. Auch das Verschmelzen ist ein iterativer Prozeß und wird so lange wiederholt, bis kein Objekt mehr die Voraussetzungen zur Verschmelzung erfüllt.The object that reaches a maximum value for Q is that best object and will be merged. Merging is also an iterative process and is repeated until none Object more meets the requirements for the merger.

Durch die beiden Schritte Elimination kleiner Objekte 28 und Verschmelzung von Objekten 29 kann die Anzahl der Objekte bis um den Faktor 10 und mehr verringert werden, was eine große Ersparnis an Rechenzeit und benötigten Objektparametern, die übertragen werden müssen, zur Folge hat.The two steps of eliminating small objects 28 and merging objects 29 can reduce the number of objects by a factor of 10 and more, which results in a large saving in computing time and the required object parameters that have to be transmitted.

Beschreibung der Objekte 30 Description of the objects 30

Die Konturen eines Objekts werden zuerst einem Prozeß zur Kantendetektion unterworfen. Aus der entstehenden Kontur werden vier Scheitelpunkte 31, 32, 33, und 34 extrahiert. Ausgehend von den vier Scheitelpunkten 31, 32, 33, und 34 wird ein iterativer Prozeß zur Approximation eines Polygons gestartet, der die restlichen Scheitelpunkte des entstehenden Polygonzugs des Objekts ermittelt. Fig. 6 beschreibt dieses bekannte Vorgehen.The contours of an object are first subjected to an edge detection process. Four vertices 31 , 32 , 33 and 34 are extracted from the resulting contour. Starting from the four vertices 31 , 32 , 33 , and 34 , an iterative process for approximating a polygon is started, which determines the remaining vertices of the resulting polygon of the object. Fig. 6 describes this known procedure.

Jeweils zwei Scheitelpunkte werden durch eine gerade Linie miteinander verbunden. Für jeden Punkt innerhalb der Kontur zwischen zwei Scheitelpunkten wird ein Abtrennungswert zwi­ schen dem Punkt und der Linie berechnet. Liegt dieser Wert über einer frei wählbaren Schwelle wird der Punkt als ein neuer Scheitelpunkt 35 für die Polygonapproximation definiert. Dieser Prozeß wird so lange wiederholt, bis keine Scheitelpunkte mehr eingefügt werden. Nach Beendigung dieses Prozesses stellt eine Liste der zuvor berechneten Scheitelpunkte die Polygonapproximation dar.Two vertices are connected by a straight line. A separation value between the point and the line is calculated for each point within the contour between two vertices. If this value lies above a freely selectable threshold, the point is defined as a new vertex 35 for the polygon approximation. This process is repeated until no more vertices are inserted. After completing this process, a list of the previously calculated vertices represents the polygon approximation.

Durch die Polygonapproximation kann es vorkommen, daß sich Punkte von Objekten überlappen. Das Problem kann durch die stereokopische Information gelöst werden, da die Objekte gemäß ihrer Tiefe geordnet rekonstruiert werden können.Due to the polygon approximation it can happen that Objects overlap points. The problem can be solved by the stereocopic information can be solved as the objects can be reconstructed according to their depth.

Parameterkodierung 7 Parameter coding 7

Anstelle von Information über einzelne Pixel oder Blöcke, wie bei blockorientierten Kodierverfahren werden bei der objekt­ basierten Kodierung zu jedem Objekt verschiedene Parameter, die das Objekt charakterisieren, kodiert. Diese Parameter sind z. B. die Farbe des Objekts C, die Bewegung des Objekts B, die Form des Objekts F und die Disparität des Objekts D. Diese Parameter werden kodiert und dem Empfänger übertragen, der dann die einzelnen Objekte aus den Parametern wieder rekonstruieren kann. Durch Rekonstruktion der Objekte kann der Empfänger auch das eigentliche Bild wieder herstellen.Instead of information about individual pixels or blocks, such as in the case of block-oriented coding methods, the object based coding different parameters for each object, that characterize the object. These parameters are z. B. the color of the object C, the movement of the object B, the shape of the object F and the disparity of the object D. These parameters are encoded and transmitted to the receiver, which then returns the individual objects from the parameters can reconstruct. By reconstructing the objects the receiver also restore the actual image.

Regelungsschleife zur Verbesserung der objektbasierten BildkodierungControl loop to improve object-based Image encoding

Damit eventuell aufgetretene Fehler in der Segmentierung und Kodierung der Objekte leichter zu finden und zu korrigieren sind, wird eine Regelschleife eingeführt, die aus folgenden Komponenten besteht:So that any errors occurred in the segmentation and Coding of objects easier to find and correct a control loop is introduced, which consists of the following Components are:

  • - Eine Einheit zur Dekodierung der Objektparameter 8;A unit for decoding the object parameters 8 ;
  • - Eine Einheit zur Speicherung der dekodierten Objektpara­ meter 9;- A unit for storing the decoded object parameters 9 ;
  • - Eine Einheit zur Rekonstruktion des Bildes aus den deko­ dierten, gespeicherten Objektparametern 10;- A unit for the reconstruction of the image from the decoded, stored object parameters 10 ;
  • - Eine Einheit, die das erste Originalbild mit dem ersten wiederhergestellten Bild vergleicht und eventuelle Modellfehler herausfindet 12;A unit that compares the first original image with the first restored image and finds possible model errors 12 ;
  • - Eine Einheit zur Kodierung der Modellfehler, die zu dem Empfänger übertragen werden 13.- A unit for coding the model errors that are transmitted to the receiver 13 .

Der Koder enthält eine Einheit, die die übertragenen Objekt­ parameter lokal im Koder wieder dekodiert, um somit den Empfänger im Koder selbst nachzubilden. Die dekodierten Objekte werden in dem Koder gespeichert. Die wiederherge­ stellten Parameter werden der Einheit zur Parameterkodierung 7 zur Verfügung gestellt, um bei einer Folge von Bildern nur noch die Änderung der Objektparameter von Objekten zweier zeitlich aufeinanderfolgender Bilder übertragen zu müssen. Die wiederhergestellten Parameter werden außerdem in einer Bildsyntheseeinheit 1 zu einem wiederhergestellten Bild 11 rekonstruiert. Die Bildsynthese aus den Objekten geschieht hierarchisch unter Berücksichtigung der Disparität, damit z. B. Objekte, die sich aufgrund von Bewegungen überlappen, in der richtigen Reihenfolge rekonstruiert werden, so daß das Ob­ jekt, das sich bei der Aufnahme räumlich näher an der Kamera befand, auch bei der Rekonstruktion wieder in den Vordergrund gesetzt wird. Das wiederhergestellte Bild wird der Bildanalyseeinheit zur Verfügung gestellt, die z. B. Änderungen der Objekte aufgrund von Bewegung und Disparitätsänderungen berücksichtigt, und anhand dieser Information neue Objekte segmentiert oder eine bereits bestehende Objektsegmentierung aktualisiert. Weiterhin wird das erste wiederhergestellte Bild 11 mit dem ersten Originalbild 3 verglichen, um Modellfehler zu entdecken. Diese Bereiche der Modellfehler werden einer Einheit zur Modellfehlerkodierung 13 zugeführt, und dort wie eigenständige Objekte behandelt.The coder contains a unit that decodes the transmitted object parameters locally in the coder in order to simulate the receiver in the coder itself. The decoded objects are stored in the encoder. The restored parameters are made available to the parameter coding unit 7 so that, in the case of a sequence of images, only the change in the object parameters of objects of two images that follow one another in time has to be transmitted. The restored parameters are also reconstructed in an image synthesis unit 1 to a restored image 11 . The image synthesis from the objects takes place hierarchically, taking disparity into account. B. Objects that overlap due to movements, are reconstructed in the correct order, so that the object, which was spatially closer to the camera when recording, is also brought back to the foreground during the reconstruction. The restored image is made available to the image analysis unit which, for. B. changes in the objects due to movement and disparity changes are taken into account, and based on this information new objects are segmented or an existing object segmentation is updated. Furthermore, the first restored image 11 is compared with the first original image 3 in order to discover model errors. These areas of the model errors are fed to a unit for model error coding 13 and are treated there as independent objects.

Kodierung von Stereobildern (vgl. Fig. 2)Coding stereo images (see Fig. 2)

Bei dem bisher beschriebenen Verfahren wurden Informationen übertragen, die dem Empfänger nur die Rekonstruktion des ersten wiederhergestellten Bildes 11 ermöglichen. Eine Rekon­ struktion des zweiten wiederhergestellten Bildes 36 ist anhand der übertragenen Information nicht möglich, da z. B. die Information über die Verdeckungsbereiche verlorengeht (vgl. Abschnitt Interpolation der Verdeckungen). Wird aber, wie in Fig. 2 beschrieben, das zweite wiederhergestellte Bild mit dem zweiten Originalbild in einer weiteren Einheit zur Extrahierung von Modellfehlern 37 verglichen, so kann die gesamte Verdeckungsinformation in der Einheit zur Modellfehlerkodierung 13 erhalten werden und somit dem Empfänger zur Verfügung gestellt werden. Damit der Empfänger auch das erste wiederhergestellte Bild und das zweite wiederhergestellte Bild 36 getrennt rekonstruieren kann, ist es nicht nötig, außer den zusätzlichen Modell-Fehlern des zweiten Originalbildes noch zusätzliche Information im Vergleich zur Kodierung nur eines Bildes zu übertragen. Damit wird es dem Empfänger möglich, zwei Bilder getrennt zu rekonstruieren und somit dreidimensionale Effekte zu erzielen. Durch diesen Vorteil wird nur wenig zusätzliche Information übertragen. Somit wird viel Übertragungskapazität gespart.In the method described so far, information was transmitted which only enables the receiver to reconstruct the first restored image 11 . A reconstruction of the second restored image 36 is not possible on the basis of the transmitted information, since e.g. B. the information about the masking areas is lost (see section interpolation of the masking). If, however, as described in FIG. 2, the second restored image is compared with the second original image in a further unit for extracting model errors 37 , the entire masking information can be obtained in the unit for model error coding 13 and thus made available to the receiver . So that the receiver can also reconstruct the first restored image and the second restored image 36 separately, it is not necessary to transmit additional information in addition to the additional model errors of the second original image in comparison to the coding of only one image. This enables the recipient to reconstruct two images separately and thus achieve three-dimensional effects. This advantage means that little additional information is transmitted. This saves a lot of transmission capacity.

Claims (13)

1. Verfahren zur objektbasierten Bildkodierung,
  • - bei dem durch eine Bewegungsschätzung (25) zweier zeitlich aufeinanderfolgender Bilder, eines ersten Originalbildes (3) und eines folgenden Originalbildes (37), eine Bewegungskarte (Motion Map) (2) für das erste Originalbild (3) erzeugt wird,
  • - bei dem durch eine Disparitätsschätzung (14) des ersten Originalbildes (3) und eines zweiten Originalbildes (5) derselben Szene zu demselben Zeitpunkt, aufgenommen aus unterschiedlichen Perspektiven, eine Disparitätskarte (Disparity Map) (4) für das erste Originalbild (3) und das zweite Originalbild (5) erzeugt wird,
  • - bei dem eine Bildanalyseeinheit (1) aus dem ersten Originalbild (3), der Bewegungskarte (2) und der Disparitätskarte (4) Bildbereiche gleicher Bewegungsschätzung und gleicher Disparitätsschätzung in Objekte des ersten Originalbildes segmentiert,
  • - bei dem die Bildanalyseeinheit (1) zu den Objekten Objektparameter (C, , F und ) bestimmt, die die Objekte charakterisieren,
  • - bei dem die Objektparameter (C, , F und ) in einer Einheit zur Objektparameter-Kodierung (7) kodiert werden,
  • - bei dem die kodierten Objektparameter (38) übertragen werden.
1. method for object-based image coding,
  • - a motion map ( 2 ) for the first original image ( 3 ) is generated by a motion estimation ( 25 ) of two temporally successive images, a first original image ( 3 ) and a subsequent original image ( 37 ),
  • - With a disparity estimate ( 14 ) of the first original image ( 3 ) and a second original image ( 5 ) of the same scene at the same time, taken from different perspectives, a disparity map ( 4 ) for the first original image ( 3 ) and the second original image ( 5 ) is generated,
  • - in which an image analysis unit ( 1 ) from the first original image ( 3 ), the movement map ( 2 ) and the disparity map ( 4 ) segments image areas of the same motion estimate and the same disparity estimate into objects of the first original image,
  • in which the image analysis unit ( 1 ) determines object parameters (C, F and) for the objects that characterize the objects,
  • - in which the object parameters (C,, F and) are coded in a unit for coding the object parameters ( 7 ),
  • - In which the coded object parameters ( 38 ) are transmitted.
2. Verfahren nach Anspruch 1, bei dem eine Regelung zur Verbesserung der übertragenen Objektparameter vorgesehen wird, wobei zu der Regelung folgende Schritte vorgesehen werden:
  • - die kodierten Objektparameter werden in einer Einheit zur Parameter-Dekodierung (8) dekodiert,
  • - die dekodierten Objektparameter (C′, ′, F′ und ′) werden gespeichert (9),
  • - die dekodierten Objektparameter (C′, ′, F′ und ′) werden mit den Objektparametern der Objekte eines zeitlich dem ersten Originalbild- nachfolgenden ersten Originalbildes in der Einheit zur Parameter-Kodierung (7) verglichen und nur die Änderungen der Objektparameter, die zwischen dem ersten Originalbild (3) und dem nachfolgenden ersten Originalbild bestehen, werden übertragen.
2. The method according to claim 1, in which a regulation for improving the transmitted object parameters is provided, the following steps being provided for the regulation:
  • the coded object parameters are decoded in a unit for parameter decoding ( 8 ),
  • - the decoded object parameters (C ′, ′, F ′ and ′) are saved ( 9 ),
  • - The decoded object parameters (C ',', F 'and') are compared with the object parameters of the objects of a temporally following the first original image- first original image in the parameter coding unit ( 7 ) and only the changes in the object parameters between the first original image ( 3 ) and the subsequent first original image are transmitted.
3. Verfahren nach Anspruch 2, bei dem für die Regelung folgende zusätzliche Schritte vorgesehen werden:
  • - aus den dekodierten Objektparametern (C′, ′, F′ und ′) wird in einer Bildsyntheseeinheit (10) ein erstes wiederhergestelltes Bild (11) rekonstruiert,
  • - das erste wiederhergestellte Bild (11) wird der Bildanalyseeinheit (1) zur Verfügung gestellt,
  • - in der Bildanalyseeinheit (1) wird das erste wiederhergestellte Bild (11) mit dem ersten Originalbild (3) verglichen,
  • - in der Bildanalyseeinheit (1) werden Änderungen der Objekte aufgrund von Bewegung oder Disparität analysiert,
  • - bei der Segmentierung der Objekte für ein nachfolgendes Bild werden die Änderungen berücksichtigt, um die Segmentierung der Objekte zu verbessern.
3. The method according to claim 2, in which the following additional steps are provided for the control:
  • a first restored image ( 11 ) is reconstructed from the decoded object parameters (C ′, ′, F ′ and ′) in an image synthesis unit ( 10 ),
  • - The first restored image ( 11 ) is made available to the image analysis unit ( 1 ),
  • - in the image analysis unit ( 1 ) the first restored image ( 11 ) is compared with the first original image ( 3 ),
  • changes in the objects due to movement or disparity are analyzed in the image analysis unit ( 1 ),
  • - When segmenting the objects for a subsequent image, the changes are taken into account in order to improve the segmentation of the objects.
4. Verfahren nach Anspruch 3 bei dem für die Regelung folgende zusätzliche Schritte vorgesehen werden:
  • - eine erste Einheit zur Entdeckung von Modell-Fehlern (12) berechnet aus einem Vergleich des ersten Originalbildes (3) mit dem ersten wiederhergestellten Bild (11) Modell-Fehler (39),
  • - die Modell-Fehler (39) werden in einer Einheit zur Modell- Fehler-Kodierung (13) kodiert.
4. The method according to claim 3, in which the following additional steps are provided for the control:
  • a first unit for discovering model errors ( 12 ) calculates model errors ( 39 ) from a comparison of the first original image ( 3 ) with the first restored image ( 11 ),
  • - The model errors ( 39 ) are encoded in a unit for model error coding ( 13 ).
5. Verfahren nach einem der Ansprüche 1 bis 4, bei dem die Disparitätsschätzung (14) in Form eines Dynamic- Programming-Algorithmus mit einem drei-dimensionalen Suchbereich (15, 16, und 17) erfolgt. 5. The method according to any one of claims 1 to 4, wherein the disparity estimate ( 14 ) in the form of a dynamic programming algorithm with a three-dimensional search area ( 15 , 16 , and 17 ). 6. Verfahren nach Anspruch 5, bei dem bei der Disparitätsschätzung (14) Schritte zur Vorverarbeitung von Bilddaten vorgesehen werden, die den Suchbereich (15, 16, und 17) für den Dynamic-Programming-Algorithmus reduzieren.6. The method according to claim 5, wherein the disparity estimate ( 14 ) provides steps for preprocessing image data which reduce the search area ( 15 , 16 , and 17 ) for the dynamic programming algorithm. 7. Verfahren nach einem der Ansprüche 1 bis 6, bei dem bei der Segmentierung der Objekte Schritte vorgesehen werden zur Elimination eines ersten Objektes (28), wobei das erste Objekt einem größeren benachbarten zweiten Objekt zugewiesen wird nach dem Kriterium Qj,n das Kriterium bezeichnet, nach dem ein Objekt j einem benachbarten Objekt n, bei n=1. . .m benachbarten Objekten, zugewiesen wird, bei dem dieses Kriterium einen minimalen Wert ergibt,
Dj den Disparitätsvektor des Objekts j und Dn den Disparitätsvektor des Objekts n beschreiben,
Hj den horizontalen Bewegungsvektor des Objekts j und Hn den horizontalen Bewegungsvektor des Objekts n beschreiben,
Vj den vertikalen Bewegungsvektor des Objekts j und Vn den vertikalen Bewegungsvektor des Objekts n bezeichnen, und
Bj,n die Anzahl der Pixel angibt, aus denen eine gemeinsame Kontur des Objekts j und des Objekts n besteht.
7. The method according to any one of claims 1 to 6, in which steps are provided in the segmentation of the objects for eliminating a first object ( 28 ), the first object being assigned to a larger neighboring second object according to the criterion Q j, n denotes the criterion according to which an object j adjoins an adjacent object n when n = 1. . in neighboring objects, where this criterion results in a minimum value,
D j describes the disparity vector of object j and D n describes the disparity vector of object n,
H j describe the horizontal movement vector of the object j and H n the horizontal movement vector of the object n,
V j the vertical motion vector of the object j and V n the vertical motion vector of the object refer to n, and
B j, n indicates the number of pixels that make up a common contour of the object j and the object n.
8. Verfahren nach einem der Ansprüche 1 bis 7, bei dem bei der Segmentierung der Objekte Schritte vorgesehen werden zur Verschmelzung (29) benachbarter Objekte, das die Objekte, die zur Verschmelzung in Frage kommen, nach dem folgenden Kriterium ermittelt: (Sj ≠ ERASED, FAULTY) ˆ (sj ≠ ERASED, FAULTY) ˆ (Si = Sj) ˆ
(Dj = Di ±1) ˆ (Hi = Hj) ˆ (Vi = Vj) = TRUE, wobeiSi den Status des Objektes i und Sj den Status des Objektes j beschreiben mit dem in diesem Zusammenhang verwendeten Wert ERASED, der angibt, daß das Objekt mit einem anderen Objekt verschmolzen ist und FAULTY, der angibt, daß das Objekt nicht wiederhergestellt werden kann,
Dj den Disparitätsvektor des Objekts j und Dn den Disparitätsvektor des Objekts n beschreiben,
Hj den horizontalen Bewegungsvektor des Objekts j und Hn den horizontalen Bewegungsvektor des Objekts n beschreiben, und
Vj den vertikalen Bewegungsvektor des Objekts j und Vn den vertikalen Bewegungsvektor des Objekts n bezeichnen.
8. The method according to any one of claims 1 to 7, wherein the segmentation of the objects steps are provided for merging ( 29 ) adjacent objects, which determines the objects that are to be merged according to the following criterion: (S j ≠ ERASED, FAULTY) ˆ (s j ≠ ERASED, FAULTY) ˆ (S i = S j )
(D j = D i ± 1) ˆ (H i = H j ) ˆ (V i = V j ) = TRUE, where S i describe the status of the object i and S j the status of the object j with that used in this context ERASED, which indicates that the object is merged with another object, and FAULTY, which indicates that the object cannot be restored.
D j describes the disparity vector of object j and D n describes the disparity vector of object n,
H j describe the horizontal motion vector of the object j and H n the horizontal motion vector of the object n, and
V j denotes the vertical movement vector of the object j and V n the vertical movement vector of the object n.
9. Verfahren nach einem der Ansprüche 3 bis 8, bei dem für die Regelung folgende zusätzliche Schritte vorgesehen werden:
  • - in der Bildsyntheseeinheit (10) werden das erste wiederhergestellte Bild (11) und ein zweites wiederhergestelltes Bild (36) rekonstruiert,
  • - eine zweite Einheit zur Entdeckung von Modell-Fehlern (40) berechnet aus einem Vergleich des zweiten Originalbildes (5) mit dem zweiten wiederhergestellten Originalbild (36) Modell-Fehler (41) des zweiten Originalbildes (5),
  • - die Modell-Fehler des ersten wiederhergestellten Bildes (39) und die Modell-Fehler des zweiten wiederhergestellten Bildes (41) werden kodiert und übertragen.
9. The method according to any one of claims 3 to 8, in which the following additional steps are provided for the control:
  • - The first restored image ( 11 ) and a second restored image ( 36 ) are reconstructed in the image synthesis unit ( 10 ),
  • a second unit for discovering model errors ( 40 ) calculates model errors ( 41 ) of the second original image ( 5 ) from a comparison of the second original image ( 5 ) with the second restored original image ( 36 ),
  • - The model errors of the first restored image ( 39 ) and the model errors of the second restored image ( 41 ) are encoded and transmitted.
10. Verfahren nach einem der Ansprüche 1 bis 8, bei dem in der Nachverarbeitung der Disparitätsschätzung (14) folgende zusätzliche Schritte vorgesehen werden:
  • - für Bereiche der Disparitätskarte (4), in denen eine Verdeckung (18) auftritt, wird jeweils das für den Bereich lokale Maximum des Luminanzgradienten (20) gesucht,
  • - jeweils ein Teilbereich der Verdeckung (18) von dem lokalen Maximum des Luminanzgradienten (20) zu einem angrenzenden Objekt wird mit dem Luminanzwert (21 und 23) des dem Teilbereich angrenzenden Objekts (22 und 24) aufgefüllt.
10. The method according to any one of claims 1 to 8, in which the following additional steps are provided in the post-processing of the disparity estimate ( 14 ):
  • - For areas of the disparity map ( 4 ) in which occlusion ( 18 ) occurs, the local maximum of the luminance gradient ( 20 ) is searched for,
  • - In each case a partial area of the masking ( 18 ) from the local maximum of the luminance gradient ( 20 ) to an adjacent object is filled with the luminance value ( 21 and 23 ) of the object adjacent to the partial area ( 22 and 24 ).
11. Anordnung zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 8 oder 10,
  • - bei der eine Einheit zur Bewegungsschätzung des ersten Originalbildes (25) anhand des ersten Originalbildes (3) und des folgenden Originalbildes (37) vorgesehen ist,
  • - bei der eine Einheit zur Disparitätsschätzung des ersten Originalbildes (14) anhand des ersten Originalbildes (3) und des zweiten Originalbildes (5) vorgesehen ist,
  • - bei der eine Einheit zur Bildanalyse, Objektsegmentierung und zur Bestimmung der Objektparameter des ersten Originalbildes (1) vorgesehen ist, und
  • - bei der eine Einheit zur Objektparameter-Kodierung (7) der von der Anordnung zur Bildanalyse (1) segmentierten Objekte vorgesehen ist,
11. Arrangement for performing the method according to one of claims 1 to 8 or 10,
  • a unit for estimating the movement of the first original image ( 25 ) on the basis of the first original image ( 3 ) and the following original image ( 37 ) is provided,
  • a unit for estimating the disparity of the first original image ( 14 ) on the basis of the first original image ( 3 ) and the second original image ( 5 ) is provided,
  • - In which a unit for image analysis, object segmentation and for determining the object parameters of the first original image ( 1 ) is provided, and
  • in which a unit for object parameter coding ( 7 ) of the objects segmented by the arrangement for image analysis ( 1 ) is provided,
12. Anordnung nach Anspruch 11,
  • - bei der eine Einheit zur Bewegungsschätzung des ersten Originalbildes (25) anhand des ersten Originalbildes (3) und des folgenden Originalbildes (37) vorgesehen ist,
  • - bei der eine Einheit zur Objektparameter-Dekodierung der Objektparameter (8) zur Rekonstruktion des ersten Originalbildes (3) vorgesehen ist,
  • - bei der eine Einheit zur Speicherung der Objektparameter (9) vorgesehen ist,
  • - bei der eine Einheit zur Bildsynthese (10) des ersten Originalbildes (3) aus den dekodierten Objektparametern der Objekte des ersten Originalbildes (C′, ′, F′ und ′) vorgesehen ist,
  • - bei der eine Einheit (12) zum Vergleichen des ersten Originalbildes (3) mit dem wiederhergestellten ersten Bild (11) und zur Erkennung der Modell-Fehler vorgesehen ist, und
  • - bei der eine Einheit zur Kodierung der Modell-Fehler vorgesehen ist (13).
12. Arrangement according to claim 11,
  • a unit for estimating the movement of the first original image ( 25 ) on the basis of the first original image ( 3 ) and the following original image ( 37 ) is provided,
  • in which a unit for decoding the object parameters of the object parameters ( 8 ) is provided for the reconstruction of the first original image ( 3 ),
  • - in which a unit for storing the object parameters ( 9 ) is provided,
  • - in which a unit for image synthesis ( 10 ) of the first original image ( 3 ) from the decoded object parameters of the objects of the first original image (C ',', F 'and') is provided,
  • - In which a unit ( 12 ) for comparing the first original image ( 3 ) with the restored first image ( 11 ) and for recognizing the model errors is provided, and
  • - in which a unit for coding the model errors is provided ( 13 ).
13. Anordnung zur Durchführung des Verfahrens nach Anspruch 9,
  • - bei der eine Einheit zur Disparitätsschätzung des ersten Originalbildes (14) anhand des ersten Originalbildes (3) und des zweiten Originalbildes (5) vorgesehen ist,
  • - bei der eine Einheit (1) zur Bildanalyse, Objektsegmentierung und zur Bestimmung der Objektparameter des ersten Originalbildes vorgesehen ist,
  • - bei der eine Einheit (7) zur Objektparameter-Kodierung der von der Anordnung zur Bildanalyse (1) segmentierten Objekte (C, , F und ) vorgesehen ist,
  • - bei der eine Einheit (8) zur Objektparameter-Dekodierung der Objektparameter zur Rekonstruktion des ersten Originalbildes (3) vorgesehen ist,
  • - bei der eine Einheit (9) zur Speicherung der Objektparameter vorgesehen ist,
  • - bei der eine Einheit (10) zur Bildsynthese des ersten Originalbildes aus den dekodierten Objektparametern (C′, ′, F′ und ′) der Objekte des ersten Originalbildes vorgesehen ist,
  • - bei der eine Einheit (12) zum Vergleichen des ersten Originalbildes (3) mit dem wiederhergestellten ersten Bild (11) und zur Erkennung der Modell-Fehler (39) vorgesehen ist,
  • - bei der eine Einheit (13) zur Kodierung der Modell-Fehler vorgesehen ist, und
  • - eine Einheit (40) zum Vergleichen des zweiten Originalbildes (5) mit dem wiederhergestellten zweiten Originalbild (36) und zur Erkennung der Modell-Fehler (41) vorgesehen ist.
13. Arrangement for performing the method according to claim 9,
  • a unit for estimating the disparity of the first original image ( 14 ) on the basis of the first original image ( 3 ) and the second original image ( 5 ) is provided,
  • - in which a unit ( 1 ) for image analysis, object segmentation and for determining the object parameters of the first original image is provided,
  • a unit ( 7 ) for coding the object parameters of the objects (C, F and) segmented by the arrangement for image analysis ( 1 ) is provided,
  • - in which a unit ( 8 ) for object parameter decoding of the object parameters for the reconstruction of the first original image ( 3 ) is provided,
  • - in which a unit ( 9 ) is provided for storing the object parameters,
  • - in which a unit ( 10 ) for image synthesis of the first original image from the decoded object parameters (C ',', F 'and') of the objects of the first original image is provided,
  • a unit ( 12 ) for comparing the first original image ( 3 ) with the restored first image ( 11 ) and for recognizing the model errors ( 39 ) is provided,
  • - In which a unit ( 13 ) is provided for coding the model errors, and
  • - A unit ( 40 ) for comparing the second original image ( 5 ) with the restored second original image ( 36 ) and for recognizing the model errors ( 41 ) is provided.
DE19509373A 1995-03-15 1995-03-15 Object based coding of image sequences Expired - Fee Related DE19509373C1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19509373A DE19509373C1 (en) 1995-03-15 1995-03-15 Object based coding of image sequences

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19509373A DE19509373C1 (en) 1995-03-15 1995-03-15 Object based coding of image sequences

Publications (1)

Publication Number Publication Date
DE19509373C1 true DE19509373C1 (en) 1996-08-08

Family

ID=7756738

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19509373A Expired - Fee Related DE19509373C1 (en) 1995-03-15 1995-03-15 Object based coding of image sequences

Country Status (1)

Country Link
DE (1) DE19509373C1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19743221A1 (en) * 1996-03-11 1999-06-10 Samsung Electronics Co Ltd Compression circuit for motion picture
US6751345B2 (en) 2001-02-12 2004-06-15 Koninklijke Philips Electronics N.V. Method and apparatus for improving object boundaries extracted from stereoscopic images
EP1901561A1 (en) * 2006-09-13 2008-03-19 Pixartis SA System for very low rate face image compression
DE102008046505B4 (en) 2008-09-09 2023-06-29 Mercedes-Benz Group AG Process for image processing of stereo images

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
Computer Vision, 2nd European Conference on Computer on Computer Vision, Italy, 18.-23.05.92, ECC V-92, S. 425-433 *
IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. PAM 3-2, No. 4, July 1980, S. 333-340 *
Proc. of the 1. Intern. Festival on 3D Images, Paris, France, 25.-30.09.1991, S. 184-190 *
Signal Processing: Image Communication, Vol. 2, 1990, S. 409-428 *
Signal Processing: Image Communication, Vol. 6, 1994, S. 143-161 *
Singal Processing IV:Theories + Applications, Elsevier Science Publishers B.V., 1988, S. 1125-1128 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19743221A1 (en) * 1996-03-11 1999-06-10 Samsung Electronics Co Ltd Compression circuit for motion picture
DE19743221C2 (en) * 1996-03-11 2000-05-18 Samsung Electronics Co Ltd Motion picture compression circuit and motion picture compression method using motion vectors
US6751345B2 (en) 2001-02-12 2004-06-15 Koninklijke Philips Electronics N.V. Method and apparatus for improving object boundaries extracted from stereoscopic images
EP1901561A1 (en) * 2006-09-13 2008-03-19 Pixartis SA System for very low rate face image compression
WO2008032278A2 (en) * 2006-09-13 2008-03-20 Pixartis S.A. System for very low rate face image compression
WO2008032278A3 (en) * 2006-09-13 2008-07-03 Pixartis S A System for very low rate face image compression
DE102008046505B4 (en) 2008-09-09 2023-06-29 Mercedes-Benz Group AG Process for image processing of stereo images

Similar Documents

Publication Publication Date Title
DE69609702T2 (en) METHOD AND SYSTEM FOR CODING SEGMENTED IMAGES, AND CORRESPONDING DECODING METHOD AND SYSTEM
DE69132156T2 (en) Tracking a moving object
DE69722040T2 (en) 2-D GRID GEOMETRY AND MOTION VECTOR COMPRESSION
DE69529622T2 (en) IMAGE PROCESSING SYSTEM BASED ON MOSAICS AND METHOD FOR PROCESSING IMAGES
DE69523441T2 (en) Method for segmenting and estimating the field of motion of a moving object
DE69811050T2 (en) Reconstruction method, device and decoding system for three-dimensional scenes.
DE69519462T2 (en) Image transmission system and method for data reduction of color images using color tables and summary of image areas
DE69737141T2 (en) IMAGE SEGMENTATION
DE69621509T2 (en) Process for the selection of two individual images of a two-dimensional image sequence as the basis for the calculation of the relative depth of image objects
DE69413384T2 (en) METHOD FOR DETERMINING THE INEQUALITY BETWEEN MONOSCOPIC IMAGES THAT ARE A STEREOSCOPIC IMAGE
DE69421837T2 (en) Video encoders and decoders
DE69932619T2 (en) METHOD AND SYSTEM FOR RECORDING AND REPRESENTING THREE-DIMENSIONAL GEOMETRY, COLOR AND SHADOWING OF ANIMATED OBJECTS
DE69722637T2 (en) MOTION ESTIMATION SYSTEM AND METHOD FOR A VIDEO ENCODER
DE69922183T2 (en) FACE RECOGNITION FROM VIDEO IMAGES
DE69228983T2 (en) System for transmitting and / or storing signals from textured images
DE69728757T2 (en) Method and apparatus for coding an object using a contour motion estimation technique
DE69618759T2 (en) METHOD AND SYSTEM FOR CODING A SEQUENCE OF SEGMENTED IMAGES, CODED SIGNAL AND STORAGE MEDIUM, METHOD AND SYSTEM FOR DECODING THE ENCODED SIGNAL
DE19743202B4 (en) Method for coding a motion vector
EP3789962B1 (en) Method and device for generating data for two dimensional or three dimensional representation of at least part of an object and for generating the two or three-dimensional representation of at least part of the object
EP2528042A1 (en) Method and device for the re-meshing of 3D polygon models
DE69738016T2 (en) Method and device for the adaptive coding of an object contour
DE69130302T2 (en) Method and device for processing scalar data
DE60031014T2 (en) METHOD FOR ASSESSING THE MOTION BETWEEN TWO PICTURES MANAGING THE APPLICATION OF A MACHINE AND CORRESPONDING CODING METHOD
DE19509373C1 (en) Object based coding of image sequences
DE69737711T2 (en) Method and device for coding an object contour using its time correlation

Legal Events

Date Code Title Description
8100 Publication of the examined application without publication of unexamined application
D1 Grant (no unexamined application published) patent law 81
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee