DE69811050T2 - Rekonstruktionsverfahren, Vorrichtung und Dekodierungssystem für dreidimensionalen Szenen. - Google Patents

Rekonstruktionsverfahren, Vorrichtung und Dekodierungssystem für dreidimensionalen Szenen.

Info

Publication number
DE69811050T2
DE69811050T2 DE69811050T DE69811050T DE69811050T2 DE 69811050 T2 DE69811050 T2 DE 69811050T2 DE 69811050 T DE69811050 T DE 69811050T DE 69811050 T DE69811050 T DE 69811050T DE 69811050 T2 DE69811050 T2 DE 69811050T2
Authority
DE
Germany
Prior art keywords
image
depth
vertex
arrangement
voxels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69811050T
Other languages
English (en)
Other versions
DE69811050D1 (de
Inventor
Cecile Dufour
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Application granted granted Critical
Publication of DE69811050D1 publication Critical patent/DE69811050D1/de
Publication of DE69811050T2 publication Critical patent/DE69811050T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/005Tree description, e.g. octree, quadtree
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Image Generation (AREA)

Description

  • Die vorliegende Erfindung bezieht sich auf ein Verfahren zum Rekonstruieren einer dreidimensionalen Szene aus einer zweidimensionalen Videosequenz entsprechend N aufeinander folgenden Bildern einer reellen Szene, und auf eine entsprechende Rekonstruktionsanordnung, sowie auf ein Decodierungssystem.
  • Im Lichte der jüngsten Entwicklungen in der Technologie (und im Rahmen von all dem, was sich auf die künftige MPEG-4-Norm bezieht, vorgesehen zum Schaffen von Mitteln zum Codieren von graphischem und Videomaterial als Gegenstände mit einer bestimmten Beziehung zu Raum und Zeit) wird alles, was sich auf Stereo-Bilder und virtuelle Umgebung bezieht, ein wichtiges Werkzeug, beispielsweise beim Entwickeln, Entwerfen oder Herstellen. Stereo-Bilder, die meistens durch Aufzeichnung zweier etwas voneinander abweichender Gesichtwinkel derselben Szene hergestellt werden, werden in drei Dimensionen erfahren (3D), wenn die genannten Bilder paarweise betrachtet werden und wenn jedes Bild eines Stereo-Paares mit dem betreffenden Auge betrachtet wird. Weiterhin ist in einem derartigen Stereo- und virtuellen Kontext ein freier Spaziergang in die geschaffenen Umgebungen erforderlich und möglich. Diese Schaffung virtueller Umgebungen erfolgt mit Hilfe von Bildsynthese-Werkzeugen, typischerweise entsprechend den nachfolgenden Verfahrensschritten:
  • (a) ein Wiederherstellungsschritt eines 3D geometrischen Modells der betreffenden Szene (beispielsweise durch Verwendung einer Facettendarstellung);
  • (b) einen Bildaufbereitungsschritt, vorgesehen zum Berechnen von Bildern nach spezifischen Gesichtspunkten, wobei alle bekannten Elemente berücksichtigt werden (beispielsweise Leuchten, Reflexionseigenschaften der Facetten, Übereinstimmung zwischen Elementen der reellen Bilder, ...).
  • Die Rekonstruktion eines 3D geometrischen Modells eines Szene erfordert aber, dass eine Bilddeckung unter allen verfügbaren Bildern durchgeführt wird. In dem Dokument "Multiframe image point matching and 3D surface reconstruction", R. Y. Tsai, "IEEE Trans. on Pattern Analysis and Machine Intelligence" Heft PAMI-5, Nr. 2, März 1983, Seiten 159-174, wird ein derartiges Übereinstinimungsproblem durch Berechnu8≠ einer Korrelationsfunktion gelöst, wobei (innerhalb eines definierten Suchfensters längs einer Achse entsprechend dem Abtastgitter des Eingangsbildes) die Information aller anderen Bilder in einem einzigen Durchgang berücksichtigt werden, wodurch auf diese Weise ein ziemlich robustes VerVerfahrengenüber Störungen und periodischen Strukturen geschaffen wird. Das Minimum dieser Funktion schafft eine Schätzung der Tiefe des Pixels in der Mittel des Suchfensters. Unglücklicherweise hat diese Tiefenschätzung eine nicht lineare Abhängigkeit (in 1/x in dem einfachsten Fall) von dem Abtastgitter. Weiterhin kann die Tiefenabbildungsschätzung für eine Oberfläche, erhalten von einem Bild nicht auf einfache Weise mit der Tiefenabbildungsschätzung der gleichen Oberfläche, erhalten von einem anderen Bild verglichen werden, weil sie sich nicht dasselbe Bezugsgitter teilen (sie haben nur eine Beziehung zueinander durch ihr betreffendes Bildabtastgitter).
  • Es ist nun u. a. eine erste Aufgabe der vorliegenden Erfindung ein Szenenrekonstruktionsverfahren vorzuschlagen, das nicht länger diese Nachteile aufweist.
  • Dazu bezieht sich die vorliegende Erfindung auf ein Rekonstruktionsverfahren, wie dies in der Einleitung der Beschreibung definiert worden ist und das weiterhin das Kennzeichen aufweist, dass es in Reihe für jedes Bild segmentiert in dreieckige Gebiete der Sequenz Folgendes umfasst:
  • (A) einen ersten Tiefenbezeichnungsschritt, in dem, wenn jedes Bild als die Projektion eines kontinuierlichen 3D Blattes betrachtet wird, eine Mehrfachbildübereinstimmung durchgeführt wird, unabhängig von jedem Bild, damit eine Ungleichheitsabbildung entsprechend der Tiefenabbildung des genannten 3D Blattes erhalten wird;
  • (B) einen zweiten 3D Modell-Extraktionsschritt, in dem eine Octree-Unterteilung des 3D Tiefenraums durchgeführt wird und die Voxel (Volumenelemente), die in dem Schnittpunkt aller 3D Tiefenblätter liegen, geführt werden. Ein Octree ist eine Baumstrukturierte Darstellung, die benutzt wird zum Beschreiben eines Satzes binär bewerteter Volumendaten, eingeschlossen durch einen Begrenzungswürfel und dadurch konstruiert, dass jeder Würfel rekursiv in acht Subwürfel aufgeteilt wird, ausgehend von dem Wurzenknotenpunkt, der ein einziger großer Würfel ist: Octrees sind eine effiziente Darstellung für viele Volumengegenstände, da es einen großen Grad an Kohärenz gibt zwischen benachbarten Voxeln in einem typischen Gegenstand.
  • Mit einer derartigen Annäherung wird eine Korrelationsfunktion längs einer Achse entsprechend abgetasteten Tiefenwerten in dem Koordinatensystem der 3D Welt berechnet (wobei ein Tiefenabtastgitter gebildet wird, das nach Belieben des Benutzers vorgesehen wird), wobei alle Bilder berücksichtigt werden, und der Minimalwert dieser Funktion unmittelbar an einen genauen Tiefenwert in dem genannten Koordinatensystem relatiert wird (dies ist von großem Vorteil, wenn mehrere Tiefenschätzungen von verschiedenen Gesichtspunkten erhalten werden). Das Tiefelabtastgitter wird auf Wunsch von dem Benutzer vorgesehen und wird vorteilhafterweise mit regelmässigen Zwischenräumen gewählt, wobei aber bestimmte Vorkenntnisse über die zu rekonstruierende Oberfläche berücksichtigt werden (beispielsweise wenn die genannte Oberfläche bekannterweise innerhalb eines vorbestimmten Begrenzungskastens liegt, was bei Innen-Szenen der Fall ist).
  • Das Dokument USP 5598515 beschreibt ein System und ein Verfahren zum Rekonstruieren einer dreidimensionalen Szene oder von Elementen einer derartigen Szene aus einer Anzahl zweidimensionaler Bilder der genannten Szene, aber entsprechend einer komplexen Prozedur, die, im Falle der vorliegenden Erfindung, durch eine einfachere Prozedur ersetzt wird, die aufeinander folgenden Verfeinerungen ausgesetzt wird, bis Konvergenz erhalten wird.
  • Nach der vorliegenden Erfindung umfasst der genannte Tiefelbezeichungsschritt vorzugsweise in Reihe nacheinander einen Initialisierungs-Subschritt, vorgesehen um während einer ersten Wiederholung ein vorbereitendes 3D Tiefenblatt für das betreffende Bild zu definieren, und einen Verfeinerungs-Subschritt, vorgesehen um für jeden Scheitelpunkt jedes Gebietes einen Fehlervektor zu definieren, für jede abgetastete Tiefe entsprechend der Summierung korrelierter Kosten zwischen jedem der (N-1) Paare von Bildern (für eine Sequenz von N Bildern) an einem Fenster, speziell definiert für den genannten Scheitelpunkt und wobei der Index gespeichert wird, der die minimalen Korrelationskosten schafft, wobei ein zusätzlicher Vorgang durchgeführt wird um nach der ersten Wiederholung den Initialisierungs-Subschritt durch einen Projektions-Subschritt zu ersetzen, erstens vorgesehen zum Einstellen der Position und des Gesichtsfeldes der Bildanforderungsanordnung entsprechend den Parametern und der Scheitelpunktabbildung in der Nähe der Bildebene, und zweitens um für jeden Scheitelpunkt die Voxel aufzulisten, welche die Linie schneiden, die durch den Scheitelpunkt und den optischen Mittelpunkt der genannten Anforderungsanordnung gehen, und zwar in der Sehrichtung, und um das der Bildebene am nächsten liegende Voxel zu selektieren. Was den genannten 3D Modellexraktionsschritt anbelangt umfasst dieser vorzugsweise in Reihe einen Auflösungsdefinitions-Subschritt, vorgesehen zum Definieren der Auflösung des Voxelgitters, und einen Voxelselektions-Subschritt, vorgesehen um für jedes Bild die Voxel zu behalten, die innerhalb der nicht leeren Räume liegen, vorgesehen durch jede Tiefenabbildung und danach nur diejenigen Voxel zu behalten, die an der Kreuzung aller nicht leeren Räume liegen.
  • Es ist eine andere Aufgabe der vorliegenden Erfindung eine Rekonstruktionsanordnung vorzuschlagen, wodurch es möglich ist, dieses Verfahren durchzuführen.
  • Dazu bezieht sich die vorliegende Erfindung auf eine Anordnung zum Rekonstruieren einer dreidimensionalen Szene aus einer zweidimensionalen Videosequenz entsprechend N aufeinander folgenden Bildern einer Realszene, dadurch gekennzeichnet, dass:
  • (I) jedes der N Bilder der Sequenz in dreieckige Gebiete segmentiert ist;
  • (II) die genannte Anordnung zum Verarbeiten jedes Bildes der genannten Sequenz die nachfolgenden Elemente umfasst:
  • (A) ein Tiefenbezeichnungs-Subsystem, das an sich wieder nacheinander die folgenden Anordnungen aufweist:
  • (1) eine Initialisierungsanordnung, vorgesehen um während einer ersten Wiederholung einen Fehlervektor zu definieren für einen Satz abgetasteter Tiefen entsprechend der Summierung von Korrelationskosten zwischen jedem der (N-1) Bilderpaare und dem Index, der die minimalen Korrelationskosten schafft, wobei der Tiefenwert jedes Scheitelpunktes der Gebiete durch Interpolation zwischen den für die benachbarten Gebiete erhaltenen Tiefen berechnet wird;
  • (2) eine Verfeinerungsanordnung, vorgesehen um auf gleiche Weise für jeden Scheitelpunkt einen Fehlervektor in einem vorher begrenzten Fenster zu definieren und auf entsprechende Weise den Index, der die minimalen Korrelationskosten schafft, zu definieren;
  • (B) ein Rekonstruktions-Subsystem, vorgesehen zum Selektieren der Auflösung des Voxelgitters und um für jedes Bild diejenigen Voxel zu behalten, die innerhalb der nicht leeren Räume liegen, vorgesehen durch jede Tiefenabbildung, und zum Schluss nur diejenigen Voxel zu behalten, die auf der Kreuzung aller nicht leeren Räume liegen;
  • (III) das genannte Tiefenbezeichnungs-Subsystem ebenfalls eine Projektionsanordnung aufweist um während der nachfolgenden Wiederholungen die Initialisierungsanordnung zu ersetzen und vorgesehen zum Einstellen der Position und des Gesichtsfeldes der Bildanforderungsanordnung, und der Scheitelpunktabbildung sehr nahe bei der Bildebene, und für jeden Scheitelpunkt diejenigen Voxel aufzulisten, welche die Linie durch den Scheitelpunkt und den optischen Mittelpunkt der genannten Anforderungsanordnung gehen, und zwar in der Sehrichtung und die der Bildebene am nächsten liegende Voxel zu selektieren. Die vorliegende Erfindung bezieht sich ebenfalls auf ein Video-Decodierungssystem mit einer derartigen Rekonstruktionsanordnung.
  • Ausführungsbeispiele der Erfindung sind in der Zeichnung dargestellt und werden im vorliegenden Fall näher beschrieben. Es zeigen:
  • Fig. 1 das globale Schema einer Rekonstruktionsanordnung nach der vorliegenden Erfindung,
  • Fig. 2 eine Darstellung der Vorgänge, durchgeführt in der Initialisierungsanordnung der Anordnung nach Fig. 1,
  • Fig. 3 eine Darstellung der Vorgänge, durchgeführt in der Verfeinerungsanordnung der Anordnung nach Fig. 1,
  • Fig. 4 eine Darstellung der Vorgänge, durchgeführt in dem 3D Rekonstruktions-Subsystem der Anordnung nach Fig. 1,
  • Fig. 5 eine Darstellung der Vorgänge, durchgeführt in der Projektionsanordnung der Anordnung nach Fig. 1.
  • Die in Fig. 1 dargestellte Anordnung hat die Aufgabe nach der vorliegenden Erfindung die Rekonstruktion von Szenen in dreidimensionaler Form (3D) zu ermöglichen, und zwar auf Basis einer Sequenz von N aufeinander folgender zweidimensionaler Bilder (2D) der genannten Szenen. Die genannte Wiederherstellung wird in zwei Subsystemen 11 und 12 entsprechend einer Implementierung in zwei Schritten, die wiederholt werden sollen, verwirklicht. Der erste Schritt ist ein Tiefenbezeichnungsschritt: Jedes Bild wird als die Projektion eines kontinuierlichen 3D-Blattes betrachtet, und eine Mehrfach-Bilddeckung wird unabhängig an jedem Bild durchgeführt um eine Ungleichheitsabbildung zu erhalten, wobei jede Ungleichheitsabbildung dann der Tiefenabbildung des 3D Blattes entspricht (die Ungleichheit, deren Messung eine Tiefenschätzung ergibt, ist die Verschiebung einer Stelle auf dem linken (rechten) Bild gegenüber dem rechten (linken) Bild und die Lösung jedes Übereinstimmungsproblems ist eine Ungleichheitsabbildung). Der zweite Schritt ist ein 3D Modellextraktionsschritt: es wird ein Octree-Unterteilung des 3D-Raums durchgeführt und Voxel, die in der Kreuzung aller 3D Tiefenblätter liegen, werden beibehalten.
  • Die Anordnung nach Fig. 1 wird dazu in zwei Teile aufgeteilt: das Tiefenbezeichnungs-Subsystem 11, zum Durchführen des ersten Tiefenbezeichnungsschrittes, und das 3D Rekonstruktions-Subsystem 12, zum Durchführen des 3D Modellextraktionsschrittes. Das Tiefenbezeichnungs-Subsystem 11 umfasst an sich eine Initialisierungsanordnung, eine Projektionsanordnung 112 und eine Verfeinerungsanordnung 113.
  • Die Initialisierungsanordnung umfasst, wie in Fig. 1 dargestellt, eine Testschaltung 1111, der eine Initialisierungsschaltung 1112 folgt. Die Testschaltung 1111 ist vorgesehen um entweder in Richtung der Schaltungsanordnung 1112 (YES) zu schalten, wenn es sich um die erste Wiederholung handelt, und zwar am Anfang der Prozedur, oder in Richtung der Anordnung 112 (NO), wenn die Initialisierung bereits durchgeführt worden ist.
  • Wenn I das Bild ist, für das man wünscht, dass ein Tiefenblatt wiederhergestellt wird, und wenn I1 bis IN die Bilder sind, die für eine Mehrfach-Bilddeckung benutzt werden, wird vorausgesetzt, dass innerhalb des betreffenden Gesichtsfeldes I in dreieckige Gebiete segmentiert wird, von denen vorausgesetzt wird, dass sie sich parallel zu der Bildebene von I erstrecken. Für jedes Gebiet R(I) werden dann nacheinander drei Vorgänge in Subschritten 1112a, 1112b und 1112c (dargestellt in Fig. 2) durchgeführt, damit in dem aktuellen Gesichtsfeld die Tiefe dieses Gebietes unter einem Satz S vorbestimmter Tiefen D1, D2, ..., Di, ...., DM erhalten wird.
  • Der Subschritt 1112a (Fig. 2, oberen Teil) ermöglicht es, für jedes Gebiet einen Fehlervektor V(i) definierter Länge zu berechnen, wobei der genannte Vektor für jede abgetastete Tiefe (C ist der optische Bezugsmittelpunkt) der Summierung von Korrelationskosten zwischen jedem der (N-1) Bilderpaare (Bild 1, Bild j) entspricht, was durch die nachfolgende Gleichung ausgedrückt werden kann:
  • V(i) = err(i)[Ii,Ij]
  • Jede Koordinate i von V(i) entspricht der Summe der Fehler aufgetreten bei der Tiefe Di in jedem Bild. Das Korrelationsmaß err(i)[Ii, Ij] ist ein statistischer Gesamtfehler zwischen Pixeln von R(I) und Pixeln des Gebietes R(Ij) in dem Bild Ij, von dem vorausgesetzt wird, dass es auf einer Tiefe Di liegt und erhalten unter Verwendung der Projektionsmatrix, die sich auf das Koordinatensystem der Bilder I und Ij bezieht. Der Subschritt 1112b (Fig. 2, mittleren Teil) ermöglicht es, für jedes Gebiet den Index zu finden, der die minimalen Korrelationskosten schafft, und dass der Subschritt 1112c (Fig. 2 unteren Teil) für jeden Scheitelpunkt jedes Gebietes den Tiefenwert dadurch berechnet, dass zwischen den Tiefen, erhalten für die Nachbargebiete (d. h. die Tiefe jedes Scheitelpunktes der dreieckigen Gebiete wird der mittlere Wert der Tiefen der Gebiete sein, die sich den Scheitelpunkt teilen).
  • Durch die Initialisierung wird ein vorbereitendes 3D Tiefenblatt für das Bild I erhalten. Jedes Gebiet R(I) hat nun eine Schätzung seiner 3D Position und Orientierung, gegeben durch die 3D Koordinaten der drei Scheitelpunkte. Die genannte Orientierung der Gebiete entspricht aber nicht länger der Ausgangsvoraussetzung, dass sie sich parallel zu der Bildebene des Bildes I erstrecken.
  • Die Initialisierungsanordnung könnte dann iterativ benutzt werden und wieder laufen, wobei dann aber die neuen Schätzungen der Orientierungen jedes Gebiet in dem Bild I berücksichtigt werden. Eine andere Annäherung ist zum Schluss bevorzugt worden: stattdessen, dass unabhängig von jedem Gebiet nach Fehlervektoren gesucht wird, werden Fehlervektoren unabhängig für die Scheitelpunkte in I gesucht (Tiefenschätzungen werden nun für jeden Scheitelpunkt gesucht, während die Tiefenschätzungen an benachbarten Scheitelpunkten ungeändert bleiben). Diese Annäherung wird in der Verfeinerungsanordnung 113 durchgeführt.
  • Diese Anordnung 113, die, wie in Fig. 1 dargestellt, (und wobei Fig. 3 die in der genannten Anordnung durchgeführten Subschritte zeigt) die Tiefenabbildungen an dem Ausgang der Schaltungsanordnung 1112 empfängt, umfasst zunächst eine Vektorberechnungsschaltung 1131, in der für jeden Scheitelpunkt ein Fenster W definiert wird, an dem Korrelationskosten gemessen werden (Fig. 3, oberen Teil). Für jeden Scheitelpunkt wird dann ein Fehlervektor berechnet (Fig. 3, mittleren Teil), der für jede abgetastete Tiefe der Summierung von Korrelationskosten zwischen jedem der (N-1) Paare von Bildern (Bild i, Bild j) an dem begrenzten Fenster entspricht. In einer Entscheidungsschaltung 1132wird dann der Index gefunden (Fig. 3, unteren Teil), der die minimalen Korrelationskosten für jeden Scheitelpunkt schafft. Nun ist ein verfeinertes 3D Tiefenblatt verfügbar.
  • Die an dem Ausgang der Anordnung 113 verfügbaren Tiefenabbildungen sind die Ausgangssignale des Tiefenbezeichnungssubsystems 11 und werden dem 3D Rekonstruktionssubsystem 12 zugeführt, das, wie in Fig. 1 dargestellt (und in Fig. 4, welche die Subschritte zeigt, die in der genannten Anordnung durchgeführt werden), eine Auflösungsdefinitionsanordnung 121 umfasst, der in Reihe eine Voxelselektionsanordnung 122 und eine Testschaltung 123 folgen. In der Anordnung 121 wird die Auflösung des Voxelgitters gewählt (Fig. 4, oberen Teil). In der Anordnung 122 werden für jedes Bild die Voxel, die innerhalb der nicht leeren Räume liegen, die durch jede Tiefenabbildung geschaffen werden, beibehalten (Fig. 4, mittleren Teil) und nur die Voxel, die auf der Kreuzung aller nicht leeren Räume liegen, werden zum Schluss beibehalten (Fig. 4, unteren Teil). Danach wird in der Testschaltung 123 ein Test der Konvergenz durchgeführt, wobei einige der vorhergehenden Schritte wiederholt werden sollen, bis die genannte Konvergenz erhalten wird.
  • Da die Initialisierung während der oben beschriebenen ersten Wiederholung durchgeführt wurde, schaltet am Anfang der zweiten Wiederholung die Testschaltung 1111 zu der Projektionsanordnung 112. In Bezug auf die ersten Subschritte 1112a, 1112b und 1112c, die in der Schaltungsanordnung 1112 durchgeführt worden sind, ermöglichen nun die Subschritte 1121a, 1121b, vorgesehen in der Anordnung 112 und dargestellt in Fig. 5: (a) die Position und das Gesichtsfeld der Kamera entsprechend den Kameraparametern einzustellen (Fig. 5, oberen Teil) sowie die Scheitelpunktabbildung sehr nahe bei der Bildebene, und: (b) für jeden Scheitelpunkt (Fig. 5, mittleren Teil) die Voxel aufzulisten, welche die Linie durch den Scheitelpunkt und den optischen Mittelpunkt der Kamera schneiden, in der Sehrichtung und die Voxel zu selektieren, die der Bildebene am nächsten liegen. Der Ausgang der genannten Anordnung 112, dargestellt in Fig. 5, unteren Teil, wird danach der Verfeinerungsanordnung 113 zugeführt (wie der Ausgang der Anordnung 112 im Falle der ersten Wiederholung), die funktioniert, wie bereits beschrieben worden ist.

Claims (5)

1. Verfahren zum Rekonstruieren einer dreidimensionalen Szene aus einer zweidimensionalen Videosequenz entsprechend N aufeinander folgenden Bildern einer reellen Szene, wobei dieses Verfahren für jedes Bild die nachfolgenden Verfahrensschritte umfasst:
(A) einen Segmentierungsschritt, in dem das Bild in dreieckige Gebiete segmentiert wird,
(B) einen Tiefenbezeichnungsschritt, in dem das Bild an andere Bilder angepasst wird, damit eine Ungleichheitsabbildung entsprechend der Tiefenabbildung des genannten Bildes erhalten wird;
(C) einen 3D Modell-Extraktionsschritt, in dem eine Octree-Unterteilung des 3D Raums durchgeführt wird und die Voxel, die in dem Schnittpunkt aller Tiefenabbildungen liegen, beibehalten werden.
2. Verfahren nach Anspruch 1, wobei der genannte Tiegenbezeichnungsschritt in Reihe nacheinander die folgenden Schritte umfasst: einen Initialisierungs-Subschritt, vorgesehen um während einer ersten Wiederholung eine vorbereitende 3D Tiefenabbildung für das betreffende Bild zu definieren, und einen Verfeinerungs-Subschritt, vorgesehen um für jeden Scheitelpunkt jedes Gebietes einen Fehlervektor zu definieren, für jede abgetastete Tiefe entsprechend der Summierung korrelierter Kosten zwischen jedem der (N-1) Paare von Bildern an einem Fenster, speziell definiert für den genannten Scheitelpunkt und wobei der Index gespeichert wird, der die minimalen Korrelationskosten schafft, wobei ein zusätzlicher Vorgang durchgeführt wird um nach der ersten Wiederholung den Initialisierungs-Subschritt durch einen Projektions-Subschritt zu ersetzen, erstens vorgesehen zum Einstellen der Position und des Gesichtsfeldes der Bildanforderungsanordnung entsprechend den Parametern und der Scheitelpunktabbildung in der Nähe der Bildebene, und zweitens um für jeden Scheitelpunkt die Voxel aufzulisten, welche die Linie schneiden, die durch den Scheitelpunkt und den optischen Mittelpunkt der genannten Anforderungsanordnung gehen, und zwar in der Sehrichtung, und um das der Bildebene am nächsten liegende Voxel zu selektieren.
3. Verfahren nach Anspruch 2, wobei der genannte 3D Modellextraktionsschritt in Reihe einen Auflösungsdefinitionsschritt umfasst, vorgesehen zum Definieren der Auflösung des Voxelgitters, und einen Voxelselektions-Subschritt, vorgesehen um für jedes Bild die Voxel zu behalten, die innerhalb der nicht leeren Räume liegen, vorgesehen durch jede Tiefenabbildung und danach nur diejenigen Voxel zu behalten, die an der Kreuzung aller nicht leeren Räume liegen.
4. Anordnung zum Rekonstruieren einer dreidimensionalen Szene aus einer zweidimensionalen Videosequenz entsprechend N aufeinander folgender Bilder einer reellen Szene, wobei:
(I) jedes der N Bilder der Sequenz in dreieckige Gebiete segmentiert wird;
(II) die genannte Anordnung zum Verarbeiten jedes Bildes der genannten Sequenz die nachfolgenden Elemente umfasst:
(A) ein Tiefenbezeichnungssubsystem, das an sich wieder nacheinander die folgenden Anordnungen aufweist:
(1) eine Initialisierungsanordnung, vorgesehen um während einer ersten Wiederholung einen Fehlervektor zu definieren für einen Satz abgetasteter Tiefen entsprechend der Summierung von Korrelationskosten zwischen jedem der (N-1) Bilderpaare und dem Index, der die minimalen Korrelationskosten schafft, wobei der Tiefenwert jedes Scheitelpunktes der Gebiete durch Interpolation zwischen den für die benachbarten Gebiete erhaltenen Tiefen berechnet wird;
(2) eine Verfeinerungsanordnung, vorgesehen um auf gleiche Weise für jeden Scheitelpunkt einen Fehlervektor in einem vorher begrenzten Fenster zu definieren und auf entsprechende Weise den Index, der die minimalen Korrelationskosten schafft, zu definieren;
(B) ein Rekonstruktions-Subsystem, vorgesehen zum Selektieren der Auflösung des Voxelgitters und um für jedes Bild diejenigen Voxel zu behalten, die innerhalb der nicht leeren Räume liegen, vorgesehen durch jede Tiefenabbildung, und zum Schluss nur diejenigen Voxel zu behalten, die auf der Kreuzung aller nicht leeren Räume liegen;
(III) das genannte Tiefenbezeichnungs-Subsystem ebenfalls eine Projektionsanordnung aufweist um während der nachfolgenden Wiederholungen die Initialisierungsanordnung zu ersetzen und vorgesehen ist zum Einstellen der Position und des Gesichtsfeldes der Bildanforderungsanordnung, und der Scheitelpunktabbildung sehr nahe bei der Bildebene, und für jeden Scheitelpunkt diejenigen Voxel aufzulisten, welche die Linie, die durch den Scheitelpunkt und den optischen Mittelpunkt der genannten Anforderungsanordnung geht, und zwar in der Sehrichtung, schneidet und die der Bildebene am nächsten liegende Voxel zu selektieren.
5. Videodecodierungssystem mit einer Rekonstruktionsanordnung nach Anspruch 4.
DE69811050T 1997-07-29 1998-06-25 Rekonstruktionsverfahren, Vorrichtung und Dekodierungssystem für dreidimensionalen Szenen. Expired - Fee Related DE69811050T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP97401822 1997-07-29
PCT/IB1998/000983 WO1999006956A1 (en) 1997-07-29 1998-06-25 Method of reconstruction of tridimensional scenes and corresponding reconstruction device and decoding system

Publications (2)

Publication Number Publication Date
DE69811050D1 DE69811050D1 (de) 2003-03-06
DE69811050T2 true DE69811050T2 (de) 2003-11-06

Family

ID=8229829

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69811050T Expired - Fee Related DE69811050T2 (de) 1997-07-29 1998-06-25 Rekonstruktionsverfahren, Vorrichtung und Dekodierungssystem für dreidimensionalen Szenen.

Country Status (6)

Country Link
US (2) US6351572B1 (de)
EP (1) EP0928460B1 (de)
JP (1) JP2001501348A (de)
KR (1) KR20000068660A (de)
DE (1) DE69811050T2 (de)
WO (1) WO1999006956A1 (de)

Families Citing this family (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6999073B1 (en) * 1998-07-20 2006-02-14 Geometrix, Inc. Method and system for generating fully-textured 3D
US6871167B1 (en) * 1999-10-26 2005-03-22 Agere Systems Inc. System and method for determining capacitance for large-scale integrated circuits
US6990228B1 (en) * 1999-12-17 2006-01-24 Canon Kabushiki Kaisha Image processing apparatus
US6674877B1 (en) * 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
JP4550221B2 (ja) * 2000-04-24 2010-09-22 パナソニック株式会社 三次元空間再構成装置及び三次元空間再構成方法
US20030206652A1 (en) * 2000-06-28 2003-11-06 David Nister Depth map creation through hypothesis blending in a bayesian framework
US6868191B2 (en) * 2000-06-28 2005-03-15 Telefonaktiebolaget Lm Ericsson (Publ) System and method for median fusion of depth maps
FI109633B (fi) * 2001-01-24 2002-09-13 Gamecluster Ltd Oy Menetelmä videokuvan pakkauksen nopeuttamiseksi ja/tai sen laadun parantamiseksi
US6914600B2 (en) * 2001-06-26 2005-07-05 Hewlett-Packard Development Company, L.P. Volumetric warping for voxel coloring on an infinite domain
KR100446635B1 (ko) * 2001-11-27 2004-09-04 삼성전자주식회사 깊이 이미지 기반 3차원 객체 표현 장치 및 방법
JP3794681B2 (ja) * 2001-11-29 2006-07-05 株式会社スクウェア・エニックス ビデオゲーム処理方法及びビデオゲーム処理装置及びビデオゲームのプログラム及びビデオゲームのプログラムを記録した記録媒体
US7489812B2 (en) * 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
AUPS283602A0 (en) * 2002-06-07 2002-06-27 Dynamic Digital Depth Research Pty Ltd Improved conversion and encoding techniques
US7092484B1 (en) 2002-06-14 2006-08-15 Iowa State University Research Foundation, Inc. Model-assisted reconstruction of volumetric data
US7161579B2 (en) 2002-07-18 2007-01-09 Sony Computer Entertainment Inc. Hand-held computer interactive device
US8797260B2 (en) 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US7646372B2 (en) 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US8947347B2 (en) * 2003-08-27 2015-02-03 Sony Computer Entertainment Inc. Controlling actions in a video game unit
US7102615B2 (en) 2002-07-27 2006-09-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
US7883415B2 (en) 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US7623115B2 (en) 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US9474968B2 (en) 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US7854655B2 (en) 2002-07-27 2010-12-21 Sony Computer Entertainment America Inc. Obtaining input for controlling execution of a game program
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US8233642B2 (en) * 2003-08-27 2012-07-31 Sony Computer Entertainment Inc. Methods and apparatuses for capturing an audio signal based on a location of the signal
US7803050B2 (en) * 2002-07-27 2010-09-28 Sony Computer Entertainment Inc. Tracking device with sound emitter for use in obtaining information for controlling game program execution
US8160269B2 (en) 2003-08-27 2012-04-17 Sony Computer Entertainment Inc. Methods and apparatuses for adjusting a listening area for capturing sounds
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US7850526B2 (en) * 2002-07-27 2010-12-14 Sony Computer Entertainment America Inc. System for tracking user manipulations within an environment
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US8686939B2 (en) 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US7918733B2 (en) * 2002-07-27 2011-04-05 Sony Computer Entertainment America Inc. Multi-input game control mixer
US9174119B2 (en) 2002-07-27 2015-11-03 Sony Computer Entertainement America, LLC Controller for providing inputs to control execution of a program when inputs are combined
US8139793B2 (en) 2003-08-27 2012-03-20 Sony Computer Entertainment Inc. Methods and apparatus for capturing audio signals based on a visual image
US9682319B2 (en) 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
US7277599B2 (en) * 2002-09-23 2007-10-02 Regents Of The University Of Minnesota System and method for three-dimensional video imaging using a single camera
DE10253617B4 (de) * 2002-11-15 2005-06-30 Siemens Ag Verfahren zur Darstellung eines ineinem Volumendatensatz abgebildeten Objektes
CN100551083C (zh) * 2003-01-20 2009-10-14 三洋电机株式会社 立体观察用图像提供方法和立体图像显示装置
US9177387B2 (en) 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US8287373B2 (en) 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
US10279254B2 (en) 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
US9573056B2 (en) 2005-10-26 2017-02-21 Sony Interactive Entertainment Inc. Expandable control device via hardware attachment
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US7663689B2 (en) 2004-01-16 2010-02-16 Sony Computer Entertainment Inc. Method and apparatus for optimizing capture device settings through depth information
US7660472B2 (en) * 2004-02-10 2010-02-09 Headplay (Barbados) Inc. System and method for managing stereoscopic viewing
EP1727091A1 (de) * 2004-02-27 2006-11-29 Tdvision Corporation S.A. DE C.V. Verfahren und system zum digitalen codieren von stereoskopischen 3d-videobildern
CN1938727A (zh) * 2004-02-27 2007-03-28 Td视觉有限公司 用于数字解码3d立体视频图像的方法和系统
KR100601958B1 (ko) 2004-07-15 2006-07-14 삼성전자주식회사 3차원 객체 인식을 위한 양안차 추정 방법
US8547401B2 (en) 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
KR100601989B1 (ko) * 2005-02-07 2006-07-18 삼성전자주식회사 3차원 형상 생성 장치와 방법 및 컴퓨터 프로그램을저장한 컴퓨터로 읽을 수 있는 기록매체
JP2008021092A (ja) * 2006-07-12 2008-01-31 Fanuc Ltd ロボットシステムのシミュレーション装置
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
US8781151B2 (en) 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
US8340422B2 (en) * 2006-11-21 2012-12-25 Koninklijke Philips Electronics N.V. Generation of depth map for an image
KR100866491B1 (ko) * 2007-01-30 2008-11-03 삼성전자주식회사 영상 처리 방법 및 장치
GB2452508A (en) * 2007-09-05 2009-03-11 Sony Corp Generating a three-dimensional representation of a sports game
KR101327794B1 (ko) 2007-10-23 2013-11-11 삼성전자주식회사 깊이 정보 획득 방법 및 장치
US8411934B2 (en) * 2007-11-09 2013-04-02 Thomson Licensing System and method for depth map extraction using region-based filtering
US8351685B2 (en) * 2007-11-16 2013-01-08 Gwangju Institute Of Science And Technology Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same
US8542907B2 (en) 2007-12-17 2013-09-24 Sony Computer Entertainment America Llc Dynamic three-dimensional object mapping for user-defined control device
US8233077B2 (en) * 2007-12-27 2012-07-31 Qualcomm Incorporated Method and apparatus with depth map generation
CN103258184B (zh) 2008-02-27 2017-04-12 索尼计算机娱乐美国有限责任公司 用于捕获场景的深度数据并且应用计算机动作的方法
US8368753B2 (en) 2008-03-17 2013-02-05 Sony Computer Entertainment America Llc Controller with an integrated depth camera
JP2011519227A (ja) * 2008-04-25 2011-06-30 トムソン ライセンシング 奥行き信号の符号化
WO2010018880A1 (en) * 2008-08-11 2010-02-18 Postech Academy-Industry Foundation Apparatus and method for depth estimation from single image in real time
US9179153B2 (en) 2008-08-20 2015-11-03 Thomson Licensing Refined depth map
US8961313B2 (en) 2009-05-29 2015-02-24 Sony Computer Entertainment America Llc Multi-positional three-dimensional controller
EP2377074A4 (de) 2009-01-07 2017-06-14 Thomson Licensing Verbindungstiefenmessung
US8527657B2 (en) 2009-03-20 2013-09-03 Sony Computer Entertainment America Llc Methods and systems for dynamically adjusting update rates in multi-player network gaming
US8342963B2 (en) 2009-04-10 2013-01-01 Sony Computer Entertainment America Inc. Methods and systems for enabling control of artificial intelligence game characters
US8142288B2 (en) 2009-05-08 2012-03-27 Sony Computer Entertainment America Llc Base station movement detection and compensation
US8393964B2 (en) 2009-05-08 2013-03-12 Sony Computer Entertainment America Llc Base station for position location
US8933925B2 (en) * 2009-06-15 2015-01-13 Microsoft Corporation Piecewise planar reconstruction of three-dimensional scenes
KR101975247B1 (ko) * 2011-09-14 2019-08-23 삼성전자주식회사 영상 처리 장치 및 그 영상 처리 방법
KR101919831B1 (ko) 2012-01-11 2018-11-19 삼성전자주식회사 오브젝트 인식 장치, 분류 트리 학습 장치 및 그 동작 방법
FR2988504B1 (fr) * 2012-03-23 2014-05-09 Commissariat Energie Atomique Procede de determination d'un plan du sol a partir d'une image de profondeur
RU2479039C1 (ru) * 2012-03-26 2013-04-10 Закрытое акционерное общество "БОУ Лабораториз" Способ улучшения плотной и разреженной карт диспарантности, точности реконструируемой трехмерной модели и устройство для реализации способа
US8855442B2 (en) * 2012-04-30 2014-10-07 Yuri Owechko Image registration of multimodal data using 3D-GeoArcs
WO2013174439A1 (en) 2012-05-24 2013-11-28 Qatar Foundation A method and system for creating depth signatures
US9025860B2 (en) 2012-08-06 2015-05-05 Microsoft Technology Licensing, Llc Three-dimensional object browsing in documents
WO2014178047A1 (en) 2013-04-30 2014-11-06 Inuitive Ltd. System and method for video conferencing
US9779508B2 (en) 2014-03-26 2017-10-03 Microsoft Technology Licensing, Llc Real-time three-dimensional reconstruction of a scene from a single camera
US9846963B2 (en) 2014-10-03 2017-12-19 Samsung Electronics Co., Ltd. 3-dimensional model generation using edges
US9866815B2 (en) 2015-01-05 2018-01-09 Qualcomm Incorporated 3D object segmentation
JP6632443B2 (ja) * 2016-03-23 2020-01-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
US10402675B2 (en) 2016-08-30 2019-09-03 The Boeing Company 2D vehicle localizing using geoarcs
US10013798B2 (en) * 2016-08-30 2018-07-03 The Boeing Company 3D vehicle localizing using geoarcs
US20180075614A1 (en) * 2016-09-12 2018-03-15 DunAn Precision, Inc. Method of Depth Estimation Using a Camera and Inertial Sensor
JP7220717B2 (ja) 2017-12-22 2023-02-10 マジック リープ, インコーポレイテッド レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法
US10679372B2 (en) 2018-05-24 2020-06-09 Lowe's Companies, Inc. Spatial construction using guided surface detection
FR3082979B1 (fr) * 2018-06-26 2020-10-16 Quantificare Procede et dispositif pour la simulation et la visualisation de modeles surfaciques
CN112802303A (zh) * 2021-02-09 2021-05-14 成都视海芯图微电子有限公司 一种基于3d视觉的实时风险预测方法及系统
US11961184B2 (en) * 2021-09-17 2024-04-16 Samsung Electronics Co., Ltd. System and method for scene reconstruction with plane and surface reconstruction

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4694404A (en) * 1984-01-12 1987-09-15 Key Bank N.A. High-speed image generation of complex solid objects using octree encoding
US5448687A (en) * 1988-09-13 1995-09-05 Computer Design, Inc. Computer-assisted design system for flattening a three-dimensional surface and for wrapping a flat shape to a three-dimensional surface
US5283837A (en) * 1991-08-27 1994-02-01 Picker International, Inc. Accurate estimation of surface normals in 3-D data sets
US5307292A (en) * 1992-06-24 1994-04-26 Christopher A. Brown Method of quantifying the topographic structure of a surface
JP2762000B2 (ja) * 1992-06-25 1998-06-04 株式会社日立製作所 曲面生成方法および曲面生成装置
US5475422A (en) * 1993-06-21 1995-12-12 Nippon Telegraph And Telephone Corporation Method and apparatus for reconstructing three-dimensional objects
US5479603A (en) * 1993-07-21 1995-12-26 Xerox Corporation Method and apparatus for producing a composite second image in the spatial context of a first image
US5598515A (en) 1994-01-10 1997-01-28 Gen Tech Corp. System and method for reconstructing surface elements of solid objects in a three-dimensional scene from a plurality of two dimensional images of the scene
US5684890A (en) * 1994-02-28 1997-11-04 Nec Corporation Three-dimensional reference image segmenting method and apparatus
US5530774A (en) * 1994-03-25 1996-06-25 Eastman Kodak Company Generation of depth image through interpolation and extrapolation of intermediate images derived from stereo image pair using disparity vector fields
US5689577A (en) * 1994-10-14 1997-11-18 Picker International, Inc. Procedure for the simplification of triangular surface meshes for more efficient processing
US5818959A (en) * 1995-10-04 1998-10-06 Visual Interface, Inc. Method of producing a three-dimensional image from two-dimensional images
US6009188A (en) * 1996-02-16 1999-12-28 Microsoft Corporation Method and system for digital plenoptic imaging
US5751852A (en) * 1996-04-29 1998-05-12 Xerox Corporation Image structure map data structure for spatially indexing an imgage
US6137492A (en) * 1997-04-03 2000-10-24 Microsoft Corporation Method and system for adaptive refinement of progressive meshes
US5917937A (en) * 1997-04-15 1999-06-29 Microsoft Corporation Method for performing stereo matching to recover depths, colors and opacities of surface elements

Also Published As

Publication number Publication date
JP2001501348A (ja) 2001-01-30
WO1999006956A1 (en) 1999-02-11
KR20000068660A (ko) 2000-11-25
EP0928460A1 (de) 1999-07-14
US6351572B1 (en) 2002-02-26
DE69811050D1 (de) 2003-03-06
EP0928460B1 (de) 2003-01-29
US6661914B2 (en) 2003-12-09
US20020110273A1 (en) 2002-08-15

Similar Documents

Publication Publication Date Title
DE69811050T2 (de) Rekonstruktionsverfahren, Vorrichtung und Dekodierungssystem für dreidimensionalen Szenen.
DE69430153T2 (de) Verfahren und Vorrichtung zur dreidimensionalen Bilderzeugung von Objekten
DE69226512T2 (de) Verfahren zur Bildverarbeitung
DE69601880T2 (de) Verfahren und vorrichtung zur erstellung der lage einer fernsehkamera zur verwendung in einem virtuellen studio
DE60310226T2 (de) Verfahren zur linearen raumabtastung und vorrichtung zur erzeugung eines numerischen 3d modells
DE69529622T2 (de) Auf mosaiken basiertes bildverarbeitungssystem und verfahren zum verarbeiten von bildern
DE69621509T2 (de) Verfahren zur Auswahl zweier Einzelbilder einer zweidimensionalen Bildsequenz als Basis für die Berechnung der relativen Tiefe von Bildobjekten
DE69511620T2 (de) Videoverarbeitungssystem
DE102020000810A1 (de) 3D-Objektrekonstruktion unter Nutzung einer fotometrischen Netzdarstellung
DE69726479T2 (de) Selektive Verfeinerung von Gitternetzen
DE69922183T2 (de) Gesichtserkennung aus videobildern
DE69915901T2 (de) Bildverarbeitungsgerät
DE102007045835B4 (de) Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
DE69224499T2 (de) Dreidimensionale graphische Verarbeitung
EP1741059B1 (de) Verfahren zur bestimmung einer position eines markers in einem augmented-reality-system
DE60209262T2 (de) Verfahren und Vorrichtung zur Bildangleichung
DE69427210T2 (de) Verfahren und Gerät zur Erzeugung von dreidimensionaler Animation
DE60014723T2 (de) System zur Erzeugung eines zusammengesetzten Bildes
DE69717176T2 (de) Korrektur der Kamerabewegung zwischen zwei Bildern
EP2406769B1 (de) Verfahren und vorrichtung zur reduktion des speicherbedarfs bei der bestimmung von disparitätswerten für mindestens zwei stereoskopisch aufgenommene bilder
DE602004012341T2 (de) Verfahren und System zur Bereitstellung einer Volumendarstellung eines dreidimensionalen Objektes
DE19807053A1 (de) Strahltransformationsverfahren für eine schnelle Volumenaufbereitung für eine perspektivische Betrachtung
DE69331419T2 (de) Bilddatenverarbeitung
DE69130302T2 (de) Verfahren und Einrichtung zur Verarbeitung von skalaren Daten
DE102008015535B4 (de) Verfahren zur Bildverarbeitung von Stereobildern

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee