DE69811050T2 - Rekonstruktionsverfahren, Vorrichtung und Dekodierungssystem für dreidimensionalen Szenen. - Google Patents
Rekonstruktionsverfahren, Vorrichtung und Dekodierungssystem für dreidimensionalen Szenen.Info
- Publication number
- DE69811050T2 DE69811050T2 DE69811050T DE69811050T DE69811050T2 DE 69811050 T2 DE69811050 T2 DE 69811050T2 DE 69811050 T DE69811050 T DE 69811050T DE 69811050 T DE69811050 T DE 69811050T DE 69811050 T2 DE69811050 T2 DE 69811050T2
- Authority
- DE
- Germany
- Prior art keywords
- image
- depth
- vertex
- arrangement
- voxels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 18
- 230000000875 corresponding effect Effects 0.000 claims description 16
- 239000013598 vector Substances 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 6
- 230000003287 optical effect Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 3
- 230000002596 correlated effect Effects 0.000 claims description 2
- 238000002372 labelling Methods 0.000 claims description 2
- 230000000717 retained effect Effects 0.000 claims description 2
- 230000011218 segmentation Effects 0.000 claims 1
- 238000012360 testing method Methods 0.000 description 6
- 238000005070 sampling Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000005314 correlation function Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/005—Tree description, e.g. octree, quadtree
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Image Generation (AREA)
Description
- Die vorliegende Erfindung bezieht sich auf ein Verfahren zum Rekonstruieren einer dreidimensionalen Szene aus einer zweidimensionalen Videosequenz entsprechend N aufeinander folgenden Bildern einer reellen Szene, und auf eine entsprechende Rekonstruktionsanordnung, sowie auf ein Decodierungssystem.
- Im Lichte der jüngsten Entwicklungen in der Technologie (und im Rahmen von all dem, was sich auf die künftige MPEG-4-Norm bezieht, vorgesehen zum Schaffen von Mitteln zum Codieren von graphischem und Videomaterial als Gegenstände mit einer bestimmten Beziehung zu Raum und Zeit) wird alles, was sich auf Stereo-Bilder und virtuelle Umgebung bezieht, ein wichtiges Werkzeug, beispielsweise beim Entwickeln, Entwerfen oder Herstellen. Stereo-Bilder, die meistens durch Aufzeichnung zweier etwas voneinander abweichender Gesichtwinkel derselben Szene hergestellt werden, werden in drei Dimensionen erfahren (3D), wenn die genannten Bilder paarweise betrachtet werden und wenn jedes Bild eines Stereo-Paares mit dem betreffenden Auge betrachtet wird. Weiterhin ist in einem derartigen Stereo- und virtuellen Kontext ein freier Spaziergang in die geschaffenen Umgebungen erforderlich und möglich. Diese Schaffung virtueller Umgebungen erfolgt mit Hilfe von Bildsynthese-Werkzeugen, typischerweise entsprechend den nachfolgenden Verfahrensschritten:
- (a) ein Wiederherstellungsschritt eines 3D geometrischen Modells der betreffenden Szene (beispielsweise durch Verwendung einer Facettendarstellung);
- (b) einen Bildaufbereitungsschritt, vorgesehen zum Berechnen von Bildern nach spezifischen Gesichtspunkten, wobei alle bekannten Elemente berücksichtigt werden (beispielsweise Leuchten, Reflexionseigenschaften der Facetten, Übereinstimmung zwischen Elementen der reellen Bilder, ...).
- Die Rekonstruktion eines 3D geometrischen Modells eines Szene erfordert aber, dass eine Bilddeckung unter allen verfügbaren Bildern durchgeführt wird. In dem Dokument "Multiframe image point matching and 3D surface reconstruction", R. Y. Tsai, "IEEE Trans. on Pattern Analysis and Machine Intelligence" Heft PAMI-5, Nr. 2, März 1983, Seiten 159-174, wird ein derartiges Übereinstinimungsproblem durch Berechnu8≠ einer Korrelationsfunktion gelöst, wobei (innerhalb eines definierten Suchfensters längs einer Achse entsprechend dem Abtastgitter des Eingangsbildes) die Information aller anderen Bilder in einem einzigen Durchgang berücksichtigt werden, wodurch auf diese Weise ein ziemlich robustes VerVerfahrengenüber Störungen und periodischen Strukturen geschaffen wird. Das Minimum dieser Funktion schafft eine Schätzung der Tiefe des Pixels in der Mittel des Suchfensters. Unglücklicherweise hat diese Tiefenschätzung eine nicht lineare Abhängigkeit (in 1/x in dem einfachsten Fall) von dem Abtastgitter. Weiterhin kann die Tiefenabbildungsschätzung für eine Oberfläche, erhalten von einem Bild nicht auf einfache Weise mit der Tiefenabbildungsschätzung der gleichen Oberfläche, erhalten von einem anderen Bild verglichen werden, weil sie sich nicht dasselbe Bezugsgitter teilen (sie haben nur eine Beziehung zueinander durch ihr betreffendes Bildabtastgitter).
- Es ist nun u. a. eine erste Aufgabe der vorliegenden Erfindung ein Szenenrekonstruktionsverfahren vorzuschlagen, das nicht länger diese Nachteile aufweist.
- Dazu bezieht sich die vorliegende Erfindung auf ein Rekonstruktionsverfahren, wie dies in der Einleitung der Beschreibung definiert worden ist und das weiterhin das Kennzeichen aufweist, dass es in Reihe für jedes Bild segmentiert in dreieckige Gebiete der Sequenz Folgendes umfasst:
- (A) einen ersten Tiefenbezeichnungsschritt, in dem, wenn jedes Bild als die Projektion eines kontinuierlichen 3D Blattes betrachtet wird, eine Mehrfachbildübereinstimmung durchgeführt wird, unabhängig von jedem Bild, damit eine Ungleichheitsabbildung entsprechend der Tiefenabbildung des genannten 3D Blattes erhalten wird;
- (B) einen zweiten 3D Modell-Extraktionsschritt, in dem eine Octree-Unterteilung des 3D Tiefenraums durchgeführt wird und die Voxel (Volumenelemente), die in dem Schnittpunkt aller 3D Tiefenblätter liegen, geführt werden. Ein Octree ist eine Baumstrukturierte Darstellung, die benutzt wird zum Beschreiben eines Satzes binär bewerteter Volumendaten, eingeschlossen durch einen Begrenzungswürfel und dadurch konstruiert, dass jeder Würfel rekursiv in acht Subwürfel aufgeteilt wird, ausgehend von dem Wurzenknotenpunkt, der ein einziger großer Würfel ist: Octrees sind eine effiziente Darstellung für viele Volumengegenstände, da es einen großen Grad an Kohärenz gibt zwischen benachbarten Voxeln in einem typischen Gegenstand.
- Mit einer derartigen Annäherung wird eine Korrelationsfunktion längs einer Achse entsprechend abgetasteten Tiefenwerten in dem Koordinatensystem der 3D Welt berechnet (wobei ein Tiefenabtastgitter gebildet wird, das nach Belieben des Benutzers vorgesehen wird), wobei alle Bilder berücksichtigt werden, und der Minimalwert dieser Funktion unmittelbar an einen genauen Tiefenwert in dem genannten Koordinatensystem relatiert wird (dies ist von großem Vorteil, wenn mehrere Tiefenschätzungen von verschiedenen Gesichtspunkten erhalten werden). Das Tiefelabtastgitter wird auf Wunsch von dem Benutzer vorgesehen und wird vorteilhafterweise mit regelmässigen Zwischenräumen gewählt, wobei aber bestimmte Vorkenntnisse über die zu rekonstruierende Oberfläche berücksichtigt werden (beispielsweise wenn die genannte Oberfläche bekannterweise innerhalb eines vorbestimmten Begrenzungskastens liegt, was bei Innen-Szenen der Fall ist).
- Das Dokument USP 5598515 beschreibt ein System und ein Verfahren zum Rekonstruieren einer dreidimensionalen Szene oder von Elementen einer derartigen Szene aus einer Anzahl zweidimensionaler Bilder der genannten Szene, aber entsprechend einer komplexen Prozedur, die, im Falle der vorliegenden Erfindung, durch eine einfachere Prozedur ersetzt wird, die aufeinander folgenden Verfeinerungen ausgesetzt wird, bis Konvergenz erhalten wird.
- Nach der vorliegenden Erfindung umfasst der genannte Tiefelbezeichungsschritt vorzugsweise in Reihe nacheinander einen Initialisierungs-Subschritt, vorgesehen um während einer ersten Wiederholung ein vorbereitendes 3D Tiefenblatt für das betreffende Bild zu definieren, und einen Verfeinerungs-Subschritt, vorgesehen um für jeden Scheitelpunkt jedes Gebietes einen Fehlervektor zu definieren, für jede abgetastete Tiefe entsprechend der Summierung korrelierter Kosten zwischen jedem der (N-1) Paare von Bildern (für eine Sequenz von N Bildern) an einem Fenster, speziell definiert für den genannten Scheitelpunkt und wobei der Index gespeichert wird, der die minimalen Korrelationskosten schafft, wobei ein zusätzlicher Vorgang durchgeführt wird um nach der ersten Wiederholung den Initialisierungs-Subschritt durch einen Projektions-Subschritt zu ersetzen, erstens vorgesehen zum Einstellen der Position und des Gesichtsfeldes der Bildanforderungsanordnung entsprechend den Parametern und der Scheitelpunktabbildung in der Nähe der Bildebene, und zweitens um für jeden Scheitelpunkt die Voxel aufzulisten, welche die Linie schneiden, die durch den Scheitelpunkt und den optischen Mittelpunkt der genannten Anforderungsanordnung gehen, und zwar in der Sehrichtung, und um das der Bildebene am nächsten liegende Voxel zu selektieren. Was den genannten 3D Modellexraktionsschritt anbelangt umfasst dieser vorzugsweise in Reihe einen Auflösungsdefinitions-Subschritt, vorgesehen zum Definieren der Auflösung des Voxelgitters, und einen Voxelselektions-Subschritt, vorgesehen um für jedes Bild die Voxel zu behalten, die innerhalb der nicht leeren Räume liegen, vorgesehen durch jede Tiefenabbildung und danach nur diejenigen Voxel zu behalten, die an der Kreuzung aller nicht leeren Räume liegen.
- Es ist eine andere Aufgabe der vorliegenden Erfindung eine Rekonstruktionsanordnung vorzuschlagen, wodurch es möglich ist, dieses Verfahren durchzuführen.
- Dazu bezieht sich die vorliegende Erfindung auf eine Anordnung zum Rekonstruieren einer dreidimensionalen Szene aus einer zweidimensionalen Videosequenz entsprechend N aufeinander folgenden Bildern einer Realszene, dadurch gekennzeichnet, dass:
- (I) jedes der N Bilder der Sequenz in dreieckige Gebiete segmentiert ist;
- (II) die genannte Anordnung zum Verarbeiten jedes Bildes der genannten Sequenz die nachfolgenden Elemente umfasst:
- (A) ein Tiefenbezeichnungs-Subsystem, das an sich wieder nacheinander die folgenden Anordnungen aufweist:
- (1) eine Initialisierungsanordnung, vorgesehen um während einer ersten Wiederholung einen Fehlervektor zu definieren für einen Satz abgetasteter Tiefen entsprechend der Summierung von Korrelationskosten zwischen jedem der (N-1) Bilderpaare und dem Index, der die minimalen Korrelationskosten schafft, wobei der Tiefenwert jedes Scheitelpunktes der Gebiete durch Interpolation zwischen den für die benachbarten Gebiete erhaltenen Tiefen berechnet wird;
- (2) eine Verfeinerungsanordnung, vorgesehen um auf gleiche Weise für jeden Scheitelpunkt einen Fehlervektor in einem vorher begrenzten Fenster zu definieren und auf entsprechende Weise den Index, der die minimalen Korrelationskosten schafft, zu definieren;
- (B) ein Rekonstruktions-Subsystem, vorgesehen zum Selektieren der Auflösung des Voxelgitters und um für jedes Bild diejenigen Voxel zu behalten, die innerhalb der nicht leeren Räume liegen, vorgesehen durch jede Tiefenabbildung, und zum Schluss nur diejenigen Voxel zu behalten, die auf der Kreuzung aller nicht leeren Räume liegen;
- (III) das genannte Tiefenbezeichnungs-Subsystem ebenfalls eine Projektionsanordnung aufweist um während der nachfolgenden Wiederholungen die Initialisierungsanordnung zu ersetzen und vorgesehen zum Einstellen der Position und des Gesichtsfeldes der Bildanforderungsanordnung, und der Scheitelpunktabbildung sehr nahe bei der Bildebene, und für jeden Scheitelpunkt diejenigen Voxel aufzulisten, welche die Linie durch den Scheitelpunkt und den optischen Mittelpunkt der genannten Anforderungsanordnung gehen, und zwar in der Sehrichtung und die der Bildebene am nächsten liegende Voxel zu selektieren. Die vorliegende Erfindung bezieht sich ebenfalls auf ein Video-Decodierungssystem mit einer derartigen Rekonstruktionsanordnung.
- Ausführungsbeispiele der Erfindung sind in der Zeichnung dargestellt und werden im vorliegenden Fall näher beschrieben. Es zeigen:
- Fig. 1 das globale Schema einer Rekonstruktionsanordnung nach der vorliegenden Erfindung,
- Fig. 2 eine Darstellung der Vorgänge, durchgeführt in der Initialisierungsanordnung der Anordnung nach Fig. 1,
- Fig. 3 eine Darstellung der Vorgänge, durchgeführt in der Verfeinerungsanordnung der Anordnung nach Fig. 1,
- Fig. 4 eine Darstellung der Vorgänge, durchgeführt in dem 3D Rekonstruktions-Subsystem der Anordnung nach Fig. 1,
- Fig. 5 eine Darstellung der Vorgänge, durchgeführt in der Projektionsanordnung der Anordnung nach Fig. 1.
- Die in Fig. 1 dargestellte Anordnung hat die Aufgabe nach der vorliegenden Erfindung die Rekonstruktion von Szenen in dreidimensionaler Form (3D) zu ermöglichen, und zwar auf Basis einer Sequenz von N aufeinander folgender zweidimensionaler Bilder (2D) der genannten Szenen. Die genannte Wiederherstellung wird in zwei Subsystemen 11 und 12 entsprechend einer Implementierung in zwei Schritten, die wiederholt werden sollen, verwirklicht. Der erste Schritt ist ein Tiefenbezeichnungsschritt: Jedes Bild wird als die Projektion eines kontinuierlichen 3D-Blattes betrachtet, und eine Mehrfach-Bilddeckung wird unabhängig an jedem Bild durchgeführt um eine Ungleichheitsabbildung zu erhalten, wobei jede Ungleichheitsabbildung dann der Tiefenabbildung des 3D Blattes entspricht (die Ungleichheit, deren Messung eine Tiefenschätzung ergibt, ist die Verschiebung einer Stelle auf dem linken (rechten) Bild gegenüber dem rechten (linken) Bild und die Lösung jedes Übereinstimmungsproblems ist eine Ungleichheitsabbildung). Der zweite Schritt ist ein 3D Modellextraktionsschritt: es wird ein Octree-Unterteilung des 3D-Raums durchgeführt und Voxel, die in der Kreuzung aller 3D Tiefenblätter liegen, werden beibehalten.
- Die Anordnung nach Fig. 1 wird dazu in zwei Teile aufgeteilt: das Tiefenbezeichnungs-Subsystem 11, zum Durchführen des ersten Tiefenbezeichnungsschrittes, und das 3D Rekonstruktions-Subsystem 12, zum Durchführen des 3D Modellextraktionsschrittes. Das Tiefenbezeichnungs-Subsystem 11 umfasst an sich eine Initialisierungsanordnung, eine Projektionsanordnung 112 und eine Verfeinerungsanordnung 113.
- Die Initialisierungsanordnung umfasst, wie in Fig. 1 dargestellt, eine Testschaltung 1111, der eine Initialisierungsschaltung 1112 folgt. Die Testschaltung 1111 ist vorgesehen um entweder in Richtung der Schaltungsanordnung 1112 (YES) zu schalten, wenn es sich um die erste Wiederholung handelt, und zwar am Anfang der Prozedur, oder in Richtung der Anordnung 112 (NO), wenn die Initialisierung bereits durchgeführt worden ist.
- Wenn I das Bild ist, für das man wünscht, dass ein Tiefenblatt wiederhergestellt wird, und wenn I1 bis IN die Bilder sind, die für eine Mehrfach-Bilddeckung benutzt werden, wird vorausgesetzt, dass innerhalb des betreffenden Gesichtsfeldes I in dreieckige Gebiete segmentiert wird, von denen vorausgesetzt wird, dass sie sich parallel zu der Bildebene von I erstrecken. Für jedes Gebiet R(I) werden dann nacheinander drei Vorgänge in Subschritten 1112a, 1112b und 1112c (dargestellt in Fig. 2) durchgeführt, damit in dem aktuellen Gesichtsfeld die Tiefe dieses Gebietes unter einem Satz S vorbestimmter Tiefen D1, D2, ..., Di, ...., DM erhalten wird.
- Der Subschritt 1112a (Fig. 2, oberen Teil) ermöglicht es, für jedes Gebiet einen Fehlervektor V(i) definierter Länge zu berechnen, wobei der genannte Vektor für jede abgetastete Tiefe (C ist der optische Bezugsmittelpunkt) der Summierung von Korrelationskosten zwischen jedem der (N-1) Bilderpaare (Bild 1, Bild j) entspricht, was durch die nachfolgende Gleichung ausgedrückt werden kann:
- V(i) = err(i)[Ii,Ij]
- Jede Koordinate i von V(i) entspricht der Summe der Fehler aufgetreten bei der Tiefe Di in jedem Bild. Das Korrelationsmaß err(i)[Ii, Ij] ist ein statistischer Gesamtfehler zwischen Pixeln von R(I) und Pixeln des Gebietes R(Ij) in dem Bild Ij, von dem vorausgesetzt wird, dass es auf einer Tiefe Di liegt und erhalten unter Verwendung der Projektionsmatrix, die sich auf das Koordinatensystem der Bilder I und Ij bezieht. Der Subschritt 1112b (Fig. 2, mittleren Teil) ermöglicht es, für jedes Gebiet den Index zu finden, der die minimalen Korrelationskosten schafft, und dass der Subschritt 1112c (Fig. 2 unteren Teil) für jeden Scheitelpunkt jedes Gebietes den Tiefenwert dadurch berechnet, dass zwischen den Tiefen, erhalten für die Nachbargebiete (d. h. die Tiefe jedes Scheitelpunktes der dreieckigen Gebiete wird der mittlere Wert der Tiefen der Gebiete sein, die sich den Scheitelpunkt teilen).
- Durch die Initialisierung wird ein vorbereitendes 3D Tiefenblatt für das Bild I erhalten. Jedes Gebiet R(I) hat nun eine Schätzung seiner 3D Position und Orientierung, gegeben durch die 3D Koordinaten der drei Scheitelpunkte. Die genannte Orientierung der Gebiete entspricht aber nicht länger der Ausgangsvoraussetzung, dass sie sich parallel zu der Bildebene des Bildes I erstrecken.
- Die Initialisierungsanordnung könnte dann iterativ benutzt werden und wieder laufen, wobei dann aber die neuen Schätzungen der Orientierungen jedes Gebiet in dem Bild I berücksichtigt werden. Eine andere Annäherung ist zum Schluss bevorzugt worden: stattdessen, dass unabhängig von jedem Gebiet nach Fehlervektoren gesucht wird, werden Fehlervektoren unabhängig für die Scheitelpunkte in I gesucht (Tiefenschätzungen werden nun für jeden Scheitelpunkt gesucht, während die Tiefenschätzungen an benachbarten Scheitelpunkten ungeändert bleiben). Diese Annäherung wird in der Verfeinerungsanordnung 113 durchgeführt.
- Diese Anordnung 113, die, wie in Fig. 1 dargestellt, (und wobei Fig. 3 die in der genannten Anordnung durchgeführten Subschritte zeigt) die Tiefenabbildungen an dem Ausgang der Schaltungsanordnung 1112 empfängt, umfasst zunächst eine Vektorberechnungsschaltung 1131, in der für jeden Scheitelpunkt ein Fenster W definiert wird, an dem Korrelationskosten gemessen werden (Fig. 3, oberen Teil). Für jeden Scheitelpunkt wird dann ein Fehlervektor berechnet (Fig. 3, mittleren Teil), der für jede abgetastete Tiefe der Summierung von Korrelationskosten zwischen jedem der (N-1) Paare von Bildern (Bild i, Bild j) an dem begrenzten Fenster entspricht. In einer Entscheidungsschaltung 1132wird dann der Index gefunden (Fig. 3, unteren Teil), der die minimalen Korrelationskosten für jeden Scheitelpunkt schafft. Nun ist ein verfeinertes 3D Tiefenblatt verfügbar.
- Die an dem Ausgang der Anordnung 113 verfügbaren Tiefenabbildungen sind die Ausgangssignale des Tiefenbezeichnungssubsystems 11 und werden dem 3D Rekonstruktionssubsystem 12 zugeführt, das, wie in Fig. 1 dargestellt (und in Fig. 4, welche die Subschritte zeigt, die in der genannten Anordnung durchgeführt werden), eine Auflösungsdefinitionsanordnung 121 umfasst, der in Reihe eine Voxelselektionsanordnung 122 und eine Testschaltung 123 folgen. In der Anordnung 121 wird die Auflösung des Voxelgitters gewählt (Fig. 4, oberen Teil). In der Anordnung 122 werden für jedes Bild die Voxel, die innerhalb der nicht leeren Räume liegen, die durch jede Tiefenabbildung geschaffen werden, beibehalten (Fig. 4, mittleren Teil) und nur die Voxel, die auf der Kreuzung aller nicht leeren Räume liegen, werden zum Schluss beibehalten (Fig. 4, unteren Teil). Danach wird in der Testschaltung 123 ein Test der Konvergenz durchgeführt, wobei einige der vorhergehenden Schritte wiederholt werden sollen, bis die genannte Konvergenz erhalten wird.
- Da die Initialisierung während der oben beschriebenen ersten Wiederholung durchgeführt wurde, schaltet am Anfang der zweiten Wiederholung die Testschaltung 1111 zu der Projektionsanordnung 112. In Bezug auf die ersten Subschritte 1112a, 1112b und 1112c, die in der Schaltungsanordnung 1112 durchgeführt worden sind, ermöglichen nun die Subschritte 1121a, 1121b, vorgesehen in der Anordnung 112 und dargestellt in Fig. 5: (a) die Position und das Gesichtsfeld der Kamera entsprechend den Kameraparametern einzustellen (Fig. 5, oberen Teil) sowie die Scheitelpunktabbildung sehr nahe bei der Bildebene, und: (b) für jeden Scheitelpunkt (Fig. 5, mittleren Teil) die Voxel aufzulisten, welche die Linie durch den Scheitelpunkt und den optischen Mittelpunkt der Kamera schneiden, in der Sehrichtung und die Voxel zu selektieren, die der Bildebene am nächsten liegen. Der Ausgang der genannten Anordnung 112, dargestellt in Fig. 5, unteren Teil, wird danach der Verfeinerungsanordnung 113 zugeführt (wie der Ausgang der Anordnung 112 im Falle der ersten Wiederholung), die funktioniert, wie bereits beschrieben worden ist.
Claims (5)
1. Verfahren zum Rekonstruieren einer dreidimensionalen Szene aus einer
zweidimensionalen Videosequenz entsprechend N aufeinander folgenden Bildern einer
reellen Szene, wobei dieses Verfahren für jedes Bild die nachfolgenden Verfahrensschritte
umfasst:
(A) einen Segmentierungsschritt, in dem das Bild in dreieckige Gebiete segmentiert wird,
(B) einen Tiefenbezeichnungsschritt, in dem das Bild an andere Bilder angepasst wird,
damit eine Ungleichheitsabbildung entsprechend der Tiefenabbildung des genannten Bildes
erhalten wird;
(C) einen 3D Modell-Extraktionsschritt, in dem eine Octree-Unterteilung des 3D Raums
durchgeführt wird und die Voxel, die in dem Schnittpunkt aller Tiefenabbildungen liegen,
beibehalten werden.
2. Verfahren nach Anspruch 1, wobei der genannte Tiegenbezeichnungsschritt
in Reihe nacheinander die folgenden Schritte umfasst: einen Initialisierungs-Subschritt,
vorgesehen um während einer ersten Wiederholung eine vorbereitende 3D Tiefenabbildung
für das betreffende Bild zu definieren, und einen Verfeinerungs-Subschritt, vorgesehen um
für jeden Scheitelpunkt jedes Gebietes einen Fehlervektor zu definieren, für jede
abgetastete Tiefe entsprechend der Summierung korrelierter Kosten zwischen jedem der (N-1)
Paare von Bildern an einem Fenster, speziell definiert für den genannten Scheitelpunkt und
wobei der Index gespeichert wird, der die minimalen Korrelationskosten schafft, wobei ein
zusätzlicher Vorgang durchgeführt wird um nach der ersten Wiederholung den
Initialisierungs-Subschritt durch einen Projektions-Subschritt zu ersetzen, erstens vorgesehen zum
Einstellen der Position und des Gesichtsfeldes der Bildanforderungsanordnung
entsprechend den Parametern und der Scheitelpunktabbildung in der Nähe der Bildebene, und
zweitens um für jeden Scheitelpunkt die Voxel aufzulisten, welche die Linie schneiden, die
durch den Scheitelpunkt und den optischen Mittelpunkt der genannten
Anforderungsanordnung gehen, und zwar in der Sehrichtung, und um das der Bildebene am nächsten liegende
Voxel zu selektieren.
3. Verfahren nach Anspruch 2, wobei der genannte 3D
Modellextraktionsschritt in Reihe einen Auflösungsdefinitionsschritt umfasst, vorgesehen zum Definieren der
Auflösung des Voxelgitters, und einen Voxelselektions-Subschritt, vorgesehen um für jedes
Bild die Voxel zu behalten, die innerhalb der nicht leeren Räume liegen, vorgesehen durch
jede Tiefenabbildung und danach nur diejenigen Voxel zu behalten, die an der Kreuzung
aller nicht leeren Räume liegen.
4. Anordnung zum Rekonstruieren einer dreidimensionalen Szene aus einer
zweidimensionalen Videosequenz entsprechend N aufeinander folgender Bilder einer
reellen Szene, wobei:
(I) jedes der N Bilder der Sequenz in dreieckige Gebiete segmentiert wird;
(II) die genannte Anordnung zum Verarbeiten jedes Bildes der genannten Sequenz die
nachfolgenden Elemente umfasst:
(A) ein Tiefenbezeichnungssubsystem, das an sich wieder nacheinander die
folgenden Anordnungen aufweist:
(1) eine Initialisierungsanordnung, vorgesehen um während einer ersten
Wiederholung einen Fehlervektor zu definieren für einen Satz abgetasteter Tiefen
entsprechend der Summierung von Korrelationskosten zwischen jedem der (N-1) Bilderpaare und
dem Index, der die minimalen Korrelationskosten schafft, wobei der Tiefenwert jedes
Scheitelpunktes der Gebiete durch Interpolation zwischen den für die benachbarten Gebiete
erhaltenen Tiefen berechnet wird;
(2) eine Verfeinerungsanordnung, vorgesehen um auf gleiche Weise für
jeden Scheitelpunkt einen Fehlervektor in einem vorher begrenzten Fenster zu definieren und
auf entsprechende Weise den Index, der die minimalen Korrelationskosten schafft, zu
definieren;
(B) ein Rekonstruktions-Subsystem, vorgesehen zum Selektieren der Auflösung
des Voxelgitters und um für jedes Bild diejenigen Voxel zu behalten, die innerhalb der
nicht leeren Räume liegen, vorgesehen durch jede Tiefenabbildung, und zum Schluss nur
diejenigen Voxel zu behalten, die auf der Kreuzung aller nicht leeren Räume liegen;
(III) das genannte Tiefenbezeichnungs-Subsystem ebenfalls eine Projektionsanordnung
aufweist um während der nachfolgenden Wiederholungen die Initialisierungsanordnung zu
ersetzen und vorgesehen ist zum Einstellen der Position und des Gesichtsfeldes der
Bildanforderungsanordnung, und der Scheitelpunktabbildung sehr nahe bei der Bildebene, und für
jeden Scheitelpunkt diejenigen Voxel aufzulisten, welche die Linie, die durch den
Scheitelpunkt und den optischen Mittelpunkt der genannten Anforderungsanordnung geht, und
zwar in der Sehrichtung, schneidet und die der Bildebene am nächsten liegende Voxel zu
selektieren.
5. Videodecodierungssystem mit einer Rekonstruktionsanordnung nach
Anspruch 4.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP97401822 | 1997-07-29 | ||
PCT/IB1998/000983 WO1999006956A1 (en) | 1997-07-29 | 1998-06-25 | Method of reconstruction of tridimensional scenes and corresponding reconstruction device and decoding system |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69811050D1 DE69811050D1 (de) | 2003-03-06 |
DE69811050T2 true DE69811050T2 (de) | 2003-11-06 |
Family
ID=8229829
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69811050T Expired - Fee Related DE69811050T2 (de) | 1997-07-29 | 1998-06-25 | Rekonstruktionsverfahren, Vorrichtung und Dekodierungssystem für dreidimensionalen Szenen. |
Country Status (6)
Country | Link |
---|---|
US (2) | US6351572B1 (de) |
EP (1) | EP0928460B1 (de) |
JP (1) | JP2001501348A (de) |
KR (1) | KR20000068660A (de) |
DE (1) | DE69811050T2 (de) |
WO (1) | WO1999006956A1 (de) |
Families Citing this family (97)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6999073B1 (en) * | 1998-07-20 | 2006-02-14 | Geometrix, Inc. | Method and system for generating fully-textured 3D |
US6871167B1 (en) * | 1999-10-26 | 2005-03-22 | Agere Systems Inc. | System and method for determining capacitance for large-scale integrated circuits |
US6990228B1 (en) * | 1999-12-17 | 2006-01-24 | Canon Kabushiki Kaisha | Image processing apparatus |
US6674877B1 (en) * | 2000-02-03 | 2004-01-06 | Microsoft Corporation | System and method for visually tracking occluded objects in real time |
JP4550221B2 (ja) * | 2000-04-24 | 2010-09-22 | パナソニック株式会社 | 三次元空間再構成装置及び三次元空間再構成方法 |
US20030206652A1 (en) * | 2000-06-28 | 2003-11-06 | David Nister | Depth map creation through hypothesis blending in a bayesian framework |
US6868191B2 (en) * | 2000-06-28 | 2005-03-15 | Telefonaktiebolaget Lm Ericsson (Publ) | System and method for median fusion of depth maps |
FI109633B (fi) * | 2001-01-24 | 2002-09-13 | Gamecluster Ltd Oy | Menetelmä videokuvan pakkauksen nopeuttamiseksi ja/tai sen laadun parantamiseksi |
US6914600B2 (en) * | 2001-06-26 | 2005-07-05 | Hewlett-Packard Development Company, L.P. | Volumetric warping for voxel coloring on an infinite domain |
KR100446635B1 (ko) * | 2001-11-27 | 2004-09-04 | 삼성전자주식회사 | 깊이 이미지 기반 3차원 객체 표현 장치 및 방법 |
JP3794681B2 (ja) * | 2001-11-29 | 2006-07-05 | 株式会社スクウェア・エニックス | ビデオゲーム処理方法及びビデオゲーム処理装置及びビデオゲームのプログラム及びビデオゲームのプログラムを記録した記録媒体 |
US7489812B2 (en) * | 2002-06-07 | 2009-02-10 | Dynamic Digital Depth Research Pty Ltd. | Conversion and encoding techniques |
AUPS283602A0 (en) * | 2002-06-07 | 2002-06-27 | Dynamic Digital Depth Research Pty Ltd | Improved conversion and encoding techniques |
US7092484B1 (en) | 2002-06-14 | 2006-08-15 | Iowa State University Research Foundation, Inc. | Model-assisted reconstruction of volumetric data |
US7161579B2 (en) | 2002-07-18 | 2007-01-09 | Sony Computer Entertainment Inc. | Hand-held computer interactive device |
US8797260B2 (en) | 2002-07-27 | 2014-08-05 | Sony Computer Entertainment Inc. | Inertially trackable hand-held controller |
US7646372B2 (en) | 2003-09-15 | 2010-01-12 | Sony Computer Entertainment Inc. | Methods and systems for enabling direction detection when interfacing with a computer program |
US8947347B2 (en) * | 2003-08-27 | 2015-02-03 | Sony Computer Entertainment Inc. | Controlling actions in a video game unit |
US7102615B2 (en) | 2002-07-27 | 2006-09-05 | Sony Computer Entertainment Inc. | Man-machine interface using a deformable device |
US7883415B2 (en) | 2003-09-15 | 2011-02-08 | Sony Computer Entertainment Inc. | Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion |
US7623115B2 (en) | 2002-07-27 | 2009-11-24 | Sony Computer Entertainment Inc. | Method and apparatus for light input device |
US9474968B2 (en) | 2002-07-27 | 2016-10-25 | Sony Interactive Entertainment America Llc | Method and system for applying gearing effects to visual tracking |
US7854655B2 (en) | 2002-07-27 | 2010-12-21 | Sony Computer Entertainment America Inc. | Obtaining input for controlling execution of a game program |
US8313380B2 (en) | 2002-07-27 | 2012-11-20 | Sony Computer Entertainment America Llc | Scheme for translating movements of a hand-held controller into inputs for a system |
US8570378B2 (en) | 2002-07-27 | 2013-10-29 | Sony Computer Entertainment Inc. | Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera |
US8233642B2 (en) * | 2003-08-27 | 2012-07-31 | Sony Computer Entertainment Inc. | Methods and apparatuses for capturing an audio signal based on a location of the signal |
US7803050B2 (en) * | 2002-07-27 | 2010-09-28 | Sony Computer Entertainment Inc. | Tracking device with sound emitter for use in obtaining information for controlling game program execution |
US8160269B2 (en) | 2003-08-27 | 2012-04-17 | Sony Computer Entertainment Inc. | Methods and apparatuses for adjusting a listening area for capturing sounds |
US9393487B2 (en) | 2002-07-27 | 2016-07-19 | Sony Interactive Entertainment Inc. | Method for mapping movements of a hand-held controller to game commands |
US7850526B2 (en) * | 2002-07-27 | 2010-12-14 | Sony Computer Entertainment America Inc. | System for tracking user manipulations within an environment |
US7760248B2 (en) | 2002-07-27 | 2010-07-20 | Sony Computer Entertainment Inc. | Selective sound source listening in conjunction with computer interactive processing |
US8686939B2 (en) | 2002-07-27 | 2014-04-01 | Sony Computer Entertainment Inc. | System, method, and apparatus for three-dimensional input control |
US7918733B2 (en) * | 2002-07-27 | 2011-04-05 | Sony Computer Entertainment America Inc. | Multi-input game control mixer |
US9174119B2 (en) | 2002-07-27 | 2015-11-03 | Sony Computer Entertainement America, LLC | Controller for providing inputs to control execution of a program when inputs are combined |
US8139793B2 (en) | 2003-08-27 | 2012-03-20 | Sony Computer Entertainment Inc. | Methods and apparatus for capturing audio signals based on a visual image |
US9682319B2 (en) | 2002-07-31 | 2017-06-20 | Sony Interactive Entertainment Inc. | Combiner method for altering game gearing |
US7277599B2 (en) * | 2002-09-23 | 2007-10-02 | Regents Of The University Of Minnesota | System and method for three-dimensional video imaging using a single camera |
DE10253617B4 (de) * | 2002-11-15 | 2005-06-30 | Siemens Ag | Verfahren zur Darstellung eines ineinem Volumendatensatz abgebildeten Objektes |
CN100551083C (zh) * | 2003-01-20 | 2009-10-14 | 三洋电机株式会社 | 立体观察用图像提供方法和立体图像显示装置 |
US9177387B2 (en) | 2003-02-11 | 2015-11-03 | Sony Computer Entertainment Inc. | Method and apparatus for real time motion capture |
US8072470B2 (en) | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
US8287373B2 (en) | 2008-12-05 | 2012-10-16 | Sony Computer Entertainment Inc. | Control device for communicating visual information |
US10279254B2 (en) | 2005-10-26 | 2019-05-07 | Sony Interactive Entertainment Inc. | Controller having visually trackable object for interfacing with a gaming system |
US8323106B2 (en) | 2008-05-30 | 2012-12-04 | Sony Computer Entertainment America Llc | Determination of controller three-dimensional location using image analysis and ultrasonic communication |
US9573056B2 (en) | 2005-10-26 | 2017-02-21 | Sony Interactive Entertainment Inc. | Expandable control device via hardware attachment |
US7874917B2 (en) | 2003-09-15 | 2011-01-25 | Sony Computer Entertainment Inc. | Methods and systems for enabling depth and direction detection when interfacing with a computer program |
US7663689B2 (en) | 2004-01-16 | 2010-02-16 | Sony Computer Entertainment Inc. | Method and apparatus for optimizing capture device settings through depth information |
US7660472B2 (en) * | 2004-02-10 | 2010-02-09 | Headplay (Barbados) Inc. | System and method for managing stereoscopic viewing |
EP1727091A1 (de) * | 2004-02-27 | 2006-11-29 | Tdvision Corporation S.A. DE C.V. | Verfahren und system zum digitalen codieren von stereoskopischen 3d-videobildern |
CN1938727A (zh) * | 2004-02-27 | 2007-03-28 | Td视觉有限公司 | 用于数字解码3d立体视频图像的方法和系统 |
KR100601958B1 (ko) | 2004-07-15 | 2006-07-14 | 삼성전자주식회사 | 3차원 객체 인식을 위한 양안차 추정 방법 |
US8547401B2 (en) | 2004-08-19 | 2013-10-01 | Sony Computer Entertainment Inc. | Portable augmented reality device and method |
KR100601989B1 (ko) * | 2005-02-07 | 2006-07-18 | 삼성전자주식회사 | 3차원 형상 생성 장치와 방법 및 컴퓨터 프로그램을저장한 컴퓨터로 읽을 수 있는 기록매체 |
JP2008021092A (ja) * | 2006-07-12 | 2008-01-31 | Fanuc Ltd | ロボットシステムのシミュレーション装置 |
USRE48417E1 (en) | 2006-09-28 | 2021-02-02 | Sony Interactive Entertainment Inc. | Object direction using video input combined with tilt angle information |
US8310656B2 (en) | 2006-09-28 | 2012-11-13 | Sony Computer Entertainment America Llc | Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen |
US8781151B2 (en) | 2006-09-28 | 2014-07-15 | Sony Computer Entertainment Inc. | Object detection using video input combined with tilt angle information |
US8340422B2 (en) * | 2006-11-21 | 2012-12-25 | Koninklijke Philips Electronics N.V. | Generation of depth map for an image |
KR100866491B1 (ko) * | 2007-01-30 | 2008-11-03 | 삼성전자주식회사 | 영상 처리 방법 및 장치 |
GB2452508A (en) * | 2007-09-05 | 2009-03-11 | Sony Corp | Generating a three-dimensional representation of a sports game |
KR101327794B1 (ko) | 2007-10-23 | 2013-11-11 | 삼성전자주식회사 | 깊이 정보 획득 방법 및 장치 |
US8411934B2 (en) * | 2007-11-09 | 2013-04-02 | Thomson Licensing | System and method for depth map extraction using region-based filtering |
US8351685B2 (en) * | 2007-11-16 | 2013-01-08 | Gwangju Institute Of Science And Technology | Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same |
US8542907B2 (en) | 2007-12-17 | 2013-09-24 | Sony Computer Entertainment America Llc | Dynamic three-dimensional object mapping for user-defined control device |
US8233077B2 (en) * | 2007-12-27 | 2012-07-31 | Qualcomm Incorporated | Method and apparatus with depth map generation |
CN103258184B (zh) | 2008-02-27 | 2017-04-12 | 索尼计算机娱乐美国有限责任公司 | 用于捕获场景的深度数据并且应用计算机动作的方法 |
US8368753B2 (en) | 2008-03-17 | 2013-02-05 | Sony Computer Entertainment America Llc | Controller with an integrated depth camera |
JP2011519227A (ja) * | 2008-04-25 | 2011-06-30 | トムソン ライセンシング | 奥行き信号の符号化 |
WO2010018880A1 (en) * | 2008-08-11 | 2010-02-18 | Postech Academy-Industry Foundation | Apparatus and method for depth estimation from single image in real time |
US9179153B2 (en) | 2008-08-20 | 2015-11-03 | Thomson Licensing | Refined depth map |
US8961313B2 (en) | 2009-05-29 | 2015-02-24 | Sony Computer Entertainment America Llc | Multi-positional three-dimensional controller |
EP2377074A4 (de) | 2009-01-07 | 2017-06-14 | Thomson Licensing | Verbindungstiefenmessung |
US8527657B2 (en) | 2009-03-20 | 2013-09-03 | Sony Computer Entertainment America Llc | Methods and systems for dynamically adjusting update rates in multi-player network gaming |
US8342963B2 (en) | 2009-04-10 | 2013-01-01 | Sony Computer Entertainment America Inc. | Methods and systems for enabling control of artificial intelligence game characters |
US8142288B2 (en) | 2009-05-08 | 2012-03-27 | Sony Computer Entertainment America Llc | Base station movement detection and compensation |
US8393964B2 (en) | 2009-05-08 | 2013-03-12 | Sony Computer Entertainment America Llc | Base station for position location |
US8933925B2 (en) * | 2009-06-15 | 2015-01-13 | Microsoft Corporation | Piecewise planar reconstruction of three-dimensional scenes |
KR101975247B1 (ko) * | 2011-09-14 | 2019-08-23 | 삼성전자주식회사 | 영상 처리 장치 및 그 영상 처리 방법 |
KR101919831B1 (ko) | 2012-01-11 | 2018-11-19 | 삼성전자주식회사 | 오브젝트 인식 장치, 분류 트리 학습 장치 및 그 동작 방법 |
FR2988504B1 (fr) * | 2012-03-23 | 2014-05-09 | Commissariat Energie Atomique | Procede de determination d'un plan du sol a partir d'une image de profondeur |
RU2479039C1 (ru) * | 2012-03-26 | 2013-04-10 | Закрытое акционерное общество "БОУ Лабораториз" | Способ улучшения плотной и разреженной карт диспарантности, точности реконструируемой трехмерной модели и устройство для реализации способа |
US8855442B2 (en) * | 2012-04-30 | 2014-10-07 | Yuri Owechko | Image registration of multimodal data using 3D-GeoArcs |
WO2013174439A1 (en) | 2012-05-24 | 2013-11-28 | Qatar Foundation | A method and system for creating depth signatures |
US9025860B2 (en) | 2012-08-06 | 2015-05-05 | Microsoft Technology Licensing, Llc | Three-dimensional object browsing in documents |
WO2014178047A1 (en) | 2013-04-30 | 2014-11-06 | Inuitive Ltd. | System and method for video conferencing |
US9779508B2 (en) | 2014-03-26 | 2017-10-03 | Microsoft Technology Licensing, Llc | Real-time three-dimensional reconstruction of a scene from a single camera |
US9846963B2 (en) | 2014-10-03 | 2017-12-19 | Samsung Electronics Co., Ltd. | 3-dimensional model generation using edges |
US9866815B2 (en) | 2015-01-05 | 2018-01-09 | Qualcomm Incorporated | 3D object segmentation |
JP6632443B2 (ja) * | 2016-03-23 | 2020-01-22 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理システム、および情報処理方法 |
US10402675B2 (en) | 2016-08-30 | 2019-09-03 | The Boeing Company | 2D vehicle localizing using geoarcs |
US10013798B2 (en) * | 2016-08-30 | 2018-07-03 | The Boeing Company | 3D vehicle localizing using geoarcs |
US20180075614A1 (en) * | 2016-09-12 | 2018-03-15 | DunAn Precision, Inc. | Method of Depth Estimation Using a Camera and Inertial Sensor |
JP7220717B2 (ja) | 2017-12-22 | 2023-02-10 | マジック リープ, インコーポレイテッド | レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法 |
US10679372B2 (en) | 2018-05-24 | 2020-06-09 | Lowe's Companies, Inc. | Spatial construction using guided surface detection |
FR3082979B1 (fr) * | 2018-06-26 | 2020-10-16 | Quantificare | Procede et dispositif pour la simulation et la visualisation de modeles surfaciques |
CN112802303A (zh) * | 2021-02-09 | 2021-05-14 | 成都视海芯图微电子有限公司 | 一种基于3d视觉的实时风险预测方法及系统 |
US11961184B2 (en) * | 2021-09-17 | 2024-04-16 | Samsung Electronics Co., Ltd. | System and method for scene reconstruction with plane and surface reconstruction |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4694404A (en) * | 1984-01-12 | 1987-09-15 | Key Bank N.A. | High-speed image generation of complex solid objects using octree encoding |
US5448687A (en) * | 1988-09-13 | 1995-09-05 | Computer Design, Inc. | Computer-assisted design system for flattening a three-dimensional surface and for wrapping a flat shape to a three-dimensional surface |
US5283837A (en) * | 1991-08-27 | 1994-02-01 | Picker International, Inc. | Accurate estimation of surface normals in 3-D data sets |
US5307292A (en) * | 1992-06-24 | 1994-04-26 | Christopher A. Brown | Method of quantifying the topographic structure of a surface |
JP2762000B2 (ja) * | 1992-06-25 | 1998-06-04 | 株式会社日立製作所 | 曲面生成方法および曲面生成装置 |
US5475422A (en) * | 1993-06-21 | 1995-12-12 | Nippon Telegraph And Telephone Corporation | Method and apparatus for reconstructing three-dimensional objects |
US5479603A (en) * | 1993-07-21 | 1995-12-26 | Xerox Corporation | Method and apparatus for producing a composite second image in the spatial context of a first image |
US5598515A (en) | 1994-01-10 | 1997-01-28 | Gen Tech Corp. | System and method for reconstructing surface elements of solid objects in a three-dimensional scene from a plurality of two dimensional images of the scene |
US5684890A (en) * | 1994-02-28 | 1997-11-04 | Nec Corporation | Three-dimensional reference image segmenting method and apparatus |
US5530774A (en) * | 1994-03-25 | 1996-06-25 | Eastman Kodak Company | Generation of depth image through interpolation and extrapolation of intermediate images derived from stereo image pair using disparity vector fields |
US5689577A (en) * | 1994-10-14 | 1997-11-18 | Picker International, Inc. | Procedure for the simplification of triangular surface meshes for more efficient processing |
US5818959A (en) * | 1995-10-04 | 1998-10-06 | Visual Interface, Inc. | Method of producing a three-dimensional image from two-dimensional images |
US6009188A (en) * | 1996-02-16 | 1999-12-28 | Microsoft Corporation | Method and system for digital plenoptic imaging |
US5751852A (en) * | 1996-04-29 | 1998-05-12 | Xerox Corporation | Image structure map data structure for spatially indexing an imgage |
US6137492A (en) * | 1997-04-03 | 2000-10-24 | Microsoft Corporation | Method and system for adaptive refinement of progressive meshes |
US5917937A (en) * | 1997-04-15 | 1999-06-29 | Microsoft Corporation | Method for performing stereo matching to recover depths, colors and opacities of surface elements |
-
1998
- 1998-06-25 JP JP11510702A patent/JP2001501348A/ja active Pending
- 1998-06-25 KR KR1019997002694A patent/KR20000068660A/ko not_active Application Discontinuation
- 1998-06-25 EP EP98924529A patent/EP0928460B1/de not_active Expired - Lifetime
- 1998-06-25 DE DE69811050T patent/DE69811050T2/de not_active Expired - Fee Related
- 1998-06-25 WO PCT/IB1998/000983 patent/WO1999006956A1/en not_active Application Discontinuation
- 1998-07-29 US US09/124,629 patent/US6351572B1/en not_active Expired - Fee Related
-
2001
- 2001-11-20 US US09/989,245 patent/US6661914B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2001501348A (ja) | 2001-01-30 |
WO1999006956A1 (en) | 1999-02-11 |
KR20000068660A (ko) | 2000-11-25 |
EP0928460A1 (de) | 1999-07-14 |
US6351572B1 (en) | 2002-02-26 |
DE69811050D1 (de) | 2003-03-06 |
EP0928460B1 (de) | 2003-01-29 |
US6661914B2 (en) | 2003-12-09 |
US20020110273A1 (en) | 2002-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69811050T2 (de) | Rekonstruktionsverfahren, Vorrichtung und Dekodierungssystem für dreidimensionalen Szenen. | |
DE69430153T2 (de) | Verfahren und Vorrichtung zur dreidimensionalen Bilderzeugung von Objekten | |
DE69226512T2 (de) | Verfahren zur Bildverarbeitung | |
DE69601880T2 (de) | Verfahren und vorrichtung zur erstellung der lage einer fernsehkamera zur verwendung in einem virtuellen studio | |
DE60310226T2 (de) | Verfahren zur linearen raumabtastung und vorrichtung zur erzeugung eines numerischen 3d modells | |
DE69529622T2 (de) | Auf mosaiken basiertes bildverarbeitungssystem und verfahren zum verarbeiten von bildern | |
DE69621509T2 (de) | Verfahren zur Auswahl zweier Einzelbilder einer zweidimensionalen Bildsequenz als Basis für die Berechnung der relativen Tiefe von Bildobjekten | |
DE69511620T2 (de) | Videoverarbeitungssystem | |
DE102020000810A1 (de) | 3D-Objektrekonstruktion unter Nutzung einer fotometrischen Netzdarstellung | |
DE69726479T2 (de) | Selektive Verfeinerung von Gitternetzen | |
DE69922183T2 (de) | Gesichtserkennung aus videobildern | |
DE69915901T2 (de) | Bildverarbeitungsgerät | |
DE102007045835B4 (de) | Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung | |
DE69224499T2 (de) | Dreidimensionale graphische Verarbeitung | |
EP1741059B1 (de) | Verfahren zur bestimmung einer position eines markers in einem augmented-reality-system | |
DE60209262T2 (de) | Verfahren und Vorrichtung zur Bildangleichung | |
DE69427210T2 (de) | Verfahren und Gerät zur Erzeugung von dreidimensionaler Animation | |
DE60014723T2 (de) | System zur Erzeugung eines zusammengesetzten Bildes | |
DE69717176T2 (de) | Korrektur der Kamerabewegung zwischen zwei Bildern | |
EP2406769B1 (de) | Verfahren und vorrichtung zur reduktion des speicherbedarfs bei der bestimmung von disparitätswerten für mindestens zwei stereoskopisch aufgenommene bilder | |
DE602004012341T2 (de) | Verfahren und System zur Bereitstellung einer Volumendarstellung eines dreidimensionalen Objektes | |
DE19807053A1 (de) | Strahltransformationsverfahren für eine schnelle Volumenaufbereitung für eine perspektivische Betrachtung | |
DE69331419T2 (de) | Bilddatenverarbeitung | |
DE69130302T2 (de) | Verfahren und Einrichtung zur Verarbeitung von skalaren Daten | |
DE102008015535B4 (de) | Verfahren zur Bildverarbeitung von Stereobildern |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |