DE69430153T2 - Verfahren und Vorrichtung zur dreidimensionalen Bilderzeugung von Objekten - Google Patents
Verfahren und Vorrichtung zur dreidimensionalen Bilderzeugung von ObjektenInfo
- Publication number
- DE69430153T2 DE69430153T2 DE69430153T DE69430153T DE69430153T2 DE 69430153 T2 DE69430153 T2 DE 69430153T2 DE 69430153 T DE69430153 T DE 69430153T DE 69430153 T DE69430153 T DE 69430153T DE 69430153 T2 DE69430153 T2 DE 69430153T2
- Authority
- DE
- Germany
- Prior art keywords
- base
- backprojection
- line
- camera
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 49
- 238000003384 imaging method Methods 0.000 title 1
- 238000000605 extraction Methods 0.000 claims description 22
- 230000003287 optical effect Effects 0.000 claims description 22
- 238000009826 distribution Methods 0.000 claims description 16
- 230000010365 information processing Effects 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 5
- 238000003491 array Methods 0.000 claims 5
- 230000015654 memory Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000013139 quantization Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/006—Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/189—Recording image signals; Reproducing recorded image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/221—Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Mathematical Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Vascular Medicine (AREA)
- Algebra (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
- Die vorliegende Erfindung betrifft Messungen der Position, Form und Bewegung eines sich bewegenden dreidimensionalen Objekts, und insbesondere ein Verfahren und eine Vorrichtung zur Rekonstruktion oder Wiederherstellung dreidimensionaler Information, die in den Bereichen der dreidimensionalen Informationswiederherstellung, -erkennung und -beschreibung (CG) sich bewegender Objekte verwendet werden können.
- Herkömmliche dreidimensionale Informationsrekonstruktionstechniken können in drei Kategorien klassifiziert werden. Eine erste Technik ist die Stereoskopie. Diese Technik stellt eine Korrespondenz von Punkten oder Linien zwischen einem rechten und einem linken Bild, die von zwei Kameras aufgenommen wurden, her und schätzt aus den Positionen der Kameras und Paaren entsprechender Punkte oder Linien auf dem rechten und dem linken Bild die Positionen von Punkten und Linien in einem Szenenraum nach Maßgabe der Paare entsprechender Punkte oder Linien. Eine zweite Technik ist ein dreidimensionales Informationswiederherstellungsverfahren unter Verwendung einer sich bewegenden Kamera. Dies ist ein Verfahren, das individuelle Merkmalspunkte auf einer Anzahl von durch eine sich bewegende Kamera aufgenommenen Bildern verfolgt und die Positionen von Punkten in einem Szenenraum nach Maßgabe der Merkmalspunkte schätzt. Eine dritte Technik ist ein Rückprojektionsverfahren, das eine dreidimensionale Struktur eines Objekts in einem Szenenraum durch Rückprojektion von Merkmalspunkten in Bildern auf den Szenenraum wiederherstellt oder rekonstruiert.
- Bei der ersten Technik (vergleiche beispielsweise Kanade T., Okutomi T. und Nakahara M., "A multiple baseline stereo method", Proc. Image understanding Workshop, Seiten 409 bis 426, 1992 oder das US-Patent 4,654,872) besteht die Tendenz, daß viele Punkte auf der Oberfläche des Objekts aufgrund unebener Objektoberfläche gegenüber der Sichtlinie einer der Kameras versperrt bleiben, und daher können exakte Positionen der entsprechenden Merkmalspunkte zwischen dem rechten und dem linken Bild nicht gewonnen werden, was es schwer macht, sehr genaue dreidimensionale Information zu gewinnen. Die zweite Technik (vergleiche beispielsweise Bolles R.C., Baker H.H. und Marimont D.H.: "Epipolar-plane image analysis: an approach to determining structure from motion", IJCV, Vol. 1, Nr. 1, Seiten 7 bis 55, 1987) kann bei einem sich bewegenden Objekt nicht angewendet werden, weil das Objekt während des Bildaufnahmevorgangs durch eine sich bewegende Kamera stillstehen muß. In jüngerer Zeit wurde eine Technik vorgeschlagen, die eine gleichzeitige Extraktion der dreidimensionalen Form und der Bewegung eines Objekts aus vielen von einer einzigen Kamera aufgenommenen Bildern ermöglicht (vergleiche Tomasi C. und Tanade T.: "Shape and motion from image streams under orthography: a factorization method", IJCV, Vol. 9, Nr. 2, Seiten 137 bis 154, 1992. Diese Technik stellt dreidimensionale Information im wesentlichen durch Verfolgen von Merkmalspunkten zwischen den Bildern wieder her; daher kann dieses Verfahren nicht exakte dreidimensionale Information gewinnen, weil die Oberfläche des Objekts teilweise versperrt gegenüber der Sichtlinie der Kamera sein kann, während sich die Kamera oder das Objekt bewegt. Der Grund hierfür besteht darin, daß ein angegebener Merkmalspunkt auf den Bildern mehrmals aus dem Gesichtsfeld und wieder in dieses zurückkommt und die Ortskurve der Merkmalspunkte auf den Bildern häufig unterbrochen wird, was die Schwierigkeit der Verfolgung des Merkmalspunkts nach sich zieht. Somit ist diese Technik nicht zur Verwendung bei einem sich bewegenden Objekt geeignet. Eine dritte Technik ist ein Silhouettenprojektionsverfahren (vergleiche beispielsweise Ahuja N. und Veenstra J.: "Generation octree from object silhouettes in orthographic views," IEEE Trans. PAMI, Vol. 11, Nr. 2, Seiten 137 bis 149, 1989). Bei diesem Verfahren ist es jedoch sehr schwierig, exakte dreidimensionale Information zu erlangen, weil die Erzeugung von Silhouettenbildern extrem schwierig und instabil ist. Ein anderes Beispiel der dritten Technik ist ein Verfahren, das Ränder eines dreidimensionalen Objekts durch Extraktion von Rändern auf Bildern und durch Abgabe einer Abstimmung an den Szenenraum durch Verwendung der extrahierten Ränder wiederherstellt oder rekonstruiert (vergleiche beispielsweise Hamano T., Yasuno T. und Ishü K.: "Direct estimation of structure from non-linear motion by voting algorithm without tracking and matching", Proc. of ICPR, Vol. 1, Seiten 505 bis 508, 1082 und S. Kawato: "3D Shape Recovering by Octree Voting Technique", PROCEEDINGS of SPLE-The Internation Society for Optical Engineering, 15.-16. Nov. 1992). Bei einem derartigen Verfahren interferieren jedoch, da eine Mehrzahl von Merkmalspunkten gleichzeitig extrahiert wird, Prozesse für die jeweiligen Merkmalspunkte miteinander, was die Möglichkeit nach sich zieht, daß ein falscher Merkmalspunkt extrahiert wird. Es wird eine große Anzahl an Bildern benötigt, um dieses Problem zu lösen. Für ein sich bewegendes Objekt wird jedoch viel Zeit verbraucht, um viele Bilder durch eine Kamera aufzunehmen, und ein System für die gleichzeitige Bildaufnahme unter Verwendung vieler Kamera ist sehr teuer.
- Das Dokument YOSHIFUMI KITAMURA ET AL., Trinocular Vision Using edge continuity and local features, SYSTEMS & COMPUTERS IN JAPAN, Vol. 19, Nr. 12, Dezember 1988, NEW YORK, US, offenbart die folgenden Schritte zum Ermitteln der Position eines ausgewählten von Merkmalspunkten eines Objekts: 1) eine erste Epipolarlinie der Basisrückprojektionslinie von der Mitte der ersten Kamera zu einem ausgewählten Merkmalspunkt auf dem Objekt wird auf dem durch die zweite Kamera hergestellten zweiten Bild gebildet; 2) eine dritte Epipolarlinie der Basisrückprojektionslinie von der Mitte der ersten Kamera zum ausgewählten Merkmalspunkt wird auf dem von der dritten Kamera hergestellten dritten Bild gebildet; 3) zweite Epipolarlinien der Referenzrückprojektionslinien von der Mitte der zweiten Kamera durch die jeweiligen Merkmalspunkte auf der Epipolarlinie werden auf dem durch die dritte Kamera hergestellten dritten Bild gebildet; 4) unter den Kreuzungen zwischen den zweiten Epipolarlinien und der dritten Epipolarlinie wird diejenige, die mit einem der Merkmalspunkte zusammenfällt, als der ausgewählte Merkmalspunkt festgelegt. Wenn unter jenen Kreuzungen zwischen der dritten Epipolarlinie und den zweiten Epipolarlinien zwei oder mehr Kreuzungen sind, die mit Merkmalspunkten zusammenfallen, wäre es nicht möglich festzustellen, welche von ihnen dem ausgewählten Merkmalspunkt entspricht. In diesem Fall ist es erforderlich, eine weitere Verarbeitung auszuführen, um sie auf der Basis lokaler Merkmale des Bildes oder auf der Basis der Annahme, daß die Merkmalspunkte sich auf einer durchgehenden Linie befinden, zu unterscheiden.
- Es ist daher eine Aufgabe der vorliegenden Erfindung, ein Verfahren und eine Vorrichtung zu schaffen, die die Erlangung oder Wiederherstellung dreidimensionaler Information eines Objekts aus seinen von einer kleinen Anzahl an Kameras aufgenommenen Bildern ermöglichen.
- Diese Aufgabe wird mit einem Verfahren gemäß Anspruch 1 und einer Vorrichtung gemäß Anspruch 12 gelöst. Bevorzugte Ausführungsformen sind Gegenstand der abhängigen Ansprüche.
- Bei den Verfahren und Vorrichtungen zur Rekonstruktion dreidimensionaler Information von einem sich bewegenden Objekt gemäß der vorliegenden Erfindung ist, da die Rückprojektionsfläche durch die Einführung einer Bedingung der projektiven Geometrie wesentlich beschränkt ist, die Interferenz der Rückprojektion minimiert, und dreidimensionale Information kann durch Rückprojektion unter Verwendung einer kleinen Anzahl an Bildern erlangt werden. Demzufolge ermöglicht die vorliegende Erfindung eine Reduzierung der Anzahl an Kameras, die erforderlich sind, um sich ständig ändernde dreidimensionale Information eines sich bewegenden Objekts durch gleichzeitige Bildaufnahme mittels einer Mehrzahl von Kameras zu gewinnen.
- Fig. 1 ist ein Blockschaltbild, das die Konfiguration einer Ausführungsform der erfindungsgemäßen Vorrichtung zur Rekonstruktion dreidimensionaler Information darstellt;
- Fig. 2 ist ein Verarbeitungsblockschaltbild für die ausführliche Erläuterung eines Bildinformationsverarbeitungsteils 20 in Fig. 1;
- Fig. 3 ist ein Rückprojektionsdiagramm für die Erläuterung der Prinzipien der vorliegenden Erfindung;
- Fig. 4 ist ein dreidimensionaler Graph für die Erläuterung der Wahrscheinlichkeit dafür, daß sich Referenzrückprojektionslinien im gleichen Punkt schneiden;
- Fig. 5A ist eine perspektivische Ansicht für die Erläuterung eines Pixelquantisierungsfehlers eines Merkmalpunkts in einem Bild;
- Fig. 5B ist eine perspektivische Ansicht für die Erläuterung eines Fehlers der optischen Mitte;
- Fig. 6A ist ein Diagramm, das die Verteilung der Kreuzungen auf einer Basisrückprojektionslinie zeigt;
- Fig. 6B ist ein Graph, der ein Beispiel der Charakteristik eines Filters zeigt; und
- Fig. 6C ist ein Diagramm, das ein Beispiel einer gefilterten Verteilung der Kreuzungen zeigt.
- In Fig. 1 ist eine Ausführungsform der erfindungsgemäßen Vorrichtung zur Rekonstruktion dreidimensionaler Information als Blockschaltbild gezeigt. Die dargestellte Vorrichtung ist aus einem Bildeingabeteil 10 und einem Bildinformationsverarbeitungsteil 20 aufgebaut. Der Bildeingabeteil 10 setzt sich aus n (wobei n eine ganze Zahl größer oder gleich 3 ist) Bildaufnahmeteilen (beispielsweise Fernsehkameras, die nachstehend einfach als Kameras bezeichnet werden) 111 bis 11n, A/D- Umsetzern 121 bis 12n, Rahmenspeichern 131 bis 13n, einer Kamerasteuerung 14, einem bewegbaren Tisch 15A; einem Antrieb 15B und einer Bewegungssteuerung 16 zusammen. Die Kameras 111 bis 11n sind in unterschiedlichen Höhen auf dem gemeinsamen bewegbaren Tisch 15A montiert. Der bewegbare Tisch 15A ist so ausgelegt, daß er von dem aus einem Roboterarm gebildeten Antrieb 15B unter Steuerung der Bewegungssteuerung 16 dreidimensional bewegbar ist.
- Die Kameras 111 bis 11n nehmen gleichzeitig mit einer festen Periode (oder Rahmenperiode) Bilder eines Objekts 19 auf und geben jeweils ein analoges Bildsignal aus. Wenn sich das Objekt 19 nicht bewegt, müssen dessen Bilder nicht immer gleichzeitig aufgenommen werden. Die analogen Signale aus den Kameras 111 bis 11n werden von den A/D-Umsetzern 121 bis 12n in digitale Signale umgesetzt, die, als Bilddaten für die einzelnen Rahmen, in den Rahmenspeichern 131 bis 13n gespeichert werden. Der Betrieb dieser Kameras, A/D-Umsetzer und Rahmenspeicher erfolgt unter der Steuerung der Kamerasteuerung 14. Der Bildinformationsverarbeitungsteil 20 wird mit den aus den Rahmenspeichern 131 bis 13n ausgelesenen Bilddaten versorgt und gewinnt durch Ausführen eines nachstehend unter Bezug auf Fig. 2 beschriebenen Prozesses dreidimensionale Information über das Objekt 19.
- Fig. 2 zeigt in Form von Funktionsblöcken die Prozedur der Verarbeitung des durch einen Computer gebildeten Bildinformationsverarbeitungsteils 20. Positions- und Lageinformation der Kameras zum Zeitpunkt der Eingabe von Bildern des Objekts 19 durch die Kamera 111 bis 11n wird aus der Bewegungssteuerung 16 in einen Kamerainformationseingabeteil 21 des Bildinformationsverarbeitungsteils 20 eingegeben. Andererseits werden aus den Rahmenspeichern 131 bis 13n ausgelesene Bilddaten an einen Merkmalextraktionsteil 22 geliefert. Der Merkmalextraktionsteil 22 extrahiert Merkmalspunkte (wie beispielsweise isosbestische Punkte und Bereiche normaler Bilder und isosbestische Punkte und Bereiche thermischer Bilder) aus den n Rahmen der aus dem Bildeingabeteil 10 eingegebenen Bilder. Ein Basisrückprojektionslinien-Erzeugungsteil 23 wählt ein beliebiges der n Rahmen der Bilder, aus denen die Merkmalspunkte extrahiert worden sind, als Basisbild aus erzeugt eine Basisrückprojektionslinie, die einen Merkmalspunkt auf dem Basisbild und die optische Mitte der Kamera durchsetzt, die das aus dem Kamerainformationseingabeteil 21 eingegebene Bild aufgenommen hat (wobei diese Kamera nachstehend als Basiskamera bezeichnet wird). Ein Epipolarlinien-Erzeugungsteil 24 liefert Epipolarlinien, die durch Projektion der vorgenannten Basisrückprojektionslinie auf Bilder (Referenzbilder) erzeugt werden, die von Kameras (Referenzkameras) aufgenommen werden, die nicht die Basiskamera sind. Ein Referenzrückprojektionslinien- Erzeugungsteil 25 liefert alle Referenzrückprojektionslinien, die Merkmalspunkte auf den Epipolarlinien auf den Referenzbildern oder innerhalb eines bestimmten Abstandsbereichs auf beiden Seiten der Epipolarlinien und der optischen Mitten der den Epipolarlinien entsprechenden Referenzkameras durchsetzen. Ein Kreuzungsexraktionsteil 26 berechnet die Koordinaten aller Kreuzungen der von dem Basisrückprojektionslinien-Erzeugungsteil 23 erzeugten Basisrückprojektionslinie und der von dem Referenzrückprojektionslinien-Erzeugungsteil 25 erzeugten Referenzrückprojektionslinien. Ein Kreuzungszählteil 27 zählt die Anzahl an Kreuzungen bei Schnittpunkten oder -bereichen der Basisrückprojektionslinie und der vom Kreuzungsexraktionsteil 26 extrahierten Referenzrückprojektionslinien längs der Basisrückprojektionslinie. Ein Filterteil 28 filtert, längs der Basisrückprojektionslinie, die von dem Kreuzungszählteil 27 gelieferte Verteilung der Anzahl der Kreuzungen. Ein Teil 29 für die dreidimensionale Merkmalsextraktion ermittelt, als die Position eines dreidimensionalen Merkmalspunkts, eine der Kreuzungen, die der Spitzenposition am nächsten ist, wo die gefilterte Kreuzungsverteilung einen festen Schwellenwert übersteigt. Ein Teil 2A für die dreidimensionale Bewegungsextraktion berechnet die Bewegung jedes dreidimensionalen Merkmalspunkts und - bereichs auf der Basis der einzelnen dreidimensionalen Merkmalspunkt- und -bereichsinformation zu jedem Zeitintervall, das von dem Teil 29 für die dreidimensionale Merkmalsextraktion extrahiert wurde.
- Als nächstes wird der Betrieb dieser erfindungsgemäßen Vorrichtung mit diesem Aufbau unter Bezug auf die Fig. 1, 2 und 3 beschrieben. In Fig. 3 sind umgekehrte Bilder, die auf Fokalebenen der wie dargestellt angeordneten Kameras 111 bis 11n gebildet sind, imaginär auf die Vorderseite der Kameras zurückprojiziert und aus Gründen der Einfachheit als aufrechte Bilder 32 gezeigt. Die Kamerasteuerung 14 aktiviert gleichzeitig die n Kameras 111 bis 11n ab einem eingegebenen Zeitpunkt t, setzt die resultierenden analogen Bildsignale durch die A/D-Umsetzer 121 bis 12n in digitale Bildsignale um und speichert sie in den n Rahmenspeichern 131 bis 13n, um Bilddaten eines Rahmens in jedem Speicher zu gewinnen. Der Kamerainformationseingabeteil 21 gewinnt Kamerainformation zum Zeitpunkt t durch Kalibrierung (vergleiche beispielsweise J. Weng, P. Cohen und M. Herniou: "Calibration of stereo cameras using a non-linear distortion model" Proc. ICCV. S. 246 bis 253, 1990).
- Durch den Merkmalsextraktionsteil werden Merkmalspunkte auf jedem Bild 32 (beispielsweise isosbestische Punkte und Bereiche in einem Bild, Konturlinien und -bereiche in einem Differenzbild und isotherme Punkte und Bereiche in einem thermischen Bild) extrahiert. In diesem Beispiel sind Ränder des Bilds durch ein Canny-Filter extrahierte Merkmalspunkte (Canny J. F.: "A computational approach to edge detection", IEEE Trans. PAMI, Vol. 8, Nr. 6, S. 679 bis 698, 1986). Als nächstes wählt der Basisrückprojektionslinien-Erzeugungsteil 23 ein Bild 32 eines beliebigen der n Rahmen als Basisbild 32s aus und berechnet eine Rückprojektionslinie 34s, die einen angegebenen Merkmalspunkt auf dem Basisbild 32s und die optische Mitte 31s der Kamera (das heißt der Basiskamera) durchsetzt, die dem Bild 32s entspricht, das aus dem Kamerainformationseingabeteil 21 eingegeben wird. Die Koordinaten (xb, yb, zb) eines beliebigen Punkts auf der Rückprojektionslinie 34s erfüllen die folgende Bedingung:
- wobei (xp, yp, zp) und (xc, yc, zc) Koordinaten des angegebenen Merkmalspunkts auf dem Bild 32s bzw. der optischen Mitte 31s der Basiskameras sind. Eine solche Rückprojektionslinie 34s wird nachstehend auch als Basisrückprojektionslinie bezeichnet. Ein beliebiger Punkt E = (xe, ye) auf einer Epipolarlinie, die durch Projektion der Basisrückprojektionslinie auf die einzelnen Referenzbilder gewonnen wird, erfüllt die unten gezeigten Relationen.
- E = RT'(B' - T')
- T' = (t&sub1;,t&sub2;)T
- wobei RT' und T' ein zweidimensionaler Ausdruck einer transponierten Version einer Matrix, welche die Rotation der optischen Achse der Kamera bezüglich des Koordinatensystems definiert, bzw. ein zweidimensionaler Ausdruck einer Vektors ist, der die Translation der optischen Achse der Kamera bezüglich des Koordinatensystems definiert, und B' = (xb, yb)T ist ein zweidimensionaler Ausdruck eines beliebigen Punkts auf der Rückprojektionslinie. Wie aus Fig. 3 hervorgeht, liegt die Basisrückprojektionslinie 34s in einer die optische Mitte 31 jeder Referenzkamera und die Epipolarlinie 35 durch die Referenzkamera enthaltenden Ebene. Diese Ebene wird nachstehend als Epipolarebene durch die Referenzkamera bezeichnet. Dreidimensionale Merkmalspunkte auf dem Objekt 19, die auf einer Erstreckungsebene der Epipolarebene der einzelnen Kameras liegen, sind alle auf die Epipolarlinie 35 der Kamera projiziert. Als nächstes erfaßt der Referenzrückprojektionslinien- Erzeugungsteil 25 alle Merkmalspunkte 33 auf der vorgenannten Epipolarlinie 35. Einer dieser Merkmalspunkte 33e entspricht dem angegebenen Merkmalspunkt 33s. In der Praxis kommen jedoch Fälle vor, in denen diese Merkmalspunkte aufgrund eines Bildquantisierungsfehlers nicht auf der Epipolarlinie liegen. Demzufolge werden auch Merkmalspunkte innerhalb einer festen Entfernung von der Epipolarlinie 35 als deren Merkmalspunkte 33e angesehen. Danach folgt die Gewinnung von Rückprojektionslinien 34, welche die Merkmalspunkte 33e auf der Epipolarlinie 35 in dem Bild 32 jeder Referenzkamera und die optische Mitte 31 der Referenzkamera durchsetzen. Diese Rückprojektionslinien 34 werden nachstehend als Referenzrückprojektionslinien bezeichnet.
- Als nächstes berechnet der Kreuzungsexraktionsteil 26 die Koordinaten der Kreuzungen der Basisrückprojektionslinie 34s und der Referenzrückprojektionslinien 34. Aufgrund des Vorhandenseins eines Merkmalsextraktionsfehlers bei jedem Bild 32 und eines Fehlers der optischen Mitte jeder Kamera tritt gelegentlich die Situation auf, daß sich die Basisrückprojektionslinie 34s und die Referenzrückprojektionslinien 34 im dreidimensionalen Raum nicht schneiden. Bei dieser Ausführungsform wird der kürzeste Abstand zwischen der Basisrückprojektionslinie 34s und jeder Referenzrückprojektionslinie 34 berechnet, und wenn dieser kürzeste Abstand kleiner als ein fester Schwellenwert ist, werden die Basisrückprojektionslinie 34s und die Referenzrückprojektionslinie 34 als sich schneidend angesehen. Das heißt, wenn der Rang der folgenden Matrix mit zwei beliebigen Punkten Bb1 = (xb1, yb1, zb1)T und Bb2 = (xb2, yb2, zb2) auf der Basisrückprojektionslinie 34s und zwei beliebigen Punkten Br1 = (xr1, yr1, zr1) und Br2 = (xr2, yr2, zr2) auf der Referenzrückprojektionslinie 34 1 ist, erstrecken sich diese zwei Linien nicht parallel zueinander.
- In diesem Beispiel sind zwei Punkte (xbs, ybs, zbs)T und (xrs, yrs, zrs)T, die auf der Basisrückprojektionslinie 34s bzw. der Referenzrückprojektionslinie 34 liegen und den kürzesten Abstand zwischen den zwei Linien angeben, wie folgt gegeben:
- wobei:
- Kb = (GrH - FrGb)/(FbFr - H²)
- Kr = (FbGr - GbH)/(FbFr - H²)
- Fb = (xb2 - xb1)² + (yb2 - yb1)² + (zb2 - zb1)²
- Fr = (xr2 - xr1)² + (yr2 - yr1)² + (zr2 - zr1)²
- Gb = (xb2 - xb1)(xb1 - xr1) + (yb2 - yb1)(yb1 - yr1) + (zb2 - zb1)(zb1 - zr1)
- Gr = (xr2 - xr1)(xr1 - xb1) + (yr2 - yr1)(yr1 - yb1) + (zr2 - zr1)(zr1 - zb1)
- H = (xb2 - xb1)(xr1 - xr2) + (yb2 - yb1)(yr1 - Yr2) + (zb2 - zb1)(zr1 - zr2)
- Wenn der Abstand d zwischen diesen zwei Punkten die Bedingung erfüllt, daß er kleiner als ein Schwellenwert λ ist, wie nachstehend gezeigt,
- d = {(xbs - xrs)² + (ybs - yrs)² + (zbs - zrs)²}1/2 < λ, (6)
- werden die Basisrückprojektionslinie 34s und die Referenzrückprojektionslinie 34, auf denen diese zwei Punkte liegen, als einander schneidend angesehen, und die Koordinaten der Position der Kreuzung 36 werden als Mittelpunkt des Abstands zwischen den zwei Punkten festgelegt.
- x = (xbs + xrs)/2
- y = (ybs + yrs)/2
- z = (zbs + zrs)/2 (7)
- Als nächstes zählt der Kreuzungszählteil die Anzahl an Kreuzungen der Basisrückprojektionslinie 34s und aller der Referenzrückprojektionslinien 34.
- Es besteht übrigens in dem Fall der Verwendung von Bildern, die von zwei Kameras ausgenommen werden (n = 2), die Möglichkeit, daß eine Mehrzahl an Referenzrückprojektionslinien 34 eine Basisrückprojektionslinie 34s an einer Mehrzahl von Positionen schneidet. In einem solchen Fall kann nicht eindeutig ermittelt werden, welcher Kreuzung der dreidimensionale Merkmalspunkt entspricht, wobei letzterer dem Merkmalspunkt 33s entspricht, der die Basisrückprojektionslinie 34s durchsetzt. Nun erfolgt eine Beschreibung dieses Problems.
- Aus Gründen der Klarheit sei die Anzahl an Merkmalspunkten auf der Epipolarlinie der einzelnen Referenzkameras, die durch Projektion der Basisrückprojektionslinie 34s auf die einzelnen Referenzbilder gewonnen wird, durch M repräsentiert. Nur einer oder keiner der M Merkmalspunkte auf der Epipolarlinie auf dem Bild von den einzelnen Kameras entspreche dem angegebenen Merkmalspunkt. Nun sei angenommen, daß einer der M Merkmalspunkte auf den einzelnen Epipolarlinien dem angegebenen Merkmalspunkt entspricht. Demzufolge liefert eine Referenzkamera M Referenzrückprojektionslinien, und die Wahrscheinlichkeit, daß eine der M Kreuzungen der M Referenzrückprojektionslinien mit der Basisrückprojektionslinie einem angegebenen Merkmalspunkt entspricht, beträgt β = 1/M. Das gleiche gilt für die anderen Referenzkameras. Somit ist die Wahrscheinlichkeit α, daß eine der Referenzrückprojektionslinien von den einzelnen Referenzkameras die Basisrückprojektionslinie 34s an irgendeiner Kreuzung auf ihr schneidet, α = βn-1. Wenn nur ein Merkmalspunkt auf der Epipolarlinie der Referenzkamera vorhanden ist (das heißt, wenn M = 1), entspricht jener Merkmalspunkt dem angegebenen Merkmalspunkt, und die Referenzrückprojektionslinie schneidet den angegebenen Merkmalspunkt; in diesem Fall besteht kein Problem. Wenn die Anzahl M an Referenzrückprojektionslinien von den einzelnen Referenzkameras 2 oder mehr ist, spielt dies eine Rolle. Daher erfolgt die Diskussion nachstehend für den Fall, daß sich β = 1/M im Bereich zwischen 0 und 0,5 befindet.
- Fig. 4 ist ein Graph, der die Wahrscheinlichkeit α zeigt, daß n - 1 Referenzrückprojektionslinien von n - 1 Referenzkameras sich an einem Punkt auf der Basisrückprojektionslinie schneiden, wenn sich der Wert β im Bereich von 0 < β ≤ 0,5 befindet. Wie aus dem Graphen ersichtlich ist, ist selbst im Fall von β = 0,5, falls die Anzahl n aller Kameras (das heißt der Anzahl an Betrachtungspunkten) größer oder gleich 6 ist, die Wahrscheinlichkeit α, daß sich fünf Referenzrückprojektionslinien von Referenzkameras an einem Punkt auf der Basisrückprojektionslinie schneiden, mit 0,5&sup5; = 0,03 vernachlässigbar klein. Auch wenn n = 5 (die Anzahl an Referenzkameras beträgt 4), ist der Wert α mit 0,06 klein. Das heißt, die Wahrscheinlichkeit, daß es passiert, daß sich eine Mehrzahl von Referenzrückprojektionslinien von jeweiligen Referenzkameras an dem angegebenen Merkmalspunkt schneidet, nimmt mit zunehmender Anzahl n an Kameras rapide ab. Anders ausgedrückt bedeutet dies, wenn die Anzahl an Referenzrückprojektionslinien, die sich tatsächlich an einem bestimmten Punkt auf der Basisrückprojektionslinie schneiden, etwas größer (beispielsweise vier oder mehr) ist, daß es sehr wahrscheinlich ist, daß die Kreuzung ein angegebener Merkmalspunkt ist. Dann ist es möglich, die Position des angegebenen dreidimensionalen Merkmalspunkt eindeutig zu ermitteln oder zu lokalisieren, indem im Kreuzungszählteil 27 die Anzahl an Referenzrückprojektionslinien gezählt werden, die sich an den einzelnen Punkten auf der Basisrückprojektionslinie 34s schneiden (nachstehend einfach als Kreuzungsanzahl bezeichnet), und indem dann in dem Teil 29 für die dreidimensionale Merkmalspunktextraktion die Position erfaßt wird, welche die maximale Kreuzungsanzahl liefert, wie zuvor beschrieben. Auf diese Weise kann erreicht werden, daß jeder gegebene dreidimensionale Merkmalspunkt auf dem Objekt 19 einer eindeutigen Kreuzung auf der Basisrückprojektionslinie entspricht.
- Angesichts des Obigen wird der Wert n aufgrund der Prinzipien der vorliegenden Erfindung auf drei oder größer eingestellt, aber bei einer bevorzugten Ausführungsform werden sechs unterschiedliche Betrachtungspunkte, das heißt sechs Kameras, verwendet. Eine solche Konfiguration erhöht die Wahrscheinlichkeit, daß ein dreidimensionaler Merkmalspunkt auf dem Objekt 19, der einem bestimmten der Betrachtungspunkte oder Kameras versperrt ist, von den anderen Kameras beobachtet oder gesehen werden und somit lokalisiert werden kann.
- Bei tatsächlichen Messungen, wie in den Fig. 5A und 5B gezeigt, können Rückprojektionslinien manchmal aufgrund von Positionsfehlern der Merkmalpunkte 33 auf dem Bild 32 und der optischen Mitte 31 der Kamera von ihren Originalrichtungen abweichen. Da beispielsweise das Bild 32, das sich aus von den einzelnen Kameras gelieferten Bilddaten zusammensetzt, durch Pixel des Bildes quantisiert worden ist, enthält die Position jedes Merkmalpunkts auf dem Bild einen Quantisierungsfehler aufgrund der Pixel. Nun sei angenommen, daß die Position P des wahren Merkmalspunkts 33 auf dem Bild 32 von einer Referenzkamera aufgrund des Quantisierungsfehlers zu P' abweicht, wie in Fig. 5A gezeigt. Da sich die Referenzrückprojektionslinie 34 um die optische Mitte 31 dreht und von ihr abweicht, wird ermittelt, daß der wahre Merkmalspunkt P auf der Basisrückprojektionslinie 34s sich bei B' befindet (nicht immer auf der Basisrückprojektionslinie 34s). Alternativ wird, wenn die durch Messung ermittelte optische Mitte von der wahren optischen Mitte L zu L' abweicht, wie in Fig. 5B dargestellt, der wahre Merkmalspunkt B auf der Basisrückprojektionslinie 34s als bei B" liegend angesehen.
- Aufgrund der vorgenannten Abweichung der Referenzrückprojektionslinie 34 unter dem Einfluß derartiger Fehler besteht die Tendenz, daß der von dem gleichen dreidimensionalen Merkmalspunkt auf dem Objekt 19 auf die einzelnen Bilder abgebildete Merkmalspunkt 33 und die dem Merkmalspunkt 33 entsprechende, die optische Mitte 31 durchsetzende Referenzrückprojektionslinie 34 sich an einem Punkt scheiden, der nicht die wahre Position des dreidimensionalen Merkmalspunkts ist. In einer solchen Situation ist es, wenn sich der Punkt B' oder B" innerhalb einer Schwellenwertentfernung von der Basisrückprojektionslinie 34s befindet, wahrscheinlich, daß er zum Zeitpunkt des Zählens der Kreuzungsanzahl durch den Kreuzungszählteil 27 an einer Kreuzung gezählt wird, die sich von der Position des wahren angegebenen Merkmalspunkts auf der Basisrückprojektionslinie 34s unterscheidet. In diesem Fall besteht, wenn die Position der Kreuzung, welche den maximalen Zählwert oberhalb eines vorbestimmten Werts liefert, als dreidimensionaler Merkmalspunkt durch Schwellenwertverarbeitung direkt extrahiert wird, die Besorgnis, daß ein dreidimensionaler Merkmalspunkt, der nicht der angegebene ist, als Pseudo- oder falscher dreidimensionaler Merkmalspunkt extrahiert wird.
- Da diese Fehler der Rückprojektionslinien statistisch in Richtung und Stärke verteilt sind, kann jedoch geschätzt werden, daß es sehr wahrscheinlich ist, daß der Mittelbereich der tatsächlich erzielbaren diskreten und expansiven Verteilung der Zählwerte, um die herum sich die Kreuzungen konzentrieren, den wahren dreidimensionalen Merkmalspunkt enthalten. Es ist daher möglich, die Wahrscheinlichkeit des Extrahierens von Pseudo- oder falschen dreidimensionalen Merkmalspunkten zu senken, indem die Verteilung der Kreuzungszählwerte längs der Basisrückprojektionslinie 34s durch den Filterteil 28 gefiltert wird, um die Verteilung an Punkten hervorzuheben, wo Referenzrückprojektionslinien die Basisrückprojektionslinie mit großer Häufung schneiden. Zu diesem Zweck ist es möglich, ein Quadratfilter, ein Dreiecksfilter, ein Gauß-Filter, ein Laplace-Gauß-Filter etc. zu verwenden.
- Für die diskrete Verteilung P(s) der Zählwerte der Kreuzungen 51 längs der Basisrückprojektionslinie 34s, wie in Fig. 6A gezeigt, kann der Filterprozeß unter Verwendung einer Funktion f(t) durch eine auf der folgenden Gleichung basierende Faltung erfolgen:
- P'(s) = P(s - t)·f(t)dt (7)
- wobei P(s) und P'(s) die Verteilungen der Zählwerte der Kreuzungen der Rückprojektionslinie vor bzw. nach der Faltung der Funktion f(t) sind und s die Position längs der Basisrückprojektionslinie 34s ist. Die Filterfunktion f(t) kann mit verschiedenen Filtern wie beispielsweise den oben genannten gewonnen werden. Bei dieser Ausführungsform wird ein Laplace-Gauß-Filter (üblicherweise als ²G- Filter bezeichnet) 52, das die in Fig. 6B gezeigte Charakteristik aufweist, zum Ausführen der Faltung mit der Verteilung der Zählwerte der Kreuzungen 51 längs der Basisrückprojektionslinie 34s verwendet. Da das ²G-Filter die Eigenschaft der Hervorhebung von Spitzen einer kontinuierlichen Wellenform aufweist, während es hochfrequentes diskretes Rauschen unterdrückt, unterdrückt die Faltung Zählwerte diskreter Kreuzungen und hebt Spitzen von Zählwerten stark konzentrierter Kreuzungen hervor, wie in Fig. 6C gezeigt. Somit kann die Extraktion falscher dreidimensionaler Merkmalspunkte verhindert werden, indem in dem Teil 29 für die dreidimensionale Merkmalsextraktion Spitzen 51p der Zählwerte an Kreuzungen auf der Basisrückprojektionslinie 34s erfaßt werden und dann festgelegt wird, daß die Kreuzung, die der betreffenden Spitzenposition am nächsten ist, die Position des angegebenen dreidimensionalen Merkmalspunkts ist.
- Wie oben beschrieben, sind Kreuzungen der Basisrückprojektionslinie 34s und der Referenzrückprojektionslinien 34 von den Referenzkameras auf der Basisrückprojektionslinie 34s definiert, und es wird die Anzahl an Kreuzungen bei jeder Kreuzung gezählt. In der Praxis wird jedoch aufgrund des vorgenannten Fehlers bei der optischen Mitte oder des Pixelquantisierungsfehlers am Merkmalspunkt die Kreuzung einer der Referenzrückprojektionslinien 34 von den einzelnen Referenzkameras und der Basisrückprojektionslinie 34s, die dem wahren angegebenen dreidimensionalen Merkmalspunkt entspricht, nicht eine Kreuzung im strenge Sinne. Dann ist es im Fall des Zählens der Anzahl an Kreuzungen an den einzelnen Kreuzungspunkten erforderlich, die Basisrückprojektionslinie 34s in ihrer Längsrichtung in vorbestimmte kleine Längeneinheiten Δs zu unterteilen und die Anzahl an Kreuzungen in jeder Längeneinheit Δs zu zählen. In diesem Fall nimmt, da die Auflösung für die Kreuzungen mit abnehmender Längeneinheit Δs zunimmt, die Anzahl an in der gleichen Längeneinheit Δs auf der Basisrückprojektionslinie 34s vorhandenen Kreuzungen ab. Wenn die Längeneinheit Δs so klein gewählt wird, daß alle Kreuzungen separiert werden, wird die maximale Anzahl an Kreuzungen bei jeder Kreuzung 1, und der angegebene dreidimensionale Merkmalspunkt kann nicht eindeutig identifiziert werden. Auch in diesem Fall sind jedoch die Kreuzungen um den angegebenen dreidimensionalen Merkmalspunkt herum zusammengeklumpt, wie beispielsweise in Fig. 6A angegeben; daher schafft die Filterfaltung für die diskrete Verteilung der Kreuzungen, wie oben beschrieben, eine Spitze in der Mitte des Klumpungsbereichs der Kreuzungen, wodurch es möglich ist festzulegen, daß die der Spitzenposition nächste Kreuzung die Position des wahren dreidimensionalen Merkmalspunkts ist.
- Durch Wiederholen des oben beschriebenen Prozesses für jeden der Merkmalspunkte 33s auf dem Basisbild 32s können die Koordinaten aller dreidimensionaler Merkmalspunkte 36t entsprechend allen Merkmalspunkten 33s auf dem Basisbild 32s ermittelt werden. In diesem Fall sind die Rückprojektionslinien, die sich an der Position schneiden, die als dem angegebenen dreidimensionalen Merkmalspunkt entsprechend ermittelt wurde, nur mit dem angegebenen dreidimensionalen Merkmalspunkt verknüpft. Demzufolge ist es durch Entfernen der Merkmalspunkte 33 und 33s auf den Bildern 32 und 32s entsprechend den dreidimensionalen Merkmalspunkten, die unmittelbar vor dem Gewinnen anderer dreidimensionaler Merkmalspunkte ermittelt wurden, möglich, die Störungen der Rückprojektion und die Rechenkosten zu reduzieren. Außerdem ist es durch Auswählen eines anderen Bildes als Basisbild und Wiederholen des oben beschriebenen Prozesses, bis alle Bilder ausgewählt sind, möglich, die Positionen von dreidimensionalen Merkmalspunkten entsprechend Merkmalspunkten auf Bildern, die von allen Betrachtungspunkten gewonnen wurden, das heißt von allen der verwendeten Kameras aufgenommen wurden, zu gewinnen.
- Schließlich extrahiert der Teil 2A für die Extraktion dreidimensionaler Bewegungen dreidimensionale Bewegungsinformation des sich bewegenden Objekts durch Berechnen vorübergehender Änderungen der dreidimensionalen Merkmalspunktinformation, die aus dem Teil 29 für die dreidimensionale Merkmalsextraktion stammt. Ein konkretes Verfahren hierfür kann durch eine dreidimensional erweiterte Version eines zweidimensionalen Bewegungsinformationsextraktionsverfahrens (vergleiche beispielsweise R. Agarwal und J. Sklansky: "Optical flow estimation by the clustering of constraint sets in velocity space", Technical Report TP-91-2, Department of Electrical and Computer Engineering, Pattern Recognition and Image Modelling Project, University of California, Irvine, CA, USA) implementiert werden.
- Außerdem ist es auch möglich, das Verfolgen eines sich bewegenden Objekts durch Wiederholung folgender Operationen auszuführen: Eingeben der dreidimensionalen Bewegungsinformation aus dem Teil 2A für die Extraktion dreidimensionaler Bewegung in die Bewegungssteuerung 16 des Bildeingabeteils 10; Planen des nächsten Betrachtungspunkts; Aktivieren des Antriebs 15B, um die Mehrzahl von Bildaufnahmeteilen 111 bis 11n zu bewegen und gleichzeitig die Bewegung des Antriebs 15B zu einer Eingabezeit t + w zu messen; und Eingeben des Meßwerts in den Kamerainformationseingabeteil.
- Wie oben beschrieben, wird erfindungsgemäß, da die Rückprojektionsfläche durch die Einführung einer projektiven geometrischen Beschränkung erheblich beschränkt ist, die Störung der Rückprojektion minimiert, und daher kann durch Rückprojektion auf eine kleine Anzahl von Bildern eine dreidimensionale Information gewonnen werden. Somit kann die sich ständig ändernde dreidimensionale Form eines sich bewegenden Objekts durch gleichzeitige Bildaufnahme mit einer kleinen Anzahl an Kameras wiederhergestellt werden.
Claims (18)
1. Verfahren der Rekonstruktion dreidimensionaler Information von einem Objekt (19),
indem dreidimensionale Merkmalspunkte auf dem Objekt dazu gebracht werden, Merkmalspunkten
in Bildern des Objekts zu entsprechen, die mittels einer Mehrzahl von Kameras aufgenommen
wurden, wobei das Verfahren die Schritte umfaßt:
(a) bei dem das Objekt durch n Kameras abgebildet wird, um n Rahmen von Bildern zu
erhalten, und die Bilder als Bilddaten ausgegeben werden, wobei n eine ganze Zahl gleich oder
größer als drei ist,
(b) bei dem die Bilddaten empfangen werden und Merkmalspunkte des Objekts auf den n
Rahmen von Bildern jeweils extrahiert werden,
(c) bei dem eine der n Kameras als eine Basiskamera definiert wird, das von dieser
Basiskamera aufgenommene Bild als ein Basisbild (32s), die anderen übrigen Kameras als
Referenzkameras, die von den Referenzkameras aufgenommenen Bilder als Referenzbilder (32), und eine
Rückprojektionslinie, die durch die optische Mitte (31s) der Basiskamera und einen Merkmalspunkt
in dem Basisbild geht, der entsprechend einem angegebenen dreidimensionalen Merkmalspunkt auf
dem Objekt gewählt ist, als eine Basisrückprojektionslinie definiert wird,
(d) bei dem die Basisrückprojektionslinie auf die Referenzbilder projiziert wird, um darauf
jeweilige Epipolarlinien zu definieren,
(e) bei dem Rückprojektionslinien, die durch die Merkmalspunkte auf den Epipolarlinien auf
den Referenzbildern und die optischen Mitten der Referenzkameras gehen, als
Referenzrückprojektionslinien definiert werden,
(f) bei dem die Position des angegebenen dreidimensionalen Merkmalspunkts dadurch
bestimmt wird, daß die Basisrückprojektionslinie mit den Referenzrückprojektionslinien zum Schnitt
gebracht wird, und
(g) bei dem die Schritte (c) bis (f) für jeden der Merkmalspunkte auf dem Basisbild
wiederholt werden, um die Position des dreidimensionalen Merkmalspunkts auf dem Objekt als dessen
dreidimensionale Information zu erhalten,
wobei das Verfahren dadurch gekennzeichnet ist, daß zur Bestimmung des angegebenen
dreidimensionalen Merkmalspunkts Koordinaten der Schnittpunkte zwischen der
Basisrückprojektionslinie und den Referenzrückprojektionslinien berechnet werden, die Anzahl an Kreuzungen
zwischen Basisrückprojektionslinie und Referenzrückprojektionslinien an ihren jeweiligen
Schnittpunkten gezählt werden und die Verteilung der Zählwerte der Kreuzungen längs der
Basisrückprojektionslinie durch Faltung gefiltert wird, um die Konzentration der Verteilung der Kreuzungen
hervorzuheben, und die Position, wo die gefilterte Verteilung von Zählwerten der Kreuzungen
maximal ist, als die Position des angegebenen dreidimensionalen Merkmalspunkts festgelegt wird.
2. Verfahren nach Anspruch 1, bei dem eine Position der Basisrückprojektionslinie jede
vorbestimmte Einheitslänge der Basisrückprojektionslinie in deren Längsrichtung definiert wird und
die Anzahl von Kreuzungen an jedem der Schnittpunkte die Anzahl von Kreuzungen innerhalb der
Einheitslänge an der Position der Basisrückprojektionslinie ist, durch welche die
Referenzrückprojektionslinien hindurchgehen.
3. Verfahren nach Anspruch 2, bei dem die Referenzrückprojektionslinien, die die
Basisrückprojektionslinie kreuzen, Referenzrückprojektionslinien sind, die innerhalb eines vorbestimmten
Abstandsbereichs von der Basisrückprojektionslinie liegen.
4. Verfahren nach Anspruch 1, bei der die Filterung mit einem Laplace-Gauß-Filters
durchgeführt wird.
5. Verfahren nach Anspruch 1, bei dem die Filterung mit einem Quadratfilter ausgeführt
wird.
6. Verfahren nach Anspruch 1, bei dem die Filterung mit einem Dreiecksfilter ausgeführt
wird.
7 Verfahren nach Anspruch 1, bei dem die Filterung mit einem Gauß-Filter ausgeführt
wird.
8. Verfahren nach Anspruch 1, bei dem Schritt (g) einen Schritt enthält, bei dem jedes Mal,
wenn der Merkmalspunkt, der dem angegebenen dreidimensionalen Merkmalspunkt entspricht,
durch Durchführung der Reihe von Schritten (c) bis (f) identifiziert ist, der identifizierte
Merkmalspunkt von den Kandidaten zur Verarbeitung der nachfolgenden Wiederholung der Schritte entfernt
wird.
9. Verfahren nach Anspruch 1, bei dem die Anzahl n der Kameras im Bereich von 5 bis 8
liegt.
10. Verfahren nach Anspruch 1, ferner umfassend einen Schritt, bei dem bei jedem
Beenden des Schritts (g), der Schritt (g) für jede einzelne der Kameras nochmal wiederholt wird, wobei
eine der Referenzkameras als eine neue Basiskamera und die Basiskamera als eine neue
Referenzkamera verwendet werden.
11. Verfahren nach Anspruch 1, ferner umfassend einen Schritt, bei dem bei jeder
Wiederholung der gleichzeitigen Aufnahme von Bildern des Objekts (19) durch die n Kameras in einer
vorgegebenen Periode dreidimensionale Information des Objekts als Folge der Reihe von Schritten
erhalten wird.
12. Vorrichtung zur Rekonstruktion dreidimensionaler Information eines Objekts (19)
umfassend:
n Kameraanordnungen (111, ..., 11n), die an unterschiedlichen Positionen angeordnet
sind, um Bilder eines Objekts (19) aufzunehmen und die Bilder als Bilddaten auszugeben, wobei n
eine ganze Zahl gleich oder größer als drei ist, und
Bildinformationsverarbeitungsmittel (20), die mit den Bilddaten der n Kameraanordnungen
beliefert werden, um dreidimensionale Information des Objekts von Bildpunkten in den Bildern zu
gewinnen,
wobei die Bildinformationsverarbeitungsmittel umfassen:
Merkmalsextraktionsmittel (22) zum Extrahieren der Merkmalspunkte in den Bildern,
Basisrückprojektionslinien-Erzeugungsmittel (23), bei denen eine der n
Kameraanordnungen als eine Basiskamera definiert wird, das von dieser Basiskameraanordnung aufgenommene Bild
als ein Basisbild (32s), die anderen übrigen Kameraanordnungen als Referenzkameraanordnungen,
die von den Referenzkameraanordnungen aufgenommenen Bilder als Referenzbilder (32), und bei
denen eine Rückprojektionslinie, die die optische Mitte (31s) der Basiskameraanordnung und einen
Merkmalspunkt (33s) in dem Basisbild durchsetzt, welcher entsprechend einem angegebenen
dreidimensionalen Merkmalspunkt auf dem Objekt gewählt ist, als eine Basisrückprojektionslinie
(34s) erhalten wird,
Epipolarlinien-Erzeugungsmittel (24) zur Projektion der Basisrückprojektionslinie auf die
Referenzbilder (32) zum Erhalt von Epipolarlinien (35),
Referenzrückprojektionslinien-Erzeugungsmittel (25) zum Erhalt, als
Referenzrückprojektionslinien (34), von Rückprojektionslinien, die Merkmalspunkte auf den Epipolarlinien (35) auf den
Referenzbildern und die optischen Mitten der Referenzkameraanordnungen durchsetzen, und
dreidimensionale Merkmalsextraktionsmittel (25-29) zur Bestimmung der Position des
angegebenen dreidimensionalen Merkmalspunkts durch Schneiden der Basisrückprojektionslinie mit
den Referenzrückprojektionslinien,
wobei die Vorrichtung dadurch gekennzeichnet ist, daß die dreidimensionalen
Merkmalsextraktionsmittel die Koordinaten von Schnittpunkten (36) der Basisrückprojektionslinie (34s)
und der Referenzrückprojektionslinien (34) berechnen, die Anzahl von Kreuzungen zwischen der
Basisrückprojektionslinie und den Referenzrückprojektionslinien an jedem der Schnittpunkte zählen
und denjenigen der Schnittpunkte als die Position des angegebenen dreidimensionalen
Merkmalspunkts bestimmen, der den maximalen Zählwert aufweist,
wobei die Merkmalsextraktionsmittel (22) eine Filteranordnung (28) enthalten zum
Hervorheben der Konzentration der Verteilung von Zählwerten von Kreuzungen durch Faltung längs der
Basisrückprojektionslinie und die Position, wo die gefilterte Verteilung von Zählwerten von
Kreuzungen maximal ist, als die Position des angegebenen dreidimensionalen Merkmalspunkts bestimmt
wird,
wodurch die Positionen der jeweiligen dreidimensionalen Merkmalspunkte auf dem Objekt,
die jeweiligen Merkmalspunkten auf dem Basisbild entsprechen, als die dreidimensionale
Information des Objekts erhalten werden.
13. Vorrichtung nach Anspruch 12, bei dem die Filteranordnung (28) ein Laplace-Gauß-
Filter ist.
14. Vorrichtung nach Anspruch 12, bei der die Filteranordnung (28) ein Quadratfilter ist.
15. Vorrichtung nach Anspruch 12, bei der die Filteranordnung (28) ein Dreiecksfilter ist.
16. Vorrichtung nach Anspruch 12, bei der die Filteranordnung (28) ein Gauß-Filter ist.
17. Vorrichtung nach Anspruch 12, bei der die Anzahl n von Kameraanordnungen im
Bereich von 5 bis 8 liegt.
18. Vorrichtung nach Anspruch 12, ferner umfassend Kamerasteuermittel (14) zum
Wiederholen einer gleichzeitigen Bildaufnahme des Objekts (19) mit einer festgelegten Periode und zur
Lieferung der Bilddaten an die Bildinformationsverarbeitungsmittel (20) nach jeder Erzeugung der
Bilddaten.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14933493 | 1993-06-21 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69430153D1 DE69430153D1 (de) | 2002-04-25 |
DE69430153T2 true DE69430153T2 (de) | 2002-09-05 |
Family
ID=15472840
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69430153T Expired - Fee Related DE69430153T2 (de) | 1993-06-21 | 1994-06-20 | Verfahren und Vorrichtung zur dreidimensionalen Bilderzeugung von Objekten |
Country Status (3)
Country | Link |
---|---|
US (1) | US5475422A (de) |
EP (1) | EP0631250B1 (de) |
DE (1) | DE69430153T2 (de) |
Families Citing this family (86)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5687249A (en) * | 1993-09-06 | 1997-11-11 | Nippon Telephone And Telegraph | Method and apparatus for extracting features of moving objects |
US6118475A (en) * | 1994-06-02 | 2000-09-12 | Canon Kabushiki Kaisha | Multi-eye image pickup apparatus, and method and apparatus for measuring or recognizing three-dimensional shape |
JPH0877356A (ja) * | 1994-09-09 | 1996-03-22 | Fujitsu Ltd | 三次元多眼画像の処理方法及び処理装置 |
US5644651A (en) * | 1995-03-31 | 1997-07-01 | Nec Research Institute, Inc. | Method for the estimation of rotation between two frames via epipolar search for use in a three-dimensional representation |
DE19516431A1 (de) * | 1995-05-04 | 1996-11-07 | Siemens Ag | Verfahren zum Auswählen eines Bildes aus einer Bildersammlung für die photogrammetrische Berechnung der räumlichen Koordinaten eines Objektpunktes |
US5818959A (en) * | 1995-10-04 | 1998-10-06 | Visual Interface, Inc. | Method of producing a three-dimensional image from two-dimensional images |
JPH09238367A (ja) * | 1996-02-29 | 1997-09-09 | Matsushita Electric Ind Co Ltd | テレビジョン信号送信方法,テレビジョン信号送信装置,テレビジョン信号受信方法,テレビジョン信号受信装置,テレビジョン信号送信受信方法,テレビジョン信号送信受信装置 |
AU3718497A (en) * | 1996-06-28 | 1998-01-21 | Resolution Technologies, Inc. | Fly-through computer aided design method and apparatus |
JP3512992B2 (ja) * | 1997-01-07 | 2004-03-31 | 株式会社東芝 | 画像処理装置および画像処理方法 |
SE511461C2 (sv) * | 1997-03-03 | 1999-10-04 | Qualisys Ab | Databearbetning |
EP0928460B1 (de) * | 1997-07-29 | 2003-01-29 | Philips Electronics N.V. | Rekonstruktionsverfahren, Vorrichtung und Dekodierungssystem für dreidimensionalen Szenen. |
EP0898245B1 (de) | 1997-08-05 | 2004-04-14 | Canon Kabushiki Kaisha | Bildverarbeitungsverfahren und -gerät |
EP0901105A1 (de) * | 1997-08-05 | 1999-03-10 | Canon Kabushiki Kaisha | Bildverarbeitungsvorrichtung |
US7006132B2 (en) * | 1998-02-25 | 2006-02-28 | California Institute Of Technology | Aperture coded camera for three dimensional imaging |
US7612870B2 (en) | 1998-02-25 | 2009-11-03 | California Institute Of Technology | Single-lens aperture-coded camera for three dimensional imaging in small volumes |
US6160909A (en) * | 1998-04-01 | 2000-12-12 | Canon Kabushiki Kaisha | Depth control for stereoscopic images |
GB9810553D0 (en) * | 1998-05-15 | 1998-07-15 | Tricorder Technology Plc | Method and apparatus for 3D representation |
US6205241B1 (en) | 1998-06-01 | 2001-03-20 | Canon Kabushiki Kaisha | Compression of stereoscopic images |
US6141440A (en) * | 1998-06-04 | 2000-10-31 | Canon Kabushiki Kaisha | Disparity measurement with variably sized interrogation regions |
US6320979B1 (en) | 1998-10-06 | 2001-11-20 | Canon Kabushiki Kaisha | Depth of field enhancement |
US6553138B2 (en) | 1998-12-30 | 2003-04-22 | New York University | Method and apparatus for generating three-dimensional representations of objects |
US6744914B1 (en) * | 2000-04-28 | 2004-06-01 | Orametrix, Inc. | Method and system for generating a three-dimensional object |
DE19913853A1 (de) * | 1999-03-26 | 2000-10-05 | Steffen Setzer | Verfahren und Vorrichtung zum bildhaften Erfassen dreidimensionaler Objekte |
JP4310850B2 (ja) * | 1999-05-28 | 2009-08-12 | コニカミノルタホールディングス株式会社 | 3次元形状の対応付け方法 |
DE19928341C2 (de) * | 1999-06-21 | 2002-06-20 | Inb Vision Ag | Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen |
US6760488B1 (en) * | 1999-07-12 | 2004-07-06 | Carnegie Mellon University | System and method for generating a three-dimensional model from a two-dimensional image sequence |
AU2001268965A1 (en) * | 2000-04-11 | 2001-10-23 | Roke Manor Research Limited. | Self-calibration of an array of imaging sensors |
DE10034601B4 (de) * | 2000-07-14 | 2013-05-23 | Leica Geosystems Ag | Kamerasystem mit mindestens zwei ersten und zweiten Kameras |
US7227526B2 (en) * | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
DE10037491A1 (de) * | 2000-08-01 | 2002-02-14 | Stryker Leibinger Gmbh & Co Kg | Verfahren zum dreidimensionalen Visualisieren von Strukturen im Körperinneren |
JP4010753B2 (ja) * | 2000-08-08 | 2007-11-21 | 株式会社リコー | 形状計測システムと撮像装置と形状計測方法及び記録媒体 |
US20020131643A1 (en) * | 2001-03-13 | 2002-09-19 | Fels Sol Sidney | Local positioning system |
US6834119B2 (en) * | 2001-04-03 | 2004-12-21 | Stmicroelectronics, Inc. | Methods and apparatus for matching multiple images |
FR2829344B1 (fr) * | 2001-08-29 | 2004-10-01 | Oreal | Dispositif d'acquisition d'au moins une image d'au moins une partie du visage ou de la chevelure d'une personne |
JP4035978B2 (ja) * | 2001-10-05 | 2008-01-23 | コニカミノルタホールディングス株式会社 | 3次元形状モデルの評価方法および生成方法並びに装置 |
CN1219397C (zh) * | 2002-10-22 | 2005-09-14 | 张晓林 | 仿生型自动视觉和视线控制系统及方法 |
DE10259698A1 (de) * | 2002-12-18 | 2004-07-08 | Pilz Gmbh & Co. | Darstellungsbereich eines automobilen Nachtsichtsystems |
US7196719B2 (en) * | 2004-07-16 | 2007-03-27 | Vision Robotics Corporation | Angled axis machine vision system and method |
US8027531B2 (en) * | 2004-07-21 | 2011-09-27 | The Board Of Trustees Of The Leland Stanford Junior University | Apparatus and method for capturing a scene using staggered triggering of dense camera arrays |
US20050057438A1 (en) * | 2004-08-27 | 2005-03-17 | Remes Roberto Luis Garcia | Apparatus and method for producing three-dimensional motion picture images |
US7930323B2 (en) * | 2004-12-30 | 2011-04-19 | Sap Ag | Method for reallocating table formats in real-time |
CN100427876C (zh) * | 2005-05-26 | 2008-10-22 | 上海交通大学 | 料场测量的计算机视觉系统自动测量的方法 |
CN100414249C (zh) * | 2005-05-26 | 2008-08-27 | 上海交通大学 | 料场测量的计算机自动测量的视觉系统 |
US9696808B2 (en) * | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
US8972902B2 (en) * | 2008-08-22 | 2015-03-03 | Northrop Grumman Systems Corporation | Compound gesture recognition |
US8589824B2 (en) * | 2006-07-13 | 2013-11-19 | Northrop Grumman Systems Corporation | Gesture recognition interface system |
US8180114B2 (en) * | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
US8234578B2 (en) * | 2006-07-25 | 2012-07-31 | Northrop Grumman Systems Corporatiom | Networked gesture collaboration system |
US8432448B2 (en) * | 2006-08-10 | 2013-04-30 | Northrop Grumman Systems Corporation | Stereo camera intrusion detection system |
GB2444533B (en) * | 2006-12-06 | 2011-05-04 | Sony Uk Ltd | A method and an apparatus for generating image content |
US20080284900A1 (en) * | 2007-04-04 | 2008-11-20 | Nikon Corporation | Digital camera |
US8126273B2 (en) * | 2007-04-05 | 2012-02-28 | Siemens Corporation | Method for reconstructing three-dimensional images from two-dimensional image data |
US8059888B2 (en) * | 2007-10-30 | 2011-11-15 | Microsoft Corporation | Semi-automatic plane extrusion for 3D modeling |
US8139110B2 (en) * | 2007-11-01 | 2012-03-20 | Northrop Grumman Systems Corporation | Calibration of a gesture recognition interface system |
US9377874B2 (en) * | 2007-11-02 | 2016-06-28 | Northrop Grumman Systems Corporation | Gesture recognition light and video image projector |
US8345920B2 (en) * | 2008-06-20 | 2013-01-01 | Northrop Grumman Systems Corporation | Gesture recognition interface system with a light-diffusive screen |
US8547374B1 (en) | 2009-07-24 | 2013-10-01 | Lockheed Martin Corporation | Detection and reconstruction of 3D objects with passive imaging sensors |
US8730338B2 (en) * | 2009-12-01 | 2014-05-20 | Nokia Corporation | Set of camera modules hinged on a body and functionally connected to a single actuator |
US8896668B2 (en) * | 2010-04-05 | 2014-11-25 | Qualcomm Incorporated | Combining data from multiple image sensors |
US20110242342A1 (en) | 2010-04-05 | 2011-10-06 | Qualcomm Incorporated | Combining data from multiple image sensors |
US8855366B2 (en) * | 2011-11-29 | 2014-10-07 | Qualcomm Incorporated | Tracking three-dimensional objects |
US9772173B2 (en) * | 2013-06-27 | 2017-09-26 | Faro Technologies, Inc. | Method for measuring 3D coordinates of a surface with a portable articulated arm coordinate measuring machine having a camera |
EP2884460B1 (de) | 2013-12-13 | 2020-01-01 | Panasonic Intellectual Property Management Co., Ltd. | Bilderfassungsvorrichtung, Überwachungssystem, Bildverarbeitungsvorrichtung, Bilderfassungsverfahren und übergangsloses computerlesbares Aufzeichnungsmedium |
US10021379B2 (en) | 2014-06-12 | 2018-07-10 | Faro Technologies, Inc. | Six degree-of-freedom triangulation scanner and camera for augmented reality |
US9402070B2 (en) | 2014-06-12 | 2016-07-26 | Faro Technologies, Inc. | Coordinate measuring device with a six degree-of-freedom handheld probe and integrated camera for augmented reality |
US10176625B2 (en) | 2014-09-25 | 2019-01-08 | Faro Technologies, Inc. | Augmented reality camera for use with 3D metrology equipment in forming 3D images from 2D camera images |
US9506744B2 (en) | 2014-12-16 | 2016-11-29 | Faro Technologies, Inc. | Triangulation scanner and camera for augmented reality |
US9942474B2 (en) | 2015-04-17 | 2018-04-10 | Fotonation Cayman Limited | Systems and methods for performing high speed video capture and depth estimation using array cameras |
JP7018566B2 (ja) * | 2017-04-28 | 2022-02-14 | パナソニックIpマネジメント株式会社 | 撮像装置、画像処理方法及びプログラム |
CN109215109A (zh) * | 2017-07-06 | 2019-01-15 | 幻视互动(北京)科技有限公司 | 一种基于深度摄像模组的三维重建方法及装置 |
US11972589B2 (en) * | 2019-01-09 | 2024-04-30 | Fuji Corporation | Image processing device, work robot, substrate inspection device, and specimen inspection device |
CN110163906B (zh) * | 2019-05-22 | 2021-10-29 | 北京市商汤科技开发有限公司 | 点云数据处理方法、装置、电子设备及存储介质 |
MX2022003020A (es) | 2019-09-17 | 2022-06-14 | Boston Polarimetrics Inc | Sistemas y metodos para modelado de superficie usando se?ales de polarizacion. |
KR20230004423A (ko) | 2019-10-07 | 2023-01-06 | 보스턴 폴라리메트릭스, 인크. | 편광을 사용한 표면 법선 감지 시스템 및 방법 |
WO2021108002A1 (en) | 2019-11-30 | 2021-06-03 | Boston Polarimetrics, Inc. | Systems and methods for transparent object segmentation using polarization cues |
US11195303B2 (en) | 2020-01-29 | 2021-12-07 | Boston Polarimetrics, Inc. | Systems and methods for characterizing object pose detection and measurement systems |
KR20220133973A (ko) | 2020-01-30 | 2022-10-05 | 인트린식 이노베이션 엘엘씨 | 편광된 이미지들을 포함하는 상이한 이미징 양식들에 대해 통계적 모델들을 훈련하기 위해 데이터를 합성하기 위한 시스템들 및 방법들 |
WO2021243088A1 (en) | 2020-05-27 | 2021-12-02 | Boston Polarimetrics, Inc. | Multi-aperture polarization optical systems using beam splitters |
US11743403B2 (en) * | 2020-10-21 | 2023-08-29 | Ricoh Company, Ltd. | Image reading device and image forming apparatus configured to determine measurements of an object-to-be scanned |
US12069227B2 (en) | 2021-03-10 | 2024-08-20 | Intrinsic Innovation Llc | Multi-modal and multi-spectral stereo camera arrays |
US12020455B2 (en) | 2021-03-10 | 2024-06-25 | Intrinsic Innovation Llc | Systems and methods for high dynamic range image reconstruction |
US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
US12067746B2 (en) | 2021-05-07 | 2024-08-20 | Intrinsic Innovation Llc | Systems and methods for using computer vision to pick up small objects |
US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
CN116109706B (zh) * | 2023-04-13 | 2023-06-23 | 中国人民解放军国防科技大学 | 基于先验几何约束的空间目标反演方法、装置和设备 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS51142212A (en) * | 1975-06-02 | 1976-12-07 | Hokkaido Daigaku | Tridimensional television system |
JPS5792989A (en) * | 1980-12-01 | 1982-06-09 | Kiyoshi Nagata | Transmission and receiving system for stereoscopic color television |
US4956705A (en) * | 1989-03-10 | 1990-09-11 | Dimensional Visions Group | Electronic method and apparatus for stereoscopic photography |
US5049987A (en) * | 1989-10-11 | 1991-09-17 | Reuben Hoppenstein | Method and apparatus for creating three-dimensional television or other multi-dimensional images |
EP0684585B1 (de) * | 1994-04-22 | 2003-02-05 | Canon Kabushiki Kaisha | Bilderzeugungsverfahren und -gerät |
JPH07294215A (ja) * | 1994-04-25 | 1995-11-10 | Canon Inc | 画像処理方法及び装置 |
-
1994
- 1994-06-20 EP EP94109510A patent/EP0631250B1/de not_active Expired - Lifetime
- 1994-06-20 US US08/262,541 patent/US5475422A/en not_active Expired - Lifetime
- 1994-06-20 DE DE69430153T patent/DE69430153T2/de not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
EP0631250B1 (de) | 2002-03-20 |
EP0631250A2 (de) | 1994-12-28 |
EP0631250A3 (de) | 1996-01-03 |
US5475422A (en) | 1995-12-12 |
DE69430153D1 (de) | 2002-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69430153T2 (de) | Verfahren und Vorrichtung zur dreidimensionalen Bilderzeugung von Objekten | |
DE69811050T2 (de) | Rekonstruktionsverfahren, Vorrichtung und Dekodierungssystem für dreidimensionalen Szenen. | |
DE69231812T2 (de) | Verfahren zur bestimmung von fuehlerbewegung und szenenstruktur und bildverarbeitungssystem dafuer | |
DE69512709T2 (de) | Verfahren zur Stereoübereinstimmung und Umgleichheitsmessung | |
DE19636028C1 (de) | Verfahren zur Stereobild-Objektdetektion | |
DE69722378T2 (de) | Verfahren und vorrichtung zur bearbeitung eines dreidimensionalen bildes mit hilfe der parallaxgeometrie von punktpaaren | |
DE69601880T2 (de) | Verfahren und vorrichtung zur erstellung der lage einer fernsehkamera zur verwendung in einem virtuellen studio | |
DE102014209137B4 (de) | Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs | |
EP2275989B1 (de) | Stereoskopische 3D-Kamera | |
DE3854223T2 (de) | Erzeugung und Anzeige von Rechnergraphiken. | |
EP2406769B1 (de) | Verfahren und vorrichtung zur reduktion des speicherbedarfs bei der bestimmung von disparitätswerten für mindestens zwei stereoskopisch aufgenommene bilder | |
WO2001063236A2 (de) | Verfahren zur automatischen gussfehlererkennung in einem prüfling | |
DE112011103452T5 (de) | Verfahren zum Angleichen von Pixeln einer Entfernungsdarstellung | |
DE102006055758A1 (de) | Verfahren zur Kalibrierung von Kameras und Projektoren | |
EP3775767B1 (de) | Verfahren und system zur vermessung eines objekts mittels stereoskopie | |
DE10156040B4 (de) | Verfahren, Vorrichtung und Computerprogramm-Produkt zum Entzerren einer eingescannten Abbildung | |
DE4437385A1 (de) | Verfahren und Vorrichtung zur Bildkorrektur | |
DE102016100132A1 (de) | Verfahren und Vorrichtung zum Untersuchen eines Objekts unter Verwendung von maschinellem Sehen | |
EP1098268A2 (de) | Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen | |
WO2005073911A1 (de) | Bildverarbeitungssystem | |
WO2010028718A2 (de) | Verfahren zur bildverarbeitung von stereobildern | |
DE4143193A1 (de) | System zur mathematischen erfassung dreidimensionaler oberflaechen | |
EP0966727B1 (de) | Kompaktes sensorsystem zur optischen bewegungserkennung in echtzeit | |
EP3214602A1 (de) | Verfahren zur dreidimensionalen erfassung von objekten | |
EP3142068A1 (de) | Verfahren zur dreidimensionalen erfassung von objekten |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |