DE19882939C2 - Verfahren zum Bestimmen der relativen Kameraorientierungsposition, um sichtbare 3-D-Bilder zu erzeugen - Google Patents

Verfahren zum Bestimmen der relativen Kameraorientierungsposition, um sichtbare 3-D-Bilder zu erzeugen

Info

Publication number
DE19882939C2
DE19882939C2 DE19882939T DE19882939T DE19882939C2 DE 19882939 C2 DE19882939 C2 DE 19882939C2 DE 19882939 T DE19882939 T DE 19882939T DE 19882939 T DE19882939 T DE 19882939T DE 19882939 C2 DE19882939 C2 DE 19882939C2
Authority
DE
Germany
Prior art keywords
image
camera
location
recording
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE19882939T
Other languages
English (en)
Other versions
DE19882939T1 (de
Inventor
Robert C Sundahl
Randy R Dunton
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of DE19882939T1 publication Critical patent/DE19882939T1/de
Application granted granted Critical
Publication of DE19882939C2 publication Critical patent/DE19882939C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/02Stereoscopic photography by sequential recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Description

Die Erfindung bezieht sich auf ein System bzw. ein Verfahren zum Erzeugen eines dreidimensionalen Bildes mit Hilfe einer bewegten Bildaufnahmeeinrichtung, die jeweils ein Bild an einem ersten und einem zweiten Ort aufnimmt.
Fotografische und Bildgebungssysteme werden heutzutage primär zur Verwendung bei der Erzeugung zweidimensionaler Bilder entwickelt. Bei einem zweidimensionalen Bild wird nur eine Perspektive benötigt. Diese Perspektive kann erzeugt werden, indem eine Kamera an einer fest vorgegebenen Positi­ on positioniert wird und das Bild auf einem fotografischen Film oder auf elektronischen Sensoren aufgezeichnet wird. Jedoch ist die menschliche Sichtweise stereoskopisch. So kombiniert das menschliche Gehirn zwei Bilder, von denen je­ des jeweils ein Auge erreicht. Das Gehirn kombiniert die zwei Bilder, um eine zusätzliche Dimension der Tiefe zu er­ zeugen, um ein dreidimensionales (3-D) Bild zu erzeugen. In den letzten Jahren wurden Kameras und elektronische Sensoren entwickelt, um zu versuchen, zwei Bilder aufzunehmen und diese zu rekombinieren, um ein dreidimensionales Bild mit einer Tiefenkomponente zu reproduzieren.
Herkömmliche dreidimensionale Bildgebungssysteme verwen­ den zwei Kameras. Vorzugsweise ist die Beziehung zwischen den zwei Kameras fest. Wenn somit die beiden Perspektiven (eine Perspektive von jeder Kamera) kombiniert werden, sind die sich auf die beiden Perspektiven beziehenden Informatio­ nen bekannt, da eine feste räumliche Beziehung zwischen den beiden Kameras besteht. Das Problem bei der Verwendung zwei­ er Kameras besteht darin, daß dies aufwendiger ist als eine Anordnung mit einer einzigen Kamera. Zwei Kameras erfordern üblicherweise zwei Linsen, zwei Kameragehäuse und zwei Sätze von Filmen.
Es wurden alternative Systeme zum Erzeugen von 3-D-Bil­ dern implementiert, die zwei Linsen in einem Kameragehäuse verwenden. Diese Systeme sind ebenfalls aufwendiger als zweidimensionale Standardkameras, da mehrere Systeme von Linsen erforderlich sind, um mehrere Bilder zu erzeugen. Je­ des Linsensystem erzeugt ein Bild, das einer anderen Per­ spektivansicht des fotografierten Objekts entspricht. Dar­ über hinaus erfordert das Anordnen von zwei Linsensystemen in einem einzigen Kameragrundkörper, daß die Linsensysteme eng beieinander angeordnet werden. Der geringere Abstand der beiden Linsensysteme führt zu einer geringeren Tiefenwahr­ nehmung, als sie verfügbar wäre, sofern die Linsensysteme weiter voneinander beabstandet angeordnet werden könnten.
Aus der Offenlegungsschrift DE 38 33 584 A1 ist eine Einrichtung zum Erzeugen von Stereobildpaaren bekannt. Von einer herkömmlichen Kamera werden zwei Bilder an vorgegebenen Punkten während einer Bewegung der Kamera entlang einer Schiene aufgenommen. Die Kamera ist auf einem Schlitten montiert, der auf der Schiene gleitet und von einem Riementrieb und einem Motor angetrieben wird. Der Antrieb des Schlittens und die Steuerung der Kamera sind so miteinander gekoppelt, daß die beiden Bildaufnahmen an vorgegebenen Positionen auf der Schiene ausgelöst werden. Diese Einrichtung ist relativ aufwendig und wenig flexibel.
Aus dem US-Patent Nr. 4,807,024 ist die Erzeugung eines Pseudo-Stereo-Eindrucks beim Betrachten von aus einem Flugzeug heraus aufgenommenen Bildfolgen bekannt, bei der bestimmte Bilder der Bildfolge entweder dem rechten oder dem linken Auge zugeführt werden.
Das US-Patent Nr. 4,895,431 offenbart eine Anordnung mit einem Endoskop mit einer ein Bild erfassenden und seitlich schwenkbaren Endoskopspitze und mit einer Einrichtung zur Steuerung des Endoskops zum Schwenken der Endoskopspitze und zur Erzeugung eines dreidimensionalen Bildes aus zwei mit der Endoskopspitze gewonnenen Aufnahmen. Bspw. werden zwei Aufnahmen an zwei Schwenkpositionen der Endoskopspitze aufgenommen. Die Einrichtung umfaßt einen Stellantrieb mit einem Seilzug zum Krümmen des Endoskops, wodurch die Endoskopspitze verschwenkt wird. Aus der jeweiligen Stellung des Positionierantriebs, die mit einem Sensor erfaßt wird, kann ein Schwenkwinkel der Endoskopspitze berechnet werden. Aus zwei Positionen des Sensorantriebs kann der Winkelabstand zwischen zwei zugehörigen Positionen der Endoskopspitze bestimmt werden, nicht aber der tatsächliche Ort der Endoskopspitze.
Aufgabe der Erfindung ist es, auf schnelle und einfache Weise ein dreidimensionales Bild mit Hilfe einer einzigen Kamera zu erzeugen.
Diese Aufgabe wird durch ein System zum Erzeugen eines dreidimensionalen Bildes mit den Merkmalen des Patentanspruchs 1 bzw. ein Verfahren mit den Merkmalen des Patentanspruchs 9 gelöst.
Vorteilhafte und bevorzugte Weiterbildungen der Erfindung sind in den Unteransprüchen gekennzeichnet.
Im folgenden wird die Erfindung anhand bevorzugter Ausführungsformen näher beschrieben, die in den Zeichnungen abgebildet sind. In den Zeichnungen zeigen:
Fig. 1 veranschaulicht ein Ausführungsbeispiel der Er­ findung zum Erzeugen eines dreidimensionalen Bildes.
Fig. 2 ist ein Ablaufdiagramm, das den Prozeß des Er­ zeugens zweier Bilder beschreibt.
Fig. 3 ist ein Ablaufdiagramm, das den Prozeß des Kom­ binierens zweier Bilder zum Bilden eines einzigen dreidimen­ sionalen Bildes beschreibt.
Fig. 4 ist ein Ablaufdiagramm, das ein System zum Un­ terstützen eines Benutzers zur Verbesserung der Datengewin­ nungskapazität einer Kamera veranschaulicht.
In der folgenden Beschreibung wird ein System zur Ver­ wendung einer einzigen Kamera mit einem einzigen Linsensy­ stem zum Erzeugen dreidimensionaler Bilder beschrieben. Die Kamera enthält einen Satz von Bewegungssensoren, vorzugs­ weise einen mikromechanischen Siliziumsensor (MEMS-Sensor), welcher die lineare und die Rotationsbeschleunigung oder - bewegungen der Kamera erfaßt, und kann dadurch die Verschie­ bung der Kamera berechnen, um Positionen zu bestimmen, an welchen eine Kamera angeordnet ist. Alternativ kann ein glo­ bales Positionier(GPS)-System verwendet werden, um den Ort zu bestimmen. Andere Arten von Bewegungssensoren, welche ebenfalls verwendet werden können, sind MEM-Schwingungssen­ soren oder kommerziell verfügbare Laser-Gyroskope. Unter Verwendung der Positionsinformationen und der wenigstens zwei durch das einzige Linsensystem aufgenommenen Bilder kann die Kamera oder ein externer Prozessor ein dreidimen­ sionales Bild, das ein Objekt darstellt, erzeugen.
In der nachfolgenden Beschreibung sind bestimmte Be­ schreibungsteile vorgesehen, um das Verständnis der Erfin­ dung zu erleichtern. Beispielsweise ist beschrieben, daß die Erfindung bestimmte MEMS-Sensortypen, wie beispielsweise mi­ kromechanische Beschleunigungssensoren, verwendet. Es ist jedoch klar, daß andere Positionssensoren oder Bewegungsde­ tektoren verwendet werden können. Insbesondere können GPS- Systeme oder andere Arten von MEMS geeignet sein. Der tat­ sächlich verwendete Sensor hängt von den Kosten des Sensors ab und davon, ob ein Sensor Daten mit einer ausreichenden Genauigkeit bereitstellen kann, von dem Stromverbrauch des Sensors und von der Größe des Sensors. Die enthaltenen De­ tails werden angegeben, um das Verständnis der Erfindung zu erleichtern, und sollten nicht im Sinne einer Einschränkung des Umfangs der Erfindung interpretiert werden.
Eine Betriebsweise des gesamten Systems ist in Fig. 1 veranschaulicht. In Fig. 1 wird eine Kamera 104 verwendet, um ein dreidimensionales Bild eines Objekts 108 zu erzeugen. Die Kamera befindet sich in einer Anfangsposition 112, wenn das erste Bild aufgenommen wird. Nachdem ein erstes Bild aufgenommen ist, wird die Kamera zu einer zweiten Position 116 bewegt. Die Bewegung umfaßt sowohl eine seitliche Ver­ schiebung, die durch den Pfeil 120 veranschaulicht ist, als auch gegebenenfalls eine Rotationsbewegung, die durch den Pfeil 124 veranschaulicht ist. Bei einem Ausführungsbeispiel erfaßt ein Bewegungssensor 128 in der Kamera die seitliche Verschiebung und die Rotation der Kamera. Bei einem Ausfüh­ rungsbeispiel umfaßt der Bewegungssensor 128 zwei MEMS-Sen­ soren, einen MEMS-Sensor, welcher die laterale Beschleuni­ gung 120 umfaßt, und einen zweiten MEMS-Sensor zum Erfassen der Rotation. Bei einem alternativen Ausführungsbeispiel können GPS-Sensoren verwendet werden, um die Position der Kamera zu bestimmen.
Bei einem bevorzugten Ausführungsbeispiel ist der MEMS- Sensor 128 ein Trägheitssensor. Derartige Sensoren basieren auf der Kammstellantriebtechnologie (comb drive actuator technology), die von Howe entwickelt und in einem Artikel mit dem Titel "Laterally Driven Polysilicate Resident Micro Structures" von W. C. Tang, T. C. Nguyen und R. T. Howe, Proceedings IEEE Microelectromechanical Systems Workshop, Salt Lake City, Utah, U.S.A., Februar 1989, S. 53-59 be­ schrieben ist. Ein Beispiel eines geeigneten Beschleuni­ gungssensors ist ein 50N1G-Beschleunigungsmesser von Analog Devices. Analog Devices erzeugt darüber hinaus integrierte BiCMOS-Bauelemente, die mit einem mikromechanischen Sensor vereinigt sind, zum Bestimmen einer Geräterotation. Diese Sensoren werden in fortgeschrittenen Kraftfahrzeugbremssy­ stemen verwendet. Diese Sensoren werden von General Motors vermarktet und sind in dem Artikel "Overview Of MEMS Activities in The U.S." von C. H. Mastrangelo vom Center for Integrated Sensors and Circuits, Department of Electrical Engineering, Universität Michigan, Ann Arbor, Michigan, 48109 beschrieben. Der Artikel von Mastrangelo beschreibt darüber hinaus alternative Ausführungsbeispiele von Bewe­ gungssensoren, die optische Aktuatoren enthalten, welche verwendet werden können, um die Bewegung einer Kamera zu be­ stimmen. Durch Integration der Beschleunigung der Kamera kann eine Geschwindigkeit bestimmt werden. Eine zweite Inte­ gration der Geschwindigkeit erzeugt einen Weg der Kamera. Diese Weginformationen können verwendet werden, um dann, wenn das zweite Bild genommen wird, eine zweite Position 116 einer Kamera 104 in Bezug auf eine erste Position 112 und die Orientierung der Kamera 104 zu bestimmen.
Die relativen Orientierungen und Positionen der Kamera, die sowohl die erste Position 112 als auch die zweite Posi­ tion 116 einschließen, werden entweder in einer Speicherein­ richtung 132 in der Kamera aufgezeichnet, oder die Daten können bei einem alternativen Ausführungsbeispiel in einem externen Speicher, der mit der Kamera gekoppelt ist, gespei­ chert werden. Einige Bewegungssensoren, wie beispielsweise Sensoren, welche die Beschleunigung messen, können keine Po­ sitionsdaten erzeugen. Bei diesen Ausführungsbeispielen wer­ den die Daten, die die Bewegung der Kamera beschreiben, wie beispielsweise die Beschleunigungsdaten, in einem Speicher aufgezeichnet. Zu einem späteren Zeitpunkt verwendet ein Prozessor die Bewegungsdaten, um Positionsdaten zu berech­ nen. Die jeweiligen Bewegungs- oder Positions- und Orientie­ rungsdaten sind so organisiert, daß eine Korrelation jedes aufgezeichneten Bildes mit einer zugehörigen Position, wie beispielsweise der ersten Position 112 oder zweiten Position 116, ermöglicht wird.
Jedes aufgezeichnete Bild kann auf einem fotografischen Film oder, was vorzuziehen ist, unter Verwendung von elek­ tronischen Sensoren 134 aufgezeichnet werden. Bei einem Aus­ führungsbeispiel sind die elektronischen Sensoren Komplemen­ tär-Metall-Oxid-Halbleiter(CMOS-Sensoren). Bei alternativen Ausführungsbeispielen können das Licht erfassende Arrays la­ dungsgekoppelter Bauelement (CCD) oder Photodioden verwendet werden. Die von den elektronischen Sensoren ausgegebenen elektronischen Bilder werden von einer zweiten Speicherein­ richtung 136 gespeichert. Sofern das Bild von einem fotogra­ fischen Film aufgezeichnet wurde, wird das Bild für die wei­ tere Verarbeitung in eine elektronische Form konvertiert. Die Konvertierung kann unter Verwendung eines Scanners oder eines anderen Verfahrens zum Konvertieren chemischer Daten oder von Lichtdaten in elektronische Daten ausgeführt wer­ den. Derartige Scanner sind von verschiedenen Anbietern, wie beispielsweise Hewlett Packard in Palo Alto, Kalifornien, erhältlich. Das digitale Bild wird in der Speichereinrich­ tung 136 gespeichert.
Um ein einziges dreidimensionales Bild aus den zwei Bil­ dern eines Objekts zu erzeugen, liest die Verarbeitungsein­ heit 140 die Bilder und die zugehörigen Positions- und Ori­ entierungsinformationen und rekombiniert sie zu einem einzi­ gen dreidimensionalen Bild. Die Verarbeitungseinheit 140 kann in einer Graphikprozessorkarte implementiert sein. Bei einem anderen Ausführungsbeispiel ist der Prozessor ein all­ gemeiner Mikroprozessor, der ein Programm ausführt, um Gra­ phikverarbeitungsfunktionen zu handhaben. Verschiedene Ver­ fahren zur Verarbeitung von zwei Bildern, um ein 3-D-Bild zu erzeugen, sind beschrieben bei Masatoshi Okutomi und Takeo Kanade, A Multiple-Baseline Stereo, IEEE Transactions on Pattern Analysis and Machine Intelligence, Band 15, Nr. 4, April 1993.
Fig. 2 veranschaulicht ein Ablaufdiagramm, das die Schritte beschreibt, die verwendet werden, um ein 3-D-Bild aus der Kamera gemäß Fig. 1 zu erzeugen. Im Schritt 204 setzt der Benutzer einen Kamerapositionsindikator zurück, bevor das erste Bild aufgenommen wird. Das Rücksetzen des Kamerapositionsindikator löscht vorzugsweise den Speicher 132, der die Ausgangssignale des Bewegungssensors speichert, so daß das erste in einer Sequenz aufgezeichnete Bild sich vorzugsweise bei einem Nullpunkt-Referenzrahmen befindet. Die Kamera zeichnet ein Bild eines Objekts an dem Nullpunkt- Referenzrahmen im Schritt 208 auf. Zu etwa derselben Zeit, zu der das Aufzeichnen des ersten Bildes erfolgt, wird eine zugehörige Position und Orientierung der Kamera im Speicher 132 aufgezeichnet. Bei der Kamera gemäß Fig. 1 erzeugt ein CCD-Array das in dem zweiten Speicher 136 gemäß Fig. 1 ge­ speicherte Bild.
Nachdem die Kamera das erste Bild und zugehörige Positi­ ons- und Orientierungsinformationen aufgezeichnet hat, wird die Kamera im Schritt 212 verschoben. Die Bewegung kann so­ wohl eine seitliche Verschiebung 120 als auch eine Drehbewe­ gung 124 umfassen. Die Kamera kann entweder durch eine Per­ son oder durch eine motorgetriebene Einrichtung bewegt wer­ den. Bei einem Ausführungsbeispiel wird die Kamera entlang einer Spur bewegt, was die Rotationsbewegungen minimiert und Kameraausführungsbeispiele ermöglicht, welche keine Kamera­ orientierung messen. Während der Bewegung zeichnet ein Sen­ sor, vorzugsweise ein MEMS-Sensor, die Bewegung und Rotation der Einrichtung im Schritt 216 auf. Bei einem Ausführungs­ beispiel der Erfindung zeichnet der MEMS-Sensor die Be­ schleunigung auf und integriert die Beschleunigung, um eine Verschiebung zu erzeugen. Die aufgezeichneten Beschleuni­ gungs-, Rotations- oder Verschiebungsinformationen werden in einer Speichereinrichtung gespeichert.
Wenn die Kamera eine zweite Position erreicht hat, zeichnet die Kamera ein zweites Bild des Objekts auf. Wenn das zweite Bild aufgezeichnet wird, verwendet die Kamera In­ formationen aus dem Bewegungssensor und zeichnet eine Kame­ raposition und -orientierung auf, die dem zweiten Bild ent­ spricht. Die Positions- und Orientierungsinformationen wer­ den in einer Positions- und Orientierungsspeichereinrichtung 132 gespeichert. Das zweite Bild und das erste Bild müssen einen ausreichenden Grad der Objektüberlappung aufweisen, so daß der Prozessor in der Lage ist, die sich überlappenden Bereiche zu rekonstruieren und ein dreidimensionales Bild zu erzeugen.
Die vorgenannte Sequenz der Schritte 204 bis 220 be­ schrieb ein System, wie es bei einer Standbildkamera verwen­ det wird. Es ist vorgesehen, daß ein MEMS- oder Bewegungs­ sensor in einer Videokamera installiert werden kann und viele Bilder aufgenommen werden, wenn sich die Kamera be­ wegt. Jedes Bild entspricht einem Satz von Positionsdaten, die aus durch die Bewegungssensoren aufgezeichneten Informa­ tionen erzeugt werden. Diese Bilder können dann mit Nachbar­ bildern rekonstruiert werden, um die Neu-Erzeugung einer sich bewegenden 3-D-Graphik zu ermöglichen. Die bei der Re­ konstruktion eines derartigen sich bewegenden Bildes be­ schriebenen Techniken werden durch die wiederholten Itera­ tionen der Schritte 204 bis 220 und einer Reihe von Rekon­ struktionsschritten, die durch den Prozessor ausgeführt wer­ den, durchgeführt. Im Schritt 224 werden die von dem Bewe­ gungssensor erzeugten Positions- und Orientierungsinforma­ tionen zusammen mit den zugehörigen aufgezeichneten Bildern an einen Prozessor übertragen.
Fig. 3 ist ein Ablaufdiagramm, das die von dem Prozes­ sor oder der Verarbeitungseinrichtung 140 durchgeführten Schritte beschreibt, um ein dreidimensionales Bild aus den zweidimensionalen Bildern und zugehörigen Positions- und Orientierungsdaten zu rekonstruieren. Im Schritt 304 emp­ fängt der Prozessor die Positions- und Orientierungsinforma­ tionen und die zugehörigen Bilddaten aus der Kamera. Dann bestimmt der Prozessor im Schritt 308 korrespondierende Punkte in dem ersten und dem zweiten Bild. Korrespondierende Punkte sind Punkte in verschiedenen Bildern oder Perspekti­ ven, welche sich auf den gleichen Punkt auf einem Objekt be­ ziehen. So ist ein korrespondierender Punkt ein Punkt oder ein Pixel in dem ersten Bild, welcher bzw. welches einem Punkt auf dem Objekt entspricht, und ein zweiter Punkt oder ein zweites Pixel in dem zweiten Bild, welcher bzw. welches demselben Punkt auf dem Objekt entspricht. Beispielsweise kann die Nasenspitze einer Person ein korrespondierender Punkt in sowohl einem ersten als auch einem zweiten Bild sein. Bei einem Ausführungsbeispiel der Erfindung wird eine Mustererkennungssoftware verwendet, um korrespondierende Punkte zu bestimmen. Eine zweite einfachere Methode des Be­ stimmens korrespondierender Punkte involviert einen Endbe­ nutzer, welcher einen Punkt in dem ersten Bild auswählt, wo­ bei er den ersten Punkt unter Verwendung einer Maus oder ei­ ner anderen Zeigereinrichtung auswählt oder "anklickt", und auf den zugehörigen Punkt in dem zweiten Bild "klickt" oder diesen auswählt. Im Schritt 312 werden die ausgewählten kor­ respondierenden Punkte und ihre x, y-Koordinaten in einer Speichereinrichtung aufgezeichnet. Die Aufzeichnung ist ty­ pischerweise eine zweidimensionale Aufzeichnung, da für je­ den Punkt eine x- und y-Koordinate aufgezeichnet werden müs­ sen.
Im Schritt 316 wird die Distanz von der Kamera zu einem identifizierten Punkt auf dem Objekt bestimmt. Die Distanz oder der Abstand kann bestimmt werden, weil die erste Kame­ raposition, die zweite Kameraposition und der identifizierte Bildpunkt ein Dreieck bilden. Eine Seite eines Dreiecks stellt die Distanz dar, die sich die Kamera bewegte, oder den Abstand zwischen der ersten Kameraposition und der zwei­ ten Kameraposition, welche bzw. welcher bekannt ist. So ist die Dimension einer Seite des Dreiecks bekannt. Darüber hin­ aus erfaßt der Mikrosensor die Rotation der Kamera, während sich die Kamera von der ersten Position zu der zweiten Posi­ tion bewegte. Somit ist die Winkelverschiebung der Kamera in Bezug auf den Objektpunkt ebenfalls bekannt. Unter Verwen­ dung der Trigonometrie kann der Abstand zwischen jeder Kame­ raposition und dem identifizierten Bildpunkt bestimmt wer­ den, um eine z-Dimension zu erzeugen.
Im Schritt 320 erzeugt der Prozessor die dritte z-Dimen­ sion. Die z-Dimension wird in Beziehung zu dem ausgewählten Koordinatenrahmen gesetzt. Sobald ein kartesisches x, y-Koor­ dinatensystem ausgewählt wird, ist die z-Dimension spezifi­ ziert und typischerweise senkrecht zur Ebene des x, y-Koordi­ natensystems. Die z-Koordinate kann unter Verwendung des Ab­ stands vom Bildpunkt zur Kamera, der Kameraorientierung und des ausgewählten Koordinatensystems bestimmt werden. Die neuen x, y, z-Koordinaten für jedes korrespondierende Paar von Koordinaten werden in einem Feld in der Speichereinrichtung gespeichert, das den zugehörigen Punkten zugeordnet ist.
Die Schritte 316 und 320 werden für jedes Paar korre­ spondierender Punkte in dem ersten und dem zweiten Bild wie­ derholt. Nach jeder Verarbeitung eines Paars korrespondie­ render Punkte bestimmt das System, ob die korrespondierenden Punkte, die zuvor verarbeitet wurden, den letzten Satz kor­ respondierender Punkte in einem Bild darstellen. Sofern es weitere zu verarbeitende korrespondierende Punkte gibt, kehrt das System zum Schritt 316 zurück. Wenn das System ei­ nen vollständigen Satz von x, y, z-Koordinaten für jeden kor­ respondierenden Punkt in einem Bild abgeschlossen hat, kann der Prozessor ein Netz (Maschen) von Dreiecken aufbauen, welche sich nicht überlappen und welche die Punkte sämtli­ cher 3-D-Aufzeichnungen zu einer zweidimensionalen Oberflä­ che im 3-D-Raum verbinden. Die Konstruktion der Netzdreiecke kann unter Verwendung einer strukturierten Lösung des Anord­ nens von Punkten auf einem regelmäßigen Raster ausgeführt werden. Der Delaunai-Algorithmus kann ebenfalls verwendet werden, um das Maschendreieck zu rekonstruieren. Der De­ launai-Algorithmus ist im Stand der Technik gut bekannt und wird somit in dieser Anmeldung nicht im Detail beschrieben.
Im Schritt 332 konstruiert der Prozessor eine Datenbank aus den x, y, z-Datensätzen und dem Dreiecknetz, um das 3-D- Bild zu beschreiben. Der Computer kann darüber hinaus Be­ schreibungen der Oberfläche hinzufügen, so daß das Programm simulieren kann, wie das Objekt aus verschiedenen Winkeln aussieht. Bei einem Ausführungsbeispiel der Erfindung gibt der Prozessor eine Beschreibung aus, wie beispielsweise eine Virtuelle-Welt(WRL)-Datei, welche ein übliches Format für 3- D-Daten im Internet ist. 3-D-Dateien zur Verwendung bei gra­ phischen Betrachtungsprogrammen durch andere Anbieter können ebenfalls verwendet werden, um die Bilder anzuzeigen. Ein typisches 3-D-Betrachtungsprogramm ist "True Space" der Calligri Company.
Der in dem Ablaufdiagramm gemäß Fig. 3 beschriebene Prozeß gestattet es, daß ein dreidimensionales Bild aus zwei Sätzen zweidimensionaler Daten erzeugt wird. Die zweidimen­ sionalen Daten wurden durch eine Kamera erzeugt, welche ein erstes Bild an einer ersten Position nahm. Bewegungssensoren erfaßten die Bewegung und Rotation oder die Position der Ka­ mera, als sich die Kamera zu einer zweiten Position bewegte, an der ein zweites Bild aufgenommen wurde. Durch Verarbei­ tung der Bild- und Positionsinformationen erzeugte ein Pro­ zessor ein 3-D-Bild.
Das beschriebene System reduziert die Kosten, da weniger Geräteausrüstung erforderlich ist. Insbesondere wird nur ein Linsensystem benötigt. Ein einziges Linsensystem macht das System weniger sperrig als bekannte 3-D-Bildgebungssysteme.
Schließlich ist das beschriebene System für Videokameras ge­ eignet, bei welchen mehrere Bilder aufgenommen werden. Diese mehreren Bilder könnten kombiniert werden, um eine 3-D-Bild­ datenbank zu erzeugen. Das beschriebene System kann weiter verfeinert werden, um die Bedienung zu vereinfachen und die Datengewinnungskapazität der Kamera 104 zu verbessern. Fig. 4 ist ein Ablaufdiagramm, das ein Verfahren zum Unterstützen eines Benutzers zum Verbessern der Datengewinnungskapazität der Kamera 104 beschreibt. Im Schritt 404 nimmt die Kamera ein erstes Bild eines Objekts von einem ersten Ort aus auf. Im Schritt 408 mißt die Kamera die Distanz von dem Objekt zu dem Kamera-"Sucher" und zeichnet sie auf. Die Kamera kann dann damit fortfahren, optimale Kamerapositionen zu berech­ nen, aus welchen nachfolgende Bilder aufgenommen werden sol­ len. Es ist vorzuziehen, daß nachfolgende Bilder zur Erzeu­ gung eines 3-D-Bildes aus etwa dem gleichen Abstand von ei­ nem Objekt heraus aufgenommen werden. So würde eine Kamera vorzugsweise einen etwa konstanten Abstand von einem Objekt halten, wobei sie sich in einem Kreis um das Objekt herum bewegt.
Es können eine Reihe von Techniken verwendet werden, um den Abstand der Kamera von dem Objekt zu bestimmen, die eine Einrichtung zur automatischen Entfernungsmessung einschlie­ ßen. Eine derartige Einrichtung zur automatischen Entfer­ nungsmessung kann Bildsensordaten, Infrarotsignale oder Schallsignale benutzen, um den Abstand der Kamera von dem Objekt zu bestimmen. Bei einem automatischen Entfernungsmeß- Schallsignal-System emitiert ein Sender in der Kamera einen Schallimpuls. Ein Empfänger in der Kamera erfaßt die Refle­ xion des Schallimpulses von dem Objekt. Die Zeitdifferenz zwischen der Emission des Impulses bis zum Empfang der Schallimpulsreflexion wird verwendet, um den Abstand des Ob­ jekts von der Kamera zu bestimmen.
Im Schritt 412 beginnt die Kamera eine Bildaufnahmese­ quenz. Orientierungsmessungen werden vorgenommen, um die Orientierung der Kamera zu bestimmen. Vorzugsweise wird die Orientierung der Kamera so aufrechterhalten, daß die Linse stets dem Objekt zugewandt ist.
Im Schritt 416 fordert die Kamera den Benutzer auf, sich zu bewegen. Bei einem Ausführungsbeispiel können die Auffor­ derungen in Form von in dem Kamerasucher angezeigten Pfeilen gegeben werden. Die Pfeile fordern einen Benutzer auf, die Kamera in eine bestimmte Richtung zu bewegen oder die Kamera in eine bestimmte Orientierung zu drehen. Die Pfeile können unter Verwendung einer Flüssigkristallanzeige (LCD) ange­ zeigt werden. Eine automatische Entfernungsmeßeinrichtung kann verwendet werden, um Signale an einen Prozessor bereit­ zustellen. Der Prozessor steuert die Anzeige, um Signale auszugeben, die den Benutzer auffordern, einen näherungswei­ se konstanten Abstand zu dem abgebildeten Objekt zu halten. Bei einem alternativen Ausführungsbeispiel kann ein Ton- oder Sprachsignal verwendet werden, um dem Benutzer mitzu­ teilen, daß er die Kamera in eine bestimmte Richtung bewegen oder die Kamera in eine bestimmte Orientierung drehen soll.
Im Schritt 420 bestimmt die Kamera, ob sich die Kamera innerhalb eines Toleranzabstands von einer optimalen Positi­ on befindet. Wenn die Kamera nicht innerhalb des Toleranzab­ stands gegenüber der optimalen Position ist, kehrt die Kame­ ra zum Schritt 416 zurück, in dem sie den Benutzer auffor­ dert, mit dem Einstellen der Kameraposition fortzufahren. Sofern im Schritt 420 festgestellt wird, daß sich die Kamera innerhalb des Toleranzabstands befindet, zeichnet die Kamera ein zweites oder nachfolgendes Bild des Objekts im Schritt 424 auf.
Im Schritt 428 bestimmt die Kamera, ob sämtliche für ei­ ne Datenbank erforderlichen Bilder aufgezeichnet worden sind. Die Anzahl der benötigten Bilder wird durch die Anzahl der gewünschten Perspektiven des Objekts und die gewünschten Details des endgültigen 3-D-Bildes bestimmt. Wenn weitere Bilder erforderlich sind, kehrt die Kamera zum Schritt 416 zurück, um den Benutzer aufzufordern, sich zu einer nachfol­ genden Position zur Aufzeichnung eines nachfolgenden Bildes zu bewegen. Wenn im Schritt 428 festgestellt wird, daß eine ausreichende Anzahl von Bildern aufgezeichnet worden ist, ist die Kamera fertig und ein 3-D-Bild kann rekonstruiert werden.
Während bestimmte Ausführungsbeispiele im Detail be­ schrieben und in den begleitenden Zeichnungen gezeigt wur­ den, ist es klar, daß diese Ausführungsbeispiele die breite Erfindung nur veranschaulichen und nicht einschränken sol­ len, und daß diese Erfindung nicht auf die gezeigten und be­ schriebenen speziellen Anordnungen und Konstruktionen einge­ schränkt ist, da verschiedene andere Modifikationen Fachleu­ ten in den Sinn kommen können.

Claims (18)

1. System zum Erzeugen eines dreidimensionalen Bildes, aufweisend:
eine Bildaufnahmeeinrichtung, die so konfiguriert ist, daß sie ein erstes Bild eines Objekts an einem ersten Ort und ein zweites Bild des Objekts an einem zweiten Ort auf­ zeichnet;
Sensoren zum Erfassen der Orientierung der Bildaufnahmeeinrichtung am ersten und am zweiten Ort und zum Erfassen der Bewegung der Bildaufnahmeeinrichtung von dem ersten Ort zu dem zweiten Ort und Mittel zum Aufzeichnen der Orientierungsdaten und der Verschiebungsdaten, die die Be­ wegung der Bildaufnahmeeinrichtung wiedergeben und Daten ei­ ner seitlichen Verschiebung einschließen; und
einen Prozessor, der so konfiguriert ist, daß er korre­ spondierende Punkte in dem ersten Bild und dem zweiten Bild auswählt, die demselben Punkt auf dem Objekt entsprechen, und ein dreidimensionales Bild des Objekts durch Kombinieren des ersten Bilds und des zweiten Bilds unter Verwendung der korrespondierenden Punkte und der Verschiebungsdaten er­ zeugt.
2. System nach Anspruch 1, dadurch gekennzeichnet, daß der Bewegungssensor ein MEMS-Sensor ist.
3. System nach Anspruch 1, dadurch gekennzeichnet, daß der Bewegungssensor ein Globalpositionssystemsensor ist.
4. System nach Anspruch 1, dadurch gekennzeichnet, daß der Bewegungssensor ein Laser-Gyrometer ist.
5. System nach Anspruch 1, dadurch gekennzeichnet, daß die Bildaufnahmeeinrichtung ferner aufweist:
ein Linsensystem; und
ein Array von elektronischen Sensoren zum Erzeugen eines elektronischen Bildes.
6. System nach Anspruch 5, dadurch gekennzeichnet, daß die elektronischen Sensoren Teil eines Arrays ladungsgekop­ pelter Bauelemente sind.
7. System nach Anspruch 5, dadurch gekennzeichnet, daß die elektronischen Sensoren Teil eines Komplementär-Metall- Oxid-Halbleiter-Sensors sind.
8. System nach Anspruch 1, dadurch gekennzeichnet, daß die Bildaufnahmeeinrichtung eine Videokamera ist.
9. Verfahren zum Erzeugen eines dreidimensionalen Bil­ des, umfassend:
Aufzeichnen eines ersten Bildes eines Objekts unter Ver­ wendung einer Bildaufnahmeeinrichtung an einem ersten Ort;
Bewegen der Bildaufnahmeeinrichtung zu einem zweiten Ort;
Erfassen der Bewegung der Bildaufnahmeeinrichtung und Aufzeichnen der Bewegungsdaten, die eine seitliche Verschiebung einschließen und ausreichend sind, um die Position und Orientierung der Bildaufnahmeeinrichtung an dem zweiten Ort in Bezug zur Position und Orientierung an dem ersten Ort zu bestimmen; wobei die Verschiebungsdaten Daten der seitlichen Verschiebung einschließen;
Aufzeichnen eines zweiten Bildes unter Verwendung der Bildaufnahmeeinrichtung an dem zweiten Ort;
Auswählen korrespondierender Punkte in dem ersten Bild und dem zweiten Bild, die demselben Punkt auf dem Objekt entsprechen; und
Kombinieren des ersten Bildes und des zweiten Bildes un­ ter Verwendung der korrespondierenden Punkte und der Ver­ schiebungsdaten, um ein dreidimensionales Bild zu erzeugen.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß beim Erzeugen des dreidimensionalen Bildes eine z-Dimen­ sion für jeden der korrespondierenden Punkte berechnet wird.
11. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß beim Aufzeichnen der Daten, die ausreichend sind, um den ersten Ort und einen zweiten Ort nach der Bewegung zu defi­ nieren, eine Beschleunigung erfaßt wird; und die Beschleuni­ gung und die Zeitdauer der Beschleunigung aufgezeichnet wer­ den, um es einem Prozessor zu ermöglichen, einen Weg zu be­ rechnen.
12. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß beim Aufzeichnen der Daten, die ausreichend sind, um den ersten Ort und einen zweiten Ort nach der Bewegung zu defi­ nieren, eine Position unter Verwendung eines Globalpositio­ nierungssystemsensors bestimmt wird.
13. Verfahren nach Anspruch 10, dadurch gekennzeichnet, daß ein Netz von Dreiecken erzeugt wird, um eine dreidimen­ sionale Oberfläche zu simulieren.
14. Verfahren zum Erzeugen eines dreidimensionalen Bil­ des nach Anspruch 9, dadurch gekennzeichnet,
daß die Bildaufnahmeeinrichtung eine Kamera ist,
daß beim Aufzeichnen des ersten Bildes ein erster Ab­ stand des Objekts von der Kamera gemessen wird,
daß nach dem Aufzeichnen des ersten Bildes ein Benutzer der Kamera aufgefordert wird, die Kamera zu dem zweiten Ort zu bewegen, der sich in einem zweiten Abstand von dem Objekt befindet, wobei der zweite Ort sich an einer aus dem ersten Abstand berechneten optimalen Kameraposition befindet, und
daß der Benutzer nach dem Aufzeichnen des zweiten Bildes aufgefordert wird, die korrespondierenden Punkte auszuwäh­ len.
15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, daß der zweite Ort etwa den gleichen Abstand von dem Objekt hat wie der erste Ort.
16. Das Verfahren nach Anspruch 14, dadurch gekennzeich­ net, daß beim Auffordern des Benutzers, die Kamera zu dem zweiten Ort zu bewegen, der Benutzer aufgefordert wird, die Kamera in eine bestimmte Richtung zu bewegen, oder er aufge­ fordert wird, die Kamera in eine bestimmte Orientierung zu bewegen.
17. Verfahren nach Anspruch 14, dadurch gekennzeichnet, daß nach dem Bewegen der Kamera bestimmt wird, ob sich die Kamera innerhalb eines Toleranzabstands von der optimalen Kameraposition befindet.
18. Verfahren nach Anspruch 17, dadurch gekennzeichnet, daß dann, wenn sich die Kamera nicht innerhalb des Toleranz­ abstands befindet, der Benutzer aufgefordert wird, mit dem Einstellen der Kameraposition fortzufahren.
DE19882939T 1998-01-06 1998-12-29 Verfahren zum Bestimmen der relativen Kameraorientierungsposition, um sichtbare 3-D-Bilder zu erzeugen Expired - Fee Related DE19882939C2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/003,389 US6094215A (en) 1998-01-06 1998-01-06 Method of determining relative camera orientation position to create 3-D visual images
PCT/US1998/027794 WO1999035855A1 (en) 1998-01-06 1998-12-29 Method of determining relative camera orientation position to create 3-d visual images

Publications (2)

Publication Number Publication Date
DE19882939T1 DE19882939T1 (de) 2001-01-18
DE19882939C2 true DE19882939C2 (de) 2003-09-04

Family

ID=21705638

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19882939T Expired - Fee Related DE19882939C2 (de) 1998-01-06 1998-12-29 Verfahren zum Bestimmen der relativen Kameraorientierungsposition, um sichtbare 3-D-Bilder zu erzeugen

Country Status (9)

Country Link
US (1) US6094215A (de)
JP (1) JP4340005B2 (de)
KR (1) KR100380819B1 (de)
AU (1) AU2098299A (de)
DE (1) DE19882939C2 (de)
GB (1) GB2348561B (de)
MY (1) MY133013A (de)
TW (1) TW371725B (de)
WO (1) WO1999035855A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018109828B4 (de) 2018-04-05 2022-02-17 Sick Ag Vorrichtung zur Bestimmung eines Abstandes zu einem Objekt in einem Raum

Families Citing this family (129)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11265249A (ja) * 1998-03-17 1999-09-28 Toshiba Corp 情報入力装置および情報入力方法および記録媒体
JP4193290B2 (ja) * 1999-06-29 2008-12-10 コニカミノルタホールディングス株式会社 多眼式データ入力装置
AU2001234601A1 (en) 2000-01-26 2001-08-07 New York University Method and system for facilitating wireless, full-body, real-time user interaction with digitally generated text data
US6697573B1 (en) * 2000-03-15 2004-02-24 Imax Corporation Hybrid stereoscopic motion picture camera with film and digital sensor
US7215809B2 (en) * 2000-04-04 2007-05-08 Sony Corporation Three-dimensional image producing method and apparatus therefor
JP3433204B2 (ja) * 2000-04-27 2003-08-04 株式会社東北テクノアーチ 3次元モデル構成装置
JP2002010297A (ja) * 2000-06-26 2002-01-11 Topcon Corp ステレオ画像撮影システム
LU90675B1 (de) * 2000-11-10 2002-05-13 Iee Sarl Verfahren zum Steuern von Geraeten
US8085293B2 (en) * 2001-03-14 2011-12-27 Koninklijke Philips Electronics N.V. Self adjusting stereo camera system
US7101045B2 (en) * 2001-03-23 2006-09-05 Panavision Inc. Automatic pan and tilt compensation system for a camera support structure
US6820980B1 (en) * 2001-03-23 2004-11-23 Panavision, Inc. Automatic pan and tilt compensation system for a camera support structure
US6781618B2 (en) * 2001-08-06 2004-08-24 Mitsubishi Electric Research Laboratories, Inc. Hand-held 3D vision system
US6747686B1 (en) * 2001-10-05 2004-06-08 Recon/Optical, Inc. High aspect stereoscopic mode camera and method
US7466336B2 (en) * 2002-09-05 2008-12-16 Eastman Kodak Company Camera and method for composing multi-perspective images
JP2004104576A (ja) * 2002-09-11 2004-04-02 Mitsubishi Heavy Ind Ltd 作業用ウェアラブル装置、遠隔作業指示装置、遠隔作業指示方法および遠隔作業指示プログラム
US20040070675A1 (en) * 2002-10-11 2004-04-15 Eastman Kodak Company System and method of processing a digital image for intuitive viewing
US7424133B2 (en) 2002-11-08 2008-09-09 Pictometry International Corporation Method and apparatus for capturing, geolocating and measuring oblique images
US20040174434A1 (en) * 2002-12-18 2004-09-09 Walker Jay S. Systems and methods for suggesting meta-information to a camera user
US7265790B2 (en) * 2003-07-07 2007-09-04 Hewlett-Packard Development Company, L.P. System and method for setting an image capture device to an operational mode
DE10336736B4 (de) * 2003-08-11 2005-07-21 Siemens Ag Vorrichtung und Methode zur Aufnahme von Bildinformationen zum Erstellen eines dreidimensionalen Bildes
JP4398430B2 (ja) * 2003-10-31 2010-01-13 富士通株式会社 距離算出装置および算出プログラム
US7924323B2 (en) 2003-12-24 2011-04-12 Walker Digital, Llc Method and apparatus for automatically capturing and managing images
JP4800591B2 (ja) * 2004-05-26 2011-10-26 オリンパス株式会社 撮影システム
EP1613082A1 (de) * 2004-06-30 2006-01-04 Sony Ericsson Mobile Communications AB Gesichtsbildkorrektur
US7697748B2 (en) * 2004-07-06 2010-04-13 Dimsdale Engineering, Llc Method and apparatus for high resolution 3D imaging as a function of camera position, camera trajectory and range
US7236235B2 (en) * 2004-07-06 2007-06-26 Dimsdale Engineering, Llc System and method for determining range in 3D imaging systems
US20060164509A1 (en) * 2004-12-14 2006-07-27 Andrew Marshall Stereo camera/viewer
US20070116457A1 (en) * 2005-11-22 2007-05-24 Peter Ljung Method for obtaining enhanced photography and device therefor
JP4783620B2 (ja) 2005-11-24 2011-09-28 株式会社トプコン 3次元データ作成方法及び3次元データ作成装置
KR100670816B1 (ko) * 2005-12-09 2007-01-19 한국전자통신연구원 3차원공간정보를 이용한 영상취득카메라의 설치위치 결정장치 및 방법
US7728906B2 (en) 2006-01-04 2010-06-01 Apple Inc. Embedded camera with privacy filter
KR100813057B1 (ko) * 2006-02-14 2008-03-14 엘지전자 주식회사 입체 영상 제작장치 및 그 방법
JP4958497B2 (ja) * 2006-08-07 2012-06-20 キヤノン株式会社 位置姿勢測定装置及び位置姿勢測定方法、複合現実感提示システム、コンピュータプログラム及び記憶媒体
US7873238B2 (en) 2006-08-30 2011-01-18 Pictometry International Corporation Mosaic oblique images and methods of making and using same
US8593518B2 (en) * 2007-02-01 2013-11-26 Pictometry International Corp. Computer system for continuous oblique panning
US8520079B2 (en) * 2007-02-15 2013-08-27 Pictometry International Corp. Event multiplexer for managing the capture of images
JP2008235971A (ja) * 2007-03-16 2008-10-02 Nec Corp 撮像装置、及び、撮像装置における立体的形状撮影方法
US8385672B2 (en) 2007-05-01 2013-02-26 Pictometry International Corp. System for detecting image abnormalities
US9262818B2 (en) 2007-05-01 2016-02-16 Pictometry International Corp. System for detecting image abnormalities
US7991226B2 (en) * 2007-10-12 2011-08-02 Pictometry International Corporation System and process for color-balancing a series of oblique images
DE102007054088A1 (de) * 2007-11-13 2009-05-20 Daimler Ag Verfahren und Vorrichtung zur Bildverarbeitung insbesondere Bildmessung
US8531472B2 (en) 2007-12-03 2013-09-10 Pictometry International Corp. Systems and methods for rapid three-dimensional modeling with real façade texture
CN101459857B (zh) * 2007-12-10 2012-09-05 华为终端有限公司 通信终端
US7961224B2 (en) * 2008-01-25 2011-06-14 Peter N. Cheimets Photon counting imaging system
TW200937109A (en) * 2008-02-22 2009-09-01 Asia Optical Co Inc Image pickup methods and image pickup systems
US8737721B2 (en) 2008-05-07 2014-05-27 Microsoft Corporation Procedural authoring
US8204299B2 (en) * 2008-06-12 2012-06-19 Microsoft Corporation 3D content aggregation built into devices
CN101610360A (zh) * 2008-06-19 2009-12-23 鸿富锦精密工业(深圳)有限公司 自动追踪声源的摄像装置
US8588547B2 (en) 2008-08-05 2013-11-19 Pictometry International Corp. Cut-line steering methods for forming a mosaic image of a geographical area
US8294766B2 (en) 2009-01-28 2012-10-23 Apple Inc. Generating a three-dimensional model using a portable electronic device recording
KR100986918B1 (ko) * 2009-03-24 2010-10-08 아주대학교산학협력단 비전센서 자동 배치장치 및 방법
TWI397758B (zh) * 2009-05-08 2013-06-01 Asia Optical Co 導引控制系統及應用其的視訊設備
US8401222B2 (en) 2009-05-22 2013-03-19 Pictometry International Corp. System and process for roof measurement using aerial imagery
GB2483213B8 (en) * 2009-06-11 2016-09-14 Toshiba Res Europ Ltd 3D image generation
US20100316282A1 (en) * 2009-06-16 2010-12-16 Hope Clinton B Derivation of 3D information from single camera and movement sensors
US9380292B2 (en) 2009-07-31 2016-06-28 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene
US8508580B2 (en) * 2009-07-31 2013-08-13 3Dmedia Corporation Methods, systems, and computer-readable storage media for creating three-dimensional (3D) images of a scene
US8436893B2 (en) * 2009-07-31 2013-05-07 3Dmedia Corporation Methods, systems, and computer-readable storage media for selecting image capture positions to generate three-dimensional (3D) images
JP4664427B2 (ja) * 2009-09-16 2011-04-06 富士通株式会社 距離算出装置
US9330494B2 (en) * 2009-10-26 2016-05-03 Pictometry International Corp. Method for the automatic material classification and texture simulation for 3D models
US10080006B2 (en) 2009-12-11 2018-09-18 Fotonation Limited Stereoscopic (3D) panorama creation on handheld device
US20120019614A1 (en) * 2009-12-11 2012-01-26 Tessera Technologies Ireland Limited Variable Stereo Base for (3D) Panorama Creation on Handheld Device
US20110141229A1 (en) * 2009-12-11 2011-06-16 Fotonation Ireland Limited Panorama imaging using super-resolution
US20110141225A1 (en) * 2009-12-11 2011-06-16 Fotonation Ireland Limited Panorama Imaging Based on Low-Res Images
US20110141224A1 (en) * 2009-12-11 2011-06-16 Fotonation Ireland Limited Panorama Imaging Using Lo-Res Images
US8294748B2 (en) * 2009-12-11 2012-10-23 DigitalOptics Corporation Europe Limited Panorama imaging using a blending map
US20110141226A1 (en) * 2009-12-11 2011-06-16 Fotonation Ireland Limited Panorama imaging based on a lo-res map
JP4911230B2 (ja) * 2010-02-01 2012-04-04 カシオ計算機株式会社 撮影装置、並びに制御プログラム及び制御方法
US20110304693A1 (en) * 2010-06-09 2011-12-15 Border John N Forming video with perceived depth
US20110304706A1 (en) * 2010-06-09 2011-12-15 Border John N Video camera providing videos with perceived depth
WO2011162227A1 (ja) * 2010-06-24 2011-12-29 富士フイルム株式会社 立体パノラマ画像合成装置、撮像装置並びに立体パノラマ画像合成方法、記録媒体及びコンピュータプログラム
US8477190B2 (en) 2010-07-07 2013-07-02 Pictometry International Corp. Real-time moving platform management system
KR20120011653A (ko) 2010-07-29 2012-02-08 삼성전자주식회사 영상 처리 장치 및 방법
US8676498B2 (en) 2010-09-24 2014-03-18 Honeywell International Inc. Camera and inertial measurement unit integration with navigation data feedback for feature tracking
US9185388B2 (en) 2010-11-03 2015-11-10 3Dmedia Corporation Methods, systems, and computer program products for creating three-dimensional video sequences
KR101845318B1 (ko) * 2010-11-29 2018-05-18 포토내이션 리미티드 핸드헬드 장치상에서 캡처된 다수의 이미지로부터의 인물사진 이미지 합성
US8823732B2 (en) 2010-12-17 2014-09-02 Pictometry International Corp. Systems and methods for processing images with edge detection and snap-to feature
JP2012134675A (ja) * 2010-12-20 2012-07-12 Samsung Yokohama Research Institute Co Ltd 撮像装置、撮像方法
US10200671B2 (en) 2010-12-27 2019-02-05 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US8274552B2 (en) 2010-12-27 2012-09-25 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
WO2012092246A2 (en) 2010-12-27 2012-07-05 3Dmedia Corporation Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3d) content creation
US8570320B2 (en) * 2011-01-31 2013-10-29 Microsoft Corporation Using a three-dimensional environment model in gameplay
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
CN102645834A (zh) * 2011-02-22 2012-08-22 国基电子(上海)有限公司 具有照相功能的电子装置及方法
JP5701124B2 (ja) * 2011-03-29 2015-04-15 京セラ株式会社 携帯電子機器
US8203605B1 (en) 2011-05-11 2012-06-19 Google Inc. Point-of-view object selection
US8957944B2 (en) 2011-05-17 2015-02-17 Apple Inc. Positional sensor-assisted motion filtering for panoramic photography
US8600194B2 (en) 2011-05-17 2013-12-03 Apple Inc. Positional sensor-assisted image registration for panoramic photography
US9088714B2 (en) 2011-05-17 2015-07-21 Apple Inc. Intelligent image blending for panoramic photography
US9762794B2 (en) 2011-05-17 2017-09-12 Apple Inc. Positional sensor-assisted perspective correction for panoramic photography
US9247133B2 (en) 2011-06-01 2016-01-26 Apple Inc. Image registration using sliding registration windows
MX339356B (es) 2011-06-10 2016-05-17 Pictometry Int Corp Sistema y metodo para formar una secuencia de video que contiene datos de gis en tiempo real.
US8928737B2 (en) * 2011-07-26 2015-01-06 Indiana University Research And Technology Corp. System and method for three dimensional imaging
CN102957856A (zh) * 2011-08-30 2013-03-06 鸿富锦精密工业(深圳)有限公司 相机拍摄控制方法及系统
US9230501B1 (en) 2012-01-06 2016-01-05 Google Inc. Device control utilizing optical flow
US8867015B2 (en) 2012-01-11 2014-10-21 Apple Inc. Displays with liquid crystal shutters
US9639959B2 (en) 2012-01-26 2017-05-02 Qualcomm Incorporated Mobile device configured to compute 3D models based on motion sensor data
US9183538B2 (en) 2012-03-19 2015-11-10 Pictometry International Corp. Method and system for quick square roof reporting
CN102645836A (zh) * 2012-04-20 2012-08-22 中兴通讯股份有限公司 一种照片拍摄方法及电子设备
US9098922B2 (en) 2012-06-06 2015-08-04 Apple Inc. Adaptive image blending operations
US10306140B2 (en) 2012-06-06 2019-05-28 Apple Inc. Motion adaptive image slice selection
US8902335B2 (en) 2012-06-06 2014-12-02 Apple Inc. Image blending operations
US9654762B2 (en) * 2012-10-01 2017-05-16 Samsung Electronics Co., Ltd. Apparatus and method for stereoscopic video with motion sensors
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
JP6192938B2 (ja) * 2013-01-15 2017-09-06 株式会社東芝 三次元合成処理システムおよび三次元合成処理方法
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
JP6198857B2 (ja) * 2013-03-11 2017-09-20 ケアストリーム ヘルス インク 3次元の画像形成を行うための方法及びシステム
US10278584B2 (en) 2013-03-11 2019-05-07 Carestream Dental Technology Topco Limited Method and system for three-dimensional imaging
US9881163B2 (en) 2013-03-12 2018-01-30 Pictometry International Corp. System and method for performing sensitive geo-spatial processing in non-sensitive operator environments
US9244272B2 (en) 2013-03-12 2016-01-26 Pictometry International Corp. Lidar system producing multiple scan paths and method of making and using same
US9753950B2 (en) 2013-03-15 2017-09-05 Pictometry International Corp. Virtual property reporting for automatic structure detection
US9275080B2 (en) 2013-03-15 2016-03-01 Pictometry International Corp. System and method for early access to captured images
US10148929B2 (en) * 2013-04-15 2018-12-04 Htc Corporation Method of prompting proper rotation angle for image depth establishing
US9832378B2 (en) 2013-06-06 2017-11-28 Apple Inc. Exposure mapping and dynamic thresholding for blending of multiple images using floating exposure
US10063837B2 (en) * 2013-07-25 2018-08-28 TIREAUDIT.COM, Inc. System and method for analysis of surface features
CH709003B1 (de) * 2013-12-18 2017-06-15 Kaba Ag Distanzbestimmung aus Bildern mit Referenzobjekt.
WO2015105886A1 (en) 2014-01-10 2015-07-16 Pictometry International Corp. Unmanned aircraft structure evaluation system and method
US9292913B2 (en) 2014-01-31 2016-03-22 Pictometry International Corp. Augmented three dimensional point collection of vertical structures
WO2015120188A1 (en) 2014-02-08 2015-08-13 Pictometry International Corp. Method and system for displaying room interiors on a floor plan
JP6222345B2 (ja) * 2014-03-20 2017-11-01 日本電気株式会社 Pos端末装置、posシステム、画像処理方法及びプログラム
US10402676B2 (en) 2016-02-15 2019-09-03 Pictometry International Corp. Automated system and methodology for feature extraction
US10671648B2 (en) 2016-02-22 2020-06-02 Eagle View Technologies, Inc. Integrated centralized property database systems and methods
US11472234B2 (en) 2016-03-04 2022-10-18 TIREAUDIT.COM, Inc. Mesh registration system and method for diagnosing tread wear
US10789773B2 (en) 2016-03-04 2020-09-29 TIREAUDIT.COM, Inc. Mesh registration system and method for diagnosing tread wear
CN106123863B (zh) * 2016-06-12 2021-06-18 首都师范大学 一种基于双全景的摄影测量方法
US10742878B2 (en) * 2016-06-21 2020-08-11 Symbol Technologies, Llc Stereo camera device with improved depth resolution
CN107063129B (zh) * 2017-05-25 2019-06-07 西安知象光电科技有限公司 一种阵列式并行激光投影三维扫描方法
US11138452B2 (en) 2019-10-08 2021-10-05 Ford Global Technologies, Llc Vehicle neural network training
DE102021119481A1 (de) 2021-07-27 2023-02-02 Karl Storz Se & Co. Kg Messverfahren und eine Messvorrichtung

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4138196A (en) * 1977-07-06 1979-02-06 The United States Of America As Represented By The Secretary Of The Army Fiber interferometer rotary motion sensor
US4754327A (en) * 1987-03-20 1988-06-28 Honeywell, Inc. Single sensor three dimensional imaging
US4807024A (en) * 1987-06-08 1989-02-21 The University Of South Carolina Three-dimensional display methods and apparatus
US4895431A (en) * 1986-11-13 1990-01-23 Olympus Optical Co., Ltd. Method of processing endoscopic images
DE3833584A1 (de) * 1988-10-03 1990-04-05 Alf Neustadt Stereoschiene
US5267042A (en) * 1991-01-11 1993-11-30 Pioneer Electronic Corporation Image pickup device for automatically recording the location where an image is recorded

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4727471A (en) * 1985-08-29 1988-02-23 The Board Of Governors For Higher Education, State Of Rhode Island And Providence Miniature lightweight digital camera for robotic vision system applications
US4815819A (en) * 1987-04-30 1989-03-28 Christopher A. Mayhew Method for obtaining images for use in displaying a three-dimensional illusion and related image recording medium
JPH0749937B2 (ja) * 1988-03-22 1995-05-31 工業技術院長 形状測定方法
JP3021556B2 (ja) * 1990-06-20 2000-03-15 ソニー株式会社 映像情報処理装置とその方法
JP2559939B2 (ja) * 1992-01-20 1996-12-04 日本電信電話株式会社 3次元情報入力装置
US5283640A (en) * 1992-01-31 1994-02-01 Tilton Homer B Three dimensional television camera system based on a spatial depth signal and receiver system therefor
JPH0575735U (ja) * 1992-03-19 1993-10-15 旭光学工業株式会社 液晶表示装置
US5448322A (en) * 1993-11-05 1995-09-05 Vision Iii Imaging, Inc. Autostereoscopic imaging apparatus and method using a parallax scanning lens aperture
JPH07222202A (ja) * 1994-02-02 1995-08-18 Rohm Co Ltd 立体ビジョンカメラ
US5659195A (en) * 1995-06-08 1997-08-19 The Regents Of The University Of California CMOS integrated microsensor with a precision measurement circuit
JPH09119819A (ja) * 1995-10-24 1997-05-06 Olympus Optical Co Ltd 三次元情報再構成装置
JPH09187037A (ja) * 1995-12-27 1997-07-15 Canon Inc 画像処理装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4138196A (en) * 1977-07-06 1979-02-06 The United States Of America As Represented By The Secretary Of The Army Fiber interferometer rotary motion sensor
US4895431A (en) * 1986-11-13 1990-01-23 Olympus Optical Co., Ltd. Method of processing endoscopic images
US4754327A (en) * 1987-03-20 1988-06-28 Honeywell, Inc. Single sensor three dimensional imaging
US4807024A (en) * 1987-06-08 1989-02-21 The University Of South Carolina Three-dimensional display methods and apparatus
DE3833584A1 (de) * 1988-10-03 1990-04-05 Alf Neustadt Stereoschiene
US5267042A (en) * 1991-01-11 1993-11-30 Pioneer Electronic Corporation Image pickup device for automatically recording the location where an image is recorded

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MASATOSDHI, O., TAKEO, K.: A Multiple-Baseline Stereo, In: IEEE Transactions on Pattern Analysis and Maschine Intelligence, Bd. 15, Nr. 4, April 1993, S. 353-363 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018109828B4 (de) 2018-04-05 2022-02-17 Sick Ag Vorrichtung zur Bestimmung eines Abstandes zu einem Objekt in einem Raum

Also Published As

Publication number Publication date
GB2348561A (en) 2000-10-04
KR20010033919A (ko) 2001-04-25
AU2098299A (en) 1999-07-26
MY133013A (en) 2007-10-31
DE19882939T1 (de) 2001-01-18
US6094215A (en) 2000-07-25
GB0014678D0 (en) 2000-08-09
WO1999035855A1 (en) 1999-07-15
JP4340005B2 (ja) 2009-10-07
KR100380819B1 (ko) 2003-04-18
JP2002501349A (ja) 2002-01-15
TW371725B (en) 1999-10-11
GB2348561B (en) 2002-05-22

Similar Documents

Publication Publication Date Title
DE19882939C2 (de) Verfahren zum Bestimmen der relativen Kameraorientierungsposition, um sichtbare 3-D-Bilder zu erzeugen
DE19983065B4 (de) Verfahren und Einrichtung zum Erzeugen von Panoramaaufnahmen oder von Rundumbildern mit Hilfe einer mit einem Bewegungssensor ausgestatteten Kamera
DE102015011914B4 (de) Konturlinienmessvorrichtung und Robotersystem
EP2101867B1 (de) Sehhilfe mit dreidimensionaler bilderfassung
CN110462686B (zh) 用于从场景获得深度信息的设备和方法
DE69434657T2 (de) System und Verfahren zur elektronischen Bildstabilisierung
EP0631250A2 (de) Verfahren und Vorrichtung zur dreidimenzionalen Bilderzeugung eines Objektes
DE112010002843T5 (de) Oberflächenverfolgung auf Bildbasis
EP0797171B1 (de) Verfahren und Gerät zur Bildverarbeitung
WO2017206999A1 (de) Verfahren zur auswertung von bilddaten einer fahrzeugkamera
EP2400261A1 (de) Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche
WO2008084468A2 (en) A method, device and system for imaging
EP2527784A1 (de) Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche
DE102006059549A1 (de) Verfahren zur Interpolation von Positionsdaten, positionserkennender Sensor, und Vorrichtung zur Positionsmessung
DE102011103423A1 (de) System und Verfahren für 3D-Videostabilisierung durch Verschmelzen von Ausrichtungssensormesswerten und Bildanordnungsabschätzungen
JPH09231373A (ja) 三次元位置計測装置
DE102016208056A1 (de) Verfahren und Vorrichtung zur Verarbeitung von Bilddaten und Fahrerassistenzsystem für ein Fahrzeug
WO2011009736A1 (de) Generierung eines gesamtdatensatzes
KR20050043651A (ko) X선 ct 촬영 방법 및 장치
EP3539085B1 (de) 3d-referenzierung
EP0141706B1 (de) Verfahren und Vorrichtung zur Lagebestimmung eines Objektes in einer Beobachtungsstation
CN108961378B (zh) 一种多目点云三维重建方法、装置及其设备
JPH09138850A (ja) 表面形状再構成装置
JPH06266827A (ja) 視差画像作成方法および装置
CN113269857A (zh) 坐标系关系获取方法及装置

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8607 Notification of search results after publication
8304 Grant after examination procedure
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20110701