DE69522386T2 - Bildverarbeitungsgerät und -verfahren - Google Patents
Bildverarbeitungsgerät und -verfahrenInfo
- Publication number
- DE69522386T2 DE69522386T2 DE69522386T DE69522386T DE69522386T2 DE 69522386 T2 DE69522386 T2 DE 69522386T2 DE 69522386 T DE69522386 T DE 69522386T DE 69522386 T DE69522386 T DE 69522386T DE 69522386 T2 DE69522386 T2 DE 69522386T2
- Authority
- DE
- Germany
- Prior art keywords
- image
- data
- display
- dimensional
- corresponding points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 85
- 238000012545 processing Methods 0.000 title claims description 16
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 3
- 238000013500 data storage Methods 0.000 claims description 2
- 238000012790 confirmation Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 2
- 238000002583 angiography Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0096—Synchronisation or controlling aspects
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
- Die vorliegende Erfindung betrifft ein Bildverarbeitungsgerät und -verfahren und insbesondere ein Bildverarbeitungsgerät und -verfahren, die Daten erzeugen, die ein Computermodell der dreidimensionalen geometrischen Form eines Objekts in einem Stereobild unter Verwendung des rechten und linken Bildes des Objekts definieren.
- Zur Erkennung einer dreidimensionalen geometrischen Form eines Objekts unter Verwendung eines rechten und Linken Bildes eines durch eine Stereokamera oder dergleichen aufgenommenen Stereobildes gibt es ein herkömmliches System zum Auffinden der dreidimensionalen Koordinaten durch Auffinden aller entsprechenden Punkte in dem rechten und linken Bild durch einen Übereinstimmungsvergleichsvorgang und dergleichen.
- Da allerdings bei dem vorstehend angeführten System ein Computer die entsprechenden Punkte automatisch findet, besteht die Gefahr, dass die lokalisierten entsprechenden Punkte einander nicht tatsächlich entsprechen. Da ferner alle entsprechenden Punkte gesucht werden, muss der Computer eine große Menge an Berechnungen durchführen, und es dauert eine erhebliche Zeit zum Erhalten der dreidimensionalen Koordinaten.
- Zur Lösung dieser Probleme hat die Anmelderin der vorliegenden Erfindung eine Patentanmeldung bzgl. eines Verfahrens eingereicht, bei dem ein Benutzer den Computer unterbricht und entsprechende Punkte zum Auffinden einer dreidimensionalen Form bestimmt, was in der japanischen Patentveröffentlichung (Kokai) 7-152928 beschrieben ist.
- Nachdem gemäß diesem Verfahren die dreidimensionalen Koordinaten aus entsprechenden Punkten des rechten und linken Bildes eines Stereobildes gefunden wurden, wird ein die dreidimensionalen Koordinatenpunkte verbindendes Dreieck erzeugt, wodurch eine Ebene gebildet wird. Bei dem von der Anmelderin vorgeschlagenen Verfahren wird ein Triangulationsnetzverfahren und dergleichen beruhend auf dem Delaunay-Prinzip zur Erzeugung des Dreiecks verwendet.
- Generell sind oft eine Vielzahl dreidimensionaler Objekte in einem Bild enthalten. Gibt es eine Vielzahl von Objekten in einem Bild, werden alle Objekte einschließlich des Hintergrunds immer als einfache dreidimensionale Form behandelt, wenn ein herkömmliches Verfahren angewendet wird. In einem anderen Fall ist es möglich, lediglich einen durch einen Benutzer unterbrechend bestimmten Flächenabschnitt in dem Bild als einzelnes Objekt zu behandeln. Das heißt, selbst wenn eine Vielzahl von Objekten in einem Bild enthalten ist, gibt es kein Gerät, das die Objekte separat im dreidimensionalen Raum erkennen kann. Daher wird die Vielzahl der Objekte immer als einzelnes Objekt (einschließlich der den Hintergrund bildenden Objekte) behandelt.
- Des weiteren werden ein rechtes und linkes Bild lediglich zur Eingabe einer dreidimensionalen Form verwendet und wurden nicht als Texturinformationen genutzt.
- Verwendet ferner ein Verfahren zur Erzeugung einer Ebene ein Delaunay-Triangulationsnetz, besteht ein Problem dahingehend, dass, wenn eine dreidimensionale konkave Fläche in einem Objekt vorhanden ist, die konkave Fläche nicht erkannt werden kann.
- Ist es ferner erforderlich, alle entsprechenden Punkte in dem rechten und linken Bild manuell zu bestimmen, muss der Benutzer ziemlich viele manuelle Operationen durchführen. Außerdem ist die präzise Bestimmung entsprechender Punkte in dem rechten und linken Bild des Stereobildes durch eine manuelle Operation schwierig. Besonders dann, wenn keine klaren Texturinformationen in dem Bild vorhanden sind, ist die Bestimmung der entsprechenden Punkte noch schwieriger.
- In der US 4 935 820 ist ein dreidimensionales Messgerät offenbart, auf dem eine Vielzahl von Bildern mit Parallelachsen dargestellt werden, jeweilige Objektpunkte bestimmt und Messvorgänge bzgl. der dreidimensionalen Positionen der bestimmten Punkte durchgeführt werden.
- In der US-A-4 875 165 ist ein Verfahren zur Bestimmung einer dreidimensionalen Struktur in einer Zweiebenenangiografie offenbart, bei dem eine dreidimensionale Gefäßstruktur aus zwei ebenen Bildern durch Identifizierung von Punkten in beiden Bildern erhalten wird, die jeweiligen Punkten eines Objekts entsprechen.
- In der GB-A-22 44 621 ist ein Verfahren zum Übereinstimmungsvergleich von Merkmalen zwischen zwei unterschiedlichen Bildern einer Szene durch Berechnung einer epipolaren Geraden offenbart.
- Die vorliegende Erfindung wurde in Anbetracht der vorstehend beschriebenen Situation entwickelt.
- Erfindungsgemäß ist ein Bildverarbeitungsgerät gemäß Patentanspruch 1 ausgestaltet.
- Die Erfindung stellt auch ein Verfahren zur Verarbeitung von Bilddaten gemäß Patentanspruch 10 bereit.
- Die Erfindung stellt ferner ein Computerprogramm gemäß Patentanspruch 19 bereit.
- Die Erfindung stellt auch eine Datenspeichereinrichtung gemäß Patentanspruch 20 bereit.
- Optionale Merkmale sind in den Patentansprüchen 2 bis 9 und 11 bis 18 definiert.
- Nachstehend sind Ausführungsbeispiele der Erfindung unter Bezugnahme auf die beiliegende Zeichnung beschrieben, in der gleiche Bezugszeichen gleiche oder ähnliche Abschnitte in den Figuren bezeichnen. Es zeigen:
- Fig. 1 ein Blockschaltbild des Aufbaus eines. Geräts gemäß einem ersten Ausführungsbeispiel,
- Fig. 2 Programmmodule gemäß dem ersten Ausführungsbeispiel,
- Fig. 3 eine Darstellung der Zustände eines angezeigten rechten und linken Bildes eines Stereobildes an einer Anfangsstufe gemäß dem ersten Ausführungsbeispiel,
- Fig. 4 ein Ablaufdiagramm der Operationsinhalte gemäß dem ersten Ausführungsbeispiel,
- Fig. 5 eine Darstellung des Aufbaus einer Punktliste gemäß dem ersten Ausführungsbeispiel,
- Fig. 6 eine Darstellung des Aufbaus einer Ebenenliste gemäß dem ersten Ausführungsbeispiel,
- Fig. 7 eine Tabelle, die die Übereinstimmung zwischen Objektnamen, der Punktliste und der Ebenenliste gemäß dem ersten Ausführungsbeispiel darstellt,
- Fig. 8 ein Ablaufdiagramm eines Vorgangs zur Änderung von Objekten gemäß dem ersten Ausführungsbeispiel,
- Fig. 9 ein Ablaufdiagramm eines Vorgangs zur Registrierung eines Objekts gemäß dem ersten Ausführungsbeispiel,
- Fig. 10 ein Ablaufdiagramm eines Vorgangs zum Lesen eines Objekts gemäß dem ersten Ausführungsbeispiel,
- Fig. 11 ein Ablaufdiagramm eines Vorgangs zur Speicherung eines Objekts gemäß dem ersten Ausführungsbeispiel,
- Fig. 12 ein Ablaufdiagramm eines Vorgangs zur Bestätigung einer Anzeige gemäß dem ersten Ausführungsbeispiel,
- Fig. 13 eine Darstellung der Anzeige mitten in der Bearbeitung gemäß dem ersten Ausführungsbeispiel, und
- Fig. 14 eine Darstellung der Anzeige mitten in der Bearbeitung gemäß dem ersten Ausführungsbeispiel.
- Fig. 1 zeigt ein Blockschaltbild des Aufbaus eines Geräts gemäß dem ersten Ausführungsbeispiel.
- In Fig. 1 bezeichnet das Bezugszeichen 1-1 eine Eingabe- /Ausgabeeinheit zum Austauschen von Informationen mit einer externen Einrichtung, 1-2 eine Festplatte, die einen Speicherträger mit großer Kapazität darstellt, 1-3 einen Hauptspeicherträger (bestehend aus einem RAM und dergleichen), 1-4 eine CPU, die das gesamte Gerät steuert, 1-5 eine Bitmapanzeige (die nachstehend einfach als "Anzeige" bezeichnet wird) zur Anzeige eines Bildes, wobei ein Bild angezeigt wird, das in einem Bit-RAM-Bereich entwickelt wurde, der auf dem Hauptspeicherträger 1-3 reserviert ist, 1-6 eine Tastatur zur Eingabe verschiedener Arten von Zeichen und Befehlen, und 1-7 eine Zeigeeinrichtung (eine Maus bei diesen Ausführungsbeispielen) zur Bewegung eines bestimmten Cursors an eine willkürliche Position auf der Anzeige 1-5 und zum Abgeben verschiedener Arten von Befehlen.
- Bei dem vorstehend beschriebenen Aufbau werden Daten eines rechten und linken Bildes eines Stereobildes, das beispielsweise durch die Aufnahme durch eine Stereokamera erhalten wird, durch eine vorbestimmte Einrichtung digitalisiert (umfasst die Stereokamera eine Digitalisiereinrichtung, ist sie direkt mit dem Gerät gemäß dem ersten Ausführungsbeispiel verbunden). Dann wird die Digitalisiereinrichtung mit der Eingabe/Ausgabeeinheit 1-1 verbunden, wodurch das digitalisierte rechte und linke Bild eines Stereobildes (die nachstehend einfach als das rechte und linke Bild bezeichnet werden) in das Gerät des ersten Ausführungsbeispiels eingegeben und auf der Festplatte 1-2 gespeichert werden (das gespeicherte rechte und linke Bild werden in Fig. 1 durch das Bezugszeichen 1-21 bezeichnet). Durch Bestimmung durch die Tastatur 1-6 oder die Zeigeeinrichtung 1-7 werden das bestimmte rechte und linke Bild von der Festplatte 1-2 in einen VRAM-Bereich auf dem Hauptspeicherträger geladen, und dann auf der Anzeige 1-5 angezeigt. Es ist anzumerken, dass ein Verfahren zur Eingabe der rechten und linken Bilder des Stereobildes in das Gerät nicht auf das vorstehend angeführte Verfahren beschränkt ist. Beispielsweise können das rechte und linke Bild von einem mit dem Gerät des ersten Ausführungsbeispiels verbundenen Diskettenlaufwerk oder über eine Kommunikationsleitung eingegeben werden. Die Festplatte 1-2 speichert das OS (Betriebssystem) und Programme, die den in den jeweiligen nachstehend beschriebenen Ablaufdiagrammen gezeigten Prozessen entsprechen, neben den rechten und linken Bilddaten. Diese Daten und Programme werden in den Hauptspeicherträger 1-3 korrekt geladen und durch die CPU 1-4 ausgeführt.
- Fig. 3 zeigt ein auf der Anzeige 1-5 gemäß dem ersten Ausführungsbeispiel anzuzeigendes Beispiel. In Fig. 3 bezeichnet das Bezugszeichen 3-1 ein Operationsmenü, 3-2 und 3- 3 Fenster jeweils zur Anzeige eines rechten und linken Bildes eines Stereobildes und 3-4 ein Fenster zur Anzeige von Daten dreidimensionaler Form, die unterbrochen eingegeben wurden. Das Verfahren zur Eingabe der Daten wurde vorstehend beschrieben.
- Fig. 4 zeigt ein Ablaufdiagramm der Verarbeitung gemäß dem ersten Ausführungsbeispiel und Fig. 2 zeigt Programmmodule zur Ausführung von Prozessen des Ablaufdiagramms in Fig. 4.
- Die Operationssequenz von Fig. 4 wird unter Bezugnahme auf die Fig. 1 bis 3 beschrieben. Zu verwendende Programme werden von der Festplatte 1-2 in den Hauptspeicherträger 1-3 geladen.
- Wird das System eingeschaltet, wird zuerst ein Anfangsmenü (nicht gezeigt) auf der Anzeige angezeigt. Wird "Auslesen eines rechten und linken Bildes eines Stereobildes" aus dem Menü durch die Tastatur 1-6 oder die Zeigeeinrichtung 1-7 bestimmt, wird eine Liste von Sätzen rechter und linker Bilder für Stereobilder angezeigt, die gegenwärtig auf der Festplatte 1-2 gespeichert sind. Dann wird ein Satz in der Liste ausgewählt. Die bestimmten rechten und linken Bilder (beispielsweise das rechte und linke Bild 1-21) werden in einen vorbestimmten Bereich auf dem Hauptspeicherträger 1-3 geladen (Schritt S402) und auf der Anzeige in der in Fig. 3 gezeigten Form angezeigt. Zu diesem Zeitpunkt wird ein Operationsmenü und dergleichen zusammen damit angezeigt. Demnach werden das linke und rechte Bild des Stereobildes jeweils im Fenster 3-2 und 3-3 auf der Anzeige 1-5 angezeigt. Es wird angenommen, dass ein in Fig. 3 gezeigtes Bild auf der Anzeige 1-5 angezeigt wird.
- Dann wird der Prozess ausgesetzt, bis ein Benutzer einen Befehl unter Verwendung der Zeigeeinrichtung 1-7 eingibt (Schritt 5404).
- Erfasst das Gerät in dem vorstehend beschriebenen Zustand des Wartens auf einen Befehl das Drücken einer Taste (Klick), die mit der Zeigeeinrichtung verknüpft ist, nachdem der Benutzer einen Cursor bewegt hat, der sich bzgl. der Bedienung der Zeigeeinrichtung 1-7 auf dem angezeigten rechten und linken Bild bewegt, geht der Prozess von Schritt S405 zu Schritt S421 über, in dem Koordinaten des durch die Zeigeeinrichtung 1-7 bestimmten Punktes erhalten werden.
- In Schritt S421 und Schritt S422 wird der Prozess ausgesetzt, bis ein Punkt sowohl in dem rechten als auch dem linken Bild in dem rechten Fenster 3-3 und dem linken Fenster 3-2 bestimmt ist. Dann werden Positionen entsprechender Punkte in dem rechten und linken Bild eingegeben. Die bestimmten Punkte werden als Scheitelpunkte dreidimensionaler Formen betrachtet, nachdem sie aufeinanderfolgenden Vorgängen einer dreidimensionalen Koordinatenberechnung unterzogen wurden.
- Es ist anzumerken, dass bei dem ersten Ausführungsbeispiel die entsprechenden Punkte in dem rechten und linken Bild manuell nach Augenschein bestimmt werden. Allerdings ist es möglich, ein Gerät derart auszubilden, dass bei der Bestimmung eines Punkts entweder in dem rechten oder linken Bild der entsprechende Punkt in dem anderen Bild automatisch durch Mustervergleich und dergleichen berechnet wird.
- Sind die entsprechenden Punkte sowohl in dem rechten als auch dem linken Bild bestimmt, werden ihre Koordinatendaten auf dem Hauptspeicherträger 1-3 oder beispielsweise einer Festplatte 1- 2 gespeichert (Schritt S423). Die Koordinatendaten der bestimmten entsprechenden Punkte in dem rechten und linken Bild haben eine in Fig. 5 beschriebene Struktur. Das heißt, die Koordinatendaten enthalten Koordinaten des bestimmten Punktes in dem rechten Bild, Koordinaten des gleichen in dem linken Bild, dreidimensionale Koordinaten, die durch Durchführung von nachstehend beschriebenen Berechnungen auf der Grundlage der Koordinaten des rechten und linken Bilds erhalten werden, und eine Adresse (Zeiger) zur Bestimmung des nächsten Punktes, und diese Daten werden in einer Liste (die nachstehend als Punktliste bezeichnet wird) registriert. Wurde ein Paar neuer entsprechender Punkte bestimmt, werden die Koordinatendaten der Punkte sequentiell in der Punktliste hinzugefügt.
- In Fig. 5 sind bzgl. eines i-ten hinzugefügten Punktes Koordinaten in dem linken Bild (Lxi, Lyi), Koordinaten in dem rechten Bild (Rxi, Ryi) und dreidimensionale Koordinaten, die durch die Durchführung von nachstehend beschriebenen Berechnungen auf der Grundlage der Koordinaten des rechten und linken Bildes erhalten werden, (Vxi, Vyi, Vzi) in der Punktliste registriert.
- Die vorstehend angeführten dreidimensionalen Koordinatenberechnungen, die Erzeugung einer Ebene und die dreidimensionale Anzeige werden durch die Durchführung von Prozessen in den Schritten 5424 bis 5429 durchgeführt. Hier werden die Prozesse unter der Annahme beschrieben, dass der i- te entsprechende Punkt hinzugefügt wird. Es ist anzumerken, dass drei Punkte, die zuletzt als erster, zweiter und dritter (Pi, Pi-1, Pi-2) eingegeben wurden, für diese Prozesse verwendet werden. Die Prozesse werden nachstehend beschrieben.
- Zuerst werden in Schritt S424 die dreidimensionalen Koordinaten (Vxi, Vyi, Vzi) unter Verwendung der Triangulationstheorie auf der Grundlage der Koordinaten in dem rechten und linken Bild (Lxi, Lyi) und (Rxi, Ryi) und von (nachstehend beschriebenen) Kameraparametern, die zuvor erhalten werden, berechnet und in der Punktliste als i-te Daten registriert (Schritt S425). Die Kameraparameter enthalten Bilderfassungsbedingungen, wenn Kameras das rechte und linke Bild eines Stereobildes erfassen, d.h. Informationen wie die Position, Richtung und Brennpunktweite der Kamera. Kameraparameter für das linke und rechte Bild (d.h. Kameraparameter für eine das rechte Bild erfassende Kamera und eine das linke Bild erfassende Kamera) werden separat eingestellt. Die Kameraparameter werden dem System unter Verwendung eines geeigneten Verfahrens zuvor zugeführt.
- Dann wird eine Ebene auf der Grundlage der Punktliste erzeugt, deren Koordinaten in Fig. 5 gezeigt sind. Gemäß dem ersten Ausführungsbeispiel werden Dreiecksflächen beruhend auf bestimmten Punkten entweder eines rechten oder eines linken Bildes erzeugt und als Ebenen behandelt. Das heißt, drei Punkte werden aus den Punkten (Rx1, Ry1), (Rx2, Ry2)... (Rxn, Ryn) in dem rechten Bild (zweidimensionale Ebene) ausgewählt, und Dreiecksflächen werden nacheinander erzeugt. Sind die ersten drei Punkte bestimmt, wird ein einzelnes Dreieck erzeugt. Hinsichtlich von nach dem dritten Punkt bestimmten Punkten wird immer dann, wenn ein neuer Punkt bestimmt wird, dieser Punkt und zwei andere Punkte aus den zuvor bestimmten Punkten ausgewählt und ein neues Dreieck wird definiert. Es ist anzumerken, dass die zwei vor dem neu bestimmten Punkt bestimmten Punkte derart ausgewählt sind, dass das neue zu erzeugende Dreieck die früher erzeugten anderen Dreiecke nicht überlappt. Wird ein Punkt hinzugefügt, werden die vorhandenen Dreiecke immer bei Bedarf neu bewertet und neu erzeugt, so dass sich die Dreiecke nicht teilweise oder ganz überlappen.
- Fig. 13 zeigt ein Beispiel eines Bildes auf der Anzeige, wenn Dreiecksflächen auf den Bildern dargestellt werden. In Fig. 13 zeigt ein rechtes Fenster 13-2 die Dreiecksflächen auf dem rechten Bild. Auf der Grundlage dieser Figur wird ein Prozess zur Anpassung von Dreiecksflächen an jede Oberfläche der Objekte in einem linken Fenster 13-1 und in einem dreidimensionalen Raum-Fenster 13-4 nachstehend beschrieben.
- Beispielsweise wird zuerst ein Dreieck betrachtet, das durch Verbinden von Punkten in dem rechten Bild (Rx1, Ry1), (Rx2, Ry2) und (Rx3, Ry3) erzeugt wurde, und Koordinaten von Punkten in dem linken Bild und die dreidimensionalen Koordinaten von den Punktdaten P1, P2 und P3, die den Scheitelpunkten des Dreiecks entsprechen, werden in der Punktliste abgerufen. Dann werden Dreiecke für das linke Bild und in dem dreidimensionalen Raum erhalten. Gleichermaßen werden Dreiecke in dem dreidimensionalen Raum-Fenster und im dreidimensionalen Raum erhalten. Es ist anzumerken, dass es in dem dreidimensionalen Raum-Fenster erforderlich ist, die Position eines Blickpunktes eines Objekts und dergleichen zuvor einzustellen.
- Als Verfahren zur Erzeugung eines Dreiecks gibt es beispielsweise ein Verfahren, das vorbestimmte Regeln befolgt. Bezüglich der Regeln gibt es ein Verfahren, bei dem ein Triangulationsnetz automatisch auf der Grundlage des Delaunay- Prinzips erzeugt wird. Es ist anzumerken, dass gemäß der Triangulationsnetzerzeugung beruhend auf dem Delaunay-Prinzip ein Triangulationsnetz, das eine Gruppe von Punkten verbindet, derart erzeugt wird, dass ein Scheitelpunkt mit dem kleinsten Winkel aller Scheitelpunkte des erzeugten Dreiecks den maximalen Winkel aufweist (d.h. das erzeugte Dreieck ist beinahe ein rechtwinkliges Dreieck). Dieses Verfahren ist zur automatischen Erzeugung eines Dreiecknetzes sehr effektiv. Da aber alle Prozesse zur Erzeugung des Dreiecknetzes automatisch durchgeführt werden, ist es nicht möglich, explizit eine zwei Punkte verbindende Strecke zu belassen. Die Anmelderin der vorliegenden Erfindung hat ein Verfahren zur Lösung dieses Problems im US-Patent 5 748 865 vorgeschlagen.
- Daten des wie vorstehend angeführt erzeugten Dreiecks werden in einer Ebenenliste mit der in Fig. 6 gezeigten Struktur registriert (Schritt S427). Jeder Eintrag der Ebenenliste besteht aus Zeigern auf die drei Einträge in der Punktliste, die jeweils Koordinaten von jeweils drei Scheitelpunkten des Dreiecks halten, und einem Zeiger auf das nächste Dreieck. Demnach ist es möglich, ein aus zweidimensionalen und dreidimensionalen Dreiecksflächen bestehendes Objekt durch Verfolgen der Ebenenliste zu erzeugen.
- Zweidimensionale Dreiecksflächen werden überlagert in dem rechten und linken Bild in Schritt S428 angezeigt, und als Linien wie in den Fenstern 13-1 und 13-2 in Fig. 13 angezeigt.
- Dreidimensionale Dreiecksflächen werden dreidimensional wie im Fenster 13-4 in Fig. 13 angezeigt. Eine Wire-Frame-Anzeige, eine Schattierungsanzeige und andere Verfahren sind als dreidimensionales Anzeigeverfahren bekannt, und jedes dieser dreidimensionalen Anzeigeverfahren kann hier verwendet werden.
- Durch Wiederholen der vorstehend angeführten Prozesse (Schritte S404, S405, und S421 bis S429) wird eine dreidimensionale Form erhalten.
- Es ist anzumerken, dass die durch die Durchführung der vorstehend beschriebenen Prozesse erhaltene dreidimensionale Form einen einzelnen Körper darstellt, d.h. alle dreidimensionalen Objekte in einem Bild werden als verknüpftes einzelnes Objekt betrachtet. Ist das Stereobild allerdings aus einer Vielzahl von Objekten zusammengefügt, ist die Durchführung der folgenden Prozesse erforderlich, so dass jedes Objekt als unabhängige dreidimensionale Form behandelt wird.
- Zur Lösung des vorstehend angeführten Problems sollte jedes dreidimensionale Objekt separiert werden, wenn Daten eines Bildes des dreidimensionalen Objekts eingegeben werden.
- Dementsprechend wird bei diesem Ausführungsbeispiel ein auf der Anzeige 4-5 angezeigtes Operationsmenü 3-1 (siehe Fig. 3) während der Eingabe der Daten verwendet.
- Es gibt mehrere Bilder zur Verarbeitung in dem Operationsmenü 3-1, und eines der Bilder wird durch Bewegen des Cursors, der sich bezüglich der Zeigeeinrichtung 1-7 bewegt, in eine Box und Darauf-Klicken bestimmt.
- Zu diesem Zeitpunkt geht der Prozess von Schritt S406 zu Schritt S408 in Fig. 4 über und es werden jedem Feld in dem Menü entsprechende Prozesse in den folgenden Schritten durchgeführt.
- Zuerst wird ein Fall beschrieben, in dem "Objekt Registrieren" in dem Operationsmenü 3-1 ausgewählt wird. In diesem Fall geht der Prozess von Schritt S410 zu Schritt S411 über. Einzelheiten des in Schritt S411 durchgeführten Prozesses sind in Fig. 9 als Beispiel gezeigt.
- Bei diesem Prozess werden Daten der erzeugten Dreiecksflächen und der dreidimensionalen Formen (die Punktliste und die Ebenenliste) mit Namen registriert. In Schritt S802 in Fig. 9 wird ein Objekt durch die Eingabe von Daten von der Tastatur 1- 6 benannt. In Schritt S803 werden die Objektnamen sowie die Zeiger, die den Anfang der Einträge, die bearbeitet werden, (die nachstehend als Top-Adress-Zeiger bezeichnet werden) in der Punktliste und der Ebenenliste in einer Tabelle wie in Fig. 7 gezeigt gespeichert. Diese Tabelle kann beispielsweise auf der Festplatte 1-21 gespeichert werden. Die Tabelle wird bzgl. einer Datei des rechten und linken Bildes eines Stereobildes gespeichert, das gegenwärtig angezeigt wird.
- Wird "Objekte Verändern" ausgewählt, wird ein Prozess in Schritt S409 durchgeführt. Einzelheiten dieses Prozesses sind in Fig. 8 gezeigt.
- Zuerst wird ein Objektname bestimmt (Schritt S702), dann werden die Top-Adress-Zeiger für die Punktliste und die Ebenenliste, die dem bestimmten Objektnamen entsprechen, aus der in Fig. 7 gezeigten Tabelle ausgelesen, so dass neue Daten entsprechender Punkte und Dreiecke zu den Punkt- und Ebenenlisten hinzugefügt werden können (Schritt S703 und Schritt S704). Hinsichtlich der Objektbestimmung wird eine Liste von Objekten wie in Fig. 7 gezeigt in einem anderen Fenster angezeigt, und ein Benutzer bestimmt eines der Objekte in der Liste durch die Verwendung der Zeigeeinrichtung 1-7. Zu diesem Zeitpunkt werden, wenn das gegenwärtig verarbeitete Objekt nicht registriert wurde, d.h. wenn die Schritte von S801 bis S804 für das Objekt nicht verarbeitet wurden, Daten des Objekts gelöscht. Sind Daten des Objekts zu speichern, werden ferner die Daten des Objekts durch Einstellung der Top-Adress-Zeiger für die Punkt- und Ebenenlisten und Hinzufügen eines Eintrags zu der Tabelle in Fig. 7 gespeichert. Wurden die Daten des Objekts registriert, wird der Prozess zur Änderung der Objekte durch einfaches Ändern von Zeigern erreicht. Nach der Änderung der Zeiger wird das gegenwärtig bearbeitete Objekt in einem rechten und linken Bild angezeigt, so dass ein Benutzer die Bilder bestätigen kann (Schritt S705). Des weiteren wird das Objekt auch in dem dreidimensionalen Anzeigefenster angezeigt (Schritt S706).
- Wird dagegen "Objekt Sichern" im Operationsmenü 3-1 ausgewählt, d.h. der Prozess schreitet von Schritt S414 zu Schritt S415 vor, werden die in dem Ablaufdiagramm in Fig. 11 gezeigten Prozesse durchgeführt.
- Bei diesen Prozessen werden Daten der Punktliste und der Ebenenliste in Daten eines geeigneten Formats geändert, und auf der Festplatte 1-2 in einer Datei gespeichert.
- Zuerst werden ein Objektname und ein Dateiname unter Verwendung der Tastatur 1-6 bestimmt (Schritt S1002 und Schritt S1003) und dann wird ein Eintrag in dem Objektnamen entsprechenden Listendaten aus der in Fig. 7 gezeigten Tabelle gelesen. Danach werden die durch den Eintrag bestimmten Listendaten in einem geeigneten Format gespeichert (Schritt S1004 und Schritt S1006).
- Wird "Objekt Lesen" ausgewählt bzw. schreitet der Prozess von Schritt S412 zu Schritt S413 fort, werden ferner die in einem Ablaufdiagramm in Fig. 10 gezeigten Prozesse durchgeführt. Bei diesen Prozessen werden Daten in der in einer Datei gespeicherten Punktliste und Ebenenliste gelesen.
- Zuerst wird ein Dateiname bestimmt (Schritt S902) und eine Datei mit dem bestimmten Dateinamen wird gelesen (Schritt 5903). Dann wird ein Eintrag zum Lesen von Daten der Punktliste und der Ebenenliste eines Objekts zu Einträgen unter Bearbeitung hinzugefügt (Schritt S904). Danach wird das Objekt im rechten und linken Bild angezeigt, um die Bilder zu bestätigen (Schritt S905), und es wird auch im dreidimensionalen Anzeigefenster angezeigt (Schritt S906). Neue entsprechende Punkte können zu der in diesem Prozess gelesenen Punktliste hinzugefügt werden.
- Wird "Anzeige Bestätigen" ausgewählt bzw. schreitet der Prozess von Schritt S416 zu Schritt S417 fort, werden die im Ablaufdiagramm in Fig. 12 gezeigten Prozesse durchgeführt. Bei diesen Prozessen werden Bilder zur Bestätigung der registrierten Objekte angezeigt. Eine Vielzahl von Objekten kann gleichzeitig zur Bestätigung angezeigt werden.
- Dann wird überprüft, ob die Anzeige zur Bestätigung abgeschlossen ist oder nicht. Diese Bestimmung wird durch die Überprüfung durchgeführt, ob ein Benutzer die Beendigung des Prozesses bestimmt hat oder nicht.
- Wurde bestimmt, dass der Prozess fortzusetzen ist (oder wurde der Befehl zum Beenden des Prozesses nicht gegeben), wird überprüft, ob ein zusätzlich anzuzeigendes Objekt vorhanden ist oder nicht (Schritt S1103). Ist eines vorhanden, wird ein Objektname des zusätzlichen Objekts bestimmt (Schritt S1104) und dann die Top-Adress-Zeiger für die Punktliste und die Ebenenliste abgerufen und gesetzt (Schritt S1105). Danach wird das Objekt zu dem rechten und linken Bild (Schritt S1106) und auch zu dem dreidimensionalen Anzeigefenster hinzugefügt (S1107).
- Ist ein Befehl zum Löschen eines angezeigten Objekts (oder zum Nichthinzufügen zur Anzeige) vorhanden, geht der Prozess von Schritt S1103 zu Schritt S1108 über. Bei diesem Vorgang wird der Name eines zu löschenden Objekts bestimmt (Schritt S1108) und das Objekt wird aus dem rechten und linken Bild gelöscht, die überlagert angezeigt werden (Schritt S1109). Des weiteren wird es auch aus dem dreidimensionalen Anzeigefenster gelöscht (Schritt S1110). Dadurch ist es möglich, Kombinationen willkürlicher Objekte unter einer Vielzahl von Objekten frei anzuzeigen. Beispielsweise ist es wie in Fig. 14 gezeigt möglich, zwei ausgewählte Objekte in dem dreidimensionalen Anzeigefenster anzuzeigen.
- Wird das Ende des Prozesses bestimmt, wird der Prozess zur Änderung der Objekte in den Schritten S701 bis s707 durchgeführt.
- Da Werte dreidimensionaler Koordinaten einer Vielzahl von in der Ebenenliste registrierten Objekten eine relative Positionsbeziehung zwischen den Objekten beibehalten können, wenn die Vielzahl der Objekte gleichzeitig angezeigt wird, wird die Positionsbeziehung im dreidimensionalen Raum aufrechterhalten. Dieses Merkmal wirkt sich auf die Texturabbildungsanzeige im dreidimensionalen Anzeigefenster positiv aus. Das heißt, unterschiedliche Texturinformationen für jedes Objekt sind nicht erforderlich, und die gleichen Texturinformationen können für alle Objekte verwendet werden.
- Gemäß dem vorstehend beschriebenen ersten Ausführungsbeispiel werden die folgenden Vorteile erhalten.
- (0) Da Texturinformationen als Bild zur gleichen Zeit eingegeben werden, wenn das rechte und linke Bild eingegeben werden, ist es möglich, eine Texturabbildungsanzeige in drei Dimensionen selbst dann durchzuführen, wenn die Texturinformationen separat eingegeben werden. Es ist insbesondere möglich, eine dreidimensionale Form eines Objekts aus dem rechten und dem linken Bild eines Stereobildes zu erhalten, indem eine Einrichtung zur Bestimmung entsprechender Punkte im rechten und im linken Bild des Stereobildes bereitgestellt wird.
- (1) Es ist möglich, dreidimensionale Formen einer Vielzahl von Objekten separat zu behandeln, indem eine Einrichtung zur Registrierung und Verwaltung der Vielzahl dreidimensionaler Formen bereitgestellt wird, die in einer Einrichtung zum Auffinden einer dreidimensionalen Form auf unterbrochene Art und Weise aus dem rechten und linken Bild eines Stereobildes enthalten ist, wenn eine Vielzahl von Objekten in den Bildern enthalten sind. Demnach ist es möglich, dreidimensionale Formen einer Vielzahl von Objekten separat anzuzeigen, diese in einer Datei zu speichern und aus einer Datei zu lesen.
- (2) Des weiteren ist es möglich, eine dreidimensionale Beziehung zwischen einer Vielzahl von Objekten gleichzeitig anzuzeigen und zu bestätigen, indem eine Einrichtung zur Änderung von Daten einer Vielzahl gespeicherter dreidimensionaler Formen und zur Anzeige dieser bereitgestellt wird.
- (3) Hinsichtlich eines Objekts mit einer konkaven Fläche, die nicht bearbeitet werden kann, wenn ein Ebenenerzeugungsverfahren unter Verwendung des Delaunay- Triangulationsnetzes angewendet wird, kann das Objekt mit der konkaven Fläche bearbeitet werden, indem das Objekt als Gruppe einer Vielzahl separater konvexer Objekte betrachtet wird.
- Da die Texturinformationen als Bild eingegeben werden, ist es daher möglich, eine Texturabbildungsanzeige in drei Dimensionen selbst dann durchzuführen, wenn die Texturinformationen separat eingegeben werden. Wird insbesondere nach der Form eines Objekts als Gruppe einer Vielzahl von Objekten gesucht, sind lediglich die einzelnen Texturinformationen erforderlich, bzw. jedem der Vielzahl der Objekte entsprechende Texturinformationen sind nicht erforderlich.
- Es ist anzumerken, dass bei dem vorstehend beschriebenen ersten Ausführungsbeispiel als Verfahren zur Erzeugung von Dreiecksflächen die Verwendung von Dreiecken zur Erzeugung einer Ebene gegenwärtig am effektivsten zur Anzeige und Durchführung von Berechnungen auf schnelle Art und Weise ist.
- Allerdings gibt es Verfahren zur Erzeugung einer Ebene ohne die Verwendung von Dreiecken, und die zu verwendende Form ist nicht auf Dreiecke beschränkt, sondern kann ein Rechteck oder dergleichen sein.
- Des weiteren wird bei dem ersten Ausführungsbeispiel das Dreiecksnetz auf der Grundlage von Punkten in der zweidimensionalen Ebene eines Bildes erzeugt. Das Dreiecksnetz kann allerdings auch im dreidimensionalen Raum unter Verwendung dreidimensionaler Koordinaten erzeugt werden, die im Schritt S424 erhalten werden. Hinsichtlich eines Verfahrens zur Erzeugung des Dreiecksnetzes unter Verwendung von Punkten dreidimensionaler Koordinaten gibt es ein Verfahren zur Erweiterung des Delaunay-Prinzips bei Punkte mit der geringsten Entfernung zueinander im zwei- oder dreidimensionalen Raum auf den dreidimensionalen Raum, oder das Verfahren kann durch Befolgen anderer Regeln durchgeführt werden.
- Ferner werden nicht nur dreidimensionale Formen eingegeben, sondern auch gleichzeitig Texturinformationen. Daher ist es von Vorteil, die dreidimensionale Texturabbildungsanzeige durchzuführen. Die dreidimensionale Anzeigeeinrichtung gemäß dem ersten Ausführungsbeispiel führt eine Texturabbildung durch Verarbeiten entweder des rechten oder des linken Bildes als Textur durch.
- Ausführungsbeispiele der Erfindung können ein System aus einer Vielzahl von Einrichtungen oder ein Gerät aus einer einzelnen Einrichtung umfassen. Des weiteren können Ausführungsbeispiele durch die Zufuhr eines Programms zu einem System oder Gerät erhalten werden.
- Gemäß dem vorstehend beschriebenen Ausführungsbeispiel kann die Betriebsumgebung während der Extraktion dreidimensionaler Daten aus dem rechten und linken Bild verbessert werden.
- Die Erfindung ist nicht auf das vorstehend beschriebene Ausführungsbeispiel beschränkt, und es können verschiedene Änderungen und Modifikationen innerhalb des Schutzbereichs der Patentansprüche gemacht werden.
Claims (20)
1. Bildverarbeitungsgerät zur Verarbeitung von Bilddaten,
die ein rechtes und linkes Bild eines Stereobildpaars
definieren, mit
einer Anzeigesteuereinrichtung (1-2; 1-3; 1-4) zur
Erzeugung von Bilddaten zur Anzeige auf einer
Anzeigeeinrichtung, bei der das linke Bild des
Stereobildpaares in einer ersten Fläche (3-2) der
Bildanzeige und das rechte Bild des Stereobildpaares in
einer zweiten Fläche (3-3) der Bildanzeige erscheinen
wird, und
einer Einrichtung (1-1) zum Empfangen von
Eingangssignalen, die eine Vielzahl von Paaren
entsprechender Punkte in dem rechten und linken Bild
definieren, die in der ersten und zweiten Fläche der
Bildanzeige angezeigt werden, wobei zumindest einer der
Punkte in jedem Paar einen Punkt umfasst, der von einem
Benutzer auf der Bildanzeige unter Verwendung einer
Eingabeeinrichtung bestimmt ist,
gekennzeichnet durch
eine Datenerzeugungseinrichtung (1-2; 1-3; 1-4) zur
Verarbeitung entsprechender Punkte zur Erzeugung von
Daten, die dreidimensionale planare Oberflächen
definieren, die Oberflächen eines Objekts in den
Stereobildern entsprechen, wobei die
Datenerzeugungseinrichtung zur Erzeugung der ersten
planaren Oberfläche eingerichtet ist, wenn Signale
empfangen wurden, die eine vorbestimmte Anzahl von Paaren
entsprechende Punkte definieren, und zur Erzeugung jeder
folgenden planaren Oberfläche als Antwort auf den Empfang
von Signalen eingerichtet ist, die ein weiteres Paar
entsprechender Punkte definieren,
wobei die Anzeigesteuereinrichtung (1-2; 1-3; 1-4)
ferner eingerichtet ist
zur Erzeugung von Bilddaten zur Anzeige auf der
Anzeigeeinrichtung, bei der ein Bild der durch die
Datenerzeugungseinrichtung erzeugten dreidimensionalen
planaren Oberflächen in einer dritten Fläche (3-4) der
Bildanzeige erscheinen wird, und
zur Aktualisierung der Bilddaten der
dreidimensionalen planaren Oberflächen für die dritte
Fläche (3-4) immer dann, wenn die
Datenerzeugungseinrichtung eine neue dreidimensionale
planare Oberfläche beruhen auf entsprechenden in den
Eingangssignalen definierten Punkten erzeugt.
2. Gerät nach Anspruch 1, wobei die Größe der dritten
Fläche (3-4) geringer als die der ersten Fläche (3-2) und
die der zweiten Fläche (3-3) ist.
3. Gerät nach Anspruch 1 oder 2, wobei die
Anzeigesteuereinrichtung (1-2; 1-3, 1-4) ferner
eingerichtet ist
zur Erzeugung von Bilddaten zur Anzeige in der
ersten und zweiten Fläche der Bildanzeige derart, dass
die planaren Oberflächen in der ersten und der zweiten
Fläche überlagert auf dem linken und rechten Stereobild
angezeigt wird, und
zur Aktualisierung der Bilddaten der planaren
Oberflächen für die erste und die zweite Fläche immer
dann, wenn die Datenerzeugungseinrichtung eine neue
planare Oberfläche erzeugt.
4. Gerät nach einem der vorhergehenden Ansprüche, wobei
die Datenerzeugungseinrichtung (1-2; 1-3; 1-4)
eine Berechnungseinrichtung zur Berechnung
dreidimensionaler Koordinatendaten beruhend auf den in
den Eingangsignalen definierten entsprechenden Punkten
und
eine Polygonausbildungseinrichtung zur Erzeugung von
die dreidimensionalen planaren Oberflächen als Polygone
definierenden Daten auf der Grundlage einer Vielzahl von
Sätzen der durch die Berechungseinrichtung berechneten
dreidimensionalen Koordinatendaten umfasst.
5. Gerät nach Anspruch 4, wobei die Polygone Dreiecke
umfassen.
6. Gerät nach einem der vorhergehenden Ansprüche, das
ferner zum Empfangen von separate Objekte in den
Stereobildern definierenden Signalen und zur Speicherung
von die separaten Objekte definierenden Daten
eingerichtet ist.
7. Gerät nach Anspruch 6, ferner mit
einer Speichereinrichtung zur Speicherung
dreidimensionaler Koordinatendaten jedes Objekts in einer
Datei und
einer Leseeinrichtung zum Lesen der gespeicherten
dreidimensionalen Koordinatendaten jedes Objekts.
8. Gerät nach Anspruch 6 oder 7, wobei das Gerät zum
Ermöglichen einer separaten Auswahl der Objekte für die
Anzeige in der ersten und der zweiten Fläche der
Bildanzeige eingerichtet ist.
9. Gerät nach einem der Ansprüche 6 bis 8, wobei das
Gerät zum Ermöglichen der separaten Auswahl der Objekte
für die Eingabe entsprechende Punkte in dem rechten und
dem linken Bild eingerichtet ist.
10. Verfahren zur Verarbeitung von Bilddaten, die ein
rechtes und ein linkes Bild eines Stereobildpaares
definieren, mit den Schritten
Erzeugen von Bilddaten zur Anzeige auf einer
Anzeigeeinrichtung, bei der das linke Bild des
Stereobildpaars in einer ersten Fläche (3-2) der
Bildanzeige und das rechte Bild des Stereobildpaars in
einer zweiten Fläche (3-3) der Bildanzeige erscheinen
wird, und
Empfangen von Eingangssignalen, die eine Vielzahl
von Paaren entsprechender Punkte in dem rechten und dem
linken Bild definieren, die in der ersten und der zweiten
Fläche der Bildanzeige angezeigt werden, wobei zumindest
einer der Punkte in jedem Paar einen Punkt umfasst, der
von einem Benutzer auf der Bildanzeige unter Verwendung
einer Eingabeeinrichtung bestimmt ist,
gekennzeichnet durch die Schritte
Verarbeiten entsprechender Punkte zur Erzeugung von
Daten, die dreidimensionale planare Oberflächen
definieren, die Oberflächen eines Objekts in den
Stereobildern entsprechen, wobei die erste planare
Oberfläche erzeugt wird, wenn eine vorbestimmte Anzahl
von Paaren entsprechender Punkte definierende Signale
empfangen wurden, und jede folgende planare Oberfläche
als Antwort auf den Empfang von Signalen erzeugt wird,
die ein weiteres Paar entsprechender Punkte definieren,
Erzeugen von Bilddaten zur Anzeige auf der
Anzeigeeinrichtung, bei der ein Bild der in dem
Datenerzeugungsschritt erzeugten dreidimensionalen
planaren Oberflächen in einer dritten Fläche (3-4) der
Bildanzeige erscheinen wird, und
Aktualisieren der Bilddaten der dreidimensionalen
planaren Oberflächen für die dritte Fläche (3-4) immer
dann, wenn eine neue dreidimensionale planare Oberfläche
beruhend auf entsprechenden in den Eingangssignalen
definierten Punkten in dem Datenerzeugungsschritt erzeugt
wird.
11. Verfahren nach Anspruch 10, wobei die Größe der
dritten Fläche (3-4) geringer als die der ersten Fläche
(3-2) und die der zweiten Fläche (3-3) ist.
12. Verfahren nach Anspruch 10 oder 11, wobei in dem
Anzeigesteuerschritt
Bilddaten zur Anzeige in der ersten und der zweiten
Fläche der Bildanzeige derart erzeugt werden, dass die
planaren Oberflächen in der ersten und der zweiten Fläche
überlagert auf dem linken und dem rechten Stereobild
angezeigt werden, und
die Bilddaten der planaren Oberflächen für die erste
und die zweite Fläche immer dann aktualisiert werden,
wenn eine neue planare Oberfläche in dem
Datenerzeugungsschritt erzeugt wird.
13. Verfahren nach einem der Ansprüche 10 bis 12, wobei
der Datenerzeugungsschritt
die Berechung dreidimensionaler Koordinatendaten
beruhend auf den in den Eingangssignalen definierten
entsprechenden Punkten und
die Erzeugung von die dreidimensionalen planaren
Oberflächen als Polygone definierenden Daten auf der
Grundlage einer Vielzahl von Sätzen der in dem
Berechnungsschritt berechneten dreidimensionalen
Koordinatendaten umfasst.
14. Verfahren nach Anspruch 13, wobei die Polygone
Dreiecke umfassen.
15. Verfahren nach einem der Ansprüche 10 bis 14, wobei
separate Objekte in den Stereobildern definierende ·
Signale empfangen werden und die separaten Objekte
definierende Daten gespeichert werden.
16. Verfahren nach Anspruch 15, ferner mit den Schritten
Speichern dreidimensionaler Koordinatendaten jedes
Objekts in einer Datei und
Lesen der gespeicherten dreidimensionalen
Koordinatendaten jedes Objekts.
17. Verfahren nach Anspruch 15 oder 16, wobei die Objekte'
zur Anzeige in der ersten und zweiten Fläche der
Bildanzeige separat ausgewählt werden.
18. Verfahren nach einem der Ansprüche 15 bis 17, wobei
die Objekte zur Eingabe entsprechender Punkte in dem
rechten und linken Bild separat ausgewählt werden.
19. Computerprogramm mit Befehlen, um ein
programmierbares Verarbeitungsgerät zur Durchführung
eines Verfahrens nach einem der Ansprüche 10 bis 18
betreibbar zu machen.
20. Datenspeichereinrichtung, die ein Computerprogramm
nach Anspruch 19 speichert.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14279194A JP3486461B2 (ja) | 1994-06-24 | 1994-06-24 | 画像処理装置及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69522386D1 DE69522386D1 (de) | 2001-10-04 |
DE69522386T2 true DE69522386T2 (de) | 2002-05-23 |
Family
ID=15323700
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69522386T Expired - Lifetime DE69522386T2 (de) | 1994-06-24 | 1995-06-23 | Bildverarbeitungsgerät und -verfahren |
Country Status (4)
Country | Link |
---|---|
US (1) | US6023276A (de) |
EP (1) | EP0689167B1 (de) |
JP (1) | JP3486461B2 (de) |
DE (1) | DE69522386T2 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014084181A1 (ja) * | 2012-11-30 | 2014-06-05 | シャープ株式会社 | 画像計測装置 |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7907793B1 (en) | 2001-05-04 | 2011-03-15 | Legend Films Inc. | Image sequence depth enhancement system and method |
US5793372A (en) * | 1994-10-21 | 1998-08-11 | Synthonics Incorporated | Methods and apparatus for rapidly rendering photo-realistic surfaces on 3-dimensional wire frames automatically using user defined points |
JPH1139135A (ja) * | 1997-07-22 | 1999-02-12 | Sanyo Electric Co Ltd | カーソル表示装置 |
US6295065B1 (en) * | 1997-08-08 | 2001-09-25 | Tetratel Systems Limited | Method and apparatus to alternate stereoscopic images in a video display device |
JP3376868B2 (ja) * | 1997-08-11 | 2003-02-10 | 日産自動車株式会社 | ナビゲーションシステムの立体地形表示方法、ナビゲーションシステム及び立体地形表示プログラムを記録した媒体 |
JPH11155152A (ja) * | 1997-11-21 | 1999-06-08 | Canon Inc | 三次元形状情報入力方法及び装置及び画像入力装置 |
JP3655083B2 (ja) * | 1998-02-25 | 2005-06-02 | 富士通株式会社 | ロボットの位置決めを行うインタフェース装置 |
US7116323B2 (en) * | 1998-05-27 | 2006-10-03 | In-Three, Inc. | Method of hidden surface reconstruction for creating accurate three-dimensional images converted from two-dimensional images |
US20050231505A1 (en) * | 1998-05-27 | 2005-10-20 | Kaye Michael C | Method for creating artifact free three-dimensional images converted from two-dimensional images |
US7116324B2 (en) * | 1998-05-27 | 2006-10-03 | In-Three, Inc. | Method for minimizing visual artifacts converting two-dimensional motion pictures into three-dimensional motion pictures |
US6344860B1 (en) * | 1998-11-27 | 2002-02-05 | Seriate Solutions, Inc. | Methods and apparatus for a stereoscopic graphic user interface |
US7408696B2 (en) | 2000-03-03 | 2008-08-05 | Sipix Imaging, Inc. | Three-dimensional electrophoretic displays |
US6753828B2 (en) * | 2000-09-25 | 2004-06-22 | Siemens Corporated Research, Inc. | System and method for calibrating a stereo optical see-through head-mounted display system for augmented reality |
US7053908B2 (en) * | 2001-04-12 | 2006-05-30 | Polaroid Corporation | Method and apparatus for sensing and interpolating color image data |
US8897596B1 (en) | 2001-05-04 | 2014-11-25 | Legend3D, Inc. | System and method for rapid image sequence depth enhancement with translucent elements |
US8401336B2 (en) | 2001-05-04 | 2013-03-19 | Legend3D, Inc. | System and method for rapid image sequence depth enhancement with augmented computer-generated elements |
US9286941B2 (en) | 2001-05-04 | 2016-03-15 | Legend3D, Inc. | Image sequence enhancement and motion picture project management system |
WO2003023511A2 (en) * | 2001-09-13 | 2003-03-20 | Sipix Imaging, Inc. | Three-dimensional electrophoretic displays |
JP3943975B2 (ja) | 2002-03-29 | 2007-07-11 | キヤノン株式会社 | 情報処理方法および装置 |
JP4152698B2 (ja) * | 2002-09-06 | 2008-09-17 | 三菱電機株式会社 | 3次元建物モデルデータ生成装置 |
US9063633B2 (en) * | 2006-03-30 | 2015-06-23 | Arjuna Indraeswaran Rajasingham | Virtual navigation system for virtual and real spaces |
DE102004007049A1 (de) * | 2004-02-13 | 2005-09-01 | Robert Bosch Gmbh | Verfahren zur Klassifizierung eines Objekts mit einer Stereokamera |
JP4427383B2 (ja) * | 2004-04-30 | 2010-03-03 | 株式会社トプコン | 測定方法及び測定システム |
JP4190473B2 (ja) * | 2004-08-31 | 2008-12-03 | 三洋電機株式会社 | 立体画像を構成する複数の視点画像の視点位置識別装置 |
US8135199B2 (en) * | 2006-12-19 | 2012-03-13 | Fujifilm Corporation | Method and apparatus of using probabilistic atlas for feature removal/positioning |
JP4907381B2 (ja) * | 2007-02-23 | 2012-03-28 | ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー | ボリュームデータ対応付け装置および方法 |
US8571303B2 (en) * | 2008-11-25 | 2013-10-29 | Nec System Technologies, Ltd. | Stereo matching processing system, stereo matching processing method and recording medium |
JP4747214B2 (ja) * | 2009-09-17 | 2011-08-17 | パナソニック株式会社 | 映像信号処理装置、及び、映像信号処理方法 |
JP5713624B2 (ja) * | 2009-11-12 | 2015-05-07 | キヤノン株式会社 | 三次元計測方法 |
JP5388921B2 (ja) | 2010-03-25 | 2014-01-15 | 株式会社東芝 | 3次元距離計測装置及びその方法 |
JP5545995B2 (ja) * | 2010-08-20 | 2014-07-09 | Necパーソナルコンピュータ株式会社 | 立体表示装置、その制御方法及びプログラム |
US8730232B2 (en) | 2011-02-01 | 2014-05-20 | Legend3D, Inc. | Director-style based 2D to 3D movie conversion system and method |
US9241147B2 (en) | 2013-05-01 | 2016-01-19 | Legend3D, Inc. | External depth map transformation method for conversion of two-dimensional images to stereoscopic images |
US9282321B2 (en) | 2011-02-17 | 2016-03-08 | Legend3D, Inc. | 3D model multi-reviewer system |
US9288476B2 (en) | 2011-02-17 | 2016-03-15 | Legend3D, Inc. | System and method for real-time depth modification of stereo images of a virtual reality environment |
US9407904B2 (en) | 2013-05-01 | 2016-08-02 | Legend3D, Inc. | Method for creating 3D virtual reality from 2D images |
US9007365B2 (en) | 2012-11-27 | 2015-04-14 | Legend3D, Inc. | Line depth augmentation system and method for conversion of 2D images to 3D images |
US9547937B2 (en) | 2012-11-30 | 2017-01-17 | Legend3D, Inc. | Three-dimensional annotation system and method |
US9007404B2 (en) | 2013-03-15 | 2015-04-14 | Legend3D, Inc. | Tilt-based look around effect image enhancement method |
US9438878B2 (en) | 2013-05-01 | 2016-09-06 | Legend3D, Inc. | Method of converting 2D video to 3D video using 3D object models |
US9609307B1 (en) | 2015-09-17 | 2017-03-28 | Legend3D, Inc. | Method of converting 2D video to 3D video using machine learning |
JP7038345B2 (ja) | 2017-04-20 | 2022-03-18 | パナソニックIpマネジメント株式会社 | カメラパラメタセット算出方法、カメラパラメタセット算出プログラム及びカメラパラメタセット算出装置 |
JP6840645B2 (ja) * | 2017-09-08 | 2021-03-10 | 株式会社小松製作所 | 施工管理装置および施工管理方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5493595A (en) * | 1982-02-24 | 1996-02-20 | Schoolman Scientific Corp. | Stereoscopically displayed three dimensional medical imaging |
EP0197341B1 (de) * | 1985-03-13 | 1993-02-17 | Kabushiki Kaisha TOPCON | Vorrichtung und Verfahren zur Koordinatenmessung |
US4982438A (en) * | 1987-06-02 | 1991-01-01 | Hitachi, Ltd. | Apparatus and method for recognizing three-dimensional shape of object |
US4965840A (en) * | 1987-11-27 | 1990-10-23 | State University Of New York | Method and apparatus for determining the distances between surface-patches of a three-dimensional spatial scene and a camera system |
US4875165A (en) * | 1987-11-27 | 1989-10-17 | University Of Chicago | Method for determination of 3-D structure in biplane angiography |
JPH0766445B2 (ja) * | 1988-09-09 | 1995-07-19 | 工業技術院長 | 画像処理方法 |
US4935810A (en) * | 1988-10-26 | 1990-06-19 | Olympus Optical Co., Ltd. | Three-dimensional measuring apparatus |
US5276613A (en) * | 1988-12-14 | 1994-01-04 | Etienne Schlumberger | Process and device for coordinating several images of the same object |
US5016173A (en) * | 1989-04-13 | 1991-05-14 | Vanguard Imaging Ltd. | Apparatus and method for monitoring visually accessible surfaces of the body |
GB9011922D0 (en) * | 1990-05-29 | 1990-07-18 | Europ Vision Syst Centre | Machine vision stereo matching |
US5633995A (en) * | 1991-06-19 | 1997-05-27 | Martin Marietta Corporation | Camera system and methods for extracting 3D model of viewed object |
JP2953188B2 (ja) | 1992-04-24 | 1999-09-27 | 日本電気株式会社 | 半導体装置の製造方法 |
US5519485A (en) * | 1992-07-31 | 1996-05-21 | Kabushiki Kaisha Topcon | Stereo image measuring apparatus |
JP3054301B2 (ja) * | 1993-11-30 | 2000-06-19 | キヤノン株式会社 | 画像処理方法及び装置 |
JP2919284B2 (ja) * | 1994-02-23 | 1999-07-12 | 松下電工株式会社 | 物体認識方法 |
US5548694A (en) * | 1995-01-31 | 1996-08-20 | Mitsubishi Electric Information Technology Center America, Inc. | Collision avoidance system for voxel-based object representation |
-
1994
- 1994-06-24 JP JP14279194A patent/JP3486461B2/ja not_active Expired - Fee Related
-
1995
- 1995-06-21 US US08/493,288 patent/US6023276A/en not_active Expired - Lifetime
- 1995-06-23 DE DE69522386T patent/DE69522386T2/de not_active Expired - Lifetime
- 1995-06-23 EP EP95304419A patent/EP0689167B1/de not_active Expired - Lifetime
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014084181A1 (ja) * | 2012-11-30 | 2014-06-05 | シャープ株式会社 | 画像計測装置 |
Also Published As
Publication number | Publication date |
---|---|
JP3486461B2 (ja) | 2004-01-13 |
US6023276A (en) | 2000-02-08 |
EP0689167A1 (de) | 1995-12-27 |
DE69522386D1 (de) | 2001-10-04 |
JPH0816783A (ja) | 1996-01-19 |
EP0689167B1 (de) | 2001-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69522386T2 (de) | Bildverarbeitungsgerät und -verfahren | |
DE102020000810A1 (de) | 3D-Objektrekonstruktion unter Nutzung einer fotometrischen Netzdarstellung | |
DE69725346T2 (de) | Gerät und verfahren zur erzeugung eines blechbiegemodells | |
DE60008264T2 (de) | Datenaustausch zwischen cad-systemen | |
DE69716877T2 (de) | System und Verfahren zur genauen Gradientberechnung für die Texturabbildung in einem Computergraphiksystem | |
DE102007045834B4 (de) | Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung | |
DE3689271T2 (de) | Verfahren zur Bildanzeige. | |
DE10144932B4 (de) | Visualisierung von Werkstücken bei der Simulation von Fräsprozessen | |
DE3854223T2 (de) | Erzeugung und Anzeige von Rechnergraphiken. | |
DE69819950T2 (de) | Verfahren und System zur Bildverarbeitung | |
DE69414784T2 (de) | Vorrichtung und Verfahren zur Formmodellierung | |
DE3608438A1 (de) | Verfahren zum berechnen von freien gekruemmten flaechen mittels computergestuetztem design cad und computergestuetzter herstellung cam und numerischer steuerung nc | |
DE69926986T2 (de) | Rechnergrafiken-animationsverfahren und vorrichtung | |
DE4303071A1 (de) | Verfahren und Vorrichtung zur Randbewertung in einer Nicht-Mannigfaltigkeits-Umgebung | |
DE112008002298B4 (de) | Gerät, Verfahren und Programm zur Erzeugung einer Werkzeugbezugsebene | |
DE19807053A1 (de) | Strahltransformationsverfahren für eine schnelle Volumenaufbereitung für eine perspektivische Betrachtung | |
EP2528042A1 (de) | Verfahren und Vorrichtung zum Re-Meshing von 3D-Polygonmodellen | |
DE69324101T2 (de) | Bilddatenverarbeitung | |
DE69625484T2 (de) | Verbesserte Objektmodellerzeugung | |
DE112010002677T5 (de) | Verfahren und vorrichtung zum bestimmen einer formübereinstimmung in drei dimensionen | |
DE60024514T2 (de) | Aufzeichnungsmedium, Verfahren und Einrichtung zur Bildverarbeitung mit integrierten Daten zur Formmodellierung | |
DE112014002120T5 (de) | System und Verfahren zur Durchführung von Operationen zum Rückgängigmachen und Wiederherstellen während der Bearbeitungssimulation | |
DE19817583B4 (de) | Verfahren und System zur Datenverarbeitung für dreidimensionale Objekte | |
DE102022132137A1 (de) | Generieren einer reaktivvideoleinwand | |
DE112018000951T5 (de) | System und Verfahren zum Simulieren der Bearbeitung eines Werkstücks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition |