DE69522386T2 - Bildverarbeitungsgerät und -verfahren - Google Patents

Bildverarbeitungsgerät und -verfahren

Info

Publication number
DE69522386T2
DE69522386T2 DE69522386T DE69522386T DE69522386T2 DE 69522386 T2 DE69522386 T2 DE 69522386T2 DE 69522386 T DE69522386 T DE 69522386T DE 69522386 T DE69522386 T DE 69522386T DE 69522386 T2 DE69522386 T2 DE 69522386T2
Authority
DE
Germany
Prior art keywords
image
data
display
dimensional
corresponding points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69522386T
Other languages
English (en)
Other versions
DE69522386D1 (de
Inventor
Masakazu Fujiki
Tomoaki Kawai
Masatoshi Okutomi
Shinji Uchiyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of DE69522386D1 publication Critical patent/DE69522386D1/de
Application granted granted Critical
Publication of DE69522386T2 publication Critical patent/DE69522386T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0096Synchronisation or controlling aspects

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

  • Die vorliegende Erfindung betrifft ein Bildverarbeitungsgerät und -verfahren und insbesondere ein Bildverarbeitungsgerät und -verfahren, die Daten erzeugen, die ein Computermodell der dreidimensionalen geometrischen Form eines Objekts in einem Stereobild unter Verwendung des rechten und linken Bildes des Objekts definieren.
  • Zur Erkennung einer dreidimensionalen geometrischen Form eines Objekts unter Verwendung eines rechten und Linken Bildes eines durch eine Stereokamera oder dergleichen aufgenommenen Stereobildes gibt es ein herkömmliches System zum Auffinden der dreidimensionalen Koordinaten durch Auffinden aller entsprechenden Punkte in dem rechten und linken Bild durch einen Übereinstimmungsvergleichsvorgang und dergleichen.
  • Da allerdings bei dem vorstehend angeführten System ein Computer die entsprechenden Punkte automatisch findet, besteht die Gefahr, dass die lokalisierten entsprechenden Punkte einander nicht tatsächlich entsprechen. Da ferner alle entsprechenden Punkte gesucht werden, muss der Computer eine große Menge an Berechnungen durchführen, und es dauert eine erhebliche Zeit zum Erhalten der dreidimensionalen Koordinaten.
  • Zur Lösung dieser Probleme hat die Anmelderin der vorliegenden Erfindung eine Patentanmeldung bzgl. eines Verfahrens eingereicht, bei dem ein Benutzer den Computer unterbricht und entsprechende Punkte zum Auffinden einer dreidimensionalen Form bestimmt, was in der japanischen Patentveröffentlichung (Kokai) 7-152928 beschrieben ist.
  • Nachdem gemäß diesem Verfahren die dreidimensionalen Koordinaten aus entsprechenden Punkten des rechten und linken Bildes eines Stereobildes gefunden wurden, wird ein die dreidimensionalen Koordinatenpunkte verbindendes Dreieck erzeugt, wodurch eine Ebene gebildet wird. Bei dem von der Anmelderin vorgeschlagenen Verfahren wird ein Triangulationsnetzverfahren und dergleichen beruhend auf dem Delaunay-Prinzip zur Erzeugung des Dreiecks verwendet.
  • Generell sind oft eine Vielzahl dreidimensionaler Objekte in einem Bild enthalten. Gibt es eine Vielzahl von Objekten in einem Bild, werden alle Objekte einschließlich des Hintergrunds immer als einfache dreidimensionale Form behandelt, wenn ein herkömmliches Verfahren angewendet wird. In einem anderen Fall ist es möglich, lediglich einen durch einen Benutzer unterbrechend bestimmten Flächenabschnitt in dem Bild als einzelnes Objekt zu behandeln. Das heißt, selbst wenn eine Vielzahl von Objekten in einem Bild enthalten ist, gibt es kein Gerät, das die Objekte separat im dreidimensionalen Raum erkennen kann. Daher wird die Vielzahl der Objekte immer als einzelnes Objekt (einschließlich der den Hintergrund bildenden Objekte) behandelt.
  • Des weiteren werden ein rechtes und linkes Bild lediglich zur Eingabe einer dreidimensionalen Form verwendet und wurden nicht als Texturinformationen genutzt.
  • Verwendet ferner ein Verfahren zur Erzeugung einer Ebene ein Delaunay-Triangulationsnetz, besteht ein Problem dahingehend, dass, wenn eine dreidimensionale konkave Fläche in einem Objekt vorhanden ist, die konkave Fläche nicht erkannt werden kann.
  • Ist es ferner erforderlich, alle entsprechenden Punkte in dem rechten und linken Bild manuell zu bestimmen, muss der Benutzer ziemlich viele manuelle Operationen durchführen. Außerdem ist die präzise Bestimmung entsprechender Punkte in dem rechten und linken Bild des Stereobildes durch eine manuelle Operation schwierig. Besonders dann, wenn keine klaren Texturinformationen in dem Bild vorhanden sind, ist die Bestimmung der entsprechenden Punkte noch schwieriger.
  • In der US 4 935 820 ist ein dreidimensionales Messgerät offenbart, auf dem eine Vielzahl von Bildern mit Parallelachsen dargestellt werden, jeweilige Objektpunkte bestimmt und Messvorgänge bzgl. der dreidimensionalen Positionen der bestimmten Punkte durchgeführt werden.
  • In der US-A-4 875 165 ist ein Verfahren zur Bestimmung einer dreidimensionalen Struktur in einer Zweiebenenangiografie offenbart, bei dem eine dreidimensionale Gefäßstruktur aus zwei ebenen Bildern durch Identifizierung von Punkten in beiden Bildern erhalten wird, die jeweiligen Punkten eines Objekts entsprechen.
  • In der GB-A-22 44 621 ist ein Verfahren zum Übereinstimmungsvergleich von Merkmalen zwischen zwei unterschiedlichen Bildern einer Szene durch Berechnung einer epipolaren Geraden offenbart.
  • Die vorliegende Erfindung wurde in Anbetracht der vorstehend beschriebenen Situation entwickelt.
  • Erfindungsgemäß ist ein Bildverarbeitungsgerät gemäß Patentanspruch 1 ausgestaltet.
  • Die Erfindung stellt auch ein Verfahren zur Verarbeitung von Bilddaten gemäß Patentanspruch 10 bereit.
  • Die Erfindung stellt ferner ein Computerprogramm gemäß Patentanspruch 19 bereit.
  • Die Erfindung stellt auch eine Datenspeichereinrichtung gemäß Patentanspruch 20 bereit.
  • Optionale Merkmale sind in den Patentansprüchen 2 bis 9 und 11 bis 18 definiert.
  • Nachstehend sind Ausführungsbeispiele der Erfindung unter Bezugnahme auf die beiliegende Zeichnung beschrieben, in der gleiche Bezugszeichen gleiche oder ähnliche Abschnitte in den Figuren bezeichnen. Es zeigen:
  • Fig. 1 ein Blockschaltbild des Aufbaus eines. Geräts gemäß einem ersten Ausführungsbeispiel,
  • Fig. 2 Programmmodule gemäß dem ersten Ausführungsbeispiel,
  • Fig. 3 eine Darstellung der Zustände eines angezeigten rechten und linken Bildes eines Stereobildes an einer Anfangsstufe gemäß dem ersten Ausführungsbeispiel,
  • Fig. 4 ein Ablaufdiagramm der Operationsinhalte gemäß dem ersten Ausführungsbeispiel,
  • Fig. 5 eine Darstellung des Aufbaus einer Punktliste gemäß dem ersten Ausführungsbeispiel,
  • Fig. 6 eine Darstellung des Aufbaus einer Ebenenliste gemäß dem ersten Ausführungsbeispiel,
  • Fig. 7 eine Tabelle, die die Übereinstimmung zwischen Objektnamen, der Punktliste und der Ebenenliste gemäß dem ersten Ausführungsbeispiel darstellt,
  • Fig. 8 ein Ablaufdiagramm eines Vorgangs zur Änderung von Objekten gemäß dem ersten Ausführungsbeispiel,
  • Fig. 9 ein Ablaufdiagramm eines Vorgangs zur Registrierung eines Objekts gemäß dem ersten Ausführungsbeispiel,
  • Fig. 10 ein Ablaufdiagramm eines Vorgangs zum Lesen eines Objekts gemäß dem ersten Ausführungsbeispiel,
  • Fig. 11 ein Ablaufdiagramm eines Vorgangs zur Speicherung eines Objekts gemäß dem ersten Ausführungsbeispiel,
  • Fig. 12 ein Ablaufdiagramm eines Vorgangs zur Bestätigung einer Anzeige gemäß dem ersten Ausführungsbeispiel,
  • Fig. 13 eine Darstellung der Anzeige mitten in der Bearbeitung gemäß dem ersten Ausführungsbeispiel, und
  • Fig. 14 eine Darstellung der Anzeige mitten in der Bearbeitung gemäß dem ersten Ausführungsbeispiel.
  • Fig. 1 zeigt ein Blockschaltbild des Aufbaus eines Geräts gemäß dem ersten Ausführungsbeispiel.
  • In Fig. 1 bezeichnet das Bezugszeichen 1-1 eine Eingabe- /Ausgabeeinheit zum Austauschen von Informationen mit einer externen Einrichtung, 1-2 eine Festplatte, die einen Speicherträger mit großer Kapazität darstellt, 1-3 einen Hauptspeicherträger (bestehend aus einem RAM und dergleichen), 1-4 eine CPU, die das gesamte Gerät steuert, 1-5 eine Bitmapanzeige (die nachstehend einfach als "Anzeige" bezeichnet wird) zur Anzeige eines Bildes, wobei ein Bild angezeigt wird, das in einem Bit-RAM-Bereich entwickelt wurde, der auf dem Hauptspeicherträger 1-3 reserviert ist, 1-6 eine Tastatur zur Eingabe verschiedener Arten von Zeichen und Befehlen, und 1-7 eine Zeigeeinrichtung (eine Maus bei diesen Ausführungsbeispielen) zur Bewegung eines bestimmten Cursors an eine willkürliche Position auf der Anzeige 1-5 und zum Abgeben verschiedener Arten von Befehlen.
  • Bei dem vorstehend beschriebenen Aufbau werden Daten eines rechten und linken Bildes eines Stereobildes, das beispielsweise durch die Aufnahme durch eine Stereokamera erhalten wird, durch eine vorbestimmte Einrichtung digitalisiert (umfasst die Stereokamera eine Digitalisiereinrichtung, ist sie direkt mit dem Gerät gemäß dem ersten Ausführungsbeispiel verbunden). Dann wird die Digitalisiereinrichtung mit der Eingabe/Ausgabeeinheit 1-1 verbunden, wodurch das digitalisierte rechte und linke Bild eines Stereobildes (die nachstehend einfach als das rechte und linke Bild bezeichnet werden) in das Gerät des ersten Ausführungsbeispiels eingegeben und auf der Festplatte 1-2 gespeichert werden (das gespeicherte rechte und linke Bild werden in Fig. 1 durch das Bezugszeichen 1-21 bezeichnet). Durch Bestimmung durch die Tastatur 1-6 oder die Zeigeeinrichtung 1-7 werden das bestimmte rechte und linke Bild von der Festplatte 1-2 in einen VRAM-Bereich auf dem Hauptspeicherträger geladen, und dann auf der Anzeige 1-5 angezeigt. Es ist anzumerken, dass ein Verfahren zur Eingabe der rechten und linken Bilder des Stereobildes in das Gerät nicht auf das vorstehend angeführte Verfahren beschränkt ist. Beispielsweise können das rechte und linke Bild von einem mit dem Gerät des ersten Ausführungsbeispiels verbundenen Diskettenlaufwerk oder über eine Kommunikationsleitung eingegeben werden. Die Festplatte 1-2 speichert das OS (Betriebssystem) und Programme, die den in den jeweiligen nachstehend beschriebenen Ablaufdiagrammen gezeigten Prozessen entsprechen, neben den rechten und linken Bilddaten. Diese Daten und Programme werden in den Hauptspeicherträger 1-3 korrekt geladen und durch die CPU 1-4 ausgeführt.
  • Fig. 3 zeigt ein auf der Anzeige 1-5 gemäß dem ersten Ausführungsbeispiel anzuzeigendes Beispiel. In Fig. 3 bezeichnet das Bezugszeichen 3-1 ein Operationsmenü, 3-2 und 3- 3 Fenster jeweils zur Anzeige eines rechten und linken Bildes eines Stereobildes und 3-4 ein Fenster zur Anzeige von Daten dreidimensionaler Form, die unterbrochen eingegeben wurden. Das Verfahren zur Eingabe der Daten wurde vorstehend beschrieben.
  • Fig. 4 zeigt ein Ablaufdiagramm der Verarbeitung gemäß dem ersten Ausführungsbeispiel und Fig. 2 zeigt Programmmodule zur Ausführung von Prozessen des Ablaufdiagramms in Fig. 4.
  • Die Operationssequenz von Fig. 4 wird unter Bezugnahme auf die Fig. 1 bis 3 beschrieben. Zu verwendende Programme werden von der Festplatte 1-2 in den Hauptspeicherträger 1-3 geladen.
  • Wird das System eingeschaltet, wird zuerst ein Anfangsmenü (nicht gezeigt) auf der Anzeige angezeigt. Wird "Auslesen eines rechten und linken Bildes eines Stereobildes" aus dem Menü durch die Tastatur 1-6 oder die Zeigeeinrichtung 1-7 bestimmt, wird eine Liste von Sätzen rechter und linker Bilder für Stereobilder angezeigt, die gegenwärtig auf der Festplatte 1-2 gespeichert sind. Dann wird ein Satz in der Liste ausgewählt. Die bestimmten rechten und linken Bilder (beispielsweise das rechte und linke Bild 1-21) werden in einen vorbestimmten Bereich auf dem Hauptspeicherträger 1-3 geladen (Schritt S402) und auf der Anzeige in der in Fig. 3 gezeigten Form angezeigt. Zu diesem Zeitpunkt wird ein Operationsmenü und dergleichen zusammen damit angezeigt. Demnach werden das linke und rechte Bild des Stereobildes jeweils im Fenster 3-2 und 3-3 auf der Anzeige 1-5 angezeigt. Es wird angenommen, dass ein in Fig. 3 gezeigtes Bild auf der Anzeige 1-5 angezeigt wird.
  • Dann wird der Prozess ausgesetzt, bis ein Benutzer einen Befehl unter Verwendung der Zeigeeinrichtung 1-7 eingibt (Schritt 5404).
  • < Prozess zur Bestimmung von Koordinaten (zum Hinzufügen von Punkten) durch die Zeigeeinrichtung>
  • Erfasst das Gerät in dem vorstehend beschriebenen Zustand des Wartens auf einen Befehl das Drücken einer Taste (Klick), die mit der Zeigeeinrichtung verknüpft ist, nachdem der Benutzer einen Cursor bewegt hat, der sich bzgl. der Bedienung der Zeigeeinrichtung 1-7 auf dem angezeigten rechten und linken Bild bewegt, geht der Prozess von Schritt S405 zu Schritt S421 über, in dem Koordinaten des durch die Zeigeeinrichtung 1-7 bestimmten Punktes erhalten werden.
  • In Schritt S421 und Schritt S422 wird der Prozess ausgesetzt, bis ein Punkt sowohl in dem rechten als auch dem linken Bild in dem rechten Fenster 3-3 und dem linken Fenster 3-2 bestimmt ist. Dann werden Positionen entsprechender Punkte in dem rechten und linken Bild eingegeben. Die bestimmten Punkte werden als Scheitelpunkte dreidimensionaler Formen betrachtet, nachdem sie aufeinanderfolgenden Vorgängen einer dreidimensionalen Koordinatenberechnung unterzogen wurden.
  • Es ist anzumerken, dass bei dem ersten Ausführungsbeispiel die entsprechenden Punkte in dem rechten und linken Bild manuell nach Augenschein bestimmt werden. Allerdings ist es möglich, ein Gerät derart auszubilden, dass bei der Bestimmung eines Punkts entweder in dem rechten oder linken Bild der entsprechende Punkt in dem anderen Bild automatisch durch Mustervergleich und dergleichen berechnet wird.
  • Sind die entsprechenden Punkte sowohl in dem rechten als auch dem linken Bild bestimmt, werden ihre Koordinatendaten auf dem Hauptspeicherträger 1-3 oder beispielsweise einer Festplatte 1- 2 gespeichert (Schritt S423). Die Koordinatendaten der bestimmten entsprechenden Punkte in dem rechten und linken Bild haben eine in Fig. 5 beschriebene Struktur. Das heißt, die Koordinatendaten enthalten Koordinaten des bestimmten Punktes in dem rechten Bild, Koordinaten des gleichen in dem linken Bild, dreidimensionale Koordinaten, die durch Durchführung von nachstehend beschriebenen Berechnungen auf der Grundlage der Koordinaten des rechten und linken Bilds erhalten werden, und eine Adresse (Zeiger) zur Bestimmung des nächsten Punktes, und diese Daten werden in einer Liste (die nachstehend als Punktliste bezeichnet wird) registriert. Wurde ein Paar neuer entsprechender Punkte bestimmt, werden die Koordinatendaten der Punkte sequentiell in der Punktliste hinzugefügt.
  • In Fig. 5 sind bzgl. eines i-ten hinzugefügten Punktes Koordinaten in dem linken Bild (Lxi, Lyi), Koordinaten in dem rechten Bild (Rxi, Ryi) und dreidimensionale Koordinaten, die durch die Durchführung von nachstehend beschriebenen Berechnungen auf der Grundlage der Koordinaten des rechten und linken Bildes erhalten werden, (Vxi, Vyi, Vzi) in der Punktliste registriert.
  • Die vorstehend angeführten dreidimensionalen Koordinatenberechnungen, die Erzeugung einer Ebene und die dreidimensionale Anzeige werden durch die Durchführung von Prozessen in den Schritten 5424 bis 5429 durchgeführt. Hier werden die Prozesse unter der Annahme beschrieben, dass der i- te entsprechende Punkt hinzugefügt wird. Es ist anzumerken, dass drei Punkte, die zuletzt als erster, zweiter und dritter (Pi, Pi-1, Pi-2) eingegeben wurden, für diese Prozesse verwendet werden. Die Prozesse werden nachstehend beschrieben.
  • Zuerst werden in Schritt S424 die dreidimensionalen Koordinaten (Vxi, Vyi, Vzi) unter Verwendung der Triangulationstheorie auf der Grundlage der Koordinaten in dem rechten und linken Bild (Lxi, Lyi) und (Rxi, Ryi) und von (nachstehend beschriebenen) Kameraparametern, die zuvor erhalten werden, berechnet und in der Punktliste als i-te Daten registriert (Schritt S425). Die Kameraparameter enthalten Bilderfassungsbedingungen, wenn Kameras das rechte und linke Bild eines Stereobildes erfassen, d.h. Informationen wie die Position, Richtung und Brennpunktweite der Kamera. Kameraparameter für das linke und rechte Bild (d.h. Kameraparameter für eine das rechte Bild erfassende Kamera und eine das linke Bild erfassende Kamera) werden separat eingestellt. Die Kameraparameter werden dem System unter Verwendung eines geeigneten Verfahrens zuvor zugeführt.
  • Dann wird eine Ebene auf der Grundlage der Punktliste erzeugt, deren Koordinaten in Fig. 5 gezeigt sind. Gemäß dem ersten Ausführungsbeispiel werden Dreiecksflächen beruhend auf bestimmten Punkten entweder eines rechten oder eines linken Bildes erzeugt und als Ebenen behandelt. Das heißt, drei Punkte werden aus den Punkten (Rx1, Ry1), (Rx2, Ry2)... (Rxn, Ryn) in dem rechten Bild (zweidimensionale Ebene) ausgewählt, und Dreiecksflächen werden nacheinander erzeugt. Sind die ersten drei Punkte bestimmt, wird ein einzelnes Dreieck erzeugt. Hinsichtlich von nach dem dritten Punkt bestimmten Punkten wird immer dann, wenn ein neuer Punkt bestimmt wird, dieser Punkt und zwei andere Punkte aus den zuvor bestimmten Punkten ausgewählt und ein neues Dreieck wird definiert. Es ist anzumerken, dass die zwei vor dem neu bestimmten Punkt bestimmten Punkte derart ausgewählt sind, dass das neue zu erzeugende Dreieck die früher erzeugten anderen Dreiecke nicht überlappt. Wird ein Punkt hinzugefügt, werden die vorhandenen Dreiecke immer bei Bedarf neu bewertet und neu erzeugt, so dass sich die Dreiecke nicht teilweise oder ganz überlappen.
  • Fig. 13 zeigt ein Beispiel eines Bildes auf der Anzeige, wenn Dreiecksflächen auf den Bildern dargestellt werden. In Fig. 13 zeigt ein rechtes Fenster 13-2 die Dreiecksflächen auf dem rechten Bild. Auf der Grundlage dieser Figur wird ein Prozess zur Anpassung von Dreiecksflächen an jede Oberfläche der Objekte in einem linken Fenster 13-1 und in einem dreidimensionalen Raum-Fenster 13-4 nachstehend beschrieben.
  • Beispielsweise wird zuerst ein Dreieck betrachtet, das durch Verbinden von Punkten in dem rechten Bild (Rx1, Ry1), (Rx2, Ry2) und (Rx3, Ry3) erzeugt wurde, und Koordinaten von Punkten in dem linken Bild und die dreidimensionalen Koordinaten von den Punktdaten P1, P2 und P3, die den Scheitelpunkten des Dreiecks entsprechen, werden in der Punktliste abgerufen. Dann werden Dreiecke für das linke Bild und in dem dreidimensionalen Raum erhalten. Gleichermaßen werden Dreiecke in dem dreidimensionalen Raum-Fenster und im dreidimensionalen Raum erhalten. Es ist anzumerken, dass es in dem dreidimensionalen Raum-Fenster erforderlich ist, die Position eines Blickpunktes eines Objekts und dergleichen zuvor einzustellen.
  • Als Verfahren zur Erzeugung eines Dreiecks gibt es beispielsweise ein Verfahren, das vorbestimmte Regeln befolgt. Bezüglich der Regeln gibt es ein Verfahren, bei dem ein Triangulationsnetz automatisch auf der Grundlage des Delaunay- Prinzips erzeugt wird. Es ist anzumerken, dass gemäß der Triangulationsnetzerzeugung beruhend auf dem Delaunay-Prinzip ein Triangulationsnetz, das eine Gruppe von Punkten verbindet, derart erzeugt wird, dass ein Scheitelpunkt mit dem kleinsten Winkel aller Scheitelpunkte des erzeugten Dreiecks den maximalen Winkel aufweist (d.h. das erzeugte Dreieck ist beinahe ein rechtwinkliges Dreieck). Dieses Verfahren ist zur automatischen Erzeugung eines Dreiecknetzes sehr effektiv. Da aber alle Prozesse zur Erzeugung des Dreiecknetzes automatisch durchgeführt werden, ist es nicht möglich, explizit eine zwei Punkte verbindende Strecke zu belassen. Die Anmelderin der vorliegenden Erfindung hat ein Verfahren zur Lösung dieses Problems im US-Patent 5 748 865 vorgeschlagen.
  • Daten des wie vorstehend angeführt erzeugten Dreiecks werden in einer Ebenenliste mit der in Fig. 6 gezeigten Struktur registriert (Schritt S427). Jeder Eintrag der Ebenenliste besteht aus Zeigern auf die drei Einträge in der Punktliste, die jeweils Koordinaten von jeweils drei Scheitelpunkten des Dreiecks halten, und einem Zeiger auf das nächste Dreieck. Demnach ist es möglich, ein aus zweidimensionalen und dreidimensionalen Dreiecksflächen bestehendes Objekt durch Verfolgen der Ebenenliste zu erzeugen.
  • Zweidimensionale Dreiecksflächen werden überlagert in dem rechten und linken Bild in Schritt S428 angezeigt, und als Linien wie in den Fenstern 13-1 und 13-2 in Fig. 13 angezeigt.
  • Dreidimensionale Dreiecksflächen werden dreidimensional wie im Fenster 13-4 in Fig. 13 angezeigt. Eine Wire-Frame-Anzeige, eine Schattierungsanzeige und andere Verfahren sind als dreidimensionales Anzeigeverfahren bekannt, und jedes dieser dreidimensionalen Anzeigeverfahren kann hier verwendet werden.
  • Durch Wiederholen der vorstehend angeführten Prozesse (Schritte S404, S405, und S421 bis S429) wird eine dreidimensionale Form erhalten.
  • Es ist anzumerken, dass die durch die Durchführung der vorstehend beschriebenen Prozesse erhaltene dreidimensionale Form einen einzelnen Körper darstellt, d.h. alle dreidimensionalen Objekte in einem Bild werden als verknüpftes einzelnes Objekt betrachtet. Ist das Stereobild allerdings aus einer Vielzahl von Objekten zusammengefügt, ist die Durchführung der folgenden Prozesse erforderlich, so dass jedes Objekt als unabhängige dreidimensionale Form behandelt wird.
  • < Menüauswahl>
  • Zur Lösung des vorstehend angeführten Problems sollte jedes dreidimensionale Objekt separiert werden, wenn Daten eines Bildes des dreidimensionalen Objekts eingegeben werden.
  • Dementsprechend wird bei diesem Ausführungsbeispiel ein auf der Anzeige 4-5 angezeigtes Operationsmenü 3-1 (siehe Fig. 3) während der Eingabe der Daten verwendet.
  • Es gibt mehrere Bilder zur Verarbeitung in dem Operationsmenü 3-1, und eines der Bilder wird durch Bewegen des Cursors, der sich bezüglich der Zeigeeinrichtung 1-7 bewegt, in eine Box und Darauf-Klicken bestimmt.
  • Zu diesem Zeitpunkt geht der Prozess von Schritt S406 zu Schritt S408 in Fig. 4 über und es werden jedem Feld in dem Menü entsprechende Prozesse in den folgenden Schritten durchgeführt.
  • Zuerst wird ein Fall beschrieben, in dem "Objekt Registrieren" in dem Operationsmenü 3-1 ausgewählt wird. In diesem Fall geht der Prozess von Schritt S410 zu Schritt S411 über. Einzelheiten des in Schritt S411 durchgeführten Prozesses sind in Fig. 9 als Beispiel gezeigt.
  • Bei diesem Prozess werden Daten der erzeugten Dreiecksflächen und der dreidimensionalen Formen (die Punktliste und die Ebenenliste) mit Namen registriert. In Schritt S802 in Fig. 9 wird ein Objekt durch die Eingabe von Daten von der Tastatur 1- 6 benannt. In Schritt S803 werden die Objektnamen sowie die Zeiger, die den Anfang der Einträge, die bearbeitet werden, (die nachstehend als Top-Adress-Zeiger bezeichnet werden) in der Punktliste und der Ebenenliste in einer Tabelle wie in Fig. 7 gezeigt gespeichert. Diese Tabelle kann beispielsweise auf der Festplatte 1-21 gespeichert werden. Die Tabelle wird bzgl. einer Datei des rechten und linken Bildes eines Stereobildes gespeichert, das gegenwärtig angezeigt wird.
  • Wird "Objekte Verändern" ausgewählt, wird ein Prozess in Schritt S409 durchgeführt. Einzelheiten dieses Prozesses sind in Fig. 8 gezeigt.
  • Zuerst wird ein Objektname bestimmt (Schritt S702), dann werden die Top-Adress-Zeiger für die Punktliste und die Ebenenliste, die dem bestimmten Objektnamen entsprechen, aus der in Fig. 7 gezeigten Tabelle ausgelesen, so dass neue Daten entsprechender Punkte und Dreiecke zu den Punkt- und Ebenenlisten hinzugefügt werden können (Schritt S703 und Schritt S704). Hinsichtlich der Objektbestimmung wird eine Liste von Objekten wie in Fig. 7 gezeigt in einem anderen Fenster angezeigt, und ein Benutzer bestimmt eines der Objekte in der Liste durch die Verwendung der Zeigeeinrichtung 1-7. Zu diesem Zeitpunkt werden, wenn das gegenwärtig verarbeitete Objekt nicht registriert wurde, d.h. wenn die Schritte von S801 bis S804 für das Objekt nicht verarbeitet wurden, Daten des Objekts gelöscht. Sind Daten des Objekts zu speichern, werden ferner die Daten des Objekts durch Einstellung der Top-Adress-Zeiger für die Punkt- und Ebenenlisten und Hinzufügen eines Eintrags zu der Tabelle in Fig. 7 gespeichert. Wurden die Daten des Objekts registriert, wird der Prozess zur Änderung der Objekte durch einfaches Ändern von Zeigern erreicht. Nach der Änderung der Zeiger wird das gegenwärtig bearbeitete Objekt in einem rechten und linken Bild angezeigt, so dass ein Benutzer die Bilder bestätigen kann (Schritt S705). Des weiteren wird das Objekt auch in dem dreidimensionalen Anzeigefenster angezeigt (Schritt S706).
  • Wird dagegen "Objekt Sichern" im Operationsmenü 3-1 ausgewählt, d.h. der Prozess schreitet von Schritt S414 zu Schritt S415 vor, werden die in dem Ablaufdiagramm in Fig. 11 gezeigten Prozesse durchgeführt.
  • Bei diesen Prozessen werden Daten der Punktliste und der Ebenenliste in Daten eines geeigneten Formats geändert, und auf der Festplatte 1-2 in einer Datei gespeichert.
  • Zuerst werden ein Objektname und ein Dateiname unter Verwendung der Tastatur 1-6 bestimmt (Schritt S1002 und Schritt S1003) und dann wird ein Eintrag in dem Objektnamen entsprechenden Listendaten aus der in Fig. 7 gezeigten Tabelle gelesen. Danach werden die durch den Eintrag bestimmten Listendaten in einem geeigneten Format gespeichert (Schritt S1004 und Schritt S1006).
  • Wird "Objekt Lesen" ausgewählt bzw. schreitet der Prozess von Schritt S412 zu Schritt S413 fort, werden ferner die in einem Ablaufdiagramm in Fig. 10 gezeigten Prozesse durchgeführt. Bei diesen Prozessen werden Daten in der in einer Datei gespeicherten Punktliste und Ebenenliste gelesen.
  • Zuerst wird ein Dateiname bestimmt (Schritt S902) und eine Datei mit dem bestimmten Dateinamen wird gelesen (Schritt 5903). Dann wird ein Eintrag zum Lesen von Daten der Punktliste und der Ebenenliste eines Objekts zu Einträgen unter Bearbeitung hinzugefügt (Schritt S904). Danach wird das Objekt im rechten und linken Bild angezeigt, um die Bilder zu bestätigen (Schritt S905), und es wird auch im dreidimensionalen Anzeigefenster angezeigt (Schritt S906). Neue entsprechende Punkte können zu der in diesem Prozess gelesenen Punktliste hinzugefügt werden.
  • Wird "Anzeige Bestätigen" ausgewählt bzw. schreitet der Prozess von Schritt S416 zu Schritt S417 fort, werden die im Ablaufdiagramm in Fig. 12 gezeigten Prozesse durchgeführt. Bei diesen Prozessen werden Bilder zur Bestätigung der registrierten Objekte angezeigt. Eine Vielzahl von Objekten kann gleichzeitig zur Bestätigung angezeigt werden.
  • Dann wird überprüft, ob die Anzeige zur Bestätigung abgeschlossen ist oder nicht. Diese Bestimmung wird durch die Überprüfung durchgeführt, ob ein Benutzer die Beendigung des Prozesses bestimmt hat oder nicht.
  • Wurde bestimmt, dass der Prozess fortzusetzen ist (oder wurde der Befehl zum Beenden des Prozesses nicht gegeben), wird überprüft, ob ein zusätzlich anzuzeigendes Objekt vorhanden ist oder nicht (Schritt S1103). Ist eines vorhanden, wird ein Objektname des zusätzlichen Objekts bestimmt (Schritt S1104) und dann die Top-Adress-Zeiger für die Punktliste und die Ebenenliste abgerufen und gesetzt (Schritt S1105). Danach wird das Objekt zu dem rechten und linken Bild (Schritt S1106) und auch zu dem dreidimensionalen Anzeigefenster hinzugefügt (S1107).
  • Ist ein Befehl zum Löschen eines angezeigten Objekts (oder zum Nichthinzufügen zur Anzeige) vorhanden, geht der Prozess von Schritt S1103 zu Schritt S1108 über. Bei diesem Vorgang wird der Name eines zu löschenden Objekts bestimmt (Schritt S1108) und das Objekt wird aus dem rechten und linken Bild gelöscht, die überlagert angezeigt werden (Schritt S1109). Des weiteren wird es auch aus dem dreidimensionalen Anzeigefenster gelöscht (Schritt S1110). Dadurch ist es möglich, Kombinationen willkürlicher Objekte unter einer Vielzahl von Objekten frei anzuzeigen. Beispielsweise ist es wie in Fig. 14 gezeigt möglich, zwei ausgewählte Objekte in dem dreidimensionalen Anzeigefenster anzuzeigen.
  • Wird das Ende des Prozesses bestimmt, wird der Prozess zur Änderung der Objekte in den Schritten S701 bis s707 durchgeführt.
  • Da Werte dreidimensionaler Koordinaten einer Vielzahl von in der Ebenenliste registrierten Objekten eine relative Positionsbeziehung zwischen den Objekten beibehalten können, wenn die Vielzahl der Objekte gleichzeitig angezeigt wird, wird die Positionsbeziehung im dreidimensionalen Raum aufrechterhalten. Dieses Merkmal wirkt sich auf die Texturabbildungsanzeige im dreidimensionalen Anzeigefenster positiv aus. Das heißt, unterschiedliche Texturinformationen für jedes Objekt sind nicht erforderlich, und die gleichen Texturinformationen können für alle Objekte verwendet werden.
  • Gemäß dem vorstehend beschriebenen ersten Ausführungsbeispiel werden die folgenden Vorteile erhalten.
  • (0) Da Texturinformationen als Bild zur gleichen Zeit eingegeben werden, wenn das rechte und linke Bild eingegeben werden, ist es möglich, eine Texturabbildungsanzeige in drei Dimensionen selbst dann durchzuführen, wenn die Texturinformationen separat eingegeben werden. Es ist insbesondere möglich, eine dreidimensionale Form eines Objekts aus dem rechten und dem linken Bild eines Stereobildes zu erhalten, indem eine Einrichtung zur Bestimmung entsprechender Punkte im rechten und im linken Bild des Stereobildes bereitgestellt wird.
  • (1) Es ist möglich, dreidimensionale Formen einer Vielzahl von Objekten separat zu behandeln, indem eine Einrichtung zur Registrierung und Verwaltung der Vielzahl dreidimensionaler Formen bereitgestellt wird, die in einer Einrichtung zum Auffinden einer dreidimensionalen Form auf unterbrochene Art und Weise aus dem rechten und linken Bild eines Stereobildes enthalten ist, wenn eine Vielzahl von Objekten in den Bildern enthalten sind. Demnach ist es möglich, dreidimensionale Formen einer Vielzahl von Objekten separat anzuzeigen, diese in einer Datei zu speichern und aus einer Datei zu lesen.
  • (2) Des weiteren ist es möglich, eine dreidimensionale Beziehung zwischen einer Vielzahl von Objekten gleichzeitig anzuzeigen und zu bestätigen, indem eine Einrichtung zur Änderung von Daten einer Vielzahl gespeicherter dreidimensionaler Formen und zur Anzeige dieser bereitgestellt wird.
  • (3) Hinsichtlich eines Objekts mit einer konkaven Fläche, die nicht bearbeitet werden kann, wenn ein Ebenenerzeugungsverfahren unter Verwendung des Delaunay- Triangulationsnetzes angewendet wird, kann das Objekt mit der konkaven Fläche bearbeitet werden, indem das Objekt als Gruppe einer Vielzahl separater konvexer Objekte betrachtet wird.
  • Da die Texturinformationen als Bild eingegeben werden, ist es daher möglich, eine Texturabbildungsanzeige in drei Dimensionen selbst dann durchzuführen, wenn die Texturinformationen separat eingegeben werden. Wird insbesondere nach der Form eines Objekts als Gruppe einer Vielzahl von Objekten gesucht, sind lediglich die einzelnen Texturinformationen erforderlich, bzw. jedem der Vielzahl der Objekte entsprechende Texturinformationen sind nicht erforderlich.
  • Es ist anzumerken, dass bei dem vorstehend beschriebenen ersten Ausführungsbeispiel als Verfahren zur Erzeugung von Dreiecksflächen die Verwendung von Dreiecken zur Erzeugung einer Ebene gegenwärtig am effektivsten zur Anzeige und Durchführung von Berechnungen auf schnelle Art und Weise ist.
  • Allerdings gibt es Verfahren zur Erzeugung einer Ebene ohne die Verwendung von Dreiecken, und die zu verwendende Form ist nicht auf Dreiecke beschränkt, sondern kann ein Rechteck oder dergleichen sein.
  • Des weiteren wird bei dem ersten Ausführungsbeispiel das Dreiecksnetz auf der Grundlage von Punkten in der zweidimensionalen Ebene eines Bildes erzeugt. Das Dreiecksnetz kann allerdings auch im dreidimensionalen Raum unter Verwendung dreidimensionaler Koordinaten erzeugt werden, die im Schritt S424 erhalten werden. Hinsichtlich eines Verfahrens zur Erzeugung des Dreiecksnetzes unter Verwendung von Punkten dreidimensionaler Koordinaten gibt es ein Verfahren zur Erweiterung des Delaunay-Prinzips bei Punkte mit der geringsten Entfernung zueinander im zwei- oder dreidimensionalen Raum auf den dreidimensionalen Raum, oder das Verfahren kann durch Befolgen anderer Regeln durchgeführt werden.
  • Ferner werden nicht nur dreidimensionale Formen eingegeben, sondern auch gleichzeitig Texturinformationen. Daher ist es von Vorteil, die dreidimensionale Texturabbildungsanzeige durchzuführen. Die dreidimensionale Anzeigeeinrichtung gemäß dem ersten Ausführungsbeispiel führt eine Texturabbildung durch Verarbeiten entweder des rechten oder des linken Bildes als Textur durch.
  • Ausführungsbeispiele der Erfindung können ein System aus einer Vielzahl von Einrichtungen oder ein Gerät aus einer einzelnen Einrichtung umfassen. Des weiteren können Ausführungsbeispiele durch die Zufuhr eines Programms zu einem System oder Gerät erhalten werden.
  • Gemäß dem vorstehend beschriebenen Ausführungsbeispiel kann die Betriebsumgebung während der Extraktion dreidimensionaler Daten aus dem rechten und linken Bild verbessert werden.
  • Die Erfindung ist nicht auf das vorstehend beschriebene Ausführungsbeispiel beschränkt, und es können verschiedene Änderungen und Modifikationen innerhalb des Schutzbereichs der Patentansprüche gemacht werden.

Claims (20)

1. Bildverarbeitungsgerät zur Verarbeitung von Bilddaten, die ein rechtes und linkes Bild eines Stereobildpaars definieren, mit
einer Anzeigesteuereinrichtung (1-2; 1-3; 1-4) zur Erzeugung von Bilddaten zur Anzeige auf einer Anzeigeeinrichtung, bei der das linke Bild des Stereobildpaares in einer ersten Fläche (3-2) der Bildanzeige und das rechte Bild des Stereobildpaares in einer zweiten Fläche (3-3) der Bildanzeige erscheinen wird, und
einer Einrichtung (1-1) zum Empfangen von Eingangssignalen, die eine Vielzahl von Paaren entsprechender Punkte in dem rechten und linken Bild definieren, die in der ersten und zweiten Fläche der Bildanzeige angezeigt werden, wobei zumindest einer der Punkte in jedem Paar einen Punkt umfasst, der von einem Benutzer auf der Bildanzeige unter Verwendung einer Eingabeeinrichtung bestimmt ist,
gekennzeichnet durch
eine Datenerzeugungseinrichtung (1-2; 1-3; 1-4) zur Verarbeitung entsprechender Punkte zur Erzeugung von Daten, die dreidimensionale planare Oberflächen definieren, die Oberflächen eines Objekts in den Stereobildern entsprechen, wobei die Datenerzeugungseinrichtung zur Erzeugung der ersten planaren Oberfläche eingerichtet ist, wenn Signale empfangen wurden, die eine vorbestimmte Anzahl von Paaren entsprechende Punkte definieren, und zur Erzeugung jeder folgenden planaren Oberfläche als Antwort auf den Empfang von Signalen eingerichtet ist, die ein weiteres Paar entsprechender Punkte definieren,
wobei die Anzeigesteuereinrichtung (1-2; 1-3; 1-4) ferner eingerichtet ist
zur Erzeugung von Bilddaten zur Anzeige auf der Anzeigeeinrichtung, bei der ein Bild der durch die Datenerzeugungseinrichtung erzeugten dreidimensionalen planaren Oberflächen in einer dritten Fläche (3-4) der Bildanzeige erscheinen wird, und
zur Aktualisierung der Bilddaten der dreidimensionalen planaren Oberflächen für die dritte Fläche (3-4) immer dann, wenn die Datenerzeugungseinrichtung eine neue dreidimensionale planare Oberfläche beruhen auf entsprechenden in den Eingangssignalen definierten Punkten erzeugt.
2. Gerät nach Anspruch 1, wobei die Größe der dritten Fläche (3-4) geringer als die der ersten Fläche (3-2) und die der zweiten Fläche (3-3) ist.
3. Gerät nach Anspruch 1 oder 2, wobei die Anzeigesteuereinrichtung (1-2; 1-3, 1-4) ferner eingerichtet ist
zur Erzeugung von Bilddaten zur Anzeige in der ersten und zweiten Fläche der Bildanzeige derart, dass die planaren Oberflächen in der ersten und der zweiten Fläche überlagert auf dem linken und rechten Stereobild angezeigt wird, und
zur Aktualisierung der Bilddaten der planaren Oberflächen für die erste und die zweite Fläche immer dann, wenn die Datenerzeugungseinrichtung eine neue planare Oberfläche erzeugt.
4. Gerät nach einem der vorhergehenden Ansprüche, wobei die Datenerzeugungseinrichtung (1-2; 1-3; 1-4)
eine Berechnungseinrichtung zur Berechnung dreidimensionaler Koordinatendaten beruhend auf den in den Eingangsignalen definierten entsprechenden Punkten und
eine Polygonausbildungseinrichtung zur Erzeugung von die dreidimensionalen planaren Oberflächen als Polygone definierenden Daten auf der Grundlage einer Vielzahl von Sätzen der durch die Berechungseinrichtung berechneten dreidimensionalen Koordinatendaten umfasst.
5. Gerät nach Anspruch 4, wobei die Polygone Dreiecke umfassen.
6. Gerät nach einem der vorhergehenden Ansprüche, das ferner zum Empfangen von separate Objekte in den Stereobildern definierenden Signalen und zur Speicherung von die separaten Objekte definierenden Daten eingerichtet ist.
7. Gerät nach Anspruch 6, ferner mit
einer Speichereinrichtung zur Speicherung dreidimensionaler Koordinatendaten jedes Objekts in einer Datei und
einer Leseeinrichtung zum Lesen der gespeicherten dreidimensionalen Koordinatendaten jedes Objekts.
8. Gerät nach Anspruch 6 oder 7, wobei das Gerät zum Ermöglichen einer separaten Auswahl der Objekte für die Anzeige in der ersten und der zweiten Fläche der Bildanzeige eingerichtet ist.
9. Gerät nach einem der Ansprüche 6 bis 8, wobei das Gerät zum Ermöglichen der separaten Auswahl der Objekte für die Eingabe entsprechende Punkte in dem rechten und dem linken Bild eingerichtet ist.
10. Verfahren zur Verarbeitung von Bilddaten, die ein rechtes und ein linkes Bild eines Stereobildpaares definieren, mit den Schritten
Erzeugen von Bilddaten zur Anzeige auf einer Anzeigeeinrichtung, bei der das linke Bild des Stereobildpaars in einer ersten Fläche (3-2) der Bildanzeige und das rechte Bild des Stereobildpaars in einer zweiten Fläche (3-3) der Bildanzeige erscheinen wird, und
Empfangen von Eingangssignalen, die eine Vielzahl von Paaren entsprechender Punkte in dem rechten und dem linken Bild definieren, die in der ersten und der zweiten Fläche der Bildanzeige angezeigt werden, wobei zumindest einer der Punkte in jedem Paar einen Punkt umfasst, der von einem Benutzer auf der Bildanzeige unter Verwendung einer Eingabeeinrichtung bestimmt ist,
gekennzeichnet durch die Schritte
Verarbeiten entsprechender Punkte zur Erzeugung von Daten, die dreidimensionale planare Oberflächen definieren, die Oberflächen eines Objekts in den Stereobildern entsprechen, wobei die erste planare Oberfläche erzeugt wird, wenn eine vorbestimmte Anzahl von Paaren entsprechender Punkte definierende Signale empfangen wurden, und jede folgende planare Oberfläche als Antwort auf den Empfang von Signalen erzeugt wird, die ein weiteres Paar entsprechender Punkte definieren,
Erzeugen von Bilddaten zur Anzeige auf der Anzeigeeinrichtung, bei der ein Bild der in dem Datenerzeugungsschritt erzeugten dreidimensionalen planaren Oberflächen in einer dritten Fläche (3-4) der Bildanzeige erscheinen wird, und
Aktualisieren der Bilddaten der dreidimensionalen planaren Oberflächen für die dritte Fläche (3-4) immer dann, wenn eine neue dreidimensionale planare Oberfläche beruhend auf entsprechenden in den Eingangssignalen definierten Punkten in dem Datenerzeugungsschritt erzeugt wird.
11. Verfahren nach Anspruch 10, wobei die Größe der dritten Fläche (3-4) geringer als die der ersten Fläche (3-2) und die der zweiten Fläche (3-3) ist.
12. Verfahren nach Anspruch 10 oder 11, wobei in dem Anzeigesteuerschritt
Bilddaten zur Anzeige in der ersten und der zweiten Fläche der Bildanzeige derart erzeugt werden, dass die planaren Oberflächen in der ersten und der zweiten Fläche überlagert auf dem linken und dem rechten Stereobild angezeigt werden, und
die Bilddaten der planaren Oberflächen für die erste und die zweite Fläche immer dann aktualisiert werden, wenn eine neue planare Oberfläche in dem Datenerzeugungsschritt erzeugt wird.
13. Verfahren nach einem der Ansprüche 10 bis 12, wobei der Datenerzeugungsschritt
die Berechung dreidimensionaler Koordinatendaten beruhend auf den in den Eingangssignalen definierten entsprechenden Punkten und
die Erzeugung von die dreidimensionalen planaren Oberflächen als Polygone definierenden Daten auf der Grundlage einer Vielzahl von Sätzen der in dem Berechnungsschritt berechneten dreidimensionalen Koordinatendaten umfasst.
14. Verfahren nach Anspruch 13, wobei die Polygone Dreiecke umfassen.
15. Verfahren nach einem der Ansprüche 10 bis 14, wobei separate Objekte in den Stereobildern definierende · Signale empfangen werden und die separaten Objekte definierende Daten gespeichert werden.
16. Verfahren nach Anspruch 15, ferner mit den Schritten
Speichern dreidimensionaler Koordinatendaten jedes Objekts in einer Datei und
Lesen der gespeicherten dreidimensionalen Koordinatendaten jedes Objekts.
17. Verfahren nach Anspruch 15 oder 16, wobei die Objekte' zur Anzeige in der ersten und zweiten Fläche der Bildanzeige separat ausgewählt werden.
18. Verfahren nach einem der Ansprüche 15 bis 17, wobei die Objekte zur Eingabe entsprechender Punkte in dem rechten und linken Bild separat ausgewählt werden.
19. Computerprogramm mit Befehlen, um ein programmierbares Verarbeitungsgerät zur Durchführung eines Verfahrens nach einem der Ansprüche 10 bis 18 betreibbar zu machen.
20. Datenspeichereinrichtung, die ein Computerprogramm nach Anspruch 19 speichert.
DE69522386T 1994-06-24 1995-06-23 Bildverarbeitungsgerät und -verfahren Expired - Lifetime DE69522386T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14279194A JP3486461B2 (ja) 1994-06-24 1994-06-24 画像処理装置及び方法

Publications (2)

Publication Number Publication Date
DE69522386D1 DE69522386D1 (de) 2001-10-04
DE69522386T2 true DE69522386T2 (de) 2002-05-23

Family

ID=15323700

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69522386T Expired - Lifetime DE69522386T2 (de) 1994-06-24 1995-06-23 Bildverarbeitungsgerät und -verfahren

Country Status (4)

Country Link
US (1) US6023276A (de)
EP (1) EP0689167B1 (de)
JP (1) JP3486461B2 (de)
DE (1) DE69522386T2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014084181A1 (ja) * 2012-11-30 2014-06-05 シャープ株式会社 画像計測装置

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7907793B1 (en) 2001-05-04 2011-03-15 Legend Films Inc. Image sequence depth enhancement system and method
US5793372A (en) * 1994-10-21 1998-08-11 Synthonics Incorporated Methods and apparatus for rapidly rendering photo-realistic surfaces on 3-dimensional wire frames automatically using user defined points
JPH1139135A (ja) * 1997-07-22 1999-02-12 Sanyo Electric Co Ltd カーソル表示装置
US6295065B1 (en) * 1997-08-08 2001-09-25 Tetratel Systems Limited Method and apparatus to alternate stereoscopic images in a video display device
JP3376868B2 (ja) * 1997-08-11 2003-02-10 日産自動車株式会社 ナビゲーションシステムの立体地形表示方法、ナビゲーションシステム及び立体地形表示プログラムを記録した媒体
JPH11155152A (ja) * 1997-11-21 1999-06-08 Canon Inc 三次元形状情報入力方法及び装置及び画像入力装置
JP3655083B2 (ja) * 1998-02-25 2005-06-02 富士通株式会社 ロボットの位置決めを行うインタフェース装置
US7116323B2 (en) * 1998-05-27 2006-10-03 In-Three, Inc. Method of hidden surface reconstruction for creating accurate three-dimensional images converted from two-dimensional images
US20050231505A1 (en) * 1998-05-27 2005-10-20 Kaye Michael C Method for creating artifact free three-dimensional images converted from two-dimensional images
US7116324B2 (en) * 1998-05-27 2006-10-03 In-Three, Inc. Method for minimizing visual artifacts converting two-dimensional motion pictures into three-dimensional motion pictures
US6344860B1 (en) * 1998-11-27 2002-02-05 Seriate Solutions, Inc. Methods and apparatus for a stereoscopic graphic user interface
US7408696B2 (en) 2000-03-03 2008-08-05 Sipix Imaging, Inc. Three-dimensional electrophoretic displays
US6753828B2 (en) * 2000-09-25 2004-06-22 Siemens Corporated Research, Inc. System and method for calibrating a stereo optical see-through head-mounted display system for augmented reality
US7053908B2 (en) * 2001-04-12 2006-05-30 Polaroid Corporation Method and apparatus for sensing and interpolating color image data
US8897596B1 (en) 2001-05-04 2014-11-25 Legend3D, Inc. System and method for rapid image sequence depth enhancement with translucent elements
US8401336B2 (en) 2001-05-04 2013-03-19 Legend3D, Inc. System and method for rapid image sequence depth enhancement with augmented computer-generated elements
US9286941B2 (en) 2001-05-04 2016-03-15 Legend3D, Inc. Image sequence enhancement and motion picture project management system
WO2003023511A2 (en) * 2001-09-13 2003-03-20 Sipix Imaging, Inc. Three-dimensional electrophoretic displays
JP3943975B2 (ja) 2002-03-29 2007-07-11 キヤノン株式会社 情報処理方法および装置
JP4152698B2 (ja) * 2002-09-06 2008-09-17 三菱電機株式会社 3次元建物モデルデータ生成装置
US9063633B2 (en) * 2006-03-30 2015-06-23 Arjuna Indraeswaran Rajasingham Virtual navigation system for virtual and real spaces
DE102004007049A1 (de) * 2004-02-13 2005-09-01 Robert Bosch Gmbh Verfahren zur Klassifizierung eines Objekts mit einer Stereokamera
JP4427383B2 (ja) * 2004-04-30 2010-03-03 株式会社トプコン 測定方法及び測定システム
JP4190473B2 (ja) * 2004-08-31 2008-12-03 三洋電機株式会社 立体画像を構成する複数の視点画像の視点位置識別装置
US8135199B2 (en) * 2006-12-19 2012-03-13 Fujifilm Corporation Method and apparatus of using probabilistic atlas for feature removal/positioning
JP4907381B2 (ja) * 2007-02-23 2012-03-28 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー ボリュームデータ対応付け装置および方法
US8571303B2 (en) * 2008-11-25 2013-10-29 Nec System Technologies, Ltd. Stereo matching processing system, stereo matching processing method and recording medium
JP4747214B2 (ja) * 2009-09-17 2011-08-17 パナソニック株式会社 映像信号処理装置、及び、映像信号処理方法
JP5713624B2 (ja) * 2009-11-12 2015-05-07 キヤノン株式会社 三次元計測方法
JP5388921B2 (ja) 2010-03-25 2014-01-15 株式会社東芝 3次元距離計測装置及びその方法
JP5545995B2 (ja) * 2010-08-20 2014-07-09 Necパーソナルコンピュータ株式会社 立体表示装置、その制御方法及びプログラム
US8730232B2 (en) 2011-02-01 2014-05-20 Legend3D, Inc. Director-style based 2D to 3D movie conversion system and method
US9241147B2 (en) 2013-05-01 2016-01-19 Legend3D, Inc. External depth map transformation method for conversion of two-dimensional images to stereoscopic images
US9282321B2 (en) 2011-02-17 2016-03-08 Legend3D, Inc. 3D model multi-reviewer system
US9288476B2 (en) 2011-02-17 2016-03-15 Legend3D, Inc. System and method for real-time depth modification of stereo images of a virtual reality environment
US9407904B2 (en) 2013-05-01 2016-08-02 Legend3D, Inc. Method for creating 3D virtual reality from 2D images
US9007365B2 (en) 2012-11-27 2015-04-14 Legend3D, Inc. Line depth augmentation system and method for conversion of 2D images to 3D images
US9547937B2 (en) 2012-11-30 2017-01-17 Legend3D, Inc. Three-dimensional annotation system and method
US9007404B2 (en) 2013-03-15 2015-04-14 Legend3D, Inc. Tilt-based look around effect image enhancement method
US9438878B2 (en) 2013-05-01 2016-09-06 Legend3D, Inc. Method of converting 2D video to 3D video using 3D object models
US9609307B1 (en) 2015-09-17 2017-03-28 Legend3D, Inc. Method of converting 2D video to 3D video using machine learning
JP7038345B2 (ja) 2017-04-20 2022-03-18 パナソニックIpマネジメント株式会社 カメラパラメタセット算出方法、カメラパラメタセット算出プログラム及びカメラパラメタセット算出装置
JP6840645B2 (ja) * 2017-09-08 2021-03-10 株式会社小松製作所 施工管理装置および施工管理方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5493595A (en) * 1982-02-24 1996-02-20 Schoolman Scientific Corp. Stereoscopically displayed three dimensional medical imaging
EP0197341B1 (de) * 1985-03-13 1993-02-17 Kabushiki Kaisha TOPCON Vorrichtung und Verfahren zur Koordinatenmessung
US4982438A (en) * 1987-06-02 1991-01-01 Hitachi, Ltd. Apparatus and method for recognizing three-dimensional shape of object
US4965840A (en) * 1987-11-27 1990-10-23 State University Of New York Method and apparatus for determining the distances between surface-patches of a three-dimensional spatial scene and a camera system
US4875165A (en) * 1987-11-27 1989-10-17 University Of Chicago Method for determination of 3-D structure in biplane angiography
JPH0766445B2 (ja) * 1988-09-09 1995-07-19 工業技術院長 画像処理方法
US4935810A (en) * 1988-10-26 1990-06-19 Olympus Optical Co., Ltd. Three-dimensional measuring apparatus
US5276613A (en) * 1988-12-14 1994-01-04 Etienne Schlumberger Process and device for coordinating several images of the same object
US5016173A (en) * 1989-04-13 1991-05-14 Vanguard Imaging Ltd. Apparatus and method for monitoring visually accessible surfaces of the body
GB9011922D0 (en) * 1990-05-29 1990-07-18 Europ Vision Syst Centre Machine vision stereo matching
US5633995A (en) * 1991-06-19 1997-05-27 Martin Marietta Corporation Camera system and methods for extracting 3D model of viewed object
JP2953188B2 (ja) 1992-04-24 1999-09-27 日本電気株式会社 半導体装置の製造方法
US5519485A (en) * 1992-07-31 1996-05-21 Kabushiki Kaisha Topcon Stereo image measuring apparatus
JP3054301B2 (ja) * 1993-11-30 2000-06-19 キヤノン株式会社 画像処理方法及び装置
JP2919284B2 (ja) * 1994-02-23 1999-07-12 松下電工株式会社 物体認識方法
US5548694A (en) * 1995-01-31 1996-08-20 Mitsubishi Electric Information Technology Center America, Inc. Collision avoidance system for voxel-based object representation

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014084181A1 (ja) * 2012-11-30 2014-06-05 シャープ株式会社 画像計測装置

Also Published As

Publication number Publication date
JP3486461B2 (ja) 2004-01-13
US6023276A (en) 2000-02-08
EP0689167A1 (de) 1995-12-27
DE69522386D1 (de) 2001-10-04
JPH0816783A (ja) 1996-01-19
EP0689167B1 (de) 2001-08-29

Similar Documents

Publication Publication Date Title
DE69522386T2 (de) Bildverarbeitungsgerät und -verfahren
DE102020000810A1 (de) 3D-Objektrekonstruktion unter Nutzung einer fotometrischen Netzdarstellung
DE69725346T2 (de) Gerät und verfahren zur erzeugung eines blechbiegemodells
DE60008264T2 (de) Datenaustausch zwischen cad-systemen
DE69716877T2 (de) System und Verfahren zur genauen Gradientberechnung für die Texturabbildung in einem Computergraphiksystem
DE102007045834B4 (de) Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
DE3689271T2 (de) Verfahren zur Bildanzeige.
DE10144932B4 (de) Visualisierung von Werkstücken bei der Simulation von Fräsprozessen
DE3854223T2 (de) Erzeugung und Anzeige von Rechnergraphiken.
DE69819950T2 (de) Verfahren und System zur Bildverarbeitung
DE69414784T2 (de) Vorrichtung und Verfahren zur Formmodellierung
DE3608438A1 (de) Verfahren zum berechnen von freien gekruemmten flaechen mittels computergestuetztem design cad und computergestuetzter herstellung cam und numerischer steuerung nc
DE69926986T2 (de) Rechnergrafiken-animationsverfahren und vorrichtung
DE4303071A1 (de) Verfahren und Vorrichtung zur Randbewertung in einer Nicht-Mannigfaltigkeits-Umgebung
DE112008002298B4 (de) Gerät, Verfahren und Programm zur Erzeugung einer Werkzeugbezugsebene
DE19807053A1 (de) Strahltransformationsverfahren für eine schnelle Volumenaufbereitung für eine perspektivische Betrachtung
EP2528042A1 (de) Verfahren und Vorrichtung zum Re-Meshing von 3D-Polygonmodellen
DE69324101T2 (de) Bilddatenverarbeitung
DE69625484T2 (de) Verbesserte Objektmodellerzeugung
DE112010002677T5 (de) Verfahren und vorrichtung zum bestimmen einer formübereinstimmung in drei dimensionen
DE60024514T2 (de) Aufzeichnungsmedium, Verfahren und Einrichtung zur Bildverarbeitung mit integrierten Daten zur Formmodellierung
DE112014002120T5 (de) System und Verfahren zur Durchführung von Operationen zum Rückgängigmachen und Wiederherstellen während der Bearbeitungssimulation
DE19817583B4 (de) Verfahren und System zur Datenverarbeitung für dreidimensionale Objekte
DE102022132137A1 (de) Generieren einer reaktivvideoleinwand
DE112018000951T5 (de) System und Verfahren zum Simulieren der Bearbeitung eines Werkstücks

Legal Events

Date Code Title Description
8364 No opposition during term of opposition