DE69428482T2 - Verfahren und Vorrichtung zur Bildverarbeitung - Google Patents

Verfahren und Vorrichtung zur Bildverarbeitung

Info

Publication number
DE69428482T2
DE69428482T2 DE69428482T DE69428482T DE69428482T2 DE 69428482 T2 DE69428482 T2 DE 69428482T2 DE 69428482 T DE69428482 T DE 69428482T DE 69428482 T DE69428482 T DE 69428482T DE 69428482 T2 DE69428482 T2 DE 69428482T2
Authority
DE
Germany
Prior art keywords
data
image
edge map
polygon
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69428482T
Other languages
English (en)
Other versions
DE69428482D1 (de
Inventor
Toshikazu Ohshima
Shinji Uchiyama
Hiroyuki Yamamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of DE69428482D1 publication Critical patent/DE69428482D1/de
Application granted granted Critical
Publication of DE69428482T2 publication Critical patent/DE69428482T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Verarbeitung von Daten, die ein Radialbereichsbild für ein Objekt definieren, um Polygone definierende Daten zu erzeugen, die der Oberflächenform des Objekts entsprechen.
  • Herkömmlich sind ein Bildverarbeitungsverfahren und ein Bildverarbeitungsgerät verfügbar, bei dem die Oberflächenform eines Objekts nähernde Objektdaten erzeugt werden, indem zuerst zweidimensionale Bereichsbilddaten gemäß der Oberflächenform des Objekts betrachtet von einer gegebenen Perspektive aus erzeugt werden, und dann eine Fläche von Polygonen, die jeweils die gleiche Größe haben, auf einem zweidimensionalen Bereichsbilddatengitter angeordnet werden.
  • Des weiteren gibt es ein Bildverarbeitungsverfahren und eine zugehörige Vorrichtung im Stand der Technik, bei denen Radialbereichsbilddaten, die durch Abtasten der ganzen Form eines Objekts während der Drehung entweder des Objekts oder einer Bilderfassungseinrichtung erhalten werden, anstelle der zweidimensionalen Bereichsbilddaten verwendet werden, wobei Punkte auf einem Radialbereichsbilddatengitter angeordnet sind, wobei vier benachbarte Punkte die Scheitelpunkte eines Quadrats darstellen, und die durch Ziehen einer Geraden zwischen den benachbarten Punkten gebildeten Quadrate die Oberflächenform des Objekts nähern.
  • Allerdings kann im Fall der Verwendung zweidimensionaler Bereichsbilddaten lediglich die Vorderseite eines Objekts verarbeitet werden.
  • Im Fall der Verwendung von Radialbereichsbilddaten werden die Daten durch Zuordnen von Quadratpolygonen, die jeweils die gleiche Größe haben, auf dem Objekt erzeugt. Diese werden auf ein Radialbereichsbilddatengitter verschoben, das die Oberflächenform des Objekts nähert.
  • Hier besteht das Problem, dass es unmöglich ist, die Oberflächenform eines Objekts mit einer hohen Auflösung genau darzustellen, wenn das Objekt eine komplizierte Form hat, und die Anzahl der Polygone aufgrund von Datenspeicherbeschränkungen und der Verarbeitungsgeschwindigkeit gering gehalten werden muss.
  • Bei einer genauen Näherung mit hoher Auflösung sind zu viele Polygone erforderlich. Die Wiedergabe von Objekten mit komplizierten Oberflächenformen wird extrem kostspielig (aufgrund der Kosten der Datenspeicherkapazität) oder äußerst zeitraubend (aufgrund der zur Verarbeitung dieser Menge an Daten erforderlichen Zeit).
  • In der EP-A-0526881 ist eine Vorrichtung zur Umwandlung des Formats eingegebener Daten, die in einem dreidimensionalen Modell definiert sind, und zur Verarbeitung, Anzeige und zum Editieren der umgewandelten Daten offenbart. Auf diese Weise können ein dreidimensionales Modell definierende Daten ungeachtet des Formats der eingegebenen Daten verarbeitet, angezeigt und editiert werden.
  • Die EP-A-0600709 (die nach dem beanspruchten Prioritätstag dieser Erfindung veröffentlicht wurde) offenbart eine Bereichsbildverarbeitungsvorrichtung, die zur Verarbeitung eines eingegebenen Bereichsbildes eines Objekts zur Erzeugung einer Vielzahl von Bereichsbildern mit unterschiedlichen Auflösungen, zur Erzeugung von Normalvektoren und Kantenabbildungen für die erzeugten Bereichsbilder, zum Synthetisieren einer einzelnen Kantenabbildung und zur Erzeugung von die Objektoberflächenform definierenden Polygondaten eingerichtet ist.
  • Die Erfindung wurde in Anbetracht der vorstehend beschriebenen Situation ausgestaltet.
  • Erfindungsgemäß ist eine Vorrichtung gemäß Patentanspruch 1 ausgestaltet.
  • Erfindungsgemäß ist auch ein Verfahren gemäß Patentanspruch 7 ausgestaltet.
  • Erfindungsgemäß ist auch ein Computerprogrammprodukt gemäß Patentanspruch 13 ausgestaltet.
  • Erfindungsgemäß ist ferner ein Computerprogrammprodukt gemäß Patentanspruch 14 ausgestaltet.
  • Die Erfindung wird nachstehend anhand eines Ausführungsbeispiels unter Bezugnahme auf die beiliegende Zeichnung näher beschrieben, wobei gleiche Bezugszeichen gleiche oder ähnliche Abschnitte in den Figuren bezeichnen.
  • Kurzbeschreibung der Zeichnung
  • Die beiliegende Zeichnung, die einen Teil der Beschreibung bildet, veranschaulicht ein Ausführungsbeispiel der Erfindung.
  • Fig. 1 zeigt ein Blockschaltbild des Aufbaus einer Radialbereichsbildverarbeitungsvorrichtung gemäß dem Ausführungsbeispiel der Erfindung.
  • Fig. 2 zeigt eine Blockdarstellung der Radialbereichsbildverarbeitungsstruktur gemäß dem Ausführungsbeispiel.
  • Fig. 3(a) und 3(b) zeigen Darstellung eines Verfahrens zur Erzeugung von Radialbereichsbilddaten, die bei dem Ausführungsbeispiel verwendet werden.
  • Fig. 4 zeigt eine Darstellung eines Beispiels von Radialbereichsbilddaten, die durch Abbildung von Koordinatenwerten in drei Dimensionen, wie in den Fig. 3(a) und 3(b) gezeigt, in einen dreidimensionalen Raum und Projizieren der resultierenden Werte auf eine zweidimensionale Ebene erzeugt wurden.
  • Fig. 5 zeigt eine Darstellung der gleichen Radialbereichsbilddaten wie in Fig. 4, die durch Änderung der in den Fig. 3A und 3B dargestellten Radialbereichsbilddaten in Intensitätsdaten erzeugt wurden, wobei angenommen wird, dass die Radialbereichsbilddaten als zweidimensionales Bild betrachtet werden und die resultierenden Daten auf einem Monitor angezeigt werden.
  • Fig. 6 zeigt das Ergebnis der Ausbildung von Polygonen aus Radialbereichsbilddaten, wie es vorstehend gemäß dem Stand der Technik beschrieben wurde.
  • Fig. 7 zeigt das Ergebnis der Ausbildung von Polygonen aus Radialbereichsbilddaten gemäß dem Ausführungsbeispiel.
  • Fig. 8 zeigt ein Ablaufdiagramm, wie die durch die Verwendung der Radialbereichsbilddaten wie vorstehend beschrieben erzeugten Polygone auf einer Anzeige (das heißt einem Window-System 4 (siehe Fig. 1)) gerendert werden.
  • Fig. 9 zeigt das Ergebnis des Rendering-Vorgangs eines Bildes eines Objekts beruhend auf den erzeugten Polygonen unter Verwendung einer Computergraphikverarbeitung gemäß dem Stand der Technik.
  • Fig. 10 zeigt das Ergebnis des Rendering-Vorgangs eines Bildes eines Objekts beruhend auf den erzeugten Polygonen unter Verwendung einer Computergraphikverarbeitung gemäß dem Ausführungsbeispiel.
  • Fig. 11 zeigt, wie entschieden wird, ob eine Kante vorhanden ist.
  • Fig. 12 zeigt, wie entschieden wird, ob eine Kante vorhanden ist.
  • Fig. 13 zeigt eine Darstellung der Definition von Kettencodes zur Darstellung von Kantenstrukturen.
  • Fig. 14(a) bis 14(c) zeigen, wie inadäquate Kanten korrigiert werden.
  • Fig. 15 zeigt, wie inadäquate Kanten korrigiert werden.
  • Fig. 16(a) bis 16(c) zeigen, wie konvexe Polygone aus einem konkaven Polygon erzeugt werden.
  • Fig. 17 zeigt ein Dreieckspolygondatenformat.
  • Fig. 18(a) und 18(b) zeigen, was ein Dreiecksspaltenproblem ist, und wie es korrigiert wird.
  • Fig. 19 zeigt, wie ein Normalvektor an einem T-förmigen Verbindungspunkt interpoliert wird.
  • Fig. 20 zeigt ein Beispiel eines komplizierteren Polygonnetzes.
  • Fig. 21 zeigt einen gerichteten Graphen gemäß Fig. 20.
  • Ausführliche Beschreibung des bevorzugten Ausführungsbeispiels
  • Nachstehend wird ein bevorzugtes Ausführungsbeispiel der Erfindung unter Bezugnahme auf die beiliegende Zeichnung näher beschrieben.
  • Zuerst wird der Aufbau eines bevorzugten Ausführungsbeispiels in Kürze wie folgt beschrieben.
  • Ein Verfahren zur Bildverarbeitung eines Radialbereichsbildes besteht aus einem Kantenabbildungs- Erzeugungsschritt, bei dem die Kantenabbildungen gemäß Änderungen in der Oberflächenform eines Objekts (in der Höhe) erzeugt werden, einem Synthetisierschritt zum Synthetisieren der Kantenabbildungen in eine Kantenabbildung, und einem Polygonerzeugungsschritt zur Erzeugung von Polygonen zur Darstellung der Oberflächenform eines Objekts in einem Radialbereichsbild anhand der Kantenabbildung und Normalvektoren, die aus dem Radialbereichsbild erfasst werden.
  • Das bevorzugte Ausführungsbeispiel der Erfindung wird nachstehend ausführlich insbesondere unter Bezugnahme auf die Fig. 1 bis 6, Fig. 8 und Fig. 10 beschrieben.
  • Fig. 1 zeigt ein Blockschaltbild des Aufbaus einer Radialbereichsbildverarbeitungsvorrichtung gemäß der Erfindung. Wie es in Fig. 1 gezeigt ist, speichert eine Programmspeichereinrichtung 1 mehrere Programme zur Ausführung der Bildverarbeitung, eine Datenspeichereinrichtung 2 speichert die erforderlichen Informationen für die Bildverarbeitung und Eingangs- /Ausgangsdaten, eine CPU 3 führt die in der Programmspeichereinrichtung 1 gespeicherten Programme aus, ein Window-System 4 zeigt die erforderlichen Informationen und Eingangs-/Ausgangsdaten an, eine Eingabe- /Ausgabeeinrichtung 5 überträgt Daten zu/von extern angeschlossenen Einrichtungen zur Eingabe des Radialbereichsbildes von einer extern angeschlossenen Bilderfassungseinrichtung oder einer Datenbank mit Radialbereichsbildern, usw.., und zur Ausgabe der Polygone als verarbeitetes Ergebnis und der Daten, die verarbeitet wurden, und so weiter, eine Tastatur 6 gibt Daten und Befehle von einem Bediener ein, und eine Zeigeeinrichtung 7 gibt Befehle und Daten auf dem Window-System 4 ein. Programme P1 bis P9 werden in den einzelnen Blöcken der in Fig. 2 gezeigten Blockdarstellung ausgeführt. Die Ergebnisse werden in d1 bis d4 der Datenspeichereinrichtung 2 gespeichert.
  • Ein Radialbereichsbild ist ein Beispiel der Bilddaten zum Aufbau eines Bildes gemäß einem Ursprungsobjekt, das angezeigt werden kann, und durch Abtasten umfänglicher Forminformationen und des Orts eines Objekts erhalten wird, während entweder das Objekt oder die Bilderfassungseinrichtung gedreht wird. Ein Radialbereichsbild stellt Bilddaten dar, die eine Datenstruktur wie ihn den Fig. 3(a) und 3(b) gezeigt haben. Ein Radialbereichsbild wird im zweidimensionalen Speicher in Fig. 3(b) durch die Anordnung von Punkten als Erfassungspunkte auf dem Bereichsbild um eine beliebige Rotationsachse und die Erfassung von diesen Punkten entsprechenden Intensitäten in Bereichsbilddaten gespeichert.
  • Fig. 2 zeigt eine Blockdarstellung eines Bereichsbildverarbeitungsaufbaus gemäß diesem Ausführungsbeispiel.
  • Nachstehend wird die Verarbeitung in jedem Block beschrieben. In Block B210 werden das Lesen von Radialbereichsbilddaten über die Eingabe-/Ausgabeeinheit 5 (siehe Fig. 1) von einer Radialbereichsbilderfassungseinrichtung oder einer Datenbank der Radialbereichsbilder und die Speicherung der resultierenden Bilddaten in einem Radialbereichsbildspeicherabschnitt d1 ausgeführt.
  • In Block B220 wird eine Vielzahl von Radialbereichsbildern mit unterschiedlicher Auflösung, die untereinander verschiedene Auflösungen haben, beruhend auf dem gespeicherten Radialbereichsbild erzeugt, wobei die Auswahl der geeigneten Auflösungen anhand der Oberflächenform des Objekts bestimmt wird. Ein Objekt mit einer komplexen Oberfläche, das durch eine Kombination verschiedener Krümmungen und Oberflächen aufgebaut ist, erfordert im allgemeinen eine Vielzahl von Radialbereichsbildauflösungen. Die Vielzahl von Radialbereichsbildauflösungen wird allgemein derart erzeugt, dass die erste Auflösung eines erfassten Radialbereichsbildes von einem Objekt als die größte betrachtet wird, dieses Bereichsbild dann einer Glättungsverarbeitung unterzogen wird und ein Radialbereichsbild mit geringer Auflösung durch die Ausführung eines Ausdünnvorgangs des resultierenden geglätteten Bereichsbildes ausgebildet wird. Hier werden Radialbereichsbilder mit unterschiedlichen Auflösungen durch Veränderung der örtlichen Reichweite des Glättungsvorgangs und der Ausdünnentfernung derart erzeugt, dass das eingegebene Radialbereichsbild einem Rausch- Beseitigungsvorgang unter Verwendung eines Tiefpassfilters, wie eines Gaußfilters zur Erzeugung einer Vielzahl von Radialbereichsbildauflösungen einschließlich der vorgeschriebenen Krümmungsbereiche unterzogen wird.
  • In Block B230 werden Normalvektoren gemäß jeder Auflösung eines Radialbereichsbildes berechnet und unter der Nummer d2 (siehe Fig. 1) gespeichert. Der Normalvektor wird derart berechnet, dass genäherte Ebenen durch Berechnungen beruhend auf den benachbarten Punkten (beispielsweise der benachbarten 8 Punkte) des Bereichsbildes unter Verwendung des Verfahrens der kleinsten Quadrate erzeugt werden, und dadurch jeder Normalvektor beruhend auf den resultierenden genäherten Ebenen berechnet wird.
  • Ein in Fig. 3(a) gezeigtes Radialbereichsbild ist ein Bild mit Koordinatenwerten (x, y, z), die im Dimensionsspeicher in Fig. 3(b) als zweidimensionale Arraytabelle gespeichert sind. Unter der Annahme, dass die Achse der Abszisse in Fig. 3(b) "u" und die Achse der Ordinate "v" ist, wird dieses (x, y, z) durch Daten mit den Werten jeweils von x, y und z auf dem u-v-Koordinatensystem dargestellt, oder durch Daten dargestellt, die mittels dreier Funktionen jeweils von x(u, v), u(u, v) und z(u, v) festgelegt werden. Die Einheiten von "u" und "v" sind jeweils ganzzahlig.
  • Zur Verringerung der Auflösung dieses Radialbereichsbildes wird das Bereichsbild einer Tiefpassfilterung zur Beseitigung von Hochfrequenzkomponenten (die nicht erforderlichen Oberflächenänderungen zwischen benachbarten Bildelementen entsprechen) unterzogen, und dann ausgedünnt. Dazu dienen beispielsweise Gaußfilter. Es wird ein Gaußfilter verwendet:
  • wobei σf als Parameter entsprechend der benötigten Auflösung bestimmt wird.
  • Zur Ausführung einer Tiefpassfilterung über ein Radialbereichsbild werden Faltungsverarbeitungen zwischen x und g, zwischen y und g und zwischen z und g zum Erhalten von x', y' und z' ausgeführt.
  • x' (u, v) = x (u, v)·g (u, v)
  • y' (u, v) = y (u, v)·g (u, v)
  • z' (u, v) = z (u, v)·g (u, v)
  • Bei einem anderen möglichen Verfahren wird eine zweidimensionale FFT-Verarbeitung von x, y, z und g angewendet, die folgendermaßen ausgedrückt ist:
  • X = F(x), Y = F(y), Z = F(z), G = F(g)
  • Dann wird eine Filterung gemäß den folgenden Ausdrücken durchgeführt:
  • X' = G·X, Y' = G·Y, Z' = G·Z
  • Dann werden das resultierende X', Y' und Z' einer inversen FFT-Verarbeitung zum Erhalten von x', y' und z' unterzogen. Die inversen FFT-Verarbeitungen sind wie folgt ausgedrückt:
  • x' = F 1(X'), Y' = F 1(Y'), z' = F 1(Z')
  • Im Fall eines von Kitamura vorgeschlagenen Bereichsbildes (siehe Proceedings of 23rd Joint conference on Imaging technology; Seiten 267-270) entspricht die Achse der Abszisse und die Achse der Ordinate eines Bildes jeweils den dreidimensionalen Koordinatenwerten x und y, und jeder durch x und y bezeichnete Bildwert sind Daten, die einem z entsprechen, dass heißt, die Daten sind durch z(x, y) ausgedrückt. Hier wird die Tiefpassfilterung beruhend auf dem folgenden Ausdruck ausgeführt:
  • z'(x, Y) = z(x,Y)·g(x, y)
  • Im Block B240 wird eine Kantenabbildung mit einer Vielzahl von Kanten unter Verwendung des Programms P3 (Fig. 1) derart erzeugt, dass eine Vielzahl von Kanten in Abhängigkeit von den resultierenden Normalvektoren und den Radialbereichsbildern unterschiedlicher Auflösungen erzeugt werden, und dann wird diese Vielzahl an Kanten in dem Datenspeicherungsabschnitt d3 in Fig. 1 gespeichert.
  • Einzelheiten, wie die Kanten erzeugt werden und wie entschieden wird, ob Kanten existieren können, wird nachstehend unter Bezugnahme auf Fig. 11 und Fig. 12 beschrieben. Diese Figuren zeigen Beispiele benachbarter Bildpunkte zur Beschreibung einer Grundregel zur Entscheidung, ob Kanten zwischen benachbarten Punkten existieren können. Wie es in den Fig. 11 und 12 gezeigt ist, wird entschieden, dass, wenn ein (nachstehend als "θ" bezeichneter) Winkel zwischen Normalvektoren des Punktes "B" und "C" größer als ein vorgeschriebener Schwellenwert ist, eine Kante (beispielsweise eine. Dachkante), die durch die Linie zwischen den Punkten "A" und "D" veranschaulicht ist, zwischen diesen liegt.
  • Hier wird θ durch den folgenden Ausdruck erhalten:
  • wobei und jeweils Normalvektoren der Punkte "B" und "C" bezeichnen.
  • Nachstehend wird das Datenformat der Kantenabbildung unter Bezugnahme auf Fig. 13 beschrieben. Fig. 13 zeigt den Aufbau acht benachbarter Punkte in Relation zu dem Mittenpunkt in hellem Schwarz, wobei jedem der acht benachbarten Punkte ein Nummernkode zugeordnet ist, der durch eine Dezimalzahl (oder durch die Binärzahlen) beruhend auf der Richtung vom Mittenpunkt zu jedem der acht benachbarten Punkte dargestellt ist. Wird entschieden, dass eine Kante zwischen zwei Punkten vorhanden ist, wird einer der vorstehend beschriebenen Nummernkodes, der zu gegenüberliegenden Punkten über diese Kante geht, an jedem Punkt gespeichert. Gibt es mehrere konkurrierende Kanten an einem Punkt, werden die entsprechenden Nummernkodes in einen synthetisierten Nummernkode Oder-verknüpft, der an dem entsprechenden Punkt gespeichert wird. Daher können alle Kombinationen der Kanten mittels Byte-Daten bzw. 8- Bit-Daten dargestellt werden.
  • Bezüglich der unvermeidbaren Verbindung eines Radialbereichsbildes zwischen 0º und 360º in θ, wie es in Fig. 3(b) gezeigt ist, wird angenommen, dass 0º und 360º an der Verbindung nebeneinander liegen, und werden daher wie die anderen Abschnitte verarbeitet.
  • In Block B250 werden die Kantenabbildungen aller Auflösungsarten Oder-verknüpft, um eine synthetisierte Abbildung durch die Ausführung des P4-Programms (siehe Fig. 1) auszubilden. Die synthetisierte Abbildung wird der Korrektur von Kreuzungskanten, die hier als unmögliche Kanten betrachtet werden, und isolierten Kanten unterzogen. Insbesondere wird ein Kantenabschnitt des Radialbereichsbildes auch aufeinanderfolgend synthetisiert und korrigiert, da beide Arraykanten des Radialbereichsbildes verbunden sind. Infolgedessen wird eine Kantenabbildung mit unterschiedlichen Dichten gemäß der Änderung der Oberflächenform eines Objekts erhalten. Die resultierenden Polygondaten aus der Kantenabbildung werden in dem Datenspeicherungsabschnitt d4 in Fig. 1 gespeichert.
  • Ein Verfahren zur Korrektur inadäquater Kanten (falls sie Kreuzungskanten, isolierte Kanten usw. enthalten) wird nachstehend unter Bezugnahme auf die Fig. 14(a) bis 14(c) und Fig. 15 beschrieben.
  • Das Verfahren besteht aus vier Hauptverarbeitungsschritten, wobei der erste Schritt der Synthetisierung dieser Kantenabbildungen derart dient, dass entsprechende Scheitelpunkte zwischen den Kantenabbildungen in den Fig. 14(a) und 14(b) ausgerichtet werden, der zweite Abschnitt der Korrektur von Kreuzungskanten dient, der dritte Abschnitt dem Eliminieren isolierter Kanten dient, und der letzte Schritt der Verlängerung diskontinuierlicher Kanten dient.
  • Nach der Ausführung des ersten Schritts werden, wenn Kreuzungskanten in der resultierenden synthetisierten Kantenabbildung gefunden werden, diese Kreuzungskanten im zweiten Schritt verarbeitet.
  • Im zweiten Schritt werden diese Kreuzungskanten einer Korrektur derart unterzogen, dass die Kante mit höherer Auflösung die höhere Priorität zur Beseitigung von Kanten mit geringerer Auflösung hat. Gemäß Fig. 14(c) wurden die zwei gestrichelten Linien als innere Kreuzungskanten eliminiert.
  • Enthält die in dem zweiten Schritt verarbeitete resultierende Kantenabbildung diskontinuierliche Kanten, werden diese Kanten im dritten Schritt daraufhin überprüft, ob die folgenden Restriktionen erfüllt sind oder nicht. Sind sie erfüllt, wird die entsprechende Kante einem Beseitigungsvorgang unterzogen. Die Restriktionen sind folgende:
  • A. Gibt es isolierte Kanten mit einer Länge geringer als dem vorgeschriebenen Schwellenwert, werden diese beseitigt.
  • B. Gibt es Kanten, die in einer offenen Spitze resultieren, und von einer Länge geringer als der vorgeschriebene Schwellenwert sind, werden diese beseitigt.
  • Gibt es Kanten, die in einer offenen Spitze resultieren, und eine Länge größer als der vorgeschriebene Schwellenwert haben, werden diese resultierenden Kanten im letzten Schritt in der Richtung der offenen Spitze verlängert und eine andere Kante oder Spitze wird getroffen.
  • Die Fig. 14(a) und 14(b) zeigen jeweils eine Kantenabbildung mit niedrigerer Auflösung und eine Kantenabbildung mit höherer Kantenauflösung. Fig. 14(c) zeigt das korrigierte Ergebnis dieser Kantenabbildungen.
  • Fig. 15 zeigt das resultierende Beispiel der vorstehend angeführten Beseitigungs- und/oder Verlängerungsprozesse.
  • Da die vorstehend beschriebene Kantenabbildung eine Vielzahl von Polygonen enthält, wird im Block B260 jedes Polygon in eine Vielzahl von Dreiecken durch Ausführen des Programms PS (siehe Fig. 1) unterteilt. Diese Unterteilungsschritte werden unter Bezugnahme auf die Fig. 16(a) bis 16(c) näher beschrieben.
  • Im ersten Schritt wird gemäß Fig. 16(a) das Kantenabbildungsbild zum Suchen nach den Spitzen der Kanten abgetastet, und wird eine der Kantenspitzen ausgemacht, beispielsweise T1 in Fig. 16A, wird diese als erster entdeckter Punkt betrachtet. Unter Verwendung dieses entdeckten Punktes als Startpunkt der Verarbeitung wird die Kante im Uhrzeigersinn zur Erzeugung von Kettenkodes entsprechend der Kantenverfolgungsrichtung unter Verwendung der in Fig. 13 definierten Kodes verfolgt. Die resultierenden Kettenkodes stellen geschlossene Polygonformen dar. Unter Verwendung dieser kann leicht festgestellt werden, welche Sorte Form ein Teil einer Kante hat, das heißt, ob es sich um eine gerade, um eine rechtsgekrümmte oder linksgekrümmte Form handelt.
  • Im zweiten Schritt wird der Vorgang zum Auffinden konkaver Konturen beruhend auf den resultierenden Kettenkodes ausgeführt. In Fig. 16A stellen die zwei kleinen Kreise Minimumpunkte in konkaven Formen dar, wie sie beispielsweise mittels des vorstehend angeführten Vorgangs gefunden werden.
  • Im dritten Schritt werden zur Unterteilung des Polygons (einschließlich konkaver Formen) in mehrere konvexe Polygone an den Minimumpunkten Halbierende der stumpfen Winkel um diese Minimumpunkte in einer Linie mit einem Punkt auf einer anderen Kante des Polygons in einer Reihe aufgestellt. Ein Beispiel der aufgestellten Winkelhalbierenden ist in Fig. 16(b) gezeigt, wo eine Winkelhalbierende von einem Minimumpunkt aufgestellt wird.
  • Fig. 16(c) zeigt die Aufstellung einer anderen Winkelhalbierenden des stumpfen Winkels um den anderen Minimumpunkt auf die gleiche Weise wie vorstehend beschrieben.
  • Da ein konkave Formen enthaltendes Polygon in lediglich konvexe Polygone unterteilt wurde, werden diese konvexen Polygone im letzten Schritt einer Einteilung in Dreiecke auf eine Weise unterzogen, dass ein Scheitelpunkt aus einem Polygon ausgewählt und Linien zwischen dem ausgewählten Scheitelpunkt und den anderen Scheitelpunkten zur Unterteilung in mehrere Dreiecke aufgestellt werden. Bei den vorstehend beschriebenen Schritten wurde angenommen, dass beide Seiten von 0º und 360º kontinuierlich sind.
  • Da jedes der im Block B260 erzeugten Dreieckpolygone lediglich zweidimensionale Daten mit drei Koordinatenwerten für die Scheitelpunkte jedes Dreiecks und jeweils Verbindungsdaten zwischen benachbarten Scheitelpunkten eines Dreiecks sind, ist es erforderlich, in Block B270 dreidimensionale Koordinatenwerte und den in Block B230 erzeugten Normalvektor jeweils jedem Scheitelpunkt und der entsprechenden Dreiecksebene zuzuordnen. Diese zugeordneten Daten werden hier "dreidimensionale Polygondaten" genannt. Hier werden die dreidimensionalen Koordinatenwerte aus den Radialbereichsbilddaten in Block B210 entnommen, und die Normalvektoren werden denen im Block B230 entnommen. Fig. 17 zeigt ein Beispiel des dreidimensionalen Polygondatenformats als Ergebnis dieser Blockverarbeitung. Die dreidimensionalen Polygondaten werden in d4 der Datenspeichereinrichtung (siehe Fig. 1) gespeichert. Diese Blockverarbeitung wird durch das Programm P6 ausgeführt.
  • Die dreidimensionalen Polygondaten enthalten eine Anzahl von Scheitelpunkten, Scheitelpunktdaten, eine Anzahl an Dreieckpolygonen und Scheitelpunktverbindungsdaten zwischen benachbarten Scheitelpunkten. Die Scheitelpunktdaten enthalten dreidimensionale Koordinatenwerte jeweils von x-, y- und z-Koordinaten, die sich in den Zeilen beginnend mit "v" in Fig. 17 befinden, und einen durch x-, y- und z- Komponenten dargestellten Normalvektor, die sich in den mit "n" in Fig. 17 beginnenden Zeilen befinden. Die Scheitelpunktdaten sind jeweils von 1 in inkrementaler Reihenfolge implizit nummeriert. Die Verbindungsdaten enthalten drei implizite Scheitelpunktnummern. Die Reihenfolge der Verbindungsdaten ist im Uhrzeigersinn zu den Scheitelpunkten eines Dreieckpolygons.
  • Da im Block B280 ein Problem mit einer T-Form bei Polygonen wie nachstehend ausführlich beschrieben vorhanden sein kann, löst dieser Block die Probleme durch die Ausführung des Programms P7 (siehe Fig. 1).
  • Dieses Problem wird unter Bezugnahme auf die Fig. 18(a) und 18(b) beschrieben. Wie es vorstehend beschrieben wurde, bestehen die resultierenden Dreieckpolygone aus Bilddaten mit unterschiedlicher Auflösung. Daher kann ein T-förmiger Punkt eventuell nicht auf einer durchgehenden Linie liegen. Die Fig. 18(a) und 18(b) zeigen das Problem an einem T- förmigen Punkt, wobei der Punkt C nicht auf der Gerade AB in dreidimensionalen Koordinaten liegt, selbst wenn der Punkt C auf der Gerade AB in zweidimensionalen Koordinaten liegt. In dreidimensionalen Koordinaten existiert möglicherweise ein unnötiger Dreiecksspalt bzw. das Dreieck ABC in Fig. 18A.
  • Daher werden in diesem Block mehrere Schritte zur Beseitigung unnötiger Dreieckspalte ausgeführt. Jeder Schritt wird nachstehend unter Bezugnahme auf Fig. 18(b) beschrieben.
  • Im ersten Schritt wird ein Punkt C' auf der Gerade AB zur Erfüllung des folgenden Ausdrucks eingestellt:
  • AC : CB = AC' : C'B
  • Im zweiten Schritt wird der Punkt C auf den Punkt C' zur Beseitigung des Dreieckspalts bewegt.
  • Im dritten Schritt wird ein Normalvektor am Punkt C' zum Rendern des entsprechenden Bildes auf einem beliebigen Bildausbildungsgerät unter Verwendung einer beliebigen Computergraphik berechnet.
  • Fig. 17 zeigt, wie der Normalvektor erhalten wird. Der Normalvektor am Punkt C' wird durch lineares Interpolieren der Normalvektoren am Punkt A und B wie in Fig. 19 gezeigt erhalten. Der Ausdruck zur Interpolation ist folgender:
  • Dann wird das interpolierte NC' einer Normalisierung unterzogen.
  • Fig. 20 zeigt ein Beispiel eines komplizierteren Polygonnetzes, bei dem ein Verbindungspunkt in einer T-Form mit einem Verbindungspunkt in einer anderen T-Form verbunden ist, was in einer komplizierten Objektform auftreten kann. Mit dem Polygonnetz in Fig. 20 in dreidimensionalen Koordinaten sind die gleichen Probleme wie mit dem vorstehend beschriebenen Dreiecksspalt verbunden, wobei ein Spalt zwischen den Punkten A und C existieren kann. Zur Beseitigung dieses Spalts ist eine C- Interpolation vor der Ausführung einer A-Interpolation erforderlich.
  • Fig. 21 zeigt einen gerichteten Graphen, der die Verbindungsbeziehung in Fig. 20 darstellt. Gemäß Fig. 21 zur Interpolation der T-Form-Verbindungspunkte ist ersichtlich, dass zuerst C sowohl aus E und D erhalten wird, und dann A sowohl aus dem erhaltenen C als auch aus B erhalten wird.
  • Bei einer tatsächlichen Interpolation der T-Form- Verbindungspunkte werden die folgenden Schritte ausgeführt.
  • Schritt 1: Sind beide Spitzen einer Linie, die einen eine Interpolation erfordernden Punkt
  • enthält, kein T-Form-Verbindungspunkt, wird dieser Punkt aus den Spitzen interpoliert.
  • Schritt 2: Oder die gleiche Verarbeitung wie gerade beschrieben wird rekursiv ausgeführt. Dies ist ein Vorgang zum Erhalten einer Antwort, während rekursiv nach Binärbäumen gesucht wird.
  • Durch die Ausführung jedes Funktionsblocks wie vorstehend beschrieben wird eine Anzahl von Dreieckpolygonen erzeugt, die eine Ursprungsobjektform darstellen.
  • Die Fig. 4 und 5 zeigen ein Beispiel eines Radialbereichsbildes auf unterschiedliche Weise, was die Funktionsfähigkeit dieses bevorzugten Ausführungsbeispiels beweisen soll.
  • Fig. 4 zeigt ein auf einer zweidimensionalen Ebene rekonstruiertes Reflexionsbild, das derart rekonstruiert ist, dass die dreidimensionalen Koordinatenwerte des in Fig. 3(a) dargestellten Radialbereichsbildes als Punkte in einem dreidimensionalen Raum platziert sind, und diese Punkte auf die zweidimensionale Ebene reflektiert werden, und das reflektierte Bild angezeigt wird.
  • Fig. 5 zeigt ein in einer zweidimensionalen Ebene rekonstruiertes Tiefenbild, das als Intensitätsdaten proportional zu den jeweiligen Radialbereichsbilddaten in Fig. 3(b) dargestellt ist.
  • Fig. 6 zeigt ein rekonstruiertes Bild beruhend auf quadratischen Polygonen, die derart erzeugt werden, dass das Radialbereichsbild in eine Anzahl von Quadraten jeweils mit gleicher Größe unterteilt wird.
  • Fig. 7 zeigt ein rekonstruiertes Bild eines Radialbereichsbildes beruhend auf diesem bevorzugten Ausführungsbeispiel, wobei dieses rekonstruierte Bild aus einer Anzahl von Dreieckpolygonen ausgebildet ist.
  • Betrachtet man die in Fig. 7 dargestellten Polygone, ist ersichtlich, dass das Radialbereichsbild mit viel weniger Polygonen verglichen mit den gleichen Quadraten beruhend auf dem Stand der Technik dargestellt wird, und das rekonstruierte Bild unter Verwendung dieses bevorzugten Ausführungsbeispiels eine hohe Genauigkeitsannäherung an die zu rekonstruierende und anzuzeigende Ursprungsobjektform behält.
  • Fig. 8 zeigt ein Ablaufdiagram der Verarbeitungsschritte zum Rendern der unter Verwendung dieses bevorzugten Ausführungsbeispiels erzeugten Polygone zur Rekonstruktion einer Ursprungsobjektform. Diese Verarbeitung wird unter Verwendung des Computergraphikprogramms P9 (siehe Fig. 1) ausgeführt.
  • Wie es vorstehend unter Bezugnahme auf Fig. 17 angeführt ist, enthalten die resultierenden Dreieckpolygondaten dreidimensionale Koordinatenwerte von jeweils drei Scheitelpunkten, einen Normalvektor und Scheitelpunktverbindungsdaten. Derartige Polygondaten können leicht auf eine zweidimensionale Projektionsebene reflektiert und auf einer Anzeige unter Verwendung einer herkömmlichen Computergraphiksoftware gerendert werden.
  • Nachstehend sind Beispielschritte eines Rendering-Vorgangs der Polygone auf einer Anzeige (beispielsweise dem Window- System 4 in Fig. 1) beschrieben.
  • In Schritt S80 wird ein Polygon aus den Polygonen ausgewählt.
  • In Schritt S81 werden alle Polygonscheitelpunkte in zweidimensionale Polygondaten auf einer zweidimensionalen Projektionsebene geändert.
  • In Schritt S82 wird überprüft, ob Bildabschnitte des zweidimensionalen Polygons durch eine andere Ebene oder andere Polygone verborgen sind. Dann wird auf Schritt S83 übergegangen, wo eine einem zweidimensionalen Polygon zuzuordnende Farbe beruhend auf Lichtquellendaten, einem Normalvektor usw. berechnet wird, und diese berechnete Farbe wird dem Polygon zugeordnet und auf einer Anzeige (das heißt dem Window-System 4; siehe Fig. 1) außer für die verborgenen Bildabschnitte gerendert.
  • In Schritt S84 wird überprüft, ob alle Polygone verarbeitet wurden, und wenn nicht, kehrt der Prozess zu Schritt S80 zurück und die gleiche Verarbeitung wird für das nächste Polygon wiederholt. Wurden alle Polygone verarbeitet, ist diese Rendering-Verarbeitung abgeschlossen.
  • Fig. 9 zeigt das Ergebnis der Rendering-Verarbeitung eines Bildes eines Objekts beruhend auf den erzeugten quadratischen Polygonen mit jeweils dergleichen Größe unter Verwendung einer Computergraphikverarbeitung.
  • Fig. 10 zeigt das Ergebnis des Rendering-Vorgangs eines Bildes eines Objekts beruhend auf den erzeugten einzelnen Dreieckpolygonen gemäß diesem bevorzugten Ausführungsbeispiel unter Verwendung einer Computergraphikverarbeitung.
  • Werden die Fig. 9 und 10 verglichen, ist ersichtlich, dass das Verfahren, bei dem durch dieses Ausführungsbeispiel erzeugte Polygone verwendet werden, woraus sich Fig. 10 ergibt, die gleiche Qualität wie das herkömmlich erzeugte bezüglich der Näherungsrate der entsprechenden Ursprungsoberflächenform eines Objekts hat, obwohl die Anzahl der Polygone reduziert ist.
  • Es gibt ferner ein anderes Bildverarbeitungsverfahren und ein zugehöriges Gerät im Stand der Technik, bei dem Radialbereichsbilddaten anstelle der zweidimensionalen Bereichsbilddaten verwendet werden, wobei Punkte auf einem Radialbereichsbilddatengitter angeordnet sind, und vier benachbarte Punkte die Scheitelpunkte eines Quadrats darstellen, und die durch Ziehen einer geraden Linie zwischen den benachbarten Punkten ausgebildeten Quadrate die Form des Objekts nähern.
  • Somit kann gemäß dem vorstehend beschriebenen Ausführungsbeispiel unter Beibehaltung der Bildrekonstruktionsqualität die Anzahl der Polygone sehr verringert werden. Infolgedessen kann die zur Erzeugung der Polygone gemäß einer Ursprungsobjektform und Rekonstruktion eines Bildes aus den Polygonen benötigte Zeit verringert werden.
  • Es können viele verschiedene Ausführungsbeispiele der Erfindung ausgebildet werden, und die Erfindung ist nicht auf die vorstehend beschriebenen bestimmten Ausführungsbeispiele beschränkt.

Claims (15)

1. Bildverarbeitungsvorrichtung (1, 2, 3) zur Verarbeitung von Daten, die ein Radialbereichsbild eines Objekts definieren, um Polygone definierende Daten zu erzeugen, die die Form der Objektoberfläche nähern, mit
einer Eingabeeinrichtung (5) zum Empfangen von Daten, die ein eingegebenes Radialbereichsbild eines Objekts definieren, das einen Entfernungswert von Punkten auf der Objektoberfläche definierende Daten umfasst, die bezüglich einer Rotationsachse durch Winkel und Länge indiziert sind,
einer Erzeugungseinrichtung (p1, 3) zur Erzeugung von Daten, die weitere Radialbereichsbilder definieren, die jeweils unterschiedliche Auflösungen haben, beruhend auf dem eingegebenen Radialbereichsbild,
einer Berechnungseinrichtung (p2, 3) zur Berechnung eines Normalvektors für jeweilige Teile jedes der weiteren Radialbereichsbilder,
einer Kantenabbildungs-Berechnungseinrichtung (p3, 3) zur Erzeugung von Daten, die jeweilige Kantenabbildungen für die weiteren Radialbereichsbilder definieren, wobei die Kantenabbildungs-Berechnungseinrichtung zur Erzeugung der Daten für jede Kantenabbildung beruhend auf den durch die Berechnungseinrichtung berechneten Normalvektoren eingerichtet ist,
einer Synthetisiereinrichtung (p4, 3) zum Synthetisieren der durch die Kantenabbildungs-Berechnungseinrichtung erzeugten Kantenabbildungen in eine synthetisierte Kantenabbildung und
einer Polygondatenerzeugungseinrichtung (p5, p6, 3) zur Erzeugung von die Objektform darstellenden Polygondaten in Abhängigkeit von der synthetisierten Kantenabbildung.
2. Vorrichtung nach Anspruch 1, wobei die Erzeugungseinrichtung (p1, 3) zur Erzeugung des weiteren Radialbereichsbildes durch Eliminieren von Hochfrequenzkomponenten und Ausdünnen des eingegebenen Radialbereichsbildes eingerichtet ist.
3. Vorrichtung nach Anspruch 1 oder 2, wobei die Berechnungseinrichtung (p2, 3) zur Berechnung des Normalvektors beruhend auf einer Ebene eingerichtet ist, die einen Teil der Objektoberfläche nähert, wobei die Ebene beruhend auf benachbarten Punkten in dem weiteren Radialbereichsbild identifiziert wird.
4. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die Synthetisiereinrichtung (p4, 3) eine Einrichtung zur Oderverknüpfung von Kantenabbildungen von der Kantenabbildungs- Berechnungseinrichtung in eine Oder-verknüpfte Kantenabbildung und eine Einrichtung zur Korrektur von sich kreuzenden Kanten in der Oder-verknüpften Kantenabbildung umfasst.
5. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die Polygondatenerzeugungseinrichtung (p5, p6, 3) zur Erzeugung von Dreiecke definierenden Daten eingerichtet ist, indem ein Polygon, das mit durch die Synthetisiereinrichtung erzeugten Kanten umschlossen ist, in Dreiecke eingeteilt wird.
6. Vorrichtung nach Anspruch 5, wobei die Polygondatenerzeugungseinrichtung (p5, p6, 3) ferner eine Einrichtung (p7, 3) zum Füllen von Spalten zwischen den Dreiecken umfasst.
7. Verfahren zur Verarbeitung von Daten, die ein Radialbereichsbild eines Objekts definieren, um Polygone definierende Daten zu erzeugen, die die Form der Objektoberfläche nähern, mit
einem Empfangsschritt zum Empfangen von Daten, die ein eingegebenes Radialbereichsbild eines Objekts definieren, das einen Entfernungswert von Punkten auf der Objektoberfläche definierende Daten umfasst, die bezüglich einer Rotationsachse durch Winkel und Länge indiziert sind,
einem Erzeugungsschritt zur Erzeugung von Daten, die weitere Radialbereichsbilder definieren, die jeweils unterschiedliche Auflösungen haben, beruhend auf dem eingegebenen Radialbereichsbild,
einem Berechnungsschritt zur Berechnung eines Normalvektors für jeweilige Teile jedes der weiteren Radialbereichsbilder,
einem Kantenabbildungs-Berechnungsschritt zur Erzeugung von Daten, die jeweilige Kantenabbildungen für die weiteren Radialbereichsbilder definieren, wobei die Daten für jede Kantenabbildung beruhend auf den berechneten Normalvektoren erzeugt werden,
einem Synthetisierschritt zum Synthetisieren der in dem Kantenabbildungs-Berechnungsschritt erzeugten Kantenabbildungen in eine synthetisierte Kantenabbildung und
einem Polygondatenerzeugungsschritt zur Erzeugung von die Objektform darstellenden Polygondaten in Abhängigkeit von der synthetisierten Kantenabbildung.
8. Verfahren nach Anspruch 7, wobei das weitere Radialbereichsbild in dem Erzeugungsschritt durch Eliminieren von Hochfrequenzkomponenten und Ausdünnen des eingegebenen Radialbereichsbildes erzeugt wird.
9. Verfahren nach Anspruch 7 oder 8, wobei der Normalvektor in dem Berechnungsschritt beruhend auf einer Ebene berechnet wird, die einen Teil der Objektoberfläche nähert, wobei die Ebene beruhend auf benachbarten Punkten in dem weiteren Radialbereichsbild identifiziert wird.
10. Verfahren nach einem der Ansprüche 7 bis 9, wobei die Kantenabbildungen von dem Kantenabbildungs-Berechnungsschritt in dem synthetisiert in eine Oder-verknüpfte Kantenabbildung oder-verknüpft werden, und sich kreuzende Kanten in der Oder-verknüptten Kantenabbildung korrigiert werden.
11. Verfahren nach einem der Ansprüche 7 bis 10, wobei Dreiecke definierende Daten in dem Polygondatenerzeugungsschritt erzeugt werden, indem ein Polygon, das mit in dem Synthetisierschritt erzeugten Kanten umschlossen ist, in Dreiecke eingeteilt wird.
12. Verfahren nach Anspruch 11, wobei in dem Polygondatenerzeugungsschritt Spalten zwischen den Dreiecken gefüllt werden.
13. Computerprogrammprodukt mit Befehlen zum Bewirken einer Konfiguration einer programmierbaren Verarbeitungsvorrichtung als Vorrichtung nach einem der Ansprüche 1 bis 6.
14. Computerprogrammprodukt mit Befehlen zum Bewirken einer Befähigung einer programmierbaren Verarbeitungsvorrichtung zur Ausführung eines Verfahrens nach einem der Ansprüche 7 bis 12.
15. Computerprogrammprodukt nach Anspruch 13 oder 14, ausgestaltet als in einer Datenspeichereinrichtung gespeicherte Daten.
DE69428482T 1993-06-29 1994-06-28 Verfahren und Vorrichtung zur Bildverarbeitung Expired - Lifetime DE69428482T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15954993A JP3466661B2 (ja) 1993-06-29 1993-06-29 画像処理装置及びその方法

Publications (2)

Publication Number Publication Date
DE69428482D1 DE69428482D1 (de) 2001-11-08
DE69428482T2 true DE69428482T2 (de) 2002-05-16

Family

ID=15696176

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69428482T Expired - Lifetime DE69428482T2 (de) 1993-06-29 1994-06-28 Verfahren und Vorrichtung zur Bildverarbeitung

Country Status (4)

Country Link
US (1) US5621827A (de)
EP (1) EP0633550B1 (de)
JP (1) JP3466661B2 (de)
DE (1) DE69428482T2 (de)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3785700B2 (ja) 1995-12-18 2006-06-14 ソニー株式会社 近似化方法および装置
JP3392628B2 (ja) * 1996-03-29 2003-03-31 富士通株式会社 輪郭抽出方法及びシステム
JP3602659B2 (ja) * 1996-08-05 2004-12-15 株式会社リコー 濃淡値文書画像からの特徴抽出方法及び特徴抽出装置
JPH10134208A (ja) 1996-10-31 1998-05-22 Sony Corp 形状データの近似化方法及び描画装置
JP3785709B2 (ja) * 1996-12-13 2006-06-14 ソニー株式会社 形状データの近似化方法及び描画装置
US5978504A (en) * 1997-02-19 1999-11-02 Carnegie Mellon University Fast planar segmentation of range data for mobile robots
WO1998039923A1 (en) * 1997-03-06 1998-09-11 Matsushita Electric Industrial Co., Ltd. Pure red color detection circuit and color compensation circuit using the same
USRE38413E1 (en) * 1997-03-06 2004-02-03 Matsushita Electric Industrial Co. Ltd. Pure red color detection circuit and color compensation circuit using the same
GB2327024A (en) * 1997-06-30 1999-01-06 Daewoo Electronics Co Ltd Deriving a Polyhedral Approximation of a Range Image
US6647146B1 (en) 1997-08-05 2003-11-11 Canon Kabushiki Kaisha Image processing apparatus
JP2000067270A (ja) 1998-06-12 2000-03-03 Sony Corp 形状デ―タの近似化方法及び情報処理装置並びに媒体
KR100346787B1 (ko) * 1999-06-17 2002-08-01 한국전자통신연구원 다계조 폴리곤 그래픽 모델 생성 및 저장방법
US6441816B1 (en) * 1999-12-29 2002-08-27 Intel Corporation Method for modeling and rendering complex surfaces using local height maps
US6959113B2 (en) * 2000-09-29 2005-10-25 Pentax Corporation Arbitrary-shape image-processing device and arbitrary-shape image-reproducing device
GB2400780B (en) * 2003-04-17 2006-07-12 Research In Motion Ltd System and method of converting edge record based graphics to polygon based graphics
DE10345081A1 (de) * 2003-09-26 2005-05-19 Peguform Gmbh & Co. Kg Verfahren zur Bearbeitung einer dreidimensionalen Oberfläche
DE10345080A1 (de) * 2003-09-26 2005-05-12 Peguform Gmbh Verfahren und Vorrichtung zur schichtabtragenden 3-dimensionalen Materialbearbeitung
JP4298672B2 (ja) * 2005-04-11 2009-07-22 キヤノン株式会社 混合分布hmmの状態の出力確率計算方法および装置
US8265425B2 (en) * 2008-05-20 2012-09-11 Honda Motor Co., Ltd. Rectangular table detection using hybrid RGB and depth camera sensors
JP5603720B2 (ja) * 2010-09-13 2014-10-08 新日本工機株式会社 検査画像の生成方法、それを用いた画像検査方法、並びに外観検査装置
CN101957175B (zh) * 2010-09-14 2012-03-28 西安交通大学 基于三点微平面式法向检测方法
EP3413267B1 (de) 2016-02-05 2023-06-28 Ricoh Company, Ltd. Objektdetektionsvorrichtung, vorrichtungssteuerungssystem, objektdetektionsverfahren und programm
CN105825499A (zh) * 2016-03-09 2016-08-03 京东方科技集团股份有限公司 基准平面的确定方法和确定系统
US10872473B2 (en) 2017-05-09 2020-12-22 Microsoft Technology Licensing, Llc Edge welding of geometries having differing resolutions
CN107292956B (zh) * 2017-07-12 2020-09-22 杭州电子科技大学 一种基于曼哈顿假设的场景重建方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5369737A (en) * 1988-03-21 1994-11-29 Digital Equipment Corporation Normalization of vectors associated with a display pixels of computer generated images
JP2781914B2 (ja) * 1988-12-09 1998-07-30 日本アイデント・グラフ株式会社 連続立体撮影観察装置
JPH03125585A (ja) * 1989-10-11 1991-05-28 Mitsubishi Electric Corp 画像信号の符号復号化器
JP2800404B2 (ja) * 1990-11-20 1998-09-21 ダイキン工業株式会社 多角形分割方法およびその装置
US5319744A (en) * 1991-04-03 1994-06-07 General Electric Company Polygon fragmentation method of distortion correction in computer image generating systems
EP0526881B1 (de) * 1991-08-06 2002-02-06 Canon Kabushiki Kaisha Dreidimensionales Modellverarbeitungsverfahren und -gerät
EP0600709B1 (de) * 1992-12-01 2000-03-29 Canon Kabushiki Kaisha Entfernungbildverarbeitungsvorrichtung und -verfahren

Also Published As

Publication number Publication date
EP0633550A3 (de) 1995-09-27
JPH0771936A (ja) 1995-03-17
JP3466661B2 (ja) 2003-11-17
US5621827A (en) 1997-04-15
EP0633550B1 (de) 2001-10-04
EP0633550A2 (de) 1995-01-11
DE69428482D1 (de) 2001-11-08

Similar Documents

Publication Publication Date Title
DE69428482T2 (de) Verfahren und Vorrichtung zur Bildverarbeitung
DE69715076T2 (de) Vorrichtung zur Erzeugung eines Binärbildes
DE69728127T2 (de) Vorrichtung und Verfahren zur Extraktion eines Objekts in einem Bild
DE69816824T2 (de) Texturabbildung in 3-d-rechnergraphik
DE69322575T2 (de) Verfahren und Gerät zur Wiedergabe von abgeglichenen NURB Oberflächen
DE69328230T2 (de) Entfernungbildverarbeitungsvorrichtung und -verfahren
DE3750784T2 (de) Generation eines intrapolierten charakteristischen Wertes zur Anzeige.
DE3855334T2 (de) Videobildänderungsverfahren und Gerät
EP0131676B1 (de) Verfahren zum automatischen Digitalisieren des Umrisses von Strichgraphiken z.B. Buchstaben
DE3689654T2 (de) Rechnergraphik, prozessor für parallele subdivision.
DE69623642T2 (de) Vektorkorrelationssystem zum automatischen auffinden von mustern in einem bild
DE69811049T2 (de) Elektronisches bildverarbeitungsgerät zur detektion von dimensionnellen änderungen
DE69801113T2 (de) Längste-kanten verfeinerungs- und vergröberungssystem und -verfahren zur automatischen maschen-erzeugung
DE69014392T2 (de) Verfahren zum Zeichnen mit einem Computer.
DE69120797T2 (de) Verfahren zum Zuteilen von Bildelementen an Halbtonrasterzellen
DE69230282T2 (de) Bildverarbeitungsverfahren und -vorrichtung
DE69027402T2 (de) Verfahren und Vorrichtung zur Steuerung von Robotern und ähnlichem zum Gebrauch hierarchisch organisierter "Bubble-Daten", die entlang einer Mittelachse angeordnet sind
DE102016100101A1 (de) System zum maschinellen sehen und analytisches verfahren zur segmentierung planarer oberflächen
DE2801536A1 (de) Zeichenerkennungsvorrichtung
DE4224568C2 (de) Vorrichtung und Verfahren zur Bildung der Anzeige eines dreidimensionalen sequentiellen tomografischen Flächenschattierungsbildes
DE69231049T2 (de) Bildverarbeitung
DE69606177T2 (de) Verfahren und gerät zur texturabbildung
DE102005010169A1 (de) Aktives Polyeder für 3D-Bildsegmentierung
DE69330900T2 (de) Verfahren zum Ausfüllen der Bildpunkte innerhalb eines Polygons
DE3789091T2 (de) Bildverarbeitungsverfahren und -system zur Bildrekonstruktion.

Legal Events

Date Code Title Description
8364 No opposition during term of opposition