DE102017009276A1 - Erzeugen eines dreidimensionalen modells aus einem gescannten gegenstand - Google Patents

Erzeugen eines dreidimensionalen modells aus einem gescannten gegenstand Download PDF

Info

Publication number
DE102017009276A1
DE102017009276A1 DE102017009276.1A DE102017009276A DE102017009276A1 DE 102017009276 A1 DE102017009276 A1 DE 102017009276A1 DE 102017009276 A DE102017009276 A DE 102017009276A DE 102017009276 A1 DE102017009276 A1 DE 102017009276A1
Authority
DE
Germany
Prior art keywords
dimensional
edges
mesh
map
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017009276.1A
Other languages
English (en)
Inventor
Duygu Ceylan Aksit
Daichi Ito
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Adobe Inc
Original Assignee
Adobe Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Adobe Systems Inc filed Critical Adobe Systems Inc
Publication of DE102017009276A1 publication Critical patent/DE102017009276A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T3/06
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10008Still image; Photographic image from scanner, fax or copier
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination

Abstract

Die vorliegende Offenbarung betrifft Systeme und Verfahren, die das Scannen eines Gegenstands (z.B. eines dreidimensionalen Gegenstands) mit speziell ausgebildeten Netzlinien darauf und das Erzeugen eines dreidimensionalen Netzes des Gegenstands erleichtern. Beispielsweise empfängt ein dreidimensionales Modelliersystem einen Scan des Gegenstands, der Tiefeninformationen und eine zweidimensionale Texturabbildung des Gegenstands umfasst. Das dreidimensionale Modelliersystem erzeugt ferner eine Kantenabbildung für die zweidimensionale Texturabbildung und modifiziert die Kantenabbildung, so dass ein zweidimensionales Netz erzeugt wird, das Kanten, Eckpunkte und Flächen umfasst, die den speziell ausgebildeten Netzlinien auf dem Gegenstand entsprechen. Auf der Basis des zweidimensionalen Netzes und der Tiefeninformationen von dem Scan erzeugt das dreidimensionale Modelliersystem ein dreidimensionales Modell des Gegenstands.

Description

  • HINTERGRUND
  • In den letzten Jahren gab es eine rasche Verbreitung beim Entwerfen, Modellieren und Modifizieren von dreidimensionalen Modellen. Tatsächlich ist es nunmehr für Einzelpersonen und Unternehmen üblich, dreidimensionale Modelle von verschiedenen Gegenständen zu erzeugen. Beispielsweise nutzen viele Designer, Ersteller von Animationen und andere Künstler eine Software für ein dreidimensionales Modellieren zum Erzeugen von dreidimensionalen Modellen. Die Modellierungssoftware ermöglicht es ferner verschiedenen Künstlern, die dreidimensionalen Modelle zu bearbeiten, zu verändern oder in sonstiger Weise damit zu interagieren. Bis vor kurzem war jedoch ein Scannen auf der Basis von Systemen für ein dreidimensionales Modellieren nur für High-End-Profis verfügbar. Als Ergebnis sind dreidimensionale Scantechnologien für Verbraucher leichter verfügbar geworden und folglich haben viele kreative Profis damit begonnen, physische Gegenstände zu Scannen und zu Modellieren.
  • Herkömmliche Systeme für ein dreidimensionales Modellieren auf Scanbasis weisen jedoch verschiedene Probleme auf. Beispielsweise wenn ein physischer Gegenstand zum Erzeugen eines dreidimensionalen Modells gescannt wird, erzeugen herkömmliche Systeme für ein dreidimensionales Modellieren auf Scanbasis häufig eine sehr große Anzahl von Vielecken (Punktwolke), was dazu führt, dass der gescannte Gegenstand nahezu nicht bearbeitet werden kann. Insbesondere können herkömmliche Systeme für ein 3D-Modellieren auf Scanbasis häufig keine vernünftigen Strukturlinien (z.B. Kantenschleifen) erzeugen, die Merkmale umfassen, die Oberflächen, Rillen, Unregelmäßigkeiten oder anderen Merkmalen des physischen Gegenstands entsprechen. Als Ergebnis können herkömmliche Systeme für ein dreidimensionales Modellieren auf Scanbasis keine nutzerfreundlichen dreidimensionalen Modelle erzeugen, die Merkmale umfassen, die den Kanten des physischen Gegenstands entsprechen (z.B. Muskeln eines menschlichen Körpers, sich mechanisch bewegende Teile).
  • Einige Künstler, die im dreidimensionalen Animationsgewerbe tätig sind, erleichtern die Erzeugung eines nutzerfreundlichen dreidimensionalen Modells durch Zeichnen oder Skizzieren von Kontrollführungslinien auf einer Oberfläche des physischen Gegenstands vor dem Scannen des physischen Gegenstands, um Modelliersysteme zu unterstützen, wenn das dreidimensionale Modell erzeugt wird. Das Erzeugen von Modellen mittels handgezeichneter Kontrollführungslinien erforderte jedoch eine teure Ausrüstung bzw. teure Geräte, die für die meisten Künstler nicht verbreitet zur Verfügung steht bzw. stehen. Beispielsweise umfassen 3D-Modelliersysteme auf Scanbasis, die im 3D-Animationsgewerbe typischerweise verwendet werden, eine teure Punktverfolgungsvorrichtung und spezialisierte Scanner, die physische Gegenstände auf der Basis von Markierungen digitalisieren, die auf dem physischen Gegenstand unter Verwendung der Punktverfolgungsvorrichtung gemacht worden sind. Als Ergebnis haben die meisten Künstler einen beschränkten oder keinen Zugang zu Werkzeugen und Ausrüstungen bzw. Geräten, welche die Erzeugung von nutzerfreundlichen dreidimensionalen Modellen erleichtern.
  • Darüber hinaus erfordert selbst dann, wenn Künstler Zugang zu einer teuren Ausrüstung zum Erzeugen von nutzerfreundlichen dreidimensionalen Modellen haben, das Skizzieren von Kontrollführungslinien unter Verwendung von herkömmlichen Punktverfolgungsvorrichtungen und einer herkömmlichen Scanausrüstung ein zeitaufwändiges Verfahren, das vor dem Abschluss nicht unterbrochen werden kann. Als Ergebnis war diese Art des Verfahrens zum dreidimensionalen Modellieren auf Scanbasis nie beliebt.
  • ZUSAMMENFASSUNG
  • Ausführungsformen der vorliegenden Offenbarung stellen Vorteile bereit und/oder lösen eines oder mehrere der vorstehenden und anderer Probleme in dem Fachgebiet mit Systemen und Verfahren zum Erzeugen von dreidimensionalen Modellen von physischen Gegenständen. Insbesondere umfassen die offenbarten Systeme und Verfahren das Empfangen eines Scans eines dreidimensionalen Gegenstands mit speziell ausgebildeten Netzlinien darauf. Der Scan umfasst ein zweidimensionales Bild des dreidimensionalen Gegenstands und Tiefeninformationen über den dreidimensionalen Gegenstand. Die offenbarten Systeme und Verfahren erzeugen eine Kantenabbildung durch Erfassen von Kanten innerhalb des zweidimensionalen Bilds. Diese Kanten entsprechen den speziell ausgebildeten Netzlinien, die auf dem physischen Gegenstand gezeichnet sind. Die Systeme und Verfahren konstruieren ferner ein dreidimensionales Netz des dreidimensionalen Gegenstands unter Verwendung der Kantenabbildung und der Tiefeninformationen. Auf diese Weise implementieren die hier beschriebenen Systeme und Verfahren einen intuitiven und nutzerfreundlichen Ansatz zum Erzeugen eines speziell ausgebildeten dreidimensionalen Modells für einen dreidimensionalen Gegenstand.
  • Zusätzliche Merkmale und Vorteile sind in der nachstehenden Beschreibung angegeben und ergeben sich teilweise aus der Beschreibung oder aus der Durchführung solcher beispielhafter Ausführungsformen.
  • Figurenliste
  • Verschiedene Ausführungsformen werden mit einer zusätzlichen Spezifität und mit zusätzlichen Details unter Verwendung der beigefügten Zeichnungen beschrieben und erläutert, worin:
    • 1 ein Beispiel eines dreidimensionalen Gegenstands mit speziell ausgebildeten Netzlinien gemäß einer oder mehrerer Ausführungsform(en) zeigt;
    • 2 ein Beispiel einer zweidimensionalen Texturabbildung des dreidimensonalen Gegenstands gemäß einer oder mehrerer Ausführungsform(en) zeigt;
    • 3 ein Beispiel einer Kantenabbildung zeigt, die aus dem zweidimensionalen Scan gemäß einer oder mehrerer Ausführungsform(en) erzeugt worden ist;
    • 4 ein Beispiel einer Abbildung mit dünner gemachten Kanten gemäß einer oder mehrerer Ausführungsform(en) zeigt;
    • 5A bis 5D ein Beispiel für Modifizierungen einer Abbildung mit dünner gemachten Kanten gemäß einer oder mehreren Ausführungsform(en) zeigen;
    • 6 ein Beispiel eines Netzes zeigt, das aus der Kantenabbildung gemäß einer oder mehreren Ausführungsform(en) konstruiert worden ist;
    • 7 ein Beispiel eines Netzes zeigt, das mittels polygonaler Flächen gemäß einer oder mehreren Ausführungsform(en) gerendert worden ist;
    • 8 ein schematisches Diagramm eines Beispiels für ein System zum Erzeugen eines dreidimensionalen Modells auf Scanbasis gemäß einer oder mehreren Ausführungsform(en) zeigt;
    • 9 ein Flussdiagramm einer Reihe von Vorgängen zum Erzeugen eines dreidimensionalen Modells eines dreidimensionalen Gegenstands gemäß einer oder mehreren Ausführungsform(en) zeigt;
    • 10 eine Reihe von Vorgängen zum Konstruieren eines Netzes eines dreidimensionalen Gegenstands gemäß einer oder mehreren Ausführungsform(en) zeigt; und
    • 11 ein Blockdiagramm eines Beispiels einer Rechenvorrichtung gemäß einer oder mehreren Ausführungsform(en) zeigt.
  • DETAILLIERTE BESCHREIBUNG
  • Eine oder mehrere Ausführungsform(en) der vorliegenden Offenbarung umfasst oder umfassen ein dreidimensionales Modelliersystem auf Scanbasis (nachstehend als dreidimensionales Modelliersystem bezeichnet), welches das Scannen eines dreidimensionalen Gegenstands (oder einfach „Gegenstands“) und das Erzeugen eines speziell ausgebildeten dreidimensionalen Netzes des Gegenstands aus identifizierten Merkmalen des Scans erleichtert. Beispielsweise empfängt das dreidimensionale Modelliersystem oder erhält in sonstiger Weise einen Scan eines Gegenstands, auf dem speziell ausgebildete Netzlinien vorliegen. Der Scan umfasst ein oder mehrere Bild(er) des Gegenstands und Tiefeninformationen über den Gegenstand. Auf der Basis von Informationen, die von dem Scan des Gegenstands erhalten worden sind, konstruiert das dreidimensionale Modelliersystem ein dreidimensionales Netz des Gegenstands, das Vielecke umfasst, die den speziell ausgebildeten Netzlinien entsprechen.
  • Wie es vorstehend erwähnt worden ist, empfängt das dreidimensionale Modelliersystem einen Scan eines Gegenstands (z.B. eines physischen Gegenstands), der speziell ausgebildete Netzlinien darauf aufweist. Wie hier verwendet, bezieht sich ein „Scan“ eines Gegenstands auf einen Scan eines dreidimensionalen Gegenstands, der durch eine Scanvorrichtung aufgenommen wird, die eine Rot-Grün-Blau (RGB)-Kamera und eine Infrarot (IR)-Kamera (oder einen anderen Tiefensensor oder andere Tiefenabschätztechnologien, wie z.B. die Tiefe von einer gepaarten Stereokamera, eine Tiefenabschätzung auf Fokusbasis, usw.) umfasst. In einer oder mehreren Ausführungsform(en) umfasst der Scan eine Reihe von Bildern, die durch die RGB-Kamera aufgenommen worden sind, und dazugehörige Tiefeninformationen, die durch die IR-Kamera aufgenommen worden sind. In einer oder mehreren Ausführungsform(en) umfasst ein Scan ferner eine zweidimensionale Texturabbildung für den dreidimensionalen Gegenstand, die ein zusammengesetztes Bild auf der Basis einer Kombination der Reihe von Bildern und dazugehörigen Tiefeninformationen umfasst.
  • Darüber hinaus bezieht sich, wie hier verwendet, „speziell ausgebildete Netzlinien“ (oder einfach „Netzlinien“) auf gerade oder gekrümmte Linien, die auf einer Oberfläche eines Gegenstands verlaufen. In einer oder mehreren Ausführungsform(en) beziehen sich Netzlinien auf Linien, die auf die Oberfläche eines Gegenstands vor dem Aufnehmen eines Scans des Gegenstands gezeichnet worden sind. In einer oder mehreren Ausführungsform(en) stellen die speziell ausgebildeten Netzlinien einen Texturatlas oder ein Kontrollnetz bereit, das ein Modell für das dreidimensionale Modelliersystem bei der Erzeugung eines dreidimensionalen Netzes eines dreidimensionalen Gegenstands auf der Basis der Linien darstellt, die auf einer Oberfläche des dreidimensionalen Gegenstands gezeichnet worden sind. Im Gegensatz zu Punkten von Führungslinien, die mittels teurer oder spezialisierter Punktverfolgungsvorrichtungen einer nach dem anderen mittels einer spezialisierten Digitalisierungssoftware digitalisiert werden, bezieht oder beziehen sich eine oder mehrere Ausführungsform(en) der vielen Netzlinien auf Linien, die unter Verwendung einer bzw. eines einfachen, nicht-elektronischen Vorrichtung bzw. Gegenstands, wie z.B. eines Markers, eines Stifts, eines Bleistifts, eines Pinsels oder einer anderen Zeichenvorrichtung, gezeichnet worden sind, und die auf einmal mittels einer einfachen dreidimensionalen Kamera (RGB + IR) gescannt werden. Als ein weiteres Beispiel können sich Netzlinien auf Aufkleber, Papier, Kunststoff oder ein anderes Material beziehen, das auf einer Oberfläche des dreidimensionalen Gegenstands angebracht worden ist und das eine andere Farbe als eine Oberfläche des dreidimensionalen Gegenstands aufweist.
  • In einer oder mehreren Ausführungsform(en) umfasst der Scan ferner eine zweidimensionale Texturabbildung des gescannten Gegenstands (z.B. ein zweidimensionales Bild, das die Textur des dreidimensionalen Gegenstands darstellt und das durch Zusammensetzen von RGB-Bildern der Texturabbildung während des Scanvorgangs erhalten worden ist). Beispielsweise stellt, wie es nachstehend detaillierter beschrieben wird, die Scanvorrichtung zusätzlich zu einem Aufnehmen von Bildern und von Tiefeninformationen des Gegenstands Scandaten bereit, die das dreidimensionale Modelliersystem zum Erzeugen einer zweidimensionalen Texturabbildung des Gegenstands nutzt, und zwar durch Kombinieren einer Reihe einer Mehrzahl von Bildern auf der Basis von aufgenommenen Tiefeninformationen für den Gegenstand. In einer oder mehreren Ausführungsform(en) erzeugt ein dreidimensionales Modelliersystem auf einer Clientvorrichtung die zweidimensionale Texturabbildung aus einer Reihe von Bildern des Gegenstands und den aufgenommenen Tiefeninformationen.
  • Nach dem Empfangen des Scans des Gegenstands kann das dreidimensionale Modelliersystem eine Kantenabbildung erzeugen. Insbesondere analysiert das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) die zweidimensionale Texturabbildung zum Identifizieren von Kanten innerhalb der zweidimensionalen Texturabbildung (z.B. Linien innerhalb des Modells, die den speziell ausgebildeten Netzlinien entsprechen). Auf der Basis der erfassten Kanten erzeugt das dreidimensionale Modelliersystem eine Kantenabbildung, die eine visuelle Darstellung von speziell ausgebildeten Netzlinien umfasst. In einer oder mehreren Ausführungsform(en) erzeugt das dreidimensionale Modelliersystem die Kantenabbildung durch Erzeugen einer binären Darstellung des Bilds, das weiße Pixel, die für die erfassten Kanten repräsentativ sind, und schwarze Pixel umfasst, die für andere Abschnitte des Bilds repräsentativ sind.
  • Zusätzlich zum Erzeugen der Kantenabbildung kann das dreidimensionale Modelliersystem ein zweidimensionales Netz durch Verfeinern oder in sonstiger Weise Modifizieren der Kantenabbildung auf verschiedenartige Weise erzeugen. Beispielsweise macht das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) die erfassten Kanten der Kantenabbildung dünner, so dass sie eine einheitliche Dicke aufweisen (z.B. eine Ein-Pixel-Dicke). Darüber hinaus ersetzt das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) gekrümmte oder gebogene Linien der Kantenabbildung durch gerade Linien zwischen identifizierten Verbindungen von Kanten der Kantenabbildung. Darüber hinaus kombiniert das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) Verbindungen oder Schnittpunkte der Kanten zum Erzeugen von Vielecken mit einer vorgegebenen Anzahl von Seiten (z.B. 3 und/oder 4 Seiten). Das dreidimensionale Modelliersystem erzeugt ferner ein zweidimensionales Netz, das die Modifizierungen der Kantenabbildung umfasst.
  • Ferner kann das dreidimensionale Modelliersystem ein dreidimensionales Netz des Gegenstands auf der Basis des zweidimensionalen Netzes und der Tiefeninformationen erzeugen, die von dem Scan des Gegenstands erhalten worden sind. Insbesondere kann das dreidimensionale Modelliersystem auf der Basis des zweidimensionalen Netzes ein dreidimensionales Netz erzeugen, das Polynome mit Kanten und Flächen aufweist. In einer oder mehreren Ausführungsform(en) erzeugt das dreidimensionale Modelliersystem das dreidimensionale Netz durch Anwenden der zweidimensionalen Abbildung auf eine dreidimensionale Struktur (z.B. auf der Basis der Tiefeninformationen) mittels einer oder mehrerer UV-Parametrisierungstechniken.
  • Wie hier verwendet, bezieht sich ein „dreidimensionales Netz“ oder eine „Netzstruktur“ auf ein dreidimensionales Vieleck von Elementen, wie z.B. Eckpunkten, Verbindungskanten und/oder Flächen, die durch sich schneidende Kanten und Eckpunkte festgelegt sind. Beispielsweise ist ein Netz in einer oder mehreren Ausführungsform(en) durch eine Mehrzahl von Eckpunkten und Kanten festgelegt, die Elemente mit einer vorgegebenen Form festlegen (z.B. Dreiecksflächen, Rechtecksflächen), die eine Oberfläche des Netzes bilden.
  • Auf diese Weise stellt das dreidimensionale Modelliersystem ein intuitives und nutzerfreundliches Verfahren zum Erzeugen eines dreidimensionalen Netzes bereit, das Polynome umfasst, die Eckpunkte, Kanten und Flächen umfassen, die physischen Merkmalen eines dreidimensionalen Gegenstands entsprechen. Insbesondere stellt das dreidimensionale Modelliersystem ein Verfahren zum Erzeugen des dreidimensionalen Netzes bereit, das Polynome umfasst, die einem speziell ausgebildeten Netz entsprechen, das auf einer Oberfläche des dreidimensionalen Gegenstands gezeichnet oder in sonstiger Weise angeordnet worden ist. Unter Verwendung dieses Netzes kann ein Nutzer mit Merkmalen eines dreidimensionalen Modells, die Merkmalen des dreidimensionalen Gegenstands entsprechen, interagieren und diese verändern. Das Vorliegen von Merkmalen des Netzes, die Merkmalen des dreidimensionalen Gegenstands entsprechen, ermöglicht es einem Nutzer, bequemer und intuitiver mit einem dreidimensionalen Modell des Gegenstands zu interagieren und dieses zu modifizieren (z.B. zu bearbeiten).
  • Darüber hinaus erleichtert das dreidimensionale Modelliersystem die Erzeugung des dreidimensionalen Netzes ohne die Verwendung einer speziellen Ausrüstung bzw. spezieller Geräte, die eine begrenzte Zugänglichkeit aufweisen und bei denen die meisten Nutzer der Ansicht sind, dass sie schwer zu verwenden sind. Beispielsweise können, wie es vorstehend erwähnt worden ist, die polynomisch speziell ausgebildeten Netzlinien, die mit einfachen, nicht-elektronischen Vorrichtungen bzw. Gegenständen, wie z.B. einem Marker, einem Stift, einem Bleistift, einem Pinsel oder einer anderen Zeichenvorrichtung, einfach gezeichnet werden können, mittels einer RGB + IR-Kamera gleichzeitig und nicht durch Digitalisieren jedes Punkts einen nach dem anderen (z.B. Punkt für Punkt, Pixel für Pixel) unter Verwendung einer teuren elektronischen Punktverfolgungsvorrichtung gescannt werden. Ferner erzeugt das dreidimensionale Modelliersystem das dreidimensionale Netz mittels eines Scans, der von einer handelsüblichen Scanausrüstung bzw. einem handelsüblichen Scangerät anstatt einer spezielle Ausrüstung bzw. spezieller Geräte, die im Zusammenhang mit den teuren elektronischen Punktverfolgungsvorrichtungen verwendet wird bzw. werden, erhalten wird. Ferner kompensieren die Merkmale und die Funktionalität des dreidimensionalen Modelliersystems verschiedene Unzulänglichkeiten, die als Ergebnis der Nutzung einer nicht-spezialisierten Ausrüstung zum Aufnehmen des Scans des dreidimensionalen Gegenstands durch Nicht-Fachleute eingeführt werden.
  • Zusätzlich zur Erzeugung eines Netzes, das eine genaue Darstellung von speziell ausgebildeten Netzlinien auf einem dreidimensionalen Gegenstand umfasst, vermeidet das dreidimensionale Modelliersystem eine übermäßige Nutzung von Speicher- und Speichervorrichtungskapazitäten einer Clientvorrichtung, wenn ein Netz eines dreidimensionalen Gegenstands erzeugt wird. Beispielsweise erzeugt das dreidimensionale Modelliersystem anstelle der Nutzung einer teuren Verarbeitungsleistung zum Erzeugen eines dichten Netzes, das Tausende von Polynomen umfasst, die versuchen, eine Näherung für die komplexe Oberfläche des dreidimensionalen Gegenstands zu erzeugen, das Netz aus speziell ausgebildeten Netzlinien, die wesentlich weniger Polynome umfassen und folglich weniger Verarbeitungsleistung nutzen als herkömmliche dreidimensionale Scansysteme. Darüber hinaus konstruiert, wie es vorstehend beschrieben worden ist, das dreidimensionale Modelliersystem das Netz ohne Nutzung einer elektronischen Punktverfolgungsvorrichtung, welche die Verarbeitungskapazitäten der Clientvorrichtung weiter belastet.
  • Nachstehend werden zusätzliche Details bezüglich des dreidimensionalen Modelliersystems in Bezug auf veranschaulichende Figuren beschrieben, die beispielhafte Ausführungsformen zeigen. Beispielsweise zeigen die 1 bis 8, wie es nachstehend detaillierter beschrieben wird, eine Beispielausführungsform eines Verfahrens, das durch das dreidimensionale Modelliersystem zum Erzeugen eines dreidimensionalen Modells auf der Basis eines dreidimensionalen Gegenstands implementiert wird. Insbesondere erzeugt das dreidimensionale Modelliersystem, wie es nachstehend detaillierter beschrieben wird, ein dreidimensionales Netz von einem Scan eines dreidimensionalen Gegenstands, der Netzlinien darauf aufweist.
  • Beispielsweise zeigt die 1 ein Beispiel eines dreidimensionalen Gegenstands 102 (oder einfach eines „Gegenstands 102“), der Netzlinien 104 umfasst, die auf einer Oberfläche 106 des Gegenstands 102 gezeichnet sind. In einer oder mehreren Ausführungsform(en) bezieht sich der Gegenstand 102 auf eine Skulptur, die aus einem Formmaterial hergestellt ist. Beispielsweise kann ein Nutzer den Gegenstand 102 durch manuelles Formen des Gegenstands 102 aus einem Material, wie z.B. Ton, Schaum (z.B. Styroschaum), Erde („mold“), Papier, Holz oder einem anderen Formmaterial erzeugen. Wie es nachstehend detaillierter beschrieben wird, nutzt das dreidimensionale Modelliersystem den Gegenstand 102 als Templat zum Erzeugen eines digitalen dreidimensionalen Modells des Gegenstands 102.
  • Wie es weiter in der 1 gezeigt ist, umfasst der Gegenstand 102 Netzlinien 104, die auf einer Oberfläche 106 des Gegenstands 102 gezeichnet sind. Wie es vorstehend erwähnt worden ist, können die Netzlinien 104 speziell ausgebildete Netzlinien umfassen, die auf der Oberfläche 106 des Gegenstands gezeichnet oder in sonstiger Weise angeordnet worden sind, um verschiedene Merkmale des Gegenstands 102 zu betonen. Beispielsweise können, wie es in der 1 gezeigt ist, die Netzlinien 104 eine schwarze oder andere dunkle Tinte von einem Marker oder Stift umfassen, der zum Zeichnen der speziell ausgebildeten Netzlinien 104 verwendet wird. Alternativ können die Netzlinien 104 ein schwarzes oder dunkles Material (z.B. einen Aufkleber, Kunststoff) umfassen, das auf der Oberfläche 106 des Gegenstands 102 angeordnet worden ist. Die Netzlinien 104 können jedwede Farbe von Linien umfassen, die einen erfassbaren Kontrast zwischen einer Farbe der Oberfläche 106 und einer Farbe der Netzlinien 104 bereitstellt. Beispielsweise weisen, wie es z.B. in der 1 gezeigt ist, die speziell ausgebildeten Netzlinien 104 eine dunkle Farbe im Gegensatz zu einer hellen Farbe der Oberfläche 106 auf.
  • Wie es ferner in der 1 gezeigt ist, folgt eine oder folgen mehrere der speziell ausgebildeten Netzlinien 104 den Konturen, Rillen und anderen Merkmalen des Gegenstands 102. Insbesondere wenn sich der Gegenstand 102 auf eine geformte dreidimensionale Fläche bezieht, umfassen die speziell ausgebildeten Netzlinien 104 Linien, die der Krümmung der Oberfläche 106 der Fläche um die Augen, die Ohren, den Mund, die Nase, das Kinn, die Haare und anderen physischen Merkmalen der geformten Fläche folgen. Folglich können die Netzlinien 104 verschiedene Merkmale des Gegenstands 102 betonen oder in sonstiger Weise hervorheben.
  • Wie es weiter gezeigt ist, bilden die Netzlinien 104 ein Gitter über Abschnitten der Oberfläche 106 mit Linien, die sich auf der Oberfläche 106 des Gegenstands 102 schneiden. Die speziell ausgebildeten Netzlinien 104 können verschiedene Niveaus der Körnigkeit aufweisen. Beispielsweise können die speziell ausgebildeten Netzlinien 104 eine niedrige Körnigkeit aufweisen, die durch weniger Linien festgelegt ist, die über die Oberfläche 106 des Gegenstands 102 verlaufen. Alternativ können die speziell ausgebildeten Netzlinien 104 eine hohe Körnigkeit aufweisen, die durch mehr Linien festgelegt ist, die über die Oberfläche 106 des Gegenstands 102 verlaufen. Darüber hinaus kann die Dicke der speziell ausgebildeten Netzlinien 104 abhängig von dem Werkzeug oder Material variieren, das zur Erzeugung der Netzlinien 104 verwendet wird.
  • Wie es vorstehend erwähnt worden ist, empfängt das dreidimensionale Modelliersystem einen Scan des Gegenstands 102 von einem dreidimensionalen Scanner (oder einfach „Scanner“). Wie hier verwendet, bezieht sich „Scanner“ oder „Scanvorrichtung“ auf eine handelsübliche Scanvorrichtung, die einen Scan eines dreidimensionalen Gegenstands aufnehmen kann, ohne eine elektronische Punktverfolgungsvorrichtung zu nutzen, die zusammen mit dem Scanner arbeitet. Beispielsweise umfasst die Scanvorrichtung in einer oder mehreren Ausführungsform(en) eine Xbox Kinect oder eine Asus Xtion. Wie es nachstehend im Zusammenhang mit der 8 detaillierter beschrieben wird, kann der Scanner eine RGB-Kamera zum Aufnehmen eines Bilds des Gegenstands 102 umfassen. Darüber hinaus kann der Scanner einen IR-Projektor und eine IR-Kamera zum Erleichtern des Erfassens von Tiefeninformationen über den Gegenstand 102 umfassen. In einer oder mehreren Ausführungsform(en) empfängt das dreidimensionale Modelliersystem einen Scan, der sowohl ein Bild (z.B. ein zweidimensionales Bild) des Gegenstands 102 als auch dazugehörige Tiefeninformationen des Gegenstands 102 umfasst, von dem Scanner.
  • In einer oder mehreren Ausführungsform(en) erzeugt das dreidimensionale Modelliersystem nach dem Empfangen des Scans des Gegenstands 102, der Tiefeninformationen und ein Bild oder mehrere Bilder des Gegenstands 102 umfasst, eine zweidimensionale Darstellung für den Gegenstand 102, der die speziell ausgebildeten Netzlinien 104 auf der Oberfläche 106 des Gegenstands 102 umfasst. Beispielsweise erzeugt, wie es in der 2 gezeigt ist, das dreidimensionale Modelliersystem eine zweidimensionale Texturabbildung 202 für den Gegenstand 102, die ein Bild umfasst, das für den Gegenstand 102 repräsentativ ist, der die speziell ausgebildete Netzlinien 104 darauf aufweist. Das dreidimensionale Modelliersystem kann die zweidimensionale Texturabbildung 202 in verschiedenartiger Weise und mittels verschiedener Algorithmen erzeugen. Während sich eine oder mehrere Ausführungsform(en), die hier beschrieben ist oder sind, auf das dreidimensionale Modelliersystem beziehen, das die zweidimensionale Texturabbildung 202 des Gegenstands 102 erzeugt, führt der Scanner in einer oder mehreren Ausführungsform(en) entsprechend einen oder mehrere Schritt(e) (z.B. allein oder zusammenwirkend mit dem dreidimensionalen Modelliersystem) zur Erzeugung der zweidimensionalen Texturabbildung 202 des Gegenstands 102 durch.
  • Beispielsweise wenn der Scan des Gegenstands 102 eine Mehrzahl von Bildern umfasst (z.B. eine Sequenz von RGB-Bilder oder Videoframes), die für den Gegenstand 102 repräsentativ sind, kann das dreidimensionale Modelliersystem die zweidimensionale Texturabbildung 202 (z.B. eine Texturabbildung) durch selektives Identifizieren von RGB-Bildern (z.B. RGB-Frames), aus denen ein zusammengesetztes Bild erzeugt werden soll, das die zweidimensionale Texturabbildung 202 bildet, erzeugen. Darüber hinaus kann das dreidimensionale Modelliersystem die identifizierten Bilder mit einer rekonstruierten Geometrie des Gegenstands 102 auf der Basis der aufgenommenen Tiefeninformationen von dem Scan abgleichen. Das dreidimensionale Modelliersystem kann ferner einen UV-Parametrisierungsalgorithmus zum Erzeugen der zweidimensionalen Texturabbildung 202 für den Gegenstand 102 durchführen.
  • Zusätzlich empfängt oder erzeugt, wie es in den 1 und 2 gezeigt ist, das dreidimensionale Modelliersystem eine zweidimensionale Texturabbildung 202, die eine kontinuierliche (d.h., unsegmentierte) Darstellung des Gegenstands 102 umfasst. Alternativ erzeugt, obwohl dies bei der Konstruktion eines dreidimensionalen Netzes für den Gegenstand 102, der in den 1 bis 7 gezeigt ist, nicht gezeigt ist, das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) eine zweidimensionale Texturabbildung 202, die segmentierte Abschnitte des Gegenstands 102 umfasst (z.B. auf der Basis einer Struktur, die mit einer kontinuierlichen Darstellung des Gegenstands 102 inkompatibel ist). Insbesondere können Abschnitte der segmentierten Abschnitte der zweidimensionalen Texturabbildung 202 überlappen oder verbunden werden, wenn sie in ein dreidimensionales Modell umgewandelt werden, werden jedoch nicht verbunden oder überlappen nicht, wenn sie als die zweidimensionale Texturabbildung gerendert werden. In diesen Fällen kann das dreidimensionale Modelliersystem weiter verschiedene Segmente der zweidimensionalen Texturabbildung auf andere Segmente abbilden. Durch die Nutzung dieser Abbildungsinformationen kann das dreidimensionale Modelliersystem die nachstehend beschriebenen Modifizierungen gleichermaßen auf entsprechende Segmente anwenden, um sicherzustellen, dass ein konstruiertes dreidimensionales Netz eine kontinuierliche Darstellung eines entsprechenden Gegenstands umfasst.
  • Wie es in der 2 gezeigt ist, umfasst die zweidimensionale Texturabbildung 202 eine Darstellung der speziell ausgebildeten Netzlinien 104, die auf der Oberfläche 106 des Gegenstands 102 gezeichnet sind. Wie es in der 2 gezeigt ist, können die speziell ausgebildeten Netzlinien 104 eine variierende Dicke über Abschnitte der zweidimensionalen Texturabbildung 202 aufweisen. Ferner umfasst die zweidimensionale Texturabbildung 202 in einer oder mehreren Ausführungsform(en) eine schwarze und weiße zweidimensionale Darstellung des Gegenstands 102, wobei die speziell ausgebildeten Netzlinien 104 eine schwarze Farbe im Gegensatz zu einem weißen oder hellgrauen Hintergrund aufweisen, der für die Oberfläche 106 des Gegenstands 102 repräsentativ ist. Alternativ umfasst die zweidimensionale Texturabbildung 202 in einer oder mehreren Ausführungsform(en) speziell ausgebildete Netzlinien 104 mit einer helleren Farbe als der Hintergrund, der für die Oberfläche 106 des Gegenstands 102 repräsentativ ist.
  • In einer oder mehreren Ausführungsform(en) analysiert das dreidimensionale Modelliersystem die zweidimensionale Texturabbildung 202 und identifiziert die Netzlinien 104 innerhalb der zweidimensionalen Texturabbildung 202. Insbesondere identifiziert das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) die Netzlinien durch Erfassen von Kanten innerhalb der zweidimensionalen Texturabbildung 202. Das dreidimensionale Modelliersystem kann Kanten in verschiedenartiger Weise erfassen. Beispielsweise kann das dreidimensionale Modelliersystem kontrastierende Pixelwerte über Bereiche der zweidimensionalen Texturabbildung 202, die Kanten angeben, erfassen. Als weiteres Beispiel kann das dreidimensionale Modelliersystem Gradientenpixelwerte oder Bereiche von Gradientenpixelwerten identifizieren, um kontrastierende Pixel in benachbarten Bereichen der zweidimensionalen Texturabbildung 202 zu identifizieren, die Kanten innerhalb eines Bilds angeben.
  • In einer oder mehreren Ausführungsform(en) identifiziert das dreidimensionale Modelliersystem die speziell ausgebildeten Netzlinien 104 auf der Basis einer identifizierten Farbe der speziell ausgebildeten Netzlinien 104 auf dem Gegenstand 102. Beispielsweise empfängt (z.B. mittels einer Nutzereingabe) oder identifiziert (z.B. erfasst) das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) die Farbe einer Tinte bzw. Druckfarbe, die zum Erzeugen der speziell ausgebildeten Netzlinien 104 verwendet worden ist. Das dreidimensionale Modelliersystem kann ferner jedes Pixel der zweidimensionalen Texturabbildung 202 mit einem Schwellenwert vergleichen, um zu bestimmen, ob ein spezifisches Pixel als Kante oder Nicht-Kante charakterisiert werden soll. Insbesondere wenn speziell ausgebildete Netzlinien 104 eine schwarze Farbe auf einem weißen (oder cremefarbenen) Hintergrund aufweisen, kann das dreidimensionale Modelliersystem jedes Pixel auf der Basis der bestimmten Pixelwerte in der gesamten zweidimensionalen Texturabbildung 202 bezeichnen.
  • Ungeachtet des genauen Verfahrens zum Identifizieren der Netzlinien 104 innerhalb der zweidimensionalen Texturabbildung 202 kann das dreidimensionale Modelliersystem eine Kantenabbildung erzeugen, die eine Darstellung der erfassten oder in einer sonstigen Weise identifizierten Netzlinien 104 der zweidimensionalen Texturabbildung 202 umfasst. Beispielsweise erzeugt, wie es in der 3 gezeigt ist, das dreidimensionale Modelliersystem eine Kantenabbildung 302, die identifizierte Kanten 304 der zweidimensionalen Texturabbildung 202 umfasst. Insbesondere umfasst, wie es in der 3 gezeigt ist, die Kantenabbildung 302 ein Schwarz-Weiß-Bild, in dem weiße Pixel die Kanten 304 darstellen und schwarze Pixel Nicht-Kanten darstellen (z.B. alle Abschnitte der Kantenabbildung 302, die nicht so festgelegt sind, dass sie erfassten Linien innerhalb der zweidimensionalen Texturabbildung 202 entsprechen).
  • In einer oder mehreren Ausführungsform(en) erzeugt das dreidimensionale Modelliersystem die Kantenabbildung 302 durch Maskieren der Pixel der zweidimensionalen Texturabbildung 202, die eine dunklere Farbe aufweisen, oder die alternativ eine Farbe aufweisen, die einer bekannten Farbe der Netzlinien 104 auf dem Gegenstand 102 entspricht. Beispielsweise erzeugt das dreidimensionale Modelliersystem nach dem Erfassen der Kanten oder dem sonstigen Identifizieren der Netzlinien 104 innerhalb der zweidimensionalen Texturabbildung 202 die Kantenabbildung 302 durch Anwenden einer Maske von weißen Pixeln über den erfassten Kanten 304 und Anwenden von schwarzen Pixeln auf alle verbleibenden Abschnitte der zweidimensionalen Texturabbildung. In einer oder mehreren Ausführungsform(en) maskiert das dreidimensionale Modelliersystems die weißen Pixel über den erfassten Kanten 304 und wendet schwarze Pixel in dem gesamten Bild durch Bestimmen einer Schwellendifferenz (z.B. durch Durchführen eines Farbschwellenbildungsvorgangs) zwischen der bekannten Farbe der Netzlinien 104 und anderen Abschnitten der zweidimensionalen Texturabbildung 202 an. Das dreidimensionale Modelliersystem wendet dann schwarze Pixel über Abschnitten der zweidimensionalen Texturabbildung 202 an, die von der bekannten Farbe der Netzlinien um eine Schwellendifferenz abweichen. Als Ergebnis umfasst die Kantenabbildung 302 eine binäre Darstellung der zweidimensionalen Texturabbildung 202, die weiße Pixelkanten 304 über einem schwarzen Hintergrund umfasst. Alternativ umfasst die Kantenabbildung 302 in einer oder mehreren Ausführungsform(en) schwarze Pixelkanten über einem weißen Hintergrund.
  • Nach dem Erzeugen der Kantenabbildung 302 kann das dreidimensionale Modelliersystem die Kantenabbildung 302 dadurch modifizieren, dass bewirkt wird, dass die erfassten Kanten 304 in der gesamten Kantenabbildung 302 eine einheitliche Dicke aufweisen. Beispielsweise modifiziert das dreidimensionale Modelliersystem, wie es in der 4 gezeigt ist, in einer oder mehreren Ausführungsform(en) die Kantenabbildung 302 zum Erzeugen einer Abbildung mit dünner gemachten Kanten 402, die dünner gemachte Kanten 404 mit der Dicke eines einzelnen Pixels umfasst. Folglich umfasst, wie es in der 4 gezeigt ist, die Abbildung mit dünner gemachten Kanten 402 dünner gemachte Kanten 404, die sich bei den Verbindungen 406 schneiden. Wie es ferner gezeigt ist und wie es nachstehend im Zusammenhang mit den 5A bis 5D detaillierter beschrieben ist, kann die Abbildung mit dünner gemachten Kanten 402 getrennte Linien und teilweise verbundene Linien umfassen, die an den Verbindungen 406 nicht mit anderen dünner gemachten Linien 404 verbunden werden können.
  • Das dreidimensionale Modelliersystem kann die Abbildung mit dünner gemachten Kanten 402 aus der Kantenabbildung 302 in verschiedenartiger Weise erzeugen. Als ein erstes Beispiel erzeugt das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) die Abbildung mit dünner gemachten Kanten 402 durch iteratives Dünnermachen der Kanten 304 mit einer Dicke einer Mehrzahl von Pixeln zu einer Dicke eines einzelnen Pixels. Beispielsweise identifiziert das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) Grenzpixel von jeder erfassten Linie (z.B. Nord/Süd-Grenzpixel für horizontale Linien oder Ost/West-Grenzpixel für vertikale Linien). Nach dem Identifizieren der Grenzpixel löscht das dreidimensionale Modelliersystem alternativ gegenüberliegende Grenzpixel, bis nur ein einziges Pixel der Linie verbleibt. Das dreidimensionale Modelliersystem kann einen entsprechenden Vorgang des Dünnermachens für jede der Kanten 304 innerhalb der Kantenabbildung 302 durchführen, um die Abbildung mit dünner gemachten Kanten 402, welche die dünner gemachten Kanten 404 aufweist, zu erzeugen.
  • Als Alternative wendet das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) einen Algorithmus zum Dünnermachen (z.B. einen Bildgrundgerüstalgorithmus) auf die Kanten 304 der Kantenabbildung 302 an, um die Abbildung mit dünner gemachten Kanten 402, die dünner gemachte Kanten 404 aufweist, zu erzeugen (z.B. ein Grundgerüst der Kanten 304 der Kantenabbildung 302 mit der Breite eines einzelnen Pixels). Insbesondere macht das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) die Kanten 304 der Kantenabbildung 302 unter Verwendung eines ziel-orientierten Algorithmus zum Dünnermachen dünner, der (1) die Konnektivität zwischen Linien 304 an Verbindungen (z.B. Schnittpunkten), (2) das fehlende Verändern von Kurven oder Ansammlungen von Kurven, (3) das Bewirken, dass mediale Kurven entlang proximaler Mittelpunkte der Linien 304 vorliegen, (4) möglichst dünne Kanten 304 und (5) das Durchführen von so wenig Iterationen des Algorithmus wie möglich priorisiert.
  • In einer oder mehreren Ausführungsform(en) kombiniert das dreidimensionale Modelliersystem eine Mehrzahl von Algorithmen zum Dünnermachen (z.B. ein iteratives Dünnermachen von Kanten 304 und einen zielorientierten Algorithmus zum Dünnermachen) zum Erzeugen der Abbildung mit dünner gemachten Kanten 402. Beispielsweise erzeugt das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) die Abbildung mit dünner gemachten Kanten 402 unter Verwendung einer Mehrzahl von Algorithmen zum Dünnermachen, wie es in „Parallel Thinning with Two-Subiteration Algorithms“ von Zicheng Guo und Richard W. Hall - Communications of the ACM 1989, beschrieben ist, dessen gesamter Inhalt hier unter Bezugnahme einbezogen ist.
  • Wie es vorstehend erwähnt worden ist und wie es in der 4 gezeigt ist, umfasst die Abbildung mit dünner gemachten Kanten 402 dünner gemachte Kanten 404, Verbindungen 406 und überall Mängel oder Anomalien, einschließlich z.B. getrennte Linien und teilweise verbundene Linien. Wie es in der 4 gezeigt ist und wie es detaillierter in der 5A gezeigt ist, umfasst die Abbildung mit dünner gemachten Kanten 402 verschiedene Merkmale und Eigenschaften, die bei der Erzeugung eines dreidimensionalen Netzes für den Scan des Gegenstands 102 Schwierigkeiten bereiten. Beispielsweise verhindern, wie es detaillierter beschrieben wird, Merkmale der Abbildung mit dünner gemachten Kanten 402, wie z.B. ungerade Linien, nicht eindeutige Verbindungen, getrennte Linien und teilweise verbundene Linien, dass das dreidimensionale Modelliersystem ein dreidimensionales Netz erzeugt, das bei der Erzeugung des dreidimensionalen Modells des Gegenstands 102 geeignet wäre.
  • In einer oder mehreren Ausführungsform(en) modifiziert das dreidimensionale Modelliersystem die Abbildung mit dünner gemachten Kanten 402 zum Entfernen oder in sonstiger Weise Modifizieren dieser Merkmale, die verhindern, dass das dreidimensionale Modelliersystem ein geeignetes dreidimensionales Netz für den Gegenstand 102 erzeugt. Beispielsweise kann, wie es nachstehend im Zusammenhang mit den 5A bis 5D detaillierter beschrieben wird, das dreidimensionale Modelliersystem die dünner gemachten Linien 404 der Abbildung mit dünner gemachten Kanten 402 begradigen, so dass ein zweidimensionales Netz 510 erzeugt wird, das in der 5D gezeigt ist. Insbesondere zeigen die 5A bis 5D Modifizierungen von vergrößerten Abschnitten 502 der Abbildung mit dünner gemachten Kanten 402. Es sollte beachtet werden, dass, obwohl die 5A bis 5D Modifizierungen des vergrößerten Abschnitts 502 zeigen, das dreidimensionale Modelliersystem entsprechende Modifizierungen mit den verbleibenden Abschnitten der Abbildung mit dünner gemachten Kanten 402 durchführt, um das zweidimensionale Netz 510 zu konstruieren, das in der 5D gezeigt ist. Folglich gelten die beschriebenen Modifizierungen des vergrößerten Abschnitts 502 entsprechend für das Modifizieren aller Abschnitte der Abbildung mit dünner gemachten Kanten 402.
  • Beispielsweise zeigt die 5A einen vergrößerten Abschnitt 502 der Abbildung mit dünner gemachten Kanten 402, der dünner gemachte Kanten 404a-e, Verbindungen 406ag, eine getrennte Linie 408a und eine teilweise verbundene Linie 410a umfasst. In einer oder mehreren Ausführungsform(en) identifiziert das dreidimensionale Modelliersystem vor dem Modifizieren oder Rekonstruieren von Merkmalen des vergrößerten Abschnitts 502 jede der Verbindungen 406a-g. Beispielsweise analysiert das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) die Pixel des vergrößerten Abschnitts 502 und identifiziert alle Schnittpunkte der dünner gemachten Kanten 404a-e. Beispielsweise identifiziert das dreidimensionale Modelliersystem beginnend mit einer Verbindung andere Verbindungen durch Bewegen entlang der dünner gemachten Kanten 404a-e, bis eine weitere Verbindung erreicht wird, bei der es nicht erforderlich ist, dass sie durch eine weitere Verbindung verläuft.
  • Nach dem Identifizieren der Verbindungen 406a-g kann das dreidimensionale Modelliersystem den vergrößerten Abschnitt 502 der Abbildung mit dünner gemachten Kanten 402 durch Begradigen der Linien 404a-e modifizieren. Insbesondere begradigt das dreidimensionale Modelliersystem, wie es in der 5B gezeigt ist, alle Linien 404a-e, von denen bestimmt worden ist, dass sie zwei der Verbindungen 406a-g verbinden. In einer oder mehreren Ausführungsform(en) ignoriert das dreidimensionale Modelliersystem alle Linien innerhalb des vergrößerten Abschnitts, von denen bestimmt worden ist, dass sie angrenzende Verbindungen 406a-g nicht verbinden. Beispielsweise ignoriert das dreidimensionale Modelliersystem, wie es in der 5B gezeigt ist, die getrennte Linie 408a und die partiell verbundene Linie 410a, oder modifiziert diese in sonstiger Weise nicht. Alternativ entfernt das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) einfach die getrennte Linie 408a und die partiell verbundene Linie 410a nach dem Bestimmen, dass die getrennte Linie 408a und die partiell verbundene Linie 410a zwei verschiedene Verbindungen 406a-g nicht verbinden können.
  • Wie es ferner in der 5B gezeigt ist, entspricht jede der geraden Linien 504a-e des vergrößerten Abschnitts 502 einer dünner gemachten Linie 404a-e der Abbildung mit dünner gemachten Kanten 402. In einer oder mehreren Ausführungsform(en) ersetzt das dreidimensionale Modelliersystem jede der dünner gemachten Linien 404a-e durch eine entsprechende gerade Linie 504a-e, ohne dass irgendwelche neuen geraden Linien erzeugt werden. Folglich behält das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) ein 1:1-Verhältnis von nicht-geraden Linien 404a-e zu entsprechenden geraden Linien 504a-e bei.
  • Zusätzlich zu einem Begradigen der dünner gemachten Linien 404a-e zur Bildung der geraden Linien 504a-e modifiziert das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) ferner den vergrößerten Abschnitt 502 der Abbildung mit dünner gemachten Kanten 402 durch Kombinieren einer oder mehrerer Verbindung(en) 406a-g zur Bildung von Eckpunkten 508a-d, die eine Struktur des zweidimensionalen Netzes 510 festlegen. Beispielsweise umfasst in einer oder mehreren Ausführungsform(en) als Ergebnis des Dünnermachens der Kanten 302 der Kantenabbildung 304 zum Erzeugen der Abbildung mit dünner gemachten Kanten 402 der resultierende vergrößerte Abschnitt 502 eine oder mehrere der Verbindungen 406a-g, die ein einzelner Eckpunkt sein soll oder sollen (z.B. an Schnittpunkten der speziell ausgebildete Netzlinien, die als Ergebnis des Dünnermachens der Kantenabbildung 302 zwei Verbindungen geworden sind). Um das Problem zu lösen, das durch das Dünnermachen der Kanten 304 der Kantenabbildung 302 verursacht wird, identifiziert das dreidimensionale Modellieren potenzielle Eckpunkte 506a-d, die eine Mehrzahl von Verbindungen 406a-g umfassen.
  • In einer oder mehreren Ausführungsform(en) identifiziert das dreidimensionale Modelliersystem die potenziellen Eckpunkte 506a-d durch Identifizieren einer Mehrzahl von Verbindungen 406a-g innerhalb eines Schwellenabstands voneinander. Beispielsweise identifiziert das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) die potenziellen Eckpunkte 506a-d durch Identifizieren jedweder der Verbindungen 406a-g des vergrößerten Abschnitts 502 innerhalb einer Schwellenanzahl von Pixeln von einer anderen Verbindung. Beispielsweise identifiziert, wie es in der 5B gezeigt ist, das dreidimensionale Modelliersystem einen ersten potenziellen Eckpunkt 506a, der Verbindungen 406a-b umfasst, einen zweiten potenziellen Eckpunkt 506b, der eine einzelne Verbindung 406c umfasst, einen dritten potenziellen Eckpunkt 506c, der Verbindungen 406d-e umfasst, und einen vierten potenziellen Eckpunkt 506d, der Verbindungen 406f-g umfasst.
  • Als Alternative zu einem einfachen Kombinieren der Verbindungen 406a-g innerhalb eines Schwellenabstands voneinander kann das dreidimensionale Modelliersystem ferner eine Anzahl von Seiten eines resultierenden Vielecks berücksichtigen, das durch Kombinieren der Verbindungen 406a-g gebildet wird. Beispielsweise priorisiert das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) das Kombinieren der Verbindungen 406a-d zur Bildung einer Form mit drei oder vier Seiten. Wie es in der 5B gezeigt ist, bilden die geraden Linien 504a-e ein Vieleck mit fünf Seiten. Nach dem Kombinieren von Verbindungen der potenziellen Eckpunkte 506a-d bildet das dreidimensionale Modelliersystem ein vierseitiges Vieleck, das durch Eckpunkte 508a-d und Kanten 509a-d festgelegt ist. Als Alternative zum Erzeugen von Vielecken mit vier Seiten erzeugt das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) Vielecke mit drei Seiten. In einer oder mehreren Ausführungsform(en) erzeugt das dreidimensionale Modelliersystem ein zweidimensionales Netz, das Vielecke sowohl mit drei als auch mit vier Seiten aufweist.
  • Beim Festlegen der potenziellen Eckpunkte 506a-d oder bei der sonstigen Bestimmung, welche Verbindungen 406a-g kombiniert werden sollen, kann das dreidimensionale Modelliersystem eine Anzahl von kombinierten Verbindungen bestimmen, die zum Bilden eines Vielecks mit einer vorgegebenen Anzahl von Seiten erforderlich sind. Beispielsweise kann das dreidimensionale Modelliersystem bezüglich des Konstruierens des zweidimensionalen Netzes 510 eine Einstellung empfangen oder in sonstiger Weise identifizieren, die angibt, dass Flächen des zweidimensionales Netzes 510 vier Seiten haben sollten. Folglich kann das dreidimensionale Modelliersystem Verbindungen 406a-g zum Kombinieren zur Bildung von Vielecken mit vier Seiten auswählen.
  • Nach dem Identifizieren der vorgegebenen Anzahl von Seiten kann das dreidimensionale Modelliersystem die potenziellen Eckpunkte 506a-d um die Verbindungen 406a-g auf der Basis der vorgegebenen Anzahl der Seiten festlegen. Beispielsweise kann das dreidimensionale Modelliersystem für das fünfseitige Vieleck, das in der 5B gezeigt ist, bestimmen, dass das Kombinieren von nur zwei Verbindungen zu einem vierseitigen Vieleck führen würde, wie es in der 5C gezeigt ist. Folglich kann das dreidimensionale Modelliersystem bestimmen, welche Verbindungen des fünfseitigen Vielecks die am nächsten liegende Position aufweisen (z.B. die Verbindungen 406a-b), und den ersten potenziellen Eckpunkt 506a um die Verbindungen 406a-b auf der Basis der Bestimmung der Nähe festlegen. Folglich legt das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) die potenziellen Eckpunkte auf der Basis einer Kombination einer Zielanzahl von Seiten für Vielecke des zweidimensionalen Netzes und der Nähe der Verbindungen 406a-g des vergrößerten Abschnitts 502 der Abbildung mit dünner gemachten Kanten 402 fest.
  • In einer oder mehreren Ausführungsform(en) kann das dreidimensionale Modelliersystem nach dem Festlegen der potenziellen Eckpunkte 506a-d den vergrößerten Abschnitt 502 zur Bildung einer Vieleckfläche (z.B. eines vierseitigen Vielecks) des zweidimensionalen Netzes 510 weiter modifizieren. Insbesondere bildet das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) die Eckpunkte 508a-d durch Kombinieren der Verbindungen 406a-g innerhalb entsprechender potenzieller Eckpunkte 506a-d. Beispielsweise werden, wie es in der 5C gezeigt ist, die Verbindungen 406a-b zur Bildung eines ersten Eckpunkts 508a kombiniert, die Verbindung 406c bildet den zweiten Eckpunkt 408b, die Verbindungen 406d-e bilden einen dritten Eckpunkt 408c und die Verbindungen 406f-g bilden einen vierten Eckpunkt 408d. Wie es weiter gezeigt ist, ist jeder der Eckpunkte 508a-d durch Kanten 509a-d des Vielecks verbunden.
  • Das dreidimensionale Modelliersystem kann die Verbindungen 406a-g in verschiedenartiger Weise kombinieren. Beispielsweise kombiniert das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) die Verbindungen 406a-g durch Erzeugen eines Eckpunkts an einem Mittelpunkt oder einer zentralen Stelle zwischen jeder der benachharten Verbindungen, die einen potenziellen Eckpunkt bilden. Als Beispiel erzeugt das dreidimensionale Modelliersystem den ersten Eckpunkt 508a an einem Mittelpunkt der geraden Linie 504e zwischen Verbindungen 406a-b.
  • Als Alternative erzeugt das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) einen Eckpunkt an einer Stelle auf der Basis einer vorge-gebenen Größe und/oder Form (z.B. eines Rechtecks, Dreiecks) für das Vieleck. Beispielsweise wenn die Verbindungen 406a-b des ersten potenziellen Eckpunkts 506a zur Bildung des ersten Eckpunkts 508a kombiniert werden, kann das dreidimensionale Modelliersystem den ersten Eckpunkt 508a an einer Stelle zur Bildung eines rechteckigen (oder näherungsweise rechteckigen) Vielecks kombinieren, selbst wenn die Stelle des ersten Eckpunkts 508a nicht an einem Mittelpunkt zwischen den Verbindungen 406a-b liegt. Folglich kann das dreidimensionale Modelliersystem Verbindungen in der gesamten Abbildung mit dünner gemachten Kanten 402 zur Bildung von Vielecken des zweidimensionalen Netzes 510 mit Formen kombinieren, die möglichst rechteckig sind. Darüber hinaus oder als Alternative priorisiert das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) die Anordnung der verschiedenen Eckpunkte zum Erzeugen von Vielecken mit ähnlichen Größen.
  • Darüber hinaus kann, wie es in der 5C gezeigt ist, das dreidimensionale Modelliersystem die getrennte Linie 408a von dem vergrößerten Abschnitt 502 entfernen. Beispielsweise kann das dreidimensionale Modelliersystem die getrennte Linie 408a auf der Basis der Bestimmung entfernen, dass die getrennte Linie 408a keinerlei Kanten 509a-d des vergrößerten Abschnitts 502 verbinden kann. In einer oder mehreren Ausführungsform(en) entfernt das dreidimensionale Modelliersystem die getrennte Linie 408a nach der Durchführung einer oder mehrerer Modifizierung(en), die im Zusammenhang mit den 5A bis 5D beschrieben worden ist oder sind. Alternativ entfernt das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) die getrennte Linie 408a vor dem Modifizieren der Linien 404a-e der Abbildung mit dünner gemachten Kanten 402 zur Bildung der geraden Linien 504a-e. Beispielsweise entfernt das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) die getrennte Linie 408a als Reaktion auf die Erfassung, dass die getrennte Linie 408a keine Verbindung mit irgendwelchen anderen Linien der Abbildung mit dünner gemachten Kanten 402 bilden kann.
  • Entsprechend kann, wie es in der 5C gezeigt ist, das dreidimensionale Modelliersystem die teilweise verbundene Linie 410a von dem vergrößerten Abschnitt 502 entfernen. Beispielsweise kann das dreidimensionale Modelliersystem die teilweise verbundene Linie 410a auf der Basis der Bestimmung entfernen, dass die teilweise verbundene Linie 410b zwei benachbarte Verbindungen 406a-g nicht verbinden kann. Entsprechend der Entfernung der getrennten Linie 408a kann das dreidimensionale Modelliersystem die teilweise verbundene Linie 410b bei jedweder Stufe des Modifizierens der Abbildung mit dünner gemachten Kanten 402 zur Bildung des zweidimensionalen Netzes 510 entfernen. Beispielsweise entfernt das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) die teilweise verbundene Linie 410b vor dem Erzeugen jedweder der geraden Linien. Insbesondere entfernt das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) die teilweise verbundene Linie 410b nach der Bestimmung, dass nur ein Endpunkt (z.B. nicht beide Endpunkte) der teilweise verbundenen Linie 410b die anderen Linien der Abbildung mit dünner gemachten Kanten 402 verbindet.
  • Folglich kann das dreidimensionale Modelliersystem die Abbildung mit dünner gemachten Kanten 402 zur Bildung des zweidimensionalen Netzes 510 modifizieren, das in der 5D gezeigt ist. Insbesondere bildet das dreidimensionale Modelliersystem als Ergebnis der Modifizierungen des vergrößerten Abschnitts 502 ein vierseitiges Vieleck mit einer Fläche, die durch Eckpunkte 508a-d und Vieleckkanten 509a-d festgelegt ist. Wie es weiter in der 5D gezeigt ist, kann das dreidimensionale Modelliersystem entsprechende Modifizierungen mit allen Abschnitten der Abbildung mit dünner gemachten Kanten 402 zur Bildung des zweidimensionalen Netzes 510 durchführen, das überall gerade Kanten und Vielecke mit einer vorgegebenen Anzahl von Seiten aufweist. Beispielsweise umfasst das resultierende zweidimensionale Netz 510, wie es in der 5D gezeigt ist, überall Vielecke mit vier Seiten. Alternativ erzeugt das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) ein zweidimensionales Netz, das überall Vielecke mit drei Seiten (oder einer anderen vorgegebenen Anzahl) umfasst.
  • Nach dem Erzeugen des zweidimensionalen Netzes 510 kann das dreidimensionale Modelliersystem ein dreidimensionales Netz auf der Basis von Eckpunkten und Kanten des zweidimensionalen Netzes 510 und von Tiefeninformationen von dem Scan des Gegenstands 102 erzeugen. Beispielsweise erzeugt das dreidimensionale Modelliersystem, wie es in der 6 gezeigt ist, ein dreidimensionales Netz 602 (z.B. ein Linie/Kante-Rendern des dreidimensionalen Netzes), das eine dreidimensionale Struktur auf der Basis von Tiefeninformationen des Gegenstands 102 umfasst. Insbesondere umfasst das dreidimensionale Netz 602, wie es in der 6 gezeigt ist, ein Rendern von Kanten und Eckpunkten, die Kanten and Eckpunkten des zweidimensionalen Netzes 510 entsprechen. Die Kanten und Eckpunkte legen Flächen des dreidimensionalen Netzes 602 fest.
  • Das dreidimensionale Modelliersystem kann das dreidimensionale Netz 602 aus dem zweidimensionalen Netz 510 und Tiefeninformationen in verschiedenartiger Weise erzeugen. Beispielsweise bildet das dreidimensionale Modelliersystem in einer oder mehreren Ausführungsform(en) die Eckpunkte und Kanten des zweidimensionalen Netzes 510 auf einen dreidimensionalen Raum ab. In einer oder mehreren Ausführungsform(en) bildet das dreidimensionale Modelliersystem die Eckpunkte und Kanten unter Verwendung von einer von verschiedenen UV-Parametrisierungstechniken, einschließlich z.B. eines baryzentrischen Abbildens, eines Differenzialgeometrieprimers („differential geometry primer“) und/oder eines oder mehrerer nicht-linearer Verfahren auf einen dreidimensionalen Raum ab.
  • In einer oder mehreren Ausführungsform(en) werden die UV-Parametrisierungstechniken durchgeführt, wenn die zweidimensionale Texturabbildung aus den Bildern und dreidimensionalen Informationen, die mittels der Scanvorrichtung erhalten worden sind, erzeugt wird. Das dreidimensionale Modelliersystem kann bereits eine 1:1-Abbildung zwischen dem dreidimensionalen Netz und der zweidimensionalen Texturabbildung aufweisen. In diesem Fall kann das dreidimensionale Modelliersystem das dreidimensionale Netz einfach auf der Basis der 1:1-Abbildung erzeugen, die im Vorhinein auf der Basis der Bilder und der Tiefeninformationen erzeugt oder in sonstiger Weise erhalten worden ist.
  • Wie es in der 6 gezeigt ist, kann das dreidimensionale Modelliersystem das dreidimensionale Netz erzeugen, das ein Rendern von Kanten umfasst, die durch die Eckpunkte und Kanten festgelegt sind. Darüber hinaus oder als Alternative kann das dreidimensionale Modelliersystem ein dreidimensionales Netz erzeugen, das ein Rendern von Flächen umfasst, die durch die Eckpunkte und Kanten gebildet werden. Beispielsweise erzeugt das dreidimensionale Modelliersystem, wie es in der 7 gezeigt ist, ein Flächenrendern des dreidimensionalen Netzes 702, das Flächen 704 umfasst, die durch die Linien und Kanten der dreidimensionalen Netzstruktur festgelegt sind. Ferner kann ein Nutzer in Bezug auf entweder das Kantenrendern des dreidimensionalen Netzes 602 oder das Flächenrendern des dreidimensionalen Netzes 702 in einer oder mehreren Ausführungsform(en) mit dem resultierenden dreidimensionalen Netz 602, 702 interagieren, um Abschnitte des dreidimensionalen Netzes 602, 702 zu bearbeiten oder in sonstiger Weise zu modifizieren.
  • Unter Bezugnahme auf die 8 werden zusätzliche Details bezüglich Komponenten und des Leistungsvermögens einer Beispielarchitektur für ein dreidimensionales Modelliersystem 812 angegeben, das auf einer Clientvorrichtung 804 gemäß einer oder mehreren Ausführungsform(en) implementiert werden kann. Insbesondere zeigt die 8 eine Beispielausführungsform einer dreidimensionalen Modellierumgebung 800, die eine Scanvorrichtung 802 und eine Clientvorrichtung 804 mit dem dreidimensionalen Modelliersystem 812 darauf umfasst, die zusammenwirken, so dass Merkmale und eine Funktionalität erreicht werden, die mit einer oder mehreren hier beschriebenen Ausführungsform(en) zusammenhängen. Beispielsweise können die Scanvorrichtung 802 und die Clientvorrichtung 804 zum Erzeugen eines dreidimensionalen Modells 702 eines Gegenstands 102 auf der Basis eines Scans des Gegenstands 102, der speziell ausgebildete Netzlinien 104 darauf gezeichnet aufweist, zusammenwirken.
  • Wie es in der 8 gezeigt ist, umfasst die dreidimensionale Modellierumgebung 800 eine Scanvorrichtung 802. Die Scanvorrichtung 802 kann eine Kamera und einen Tiefensensor umfassen. Beispielsweise umfasst die Scanvorrichtung 802, wie es gezeigt ist, einen Lichtprojektor 806, eine RGB (Rot-Grün-Blau)-Kamera 808 und eine IR (Infrarot)-Kamera 810. In einer oder mehreren Ausführungsform(en) nimmt die Scanvorrichtung 802 einen Scan eines dreidimensionalen Gegenstands (z.B. des Gegenstands 102) auf und stellt den Scan für die Clientvorrichtung 804 zum Erzeugen eines dreidimensionalen Modells bereit. Darüber hinaus umfasst, während die 8 die Scanvorrichtung 802 und die Clientvorrichtung 804 als zwei getrennte Vorrichtungen zeigt, die Clientvorrichtung in einer oder mehreren Ausführungsform(en) die Scanvorrichtung 802 oder eine oder mehrere Komponenten 806-810 der Scanvorrichtung 802, die darauf implementiert sind. Während eine oder mehrere hier beschriebene Ausführungsform(en) das Aufnehmen eines Scans eines dreidimensionalen Gegenstands unter Verwendung einer Scanvorrichtung 802 beschreibt oder beschreiben, sollte folglich beachtet werden, dass die Clientvorrichtung 804 in einer oder mehreren Ausführungsform(en) den Scan des dreidimensionalen Gegenstands aufnimmt.
  • Folglich nimmt, wie es vorstehend diskutiert worden ist, die Scanvorrichtung 802 einen Scan auf, der ein oder mehrere Bild(er) eines Gegenstands und Tiefeninformationen, die dem Gegenstand zugeordnet sind, umfasst. Beispielsweise nimmt die RGB-Kamera 808 in einer oder mehreren Ausführungsform(en) eine Sequenz einer Mehrzahl von Bildern eines Gegenstands auf. Die RGB-Kamera 808 kann eine Mehrzahl von Bildern eines Gegenstands von verschiedenen Perspektiven aufnehmen, um ein zweidimensionales Bild, das den dreidimensionalen Gegenstand darstellt, zu erzeugen oder in sonstiger Weise zu konstruieren. In einer oder mehreren Ausführungsform(en) nimmt die RGB-Kamera 808 ein Video des Gegenstands auf, das die Sequenz von Bildern (z.B. Videoframes) umfasst, und konstruiert eine zweidimensionale Texturabbildung des dreidimensionalen Gegenstands aus den Frames des Videos.
  • Darüber hinaus nimmt die Scanvorrichtung 802 Tiefeninformationen des Gegenstands unter Verwendung des Lichtprojektors 806 und der IR-Kamera 810 auf. Beispielsweise projiziert der Lichtprojektor 806 in einer oder mehreren Ausführungsform(en) Infrarot (IR)-Punkte oder ein anderes IR-Licht, die oder das auf den dreidimensionalen Gegenstand fallen oder fällt. Insbesondere projiziert der Lichtprojektor 806 ein Muster von IR-Punkten, die durch die IR-Kamera 810 sichtbar sind. Die IR-Kamera 810 analysiert das Muster von IR-Punkten zum Bestimmen der Eigenschaften und/oder Verzerrungen von einzelnen Punkten oder des Gesamtmusters von Punkten. Beispielsweise erscheint das Muster von Punkten auf Abschnitten des Gegenstands, die sich näher an der IR-Kamera 810 befinden, weiter entfernt. Alternativ erscheint das Muster von Punkten auf Abschnitten des Gegenstands, die von der IR-Kamera 810 weiter entfernt sind, dichter (oder näher beeinander).
  • Auf der Basis des festgestellten Musters von Punkten, die auf die Oberfläche des Gegenstands projiziert worden sind, identifiziert die Scanvorrichtung 802 Tiefeninformationen für den Gegenstand. Beispielsweise erzeugt die Scanvorrichtung 802 in einer oder mehreren Ausführungsform(en) eine Tiefenabbildung oder eine andere Darstellung der Tiefe des Gegenstands. In einer oder mehreren Ausführungsform(en) nutzt die Scanvorrichtung 802 die Reihe von Bildern, die durch die RGB-Kamera 808 aufgenommen worden sind, zusammen mit den Tiefeninformationen, die durch die IR-Kamera 810 aufgenommen worden sind, zum Erzeugen des Scans, der eine zweidimensionale Texturabbildung des Gegenstands und dazugehörige Tiefeninformationen umfasst.
  • In einer oder mehreren Ausführungsform(en) führt die Scanvorrichtung 802 einen Scan aus, der eine zweidimensionale Texturabbildung des Gegenstands und Tiefeninformationen des Gegenstands umfasst. Beispielsweise erzeugt die Scanvorrichtung 802 in einer oder mehreren Ausführungsform(en) ein zusammengesetztes Bild aus einer Sequenz einer Mehrzahl von Bildern, die durch die RGB-Kamera 808 aufgenommen worden sind, und erzeugt ferner eine Tiefenabbildung oder eine andere Darstellung der Tiefeninformationen, die unter Verwendung des Lichtprojektors 806 und der IR-Kamera 810 aufgenommen worden sind. Nach dem Erzeugen des Scans, der sowohl die zweidimensionale Texturabbildung des Gegenstands als auch entsprechende Tiefeninformationen umfasst, kann die Scanvorrichtung 802 den Scan für die Clientvorrichtung 804 bereitstellen.
  • Als Alternative zum Erzeugen des Scans auf der Scanvorrichtung 802 stellt die Scanvorrichtung 802 in einer oder mehreren Ausführungsform(en) Scandaten bereit, welche die Sequenz einer Mehrzahl von Bildern, die durch die RGB-Kamera 808 aufgenommen worden sind, und Tiefeninformationen, die durch die IR-Kamera 810 aufgenommen worden sind, umfassen. Insbesondere kann die Scanvorrichtung 802 statt der Erzeugung eines Scans, der verarbeitete Daten umfasst, einfach die Rohdaten von der Durchführung des Scans des Gegenstands für die Clientvorrichtung 804 bereitstellen, um es der Clientvorrichtung 804 zu ermöglichen, die zweidimensionale Texturabbildung und eine entsprechende Tiefenabbildung für den dreidimensionalen Gegenstand zu erzeugen.
  • Insbesondere umfasst das dreidimensionale Modelliersystem 812, wie es in der 8 gezeigt ist, einen gescanntes Bild-Wandler 814, der Daten, die von dem Scan erhalten worden sind, in eine zweidimensionale Texturabbildung des Gegenstands umwandelt. Beispielsweise erzeugt der gescanntes Bild-Wandler 814 in einer oder mehreren Ausführungsform(en) ein Modell, das ein zusammengesetztes Bild von der Sequenz von Bildern, die durch die RGB-Kamera 808 aufgenommen worden sind, und auf der Basis von Tiefeninformationen, die durch die IR-Kamera 810 aufgenommen worden sind, umfasst. Die zweidimensionale Texturabbildung des Gegenstands umfasst die Farbe des Gegenstands, einschließlich z.B. eine Farbe einer Oberfläche des Gegenstands und eine Farbe von Netzlinien, die auf der Oberfläche des Gegenstands gezeichnet oder in sonstiger Weise darauf angeordnet worden sind.
  • In einer oder mehreren Ausführungsform(en) erzeugt der gescanntes Bild-Wandler 814 die zweidimensionale Texturabbildung des Gegenstands aus den aufgenommenen Bildern (z.B. RGB-Bildern) und den Tiefeninformationen. Beispielsweise empfängt der gescanntes Bild-Wandler 814 in einer oder mehreren Ausführungsform(en) Tiefenframes und RGB-Bilder von der Scanvorrichtung 802. In einer oder mehreren Ausführungsform(en) sind der Tiefenframe und die RGB-Bilder miteinander ausgerichtet. Insbesondere erkennt der gescanntes Bild-Wandler 814 für jeden dreidimensionalen Punkt, der durch die Tiefenabbildung dargestellt wird, eine entsprechende Farbe von dem RGB-Bild. In einer oder mehreren Ausführungsform(en) implementiert der gescanntes Bild-Wandler 814 einen Scanalgorithmus zum Ausrichten aller Tiefenbilder zum Erzeugen eines dreidimensionalen Modells des gescannten Gegenstands. Da die Farbe jedes Eckpunkts auf dem Netz von den TGB-Bildern bekannt ist (auf der Basis des zusammengesetzten Bilds von der Sequenz von Bildern), wendet der gescanntes Bild-Wandler 814 einen Netzparametrisierungsalgorithmus (z.B. eine UV-Parametrisierung) an, um eine Abbildung von der dreidimensionalen Netzoberfläche auf die zweidimensionale Domäne zu finden.
  • Nach dem Identifizieren der Abbildung der zweidimensionalen Domäne wandelt der gescanntes Bild-Wandler 814 die Farbe des dreidimensionalen Netzes in die zweidimensionale Domäne um, so dass ein zweidimensionales Bild erhalten wird (z.B. wie es in der 2 gezeigt ist), das hier als eine zweidimensionale Texturabbildung bezeichnet wird. Sobald die zweidimensionale Texturabbildung erzeugt worden ist, können jedwede Modifizierungen, die mit der zweidimensionalen Texturabbildung durchgeführt werden (z.B. Dünnermachen, Kombinieren von Eckpunkten, usw.), einfach auf eine dreidimensionale Abbildung der zweidimensionalen Texturabbildung angewandt werden.
  • Wie es weiter in der 8 gezeigt ist, umfasst das dreidimensionale Modelliersystem 812 einen Kantenabbildungserzeuger 816. In einer oder mehreren Ausführungsform(en) erzeugt der Kantenabbildungserzeuger 816 eine Kantenabbildung für die zweidimensionale Texturabbildung des Gegenstands. Beispielsweise bewertet der Kantenabbildungserzeuger 816 in einer oder mehreren Ausführungsform(en) die zweidimensionale Texturabbildung und erfasst oder identifiziert in einer anderen Weise Kanten in der gesamten zweidimensionalen Texturabbildung, die Netzlinien oder kontrastierenden Farben zwischen Abschnitten der zweidimensionalen Texturabbildung entsprechen. Beispielsweise wenn der Gegenstand speziell ausgebildete Netzlinien auf der Oberfläche des Gegenstands umfasst, identifiziert der Kantenabbildungserzeuger 816 Linien, die kontrastierenden Pixelwerten entsprechen, die durch verschiedene Farben von speziell ausgebildeten Netzlinien verursacht werden, die auf dem Gegenstand und der Oberfläche des Gegenstands gezeichnet worden sind.
  • Zusätzlich zum Identifizieren von Kanten in der gesamten zweidimensionalen Texturabbildung des Gegenstands erzeugt der Kantenabbildungserzeuger 816 eine Kantenabbildung der zweidimensionalen Texturabbildung. In einer oder mehreren Ausführungsform(en) umfasst die Kantenabbildung eine binäre Darstellung des zweidimensionalen Bilds, die weiße Pixel, die identifizierten Kanten entsprechen, und schwarze Pixel umfasst, die andere Abschnitte der zweidimensionalen Texturabbildung identifizieren.
  • Um eine Kompensation für Kanten innerhalb der Kantenabbildung, die eine variable Dicke und andere Mängel aufweisen (z.B. getrennte Kanten, teilweise verbundene Kanten), bereitzustellen, kann das dreidimensionale Modelliersystem 812 die Kantenabbildung so modifizieren, das ein zweidimensionales Netz für den Gegenstand erzeugt wird. Insbesondere umfasst das dreidimensionale Modelliersystem 812, wie es in der 8 gezeigt ist, einen Netzerzeuger 818, der eine oder mehrere Modifizierung(en) mit der Kantenabbildung durchführt, so dass ein zweidimensionales Netz für den Gegenstand erzeugt wird. Insbesondere führt der Netzerzeuger 818 in einer oder mehreren Ausführungsform(en) verschiedene Modifizierungen mit der Kantenabbildung durch, so dass ein zweidimensionales Netz mit Linien, Eckpunkten und Flächen erzeugt wird, die den speziell ausgebildeten Netzlinien entsprechen, die auf einer Oberfläche des Gegenstands gezeichnet sind.
  • Beispielsweise erzeugt der Netzerzeuger 818 in einer oder mehreren Ausführungsform(en) eine Abbildung mit dünner gemachten Kanten, die dünner gemachte Kanten der Kantenabbildung umfasst. Insbesondere kann der Netzerzeuger 818 einen Algorithmus oder mehrere Algorithmen zum Dünnermachen zum Modifizieren der Kanten (z.B. zum Dünnermachen der Kanten) anwenden, so dass eine Abbildung mit dünner gemachten Kanten erzeugt wird, die Ein-Pixel-Kanten umfassen, die Kanten mit variabler Dicke in der gesamten Kantenabbildung entsprechen. Als Ergebnis umfasst die Abbildung mit dünner gemachten Kanten modifizierte, ein Pixel dicke Kanten in der gesamten resultierenden Kantenabbildung.
  • Nach der Erzeugung der Abbildung mit dünner gemachten Kanten modifiziert der Netzerzeuger 818 die Kantenabbildung (z.B. die Abbildung mit dünner gemachten Kanten) durch Identifizieren von Verbindungen innerhalb der Kantenabbildung und Begradigen der Kanten, welche die identifizierten Verbindungen verbinden, weiter. Beispielsweise erzeugt der Netzerzeuger 818 in einer oder mehreren Ausführungsform(en) gerade Kanten, die angrenzende Verbindungen innerhalb der Abbildung mit dünner gemachten Kanten verbinden, so dass jede der nicht-geraden Kanten der Abbildung durch dünner gemachte Kanten ersetzt wird.
  • Darüber hinaus kombiniert der Netzerzeuger 818 in einer oder mehreren Ausführungsform(en) eine oder eine Mehrzahl von Verbindungen der Kantenabbildung zur Bildung von Eckpunkten eines zweidimensionalen Netzes. Insbesondere identifiziert der Netzerzeuger 818 in einer oder mehreren Ausführungsform(en) potenzielle Eckpunkte durch Identifizieren von Verbindungen innerhalb eines Schwellenabstands, oder die, wenn sie kombiniert werden, ein Vieleck mit einer vorgegebenen Anzahl von Kanten bilden. Beispielsweise kombiniert der Netzerzeuger 818 in einer oder mehreren Ausführungsform(en) Verbindungen zur Bildung eines zweidimensionalen Netzes mit vierseitigen Vielecken in dem gesamten resultierenden zweidimensionalen Netz. Alternativ kann der Netzerzeuger 818 Verbindungen zur Bildung eines zweidimensionalen Netzes mit dreiseitigen Vielecken in dem gesamten resultierenden zweidimensionalen Netz kombinieren.
  • In einer oder mehreren Ausführungsform(en) wendet der Netzerzeuger 818 Tiefeninformationen von dem Scan des dreidimensionalen Gegenstands auf das zweidimensionale Netz zur Bildung eines dreidimensionalen Netzes mit einer Struktur an, die der Struktur des dreidimensionalen Gegenstands entspricht. Darüber hinaus entsprechen die Linien, Eckpunkte und Flächen des dreidimensionalen Netzes den speziell ausgebildeten Netzlinien auf der Oberfläche des Gegenstands. Beispielsweise bildet der Netzerzeuger 818 in einer oder mehreren Ausführungsform(en) die Eckpunkte, Kanten und Flächen des zweidimensionalen Netzes unter Verwendung von einer von verschiedenen UV-Parametrisierungstechniken auf eine dreidimensionale Struktur ab.
  • Darüber hinaus erzeugt das dreidimensionale Modelliersystem 812 in einer oder mehreren Ausführungsform(en) ein dreidimensionales Modell für den Gegenstand auf der Basis des dreidimensionalen Netzes. Auf diese Weise ermöglicht es das dreidimensionale Modelliersystem 812 einem Nutzer, mit dem dreidimensionalen Modell gemäß Nutzer- oder Gestaltungspräferenzen zu interagieren, dieses zu bearbeiten oder in sonstiger Weise zu verändern. Folglich erleichtert das dreidimensionale Modelliersystem 812 die Konstruktion eines dreidimensionalen Modells, das Merkmale umfasst, die es einem Nutzer ermöglichen, intuitiv mit dem dreidimensionalen Modell zu interagieren und dieses zu bearbeiten.
  • Wie es ferner in der 8 gezeigt ist, umfasst das dreidimensionale Modelliersystem 812 einen Datenspeicher 820 für Bilddaten 822 and Tiefendaten 824. Die Bilddaten 822 können Informationen umfassen, die aufgenommenen Bildern eines Gegenstands zugeordnet sind. Beispielsweise können die Bilddaten 822 eine Reihe von Videoframes oder Bildern umfassen, die durch die Scanvorrichtung 802 aufgenommen worden sind. Die Bilddaten 822 können ferner identifizierte Farben des Gegenstands und/oder eine Farbe der Netzlinien umfassen, die auf der Oberfläche des Gegenstands gezeichnet worden sind. Darüber hinaus umfassen die Tiefendaten 824 jedwede Informationen über die Tiefe oder die Geometrie des Gegenstands. Beispielsweise können die Tiefendaten 824 Informationen über Kanten, Risse, Kurven bzw. Krümmungen oder andere Oberflächenmerkmale eines Gegenstands, der durch die Scanvorrichtung 802 aufgenommen worden ist, umfassen. In einer oder mehreren Ausführungsform(en) nutzt das dreidimensionale Modelliersystem 812 sowohl die Bilddaten 822 als auch die Tiefendaten 824 zum Erzeugen der zweidimensionalen Texturabbildung des Gegenstands und zum anschließenden Erzeugen des dreidimensionalen Netzes des Gegenstands.
  • Die 1 bis 8, der entsprechende Text und das Beispiel stellen eine Anzahl von verschiedenen Systemen und Vorrichtungen bereit, die das Erzeugen eines dreidimensionalen Netzes eines dreidimensionalen Gegenstands, das Eckpunkte, Kanten und Flächen umfasst, auf der Basis von speziell ausgebildeten Netzlinien auf einer Oberfläche des dreidimensionalen Gegenstands ermöglichen. Zusätzlich zu dem Vorstehenden können Ausführungsformen auch in Bezug auf Flussdiagramme beschrieben werden, die Vorgänge und Schritte in einem Verfahren zum Erreichen eines bestimmten Ergebnisses umfassen. Beispielsweise zeigen die 9 und 10 Flussdiagramme von beispielhaften Verfahren und Vorgängen gemäß einer oder mehreren Ausführungsform(en).
  • Die 9 zeigt ein Flussdiagramm eines Beispielverfahrens 900 zum Konstruieren eines dreidimensionalen Netzes aus einem Scan eines dreidimensionalen Gegenstands. Insbesondere betrifft das Verfahren 900 die Erzeugung eines dreidimensionalen Netzes mit Eckpunkten, Kanten und Flächen, die Linien eines speziell ausgebildeten Netzes auf einer Oberfläche des dreidimensionalen Gegenstands entsprechen.
  • Wie es in der 9 gezeigt ist, umfasst das Verfahren 900 einen Vorgang 910 des Empfangens eines Scans eines dreidimensionalen Gegenstands, der eine zweidimensionale Texturabbildung und Tiefeninformationen für den dreidimensionalen Gegenstand umfasst. Beispielsweise umfasst der Vorgang 910 in einer oder mehreren Ausführungsform(en) das Empfangen eines Scans eines dreidimensionalen Gegenstands, der speziell ausgebildete Netzlinien umfasst, wobei der Scan eine zweidimensionale Texturabbildung des dreidimensionalen Gegenstands auf der Basis von einem oder mehreren Bild(ern) des dreidimensionalen Gegenstands und von Tiefeninformationen für den dreidimensionalen Gegenstand umfasst. In einer oder mehreren Ausführungsform(en) umfassen die speziell ausgebildeten Netzlinien handgezeichnete Linien, die auf einer Oberfläche des dreidimensionalen Gegenstands gezeichnet worden sind.
  • Zusätzlich umfasst das Verfahren 900 in einer oder mehreren Ausführungsform(en) das Erzeugen der zweidimensionalen Texturabbildung. Beispielsweise umfasst das Verfahren 900 in einer oder mehreren Ausführungsform(en) das Erzeugen der zweidimensionalen Texturabbildung durch Kombinieren von einem oder mehreren Bild(ern) des dreidimensionalen Gegenstands zu einem zusammengesetzten zweidimensionalen Bild auf der Basis der Tiefeninformationen für den dreidimensionalen Gegenstand.
  • Wie es weiter in der 9 gezeigt ist, umfasst das Verfahren 900 einen Vorgang 920 des Erzeugens einer Kantenabbildung für eine zweidimensionale Texturabbildung des dreidimensionalen Gegenstands. Beispielsweise umfasst der Vorgang 920 in einer oder mehreren Ausführungsform(en) das Erzeugen einer Kantenabbildung aus der zweidimensionalen Texturabbildung durch Erfassen von Kanten innerhalb der zweidimensionalen Texturabbildung, die den speziell ausgebildeten Netzlinien entsprechen. In einer oder mehreren Ausführungsform(en) umfasst das Erzeugen der Kantenabbildung das Erzeugen einer binären Darstellung der zweidimensionalen Texturabbildung. Insbesondere umfasst die binäre Darstellung eine erste Mehrzahl von Pixeln (z.B. Pixeln, die als Teil einer Kante identifiziert worden sind) mit einem ersten Pixelwert (z.B. weiß) und eine zweite Mehrzahl von Pixeln (z.B. die verbliebenen Pixel, die nicht als Teil einer Kante identifiziert worden sind) mit einem zweiten Pixelwert (z.B. schwarz).
  • Beispielsweise umfasst das Verfahren in einer oder mehreren Ausführungsform(en) das Empfangen einer Angabe einer Farbe der speziell ausgebildeten Netzlinien auf dem dreidimensionalen Gegenstand. In einer oder mehreren Ausführungsform(en) umfasst das Erzeugen der Kantenabbildung das Erfassen von Kanten innerhalb der zweidimensionalen Texturabbildung mit Pixelwerten, die der Farbe der Textlinie entsprechen. Beispielsweise wenn die speziell ausgebildeten Netzlinien blaue Linien umfassen, die auf einer weißen Oberfläche gezeichnet sind, kann das Erzeugen der Kantenabbildung das Erfassen von blauen Pixeln der zweidimensionalen Texturabbildung umfassen.
  • Wie es ferner in der 9 gezeigt ist, umfasst das Verfahren 900 einen Vorgang 930 des Konstruierens eines zweidimensionalen Netzes der zweidimensionalen Texturabbildung. Beispielsweise umfasst der Vorgang 930 in einer oder mehreren Ausführungsform(en) das Konstruieren eines zweidimensionalen Netzes der zweidimensionalen Texturabbildung, die rekonstruierte Kanten der Kantenabbildung umfasst. In einer oder mehreren Ausführungsform(en) umfasst das Konstruieren des zweidimensionalen Netzes das Erzeugen einer Abbildung mit dünner gemachten Kanten, die Kanten mit einer einheitlichen Dicke aufweist. Beispielsweise umfasst das Konstruieren des zweidimensionalen Netzes in einer oder mehreren Ausführungsform(en) das Dünnermachen der Kanten der Kantenabbildung, so dass sie eine Dicke von einem Pixel aufweisen. Wie es vorstehend diskutiert worden ist, kann das Dünnermachen der Kanten das Durchführen von einem Algorithmus zum Dünnermachen oder mehrerer Algorithmen zum Dünnermachen zum Erzeugen einer Abbildung mit dünner gemachten Kanten umfassen, die Kanten mit einer Dicke von einem Pixel umfasst.
  • In einer oder mehreren Ausführungsform(en) umfasst das Konstruieren des zweidimensionalen Netzes das Identifizieren von Verbindungen der Abbildung mit dünner gemachten Kanten. Darüber hinaus umfasst das Konstruieren des zweidimensionalen Netzes in einer oder mehreren Ausführungsform(en) das Erzeugen von Eckpunkten für das zweidimensionale Netz durch Kombinieren von Verbindungen an Stellen innerhalb der Abbildung mit dünner gemachten Kanten innerhalb eines Schwellenabstands voneinander. Darüber hinaus umfasst das Konstruieren des zweidimensionalen Netzes in einer oder mehreren Ausführungsform(en) das Erzeugen der rekonstruierten Kanten der Kantenabbildung durch Ersetzen von Kanten, welche die identifizierten Verbindungen verbinden, durch gerade Kanten, welche die identifizierten Verbindungen der Abbildung mit dünner gemachten Kanten verbinden.
  • Darüber hinaus umfasst das Konstruieren des zweidimensionalen Netzes zusätzlich zu dem Identifizieren von Verbindungen der Abbildung mit dünner gemachten Kanten das Identifizieren von zwei Verbindungen, die durch eine Kante der Abbildung mit dünner gemachten Kanten an Stellen innerhalb der Kantenabbildung innerhalb eines Schwellenabstands voneinander verbunden sind. Darüber hinaus umfasst das Konstruieren des zweidimensionalen Netzes das Bestimmen, dass das Kombinieren der zwei Verbindungen zu einem Eckpunkt ein Vieleck mit einer vorgegebenen Anzahl von Seiten bilden würde. Ferner umfasst das Konstruieren des zweidimensionalen Netzes in einer oder mehreren Ausführungsform(en) das Entfernen der Kante, welche die zwei Verbindungen verbindet, und das Kombinieren der zwei Verbindungen zu einem einzelnen Eckpunkt. Beispielsweise umfasst das Konstruieren des zweidimensionalen Netzes das Entfernen der Kante als Reaktion auf das Identifizieren, dass sich die zwei Verbindungen an Stellen befinden, die innerhalb des Schwellenabstands voneinander vorliegen, und dass das Kombinieren der zwei Verbindungen zu einem Eckpunkt ein Vieleck mit einer vorgegebenen Anzahl von Seiten bilden würde.
  • Darüber hinaus umfasst das Konstruieren des zweidimensionalen Netzes in einer oder mehreren Ausführungsform(en) das Entfernen von jedweden erfassten Kanten der Kantenabbildung, die keinerlei identifizierten Verbindungen der Kantenabbildung verbinden können. Ferner umfasst das Konstruieren des zweidimensionalen Netzes in einer oder mehreren Ausführungsform(en) das Entfernen von jedweden erfassten Kanten der Kantenabbildung, die nur einen einzigen Endpunkt aufweisen, der mit einer anderen erfassten Kante der Kantenabbildung verbunden ist.
  • Wie es ferner in der 9 gezeigt ist, umfasst das Verfahren 900 einen Vorgang 940 des Konstruierens eines dreidimensionalen Netzes des dreidimensionalen Gegenstands auf der Basis des zweidimensionalen Netzes und der Tiefeninformationen. Beispielsweise umfasst der Vorgang 940 in einer oder mehreren Ausführungsform(en) das Konstruieren eines dreidimensionalen Netzes des dreidimensionalen Gegenstands auf der Basis des zweidimensionalen Netzes und der Tiefeninformationen, wobei das dreidimensionale Netz Vielecke umfasst, die den speziell ausgebildeten Netzlinien entsprechen. In einer oder mehreren Ausführungsform(en) umfasst das Konstruieren des dreidimensionalen Netzes das Erzeugen einer dreidimensionalen Darstellung der zweidimensionalen Texturabbildung auf der Basis der Tiefeninformationen für den dreidimensionalen Gegenstand.
  • Zusätzlich oder als Alternative zu einem Vorgang oder mehreren Vorgängen (z.B. den Vorgängen 930-940) des Verfahrens 900, umfasst das Verfahren 900 in einer oder mehreren Ausführungsform(en) einen Schritt zum Konstruieren eines dreidimensionalen Netzes des dreidimensionalen Gegenstands unter Verwendung der Kantenabbildung und der Tiefeninformationen. Insbesondere umfasst das dreidimensionale Netz Vielecke, die den speziell ausgebildeten Netzlinien auf dem dreidimensionalen Gegenstand entsprechen. In einer oder mehreren Ausführungsform(en) umfasst der Schritt des Konstruierens des dreidimensionalen Netzes eine Reihe von Vorgängen zum Modifizieren der erzeugten Kantenabbildung zum Konstruieren des dreidimensionalen Netzes.
  • Beispielsweise zeigt die 10 eine Reihe von Vorgängen 1000 in einer Ausführungsform des Durchführens eines Schritts zum Konstruieren des dreidimensionalen Netzes des dreidimensionalen Gegenstands unter Verwendung der Kantenabbildung und der Tiefeninformationen. Die Vorgänge können einen Vorgang 1010 des Erzeugens einer Abbildung mit dünner gemachten Kanten durch Dünnermachen von Kanten der Kantenabbildung umfassen. Beispielsweise umfasst der Vorgang 1010 in einer oder mehreren Ausführungsform(en) das Erzeugen einer Abbildung mit dünner gemachten Kanten durch Dünnermachen von Kanten der Kantenabbildung, so dass sie eine einheitliche Pixeldicke aufweisen. In einer oder mehreren Ausführungsform(en) umfasst das Dünnermachen der Kanten der Kantenabbildung das iterative Löschen von gegenüberliegenden Grenzpixeln der Kanten der Kantenabbildung, bis die Kanten dünner gemachte Kanten mit der Dicke eines Pixels umfassen, während Verbindungen der Abbildung mit dünner gemachten Kanten bewahrt werden.
  • Wie es ferner in der 10 gezeigt ist, umfasst die Reihe von Vorgängen 1000 einen Vorgang 1020 des Identifizierens von Verbindungen der Abbildung mit dünner gemachten Kanten. Beispielsweise umfasst der Vorgang 1020 in einer oder mehreren Ausführungsform(en) das Identifizieren von Verbindungen der Abbildung mit dünner gemachten Kanten durch Identifizieren von Schnittpunkten der dünner gemachten Kanten in der gesamten Abbildung mit dünner gemachten Kanten. Darüber umfasst die Reihe von Vorgängen 1000, wie es in der 10 gezeigt ist, einen Vorgang 1030 des erneuten Zeichnens von Kanten der Abbildung mit dünner gemachten Kanten zur Bildung von geraden Linien, welche die identifizierten Verbindungen verbinden. Beispielsweise umfasst der Vorgang 1030 in einer oder mehreren Ausführungsform(en) das Ersetzen der dünner gemachten Kanten der Kantenabbildungen zur Bildung von geraden Linien, die jede der identifizierten Verbindungen verbinden.
  • Darüber hinaus umfasst die Reihe von Vorgängen 1000, wie es in der 10 gezeigt ist, einen Vorgang 1040 des Kombinierens von einer oder mehreren der Verbindungen zur Bildung von Eckpunkten von Vielecken mit geraden Kanten. Beispielsweise umfasst der Vorgang 1040 in einer oder mehreren Ausführungsform(en) das Kombinieren von einer oder mehreren der Verbindungen zur Bildung von Eckpunkten der Vielecke mit geraden Kanten entsprechend den speziell ausgebildeten Netzlinien. In einer oder mehreren Ausführungsform(en) umfasst das Kombinieren der Verbindungen zur Bildung der Vielecke das Kombinieren von jedweden zwei oder mehr Verbindungen mit Positionen innerhalb eines Schwellenabstands zueinander zu einem Eckpunkt.
  • In einer oder mehreren Ausführungsform(en) umfasst der Schritt des Konstruierens des dreidimensionalen Netzes des dreidimensionalen Gegenstands unter Verwendung der Kantenabbildung und der Tiefeninformationen das Identifizieren von Verbindungen in der Kantenabbildung. Der Schritt des Konstruierens des dreidimensionalen Netzes kann das Identifizieren eines Zentrumspixels von jeder identifizierten Verbindung umfassen. Der Schritt des Konstruierens des dreidimensionalen Netzes kann dann das Erzeugen einer Abbildung mit dünner gemachten Kanten durch Dünnermachen von Kanten der Kantenabbildung, während die Position der identifizierten Verbindungen beschränkt wird, umfassen. In solchen Ausführungsformen kann der Schritt des Konstruierens des dreidimensionalen Netzes gegebenenfalls nicht das Kombinieren von einer oder mehreren der Verbindungen umfassen.
  • Ausführungsformen der vorliegenden Offenbarung können einen speziellen oder allgemeinen Computer umfassen oder nutzen, der Computerhardware umfasst, wie z.B. einen oder mehrere Prozessor(en) und Systemspeicher, wie es nachstehend detaillierter diskutiert wird. Ausführungsformen innerhalb des Umfangs der vorliegenden Offenbarung umfassen auch physikalische und andere computerlesbare Medien zum Aufnehmen oder Speichern von computerausführbaren Anweisungen und/oder Datenstrukturen. Insbesondere kann oder können eines bzw. einer oder mehrere der hier beschriebenen Verfahren bzw. Prozesse mindestens zum Teil als Anweisungen implementiert werden, die in einem nicht-flüchtigen computerlesbaren Medium verkörpert sind und durch eine oder mehrere Rechenvorrichtung(en) ausführbar sind (z.B. irgendeine der Medieninhaltzugangsvorrichtungen, die hier beschrieben sind). Im Allgemeinen erhält ein Prozessor (z.B. ein Mikroprozessor) Anweisungen von einem nicht-flüchtigen computerlesbaren Medium (z.B. einem Speicher, usw.) und führt diese Anweisungen aus, wodurch ein oder mehrere Prozesse bzw. Verfahren, einschließlich einer oder mehrere der hier beschriebenen Prozesse, ausgeführt wird.
  • Computerlesbare Medien können jedwede verfügbare Medien sein, auf die durch ein allgemeines oder spezielles Computersystem zugegriffen werden kann. Computerlesbare Medien, die computerausführbare Anweisungen speichern, sind nicht-flüchtige computerlesbare Speichermedien (Vorrichtungen). Computerlesbare Medien, die computerausführbare Anweisungen enthalten, sind Übertragungsmedien. Folglich können beispielhaft und nicht beschränkend Ausführungsformen der Offenbarung mindestens zwei klar unterschiedliche Arten von computerlesbaren Medien umfassen: Nicht-flüchtige computerlesbare Speichermedien (Vorrichtungen) und Übertragungsmedien.
  • Nicht-flüchtige computerlesbare Speichermedien (Vorrichtungen) umfassen RAM, ROM, EEPROM, CD-ROM, Festkörperlaufwerke („SSDs“) (z.B. auf der Basis eines RAM), Flashspeicher, Phasenänderungsspeicher („PCM“), andere Speichertypen, andere optische Speicherplatten, Magnetplattenspeicher oder andere Magnetspeichervorrichtungen oder jedwedes andere Medium, das zum Speichern eines gewünschten Programmcodemittels in der Form von computerlesbaren Anweisungen oder Datenstrukturen verwendet werden kann und auf das durch einen allgemeinen oder speziellen Computer zugegriffen werden kann.
  • Ein „Netzwerk“ ist als eine oder mehrere Datenverbindung(en) festgelegt, die den Transport von elektronischen Daten zwischen Computersystemen und/oder -modulen und/oder anderen elektronischen Vorrichtungen ermöglicht oder ermöglichen. Wenn Informationen über ein Netzwerk oder eine andere Kommunikationsverbindung (entweder drahtgebunden, drahtlos oder eine Kombination aus drahtgebunden oder drahtlos) auf einen Computer übertragen oder für diesen bereitgestellt werden, ist für den Computer die Verbindung in einer geeigneten Weise ein Übertragungsmedium. Übertragungsmedien können ein Netzwerk und/oder Datenverbindungen umfassen, die zum Übertragen von gewünschten Programmcodemitteln in der Form von computerausführbaren Anweisungen oder Datenstrukturen verwendet werden können, und auf die durch einen allgemeinen oder speziellen Computer zugegriffen werden kann. Kombinationen des Vorstehenden sollen ebenfalls vom Umfang der computerlesbaren Medien umfasst sein.
  • Ferner können beim Erreichen von verschiedenen Computersystemkomponenten Programmcodemittel in der Form von computerausführbaren Anweisungen oder Datenstrukturen automatisch von Übertragungsmedien auf nicht-flüchtige computerlesbare Speichermedien (Vorrichtungen) übertragen werden (oder umgekehrt). Beispielsweise können computerausführbare Anweisungen oder Datenstrukturen, die über ein Netzwerk oder eine Datenverbindung empfangen werden, in einem RAM innerhalb eines Netzwerkschnittstellenmoduls (z.B. eines „NIC“) gepuffert werden, und dann schließlich auf ein Computersystem-RAM und/ oder weniger flüchtige Computerspeichermedien (Vorrichtungen) an einem Computersystem übertragen. Folglich sollte beachtet werden, dass nicht-flüchtige computerlesbare Speichermedien (Vorrichtungen) in Computersystemkomponenten einbezogen werden, die auch (oder sogar primär) Übertragungsmedien nutzen.
  • Computerausführbare Anweisungen umfassen z.B. Anweisungen und Daten, die, wenn sie in einem Prozessor ausgeführt werden, bewirken, dass ein allgemeiner Computer, ein spezieller Computer oder eine spezielle Verarbeitungsvorrichtung eine bestimmte Funktion oder Gruppe von Funktionen ausführt. In einer oder mehreren Ausführungsform(en) werden computerausführbare Anweisungen auf einem allgemeinen Computer ausgeführt, so dass der allgemeine Computer in einen speziellen Computer umgewandelt wird, der Elemente der Offenbarung implementiert. Die computerausführbaren Anweisungen können z.B. binäre Daten, Zwischenformatanweisungen, wie z.B. eine Assemblysprache, oder sogar Quellcode sein. Obwohl der Gegenstand in einer Sprache beschrieben worden ist, die für strukturelle Marketingmerkmale und/oder methodologische Vorgänge spezifisch ist, sollte beachtet werden, dass der in den beigefügten Ansprüchen definierte Gegenstand nicht notwendigerweise auf die beschriebenen Marketingmerkmale oder Vorgänge beschränkt ist, die vorstehend beschrieben sind. Vielmehr sind die beschriebenen Marketingmerkmale und Vorgänge als Beispielformen des Implementierens der Ansprüche offenbart.
  • Einem Fachmann ist klar, dass die Offenbarung in Netzwerkrechenumgebungen mit vielen Typen von Computersystemkonfigurationen ausgeführt werden kann, einschließlich Personalcomputer, Desktopcomputer, Laptopcomputer, Benachrichtigungsprozessoren, handgehaltene Geräte, Mehrprozessorsysteme, mikroprozessorbasierte oder programmierbare Verbraucherelektronik, Netzwerk-PCs, Minicomputer, Großrechner, Mobiltelefone, PDAs, Tablets, Pager, Router, Koppler und dergleichen. Die Offenbarung kann auch in verteilten Systemumgebungen ausgeführt werden, wo lokale und entfernte Computersysteme, die durch ein Netzwerk verbunden sind (entweder durch drahtgebundene Datenverbindungen, drahtlose Datenverbindungen oder durch eine Kombination aus drahtgebundenen und drahtlosen Datenverbindungen), beide Aufgaben ausführen. In einer verteilten Systemumgebung können sich Programmmodule sowohl in lokalen als auch in entfernten oder externen Speichervorrichtungen befinden.
  • Ausführungsformen der vorliegenden Offenbarung können auch in Cloudcomputingumgebungen implementiert werden. In dieser Beschreibung ist „Cloudcomputing“ als Modell zum Ermöglichen eines bedarfsmäßigen Netzwerkzugangs zu einem gemeinsamen Pool von konfigurierbaren Rechenresourcen definiert. Beispielsweise kann ein Cloudcomputing im Markt zum Anbieten eines überall verfügbaren und bequemen bedarfsmäßigen Zugangs zu dem gemeinsamen Pool von konfigurierbaren Rechenresourcen eingesetzt werden. Der gemeinsame Pool von konfigurierbaren Rechenresourcen kann schnell mittels einer Virtualisierung bereitgestellt werden und mit einem geringen Verwaltungsaufwand oder einer geringen Dienstanbieterinteraktion freigegeben werden, und dann entsprechend skaliert werden.
  • Ein Cloudcomputingabmeldemodell kann aus verschiedenen Eigenschaften zusammengesetzt sein, wie z.B. einer bedarfsmäßigen Selbstbedienung, einem breiten Netzwerkzugang, einem Poolen von Resourcen, einer schnellen Elastizität, einem spezifischen Dienst, usw. Ein Cloudcomputingabmeldemodell kann auch verschiedene Dienstabmeldemodelle anbieten, wie z.B. eine Software als Dienst („SaaS“), einen Webdienst, eine Plattform als Dienst („PaaS“) und eine Infrastruktur als Dienst („IaaS“). Ein Cloudcomputingabmeldemodell kann auch mittels verschiedener Verteilungsabmeldemodelle, wie z.B. einer privaten Cloud, einer Gemeinschaftscloud, einer öffentlichen Cloud, einer Hybridcloud, usw., verteilt werden. In dieser Beschreibung und in den Ansprüchen ist eine „Cloudcomputingumgebung“ eine Umgebung, in der ein Cloudcomputing eingesetzt wird.
  • Die 11 zeigt in einer Blockdiagrammform eine beispielhafte Rechenvorrichtung 1100, die zum Ausführen von einem oder mehreren der vorstehend beschriebenen Vorgänge konfiguriert werden kann. Wie es in der 11 gezeigt ist, kann die Rechenvorrichtung 1100 einen Prozessor 1102, einen Speicher 1104, eine Speichervorrichtung 1106, eine I/O-Schnittstelle 1108 und eine Kommunikationsschnittstelle 1110 umfassen, die mittels einer Kommunikationsinfrastruktur 1112 kommunikativ gekoppelt sein können. In bestimmten Ausführungsformen kann die Rechenvorrichtung 1100 weniger oder mehr Komponenten als diejenigen umfassen, die in der 11 gezeigt sind. Komponenten der Rechenvorrichtung 1100, die in der 11 gezeigt sind, werden nachstehend detaillierter beschrieben.
  • In einer oder mehreren Ausführungsform(en) umfasst der Prozessor 1102 Hardware zum Ausführen von Anweisungen, wie z.B. solchen, die ein Computerprogramm bilden. Als Beispiel und nicht beschränkend kann der Prozessor zum Ausführen von Anweisungen zum Digitalisieren von realen Gegenständen die Anweisungen von einem internen Register, einem internen Cache, dem Speicher 1104 oder der Speichervorrichtung 1106 abfragen (oder holen) und diese dekodieren und ausführen. Der Speicher 1104 kann ein flüchtiger oder nicht-flüchtiger Speicher sein, der zum Speichern von Daten, Metadaten und Programmen zum Ausführen durch den oder die Prozessor(en) verwendet wird. Die Speichervorrichtung 1106 umfasst einen Speicher, wie z.B. eine Festplatte, einen Flashspeicher oder eine andere digitale Speichervorrichtung zum Speichern von Daten oder Anweisungen, die mit den Gegenstandsdigitalisierungsvorgängen zusammenhängen (z.B. digitalen Scans, digitalen Modellen).
  • Die I/O-Schnittstelle 1108 ermöglicht es einem Nutzer, eine Eingabe für die Rechenvorrichtung 1100 bereitzustellen, eine Ausgabe von der Rechenvorrichtung 1100 zu erhalten oder in sonstiger Weise Daten zu und von der Rechenvorrichtung 1100 zu übertragen. Die I/O-Schnittstelle 1108 kann eine Maus, ein Keypad oder eine Tastatur, einen Berührungsbildschirm, eine Kamera, einen optischen Scanner, eine Netzwerkschnittstelle, ein Modem, andere bekannte I/O-Vorrichtungen oder eine Kombination solcher I/O-Schnittstellen umfassen. Die I/O-Schnittstelle 1108 kann eine oder mehrere Vorrichtung(en) zum Darstellen einer Ausgabe für einen Nutzer umfassen, einschließlich, jedoch nicht beschränkt auf, ein Graphikmodul, eine Anzeige (z.B. einen Anzeigebildschirm), einen oder mehrere Ausgabetreiber (z.B. Anzeigetreiber), einen oder mehrere Lautsprecher und einen oder mehrere Audiotreiber. In bestimmten Ausführungsformen ist die I/O-Schnittstelle 1108 zum Bereitstellen von graphischen Daten für eine Anzeige zur Darstellung für einen Nutzer ausgebildet. Die graphischen Daten können für eine oder mehrere graphische Nutzerschnittstelle(n) und/oder jedweden anderen graphischen Inhalt repräsentativ sein, der als spezielle Implementierung dienen kann.
  • Die Kommunikationsschnittstelle 1110 kann Hardware, Software oder beides umfassen. Die Kommunikationsschnittstelle 1110 kann eine oder mehrere Schnittstelle(n) für eine Kommunikation (wie z.B. eine Kommunikation auf Paketbasis) zwischen der Rechenvorrichtung 1100 und einer oder mehreren anderen Rechenvorrichtung(en) oder einem oder mehreren Netzwerk(en) bereitstellen. Als Beispiel und nicht beschränkend kann die Kommunikationsschnittstelle 1110 eine Netzwerkschnittstellensteuereinrichtung (NIC) oder einen Netzwerkadapter zum Kommunizieren mit einem Ethernet oder einem anderen drahtgebundenen Netzwerk oder eine drahtlose NIC (WNIC) oder einen drahtlosen Adapter zum Kommunizieren mit einem drahtlosen Netzwerk, wie z.B. WI-FI, umfassen.
  • Zusätzlich kann die Kommunikationsschnittstelle 1110 die Kommunikation mit verschiedenen Typen von drahtgebundenen oder drahtlosen Netzwerken vereinfachen. Die Kommunikationsschnittstelle 1110 kann auch eine Kommunikation mittels verschiedener Kommunikationsprotokolle erleichtern. Die Kommunikationsinfrastruktur 1112 kann auch Hardware, Software oder beides umfassen, die Komponenten der Rechenvorrichtung 1100 miteinander koppelt oder koppeln. Beispielsweise kann die Kommunikationsschnittstelle 1110 ein oder mehrere Netzwerk(e) und/oder Protokoll(e) nutzen, um eine Kommunikation einer Mehrzahl von Rechenvorrrichtungen, die durch eine bestimmte Infrastruktur verbunden sind, miteinander zu ermöglichen, um einen oder mehrere Aspekt(e) der hier beschriebenen Digitalisierungsverfahren durchzuführen. Beispielsweise kann es der Bildkomprimierungsvorgang einer Mehrzahl von Vorrichtungen (z.B. Servervorrichtungen zur Durchführung von Bildverarbeitungszielen einer großen Zahl von Bildern) ermöglichen, Informationen über einen ausgewählten Arbeitsablauf und über Bilddaten für eine Mehrzahl von Bildern unter Verwendung verschiedener Kommunikationsnetzwerke und -protokolle auszutauschen.
  • In der vorstehenden Beschreibung wurde die vorliegende Offenbarung unter Bezugnahme auf spezifische beispielhafte Ausführungsformen davon beschrieben. Verschiedene Ausführungsformen und Aspekte der vorliegenden Offenbarung sind unter Bezugnahme auf hier diskutierte Details beschrieben und die beigefügten Zeichnungen veranschaulichen die verschiedenen Ausführungsformen. Die vorstehende Beschreibung und die Zeichnungen dienen zur Veranschaulichung der Offenbarung und sind nicht so aufzufassen, dass sie die Offenbarung beschränken. Zahlreiche spezifische Details sind beschrieben, um ein gründliches Verständnis von verschiedenen Ausführungsformen der vorliegenden Offenbarung bereitzustellen.
  • Die vorliegende Erfindung kann in anderen spezifischen Formen ausgeführt werden, ohne von deren Wesen oder essentiellen Eigenschaften abzuweichen. Die beschriebenen Ausführungsformen sind in jeder Hinsicht nur als veranschaulichend und nicht als beschränkend aufzufassen. Beispielsweise können die hier beschriebenen Verfahren mit weniger oder mehr Schritten/Vorgängen ausgeführt werden oder die Schritte/Vorgänge können in anderen Reihenfolgen ausgeführt werden. Zusätzlich können die hier beschriebenen Schritte/Vorgänge parallel zueinander oder parallel mit verschiedenen Instanzen derselben oder von ähnlichen Schritten/Vorgängen wiederholt oder ausgeführt werden. Der Umfang der Erfindung ist daher durch die beigefügten Ansprüche und nicht durch die vorstehende Beschreibung angegeben. Alle Änderungen, die innerhalb der Bedeutung und des Bereichs der Äquivalenz der Ansprüche liegen, sollen von deren Umfang umfasst sein.

Claims (20)

  1. Verfahren zum Erzeugen eines dreidimensionalen Modells eines gescannten Gegenstands in einer digitalen Medienumgebung zum Digitalisieren von physischen Gegenständen, wobei das Verfahren umfasst: Empfangen eines Scans eines dreidimensionalen Gegenstands, der speziell ausgebildete Netzlinien umfasst, wobei der Scan ein oder mehrere Bild(er) des dreidimensionalen Gegenstands und Tiefeninformationen für den dreidimensionalen Gegenstand umfasst; Erzeugen einer Kantenabbildung aus dem Scan durch Erfassen von Kanten innerhalb des Scans, die den speziell ausgebildeten Netzlinien entsprechen; und Durchführen eines Schritts zum Konstruieren eines dreidimensionalen Netzes des dreidimensionalen Gegenstands unter Verwendung der Kantenabbildung und der Tiefeninformationen, wobei das dreidimensionale Netz Vielecke umfasst, die den speziell ausgebildeten Netzlinien entsprechen.
  2. Verfahren nach Anspruch 1, das ferner das Erzeugen einer zweidimensionalen Texturabbildung aus dem Scan durch Abgleichen des einen Bilds oder der mehreren Bilder des Scans umfasst.
  3. Verfahren nach Anspruch 2, das ferner das Dünnermachen von Kanten der Kantenabbildung umfasst, so dass sie eine einheitliche Pixeldicke aufweisen, umfassend das iterative Löschen von gegenüberliegenden Grenzpixeln der Kanten der Kantenabbildung, bis die Kanten dünner gemachte Kanten mit der Dicke eines Pixels aufweisen, während Verbindungen der Abbildung mit dünner gemachten Kanten bewahrt werden.
  4. Verfahren nach Anspruch 2 oder 3, das ferner das Kombinieren von jedweden zwei oder mehr Verbindungen mit Positionen innerhalb eines Schwellenabstands voneinander zu einem Eckpunkt umfasst.
  5. Verfahren nach einem der Ansprüche 2 bis 4, bei dem das Erzeugen der zweidimensionalen Texturabbildung aus dem Scan ferner das Umwandeln der Tiefeninformationen und des einen Bilds oder der mehreren Bilder, das oder die abgeglichen ist oder sind, von einer dreidimensionalen Domäne in eine zweidimensionale Domäne umfasst.
  6. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die speziell ausgebildeten Netzlinien handgezeichnete Linien umfassen, die auf einer Oberfläche des dreidimensionalen Gegenstands gezeichnet worden sind.
  7. Verfahren nach einem der vorhergehenden Ansprüche, bei dem das Erzeugen der Kantenabbildung das Erzeugen einer binären Darstellung der zweidimensionalen Texturabbildung umfasst, wobei die binäre Darstellung einen ersten Pixelwert für jedwede Pixel, von denen bestimmt worden ist, dass sie den speziell ausgebildeten Netzlinien entsprechen, und einen zweiten Pixelwert für andere Pixel der zweidimensionalen Texturabbildung umfasst.
  8. Verfahren nach einem der vorhergehenden Ansprüche, ferner umfassend: Empfangen einer Angabe einer Farbe der speziell ausgebildeten Netzlinien; und wobei das Erfassen von Kanten innerhalb der zweidimensionalen Texturabbildung das Identifizieren von Pixeln der zweidimensionalen Texturabbildung mit Pixelwerten umfasst, die der Farbe der speziell ausgebildeten Netzlinien entsprechen.
  9. Verfahren zum Erzeugen eines dreidimensionalen Modells eines gescannten Gegenstands in einer digitalen Medienumgebung zum Digitalisieren von physischen Gegenständen, wobei das Verfahren umfasst: Empfangen eines Scans eines dreidimensionalen Gegenstands, der speziell ausgebildete Netzlinien umfasst, wobei der Scan eine zweidimensionale Texturabbildung des dreidimensionalen Gegenstands auf der Basis von einem oder mehreren Bild(ern) des dreidimensionalen Gegenstands und Tiefeninformationen für den dreidimensionalen Gegenstand umfasst; Erzeugen einer Kantenabbildung aus der zweidimensionalen Texturabbildung durch Erfassen von Kanten innerhalb der zweidimensionalen Texturabbildung, die den speziell ausgebildeten Netzlinien entsprechen; Konstruieren eines zweidimensionalen Netzes der zweidimensionalen Texturabbildung, wobei das zweidimensionale Netz rekonstruierte Kanten der Kantenabbildung umfasst; und Konstruieren eines dreidimensionalen Netzes des dreidimensionalen Gegenstands auf der Basis des zweidimensionalen Netzes und der Tiefeninformationen, wobei das dreidimensionale Netz Vielecke umfasst, die den speziell ausgebildeten Netzlinien entsprechen.
  10. Verfahren nach Anspruch 9, das ferner das Erzeugen der zweidimensionalen Texturabbildung umfasst, wobei das Erzeugen der zweidimensionalen Texturabbildung das Kombinieren des einen Bilds oder der mehreren Bilder des dreidimensionalen Gegenstands zu einem zusammengesetzten zweidimensionalen Bild auf der Basis der Tiefeninformationen für den dreidimensionalen Gegenstand umfasst.
  11. Verfahren nach Anspruch 9 oder 10, bei dem das Konstruieren des zweidimensionalen Netzes das Erzeugen einer Abbildung mit dünner gemachten Kanten umfasst, die Kanten mit einer einheitlichen Dicke umfasst.
  12. Verfahren nach Anspruch 11, bei dem die Kanten der Abbildung mit dünner gemachten Kanten eine Dicke von einem Pixel aufweisen.
  13. Verfahren nach Anspruch 11 oder 12, bei dem das Konstruieren des zweidimensionalen Netzes umfasst: Identifizieren von Verbindungen der Abbildung mit dünner gemachten Kanten; und Erzeugen von Eckpunkten für das zweidimensionale Netz durch Kombinieren von Verbindungen an Positionen innerhalb der Abbildung mit dünner gemachten Kanten innerhalb eines Schwellenabstands zueinander.
  14. Verfahren nach Anspruch 11, bei dem das Konstruieren der zweidimensionalen Texturabbildung umfasst: Identifizieren von Verbindungen der Abbildung mit dünner gemachten Kanten; Identifizieren von zwei Verbindungen, die durch eine Kante der Abbildung mit dünner gemachten Kanten an Positionen innerhalb der Abbildung mit dünner gemachten Kanten innerhalb eines Schwellenabstands zueinander verbunden sind; Bestimmen, dass das Kombinieren der zwei Verbindungen zu einem Eckpunkt ein Vieleck mit einer vorgegebenen Anzahl von Seiten bilden würde; und als Reaktion auf das Identifizieren, dass die zwei Verbindungen Positionen innerhalb des Schwellenabstands voneinander sind und dass das Kombinieren der zwei Verbindungen zu einem Eckpunkt ein Vieleck mit einer vorgegebenen Anzahl von Seiten bilden würde, Entfernen der Kante, welche die zwei Verbindungen verbindet, und Kombinieren der zwei Verbindungen zu einem einzelnen Eckpunkt.
  15. Verfahren nach einem der Ansprüche 11 bis 14, bei dem das Konstruieren des zweidimensionalen Netzes umfasst: Identifizieren von Verbindungen der Abbildung mit dünner gemachten Kanten; und Erzeugen der rekonstruierten Kanten der Kantenabbildung durch Ersetzen von Kanten, welche die identifizierten Verbindungen verbinden, durch gerade Kanten, welche die identifizierten Verbindungen der Abbildung mit dünner gemachten Kanten verbinden.
  16. Verfahren nach einem der Ansprüche 9 bis 15, bei dem das Konstruieren des zweidimensionalen Netzes das Entfernen von jedweden erfassten Kanten der Kantenabbildung umfasst, die nicht mit irgendwelchen identifizierten Verbindungen der Kantenabbildung verbunden werden können.
  17. Verfahren nach einem der Ansprüche 9 bis 16, bei dem das Konstruieren des zweidimensionalen Netzes das Entfernen von jedweden erfassten Kanten der Kantenabbildung umfasst, die nur einen einzigen Endpunkt aufweisen, der mit einer anderen erfassten Kante der Kantenabbildung verbunden ist.
  18. System, umfassend: einen Speicher, der einen Scan eines dreidimensionalen Gegenstands umfasst, der speziell ausgebildete Netzlinien umfasst, wobei der Scan ein oder mehrere Bild(er) des dreidimensionalen Gegenstands und Tiefeninformationen für den dreidimensionalen Gegenstand umfasst; eine Scanvorrichtung, die eine Rot-Grün-Blau (RGB)-Kamera und eine Infrarot (IR)-Kamera umfasst; und eine Rechenvorrichtung, die Anweisungen darauf umfasst, die, wenn sie durch die Rechenvorrichtung ausgeführt werden, bewirken, dass das System: den Scan des dreidimensionalen Gegenstands empfängt, der die speziell ausgebildeten Netzlinien umfasst; eine zweidimensionale Texturabbildung des dreidimensionalen Gegenstands auf der Basis des einen Bilds oder der mehreren Bilder und der Tiefeninformationen erzeugt; eine Kantenabbildung aus der zweidimensionalen Texturabbildung durch Erfassen von Kanten innerhalb der zweidimensionalen Texturabbildung, die den speziell ausgebildeten Netzlinien entsprechen, erzeugt; ein zweidimensionales Netz der zweidimensionalen Texturabbildung konstruiert, wobei das zweidimensionale Netz rekonstruierte Kanten der Kantenabbildung umfasst; und ein dreidimensionales Netz des dreidimensionalen Gegenstands auf der Basis des zweidimensionalen Netzes und der Tiefeninformationen erzeugt, wobei das dreidimensionale Netz Vielecke umfasst, die den speziell ausgebildeten Netzlinien entsprechen.
  19. System nach Anspruch 18, wobei das Konstruieren des zweidimensionalen Netzes der zweidimensionalen Texturabbildung umfasst: Erzeugen einer Abbildung mit dünner gemachten Kanten, die Kanten der Kantenabbildung mit einer Dicke von einem Pixel umfasst; Identifizieren von Verbindungen der Abbildung mit dünner gemachten Kanten; Erzeugen der rekonstruierten Kanten der Abbildung mit dünner gemachten Kanten durch Ersetzen von Kanten, welche die identifizierten Verbindungen verbinden, durch gerade Kanten, welche die identifizierten Verbindungen der Abbildung mit dünner gemachten Kanten verbinden; Erzeugen von Eckpunkten für das zweidimensionale Netz durch Kombinieren von Verbindungen, von denen bestimmt worden ist, dass sie Positionen innerhalb eines Schwel-lenabstands voneinander aufweisen.
  20. System nach Anspruch 19, bei dem das Konstruieren des zweidimensionalen Netzes ferner umfasst: Entfernen von jedweden erfassten Kanten der Abbildung mit dünner gemachten Kanten, die nicht mit irgendeiner der identifizierten Verbindungen der Kantenabbildung verbunden werden können; und Entfernen von jedweden erfassten Kanten der Abbildung mit dünner gemachten Kanten, die nur einen einzigen Endpunkt aufweisen, der mit einer weiteren erfassten Kante der Kantenabbildung verbunden ist.
DE102017009276.1A 2017-02-02 2017-10-05 Erzeugen eines dreidimensionalen modells aus einem gescannten gegenstand Pending DE102017009276A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/423,348 2017-02-02
US15/423,348 US10679408B2 (en) 2017-02-02 2017-02-02 Generating a three-dimensional model from a scanned object

Publications (1)

Publication Number Publication Date
DE102017009276A1 true DE102017009276A1 (de) 2018-08-02

Family

ID=60326685

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017009276.1A Pending DE102017009276A1 (de) 2017-02-02 2017-10-05 Erzeugen eines dreidimensionalen modells aus einem gescannten gegenstand

Country Status (5)

Country Link
US (2) US10679408B2 (de)
CN (1) CN108389257B (de)
AU (1) AU2017235889B2 (de)
DE (1) DE102017009276A1 (de)
GB (1) GB2559446B (de)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10679408B2 (en) 2017-02-02 2020-06-09 Adobe Inc. Generating a three-dimensional model from a scanned object
US10769850B1 (en) * 2017-02-13 2020-09-08 Ansys, Inc. Systems and methods for efficient updating of an analysis mesh
US10426980B2 (en) * 2017-02-27 2019-10-01 Daniel D. Dorneanu Smart spray foam respirator mask
JP2019015553A (ja) * 2017-07-05 2019-01-31 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法および個体撮像装置
US10990805B2 (en) * 2018-09-12 2021-04-27 Apple Inc. Hybrid mode illumination for facial recognition authentication
CN111179332B (zh) * 2018-11-09 2023-12-19 北京市商汤科技开发有限公司 图像处理方法及装置、电子设备及存储介质
US11138791B2 (en) * 2018-12-04 2021-10-05 Intuitive Research And Technology Corporation Voxel to volumetric relationship
CN109934905A (zh) * 2019-01-16 2019-06-25 中德(珠海)人工智能研究院有限公司 一种用于生成三维模型的系统及其生成方法
CN112242004B (zh) * 2019-07-16 2023-09-01 华中科技大学 一种基于光照渲染的ar场景的虚拟雕刻方法及系统
US11430168B2 (en) * 2019-08-16 2022-08-30 Samsung Electronics Co., Ltd. Method and apparatus for rigging 3D scanned human models
TWI716129B (zh) * 2019-10-01 2021-01-11 財團法人資訊工業策進會 材質替換方法、系統以及非暫態電腦可讀取記錄媒體
CN111445385B (zh) * 2020-03-28 2023-06-09 哈尔滨工程大学 一种基于rgb色彩模式的三维物体平面化方法
US11847740B2 (en) * 2020-08-12 2023-12-19 Datasight Data compression algorithm for processing of point cloud data for digital terrain models (DTM)
US11191620B1 (en) * 2021-06-03 2021-12-07 Oxilio Ltd Systems and methods for generating an augmented 3D digital model of an anatomical structure of a subject
CN113689568B (zh) * 2021-08-03 2023-05-23 南昌威爱信息科技有限公司 一种基于云端渲染的三维效果图高精度建模方法
CN113592994B (zh) * 2021-09-27 2021-12-07 贝壳技术有限公司 用于纹理贴图的方法、装置和存储介质
CN114143214A (zh) * 2021-12-02 2022-03-04 四川启睿克科技有限公司 基于数字多维建模的物联网控制系统及方法
US20240020935A1 (en) * 2022-07-15 2024-01-18 The Boeing Company Modeling system for 3d virtual model
CN115861572B (zh) * 2023-02-24 2023-05-23 腾讯科技(深圳)有限公司 一种三维建模方法、装置、设备及存储介质

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7065242B2 (en) * 2000-03-28 2006-06-20 Viewpoint Corporation System and method of three-dimensional image capture and modeling
GB2378337B (en) * 2001-06-11 2005-04-13 Canon Kk 3D Computer modelling apparatus
US7023434B2 (en) * 2003-07-17 2006-04-04 Nintendo Co., Ltd. Image processing apparatus and image processing program
EP1837806A1 (de) * 2006-03-24 2007-09-26 MVTec Software GmbH System und Verfahren zur automatischen Parameterbestimmung bei Maschinensicht
US7848571B2 (en) * 2006-06-26 2010-12-07 Keystream Corporation Computer-implemented method for efficient image segmentation using automated saddle-point detection
CN100533487C (zh) * 2007-04-19 2009-08-26 北京理工大学 基于单幅对称图像的光滑曲面三维实体模型重建方法
US8259069B1 (en) * 2008-01-11 2012-09-04 Cypress Semiconductor Corporation Speckle-based optical navigation on curved tracking surface
US8594425B2 (en) * 2010-05-31 2013-11-26 Primesense Ltd. Analysis of three-dimensional scenes
WO2012017375A2 (en) * 2010-08-05 2012-02-09 Koninklijke Philips Electronics N.V. In-plane and interactive surface mesh adaptation
US9098930B2 (en) * 2011-09-30 2015-08-04 Adobe Systems Incorporated Stereo-aware image editing
KR101356544B1 (ko) * 2012-03-29 2014-02-19 한국과학기술원 3차원 입체영상 생성 방법 및 장치
US9196089B2 (en) * 2012-05-17 2015-11-24 Disney Enterprises, Inc. Techniques for processing reconstructed three-dimensional image data
US20130335416A1 (en) * 2012-05-23 2013-12-19 1-800 Contacts, Inc. Systems and methods for generating a 3-d model of a virtual try-on product
US9311746B2 (en) * 2012-05-23 2016-04-12 Glasses.Com Inc. Systems and methods for generating a 3-D model of a virtual try-on product
KR101778833B1 (ko) * 2014-04-03 2017-09-26 한국전자통신연구원 3d 의류 모델 복원 방법 및 장치
JP5887384B2 (ja) * 2014-07-24 2016-03-16 淳一 鴨崎 線画像描画方法及び装置
US9691178B2 (en) * 2014-10-21 2017-06-27 Microsoft Technology Licensing, Llc Scanning and processing objects into three-dimensional mesh models
US9721385B2 (en) * 2015-02-10 2017-08-01 Dreamworks Animation Llc Generation of three-dimensional imagery from a two-dimensional image using a depth map
US10169891B2 (en) * 2015-08-26 2019-01-01 Electronic Arts Inc. Producing three-dimensional representation based on images of a person
US10122994B2 (en) * 2016-11-11 2018-11-06 Disney Enterprises, Inc. Object reconstruction from dense light fields via depth from gradients
US10679408B2 (en) 2017-02-02 2020-06-09 Adobe Inc. Generating a three-dimensional model from a scanned object
US11348303B2 (en) * 2017-08-31 2022-05-31 Sony Group Corporation Methods, devices, and computer program products for 3D texturing

Also Published As

Publication number Publication date
US20180218535A1 (en) 2018-08-02
US10861232B2 (en) 2020-12-08
CN108389257A (zh) 2018-08-10
US10679408B2 (en) 2020-06-09
CN108389257B (zh) 2023-04-21
AU2017235889B2 (en) 2021-12-02
GB201716521D0 (en) 2017-11-22
GB2559446A (en) 2018-08-08
AU2017235889A1 (en) 2018-08-16
GB2559446B (en) 2022-07-20
US20200258301A1 (en) 2020-08-13

Similar Documents

Publication Publication Date Title
DE102017009276A1 (de) Erzeugen eines dreidimensionalen modells aus einem gescannten gegenstand
DE69732663T2 (de) Verfahren zur erzeugung und änderung von 3d modellen und korrelation von solchen modellen mit 2d bildern
DE102019008221A1 (de) Interaktives Bildmattieren unter Verwendung neuronaler Netze
DE102018006243A1 (de) Vorhersagen von Patchverschiebungsabbildungen unter Verwendung eines Neuronalnetzwerkes
DE202014010843U1 (de) Ausrichten von bodenbasierten Bildern mit Luftbildern
DE102019007196A1 (de) Identifizieren von Zielobjekten unter Nutzung der skalierungsdiversen Segmentierung dienender neuronaler Netzwerke
DE102018003475A1 (de) Formbasierte Grafiksuche
DE102016014188A1 (de) Erzeugung eines 3-D-Modells aus 2-D-Bildern
DE112006002366T5 (de) Zwei-dimensionale Grafik zum Darstellen auf drei-dimensionalen Objekten
DE102018008275A1 (de) Verfeinern lokaler Parametrisierungen zur Übertragung zweidimensionaler Bilder auf dreidimensionale Modelle
DE102008051850A1 (de) Notebookinformationsprozessor und Berechnungsverfahren für einen projektiven Transformationsparameter
DE102017012116A1 (de) Vorschauerzeugung aus panoramischen Bildern
DE102015207638A1 (de) Tragbarer 3D-Scanner und Verfahren zum Erzeugen eines einem Objekt entsprechenden 3D-Scanergebnisses
DE112010002677T5 (de) Verfahren und vorrichtung zum bestimmen einer formübereinstimmung in drei dimensionen
DE102019005425A1 (de) Vereinheitlichtes Digitalcontentauswahlsystem für Vektor- und Rastergrafiken
EP2528042A1 (de) Verfahren und Vorrichtung zum Re-Meshing von 3D-Polygonmodellen
DE102018007146A1 (de) Ölgemälde-Strichsimulation mittels eines neuronalen Netzwerks
CN101464953A (zh) 轮廓提取装置和轮廓提取方法
DE112021000927T5 (de) Systeme, Verfahren und Vorrichtungen für die Bildverarbeitung
DE102017009118A1 (de) Bildabgleich für serienbilder
DE60305027T2 (de) Verfahren zur Bereitstellung eines Vektorbildes mit entfernten versteckten Linien
DE102019000178A1 (de) Interaktives System zum automatischen Synthetisieren einer contentsensitiven Füllung
EP0060243A1 (de) Verfahren und schaltungsanordnung zur partiellen elektronischen retusche bei der farbbildreproduktion.
Xie et al. A colored pencil-drawing generating method based on interactive colorization
JPH0285978A (ja) 立体の隠面処理方法

Legal Events

Date Code Title Description
R081 Change of applicant/patentee

Owner name: ADOBE INC., SAN JOSE, US

Free format text: FORMER OWNER: ADOBE SYSTEMS INCORPORATED, SAN JOSE, CALIF., US

R082 Change of representative

Representative=s name: MUELLER-BORE & PARTNER PATENTANWAELTE PARTG MB, DE

R012 Request for examination validly filed