DE102015213832A1 - Verfahren und Vorrichtung zum Erzeugen eines künstlichen Bildes - Google Patents

Verfahren und Vorrichtung zum Erzeugen eines künstlichen Bildes Download PDF

Info

Publication number
DE102015213832A1
DE102015213832A1 DE102015213832.1A DE102015213832A DE102015213832A1 DE 102015213832 A1 DE102015213832 A1 DE 102015213832A1 DE 102015213832 A DE102015213832 A DE 102015213832A DE 102015213832 A1 DE102015213832 A1 DE 102015213832A1
Authority
DE
Germany
Prior art keywords
person
model
garment
photo
condition data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102015213832.1A
Other languages
English (en)
Other versions
DE102015213832B4 (de
Inventor
Jochen Björn Süßmuth
Bernd Möller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Adidas AG
Original Assignee
Adidas AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Adidas AG filed Critical Adidas AG
Priority to DE102015213832.1A priority Critical patent/DE102015213832B4/de
Priority to EP16179602.4A priority patent/EP3121793B1/de
Priority to EP22178821.9A priority patent/EP4089615A1/de
Priority to JP2016142902A priority patent/JP6419116B2/ja
Priority to US15/217,602 priority patent/US20170024928A1/en
Priority to CN201610585212.XA priority patent/CN106373178B/zh
Publication of DE102015213832A1 publication Critical patent/DE102015213832A1/de
Application granted granted Critical
Publication of DE102015213832B4 publication Critical patent/DE102015213832B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • AHUMAN NECESSITIES
    • A41WEARING APPAREL
    • A41HAPPLIANCES OR METHODS FOR MAKING CLOTHES, e.g. FOR DRESS-MAKING OR FOR TAILORING, NOT OTHERWISE PROVIDED FOR
    • A41H1/00Measuring aids or methods
    • A41H1/02Devices for taking measurements on the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0621Item configuration or customization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/16Cloth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Computer Graphics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • General Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Biophysics (AREA)
  • Textile Engineering (AREA)
  • Architecture (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

Die vorliegende Erfindung bezieht auch auf ein Verfahren zum Erzeugen eines künstlichen Bildes einer Person, welche ein selektierbares Kleidungsstück trägt, wobei das Verfahren die Schritte von Bereitstellen eines 3D-Personemmodells von zumindest einem Teil der Person, Bereitstellen eines Fotos der Person, welches dem 3D-Personemmodell entspricht, Bereitstellen von Beleuchtungsbedingungsdaten, welche sich auf das Foto beziehen, Selektieren eines Kleidungsstücks und Erzeugen des künstlichen Bildes als eine Kombination des Fotos und einem gerasterten 3D-Kleidungsstückmodells des selektierten Kleidungsstücks umfasst, wobei Rastern des 3D-Kleidungsstückmodells die Beleuchtungsbedingungsdaten und das 3D-Personenmodell berücksichtigt.

Description

  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf ein Verfahren und eine Vorrichtung zum Erzeugen eines künstlichen Bildes einer Person, welche ein selektierbares Kleidungsstück trägt.
  • Stand der Technik
  • Modelbasierte Produktfotografie wird gegenwärtig als der de-facto Standard in der Bekleidungsindustrie für die Präsentation von Bekleidungsprodukten, wie zum Beispiel T-Shirts, Hosen, Mützen etc., angesehen. Zu diesem Zweck werden Fotos von menschlichen Models aufgenommen, welche besagte Bekleidungsprodukte während eines Fotoshootings tragen. Die Fotos ermöglichen es Kunden, sofort das Aussehen, die Funktion und die Passform der Bekleidungsprodukte nur von einem einzelnen Foto erkennen zu können. Solche Fotos sind gut bekannt aus Modekatalogen, Modemagazinen und Ähnlichem.
  • Unglücklicherweise ist das Durchführen von Fotoshootings erheblich zeitaufwändig und teuer. Die Models, ein Fotograf, ein Beleuchtungstechniker, ein Visagist und ein Friseur usw. müssen sich alle im selben Fotostudio zur selben Zeit treffen. Nur eine begrenzte Anzahl von Fotos kann während eines Fotoshootings aufgenommen werden, was wiederum nur ermöglicht, eine begrenzte Anzahl von Kleidungsstücken während eines Fotoshootings zu fotografieren.
  • Wenn sich außerdem ein Fotoshooting über mehrere Tage erstreckt, so ist es beinahe unmöglich an jedem Tag des Fotoshootings dieselben Umgebungsbedingungen, wie Beleuchtung oder Ähnliches zu haben. Darum kann der Eindruck der daraus resultierenden Fotos leicht variieren, abhängig von den Umgebungsbedingungen des Tages, an welchem das einzelne Foto aufgenommen wurde.
  • Darum wurden computergestützte Lösungen entwickelt, um die oben beschriebenen, Fotoshootings zu ersetzen.
  • Die Druckschrift US 2011/0298897 A1 offenbart ein Verfahren und eine Vorrichtung für dreidimensionales virtuelles Anprobieren von Bekleidungsstücken auf einem Avatar. Ein Verfahren für Online-Anpassen eines Kleidungsstücks auf den Körper einer Person kann das Empfangen von Spezifikationen eines Kleidungsstücks, Empfangen von Körperspezifikationen von einem oder mehreren Passmodellen, Empfangen einer oder mehrerer Sprungwerte, Empfangen einer oder mehrerer Stoffspezifikationen und Empfangen von Spezifikationen des Körpers eines Kunden umfassen.
  • Druckschrift US 2014/0176565 A1 offenbart Verfahren zum Erzeugen und Teilen eines virtuellen Körpermodels einer Person, erzeugt mittels einer geringen Anzahl von Messungen und einem einzigen Foto kombiniert mit einem oder mehreren Bildern von Kleidungsstücken.
  • Druckschrift US 2010/0030578 A1 offenbart Verfahren und Systeme, welche sich auf Onlineverfahren zur Kollaboration in Community-Umgebungen beziehen. Die Verfahren und Systeme beziehen sich auf ein Online-Kleidungsstückmodellierungssystem, welches es Benutzern ermöglicht, dreidimensionale Modelle ihres physischen Profils zu erstellen. Benutzer können mehrere Güter und/oder Dienstleistungen bestellen und mit anderen Benutzern in der Online-Umgebung kollaborieren.
  • Druckschrift WO 01/75750 A1 offenbart ein System für elektronisches Einkaufen von Bekleidungsartikeln, welches eine Vielzahl von Anbieterstationen beinhaltet, die eine virtuelle Anzeige von zu verkaufenden Bekleidungsartikeln umfasst. Zuerst werden Daten, die ein dreidimensionales Bild und zumindest eine Materialeigenschaft für jeden Kleidungsartikel umfassen, bereitgestellt. Zusätzlich beinhaltet das System zumindest eine Käuferstation mit Zugang zu den Anbieterstationen zum Selektieren eines oder mehrerer Kleidungsartikel und zum Herunterladen seiner ersten assoziierten Daten. Ein virtuelles dreidimensionales Modell einer Person wird in der Käuferstation gespeichert und beinhaltet zweite Daten, welche die drei Dimensionen der Person repräsentieren.
  • Eine weitere computergestützte Technik wird in der Publikation von Divivier et al.: „Topics in realistic individualized dressing in virtual reality"; Bundesministerium für Bildung und Forschung (BMBF): Virtual and augmented reality status conference 2004, proceedings CD ROM, Leipzig, 2004 vorgeschlagen. Jedoch war keiner der oben genannten Ansätze erfolgreich, konventionelle Fotoshootings vollständig zu ersetzen.
  • Darum ist das der vorliegenden Erfindung zugrunde liegende Ziel das Bereitstellen eines verbesserten Verfahrens und einer zugehörigen Vorrichtung zum Erzeugen eines künstlichen Bildes einer Person, welche ein selektierbares Kleidungsstück trägt.
  • Zusammenfassung
  • Das oben genannte Problem wird zumindest teilweise gelöst durch ein Verfahren gemäß Anspruch 1, einer Vorrichtung gemäß Anspruch 24, einem Computerprogramm gemäß Anspruch 31 und durch ein künstliches Bild gemäß Anspruch 32.
  • Gemäß einem Aspekt der Erfindung wird ein Verfahren zum Erzeugen eines künstlichen Bildes einer Person, welche ein selektierbares Kleidungsstück trägt, bereitgestellt, wobei das Verfahren die Schritte zum (a) Bereitstellen eines 3D-Personenmodells von zumindest einem Teil der Person, (b) Bereitstellen eines Fotos der Person, welches dem 3D-Personenmodell entspricht, (c) Bereitstellen von Beleuchtungsbedingungsdaten, welche sich auf das Foto beziehen, (d) Selektieren eines Kleidungsstücks und (e) Erzeugen des künstlichen Bildes als eine Kombination des Fotos und einem gerasterten 3D-Kleidungsstückmodells des selektierten Kleidungsstücks umfasst, wobei das Rastern des 3D-Kleidungsstückmodells die Beleuchtungsbedingungsdaten und das 3D-Personenmodell berücksichtigt.
  • Die Anmelderin hat herausgefunden, dass künstliche Bilder einer bekleidungsstücktragenden Person mit einer verbesserten Qualität durch Rastern eines 3D-Kleidungsstückmodells und durch Kombinieren dieser Rasterung mit einem Foto der menschlichen Person erzeugt werden können.
  • Um jedoch ein zumindest teilweise realistisches Bild zu erzielen, kann ein 3D-Modell der Person bereitgestellt werden, um deren Parameter wie Größe, Bauchumfang, Schulterbreite usw. für das spätere Rastern des 3D-Kleidungsstückmodells verwenden zu können.
  • Überdies verwendet die vorliegende Erfindung ein Foto der Person, welches das 3D-Personenmodell in dem fertigen künstlichen Bild ersetzt.
  • Die Beleuchtung des Bildes kann ein weiterer Faktor sein, was dessen Qualität beeinflusst. Darum kann Bereitstellen von Beleuchtungsbedingungsdaten die Integration der Beleuchtungsbedingungsdaten in das künstliche Bild erlauben, um dessen Qualität weiter zu verbessern.
  • Beispielsweise angenommen, dass die Person von der oberen linken Seite aus beleuchtet wurde während das Foto aufgenommen wurde und angenommen, dass das 3D-Kleidungsstückmodell von oben rechts während dem Rastern beleuchtet wurde, so würde dies eine nahtlose Integration des geränderten 3D-Kleidungsstückmodells in das Foto verhindern. Der Grund hierfür ist, dass Beleuchtungsbedingungen wichtig sein können, wenn separat erzeugte Bilder kombiniert werden. Wenn die Beleuchtungsbedingungen des Fotos und des gerasterten 3D-Kleidungsstückmodells signifikant voneinander abweichen, so weichen auch die Schatten und Reflektionen auf dem gerasterten 3D-Kleidungsstückmodell und auf dem Foto der Person voneinander ab und können darum in einer unnatürlichen Art in dem künstlichen Bild erscheinen. Im Ergebnis kann ein menschlicher Betrachter das erzeugte Bild als ein künstliches identifizieren.
  • Darüber hinaus können die oben beschriebenen Parameter mit Bezug zu dem 3D-Personenmodell zum Anpassen der Form des 3D-Kleidungsstückmodells verwendet werden. Darum kann das gerasterte 3D-Kleidungsstückmodell aussehen, wie wenn es von der Person getragen würde. Ein exaktes Passen des 3D-Kleidungsstückmodells mit Bezug zu der Person des Fotos kann weiter die Qualität des erzeugten künstlichen Bildes erhöhen.
  • Die oben beschriebenen Ergebnisse können ohne mühsame Anpassung einer 3D-Szene und ohne jegliche zeitaufwändige Nachbearbeitungsschritte erzielt werden. Zusätzlich können sogar verbesserte Ergebnisse mit Bezug auf die Qualität des künstlichen Bildes durch die vorliegende Erfindung durch Rastern des 3D-Personenmodells zur Verwendung in dem künstlichen Bild erzielt werden.
  • Der oben beschriebene Verfahrensschritt e. kann ein Berechnen der Lichtschicht als Differenz des gerasterten 3D-Personenmodells (ohne Kleidungsstückprodukt) basierend auf den Beleuchtungsbedingungsdaten und dem gerasterten 3D-Personenmodell (mit Kleidungsstückprodukt) basierend auf den Beleuchtungsbedingungsdaten umfassen, wobei Teile davon, welche durch das 3D-Kleidungsstückmodell verdeckt werden, auf unsichtbar gesetzt werden.
  • Die Differenz der zwei Bilder kann den Lichttransport von dem 3D-Kleidungsstückmodell auf das 3D-Personenmodell repräsentieren und somit zu dem Foto der Person.
  • Beispielsweise könnte angenommen werden, dass das 3D-Kleidungsstückmodell eine Brille trägt. Der Rahmen der Brille kann einen Schatten auf die Seite des Gesichts des 3D-Personenmodells werfen, falls es von besagter Seite beleuchtet wird. Zum Berechnen der Lichtschicht kann das 3D-Personenmodell gerastert werden, wenn es keine Brille trägt und darum ohne den Schatten. Danach kann das 3D-Personenmodell erneut gerastert werden, wobei es die Brille trägt und darum den Schatten auf der Seite des Gesichts beinhaltet. Jedoch kann die Brille während des Rastern auf unsichtbar gesetzt sein. Deshalb kann nur das gerasterte 3D-Personenmodell mit dem Schatten des Rahmens der Brille gezeigt sein. Wenn die Differenz dieser beiden Rasterungen berechnet wird, so kann nur der Schatten übrig bleiben. Folglich kann nur der Schatten in der Lichtschicht gespeichert sein.
  • Das Stellen auf unsichtbar kann ferner Auslassen von Pixeln, welche nicht zu dem 3D-Kleidungsstückmodell gehören, durch einen Rasterer und/oder Entfernen der Pixel während der Nachbearbeitung, umfassen.
  • Erzeugen des künstlichen Bildes kann ferner ein Schichten des Fotos, der Lichtschicht und des gerasterten 3D-Kleidungsstückmodells umfassen.
  • Anstatt die komplexe 3D-Szene, umfassend das 3D-Personenmodell und das 3D-Kleidungsstückmodell, jeweils unter Berücksichtigung der Beleuchtungsbedingungsdaten, zu rastern, kann nur ein Schichten der oben erzeugten Teile benötigt werden, um ein künstliches Bild mit guter Qualität zu erzielen. Insbesondere kann die Lichtschicht über das Foto der Person geschichtet sein. Folglich kann der Lichttransport von dem getragenen Kleidungsstück zu der Person in dem künstlichen Bild repräsentiert sein. Darauf folgend kann das gerasterte 3D-Kleidungsstückmodell über die Kombination aus der Lichtschicht und dem Foto der Person geschichtet sein. Im Ergebnis kann ein künstliches Bild einer Person, welche „virtuell” das selektierte Kleidungsstück trägt, erzielt werden.
  • Berücksichtigen des 3D-Personenmodells in Schritt e. kann ferner Anwenden des 3D-Kleidungsstückmodells auf das 3D-Personenmodell und/oder Anwenden von Lichttransport von dem 3D-Personenmodell auf das 3D-Kleidungsstückmodell umfassen.
  • Anwenden des 3D-Kleidungsstückmodells auf das 3D-Personenmodell kann ferner Anwenden von geometrischen Eigenschaften des 3D-Personenmodells auf das 3D-Kleidungsstückmodell und/oder Anwenden des Lichttransports von dem 3D-Personenmodell auf das 3D-Kleidungsstückmodell umfassen.
  • Anwenden der geometrischen Eigenschaften auf das 3D-Kleidungsstückmodell kann eine Simulation von z. B. dem Fallen des Stoffs des Kleidungsstücks simulieren, was ein weiterer Faktor zum Bereitstellen eines künstlichen Bildes mit guter Qualität sein kann, da jedes unnatürliche Verhalten des Stoffs, z. B. unnatürliches Hervorstehen oder unnatürliche Steifigkeit usw., die Qualität des künstlichen Bildes negativ beeinflussen kann.
  • Darüber hinaus kann der Lichttransport von dem 3D-Personenmodell zu dem gerasterten 3D-Kleidungsstückmodell berücksichtigt werden, um die Qualität des künstlichen Bildes zu verbessern. Wenn z. B. ein Arm oder eine Hand des 3D-Personenmodells einen Schatten auf das 3D-Kleidungsstückmodell wirft, so kann es nötig sein, dass dieser Schatten auch auf dem gerasterten 3D-Kleidungsstück benötigt wird, um die Qualität des künstlichen Bildes beizubehalten.
  • Berücksichtigen der Beleuchtungsbedingungsdaten in Schritt e. kann Anwenden der Beleuchtungsbedingungsdaten auf das 3D-Kleidungsstückmodell und/oder auf das 3D-Personenmodell umfassen.
  • Die Beleuchtungsbedingungsdaten, wie z. B. globale Umgebungslichtquellen, globale Umgebungsschatten, globale Umgebungsreflektionen oder jedes andere Objekt, welches den Lichttransport von der Umgebung zu dem 3D-Modell beeinflussen kann, kann in den Rasterungen repräsentiert werden müssen, um eine gute Qualität des künstlichen Bildes erzielen zu können.
  • Der Schritt des Bereitstellens eines 3D-Personenmodells kann ferner zumindest einen der folgenden Schritte umfassen:
    • – Bereitstellen des 3D-Personenmodells durch einen 3D-Scanner,
    • – Bereitstellen des 3D-Personenmodells durch einen Tiefensensor, oder
    • – Bereitstellen des 3D-Personenmodells durch Photogrammetrie.
  • Um das 3D-Personenmodell bereitstellen zu können, kann ein 3D-Scanner verwendet werden, um die Körperform der Person zu detektieren. Zusätzlich oder alternativ kann ein Tiefensensor, wie z. B. eine Microsoft KinectTM-Steuerung verwendet werden. Zum Beispiel kann mittels eines Algorithmus, welcher auf vordefinierten Formen von Körperteilen basieren kann, die Körperform der gescannten Person rekonstruiert werden. Als eine weitere Alternative kann Photogrammetrie verwendet werden. Durch Aufnehmen mehrerer Bilder aus unterschiedlichen Richtungen kann das 3D-Modell approximiert werden. Diese Technik kann zeitgleich das Foto der Person bereitstellen, welches zum Ersetzen des 3D-Personenmodells in dem künstlichen Bild genutzt werden kann.
  • Das 3D-Personenmodell kann eine Silhouette umfassen und das Foto kann eine Silhouette der Person umfassen. Das Verfahren kann ferner den Schritt des Inübereinstimmungbringens der Silhouetten umfassen, wenn die Silhouetten voneinander abweichen.
  • Abhängig von den Techniken, welche für das Bereitstellen des 3D-Personenmodells verwendet werden, kann es notwendig sein, die Silhouetten anzupassen, sodass sie miteinander übereinstimmen. Ohne eine Übereinstimmung der Silhouetten kann die Qualität des künstlichen Bildes signifikant leiden, da z. B. die Berechnung der Lichtschicht Fehler umfassen kann. Wenn Photogrammetrie eingesetzt wird, können beide Silhouetten automatisch in Übereinstimmung sein, da das Foto der Person und des 3D-Personenmodells im Wesentlichen zum selben Zeitpunkt erstellt werden können. Einige geringe Toleranzen im Hinblick auf die Zeit können akzeptabel sein, wenn ungewünschte Abweichungen der Silhouetten verhindert werden. Wenn jedoch eine Microsoft KinectTM-Steuerung oder ein 3D-Scanner verwendet werden, so kann das Erzeugen des 3D-Personenmodells einige Sekunden beanspruchen. Während dieser Zeit kann sich die Person leicht bewegt haben oder sich in einem anderen Atemzyklus befinden, wenn das Foto der Person aufgenommen wird. Dann kann es notwendig sein, die Silhouetten anzupassen.
  • Der Schritt des Inübereinstimmungbringens der Silhouetten kann ferner Extrahieren der Silhouette der Person des Fotos, Verziehen des 3D-Personenmodells, sodass die Silhouette des 3D-Personenmodells mit der aus dem Foto extrahierten Silhouette übereinstimmt und/oder Verziehen des Fotos, sodass es mit der Silhouette des 3D-Personenmodells übereinstimmt, umfassen.
  • Um weitere Flexibilität bereitzustellen, kann entweder die Silhouette des 3D-Personenmodells verzogen werden, sodass sie in Übereinstimmung mit der Silhouette der Person des Fotos kommt, oder umgekehrt.
  • Verziehen kann Deformieren einer oder beider der zwei Silhouetten umfassen.
  • Solche Verformungen können durch Algorithmen realisiert werden, z. B. eingerichtet zum Bewegen der „Kanten” oder „Ränder” der Silhouette bis sie miteinander in Übereinstimmung sind.
  • Verziehen kann ferner Anwenden einer physischen Simulation zum Verhindern von unnatürlichen Verformungen umfassen.
  • Da eine automatisierte Anpassung der Silhouetten zu einer unnatürlichen Verformung von einem oder beiden des 3D-Personenmodelles oder von der Person des Fotos führen kann, kann eine physische Simulation als eine Kontrollmaßnahme angewendet werden. Die Verformungen zum Verziehen können insbesondere die Größe von bestimmten Teilen des Körpers oder des kompletten Körpers unnatürlich vergrößern oder verkleinern, was sich negativ auf die Qualität des künstlichen Bildes auswirken kann. Wenn darum im Allgemeinen Eigenschaften des menschlichen Körpers (z. B. Verhältnis der Größe der Hand zur Größe des Arms) durch eine physische Simulation berücksichtigt werden, so können solche unnatürlichen Verformungen verhindert werden.
  • Der Schritt des Bereitstellens der Beleuchtungsbedingungsdaten kann auf durch einen Umgebungssensor gesammelten Daten basieren, wobei bevorzugt das Sammeln zum im Wesentlichen gleichen Zeitpunkt erfolgt, zu dem das Foto der Person aufgenommen wird. Der Umgebungssensor kann ein sphärisches Bildsystem oder eine Spiegelkugel umfassen.
  • Das Verwenden eines sphärischen Bildsystems, z. B. ein sphärisches Kamerasystem, als einen Umgebungssensor kann das Bereitstellen der Beleuchtungsbedingungsdaten signifikant vereinfachen. Solch ein Bildsystem kann eine 360°-Panoramaansicht aufnehmen, welche die Person während dem Erzeugen des zugehörigen 3D-Personenmodells und/oder des Fotos der Person umgibt. Im Ergebnis können relevante Lichtquellen und Objekte usw., welche das Set umgeben, aufgenommen und in einem Panoramabild gespeichert werden. Es ist z. B. ebenfalls möglich, nur einen Teil oder Teile der 360°-Panoramaansicht aufzunehmen, z. B. 180° oder jede andere geeignete Gradzahl. Vergleichbare Ergebnisse können erzielt werden, wenn eine Spiegelkugel verwendet wird.
  • Das Bereitstellen der Beleuchtungsbedingungsdaten zum im Wesentlichen gleichen Zeitpunkt kann sicherstellen, dass die Beleuchtungsbedingungsdaten nicht nur in Übereinstimmung mit dem Foto, sondern auch mit dem 3D-Personenmodell sind, welches zum gleichen Zeitpunkt, als das Foto der Person aufgenommen wurde, erzeugt werden konnte. Darum können alle drei Komponenten – das Foto der Person, die Beleuchtungsbedingungsdaten und das 3D-Personenmodell – in Übereinstimmung miteinander sein. Darum kann ein Bereitstellen der Beleuchtungsbedingungsdaten zum selben Zeitpunkt, wenn das Foto aufgenommen wird, eine spätere Verwendung der Daten zum Rastern des selektierten Kleidungsstücks ermöglichen. Wenn insbesondere ein 3D-Modell des selektierten Kleidungsstücks gerastert wird und zur selben Zeit die Beleuchtungsbedingungsdaten als auch das 3D-Modell der Person berücksichtig werden, kann es dem Verfahren erlauben, das gerasterte 3D-Kleidungsstückmodell an die Körperproportionen des Modells und an dieselben Beleuchtungsbedingungen während das Foto der Person aufgenommen wurde, anzupassen.
  • Im Einzelnen kann das Berücksichtigen der Beleuchtungsbedingungsdaten eine im Wesentlichen nahtlose Integration des gerasterten, illuminierten 3D-Kleidungsstückmodells in das Foto der Person ermöglichen, was die Qualität des künstlichen Bildes signifikant verbessern kann.
  • Der Begriff „im Wesentlichen zur gleichen Zeit” bedeutet zum selben Zeitpunkt, aber beinhaltet typische Zeittoleranzen, welche unausweichlich in dem adressierten Technologiegebiet vorkommen.
  • Die Beleuchtungsbedingungsdaten können ein Umgebungsbild umfassen. Das Umgebungsbild kann ein simuliertes 3D-Modell eines Sets umfassen, in welchem das Foto aufgenommen wurde. Die oben beschriebene Panoramaansicht, z. B. in Form eines digitalen Fotos gespeichert, kann als ein Umgebungsbild verwendet werden. Genauer gesagt, kann das digitale Bild verwendet werden, um das 3D-Kleidungsstückmodell und/oder das 3D-Personenmodell zu umgeben. Folglich kann der Lichttransport von dem Umgebungsbild zu den 3D-Modellen berechnet werden.
  • Alternativ kann eine modellierte 3D-Szene, welche das Set, in welchem das Foto der Person aufgenommen wurde, zumindest teilweise als das Umgebungsbild verwendet werden. Diese Lösung kann das Verwenden eines Umgebungssensors zum Detektieren oder Bereitstellen der Beleuchtungsbedingungsdaten verhindern und kann den Aufbau der Komponenten, welche zum Herstellen des künstlichen Bildes und/oder des 3D-Modells benötigt wird, vereinfachen.
  • Anwenden der Beleuchtungsbedingungsdaten kann Berücksichtigen des Lichttransports von dem Umgebungsbild zu dem 3D-Personenmodell und dem 3D-Kleidungsstückmodell umfassen.
  • Wie oben bereits beschrieben kann das Umgebungsbild dazu verwendet werden, um den Lichttransport von dem Umgebungsbild zu den 3D-Modellen zu berechnen, um das künstliche Bild mit guter Qualität zu erhalten.
  • Das 3D-Personenmodell kann Texturen umfassen. Ferner können die Texturen auf einem oder mehreren Fotos der Person, aufgenommen durch eine oder mehrere Kameras, basieren.
  • Verwenden eines texturierten 3D-Modells der Person kann ferner die Qualität der Rasterungen wie oben beschrieben verbessern und darum auch die Qualität des künstlichen Bildes. Grund hierfür ist, dass ein texturiertes 3D-Personenmodell eine akkuratere Berechnung des Lichttransports von dem Modell zu dem 3D-Kleidungsstückmodell ermöglichen kann. Je akkurater die Berechnungen, desto besser können die Ergebnisse des künstlichen Bilds im Hinblick auf seine Qualität sein. Wenn z. B. ein Kleidungsstück reflektierende Teile, wie kleine Spiegel o. Ä., umfasst, in welchem das 3D-Personenmodell (zumindest teilweise) zu sehen ist, so können die Rasterungsergebnisse des 3D-Kleidungsstückmodells verbessert werden, da eine akkurate Reflektion der Oberfläche des 3D-Personenmodells berechnet werden kann.
  • Das Verfahren kann ferner den Schritt des Speicherns von Parametern der einen oder der mehreren Kameras umfassen, wobei die Parameter zumindest eines von der Positionen der Kamera, deren Ausrichtung und deren Brennweite umfassen können. Ferner können die Parameter zum Berechnen einer Referenzperspektive geeignet sein, wobei Schritt e. (oben definiert) die Referenzperspektive berücksichtigen kann.
  • Das Speichern der oben gelisteten Parameter kann ein automatisches Schichten der Lichtschicht und des gerasterten 3D-Kleidungsstückmodells über das Foto der Person ermöglichen, so dass das daraus resultierende künstliche Bild so aussieht, als ob die Person das gerasterte Kleidungsstück trägt. Genauer gesagt, wenn besagte Parameter bekannt sind und an einen Rasterer weitergegeben werden, so kann das daraus resultierende gerasterte Bild des 3D-Kleidungsstückmodells und die berechnete Lichtschicht auf das Foto der Person passen, so dass es aussieht als ob die Person das Kleidungsstück trägt. Dies resultiert daraus, dass der Rasterer die Position seiner virtuellen Kamera an die entsprechende Position der Kamera, welche für das Aufnehmen des Fotos der Person verwendet wurde, platzieren kann. Wenn zusätzlich die Brennweite und die Ausrichtung berücksichtigt werden, so kann die Perspektive der Kamera des Rasterers noch mehr in Übereinstimmung mit der Kamera, verwendet zum Aufnehmen des Fotos der Person, sein. Im Ergebnis können alle gerasterten Bilder (oder Teile von ihnen) von derselben oder einer ähnlichen Perspektive, von der das Foto der Person aufgenommen wurde, gerastert werden. Darum kann keine weitere (z. B. manuelle) Anpassung der Bilder zum Schichten der Rasterergebnisse über das Foto der Person nötig sein. Dies führt zu einer signifikanten Vereinfachung des beschriebenen Verfahrens.
  • Das Foto und das 3D-Personenmodell können die Person in derselben Pose zeigen.
  • Ein Aufweisen derselben Pose kann das Schichten der Rasterung über das Foto der Person weiter vereinfachen, was weitere Anpassung vermeiden kann. Jede Anpassung kann das Risiko bergen, die Qualität negativ zu beeinflussen, da Anpassungen zu jeglicher unnatürlichen Verformung oder anderen Mängeln führen können.
  • Ein weiterer Aspekt der vorliegenden Erfindung bezieht sich auf eine Vorrichtung zum Erzeugen eines künstlichen Bildes einer Person, welche ein selektierbares Kleidungsstück trägt, wobei die Vorrichtung (a) Mittel zum Bereitstellen eines 3D-Personenmodells von zumindest einem Teil der Person, (b) Mittel zum Bereitstellen eines Fotos der Person welchem dem 3D-Personenmodell entspricht, (c) Mittel zum Bereitstellen von Beleuchtungsbedingungsdaten welche sich auf das Foto beziehen, (d) Mittel zum Selektieren des Kleidungsstücks und (e) Mittel zum Erzeugen des künstlichen Bildes als eine Kombination aus dem Foto und dem gerasterten 3D-Kleidungsstückmodells des selektierten Kleidungsstücks, umfasst, wobei Rastern des 3D-Kleidungsstücksmodells die Beleuchtungsbedingungsdaten und das 3D-Personenmodell berücksichtigt.
  • Solch eine Vorrichtung kann das Durchführen eines Verfahrens gemäß eines der oben beschriebenen Verfahren vereinfachen. Durch eine Vorrichtung kann z. B. ein Fotostudio ersetzt werden. Darüber hinaus kann die Vorrichtung so gebildet sein, dass sie durch eine einzige Person gesteuert werden kann. Darüber hinaus kann solch eine Vorrichtung von der Person von welcher ein Foto aufgenommen und von welcher ein 3D-Modell erzeugt werden soll, gesteuert werden.
  • Die Mittel der Vorrichtung zum Bereitstellen eines 3D-Personenmodells zumindest von einem Teil der Person können zumindest eines von einem 3D-Scanner, einem Tiefensensor und/oder einer Vielzahl von Photogrammetriekameras umfassen.
  • Die Mittel zum Bereitstellen eines Fotos der Person gemäß dem 3D-Personenmodell können eine Kamera umfassen.
  • Die Kamera der Mittel zum Bereitstellen eines Fotos der Person kann eine der Photogrammetriekameras sein.
  • Die Mittel zum Bereitstellen der Beleuchtungsbedingungsdaten, welche sich auf das Foto beziehen, können einen Umgebungssensor umfassen, wobei der Umgebungssensor zumindest eines von einem sphärischen Bildsystem oder einer Spiegelkugel umfasst.
  • Die Mittel zum Selektieren des Kleidungsstücks können zumindest eines oder mehrere von einer Benutzerschnittstelle, einer Datenbank und/oder einer Datei umfassen.
  • Solche eine Schnittstelle ermöglicht ein einfaches Selektieren des Kleidungsstücks, wobei das Kleidungsstück in einer Datenbank und/oder einer Datei gespeichert sein kann. Darüber hinaus kann mehr als ein Kleidungsstück von der Datenbank und/oder einer Datei selektiert werden. Folglich kann mehr als ein Kleidungsstück durch Verfahrensschritt e. zur gleichen Zeit verarbeitet werden. Im Ergebnis kann das künstliche Bild eine Person zeigen, welche mehr als ein Kleidungsstück auf einmal trägt.
  • Die Mittel der Vorrichtung zum Erzeugen des künstlichen Bildes können eingerichtet sein zum Erzeugen eines künstlichen Bildes einer Person, welche ein selektierbares Kleidungsstück gemäß den oben beschriebenen Verfahren trägt.
  • Ein weiterer Aspekt der vorliegenden Erfindung bezieht sich auf ein Computerprogramm, aufweisend Instruktionen zum Durchführen eines Verfahrens gemäß einem der obigen Verfahren.
  • Ein weiterer Aspekt der vorliegenden Erfindung bezieht sich auf ein künstliches Bild einer Person, welche ein selektierbares Kleidungsstück trägt, erzeugt gemäß eines der oben beschriebenen Verfahren.
  • Kurze Beschreibung der Zeichnungen
  • Im Folgenden werden Ausführungsformen der vorliegenden Erfindung detailliert mit Bezug zu den Figuren beschrieben, wobei:
  • 1 einen Prozess zum Erzeugen eines künstlichen Bildes von einer Person welche ein oder mehrere selektierbare Kleidungsstücke trägt, gemäß einiger Ausführungsformen der vorliegenden Erfindung zeigt;
  • 2 ein 3D-Modell einer Person gemäß einiger Ausführungsformen der vorliegenden Erfindung zeigt;
  • 3 eine Person und Kameras gemäß einiger Ausführungsformen der vorliegenden Erfindung zeigt, ausgerichtet um einen beispielhaften Kameraaufbau zu zeigen;
  • 4 eine Person und einen 3D-Scanner gemäß einiger Ausführungsformen der vorliegenden Erfindung zeigt;
  • 5 eine Person und einen Tiefensensor gemäß einiger Ausführungsformen der vorliegenden Erfindung zeigt;
  • 6 ein Foto einer Person gemäß einiger Ausführungsformen der vorliegenden Erfindung zeigt;
  • 7 ein 3D-Kleidungsstückmodell gemäß einiger Ausführungsformen der vorliegenden Erfindung zeigt;
  • 8 ein gerastertes 3D-Modell gemäß einiger Ausführungsformen der vorliegenden Erfindung zeigt;
  • 9 ein gerastertes 3D-Personenmodell und eine Lichtschicht gemäß einiger Ausführungsformen der vorliegenden Erfindung zeigt, wobei beispielhaft Teile, welche durch ein Kleidungsstück verdeckt sind, auf unsichtbar gesetzt sind;
  • 10 ein Foto einer Person, eine Lichtschicht, ein gerastertes 3D-Kleidungsstückmodell, ein künstliches Bilde, ein künstliches Bild einer Person, welche ein 3D-Kleidungsstückmodell trägt ohne eine Lichtschicht und ein künstliches Bild einer Person, welche ein 3D-Kleidungsstückmodell trägt, beinhaltend eine Lichtschicht gemäß einiger Ausführungsformen der vorliegenden Erfindung zeigt;
  • 11 ein gerastertes 3D-Modell und seine Silhouette, sowie die Silhouette einer Person eines Fotos gemäß einiger Ausführungsformen der vorliegenden Erfindung zeigt.
  • Detaillierte Beschreibung der Ausführungsformen
  • Im Folgenden werden Ausführungsformen und Variationen der vorliegenden Erfindung im Detail mit Bezug zu den Figuren beschreiben.
  • 1 zeigt einen Prozess 40 gemäß einiger Ausführungsformen der vorliegenden Erfindung. Es soll verstanden werden, dass Prozess 40 einige oder alle der Prozessschritte 30, 33, 36 und 39 umfassen kann. Jedoch können die Prozessschritte 30, 33, 36 und 39 neu geordnet werden und einige der Prozessschritte 30, 33, 36 und 39 können verschmolzen oder ausgelassen werden. Zusätzlich können weitere Prozessschritte (nicht gezeigt) in Prozess 40 oder in die einzelnen Prozessschritte 30, 33, 36 und 39 integriert werden.
  • Der Prozess 40 ist dazu gedacht, um ein künstliches Bild 7 gemäß einiger Ausführungsformen der vorliegenden Erfindung zu erzeugen. Das künstliche Bild 7 kann aus mehreren Schichten zusammengesetzt sein, wobei die Schichten ein Foto einer Person 3, eine Lichtschicht 19 und eines oder mehrere gerasterte 3D-Kleidungsstückmodelle 21 umfassen können. Das künstliche Bild 7 kann einen fotorealistischen Charakter haben. Die Ausdrücke „fotorealistischer Charakter”, „Fotorealismus”, „realistisch” usw. können mit Bezug zu dem künstlichen Bild 7 als das Bereitstellen eines Eindrucks gemäß einem realen Foto verstanden werden. Jedoch können spezifische Toleranzen akzeptabel sein. Zum Beispiel können Toleranzen akzeptabel sein, solange ein menschlicher Betrachter des künstlichen Bilds 7 den Eindruck haben kann, dass er ein reales Foto betrachtet, z. B. aufgenommen mittels einer Kamera, wobei einige Komponenten tatsächlich nicht realistisch sind. Genauer gesagt, sollen die oben genannten Begriffe verstanden werden als Vermitteln eines Eindrucks an einen menschlichen Betrachter, dass er auf ein „reales” Foto schaut, während zum gleichen Zeitpunkt (z. B. erkennbar bei einer detaillierten Untersuchung des künstlichen Bildes) einige Teile des künstlichen Bildes 7 aussehen, als ob sie künstlich erzeugt wurden und deshalb keine exakte Repräsentation der Realität darstellen.
  • Tatsächlich kann z. B. das Verfolgen von Lichtstrahlen, welche von den zu rasternden 3D-Modellen reflektiert werden können, auf eine bestimmte Anzahl von Reflektionen beschränkt sein. Solch eine Beschränkung, z. B. gesteuert in einer Rastersoftware (auch „Renderer” genannt) kann die Rechenzeit zum Rastern des 3D-Kleidungsstücksmodells 5 signifikant verbessern (z. B. reduzieren), mit dem Effekt, dass manche Teile der Rasterung nicht exakt die Realität repräsentieren. Jedoch kann ein Betrachter nicht in der Lage sein zwischen den gerasterten 3D-Modellen mit und ohne einer begrenzten Anzahl von Strahlreflektionen zu unterscheiden. Folglich kann der Betrachter immer noch einen fotorealistischen Eindruck während dem Betrachten einer solchen Rasterung haben.
  • Um solch einen fotorealistischen Eindruck zu erzielen, können mehrere Aspekte, erklärt im Folgenden mit Bezug zu Prozess 40, berücksichtigt werden, wenn ein künstliches Bild 7 gemäß einigen Ausführungsformen der vorliegenden Erfindung erzeugt wird.
  • Der Prozess 40 kann Prozessschritt 30 zum Bereitstellen eines 3D-Personenmodells 1, Kameraparametern 10, Beleuchtungsbedingungsdaten 2 und/oder ein Foto einer Person 3 umfassen.
  • Ein beispielhaftes 3D-Personenmodell 1 gemäß einiger Ausführungsformen der vorliegenden Erfindung ist in 2 gezeigt. Das 3D-Personenmodell 1 kann in Prozess 30 der 1 bereitgestellt werden. Das 3D-Personenmodell 1 kann eine 3D-Repräsentation einer menschlichen Person 11 sein. Das 3D-Personenmodell 1 kann eine detaillierte Repräsentation der Form des Körpers der zugehörigen Person 11 sein, auf welcher das 3D-Personenmodell 1 basiert. Beispielsweise kann das 3D-Personenmodell 1 eine spezifische Menge an Punkten umfassen, welche miteinander verbunden sein können und folglich Polygone formen können. Jedoch kann der Detailgrad variieren. Folglich kann das 3D-Personenmodell 1 eine Anzahl von Polygonen umfassen. Gewöhnlich kann der Detailgrad erhöht werden wenn mehr Polygone dazu verwendet werden, um das 3D-Personenmodell 1 zu bilden. 3D-Modelle sind im Allgemeinen dem Fachmann bekannt, z. B. von sogenannter 3D-Modellierungssoftware, wie z. B. CAD-Software oder Ähnlichem. Das 3D-Personenmodell 1 kann Texturen umfassen oder kann eine synthetische Oberfläche (ohne Texturen, wie gezeigt in 1) umfassen, z. B. wenn es eine einfarbige Oberfläche aufweist.
  • Zu bemerken ist, dass das 3D-Personenmodell 1 nicht auf Formen des menschlichen Körpers beschränkt ist. Darüber hinaus können 3D-Modelle, z. B. von Tieren und Objekten geeignet sein, um mit einigen Ausführungsformen der vorliegenden Erfindung im Einklang zu sein.
  • Das 3D-Personenmodell 1 kann durch Photogrammetriekameras 9 erzeugt werden, wie beispielhaft in 3 gemäß einiger Ausführungsformen der vorliegenden Erfindung gezeigt. Die Photogrammetriekameras 9 können die Person 11 umgeben. Alle Kameras 9 nehmen ein Bild der Person 11 zum selben Zeitpunkt auf, wobei der Ausdruck „gleicher Zeitpunkt” so zu verstehen ist, so dass Toleranzen gestattet sind, wie bereits oben definiert. Die Toleranzen sind in einem Bereich zu sehen, wie sie üblicher Weise auftreten, wenn mehrere Kameras gleichzeitig ausgelöst werden, z. B. resultierend von einer Signallaufzeit des Auslösesignals usw.
  • Anschließend kann z. B. das 3D-Personenmodell 1 basierend auf den aufgenommenen Bildern unter Verwendung von z. B. einem Photogrammetriealgorithmus gebildet werden. Genauer gesagt, ist Photogrammetrie eine Technik um Messungen von einem Foto, inter alia, zum Wiederherstellen der exakten Position von Oberflächenpunkten. Folglich kann diese Technik eingesetzt werden, um Oberflächenpunkte der Person 11 zu rekonstruieren um ein zugehöriges 3D-Personenmodell 1 zu konstruieren.
  • Zusätzlich oder alternativ kann das 3D-Personenmodell 1 durch einen 3D-Scanner 13 gemäß einiger Ausführungsformen der vorliegenden Erfindung erzeugt werden, wie in 4 gezeigt. Ein 3D-Scanner 13 kann die Form des Körpers einer Person 11 scannen und kann die Ergebnisse der gescannten Oberflächenpunkte in Form eines 3D-Personenmodells 1 speichern.
  • Zusätzlich oder alternativ kann das 3D-Personenmodell 1 durch einen Tiefensensor 15 gemäß einiger Ausführungsformen der vorliegenden Erfindung erzeugt werden, wie in 5 gezeigt. Ein Tiefensensor 15 kann z. B. eine Microsoft KinectTM-Steuerung sein. Solch eine Steuerung kann ein irreguläres Punktmuster in dem Infrarotspektrum in eine „Szene” projizieren. Die zugehörigen Reflektionen können anschließend durch eine Infrarotkamera der Steuerung verfolgt werden. Durch Berücksichtigen der Verzerrung des Musters kann die Tiefe (die Distanz zu der Infrarotkamera) der einzelnen Punkte berechnet werden. Um ein 3D-Personenmodell 1 aus den Punkten zu konstruieren, wird eine Verformung auf ein oder mehrere verfügbare Standardmodelle angewendet.
  • Ein beispielhaftes Foto einer Person 3 gemäß einiger Ausführungsformen der vorliegenden Erfindung ist in 6 gezeigt. Die Person 11 kann dieselbe Person 11, wie verwendet für das Erzeugen des oben beschriebenen 3D-Personenmodell 1, sein. Das Foto der Person 3 kann mittels einer Kamera 9, z. B. einer Digitalkamera, einem Camcorder usw. aufgenommen sein. Die Kamera 9 kann z. B. eine der Photogrammetriekameras 9, wie oben mit Bezug zu 3 beschrieben, sein. Die Auflösung des Fotos der Person 3 kann variieren. Je höher die Auflösung, desto höher der Detailgrad des Fotos der Person 3, was folglich zu einem Foto 3 mit besserer Qualität führen kann. Das Foto 3 kann so aufgenommen sein, so dass das Foto der Person 3 die Person 11 in einer Pose gemäß dem 3D-Personenmodell 1 zeigt. Jedoch können Abweichungen akzeptabel sein, da diese nachträglich korrigiert und/oder angepasst werden können (unten beschrieben). Die Kamera 9, welche verwendet wurde um das Foto der Person 3 aufzunehmen, kann Kameraparameter 10 wie Position, Ausrichtung und/oder Brennweite umfassen. Die Kameraparameter 10 können gespeichert oder aufbewahrt werden, so dass sie in einem der anderen Prozessschritte 33, 36 und/oder 39 wiederverwendet werden können.
  • Zu bemerken ist, dass das Foto der Person 3 nicht auf menschliche Personen 11 beschränkt ist. Überdies sind Fotos, z. B. von Tieren und Objekten geeignet, um mit einigen Ausführungsformen der vorliegenden Erfindung in Einklang zu sein.
  • Das Foto der Person 3 kann aufgenommen werden wenn spezifische Beleuchtungsbedingungen vorherrschen. Zum Beispiel kann die Person 11, gezeigt in dem Foto 3, von einem bestimmten Winkel aus, von einer spezifischen Richtung und/oder von einer spezifischen Höhe beleuchtet sein. Zum Beispiel können Beleuchtungselemente, wie ein oder mehrere Scheinwerfer, Spiegel und/oder spiegelähnliche Reflektoren zur Beleuchtung der Person 11 verwendet werden, wenn das Foto 3 aufgenommen wird. Folglich können Lichtstrahlen zu der Person geleitet werden, um eine beleuchtete „Szene” zu schaffen. Solch eine Beleuchtung kann von Fotostudios bekannt sein, wobei eines oder mehrere der oben beschriebenen Beleuchtungselemente für die Beleuchtung einer „Szene” verwendet werden können, z. B. umfassend die Person 11, von welcher das Foto 3 dann aufgenommen werden kann.
  • Die bereitzustellenden Beleuchtungsbedingungsdaten können durch einen Umgebungssensor, wie einen sphärisches Bildsystem und/oder einer Spiegelkugel detektiert werden. Zum Beispiel kann ein sphärisches Bildsystem auf einer Kamera basieren, welche in der Lage ist, ein 360°-Panoramabild von der Umgebung aufzunehmen, welche die Person 11 während dem Erzeugen des zugehörigen 3D-Personenmodells 1 umgibt. Im Ergebnis können relevante Lichtquellen und Objekte oder ähnliches, welche das Set umgeben, aufgezeichnet und in einem Panoramabild gespeichert werden. Zu bemerken ist, dass es z. B. auch möglich ist, nur einen Teil oder Teile der 360°-Panoramaansicht, z. B. 180° oder jede andere geeignete Gradzahl, aufzuzeichnen. Zum Beispiel kann ein sphärisches Bildsystem wie die SpheronTM SceneCam verwendet werden. Zu bemerken ist, dass ähnliche Ergebnisse erzielt werden können, wenn eine Spiegelkugel anstatt eines sphärischen Bildsystems verwendet wird.
  • Prozessschritt 33 von Prozess 40 kann eine Simulation des 3D-Kleidungsstückmodells 5/der 3D-Kleidungsstückmodelle 5 durchführen. In diesem Prozessschritt 33 können das 3D-Kleidungsstückmodell 5/die Kleidungsstückmodelle 5 simuliert werden, z. B. durch Anwenden geometrischer Eigenschaften von dem 3D-Personenmodell 1, wie z. B. Größe, Breite, Bauchumfang oder Ähnliches auf das 3D-Kleidungsstückmodell 5/auf die 3D-Kleidungsstückmodelle 5. Ein beispielhaftes 3D-Kleidungsstück-CAD-Modell 5 gemäß einiger Ausführungsformen der vorliegenden Erfindung ist in 7 gezeigt. Ein 3D-Kleidungsstückmodell 5 kann 3D-Modelle von T-Shirts, Hosen, Schuhen, Mützen, Brillen, Handschuhen, Mänteln, Masken, Kopfbekleidung, Umhänge usw. umfassen, ist aber nicht darauf beschränkt. Im Allgemeinen kann ein 3D-Kleidungsstückmodell 5 zu jeder Art von Bekleidungsstück oder Vorrichtung, z. B. Brillen, Prothesen usw., tragbar durch eine (menschliche) Person 11 sein.
  • Ein 3D-Kleidungsstückmodell 5 kann Polygone, Linien, Punkte usw. umfassen. 3D-Kleidungsstückmodelle sind im Allgemeinen dem Fachmann bekannt, z. B. von sog. 3D-Modellierungssoftware, wie z. B. CAD-Software usw.
  • Das 3D-Kleidungsstückmodell 5 kann Texturen umfassen oder eine einfarbige oder mehrfarbige Oberfläche (ohne Texturen) umfassen, oder eine Kombination daraus. Folglich kann eine Textur später auf das 3D-Kleidungsstückmodell aufgebracht oder die Farbe der Oberfläche angepasst werden. Zusätzlich kann eine Kombination aus Farbe und einer Textur möglich sein, um die Oberfläche des 3D-Kleidungsstückmodells 5 zu bilden.
  • Das 3D-Kleidungsstückmodell kann zusätzlich Informationen des Stoffs, welcher zur Herstellung eines zugehörigen Kleidungsstücks gedacht ist, umfassen.
  • Die oben erwähnte Kleidungsstücksimulation 33 kann durch ein Kleidungsstücksimulationsprogramm, wie V-Stitcher, Clo3D, Vidya usw. durchgeführt werden. Jedoch können andere Softwarekomponenten in solch einem Prozess involviert sein. Die Simulation kann das 3D-Kleidungsstückmodell 5/die 3D-Kleidungsstückmodelle 5 anpassen, um in Übereinstimmung mit den oben erwähnten geometrischen Eigenschaften des 3D-Personenmodells 1 zu gelangen. Während der Simulation können physische Charakteristiken des Stoffs (oder einer Kombination von Stoffen) berücksichtigt werden. Zum Beispiel fällt ein Stoff wie Seide anders im Vergleich zu Wolle oder Ähnlichem. Folglich kann die Simulation in der Lage sein, zu berechnen, wie das 3D-Kleidungsstückmodell 5/die 3D-Kleidungsstückmodelle 5 zu modifizieren sind, so dass sie in Übereinstimmung mit der Form des Körpers, bereitgestellt durch das 3D-Personenmodell 1 unter Berücksichtigung der physischen Eigenschaften des Stoffs/der Stoffe, gedacht zur Herstellung, gelangen. Physische Eigenschaften können Dicke des Stoffs, Dehn- und Biegesteifigkeit, Farben des Stoffs, Webtyp des Stoffes, Gesamtgröße des 3D-Kleidungsstückmodells 5 etc. sein, sind aber nicht darauf beschränkt.
  • Zu bemerken ist, dass mehr als ein 3D-Kleidungsstückmodell 5 in das Kleidungssimulationsprogramm gegeben werden kann. Folglich kann die Simulation auf ein oder mehrere Kleidungsstücke zum selben Zeitpunkt angewendet werden. Zum Beispiel können ein T-Shirt und eine Hose selektiert werden. Anschließend kann das Kleidungssimulationsprogramm beide 3D-Kleidungsstückmodelle 5 gemäß der obigen Beschreibung simulieren. Im Ergebnis kann Prozessschritt 33 ein angepasstes 3D-Kleidungsstückmodell 6/angepasste 3D-Kleidungsstückmodelle 6 erzeugen, so dass diese aussehen, als ob sie durch eine (menschliche) Person 11 getragen werden.
  • Zusätzlich oder alternativ kann das 3D-Kleidungsstückmodell/die 3D-Kleidungsstückmodelle 5 in einer Datenbank gespeichert werden, eventuell zusammen mit einer beliebigen Anzahl von anderen 3D-Kleidungsstückmodellen 5. Zusätzlich oder alternativ kann/können das 3D-Kleidungsstückmodell 5/die 3D-Kleidungsstückmodelle 5 in einer Datei gespeichert werden, z. B. in einer Computerdatei oder einer Datendatei. Das 3D-Kleidungsstückmodell 5/die 3D-Kleidungsstückmodelle 5 kann/können von einer Datenbank oder einer Datei (oder von jeder anderen Art von Speicher) durch Benutzung einer Benutzerschnittstelle selektiert werden. Solch eine Benutzerschnittstelle kann mittels einer Computeranwendung implementiert werden, umfassend Desktopanwendungen, webbasierte Anwendungen, Schnittstellen für Touchscreen-Anwendungen, Anwendungen für große Displays usw. Zusätzlich oder alternativ kann eine Benutzerschnittstelle physische Knöpfe, physische Schalter, physische Wähler, physische Wippschalter usw. umfassen. Die Auswahl kann dazu verwendet werden, die 3D-Kleidungsstückmodelle 5/das 3D-Kleidungsstückmodell 5 an einen zugehörigen Simulator gemäß dem Prozessschritt 33 zu übergeben.
  • Zu bemerken ist, dass das 3D-Kleidungsstückmodell 5/die 3D-Kleidungsstückmodelle 5 nicht auf Kleidungsstücke für menschliche Personen limitiert ist/sind. Überdies können z. B. Kleidungsstücke für Tiere oder Stoffe, die auf jede Art von Objekt angewendet werden können, geeignet sein, um mit einigen Ausführungsformen der vorliegenden Erfindung in Einklang zu sein.
  • Prozessschritt 36 von Prozess 40 kann ein oder mehrere Rasterschritte unter Verwendung eines Rasterers und/oder einer 3D-Rastersoftware durchführen. Während dem Rastern können das 3D-Personenmodell 1, das angepasste 3D-Kleidungsstückmodell 6/die angepassten 3D-Kleidungsstückmodelle 6 und die Beleuchtungsbedingungsdaten 2 berücksichtigt werden. Prozessschritt 36 kann zumindest zum Zwecke des Rasterns des angepassten 3D-Kleidungsstückmodells 6/der 3D-Kleidungsstückmodelle 6 und zum Bereitstellen einer Lichtschicht 19 dienen. Zu bemerken ist, dass ein oder mehrere Lichtschichten 19 bereitgestellt sein können. Wenn z. B. ein oder mehrere angepasste 3D-Kleidungsstückmodelle 6 gerastert werden, so kann der Lichttransport von jedem angepassten 3D-Kleidungsstückmodell 6 zu dem 3D-Personenmodell 1 in einer separaten Lichtschicht 19 gespeichert sein.
  • Vor dem Rastern kann eine Referenzperspektive gemäß den Kameraparametern 10 berechnet werden. Diese Referenzperspektive kann dann dazu verwendet werden, um eine virtuelle Kamera zu positionieren und auszurichten gemäß der Position und Ausrichtung der Kamera, welche für die Aufnahme des Fotos der Person 3 verwendet wurde. Das Verwenden solch eines Referenzpunktes erlaubt das Durchführen aller Rasterschritte in einer Art, so dass die Perspektive des Rasterergebnisses mit der Perspektive übereinstimmt, von welcher aus das Foto der Person 3 aufgenommen wurde. Folglich kann ein Komposition (weiter unten beschrieben) der Rasterungen und im Foto der Person 3 vereinfacht werden.
  • Zusätzlich oder alternativ zeigt 11 eine Silhouette 23 des 3D-Personenmodells 1 und eine Silhouette 25 des Fotos der Person 3 (11(a)). Abhängig z. B. von der Genauigkeit der Erzeugung des 3D-Personenmodells 1. und/oder des Fotos der Person 3 können die Silhouetten 23, 25 voneinander abweichen (11(b)). Dies kann z. B. auftreten wenn das Foto der Person 3 nicht zum selben Zeitpunkt aufgenommen wurde als das 3D-Personenmodell erzeugt wurde. Solch eine Abweichung kann durch Verziehen einer oder beider der Silhouetten 23, 25 kompensiert werden, so dass sie nach einem Verziehen in Übereinstimmung miteinander sind (11(c)).
  • Genauer gesagt, kann das Verziehen durch Verformung der Silhouetten 23, 25 gemacht werden. Solch eine Verformung kann durch Algorithmen realisiert werden, z. B. eingerichtet zum Bewegen der „Kanten” oder „Ränder” der Silhouetten 23, 25, solange sie nicht in Übereinstimmung zueinander sind. Kanten können z. B. durch Verwendung von sobeloperatorbasierten Algorithmen detektiert werden, welcher ein gut bekannter Kantendetektionsalgorithmus ist. Zusätzlich kann Verziehen ferner das Anwenden einer physischen Simulation umfassen, um unnatürliche Verformungen zu verhindern. Dies kann verhindern, dass spezifische Teile des Körpers, entweder gezeigt in dem Foto der Person 3 oder durch das 3D-Personenmodell 1 repräsentiert, in unnatürlicher Art und Weise verformt werden. Wenn z. B. spezifische Teil in ihrer Größe geändert werden, kann dies zu einem unnatürlichen Eindruck führen. Genauer gesagt, wenn z. B. eine Hand während dem Verformen vergrößert wird, so dass sie merklich die Größe der anderen Hand überschreitet, so kann dies zu einer unnatürlichen Verformung führen, wie oben erwähnt. Wenn solch eine physische Simulation auf den Prozess des Verziehens angewendet wird, so können solche Verformungen verhindert werden. Zugehörige Verziehungsalgorithmen können daher in Kenntnis von Eigenschaften des menschlichen Körpers usw. sein und können diese Eigenschaften während dem Verziehen der Silhouetten berücksichtigen.
  • Rastern des angepassten 3D-Kleidungsstückmodells 6/der 3D-Kleidungsstückmodelle 6 kann auf dem 3D-Personenmodell 1 und dem Beleuchtungsbedingungsdaten basieren. Die Szene des 3D-Personenmodells 1 und des angepassten 3D-Kleidungsstückmodells 6/der angepassten 3D-Kleidungsstückmodelle 6 kann so angeordnet sein, dass das 3D-Personenmodell 1 virtuell das angepasste 3D-Kleidungsstückmodell 6/die angepassten 3D-Kleidungsstückmodelle 6 trägt. Folglich können die Beleuchtungsbedingungsdaten 2 auf beide 3D-Modelle 1, 6 angewendet werden.
  • Anwenden der Beleuchtungsbedingungsdaten 2 kann Umgeben des 3D-Personenmodell 1 und des angepassten 3D-Kleidungsstückmodells 6/der angepassten 3D-Kleidungsstückmodelle 6 durch ein Umgebungsbild umfassen. Zum Beispiel kann eine virtuelle Röhre vertikal um die 3D-Modelle platziert werden, so dass das 3D-Personenmodell 1 und das angepasste 3D-Kleidungsstückmodell 6/die angepassten 3D-Kleidungsstückmodelle 6 in der Röhre sind. Anschließend kann die Innenseite der virtuellen Röhre mit dem Umgebungsbild texturiert werden, z. B. in Form eines digitalen Fotos. Eine Kamera – repräsentierend die Perspektive von welcher die 3D-Modelle gerastert werden sollen – kann in der Röhre platziert werden, so dass die Außenseite der Röhre nicht sichtbar in dem Rasterbild der 3D-Modelle 1, 6 ist. Texturieren der inneren Seite der Röhre mit einem Umgebungsbild kann den Lichttransport von der Textur zu den 3D-Modellen 1, 6 anwenden. Demgemäß können die 3D-Modelle 1, 6 gemäß dem Umgebungsbild illuminiert sein. Zu bemerken ist, dass zusätzlich oder alternativ andere Techniken aus dem Stand der Technik bekannt sind, welche eignet sein können, ein Umgebungsbild zu verwenden, um 3D-Modelle 1, 6 zu beleuchten. Zum Beispiel können einige Rasterer ein Umgebungsbild als einen Eingabeparameter akzeptieren, so dass keine explizite Modellierung – wie im Hinblick auf die oben beschriebene Röhre – benötigt wird.
  • Zusätzlich oder alternativ kann eine 3D-Szene, welche die Umgebung in welcher das Foto der Person 3 aufgenommen wurde, zum Ersetzen oder Komplimentieren des Umgebungsbildes bereitgestellt werden. In diesem Fall kann das 3D-Personenmodell 1 und das angepasste 3D-Kleidungsstückmodell 6/die angepassten 3D-Kleidungsstückmodelle 6 – getragen von dem 3D-Personenmodell 1 – in der 3D-Szene platziert werden, welche die Umgebung, in welcher das Foto der Person 3 aufgenommen wurde, repräsentiert. Folglich sind die 3D-Personenmodelle 1 und das angepasste 3D-Kleidungsstückmodell 6/die angepassten 3D-Kleidungsstückmodelle 6 in der 3D-Szene angeordnet, welche die Umgebung repräsentiert. Im Ergebnis kann der Lichttransport von der 3D-Szene zu den 3D-Modelle 1, 6 berechnet werden.
  • Das Verwenden einer 3D-Szene, welche z. B. manuell modelliert worden sein kann, vermeidet die Verwendung eines Umgebungssensors zum Erzeugen des Umgebungsbildes. Folglich wird der Aufbau zum Erzeugen des Fotos der Person 3 und/oder des 3D-Personenmodells 1 signifikant vereinfacht.
  • Das angepasste 3D-Kleidungsstückmodell 6/die angepassten 3D-Kleidungsstückmodelle 6 können gerastert werden während das 3D-Personenmodell 1, welches virtuell das angepasste 3D-Kleidungsstückmodell 6/die angepassten 3D-Kleidungsstückmodelle 6 trägt, auf unsichtbar gesetzt ist. Solch ein Rasterverfahren kann den Lichttransport von dem 3D-Personenmodell 1 (sogar wenn es auf unsichtbar gesetzt ist) auf das angepasste 3D-Kleidungsstückmodell 6/auf die angepassten 3D-Kleidungsstückmodelle 6 berücksichtigen. Zum Beispiel können Schatten, verursacht durch das 3D-Personenmodell 1 (welche durch die Belichtung durch das Umgebungsbild auftreten können) auf dem gerasterten 3D-Kleidungsstückmodell 21/auf den gerasterten 3D-Kleidungsstückmodellen 21 sichtbar sein. Auch jeder andere Lichttransport (wie Reflektionen usw.) von dem 3D-Personenmodell 1 zu dem angepassten 3D-Kleidungsstückmodell 6/zu den angepassten 3D-Kleidungsstückmodellen 6 kann auf den gerasteten 3D-Kleidungsstückmodellen 21/auf dem gerasterten 3D-Kleidungsstückmodell 21 sichtbar sein. Im Ergebnis kann das gerasterte 3D-Kleidungsstückmodell 21/die gerasterten 3D-Kleidungsstückmodelle 21 als ein 2D-Bild angesehen werden, wobei lediglich Teile des angepassten 3D-Kleidungsstückmodells 6/der angepassten 3D-Kleidungsstückmodelle 6 sichtbar sind, welche nicht durch das 3D-Personenmodell 1 verdeckt werden. Folglich kann z. B. der Teil des rückwärtigen Teils der Kragenöffnung eines getragenen T-Shirts nicht in dem gerasterten 3D-Kleidungsstückmodell 21 gezeigt sein, da es durch den Hals des 3D-Personenmodells 1 verdeckt ist. Solch eine Rastertechnik kann die Komposition (weiter unten beschrieben) des Fotos der Person 3 und des gerasterten 3D-Kleidungsstückmodells 21/der gerasterten 3D-Kleidungsstückmodelle 21 vereinfachen.
  • Jedoch kann z. B. ein Rasterer das Rastern des angepassten 3D-Kleidungsstückmodells 6/der angepassten 3D-Kleidungsstückmodelle 6 während das 3D-Personenmodell 1 auf unsichtbar gesetzt ist, nicht unterstützen. In solch einem Fall können die Pixel in dem Bild des gerasterten 3D-Kleidungsstückmodells 21/der gerasterten 3D-Kleidungsstückmodelle 21, welche nicht zu dem gerasterten 3D-Kleidungsstückmodell 21/zu den gerasterten 3D-Kleidungsstückmodellen 21 gehören, nach dem Rastern maskiert werden. Diese Pixel können z. B. zu dem 3D-Personenmodell 1 oder zu jeden anderen Umgebungspixeln gehören. Maskieren kann verstanden werden als Entfernen der Pixel von dem Bild, z. B. mittels einer Bildbearbeitungssoftware wie Photoshop usw. während der Nachbearbeitung oder Ähnlichem.
  • Zusätzlich oder alternativ kann in Prozessschritt 36 eine Lichtschicht 19 berechnet werden und kann in Form eines 2D-Bildes gespeichert werden. Wie in 9 gemäß einiger Ausführungsformen der vorliegenden Erfindung gezeigt, kann das 3D-Personenmodell 1 ohne ein angepasstes 3D-Kleidungsstückmodell 6/angepasste 3D-Kleidungsstückmodelle 6 zu tragen, gerastert werden. Danach kann das 3D-Personenmodell 1 erneut gerastert werden, aber diesmal trägt es das angepasste 3D-Kleidungsstückmodell 6/die angepassten 3D-Kleidungsstückmodelle 6. Jedoch können die Teile des 3D-Personenmodells 1, welche durch das angepasste 3D-Kleidungsstückmodell 6/die angepassten 3D-Kleidungsstückmodelle 6 verdeckt werden, auf unsichtbar gesetzt werden. Ein gerastertes 3D-Personenmodell 1, welches ein Kleidungsstück trägt und auf unsichtbar 17 gesetzt ist, kann dann nur Teile zeigen, welche nicht durch das getragene angepasste 3D-Kleidungsstückmodell 6/durch die getragenen angepassten 3D-Kleidungsstückmodelle 6 verdeckt sind. Zu bemerken ist, dass ein entsprechender Rasterer immer noch den Lichttransport von dem getragenen angepassten 3D-Kleidungsstückmodell 6/den angepassten getragenen 3D-Kleidungsstückmodellen 6 zu dem 3D-Personenmodell 1 berücksichtigen kann. Während dem Berechnen der Lichtschicht 19 kann die Differenz zwischen den zwei Rasterungen berechnet werden, was in einer Lichtschicht 19 resultiert, die nur das transportierte Licht (Schatten, Reflektionen) von dem angepassten 3D-Kleidungsstückmodell 21 zu dem 3D-Personenmodell 1 zeigt.
  • Zu bemerken ist es, dass es möglich ist, eine Lichtschicht 19 für jedes angepasste 3D-Kleidungsstückmodell 6 separat zu rastern.
  • Prozessschritt 39 von Prozess 40 kann eine Komposition des Fotos der Person 3 (10(a)), der Lichtschicht 19 (10(b)) und des gerasterten 3D-Kleidungsstückmodells 21/der gerasterten 3D-Kleidungsstückmodelle 21 (10(c)) durchführen, wobei diese Komponenten in 10 gemäß einigen Ausführungsformen der vorliegenden Erfindung gezeigt sind. Eine Komposition kann z. B. ein Schichten sein, wobei das Foto der Person 3 als Hintergrund verwendet wird. Anschließend kann über das Foto der Person 3 die Lichtschicht 19 geschichtet werden. Wenn mehr als eine Lichtschicht 19 berechnet wurde, so können diese Lichtschichten 19 übereinander geschichtet werden. Danach können die gerasterten 3D-Kleidungsstückmodelle 21/das gerasterte 3D-Kleidungsstückmodell 21 über die Kombination des Fotos der Person 3 und der Lichtschicht 19/der Lichtschichten 19 geschichtet werden. Solch eine Komposition kann folglich das künstliche Bild 7 (10(d) und 10(f)) ergeben.
  • Danach kann das künstliche Bild 7 eine Person 11 zeigen, welche ein oder mehrere Kleidungsstücke trägt. Das künstliche Bild 7 kann solch eine Qualität umfassen, dass ein menschlicher Betrachter glaubt, dass das künstliche Bild ein Foto ist, z. B. aufgenommen durch eine Kamera.
  • Folglich kann das künstliche Bild 7 fotorealistischen Charakter haben. Dies kann daran liegen, da alle Komponenten des Bildes in Größe, Perspektive und Beleuchtung übereinstimmen. Insbesondere kann dies durch Anwenden der geometrischen Eigenschaften des 3D-Personenmodells 1 auf das 3D-Kleidungsstückmodell 6 und von dem Durchführen einer Simulation des genannten 3D-Modells resultieren. Zusätzlich oder alternativ kann der fotorealistische Eindruck durch Berücksichtigung des Lichttransports von dem 3D-Personenmodell 1 zu dem 3D-Kleidungsstückmodell 6/zu den 3D-Kleidungsstückmodellen 6 entstehen oder andersherum.
  • Der Unterschied zwischen einem künstlichen Bild 7, welches einen fotorealistischen Charakter umfasst, und einem künstlichen Bild 7 ohne fotorealistischen Charakter, ist exemplarisch in 10(e) und in 10(f) gezeigt. Wie erkannt werden kann, umfasst 10(e), welche einen Teil eines künstlichen Bildes ohne fotorealistischen Charakter zeigt, keine Schatten oder keinen Lichttransport von dem 3D-Kleidungsstückmodell 6 zu dem 3D-Personenmodell 1. Im Gegensatz dazu umfasst 10(f), welche den gleichen Teil wie in 10(e) zeigt, Schatten- und Lichttransport. Wie erkannt wird, stellt 10(e) keinen fotorealistischen Charakter bereit, wobei dies 10(f) tut.
  • Gemäß einiger Ausführungsformen der vorliegenden Erfindung kann Prozess 40 ebenfalls in einer sogenannten virtuellen Umkleidekabine verwendet werden. Ein Kunde, welcher mehrere Kleidungsstücke anprobieren will, kann ein 3D-Personenmodell und eine Foto 3 von sich selbst erzeugen, wie oben beschrieben. Anschließend kann ein Bildschirm oder eine Anzeige oder Ähnliches (z. B. angeordnet in einem Bekleidungsladen) das Foto 3 anzeigen. Der Kunde kann anschließend Kleidungsstücke (z. B. unter Verwendung oben beschriebener Benutzerschnittstelle) selektieren, welche dann erzeugt und über das Foto gemäß Prozess 40 geschichtet werden. Solch ein Verfahren kann Zeit während dem Einkaufen von Kleidungsstücken ersparen, da der Kunde nicht selbst jedes einzelne Kleidungsstück anprobieren muss.
  • Gemäß einiger Ausführungsformen der vorliegenden Erfindung kann Prozess 40 dazu verwendet werden, ein Online-Einkaufsportal zu realisieren. Ein Kunde kann einmalig ein 3D-Personenmodell und ein Foto 3, wie oben beschrieben, erzeugen, z. B. in einem Laden eines zugehörigen Kleidungsstückhändlers, welcher eine Vorrichtung gemäß der vorliegenden Erfindung umfasst. Das 3D-Personenmodell 1 und das Foto der Person 3 können anschließend gespeichert werden, so dass sie zu jeder Zeit wiederverwendet werden können, z. B. zuhause beim Besuchen des Online-Kleidungsstückeinkaufsportals. Folglich können einige Ausführungsformen der vorliegenden Erfindung das virtuelle „Anprobieren” von Kleidungsstücken zuhause ermöglichen, während dem Einkaufen von Kleidungsstücken in einem Onlinekleidungsstückeinkaufsportal.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2011/0298897 A1 [0006]
    • US 2014/0176565 A1 [0007]
    • US 2010/0030578 A1 [0008]
    • WO 01/75750 A1 [0009]
  • Zitierte Nicht-Patentliteratur
    • Divivier et al.: „Topics in realistic individualized dressing in virtual reality”; Bundesministerium für Bildung und Forschung (BMBF): Virtual and augmented reality status conference 2004, proceedings CD ROM, Leipzig, 2004 [0010]

Claims (32)

  1. Verfahren zum Erzeugen eines künstlichen Bildes (7) einer Person (11), welche ein selektierbares Kleidungsstück trägt, wobei das Verfahren die Schritte aufweist: a. Bereitstellen eines 3D-Personenmodells (1) von zumindest einem Teil der Person (11); b. Bereitstellen eines Fotos (3) der Person, welches dem 3D-Personemmodell (1) entspricht; c. Bereitstellen von Beleuchtungsbedingungsdaten (2), welche sich auf das Foto (3) beziehen; d. Selektieren eines Kleidungsstücks; und e. Erzeugen des künstlichen Bildes (7) als eine Kombination des Fotos (3) und einem gerasterten 3D-Kleidungsstückmodells (21) des selektierten Kleidungsstücks, wobei Rastern des 3D-Kleidungsstückmodells (21) die Beleuchtungsbedingungsdaten (2) und das 3D-Personenmodell (1) berücksichtigt.
  2. Verfahren nach Anspruch 1, wobei Verfahrensschritt e. Berechnen einer Lichtschicht (19) umfasst als Differenz: – des gerasterten 3D-Personenmodells (1) basierend auf den Beleuchtungsbedingungsdaten (2); und – des gerasterten 3D-Personenmmodells (1) basierend auf den Beleuchtungsbedingungsdaten (2), wobei Teile davon, die durch das 3D-Kleidungsstückmodell (6) verdeckt sind, auf unsichtbar gestellt werden.
  3. Verfahren nach Anspruch 2, wobei Stellen auf unsichtbar Auslassen von Pixeln, welche nicht zu dem 3D-Kleidungsstückmodell (21) gehören, durch einen Rasterer und/oder Entfernen der Pixel während der Nachbearbeitung umfasst.
  4. Verfahren nach Anspruch 2 oder 3, wobei Schritt e. ferner ein Schichten des Fotos (3), der Lichtschicht (19) und des gerasterten 3D-Kleidungsstückmodells (21) umfasst.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei Berücksichtigen des 3D-Personemmodells (1) in Schritt e. Anwenden des 3D-Kleidungsstückmodells (5) auf das 3D-Personemodell (1) und/oder Anwenden von Lichttransport von dem 3D-Prsonenmodell (1) auf das 3D-Kleidungsstückmodell (5) umfasst.
  6. Verfahren nach Anspruch 5, wobei Anwenden des 3D-Kleidungsstückmodells (5) auf das 3D-Personemodell (1) ferner Anwenden von geometrischen Eigenschaften des 3D-Personemodells (1) auf das 3D-Kleidungsstückmodell (5) umfasst.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei Berücksichtigen der Beleuchtungsbedingungsdaten (2) in Schritt e. Anwenden der Beleuchtungsbedingungsdaten (2) auf das 3D-Kleidungsstückmodell (5) und/oder auf das 3D-Personemodell (1) umfasst.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei Schritt a. zumindest einen der folgenden Schritte aufweist: – Bereitstellen des 3D-Personemodells (1) durch einen 3D-Scanner (13); – Bereitstellen des 3D-Personemodells (1) durch einen Tiefensensor (15); oder – Bereitstellen des 3D-Personemodells (1) durch Photogrammetrie.
  9. Verfahren nach einem der vorhergehenden Ansprüche, wobei das 3D-Personemodell (1) eine Silhouette (23) umfasst und wobei das Foto (3) eine Silhouette (25) der Person (11) umfasst, wobei das Verfahren ferner den Schritt des Inübereinstimmungbringens der Silhouetten (23, 25) umfasst, wenn die Silhouetten (23, 25) voneinander abweichen.
  10. Verfahren nach Anspruch 9, wobei der Schritt des Inübereinstimmungbringens der Silhouetten (23, 25) ferner aufweist: – Extrahieren der Silhouette (25) der Person (11) des Fotos (3); – Verziehen des 3D-Personemodells (1), sodass die Silhouette (23) des 3D-Personemodells (1) mit der aus dem Foto (3) extrahierten Silhouette (25) übereinstimmt und/oder Verziehen des Fotos (3), sodass es mit der Silhouette (23) des 3D-Personenmodells (1) übereinstimmt.
  11. Verfahren nach Anspruch 10, wobei Verziehen Deformieren einer oder beider der zwei Silhouetten (23, 25) umfasst.
  12. Verfahren nach Anspruch 11, wobei Verziehen ferner Anwenden einer physischen Simulation zum Verhindern von unnatürlichen Verformungen umfasst.
  13. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Schritt des Bereitstellens der Beleuchtungsbedingungsdaten (2) auf durch einen Umgebungssensor gesammelten Daten basiert, wobei bevorzugt das Sammeln zum im Wesentlichen gleichen Zeitpunkt erfolgt zu dem das Foto (3) der Person (11) aufgenommen wird.
  14. Verfahren nach Anspruch 13, wobei der Umgebungssensor Folgendes umfasst: – ein sphärisches Bildsystem; oder – eine Spiegelkugel.
  15. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Beleuchtungsbedingungsdaten (2) ein Umgebungsbild umfassen.
  16. Verfahren nach Anspruch 15, wobei das Umgebungsbild ein simuliertes 3D-Modell eines Sets umfasst, in welchem das Foto (3) aufgenommen wurde.
  17. Verfahren nach den Ansprüchen 15–16, wobei Anwenden der Beleuchtungsbedingungsdaten (2) Berücksichtigen des Lichttransports von dem Umgebungsbild zu dem 3D-Personemodell (1) und zu dem 3D-Kleidungsstückmodell (6) umfasst.
  18. Verfahren nach einem der vorhergehenden Ansprüche, wobei das 3D-Personenmodell (1) Texturen umfasst.
  19. Verfahren nach Anspruch 18, wobei die Texturen auf einem oder mehreren Fotos der Person (11), aufgenommen durch eine oder mehrere Kameras (9), basieren.
  20. Verfahren nach Anspruch 19, ferner aufweisend den Schritt von Speichern von Parametern der einen oder der mehreren Kameras (10), wobei die Parameter (10) zumindest eines der folgenden umfassen: – die Position der Kamera; – die Ausrichtung; – die Brennweite.
  21. Verfahren nach Anspruch 20, wobei die Parameter geeignet sind zum Berechnen einer Referenzperspektive.
  22. Verfahren nach Anspruch 21, wobei Schritt e. die Referenzperspektive berücksichtigt.
  23. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Foto (3) und das 3D-Personemodell (1) die Person in derselben Pose zeigen.
  24. Vorrichtung zum Erzeugen eines künstlichen Bildes (7) einer Person (11), welche ein selektierbares Kleidungsstück trägt, die Vorrichtung aufweisend: a. Mittel (9, 13, 15) zum Bereitstellen eines 3D-Personemodells (1) von zumindest einem Teil der Person (11); b. Mittel (9) zum Bereitstellen eines Fotos (3) der Person (11), welches dem 3D-Personemodell (1) entspricht; c. Mittel zum Bereitstellen von Beleuchtungsbedingungsdaten (2), welche sich auf das Foto (3) beziehen. d. Mittel zum Selektieren des Kleidungsstücks; und e. Mittel zum Erzeugen des künstlichen Bildes (7) als eine Kombination aus dem Foto (3) und dem gerasterten 3D-Kleidungsstückmodells (21) des selektierten Kleidungsstücks, wobei Rastern des 3D-Kleidungsstückmodells (6) die Beleuchtungsbedingungsdaten (2) und das 3D-Personenmodell (1) berücksichtigt.
  25. Vorrichtung nach Anspruch 24, wobei die Mittel zum Bereitstellen eines 3D-Personenmodells (1) von zumindest einem Teil der Person (11) zumindest eines von den folgenden aufweist: – einen 3D-Scanner (13); – einen Tiefensensor (15); oder – eine Vielzahl an Photogrammetrie-Kamers (9).
  26. Vorrichtung nach einem der Ansprüche 24–25, wobei die Mittel (9) zum Bereitstellen eines Fotos (3) der Person (11) gemäß dem 3D-Personenmodell (1) eine Kamera (9) umfassen.
  27. Vorrichtung nach einem der Ansprüche 25–26, wobei die Kamera (9) eine der Photogrammetrie-Kameras (9) ist.
  28. Vorrichtung nach einem der Ansprüche 24–27, wobei die Mittel zum Bereitstellen der Beleuchtungsbedingungsdaten (2), welche sich auf das Foto (3) beziehen, einen Umgebungssensor umfassen, wobei der Umgebungssensor zumindest eines der folgenden umfasst: – ein sphärisches Bildsystem; oder – eine Spiegelkugel.
  29. Vorrichtung nach einem der Ansprüche 24–28, wobei die Mittel zum Selektieren des Kleidungsstück zumindest eines oder mehrere aufweisen von: – eine Benutzerschnittstelle; – eine Datenbank; und/oder – eine Datei.
  30. Vorrichtung nach einem der Ansprüche 24–29, wobei die Mittel zum Erzeugen des künstlichen Bildes (7) eingerichtet sind zum Erzeugen eines künstlichen Bildes (7) einer Person (11), welche ein selektierbares Kleidungsstück, gemäß dem Verfahren eines der Ansprüche 1–23 trägt.
  31. Computer-Programm, aufweisend Instruktionen zum Durchführen eines Verfahrens gemäß einem der Ansprüche 1–23.
  32. Ein künstliches Bild (7) einer Person (11), welche ein selektierbares Kleidungsstück trägt, erzeugt gemäß dem Verfahren eines der Ansprüche 1–23.
DE102015213832.1A 2015-07-22 2015-07-22 Verfahren und Vorrichtung zum Erzeugen eines künstlichen Bildes Active DE102015213832B4 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE102015213832.1A DE102015213832B4 (de) 2015-07-22 2015-07-22 Verfahren und Vorrichtung zum Erzeugen eines künstlichen Bildes
EP16179602.4A EP3121793B1 (de) 2015-07-22 2016-07-15 Verfahren und vorrichtung zum erzeugen eines künstlichen bildes
EP22178821.9A EP4089615A1 (de) 2015-07-22 2016-07-15 Verfahren und vorrichtung zur erzeugung eines künstlichen bildes
JP2016142902A JP6419116B2 (ja) 2015-07-22 2016-07-21 人工ピクチャを生成する方法および装置
US15/217,602 US20170024928A1 (en) 2015-07-22 2016-07-22 Computer-implemented method and apparatus for generating an image of a person wearing a selectable article of apparel
CN201610585212.XA CN106373178B (zh) 2015-07-22 2016-07-22 生成人工图像的装置和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015213832.1A DE102015213832B4 (de) 2015-07-22 2015-07-22 Verfahren und Vorrichtung zum Erzeugen eines künstlichen Bildes

Publications (2)

Publication Number Publication Date
DE102015213832A1 true DE102015213832A1 (de) 2017-01-26
DE102015213832B4 DE102015213832B4 (de) 2023-07-13

Family

ID=56896315

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015213832.1A Active DE102015213832B4 (de) 2015-07-22 2015-07-22 Verfahren und Vorrichtung zum Erzeugen eines künstlichen Bildes

Country Status (5)

Country Link
US (1) US20170024928A1 (de)
EP (2) EP3121793B1 (de)
JP (1) JP6419116B2 (de)
CN (1) CN106373178B (de)
DE (1) DE102015213832B4 (de)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9852234B2 (en) * 2015-09-16 2017-12-26 Brian Gannon Optimizing apparel combinations
WO2017048158A1 (ru) * 2015-09-17 2017-03-23 Арташес Валерьевич ИКОНОМОВ Электронное устройство для подбора товаров
CN107993276B (zh) * 2016-10-25 2021-11-23 杭州海康威视数字技术股份有限公司 一种全景图像的生成方法及装置
CN107705167A (zh) * 2017-02-28 2018-02-16 深圳市纯彩家居饰品有限公司 一种整体搭配效果图显示方法及装置
JP2018148525A (ja) * 2017-03-09 2018-09-20 エイディシーテクノロジー株式会社 仮想立体物生成装置
US10665022B2 (en) * 2017-06-06 2020-05-26 PerfectFit Systems Pvt. Ltd. Augmented reality display system for overlaying apparel and fitness information
KR102149180B1 (ko) * 2017-07-07 2020-08-28 한국전자통신연구원 증강현실을 위한 가상 콘텐츠 합성 방법 및 이를 위한 장치
CN108305218B (zh) * 2017-12-29 2022-09-06 浙江水科文化集团有限公司 全景图像处理方法、终端及计算机可读存储介质
GB201806685D0 (en) 2018-04-24 2018-06-06 Metail Ltd System and method for automatically enhancing the photo realism of a digital image
WO2019237178A1 (en) * 2018-06-13 2019-12-19 Vital Mechanics Research Inc. Methods and systems for computer-based prediction of fit and function of garments on soft bodies
US11530503B2 (en) * 2019-07-23 2022-12-20 Levi Strauss & Co. Three-dimensional rendering preview in web-based tool for design of laser-finished garments
EP4191540A1 (de) 2020-07-27 2023-06-07 VRC Inc. 3d-datensystem und 3d-datenerzeugungsverfahren
CN114663552B (zh) * 2022-05-25 2022-08-16 武汉纺织大学 一种基于2d图像的虚拟试衣方法
JP2024008557A (ja) * 2022-07-08 2024-01-19 株式会社Nttデータ 画像処理装置、画像処理方法、及びプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001075750A1 (en) 2000-04-03 2001-10-11 Browzwear International Ltd. System and method for virtual shopping of wear articles
US20070130020A1 (en) * 2005-12-01 2007-06-07 Paolini Michael A Consumer representation rendering with selected merchandise
US20100030578A1 (en) 2008-03-21 2010-02-04 Siddique M A Sami System and method for collaborative shopping, business and entertainment
US20100306082A1 (en) * 2009-05-26 2010-12-02 Wolper Andre E Garment fit portrayal system and method
US20110298897A1 (en) 2010-06-08 2011-12-08 Iva Sareen System and method for 3d virtual try-on of apparel on an avatar
US20140176565A1 (en) 2011-02-17 2014-06-26 Metail Limited Computer implemented methods and systems for generating virtual body models for garment fit visualisation
US20150055085A1 (en) * 2013-08-22 2015-02-26 Bespoke, Inc. Method and system to create products
US20150130795A1 (en) * 2013-11-14 2015-05-14 Ebay Inc. Garment simulation using thread and data level parallelism

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040227752A1 (en) * 2003-05-12 2004-11-18 Mccartha Bland Apparatus, system, and method for generating a three-dimensional model to represent a user for fitting garments
JP4583844B2 (ja) * 2003-09-30 2010-11-17 富士フイルム株式会社 画像処理装置、画像処理方法、及びプログラム
DE10360874B4 (de) 2003-12-23 2009-06-04 Infineon Technologies Ag Feldeffekttransistor mit Heteroschichtstruktur sowie zugehöriges Herstellungsverfahren
TW200828043A (en) * 2006-12-29 2008-07-01 Cheng-Hsien Yang Terminal try-on simulation system and operating and applying method thereof
US8384714B2 (en) * 2008-05-13 2013-02-26 The Board Of Trustees Of The Leland Stanford Junior University Systems, methods and devices for motion capture using video imaging
WO2010014620A2 (en) 2008-07-29 2010-02-04 Horizon Logistics Holdings, Llc System and method for a carbon calculator including carbon offsets
US20110234591A1 (en) * 2010-03-26 2011-09-29 Microsoft Corporation Personalized Apparel and Accessories Inventory and Display
US8976230B1 (en) * 2010-06-28 2015-03-10 Vlad Vendrow User interface and methods to adapt images for approximating torso dimensions to simulate the appearance of various states of dress
JP5901370B2 (ja) * 2012-03-19 2016-04-06 株式会社Bs—Tbs 画像処理装置、画像処理方法、および画像処理プログラム
CN102945530A (zh) * 2012-10-18 2013-02-27 贵州宝森科技有限公司 3d智能试衣系统及方法
US20150013079A1 (en) 2013-05-17 2015-01-15 Robert E Golz Webbing System Incorporating One or More Novel Safety Features
US9242942B2 (en) 2013-07-01 2016-01-26 Randolph K Belter Purification of aryltriazoles
US10140751B2 (en) * 2013-08-08 2018-11-27 Imagination Technologies Limited Normal offset smoothing
CN106133796B (zh) * 2014-03-25 2019-07-16 苹果公司 用于在真实环境的视图中表示虚拟对象的方法和系统
US10248993B2 (en) * 2015-03-25 2019-04-02 Optitex Ltd. Systems and methods for generating photo-realistic images of virtual garments overlaid on visual images of photographic subjects

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001075750A1 (en) 2000-04-03 2001-10-11 Browzwear International Ltd. System and method for virtual shopping of wear articles
US20070130020A1 (en) * 2005-12-01 2007-06-07 Paolini Michael A Consumer representation rendering with selected merchandise
US20100030578A1 (en) 2008-03-21 2010-02-04 Siddique M A Sami System and method for collaborative shopping, business and entertainment
US20100306082A1 (en) * 2009-05-26 2010-12-02 Wolper Andre E Garment fit portrayal system and method
US20110298897A1 (en) 2010-06-08 2011-12-08 Iva Sareen System and method for 3d virtual try-on of apparel on an avatar
US20140176565A1 (en) 2011-02-17 2014-06-26 Metail Limited Computer implemented methods and systems for generating virtual body models for garment fit visualisation
US20150055085A1 (en) * 2013-08-22 2015-02-26 Bespoke, Inc. Method and system to create products
US20150130795A1 (en) * 2013-11-14 2015-05-14 Ebay Inc. Garment simulation using thread and data level parallelism

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Divivier et al.: „Topics in realistic individualized dressing in virtual reality"; Bundesministerium für Bildung und Forschung (BMBF): Virtual and augmented reality status conference 2004, proceedings CD ROM, Leipzig, 2004
Indigo Renderer. Tutorial, 41 Seiten, im Internet verfügbar am 7.10.2009 unter der URLhttp://web.archive.org/web/20090815000000*/http://www.indigorenderer.com/dist/Indigo%20Manual.pdf ,[abgerufen am 10.6.2016]. *
ROGGE, L. [et al.]: Garment Replacement in Monocular Video Sequences. ACM Transactions on Graphics, Vol. 34, 2014, Article No. 6, S. 6:1 - 6:10. *
ROGGE, L. [et al.]: Garment Replacement in Monocular Video Sequences. ACM Transactions on Graphics, Vol. 34, 2014, Article No. 6, S. 6:1 – 6:10.
ZHOU, W. [et al.]: A Unified Framework For Scene Illuminant Estimation. Im Internet verfügbar zumindest ab dem Jahr 2005 unter der URL http://citeseer.ist.psu.edu/viewdoc/summary?doi=10.1.1.106.1267&rank=1 ,[abgerufen am 9.6.2016]. *

Also Published As

Publication number Publication date
CN106373178A (zh) 2017-02-01
EP4089615A1 (de) 2022-11-16
CN106373178B (zh) 2021-04-27
EP3121793B1 (de) 2022-06-15
JP6419116B2 (ja) 2018-11-07
EP3121793A1 (de) 2017-01-25
US20170024928A1 (en) 2017-01-26
JP2017037637A (ja) 2017-02-16
DE102015213832B4 (de) 2023-07-13

Similar Documents

Publication Publication Date Title
DE102015213832B4 (de) Verfahren und Vorrichtung zum Erzeugen eines künstlichen Bildes
CN109035388B (zh) 三维人脸模型重建方法及装置
DE69922898T2 (de) Verfahren zur dreidimensionalen Gesichtsmodellerzeugung aus Gesichtsbildern
US8976230B1 (en) User interface and methods to adapt images for approximating torso dimensions to simulate the appearance of various states of dress
DE102018129600A1 (de) Verfahren und System zur virtuellen Anprobe einer Brille
DE112019000687T5 (de) Fotorealistische dreidimensionale texturierung unter verwendung kanonischer ansichten und eines zweistufigen ansatzes
US7953275B1 (en) Image shader for digital image modification
DE202015102081U1 (de) Computerprogramm und Vorrichtung zum Digitalisieren der Appearance eines realen Materials
DE102016209675A1 (de) Verfahren und System zum Herstellen eines Kleidungsstücks
US8019182B1 (en) Digital image modification using pyramid vignettes
EP2144036A2 (de) Verfahren und Vorrichtung zur 3D-Digitalisierung eines Objekts
WO2018087084A1 (de) Verfahren und vorrichtung zum überlagern eines abbilds einer realen szenerie mit virtuellen bild- und audiodaten und ein mobiles gerät
DE19906995A1 (de) Erzeugen von Anpaßdaten für einen virtuellen Szenenaufbau
EP2641539A1 (de) Verfahren zum Bestimmen der Abmessungen eines Körperteils; Verfahren und Vorrichtung zum Bestimmen der Abmessungen eines Kleidungsstücks
WO2021122296A1 (de) Verfahren und vorrichtung zum bereitstellen zumindest eines schnittmusters eines individuell für einen kunden anzufertigenden kleidungsstücks
DE102019005885A1 (de) Umgebungskartengenerierung und Lochfüllung
DE202014010866U1 (de) Spekularitätsbestimmung von Bildern
DE102009036029A1 (de) Darstellung komplexer und/oder deformierbarer Objekte sowie virtuelle Anprobe von anziehbaren Objekten
DE102013215301A1 (de) System, Verfahren und Computerprogrammprodukt zum Extrudieren eines Modells durch eine zweidimensionale Szene
DE112017007303B4 (de) Gesichtserkennungsvorrichtung
EP2528042A1 (de) Verfahren und Vorrichtung zum Re-Meshing von 3D-Polygonmodellen
DE19635753A1 (de) Magic Mirror
WO2010007094A2 (de) Verfahren und anordnung zur 3d-erfassung von objekten sowie ein entsprechendes computerprogramm und ein computerlesbares speichermedium
CN108230431A (zh) 一种二维虚拟形象的人体动作动画生成方法及系统
DE102014208048A1 (de) System und Verfahren zur Personalisierung eines Ausstellungsraums

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final