DE102018207518A1 - Verfahren und System zum Animieren eines 3D-Avatars - Google Patents

Verfahren und System zum Animieren eines 3D-Avatars Download PDF

Info

Publication number
DE102018207518A1
DE102018207518A1 DE102018207518.2A DE102018207518A DE102018207518A1 DE 102018207518 A1 DE102018207518 A1 DE 102018207518A1 DE 102018207518 A DE102018207518 A DE 102018207518A DE 102018207518 A1 DE102018207518 A1 DE 102018207518A1
Authority
DE
Germany
Prior art keywords
user
avatar
terminal
model
communication platform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102018207518.2A
Other languages
English (en)
Inventor
Rebecca Johnson
Robert Wilde
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102018207518.2A priority Critical patent/DE102018207518A1/de
Priority to PCT/EP2019/060863 priority patent/WO2019219357A1/de
Publication of DE102018207518A1 publication Critical patent/DE102018207518A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Es wird ein Verfahren zum Animieren eines 3D-Avatars eines ersten Benutzers einer Kommunikationsplattform bei einem zweiten Benutzer vorgeschlagen. Das Verfahren umfasst:Erfassen von ersten Benutzereigenschaften des ersten Benutzers mit einem 3D-Scanner und/oder einer Kameraeinrichtung;Erstellen eines 3D-Modells des ersten Benutzers unter Berücksichtigung der erfassten ersten Benutzereigenschaften durch ein erstes Endgerät des ersten Benutzers;Übertragen des 3D-Modells als den 3D-Avatar des ersten Benutzers von dem ersten Endgerät an ein zweites Endgerät des zweiten Benutzers;Erfassen von zweiten Benutzereigenschaften des ersten Benutzers mit dem 3D-Scanner und/oder der Kameraeinrichtung;Ermitteln von Gelenkdaten, die Positionen und/oder Orientierungen von Gelenken des ersten Benutzers angeben, anhand der zweiten Benutzereigenschaften;Übertragen der Gelenkdaten von dem ersten an das zweite Endgerät; undAnimieren des 3D-Avatars bei dem zweiten Benutzer unter Berücksichtigung der empfangenen Gelenkdaten.Beim Kommunizieren mit einem Kommunikationspartner kann ein Benutzer einen animierten 3D-Avatar des Kommunikationspartners sehen.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zum Animieren eines 3D-Avatars sowie ein System zum Animieren des 3D-Avatars.
  • Ein Benutzer einer Kommunikationsplattform kann von einem Kommunikationspartner einen Avatar, insbesondere einen 3D-Avatar, erhalten. Der Avatar ermöglicht insbesondere eine visuelle Darstellung des Kommunikationspartners auf Seite des empfangenden Benutzers. Es ist erwünscht, die Kommunikationswahrnehmung zu verbessern.
  • Vor diesem Hintergrund besteht eine Aufgabe der vorliegenden Erfindung darin, eine Kommunikation zwischen Benutzern zu verbessern.
  • Gemäß einem ersten Aspekt wird ein Verfahren zum Animieren eines 3D-Avatars eines ersten Benutzers einer Kommunikationsplattform bei einem über die Kommunikationsplattform mit dem ersten Benutzer kommunizierenden zweiten Benutzer der Kommunikationsplattform vorgeschlagen. Das Verfahren umfasst:
    • Erfassen von ersten Benutzereigenschaften des ersten Benutzers mit einem 3D-Scanner und/oder einer Kameraeinrichtung;
    • Erstellen eines 3D-Modells des ersten Benutzers unter Berücksichtigung der erfassten ersten Benutzereigenschaften durch ein erstes Endgerät des ersten Benutzers;
    • Übertragen des 3D-Modells als den 3D-Avatar des ersten Benutzers von dem ersten Endgerät an ein zweites Endgerät des zweiten Benutzers über die Kommunikationsplattform;
    • Erfassen von zweiten Benutzereigenschaften des ersten Benutzers mit dem 3D-Scanner und/oder der Kameraeinrichtung;
    • Ermitteln von Gelenkdaten, die Positionen und/oder Orientierungen von Gelenken des ersten Benutzers angeben, anhand der zweiten Benutzereigenschaften, durch das erste Endgerät;
    • Übertragen der Gelenkdaten von dem ersten an das zweite Endgerät über die Kommunikationsplattform; und
    • Animieren des 3D-Avatars des ersten Benutzers bei dem zweiten Benutzer unter Berücksichtigung der empfangenen Gelenkdaten.
  • Die Kommunikationsplattform ist insbesondere eine Plattform, über die Benutzer der Kommunikationsplattform Daten austauschen können und somit miteinander kommunizieren können. Der erste und der zweite Benutzer, im Folgenden auch nur „Benutzer“, können beide Benutzer der Kommunikationsplattform sein. Beim Kommunizieren über die Kommunikationsplattform sind die Benutzer insbesondere nicht am gleichen Ort. Sie kommunizieren zum Beispiel über das Internet. In Ausführungsformen kommunizieren die Benutzer in einer Virtual-Reality-Umgebung (auch VR-Umgebung) oder in einer Augmented-Reality-Umgebung (auch AR-Umgebung).
  • Der erste und der zweite Benutzer sind insbesondere Personen. Dem ersten Benutzer kann ein erstes Endgerät zugeordnet sein, und dem zweiten Benutzer kann ein zweites Endgerät zugeordnet sein. Bei den Endgeräten handelt es sich zum Beispiel um Computer oder Smartphones.
  • Wenn die Benutzer über die Kommunikationsplattform miteinander kommunizieren, verwenden sie insbesondere ihre jeweiligen Endgeräte und tauschen über diese Endgeräte Daten aus. Die bei der Kommunikation ausgetauschten Daten umfassen zum Beispiel Text-, Bild-, Ton- und/oder Videodaten. Ferner können die ausgetauschten Daten den 3D-Avatar umfassen.
  • Der 3D-Avatar des ersten Benutzers ist insbesondere eine dreidimensionale digitale Darstellung des ersten Benutzers. Es kann sich dabei um eine Ganzkörperdarstellung oder um eine Teilkörperdarstellung handeln. Der 3D-Avatar kann Realitätstreu sein.
  • Zum Erstellen der 3D-Avatars können zunächst die ersten Benutzereigenschaften des ersten Benutzers erfasst werden. Die ersten Benutzereigenschaften sind insbesondere Daten, die ein Aussehen des ersten Benutzers (Form, Farben und dergleichen) beschreiben. Insbesondere beschreiben die ersten Benutzereigenschaften das Aussehen des Benutzers von allen Seiten. Zum Erfassen der ersten Benutzereigenschaften können ein oder mehrere 3D-Scanner und/oder eine oder mehrere Kameraeinrichtungen eingesetzt werden. Der 3D-Scanner und/oder die Kameraeinrichtung können Teil des ersten Endgeräts sein oder separat davon vorgesehen sein.
  • Zum Erfassen der ersten Benutzereigenschaften dreht sich der erste Benutzer zum Beispiel um seine vertikale Achse, während der 3D-Scanner und/oder die Kameraeinrichtung die ersten Benutzereigenschaften erfasst. Es ist auch möglich, dass sich der 3D-Scanner und/oder die Kameraeinrichtung um den ersten Benutzer dreht, um so Informationen über alle Seiten des ersten Benutzers als erste Benutzereigenschaften zu erhalten. Falls mehrere 3D-Scanner und/oder Kameraeinrichtungen verwendet werden, können die ersten Benutzereigenschaften auch erfasst werden, ohne dass sich der erste Benutzer dreht und ohne dass sich der 3D-Scanner und/oder die Kameraeinrichtung um den ersten Benutzer dreht.
  • Die ersten Benutzereigenschaften können durch das erste Endgerät ausgewertet werden, um das 3D-Modell zu erstellen. Hierzu kann das erste Endgerät eine geeignete 3D-Verarbeitungssoftware verwenden. Das 3D-Modell ist insbesondere ein Netz, dass die eingescannte Darstellung des ersten Benutzers wiedergibt. Das 3D-Modell bildet insbesondere die eingescannte Form und Farben des ersten Benutzers ab. Bei dem 3D-Modell handelt es sich beispielsweise um eine statische Darstellung des ersten Benutzers, insbesondere um die eingescannte Darstellung. Das 3D-Modell kann die Grundlage für den 3D-Avatar des ersten Benutzers bilden.
  • Das erstellte 3D-Modell kann als der 3D-Avatar des ersten Benutzers von dem ersten Endgerät an das zweite Endgerät übertragen werden. Dieses erfolgt insbesondere über die Kommunikationsplattform, die der erste und zweite Benutzer auch zur Kommunikation benutzen.
  • Anhand der Kameraeinrichtung und/oder des 3D-Scanners können zweite Benutzereigenschaften erfasst werden. Ähnlich zu den ersten Benutzereigenschaften sind auch die zweiten Benutzereigenschaften Daten, die ein Aussehen des ersten Benutzers (Form, Farben und dergleichen) beschreiben. Ein Unterschied zwischen den ersten und den zweiten Benutzereigenschaften ergibt sich insbesondere aus dem Zeitpunkt, zu dem diese erfasst werden.
  • Die zweiten Benutzereigenschaften können durch das erste Endgerät verarbeitet werden, um die Gelenkdaten zu bestimmen. Die Gelenkdaten geben insbesondere an, wo sich die Gelenke, zum Beispiel die Schultern, Ellbogen, Handgelenke, Wirbel oder Knie, des ersten Benutzers befinden und wie diese ausgerichtet sind.
  • Die ermittelten Gelenkdaten können von dem ersten an das zweite Endgerät übertragen werden. In Ausführungsformen werden die Gelenkdaten komprimiert an das zweite Endgerät übertragen. Die Gelenkdaten dienen insbesondere dazu, den 3D-Avatar des ersten Benutzers bei dem zweiten Benutzer zu animieren. Unter dem Animieren des 3D-Avatars des ersten Benutzers bei dem zweiten Benutzer ist insbesondere ein Animieren des 3D-Avatars anhand des zweiten Endgeräts zu verstehen. Das Animieren des 3D-Avatars des ersten Benutzers ist insbesondere ein Realtime-Animieren: wenn sich der erste Benutzer bewegt, bewegt sich der 3D-Avatar entsprechend.
  • Der an das zweite Endgerät als 3D-Modell übertragene 3D-Avatar ist insbesondere statisch, er kann jedoch anhand der Gelenkdaten animiert werden. Zum Animieren des 3D-Avatars des ersten Benutzers werden insbesondere nur die Gelenkdaten an das zweite Endgerät übertragen. Zum Animieren des 3D-Avatars wird zum Beispiel kein erneutes Übertragen eines 3D-Modells benötigt.
  • Es ist insbesondere vorteilhaft, zum Animieren des 3D-Avatars nur die Gelenkdaten zu übertragen, weil ein Übertragen der Gelenkdaten schneller erfolgen kann als ein Übertragen von 3D-Modellen. Zudem ist die Aufbereitung der Gelenkdaten für das erste Endgerät weniger aufwendig als das Erstellen von 3D-Modellen. Ferner können die Gelenkdaten weniger Speicherplatz einnehmen als 3D-Modelle, und können deshalb über die Kommunikationsplattform übertragen werden, ohne die Kommunikation zwischen den Benutzern zu stören. Eine Bandbreite, die für das Übertragen der für das Animieren des 3D-Avatars verwendeten Daten notwendig ist, ist insbesondere minimal.
  • Für einzelne Positionen und/oder Bewegungen des ersten Benutzers werden insbesondere nicht jedes Mal neue 3D-Modelle erstellt, sondern nur Gelenkdaten bestimmt, wodurch ein Rechenaufwand reduziert werden kann. Das Animieren des 3D-Avatars kann somit mit einem reduzierten Rechenaufwand erfolgen. Hierdurch kann die Kommunikation zwischen dem ersten und dem zweiten Benutzer verbessert werden.
  • Gemäß einer Ausführungsform umfasst das Erstellen des 3D-Modells des ersten Benutzers:
    • Ermitteln eines Aussehens des ersten Benutzers sowie von Positionen und/oder Orientierungen der Gelenke des ersten Benutzers anhand der ersten Benutzereigenschaften; und
    • Erstellen des 3D-Modells des ersten Benutzers unter Berücksichtigung des ermittelten Aussehens des ersten Benutzers sowie der ermittelten Positionen und/oder Orientierungen der Gelenke des ersten Benutzers.
  • Das 3D-Modell kann bereits Informationen über die Position und/oder Orientierung der Gelenke des Benutzers umfassen. Wenn das zweite Endgerät anschließend die Gelenkdaten empfängt, kann es die in dem 3D-Modell erhaltene Informationen über die Position und/oder Orientierung der Gelenke aktualisieren und somit den 3D-Avatar animieren. Das Animieren des 3D-Avatars kann somit vereinfacht werden.
  • Gemäß einer weiteren Ausführungsform werden die Schritte des Erfassens der zweiten Benutzereigenschaften, des Ermittelns der Gelenkdaten, des Übertragens der Gelenkdaten und des Animierens des 3D-Avatars während einer Kommunikation des ersten und des zweiten Benutzers über die Kommunikationsplattform durchgeführt.
  • In Ausführungsformen werden die Schritte des Erfassens der ersten Benutzereigenschaften, des Erstellens des 3D-Modells und des Übertragens des 3D-Modells vor der Kommunikation des ersten und des zweiten Benutzers über die Kommunikationsplattform durchgeführt. Es ist auch denkbar, dass das 3D-Modell des ersten Benutzers erstellt wird, bevor überhaupt feststeht, mit wem der erste Benutzer kommunizieren wird.
  • Gemäß einer weiteren Ausführungsform werden die Schritte des Erfassens der zweiten Benutzereigenschaften, des Ermittelns der Gelenkdaten, des Übertragens der Gelenkdaten und des Animierens des 3D-Avatars während der Kommunikation des ersten und des zweiten Benutzers über die Kommunikationsplattform sequenziell wiederholt.
  • Während der Kommunikation zwischen den Benutzern erhält das zweite Endgerät insbesondere stets, insbesondere in vorbestimmten oder in unbestimmten Zeitabständen, neue Gelenkdaten, die eine aktuelle Position und/oder Orientierung der Gelenke des ersten Benutzers angeben. Der 3D-Avatar kann anhand der sequentiell empfangenen Gelenkdaten animiert werden. Somit kann eine Realtime-Darstellung des ersten Benutzers durch sein 3D-Avatar ermöglicht werden.
  • Gemäß einer weiteren Ausführungsform erfolgt der Schritt des Übertragens des 3D-Modells von dem ersten an das zweite Endgerät einmalig.
  • In Ausführungsformen werden auch die ersten Benutzereigenschaften ein einziges Mal erfasst und/oder das 3D-Modell wird nur einmalig erstellt. Dadurch kann der Rechenaufwand reduziert werden.
  • Gemäß einer weiteren Ausführungsform umfasst das Animieren des 3D-Avatars des ersten Benutzers ein den Gelenkdaten entsprechendes Bewegen der Gelenke des 3D-Avatars, so dass der 3D-Avatar derart bewegt wird, dass reale Bewegungen des ersten Benutzers abgebildet werden.
  • Gemäß einer weiteren Ausführungsform erfolgt das Animieren des 3D-Avatars des ersten Benutzers durch ein Anzeigen des 3D-Avatars des ersten Benutzers auf einem 2D-Bildschirm, auf einem Bildschirm eines Virtual-Reality-Headsets und/oder auf einem Bildschirm eines Augmented-Reality-Headsets des zweiten Endgeräts. Der Bildschirm des Virtual-Reality-Headsets und/oder der Bildschirm des Augmented-Reality-Headsets ermöglicht insbesondere eine 3D-Darstellung des 3D-Avatars.
  • Gemäß einer weiteren Ausführungsform umfasst das Verfahren ferner:
    • Berichtigen und/oder Verändern des 3D-Modells des ersten Benutzers durch den ersten Benutzer, bevor das 3D-Modell an das zweite Endgerät übertragen wird.
  • Der erste Benutzer kann das 3D-Modell anpassen, bevor es an das zweite Endgerät übertragen wird. Der erste Benutzer kann zum Beispiel die Position und/oder Orientierung der Gelenke ändern, die Form und Farbe seines Körpers modifizieren, dem 3D-Modell gewisse Gegenstände (Brille, Schmuck und dergleichen) hinzufügen und/oder solche vorhandenen Gegenstände aus dem 3D-Modell entfernen. Diese Änderungen können über eine Benutzerschnittstelle, zum Beispiel über einen Touchscreen des ersten Endgeräts, durchgeführt werden.
  • Gemäß einer weiteren Ausführungsform erfolgt das Erfassen der zweiten Benutzereigenschaften zu einem späteren Zeitpunkt als das Übertragen des 3D-Modells. Die zweiten Benutzereigenschaften, die zum Bestimmen der Gelenkdaten dienen, werden insbesondere erst erfasst, nachdem das 3D-Modell an das zweite Endgerät übertragen wurde.
  • Gemäß einer weiteren Ausführungsform umfasst das Verfahren ferner:
    • Speichern des 3D-Modells des ersten Benutzers in einer Cloud-Speichereinrichtung, die durch eine Vielzahl von Benutzern, die über die Kommunikationsplattform mit dem ersten Benutzer kommunizieren, abrufbar ist.
  • Das 3D-Modell, welches die Grundlage für den 3D-Avatar bilden kann, wird insbesondere in der Cloud-Speichereinrichtung abgelegt. Einzelne Benutzer, die mit dem ersten Benutzer kommunizieren möchten (zum Beispiel der zweite Benutzer), können das 3D-Modell dann direkt aus der Cloud-Speichereinrichtung erhalten. Das 3D-Modell wird insbesondere nicht direkt von dem ersten an das zweite Endgerät übertragen, sondern in der Cloud-Speichereinrichtung zwischengespeichert.
  • Das 3D-Modell kann dem ersten Benutzer zugeordnet sein. Wenn der erste Benutzer mit einem neuen Kommunikationspartner der Vielzahl von Benutzern kommuniziert, kann dieser das 3D-Modell des ersten Benutzers als 3D-Avatar bekommen. Der 3D-Avatar kann anschließend während der Kommunikation zwischen dem ersten Benutzer und dem neuen Kommunikationspartner anhand von Gelenkdaten animiert werden.
  • Das Speichern des 3D-Modells in der Cloud-Speichereinrichtung ist insbesondere vorteilhaft, weil das 3D-Modell somit beliebig oft von beliebig vielen Benutzern wiederverwendet werden kann. Der erste Benutzer kann seinen in der Cloud-Speichereinrichtung gespeicherten 3D-Avatar überall mitnehmen und diesen animieren.
  • Gemäß einer weiteren Ausführungsform ist der 3D-Avatar des ersten Benutzers eine Ganzkörperdarstellung des ersten Benutzers.
  • Gemäß einem zweiten Aspekt wird ein Computerprogrammprodukt vorgeschlagen, welches auf einer programmgesteuerten Einrichtung die Durchführung des Verfahrens gemäß dem ersten Aspekt oder gemäß einer Ausführungsform des ersten Aspekts veranlasst.
  • Ein Computerprogrammprodukt, wie z.B. ein Computerprogramm-Mittel, kann beispielsweise als Speichermedium, wie z.B. Speicherkarte, USB-Stick, CD-ROM, DVD, oder auch in Form einer herunterladbaren Datei von einem Server in einem Netzwerk bereitgestellt oder geliefert werden. Dies kann zum Beispiel in einem drahtlosen Kommunikationsnetzwerk durch die Übertragung einer entsprechenden Datei mit dem Computerprogrammprodukt oder dem Computerprogramm-Mittel erfolgen.
  • Gemäß einem dritten Aspekt wird ein System zum Animieren eines 3D-Avatars eines ersten Benutzers einer Kommunikationsplattform bei einem über die Kommunikationsplattform mit dem ersten Benutzer kommunizierenden zweiten Benutzer der Kommunikationsplattform vorgeschlagen. Das System umfasst:
    • einen 3D-Scanner und/oder eine Kameraeinrichtung zum Erfassen von ersten Benutzereigenschaften des ersten Benutzers und zum Erfassen von zweiten Benutzereigenschaften des ersten Benutzers;
    • eine Modellerstellungseinheit zum Erstellen eines 3D-Modells des ersten Benutzers unter Berücksichtigung der erfassten ersten Benutzereigenschaften und zum Ermitteln von Gelenkdaten, die Positionen und/oder Orientierungen von Gelenken des ersten Benutzers angeben, anhand der zweiten Benutzereigenschaften;
    • eine Übertragungseinheit zum Übertragen des 3D-Modells als den 3D-Avatar des ersten Benutzers von einem ersten Endgerät des ersten Benutzers an ein zweites Endgerät des zweiten Benutzers über die Kommunikationsplattform und zum Übertragen der Gelenkdaten von dem ersten an das zweite Endgerät über die Kommunikationsplattform; und
    • eine Animierungseinheit zum Animieren des 3D-Avatars des ersten Benutzers bei dem zweiten Benutzer unter Berücksichtigung der empfangenen Gelenkdaten.
  • Die jeweilige Einheit, zum Beispiel die Modellerstellungseinheit, die Übertragungseinheit oder die Animierungseinheit, kann hardwaretechnisch und/oder auch softwaretechnisch implementiert sein. Bei einer hardwaretechnischen Implementierung kann die jeweilige Einheit als Vorrichtung oder als Teil einer Vorrichtung, zum Beispiel als Computer oder als Mikroprozessor oder als Steuerrechner eines Fahrzeuges ausgebildet sein. Bei einer softwaretechnischen Implementierung kann die jeweilige Einheit als Computerprogrammprodukt, als eine Funktion, als eine Routine, als Teil eines Programmcodes oder als ausführbares Objekt ausgebildet sein.
  • Gemäß einer Ausführungsform ist das System geeignet, das Verfahren gemäß dem ersten Aspekt oder gemäß einer Ausführungsform des ersten Aspekts durchzuführen.
  • Die für das vorgeschlagene Verfahren gemäß dem ersten Aspekt oder gemäß einer Ausführungsform des ersten Aspekts beschriebenen Ausführungsformen und Merkmale gelten für das vorgeschlagene System gemäß dem dritten Aspekt oder gemäß einer Ausführungsform des dritten Aspekts entsprechend.
  • Weitere mögliche Implementierungen der Erfindung umfassen auch nicht explizit genannte Kombinationen von zuvor oder im Folgenden bezüglich der Ausführungsbeispiele beschriebenen Merkmale oder Ausführungsformen. Dabei wird der Fachmann auch Einzelaspekte als Verbesserungen oder Ergänzungen zu der jeweiligen Grundform der Erfindung hinzufügen.
  • Weitere vorteilhafte Ausgestaltungen und Aspekte der Erfindung sind Gegenstand der Unteransprüche sowie der im Folgenden beschriebenen Ausführungsbeispiele der Erfindung. Im Weiteren wird die Erfindung anhand von bevorzugten Ausführungsformen unter Bezugnahme auf die beigelegten Figuren näher erläutert.
    • 1 zeigt ein Beispiel von miteinander kommunizierenden ersten und zweiten Benutzern;
    • 2 zeigt ein Verfahren zum Animieren eines 3D-Avatars;
    • 3 zeigt ein Beispiel eines Erfassens von ersten Benutzereigenschaften;
    • 4 zeigt ein Beispiel eines 3D-Modells;
    • 5 zeigt ein Beispiel von Gelenkdaten;
    • 6 zeigt ein Beispiel eines animierten 3D-Avatars;
    • 7 zeigt ein Beispiel eines Kommunikationssystems; und
    • 8 zeigt ein System zum Animieren eines 3D-Avatars.
  • In den Figuren sind gleiche oder funktionsgleiche Elemente mit denselben Bezugszeichen versehen worden, sofern nichts anderes angegeben ist.
  • Die 1 zeigt ein Beispiel von miteinander kommunizierenden ersten und zweiten Benutzern 1, 2. Die Benutzer 1, 2 kommunizieren über eine Kommunikationsplattform 3 miteinander. Hierzu verwendet der erste Benutzer 1 ein erstes Endgerät 11 und der zweite Benutzer 2 benutzt ein zweites Endgerät 12. Bei den beiden Endgeräten 11, 12 handelt es sich um tragbare Computer, auch Laptops genannt.
  • Im Rahmen der Kommunikation tauschen die Benutzer 1, 2 Daten aus. Beispielsweise schreiben sie sich Nachrichten über die Tastaturen ihrer jeweiligen Endgeräte 11, 12. Die ausgetauschten Nachrichten werden dann auf Bildschirmen der empfangenden Endgeräte 11, 12 angezeigt.
  • Während der Kommunikation wird bei dem zweiten Benutzer 2 ein 3D-Avatar 8 des ersten Benutzers 1 animiert. Der 3D-Avatar 8 ist eine realistische Darstellung des ersten Benutzers 1 und bewegt sich dem ersten Benutzer 1 entsprechend. In Ausführungsformen wird auch bei dem ersten Benutzer 1 ein 3D-Avatar des zweiten Benutzers 2 animiert.
  • Der 3D-Avatar 8 des ersten Benutzers 1 wird anhand eines Verfahrens zum Animieren des 3D-Avatars 8 animiert. Solch ein Verfahren ist in der 2 dargestellt. Das Verfahren nach 2 umfasst die folgenden Schritte S1 bis S7:
    • In einem Schritt S1 werden erste Benutzereigenschaften des ersten Benutzers 1 erfasst. Hierzu wird, wie in der 3 dargestellt, ein einziger 3D-Scanner 4 verwendet. Der 3D-Scanner 4 scannt den gesamten Körper des ersten Benutzers 1, indem sich der erste Benutzer 1 um seine vertikale Achse VA entlang des Rotationspfeils R dreht. Der 3D-Scanner 4 erfasst Oberflächeneigenschaften (Farbe, Form) des ersten Benutzers 1 als erste Benutzereigenschaften. Der 3D-Scanner 4 übermittelt die erfassten ersten Benutzereigenschaften über ein Kabel 5 an das erste Endgerät 11.
    • In einem Schritt S2 erstellt das erste Endgerät 11 anhand der ersten Benutzereigenschaften ein 3D-Modell. Hierzu verwendet das erste Endgerät 11 ein vorgespeichertes 3D-Verarbeitungsprogramm. Ein Beispiel für ein in dem Schritt S2 erstelltes 3D-Modell 6 ist in der 4 gezeigt. Das 3D-Modell 6 ist eine statische 3D-Darstellung des ersten Benutzers 1, die die erfassten ersten Benutzereigenschaften enthält. Insbesondere ist das 3D-Modell 6 durch das Aussehen des ersten Benutzers 1 bestimmt.
  • Darüber hinaus enthält das 3D-Modell 6 Informationen über Positionen und Orientierung von Gelenken 7a - 71 des ersten Benutzers 1, welche auch durch das 3D-Verarbeitungsprogramm bestimmt wurden.
  • In dem Beispiel aus der 4 hat der erste Benutzer 1 das 3D-Modell 6 zudem geändert, indem er dem 3D-Modell 6 einen Hut 15 hinzugefügt hat.
  • In einem Schritt S3 wird das 3D-Modell 6 über die Kommunikationsplattform 3 von dem ersten Endgerät 11 an das zweite Endgerät 12 übertragen. Das zweite Endgerät 12 speichert das empfangene 3D-Modell 6.
  • In einem darauffolgenden Schritt S4 werden zweite Benutzereigenschaften des ersten Benutzers 1 erfasst. Das Erfassen der zweiten Benutzereigenschaften erfolgt analog zum Erfassen der ersten Benutzereigenschaften, wie bereits in Bezug auf die 3 beschrieben. Alternativ dreht sich der erste Benutzer 1 beim Erfassen der zweiten Benutzereigenschaften nicht um seine vertikale Achse VA. Die zweiten Benutzereigenschaften werden über das Kabel 5 an das erste Endgerät 11 übertragen.
  • In einem Schritt S5 ermittelt das erste Endgerät 11 Gelenkdaten 7. Die Gelenkdaten 7 werden anhand der zweiten Benutzereigenschaften bestimmt. Die 5 zeigt ein Beispiel von Gelenkdaten 7. Bei den Gelenkdaten 7 handelt es sich um Informationen über die Positionierung und Orientierung der Gelenke 7a - 71 des ersten Benutzers 1 zum Zeitpunkt, zu dem die zweiten Benutzereigenschaften erfasst werden. Optional können die Gelenkdaten 7 für die Übertragung komprimiert werden.
  • In einem Schritt S6 werden die Gelenkdaten 7 von dem ersten Endgerät 11 an das zweite Endgerät 12 übertragen. Diese Übertragung der Gelenkdaten 7 erfolgt über die Kommunikationsplattform 3.
  • In einem Schritt S7 wird der 3D-Avatar 8 des ersten Benutzers 1 bei dem zweiten Benutzer 2 animiert. Das Animieren des 3D-Avatars 8 erfolgt unter Berücksichtigung der Gelenkdaten 7, die das zweite Endgerät 12 empfangen hat. Das Animieren des 3D-Avatars 8 ist in der 6 dargestellt. Der 3D-Avatar 8 wird dabei derart bewegt, dass seine Bewegungen die Bewegungen des ersten Benutzers 1 wiederspiegeln. Hierzu werden die Positionen und Orientierungen der Gelenke 7a - 71 des 3D-Modells 6 anhand der Gelenkdaten 7 aktualisiert. Wie aus der 5 ersichtlich, liegt zum Beispiel das Handgelenk 7e auf Höhe der Schulter 7b, der dazwischenliegende Ellbogen 7d liegt niedriger. Dementsprechend werden die Position und Orientierung des Arms des 3D-Avatars 8 wie in der 6 dargestellt angepasst. Der animierte 3D-Avatar 8 wird auf einem Virtual-Reality-Bildschirm 9 des zweiten Endgeräts 12 angezeigt.
  • Optional werden die Schritte, die in der 2 innerhalb des gestrichelten Rahmens sind, während der Kommunikation zwischen dem ersten und zweiten Benutzer 1, 2 sequentiell, zum Beispiel jede halbe Sekunde wiederholt. Das heißt, dass in regelmäßigen Abständen zweite Benutzereigenschaften erfasst werden, mit welchen Gelenkdaten 7 erzeugt werden. Die Gelenkdaten 7 werden sequentiell an das zweite Endgerät 12 übertragen, wo die Position und Orientierung der Gelenke 7a - 71 des 3D-Avatars 8 sequentiell verändert werden, um so den 3D-Avatar 8 zu animieren.
  • Im Gegensatz hierzu gelten die Schritte S1 bis S3 als Vorbereitungsschritte, die nur ein einziges Mal ausgeführt werden. So wird das 3D-Modell 6 nur einmalig durch das erste Endgerät 11 bestimmt und auch nur einmalig an das zweite Endgerät 12 übertragen.
  • Der 3D-Avatar 8 wird anhand der Gelenkdaten 7 animiert. Der zweite Benutzer 2 kann somit während der Kommunikation mit dem ersten Benutzer 1 anhand des 3D-Avatars 8 auch die Bewegungen des ersten Benutzers 1 verfolgen. Diese Bewegungen werden realistisch auf dem Bildschirm 9 dargestellt.
  • Die 7 zeigt ein Beispiel eines Kommunikationssystems 20. Das Kommunikationssystem 20 umfasst eine Cloud-Speichereinrichtung 16, das erste Endgerät 11, das zweite Endgerät 12 und weitere Endgeräte 17 und 18. Die Endgeräte 11, 12, 17, 18 sind jeweils über die Kommunikationsplattform 3 mit der Cloud-Speichereinrichtung 16 verbunden.
  • Statt das 3D-Modell 6 direkt von dem ersten Endgerät 11 an das zweite Endgerät 12 zu übertragen, wie dieses in Bezug auf die 1 bis 6 beschrieben wurde, kann das 3D-Modell 6 des ersten Benutzers 1 auch in der Cloud-Speichereinrichtung 16 abgespeichert werden. Hierzu überträgt das erste Endgerät 11 das 3D-Modell 6 an die Cloud-Speichereinrichtung 16 über die Kommunikationsplattform 3.
  • Wenn ein Benutzer der Endgeräte 12, 17, 18 mit dem ersten Benutzer 1 kommunizieren möchte, kann das Endgerät 12, 17, 18 das 3D-Modell 6 von der Cloud-Speichereinrichtung 16 abrufen. Das 3D-Modell 6 kann dann während der Kommunikation mit dem ersten Endgerät 11 anhand der Gelenkdaten 7 des ersten Endgeräts 11 bei den Endgeräten 12, 17, 18 animiert werden.
  • 8 zeigt ein System 10 zum Animieren eines 3D-Avatars 8. Das System 10 umfasst den 3D-Scanner 4, eine Modellerstellungseinheit 13, eine Übertragungseinheit 14 und eine Animierungseinheit 19, die über einen internen Bus 21 miteinander verbunden sind.
  • Der 3D-Scanner 4 ist, wie zuvor bereits beschrieben, zum Erfassen der ersten Benutzereigenschaften des ersten Benutzers 1 und zum Erfassen der zweiten Benutzereigenschaften des ersten Benutzers 1 geeignet.
  • Die Modellerstellungseinheit 13 ist geeignet, das 3D-Modell 6 des ersten Benutzers 1 unter Berücksichtigung der erfassten ersten Benutzereigenschaften zu erstellen. Ferner ist die Modellerstellungseinheit 13 geeignet, anhand der zweiten Benutzereigenschaften Gelenkdaten 7 zu ermitteln, die Positionen und/oder Orientierungen der Gelenke 7a - 71 des ersten Benutzers 1 angeben.
  • Die Übertragungseinheit 14 ist geeignet, das 3D-Modell 6 als den 3D-Avatar 8 des ersten Benutzers 1 von einem ersten Endgerät 11 des ersten Benutzers 1 an ein zweites Endgerät 12 des zweiten Benutzers 2 über die Kommunikationsplattform 3 zu übertragen, und die Gelenkdaten 7 von dem ersten an das zweite Endgerät 11, 12 über die Kommunikationsplattform 3 zu übertragen.
  • Die Animierungseinheit 19 ist geeignet, unter Berücksichtigung der empfangenen Gelenkdaten 7 den 3D-Avatar 8 des ersten Benutzers 1 bei dem zweiten Benutzer 2 zu animieren.
  • Obwohl die vorliegende Erfindung anhand von Ausführungsbeispielen beschrieben wurde, ist sie vielfältig modifizierbar. Es ist zum Beispiel möglich, dass auch der zweite Benutzer 2 dem ersten Benutzer 1 seinen 3D-Avatar bereitstellt. Ferner können auch drei oder mehr Kommunikationspartner über die Kommunikationsplattform 3 miteinander kommunizieren und 3D-Avatare austauschen. Alternativ oder zusätzlich zum 3D-Scanner 4 kann auch eine Kameraeinrichtung verwendet werden, um die ersten und/oder zweiten Benutzereigenschaften zu erfassen.

Claims (14)

  1. Verfahren zum Animieren eines 3D-Avatars (8) eines ersten Benutzers (1) einer Kommunikationsplattform (3) bei einem über die Kommunikationsplattform (3) mit dem ersten Benutzer (1) kommunizierenden zweiten Benutzer (2) der Kommunikationsplattform (3), wobei das Verfahren umfasst: Erfassen (S1) von ersten Benutzereigenschaften des ersten Benutzers (1) mit einem 3D-Scanner (4) und/oder einer Kameraeinrichtung; Erstellen (S2) eines 3D-Modells (6) des ersten Benutzers (1) unter Berücksichtigung der erfassten ersten Benutzereigenschaften durch ein erstes Endgerät (11) des ersten Benutzers (1); Übertragen (S3) des 3D-Modells (6) als den 3D-Avatar (8) des ersten Benutzers (1) von dem ersten Endgerät (11) an ein zweites Endgerät (12) des zweiten Benutzers (2) über die Kommunikationsplattform (3); Erfassen (S4) von zweiten Benutzereigenschaften des ersten Benutzers (1) mit dem 3D-Scanner (4) und/oder der Kameraeinrichtung; Ermitteln (S5) von Gelenkdaten (7), die Positionen und/oder Orientierungen von Gelenken (7a - 71) des ersten Benutzers (1) angeben, anhand der zweiten Benutzereigenschaften, durch das erste Endgerät (11); Übertragen (S6) der Gelenkdaten (7) von dem ersten an das zweite Endgerät (12) über die Kommunikationsplattform (3); und Animieren (S7) des 3D-Avatars (8) des ersten Benutzers (1) bei dem zweiten Benutzer (2) unter Berücksichtigung der empfangenen Gelenkdaten (7).
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Erstellen (S2) des 3D-Modells (6) des ersten Benutzers (1) umfasst: Ermitteln eines Aussehens des ersten Benutzers (1) sowie von Positionen und/oder Orientierungen der Gelenke (7a - 71) des ersten Benutzers (1) anhand der ersten Benutzereigenschaften; und Erstellen (S2) des 3D-Modells (6) des ersten Benutzers (1) unter Berücksichtigung des ermittelten Aussehens des ersten Benutzers (1) sowie der ermittelten Positionen und/oder Orientierungen der Gelenke (7a - 71) des ersten Benutzers (1) .
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Schritte des Erfassens (S4) der zweiten Benutzereigenschaften, des Ermittelns (S5) der Gelenkdaten (7), des Übertragens (S6) der Gelenkdaten (7) und des Animierens (S7) des 3D-Avatars (8) während einer Kommunikation des ersten und des zweiten Benutzers (1, 2) über die Kommunikationsplattform (3) durchgeführt werden.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die Schritte des Erfassens (S4) der zweiten Benutzereigenschaften, des Ermittelns (S5) der Gelenkdaten (7), des Übertragens (S6) der Gelenkdaten (7) und des Animierens (S7) des 3D-Avatars (8) während der Kommunikation des ersten und des zweiten Benutzers (1, 2) über die Kommunikationsplattform (3) sequenziell wiederholt werden.
  5. Verfahren nach einem der Ansprüche 1-4, dadurch gekennzeichnet, dass der Schritt des Übertragens (S3) des 3D-Modells (6) von dem ersten an das zweite Endgerät (11, 12) einmalig erfolgt.
  6. Verfahren nach einem der Ansprüche 1-5, dadurch gekennzeichnet, dass das Animieren (S7) des 3D-Avatars (8) des ersten Benutzers (1) ein den Gelenkdaten (7) entsprechendes Bewegen der Gelenke (7a - 71) des 3D-Avatars (8) umfasst, so dass der 3D-Avatar (8) derart bewegt wird, dass reale Bewegungen des ersten Benutzers (1) abgebildet werden.
  7. Verfahren nach einem der Ansprüche 1-6, dadurch gekennzeichnet, dass das Animieren (S7) des 3D-Avatars (8) des ersten Benutzers (1) durch ein Anzeigen des 3D-Avatars (8) des ersten Benutzers (1) auf einem 2D-Bildschirm, auf einem Bildschirm (9) eines Virtual-Reality-Headsets und/oder auf einem Bildschirm eines Augmented-Reality-Headsets des zweiten Endgeräts (12) erfolgt.
  8. Verfahren nach einem der Ansprüche 1-7, gekennzeichnet durch: Berichtigen und/oder Verändern des 3D-Modells (6) des ersten Benutzers (1) durch den ersten Benutzer (1), bevor das 3D-Modell (6) an das zweite Endgerät (12) übertragen wird.
  9. Verfahren nach einem der Ansprüche 1-8, dadurch gekennzeichnet, dass das Erfassen (S4) der zweiten Benutzereigenschaften zu einem späteren Zeitpunkt als das Übertragen (S3) des 3D-Modells (6) erfolgt.
  10. Verfahren nach einem der Ansprüche 1-9, gekennzeichnet durch: Speichern des 3D-Modells (6) des ersten Benutzers (1) in einer Cloud-Speichereinrichtung (16), die durch eine Vielzahl von Benutzern (1, 2), die über die Kommunikationsplattform (3) mit dem ersten Benutzer (1) kommunizieren, abrufbar ist.
  11. Verfahren nach einem der Ansprüche 1-10, dadurch gekennzeichnet, dass der 3D-Avatar (8) des ersten Benutzers (1) eine Ganzkörperdarstellung des ersten Benutzers (1) ist.
  12. Computerprogrammprodukt, welches auf einer programmgesteuerten Einrichtung die Durchführung des Verfahrens nach einem der Ansprüche 1-11 veranlasst.
  13. System (10) zum Animieren eines 3D-Avatars (8) eines ersten Benutzers (1) einer Kommunikationsplattform (3) bei einem über die Kommunikationsplattform (3) mit dem ersten Benutzer (1) kommunizierenden zweiten Benutzer (2) der Kommunikationsplattform (3), wobei das System (10) umfasst: einen 3D-Scanner (4) und/oder eine Kameraeinrichtung zum Erfassen von ersten Benutzereigenschaften des ersten Benutzers (1) und zum Erfassen von zweiten Benutzereigenschaften des ersten Benutzers (1); eine Modellerstellungseinheit (13) zum Erstellen eines 3D-Modells (6) des ersten Benutzers (1) unter Berücksichtigung der erfassten ersten Benutzereigenschaften und zum Ermitteln von Gelenkdaten (7), die Positionen und/oder Orientierungen von Gelenken (7a - 71) des ersten Benutzers (1) angeben, anhand der zweiten Benutzereigenschaften; eine Übertragungseinheit (14) zum Übertragen des 3D-Modells (6) als den 3D-Avatar (8) des ersten Benutzers (1) von einem ersten Endgerät (11) des ersten Benutzers (1) an ein zweites Endgerät (12) des zweiten Benutzers (2) über die Kommunikationsplattform (3) und zum Übertragen der Gelenkdaten (7) von dem ersten an das zweite Endgerät (12) über die Kommunikationsplattform (3); und eine Animierungseinheit (19) zum Animieren des 3D-Avatars (8) des ersten Benutzers (1) bei dem zweiten Benutzer (2) unter Berücksichtigung der empfangenen Gelenkdaten (7).
  14. System nach Anspruch 13, dadurch gekennzeichnet, dass es geeignet ist, das Verfahren nach einem der Ansprüche 1-11 durchzuführen.
DE102018207518.2A 2018-05-15 2018-05-15 Verfahren und System zum Animieren eines 3D-Avatars Ceased DE102018207518A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102018207518.2A DE102018207518A1 (de) 2018-05-15 2018-05-15 Verfahren und System zum Animieren eines 3D-Avatars
PCT/EP2019/060863 WO2019219357A1 (de) 2018-05-15 2019-04-29 Verfahren und system zum animieren eines 3d-avatars

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018207518.2A DE102018207518A1 (de) 2018-05-15 2018-05-15 Verfahren und System zum Animieren eines 3D-Avatars

Publications (1)

Publication Number Publication Date
DE102018207518A1 true DE102018207518A1 (de) 2019-11-21

Family

ID=66529978

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018207518.2A Ceased DE102018207518A1 (de) 2018-05-15 2018-05-15 Verfahren und System zum Animieren eines 3D-Avatars

Country Status (2)

Country Link
DE (1) DE102018207518A1 (de)
WO (1) WO2019219357A1 (de)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022108806A1 (en) * 2020-11-18 2022-05-27 Snap Inc. Body animation sharing and remixing
US11450051B2 (en) 2020-11-18 2022-09-20 Snap Inc. Personalized avatar real-time motion capture
US11557075B2 (en) 2019-02-06 2023-01-17 Snap Inc. Body pose estimation
US11615592B2 (en) 2020-10-27 2023-03-28 Snap Inc. Side-by-side character animation from realtime 3D body motion capture
US11660022B2 (en) 2020-10-27 2023-05-30 Snap Inc. Adaptive skeletal joint smoothing
US11734894B2 (en) 2020-11-18 2023-08-22 Snap Inc. Real-time motion transfer for prosthetic limbs
DE102022004326A1 (de) 2022-11-21 2024-05-23 Mercedes-Benz Group AG Verfahren zum Betreiben eines Unterstützungssystems für eine Person in einem Kraftfahrzeug, Computerprogrammprodukt sowie Unterstützungssystem
US12002175B2 (en) 2023-06-30 2024-06-04 Snap Inc. Real-time motion transfer for prosthetic limbs

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3114429B1 (fr) 2020-09-23 2023-05-26 Squaremind Systeme et procede pour generer un modele de corps humain
FR3114428B1 (fr) 2020-09-23 2024-04-12 Squaremind Systeme pour generer un modele de corps humain et un avatar numerique dans un afficheur d’un casque de realite virtuelle, procede associe

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150055821A1 (en) * 2013-08-22 2015-02-26 Amazon Technologies, Inc. Multi-tracker object tracking
US20160006987A1 (en) * 2012-09-06 2016-01-07 Wenlong Li System and method for avatar creation and synchronization
US9479736B1 (en) * 2013-03-12 2016-10-25 Amazon Technologies, Inc. Rendered audiovisual communication

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7116330B2 (en) * 2001-02-28 2006-10-03 Intel Corporation Approximating motion using a three-dimensional model
US20120130717A1 (en) * 2010-11-19 2012-05-24 Microsoft Corporation Real-time Animation for an Expressive Avatar
US9386268B2 (en) * 2012-04-09 2016-07-05 Intel Corporation Communication using interactive avatars
WO2014194439A1 (en) * 2013-06-04 2014-12-11 Intel Corporation Avatar-based video encoding
US9998705B2 (en) * 2013-08-09 2018-06-12 Samsung Electronics Co., Ltd. Hybrid visual communication
WO2016003529A2 (en) * 2014-04-23 2016-01-07 University Of Southern California Rapid avatar capture and simulation using commodity depth sensors

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160006987A1 (en) * 2012-09-06 2016-01-07 Wenlong Li System and method for avatar creation and synchronization
US9479736B1 (en) * 2013-03-12 2016-10-25 Amazon Technologies, Inc. Rendered audiovisual communication
US20150055821A1 (en) * 2013-08-22 2015-02-26 Amazon Technologies, Inc. Multi-tracker object tracking

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11557075B2 (en) 2019-02-06 2023-01-17 Snap Inc. Body pose estimation
US11615592B2 (en) 2020-10-27 2023-03-28 Snap Inc. Side-by-side character animation from realtime 3D body motion capture
US11660022B2 (en) 2020-10-27 2023-05-30 Snap Inc. Adaptive skeletal joint smoothing
WO2022108806A1 (en) * 2020-11-18 2022-05-27 Snap Inc. Body animation sharing and remixing
US11450051B2 (en) 2020-11-18 2022-09-20 Snap Inc. Personalized avatar real-time motion capture
US11734894B2 (en) 2020-11-18 2023-08-22 Snap Inc. Real-time motion transfer for prosthetic limbs
US11748931B2 (en) 2020-11-18 2023-09-05 Snap Inc. Body animation sharing and remixing
DE102022004326A1 (de) 2022-11-21 2024-05-23 Mercedes-Benz Group AG Verfahren zum Betreiben eines Unterstützungssystems für eine Person in einem Kraftfahrzeug, Computerprogrammprodukt sowie Unterstützungssystem
US12002175B2 (en) 2023-06-30 2024-06-04 Snap Inc. Real-time motion transfer for prosthetic limbs

Also Published As

Publication number Publication date
WO2019219357A1 (de) 2019-11-21

Similar Documents

Publication Publication Date Title
DE102018207518A1 (de) Verfahren und System zum Animieren eines 3D-Avatars
DE69629983T2 (de) Verfahren zum anteiligen Nutzen eines dreidimensionalen Raumes in virtueller Realität und System dafür
DE69433061T2 (de) Netzwerk der virtuellen realität
DE60224776T2 (de) Virtuelles Bildtelefon
DE112013001461B4 (de) Modifizieren des Aussehens eines Teilnehmers während einer Videokonferenz
CN108520504A (zh) 一种基于生成对抗网络端到端的模糊图像盲复原方法
DE102018006247A1 (de) Digitalbildvervollständigung unter Verwendung des Deep Learning
DE102018121808A1 (de) Verfeinern von synthetischen daten mit einem generative adversarial network unter verwendung von hilfseingaben
DE102015213832B4 (de) Verfahren und Vorrichtung zum Erzeugen eines künstlichen Bildes
DE112017005879T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
CN109035415B (zh) 虚拟模型的处理方法、装置、设备和计算机可读存储介质
DE112016001829T5 (de) Automatische Verbindung von Bildern unter Verwendung visueller Eigenschaftsquerverweise auf zugehörige Anwendungen
EP3718086A1 (de) Avataranimation
DE112019001702T5 (de) Verfahren, systeme, herstellungsgegenstände und vorrichtungen zur erzeugung digitaler szenen
EP3593528A2 (de) Vorrichtung und verfahren zur darstellung eines raumbilds von einem objekt in einer virtuellen umgebung
WO2017045981A1 (de) Vorrichtung und verfahren zur erzeugung eines modells von einem objekt mit überlagerungsbilddaten in einer virtuellen umgebung
CN109529350A (zh) 一种应用于游戏中的动作数据处理方法及其装置
CN110163794B (zh) 图像的转换方法、装置、存储介质和电子装置
EP3716014B1 (de) Übertragen eines zustands zwischen vr-umgebungen
WO2021255211A1 (de) Videokonferenzverfahren und videokonferenzsystem
DE102020104055A1 (de) Rendern von objekten zur anpassung von dem kamerarauschen
DE112018005954T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und computerprogramm
CN204833368U (zh) 媒体转换系统
DE112022002775T5 (de) Informationsverarbeitungseinrichtung, informationsverarbeitungsverfahren und informationsverarbeitungsprogramm
CN107908384A (zh) 一种实时显示全息人像的方法、装置、系统及存储介质

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final