DE602004001887T2 - System zur Übertragung von Gesichtsinformation - Google Patents

System zur Übertragung von Gesichtsinformation Download PDF

Info

Publication number
DE602004001887T2
DE602004001887T2 DE602004001887T DE602004001887T DE602004001887T2 DE 602004001887 T2 DE602004001887 T2 DE 602004001887T2 DE 602004001887 T DE602004001887 T DE 602004001887T DE 602004001887 T DE602004001887 T DE 602004001887T DE 602004001887 T2 DE602004001887 T2 DE 602004001887T2
Authority
DE
Germany
Prior art keywords
image
information
image information
phoneme
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE602004001887T
Other languages
English (en)
Other versions
DE602004001887D1 (de
Inventor
NTT DoCoMo Inc. Akira Chiyoda-ku Matsuki
NTT DoCoMo Inc. Saori Chiyoda-ku Miyahara
Yukiko c/o Int. Prop. Department Tozawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2003024734 priority Critical
Priority to JP2003024734A priority patent/JP3950802B2/ja
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Publication of DE602004001887D1 publication Critical patent/DE602004001887D1/de
Application granted granted Critical
Publication of DE602004001887T2 publication Critical patent/DE602004001887T2/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47KSANITARY EQUIPMENT NOT OTHERWISE PROVIDED FOR; TOILET ACCESSORIES
    • A47K1/00Wash-stands; Appurtenances therefor
    • A47K1/04Basins; Jugs; Holding devices therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/00221Acquiring or recognising human faces, facial parts, facial sketches, facial expressions
    • G06K9/00268Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/00335Recognising movements or behaviour, e.g. recognition of gestures, dynamic facial expressions; Lip-reading
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8106Monomedia components thereof involving special audio data, e.g. different tracks for different languages
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L21/10Transforming into visible information
    • G10L2021/105Synthesis of the lips movements from speech, e.g. for talking heads

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Diese Erfindung bezieht sich auf ein System zur Ubertragung von Gesichtsinformation.
  • Beschreibung des in Verbindung stehenden Standes der Technik
  • Mit der Verbreitung von elektronischer Post gibt es eine größer werdende Anzahl von Fällen, in denen verschiedene Bildinformationen zusätzlich zu einfachen Textinformationen übertragen werden. Als eine Art der Übertragung von Bildinformation existiert eine Technologie, eine Bildinformation vom Gesicht eines Anwenders (eines Subjektes) zu beziehen, und das Gesichtsbild in ein anderes Bild gemäß einem spezifizierten Gesichtsausdruck zu transformieren (siehe zum Beispiel japanische Offenlegungsschrift der Patentanmeldung Nr. 10149433).
  • Die US Patentanmeldung Nr. US2002/0118195 offenbart ein System, welches Gesichtsanimationswerte aus einer Folge von Gesichtsbilderrahmen und von synchron erfassten Audiodaten eines sprechenden Schauspielers erzeugt. Diese Werte repräsentierten entweder erfolgte Gesichtsmerkmale oder Viseme – das heißt visuelle Äquivalente von Phonemen – die temporalen Spracheinheiten in Audiosprachdaten zugeordnet sind. Abhängig davon, ob Sprache detektiert wurde, verwendet das System entweder die Gesichtausdrücke oder die Viseme zur Gesichtsanimation eines Avatars.
  • Die US-Patentanmeldung Nr. US2001/0051535 offenbart ein Kommunikationssystem, welches die Übertragung einer Sprachnachricht von einem Sender zu einem Empfänger ermöglicht, und welche auf der Empfängerseite ein Gesicht, das mit dem Sender assoziiert ist, in Synchronisation mit dem Inhalt der Sprachnachricht animiert.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Einige Anwender jedoch, während sie zögern, ein unverändertes Bild von sich selbst zu senden, würden es mögen, ein Bild eines Darstellers zu senden, das solche Elemente, wie ihre eigenen Gefühle und Absichten wiedergibt. Obwohl die Technologie des Standes der Technik die Übertragung eines Bildes des Gesichts eines Subjektes gemäß dem Gesichtsausdruck ermöglicht, gibt es das Problem, dass ein Bild nicht erzeugt werden kann, basierend auf dem Gesichtsausdruck eines Anwenders und das solche Elemente wie Gefühle und Absichten wiedergibt.
  • Folglich ist es eine Aufgabe dieser Erfindung, welche durch den unabhängigen Anspruch 1 vorgegeben ist, ein System zur Übertragung von Gesichtsinformation bereitzustellen, welches die Erzeugung von Bildern mit einer hohen Wahrscheinlichkeit des Reflektierens solcher Elemente wie Gefühle und Absichten eines Anwenders ermöglicht.
  • Es ist zu bevorzugen, dass in einem System zur Übertragung von Gesichtsinformation dieser Erfindung die erste Bildinformation Informationen enthält, welche die Verteilung von charakteristischen Punkten im Gesicht des Subjektes kennzeichnet. Falls die Verteilung von charakteristischen Punkten im Gesicht identifiziert wird, können die relativen positionellen Verhältnisse zwischen charakteristischen Punkten erfasst werden, so dass eine genauere zweite Bildinformation erzeugt werden kann.
  • Es ist ebenso zu bevorzugen, dass in einem System zur Übertragung von Gesichtsinformation nach dieser Erfindung das Bildbezugsmittel ein Bild eines Gesichts zusammen mit einer Zeitfolge bezieht, und dass das erste Erzeugungsmittel erste Bildinformation einschließlich von Verschiebungen in den Positionen von charakteristischen Punkten entlang der Zeitfolge basierend auf dem bezogenen Bild erzeugt. Durch Erzeugung der ersten Bildinformation basierend auf Verschiebungen von Positionen von charakteristischen Punkten, die entlang der Zeitfolge gemessen werden, können Änderungen im Gesichtsausdruck des Gesichts des Subjektes als Änderungen in den Positionen von charakteristischen Punkten erfasst werden. Folg lich kann zweite Bildinformation gemäß den Änderungen im Gesichtsausdruck erzeugt werden.
  • Es ist ebenso zu bevorzugen, dass in einem System zur Übertragung von Gesichtsinformation dieser Erfindung die erste Bildinformation Information enthält, welche die Bewegung von charakteristischen Punkten relativ zum Gesicht des Subjektes kennzeichnet. Die Bewegung von charakteristischen Punkten relativ zum Gesicht kann entlang einer Zeitfolge identifiziert werden, so dass die Änderungen im Gesichtsausdruck des Gesichts des Subjektes akkurater erfasst werden können.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die vorliegende Erfindung kann bereitwilliger beschrieben werden mit Bezug auf die begleitenden Zeichnungen, in welchen:
  • 1 eine Zeichnung ist, um das System zur Übertragung von Gesichtsinformation zu erklären, welches einen Aspekt dieser Erfindung darstellt;
  • 2A ein Beispiel eines Gesichtsbildes zeigt, das durch ein System zur Übertragung von Gesichtsinformation bezogen wurde, welches einen Aspekt dieser Erfindung darstellt;
  • 2B ein Beispiel eines Gesichts zeigt, das durch ein System zur Übertragung von Gesichtsinformation bezogen wurde, welches einen Aspekt dieser Erfindung darstellt;
  • 3A ein Beispiel eines Darstellerbildes zeigt, das durch ein System zur Ubertragung von Gesichtsinformation erzeugt wurde, welches einen Aspekt dieser Erfindung darstellt;
  • 3B ein Beispiel eines Darstellerbildes zeigt, das durch ein System zur Ubertragung von Gesichtsinformation erzeugt wurde, welches ein Aspekt dieser Erfindung darstellt;
  • 4 ein Beispiel von Information zeigt, die im Darstellerinformationsspeicherteil aus 1 gespeichert ist;
  • 5 ein Ablaufdiagramm ist, welches das Verfahren zur Übertragung von Darstellerbildern zeigt, welches durch ein System zur Übertragung von Gesichtsinformation verwendet wird, das einen Aspekt dieser Erfindung darstellt;
  • 6 ein Ablaufdiagramm ist, welches das Verfahren zur Übertragung von Darstellerbildern zeigt, das durch ein System zur Übertragung von Gesichtsinformation verwendet wird, welches einen Aspekt dieser Erfindung darstellt; und
  • 7 eine Zeichnung ist, die verwendet wird, um ein Programm zur Übertragung von Gesichtsinformation zu erklären, welches einen Aspekt dieser Erfindung darstellt.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Die Information dieser Erfindung kann einfach durch Berücksichtigung der folgenden detaillierten Beschreibung verstanden werden, während Bezug auf die beigefügten Zeichnungen genommen wird, welche lediglich zur Veranschaulichung bereitgestellt werden. Aspekte dieser Erfindung werden dann erklärt, indem Bezug auf die beigefügten Zeichnungen genommen wird. Wo möglich werden die gleichen Bauteile mit den gleichen Symbolen bezeichnet und redundante Erklärungen werden unterlassen.
  • Eine Erklärung wird unter Verwendung von 1 für ein Mobiltelefon (System zur Übertragung von Gesichtsinformation) abgegeben, welches einen Aspekt dieser Erfindung darstellt. 1 ist eine Zeichnung, um das Mobiltelefon 10 zu erklären. Das Mobiltelefon 10 ist so konfiguriert, um beiderseitige Kommunikation von Information mit einem anderen Telefon (Kommunikationsendgerät) 30 über ein Netzwerk 20 zu ermöglichen. Als nächstes wird das Mobiltelefon 10 erklärt. Das Mobiltelefon 10 ist physikalisch so aufgebaut wie ein Mobiltelefon, das zur Kommunikation von Information in der Lage ist und eine CPU aufweist (Zentrale Verarbeitungseinheit), einen Speicher, Eingabevorrichtungen, so wie beispielsweise Tasten und ein Mikrofon, eine Anzeigevorrichtung, so wie beispielsweise eine Flüssigkristallanzeige, und eine Bildbezugsvorrichtung, wie beispielsweise eine Kamera, und ähnliches.
  • Das Mobiltelefon 10 weist als funktionale Komponenten einen Bildbezugsteil (Bildbezugsmittel) 101 auf; einen ersten Erzeugungsteil (erste Erzeugungsmittel) 102; einen Äußerungsbezugsteil (Äußerungsbezugsmittel) 103; einen Phonemidentifikationsteil (Phonemidentifikationsmittel) 104; einen Bildbewertungsteil (Bildbewertungsmittel) 105; einen Unterbrechungseingabeteil 106; einen zweiten Erzeugungsteil (zweites Erzeugungsmittel) 107; einen Sendeteil (Sendemittel) 108; einen Phonembewertungsteil (Phonembewertungsmittel) 109; und einen Darstellerinformationsspeicherteil 110. Als nächstes wird jede der Komponenten im Einzelnen erklärt.
  • Der Bildbezugsteil 101 ist ein Teil, welcher Bilder vom Gesicht des Anwenders vom Mobiltelefon 10 als dem Subjekt bezieht. Die Bilder des Gesichts, welche durch den Bildbezugsteil 101 bezogen werden, können augenblicklich sein (ein statisches Bild), oder entlang einer Zeitfolge (Bewegtbilder oder Video). Der Bildbezugsteil 101 gibt die bezogenen Bilder an den ersten Erzeugungsteil 102 aus.
  • Der erste Erzeugungsteil 102 erzeugt erste Bildinformation, welche die Positionen von charakteristischen Punkten vom Gesicht kennzeichnet, basierend auf einem Bild, das durch den Bildbezugsteil 101 bezogen und ausgegeben wird. Genauer, wie in 2A gezeigt, identifiziert der erste Erzeugungsteil 102 charakteristische Punkte 401, welche die Augen und die Augenbrauen kennzeichnen, und charakteristische Punkte 402, welche den Mund und die Nase kennzeichnen in einem Gesichtsbild 403 vom Subjekt, das im Bild 40 enthalten ist, welches durch den Bildbezugsteil 101 ausgegeben wird, und erzeugt das Gesichtsbild 403 und charakteristische Punkte 401, 402 als erste Bildinformation von einem Standbild. Wenn Bilder, die vom Bildbezugsteil 101 ausgegeben werden, Bewegtbilder sind, wird das Bild 40, das in 2A gezeigt ist, und ein Bild 40a, nachdem eine vorgeschriebene Zeit verstrichen ist, empfangen. Wie in 2B gezeigt, enthält das Bild 40a das Gesichtsbild 403a, das sich während dem Verstreichen einer vorgeschriebenen Zeitspanne bewegt hat, und charakteristische Punkte 401a und 402a werden im Gesichtsbild 403a identifiziert. Folglich enthält die erste Bildinformation im Fall von Bewegtbildern das Gesichtsbild 403 und charakteristische Punkte 401, 402 und das Gesichtsbild 403a und charakteristische Punkte 401a, 402a. Der erste Erzeugungsteil 102 gibt die derartig erzeugte erste Bildinformation an den Bildbewertungsteil 105 aus.
  • Der Bildbewertungsteil 105 ist ein Teil, welcher bewertet, ob die durch den ersten Erzeugungsteil 102 ausgegebene erste Bildinformation vorgeschriebenen Bedingungen genügt. Die vorgeschriebenen Bedingungen können geeignet eingestellt werden unter Verwendung solcher Faktoren, wie die Umstände und Wünsche des Anwenders, der das Mobiltelefon 10 verwendet, oder können geeignet entsprechend den Erfordernissen der Hardware des Mobiltelefons 10 eingestellt werden. Als vorgeschriebene Bedingungen können zum Beispiel die nicht bestehende Möglichkeit eine Mehrheit der charakteristischen Punkte, die in der ersten Bildinformation vorhanden sind, zu beziehen, als Bedingungen eingestellt werden, oder eine wesentliche Abweichung von der Verteilung der charakteristischen Punkte im Gesichtsbild kann als Bedingung eingestellt werden. Der Bildbewertungsteil 105 gibt das Ergebnis der Bewertung, ob die erste Bildinformation den vorgeschriebenen Bedingungen genügt zusammen mit der ersten Bildinformation an den zweiten Erzeugungsteil 107 aus.
  • Der Äußerungsbezugsteil 103 ist ein Teil, welcher Äußerungen bezieht, die durch den Anwender des Mobiltelefons 10 als Subjekt abgegeben werden. Der Äußerungsbezugsteil 103 gibt bezogene Äußerungen an den Phonemidentifikationsteil 104 aus.
  • Der Phonemidentifikationsteil 104 ist ein Teil, welcher Phoneme identifiziert, die Äußerungen entsprechen, welche vom Äußerungsbezugsteil 103 bezogen und ausgegeben werden. Ein Phonem ist die kleinste Schalleinheit, welche die Bedeutung [einer Äußerung] beeinflussen kann. Zum Beispiel, falls eine ausgegebene Äußerung „konnichiwa" (Hallo) ist, dann werden Phoneme als „ko(h)", „n(e)", „ni (l)", „chi (o)", „wa (u)" identifiziert. Der Phonemidentifikationsteil 104 gibt eine Äußerung und identifizierte Phoneme an den Phonembewertungsteil 109 aus.
  • Der Phonembewertungsteil 109 ist ein Teil, welcher bewertet, ob ein Phonem, das durch den Phonemidentifikationsteil 104 ausgegeben wird, vorgeschriebenen Bedingungen genügt. Die vorgeschriebenen Bedingungen können geeignet unter Verwendung solcher Faktoren, wie die Umstände und Wünsche des Anwenders, der das Mobiltelefon 10 verwendet eingestellt werden, oder können geeignet gemäß den Erfordernissen der Hardware des Mobiltelefons 10 eingestellt werden. Als vorgeschriebene Bedingungen kann zum Beispiel als Bedingung eingestellt werden, ob ein Phonem identifiziert werden kann oder nicht. Der Phonembewertungsteil 109 gibt das Ergebnis der Bewertung, ob ein Phonem den vorgeschriebenen Bedingungen genügt, zusammen mit der Äußerung an den zweiten Erzeugungsteil 107 aus.
  • Der Unterbrechungseingabeteil 106 empfängt einen Unterbrechungsbefehl, der durch den Anwender des Mobiltelefons 10 eingegeben wird und gibt den Unterbrechungsbefehl an den zweiten Erzeugungsteil 107 aus. Spezieller, wenn der Anwender Tasten drückt, welchen Befehle zugeordnet sind, die solchen Gesichtsausdrücken wie „Lachen", „Weinen", oder „sei überrascht" zugeordnet sind, wird der entsprechende Befehl eingegeben und an den zweiten Erzeugungsteil 107 ausgegeben.
  • Der zweite Erzeugungsteil 107 ist ein Teil, welcher ein Darstellerbild (zweite Bildinformation) gemäß dem Gesichtsausdruck des Subjektes erzeugt, basierend auf der ersten Bildinformation, die durch den ersten Erzeugungsteil 102 erzeugt wurde. Wenn der Bildbewertungsteil 105 bewertet, dass die erste Bildinformation den vorgeschriebenen Bedingungen genügt, erzeugt der zweite Bilderzeugungsteil 107 das Darstellerbild gemäß dem Gesichtsausdruck des Gesichtes des Subjektes basierend auf wenigstens der ersten Bildinformation; und wenn die erste Bildinformation nicht den vorgeschriebenen Bedingungen genügt, aber ein Phonem, das durch den Phonemidentifikationsteil 104 identifiziert wurde, vorgeschriebenen Bedingungen genügt, erzeugt [der zweite Erzeugungsteil 107] das Darstellerbild entsprechend dem Gesichtsausdruck des Subjektes basierend auf dem Phonem.
  • Wenn sowohl die erste Bildinformation als auch das Phonem den jeweiligen vorgeschriebenen Bedingungen genügen, erzeugt der zweite Bilderzeugungsteil 107 das Darstellerbild basierend auf der ersten Bildinformation und dem Phonem. Zum Beispiel in einem Fall, in dem in der ersten Bildinformation nur die Neigung des Gesichtes bezogen werden kann, werden, wenn ein Phonem identifiziert wurde, die zwei in komplementärer Weise verwendet, um das Darstellerbild zu erzeugen. Wenn weder die erste Bildinformation noch das Phonem den jeweiligen vorgeschriebenen Bedingungen genügen, erzeugt der zweite Bilderzeugungsteil 107 ein Darstellerbild basierend darauf, ob es eine Äußerung gibt oder nicht. Wenn zum Beispiel eine Äußerung einen vorgeschriebenen Schwellwert überschreitet, wird es angenommen, dass der Anwender spricht, und so wird ein Bild eines sprechenden Darstellers erzeugt. Ferner, wenn weder die erste Bildinformation noch das Phonem den vorgeschriebenen jeweiligen Bedingungen genügen und eine Außerung nicht bezogen wurde, kann Bildinformation, die zuvor gespeichert wurde, als das Darstellerbild verwendet werden.
  • Wenn der zweite Bilderzeugungsteil 107 ein Darstellerbild basierend auf der ersten Bildinformation erzeugt, wenn zum Beispiel [die Bilderzeugung] basierend auf dem Gesichtsbild 403 stattfindet und von charakteristischen Punkten 401, 402, die in 2A gezeigt sind, werden die Positionen der charakteristischen Punkte 401, 402 relativ zum Gesichtsbild 403 als eine Verteilung identifiziert. Basierend auf dieser Verteilung bestimmt der zweite Erzeugungsteil 107 die Positionen der charakteristischen Punkte 501, 502 relativ zum Darstellergesichtsbild 503, wie gezeigt in 3A und erzeugt ein Darstellerstandbild 50. Wenn die erste Bildinformation einem Bewegtbild entspricht, das heißt, wenn [die Bilderzeugung] auf dem Gesichtsbild 403 basiert und auf charakteristischen Punkten 401, 402, die in 2A gezeigt sind, und auf dem Gesichtsbild 403a und charakteristischen Punkten 401a, 402a nach dem Verstreichen eines vorbestimmten Zeitabschnittes, wie in 2B gezeigt, wird zusätzlich zu dem Darstellerbild 50, das in 3A gezeigt ist, ein Darstellerbild 50 basierend auf dem Darstellerbild 503a und auf charakteristischen Punkten 501a, 502a, die in 3B gezeigt sind, erzeugt.
  • Wenn der zweite Bilderzeugungsteil 107 ein Darstellerbild basierend auf einem Phonem erzeugt, wird Information verwendet, die im Darstellerinformationsspeicherteil 110 gespeichert ist. 4 zeigt ein Beispiel von Information die im Darstellerinformationsspeicherteil 110 gespeichert ist. Entsprechend dem Beispiel das in 2 gezeigt ist, werden ein „Phonem", „charakteristische Punktdaten", und ein „Darstellerbild" in Zuordnung zueinander im Darstellerinformationsspeicherteil 110 gespeichert. Der zweite Erzeugungsteil 107 extrahiert die „charakteristischen Punktdaten" und ein „Darstellerbild", welche jedem „Phonem" entsprechen und erzeugt ein Darstellerbild als ein Standbild oder als ein Bewegtbild. In dem in 4 gezeigten Beispiel wird ein Bild des Mundbereiches angezeigt; aber die Entsprechung kann mit einem Bild vom gesamten Gesicht sein. Ferner können Bilder, welche Eigenheiten des Anwenders beinhalten, als „Darstellerbilder" gespeichert werden. Ein „Darstellerbild", welches Eigenheiten des Anwenders beinhaltet, wird nicht auf jene beschränkt, die auf „Phonemen" basieren und kan ebenso auf Fälle angewendet werden, in welchen Darstellerbilder auf Basis von „erster Bildinformation" oder auf Basis von „Äußerungen" erzeugt werden.
  • Wenn ein Unterbrechungsbefehl von Unterbrechungseingabeteil 106 ausgegeben wird, ändert der zweite Bilderzeugungsteil 107 das Darstellerbild entsprechend dem Unterbrechungsbefehl. Zum Beispiel, wenn ein „Lach" Unterbrechungsbefehl ausgegeben wird, wird das erzeugte Darstellerbild so geändert, dass es einen lachenden Gesichtsausdruck annimmt. Der zweite Erzeugungsteil 107 gibt das erzeugte oder geänderte Darstellerbild an den Sendeteil 108 aus.
  • Der Sendeteil 108 sendet das Darstellerbild, das durch den zweiten Erzeugungsteil 107 erzeugt wurde, an das Mobiltelefon 30.
  • Als nächstes wird ein Verfahren zum Senden eines Darstellerbildes, das das Mobiltelefon 10 verwendet, unter Verwendung der Ablaufdiagramme der 5 und 6 erklärt. Die Ablaufdiagramme der 5 und 6 bilden eine Folge. Der Anwender gibt am Mobiltelefon 10 einen Befehl ein, ein Darstellerbild zu erzeugen und zu senden (Schritt S01). Als Reaktion auf diesen Eingabebefehl werden als nächstes die Abläufe der Schritte S02, S03 und der Schritte S04, S05, die als nächstes erklärt werden, parallel ausgeführt.
  • Der Bildbezugsteil 101 bezieht ein Bild vom Gesicht des Anwenders des Mobiltelefons 10 als Subjekt (Schritt S02). Der Bildbezugsteil 101 gibt das bezogene Bild an den ersten Erzeugungsteil 102 aus. Der erste Erzeugungsteil 102 erzeugt erste Bildinformation, welche die Positionen von charakteristischen Punkten vom Gesicht kennzeichnet, basierend auf dem Bild, das durch den Bildbezugsteil 101 bezogen und ausgegeben wurde (Schritt S03). Der erste Erzeugungsteil 102 gibt die erzeugte erste Bildinformation an den Bildbewertungsteil 105 aus. Der Äußerungsbezugsteil 103 ist ein Teil, welcher Äußerungen bezieht, die durch den Anwender als das Subjekt, des Mobiltelefons 10 abgegeben werden (Schritt S04). Der Äußerungsbezugsteil 103 gibt eine bezogene Äußerung an den Phonemidentifikationsteil 104 aus. Der Phonemidentifikationsteil 104 identifiziert Phoneme, welche einer Außerung entsprechen, die durch den Äußerungsbezugsteil 103 bezogen und ausgegeben wurde (Schritt S05). Der Phonemidentifikationsteil 104 gibt die Äußerung und identifizierte Phoneme an den Phonembewertungsteil 109 aus.
  • Der Bildbewertungsteil 105 bewertet, ob die durch den ersten Erzeugungsteil 102 ausgegebene erste Bildinformation vorgeschriebenen Bedingungen genügt (Schritt S06). Der Bildbewertungsteil 105 gibt an den zweiten Erzeugungsteil 107 das Bewertungsergebnis, ob die erste Bildinformation den vorgeschriebenen Bedingungen genügt zusammen mit der ersten Bildinformation aus.
  • Der Phonembewertungsteil 109 bewertet, ob ein Phonem, das durch den Phonemidentifikationsteil 104 ausgegeben wurde, vorgeschriebenen Bedingungen genügt (Schritte S07, S08). Ebenso bewertet der Phonembewertungsteil 109, ob eine Äußerung, die durch den Phonemidentifikationsteil 104 ausgegeben wurde, im Zustand einer wesentlichen Äußerung ist, die einen vorgeschriebenen Schwellwert überschreitet (Schritt S09). Der Phonembewertungsteil 109 gibt an den zweiten Erzeugungsteil 107 das Ergebnis der Bewertung aus, ob das Phonem vorgeschriebenen Bedingungen genügt, das Ergebnis der Bewertung, ob die Äußerung den vorgeschriebenen Schwellwert überschreitet, die Äußerung, und das Phonem.
  • Wenn die erste Bildinformation vorgeschriebenen Bedingungen genügt, und das Phonem ebenso vorgeschriebenen Bedingungen genügt (von Schritt S06 bis Schritt S07), erzeugt der zweite Erzeugungsteil 107 ein Darstellerbild entsprechend dem Gesichtsausdruck des Gesichts des Subjektes, basierend auf der ersten Bildinformation und dem Phonem (Schritt S10).
  • Wenn die erste Bildinformation den vorgeschriebenen Bedingungen genügt, und das Phonem nicht den vorgeschriebenen Bedingungen genügt (von Schritt S06 bis Schritt S07), erzeugt der zweite Erzeugungsteil ein Darstellerbild entsprechend dem Gesichtsausdruck des Gesichts des Subjektes basierend auf der ersten Bildinformation (Schritt S11).
  • Wenn die erste Bildinformation nicht den vorgeschriebenen Bedingungen genügt, aber das Phonem den vorgeschriebenen Bedingungen genügt (von Schritt S06 bis Schritt S08), erzeugt der zweite Erzeugungsteil ein Darstellerbild entsprechend dem Gesichtsausdruck des Gesichts des Subjektes basierend auf dem Phonem (Schritt S12).
  • Wenn die erste Bildinformation nicht vorgeschriebenen Bedingungen genügt und das Phonem ebenso nicht den vorgeschriebenen Bedingungen genügt, aber die Äußerung den vorgeschriebenen Schwellwert überschreitet (Schritt S06, und von Schritt S08 bis Schritt S09), erzeugt der zweite Erzeugungsteil 107 ein Darstellerbild entsprechend dem Gesichtsausdruck des Gesichts des Subjektes basierend auf der Außerung (Schritt S13).
  • Wenn die erste Bildinformation nicht vorgeschriebenen Bedingungen genügt und das Phonem ebenso nicht vorgeschriebenen Bedingungen genügt, und die Äußerung nicht den vorgeschriebenen Schwellwert überschreitet (Schritt S06, und von Schritt S08 bis Schritt S09), erzeugt der zweite Erzeugungsteil 107 ein Darstellerbild basierend auf Vorgabeinformation, die im Voraus gespeichert wurde (Schritt S14).
  • Der zweite Erzeugungsteil 107 bewertet, ob ein Unterbrechungsbefehl vom Unterbrechungseingabeteil 106 ausgegeben wurde (Schritt S15). Falls ein Unterbrechungsbefehl ausgegeben wurde, verändert der zweite Erzeugungsteil 107 das Darstellerbild entsprechend dem Unterbrechungsbefehl (Schritt S16). Der zweite Erzeugungsteil 107 gibt das erzeugte oder geänderte Darstellerbild an den Sendeteil 108 aus. Der Sendeteil 108 sendet das Darstellerbild, das durch den zweiten Erzeugungsteil 107 erzeugt wurde, an das Mobiltelefon 30 (Schritt S17).
  • Als nächstes wird ein Programm 92 zur Übertragung von Gesichtsinformation, welches einen Computer veranlasst, der in der Lage ist Information zu kommunizieren und eine CPU (Zentrale Verarbeitungseinheit), einen Speicher, Eingabevorrichtungen, wie beispielsweise Knöpfe und ein Mikrofon, eine Anzeigevorrichtung, wie beispielsweise eine Flüssigkristallanzeige, eine Bildbezugsvorrichtung, wie beispielsweise eine Kamera, und ähnliches aufweist, als Mobiltelefon 10 dieses Aspektes zu funktionieren, ebenso wie ein Computer-lesbares Speichermedium 9, auf welchem [das Programm] aufgezeichnet wird, erklärt werden. 7 zeigt den Aufbau des Speichermediums 9, auf welchem ein Programm 92 zum Übertragen von Gesichtsinformation aufgezeichnet wird. Das Speichermedium 9 kann zum Beispiel eine Magnetplatte, eine optische Platte, eine CD-ROM, oder ein Speicher sein, der in einem Computer enthalten ist.
  • Wie in 7 gezeigt, enthält das Speichermediumn 9 einen Programmbereich 91, welcher das Programm aufzeichnet und einen Datenbereich 93, welcher Daten aufzeichnet. Im Datenbereich 93 ist eine Darstellerinformationsdatenbank 931 ähn lich zum Darstellerinformationsspeicherteil 110, der in 1 erklärt wird, gespeichert.
  • Das Programm 92 zur Übertragung von Gesichtsinformation wird im Programmbereich 91 aufgezeichnet. Das Programm 92 zur Ubertragung von Gesichtsinformation umfasst ein Hauptmodul 921, welches die Verarbeitung überwacht; ein Bildbezugsmodul 922; ein erstes Erzeugungsmodul 923; ein Äußerungsbezugsmodul 924; ein Phonemidentifikationsmodul 925; ein Bildbewertungsmodul 926; ein Unterbrechungseingabemodul 927; ein zweites Erzeugungsmodul 928; ein Sendemodul 929 und ein Phonembewertungsmodul 930. Hier sind die Funktionen, welche durch den Betrieb des Bildbezugsmoduls 922, des ersten Erzeugungsmoduls 923, des Äußerungsbezugsmoduls 924, des Phonemidentifikationsmoduls 925, des Bildbewertungsmoduls 926, des Unterbrechungseingabemoduls 927, des zweiten Erzeugungsmoduls 928, des Sendemoduls 929 und des Phonembewertungsmoduls 930 realisiert werden ähnlich zu den jeweiligen Funktionen des Bildbezugsteils 101, des ersten Erzeugungsteils 102, des Äußerungsbezugsteils 103, des Phonemidentifikationsteils 104, des Bildbewertungsteils 105, des Unterbrechungseingabeteils 106, des zweiten Erzeugungsteils 107, des Sendeteils 108, und des Phonembewertungsteils 109 des obigen Mobiltelefons 10.
  • In diesem Aspekt wird ein Darstellerbild gemäß dem Gesichtsausdruck des Darstellers des Subjektes basierend auf erster Bildinformation erzeugt, die basierend auf den Positionen von charakteristischen Punkten erzeugt wird; folglich kann Bildinformation erzeugt werden, welche den Gesichtsausdruck des Gesichtes des Subjektes erfasst. Ein Gesichtsausdruck reflektiert oft solche Elemente wie Gefühle und Absichten des Subjektes, und ein Darstellerbild kann als ein Bild erzeugt werden, das solche Elemente reflektiert und an das Mobiltelefon 30 gesendet werden.
  • In diesem Aspekt wird, wenn die erste Bildinformation nicht vorgeschriebenen Bedingungen genügt, ein Darstellerbild gemäß dem Gesichtsausdruck des Gesichtes des Subjektes basierend auf einem Phonem erzeugt, so dass sogar, wenn aus irgendeinem Grund die Messung von Positionen von charakteristischen Punkten des Gesichtes des Subjektes unvollständig ist, immer noch ein Darstellerbild erzeugt werden kann.
  • In diesem Aspekt enthält die erste Bildinformation Information, welche die Verteilung von charakteristischen Punkten im Gesicht des Subjektes kennzeichnet; folglich können die relativen positionellen Verhältnisse von charakteristischen Punkten erfasst werden, und ein geeigneteres Darstellerbild kann erzeugt werden.
  • In diesem Aspekt wird die erste Bildinformation basierend auf Verschiebungen in den Positionen der charakteristischen Punkte erzeugt, die entlang einer Zeitfolge gemessen werden, so dass Änderungen im Gesichtsausdruck des Gesichts des Subjektes als Veränderungen in den Positionen der charakteristischen Punkte erfasst werden können. Folglich können Darstellerbilder gemäß den Veränderungen im Gesichtsausdruck erzeugt werden.
  • In diesem Aspekt enthält die erste Bildinformation Information, welche die Bewegung von charakteristischen Punkten relativ zum Gesicht des Subjektes identifiziert, so dass die Bewegung der charakteristischen Punkte relativ zum Gesicht entlang einer Zeitfolge identifiziert werden kann, und Änderungen im Gesichtsausdruck des Gesichts des Subjektes akkurater erfasst werden können.

Claims (4)

  1. System zur Übertragung von Gesichtsinformation (10, 20, 30) aufweisend: Bildbezugsmittel (101), um ein Bild des Gesichtes eines Subjektes zu beziehen; erste Erzeugungsmittel (102), um eine erste sich auf das Subjekt beziehende Bildinformation zu erzeugen, welche ebenfalls die Positionen von charakteristischen Punkten (401, 402) des Gesichtes enthält, basierend auf dem bezogenen Bild; Bildbewertungsmittel (105), um zu bewerten, ob oder ob nicht die erste Bildinformation vorgeschriebenen Bedingungen genügt; Äußerungsbezugsmittel (103), um von dem Subjekt abgegebene Äußerungen zu beziehen; Phonemidentifikationsmittel (104), um Phoneme zu identifizieren, die einer durch die Äußerungsbezugsmittel bezogenen Äußerung entsprechen; Phonembewertungsmittel (109), um zu bewerten, ob ein identifiziertes Phonem vorgeschriebenen Bedingungen genügt; zweite Äußerungsmittel (107), um eine zweite Bildinformation gemäß dem Gesichtsausdruck des Gesichtes des Subjektes zu erzeugen; und Ubertragungsmittel, um die erzeugte zweite Bildinformation an ein vorgeschriebenes Kommunikationsendgerät zu übertragen; wobei die vorgeschriebenen Bedingungen auf wenigstens einem von den Umständen oder Wünschen des Subjektes basieren oder entsprechend Bedürfnissen einer Hardware eines Mobiltelefons; worin, wenn das Bildbewertungsmittel bewertet, dass die erste Bildinformation vorgeschriebenen Bedingungen genügt, das zweite Erzeugungsmittel zweite Bildinformation gemäß dem Gesichtsausdruck des Gesichts des Subjektes basierend auf wenigstens der ersten Bildinformation erzeugt, wenn das Bildbewertungsmittel bewertet, dass die erste Bildinformation nicht vorgeschriebenen Bedingungen genügt und das Phonembewertungsmittel bewertet, dass das Phonem vorgeschriebenen Bedingungen genügt, das zweite Erzeugungsmittel zweite Bildinformation gemäß dem Gesichtsausdruck des Gesichtes des Subjektes basierend auf wenigstens dem Phonem erzeugt, wenn weder die erste Bildinformation noch das Phonem den jeweiligen vorgeschriebenen Bedingungen genügt, und das Äußerungsbezugsmittel die Äußerungen bezogen hat, das zweite Erzeugungsmittel zweite Bildinformation gemäß dem Gesichtsausdruck des Gesichts des Subjektes basierend auf den Äußerungen erzeugt, und wenn weder die erste Bildinformation noch das Phonem den jeweiligen vorgeschriebenen Bedingungen genügt, und die Äußerung nicht bezogen werden kann, das zweite Bilderzeugungsmittel im Voraus bestimmte Bildinformation als die zweite Bildinformation einsetzt.
  2. Das System zur Übertragung von Gesichtsinformation (10, 20, 30) nach Anspruch 1, worin die erste Bildinformation Informationen enthält, um die Verteilung der charakteristischen Punkte (401, 402) im Gesicht des Subjektes zu identifizieren.
  3. Das System zur Übertragung von Gesichtsinformation (10, 20, 30) nach Anspruch 1, worin das Bildbezugsmittel (101) Bilder von dem Gesicht entlang einer Zeitfolge bezieht, und das erste Erzeugungsmittel die erste Bildinformation, welche Verschiebungen in den Positionen der charakteristischen Punkte (401, 402) entlang einer Zeitfolge enthält, basierend auf den bezogenen Bildern erzeugt.
  4. Das System zur Ubertragung von Gesichtsinformation (10, 20, 30) nach Anspruch 3, worin die erste Bildinformation Informationen enthält, um die Bewegung der charakteristischen Punkte (401, 402) relativ zum Gesicht des Subjektes zu identifizieren.
DE602004001887T 2003-01-31 2004-01-26 System zur Übertragung von Gesichtsinformation Active DE602004001887T2 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003024734 2003-01-31
JP2003024734A JP3950802B2 (ja) 2003-01-31 2003-01-31 顔情報送信システム、顔情報送信方法、顔情報送信プログラム、及びコンピュータ読取可能な記録媒体

Publications (2)

Publication Number Publication Date
DE602004001887D1 DE602004001887D1 (de) 2006-09-28
DE602004001887T2 true DE602004001887T2 (de) 2007-02-08

Family

ID=32652930

Family Applications (1)

Application Number Title Priority Date Filing Date
DE602004001887T Active DE602004001887T2 (de) 2003-01-31 2004-01-26 System zur Übertragung von Gesichtsinformation

Country Status (6)

Country Link
US (1) US7224367B2 (de)
EP (1) EP1443465B1 (de)
JP (1) JP3950802B2 (de)
KR (1) KR100629643B1 (de)
CN (1) CN1237799C (de)
DE (1) DE602004001887T2 (de)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100630085B1 (ko) * 2004-02-06 2006-09-27 삼성전자주식회사 무선단말기의 조합형 이모티콘 입력방법
KR100662335B1 (ko) * 2004-06-18 2007-01-02 엘지전자 주식회사 이동단말기 사용자의 감정 전달 및 표출 방법과, 그를위한 통신 시스템
DE102004063553A1 (de) * 2004-12-30 2006-04-13 Siemens Ag Verfahren, Endgerät sowie mobiles Endgerät zur Darstellung von insbesondere multimedialen Kurznachrichten in einem mobilen Kommunikationssystem
KR101141643B1 (ko) * 2005-03-07 2012-05-04 엘지전자 주식회사 캐리커쳐 생성 기능을 갖는 이동통신 단말기 및 이를 이용한 생성 방법
US7693306B2 (en) * 2005-03-08 2010-04-06 Konami Gaming, Inc. System and method for capturing images from mobile devices for use with patron tracking system
KR100686076B1 (ko) * 2005-03-24 2007-02-26 엘지전자 주식회사 피사체의 감정 상태에 대응하는 메시지 출력 기능을 갖는무선 통신 단말기 및 이를 이용한 메시지 출력 방법
KR100713281B1 (ko) * 2005-03-29 2007-05-04 엘지전자 주식회사 감정 상태에 따른 프로그램 추천 기능을 갖는 영상표시기기및 그 제어방법
JP2006330958A (ja) * 2005-05-25 2006-12-07 Oki Electric Ind Co Ltd 画像合成装置、ならびにその装置を用いた通信端末および画像コミュニケーションシステム、ならびにそのシステムにおけるチャットサーバ
JP2006350986A (ja) * 2005-06-17 2006-12-28 Tokyo Institute Of Technology 顔写真付きメールを送受信できる携帯電話機
CN101341458A (zh) * 2005-12-22 2009-01-07 皇家飞利浦电子股份有限公司 情侣枕头
JP2007193730A (ja) * 2006-01-23 2007-08-02 Seiko Epson Corp 印刷装置、画像処理装置、印刷方法、および画像処理方法
US20080001951A1 (en) * 2006-05-07 2008-01-03 Sony Computer Entertainment Inc. System and method for providing affective characteristics to computer generated avatar during gameplay
DE102007010662A1 (de) * 2007-03-02 2008-09-04 Deutsche Telekom Ag Verfahren und Videokommunikationssystem zur Gestik-basierten Echtzeit-Steuerung eines Avatars
US20090201297A1 (en) * 2008-02-07 2009-08-13 Johansson Carolina S M Electronic device with animated character and method
KR101009151B1 (ko) 2008-09-04 2011-01-18 삼성전기주식회사 휴대용 단말기의 환경설정 변경 장치 및 그 방법
KR101541907B1 (ko) 2008-10-14 2015-08-03 삼성전자 주식회사 음성 기반 얼굴 캐릭터 형성 장치 및 방법
CN101727904B (zh) * 2008-10-31 2013-04-24 国际商业机器公司 语音翻译方法和装置
EP2638477A2 (de) 2010-11-09 2013-09-18 Woow Inc. Limited Vorrichtung und verfahren zur körperlichen interaktion über eine entfernung anhand einer telekommunikationsvorrichtung
US9307190B2 (en) 2010-11-09 2016-04-05 Kanfield Capital Sa Apparatus and method for physical interaction over a distance using a telecommunication device
JP5555193B2 (ja) * 2011-03-01 2014-07-23 株式会社メガチップス データ処理装置、データ処理システム、及びプログラム
CN102156888B (zh) * 2011-04-27 2013-06-12 西安电子科技大学 基于特征点局部颜色及分布特征的图像拣出方法
CN102571631B (zh) * 2011-12-23 2016-08-31 上海量明科技发展有限公司 即时通信中动作图像信息的发送方法、终端和系统
US9262869B2 (en) * 2012-07-12 2016-02-16 UL See Inc. Method of 3D model morphing driven by facial tracking and electronic device using the method the same
KR101988279B1 (ko) 2013-01-07 2019-06-12 삼성전자 주식회사 얼굴 인식 기반 사용자 기능 운용 방법 및 이를 지원하는 단말기
US9609272B2 (en) * 2013-05-02 2017-03-28 Avaya Inc. Optimized video snapshot
KR20160064565A (ko) * 2014-11-28 2016-06-08 삼성전자주식회사 전자장치, 서버 및 음성출력 방법
US9987489B2 (en) 2015-03-27 2018-06-05 Elwha Llc Controlling ear stimulation in response to electrical contact sensing
US10398902B2 (en) 2015-03-27 2019-09-03 Equility Llc Neural stimulation method and system with audio output
US10327984B2 (en) 2015-03-27 2019-06-25 Equility Llc Controlling ear stimulation in response to image analysis
US10039928B2 (en) 2015-03-27 2018-08-07 Equility Llc Ear stimulation with neural feedback sensing
US10512783B2 (en) 2015-03-27 2019-12-24 Equility Llc User interface method and system for ear stimulation
US10406376B2 (en) 2015-03-27 2019-09-10 Equility Llc Multi-factor control of ear stimulation
US10589105B2 (en) 2015-03-27 2020-03-17 The Invention Science Fund Ii, Llc Method and system for controlling ear stimulation
CN106445107A (zh) * 2016-08-30 2017-02-22 苏州品诺维新医疗科技有限公司 一种基于面部表情进行信息发送的方法及装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5426460A (en) * 1993-12-17 1995-06-20 At&T Corp. Virtual multimedia service for mass market connectivity
JPH10149433A (ja) 1996-11-21 1998-06-02 Matsushita Electric Ind Co Ltd 顔マーク入力装置
US5995119A (en) * 1997-06-06 1999-11-30 At&T Corp. Method for generating photo-realistic animated characters
US6272231B1 (en) * 1998-11-06 2001-08-07 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
WO2001045089A1 (en) 1999-12-15 2001-06-21 Bright Spark Technologies (Proprietary) Limited Phonemes recognition in an audio signal
US6943794B2 (en) * 2000-06-13 2005-09-13 Minolta Co., Ltd. Communication system and communication method using animation and server as well as terminal device used therefor
JP3478255B2 (ja) 2000-08-01 2003-12-15 カシオ計算機株式会社 顔画像作成装置および顔画像作成制御方法
JP2002175538A (ja) 2000-12-08 2002-06-21 Mitsubishi Electric Corp 似顔絵生成装置及び似顔絵生成方法及び似顔絵生成プログラムを記録した記録媒体及び通信用端末及び通信用端末による通信方法
JP2002199362A (ja) 2000-12-26 2002-07-12 Matsushita Electric Ind Co Ltd 画像通信装置
US6654018B1 (en) * 2001-03-29 2003-11-25 At&T Corp. Audio-visual selection process for the synthesis of photo-realistic talking-head animations
JP3593067B2 (ja) 2001-07-04 2004-11-24 沖電気工業株式会社 画像コミュニケーション機能付き情報端末装置および画像配信システム

Also Published As

Publication number Publication date
DE602004001887D1 (de) 2006-09-28
EP1443465A1 (de) 2004-08-04
KR100629643B1 (ko) 2006-09-29
CN1237799C (zh) 2006-01-18
JP2004236186A (ja) 2004-08-19
CN1527602A (zh) 2004-09-08
JP3950802B2 (ja) 2007-08-01
US7224367B2 (en) 2007-05-29
EP1443465B1 (de) 2006-08-16
KR20040070326A (ko) 2004-08-07
US20040207720A1 (en) 2004-10-21

Similar Documents

Publication Publication Date Title
CN106030692B (zh) 显示控制装置、显示控制方法及计算机程序
US9367864B2 (en) Experience sharing with commenting
KR102073168B1 (ko) 비디오 회의에서의 감정 인식
US9503685B2 (en) Background replacement for videoconferencing
KR101759453B1 (ko) 자동 이미지 크로핑 및 공유
DE102017122200A1 (de) Bilden einer Chatbot-Ausgabe auf der Grundlage eines Anwenderzustandes
DE60217987T2 (de) Mobiltelefon mit Audio-moduliertem Vibrationsmodul
US8773498B2 (en) Background compression and resolution enhancement technique for video telephony and video conferencing
DE60008513T2 (de) Datenstromvorrichtung mit speicher lese-und-schreibzugriffs-synchronisation
DE69636157T2 (de) Verfahren und System zum graphischen Anzeigen und zur Navigation durch ein interaktives Sprachantwortmenü
EP1064783B1 (de) Tragbares kamerasystem mit visiermittel
DE69822179T2 (de) Verfahren zum lernen von mustern für die sprach- oder die sprechererkennung
JP4697907B2 (ja) 画像処理装置及び方法
US8964066B2 (en) Apparatus and method for generating image including multiple people
CN100425071C (zh) 会议信息处理装置和方法
DE4436692C2 (de) Trainingssystem für ein Spracherkennungssystem
DE10083904B4 (de) Datenspeicher- und Reduktionsverfahren für digitale Bilder und ein Überwachungssystem, das dieses Verfahren verwendet
US6307526B1 (en) Wearable camera system with viewfinder means
DE202017104895U1 (de) Hotword-Detektion bei mehreren Vorrichtungen
DE602004010807T2 (de) Techniken zur bereitstellung eines virtuellen arbeitsraums, bestehend aus einer vielzahl elektronischer einrichtungen
DE60031432T2 (de) System, verfahren und hergestellter gegenstand zur detektion von emotionen in sprachsignalen mittels statistischer analyse von sprachsignalparametern
US9769425B1 (en) Adjusting an image for video conference display
DE10063089C1 (de) Anwendergesteuerte Verknüpfung von Informationen innerhalb eines Augmented-Reality-Systems
CN105022981B (zh) 一种检测人眼健康状态的方法、装置及移动终端
US8126155B2 (en) Remote audio device management system

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8328 Change in the person/name/address of the agent

Representative=s name: BOCKHORNI & KOLLEGEN, 80687 MUENCHEN

8328 Change in the person/name/address of the agent

Representative=s name: VIERING, JENTSCHURA & PARTNER, 81675 MUENCHEN