DE112015006160T5 - Emotionsschätzvorrichtung und Emotionsschätzverfahren - Google Patents

Emotionsschätzvorrichtung und Emotionsschätzverfahren Download PDF

Info

Publication number
DE112015006160T5
DE112015006160T5 DE112015006160.6T DE112015006160T DE112015006160T5 DE 112015006160 T5 DE112015006160 T5 DE 112015006160T5 DE 112015006160 T DE112015006160 T DE 112015006160T DE 112015006160 T5 DE112015006160 T5 DE 112015006160T5
Authority
DE
Germany
Prior art keywords
expression
emotion
object person
estimation
micro
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112015006160.6T
Other languages
English (en)
Inventor
Jumpei Matsunaga
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Publication of DE112015006160T5 publication Critical patent/DE112015006160T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7246Details of waveform analysis using correlation, e.g. template matching or determination of similarity
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Psychiatry (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)

Abstract

Ein Aspekt der vorliegenden Erfindung stellt eine Technologie bereit, die ein exaktes Schätzen der Emotion einer Person auf der Basis eines aus einem Bild erkannten Gesichtsausdrucks ermöglicht. Eine Emotionsschätzvorrichtung umfasst: eine Bildgewinnungseinheit zum Gewinnen einer Mehrzahl von Bildern, in denen die Objektperson in einer Zeitreihe fotografiert ist; einen Ausdruckserkenner zum Erkennen eines Ausdrucks der Objektperson aus jedem der Mehrzahl von durch die Bildgewinnungseinheit gewonnenen Bildern; einen Speicher, in dem Ausdruckserkennungsergebnisse der Mehrzahl von Bildern als Zeitreihendaten gespeichert sind; und einen Emotionsschätzer zum Erfassen eines Gesichtszugs, der mit einer zeitlichen Änderung des Ausdrucks der Objektperson verknüpft ist, aus den in einer Schätzzielperiode in dem Speicher gespeicherten Zeitreihendaten, und zum Schätzen der Emotion der Objektperson in der Schätzzielperiode auf der Basis des erfassten Gesichtszugs.

Description

  • QUERVERWEIS ZU ZUGEHÖRIGER ANMELDUNG
  • Diese Anmeldung basiert auf der am 13. Februar 2015 beim japanischen Patentamt eingereichten japanischen Patentanmeldung 2015-026336 , deren gesamter Inhalt durch Bezugnahme in diese Anmeldung aufgenommen ist.
  • TECHNISCHER BEREICH
  • Die vorliegende Erfindung betrifft eine Technologie der Schätzung der Emotion einer Person aus einem Gesichtsausdruck.
  • HINTERGRUND
  • Bei der Kommunikation mit Anderen wird nicht nur eine Methode zum verbalen Kommunizieren mit Anderen, sondern auch eine Kommunikation (auch als nonverbale Kommunikation bezeichnet) unter Verwendung von anderen Mitteln als Worten verwendet. Beispiele der nonverbalen Kommunikation sind ein Gesichtsausdruck, ein Blick, eine Geste und eine Artikulierung, und sie spielen eine wichtige Rolle zum Verstehen der Emotion der anderen Partei. Neuerdings werden Versuche unternommen, die nonverbale Kommunikation in einer Interaktion Mensch-Maschine zu verwenden. Es wird erwartet, dass unter Anderem die Emotionsschätzung auf der Basis des Gesichtsausdrucks eine elementare Technologie ist, die für die Implementierung einer fortgeschrittenen Kommunikation zwischen der Person und der Maschine erforderlich ist.
  • Es ist bekannt, dass viele Verfahren als Technologie zum Erkennen des Gesichtsausdrucks aus einem Bild vorgeschlagen wurden, und einige der Verfahren kommen bereits in der Praxis zum Einsatz. Beispielsweise offenbart JP 2007-65969 A einen Algorithmus, der Formmerkmale (Fourier-Deskriptoren) von Augen und einem Mund aus einem Bild extrahiert und einen Index berechnet, der Grade von sechs Ausdrücken (Glücksgefühl, Überraschung, Angst, Ärger, Ekel und Trauer) auf der Basis der Formmerkmale angibt
  • Selbst wenn jedoch der Gesichtsausdruck aus dem Bild erkannt werden kann, ist die Emotion der Person (Geisteshaltung) nicht einfach aus einem Erkennungsergebnis des Gesichtsausdrucks zu schätzen. Da sich während der Kommunikation gewöhnlich der Ausdruck auf verschiedene Weisen ändert, kann die Emotion der Person allein aus dem Gesichtsausdruck in einem Bild nicht korrekt verstanden werden. Wie ein sogenanntes Pokerface oder ein künstliches Lächeln zeigt, erscheint nicht immer eine wirkliche Absicht (wirkliche Emotion) auf einem Gesicht.
  • ÜBERBLICK ÜBER DIE ERFINDUNG
  • Die vorliegende Erfindung wurde angesichts der vorstehend genannten Umstände gemacht, und ihr liegt die Aufgabe zugrunde, eine Technologie bereitzustellen, die es ermöglicht, die Emotion einer Person auf der Basis des aus dem Bild erkannten Gesichtsausdrucks exakt zu schätzen.
  • Eine Konfiguration, bei der ein mit einer zeitlichen Änderung des Gesichtsausdrucks der Objektperson verknüpfter Gesichtszug aus Zeitreihendaten des Gesichtsausdrucks erfasst wird, um die Emotion der Objektperson auf der Basis des erfassten Gesichtszugs zu schätzen, wird bei der vorliegenden Erfindung eingesetzt, um diese Aufgabe zu lösen.
  • Genauer gesagt ist eine Emotionsschätzvorrichtung zum Schätzen einer Emotion einer Objektperson konfiguriert, wobei die Emotionsschätzvorrichtung umfasst: eine Bildgewinnungseinheit zum Gewinnen einer Mehrzahl von Bildern, in denen die Objektperson in einer Zeitreihe fotografiert ist; einen Ausdruckserkenner zum Erkennen eines Ausdrucks der Objektperson aus jedem der Mehrzahl von durch die Bildgewinnungseinheit gewonnenen Bildern; einen Speicher, in dem Ausdruckserkennungsergebnisse der Mehrzahl von Bildern als Zeitreihendaten gespeichert sind; und einen Emotionsschätzer zum Erfassen eines Gesichtszugs, der mit einer zeitlichen Änderung des Ausdrucks der Objektperson verknüpft ist, aus den in einer Schätzzielperiode in dem Speicher gespeicherten Zeitreihendaten, und zum Schätzen der Emotion der Objektperson in der Schätzzielperiode auf der Basis des erfassten Gesichtszugs.
  • Da bei der vorliegenden Erfindung auf den Gesichtszug achtgegeben wird, der mit der zeitlichen Änderung des Gesichtsausdrucks in der Schätzzielperiode verknüpft ist, kann dementsprechend die Änderung, Reaktion und die Sichtbarmachung der Emotion in der Schätzzielperiode aufgezeichnet werden, und es kann ein Schätzergebnis mit höherer Genauigkeit und Zuverlässigkeit im Vergleich zu dem Fall gewonnen werden, dass die Schätzung nur durch den Gesichtsausdruck in einem Bild ausgeführt wird.
  • Wenn eine Änderung einer Art eines Hauptausdrucks erfasst wird, der beständig auf einem Gesicht der Objektperson als der Gesichtszug ausgedrückt wird, der mit der zeitlichen Änderung des Ausdrucks verknüpft ist, schätzt der Emotionsschätzer vorzugsweise, dass die der geänderten Art des Hauptausdrucks entsprechende Emotion die Emotion der Objektperson in der Schätzzielperiode ist. Häufig zeigt eine Person bewusst oder unbewusst den Ausdruck, wenn die Emotion (Geisteshaltung bzw. Gemütszustand) sich ändert. Dementsprechend weist die Änderung der Art des Hauptausdrucks eine starke kausale Beziehung zu der Änderung der Emotion der Person auf, und zumindest der geänderte Hauptausdruck besitzt eine hohe Wahrscheinlichkeit, dass er die Emotion der Objektperson widerspiegelt. Daher kann die Emotion der Objektperson korrekter verstanden werden, indem auf die Änderung der Art des Hauptausdrucks achtgegeben wird.
  • Wenn ein Erscheinen eines Mikroausdrucks erfasst wird, der für einen Moment auf einem Gesicht der Objektperson als der Gesichtszug ausgedrückt wird, der mit der zeitlichen Änderung des Ausdrucks verknüpft ist, schätzt der Emotionsschätzer vorzugsweise, dass die Emotion, die einer Art des als der Mikroausdruck ausgedrückten Hauptausdrucks entspricht, die Emotion der Objektperson in der Schätzzielperiode ist. Der Mikroausdruck bedeutet einen Ausdruck, der auf dem Gesicht wie ein Blitz erscheint und verschwindet. Wenn beispielsweise eine Person versucht, den Ausdruck absichtlich zu verbergen oder einen unwahren Ausdruck zu schaffen, so dass die andere Partei die wirkliche Emotion der Personen nicht wahrnimmt, erscheint die wirkliche Emotion häufig als der Mikroausdruck. Daher kann die Emotion der Objektperson korrekter verstanden werden, indem auf das Erscheinen des Mikroausdrucks achtgegeben wird.
  • Wenn sowohl eine Änderung einer Art eines Hauptausdrucks, der auf einem Gesicht der Objektperson beständig ausgedrückt wird, als auch das Erscheinen eines Mikroausdrucks, der für einen Moment auf einem Gesicht der Objektperson als der Gesichtszug ausgedrückt wird, der mit der zeitlichen Änderung des Ausdrucks verknüpft ist, erfasst werden, schätzt der Emotionsschätzer vorzugsweise, dass die Emotion, zu der die der geänderten Art des Hauptausdrucks entsprechende Emotion und die Emotion, die einer Art des als der Mikroausdruck ausgedrückten Ausdrucks entspricht, zusammengesetzt sind, die Emotion der Objektperson in der Schätzzielperiode ist. Somit kann erwartert werden, dass die komplizierte Emotion oder die wirkliche Emotion der Objektperson verstanden werden kann, indem sowohl auf die Änderung der Art des Hauptausdrucks als auch auf das Erscheinen des Mikroausdrucks achtgegeben wird.
  • Wenn sowohl eine Änderung einer Art eines Hauptausdrucks erfasst wird, der auf einem Gesicht der Objektperson beständig als der Gesichtszug ausgedrückt wird, der mit der zeitlichen Änderung des Ausdrucks verknüpft ist, und wenn das Erscheinen eines Mikroausdrucks erfasst wird, der für einen Moment auf einem Gesicht der Objektperson in einer Übergangsperiode ausgedrückt wird, in der die Art des Hauptausdrucks sich ändert, als der Gesichtszug ausgedrückt wird, der mit der zeitlichen Änderung des Ausdrucks verknüpft ist, schätzt der Emotionsschätzer vorzugsweise, dass die Emotion, zu der die der geänderten Art des Hauptausdrucks entsprechende Emotion und die Emotion, die einer Art des in der Übergangsperiode als der Mikroausdruck ausgedrückten Ausdrucks entspricht, zusammengesetzt sind, die Emotion der Objektperson in der Schätzzielperiode ist. Beispielsweise wird in dem Fall, dass die Objektperson die wirkliche Emotion absichtlich verbirgt, die Änderung des Gesichtsausdrucks, in dem die wirkliche Emotion hinter einem anderen Ausdruck verborgen ist, beobachtet, nachdem die wirkliche Emotion augenblicklich als der Mikroausdruck erscheint. Das bedeutet, es kann gesagt werden, dass der in der Übergangsperiode des Hauptausdrucks erscheinende Mikroausdruck wahrscheinlich die wirkliche Emotion der Objektperson ausdrückt. Daher kann erwartet werden, dass die wirkliche Emotion der Objektperson verstanden wird, indem auf den in der Übergangsperiode des Hauptausdrucks erscheinenden Mikroausdruck achtgegeben bzw. geachtet wird.
  • Vorzugsweise berechnet der Ausdruckserkenner eine Punktezahl, in der jedes Maß von einer Mehrzahl von Arten der Ausdrücke aus dem Bild der Objektperson digitalisiert ist, und gibt die Punktezahl jedes Ausdrucks als das Ausdruckserkennungsergebnis aus, und wenn ein maximaler Zustand der Punktezahl eines Ausdrucks von der Mehrzahl von Arten der Ausdrücke während einer vorbestimmten Zeitspanne oder länger andauert, legt der Emotionsschätzer fest, dass dieser eine Ausdruck der Hauptausdruck ist. Dementsprechend können der Gesichtsausdruck und der Hauptausdruck der Objektperson in einer quantitativen und objektiven Weise geschätzt werden. Eine winzige Änderung des Ausdrucks wie beispielsweise ein Rauschen wird ignoriert, so dass die Zuverlässigkeit der Schätzung verbessert werden kann.
  • Vorzugsweise berechnet der Ausdruckserkenner eine Punktezahl, in der jedes Maß von einer Mehrzahl von Arten der Ausdrücke aus dem Bild der Objektperson digitalisiert ist, und gibt die Punktezahl jedes Ausdrucks als das Ausdruckserkennungsergebnis aus, und wenn die Punktezahl eines bestimmten Ausdrucks einen Schwellenwert für einen Moment übersteigt, legt der Emotionsschätzer fest, dass der Ausdruck der Mikroausdruck ist. Gemäß der Konfiguration können der Gesichtsausdruck und der Mikroausdruck der Objektperson in quantitativer und objektiver Weise geschätzt werden. Wenn beispielsweise die Punktezahl eines bestimmten Ausdrucks ausgehend von einem Zustand, der niedriger als ein Schwellenwert ist, den Schwellenwert übersteigt und für einen Moment wieder zu dem Zustand zurückkehrt, der niedriger als der Schwellenwert ist, kann der Emotionsschätzer festlegen, dass der Ausdruck der Mikroausdruck ist. Beispielsweise kann der Moment eine Zeitdauer von 1 Sekunde oder weniger bedeuten.
  • Die vorliegende Erfindung kann auch als eine Emotionsschätzvorrichtung verstanden werden, die zumindest einen Teil der Konfigurationen oder Funktionen umfasst. Die vorliegende Erfindung kann auch als ein Emotionsschätzverfahren, das zumindest einen Teil der Bestandteile der Verarbeitung umfasst, ein Programm, das einen Computer veranlasst, das Emotionsschätzverfahren auszuführen, oder ein Computer-lesbares Aufzeichnungsmedium verstanden werden, auf dem das Programm nicht-flüchtig gespeichert ist. Die vorliegende Erfindung kann durch eine Kombination der Konfigurationen oder der Bestandteile der Verarbeitung implementiert werden, solange keine technische Inkonsistenz hervorgerufen wird.
  • Bei der vorliegenden Erfindung kann die Emotion einer Person auf der Basis des aus dem Bild erkannten Gesichtsausdrucks exakt geschätzt werden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine Ansicht, die ein Konfigurationsbeispiel einer Emotionsschätzvorrichtung darstellt;
  • 2 ist ein Flussdiagramm, das einen Ablauf einer Emotionsschätzverarbeitung darstellt;
  • 3 ist eine Ansicht, die ein Beispiel von Zeitreihendaten eines in einem Speicher gespeicherten Ausdruckserkennungsergebnisses darstellt;
  • 4A bis 4C sind Ansichten, die Beispiele der Zeitreihendaten und der Erfassung der Änderung des Hauptausdrucks darstellen; und
  • 5 ist eine Ansicht, die ein Beispiel der Zeitreihendaten und der Erfassung des Mikroausdrucks darstellt.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Nachstehend wird eine bevorzugte Ausführungsform der vorliegenden Erfindung unter Bezug auf die Zeichnungen ausführlich beschrieben. Außer wenn es anders angemerkt ist, ist die vorliegende Erfindung jedoch nicht auf Größen, Materialien, Formen und relative Anordnungen von Komponenten beschränkt, die in der folgenden Ausführungsform beschrieben sind.
  • (Aufbau der Vorrichtung)
  • 1 ist eine Ansicht, die ein Konfigurationsbeispiel einer Emotionsschätzvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung darstellt. Eine Emotionsschätzvorrichtung 1 analysiert ein Bild, auf dem eine Objektperson 2 fotografiert ist, und schätzt Emotionen der Objektperson 2. Die Emotionsschätzvorrichtung 1 kann als ein Modul verwendet werden, das die Interaktion Mensch-Maschine unter Verwendung der nonverbalen Kommunikation implementiert. Es kann beispielsweise eine solch fortschrittliche Steuerung ausgeführt werden, dass ein Roboter adaptiv seinen Betrieb ändert, während er die Reaktion eines Benutzers sieht, wenn die Emotionsschätzvorrichtung 1 an einem Hausroboter montiert ist, der Haushaltstätigkeiten und Unterstützungstätigkeiten ausführt. Außerdem kann die Emotionsschätzvorrichtung auf jedem industriellen Gebiet, wie beispielsweise künstliche Intelligenz, Computer, Smartphones, Tablet-Geräte, Spielautomaten, elektrische Heimanwendungen, industrielle Maschinen und Automobile, eingesetzt werden.
  • Die Emotionsschätzvorrichtung 1 in 1 umfasst eine Bildgewinnungseinheit 10, einen Ausdruckserkenner 11, einen Speicher 12, einen Emotionsschätzer 13 und eine Ergebnisausgabeeinheit 14 als eine Hauptkonfiguration. Der Emotionsschätzer 13 umfasst ferner einen Hauptausdrucksänderungsdetektor 130 und einen Mikroausdrucksdetektor 131.
  • Die Bildgewinnungseinheit 10 weist eine Funktion des Gewinnens eines Bildes von einer Abbildungsvorrichtung 3 auf. Beim Ausführen der Emotionsschätzung werden mehrere Bilder (beispielsweise fortlaufende Bilder mit 20 FPS), in denen ein Gesicht der Objektperson 2 vorhanden ist, nacheinander aus der Abbildungsvorrichtung 3 abgerufen. Die Abbildungsvorrichtung 3 ist mit einer Monochrom- oder Farbkamera versehen. In 1 ist die Abbildungsvorrichtung 3 gesondert von der Emotionsschätzvorrichtung 1 vorgesehen. Alternativ kann die Bindungsvorrichtung 3 an der Emotionsschätzvorrichtung 1 befestigt sein. Der Ausdruckserkenner 11 weist eine Funktion des Erkennens eines Gesichtsausdrucks aus dem Bild durch eine Bildabtastverarbeitung auf. Der Speicher 12 weist eine Funktion des Speicherns eines Ausdruckserkennungsergebnisses auf, das aus dem Ausdruckserkenner 11 als Zeitreihendaten ausgegeben wird. Der Emotionsschätzer 13 weist eine Funktion des Erfassens eines mit einer zeitlichen Änderung eines Ausdrucks der Objektperson 2 verknüpften Gesichtszugs aus den in dem Speicher 12 gespeicherten Zeitreihendaten und des Schätzens einer Emotion der Objektperson 2 auf der Basis des erfassten Gesichtszugs auf. Die Ergebnisausgabeeinheit 14 weist eine Funktion des Ausgebens eines Emotionsschätzungsergebnisses des Emotionsschätzers 13 (beispielsweise als Anzeige des Emotionsschätzungsergebnisses auf einer Anzeigevorrichtung und Übertragung von Information über das Emotionsschätzungsergebnis zu einer externen Vorrichtung) auf.
  • Die Emotionsschätzvorrichtung 1 kann mit einem Computer aufgebaut sein, der eine CPU (Prozessor), einen Speicher, eine Zusatzspeichervorrichtung, eine Eingabevorrichtung, eine Anzeigevorrichtung und eine Kommunikationsvorrichtung aufweist. Ein in der Zusatzspeichervorrichtung gespeichertes Programm wird in den Speicher geladen, und die CPU führt das Programm aus, wodurch die einzelnen Funktionen der Emotionsschätzvorrichtung 1 implementiert werden. Es kann jedoch ein Teil oder alle der Funktionen der Emotionsschätzvorrichtung 1 durch eine Schaltung wie beispielsweise ein ASIC oder ein FPGA implementiert werden. Alternativ kann ein Teil der Funktionen (beispielsweise die Funktionen des Ausdruckserkenners 11, des Speichers 12 und des Emotionsschätzers 13) der Emotionsschätzvorrichtung 1 durch eine Berechnung in der Cloud oder durch verteilte Berechnung implementiert werden.
  • (Emotionsschätzverarbeitung)
  • Ein Ablauf der durch die Emotionsschätzvorrichtung 1 ausgeführten Emotionsschätzverarbeitung wird unter Bezug auf die 2 beschrieben. 2 ist ein Flussdiagramm, das den Ablauf der Emotionsschätzverarbeitung darstellt.
  • Eine Periode (als Schätzzielperiode bezeichnet), die zu einem Emotionsschätzziel wird, wird in Schritt S200 eingestellt. Die Emotionsschätzvorrichtung 1 kann die Schätzzielperiode automatisch einstellen, die externe Vorrichtung oder eine externe Software, die das Emotionsschätzergebnis verwendet, kann der Emotionsschätzvorrichtung 1 eine Schätzzielperiode zuordnen, oder ein Benutzer kann die Schätzzielperiode manuell einstellen. Die Schätzzielperiode kann beliebig eingestellt werden, vorzugsweise wird die Schätzzielperiode auf Zeitdauern von einigen Sekunden bis einigen 10 Sekunden eingestellt. Möglicherweise kann eine Emotionsänderung nicht erfasst werden, wenn die Schätzzielperiode übermäßig kurz eingestellt wird, und das Emotionsschätzergebnis wird wegen zu vielen Emotionsänderungen kaum geschmälert, wenn die Schätzzielperiode übermäßig lang eingestellt wird. Beispielsweise kann eine Periode von einigen Sekunden bis einigen 10 Sekunden einschließlich einer Ereigniserzeugungstaktzeit eingestellt werden, um die Reaktion einer Person auf ein bestimmtes Ereignis (wie beispielsweise den Betrieb einer Maschine, eine Konversationsausgabe und die Bereitstellung eines Dienstes) zu erfahren.
  • Die nachfolgenden Teile der Verarbeitung in den Schritten S201 bis S205 werden von einem Start bis zu einem Ende der Schätzzielperiode (Schleife L1) wiederholt ausgeführt, beispielsweise alle 50 ms (entspricht 20 FPS).
  • In Schritt S201 gewinnt die Bildgewinnungseinheit 10 von der Abbildungsvorrichtung 3 das Bild, in dem die Objektperson 2 fotografiert ist. Es ist erwünscht, das Bild, in dem das Gesicht der Objektperson 2 fotografiert ist, so weit wie möglich in Vorderansicht zu gewinnen, um die Emotion auf der Basis des Gesichtsausdrucks zu schätzen. Dann erfasst der Ausdruckserkenner 11 das Gesicht aus dem Bild (Schritt S202) und erfasst ein Gesichtsorgan (wie beispielsweise Augen, Augenbrauen, eine Nase und einen Mund) (Schritt S203). Da ein beliebiger Algorithmus mit einer wohlbekannten Technik bei der Gesichtserfassung und der Gesichtsorganerfassung verwendet werden kann, wird auf dessen ausführliche Beschreibung verzichtet.
  • Der Ausdruckserkenner 11 erkennt den Gesichtsausdruck der Objektperson 2 unter Verwendung von Erfassungsergebnissen in den Schritten S202 und S203 (Schritt S204). Eine Art des Gesichtsausdrucks wird durch ein Wort ausgedrückt, das die Emotion bezeichnet. Die Erkennung des Ausdrucks bedeutet, dass die Art des Gesichtsausdrucks identifiziert ist, nämlich dass die Art des Gesichtsausdrucks, der von einem Erfassungsziel ist, durch das die Emotion bezeichnende Wort spezifiziert ist. An diesem Punkt kann der Gesichtsausdruck durch das eine einzelne Emotion bezeichnende Wort oder eine Kombination von Emotionen bezeichnenden Wörtern spezifiziert sein. Für die Kombination der die Emotionen bezeichnenden Wörter kann jedes die einzelnen Emotionen bezeichnende Wort gewichtet werden. In der Ausführungsform kann auf der Basis einer Ausdrucksanalyse von Paul Ekman der Gesichtsausdruck in sieben Arten klassifiziert werden, wozu ”ausdrucksloses Gesicht”, ”Glücksgefühl”, ”Ärger”, ”Ekel”, ”Überraschung”, ”Angst” und ”Trauer” gehören. Eine Punktezahl wird als das Ausdruckserkennungsergebnis derart ausgegeben, dass die Grade (Ausdrucksähnlichkeit, auch als Ausdrucksgrad bezeichnet) der sieben Arten von Ausdrücken zusammengenommen 100 ergeben. Die Punktezahl der einzelnen Ausdrücke wird auch als ein Ausdruckskomponentenwert bezeichnet.
  • Ein beliebiger Algorithmus mit einer wohlbekannten Technik kann bei der Ausdruckserkennung in Schritt S204 verwendet werden. Ein Beispiel der Verarbeitung der Ausdruckserkennung wird nachstehend beschrieben. Der Ausdruckserkenner 11 extrahiert auf der Basis von Positionsinformation über das Gesichtsorgan ein Gesichtszugmaß, das mit der relativen Position oder Form des Gesichtsorgans verknüpft ist. Beispielsweise können ein Haar-artiges Gesichtszugmaß, ein Abstand zwischen Gesichtszugpunkten und der in JP 2007-65969 A offenbarte Fourier-Deskriptor als das Gesichtszugmaß verwendet werden. Das durch den Ausdruckserkenner 11 extrahierte Gesichtszugmaß wird für jede der sieben Arten der Gesichtsausdrücke in einen Klassierer eingegeben, um die Grade der Ausdrücke zu berechnen. Jeder Klassierer kann durch Lernen generiert werden, wobei ein Musterbild verwendet wird. Schließlich führt der Ausdruckserkenner 11 eine Normierung derart durch, dass Ausgangswerte der sieben Klassierer zusammengenommen 100 ergeben, und gibt die Punktezahl (Ausdruckskomponentenwert) der sieben Arten von Ausdrücken aus.
  • Der Ausdruckserkenner 11 speichert das Ausdruckserkennungsergebnis zusammen mit einer Zeitstempelinformation (Schritt S205) in einer Datenbank des Speichers 12. 3 stellt ein Beispiel der Zeitreihendaten des in dem Speicher 12 gespeicherten Ausdruckserkennungsergebnisses dar und stellt das Ausdruckserkennungsergebnis der einzelnen 50-Millisekunden-Zeilen dar.
  • Wenn die Zeitreihendaten des Ausdruckserkennungsergebnisses durch die obige Verarbeitung in der Schätzzielperiode gewonnen sind, führt der Emotionsschätzer 13 die Verarbeitung der Emotionsschätzung durch. Wie in 2 dargestellt, ist die Verarbeitung der Emotionsschätzung gemäß der Ausführungsform mit drei Schritten ausgebildet, nämlich einer Hauptausdrucksänderungsdetektion (Schritt S206), einer Mikroausdrucksdetektion (Schritt S207) und einer Emotionsschätzung (Schritt S208). Jeder Schritt wird nachstehend ausführlich beschrieben.
  • (1) Hauptausdrucksänderungsdetektion (Schritt S206)
  • Die Hauptausdrucksänderungsdetektion ist eine Verarbeitung des Erfassens der Änderung der Art des Ausdrucks (als Hauptausdruck bezeichnet), der auf dem Gesicht der Objektperson 2 beständig auftritt, als der Gesichtszug, der mit der zeitlichen Änderung des Gesichtsausdrucks verknüpft ist. Die Bezeichnung ”beständig” bedeutet, dass wenn im Allgemeinen eine Person den Ausdruck beobachtet, die Person empfindet, dass der Ausdruck über eine beständige Zeit andauert. Beispielsweise ist die beständige Zeitdauer, welche die Person empfindet, 3 Sekunden oder mehr. Die Bezeichnung ”auftritt” bedeutet, dass im Allgemeinen eine Person eine Beobachtung machen kann, um den Ausdruck zu erkennen. Ein beliebiger Ausdrucksklassifizierungsalgorithmus kann eingesetzt werden, sofern der Algorithmus ein Ergebnis ausgibt, welches einem Beobachtungsergebnis einer Person angenähert ist. Wenn die Person die Emotion (Geisteshaltung) ändert, zeigt die Person häufig bewusst oder unbewusst den Ausdruck. Demzufolge weist die Änderung der Art des Hauptausdrucks eine starke kausale Beziehung zu der Änderung der Emotion auf, und es wird davon ausgegangen, dass zumindest der geänderte Hauptausdruck eine hohe Wahrscheinlichkeit dafür aufweist, dass er die Emotion der Objektperson 2 widerspiegelt. Daher kann die Emotion der Objektperson 2 korrekter verstanden werden, indem auf die Änderung der Art des Hauptausdrucks achtgegeben wird.
  • In der Ausführungsform ist, um den Hauptausdruck quantitativ und objektiv zu evaluieren, der ”Hauptausdruck” definiert als ”der Ausdruck weist die größte Punktezahl der sieben Arten von Ausdrücken auf und sein Zustand dauert für eine vorbestimmte Zeit oder länger an”. Die ”vorbestimmte Zeit” kann beliebig eingestellt werden, und gewünschtenfalls wird die ”vorbestimmte Zeit” auf einige Sekunden bis einige 10 Sekunden unter Berücksichtigung einer allgemeinen Zeit, während der der identische Ausdruck beständig ist, eingestellt (in der Ausführungsform wird die ”vorbestimmte Zeit” auf 3 Sekunden eingestellt). Der Hauptausdruck ist nicht auf die obige Definition beschränkt. Beispielsweise kann die Zuverlässigkeit der Ermittlung des Hauptausdrucks durch Hinzufügen einer Bedingung verbessert werden, dass ”die Punktezahl des Hauptausdrucks größer als ein vorbestimmter Wert ist”, oder einer Bedingung, dass ”ein Unterschied der Punktezahl zwischen dem Hauptausdruck und einem anderen Ausdruck größer oder gleich einem vorbestimmten Wert ist”.
  • Der Hauptausdrucksänderungsdetektor 130 liest die Zeitreihendaten von dem Speicher 12, um zu überprüfen, ob der Hauptausdruck mit der Punktanzahl, die mit der obigen Definition übereinstimmt, existiert. Der Hauptausdrucksänderungsdetektor 130 gibt Information, die anzeigt, ob der Hauptausdruck erfasst wird, und Information, die anzeigt, ob die Art des Hauptausdrucks sich in der Schätzzielperiode (wenn der Hauptausdruck erfasst werden kann) ändert, als das Erfassungsergebnis aus.
  • Die 4A bis 4C sind Ansichten, die die Zeitreihendaten und das Erfassungsergebnis darstellen. In den 4A bis 4C gibt die horizontale Achse die Zeit an, die vertikale Achse gibt die Punktezahl an, und jeder Graph gibt die zeitliche Änderung der Punktezahl des Ausdrucks an (da die Ausdrücke mit Ausnahme für das ausdruckslose Gesicht, Glücksgefühl und Ärger die gleiche Punktezahl von nahezu null aufweisen, sind diese Ausdrücke nicht dargestellt). In dem Beispiel von 4A gibt es keinen Ausdruck mit extrem großer Punktezahl, und es existiert kein Hauptausdruck, da die Größenkorrelation unter den Punktezahlen der Ausdrücke sich häufig ändert. Dementsprechend gibt der Hauptausdrucksänderungsdetektor 130 das Erfassungsergebnis von ”Hauptausdruck: existiert nicht” aus. In dem Beispiel von 4B behält das ”ausdruckslose Gesicht” während der gesamten Schätzzielperiode die maximale Punktezahl bei. Dementsprechend gibt der Hauptausdrucksänderungsdetektor 130 das Erfassungsergebnis von ”Hauptausdruck: bleibt ”ausdruckslose Gesicht” aus. In dem Beispiel von 4C weist das ”ausdruckslose Gesicht” während etwa 5 Sekunden die maximale Punktezahl in einer ersten Hälfte der Schätzzielperiode auf, und das ”Glücksgefühl” weist während der zwei 5 Sekunden in einer zweiten Hälfte der Schätzzielperiode die maximale Punktezahl auf. Dementsprechend gibt der Hauptausdrucksänderungsdetektor 130 das Erfassungsergebnis von ”Hauptausdruck: Änderung von ”ausdrucksloses Gesicht” zu ”Glücksgefühl”” aus.
  • In dem Fall, dass der Ausdruck nicht fixiert ist, wie in 4A dargestellt, oder in dem Fall, dass sich der Ausdruck nicht ändert, wie in 4B dargestellt, wird die Emotion der Objektperson 2 kaum aus dem Ausdruck geschätzt. Andererseits besteht in dem Fall, dass die Änderung des Ausdrucks in der Mitte der Schätzzielperiode klar erkannt wird, wie in 4C dargestellt, eine hohe Wahrscheinlichkeit, dass eine Reaktion (Emotion) der Objektperson 2 auf irgendeine Art von Ereignis, das unmittelbar vor oder in der ersten Hälfte der Schätzzielperiode stattfindet, als der Hauptausdruck in der zweiten Hälfte der Schätzzielperiode ausgedrückt wird. Daher wird bei der Ausführungsform das Erfassungsergebnis von ”die Änderung der Art des Hauptausdrucks” bei der Emotionsschätzung verwendet.
  • (2) Mikroausdrucksdetektion (Schritt S207)
  • Die Mikroausdrucksdetektion bedeutet eine Verarbeitung des Erfassens des Erscheinens des Ausdrucks (als Mikroausdruck bezeichnet), der auf dem Gesicht der Objektperson 2 für einen Moment auftritt, als der Gesichtszug, der mit der zeitlichen Änderung des Gesichtsausdrucks verknüpft ist. Die Bezeichnung ”für einen Moment” bedeutet im Allgemeinen, dass eine Person den Ausdruck innerhalb einer Zeitspanne beobachtet, den die Person als einen Moment empfindet. Beispielsweise ist die Zeitspanne, die die Person als einen Moment empfindet, 1 Sekunde oder weniger. Die Bezeichnung ”auftritt” hat die identische Bedeutung wie bei dem Hauptausdruck. Wenn beispielsweise eine Person versucht, den Ausdruck absichtlich zu verbergen oder einen unrichtigen Ausdruck so zu erzeugen, dass die andere Partei die wirkliche Emotion der Person nicht wahrnimmt, erscheint die wirkliche Emotion häufig als der Mikroausdruck. Daher kann die Emotion der Objektperson 2 korrekter verstanden werden, indem auf das Erscheinen des Mikroausdrucks achtgegeben wird.
  • In der Ausführungsform ist, um den Mikroausdruck quantitativ und objektiv zu evaluieren, der ”Mikroausdruck” definiert als ”die Punktezahl übersteigt einen Schwellenwert für einen Moment ”. Beispielsweise kann ein Kriterium für den Moment auf 1 Sekunde oder weniger eingestellt werden. Der ”Schwellenwert” kann beliebig eingestellt werden. Beispielsweise kann der Schwellenwert auf etwa 30 bis etwa 70 eingestellt werden. Es wird berichtet, dass im Allgemeinen viele Mikroausdrücke innerhalb von 200 ms verschwinden. Daher ist in der Ausführungsform das Kriterium für den Moment auf 200 ms eingestellt. Der Schwellenwert der Punktezahl ist auf 50 eingestellt. Dementsprechend ermittelt der Mikroausdrucksdetektor 131 der Ausführungsform, dass der Ausdruck in dem Fall, dass ”die Punktezahl eines bestimmten Ausdrucks 50 übersteigt, ausgehend von dem Zustand niedriger als 50, und kehrt innerhalb 200 ms in den Zustand niedriger als 50 zurück”, der ”Mikroausdruck” ist.
  • Der Mikroausdrucksdetektor 131 liest die Zeitreihendaten von dem Speicher 12, um zu überprüfen, ob der Mikroausdruck mit der Punktanzahl, die mit der obigen Definition übereinstimmt, existiert. In der Ausführungsform kann, da das Ausdruckserkennungsergebnis alle 50 ms gewonnen wird, die Bestimmung des Mikroausdrucks ausgeführt werden, wenn die 50 übersteigende Punktezahl zumindest einmal oder dreimal oder weniger andauert. 5 stellt ein Beispiel dar, bei dem der Mikroausdruck von ”Ärger” zu einem Zeitpunkt von etwa 5 Sekunden in der Schätzzielperiode erfasst wird.
  • In dem Fall, dass eine Person versucht, den wirklichen Ausdruck absichtlich zu verbergen, wird häufig eine Änderung des Gesichtsausdrucks beobachtet, dass die wirkliche Emotion hinter einer anderen Emotion verborgen wird, nachdem sie für einen Moment als der Mikroausdruck aufgetreten ist. Beispielsweise ist in dem Fall, dass der Mikroausdruck ”Ärger” in einer Übergangsperiode erscheint, in der sich der Hauptausdruck von ”ausdrucksloses Gesicht” zu ”Glücksgefühl” ändert, wie in 5 dargestellt, zu beachten, dass, obwohl die Objektperson 2 eine leicht negative Emotion im Herzen trägt, die Objektperson 2 lächelt (erfreut ist), so dass die leicht negative Emotion nicht auf dem Gesicht als der Ausdruck erscheint. Somit ist der in der Übergangsperiode des Hauptausdrucks erscheinende Mikroausdruck die Information, die für das Verstehen der wirklichen Emotion der Objektperson 2 erforderlich ist. Dementsprechend ist für die Mikroausdrucksdetektion nicht die gesamte Schätzzielperiode auf einen Erfassungsbereich eingestellt, sondern es braucht nur die Übergangsperiode des Hauptausdrucks auf den Erfassungsbereich eingestellt zu werden. Wenn der Erfassungsbereich auf die Übergangsperiode des Hauptausdrucks beschränkt ist, kann die für das Verarbeiten der Erfassung des Mikroausdrucks erforderliche Zeit verkürzt werden, und der stark mit der Emotion der Objektperson 2 verknüpfte Mikroausdruck kann extrahiert werden.
  • (3) Emotionsschätzung (Schritt S208)
  • Der Emotionsschätzer 13 schätzt die Emotion der Objektperson 2 (Schritt S208) auf der Basis der Erfassungsergebnisse der Hauptausdrucksänderungsdetektion (Schritt S206) und der Mikroausdrucksdetektion (Schritt S207). Genauer gesagt wird die Emotionsschätzung der Objektperson 2 durch die folgende Regel ausgeführt.
    • • In dem Fall, dass die Änderung der Art des Hauptausdrucks erfasst wird, während der Mikroausdruck nicht erfasst wird: Der Emotionsschätzer 13 schätzt, dass die der Art des geänderten Hauptausdrucks entsprechende Emotion die Emotion der Objektperson 2 in der Schätzzielperiode ist. Im Beispiel von 4C besitzt die Objektperson 2 die Emotion ”Glücksgefühl”. An diesem Punkt wird die Punktezahl des Ausdrucks als Information hinzugefügt, die das Maß (Stärke) der Emotion angibt, und die Emotion kann ausgedrückt werden wie ”80% Glücksgefühl”.
    • • In dem Fall, dass der Mikroausdruck erfasst wird, während die Änderung der Art des Hauptausdrucks nicht erfasst wird: Der Emotionsschätzer 13 schätzt, dass die der Art des erfassten Mikroausdrucks entsprechende Emotion die Emotion der Objektperson 2 in der Schätzzielperiode ist. In ähnlicher Weise kann die Punktezahl des Ausdrucks als die Information hinzugefügt werden, die das Maß der Emotion angibt.
    • • In dem Fall, dass sowohl die Änderung der Art des Hauptausdrucks als auch der Mikroausdruck erfasst werden: Der Emotionsschätzer 13 schätzt, dass die Emotion, zu der die der Art des geänderten Hauptausdrucks entsprechende Emotion und die dem Mikroausdruck entsprechende Emotion zusammengesetzt sind, die Emotion der Objektperson 2 in der Schätzzielperiode ist. In dem Beispiel von 5 ist der geänderte Hauptausdruck das ”Glücksgefühl”, und der Mikroausdruck ist der ”Ärger”. Daher wird beispielsweise geschätzt, dass die Emotion der Objektperson 2 ”Glücksgefühl, aber leichte Unzufriedenheit” ist. Alternativ kann ein Mikroausdruck-Punkt des ”Ärgers” von der Punktezahl des ”Glücksgefühls” abgezogen werden, um das Schätzergebnis von ”60% Glücksgefühl” auszugeben.
    • • In dem Fall, dass weder die Änderung der Art des Hauptausdrucks noch der Mikroausdruck erfasst werden: Der Emotionsschätzer 13 gibt einen Fehler aus, da die Emotionsschätzung nicht auf der Basis des Gesichtsausdrucks ausgeführt werden kann.
  • Wenn das Emotionsschätzergebnis gewonnen ist, gibt die Ergebnisausgabeeinheit 14 das Emotionsschätzergebnis aus (Schritt S209). Wenn ein Roboter oder ein Computer auf der Basis des Emotionsschätzergebnisses gesteuert wird, kann erwartet werden, dass eine fortschrittliche Kommunikation zwischen der Person und der Maschine so implementiert werden kann, dass ”eine identische Aktion weitergeht, da die andere Partei glücklich aussieht”, oder so, dass ”ein anderes Wunschbild vorgeschlagen wird, da sich die andere Partei unzufrieden fühlt”.
  • Die Konfiguration der Ausführungsform weist die folgenden Vorteile auf. Da die Emotionsschätzvorrichtung 1 auf den Gesichtszug achtgibt, der mit der zeitlichen Änderung des Gesichtsausdrucks in der Schätzzielperiode verknüpft ist, kann die Änderung, Reaktion und Sichtbarmachung der Emotion in der Schätzzielperiode aufgezeichnet werden, und das Schätzergebnis kann im Vergleich zu dem Fall, in dem die Schätzung nur durch den Gesichtsausdruck in einem Bild ausgeführt wird, mit einer höheren Genauigkeit und Zuverlässigkeit gewonnen werden. Insbesondere die Emotion der Objektperson kann korrekter verstanden werden, indem auf die Gesichtszüge achtgegeben wird, die sich auf die Änderung der Art des Hauptausdrucks und das Erscheinen des Mikroausdrucks beziehen. Zusätzlich wird in dem Fall, dass sowohl die Änderung der Art des Hauptausdrucks als auch der Mikroausdruck erfasst werden, die Schätzung ausgeführt, während die Änderung der Art des Hauptausdrucks und der Mikroausdruck zusammengesetzt werden, so dass erwartet werden kann, dass die komplizierte Emotion oder die wirkliche Emotion der Objektperson verstanden wird.
  • Die Konfiguration der Ausführungsform stellt nur ein spezifisches Beispiel der vorliegenden Erfindung dar, beschränkt jedoch nicht den Schutzbereich der vorliegenden Erfindung. Verschiedene spezifische Konfigurationen können vorgenommen werden, ohne den Schutzbereich der vorliegenden Erfindung zu verlassen. Beispielsweise werden in der Ausführungsform sowohl die Erfassung der Änderung des Hauptausdrucks (Schritt S206) als auch die Erfassung des Mikroausdrucks (Schritt S207) ausgeführt. Alternativ kann lediglich entweder die Erfassung der Änderung des Hauptausdrucks oder die Erfassung des Mikroausdrucks ausgeführt werden. In der Ausführungsform wird die Klassierung des Ausdrucks in sieben Arten verwendet. Alternativ kann eine andere Klassierung des Ausdrucks verwendet werden.
  • Bezugszeichenliste
  • 1
    Emotionsschätzvorrichtung
    2
    Objektperson
    3
    Abbildungsvorrichtung
    10
    Bildgewinnungseinheit
    11
    Ausdruckserkenner
    12
    Speicher
    13
    Emotionsschätzer
    130
    Hauptausdrucksänderungsdetektor
    131
    Mikroausdrucksdetektor

Claims (11)

  1. Emotionsschätzvorrichtung zum Schätzen einer Emotion einer Objektperson, wobei die Emotionsschätzvorrichtung umfasst: eine Bildgewinnungseinheit zum Gewinnen einer Mehrzahl von Bildern, in denen die Objektperson in einer Zeitreihe fotografiert ist; einen Ausdruckserkenner zum Erkennen eines Ausdrucks der Objektperson aus jedem der Mehrzahl von durch die Bildgewinnungseinheit gewonnenen Bildern; einen Speicher, in dem Ausdruckserkennungsergebnisse der Mehrzahl von Bildern als Zeitreihendaten gespeichert sind; und einen Emotionsschätzer zum Erfassen eines Gesichtszugs, der mit einer zeitlichen Änderung des Ausdrucks der Objektperson verknüpft ist, aus den in einer Schätzzielperiode in dem Speicher gespeicherten Zeitreihendaten, und zum Schätzen der Emotion der Objektperson in der Schätzzielperiode auf der Basis des erfassten Gesichtszugs.
  2. Emotionsschätzvorrichtung nach Anspruch 1, wobei, wenn eine Änderung einer Art eines Hauptausdrucks erfasst wird, der beständig auf einem Gesicht der Objektperson als der Gesichtszug ausgedrückt wird, der mit der zeitlichen Änderung des Ausdrucks verknüpft ist, der Emotionsschätzer schätzt, dass die der geänderten Art des Hauptausdrucks entsprechende Emotion die Emotion der Objektperson in der Schätzzielperiode ist.
  3. Emotionsschätzvorrichtung nach Anspruch 1, wobei, wenn ein Erscheinen eines Mikroausdrucks erfasst wird, der für einen Moment auf einem Gesicht der Objektperson als der Gesichtszug ausgedrückt wird, der mit der zeitlichen Änderung des Ausdrucks verknüpft ist, der Emotionsschätzer schätzt, dass die Emotion, die einer Art des als der Mikroausdruck ausgedrückten Hauptausdrucks entspricht, die Emotion der Objektperson in der Schätzzielperiode ist.
  4. Emotionsschätzvorrichtung nach Anspruch 1, wobei, wenn sowohl eine Änderung einer Art eines Hauptausdrucks, der auf einem Gesicht der Objektperson beständig ausgedrückt wird, als auch das Erscheinen eines Mikroausdrucks, der für einen Moment auf einem Gesicht der Objektperson als der Gesichtszug ausgedrückt wird, der mit der zeitlichen Änderung des Ausdrucks verknüpft ist, erfasst werden, der Emotionsschätzer schätzt, dass die Emotion, zu der die der geänderten Art des Hauptausdrucks entsprechende Emotion und die Emotion, die einer Art des als der Mikroausdruck ausgedrückten Ausdrucks entspricht, zusammengesetzt sind, die Emotion der Objektperson in der Schätzzielperiode ist.
  5. Emotionsschätzvorrichtung nach Anspruch 1, wobei, wenn sowohl eine Änderung einer Art eines Hauptausdrucks erfasst wird, der auf einem Gesicht der Objektperson beständig als der Gesichtszug ausgedrückt wird, der mit der zeitlichen Änderung des Ausdrucks verknüpft ist, und wenn das Erscheinen eines Mikroausdrucks erfasst wird, der für einen Moment auf einem Gesicht der Objektperson in einer Übergangsperiode ausgedrückt wird, in der die Art des Hauptausdrucks sich ändert, als der Gesichtszug ausgedrückt wird, der mit der zeitlichen Änderung des Ausdrucks verknüpft ist, der Emotionsschätzer schätzt, dass die Emotion, zu der die der geänderten Art des Hauptausdrucks entsprechende Emotion und die Emotion, die einer Art des in der Übergangsperiode als der Mikroausdruck ausgedrückten Ausdrucks entspricht, zusammengesetzt sind, die Emotion der Objektperson in der Schätzzielperiode ist.
  6. Emotionsschätzvorrichtung nach einem der Ansprüche 2, 4 oder 5, wobei der Ausdruckserkenner eine Punktezahl berechnet, in der jedes Maß von einer Mehrzahl von Arten der Ausdrücke aus dem Bild der Objektperson digitalisiert ist, und die Punktezahl jedes Ausdrucks als das Ausdruckserkennungsergebnis ausgibt, und wenn ein maximaler Zustand der Punktezahl eines Ausdrucks von der Mehrzahl von Arten der Ausdrücke während einer vorbestimmten Zeitspanne oder länger andauert, der Emotionsschätzer festlegt, dass dieser eine Ausdruck der Hauptausdruck ist.
  7. Emotionsschätzvorrichtung nach einem der Ansprüche 3 bis 5, wobei der Ausdruckserkenner eine Punktezahl berechnet, in der jedes Maß von einer Mehrzahl von Arten der Ausdrücke aus dem Bild der Objektperson digitalisiert ist, und die Punktezahl jedes Ausdrucks als das Ausdruckserkennungsergebnis ausgibt, und wenn die Punktezahl eines bestimmten Ausdrucks einen Schwellenwert für einen Moment übersteigt, der Emotionsschätzer festlegt, dass der Ausdruck der Mikroausdruck ist.
  8. Emotionsschätzvorrichtung nach Anspruch 7, wobei, wenn die Punktezahl eines bestimmten Ausdrucks ausgehend von einem Zustand, der niedriger als ein Schwellenwert ist, den Schwellenwert übersteigt und für einen Moment wieder zu dem Zustand zurückkehrt, der niedriger als der Schwellenwert ist, der Emotionsschätzer festlegt, dass der Ausdruck der Mikroausdruck ist.
  9. Emotionsschätzvorrichtung nach einem der Ansprüche 3, 4, 5, 7 oder 8, wobei der Moment eine Zeitdauer von 1 Sekunde oder weniger bedeutet.
  10. Emotionsschätzverfahren zum Schätzen einer Emotion einer Objektperson unter Verwendung eines Computers, wobei das Emotionsschätzverfahren folgende Schritte umfasst: Gewinnen einer Mehrzahl von Bildern, in denen die Objektperson in einer Zeitreihe fotografiert ist; Erkennen eines Ausdrucks der Objektperson aus jedem der Mehrzahl von durch die Bildgewinnungseinheit gewonnenen Bildern; Speichern von Ausdruckserkennungsergebnissen der Mehrzahl von Bildern in einem Speicher als Zeitreihendaten; und Erfassen eines Gesichtszugs, der mit einer zeitlichen Änderung des Ausdrucks der Objektperson verknüpft ist, aus den in einer Schätzzielperiode in dem Speicher gespeicherten Zeitreihendaten, und Schätzen der Emotion der Objektperson in der Schätzzielperiode auf der Basis des erfassten Gesichtszugs.
  11. Programm, das einen Computer veranlasst, die Schritte des Emotionsschätzverfahrens gemäß Anspruch 10 auszuführen.
DE112015006160.6T 2015-02-13 2015-12-25 Emotionsschätzvorrichtung und Emotionsschätzverfahren Pending DE112015006160T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015026336A JP6467965B2 (ja) 2015-02-13 2015-02-13 感情推定装置及び感情推定方法
JP2015-026336 2015-02-13
PCT/JP2015/086237 WO2016129192A1 (ja) 2015-02-13 2015-12-25 感情推定装置及び感情推定方法

Publications (1)

Publication Number Publication Date
DE112015006160T5 true DE112015006160T5 (de) 2017-10-19

Family

ID=56615515

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112015006160.6T Pending DE112015006160T5 (de) 2015-02-13 2015-12-25 Emotionsschätzvorrichtung und Emotionsschätzverfahren

Country Status (4)

Country Link
US (1) US20170311863A1 (de)
JP (1) JP6467965B2 (de)
DE (1) DE112015006160T5 (de)
WO (1) WO2016129192A1 (de)

Families Citing this family (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10255487B2 (en) * 2015-12-24 2019-04-09 Casio Computer Co., Ltd. Emotion estimation apparatus using facial images of target individual, emotion estimation method, and non-transitory computer readable medium
JP6657048B2 (ja) 2016-09-30 2020-03-04 本田技研工業株式会社 処理結果異常検出装置、処理結果異常検出プログラム、処理結果異常検出方法及び移動体
US10445565B2 (en) * 2016-12-06 2019-10-15 General Electric Company Crowd analytics via one shot learning
KR102640420B1 (ko) * 2016-12-22 2024-02-26 삼성전자주식회사 홈 로봇 장치의 동작 운용 방법 및 이를 지원하는 홈 로봇 장치
JP6825357B2 (ja) * 2016-12-26 2021-02-03 大日本印刷株式会社 マーケティング装置
JP6814068B2 (ja) * 2017-02-20 2021-01-13 株式会社東海理化電機製作所 生体状態推定装置
US11151992B2 (en) 2017-04-06 2021-10-19 AIBrain Corporation Context aware interactive robot
US10839017B2 (en) 2017-04-06 2020-11-17 AIBrain Corporation Adaptive, interactive, and cognitive reasoner of an autonomous robotic system utilizing an advanced memory graph structure
US10963493B1 (en) * 2017-04-06 2021-03-30 AIBrain Corporation Interactive game with robot system
US10929759B2 (en) 2017-04-06 2021-02-23 AIBrain Corporation Intelligent robot software platform
US10810371B2 (en) 2017-04-06 2020-10-20 AIBrain Corporation Adaptive, interactive, and cognitive reasoner of an autonomous robotic system
US20210201269A1 (en) * 2017-11-03 2021-07-01 Sensormatic Electronics, LLC Methods and System for Employee Monitoring and Business Rule and Quorum Compliance Monitoring
EP3678092A4 (de) * 2017-11-09 2020-10-14 SONY Corporation Informationsverarbeitungsvorrichtung, programm und informationsverarbeitungsverfahren
CN107807537A (zh) * 2017-11-16 2018-03-16 四川长虹电器股份有限公司 基于人脸表情识别的智慧家电控制系统及方法
KR102476619B1 (ko) 2018-01-31 2022-12-12 삼성전자주식회사 전자 장치 및 이의 제어 방법
KR102481445B1 (ko) * 2018-03-13 2022-12-27 삼성전자주식회사 디스플레이장치 및 그 제어방법
WO2019193781A1 (ja) * 2018-04-04 2019-10-10 パナソニックIpマネジメント株式会社 感情推定装置、感情推定方法及びプログラム
JP6993291B2 (ja) * 2018-05-17 2022-01-13 株式会社日立製作所 計算機及び感情推定方法
CN110795178B (zh) * 2018-07-31 2023-08-22 阿里巴巴(中国)有限公司 应用签到方法、装置及电子设备
US10969763B2 (en) * 2018-08-07 2021-04-06 Embodied, Inc. Systems and methods to adapt and optimize human-machine interaction using multimodal user-feedback
US11087520B2 (en) * 2018-09-19 2021-08-10 XRSpace CO., LTD. Avatar facial expression generating system and method of avatar facial expression generation for facial model
KR102486161B1 (ko) * 2018-10-01 2023-01-10 현대자동차주식회사 차량, 차량의 제어 방법 및 영상 탐색 장치
CN109472206B (zh) * 2018-10-11 2023-07-07 平安科技(深圳)有限公司 基于微表情的风险评估方法、装置、设备及介质
CN109717792B (zh) * 2018-11-06 2020-12-22 安徽国星生物化学有限公司 电动机噪声消除平台
AU2019376682A1 (en) * 2018-11-09 2021-05-27 Akili Interactive Labs, Inc, Facial expression detection for screening and treatment of affective disorders
US11557297B2 (en) 2018-11-09 2023-01-17 Embodied, Inc. Systems and methods for adaptive human-machine interaction and automatic behavioral assessment
CN109522059B (zh) * 2018-11-28 2023-01-06 广东小天才科技有限公司 一种程序唤醒方法及系统
CN109766461A (zh) * 2018-12-15 2019-05-17 深圳壹账通智能科技有限公司 基于微表情的照片管理方法、装置、计算机设备及介质
CN109766917A (zh) * 2018-12-18 2019-05-17 深圳壹账通智能科技有限公司 面试视频数据处理方法、装置、计算机设备和存储介质
CN109829362A (zh) * 2018-12-18 2019-05-31 深圳壹账通智能科技有限公司 安检辅助分析方法、装置、计算机设备和存储介质
CN109697421A (zh) * 2018-12-18 2019-04-30 深圳壹账通智能科技有限公司 基于微表情的评价方法、装置、计算机设备和存储介质
CN109886697B (zh) * 2018-12-26 2023-09-08 巽腾(广东)科技有限公司 基于表情组别的操作确定方法、装置及电子设备
CN109858405A (zh) * 2019-01-17 2019-06-07 深圳壹账通智能科技有限公司 基于微表情的满意度评价方法、装置、设备及存储介质
KR102185571B1 (ko) * 2019-01-22 2020-12-02 경일대학교산학협력단 구매 의도를 식별하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
KR102187396B1 (ko) * 2019-02-28 2020-12-04 한양대학교 산학협력단 얼굴 표정 인식을 위한 학습 방법 및 장치, 근전도 데이터를 이용하는 얼굴 표정 인식 방법
JP7327776B2 (ja) * 2019-03-13 2023-08-16 Necソリューションイノベータ株式会社 表情推定装置、感情判定装置、表情推定方法及びプログラム
JP7211210B2 (ja) * 2019-03-29 2023-01-24 コニカミノルタ株式会社 画像形成装置
US10423773B1 (en) * 2019-04-12 2019-09-24 Coupang, Corp. Computerized systems and methods for determining authenticity using micro expressions
US11102353B2 (en) * 2019-05-07 2021-08-24 Avaya Inc. Video call routing and management based on artificial intelligence determined facial emotion
JP7162737B2 (ja) * 2019-05-20 2022-10-28 グリー株式会社 コンピュータプログラム、サーバ装置、端末装置、システム及び方法
JP7251392B2 (ja) * 2019-08-01 2023-04-04 株式会社デンソー 感情推定装置
KR102343359B1 (ko) * 2019-09-17 2021-12-27 인하대학교 산학협력단 친구 감정 표정을 이용한 게임의 에너지 충전 장치 및 방법
KR102343354B1 (ko) * 2019-09-17 2021-12-27 인하대학교 산학협력단 게임의 에너지 충전 장치 및 방법
KR102365620B1 (ko) * 2019-09-18 2022-02-21 인하대학교 산학협력단 감정 표정을 이용한 게임의 스토리 제어 장치 및 방법
EP3809236A1 (de) * 2019-10-17 2021-04-21 XRSpace CO., LTD. System zur avatargesichtsausdruckerzeugung und verfahren zur avatargesichtsausdruckerzeugung
CN110781810B (zh) * 2019-10-24 2024-02-27 合肥盛东信息科技有限公司 一种人脸情绪识别方法
JP7388258B2 (ja) 2020-03-13 2023-11-29 オムロン株式会社 アクセシビリティ判定装置、アクセシビリティ判定方法、及びプログラム
US11482049B1 (en) 2020-04-14 2022-10-25 Bank Of America Corporation Media verification system
CN111557671A (zh) * 2020-05-06 2020-08-21 上海电机学院 一种基于面部表情识别的青少年焦虑和抑郁诊断算法
JP7359084B2 (ja) 2020-06-23 2023-10-11 トヨタ自動車株式会社 感情推定装置、感情推定方法及びプログラム
KR20220014674A (ko) * 2020-07-29 2022-02-07 현대자동차주식회사 차량용 감정 인식 기반 서비스 제공 장치 및 그 제어 방법
JP2022072024A (ja) * 2020-10-29 2022-05-17 グローリー株式会社 認知機能判定装置、認知機能判定システム、学習モデル生成装置、認知機能判定方法、学習モデル製造方法、学習済みモデル、およびプログラム
JPWO2022168176A1 (de) * 2021-02-02 2022-08-11
WO2022168178A1 (ja) * 2021-02-02 2022-08-11 株式会社I’mbesideyou ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
US11594032B1 (en) 2021-02-17 2023-02-28 Bank Of America Corporation Media player and video verification system
US11928187B1 (en) 2021-02-17 2024-03-12 Bank Of America Corporation Media hosting system employing a secured video stream
US11527106B1 (en) 2021-02-17 2022-12-13 Bank Of America Corporation Automated video verification
US11790694B1 (en) 2021-02-17 2023-10-17 Bank Of America Corporation Video player for secured video stream
US11361062B1 (en) 2021-03-02 2022-06-14 Bank Of America Corporation System and method for leveraging microexpressions of users in multi-factor authentication
US11468713B2 (en) 2021-03-02 2022-10-11 Bank Of America Corporation System and method for leveraging a time-series of microexpressions of users in customizing media presentation based on users# sentiments
WO2022201275A1 (ja) * 2021-03-22 2022-09-29 株式会社I’mbesideyou 動画像分析プログラム
JP7152817B1 (ja) * 2021-03-24 2022-10-13 株式会社I’mbesideyou 動画像分析プログラム
JP7152819B1 (ja) * 2021-03-24 2022-10-13 株式会社I’mbesideyou 動画像分析プログラム
JP2022169244A (ja) 2021-04-27 2022-11-09 オムロン株式会社 脈波検出装置および脈波検出方法、脈波検出プログラム
EP4354386A1 (de) * 2021-06-11 2024-04-17 Life Quest Inc. Emotionsinferenzvorrichtung, emotionsinferenzverfahren und programm
US11941051B1 (en) 2021-06-24 2024-03-26 Bank Of America Corporation System for performing programmatic operations using an image-based query language
US11526548B1 (en) 2021-06-24 2022-12-13 Bank Of America Corporation Image-based query language system for performing database operations on images and videos
US12028319B1 (en) 2021-07-06 2024-07-02 Bank Of America Corporation Image-based firewall for synthetic media prevention
US11784975B1 (en) 2021-07-06 2023-10-10 Bank Of America Corporation Image-based firewall system
JPWO2023281704A1 (de) * 2021-07-08 2023-01-12
WO2023002636A1 (ja) * 2021-07-21 2023-01-26 株式会社ライフクエスト ストレス判定装置、ストレス判定方法、及びプログラム
CN113827240B (zh) * 2021-09-22 2024-03-22 北京百度网讯科技有限公司 情绪分类方法和情绪分类模型的训练方法、装置及设备
CN116072102A (zh) * 2021-11-04 2023-05-05 中兴通讯股份有限公司 情绪识别方法、装置、设备及存储介质
CN114049677B (zh) * 2021-12-06 2023-08-25 中南大学 基于驾驶员情绪指数的车辆adas控制方法及系统
JP2023106888A (ja) 2022-01-21 2023-08-02 オムロン株式会社 情報処理装置および情報処理方法
JP7388768B2 (ja) * 2022-02-01 2023-11-29 株式会社I’mbesideyou 動画像分析プログラム
CN117131099B (zh) * 2022-12-14 2024-08-02 广州数化智甄科技有限公司 产品测评中的情绪数据分析方法、装置及产品测评方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4612806B2 (ja) * 2003-07-18 2011-01-12 キヤノン株式会社 画像処理装置、画像処理方法、撮像装置
US7388971B2 (en) * 2003-10-23 2008-06-17 Northrop Grumman Corporation Robust and low cost optical system for sensing stress, emotion and deception in human subjects
JP2006071936A (ja) * 2004-09-01 2006-03-16 Matsushita Electric Works Ltd 対話エージェント
US20060224046A1 (en) * 2005-04-01 2006-10-05 Motorola, Inc. Method and system for enhancing a user experience using a user's physiological state
JP2013017587A (ja) * 2011-07-08 2013-01-31 Namco Bandai Games Inc ゲームシステム、プログラム、及び情報記憶媒体
US9965598B2 (en) * 2011-11-30 2018-05-08 Elwha Llc Deceptive indicia profile generation from communications interactions
US9640218B2 (en) * 2012-12-07 2017-05-02 Intel Corporation Physiological cue processing
JP6244643B2 (ja) * 2013-04-15 2017-12-13 オムロン株式会社 表情推定装置、制御方法、制御プログラム、および記録媒体
KR101644586B1 (ko) * 2014-11-18 2016-08-02 상명대학교서울산학협력단 인체 미동에 의한 hrp 기반 사회 관계성 측정 방법 및 시스템
US10515393B2 (en) * 2016-06-30 2019-12-24 Paypal, Inc. Image data detection for micro-expression analysis and targeted data services
US10515199B2 (en) * 2017-04-19 2019-12-24 Qualcomm Incorporated Systems and methods for facial authentication

Also Published As

Publication number Publication date
US20170311863A1 (en) 2017-11-02
JP6467965B2 (ja) 2019-02-13
WO2016129192A1 (ja) 2016-08-18
JP2016149063A (ja) 2016-08-18

Similar Documents

Publication Publication Date Title
DE112015006160T5 (de) Emotionsschätzvorrichtung und Emotionsschätzverfahren
DE102015102113B4 (de) Verfahren zum warnen eines benutzers über einen abstand zwischen augen des benutzers und einem bildschirm und elektronische vorrichtung
DE112015006150B4 (de) Gesundheitsfürsorgeunterstützungsvorrichtung und Gesundheitsfürsorgeunterstützungsverfahren
EP1062640B1 (de) Verfahren zum verifizieren der authentizität eines im rahmen einer personenerkennung aufgenommenen bildes
DE112018008131B4 (de) Zustandsbestimmungseinrichtung, zustandsbestimmungsverfahren und zustandsbestimmungsprogramm
EP2711869A2 (de) Verfahren und Vorrichtung zur Aufnahme von Fingerabdrücken auf Basis von Fingerabdruckscannern in zuverlässig hoher Qualität
US20220237943A1 (en) Method and apparatus for adjusting cabin environment
DE102010016251A1 (de) Erkennungsverfahren für ein bewegliches Objekt und das der Erkennung des beweglichen Objekts zugrunde liegende Befehlseingabeverfahren
WO2017153354A1 (de) Verfahren und vorrichtung zum bewerten von blickabbildungen
DE102012112624A1 (de) Kopfbewegungs-Erfassungsvorrichtung
US20220230471A1 (en) Artificial Intelligence-Assisted Evaluation Method for Aesthetic Medicine and Evaluation System Using Same
DE102019106398A1 (de) Bildanalysevorrichtung, verfahren und programm
DE112017007011T5 (de) Gesichtsrichtungsschätzvorrichtung und Gesichtsrichtungsschätzverfahren
DE102016108475A1 (de) Einschlaferfassungsvorrichtung
EP3553634A1 (de) Verfahren und system zum betreiben einer anzeigevorrichtung
DE112017000075T5 (de) Vorrichtung zur Schätzung des Grads des Interesses, Verfahren zur Schätzung des Grads des Interesses, Programm und Speichermedium
Al-agha et al. Geometric-based feature extraction and classification for emotion expressions of 3D video film
DE112019005617T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahrenund programm
DE112017007162T5 (de) Gesichtsermittlungsvorrichtung, dazugehöriges Steuerungsverfahren und Programm
DE102015003537B4 (de) Blockierungsdetektionsverfahren für eine kamera und eine elektronische vorrichtung mit kameras
EP3185688A1 (de) Vorrichtung und verfahren zur tierschutzeinhaltungsbewertung an einem schlachttier
DE112019007642T5 (de) Gerät zur informationsverarbeitung, programm und informationsverarbeitungsverfahren
DE102019209228A1 (de) Verfahren und Vorrichtung zum Überprüfen der Robustheit eines künstlichen neuronalen Netzes
DE102018121317A1 (de) Verfahren und Vorrichtung zur Schätzung einer durch eine Freiraumgeste vermittelten Richtungsinformation zur Bestimmung einer Benutzereingabe an einer Mensch-Maschine-Schnittstelle
DE112021007128T5 (de) Pulswellen-Schätzvorrichtung und Pulswellen Schätzverfahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication