DE202023100804U1 - Ein System zur Gesichtsemotionserkennung unter Verwendung von Deep Learning - Google Patents

Ein System zur Gesichtsemotionserkennung unter Verwendung von Deep Learning Download PDF

Info

Publication number
DE202023100804U1
DE202023100804U1 DE202023100804.6U DE202023100804U DE202023100804U1 DE 202023100804 U1 DE202023100804 U1 DE 202023100804U1 DE 202023100804 U DE202023100804 U DE 202023100804U DE 202023100804 U1 DE202023100804 U1 DE 202023100804U1
Authority
DE
Germany
Prior art keywords
deep learning
facial
facial emotion
emotion recognition
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202023100804.6U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of DE202023100804U1 publication Critical patent/DE202023100804U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Ein System (100) zur Gesichtsemotionserkennung unter Verwendung von Deep Learning, wobei das System (100) Folgendes umfasst:
ein Modul zur Bilderfassung (101) zum Aufnehmen eines Bildes;
einen Ultraschall-Sensor (102), der während der Bildaufnahme eine andere Gesichtsemotion erkennt;
eine Steuerung (103) umfasst:
eine Speichereinheit (104), die vorgespeicherte Daten über die verschiedenen Gesichtsemotionen enthält;
ein Modul zur Datenanalyse (105), um die verschiedenen Gesichtsemotionen zu erkennen;
ein Verarbeitungsmodul (106), das die Gesichtsemotion unter Verwendung von Deep Learning (DL) klassifiziert, um ein genau erkanntes Gesicht anzuzeigen und zu erfassen;
ein Cloud-Server (107) speichert die vom Verarbeitungsmodul (106) erhaltenen Daten; und
ein Ausgangsmodul (108) zeigt das am Ende des Prozesses erhaltene Ergebnis an.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung bezieht sich auf die Gesichtserkennung und insbesondere auf ein System zur Gesichtsemotionserkennung unter Verwendung von Deep Learning.
  • HINTERGRUND
  • Die Hintergrundbeschreibung enthält Informationen, die für das Verständnis der vorliegenden Erfindung nützlich sein können. Sie stellt kein Eingeständnis dar, dass die hierin enthaltenen Informationen zum Stand der Technik gehören oder für die vorliegende Erfindung relevant sind, oder dass eine Veröffentlichung, auf die ausdrücklich oder implizit Bezug genommen wird, zum Stand der Technik gehört.
  • Heutzutage haben viele Branchen von der Einführung des maschinellen Lernens profitiert. Deep Learning kommt einer Vielzahl von Branchen zugute. Deep Learning hat bei der Bereitstellung von Lösungen geholfen, die früher als esoterisch und unverständlich galten. Deep Learning wird auch im Bereich des Gesundheitswesens eingesetzt. Diese Technologie wird eingesetzt, um eine Vielzahl von Problemen zu lösen, die Ärzte nicht lösen konnten. Deep Learning findet auch in der Gesundheitsbranche Anwendung.
  • Die Erkennung menschlicher Ausdrücke und Emotionen hat die Aufmerksamkeit der Forscher auf sich gezogen, da die Fähigkeit, den Ausdruck einer Person zu erkennen, bei der Interaktion zwischen Mensch und Computer, bei richtigen Werbekampagnen und als Krönung bei einer erweiterten und verbesserten menschlichen Kommunikation hilft, indem sie die emotionale Intelligenz („EQ“) der Menschen verbessert. Es gibt viele Möglichkeiten, die Erkennung menschlicher Ausdrücke zu überprüfen, angefangen von der Mimik über die Körperhaltung bis hin zum Tonfall der Stimme usw.
  • Es wurden Anstrengungen unternommen, um eine Trainingsmethode für ein Gesichtsemotionserkennungsmodell, eine Emotionserkennungsmethode und eine entsprechende Ausrüstung bereitzustellen. In der chinesischen Patentanmeldung Nr. CN114202791A , stellt die Erfindung ein Trainingsverfahren für ein Gesichtsemotionserkennungsmodell, ein Emotionserkennungsverfahren und eine zugehörige Ausrüstung bereit. Einige Emotionsvokabulare, die sich auf Emotionen in einer natürlichen Sprache beziehen, können gesammelt werden, dann wird ein Gesichtsbild, das jedem Emotionsvokabular entspricht, gesammelt, die Gesichtsbilder werden unter Verwendung der Emotionsvokabulare etikettiert, um einen Trainingsprobensatz zu bilden, und ein vorkonstruiertes Anfangsnetzmodell wird trainiert, um ein Gesichtsemotionserkennungsmodell zu erhalten. Da das Modell zur Erkennung von Gesichtsemotionen mit dem Ausdrucksraum der natürlichen Sprache übereinstimmt, entspricht das Ergebnis der Erkennung von Gesichtsemotionen unter Verwendung des Modells zur Erkennung von Gesichtsemotionen eher den echten, von Menschen natürlich wahrgenommenen Emotionen, und die Emotionserkennung ist genauer.
  • In einigen Ausführungsformen sind die Zahlen, die Mengen oder Dimensionen von Gegenständen usw. ausdrücken und zur Beschreibung und Inanspruchnahme bestimmter Ausführungsformen der Erfindung verwendet werden, so zu verstehen, dass sie in einigen Fällen durch den Begriff „ungefähr“ modifiziert werden. Dementsprechend sind in einigen Ausführungsformen die in der schriftlichen Beschreibung und den beigefügten Ansprüchen angegebenen numerischen Parameter Näherungswerte, die in Abhängigkeit von den gewünschten Eigenschaften, die durch eine bestimmte Ausführungsform erreicht werden sollen, variieren können. In einigen Ausführungsformen sollten die numerischen Parameter unter Berücksichtigung der Anzahl der angegebenen signifikanten Stellen und unter Anwendung der üblichen Rundungsmethoden ausgelegt werden. Ungeachtet der Tatsache, dass die numerischen Bereiche und Parameter, die den breiten Anwendungsbereich einiger Ausführungsformen der Erfindung darstellen, Näherungswerte sind, werden die numerischen Werte, die in den spezifischen Beispielen angegeben sind, so genau wie möglich angegeben. Die numerischen Werte, die in einigen Ausführungsformen der Erfindung dargestellt sind, können gewisse Fehler enthalten, die sich zwangsläufig aus der Standardabweichung ergeben, die bei den jeweiligen Testmessungen festgestellt wird.
  • Gruppierungen von alternativen Elementen oder Ausführungsformen der hierin offenbarten Erfindung sind nicht als Einschränkungen zu verstehen. Jedes Gruppenmitglied kann einzeln oder in beliebiger Kombination mit anderen Mitgliedern der Gruppe oder anderen hierin enthaltenen Elementen in Bezug genommen und beansprucht werden. Ein oder mehrere Mitglieder einer Gruppe können aus Gründen der Zweckmäßigkeit und/oder der Patentierbarkeit in eine Gruppe aufgenommen oder aus ihr entfernt werden. Wenn eine solche Aufnahme oder Streichung erfolgt, wird davon ausgegangen, dass die Spezifikation die Gruppe in der geänderten Form enthält, wodurch die schriftliche Beschreibung aller in den beigefügten Ansprüchen verwendeten Markush-Gruppen erfüllt wird.
  • GEGENSTÄNDE DER ERFINDUNG
  • Ein Gegenstand der vorliegenden Offenbarung ist ein System zur Gesichtsemotionserkennung unter Verwendung von Deep Learning.
  • Gegenstand der vorliegenden Offenbarung ist ein System zur Verringerung der für die Erkennung von Gesichtern erforderlichen Zeit.
  • ZUSAMMENFASSUNG
  • Im vorliegenden Aspekt der Erfindung wird ein System zur Gesichtsemotionserkennung unter Verwendung von Deep Learning, wobei das System ein Modul zur Bilderfassung, einen Ultraschall-Sensor, einen mit einer Speichereinheit verbundenen Steuerung, ein Modul zur Datenanalyse, ein Verarbeitungsmodul, einen Cloud-Server und ein Ausgangsmodul umfasst.
  • Das Modul zur Bilderfassung zum Erfassen eines Bildes und eines Ultraschall-Sensor, der eine unterschiedliche Gesichtsemotion erkennt, während er Bilder für einen Steuerung erfasst, umfasst eine Speichereinheit, die vorgespeicherte Daten über die unterschiedlichen Gesichtsemotionen enthält.
  • Das Modul zur Datenanalyse zur Erkennung der verschiedenen Gesichtsemotionen, ein Verarbeitungsmodul zur Klassifizierung der Gesichtsemotion unter Verwendung von Deep Learning (DL), um ein genau erkanntes Gesicht zu zeigen und zu erfassen, ein Cloud-Server speichert die vom Verarbeitungsmodul erhaltenen Daten; und ein Ausgangsmodul zeigt das am Ende erhaltene Ergebnis.
  • Man sollte verstehen, dass, obwohl die vorliegende Offenbarung in Bezug auf einen definierten Satz von Funktionsmodulen erläutert wurde, jedes andere Modul oder ein Satz von Modulen hinzugefügt/gelöscht/geändert/kombiniert werden kann, und alle derartigen Änderungen in der Architektur/Konstruktion des vorgeschlagenen Systems sind vollständig innerhalb des Anwendungsbereichs der vorliegenden Offenbarung. Jedes Modul kann auch in ein oder mehrere funktionale Untermodule unterteilt werden, die alle ebenfalls vollständig in den Anwendungsbereich der vorliegenden Offenlegung fallen.
  • Figurenliste
  • Die beigefügte Zeichnung dient dem weiteren Verständnis der vorliegenden Offenbarung und ist Bestandteil dieser Beschreibung. Die Zeichnung zeigt beispielhafte Ausführungsformen der vorliegenden Offenbarung und dient zusammen mit der Beschreibung zur Erläuterung der Prinzipien der vorliegenden Offenbarung.
    • zeigt das Blockdiagramm eines Systems (100) zur Gesichtsemotionserkennung unter Verwendung von Deep Learning.
  • Andere Objekte, Vorteile und neuartige Merkmale der Erfindung werden aus der folgenden detaillierten Beschreibung der vorliegenden Ausführungsform ersichtlich, wenn sie in Verbindung mit der beigefügten Zeichnung.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Aspekte der vorliegenden Offenbarung beziehen sich auf ein System zur Gesichtsemotionserkennung unter Verwendung von Deep Learning. Es wird davon ausgegangen, dass die vorstehende Beschreibung ist nur zur Veranschaulichung der vorliegenden Erfindung, und es ist nicht beabsichtigt, dass die Erfindung begrenzt oder restriktiv zu sein. Viele andere spezifische Ausführungsformen der vorliegenden Erfindung sind für einen Fachmann aus der vorstehenden Offenbarung ersichtlich. Alle Ersetzungen, Änderungen und Modifikationen der vorliegenden Erfindung, die in den Anwendungsbereich der folgenden Ansprüche fallen, sind ohne weiteres möglich, ohne vom Geist der Erfindung abzuweichen. Der Umfang der Erfindung sollte daher nicht unter Bezugnahme auf die beigefügten Ansprüche zusammen mit dem vollen Umfang der Äquivalente, auf die solche Ansprüche berechtigt sind, bestimmt werden.
  • In der folgenden Beschreibung werden zahlreiche spezifische Details dargelegt, um ein umfassendes Verständnis der Ausführungsformen der vorliegenden Erfindung zu vermitteln. Einem Fachmann wird es klar sein, dass Ausführungsformen der vorliegenden Erfindung auch ohne einige dieser spezifischen Details ausgeführt werden können.
  • Wenn es in der Beschreibung heißt, dass eine Komponente oder ein Merkmal enthalten sein „kann“, „kann“, „könnte“ oder „könnte“, ist es nicht erforderlich, dass diese bestimmte Komponente oder dieses bestimmte Merkmal enthalten ist oder dieses Merkmal aufweist.
  • Beispielhafte Ausführungsformen werden im Folgenden unter Bezugnahme auf die beigefügte Zeichnung, in denen beispielhafte Ausführungsformen dargestellt sind, ausführlicher beschrieben. Die Erfindung kann jedoch in vielen verschiedenen Formen ausgeführt werden und sollte nicht als auf die hier dargelegten Ausführungsformen beschränkt verstanden werden. Diese Ausführungsformen sind vorgesehen, damit diese Offenbarung gründlich und vollständig ist und den Umfang der Erfindung denjenigen, die über die üblichen Kenntnisse auf dem Gebiet der Technik verfügen, vollständig vermittelt. Darüber hinaus sollen alle hierin enthaltenen Aussagen, die sich auf Ausführungsformen der Erfindung sowie auf spezifische Beispiele davon beziehen, sowohl strukturelle als auch funktionale Äquivalente davon umfassen. Darüber hinaus sollen solche Äquivalente sowohl derzeit bekannte Äquivalente als auch in der Zukunft entwickelte Äquivalente umfassen (d. h. alle entwickelten Elemente, die unabhängig von ihrer Struktur die gleiche Funktion erfüllen).
  • Es folgt eine detaillierte Beschreibung von Ausführungsformen der Offenbarung, die in der beigefügten Zeichnung dargestellt sind. Die Ausführungsformen sind so detailliert, dass die Offenbarung klar vermittelt wird. Im Gegenteil, es ist beabsichtigt, alle Modifikationen, Äquivalente und Alternativen abzudecken, die in den Geist und den Anwendungsbereich der vorliegenden Offenbarung fallen, wie durch die beigefügten Ansprüche definiert.
  • Jeder der beigefügten Ansprüche definiert eine eigene Erfindung, die für Verletzungszwecke als Äquivalent zu den verschiedenen in den Ansprüchen angegebenen Elementen oder Einschränkungen anerkannt wird. Je nach Kontext können sich alle nachstehenden Verweise auf die „Erfindung“ in einigen Fällen nur auf bestimmte spezifische Ausführungsformen beziehen. In anderen Fällen wird anerkannt, dass sich Verweise auf die „Erfindung“ auf einen Gegenstand beziehen, der in einem oder mehreren, aber nicht notwendigerweise in allen Ansprüchen aufgeführt ist.
  • Verschiedene Begriffe, die hier verwendet werden, sind nachstehend aufgeführt. Soweit ein in einem Anspruch verwendeter Begriff nachstehend nicht definiert ist, sollte ihm die weiteste Definition gegeben werden, die Personen auf dem einschlägigen Gebiet diesem Begriff gegeben haben, wie sie in gedruckten Veröffentlichungen und erteilten Patenten zum Zeitpunkt der Anmeldung wiedergegeben ist.
  • In einer Ausführungsform der vorliegenden Offenbarung zeigt 1 das Blockdiagramm eines Systems (100) zur Gesichtsemotionserkennung unter Verwendung von Deep Learning, wobei das System (100) ein Modul zur Bilderfassung (101), einen Ultraschall-Sensor (102), einen Steuerung (103), der mit einer Speichereinheit (104) verbunden ist, ein Modul zur Datenanalyse (105), ein Verarbeitungsmodul (106), einen Cloud-Server (107) und ein Ausgangsmodul (108) umfasst.
  • In einer anderen Ausführungsform ist das Modul zur Bilderfassung (101), das eine beliebige Kamera ist, die nicht auf eine Objektivkamera oder eine Wärmebildkamera beschränkt ist, für die Aufnahme eines Bildes, die Aufzeichnung von Videos und deren Speicherung sowie die Alarmierung des Steuerung (103) zur Aktivierung des Ultraschall-Sensor (102) vorgesehen.
  • Der Ultraschall-Sensor (102) ist mit dem Steuergerät und dem Bilderfassungsmodul verbunden, um verschiedene Gesichtsemotionen bei der Bildaufnahme zu erkennen und eine Warnung an das Steuergerät für den weiteren Betrieb oder Prozess zu senden. Der Steuerung (103) ist ein Mikrocontroller, Prozessor oder Mikroprozessor, der mit allen Komponenten des Systems (100) verbunden ist.
  • Die Speichereinheit (104), die nicht auf eine Speicherkarte, einen Cloud-Speicher oder andere Datenspeichermodule beschränkt ist, verfügt über vorgespeicherte Daten über die verschiedenen Gesichtsemotionen aus verschiedenen Emotionsdatenbanken, die mit dem Steuerung (103) verbunden sind, der wiederum das Modul zur Datenanalyse (105) aktiviert.
  • Das Modul zur Datenanalyse (105), das eine Gesichtserkennungseinheit ist, die die verschiedenen Gesichtsemotionen erkennt und den Steuerung (103) alarmiert, um das Verarbeitungsmodul (106) zu aktivieren.
  • Das Verarbeitungsmodul (106) klassifiziert die Gesichtsemotion unter Verwendung von Deep Learning (DL) durch das Gerät, wie z. B. Spektrogramm, das das genaue erkannte Gesicht mit einem Zeit-Frequenz-Diagramm zeigt und erfasst, das auf dem Cloud-Server (107) gespeichert ist.
  • Der Cloud-Server (107) speichert die vom Verarbeitungsmodul (106) erhaltenen Daten für eine begrenzte Zeit, die im Ausgangsmodul (108) beobachtet wird, das Mobilgeräte, Tablets, Smartphones, Android-Geräte, Smartwatches, Computer oder andere bekannte loT-basierte elektronische Geräte umfasst, aber nicht darauf beschränkt ist, die am Ende des Prozesses erhaltenen Ergebnisse anzuzeigen.
  • Somit wird der Umfang der vorliegenden Offenbarung durch die beigefügten Ansprüche definiert und umfasst sowohl Kombinationen und Unterkombinationen der verschiedenen hierin beschriebenen Merkmale als auch Variationen und Modifikationen davon, die dem Fachmann beim Lesen der vorangehenden Beschreibung einfallen würden.
  • Bezugszeichenliste
  • 100
    System zur Gesichtsemotionserkennung unter Verwendung von Deep Learning
    101
    Modul zur Bilderfassung
    102
    Ultraschall-Sensor
    103
    Steuerung
    104
    Speichereinheit
    105
    Modul zur Datenanalyse
    106
    Verarbeitungsmodul
    107
    Cloud-Server
    108
    Ausgangsmodul
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • CN 114202791 A [0005]

Claims (7)

  1. Ein System (100) zur Gesichtsemotionserkennung unter Verwendung von Deep Learning, wobei das System (100) Folgendes umfasst: ein Modul zur Bilderfassung (101) zum Aufnehmen eines Bildes; einen Ultraschall-Sensor (102), der während der Bildaufnahme eine andere Gesichtsemotion erkennt; eine Steuerung (103) umfasst: eine Speichereinheit (104), die vorgespeicherte Daten über die verschiedenen Gesichtsemotionen enthält; ein Modul zur Datenanalyse (105), um die verschiedenen Gesichtsemotionen zu erkennen; ein Verarbeitungsmodul (106), das die Gesichtsemotion unter Verwendung von Deep Learning (DL) klassifiziert, um ein genau erkanntes Gesicht anzuzeigen und zu erfassen; ein Cloud-Server (107) speichert die vom Verarbeitungsmodul (106) erhaltenen Daten; und ein Ausgangsmodul (108) zeigt das am Ende des Prozesses erhaltene Ergebnis an.
  2. Das System (100) zur Gesichtsemotionserkennung unter Verwendung von Deep Learning nach Anspruch 1, wobei das Modul zur Bilderfassung (101) nicht auf die Aufnahme von Bildern beschränkt ist, sondern in der Lage ist, die Daten aufzuzeichnen und zu speichern.
  3. Das System (100) zur Gesichtsemotionserkennung unter Verwendung von Deep Learning nach Anspruch 1, wobei der Ultraschall-Sensor (102) verschiedene Orte von Gesichtsausdrücken erkennt.
  4. Das System (100) zur Gesichtsemotionserkennung unter Verwendung von Deep Learning nach Anspruch 1, wobei der Steuerung (103) ein Mikrocontroller, Prozessor oder Mikroprozessor ist.
  5. Das System (100) zur Gesichtsemotionserkennung unter Verwendung von Deep Learning nach Anspruch 1, wobei die Speichereinheit (104) nicht auf eine Speicherkarte, einen Cloud-Speicher oder andere Datenspeichermodule beschränkt ist.
  6. Das System (100) zur Gesichtsemotionserkennung unter Verwendung von Deep Learning nach Anspruch 1, wobei der Cloud-Server (107) Daten mindestens einen Tag lang speichert.
  7. Das System (100) zur Gesichtsemotionserkennung unter Verwendung von Deep Learning nach Anspruch 1, wobei das Ausgangsmodul (108) ein Mobiltelefon, ein Tablet, ein Smartphone, Android-Geräte, Smartwatches, Computer oder jedes andere bekannte IoT-basierte elektronische Gerät umfasst, aber nicht darauf beschränkt ist.
DE202023100804.6U 2022-12-30 2023-02-20 Ein System zur Gesichtsemotionserkennung unter Verwendung von Deep Learning Active DE202023100804U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IN202221077260 2022-12-30
IN202221077260 2022-12-30

Publications (1)

Publication Number Publication Date
DE202023100804U1 true DE202023100804U1 (de) 2023-04-05

Family

ID=86053339

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202023100804.6U Active DE202023100804U1 (de) 2022-12-30 2023-02-20 Ein System zur Gesichtsemotionserkennung unter Verwendung von Deep Learning

Country Status (1)

Country Link
DE (1) DE202023100804U1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114202791A (zh) 2021-11-30 2022-03-18 网易(杭州)网络有限公司 面部情绪识别模型的训练方法、情绪识别方法及相关设备

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114202791A (zh) 2021-11-30 2022-03-18 网易(杭州)网络有限公司 面部情绪识别模型的训练方法、情绪识别方法及相关设备

Similar Documents

Publication Publication Date Title
Parthiban et al. Optical character recognition for English handwritten text using recurrent neural network
Jenkins et al. Stable face representations
DE102017008430A1 (de) Verfahren und Systeme zum Erzeugen von virtuelle Realität-Umgebungen aus elektronischen Dokumenten
DE112017002799T5 (de) Verfahren und system zum generieren multimodaler digitaler bilder
DE102011010618A1 (de) Elektronisches Lesegerät mit Gesichtserkennung
DE112011102043T5 (de) Objekterfassungsmetadaten
DE102013205737A1 (de) System und Verfahren zum automatischen Erkennen und interaktiven Anzeigen von Informationen über Entitäten, Aktivitäten und Ereignisse aus multimodalen natürlichen Sprachquellen
DE112019001175T5 (de) Visuelles Feedback zum Prozesszustand
Yin et al. Object-based attention on social units: Visual selection of hands performing a social interaction
DE102013016732A1 (de) Verfahren zum zoomen auf einem bildschirm und elektronische vorrichtung und computerlesbares medium, die selbiges verwenden
Kestemont et al. Artificial paleography: computational approaches to identifying script types in medieval manuscripts
Clowes Perception, picture processing and computers
Baron Using embedded visual coding to support contextualization of historical texts
Wong et al. An analysis of letter expertise in a levels-of-categorization framework
Jacobs et al. Comparing the visual representations and performance of humans and deep neural networks
Vellingiriraj et al. Information extraction and text mining of Ancient Vattezhuthu characters in historical documents using image zoning
DE102016105584A1 (de) Verbesserte suche in handschriftlichen daten
DE202022002902U1 (de) Iteratives Training für einen Text-Bild-Layout-Transformer
DE202023100804U1 (de) Ein System zur Gesichtsemotionserkennung unter Verwendung von Deep Learning
CN107729844A (zh) 人脸属性识别方法及装置
EP1603072A1 (de) Verfahren und Einrichtung zur Strukturanalyse eines Dokuments
DE69927313T2 (de) Verarbeitung diakritischer Zeichen zur Erkennung von nicht unter Zwang geschriebener Handschrift unter Verwendung einer Vorwärtssuche
DE202022104461U1 (de) Syntaxgeleitetes Erkennungssystem für mathematische Termini
DE102021108675A1 (de) Schwach überwachte erkennung einer semantischen einheit unter verwendung von allgemeinwissen und zieldomänenkenntnis
DE202023105346U1 (de) KI- fähiges Unterstützungssystem für sehbehinderte Benutzer

Legal Events

Date Code Title Description
R207 Utility model specification