LU102496B1 - Facial expression recognition method based on attention mechanism - Google Patents

Facial expression recognition method based on attention mechanism Download PDF

Info

Publication number
LU102496B1
LU102496B1 LU102496A LU102496A LU102496B1 LU 102496 B1 LU102496 B1 LU 102496B1 LU 102496 A LU102496 A LU 102496A LU 102496 A LU102496 A LU 102496A LU 102496 B1 LU102496 B1 LU 102496B1
Authority
LU
Luxembourg
Prior art keywords
attention
feature map
self
channel
facial expression
Prior art date
Application number
LU102496A
Other languages
English (en)
Inventor
Daihong Jiang
Yuanzheng Hu
Zhongdong Huang
Original Assignee
Xuzhou Inst Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xuzhou Inst Technology filed Critical Xuzhou Inst Technology
Application granted granted Critical
Publication of LU102496B1 publication Critical patent/LU102496B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Claims (9)

PATENTANSPRUCHE
1. Gesichtsausdruckserkennungsverfahren auf Grundlage eines Referenzierungsmechanismus, gekennzeichnet durch: zunächst Erstellen eines Gesichtsausdruckerkennungsmodells, dessen Struktur gemäß einer Bildeingabefolge wie folgt ist: ein Konvolutionsmodul, ein Maximum-Poolbildungsmodul, ein Referenzierungsrestgrößenmodul, ein Maximum-Poolbildungsmodul, ein Referenzierungsrestgrößenmodul, ein Maximum-Poolbildungsmodul und zwei vollständig vernetzte Schichten, und eine Softmax-Funktion, wobei ein konvergiertes Gesichtsausdruckvorhersageergebnis durch einen Endpunkt-zu-Endpunkt-Ablauf erlangt wird; wobei das Referenzierungsrestgrolenmodul ein Modul ist, in dem ein Selbstreferenzierungsmechanismus und ein Kanalreferenzierungsmechanismus auf Grundlage eines Restgrößennetzes addiert werden, um die Empfindlichkeit für nützliche Informationen in einem Eingabebild zu verbessern und nutzlose Informationen zu unterdrücken: ein Additionsablauf in einen seriellen Ablauf und einen parallelen Ablauf unterteilt ist, wobei der serielle Ablauf in das Durchführen von Selbstreferenzierung gefolgt von Kanalreferenzierung unterteilt ist, und die Kanalreferenzierung gefolgt von der Selbstreferenzierung durchgeführt wird, und der parallele Ablauf die Selbstreferenzierung und die Kanalreferenzierung parallel ausführt; und die Selbstreferenzierung dazu dient, einen gewichteten Mittelwert aller Positionspixel in einer eingegebenen Gesichtsausdruckmerkmalskarte zu berechnen, um die relative Wichtigkeit von Schlüsselpositionen in der Gesichtsausdruckmerkmalskarte zu berechnen, und die Schlüsselpositionen wichtige Positionen zum Erkennen eines Ausdrucks sind und insbesondere Positionen sind, die zum Erkennen des Ausdrucks in der Merkmalskarte einschließlich Mund und Augen wichtig sind; sodann Verwenden der Kanalreferenzierung zum Frlemen unterschiedlicher Merkmale in einer Kanaldomäne, um so eine Kanalreferenzierung zu erzeugen, um Interaktionsmerkmale in unterschiedliche Kanäle einzulernen, sodass ein Kanal der Merkmalskarte ein Ziel erfassen kann, um den Kanal an den Schlüsselpositionen der Merkmalskarte zu lokalisieren und dadurch Robustheit zu verbessern; und Zusammenführen des Selbstreferenzierungsmechanismus und des Kanalreferenzierungsmechanismus zum Fördern der Fähigkeit eines 1
Gesichtsausdruckerkennungsmodells, die Schlüsselpositionen in der Gesichtsausdruckmerkmalskarte als globale wichtige Merkmale zu extrahieren, und Verwenden des wiederholten Maximum-Poolbildungsmoduls und des ReferenzierungsrestgréBenmoduls zur Fehlerreduzierung und zum Ausgeben eines optimalen Erkennungsergebnisses durch einen Endpunkt-zu-Endpunkt-Finlernablauf.
2. Gesichtsausdruckserkennungsverfahren auf Grundlage eines Referenzierungsmechanismus nach Anspruch 1, dadurch gekennzeichnet, dass bei einem Erstellungsprozess des Gesichtsausdruckerkennungsmodells der Selbstreferenzierungsmechanismus auf Grundlage des verwendeten RestgrôBennetzwerks y = Fx, {W;}) + x eingebracht wird, wobei x und y Jeweils für Eingabe- und Ausgabeinformationen des Restgroflennetzwerks stehen und F(x, {W}) für RestgroBenzuordnung steht.
3. Gesichtsausdruckserkennungsverfahren auf Grundlage eines Referenzierungsmechanismus nach Anspruch 1, dadurch gekennzeichnet, dass ein Selbstreferenzierungsmodul beim Berechnen der Ausgabe der einzelnen Positionen auf der Merkmalskarte nichtlokale Rechenvorgänge bezüglich aller Signale im Zusammenhang mit einem aktuellen Ausdruck anwendet und eine Relevanzgewichtung ermittelt, um die Relevanz anderer Positionen und einer aktuellen zu berechnenden Position darzustellen, was wie folgt definiert ist: 1 yi = SZ f(x x; )g(xj) vy wobei i für eine beliebige Position auf einer Ausgabemerkmalskarte steht, j ein Index aller möglichen Positionen auf der Merkmalskarte ist, x eine Eingabemerkmalskarte ist, y die Ausgabemerkmalskarte ist, wobei sich Pixelwerte der Ausgabemerkmalskarte und der Eingabemerkmalskarte geändert haben und eine Dimension dieselbe wie bei der Eingabemerkmalskarte ist, f eine Funktion zum Berechnen der Relevanz zwischen zwei beliebigen Punkten ist, g eine Ein-Variablen-Funktion zur Informationstransformation ist und 2
C(x) eine Normierungsfunktion ist; wobei, da f und g beide allgemeine Formeln sind, in Verbindung mit einem neuronalen Netz eine spezifische Form zu berücksichtigen ist, wobei erstens g eine Ein-Variablen-Eingabe ist, die mittels !*1-Konvolution ersetzt wird, und die Form wie folgt ist: a(x) = W,x;, wobei beliebige zwei Punkte, dargestellt durch f, an zwei Positionen in einem Einbettungsraum eingesetzt werden, wobei eine Berechnungsformel lautet: f(x, x;) = eG wobei 6(x;) = Wyx;, b(x;) = Wax;, der Normierungsparameter C(x) = Xv; f(x; x;) hinsichtlich einer gegebenen Position i, wf (xx) Softmax wird, um alle Positionen j zu berechnen, und die erlangte Ausgabe einer Selbstreferenzierungsschicht lautet: y = softmax(xTWJ Wx) g(x)
unter der Annahme, dass eine Eingabemerkmalskarte eines Selbstreferenzierungsnetzes FHXWXC ist, eine Transformation in zwei Einbettungsräume mittels zwei Konvolutionsgewichtungen Wg und W,, erfolgt, um FHXWXC" und FHXWXC" zu erlangen, wobei allgemein C “ < €, wobei der Zweck darin besteht, die Anzahl von Kanälen und eine Menge an Berechnungen zu reduzieren; wobei zweitens ein Umformungsvorgang an der Ausgabemerkmalskarte durchgeführt wird, um sie in F HWxc' umzuwandeln, anschlieBend ein Transpositionsvorgang an einer Matrix durchgeführt wird, die durch die Wg-Transformation erlangt wurde, und dann eine Matrixmultiplikation durchgeführt wird, um Ahnlichkeiten zu berechnen und eine Ahnlichkeitsmatrix FFWX#W zu erlangen, woraufhin ein Softmax- Vorgang an einer letzten Dimensionalität durchgeführt wird, was dem Frlangen einer Normierungsrelevanz jedes Pixels und anderer Positionspixel in der aktuellen Merkmalskarte entspricht; wobei zuletzt g unter Dimensionalitätsreduzierung und dann mittels dem Umformungsvorgang verarbeitet wird und mit der Matrix F""XHW multipliziert wird, der Referenzierungsmechanismus auf alle Kanäle der Merkmalskarte angewandt wird und schließlich die Kanäle durch cine Konvolution von 1” 1 wiederhergestellt werden, um sicherzustellen, dass die Fingabe- und Ausgabedimensionen genau gleich sind;
3 wobei mathematisch betrachtet unter der Annahme, dass die Merkmalskarte einer vorhergehenden Schicht des Selbstreferenzierungsnetzes x € R°XN ist, sie zunächst in zwei Merkmalsräume f und g mappiert wird, wobei f = W,x, g = Wax Bji = os, = 0(x;)4(s;) wobei in der Formel f;; für den Beitrag einer i-ten Position zu einem j-ten Bereich steht, wenn der j-te Bereich der Merkmalskarte synthesisiert wird, C hier für die Anzahl Kanäle der Merkmalskarte der vorhergehenden Schicht steht und N für die Anzahl von Pixeln der Merkmalskarte der vorhergehenden Schicht steht; weshalb die Ausgabe der Selbstreferenzierungsschicht o = (oy, 02, … Oj, … ON) lautet, wobei:
N 0; = v (X b,19 x) i=1 wobei in der Formel Wy ERC*XC | W,ERC<C W, ER und W, € RC*C" Gewichtungen eines Konvolutionskerns sind und €’ ein Hyperparameter ist, und C < C; woraufhin eine RestgrôfBenverbindung eingebracht wird und die endgültige Ausgabe des Selbstreferenzierungsmoduls lautet: y; = yo; + x;, wobei Ÿ ein erlernbarer Hyperparameter ist und auf 0 initialisiert wird, und eine Gewichtung im Zuge eines Einlemprozesses allmählich erhôht wird.
4. Gesichtsausdruckserkennungsverfahren auf Grundlage cines Referenzierungsmechanismus nach Anspruch 1, dadurch gekennzeichnet, dass das Kanalreferenzierungsmodul dazu dient, auf einen Merkmalsdetektor einzuwirken, um die Kanalreferenzierung einzubringen und eine Gewichtungsverteilung zwischen den Kanälen zu erlernen, um Kanäle zu verstärken, die für die Ausdruckserkennungsaufgabe nützlich sind, und Kanäle zu schwächen, die für die Aufgabe irrelevant sind; wobei für jeden Kanal der intermediären Merkmalskarte, die geändert wurde. die Merkmalskarte durch globale Mittelwert-Poolbildungs- und globale Maximum-Poolbildungsvorgänge auf Grundlage von Höhe und Breite in zwei unterschiedliche Räume komprimiert wird, um zwei Merkmalskarten 4 zu erlangen, woraufhin die beiden erlangten Merkmalskarten in zwei Netze eingegeben werden, die einen gleichen Satz Parameter nutzen, also in ein vollständig vernetztes neuronales Netz mit gemeinsamen Parametern, wobei Ausgabevektoren der vollständig vernetzten Schicht anhand von entsprechenden Elementen summiert werden, die Merkmale der zwei Räume zusammengeführt werden und schließlich durch eine Signoidaktivierungsfunktion ein endgültiges Kanalgewicht erlangt wird, was spezifisch wie folgt ist: unter der Annahme, dass die Eingabemerkmalskarte FFXWXC ist wobei H,W,C jeweils eine Höhe, eine Breite und die Anzahl der Kanäle der Merkmalskarte sind, eine Maximum- Poolbildung-Merkmalskarte Frax € R'X"*XC und eine globaler-Mittelwert-Poolbildung- Merkmalskarte Fayg € RPC jeweils durch die Poolbildung erlangt werden und dann die beiden Merkmalskarten an das vollständig vernetzte neuronale Netz geschickt werden, das nur eine verborgene Schicht enthält, und der Berechnungsprozess wie folgt ist: M, = sigmoid (MLP(AvgPool(F)) + MLP(MaxPool(F))) wobei ferner: M, = sigmoid (ws (Wo(Favg)) + W, (Wo (Fran) wobei Wy, W, gemeinsame Gewichtungen der vollständig vernetzten Schichten sind und W, € RCW, € RE.
5. Gesichtsausdruckserkennungsverfahren auf Grundlage eines Referenzierungsmechanismus nach Anspruch 4, dadurch gekennzeichnet, dass der Selbstreferenzierungsmechanismus und der Kanalreferenzierungsmechanismus auf Grundlage des RestgrôBenmoduls addiert werden, um ein ReferenzierungsrestgrôBenmodul zu bilden, das eine Merkmalsextraktionsfähigkeit eines Gesichtsausdruckerkennungsmodellnetzes verbessert, wobei die Abhängigkeit zwischen langfristigen Merkmalen erfasst wird, die Empfindlichkeit des Modells für nützliche Informationen verbessert wird und unnütze Informationen unterdrückt werden; und wobei der Additionsablauf in einen seriellen Ablauf und einen parallelen Ablauf unterteilt ist. wobei der serielle in das Ausführen von Selbstreferenzierung gefolgt von Kanalreferenzierung und Ausführen von Kanalreferenzierung gefolgt von Selbstreferenzierung unterteilt ist.
6. Gesichtsausdruckserkennungsverfahren auf Grundlage eines Referenzicrungsmechanismus nach Anspruch 5, dadurch gekennzeichnet, dass der Additionsablauf der Selbstreferenzierung gefolgt von Kanalrcferenzierung im seriellen Ablauf spezifisch wie folgt ist: ein Modus des Ausführens von Selbstreferenzierung gefolgt von Kanalreferenzierung des seriellen Ablaufs: die vorhergehende Schicht wird Konvolution unterzogen, um eine Merkmalskarte F,, als eine Eingabe zu erlangen, eine Kanalreferenzierungskarte Fria wird mittels der Kanalreferenzierung M, erlangt und dann mit der Eingabemerkmalskarte als Eingabe der Selbstreferenzierung M, zusammengeführt, woraufhin die mittels M, erlangte Merkmalskarte mit Frmia zusammengefithrt wird. um die endgültige Ausgabe des Referenzierungsmoduls zu erlangen und die mathematisch Beschreibung wie folgt ist: Frida = Ma(Fin)®Fin Fout = Mc (Fria) ®Fmiq.
7. Gesichtsausdruckserkennungsverfahren auf Grundlage eines Referenzierungsmechanismus nach Anspruch 5, dadurch gekennzeichnet, dass der Additionsablauf der Kanalreferenzierung gefolgt von Selbstreferenzierung im seriellen Ablauf spezifisch wie folgt ist: ein Modus der Kanalreferenzicrung gefolgt von Selbstreferenzierung im seriellen Ablauf: die vorhergehende Schicht wird Konvolution unterzogen, um eine Merkmalskarte als Eingabe zu erlangen. jeweilige Merkmalskarten werden mittels der Selbstreferenzierung M, und der Kanalreferenzierung M, erlangt und dann mit der Eingabemerkmalskarte Fi, zusammengeführt, um jeweils eine Selbstreferenzierungskarte Fig und eine Kanalreferenzierungskarte Fe 74 erlangen, und schließlich Durchführen eines Summierungsvorgangs der entsprechenden Elemente an den erlangten Referenzierungskarten, um die endgültige Referenzierungskartenausgabe Four zu erlangen, wobei eine 6 mathematische Beschreibung wie folgt ist: Fria = M (Fin) Fin Fout = Ma (Fria) ®Fmia wobei @ besagt, dass die entsprechenden Elemente multipliziert werden.
8. Gesichtsausdruckserkennungsverfahren auf Grundlage eines Referenzterungsmechanismus nach Anspruch 5, dadurch gekennzeichnet, dass die Schritte des parallelen Additionsablaufs folgende sind: die vorhergehende Schicht wird Konvolution unterzogen, um eine Merkmalskarte als Eingabe zu erlangen, jeweilige Merkmalskarten werden mittels der Selbstreferenzierung M, und der Kanalreferenzierung M, erlangt, ein Multiplikationsvorgang der entsprechenden Elemente wird an der erlangten Merkmalskarte und der Eingabemerkmalskarte ausgeführt, um jeweils eine Selbstreferenzierungskarte F2; und eine Kanalreferenzierungskarte Ffia zu erlangen, und schließlich werden die entsprechenden Elemente der der beiden erlangten Referenzierungskarten addiert, um die endgültige Ausgabe Four Zu erlangen, wobei cine mathematische Beschreibung wie folgt ist: Fria = Mc (Fin)®Fin Fria = Ma(Fin)®Fin Four = Fria © Frnid wobei in der Formel & besagt, dass die entsprechenden Elemente addiert werden, und ® besagt, dass die entsprechenden Flemente multipliziert werden.
9. Gesichtsausdruckserkennungsverfahren auf Grundlage eines Referenzierungsmechanismus nach Anspruch 1, dadurch gekennzeichnet, dass Kanalreferenzierung und Selbstreferenzierung in einem Restgrößenmodul bereitgestellt werden, um ein Referenzierungsrestgrößenmodul zu bilden, das spezifisch in drei Strukturen unterteilt ist: separates Verwenden eines Selbstreferenzierungsmechanismus, separates Verwenden eines Kanalreferenzierungsmechanismus und gleichzeitiges Verwenden des Selbstreferenzierungs- und des Kanalreferenzierungsmechanismus; wobei das Referenzierungsrestgrößenmodul ein 7
Modul ist, bei dem der Referenzierungsmechanismus auf Grundlage eines anfänglichen RestgrôBenmoduls addiert wird. 8
LU102496A 2020-11-03 2021-02-08 Facial expression recognition method based on attention mechanism LU102496B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011207089.0A CN112257647A (zh) 2020-11-03 2020-11-03 基于注意力机制的人脸表情识别方法

Publications (1)

Publication Number Publication Date
LU102496B1 true LU102496B1 (en) 2021-08-09

Family

ID=74268108

Family Applications (1)

Application Number Title Priority Date Filing Date
LU102496A LU102496B1 (en) 2020-11-03 2021-02-08 Facial expression recognition method based on attention mechanism

Country Status (2)

Country Link
CN (1) CN112257647A (de)
LU (1) LU102496B1 (de)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112784764B (zh) * 2021-01-27 2022-07-12 南京邮电大学 一种基于局部与全局注意力机制的表情识别方法及系统
CN113033310A (zh) * 2021-02-25 2021-06-25 北京工业大学 一种基于视觉自注意力网络的表情识别方法
CN113076890B (zh) * 2021-04-09 2022-07-29 南京邮电大学 基于改进的通道注意力机制的人脸表情识别方法及系统
CN113111779A (zh) * 2021-04-13 2021-07-13 东南大学 基于注意力机制的表情识别方法
CN113255530B (zh) * 2021-05-31 2024-03-29 合肥工业大学 基于注意力的多通道数据融合网络架构及数据处理方法
CN113223181B (zh) * 2021-06-02 2022-12-23 广东工业大学 一种弱纹理物体位姿估计方法
CN113486744B (zh) * 2021-06-24 2023-02-14 中国科学院西安光学精密机械研究所 基于眼动和人脸表情范式的学生学习状态评估系统及方法
CN113570035B (zh) * 2021-07-07 2024-04-16 浙江工业大学 一种利用多层卷积层信息的注意力机制方法
CN113688204B (zh) * 2021-08-16 2023-04-25 南京信息工程大学 一种利用相似场景及混合注意力的多人会话情感预测方法
CN115439912A (zh) * 2022-09-20 2022-12-06 支付宝(杭州)信息技术有限公司 一种识别表情的方法、装置、设备及介质
CN115294483A (zh) * 2022-09-28 2022-11-04 山东大学 输电线路复杂场景的小目标识别方法及系统
CN116152890B (zh) * 2022-12-28 2024-01-26 北京融威众邦电子技术有限公司 一种医疗费用自助支付系统
CN116311192B (zh) * 2023-05-15 2023-08-22 中国科学院长春光学精密机械与物理研究所 空间目标定位、区域超分辨重建及类型识别的系统及方法
CN116645716B (zh) * 2023-05-31 2024-01-19 南京林业大学 基于局部特征和全局特征的表情识别方法
CN116740795B (zh) * 2023-08-16 2023-11-24 天津师范大学 基于注意力机制的表情识别方法、模型及模型训练方法

Also Published As

Publication number Publication date
CN112257647A (zh) 2021-01-22

Similar Documents

Publication Publication Date Title
LU102496B1 (en) Facial expression recognition method based on attention mechanism
Storey et al. 3DPalsyNet: A facial palsy grading and motion recognition framework using fully 3D convolutional neural networks
Liu et al. The research of virtual face based on Deep Convolutional Generative Adversarial Networks using TensorFlow
CN111754637B (zh) 一种样本相似度抑制的大尺度三维人脸合成系统
Zhao et al. Joint face alignment and segmentation via deep multi-task learning
Zheng et al. Efficient face detection and tracking in video sequences based on deep learning
Paul et al. Extraction of facial feature points using cumulative histogram
Daihong et al. Facial expression recognition based on attention mechanism
Nemani et al. Deep learning based holistic speaker independent visual speech recognition
Ge et al. Masked face recognition with convolutional visual self-attention network
Zhi et al. Micro-expression recognition with supervised contrastive learning
Pande et al. Development and deployment of a generative model-based framework for text to photorealistic image generation
Sharma et al. An improved technique for face age progression and enhanced super-resolution with generative adversarial networks
Yu et al. SegNet: a network for detecting deepfake facial videos
Guo Impact on biometric identification systems of COVID-19
Jadhav et al. HDL-PI: hybrid DeepLearning technique for person identification using multimodal finger print, iris and face biometric features
Muthukumar et al. Vision based hand gesture recognition for Indian sign languages using local binary patterns with support vector machine classifier
Khellat-Kihel et al. Gender and ethnicity recognition based on visual attention-driven deep architectures
Kakani et al. Segmentation-based ID preserving iris synthesis using generative adversarial networks
Huang et al. Expression-targeted feature learning for effective facial expression recognition
Zheng et al. BLAN: Bi-directional ladder attentive network for facial attribute prediction
Oulad-Kaddour et al. Deep Learning-Based Gender Classification by Training With Fake Data
CN111739168B (zh) 一种样本相似度抑制的大尺度三维人脸合成方法
Usmani et al. Efficient deepfake detection using shallow vision transformer
Liu et al. Face expression recognition based on improved convolutional neural network

Legal Events

Date Code Title Description
FG Patent granted

Effective date: 20210809