DE202023102803U1 - System zur Erkennung von Emotionen und zur Stimmungsanalyse durch maschinelles Lernen - Google Patents

System zur Erkennung von Emotionen und zur Stimmungsanalyse durch maschinelles Lernen Download PDF

Info

Publication number
DE202023102803U1
DE202023102803U1 DE202023102803.9U DE202023102803U DE202023102803U1 DE 202023102803 U1 DE202023102803 U1 DE 202023102803U1 DE 202023102803 U DE202023102803 U DE 202023102803U DE 202023102803 U1 DE202023102803 U1 DE 202023102803U1
Authority
DE
Germany
Prior art keywords
module
machine learning
data
analysis
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202023102803.9U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE202023102803.9U priority Critical patent/DE202023102803U1/de
Publication of DE202023102803U1 publication Critical patent/DE202023102803U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/092Reinforcement learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Psychiatry (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Social Psychology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Ein System (10) zur Emotionserkennung und Stimmungsanalyse unter Verwendung von maschinellem Lernen, wobei das System (10) Folgendes umfasst:
ein Datensammelmodul (1), das so konfiguriert ist, dass es Dateneingaben von einer Vielzahl von Quellen sammelt, wobei die Dateneingaben Textdaten, Audiodaten und/oder visuelle Daten umfassen, wobei das Datensammelmodul (1) ferner so konfiguriert ist, dass es Echtzeit-Dateneingaben sammelt;
ein Vorverarbeitungsmodul (2), das so konfiguriert ist, dass es die gesammelten Dateneingaben in ein für die weitere Analyse geeignetes maschinenlesbares Format umwandelt;
ein maschinelles Lernmodul (3), das so konfiguriert ist, dass es die maschinenlesbaren Daten von dem Vorverarbeitungsmodul (2) empfängt und darauf eine Emotionserkennung und eine Stimmungsanalyse durchführt, wobei das maschinelle Lernmodul (3) ein oder mehrere maschinelle Lernmodelle verwendet, die auf einem Datensatz trainiert wurden, der Instanzen von Emotionen und Stimmungen umfasst. "wobei das maschinelle Lernmodell ein Deep-Learning-Modell, ein Verstärkungs-Lernmodell, ein überwachtes Lernmodell, ein unbeaufsichtigtes Lernmodell oder eine Kombination davon umfasst, wobei das maschinelle Lernmodul (3) so konfiguriert ist, dass es relevante Merkmale aus den vorverarbeiteten Dateneingaben auf der Grundlage vordefinierter Kriterien extrahiert, wobei die Merkmale als Eingabe für das maschinelle Lernmodul (3) dienen, wobei das maschinelle Lernmodul (3) ein Trainingsmodul verwendet, das so konfiguriert ist, dass es das eine oder die mehreren maschinellen Lernmodelle trainiert, indem es einen Trainingsdatensatz verwendet, der Instanzen bekannter Emotionen und Gefühle umfasst; und
ein Ausgabemodul (4), das so konfiguriert ist, dass es die Ergebnisse der Emotionserkennung und der Stimmungsanalyse einem Benutzer oder einer Anwendung zur Verfügung stellt, wobei das Ausgabemodul (4) ferner so konfiguriert ist, dass es visuelle Darstellungen der Ergebnisse der Emotionserkennung und der Stimmungsanalyse bereitstellt.

Description

  • BEREICH DER ERFINDUNG
  • Die vorliegende Erfindung bezieht sich auf das Gebiet des maschinellen Lernens und insbesondere auf ein System zur Emotionserkennung und Stimmungsanalyse.
  • Insbesondere bezieht sich die vorliegende Erfindung auf ein System zur Erkennung von Emotionen und zur Stimmungsanalyse mit Hilfe von maschinellem Lernen.
  • HINTERGRUND DER ERFINDUNG
  • Bei dem im Abschnitt „Hintergrund“ behandelten Gegenstand sollte nicht davon ausgegangen werden, dass er allein aufgrund seiner Erwähnung im Abschnitt „Hintergrund“ zum Stand der Technik gehört. Ebenso sollte nicht davon ausgegangen werden, dass ein im Hintergrundabschnitt erwähntes oder mit dem Gegenstand des Hintergrundabschnitts verbundenes Problem bereits im Stand der Technik erkannt worden ist. Der Gegenstand des Hintergrundabschnitts stellt lediglich verschiedene Ansätze dar, die für sich genommen ebenfalls Erfindungen sein können.
  • Im digitalen Zeitalter werden riesige Datenmengen erzeugt und ausgetauscht, wobei vor allem unstrukturierte Daten wie Text-, Audio- und Bildinhalte zunehmen. Die Analyse dieser Daten, insbesondere wenn sie in Echtzeit erzeugt werden, stellt eine große Herausforderung dar. Insbesondere das Verständnis der Emotionen und Stimmungen hinter diesen Daten kann für verschiedene Anwendungen wie Kundenservice, Werbung und Überwachung sozialer Medien von entscheidender Bedeutung sein. Daher besteht ein Bedarf an einem verbesserten System, das Emotionen und Stimmungen aus einer Vielzahl von Datenquellen genau erkennen und analysieren kann...
  • Im Zeitalter der digitalen Technologie hat die Erzeugung und Weitergabe von Daten exponentiell zugenommen. Diese Daten umfassen oft eine breite Palette von Formaten, einschließlich, aber nicht beschränkt auf Text-, Audio- und visuelle Inhalte. Diese verschiedenen Datentypen stellen eine riesige und wachsende Informationsquelle dar, die, wenn sie genau analysiert und interpretiert werden, wertvolle Erkenntnisse in zahlreichen Bereichen wie Kundenservice, Werbung, Gesundheitswesen, Überwachung sozialer Medien und darüber hinaus bieten können.
  • Eine spezielle Art der Analyse, die in den letzten Jahren an Bedeutung gewonnen hat, ist die Erkennung von Emotionen und die Stimmungsanalyse. Die Erkennung von Emotionen ist der Prozess der Identifizierung menschlicher Emotionen, meist anhand von physischen Signalen wie Gesichtsausdrücken oder Körpersprache. Bei der Stimmungsanalyse hingegen wird der emotionale Ton hinter einer Reihe von Wörtern ermittelt. Sie wird häufig verwendet, um ein Verständnis für die Einstellungen, Meinungen und Emotionen zu gewinnen, die in einer Online-Erwähnung zum Ausdruck kommen.
  • Die Fähigkeit, Emotionen und Gefühle zu verstehen und zu interpretieren, kann die Interaktion zwischen Mensch und Computer erheblich verbessern, die Interaktion mit Kunden optimieren und die Entwicklung von Produkten und Dienstleistungen erleichtern, die den Bedürfnissen der Nutzer besser entsprechen. So können Unternehmen beispielsweise die Stimmungsanalyse nutzen, um das Kundenfeedback zu einem Produkt oder einer Dienstleistung zu verstehen und so ihr Angebot und ihre Kundenerfahrung zu verbessern. In ähnlicher Weise kann die Stimmungsanalyse bei der Überwachung sozialer Medien helfen, Trends in der öffentlichen Meinung zu erkennen und potenzielle Krisen zu erkennen, bevor sie eskalieren.
  • Die Analyse unstrukturierter Daten wie Text-, Audio- und Bildinhalte, insbesondere in Echtzeit, stellt jedoch eine große Herausforderung dar. Herkömmliche Datenanalysetechniken können diese Art von Daten aufgrund ihrer Komplexität und ihres Umfangs oft nicht effektiv verarbeiten und interpretieren. Darüber hinaus sind Emotionen und Gefühle sehr nuanciert und können auf subtile und vielfältige Weise ausgedrückt werden, was die Analyse noch komplexer macht.
  • Das maschinelle Lernen, ein Teilbereich der künstlichen Intelligenz, hat sich als vielversprechend erwiesen, um diese Herausforderungen zu bewältigen. Durch das Trainieren eines maschinellen Lernmodells auf einem Datensatz mit Emotions- und Stimmungsinstanzen kann das Modell lernen, diese Instanzen in neuen Daten zu erkennen und zu interpretieren.
  • Die derzeitigen Systeme stützen sich jedoch häufig auf Daten aus einer einzigen Quelle oder in einem einzigen Format, was ihre Effizienz einschränkt. Außerdem können diese Systeme möglicherweise keine Echtzeitdaten verarbeiten, was ihre Anwendbarkeit in Szenarien einschränkt, in denen eine Emotionserkennung und Stimmungsanalyse in Echtzeit erforderlich ist.
  • Daher besteht ein Bedarf an einem System, das Emotionen und Stimmungen aus einer Vielzahl von Datenquellen und -formaten, einschließlich Echtzeitdaten, genau erkennen und analysieren kann. Die vorgeschlagene Erfindung zielt darauf ab, diesen Bedarf durch die Bereitstellung eines Systems zur Emotionserkennung und Stimmungsanalyse mit maschinellem Lernen zu decken.
  • Die Aufzählung von Wertebereichen dient lediglich als Kurzbezeichnung für jeden einzelnen Wert, der in den Bereich fällt. Sofern hier nicht anders angegeben, wird jeder einzelne Wert in die Spezifikation aufgenommen, als ob er hier einzeln aufgeführt wäre.
  • CN108647219 KONVOLUTIONELLES NEURALES NETZWERK TEXT SENTIMENT ANALYSE-METHODE, DIE EIN EMOTIONEN-WÖRTERBUCH KOMBINIERT Die Erfindung stellt eine Text-Sentiment-Analyse-Methode mit einem konvolutionellen neuronalen Netzwerk zur Verfügung, die ein Emotionswörterbuch kombiniert. Das Verfahren umfasst die Schritte des Erhaltens eines englischen Kommentars und der Kennzeichnung der emotionalen Polarität; des Erhaltens eines erforderlichen Korpus und des Entfernens eines Stoppworts; und dann der Verwendung des word2vec-Algorithmus, um den verarbeiteten Korpus zu trainieren, um einen entsprechenden Wortvektor zu erhalten; des Multiplizierens und Spleißens des Wortvektors in jedem Satz mit den entsprechenden Emotionswerten im Wörterbuch, um eine Matrixdarstellung des Satzes zu erhalten; und Eingabe der Matrixdarstellung des Satzes in die Struktur des Faltungsneuronalen Netzes (CNN), so dass während des Modelltrainings die emotionale Polaritätsebene der Wörter darin eingebettet wird, so dass der Fokus der Aufmerksamkeit des Modells näher am menschlichen Verständnis liegt und die Genauigkeit der Textstimmungsanalyse verbessert wird.
  • US11295731 ARTIFICIAL INTELLIGENCE (AI) UNTERSTÜTZTE PRESCRIPTIVE PERSUASION PROCESSES BASED ON SPEECH EMOTION RECOGNITION AND SENTIMENT ANALYSIS Methoden und Systeme werden für das Al-basierte Computer-Aided Persuasion System (CAPS) bereitgestellt. Das CAPS erhält Eingaben sowohl von der Zielperson als auch vom Agenten für ein Objekt und generiert dynamisch Überredungshinweise basierend auf der Analyse der Eingaben. Das CAPS erhält eine Inhaltsausgabe durch Analyse des Audiostroms des Agenten und des Audiostroms des Ziels unter Verwendung eines rekurrenten Netzwerkmodells (RNN), erhält Stimmungsklassifikatoren auf der Grundlage eines Faltungsneuronalen Netzwerkmodells (CNN LSTM), aktualisiert eine Konversationsmatrix und erzeugt eine Überzeugungsreferenz auf der Grundlage der aktualisierten Konversationsmatrix. Die Überzeugungsreferenz basiert auf einem Akzeptanzwahrscheinlichkeitsergebnis, das aus der Konversationsmatrix unter Verwendung des RNN-Modells erzeugt wird. Das CAPS erzeugt ferner ein Zielprofil unter Verwendung von DNN (Deep Neural Net) mit Eingabe von Ziel-Big-Data, wobei das Zielprofil ein oder mehrere Objekte enthält und wobei der Agent auf der Grundlage des erzeugten Profils und eines oder mehrerer ausgewählter Objekte ausgewählt wird.
  • CN108763326 FEATURE DIVERSIFICATION-BASED EMOTION ANALYSIS MODEL CONSTRUCTION METHOD OF CONVOLUTIONAL NEURAL NETWORK (CNN) Die Erfindung offenbart ein auf Merkmalsdiversifikation basierendes Emotionsanalysemodell-Konstruktionsverfahren eines Convolutional Neural Network (CNN). Gemäß dem Verfahren werden zunächst ein Emotionswörterbuch und ein Satzkorpus-Trainingssatz importiert, ein anfänglicher Datensatz wird entsprechend vorverarbeitet, Emotions-Scores und Gewichtsscores gewöhnlicher Einträge werden durch die Berechnung der Häufigkeit des Auftretens von Emotionswörtern in Dokumenten mit unterschiedlicher Polarität in Datensätzen berechnet, Eintragsscore-Merkmal-Zählwerte werden erhalten, und Merkmalsvektoren werden konstruiert; Spleiß- oder arithmetische Operationen werden an den erhaltenen Emotionswörterbuch-Emotions-Score-Vektoren und den gewöhnlichen Eintrags-Gewichts-Score-Vektoren und den vektorisierten Trainingssatz-Satzvektoren durchgeführt, um eine Eingabematrix mit Merkmalsinformationsdiversifikation zu erhalten; und schließlich wird ein Faltungsneuronalnetzmodell mit spezifischen Parametern für das Datensatztraining verwendet, um ein trainiertes Modell zu erhalten. Die Methode kann das Problem lösen, dass die Gewinnung von Modellen auf versteckten Emotionsinformationen tieferer Schichten bei der Modellschulung nicht umfassend genug ist, und kann auch die Genauigkeit der Emotionsklassifizierung effektiv verbessern.
  • IN202041035805 MENSCHLICHE STIMMUNGSANALYSE: NEURONALES NETZWERK-BASIERTE MENSCHLICHE STIMMUNGSANALYSE MIT DEEP-LEARNING-PROGRAMMIERUNG. Meine Erfindung „Human Sentiment Analysis“ ist ein Deep Learning, das zur kombinierten Bild-, Merkmals- und Textanalyse von Nachrichten angewendet wird, die Bilder, Text und andere benötigte Dinge enthalten. Ein neuronales Faltungsnetzwerk wird anhand der Bilder und ein rekurrentes neuronales Netzwerk anhand des Textes trainiert. Ein Klassifikator sagt die menschliche Reaktion auf die Nachricht voraus, einschließlich der Klassifizierung der Reaktionen auf das Bild, den Text und die Nachricht insgesamt. Die Visualisierungen zeigen den Schwerpunkt der neuronalen Netzwerkanalyse auf Teilen der Bilder und des Textes. Andere Medientypen in Nachrichten können ebenfalls durch eine Kombination spezialisierter neuronaler Netze analysiert werden. Diese Technik dient der Stimmungsanalyse und der Präsentation der Ergebnisse. Die erfindungsgemäße Software/Hardware wird in Form eines „fertigen“ Sentiment-Widgets bereitgestellt, das so programmiert ist, dass es die Stimmung für ein bestimmtes Thema, eine Entität oder eine Facette (z. B. ein Merkmal einer Entität) analysiert. Die erfindungsgemäße Software/Hardware bietet eine Sentiment-Analyse-Engine und ein oder mehrere Benutzerschnittstellen-Tools zur Darstellung der Sentiment-Analyse.
  • KR1020210027769 NEURAL NETWORK-BASED EMOTION ANALYSIS AND EMOTION TREATMENT SYSTEM Die vorliegende Erfindung betrifft ein auf einem neuronalen Netz basierendes Verfahren zur Emotionsanalyse. Das auf einem neuronalen Netzwerk basierende Verfahren zur Emotionsanalyse umfasst die folgenden Schritte: (a) Berechnen eines ersten Emotionsanalyseergebnisses durch Anwenden einer auf einem neuronalen Netzwerk basierenden Sprachanalyse auf von einem Benutzer eingegebene Sprachdaten; (b) Berechnen eines zweiten Emotionsanalyseergebnisses durch Anwenden einer auf einem Emotionswörterbuch basierenden Kontextanalyse auf die Sprachdaten; und (c) Ausgeben eines integrierten Emotionsanalyseergebnisses für die Sprachdaten durch Verwenden des ersten Emotionsanalyseergebnisses und des zweiten Emotionsanalyseergebnisses als Eingabe für ein neuronales Netzwerk, wodurch das genauere Emotionsanalyseergebnis abgeleitet wird. URHEBERRECHT KIPO 2022
  • CN113704459 ONLINE TEXT SENTIMENT ANALYSIS METHOD BASED ON NEURAL NETWORK Die Erfindung betrifft ein Online-Text-Sentiment-Analyse-Verfahren, das auf einem neuronalen Netzwerk basiert, und das Verfahren umfasst die folgenden Schritte: 1, Durchführen der Vorverarbeitung von Online-Text-Beispieldaten und manuelles Durchführen der Stimmungsbewertungsgradmarkierung im Voraus; 2, Konstruieren eines anfänglichen UBPNN-Neuronalnetzmodells für die Online-Text-Stimmungsanalyse und Trainieren des Modells unter Verwendung von Trainingsdatensätzen; Berechnen einer Verlustfunktion jedes Mal, Berechnen eines Gradienten von Neuronen einer Ausgabeschicht und Aktualisieren eines Netzwerkparameterwertes jeder Schicht durch Rückwärtsfortpflanzung, bis eine Trainingsstoppbedingung erreicht ist, und Erhalten eines optimierten neuronalen UBPNN-Netzwerkmodells und jedes Netzwerkparameters; und 3, Sammeln tatsächlicher Textkorpusdaten und Verarbeiten der Daten unter Verwendung des optimierten neuronalen UBPNN-Netzwerkmodells, um ein Online-Textstimmungsanalyseergebnis zu erhalten. Die Erfindung hat die Funktion der schnellen und genauen Analyse der Emotionstendenz der Benutzerkommentare, und das Benutzerbewertungsergebnis wird automatisch analysiert und durch die Analyse des Benutzerbewertungstextes gegeben.
  • CN110362819 VERFAHREN ZUR TEXTSTIMMUNGSANALYSE AUF DER BASIS EINES KONVOLUTIONELLEN NEURALEN NETZES Die Erfindung betrifft das Gebiet der Informationssysteme, insbesondere ein Verfahren zur Textstimmungsanalyse auf der Basis eines konvolutiven neuronalen Netzes. Das Verfahren eignet sich insbesondere für die Analyse der Textstimmung von Mikroblogs, Freundeskreisen und dergleichen, die von sozialen Netzwerken veröffentlicht werden.
  • Das Verfahren umfasst die folgenden Schritte: Aufteilung von Textsätzen in verschiedene Wörter durch ein ICTCLAS-Wortsegmentierungssystem der Hochschule für traditionelle chinesische Medizin; Vektorisierung der Wörter durch ein Word2vec-Tool; Markierung des Part-of-Speech in ein positives Sentiment-Wort, ein negatives Sentiment-Wort, ein negatives Wort und ein Grad-Adverb durch einen Howmet-Sentiment-Wortsatz; und Kombination und Spleißung der Wortvektoren und der Part-of-Speech-Markierung, um als Eingabe für ein neuronales Faltungsnetzwerk zu dienen, um die Textstimmung zu erkennen. Die Sentiment-Analyse-Methode hat den Vorteil, dass die Sentiment-Analyse einfacher ist und implementiert werden kann. Die Kernstimmung von Sätzen kann hervorgehoben werden, die Komplexität des Algorithmus wird reduziert, die Effizienz wird verbessert, die Stimmungsanalyse wird erleichtert, und negative Stimmungen werden endlich erkannt.
  • CN111143567 VERFAHREN ZUR KOMMENTARSTIMMUNGSANALYSE AUF DER BASIS EINES VERBESSERTEN NEURALEN NETZES Die Erfindung offenbart ein Verfahren zur Analyse der Kommentarstimmung auf der Basis eines verbesserten neuronalen Netzes, und das Verfahren umfasst die Schritte: Konstruieren einer Kommentarrepräsentationsmatrix für eingegebene Kommentartextdaten; Berechnen einer Kommentarrepräsentationsmatrix durch eine Vielzahl von Faltungskernen in Folge, um Merkmalskarten verschiedener Größen zu erhalten; Berechnen jeder erhaltenen Merkmalskarte durch Verwendung von Pyramidenpooling, um einen Merkmalsvektor mit einer festen Länge zu erhalten; Spleißen, um einen Merkmalsvektor jeder Merkmalskarte zu erhalten, und Verbinden der Merkmalsvektoren mit der Vollverbindungsschicht; Abbilden der Ausgabe der Vollverbindungsschicht in einen Wahrscheinlichkeitsverteilungsvektor unter Verwendung einer SoftMax-Funktion, wobei jede Dimension des Wahrscheinlichkeitsverteilungsvektors einer Emotionskategorie in der Emotionsanalyseaufgabe entspricht; und Auswählen der Emotionskategorie, die dem Wert mit der maximalen Wahrscheinlichkeit in dem Wahrscheinlichkeitsverteilungsvektor entspricht, als ein Kommentaremotionsbeurteilungsergebnis. Gemäß dem Verfahren kann die Textsequenz effektiv modelliert werden, und die Sequenzcharakteristika des Textes können effektiv reserviert werden, so dass die emotionale Einstellung in dem Kommentar-Textinhalt genau und effektiv erkannt werden kann.
  • CN211993011 EMOTION ANALYSIS VOICE CHAT ROBOT BASED ON CNN Das Gebrauchsmuster offenbart einen auf CNN basierenden Emotionsanalyse-Sprach-Chat-Roboter. Der Roboter umfasst einen Roboterhauptkörper, einen intelligenten CNN-Chip, ein Sprachempfangsmodul, eine Sprachdatenbank und einen Lautsprecher. Eine mechanische Antriebsstruktur ist im Roboterhauptkörper angeordnet; die mechanische Antriebsstruktur umfasst eine mechanische Halsstruktur und eine mechanische Mundstruktur; der Roboterkörper umfasst eine Kopfstruktur und eine Körperstruktur. Die mechanische Halsstruktur umfasst eine feststehende Welle; die beiden Enden der feststehenden Welle sind fest mit der Körperstruktur verbunden; die Außenseite der feststehenden Welle ist mit einer Verbindungswelle ummantelt, das andere Ende der Verbindungswelle ist mit einer Drehwelle verbunden, die Drehwelle durchdringt die Kopfstruktur, ein hydraulischer Antrieb ist an der feststehenden Welle befestigt, eine Teleskopwelle ist mit der Oberseite des hydraulischen Antriebs verbunden, eine Drehwelle ist am Ende der Teleskopwelle angeordnet, und feste Verbindungsbasen sind an den Außenseiten der beiden Enden der Drehwelle angeordnet. Die Bewegungen der Gliedmaßen des Roboters werden durch eine mechanische Struktur erreicht, die Emotionen werden durch die Bewegungen der Gliedmaßen ausgedrückt, der Roboter kann eine bessere Affinität haben, und die Emotionsaufnahme des Roboters wird verbessert.
  • CN111881262 TEXT SENTIMENT ANALYSIS METHOD BASED ON MULTI-CHANNEL NEURAL NETWORK Die Erfindung betrifft ein Verfahren zur Analyse der Textstimmung auf der Grundlage eines mehrkanaligen neuronalen Netzes und gehört zum technischen Gebiet der Computer. Das Verfahren umfasst die folgenden Schritte: 1, Durchführen einer Wortsegmentierung an einem Text und Abbilden des Textes in eine Wortvektormatrix; 2, Extrahieren von hochrangigen Kontextmerkmalen und ursprünglichen Kontextmerkmalen des Textes unter Verwendung eines Lang-Kurzzeit-Gedächtnis-Netzwerks und eines neuronalen Faltungsnetzwerks; 3, Extrahieren und Verschmelzen von hochrangigen Kontextmerkmalen und ursprünglichen Kontextmerkmalen mit unterschiedlichen Sichtabständen unter Verwendung einer Mehrkanalstruktur und Gewichten der Merkmale jedes Kanals durch einen lokalen Aufmerksamkeitsmechanismus, um globale Merkmale zu erzeugen; 4, Hervorhebung wichtiger Informationen in den globalen Merkmalen durch Verwendung eines globalen Aufmerksamkeitsmoduls und schließlich Screening der Merkmale durch Verwendung einer Top-K-Pooling-Strategie; und 5, Reduzierung des Einflusses des Ungleichgewichts der Trainingsdatenklasse auf das Modell durch Verwendung einer adaptiven gewichteten Verlustfunktion. Mit dieser Methode kann die Stimmung im Text analysiert werden, die im Text ausgedrückte Stimmung wird klassifiziert, eine genaue Extraktion und Verbesserung der Textmerkmale wird erreicht, und die Methode hat eine hohe Kapazität zur Analyse der Stimmung im Text.
  • CN113095069 DATENGESTEUERTES NEURALES NETZWERKARCHITEKTUR-SYSTEM AUF DER GRUNDLAGE DER SINNUNGSANALYSE Die Erfindung bezieht sich auf das Anwendungsgebiet eines neuronalen Faltungsnetzes in der Stimmungsanalyse, insbesondere auf ein datengesteuertes neuronales Netzarchitektur-System auf der Grundlage der Stimmungsanalyse, das die folgenden Module umfasst: ein eingebettetes Schichtmodul, ein Merkmalsfaltungsschichtmodul, ein Maximum-Pooling-Schichtmodul und ein kompaktes Schichtmodul, wobei das eingebettete Schichtmodul die Eingabe des gesamten Systemmoduls ist, das Merkmalsfaltungsschichtmodul für die Merkmalsextraktion verwendet wird; das Maximum-Pooling-Schichtmodul lokale Informationen von Wortkombinationen in einem Text beibehält; und das kompakte Schichtmodul bestimmt, zu welcher Klassifikation die Eingabe gemäß einem bestimmten Gewicht gehört, das von jedem Merkmalsknoten gehalten wird.
  • CN113535904 VERFAHREN ZUR ASPEKTSTIMMUNGSANALYSE AUF DER BASIS EINES GRAFENNEURALEN NETZES Die Erfindung betrifft ein Verfahren zur Stimmungsanalyse auf Aspektebene auf der Basis eines grafischen neuronalen Netzes und gehört zum Bereich der Verarbeitung natürlicher Sprache. Das Verfahren umfasst die folgenden Schritte: S1, Merkmalseingabe: Durchführen einer Wortvektorzuordnung unter Verwendung eines Bert-Vortrainings-Sprachmodells und dann Durchführen einer Berechnung einer Belts-Schicht, um verborgene Merkmale zu erhalten, die durch semantische Kontextinformationen dargestellt werden; S2, semantische Merkmalsextraktion: Durchführen einer semantischen Merkmalsextraktion unter Verwendung eines mehrschichtigen Multi-Hop-Attention-Graph-Neuronalnetzes MAGNA; S3, eine Aspekt-Zielwort- und Kontext-Semantik-Interaktionsstufe: Durchführung einer Abschirmungsoperation an den in S2 extrahierten Merkmalen und anschließende Durchführung einer Punktprodukt-Aufmerksamkeitsoperation mit verborgenen Merkmalen, die eine Gürtelschicht durchlaufen; und S4, eine Label-Vorhersagestufe: Durchführung einer maximalen Pooling-Operation an den in S3 erhaltenen Merkmalen, Durchführung einer Dimensionsreduktion durch lineare Transformation und anschließende Durchführung einer SoftMax-Operation, um eine endgültige Vorhersageergebnisdarstellung zu erhalten. Gemäß der Methode wird die Fähigkeit zur Identifizierung der syntaktischen Beziehung über große Entfernungen durch das Modell verbessert.
  • Die in diesem Abschnitt „Hintergrund“ offengelegten Informationen dienen lediglich dem besseren Verständnis des Hintergrunds der Erfindung und können daher Informationen enthalten, die nicht zum Stand der Technik gehören und die einer Person mit normaler Fachkenntnis in diesem Land bereits bekannt sind.
  • ZUSAMMENFASSUNG
  • Bevor die vorliegenden Systeme und Methoden beschrieben werden, sei darauf hingewiesen, dass diese Anwendung nicht auf die beschriebenen Systeme und Methoden beschränkt ist, da es mehrere mögliche Ausführungsformen geben kann, die in der vorliegenden Offenlegung nicht ausdrücklich dargestellt sind. Es ist auch zu verstehen, dass die in der Beschreibung verwendete Terminologie nur zur Beschreibung der besonderen Versionen oder Ausführungsformen dient und nicht dazu gedacht ist, den Umfang der vorliegenden Anwendung zu begrenzen.
  • Die vorliegende Erfindung behebt und löst im Wesentlichen die im Stand der Technik bestehenden technischen Probleme. Als Antwort auf diese Probleme offenbart die vorliegende Erfindung ein System zur Emotionserkennung und Stimmungsanalyse unter Verwendung von maschinellem Lernen.
  • In Anbetracht der obigen Ausführungen stellt die vorliegende Erfindung ein System zur Erkennung von Emotionen und zur Stimmungsanalyse mittels maschinellen Lernens bereit. Das System umfasst:
    • Ein Datensammelmodul, das so konfiguriert ist, dass es Dateneingaben aus einer Vielzahl von Quellen sammelt. Diese Dateneingaben können Textdaten, Audiodaten und/oder visuelle Daten umfassen. Das Datenerfassungsmodul ist ferner so konfiguriert, dass es Echtzeit-Dateneingaben erfasst.
  • Ein Vorverarbeitungsmodul, das so konfiguriert ist, dass es die gesammelten Dateneingaben in ein für die weitere Analyse geeignetes maschinenlesbares Format umwandelt.
  • Ein Modul für maschinelles Lernen, das so konfiguriert ist, dass es die maschinenlesbaren Daten von dem Vorverarbeitungsmodul empfängt und darauf eine Emotionserkennung und eine Stimmungsanalyse durchführt. Das Modul für maschinelles Lernen verwendet ein oder mehrere Modelle für maschinelles Lernen, die auf einem Datensatz trainiert wurden, der Instanzen von Emotionen und Stimmungen enthält. Diese maschinellen Lernmodelle können ein Deep-Learning-Modell, ein Reinforcement-Learning-Modell, ein überwachtes Lernmodell, ein unüberwachtes Lernmodell oder eine Kombination davon umfassen.
  • Ein zweites Modul für maschinelles Lernen, das so konfiguriert ist, dass es relevante Merkmale aus den vorverarbeiteten Dateneingaben auf der Grundlage vordefinierter Kriterien extrahiert. Diese Merkmale dienen als Eingabe für das erste maschinelle Lernmodul. Darüber hinaus verwendet dieses Modul ein Trainingsmodul, das so konfiguriert ist, dass es das eine oder die mehreren maschinellen Lernmodelle trainiert, indem es einen Trainingsdatensatz verwendet, der Instanzen bekannter Emotionen und Stimmungen umfasst.
  • Ein Ausgabemodul, das so konfiguriert ist, dass es die Ergebnisse der Emotionserkennung und der Stimmungsanalyse an einen Benutzer oder eine Anwendung weitergibt. Das Ausgabemodul ist ferner so konfiguriert, dass es visuelle Darstellungen der Ergebnisse der Emotionserkennung und der Stimmungsanalyse bereitstellt.
  • Weitere Ausführungsformen des Systems können ein maschinelles Lernmodul umfassen, das Techniken zur Verarbeitung natürlicher Sprache anwendet, um Merkmale aus textuellen Dateneingaben zu extrahieren. Das Datenerfassungsmodul, das Vorverarbeitungsmodul, die maschinellen Lernmodule, das Trainingsmodul und das Ausgabemodul können jeweils als separates Softwaremodul implementiert werden, das auf einem oder mehreren Prozessoren eines Computergeräts ausgeführt wird.
  • In einer weiteren Ausführungsform kann das Ausgabemodul die Ergebnisse der Emotionserkennung und Stimmungsanalyse an ein externes System zur weiteren Verarbeitung oder Analyse weiterleiten. Das Modul für maschinelles Lernen kann ein neuronales Netzwerkmodell verwenden, das auf einem Datensatz trainiert wurde, der Instanzen von Emotionen und Stimmungen enthält. Das System kann ferner so konfiguriert sein, dass es eine Emotionserkennung und Stimmungsanalyse in Echtzeit durchführt.
  • Figurenliste
  • Um verschiedene Aspekte einiger Ausführungsbeispiele der vorliegenden Erfindung zu verdeutlichen, wird eine genauere Beschreibung der Erfindung durch Bezugnahme auf bestimmte Ausführungsformen, die in der beigefügten Zeichnung dargestellt sind, gegeben. Es wird davon ausgegangen, dass diese Zeichnung zeigt nur illustrierte Ausführungsformen der Erfindung und sind daher nicht als Einschränkung ihres Umfangs zu betrachten. Die Erfindung wird mit zusätzlicher Spezifität und Detail durch die Verwendung der beigefügten Zeichnung beschrieben und erläutert.
  • Damit die Vorteile der vorliegenden Erfindung leicht verstanden werden, wird im Folgenden eine detaillierte Beschreibung der Erfindung in Verbindung mit der beigefügten Zeichnung erörtert, die jedoch nicht als Beschränkung des Umfangs der Erfindung auf die beigefügte Zeichnung angesehen werden sollte, in der:
    • zeigt ein Blockdiagramm des Systems (10) zur Erkennung von Emotionen und zur Stimmungsanalyse mit Hilfe von maschinellem Lernen.
  • DETAILLIERTE BESCHREIBUNG
  • Die vorliegende Erfindung bezieht sich auf ein System (10) zur Erkennung von Emotionen und zur Stimmungsanalyse mittels maschinellen Lernens.
  • zeigt ein detailliertes Blockdiagramm des Systems (10) zur Erkennung von Emotionen und zur Stimmungsanalyse mit Hilfe von maschinellem Lernen.
  • Obwohl die vorliegende Offenbarung mit dem Zweck des Systems für die Erkennung von Emotionen und die Analyse von Gefühlen mit Hilfe von maschinellem Lernen beschrieben wurde, sollte man sich darüber im Klaren sein, dass dies nur zur beispielhaften Veranschaulichung der Erfindung und zur Hervorhebung jedes anderen Zwecks oder jeder anderen Funktion geschieht, für die die erläuterten Strukturen oder Konfigurationen verwendet werden könnten und die in den Anwendungsbereich der vorliegenden Offenbarung fallen.
  • Die ausführliche Beschreibung der Erfindung wird unter Bezugnahme auf die beigefügten Zeichnungen gegeben, die Ausführungsformen der Erfindung veranschaulichen. Allerdings kann die vorliegende Erfindung in verschiedenen Formen verkörpert werden, und der Umfang der Erfindung sollte nicht als auf die hier dargelegten Ausführungsformen beschränkt ausgelegt werden.
  • Die ausführliche Beschreibung der Erfindung ist in den beigefügten Figuren, die Ausführungsbeispiele zeigen, dargestellt. Die beschriebenen Ausführungsformen sind in jeder Hinsicht nur als illustrativ und nicht einschränkend zu betrachten. Alle hierin aufgeführten Abmessungen und Beispiele sind in keiner Weise als einschränkend oder begrenzend zu betrachten.
  • Im Allgemeinen funktioniert das System (10) durch das Sammeln von Dateneingaben aus verschiedenen Quellen über ein Datenerfassungsmodul (1). Diese Dateneingaben können Textdaten, Audiodaten und visuelle Daten umfassen, sind aber nicht darauf beschränkt. Sobald diese Dateneingaben gesammelt sind, werden sie von einem Vorverarbeitungsmodul (2) in ein maschinenlesbares Format umgewandelt.
  • Im Anschluss daran empfängt ein Modul für maschinelles Lernen (3) die maschinenlesbaren Daten und führt eine Emotionserkennung und Stimmungsanalyse an den Daten durch. Dieses Modul (3) verwendet ein oder mehrere Modelle des maschinellen Lernens, wie z. B. Deep Learning, Reinforcement Learning, überwachtes Lernen oder unüberwachte Lernmodelle. Diese Modelle wurden auf einem Datensatz trainiert, der Instanzen von Emotionen und Gefühlen enthält.
  • Ein weiteres Modul für maschinelles Lernen (3) extrahiert relevante Merkmale aus den vorverarbeiteten Dateneingaben auf der Grundlage vordefinierter Kriterien. Diese extrahierten Merkmale werden dann als Eingaben für das Modul für maschinelles Lernen (3) verwendet. Dieses Modul (4) umfasst auch ein Trainingsmodul, das einen Trainingsdatensatz mit bekannten Emotionen und Stimmungen verwendet, um die maschinellen Lernmodelle zu trainieren.
  • Schließlich liefert ein Ausgabemodul (4) die Ergebnisse der Emotionserkennung und der Stimmungsanalyse an einen Benutzer oder eine Anwendung. Diese Ergebnisse können in verschiedenen Formen bereitgestellt werden, auch als visuelle Darstellungen.
  • Das System (10) kann außerdem so konfiguriert werden, dass es Emotionserkennung und Stimmungsanalyse in Echtzeit durchführt. Es kann die Ergebnisse dieser Analysen auch an ein externes System (nicht dargestellt) zur weiteren Verarbeitung oder Analyse weiterleiten.
  • Das Modul für maschinelles Lernen (3) kann Techniken zur Verarbeitung natürlicher Sprache einsetzen, um Merkmale aus textuellen Dateneingaben zu extrahieren. Alle Module, einschließlich des Datenerfassungsmoduls (1), des Vorverarbeitungsmoduls (2), der Module für maschinelles Lernen (3 und 4), des Trainingsmoduls (41) und des Ausgabemoduls (4), können jeweils als separates Softwaremodul implementiert werden, das auf einem oder mehreren Prozessoren eines Computergeräts ausgeführt wird.
  • Obwohl die vorliegende Erfindung unter Bezugnahme auf bestimmte Ausführungsformen beschrieben wurde, sollte der Fachmann wissen, dass verschiedene Änderungen vorgenommen und gleichwertige Lösungen ersetzt werden können, ohne dass der wahre Geist und Umfang der Erfindung verlassen wird.
  • Darüber hinaus können viele Änderungen vorgenommen werden, um eine bestimmte Situation, ein bestimmtes Material, eine bestimmte Stoffzusammensetzung, ein bestimmtes Verfahren, eine bestimmte Verfahrenshandlung oder einen bestimmten Verfahrensschritt an die Ziele, den Geist oder den Anwendungsbereich der vorliegenden Erfindung anzupassen. Darüber hinaus können die hierin beschriebenen Systeme, Funktionen, Prozesse und Module in Hardware, Software oder einer Kombination aus Hardware und Software implementiert werden, wie dem Fachmann klar sein dürfte.
  • Obwohl die vorliegende Erfindung unter Bezugnahme auf bestimmte Ausführungsformen beschrieben wurde, sollte der Fachmann wissen, dass verschiedene Änderungen vorgenommen und gleichwertige Lösungen ersetzt werden können, ohne dass der wahre Geist und Umfang der Erfindung verlassen wird. Darüber hinaus können viele Änderungen vorgenommen werden, um eine bestimmte Situation, ein bestimmtes Material, eine bestimmte Stoffzusammensetzung, ein bestimmtes Verfahren, eine bestimmte Verfahrenshandlung oder einen bestimmten Verfahrensschritt an die Ziele, den Geist oder den Anwendungsbereich der vorliegenden Erfindung anzupassen. Darüber hinaus können die hierin beschriebenen Systeme, Funktionen, Prozesse und Module in Hardware, Software oder einer Kombination aus Hardware und Software implementiert werden, wie dem Fachmann klar sein wird.
  • Die Abbildung und die vorangehende Beschreibung zeigen Beispiele für Ausführungsformen. Der Fachmann wird verstehen, dass eines oder mehrere der beschriebenen Elemente durchaus zu einem einzigen Funktionselement kombiniert werden können. Alternativ dazu können bestimmte Elemente in mehrere Funktionselemente aufgeteilt werden. Elemente aus einer Ausführungsform können einer anderen Ausführungsform hinzugefügt werden. Die Reihenfolge der hier beschriebenen Prozesse kann beispielsweise geändert werden und ist nicht auf die hier beschriebene Weise beschränkt. Darüber hinaus müssen die Aktionen eines Blockdiagramms nicht in der gezeigten Reihenfolge ausgeführt werden, und es müssen auch nicht unbedingt alle Aktionen durchgeführt werden. Auch können diejenigen Handlungen, die nicht von anderen Handlungen abhängig sind, parallel zu den anderen Handlungen ausgeführt werden. Der Umfang der Ausführungsformen ist durch diese spezifischen Beispiele keineswegs begrenzt.
  • Obwohl Ausführungsformen der Erfindung in einer für strukturelle Merkmale und/oder Methoden spezifischen Sprache beschrieben wurden, sind die beigefügten Ansprüche nicht notwendigerweise auf die beschriebenen spezifischen Merkmale oder Methoden beschränkt. Vielmehr werden die spezifischen Merkmale und Methoden als Beispiele für Ausführungsformen der Erfindung offenbart.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • CN 108647219 [0013]
    • US 11295731 [0014]
    • CN 108763326 [0015]
    • IN 202041035805 [0016]
    • KR 1020210027769 [0017]
    • CN 113704459 [0018]
    • CN 110362819 [0019]
    • CN 111143567 [0021]
    • CN 211993011 [0022]
    • CN 111881262 [0023]
    • CN 113095069 [0024]
    • CN 113535904 [0025]

Claims (5)

  1. Ein System (10) zur Emotionserkennung und Stimmungsanalyse unter Verwendung von maschinellem Lernen, wobei das System (10) Folgendes umfasst: ein Datensammelmodul (1), das so konfiguriert ist, dass es Dateneingaben von einer Vielzahl von Quellen sammelt, wobei die Dateneingaben Textdaten, Audiodaten und/oder visuelle Daten umfassen, wobei das Datensammelmodul (1) ferner so konfiguriert ist, dass es Echtzeit-Dateneingaben sammelt; ein Vorverarbeitungsmodul (2), das so konfiguriert ist, dass es die gesammelten Dateneingaben in ein für die weitere Analyse geeignetes maschinenlesbares Format umwandelt; ein maschinelles Lernmodul (3), das so konfiguriert ist, dass es die maschinenlesbaren Daten von dem Vorverarbeitungsmodul (2) empfängt und darauf eine Emotionserkennung und eine Stimmungsanalyse durchführt, wobei das maschinelle Lernmodul (3) ein oder mehrere maschinelle Lernmodelle verwendet, die auf einem Datensatz trainiert wurden, der Instanzen von Emotionen und Stimmungen umfasst. "wobei das maschinelle Lernmodell ein Deep-Learning-Modell, ein Verstärkungs-Lernmodell, ein überwachtes Lernmodell, ein unbeaufsichtigtes Lernmodell oder eine Kombination davon umfasst, wobei das maschinelle Lernmodul (3) so konfiguriert ist, dass es relevante Merkmale aus den vorverarbeiteten Dateneingaben auf der Grundlage vordefinierter Kriterien extrahiert, wobei die Merkmale als Eingabe für das maschinelle Lernmodul (3) dienen, wobei das maschinelle Lernmodul (3) ein Trainingsmodul verwendet, das so konfiguriert ist, dass es das eine oder die mehreren maschinellen Lernmodelle trainiert, indem es einen Trainingsdatensatz verwendet, der Instanzen bekannter Emotionen und Gefühle umfasst; und ein Ausgabemodul (4), das so konfiguriert ist, dass es die Ergebnisse der Emotionserkennung und der Stimmungsanalyse einem Benutzer oder einer Anwendung zur Verfügung stellt, wobei das Ausgabemodul (4) ferner so konfiguriert ist, dass es visuelle Darstellungen der Ergebnisse der Emotionserkennung und der Stimmungsanalyse bereitstellt.
  2. System (10) nach Anspruch 1, wobei das maschinelle Lernmodul (3) ferner so konfiguriert ist, dass es Techniken zur Verarbeitung natürlicher Sprache einsetzt, um Merkmale aus textuellen Dateneingaben zu extrahieren.
  3. System (10) nach Anspruch 1, wobei das Datenerfassungsmodul (1), das Vorverarbeitungsmodul (2), das maschinelle Lernmodul (3), das maschinelle Lernmodul (3), das Trainingsmodul und das Ausgabemodul (4) jeweils als separates Softwaremodul implementiert sind, das auf einem oder mehreren Prozessoren einer Rechenvorrichtung ausgeführt wird.
  4. System (10) nach Anspruch 1, wobei das Ausgabemodul (4) ferner so konfiguriert ist, dass es die Ergebnisse der Emotionserkennung und Stimmungsanalyse einem externen System (10) zur weiteren Verarbeitung oder Analyse zur Verfügung stellt.
  5. Das System (10) nach Anspruch 1, wobei das maschinelle Lernmodul (3) ein neuronales Netzwerkmodell verwendet, das auf einem Datensatz trainiert wurde, der Instanzen von Emotionen und Stimmungen umfasst.
DE202023102803.9U 2023-05-22 2023-05-22 System zur Erkennung von Emotionen und zur Stimmungsanalyse durch maschinelles Lernen Active DE202023102803U1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE202023102803.9U DE202023102803U1 (de) 2023-05-22 2023-05-22 System zur Erkennung von Emotionen und zur Stimmungsanalyse durch maschinelles Lernen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE202023102803.9U DE202023102803U1 (de) 2023-05-22 2023-05-22 System zur Erkennung von Emotionen und zur Stimmungsanalyse durch maschinelles Lernen

Publications (1)

Publication Number Publication Date
DE202023102803U1 true DE202023102803U1 (de) 2023-07-17

Family

ID=87518430

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202023102803.9U Active DE202023102803U1 (de) 2023-05-22 2023-05-22 System zur Erkennung von Emotionen und zur Stimmungsanalyse durch maschinelles Lernen

Country Status (1)

Country Link
DE (1) DE202023102803U1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117409780A (zh) * 2023-12-14 2024-01-16 浙江宇宙奇点科技有限公司 一种应用于ai数字人语音交互方法及系统
CN117593593A (zh) * 2024-01-18 2024-02-23 湖北工业大学 一种情感增益下多尺度语义融合的图像情感分类方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108647219A (zh) 2018-03-15 2018-10-12 中山大学 一种结合情感词典的卷积神经网络文本情感分析方法
CN108763326A (zh) 2018-05-04 2018-11-06 南京邮电大学 一种基于特征多样化的卷积神经网络的情感分析模型构建方法
CN110362819A (zh) 2019-06-14 2019-10-22 中电万维信息技术有限责任公司 基于卷积神经网络的文本情感分析方法
CN111143567A (zh) 2019-12-30 2020-05-12 成都数之联科技有限公司 一种基于改进神经网络的评论情感分析方法
CN111881262A (zh) 2020-08-06 2020-11-03 重庆邮电大学 基于多通道神经网络的文本情感分析方法
CN211993011U (zh) 2020-03-31 2020-11-24 北京印刷学院 一种基于cnn的情感分析语音聊天机器人
KR20210027769A (ko) 2019-09-03 2021-03-11 한국항공대학교산학협력단 신경망 기반 감정 분석 및 감성 치료 시스템
CN113095069A (zh) 2021-03-09 2021-07-09 山西三友和智慧信息技术股份有限公司 一种基于情感分析的数据驱动神经网络架构系统
CN113535904A (zh) 2021-07-23 2021-10-22 重庆邮电大学 一种基于图神经网络的方面级情感分析方法
CN113704459A (zh) 2020-05-20 2021-11-26 中国科学院沈阳自动化研究所 一种基于神经网络的在线文本情感分析方法
US11295731B1 (en) 2020-12-02 2022-04-05 Lucas GC Limited Artificial intelligence (AI) enabled prescriptive persuasion processes based on speech emotion recognition and sentiment analysis

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108647219A (zh) 2018-03-15 2018-10-12 中山大学 一种结合情感词典的卷积神经网络文本情感分析方法
CN108763326A (zh) 2018-05-04 2018-11-06 南京邮电大学 一种基于特征多样化的卷积神经网络的情感分析模型构建方法
CN110362819A (zh) 2019-06-14 2019-10-22 中电万维信息技术有限责任公司 基于卷积神经网络的文本情感分析方法
KR20210027769A (ko) 2019-09-03 2021-03-11 한국항공대학교산학협력단 신경망 기반 감정 분석 및 감성 치료 시스템
CN111143567A (zh) 2019-12-30 2020-05-12 成都数之联科技有限公司 一种基于改进神经网络的评论情感分析方法
CN211993011U (zh) 2020-03-31 2020-11-24 北京印刷学院 一种基于cnn的情感分析语音聊天机器人
CN113704459A (zh) 2020-05-20 2021-11-26 中国科学院沈阳自动化研究所 一种基于神经网络的在线文本情感分析方法
CN111881262A (zh) 2020-08-06 2020-11-03 重庆邮电大学 基于多通道神经网络的文本情感分析方法
US11295731B1 (en) 2020-12-02 2022-04-05 Lucas GC Limited Artificial intelligence (AI) enabled prescriptive persuasion processes based on speech emotion recognition and sentiment analysis
CN113095069A (zh) 2021-03-09 2021-07-09 山西三友和智慧信息技术股份有限公司 一种基于情感分析的数据驱动神经网络架构系统
CN113535904A (zh) 2021-07-23 2021-10-22 重庆邮电大学 一种基于图神经网络的方面级情感分析方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117409780A (zh) * 2023-12-14 2024-01-16 浙江宇宙奇点科技有限公司 一种应用于ai数字人语音交互方法及系统
CN117409780B (zh) * 2023-12-14 2024-02-27 浙江宇宙奇点科技有限公司 一种应用于ai数字人语音交互方法及系统
CN117593593A (zh) * 2024-01-18 2024-02-23 湖北工业大学 一种情感增益下多尺度语义融合的图像情感分类方法
CN117593593B (zh) * 2024-01-18 2024-04-09 湖北工业大学 一种情感增益下多尺度语义融合的图像情感分类方法

Similar Documents

Publication Publication Date Title
Abdullah et al. SEDAT: sentiment and emotion detection in Arabic text using CNN-LSTM deep learning
CN105279495B (zh) 一种基于深度学习和文本总结的视频描述方法
CN111126386B (zh) 场景文本识别中基于对抗学习的序列领域适应方法
DE112018004376T5 (de) Schützen kognitiver systeme vor auf gradienten beruhenden angriffen durch die verwendung irreführender gradienten
DE112018000334T5 (de) System und Verfahren zur domänenunabhängigen Aspektebenen-Stimmungserkennung
DE202023102803U1 (de) System zur Erkennung von Emotionen und zur Stimmungsanalyse durch maschinelles Lernen
CN110502753A (zh) 一种基于语义增强的深度学习情感分析模型及其分析方法
CN106503055A (zh) 一种从结构化文本到图像描述的生成方法
DE112017006151T5 (de) Anpassbare Verarbeitungskomponenten
CN111368086A (zh) 一种基于CNN-BiLSTM+attention模型的涉案新闻观点句情感分类方法
EP3100174A1 (de) Verfahren zur automatischen sinnerkennung und messung der eindeutigkeit von text
DE102019004300A1 (de) Verwendung eines dynamischen speichernetzwerks zum verfolgen digitaler dialogzustände und erzeugen von antworten
DE112020003909T5 (de) Verfahren zum multimodalen abrufen bzw. wiedergewinnen und clustern unter verwendung einer tiefen cca und aktiver paarweiser abfragen
EP3798922A1 (de) Vorrichtung und verfahren zum maschinenlernen und ansteuern einer maschine
DE112013002654T5 (de) Verfahren zum Klassifizieren von Text
CN108733838A (zh) 基于多极情感分析的用户行为预测系统及其方法
CN106547866A (zh) 一种基于情感词随机共现网络的细粒度情感分类方法
CN114528919A (zh) 自然语言处理方法、装置及计算机设备
CN112561718A (zh) 基于BiLSTM权重共享的案件微博评价对象情感倾向性分析方法
Bikku et al. Deep learning approaches for classifying data: a review
DE102021130081A1 (de) Auf deep learning basierende automatische ontologieextraktion zur erfassung von neuen wissensbereichen
DE112021005847T5 (de) Dynamische gradientenverschleierung gegen feindliche beispiele bei maschinenlernmodellen
Geetha et al. Twitter opinion mining and boosting using sentiment analysis
CN111563373A (zh) 聚焦属性相关文本的属性级情感分类方法
CN114547303A (zh) 基于Bert-LSTM的文本多特征分类方法及装置

Legal Events

Date Code Title Description
R207 Utility model specification
R082 Change of representative

Representative=s name: LIPPERT STACHOW PATENTANWAELTE RECHTSANWAELTE , DE