JP2021152957A - 対話感情スタイル予測方法、装置、電子機器、記憶媒体及びプログラム - Google Patents

対話感情スタイル予測方法、装置、電子機器、記憶媒体及びプログラム Download PDF

Info

Publication number
JP2021152957A
JP2021152957A JP2021103442A JP2021103442A JP2021152957A JP 2021152957 A JP2021152957 A JP 2021152957A JP 2021103442 A JP2021103442 A JP 2021103442A JP 2021103442 A JP2021103442 A JP 2021103442A JP 2021152957 A JP2021152957 A JP 2021152957A
Authority
JP
Japan
Prior art keywords
dialogue
character information
style
context
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021103442A
Other languages
English (en)
Other versions
JP7246437B2 (ja
Inventor
政林 潘
zheng lin Pan
政林 潘
潔 白
Kiyoshi Haku
潔 白
毅 王
Takeshi O
毅 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021152957A publication Critical patent/JP2021152957A/ja
Application granted granted Critical
Publication of JP7246437B2 publication Critical patent/JP7246437B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Machine Translation (AREA)

Abstract

【課題】対話における感情スタイル予測をより正確に行うことが可能な対話感情スタイル予測方法、装置、電子装置及び記憶媒体を提供する。【解決手段】方法は、処理待ちの対話が存在するテキストから、対話のコンテキストを取得することと、対話の、対話の発話者であるキャラクタのキャラクタ情報を取得することと、コンテキストおよび前記キャラクタ情報から、対話の感情スタイルを予測することと、を含む。【選択図】図1

Description

本願は、人工知能分野に関し、特に自然言語処理、知能音声および深度学習分野の対話感情スタイル予測方法、装置、電子機器および記憶媒体に関する。
複数の感情スタイルの音声小説は、市場においてますます注目を集めており、相応的には、小説における各対話の感情スタイルをマーク(予測)する必要がある。
現在、通常、対話のコンテキストから直接に感情スタイルを抽出する方式を採用しており、正確性が悪い。
例えば、
“…
「私も悲しい。」
張三は、悪意を持って、悲しい李四を慰めている。
…”というテキストについて、
現在の処理方式に従って、「私も悲しい」「慰めている」「悲しい李四」のいずれかから感情のスタイルを誤って直接に抽出することが容易であり、予測結果が不正確になる。
本願は、対話感情スタイル予測方法、装置、電子装置及び記憶媒体を提供している。
対話感情スタイル予測方法であって、
処理待ちの対話が存在するテキストから、前記対話のコンテキストを取得すると、
前記対話の、対話の発話者であるキャラクタのキャラクタ情報を取得することと、
前記コンテキストおよび前記キャラクタ情報から、前記対話の感情スタイルを予測することと、を含む。
対話感情スタイル予測装置であって、
処理待ちの対話が存在するテキストから、前記対話のコンテキストを取得する第1の取得モジュールと、
前記対話の、対話の発話者であるキャラクタのキャラクタ情報を取得する第2の取得モジュールと、
前記コンテキストおよび前記キャラクタ情報から、前記対話の感情スタイルを予測する予測モジュールと、を含む。
電子機器であって、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されたメモリと、を含み、
前記メモリは、前記少なくとも1つのプロセッサによって実行可能な命令を記憶し、前記命令は、前記少なくとも1つのプロセッサが上記に記載の方法を実行するように、前記少なくとも1つのプロセッサによって実行される。
コンピュータ命令を記憶した非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令は、前記コンピュータに上記に記載の方法を実行させる。
コンピュータに実行される時に上記の方法を実現するコンピュータプログラムである。
上記出願における1つの実施例は、対話のコンテキストおよび対話のキャラクタ情報等を組み合わせて対話の感情スタイルを予測し、予測結果の正確性を向上させることができるという長所または有益な効果を有している。
このセクションに記載された内容は、本開示の実施例の主要な特徴または重要な特徴を特定することを意図しておらず、本開示の範囲を限定するものでもないことを理解されたい。本開示の他の特徴は、以下の明細書によって容易に理解されるであろう。
図面は、本技術案をよりよく理解するためのものであり、本発明を限定するものではない。
本発明に係る対話感情スタイル予測方法の第一実施例のフローチャートである。 本発明に係る対話感情スタイル予測方法の第二実施例のフローチャートである。 本発明に係る対話感情スタイル予測装置の実施例の構造構成の模式図である。 本発明の実施例に係る方法の電子機器のブロック図である。
以下、添付の図面を組み合わせ、本開示の例示的な実施例を説明し、理解を容易にするために本開示の実施例の様々な詳細を含むが、それらは単に例示的なものとみなされるべきである。したがって、当業者は、本開示の範囲および精神から逸脱することなく、本明細書に記載された実施例に対して様々な変更および修正を行うことができることを認識するであろう。同様に、明確化および簡潔化のために、以下の説明では、周知の機能及び構成についての記載は省略される。
なお、ここでの「及び/又は」という用語は、単に関連対象を説明する関連関係であり、3つの関係を示すことができる。例えば、A及び/又はBは、Aが単独で存在する場合、AとBが同時に存在する場合、Bが単独で存在する場合という3つの場合を示している。なお、本明細書における「/」は、一般的に、前後の関係対象が「または」の関係であることを示している。
図1は、本願に係る対話感情スタイル予測方法の第一実施例のフローチャートである。図1に示すように、以下の具体的な実施形態が含まれる。
ステップ101では、処理待ちの対話が存在するテキストから、対話のコンテキストを取得する。
ステップ102では、対話のキャラクタ情報を取得し、キャラクタが対話の発話者である。
ステップ103では、取得したコンテキストおよびキャラクタ情報から、対話の感情スタイルを予測する。
上記方法実施例では、対話のコンテキストおよび対話のキャラクタ情報などを組み合わせて対話の感情スタイルを予測することができ、これにより従来方式に比べて予測結果の正確性が向上することが分かる。また、前記テキストは、任意の形態のテキストであってもよく、例えば、小説、ニュース、台本などであってもよく、汎用性を有する。
実際の応用では、処理待ちのテキスト、すなわち、処理待ちの対話が存在するテキストに対して、テキストにおける対話をトラバースし、トラバースされた各対話をそれぞれ処理待ちの対話とすることができる。前記トラバースが具体的にどのような順序で行われるかは特に限定されないが、例えば、最初から最後までの順序でトラバースすることができる。
また、以下の方式によってテキストにおける対話を識別することができる:引用符で囲まれたテキスト内容を対話とし、および/または、テキスト内容のいずれかの文について、予めトレーニングされた分類モデルを用いて当該テキスト内容が対話であるか否かを判定する。
上述した2つの対話識別方式は、個別に使用されてもよく、組み合わせて使用されてもよい。例えば、引用符で囲まれたあるテキスト内容に対して、さらに分類モデルを用いて当該テキスト内容が対話であるか否かを判定してもよく、二重識別により、識別結果の正確性を向上させることができる。
上記した対話認識方式は、例示に過ぎず、本願の技術案を限定するものではなく、実際の応用において、任意の実行可能な実現方式を採用することができる。例えば、前記引用符は、対話を示す他の形態の符号等であってもよい。
処理待ちの対話について、対話が存在するテキストから、対話のコンテキストを取得することができる。如何にして対話のコンテキストを取得するかの方法についても限定しない。例えば、対話の前のM文のテキスト内容(M文)と対話の後のN文のテキスト内容を、それぞれ対話の前文および後文として、対話のコンテキストを取得することができ、MおよびNは、いずれも正の整数であり、その数値が同じであってもよく、異なってもよい。具体的な数値は、実際な需要に応じて定められてもよい。対話の前文、対話、および対話の後文は、コンテンツが連続するテキスト内容を構成する。
対話のコンテキストに加えて、対話のキャラクタ情報、すなわち、対話の発話者情報をさらに取得してもよい。例えば、人工的にマークした対話のキャラクタ情報を取得したり、予めトレーニングされたキャラクタ予測モデルを用いて予測した対話のキャラクタ情報を取得することができる。具体的にどのような方式を採用するかは、実際な需要に応じて定められ、柔軟で便利である。但し、人件費等を削減する観点からは、後者の方式を採用することが好ましい。
例えば、
“…
「私も悲しい。」
張三は、悪意を持って、悲しい李四を慰めている。
…”というテキストについて、
その中の「私も悲しい」対話に関し、対応するキャラクタ情報が「張三」である。
キャラクタ予測モデルは、予めトレーニングされるものであり、当該モデルによって、異なる対話に対応するキャラクタ情報を予測することができる。
いずれの方式によっても、対話のキャラクタ情報を取得した後、さらに、取得したコンテキストおよびキャラクタ情報から、対話の感情スタイルを予測することができる。
具体的には、対話のコンテキスト、対話のキャラクタ情報および対話を含む入力情報を構築し、入力情報を予めトレーニングされた感情スタイル予測モデルに入力することで、予測された対話の感情スタイルを取得することができる。
入力情報の具体的な形式が限定されない。例えば、上述した「私も悲しい」という対話について、対話の前文、対話および対話の後文からなるテキスト内容を取得し、所定の方式に従って、「張三」というキャラクタ情報(通常、対話のコンテキストに出現する)をマークし、対話のコンテキスト、対話のキャラクタ情報及び対話を含む入力情報を取得することができる。
前記所定の方式が具体的にどのような方式であるかも同様に限定されない。例えば、「張三」の位置を特定してマークしたり、「張三」の前後にそれぞれ特定の文字を挿入するなどしてもよい。
入力情報が得られた後、それを感情スタイル予測モデルに入力することで、予測された対話の感情スタイルを取得することができる。感情スタイル予測モデルは、対話が異なる感情スタイルに属する確率値をそれぞれ算出することができ、値が最も大きい確率値に対応する感情スタイルを、予測された対話の感情スタイルとすることができる。
従来の方式に比べて、本願に記載の方式により、モデルがより多くの情報を取得することができ、例えば、発話者が「張三」であると判定した場合、モデルは、「張三」付近のコンテキストにさらに集中し、「悪意を持つ」から感情スタイルを抽出する確率を高くし、予測された感情スタイルの正確性などを向上させることができる。
前述したように、感情スタイル予測モデルは、予めトレーニングされたものであってもよい。具体的には、トレーニングサンプルを構築することができ、各トレーニングサンプルはそれぞれテキストにおける1つの対話に対応することができ、対話に対応する入力情報及びラベルを含むことができ、ラベルは対話の感情スタイルであり、対話に対応する入力情報は、前述した対話のコンテキスト、対話のキャラクタ情報及び対話を含む入力情報であり、さらにトレーニングサンプルを用いて感情スタイル予測モデルをトレーニングして取得することができる。
以上の説明に基づいて、図2は、本願に係る対話感情スタイル予測方法の第二実施例のフローチャートである。図2に示すように、以下の具体的な実現形態が含まれる。
ステップ201では、最初から最後までの順序で小説における対話をトラバースする。
本実施例では、仮に処理待ちのテキストを小説とする。
なお、引用符で囲まれたテキスト内容を対話とし、および/または、テキスト内容のいずれかの文について、予めトレーニングされた分類モデルを用いて当該テキスト内容が対話であるかどうかを判定してもよい。
ステップ202では、トラバースされた各対話に対して、202〜207で示す処理をそれぞれ行う。
ステップ203では、対話のコンテキストを取得する。
例えば、対話の前のM文のテキスト内容と、対話の後のN文のテキスト内容とを、それぞれ対話の前文および後文とし、対話のコンテキストを取得することができ、MおよびNは、いずれも正の整数であり、その数値が同じであってもよく、異なってもよい。
ステップ204では、対話のキャラクタ情報を取得し、キャラクタは対話の発話者である。
例えば、人工的にマークした対話のキャラクタ情報を取得したり、予めトレーニングされたキャラクタ予測モデルを用いて予測した対話のキャラクタ情報を取得することができる。
ステップ205では、対話のコンテキスト、対話のキャラクタ情報及び対話を含む入力情報を構築する。
仮に、キャラクタ情報が対話のコンテキストに存在する場合、対話の前文、対話、及び対話の後文からなるテキスト内容を取得し、所定の方式でその中のキャラクタ情報をマークし、対話のコンテキスト、対話のキャラクタ情報及び対話を含む入力情報を取得することができる。
ステップ206では、入力情報を予めトレーニングされた感情スタイル予測モデルに入力し、予測された対話の感情スタイルを取得する。
トレーニングサンプルを構築することができ、各トレーニングサンプルはそれぞれテキストにおける1つの対話に対応することができ、対話に対応する入力情報及びラベルを含むことができ、ラベルは対話の感情スタイルであり、さらにトレーニングサンプルを用いて感情スタイル予測モデルをトレーニングして取得することができる。
ステップ207では、対話に対して予測された感情スタイルをマークする。
ステップ208では、次の対話が存在するか否かを判定し、存在すれば、次の対話についてステップ203を繰り返し、存在しなければ、ステップ209を実行する。
ステップ209では、マークされた小説を出力し、フローを終了する。
上記方法実施例では、各対話に対して、そのキャラクタ情報を取得し、コンテキストと共に入力情報を構築することで、すなわち、対話のキャラクタ情報をモデルの入力に加えることで、予測結果の正確性を向上させ、且つ、非常に高速効率で、通常数分だけで、千章の小説のマークを完了することができ、工業化された対話感情スタイル予測技術案である。
なお、前述の各方法実施例について、説明を簡単にするために、それらを一連の動作の組み合わせとして記述したが、当業者であれば、本願が、記述された動作の順序によって限定されないことを理解すべきである。それは、本願によれば、いくつかのステップが他の順序で、または同時に行われることができるためである。そして、当業者であれば、本明細書に記載された実施例が好ましい実施例であり、係る動作及びモジュールが必ずしも本願に必要ではないことを理解するであろう。なお、ある実施例において詳述されていない部分は、他の実施例における関連説明を参照することができる。
以上が方法実施例についての説明であるが、以下、装置実施例によって、本願に係る技術案をさらに説明する。
図3は、本願に係る対話感情スタイル予測装置30の実施例の構造構成の模式図である。図3に示すように、第一取得モジュール301、第二取得モジュール302および予測モジュール303を含む。
第一取得モジュール301は、処理待ちの対話が存在するテキストから、対話のコンテキストを取得する。
第二取得モジュール302は、対話のキャラクタ情報を取得し、キャラクタが対話の発話者である。
予測モジュール303は、取得したコンテキストとキャラクタ情報から、対話の感情スタイルを予測する。
第一取得モジュール301は、テキストにおける対話をトラバースし、トラバースされた各対話をそれぞれ処理待ちの対話とすることができる。前記トラバースが具体的にどのような順序で行われるかは特に限定されないが、例えば、最初から最後までの順序でトラバースすることができる。
第一取得モジュール301は、以下の方式によってテキストにおける対話を識別することができる:引用符で囲まれたテキスト内容を対話とし、および/または、テキスト内容のいずれかの文について、予めトレーニングされた分類モデルを用いて当該テキスト内容が対話であるか否かを判定する。上述した2つの対話識別方式は、個別に使用されてもよく、組み合わせて使用されてもよい。例えば、引用符で囲まれたあるあるテキスト内容に対して、さらに分類モデルを用いて当該テキスト内容が対話であるか否かを判定する。
なお、処理待ちの対話について、第一取得モジュール301は、対話の前のM文のテキスト内容と対話の後のN文のテキスト内容を、それぞれ対話の前文および後文として、対話のコンテキストを取得することができ、MおよびNは、いずれも正の整数であり、その数値が同じであってもよく、異なってもよい。
対話のキャラクタ情報を取得する場合、第二取得モジュール302は、人工的にマークした対話のキャラクタ情報を取得したり、予めトレーニングされたキャラクタ予測モデルを用いて予測した対話のキャラクタ情報を取得することができる。
さらに、対話のコンテキストおよびキャラクタ情報を取得した後に、予測モジュール303は、対話のコンテキストおよびキャラクタ情報から、対話の感情スタイルを予測することができる。具体的には、対話のコンテキスト、対話のキャラクタ情報および対話を含む入力情報を構築し、入力情報を予めトレーニングされた感情スタイル予測モデルに入力することで、予測された対話の感情スタイルを取得することができる。
例えば、仮に、キャラクタ情報が対話のコンテキストに存在する場合、対話の前文、対話、及び対話の後文からなるテキスト内容を取得し、所定の方式でその中のキャラクタ情報をマークし、対話のコンテキスト、対話のキャラクタ情報及び対話を含む入力情報を取得することができる。
相応的には、図3に示す装置は、トレーニングサンプルを構築するための前処理モジュール300をさらに含むことができ、各トレーニングサンプルはそれぞれテキストにおける1つの対話に対応することができ、対話に対応する入力情報及びラベルを含むことができ、ラベルは対話の感情スタイルであり、トレーニングサンプルを用いて感情スタイル予測モデルをトレーニングして取得することができる。
図3に示す装置実施例の具体的な動作フローは、前述の方法実施例に関する説明を参照し、ここでは贅言しない。
要するに、本願の装置実施例における技術案によれば、対話のコンテキスト及び対話のキャラクタ情報等を組み合わせて、対話の感情スタイルを予測することができ、予測結果の正確性等を向上させることができる。
本出願に記載の技術案は、人工知能分野に適用でき、特に自然言語処理、知能音声及び深度学習等の分野に関する。
人工知能は、コンピュータに人の思考過程や知能行為(例えば、学習、推論、思考、計画など)を模倣させる研究科であり、ハードウェア的な技術とともにソフトウェア的な技術もあり、人工知能ハードウェア技術は、一般に、センサ、専用人工知能チップ、クラウドコンピューティング、分散記憶、ビッグデータ処理などの技術を含み、人工知能ソフトウェア技術は、主に、コンピュータビジョン技術、音声認識技術、自然言語処理技術、及び機械学習/深度学習、ビッグデータ処理技術、知識グラフ技術などの方向を含む。
本願の実施例によれば、本願は、電子機器及び読み取り可能な記憶媒体をさらに提供している。
図4に示すように、本願の実施例による前記方法を実現する電子機器のブロック図である。電子機器は、例えば、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、及び他の適切なコンピュータなどの様々な形態のデジタルコンピュータである。電子機器は、例えば、パーソナルデジタルプロセッシング、携帯電話、スマートフォン、ウェアラブルデバイス、及び他の類似なコンピューティングデバイス等、様々な形態のモバイルデバイスであってもよい。本明細書に示される部品、それらの接続及び関係、並びにそれらの機能は、単なる例示であり、本明細書に記載及び/又は請求される本願の実施を限定しない。
図4に示すように、当該電子機器は、1つまたは複数のプロセッサY01と、メモリY02と、高速インターフェースと低速インターフェースとを含む、各部品を接続するためのインターフェースとを備える。各部品は、異なるバスで互いに接続され、共通のマザーボード上に実装されてもよいし、必要に応じて他の形態で実装されてもよい。プロセッサは、電子機器で実行される命令を処理してもよく、外部入出力装置(例えば、インターフェースに結合された表示機器)にグラフィカル・ユーザ・インターフェースのグラフィック情報を表示するようにメモリ中またはメモリ上に記憶された命令を含む。他の実施形態では、必要に応じて、複数のプロセッサおよび/または複数のバスを、複数のメモリおよび複数のメモリと共に使用し得る。同様に、複数の電子機器を接続し、各機器が必要な操作の一部(例えば、サーバアレイ、ブレードサーバの集合、マルチプロセッサシステムなど)を提供するようにしてもよい。図4では、1つのプロセッサY01を例に挙げている。
メモリY02は、本願に提供される非一時的コンピュータ読み取り可能な記憶媒体である。前記メモリは、少なくとも1つのプロセッサに、本願に提供される方法を実行させるように、少なくとも1つのプロセッサによって実行可能な命令を記憶する。本願の非一時的コンピュータ読み取り可能な記憶媒体は、コンピュータに本願に提供される方法を実行させるためのコンピュータ命令を記憶する。
メモリY02は、非一時的コンピュータ読み取り可能な記憶媒体として、例えば、本願の実施例における方法に対応するプログラム命令/モジュールのような、非一時的ソフトウェアプログラム、非一時的コンピュータ実行可能なプログラム及びモジュールを記憶する。プロセッサY01は、メモリY02に記憶された非一時的ソフトウェアプログラム、命令およびモジュールを実行することによって、サーバの様々な機能アプリケーションおよびデータ処理を実行し、すなわち、上記方法の実施例における方法を実現する。
メモリY02は、記憶プログラム領域および記憶データ領域を含み、記憶プログラム領域は、オペレーティングシステム、少なくとも1つの機能に必要なアプリケーションを記憶し、記憶データ領域は、電子機器の使用により作成されたデータ等を記憶する。また、メモリY02は、高速ランダムアクセスメモリを含んでもよく、例えば少なくとも1つのディスク記憶デバイス、フラッシュメモリデバイス、または他の非一時的固体記憶デバイスなどの非一時的メモリを含んでもよい。いくつかの実施例では、メモリY02は、プロセッサY01から遠隔に配置されたメモリを選択することができ、それらの遠隔メモリは、ネットワークを介して、電子機器に接続され得る。上記ネットワークの例示は、インターネット、イントラネット、ブロックチェーンネットワーク、ローカルエリアネットワーク、移動体通信ネットワーク、及びそれらの組み合わせが挙げられるが、これらに限定されない。
電子機器は、入力装置Y03と、出力装置Y04とをさらに含んでもよい。プロセッサY01、メモリY02、入力装置Y03、及び出力装置Y04は、バス又は他の方式で接続されてもよく、図4では、バスで接続することを例に挙げている。
入力装置Y03は、入力された数字または文字情報を受信し、電子機器のユーザ設定および機能制御に関するキー信号入力を発生させることができ、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、ポインティングバー、一つまたは複数のマウスボタン、トラックボール、ジョイスティックなどの入力装置である。出力装置Y04は、表示装置、補助照明装置、触覚フィードバック装置(例えば、振動モータ)などを含んでもよい。当該表示装置は、液晶ディスプレイ、発光ダイオードディスプレイ及びプラズマディスプレイを含むが、これらに限らない。いくつかの実施形態では、表示装置はタッチスクリーンであってもよい。
本明細書に記載のシステムおよび技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、特定用途向け集積回路、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組合せで実現され得る。これらの様々な実施形態は、1つまたは複数のコンピュータプログラム内で実施されることを含み、当該1つまたは複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行および/または解釈され、当該プログラマブルプロセッサは、専用または汎用のプログラマブルプロセッサであり、記憶システム、少なくとも1つの入力装置、および少なくとも1つの出力装置からデータおよび命令を受信し、データおよび命令を当該記憶システム、少なくとも1つの入力装置、および少なくとも1つの出力装置に送信する。
これらの計算プログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、またはコードとしても言われる)は、プログラマブルプロセッサの機械命令を含み、高級プロセス、および/またはオブジェクト指向プログラミング言語、および/またはアセンブリ/機械言語でこれらの計算プログラムを実施することができる。本明細書で使用される場合、「機械読み取り可能な媒体」および「コンピュータ読み取り可能な媒体」という用語は、機械命令および/またはデータをプログラマブルプロセッサのいずれかのコンピュータプログラム製品、デバイス、および/または装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス)に提供することであり、機械読み取り可能な信号としての機械命令を受信する機械読み取り可能な媒体を含む。「機械読み取り可能な信号」という用語は、機械命令および/またはデータをプログラマブルプロセッサに提供するための任意の信号である。
ユーザとのインタラクティブ を提供するために、コンピュータで本明細書に記載されるシステムおよび技術を実施することができ、当該コンピュータは、ユーザに情報を表示するための表示装置(たとえば、陰極線管または液晶ディスプレイモニタ)と、ユーザがコンピュータに入力を提供し得るキーボードおよびポインティングデバイス(たとえば、マウスまたはトラックボール)とを有する。他の種類の装置は、ユーザとのインタラクティブを提供するために使用され得る。例えば、ユーザに提供されるフィードバックは、任意の形態の感覚フィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形態(例えば、音声入力、発話入力または触覚入力)でユーザからの入力を受信することができる。
本明細書で説明されるシステムおよび技術を、バックエンド部品を含むコンピューティングシステム(例えば、データサーバとして)、またはミドルウェア部品を含むコンピューティングシステム(例えば、アプリケーションサーバ)、またはフロントエンド部品を含むコンピューティングシステム(例えば、ユーザが本明細書で説明されるシステムおよび技術の実施形態とインタラクティブすることができるグラフィカル・ユーザ・インターフェースまたはウェブブラウザを有するユーザコンピュータ)、またはそのようなバックエンド部品、ミドルウェア部品、もしくはフロントエンド部品の任意の組合せを含むコンピューティングシステムにおいて実施され得る。任意の形態または媒体のデジタルデータ通信(例えば、通信ネットワーク)を介してシステムの部品を互いに接続することができる。通信ネットワークの例示は、ローカルエリアネットワーク、ワイドエリアネットワーク、ブロックチェーンネットワークおよびインターネットを含む。
コンピュータシステムは、クライアントおよびサーバを含み得る。クライアントおよびサーバは、一般に、互いから離れており、通常、通信ネットワークを介してインタラクティブしている。相応的なコンピュータで運行し、互いにクライアント-サーバ関係を有するコンピュータプログラムによって、クライアントとサーバの関係を生成する。サーバは、クラウドサーバであってもよく、クラウドコンピューティングサーバまたはクラウドホストとも称され、クラウドコンピューティングサービス体系におけるホスト製品の1つであり、従来の物理ホストおよびVPSサービスに存在する管理が困難でありサービス拡張性が弱いという欠点を解決する。
なお、上記に示された様々な形態のフローを用いて、ステップを並べ替え、追加、または削除することができることを理解されたい。例えば、本願に記載された各ステップは、並列的に実行されてもよく、順番に実行されてもよく、異なる順番で実行されてもよく、本願において開示された技術案の所望の結果を達成することができる限り、ここで制限されない。
上記の具体的な実施形態は、本願の保護範囲を限定するものではない。当業者であれば、設計の要求及び他の要因に応じて、各種の補正、組合、サブ組合および切り替えを行うことができることは明らかであろう。本願の思想及び原則における任意の補正、均等物及び改善は、本願の保護範囲に含まれるべきである。

Claims (15)

  1. 処理待ちの対話が存在するテキストから、前記対話のコンテキストを取得することと、
    前記対話の、対話の発話者であるキャラクタのキャラクタ情報を取得することと、
    前記コンテキストおよび前記キャラクタ情報から、前記対話の感情スタイルを予測することと、を含む
    対話感情スタイル予測方法。
  2. 前記テキストにおける対話をトラバースし、トラバースされた各対話をそれぞれ前記処理待ちの対話とすることをさらに含む
    請求項1に記載の方法。
  3. 引用符で囲まれたテキスト内容を対話とすること、および/または、
    テキスト内容のいずれかの文について、予めトレーニングされた分類モデルを用いて前記テキスト内容が対話であるか否かを判定することをさらに含む
    請求項1に記載の方法。
  4. 前記対話のキャラクタ情報を取得することは、
    人工的にマークした前記対話のキャラクタ情報を取得すること、または、
    予めトレーニングされたキャラクタ予測モデルを用いて、予測した前記対話のキャラクタ情報を取得することをさらに含む
    請求項1に記載の方法。
  5. 前記コンテキストおよび前記キャラクタ情報から、前記対話の感情スタイルを予測することとは、
    前記コンテキスト、前記キャラクタ情報および前記対話を含む入力情報を構築することと、
    前記入力情報を予めトレーニングされた感情スタイル予測モデルに入力し、予測された前記対話の感情スタイルを取得することと、を含む
    請求項1に記載の方法。
  6. 前記対話に対応する前記入力情報及び前記対話の感情スタイルであるラベルを含んで、各トレーニングサンプルがテキストにおける一文の対話に対応するトレーニングサンプルを構築することと、
    前記トレーニングサンプルを用いてトレーニングし、前記感情スタイル予測モデルを取得することと、をさらに含む
    請求項5に記載の方法。
  7. 処理待ちの対話が存在するテキストから、前記対話のコンテキストを取得する第1の取得モジュールと、
    前記対話の、対話の発話者であるキャラクタのキャラクタ情報を取得する第2の取得モジュールと、
    前記コンテキストおよび前記キャラクタ情報から、前記対話の感情スタイルを予測する予測モジュールと、を含む
    対話感情スタイル予測装置。
  8. 前記第1の取得モジュールは、前記テキストにおける対話をトラバースし、トラバースされた各対話をそれぞれ前記処理待ちの対話とする
    請求項7に記載の装置。
  9. 前記第1の取得モジュールは、さらに、
    引用符で囲まれたテキスト内容を対話とし、および/または、
    テキスト内容のいずれかの文について、予めトレーニングされた分類モデルを用いて前記テキスト内容が対話であるか否かを判定する
    請求項7に記載の装置。
  10. 前記第2の取得モジュールは、
    人工的にマークした前記対話のキャラクタ情報を取得し、または、
    予めトレーニングされたキャラクタ予測モデルを用いて、予測した前記対話のキャラクタ情報を取得する
    請求項7に記載の装置。
  11. 前記予測モジュールは、
    前記コンテキスト、前記キャラクタ情報および前記対話を含む入力情報を構築し、
    前記入力情報を予めトレーニングされた感情スタイル予測モデルに入力し、予測された前記対話の感情スタイルを取得する
    請求項7に記載の装置。
  12. 前記対話に対応する前記入力情報及び前記対話の感情スタイルであるラベルを含んで、各トレーニングサンプルがテキストにおける一文の対話に対応するトレーニングサンプルを構築し、前記トレーニングサンプルを用いてトレーニングし、前記感情スタイル予測モデルを取得するために用いられる
    請求項11に記載の装置。
  13. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサに通信可能に接続されたメモリと、を含み、
    前記メモリは、前記少なくとも1つのプロセッサによって実行可能な命令を記憶し、前記命令は、前記少なくとも1つのプロセッサが請求項1〜6のいずれか一項に記載の方法を実行するように、前記少なくとも1つのプロセッサによって実行される
    電子機器。
  14. コンピュータ命令は、コンピュータに請求項1〜6のいずれか一項に記載の方法を実行させる
    コンピュータ命令を記憶した非一時的なコンピュータ読み取り可能な記憶媒体。
  15. コンピュータに実行される時に請求項1〜6のいずれか一項に記載の方法を実現するコンピュータプログラム。
JP2021103442A 2020-10-14 2021-06-22 対話感情スタイル予測方法、装置、電子機器、記憶媒体及びプログラム Active JP7246437B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011098145.1A CN112270168B (zh) 2020-10-14 2020-10-14 对白情感风格预测方法、装置、电子设备及存储介质
CN202011098145.1 2020-10-14

Publications (2)

Publication Number Publication Date
JP2021152957A true JP2021152957A (ja) 2021-09-30
JP7246437B2 JP7246437B2 (ja) 2023-03-27

Family

ID=74337136

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021103442A Active JP7246437B2 (ja) 2020-10-14 2021-06-22 対話感情スタイル予測方法、装置、電子機器、記憶媒体及びプログラム

Country Status (4)

Country Link
US (1) US20220027575A1 (ja)
JP (1) JP7246437B2 (ja)
KR (1) KR102564689B1 (ja)
CN (1) CN112270168B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116383365A (zh) * 2023-06-01 2023-07-04 广州里工实业有限公司 一种基于智能制造的学习资料生成方法、系统及电子设备

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113066473A (zh) * 2021-03-31 2021-07-02 建信金融科技有限责任公司 一种语音合成方法、装置、存储介质及电子设备
CN112989822B (zh) * 2021-04-16 2021-08-27 北京世纪好未来教育科技有限公司 识别对话中句子类别的方法、装置、电子设备和存储介质
CN114970561B (zh) * 2022-05-27 2023-08-01 华东师范大学 一种性格加强的对话情感预测模型及其构建方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0772888A (ja) * 1993-09-01 1995-03-17 Matsushita Electric Ind Co Ltd 情報処理装置
JPH08248971A (ja) * 1995-03-09 1996-09-27 Hitachi Ltd テキスト朗読読み上げ装置
JP2012198277A (ja) * 2011-03-18 2012-10-18 Toshiba Corp 文書読み上げ支援装置、文書読み上げ支援方法および文書読み上げ支援プログラム
JP2018529133A (ja) * 2015-09-23 2018-10-04 グーグル エルエルシー デジタルグラフィックノベルの自動翻訳
CN109101487A (zh) * 2018-07-11 2018-12-28 广州杰赛科技股份有限公司 对话角色区分方法、装置、终端设备及存储介质
CN110534131A (zh) * 2019-08-30 2019-12-03 广州华多网络科技有限公司 一种音频播放方法及系统

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BRPI0809759A2 (pt) * 2007-04-26 2014-10-07 Ford Global Tech Llc "sistema informativo emotivo, sistemas de informações emotivas, métodos de condução emotiva de informações, sistemas informativos emotivos para um veículo de passageiro e método implementado por computador"
US8374873B2 (en) * 2008-08-12 2013-02-12 Morphism, Llc Training and applying prosody models
US20120137367A1 (en) * 2009-11-06 2012-05-31 Cataphora, Inc. Continuous anomaly detection based on behavior modeling and heterogeneous information analysis
US20110172873A1 (en) * 2010-01-08 2011-07-14 Ford Global Technologies, Llc Emotive advisory system vehicle maintenance advisor
US8400332B2 (en) * 2010-02-09 2013-03-19 Ford Global Technologies, Llc Emotive advisory system including time agent
US20120130717A1 (en) * 2010-11-19 2012-05-24 Microsoft Corporation Real-time Animation for an Expressive Avatar
US9093081B2 (en) * 2013-03-10 2015-07-28 Nice-Systems Ltd Method and apparatus for real time emotion detection in audio interactions
US9177318B2 (en) * 2013-04-22 2015-11-03 Palo Alto Research Center Incorporated Method and apparatus for customizing conversation agents based on user characteristics using a relevance score for automatic statements, and a response prediction function
US10594638B2 (en) * 2015-02-13 2020-03-17 International Business Machines Corporation Point in time expression of emotion data gathered from a chat session
JP2017009826A (ja) * 2015-06-23 2017-01-12 トヨタ自動車株式会社 グループ状態判定装置およびグループ状態判定方法
US20170154637A1 (en) * 2015-11-29 2017-06-01 International Business Machines Corporation Communication pattern monitoring and behavioral cues
US10831796B2 (en) * 2017-01-15 2020-11-10 International Business Machines Corporation Tone optimization for digital content
CN107103900B (zh) * 2017-06-06 2020-03-31 西北师范大学 一种跨语言情感语音合成方法及系统
US10983753B2 (en) * 2017-06-09 2021-04-20 International Business Machines Corporation Cognitive and interactive sensor based smart home solution
KR102199067B1 (ko) * 2018-01-11 2021-01-06 네오사피엔스 주식회사 다중 언어 텍스트-음성 합성 방법
CN108874972B (zh) * 2018-06-08 2021-10-19 合肥工业大学 一种基于深度学习的多轮情感对话方法
CN108735200B (zh) * 2018-06-27 2020-05-29 北京灵伴即时智能科技有限公司 一种说话人自动标注方法
US10922492B2 (en) * 2018-06-29 2021-02-16 Adobe Inc. Content optimization for audiences
CN109299267B (zh) * 2018-10-16 2022-04-01 山西大学 一种文本对话的情绪识别与预测方法
CN110222184A (zh) * 2019-06-13 2019-09-10 广东工业大学 一种文本的情感信息识别方法及相关装置
CN111164589A (zh) * 2019-12-30 2020-05-15 深圳市优必选科技股份有限公司 说话内容的情感标注方法、装置、设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0772888A (ja) * 1993-09-01 1995-03-17 Matsushita Electric Ind Co Ltd 情報処理装置
JPH08248971A (ja) * 1995-03-09 1996-09-27 Hitachi Ltd テキスト朗読読み上げ装置
JP2012198277A (ja) * 2011-03-18 2012-10-18 Toshiba Corp 文書読み上げ支援装置、文書読み上げ支援方法および文書読み上げ支援プログラム
JP2018529133A (ja) * 2015-09-23 2018-10-04 グーグル エルエルシー デジタルグラフィックノベルの自動翻訳
CN109101487A (zh) * 2018-07-11 2018-12-28 广州杰赛科技股份有限公司 对话角色区分方法、装置、终端设备及存储介质
CN110534131A (zh) * 2019-08-30 2019-12-03 广州华多网络科技有限公司 一种音频播放方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116383365A (zh) * 2023-06-01 2023-07-04 广州里工实业有限公司 一种基于智能制造的学习资料生成方法、系统及电子设备
CN116383365B (zh) * 2023-06-01 2023-09-08 广州里工实业有限公司 一种基于智能制造的学习资料生成方法、系统及电子设备

Also Published As

Publication number Publication date
CN112270168B (zh) 2023-11-24
KR20210122204A (ko) 2021-10-08
KR102564689B1 (ko) 2023-08-08
US20220027575A1 (en) 2022-01-27
CN112270168A (zh) 2021-01-26
JP7246437B2 (ja) 2023-03-27

Similar Documents

Publication Publication Date Title
KR102497945B1 (ko) 텍스트 인식 처리 방법, 장치, 전자 기기 및 저장매체
CN111859994B (zh) 机器翻译模型获取及文本翻译方法、装置及存储介质
EP3879525A1 (en) Method and apparatus for training model, method and apparatus for synthesizing speech, device, storage medium and computer program product
JP2021152957A (ja) 対話感情スタイル予測方法、装置、電子機器、記憶媒体及びプログラム
CN111368046B (zh) 人机对话方法、装置、电子设备及存储介质
CN111061868B (zh) 读法预测模型获取及读法预测方法、装置及存储介质
JP2020149053A (ja) トレーニングコーパスの生成方法、装置、機器及び記憶媒体
CN110797005B (zh) 韵律预测方法、装置、设备和介质
US20210312230A1 (en) Information Extraction Method, Extraction Model Training Method, Apparatus and Electronic Device
CN111325020A (zh) 一种事件论元抽取方法、装置以及电子设备
CN111611468B (zh) 页面交互方法、装置和电子设备
US20220358292A1 (en) Method and apparatus for recognizing entity, electronic device and storage medium
CN112507101A (zh) 一种建立预训练语言模型的方法和装置
CN113220836A (zh) 序列标注模型的训练方法、装置、电子设备和存储介质
JP2021131858A (ja) エンティティワードの認識方法と装置
CN112506949B (zh) 结构化查询语言查询语句生成方法、装置及存储介质
CN114841274B (zh) 语言模型的训练方法、装置、电子设备和存储介质
US20220068265A1 (en) Method for displaying streaming speech recognition result, electronic device, and storage medium
CN114970522A (zh) 语言模型的预训练方法、装置、设备、存储介质
CN110807331A (zh) 一种多音字读音预测方法、装置和电子设备
JP2021170310A (ja) 対話生成方法、装置、電子機器、プログラム及び記憶媒体
CN112269862A (zh) 文本角色标注方法、装置、电子设备和存储介质
CN112270169B (zh) 对白角色预测方法、装置、电子设备及存储介质
CN111858880A (zh) 获取查询结果的方法、装置、电子设备和可读存储介质
CN112466277B (zh) 韵律模型训练方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230314

R150 Certificate of patent or registration of utility model

Ref document number: 7246437

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150