JP6647475B2 - 言語処理装置、言語処理システムおよび言語処理方法 - Google Patents

言語処理装置、言語処理システムおよび言語処理方法 Download PDF

Info

Publication number
JP6647475B2
JP6647475B2 JP2019556461A JP2019556461A JP6647475B2 JP 6647475 B2 JP6647475 B2 JP 6647475B2 JP 2019556461 A JP2019556461 A JP 2019556461A JP 2019556461 A JP2019556461 A JP 2019556461A JP 6647475 B2 JP6647475 B2 JP 6647475B2
Authority
JP
Japan
Prior art keywords
vector
sentence
unit
words
language processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019556461A
Other languages
English (en)
Other versions
JPWO2019106758A1 (ja
Inventor
英彰 城光
英彰 城光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6647475B2 publication Critical patent/JP6647475B2/ja
Publication of JPWO2019106758A1 publication Critical patent/JPWO2019106758A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3334Selection or weighting of terms from queries, including natural language queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/268Morphological analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Description

この発明は、言語処理装置、言語処理システムおよび言語処理方法に関する。
大量の情報から必要な情報を提示する技術の一つとして質問応答技術がある。質問応答技術は、ユーザが普段使用している言葉をそのまま入力とし、ユーザが必要とする情報を過不足なく出力することを目的としている。ユーザが普段使用している言葉を扱う上で、処理対象の文に存在する未知語、すなわち事前に用意された文書に使用されていない単語を適切に扱うことが重要である。
例えば、非特許文献1に記載される従来の技術では、大規模コーパスを用いた機械学習によって単語および文の周囲の文脈を判断することによって、処理対象の文を単語および文の意味を表す数値ベクトル(以下、意味ベクトルと記載する)で表現している。意味ベクトルの作成に使用される大規模コーパスには大量の語彙が含まれるため、処理対象の文に未知語が生じにくいという利点がある。
Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean, "Efficient Estimation of Word Representations in Vector Space", ICLR 2013.
非特許文献1に記載される従来の技術は、大規模コーパスを用いることにより、未知語の問題に対処している。
しかしながら、非特許文献1に記載される従来の技術では、互いに異なる単語および文であっても、その周囲の文脈が似ていると、これらは類似した意味ベクトルにマッピングされる。このため、意味ベクトルで表現される単語および文の意味が曖昧になり、区別が難しくなるという課題があった。
例えば、“冷凍庫での冷凍食品の保存期間の目安を教えて”という文Aと、“製氷室での冷凍食品の保存期間の目安を教えて”という文Bとでは、“冷凍庫”および“製氷室”という互いに異なる単語が含まれているが、“冷凍庫”の周囲の文脈と“製氷室”の周囲の文脈とが同じである。このため、非特許文献1に記載される従来の技術では、文Aと文Bが類似した意味ベクトルにマッピングされて区別が難しくなる。文Aと文Bとが正しく区別されないと、文Aと文Bとを質問文としたときに正しい応答文が選択されなくなる。
この発明は上記課題を解決するものであり、未知語の問題に対処しつつ、処理対象の文の意味を曖昧にすることなく、処理対象の文に対応する適切な応答文を選択することができる言語処理装置、言語処理システムおよび言語処理方法を得ることを目的とする。
この発明に係る言語処理装置は、質問応答データベース(以下、質問応答DBと記載する)、形態素解析部、第1のベクトル作成部、第2のベクトル作成部、ベクトル統合部、および応答文選択部を備える。質問応答DBには、複数の質問文と複数の応答文とが対応付けて登録されている。形態素解析部は、処理対象の文を形態素解析する。第1のベクトル作成部は、処理対象の文に含まれる単語に対応する次元を有し、次元の要素が質問応答DBにおける単語の出現回数である、Bag−of−Wordsベクトル(以下、BoWベクトルと記載する)を、形態素解析部によって形態素解析された文から作成する。第2のベクトル作成部は、処理対象の文の意味を表す意味ベクトルを、形態素解析部によって形態素解析された文から作成する。ベクトル統合部は、BoWベクトルと意味ベクトルとを統合した統合ベクトルを作成する。応答文選択部は、ベクトル統合部によって作成された統合ベクトルに基づいて、質問応答DBから、処理対象の文に対応する質問文を特定して、特定した質問文に対応する応答文を選択する。
この発明によれば、未知語の問題は存在するが、文の意味を曖昧にすることなく文のベクトル表現が可能なBoWベクトルと、未知語の問題に対処できるが、文の意味が曖昧になる可能性がある意味ベクトルとを統合した統合ベクトルが応答文の選択に使用される。言語処理装置は、統合ベクトルを参照することで、未知語の問題に対処しつつ、処理対象の文の意味を曖昧にすることなく、処理対象の文に対応する適切な応答文を選択することができる。
この発明の実施の形態1に係る言語処理システムの構成を示すブロック図である。 質問応答DBの登録内容の例を示す図である。 図3Aは、実施の形態1に係る言語処理装置の機能を実現するハードウェア構成を示すブロック図である。図3Bは、実施の形態1に係る言語処理装置の機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。 実施の形態1に係る言語処理方法を示すフローチャートである。 形態素解析処理を示すフローチャートである。 BoWベクトル作成処理を示すフローチャートである。 意味ベクトル作成処理を示すフローチャートである。 統合ベクトル作成処理を示すフローチャートである。 応答文選択処理を示すフローチャートである。 この発明の実施の形態2に係る言語処理システムの構成を示すブロック図である。 実施の形態2に係る言語処理方法を示すフローチャートである。 重要概念ベクトル作成処理を示すフローチャートである。 実施の形態2における統合ベクトル作成処理を示すフローチャートである。 この発明の実施の形態3に係る言語処理システムの構成を示すブロック図である。 実施の形態3に係る言語処理方法を示すフローチャートである。 未知語率算出処理を示すフローチャートである。 重み調節処理を示すフローチャートである。 実施の形態3における統合ベクトル作成処理を示すフローチャートである。
以下、この発明をより詳細に説明するため、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、この発明の実施の形態1に係る言語処理システム1の構成を示すブロック図である。言語処理システム1は、ユーザから入力された文に対応する応答文を選択して出力するシステムであり、言語処理装置2、入力装置3および出力装置4を備える。
入力装置3は、処理対象の文の入力を受け付ける装置であって、例えば、キーボード、マウスまたはタッチパネルにより実現される。出力装置4は、言語処理装置2により選択された応答文を出力する装置であり、例えば、応答文を表示する表示装置、応答文を音声で出力する音声出力装置(スピーカなど)である。
言語処理装置2は、入力装置3が受け付けた処理対象の文(以下、入力文と記載する)を言語処理した結果に基づいて、入力文に対応する応答文を選択する。言語処理装置2は、形態素解析部20、BoWベクトル作成部21、意味ベクトル作成部22、ベクトル統合部23、応答文選択部24および質問応答DB25を備える。形態素解析部20は、入力装置3から取得した入力文を形態素解析する。
BoWベクトル作成部21は、入力文に対応するBoWベクトルを作成する第1のベクトル作成部である。BoWベクトルは、文を、Bag−to−Wordsと呼ばれるベクトル表現方法で表したものである。BoWベクトルは、入力文に含まれる単語に対応する次元を有しており、次元の要素は、質問応答DB25における、次元に対応する単語の出現回数である。なお、単語の出現回数は、入力文に単語が存在するか否かを示す値であってもよい。例えば、ある単語が入力文に少なくとも一つ出現していれば、出現回数を1とし、それ以外であれば、出現回数を0とする。
意味ベクトル作成部22は、入力文に対応する意味ベクトルを作成する第2のベクトル作成部である。意味ベクトルにおける次元のそれぞれは、ある概念に対応しており、この概念との意味的な距離に対応する数値が次元の要素である。例えば、意味ベクトル作成部22は、意味ベクトル作成器として機能する。意味ベクトル作成器は、大規模コーパスを使用した機械学習によって、形態素解析された入力文から、入力文の意味ベクトルを作成する。
ベクトル統合部23は、BoWベクトルと意味ベクトルを統合した統合ベクトルを作成する。例えば、ベクトル統合部23は、ニューラルネットワークとして機能する。ニューラルネットワークは、BoWベクトルと意味ベクトルを任意の次元の一つの統合ベクトルに変換する。すなわち、統合ベクトルは、BoWベクトルの要素と意味ベクトルの要素を備える一つのベクトルである。
応答文選択部24は、統合ベクトルに基づいて、質問応答DB25から、入力文に対応する質問文を特定し、特定した質問文に対応する応答文を選択する。例えば、応答文選択部24は、応答文選択器として機能する。応答文選択器は、質問応答DB25における、質問文と応答文IDとの対応関係を学習することで事前に構築される。応答文選択部24によって選択された応答文は出力装置4に送出される。出力装置4は、応答文選択部24によって選択された応答文を視覚的または聴覚的に出力する。
質問応答DB25には、複数の質問文と複数の応答文とが対応付けて登録されている。図2は、質問応答DB25の登録内容の例を示す図である。質問応答DB25には、図2に示すように、質問文、質問文に対応する応答文ID、応答文IDに対応する応答文の組み合わせが登録されている。質問応答DB25において、1つの応答文IDに対して複数の質問文が対応してもよい。
図3Aは、言語処理装置2の機能を実現するハードウェア構成を示すブロック図である。図3Bは、言語処理装置2の機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。図3Aおよび図3Bにおいて、マウス100とキーボード101は、図1に示す入力装置3であり、入力文を受け付ける。表示装置102は、図1に示す出力装置4であり、入力文に対応する応答文を表示する。補助記憶装置103は、質問応答DB25のデータを記憶する。補助記憶装置103は、言語処理装置2とは独立して設けられた記憶装置であってもよい。例えば、言語処理装置2は、通信インタフェースを介して、クラウド上に存在する補助記憶装置103を利用してもよい。
言語処理装置2における形態素解析部20、BoWベクトル作成部21、意味ベクトル作成部22、ベクトル統合部23および応答文選択部24のそれぞれの機能は、処理回路により実現される。すなわち、言語処理装置2は、図4を用いて後述するステップST1からステップST6までの処理を実行するための処理回路を備える。処理回路は、専用のハードウェアであってもよいが、メモリに記憶されたプログラムを実行するCPU(Central Processing Unit)であってもよい。
処理回路が、図3Aに示す専用のハードウェアの処理回路104である場合、処理回路104は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)またはこれらを組み合わせたものが該当する。形態素解析部20、BoWベクトル作成部21、意味ベクトル作成部22、ベクトル統合部23および応答文選択部24のそれぞれの機能を別々の処理回路で実現してもよいし、これらの機能をまとめて1つの処理回路で実現してもよい。
処理回路が、図3Bに示すプロセッサ105である場合に、形態素解析部20、BoWベクトル作成部21、意味ベクトル作成部22、ベクトル統合部23および応答文選択部24のそれぞれの機能は、ソフトウェア、ファームウェアまたはソフトウェアとファームウェアとの組み合わせによって実現される。ソフトウェアまたはファームウェアは、プログラムとして記述されて、メモリ106に記憶される。
プロセッサ105は、メモリ106に記憶されたプログラムを読み出して実行することで、形態素解析部20、BoWベクトル作成部21、意味ベクトル作成部22、ベクトル統合部23および応答文選択部24のそれぞれの機能を実現する。
すなわち、言語処理装置2は、プロセッサ105により実行されるときに、図4に示すステップST1からステップST6までの処理が結果的に実行されるプログラムを記憶するためのメモリ106を備える。これらのプログラムは、形態素解析部20、BoWベクトル作成部21、意味ベクトル作成部22、ベクトル統合部23および応答文選択部24の手順または方法をコンピュータに実行させるものである。
メモリ106は、コンピュータを、形態素解析部20、BoWベクトル作成部21、意味ベクトル作成部22、ベクトル統合部23および応答文選択部24として機能させるためのプログラムが記憶されたコンピュータ可読記憶媒体であってもよい。
メモリ106には、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically−EPROM)などの不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDなどが該当する。
形態素解析部20、BoWベクトル作成部21、意味ベクトル作成部22、ベクトル統合部23および応答文選択部24のそれぞれの機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。例えば、形態素解析部20、BoWベクトル作成部21および意味ベクトル作成部22は、専用のハードウェアとしての処理回路で機能を実現する。ベクトル統合部23および応答文選択部24については、プロセッサ105がメモリ106に記憶されたプログラムを読み出して実行することにより機能を実現してもよい。このように、処理回路は、ハードウェア、ソフトウェア、ファームウェアまたはこれらの組み合わせにより上記機能のそれぞれを実現することができる。
次に動作について説明する。
図4は、実施の形態1に係る言語処理方法を示すフローチャートである。
入力装置3が、入力文を取得する(ステップST1)。続いて、形態素解析部20は、入力装置3から入力文を取得して、入力文を形態素解析する(ステップST2)。
BoWベクトル作成部21は、形態素解析部20により形態素解析された文から、入力文に対応するBoWベクトルを作成する(ステップST3)。
意味ベクトル作成部22は、形態素解析部20により形態素解析された文から、入力文に対応する意味ベクトルを作成する(ステップST4)。
次に、ベクトル統合部23は、BoWベクトル作成部21により作成されたBoWベクトルと意味ベクトル作成部22により作成された意味ベクトルとを統合した統合ベクトルを作成する(ステップST5)。
応答文選択部24は、ベクトル統合部23により作成された統合ベクトルに基づいて、質問応答DB25から、入力文に対応する質問文を特定して、特定した質問文に対応する応答文を選択する(ステップST6)。
図5は、形態素解析処理を示すフローチャートであって、図4のステップST2の処理の詳細を示している。形態素解析部20は、入力装置3から入力文を取得する(ステップST1a)。形態素解析部20は、入力文を形態素に分割して単語ごとに分かち書きをすることで、形態素解析された文を作成する(ステップST2a)。形態素解析部20は、形態素解析した文を、BoWベクトル作成部21と意味ベクトル作成部22へ出力する(ステップST3a)。
図6は、BoWベクトル作成処理を示すフローチャートであり、図4のステップST3の処理の詳細を示している。BoWベクトル作成部21は、形態素解析部20により形態素解析された文を取得する(ステップST1b)。次に、BoWベクトル作成部21は、処理対象の単語が質問応答DB25に出現したか否かを判定する(ステップST2b)。
処理対象の単語が質問応答DB25に出現したと判定した場合(ステップST2b;YES)、BoWベクトル作成部21は、処理対象の単語に対応するBoWベクトルの次元に出現回数を設定する(ステップST3b)。
処理対象の単語が質問応答DB25に出現しないと判定した場合(ステップST2b;NO)、BoWベクトル作成部21は、処理対象の単語に対応するBoWベクトルの次元に“0”を設定する(ステップST4b)。
次に、BoWベクトル作成部21は、入力文に含まれる全ての単語を処理対象としたか否かを確認する(ステップST5b)。入力文に含まれる単語のうち、未処理の単語がある場合(ステップST5b;NO)、BoWベクトル作成部21は、ステップST2bに戻り、未処理の単語を処理対象として前述した一連の処理を繰り返す。
入力文に含まれる全ての単語を処理対象とした場合(ステップST5b;YES)、BoWベクトル作成部21は、BoWベクトルをベクトル統合部23に出力する(ステップST6b)。
図7は、意味ベクトル作成処理を示すフローチャートであり、図4のステップST4の処理の詳細を示している。意味ベクトル作成部22は、形態素解析部20から、形態素解析された文を取得する(ステップST1c)。
意味ベクトル作成部22は、形態素解析された文から、意味ベクトルを作成する(ステップST2c)。意味ベクトル作成部22が事前に構築された意味ベクトル作成器である場合、意味ベクトル作成器は、例えば、入力文に含まれる単語ごとにその品詞を表す単語ベクトルを作成し、入力文に含まれる単語の単語ベクトルの平均値を単語に対応する意味ベクトルの次元の要素とする。
意味ベクトル作成部22は、意味ベクトルをベクトル統合部23に出力する(ステップST3c)。
図8は、統合ベクトル作成処理を示すフローチャートであり、図4のステップST5の処理の詳細を示している。ベクトル統合部23は、BoWベクトル作成部21からBoWベクトルを取得し、意味ベクトル作成部22から意味ベクトルを取得する(ステップST1d)。
次に、ベクトル統合部23は、BoWベクトルと意味ベクトルを統合して統合ベクトルを作成する(ステップST2d)。ベクトル統合部23は、作成した統合ベクトルを応答文選択部24へ出力する(ステップST3d)。
ベクトル統合部23が事前に構築されたニューラルネットワークである場合、ニューラルネットワークは、BoWベクトルと意味ベクトルとを任意の次元の一つの統合ベクトルに変換する。ニューラルネットワークは、複数のノードが入力層、中間層および出力層で階層化されており、前段の層におけるノードと後段の層におけるノードとがエッジで接続され、エッジには、当該エッジで接続されたノード間の結合度合いを示す重みが設定される。
ニューラルネットワークでは、BoWベクトルの次元と意味ベクトルの次元を入力として、上記重みを用いた演算を繰り返すことにより、入力文に対応した統合ベクトルが作成される。ニューラルネットワークの上記重みは、質問応答DB25から入力文に対応する適切な応答文を選択可能な統合ベクトルが作成されるように、バックプロパゲーションにより、学習用データを用いて予め学習されている。
例えば、“冷凍庫での冷凍食品の保存期間の目安を教えて”という文Aと、“製氷室での冷凍食品の保存期間の目安を教えて”という文Bは、統合ベクトルに統合されたBoWベクトルにおける、“冷凍庫”という単語に対応する次元と“製氷室”という単語に対応する次元についてのニューラルネットワークの上記重みが大きくなる。これにより、統合ベクトルに統合されたBoWベクトルにおいて、文Aと文Bとで相違する単語に対応する次元の要素が強調されるので、文Aと文Bを正しく区別することができる。
図9は、応答文選択処理を示すフローチャートであり、図4のステップST6の処理の詳細を示している。まず、応答文選択部24は、ベクトル統合部23から統合ベクトルを取得する(ステップST1e)。次に、応答文選択部24は、入力文に対応する応答文を質問応答DB25から選択する(ステップST2e)。
BoWベクトルを作成したときに入力文に含まれていた未知語の数が多くても、応答文選択部24は、統合ベクトルにおける意味ベクトルの要素を参照することで、単語の意味を特定できる。また、意味ベクトルだけでは文の意味が曖昧になる場合であっても、応答文選択部24は、統合ベクトルにおけるBoWベクトルの要素を参照することで、入力文の意味を曖昧にすることなく、入力文を特定できる。
例えば、前述した文Aと文Bとが正しく区別されるので、応答文選択部24は、文Aに対応する正しい応答文を選択することができ、文Bに対応する正しい応答文を選択することができる。
応答文選択部24が事前に構築された応答文選択器である場合、応答文選択器は、質問応答DB25における、質問文と応答文IDとの対応関係を学習して事前に構築される。
例えば、形態素解析部20が、質問応答DB25に登録された複数の質問文のそれぞれを形態素解析する。BoWベクトル作成部21が、形態素解析された質問文からBoWベクトルを作成し、意味ベクトル作成部22が、形態素解析された質問文から意味ベクトルを作成する。ベクトル統合部23が、質問文に対応するBoWベクトルと質問文に対応する意味ベクトルとを統合して、質問文に対応する統合ベクトルを作成する。応答文選択器は、質問文に対応する統合ベクトルと応答文IDとの対応関係を事前に機械学習する。
このように構築された応答文作成器は、未知の入力文に対しても、当該入力文についての統合ベクトルから、入力文に対応する応答文IDを特定して、特定した応答IDに対応する応答文を選択することができる。
また、応答文選択器は、入力文と最も類似度が高い質問文に対応する応答文を選択するものであってもよい。この類似度は、統合ベクトルのコサイン類似度またはユークリッド距離により算出される。応答文選択部24は、ステップST2eで選択した応答文を出力装置4に出力する(ステップST3e)。これにより、出力装置4が表示装置であれば、応答文を表示し、出力装置4が音声出力装置であれば、応答文を音声で出力する。
以上のように、実施の形態1に係る言語処理装置2において、ベクトル統合部23が、入力文に対応するBoWベクトルと入力文に対応する意味ベクトルとを統合した統合ベクトルを作成する。応答文選択部24が、ベクトル統合部23によって作成された統合ベクトルに基づいて、質問応答DB25から、入力文に対応する応答文を選択する。
このように構成することで、言語処理装置2は、未知語の問題に対処しつつ、入力文の意味を曖昧にすることなく、入力文に対応する適切な応答文を選択することができる。
実施の形態1に係る言語処理システム1は、言語処理装置2を備えるので、上記と同様の効果が得られる。
実施の形態2.
BoWベクトルは、様々な種類の単語に対応する次元のベクトルであるが、処理対象の文に含まれる単語に限ると、次元に対応する単語が処理対象の文には存在せず、ほとんどの次元の要素が0である疎なベクトルとなる場合が多い。意味ベクトルは、次元の要素が様々な単語の意味を表す数値であるため、BoWベクトルに比べて密なベクトルとなる。実施の形態1では、疎なBoWベクトルと密な意味ベクトルを、直接、ニューラルネットワークによって一つの統合ベクトルに変換していた。このため、BoWベクトルの次元に対して少量の教師データでバックプロパゲーションによる学習が行われると、少量の教師データに特化した汎用能力の低い重みが学習される、いわゆる“過学習”と呼ばれる現象が起こる可能性がある。そこで、実施の形態2では、過学習の発生を抑制するため、統合ベクトルを作成する前に、BoWベクトルをより密なベクトルに変換するものである。
図10は、この発明の実施の形態2に係る言語処理システム1Aの構成を示すブロック図である。図10において、図1と同一構成要素には同一符号を付して説明を省略する。言語処理システム1Aは、ユーザから入力された文に対応する応答文を選択して出力するシステムであり、言語処理装置2A、入力装置3および出力装置4を備えて構成される。言語処理装置2Aは、入力文を言語処理した結果に基づいて、入力文に対応する応答文を選択する装置であり、形態素解析部20、BoWベクトル作成部21、意味ベクトル作成部22、ベクトル統合部23A、応答文選択部24、質問応答DB25、および重要概念ベクトル作成部26を備える。
ベクトル統合部23Aは、重要概念ベクトル作成部26が作成した重要概念ベクトルと意味ベクトル作成部22が作成した意味ベクトルを統合した統合ベクトルとを作成する。例えば、ベクトル統合部23Aとして事前に構築されたニューラルネットワークにより、重要概念ベクトルと意味ベクトルとを任意の次元の一つの統合ベクトルに変換する。
重要概念ベクトル作成部26は、BoWベクトル作成部21が作成したBoWベクトルから、重要概念ベクトルを作成する第3のベクトル作成部である。重要概念ベクトル作成部26は、重要概念抽出器として機能する。重要概念抽出器は、BoWベクトルの要素のそれぞれに重みパラメータを掛けることにより、重要概念に対応する次元を有した重要概念ベクトルを算出する。ここで、“概念”とは単語および文の“意味”であり、“重要”とは、応答文を選択する上での有用性を指している。すなわち、重要概念とは、応答文を選択する上で有用な単語および文の意味である。なお、“概念”は、下記の参考文献1に詳細が記載されている。
(参考文献1)笠原要, 松澤和光, 石川勉, “国語辞書を利用した日常語の類似性判別”, 情報処理学会論文誌, 38(7), pp.1272−1283(1997).
言語処理装置2Aにおける、形態素解析部20、BoWベクトル作成部21、意味ベクトル作成部22、ベクトル統合部23A、応答文選択部24および重要概念ベクトル作成部26のそれぞれの機能は、処理回路によって実現される。
すなわち、言語処理装置2Aは、図11を用いて後述するステップST1fからステップST7fまでの処理を実行するための処理回路を備える。
処理回路は、専用のハードウェアであってもよいが、メモリに記憶されたプログラムを実行するプロセッサであってもよい。
次に動作について説明する。
図11は、実施の形態2に係る言語処理方法を示すフローチャートである。
図11のステップST1fからステップST4fまでの処理は、図4のステップST1からステップST4までと同じ処理であり、図11のステップST7fの処理は、図4のステップST6と同じ処理であるので、説明を省略する。
重要概念ベクトル作成部26は、BoWベクトル作成部21からBoWベクトルを取得し、取得したBoWベクトルよりも密な重要概念ベクトルを作成する(ステップST5f)。重要概念ベクトル作成部26により作成された重要概念ベクトルは、ベクトル統合部23Aに出力される。ベクトル統合部23Aは、重要概念ベクトルと意味ベクトルを統合した統合ベクトルを作成する(ステップST6f)。
図12は、重要概念ベクトル作成処理を示すフローチャートであり、図11のステップST5fの処理の詳細を示している。まず、重要概念ベクトル作成部26は、BoWベクトル作成部21からBoWベクトルを取得する(ステップST1g)。続いて、重要概念ベクトル作成部26は、BoWベクトルから重要概念を抽出して重要概念ベクトルを作成する(ステップST2g)。
重要概念ベクトル作成部26が重要概念抽出器である場合、重要概念抽出器は、下記式(1)に従い、入力文sに対応するBoWベクトルv bowの要素のそれぞれに対して、行列Wで示す重みパラメータを掛ける。これにより、BoWベクトルv bowが重要概念ベクトルv conに変換される。ここで、入力文sに対応するBoWベクトルv bow=(x,x,・・・,x,・・・,x)、重要概念ベクトルv con=(y,y,・・・,y,・・・,y)である。

Figure 0006647475
重要概念ベクトルv conでは、入力文sに含まれる単語に対応する次元の要素が重み付けされる。重みパラメータは、Autoencoder、PCA(Principal Component Analysis)、SVD(Singular Value Decomposition)を用いて決定してもよく、応答文の単語分布を予測するようにバックプロパゲーションして決定してもよく、人手で決定してもよい。
重要概念ベクトル作成部26は、重要概念ベクトルv conをベクトル統合部23Aに出力する(ステップST3g)。
図13は、実施の形態2における統合ベクトル作成処理を示すフローチャートであり、図11のステップST6fの処理の詳細を示している。ベクトル統合部23Aは、重要概念ベクトル作成部26から重要概念ベクトルを取得し、意味ベクトル作成部22から意味ベクトルを取得する(ステップST1h)。
次に、ベクトル統合部23Aは、重要概念ベクトルと意味ベクトルとを統合して、統合ベクトルを作成する(ステップST2h)。ベクトル統合部23Aは、統合ベクトルを応答文選択部24へ出力する(ステップST3h)。
ベクトル統合部23Aが事前に構築されたニューラルネットワークである場合、ニューラルネットワークは、重要概念ベクトルと意味ベクトルを任意の次元の一つの統合ベクトルに変換する。実施の形態1で示したように、ニューラルネットワークの重みは、入力文に対応する応答文を選択可能な統合ベクトルが作成されるように、学習用データを用いたバックプロパゲーションにより予め学習されている。
以上のように、実施の形態2に係る言語処理装置2Aは、BoWベクトルの要素のそれぞれを重み付けした重要概念ベクトルを作成する重要概念ベクトル作成部26を備える。ベクトル統合部23Aは、重要概念ベクトルと意味ベクトルとを統合した統合ベクトルを作成する。このように構成することで、言語処理装置2Aでは、BoWベクトルについての過学習が抑制される。
実施の形態2に係る言語処理システム1Aは、言語処理装置2Aを備えるので、上記と同様の効果が得られる。
実施の形態3.
実施の形態2では、入力文における未知語の比率(以下、未知語率と記載する)を考慮せずに、重要概念ベクトルと意味ベクトルとを統合している。このため、入力文の未知語率が高い場合であっても、応答文選択部が、統合ベクトルにおいて、重要概念ベクトルと意味ベクトルとを参照する比率(以下、参照比率と記載する)は変わらない。この場合、応答文選択部が、統合ベクトルにおける重要概念ベクトルと意味ベクトルのうち、入力文に含まれる未知語に起因して、入力文を十分に表現できていないベクトルを参照すると、適切な応答文を選択できないことがある。そこで、実施の形態3では、応答文を選択する精度の低下を防ぐため、入力文の未知語率に応じて重要概念ベクトルと意味ベクトルとの参照比率を変更して統合するものである。
図14は、この発明の実施の形態3に係る言語処理システム1Bの構成を示すブロック図である。図14において、図1および図10と同一構成要素には同一符号を付して説明を省略する。言語処理システム1Bは、ユーザから入力された文に対応する応答文を選択して出力するシステムであり、言語処理装置2B、入力装置3および出力装置4を備えて構成される。言語処理装置2Bは、入力文を言語処理した結果に基づいて、入力文に対応する応答文を選択する装置であり、形態素解析部20、BoWベクトル作成部21、意味ベクトル作成部22、ベクトル統合部23B、応答文選択部24、質問応答DB25、重要概念ベクトル作成部26、未知語率算出部27および重み調節部28を備える。
ベクトル統合部23Bは、重み調節部28から取得した重み付きの重要概念ベクトルと重み付きの意味ベクトルとを統合した統合ベクトルを作成する。未知語率算出部27は、BoWベクトルを作成したときに入力文に含まれていた未知語の数と意味ベクトルを作成したときに入力文に含まれていた未知語の数を用いて、BoWベクトルに対応する未知語率と意味ベクトルに対応する未知語率を算出する。重み調節部28は、BoWベクトルに対応する未知語率および意味ベクトルに対応する未知語率に基づいて、重要概念ベクトルと意味ベクトルとを重み付けする。
言語処理装置2Bにおける、形態素解析部20、BoWベクトル作成部21、意味ベクトル作成部22、ベクトル統合部23B、応答文選択部24、重要概念ベクトル作成部26、未知語率算出部27および重み調節部28のそれぞれの機能は、処理回路により実現される。すなわち、言語処理装置2Bは、図15を用いて後述するステップST1iからステップST9iまでの処理を実行するための処理回路を備える。処理回路は、専用のハードウェアであってもよいが、メモリに記憶されたプログラムを実行するプロセッサであってもよい。
次に動作について説明する。
図15は、実施の形態3に係る言語処理方法を示すフローチャートである。
まず、形態素解析部20は、入力装置3が受け付けた入力文を取得する(ステップST1i)。形態素解析部20は、入力文を形態素解析する(ステップST2i)。形態素解析された入力文は、BoWベクトル作成部21および意味ベクトル作成部22に出力される。形態素解析部20は、入力文に含まれる全ての単語の数を未知語率算出部27に出力する。
BoWベクトル作成部21は、形態素解析部20により形態素解析された文から、入力文に対応するBoWベクトルを作成する(ステップST3i)。このとき、BoWベクトル作成部21は、入力文に含まれる単語のうち、質問応答DB25に存在しなかった単語である未知語の数を未知語率算出部27に出力する。
意味ベクトル作成部22は、形態素解析部20により形態素解析された文から、入力文に対応する意味ベクトルを作成し、重み調節部28に出力する(ステップST4i)。このとき、意味ベクトル作成部22は、入力文に含まれる単語のうち、意味ベクトル作成器に事前に登録されていなかった単語に相当する未知語の数を、未知語率算出部27に出力する。
次に、重要概念ベクトル作成部26は、BoWベクトル作成部21から取得したBoWベクトルに基づいて、BoWベクトルをより密なベクトルとした重要概念ベクトルを作成する(ステップST5i)。重要概念ベクトル作成部26は、重要概念ベクトルを重み調節部28に出力する。
未知語率算出部27は、入力文における全単語の数、BoWベクトルを作成したときに入力文に含まれていた未知語の数、および意味ベクトルを作成したときに入力文に含まれていた未知語の数を用いて、BoWベクトルに対応する未知語率と、意味ベクトルに対応する未知語率とを算出する(ステップST6i)。BoWベクトルに対応する未知語率と意味ベクトルに対応する未知語率は、未知語率算出部27から重み調節部28に出力される。
重み調節部28は、未知語率算出部27から取得したBoWベクトルに対応する未知語率および意味ベクトルに対応する未知語率に基づいて、重要概念ベクトルと意味ベクトルを重み付けする(ステップST7i)。BoWベクトルに対応する未知語率が大きい場合には、意味ベクトルの参照比率が高くなるように重みを調節し、意味ベクトルに対応する未知語率が大きい場合、重要概念ベクトルの参照比率が高くなるように重みを調節する。
ベクトル統合部23Bは、重み調節部28から取得した重み付きの重要概念ベクトルと重み付きの意味ベクトルを統合した統合ベクトルを作成する(ステップST8i)。
応答文選択部24は、ベクトル統合部23Bによって作成された統合ベクトルに基づいて、質問応答DB25から、入力文に対応する応答文を選択する(ステップST9i)。例えば、応答文選択部24は、統合ベクトルにおける重要概念ベクトルと意味ベクトルをそれぞれの重みに応じて参照することで、質問応答DB25から、入力文に対応する質問文を特定し、特定した質問文に対応する応答文を選択する。
図16は、未知語率算出処理を示すフローチャートであり、図15のステップST6iの処理の詳細を示している。まず、未知語率算出部27は、形態素解析部20から、形態素解析された入力文sの全単語数Nを取得する(ステップST1j)。未知語率算出部27は、BoWベクトル作成部21から、入力文sにおける単語のうち、BoWベクトルを作成したときの未知語の数K bowを取得する(ステップST2j)。未知語率算出部27は、意味ベクトル作成部22から、入力文sにおける単語のうち、意味ベクトルを作成したときの未知語の数K w2vを取得する(ステップST3j)。
未知語率算出部27は、入力文sの全単語数Nと、BoWベクトルに対応する未知語の数K bowとを用いて、下記式(2)に従って、BoWベクトルに対応する未知語率r bowを算出する(ステップST4j)。
bow=K bow/N ・・・(2)
未知語率算出部27は、入力文sの全単語数Nと意味ベクトルに対応する未知語の数K w2vを用いて、下記式(3)に従い、意味ベクトルに対応する未知語率r w2vを算出する(ステップST5j)。未知語の数K w2vは、意味ベクトル作成器に事前に登録されていない単語の数に相当する。
w2v=K w2v/N ・・・(3)
未知語率算出部27は、BoWベクトルに対応する未知語率r bowと意味ベクトルに対応する未知語率r w2vを重み調節部28に出力する(ステップST6j)。
なお、tf−idfを用いた単語の重要度に応じた重みを考慮して未知語率r bowと未知語率r w2vを算出してもよい。
図17は、重み調節処理を示すフローチャートであって、図15のステップST7iの処理の詳細を示している。まず、重み調節部28は、未知語率算出部27から、BoWベクトルに対応する未知語率r bowおよび意味ベクトルに対応する未知語率r w2vを取得する(ステップST1k)。
重み調節部28は、重要概念ベクトル作成部26から重要概念ベクトルv conを取得する(ステップST2k)。重み調節部28は、意味ベクトル作成部22から意味ベクトルv w2vを取得する(ステップST3k)。
重み調節部28は、BoWベクトルに対応する未知語率r bowおよび意味ベクトルに対応する未知語率r w2vに基づいて、重要概念ベクトルv conと意味ベクトルv w2vとを重み付けする(ステップST4k)。例えば、重み調節部28は、未知語率r bowおよび未知語率r w2vに応じて、重要概念ベクトルv conの重みf(r bow,r w2v)を算出し、意味ベクトルv w2vの重みg(r bow,r w2v)を算出する。fおよびgは任意の関数であり、下記式(4)および(5)で表してもよい。係数a,bは、人手で設定された値であってもよく、ニューラルネットワークが、バックプロパゲーションによる学習で決定した値であってもよい。
f(x,y)=ax/(ax+by) ・・・(4)
g(x,y)=by/(ax+by) ・・・(5)
次に、重み調節部28は、重要概念ベクトルv conの重みf(r bow,r w2v)と意味ベクトルv w2vの重みg(r bow,r w2v)を用いて、下記式(6)および(7)に従って、重み付きの重要概念ベクトルu conおよび重み付きの意味ベクトルu w2vを算出する。
con=f(r bow,r w2v)v con ・・・(6)
w2v=g(r bow,r w2v)v w2v ・・・(7)
例えば、入力文sにおける未知語率r bowが閾値よりも大きい場合、重み調節部28は、意味ベクトルv w2vの参照比率が高くなるように重みを調節する。入力文sにおける未知語率r w2vが閾値よりも大きい場合には、重み調節部28は、重要概念ベクトルv conの参照比率が高くなるように重みを調節する。重み調節部28は、重み付きの重要概念ベクトルu conと重み付きの意味ベクトルu w2vをベクトル統合部23Bに出力する(ステップST5k)。
図18は、統合ベクトル作成処理を示すフローチャートであり、図15のステップST8iの処理の詳細を示している。まず、ベクトル統合部23Bは、重み調節部28から、重み付きの重要概念ベクトルu conおよび重み付きの意味ベクトルu w2vを取得する(ステップST1l)。ベクトル統合部23Bは、重み付きの重要概念ベクトルu conと重み付きの意味ベクトルu w2vを統合した統合ベクトルを作成する(ステップST2l)。例えば、ベクトル統合部23Bがニューラルネットワークである場合、ニューラルネットワークは、重み付きの重要概念ベクトルu conと重み付きの意味ベクトルu w2vを任意の次元の一つの統合ベクトルに変換する。ベクトル統合部23Bは、統合ベクトルを応答文選択部24に出力する(ステップST3l)。
なお、実施の形態3では、未知語率算出部27および重み調節部28を、実施の形態2の構成に適用した場合を示したが、実施の形態1の構成に適用してもよい。
例えば、重み調節部28が、BoWベクトル作成部21からBoWベクトルを、直接、取得して、BoWベクトルに対応する未知語率および意味ベクトルに対応する未知語率に基づいて、BoWベクトルと意味ベクトルとを重み付けしてもよい。このようにしても、入力文の未知語率に応じて、BoWベクトルと意味ベクトルとの参照比率を変更することができる。
以上のように、実施の形態3に係る言語処理装置2Bにおいて、未知語率算出部27が、未知語の数K bowおよび未知語の数K w2vを用いて、BoWベクトルに対応する未知語率r bowおよび意味ベクトルに対応する未知語率r w2vを算出する。重み調節部28は、未知語率r bowおよび未知語率r w2vに基づいて、重要概念ベクトルv conと意味ベクトルv w2vとを重み付けする。ベクトル統合部23Bは、重み付きの重要概念ベクトルu conと重み付きの意味ベクトルu w2vとを統合した統合ベクトルを作成する。このように構成することで、言語処理装置2Bは、入力文に対応する適切な応答文を選択することができる。
実施の形態3に係る言語処理システム1Bは、言語処理装置2Bを備えるので、上記と同様の効果が得られる。
なお、本発明は上記実施の形態に限定されるものではなく、本発明の範囲内において、実施の形態のそれぞれの自由な組み合わせまたは実施の形態のそれぞれの任意の構成要素の変形もしくは実施の形態のそれぞれにおいて任意の構成要素の省略が可能である。
この発明に係る言語処理装置は、未知語の問題に対処しつつ、処理対象の文の意味を曖昧にすることなく、処理対象の文に対応する適切な応答文を選択できるので、質問応答技術が適用された様々な言語処理システムに利用可能である。
1,1A,1B 言語処理システム、2,2A,2B 言語処理装置、3 入力装置、4 出力装置、20 形態素解析部、21 BoWベクトル作成部、22 意味ベクトル作成部、23,23A,23B ベクトル統合部、24 応答文選択部、25 質問応答データベース(質問応答DB)、26 重要概念ベクトル作成部、27 未知語率算出部、28 重み調節部、100 マウス、101 キーボード、102 表示装置、103 補助記憶装置、104 処理回路、105 プロセッサ、106 メモリ。

Claims (7)

  1. 複数の質問文と複数の応答文とが対応付けて登録された質問応答データベースと、
    処理対象の文を形態素解析する形態素解析部と、
    前記処理対象の文に含まれる単語に対応する次元を有し、次元の要素が前記質問応答データベースにおける単語の出現回数であるBag−of−Wordsベクトルを、前記形態素解析部によって形態素解析された文から作成する第1のベクトル作成部と、
    前記処理対象の文の意味を表す意味ベクトルを、前記形態素解析部によって形態素解析された文から作成する第2のベクトル作成部と、
    前記Bag−of−Wordsベクトルと前記意味ベクトルとを統合した統合ベクトルを作成するベクトル統合部と、
    前記ベクトル統合部によって作成された統合ベクトルに基づいて、前記質問応答データベースから、前記処理対象の文に対応する前記質問文を特定して、特定した前記質問文に対応する前記応答文を選択する応答文選択部と
    を備えたことを特徴とする言語処理装置。
  2. 前記Bag−of−Wordsベクトルの要素のそれぞれを重み付けした重要概念ベクトルを作成する第3のベクトル作成部を備え、
    前記ベクトル統合部は、前記重要概念ベクトルと前記意味ベクトルとを統合した統合ベクトルを作成すること
    を特徴とする請求項1記載の言語処理装置。
  3. 前記Bag−of−Wordsベクトルが作成されたときに前記処理対象の文に含まれていた未知語の数と前記意味ベクトルが作成されたときに前記処理対象の文に含まれていた未知語の数とを用いて、前記Bag−of−Wordsベクトルに対応する未知語の比率と前記意味ベクトルに対応する未知語の比率とを算出する未知語率算出部と、
    前記Bag−of−Wordsベクトルに対応する未知語の比率および前記意味ベクトルに対応する未知語の比率に基づいて、ベクトルの重みを調節する重み調節部とを備え、
    前記ベクトル統合部は、前記重み調節部により重み調節されたベクトルの統合ベクトルを作成すること
    を特徴とする請求項2記載の言語処理装置。
  4. 請求項1から請求項3のうちのいずれか1項記載の言語処理装置と、
    前記処理対象の文の入力を受け付ける入力装置と、
    言語処理装置によって選択された前記応答文を出力する出力装置と
    を備えたことを特徴とする言語処理システム。
  5. 複数の質問文と複数の応答文とが対応付けて登録された質問応答データベースを備えた言語処理装置の言語処理方法において、
    形態素解析部が、処理対象の文を形態素解析するステップと、
    第1のベクトル作成部が、前記処理対象の文に含まれる単語に対応する次元を有し、次元の要素が前記質問応答データベースにおける単語の出現回数であるBag−of−Wordsベクトルを、前記形態素解析部によって形態素解析された文から作成するステップと、
    第2のベクトル作成部が、前記処理対象の文の意味を表す意味ベクトルを、前記形態素解析部によって形態素解析された文から作成するステップと、
    ベクトル統合部が、前記Bag−of−Wordsベクトルと前記意味ベクトルとを統合した統合ベクトルを作成するステップと、
    応答文選択部が、前記ベクトル統合部によって作成された統合ベクトルに基づいて、前記質問応答データベースから、前記処理対象の文に対応する前記質問文を特定して、特定した前記質問文に対応する前記応答文を選択するステップと
    を備えたことを特徴とする言語処理方法。
  6. 第3のベクトル作成部が、前記Bag−of−Wordsベクトルの要素を重み付けした重要概念ベクトルを作成するステップを備え、
    前記ベクトル統合部は、前記重要概念ベクトルと前記意味ベクトルとを統合した統合ベクトルを作成すること
    を特徴とする請求項5記載の言語処理方法。
  7. 未知語率算出部が、前記Bag−of−Wordsベクトルが作成されたときに前記処理対象の文に含まれていた未知語の数と前記意味ベクトルが作成されたときに前記処理対象の文に含まれていた未知語の数とを用いて、前記Bag−of−Wordsベクトルに対応する未知語の比率と前記意味ベクトルに対応する未知語の比率とを算出するステップと、
    重み調節部が、前記Bag−of−Wordsベクトルに対応する未知語の比率および前記意味ベクトルに対応する未知語の比率に基づいて、ベクトルの重みを調節するステップとを備え、
    前記ベクトル統合部は、前記重み調節部により重み調節されたベクトルの統合ベクトルを作成すること
    を特徴とする請求項5または請求項6記載の言語処理方法。
JP2019556461A 2017-11-29 2017-11-29 言語処理装置、言語処理システムおよび言語処理方法 Active JP6647475B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/042829 WO2019106758A1 (ja) 2017-11-29 2017-11-29 言語処理装置、言語処理システムおよび言語処理方法

Publications (2)

Publication Number Publication Date
JP6647475B2 true JP6647475B2 (ja) 2020-02-14
JPWO2019106758A1 JPWO2019106758A1 (ja) 2020-02-27

Family

ID=66665596

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019556461A Active JP6647475B2 (ja) 2017-11-29 2017-11-29 言語処理装置、言語処理システムおよび言語処理方法

Country Status (5)

Country Link
US (1) US20210192139A1 (ja)
JP (1) JP6647475B2 (ja)
CN (1) CN111373391B (ja)
DE (1) DE112017008160T5 (ja)
WO (1) WO2019106758A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7363107B2 (ja) * 2019-06-04 2023-10-18 コニカミノルタ株式会社 発想支援装置、発想支援システム及びプログラム
JP7342972B2 (ja) * 2019-12-19 2023-09-12 富士通株式会社 情報処理プログラム、情報処理方法および情報処理装置
CN111125335B (zh) 2019-12-27 2021-04-06 北京百度网讯科技有限公司 问答处理方法、装置、电子设备和存储介质

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3140894B2 (ja) * 1993-10-01 2001-03-05 三菱電機株式会社 言語処理装置
JPH11327871A (ja) * 1998-05-11 1999-11-30 Fujitsu Ltd 音声合成装置
JP4050755B2 (ja) * 2005-03-30 2008-02-20 株式会社東芝 コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム
US8788258B1 (en) * 2007-03-15 2014-07-22 At&T Intellectual Property Ii, L.P. Machine translation using global lexical selection and sentence reconstruction
CN100517330C (zh) * 2007-06-06 2009-07-22 华东师范大学 一种基于语义的本地文档检索方法
US8943094B2 (en) * 2009-09-22 2015-01-27 Next It Corporation Apparatus, system, and method for natural language processing
JP2011118689A (ja) * 2009-12-03 2011-06-16 Univ Of Tokyo 検索方法及びシステム
GB2505400B (en) * 2012-07-18 2015-01-07 Toshiba Res Europ Ltd A speech processing system
JP5464295B1 (ja) * 2013-08-05 2014-04-09 富士ゼロックス株式会社 応答装置及び応答プログラム
CN104424290A (zh) * 2013-09-02 2015-03-18 佳能株式会社 基于语音的问答系统和用于交互式语音系统的方法
US9514412B2 (en) * 2013-12-09 2016-12-06 Google Inc. Techniques for detecting deceptive answers to user questions based on user preference relationships
JP6251562B2 (ja) * 2013-12-18 2017-12-20 Kddi株式会社 同一意図の類似文を作成するプログラム、装置及び方法
JP6306447B2 (ja) * 2014-06-24 2018-04-04 Kddi株式会社 複数の異なる対話制御部を同時に用いて応答文を再生する端末、プログラム及びシステム
US10162882B2 (en) * 2014-07-14 2018-12-25 Nternational Business Machines Corporation Automatically linking text to concepts in a knowledge base
JPWO2016067418A1 (ja) * 2014-10-30 2017-04-27 三菱電機株式会社 対話制御装置および対話制御方法
CN104951433B (zh) * 2015-06-24 2018-01-23 北京京东尚科信息技术有限公司 基于上下文进行意图识别的方法和系统
US11227113B2 (en) * 2016-01-20 2022-01-18 International Business Machines Corporation Precision batch interaction with a question answering system
US10740678B2 (en) * 2016-03-31 2020-08-11 International Business Machines Corporation Concept hierarchies
CN107315731A (zh) * 2016-04-27 2017-11-03 北京京东尚科信息技术有限公司 文本相似度计算方法
JP2017208047A (ja) * 2016-05-20 2017-11-24 日本電信電話株式会社 情報検索方法、情報検索装置、及びプログラム
CN106372118B (zh) * 2016-08-24 2019-05-03 武汉烽火普天信息技术有限公司 面向大规模媒体文本数据的在线语义理解搜索系统及方法

Also Published As

Publication number Publication date
DE112017008160T5 (de) 2020-08-27
CN111373391A (zh) 2020-07-03
JPWO2019106758A1 (ja) 2020-02-27
US20210192139A1 (en) 2021-06-24
WO2019106758A1 (ja) 2019-06-06
CN111373391B (zh) 2023-10-20

Similar Documents

Publication Publication Date Title
US9460704B2 (en) Deep networks for unit selection speech synthesis
CN108021547B (zh) 一种自然语言的生成方法、自然语言生成装置及电子设备
CN107480196B (zh) 一种基于动态融合机制的多模态词汇表示方法
JP6647475B2 (ja) 言語処理装置、言語処理システムおよび言語処理方法
KR20220064940A (ko) 음성 생성 방법, 장치, 전자기기 및 저장매체
CN116560513B (zh) 基于情绪识别的ai数字人交互方法、装置及系统
CN113035198B (zh) 三维人脸的唇动控制方法、设备和介质
JP7178394B2 (ja) 音声信号を処理するための方法、装置、機器、および媒体
CN113590798B (zh) 对话意图识别、用于识别对话意图的模型的训练方法
WO2022022049A1 (zh) 文本长难句的压缩方法、装置、计算机设备及存储介质
JP6082657B2 (ja) ポーズ付与モデル選択装置とポーズ付与装置とそれらの方法とプログラム
CN109002498B (zh) 人机对话方法、装置、设备及存储介质
JP7372402B2 (ja) 音声合成方法、装置、電子機器及び記憶媒体
WO2023144386A1 (en) Generating data items using off-the-shelf guided generative diffusion processes
KR101565143B1 (ko) 대화시스템에서 사용자 발화의 정보 분류를 위한 자질 가중치 산출 장치 및 방법
CN115526320A (zh) 神经网络模型推理的加速方法、装置、电子设备和介质
CN116579376A (zh) 风格模型生成方法、装置和计算机设备
JP2022185799A (ja) 情報処理プログラム、情報処理方法および情報処理装置
JP2020140674A (ja) 回答選択装置及びプログラム
JP6466762B2 (ja) 音声認識装置、音声認識方法、およびプログラム
CN117011435B (zh) 数字人形象ai生成方法及装置
JP7435740B2 (ja) 音声認識装置、制御方法、及びプログラム
EP4407520A1 (en) Noise scheduling for diffusion neural networks
US20230325658A1 (en) Conditional output generation through data density gradient estimation
US20230342553A1 (en) Attribute and rating co-extraction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191118

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191118

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200114

R150 Certificate of patent or registration of utility model

Ref document number: 6647475

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250