JPWO2019106758A1 - 言語処理装置、言語処理システムおよび言語処理方法 - Google Patents
言語処理装置、言語処理システムおよび言語処理方法 Download PDFInfo
- Publication number
- JPWO2019106758A1 JPWO2019106758A1 JP2019556461A JP2019556461A JPWO2019106758A1 JP WO2019106758 A1 JPWO2019106758 A1 JP WO2019106758A1 JP 2019556461 A JP2019556461 A JP 2019556461A JP 2019556461 A JP2019556461 A JP 2019556461A JP WO2019106758 A1 JPWO2019106758 A1 JP WO2019106758A1
- Authority
- JP
- Japan
- Prior art keywords
- vector
- sentence
- unit
- words
- language processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 105
- 238000003672 processing method Methods 0.000 title claims description 12
- 239000013598 vector Substances 0.000 claims abstract description 464
- 230000004044 response Effects 0.000 claims abstract description 123
- 230000010354 integration Effects 0.000 claims abstract description 57
- 230000000877 morphologic effect Effects 0.000 claims description 46
- 238000004458 analytical method Methods 0.000 claims description 44
- 238000004364 calculation method Methods 0.000 claims description 17
- 238000000034 method Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 21
- 230000008569 process Effects 0.000 description 20
- 238000013528 artificial neural network Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 11
- 230000009118 appropriate response Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 235000013611 frozen food Nutrition 0.000 description 4
- 102100036706 Interleukin-1 receptor-like 1 Human genes 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/3332—Query translation
- G06F16/3334—Selection or weighting of terms from queries, including natural language queries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3347—Query execution using vector based model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/268—Morphological analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
しかしながら、非特許文献1に記載される従来の技術では、互いに異なる単語および文であっても、その周囲の文脈が似ていると、これらは類似した意味ベクトルにマッピングされる。このため、意味ベクトルで表現される単語および文の意味が曖昧になり、区別が難しくなるという課題があった。
実施の形態1.
図1は、この発明の実施の形態1に係る言語処理システム1の構成を示すブロック図である。言語処理システム1は、ユーザから入力された文に対応する応答文を選択して出力するシステムであり、言語処理装置2、入力装置3および出力装置4を備える。
入力装置3は、処理対象の文の入力を受け付ける装置であって、例えば、キーボード、マウスまたはタッチパネルにより実現される。出力装置4は、言語処理装置2により選択された応答文を出力する装置であり、例えば、応答文を表示する表示装置、応答文を音声で出力する音声出力装置(スピーカなど)である。
すなわち、言語処理装置2は、プロセッサ105により実行されるときに、図4に示すステップST1からステップST6までの処理が結果的に実行されるプログラムを記憶するためのメモリ106を備える。これらのプログラムは、形態素解析部20、BoWベクトル作成部21、意味ベクトル作成部22、ベクトル統合部23および応答文選択部24の手順または方法をコンピュータに実行させるものである。
メモリ106は、コンピュータを、形態素解析部20、BoWベクトル作成部21、意味ベクトル作成部22、ベクトル統合部23および応答文選択部24として機能させるためのプログラムが記憶されたコンピュータ可読記憶媒体であってもよい。
図4は、実施の形態1に係る言語処理方法を示すフローチャートである。
入力装置3が、入力文を取得する(ステップST1)。続いて、形態素解析部20は、入力装置3から入力文を取得して、入力文を形態素解析する(ステップST2)。
意味ベクトル作成部22は、形態素解析部20により形態素解析された文から、入力文に対応する意味ベクトルを作成する(ステップST4)。
応答文選択部24は、ベクトル統合部23により作成された統合ベクトルに基づいて、質問応答DB25から、入力文に対応する質問文を特定して、特定した質問文に対応する応答文を選択する(ステップST6)。
処理対象の単語が質問応答DB25に出現しないと判定した場合(ステップST2b;NO)、BoWベクトル作成部21は、処理対象の単語に対応するBoWベクトルの次元に“0”を設定する(ステップST4b)。
入力文に含まれる全ての単語を処理対象とした場合(ステップST5b;YES)、BoWベクトル作成部21は、BoWベクトルをベクトル統合部23に出力する(ステップST6b)。
意味ベクトル作成部22は、形態素解析された文から、意味ベクトルを作成する(ステップST2c)。意味ベクトル作成部22が事前に構築された意味ベクトル作成器である場合、意味ベクトル作成器は、例えば、入力文に含まれる単語ごとにその品詞を表す単語ベクトルを作成し、入力文に含まれる単語の単語ベクトルの平均値を単語に対応する意味ベクトルの次元の要素とする。
意味ベクトル作成部22は、意味ベクトルをベクトル統合部23に出力する(ステップST3c)。
ベクトル統合部23が事前に構築されたニューラルネットワークである場合、ニューラルネットワークは、BoWベクトルと意味ベクトルとを任意の次元の一つの統合ベクトルに変換する。ニューラルネットワークは、複数のノードが入力層、中間層および出力層で階層化されており、前段の層におけるノードと後段の層におけるノードとがエッジで接続され、エッジには、当該エッジで接続されたノード間の結合度合いを示す重みが設定される。
BoWベクトルを作成したときに入力文に含まれていた未知語の数が多くても、応答文選択部24は、統合ベクトルにおける意味ベクトルの要素を参照することで、単語の意味を特定できる。また、意味ベクトルだけでは文の意味が曖昧になる場合であっても、応答文選択部24は、統合ベクトルにおけるBoWベクトルの要素を参照することで、入力文の意味を曖昧にすることなく、入力文を特定できる。
例えば、前述した文Aと文Bとが正しく区別されるので、応答文選択部24は、文Aに対応する正しい応答文を選択することができ、文Bに対応する正しい応答文を選択することができる。
例えば、形態素解析部20が、質問応答DB25に登録された複数の質問文のそれぞれを形態素解析する。BoWベクトル作成部21が、形態素解析された質問文からBoWベクトルを作成し、意味ベクトル作成部22が、形態素解析された質問文から意味ベクトルを作成する。ベクトル統合部23が、質問文に対応するBoWベクトルと質問文に対応する意味ベクトルとを統合して、質問文に対応する統合ベクトルを作成する。応答文選択器は、質問文に対応する統合ベクトルと応答文IDとの対応関係を事前に機械学習する。
このように構築された応答文作成器は、未知の入力文に対しても、当該入力文についての統合ベクトルから、入力文に対応する応答文IDを特定して、特定した応答IDに対応する応答文を選択することができる。
このように構成することで、言語処理装置2は、未知語の問題に対処しつつ、入力文の意味を曖昧にすることなく、入力文に対応する適切な応答文を選択することができる。
BoWベクトルは、様々な種類の単語に対応する次元のベクトルであるが、処理対象の文に含まれる単語に限ると、次元に対応する単語が処理対象の文には存在せず、ほとんどの次元の要素が0である疎なベクトルとなる場合が多い。意味ベクトルは、次元の要素が様々な単語の意味を表す数値であるため、BoWベクトルに比べて密なベクトルとなる。実施の形態1では、疎なBoWベクトルと密な意味ベクトルを、直接、ニューラルネットワークによって一つの統合ベクトルに変換していた。このため、BoWベクトルの次元に対して少量の教師データでバックプロパゲーションによる学習が行われると、少量の教師データに特化した汎用能力の低い重みが学習される、いわゆる“過学習”と呼ばれる現象が起こる可能性がある。そこで、実施の形態2では、過学習の発生を抑制するため、統合ベクトルを作成する前に、BoWベクトルをより密なベクトルに変換するものである。
(参考文献1)笠原要, 松澤和光, 石川勉, “国語辞書を利用した日常語の類似性判別”, 情報処理学会論文誌, 38(7), pp.1272−1283(1997).
すなわち、言語処理装置2Aは、図11を用いて後述するステップST1fからステップST7fまでの処理を実行するための処理回路を備える。
処理回路は、専用のハードウェアであってもよいが、メモリに記憶されたプログラムを実行するプロセッサであってもよい。
図11は、実施の形態2に係る言語処理方法を示すフローチャートである。
図11のステップST1fからステップST4fまでの処理は、図4のステップST1からステップST4までと同じ処理であり、図11のステップST7fの処理は、図4のステップST6と同じ処理であるので、説明を省略する。
重要概念ベクトル作成部26は、重要概念ベクトルvs conをベクトル統合部23Aに出力する(ステップST3g)。
ベクトル統合部23Aが事前に構築されたニューラルネットワークである場合、ニューラルネットワークは、重要概念ベクトルと意味ベクトルを任意の次元の一つの統合ベクトルに変換する。実施の形態1で示したように、ニューラルネットワークの重みは、入力文に対応する応答文を選択可能な統合ベクトルが作成されるように、学習用データを用いたバックプロパゲーションにより予め学習されている。
実施の形態2では、入力文における未知語の比率(以下、未知語率と記載する)を考慮せずに、重要概念ベクトルと意味ベクトルとを統合している。このため、入力文の未知語率が高い場合であっても、応答文選択部が、統合ベクトルにおいて、重要概念ベクトルと意味ベクトルとを参照する比率(以下、参照比率と記載する)は変わらない。この場合、応答文選択部が、統合ベクトルにおける重要概念ベクトルと意味ベクトルのうち、入力文に含まれる未知語に起因して、入力文を十分に表現できていないベクトルを参照すると、適切な応答文を選択できないことがある。そこで、実施の形態3では、応答文を選択する精度の低下を防ぐため、入力文の未知語率に応じて重要概念ベクトルと意味ベクトルとの参照比率を変更して統合するものである。
図15は、実施の形態3に係る言語処理方法を示すフローチャートである。
まず、形態素解析部20は、入力装置3が受け付けた入力文を取得する(ステップST1i)。形態素解析部20は、入力文を形態素解析する(ステップST2i)。形態素解析された入力文は、BoWベクトル作成部21および意味ベクトル作成部22に出力される。形態素解析部20は、入力文に含まれる全ての単語の数を未知語率算出部27に出力する。
応答文選択部24は、ベクトル統合部23Bによって作成された統合ベクトルに基づいて、質問応答DB25から、入力文に対応する応答文を選択する(ステップST9i)。例えば、応答文選択部24は、統合ベクトルにおける重要概念ベクトルと意味ベクトルをそれぞれの重みに応じて参照することで、質問応答DB25から、入力文に対応する質問文を特定し、特定した質問文に対応する応答文を選択する。
rs bow=Ks bow/Ns ・・・(2)
rs w2v=Ks w2v/Ns ・・・(3)
なお、tf−idfを用いた単語の重要度に応じた重みを考慮して未知語率rs bowと未知語率rs w2vを算出してもよい。
f(x,y)=ax/(ax+by) ・・・(4)
g(x,y)=by/(ax+by) ・・・(5)
us con=f(rs bow,rs w2v)vs con ・・・(6)
us w2v=g(rs bow,rs w2v)vs w2v ・・・(7)
例えば、重み調節部28が、BoWベクトル作成部21からBoWベクトルを、直接、取得して、BoWベクトルに対応する未知語率および意味ベクトルに対応する未知語率に基づいて、BoWベクトルと意味ベクトルとを重み付けしてもよい。このようにしても、入力文の未知語率に応じて、BoWベクトルと意味ベクトルとの参照比率を変更することができる。
Claims (7)
- 複数の質問文と複数の応答文とが対応付けて登録された質問応答データベースと、
処理対象の文を形態素解析する形態素解析部と、
前記処理対象の文に含まれる単語に対応する次元を有し、次元の要素が前記質問応答データベースにおける単語の出現回数であるBag−of−Wordsベクトルを、前記形態素解析部によって形態素解析された文から作成する第1のベクトル作成部と、
前記処理対象の文の意味を表す意味ベクトルを、前記形態素解析部によって形態素解析された文から作成する第2のベクトル作成部と、
前記Bag−of−Wordsベクトルと前記意味ベクトルとを統合した統合ベクトルを作成するベクトル統合部と、
前記ベクトル統合部によって作成された統合ベクトルに基づいて、前記質問応答データベースから、前記処理対象の文に対応する前記質問文を特定して、特定した前記質問文に対応する前記応答文を選択する応答文選択部と
を備えたことを特徴とする言語処理装置。 - 前記Bag−of−Wordsベクトルの要素のそれぞれを重み付けした重要概念ベクトルを作成する第3のベクトル作成部を備え、
前記ベクトル統合部は、前記重要概念ベクトルと前記意味ベクトルとを統合した統合ベクトルを作成すること
を特徴とする請求項1記載の言語処理装置。 - 前記Bag−of−Wordsベクトルが作成されたときに前記処理対象の文に含まれていた未知語の数と前記意味ベクトルが作成されたときに前記処理対象の文に含まれていた未知語の数とを用いて、前記Bag−of−Wordsベクトルに対応する未知語の比率と前記意味ベクトルに対応する未知語の比率とを算出する未知語率算出部と、
前記Bag−of−Wordsベクトルに対応する未知語の比率および前記意味ベクトルに対応する未知語の比率に基づいて、ベクトルの重みを調節する重み調節部とを備え、
前記ベクトル統合部は、前記重み調節部により重み調節されたベクトルの統合ベクトルを作成すること
を特徴とする請求項2記載の言語処理装置。 - 請求項1から請求項3のうちのいずれか1項記載の言語処理装置と、
前記処理対象の文の入力を受け付ける入力装置と、
言語処理装置によって選択された前記応答文を出力する出力装置と
を備えたことを特徴とする言語処理システム。 - 複数の質問文と複数の応答文とが対応付けて登録された質問応答データベースを備えた言語処理装置の言語処理方法において、
形態素解析部が、処理対象の文を形態素解析するステップと、
第1のベクトル作成部が、前記処理対象の文に含まれる単語に対応する次元を有し、次元の要素が前記質問応答データベースにおける単語の出現回数であるBag−of−Wordsベクトルを、前記形態素解析部によって形態素解析された文から作成するステップと、
第2のベクトル作成部が、前記処理対象の文の意味を表す意味ベクトルを、前記形態素解析部によって形態素解析された文から作成するステップと、
ベクトル統合部が、前記Bag−of−Wordsベクトルと前記意味ベクトルとを統合した統合ベクトルを作成するステップと、
応答文選択部が、前記ベクトル統合部によって作成された統合ベクトルに基づいて、前記質問応答データベースから、前記処理対象の文に対応する前記質問文を特定して、特定した前記質問文に対応する前記応答文を選択するステップと
を備えたことを特徴とする言語処理方法。 - 第3のベクトル作成部が、前記Bag−of−Wordsベクトルの要素を重み付けした重要概念ベクトルを作成するステップを備え、
前記ベクトル統合部は、前記重要概念ベクトルと前記意味ベクトルとを統合した統合ベクトルを作成すること
を特徴とする請求項5記載の言語処理方法。 - 未知語率算出部が、前記Bag−of−Wordsベクトルが作成されたときに前記処理対象の文に含まれていた未知語の数と前記意味ベクトルが作成されたときに前記処理対象の文に含まれていた未知語の数とを用いて、前記Bag−of−Wordsベクトルに対応する未知語の比率と前記意味ベクトルに対応する未知語の比率とを算出するステップと、
重み調節部が、前記Bag−of−Wordsベクトルに対応する未知語の比率および前記意味ベクトルに対応する未知語の比率に基づいて、ベクトルの重みを調節するステップとを備え、
前記ベクトル統合部は、前記重み調節部により重み調節されたベクトルの統合ベクトルを作成すること
を特徴とする請求項5または請求項6記載の言語処理方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/042829 WO2019106758A1 (ja) | 2017-11-29 | 2017-11-29 | 言語処理装置、言語処理システムおよび言語処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6647475B2 JP6647475B2 (ja) | 2020-02-14 |
JPWO2019106758A1 true JPWO2019106758A1 (ja) | 2020-02-27 |
Family
ID=66665596
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019556461A Active JP6647475B2 (ja) | 2017-11-29 | 2017-11-29 | 言語処理装置、言語処理システムおよび言語処理方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210192139A1 (ja) |
JP (1) | JP6647475B2 (ja) |
CN (1) | CN111373391B (ja) |
DE (1) | DE112017008160T5 (ja) |
WO (1) | WO2019106758A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7363107B2 (ja) * | 2019-06-04 | 2023-10-18 | コニカミノルタ株式会社 | 発想支援装置、発想支援システム及びプログラム |
EP4080379A4 (en) * | 2019-12-19 | 2022-12-28 | Fujitsu Limited | INFORMATION PROCESSING PROGRAM, METHOD AND DEVICE |
CN111125335B (zh) * | 2019-12-27 | 2021-04-06 | 北京百度网讯科技有限公司 | 问答处理方法、装置、电子设备和存储介质 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3140894B2 (ja) * | 1993-10-01 | 2001-03-05 | 三菱電機株式会社 | 言語処理装置 |
JPH11327871A (ja) * | 1998-05-11 | 1999-11-30 | Fujitsu Ltd | 音声合成装置 |
JP4050755B2 (ja) * | 2005-03-30 | 2008-02-20 | 株式会社東芝 | コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム |
US8788258B1 (en) * | 2007-03-15 | 2014-07-22 | At&T Intellectual Property Ii, L.P. | Machine translation using global lexical selection and sentence reconstruction |
CN100517330C (zh) * | 2007-06-06 | 2009-07-22 | 华东师范大学 | 一种基于语义的本地文档检索方法 |
US8943094B2 (en) * | 2009-09-22 | 2015-01-27 | Next It Corporation | Apparatus, system, and method for natural language processing |
JP2011118689A (ja) * | 2009-12-03 | 2011-06-16 | Univ Of Tokyo | 検索方法及びシステム |
GB2505400B (en) * | 2012-07-18 | 2015-01-07 | Toshiba Res Europ Ltd | A speech processing system |
JP5464295B1 (ja) * | 2013-08-05 | 2014-04-09 | 富士ゼロックス株式会社 | 応答装置及び応答プログラム |
CN104424290A (zh) * | 2013-09-02 | 2015-03-18 | 佳能株式会社 | 基于语音的问答系统和用于交互式语音系统的方法 |
US9514412B2 (en) * | 2013-12-09 | 2016-12-06 | Google Inc. | Techniques for detecting deceptive answers to user questions based on user preference relationships |
JP6251562B2 (ja) * | 2013-12-18 | 2017-12-20 | Kddi株式会社 | 同一意図の類似文を作成するプログラム、装置及び方法 |
JP6306447B2 (ja) * | 2014-06-24 | 2018-04-04 | Kddi株式会社 | 複数の異なる対話制御部を同時に用いて応答文を再生する端末、プログラム及びシステム |
US10162882B2 (en) * | 2014-07-14 | 2018-12-25 | Nternational Business Machines Corporation | Automatically linking text to concepts in a knowledge base |
JPWO2016067418A1 (ja) * | 2014-10-30 | 2017-04-27 | 三菱電機株式会社 | 対話制御装置および対話制御方法 |
CN104951433B (zh) * | 2015-06-24 | 2018-01-23 | 北京京东尚科信息技术有限公司 | 基于上下文进行意图识别的方法和系统 |
US11227113B2 (en) * | 2016-01-20 | 2022-01-18 | International Business Machines Corporation | Precision batch interaction with a question answering system |
US10740678B2 (en) * | 2016-03-31 | 2020-08-11 | International Business Machines Corporation | Concept hierarchies |
CN107315731A (zh) * | 2016-04-27 | 2017-11-03 | 北京京东尚科信息技术有限公司 | 文本相似度计算方法 |
JP2017208047A (ja) * | 2016-05-20 | 2017-11-24 | 日本電信電話株式会社 | 情報検索方法、情報検索装置、及びプログラム |
CN106372118B (zh) * | 2016-08-24 | 2019-05-03 | 武汉烽火普天信息技术有限公司 | 面向大规模媒体文本数据的在线语义理解搜索系统及方法 |
-
2017
- 2017-11-29 DE DE112017008160.2T patent/DE112017008160T5/de active Pending
- 2017-11-29 JP JP2019556461A patent/JP6647475B2/ja active Active
- 2017-11-29 CN CN201780097039.1A patent/CN111373391B/zh active Active
- 2017-11-29 WO PCT/JP2017/042829 patent/WO2019106758A1/ja active Application Filing
- 2017-11-29 US US16/755,836 patent/US20210192139A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
CN111373391A (zh) | 2020-07-03 |
US20210192139A1 (en) | 2021-06-24 |
JP6647475B2 (ja) | 2020-02-14 |
WO2019106758A1 (ja) | 2019-06-06 |
CN111373391B (zh) | 2023-10-20 |
DE112017008160T5 (de) | 2020-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9460704B2 (en) | Deep networks for unit selection speech synthesis | |
CN108021547B (zh) | 一种自然语言的生成方法、自然语言生成装置及电子设备 | |
JP6647475B2 (ja) | 言語処理装置、言語処理システムおよび言語処理方法 | |
KR20220064940A (ko) | 음성 생성 방법, 장치, 전자기기 및 저장매체 | |
US20180232363A1 (en) | System and method for audio dubbing and translation of a video | |
US11734348B2 (en) | Intelligent audio composition guidance | |
US20230119229A1 (en) | Augmenting neural networks | |
CN113035198B (zh) | 三维人脸的唇动控制方法、设备和介质 | |
JP7178394B2 (ja) | 音声信号を処理するための方法、装置、機器、および媒体 | |
US20200184960A1 (en) | Rnnlm-based generation of templates for class-based text generation | |
CN116560513A (zh) | 基于情绪识别的ai数字人交互方法、装置及系统 | |
WO2023144386A1 (en) | Generating data items using off-the-shelf guided generative diffusion processes | |
CN113590798B (zh) | 对话意图识别、用于识别对话意图的模型的训练方法 | |
JP7205635B2 (ja) | 音声信号処理装置、音声信号処理方法、音声信号処理プログラム、学習装置、学習方法及び学習プログラム | |
JP6082657B2 (ja) | ポーズ付与モデル選択装置とポーズ付与装置とそれらの方法とプログラム | |
CN109002498B (zh) | 人机对话方法、装置、设备及存储介质 | |
JP7372402B2 (ja) | 音声合成方法、装置、電子機器及び記憶媒体 | |
KR101565143B1 (ko) | 대화시스템에서 사용자 발화의 정보 분류를 위한 자질 가중치 산출 장치 및 방법 | |
CN114881227A (zh) | 模型压缩方法、图像处理方法、装置和电子设备 | |
CN116579376A (zh) | 风格模型生成方法、装置和计算机设备 | |
JP2022185799A (ja) | 情報処理プログラム、情報処理方法および情報処理装置 | |
JP2020140674A (ja) | 回答選択装置及びプログラム | |
JP7435740B2 (ja) | 音声認識装置、制御方法、及びプログラム | |
US20230325658A1 (en) | Conditional output generation through data density gradient estimation | |
US20230342553A1 (en) | Attribute and rating co-extraction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191118 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20191118 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20191205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191217 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200114 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6647475 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |