JP2021501390A - テキスト意味論的コード化の方法および装置 - Google Patents
テキスト意味論的コード化の方法および装置 Download PDFInfo
- Publication number
- JP2021501390A JP2021501390A JP2020520227A JP2020520227A JP2021501390A JP 2021501390 A JP2021501390 A JP 2021501390A JP 2020520227 A JP2020520227 A JP 2020520227A JP 2020520227 A JP2020520227 A JP 2020520227A JP 2021501390 A JP2021501390 A JP 2021501390A
- Authority
- JP
- Japan
- Prior art keywords
- text
- semantic
- convolution
- text data
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 239000013598 vector Substances 0.000 claims abstract description 225
- 239000011159 matrix material Substances 0.000 claims abstract description 86
- 238000013528 artificial neural network Methods 0.000 claims abstract description 30
- 238000011176 pooling Methods 0.000 claims abstract description 30
- 230000002457 bidirectional effect Effects 0.000 claims abstract description 28
- 238000012545 processing Methods 0.000 claims description 46
- 230000000306 recurrent effect Effects 0.000 claims description 18
- 230000015654 memory Effects 0.000 claims description 14
- 238000007781 pre-processing Methods 0.000 claims description 13
- 230000009466 transformation Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims 1
- 230000007787 long-term memory Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 abstract description 12
- 230000011218 segmentation Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000005065 mining Methods 0.000 description 4
- 230000006403 short-term memory Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 239000002243 precursor Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/31—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本開示の実施形態は、テキスト意味論的コード化のための方法および装置を提供する。一実施形態において、方法は、テキストデータに基づいて単語ベクトルマトリクスを生成する段階と、単語ベクトルマトリクスを出力ベクトルに事前処理するように単語ベクトルマトリクスを双方向再帰型ニューラルネットワークに入力する段階であって、出力ベクトルは文脈の意味論的関係を表す、段階と、畳み込み結果を取得するように出力ベクトルに畳み込みを実行する段階であって、畳み込み結果はトピックを表す、段階と、テキストデータの意味論的コード化として固定長ベクトルを取得するように畳み込み結果にプーリングを実行する段階であって、意味論的コード化はテキストデータのトピックを表す、段階とを含む。【選択図】図2
Description
[関連出願の相互参照]
本開示は、2018年10月24日に出願された国際出願PCT/CN2018/111628号の国内段階であり、2017年10月27日に出願された中国特許出願第201711056845.2号の優先権を主張し、その双方がそれらの全体として参照により本明細書に組み込まれる。
本開示は、2018年10月24日に出願された国際出願PCT/CN2018/111628号の国内段階であり、2017年10月27日に出願された中国特許出願第201711056845.2号の優先権を主張し、その双方がそれらの全体として参照により本明細書に組み込まれる。
本開示はコンピュータ技術の分野に関し、特に、テキスト意味論的コード化の方法および装置に関する。
多くのアプリケーションが、質問と回答(QA)サービスをユーザに提供することを要求する。例えば、インターネットベースのアプリケーションは頻繁に、製品の特徴、サービスの機能、および同様のものなどのトピックを、ユーザがよりよく理解することの助けとなるように、これらの特徴に関する顧客サービスを提供する。QAの処理において、ユーザとカスタマーサービス担当者との間の通信は、通常は自然言語テキストの形態で行われる。アプリケーションの数またはアプリケーションによってサービスされるユーザの数が増加するにつれて、顧客サービスへの圧力も同様に増加する。結果として、多くのサービスプロバイダが、自動QAサービスをユーザに提供して、手動QAサービスへのコストがかかり拡張性に乏しい投資を置き換えるように、テキストマイニングまたは情報インデクシングなどの技術に頼っている。
質問と回答に関連づけられた自然言語ベースのテキストデータをマイニングおよび処理するために、数値コード化(例えば、テキストコード化)がテキストデータにおいて実行される。現在、システムは可変長のテキストをコード化するために単語の袋技術を用いる。テキストデータの各項目は、長さVの整数個のベクトルを使用して処理され、長さ(V)は、辞書のサイズを示し、ベクトルの各要素は、1つの単語を表し、その値は、テキストデータにおける単語の出現の数を表す。しかしながら、このコード化技術は、テキストデータにおいて単語に関連づけられた頻度情報のみを用い、故に、単語間の文脈的従属関係は無視する。したがって、テキストデータの意味論的情報を十分に表すことは困難である。さらに、単語の袋技術によって、コード化長は辞書全体のサイズ(例えば、通常は10万のオーダーの単語)となり、その最大多数はゼロ(0)のコード化値を有する。そのようなコード化の低密度さは、後続のテキストマイニングにおいて不利であり、冗長なコード化長は、後続のテキスト処理のスピードを減少させる。
単語の袋コード化の問題に対処するように、単語埋め込みの技術が、テキストデータをコード化するように開発されている。そのような技術は、テキストデータの意味論を表すように実数の固定長ベクトルを用いる。単語埋め込みコード化技術は、寸法減少ベースのデータ表現のタイプである。特に、テキストデータの意味論は、固定長(通常、100次元)ベクトルの実数を使用して表される。単語の袋コード化と比較すると、単語次元はデータの次元度を減少させ、データ低密度問題を解決し、後続のテキスト処理のスピードを改善する。しかしながら、単語埋め込み技術は、一般に、事前トレーニングを要求する。それは、オフライントレーニングの間に、コード化のためのテキストデータが判断されなければならないことである。したがって、アルゴリズムは一般に、列挙された次元によって、短い長さのテキスト(例えば、単語またはフレーズ)をコード化して表すように用いられる。しかしながら、文または段落レベルでキャプチャされたテキストデータは、可変長を有するデータのシーケンスを含み、その次元は列挙することができない。結果として、そのようなテキストベースのデータは、上で説明したような事前トレーニングによってコード化されることに好適ではない。
したがって、可変長のテキストデータを正確にコード化する必要性が存在する。
本開示は、可変長のテキストデータを正確にコード化することができない当技術分野の上記技術問題を解決するように、テキスト意味論的コード化のための方法、コンピュータ可読媒体、および装置を提供する。
一実施形態において、本開示は、テキスト意味論的コード化の方法を提供し、方法は、テキストデータに基づいて単語ベクトルマトリクスを生成する段階と、単語ベクトルマトリクスを出力ベクトルへと事前処理するように、単語ベクトルマトリクスを双方向再帰型ニューラルネットワークに入力する段階であって、出力ベクトルは文脈の意味論的関係を表す、段階と、畳み込み結果を取得するように出力ベクトルの畳み込みを実行する段階であって、畳み込み結果はトピックに関連する、段階と、テキストデータの意味論的コード化として固定長ベクトルを取得するように、畳み込み結果のプーリングを実行する段階であって、意味論的コード化はテキストデータのトピックを表す、段階とを備える。
一実施形態において、本開示は、テキスト意味論的コード化のための装置を提供し、装置は、テキストデータに基づいて単語ベクトルマトリクスを生成するように構成される単語ベクトルマトリクス生成ユニットと、単語ベクトルマトリクスを出力ベクトルに事前処理するように、単語ベクトルマトリクスを双方向再帰型ニューラルネットワークに入力するように構成される事前処理ユニットであって、出力ベクトルは文脈の意味論的関係を表す、事前処理ユニットと、畳み込み結果を取得するように出力ベクトルの畳み込みを実行するように構成される畳み込み処理ユニットであって、畳み込み結果はトピックに関連する、畳み込み処理ユニットと、テキストデータの意味論的コード化として固定長ベクトルを取得するように畳み込み結果のプーリングを実行するように構成されるプーリング処理ユニットであって、意味論的コード化はテキストデータのトピックを表す、プーリング処理ユニットとを含む。
一実施形態において、本開示は、テキスト意味論的コード化のための装置を提供し、装置は、複数のプログラムを格納するメモリを含み、1または複数のプロセッサによって実行されるとき、以下の動作を実行するように装置に命令し、動作は、テキストデータに基づいて単語ベクトルマトリクスを生成する段階と、単語ベクトルマトリクスを出力ベクトルへと事前処理するように、単語ベクトルマトリクスを双方向再帰型ニューラルネットワークに入力する段階であって、出力ベクトルは文脈の意味論的関係を表す、段階と、畳み込み結果を取得するように出力ベクトルの畳み込みを実行する段階であって、畳み込み結果はトピックに関連する、段階と、テキストデータの意味論的コード化として固定長ベクトルを取得するように、畳み込み結果のプーリングを実行する段階であって、意味論的コード化はテキストデータのトピックを表す、段階とを含む。
一実施形態において、本開示は、命令を格納されたコンピュータ可読媒体を提供し、命令は、1または複数のプロセッサによって実行されるとき、本開示の実施形態によるテキスト意味論的コード化方法を実行するように装置に命令する。
本開示の様々な実施形態において、異なるデータソースからの可変長テキストデータが、単語ベクトルのマトリクスを生成するように処理され、次に、事前処理のために双方向再帰型ニューラルネットワークに入力される。続いて、可変長テキストデータのための意味論的コード化として実数の固定長ベクトルを取得するように、線形畳み込みおよびプーリングが反復性ニューラルネットワークの出力で実行される。そのような意味論的コード化は、任意の後続のテキストマイニングタスクにおいて用いられ得る。さらに、本開示は、テキストデータの意味論的関係をマイニングする機構、ならびに、テキストデータとそのそれぞれのトピックとの間の相関を提供し、可変長テキストデータの固定長意味論的コード化を達成する。
実施形態の説明のために用いられる図面が、以下に簡単に紹介される。以下の発明の説明において、図面は本開示のいくつかの実施形態である。当業者は、顕著な努力なしで、これらの添付図面に従って他の図面をさらに取得することができる。
本開示のいくつかの実施形態において、方法、コンピュータ可読媒体、および装置が、可変長テキストデータのテキスト意味論的コード化を達成するように、テキスト意味論的コード化のために提供される。
本開示の実施形態において用いられる用語は、開示を限定するのではなくむしろ、特定の実施形態を説明する目的のみを意図している。本開示の実施形態および請求項において用いられるものとして、単数形「an」、「said」および「the」もまた、文脈が明らかにそうではないことを示さない限り、複数形の場合を含むように意図される。本明細書で用いられる用語「および/または」は、1または複数の関連づけられた列挙項目の、可能な組み合わせのいくつかまたはすべてを指し、それらを含む。
本明細書で用いられるものとして、用語「テキストコード化」は、可変長自然言語テキストのベクトル化表現を指す。本開示のいくつかの実施形態において、可変長自然言語テキストは、テキストコード化によって実数の固定長ベクトルを表し得る。
用語の上記定義は、いかなる限定を負わせることなく、本開示の理解のためのみに説明されるものである。
図1は、本開示のいくつかの実施形態による例示的な応用シナリオを示す。この例において、本開示の実施形態によるコード化方法は、テキスト意味論的コード化を実行するように、図1に示されたシナリオに適用される。示される方法は、限定なしで、任意の他のシナリオにもまた適用され得る。本明細書の図1に示されるように、例示的な適用シナリオにおいて、テキストデータを取得するように電子デバイス(100)が構成される。この例において、テキストデータは、可変長テキスト(101)、可変長テキスト(102)、可変長テキスト(103)、および可変長テキスト(104)を含み、それぞれが異なってよい長さを有する。取得された後、テキストデータはテキスト意味論的コード化装置(400)に入力される。示される実施形態において、テキスト意味論的コード化装置(400)は、固定長意味論的コード化を生成するように、単語セグメンテーション、単語ベクトルマトリクス生成、双方向再帰型ニューラルネットワーク事前処理、畳み込み、およびプーリングの演算を実行する。出力として、テキスト意味論的コード化装置(400)は、対応する意味論的コード化のセットを生成する。本明細書に示されるように、意味論的コード化(200)のセットは、テキスト意味論的コード化(121)、テキスト意味論的コード化(122)、テキスト意味論的コード化(123)、およびテキスト意味論的コード化(124)を含み、そのそれぞれが同一の長さを有する。このように、可変長テキストデータは固定長のテキスト意味論的コード化に変換される。さらに、テキストによって反映されるトピックは、それぞれのテキスト意味論的コード化によって表され、後続のデータマイニングのための基盤を提供する。
上記の応用シナリオは、本開示の理解のためだけに示され、限定されることなく表される。本開示の実施形態は、任意の適切なシナリオに適用され得る。
以下は、図2、3および6を参照して、本開示のいくつかの例示的な実施形態によるテキスト意味論的コード化の方法を示す。
図2は、本開示のいくつかの実施形態によるテキスト意味論的コード化のための方法を示すフロー図である。図2に示されるように、テキスト意味論的コード化の方法は、以下の段階を含む。
段階S201:テキストデータに基づいて単語ベクトルマトリクスを生成する。
いくつかの実施形態において、段階S201はさらに、以下のサブ段階を含む。
サブ段階S201A:テキストデータを取得する。いくつかの実施形態において、様々なデータソースからのテキストが、テキストデータとして取得される。例としてQAシステムを取り上げると、ユーザからの質問が、テキストデータとして用いられ得る。例えば、ユーザによって入力された質問(例えば、「この機能はどのように用いますか?」)が、テキストデータとして収集され得る。別の例において、QAシステムのカスタマーサービス担当者からの回答もまた、テキストデータとして収集され得る。例えば、カスタマーサービス担当者からのテキストベースの回答(例えば、「製品シェアリング機能の操作ステップは以下の通りです。Taobaoアカウントにログインします、製品を取り上げたページを開きます、「共有」ボタンをクリックします、Alipayフレンドを選択します、「送信」ボタンをクリックしますと製品シェアリング機能が完了します」)が、テキストデータとして収集され得る。任意の他のテキストベースのデータが、限定するものではないが、テキストデータとして取得され得る。
繰り返すが、テキストデータは可変長である。言い換えれば、テキストデータの各項目は、どの自然言語ベースのテキストにおいてもいえることだが、固定長に限定されない。
サブ段階S201Bは、テキストデータに対して単語セグメンテーションを実行して、単語シーケンスを取得する。
いくつかの実施形態において、入力テキストに対するセグメンテーションによって取得された単語シーケンスが次のように表される。
[w1,…,wi,…w|s|]w
ここで、wiは入力テキストのセグメンテーション以降のi番目の単語であり、|s|はセグメンテーション後のテキストの長さである。例えば、「この機能はどのように用いますか?」のテキストデータの項目に関して、セグメンテーション後に、テキストデータの項目が[この,機能は,どのように,用います,か]という単語シーケンスとして表される。単語シーケンスは5の長さを有し、単語シーケンスの単語の数に対応する。
[w1,…,wi,…w|s|]w
ここで、wiは入力テキストのセグメンテーション以降のi番目の単語であり、|s|はセグメンテーション後のテキストの長さである。例えば、「この機能はどのように用いますか?」のテキストデータの項目に関して、セグメンテーション後に、テキストデータの項目が[この,機能は,どのように,用います,か]という単語シーケンスとして表される。単語シーケンスは5の長さを有し、単語シーケンスの単語の数に対応する。
サブ段階S201Cは、単語シーケンスにおける各単語に対応する単語ベクトルを判断し、単語ベクトルマトリクスを生成する。
いくつかの実施形態において、上記単語シーケンスは、単語埋め込み技術を使用してコード化され、単語ベクトルのマトリクス
[v1,…,vi…v|s|]
を生成する。
[v1,…,vi…v|s|]
を生成する。
i番目の単語に対応する単語ベクトルは、以下によって計算される。
vi=LTw(wi) (1)
ここで、W∈Rd×|v|は、事前トレーニングされた単語ベクトル(例えば、単語埋め込みを使用して生成されるベクトル)マトリクスであり、|v|は単語ベクトルマトリクスにおける単語の数であり、dは単語ベクトル(例えば、単語埋め込みを使用して生成されるベクトル)のコード化長であり、Rは実数空間であり、LTはルックアップテーブル関数である。
マトリクスの各列は、単語シーケンスの各単語に対応する単語埋め込みベースのコード化を表す。このようにして、任意のテキストデータが、d×|s|からなるマトリクスSとして表されることができ、Sは入力テキストデータにおける単語に対応する単語ベクトルマトリクスを表す。
vi=LTw(wi) (1)
ここで、W∈Rd×|v|は、事前トレーニングされた単語ベクトル(例えば、単語埋め込みを使用して生成されるベクトル)マトリクスであり、|v|は単語ベクトルマトリクスにおける単語の数であり、dは単語ベクトル(例えば、単語埋め込みを使用して生成されるベクトル)のコード化長であり、Rは実数空間であり、LTはルックアップテーブル関数である。
マトリクスの各列は、単語シーケンスの各単語に対応する単語埋め込みベースのコード化を表す。このようにして、任意のテキストデータが、d×|s|からなるマトリクスSとして表されることができ、Sは入力テキストデータにおける単語に対応する単語ベクトルマトリクスを表す。
単語埋め込みは、自然言語を処理するコード化技術であり、|v|*dのサイズの単語ベクトルマトリクスの生成に用いられる。例えば、マトリクスの各列が単語「どのように」などの1つの単語を表し、それぞれのベクトル列が単語「どのように」に関するコード化を表す。ここで、|v|は辞書の単語の数を表し、dはコード化ベクトルの長さを表す。上記の例「この機能はどのように用いますか」などの1つの文に関して、文は第1に「この」「機能は」「どのように」「用います」「か」という単語(例えば、単語シーケンス)に区分される。次に、各単語に対応するコード化ベクトルが検索される。例えば、単語「この」に対応するベクトルは、[−0.01,0.03,0.02,…,0.06]として識別され得る。これらの5つの各単語は、それぞれのベクトル表現で表される。5つのベクトルは共に、例示のテキストデータの文を表すマトリクスを形成する。
ステップ202:単語ベクトルマトリクスを双方向再帰型ニューラルネットワークに入力して、単語ベクトルマトリクスを事前処理して、文脈の意味論的関係を表す出力ベクトルとする。
いくつかの実施形態において、ステップ202は、単語ベクトルマトリクスを双方向再帰型ニューラルネットワークに入力する段階と、長・短期記憶(LSTM)ユニット(例えばニューラルネットワークユニット)によって演算を実行して、順方向処理を実行して、各単語とそれの先行文脈テキストとの間の意味論的従属関係を取得し、逆方向処理を実行して、各単語ベクトルとそれの後続文脈テキストとの間の意味論的従属関係を取得する、演算を実行する段階と、各単語ベクトルと先行文脈テキストおよび後続文脈テキストのそれぞれとの間の意味論的従属関係を出力ベクトルとして使用する段階と、を含む。
1つの実装において、段階S202で生成された単語ベクトルマトリクスSは、双方向再帰型ニューラルネットワークを使用して事前処理され、その計算ユニットは長・短期記憶(LSTM)ユニットを利用する。双方向再帰型ニューラルネットワークは、(処理順序がw1→w|S|である)順方向処理と、(処理順序がw|S|→w1である)逆方向処理とを含む。各入力ベクトルviに関して、順方向処理は出力ベクトルhi f∈Rdを生成し、それに応じて、逆方向処理は出力ベクトルhi b∈Rdを生成する。
これらのベクトルは、各単語wiと、それらの(順方向処理に対応する)先行文脈テキストまたはそれらの(逆方向処理に対応する)後続文脈テキストのそれぞれの意味論的情報とを表す。次に、出力ベクトルは下式を使用して計算される。
hi=[hi f;hi b] (2)
ここで、hiはwiそれぞれの中間コード化であり、hi fは双方向再帰型ニューラルネットワークの上記順方向処理において入力された単語iを処理することによって生成されたベクトルであり、単語iとそれの先行文脈テキストとの間の意味論的従属関係を表し、hi bは双方向再帰型ニューラルネットワークの上記逆方向処理において入力された単語iを処理することによって生成されたベクトルであり、単語iとそれの後続文脈テキストとの間の意味論的従属関係を表す。
これらのベクトルは、各単語wiと、それらの(順方向処理に対応する)先行文脈テキストまたはそれらの(逆方向処理に対応する)後続文脈テキストのそれぞれの意味論的情報とを表す。次に、出力ベクトルは下式を使用して計算される。
hi=[hi f;hi b] (2)
ここで、hiはwiそれぞれの中間コード化であり、hi fは双方向再帰型ニューラルネットワークの上記順方向処理において入力された単語iを処理することによって生成されたベクトルであり、単語iとそれの先行文脈テキストとの間の意味論的従属関係を表し、hi bは双方向再帰型ニューラルネットワークの上記逆方向処理において入力された単語iを処理することによって生成されたベクトルであり、単語iとそれの後続文脈テキストとの間の意味論的従属関係を表す。
段階S203は、出力ベクトルの畳み込みを実行して畳み込み結果を取得し、畳み込み結果はトピックに関連する。
いくつかの実施形態において、段階S203は以下のサブ段階を含む。
サブ段階S203Aは、畳み込みカーネルを使用して出力ベクトルに対して線形畳み込み演算を実行し、畳み込みカーネルはトピックに関連する。
実装において、畳み込みカーネルF∈Rd×m(mは畳み込みウインドウのサイズを表す)が利用され、H∈R2d×|S|に対して線形畳み込み演算を実行し、ベクトルC∈R(|S|−m+1)を取得する。ここで、
ci=(H*F)i=Σ(H:,i:i+m−1・F) (3)
ここで、畳み込みカーネルFはトピックに関連する。
ci=(H*F)i=Σ(H:,i:i+m−1・F) (3)
ここで、畳み込みカーネルFはトピックに関連する。
いくつかの実施形態において、サブ段階S203Aは、下式を適用することによって畳み込みカーネルFの群を使用して出力ベクトルHの畳み込み演算を実行する段階を含む。
cji=Σ(H:,i:i+m−1・Fj)+bi (4)
ここで、cjiは畳み込み演算の結果としてのベクトルであり、Hは双方向再帰型ニューラルネットワークの出力ベクトルであり、Fjはj番目の畳み込みカーネルであり、biは畳み込みカーネルFjに対応するバイアス値であり、iは整数であり、jは整数であり、mは畳み込みウインドウのサイズである。
cji=Σ(H:,i:i+m−1・Fj)+bi (4)
ここで、cjiは畳み込み演算の結果としてのベクトルであり、Hは双方向再帰型ニューラルネットワークの出力ベクトルであり、Fjはj番目の畳み込みカーネルであり、biは畳み込みカーネルFjに対応するバイアス値であり、iは整数であり、jは整数であり、mは畳み込みウインドウのサイズである。
いくつかの実施形態において、畳み込みカーネルF∈R(n×d×m)の群は、Hの畳み込み演算を実行するように用いられ、マトリクスC∈R(n×(|S|−m+1)を取得し、それは畳み込み演算の結果としてのベクトルを表す。さらに、各畳み込みカーネルFjはそれぞれのバイアス値biに対応する。
実装において、畳み込みカーネルのサイズもまた、使用のための畳み込みカーネルが判断されたときに判断される。一例において、各畳み込みカーネルは2次元ベクトルを含み、それらのサイズは異なる応用シナリオに基づく調整によって取得され、ベクトルの値は教師あり学習によって取得される。いくつかの実施形態において、畳み込みカーネルはニューラルネットワークトレーニングによって取得される。一例において、畳み込みカーネルに対応するベクトルは、トレーニングサンプルに対して教師あり学習技術を実行することによって取得される。
サブ段階S203B:線形畳み込み演算の結果に非線形変換を実行して、畳み込み結果を取得する。
いくつかの実施形態において、非線形の表現力をコード化するように、1または複数の非線形アクティブ化関数(例えば、softmax、正規化線形関数(ReLu))が畳み込み層に追加される。例としてReLuを取り上げると、出力結果はA∈R(n×(|S|−m+1)であり、ここで、
aij=max(0,cij) (5)
ここで、AはReLu処理の結果として計算された変数である。ここで、aijはAに関連づけられた変数である。
上記処理の後、各aijは0以上の数値へと処理される。
aij=max(0,cij) (5)
ここで、AはReLu処理の結果として計算された変数である。ここで、aijはAに関連づけられた変数である。
上記処理の後、各aijは0以上の数値へと処理される。
段階S204:畳み込み結果にプーリングを実行して、テキストデータの意味論的コード化として固定長ベクトルを取得し、意味論的コード化はテキストデータのトピックを表す。
いくつかの実施形態において、最大プーリングが畳み込み結果に実行され、結果に関連づけられた可変長を除去する。このようにして、実数の固定長ベクトルが、テキストデータの意味論的コード化として取得される。ベクトルの各要素の値は、テキストデータがトピックを反映する程度を示す。
いくつかの実施形態において、段階S203において取得されたマトリクスAは最大プーリングによって処理される。テキストコード化において、プーリングは、ベクトル長が異なる値であることの影響を除去するように用いられる。実装において、入力マトリクスAに関して、マトリクスAの各行は、対応する畳み込みカーネルを使用する畳み込みによって取得される実数のベクトルに対応する。ベクトルのこれらの値の中で最大である値は、
pi=max(Ai,:) (6)
として計算される。ここで、最終結果P∈Rnは、目標テキストデータの最終コード化である。
pi=max(Ai,:) (6)
として計算される。ここで、最終結果P∈Rnは、目標テキストデータの最終コード化である。
いくつかの実施形態において、結果ベクトルPの各要素は「トピック」を表し、各要素の値は、「トピック」がテキストデータによって反映される程度を表す。
様々な実施形態において、ひとたびテキストデータに対応する意味論的コード化が取得されると、複数種の処理が意味論的コード化に基づいて実行され得る。例えば、取得されたテキスト意味論的コード化が実数のベクトルであるので、後続の処理はベクトルの共通演算を使用して実行され得る。一例において、2つのそれぞれのコード化の余弦距離が、テキストデータの2つの項目の間の類似性を表すように計算される。本開示の様々な実施形態によると、上記のテキストデータの意味論的コード化を取得する後のテキスト意味論的コード化の任意の後続の処理が、限定なしで実行され得る。
図3は、本開示のいくつかの実施形態によるテキスト意味論的コード化の方法を示す図である。図3に示されるように、テキストデータの項目「この機能はどのように用いますか」は目標テキストデータ(301)である。目標テキストデータは、単語セグメンテーションのときに、[この,機能は,どのように,用います,か]の単語シーケンス(303)に切り分けられる。セグメント化された各単語は、単語ベクトルを使用してコード化される。これらの単語ベクトルのマトリクスは、双方向再帰型ニューラルネットワーク(305)に入力されて、処理されて出力結果を取得する。出力結果の、線形畳み込み(307)、非線形変換(309)、および最大プーリング(311)の演算のとき、各単語ベクトルが可変長を有するという影響は除去される。結果として、固定長ベクトルが、テキストデータの意味論的コード化(313)として取得される。本開示の様々な実施形態において、可変長のテキストデータが処理されて、単語ベクトルのマトリクスとして最初に表され、次に、実数の固定長ベクトルが、双方向再帰型ニューラルネットワークおよび畳み込み関連の演算を使用して取得される。そのような実数の固定長ベクトルは、テキストデータの意味論的コード化である。このようにして、可変長のテキストデータが固定長のテキスト意味論的コード化に変換され、テキストデータの意味論的関係と同様に、テキストデータのトピック表現がマイニングされる。
図6は、本開示のいくつかの実施形態によるテキスト意味論的コード化の方法を示すフロー図を示す。テキスト意味論的コード化の方法は、以下の段階を含む。
段階S601:テキストデータに基づいて単語ベクトルマトリクスを生成する。
いくつかの実施形態において、段階S601は以下のサブ段階を含む。
サブ段階S601A:テキストデータを取得する。様々な実施形態において、テキストデータは可変長である。いくつかの実施形態において、テキストデータは図2を参照して上記のサブ段階S201Aと実質的に同様な方式で取得され、その詳細を本明細書で繰り返すことはしない。
ステップS601B:テキストデータ上で単語セグメンテーションを実行して、単語シーケンスを取得する。いくつかの実施形態において、テキストデータは図2を参照して上記のサブ段階S201Bと実質的に同様な方式で取得され、その詳細を本明細書で繰り返すことはしない。
ステップS601C:単語シーケンスの各単語に対応する単語ベクトルを判断し、単語ベクトルのマトリクスを生成する。いくつかの実施形態において、単語ベクトルの単語ベクトルおよびマトリクスは図2を参照して上記のサブ段階S201Cと実質的に同様な方式で取得され、その詳細を本明細書で繰り返すことはしない。
段階S602:単語ベクトルマトリクスに基づいて、文脈の意味論的関係を表す出力ベクトルを取得する。
いくつかの実施形態において、段階S602は、文脈の意味論的関係を表す出力ベクトルを取得するように、単語ベクトルマトリクスを双方向再帰型ニューラルネットワークに入力することによって、単語ベクトルマトリクスを事前処理する段階を含む。実装において、単語ベクトルのマトリクスが、双方向再帰型ニューラルネットワークに入力され、長・短期記憶(LSTM)ユニットが、演算のために用いられる。一例において、各単語ベクトルとその先行文脈テキストとの間の意味論的従属関係を取得するように、順方向処理が実行され、各単語ベクトルとその後続文脈テキストとの間の意味論的従属関係を取得するように、逆方向処理が実行される。各単語ベクトルとそれぞれの先行文脈テキストおよびそれぞれの後続文脈テキストとの間の意味論的従属関係は、出力ベクトルを形成する。様々な実施形態において、任意の適切な技術が、限定することなく、出力ベクトルを生成するように適用され得る。
段階S603:出力ベクトルに基づいて、トピックに関連する畳み込み結果を取得する。
いくつかの実施形態において、畳み込みカーネルを使用して線形畳み込み演算が出力ベクトル上で実行され、それはトピックに関連する。非線形変換は、畳み込み結果を取得するように、線形畳み込みの結果に実行される。
段階S604:畳み込み結果に基づいて、テキストデータの意味論的コード化として固定長ベクトルを取得し、意味論的コード化はテキストデータのトピックを表す。
いくつかの実施形態において、実数の固定長ベクトルを取得するように、結果に関連づけられた可変ベクトル長を除去するように、最大プーリングが畳み込み結果に実行される。そのような実数の固定長ベクトルは、テキストデータの意味論的コード化として生成され、ベクトルの各要素の値は、テキストがトピックを反映する程度を表す。
今、図4に戻って参照すると、本開示のいくつかの実施形態による、テキスト意味論的コード化の装置のブロック図が開示される。図4に示されるように、装置(400)は、単語ベクトルマトリクス生成ユニット(401)、事前処理ユニット(402)、畳み込みユニット(403)、およびプーリングユニット(404)を含む。
単語ベクトルマトリクス生成ユニット(401)は、テキストデータに基づいて単語ベクトルマトリクスを生成するように構成される。いくつかの実施形態において、単語ベクトルマトリクス生成ユニット401は、図2を参照して上記の段階S201を実装するように構成され、その詳細は本明細書で繰り返すことはしない。
事前処理ユニット(402)は、単語ベクトルマトリクスを双方向再帰型ニューラルネットワークに入力し、単語ベクトルマトリクスを出力ベクトルに事前処理するように構成され、出力ベクトルは文脈の意味論的関係を表す。いくつかの実施形態において、事前処理ユニット(402)は図2を参照して上記の段階S202を実装するように構成され、その詳細は本明細書において繰り返すことはしない。
畳み込みユニット(403)は、畳み込み結果くぉ取得するように出力ベクトルの畳み込みを実行するように構成され、畳み込み結果はトピックに関連する。いくつかの実施形態において、畳み込み処理ユニット(403)は、図2を参照して上記の段階S203を実装するように構成され、その詳細は本明細書で繰り返すことはしない。
プーリングユニット(404)は、畳み込み結果のプーリングを実行して、テキストデータの意味論的コード化として固定長ベクトルを取得するように構成され、意味論的コード化はテキストデータのトピックを表す。いくつかの実施形態において、プーリングユニット(404)は、図2を参照して上記の段階S204を実装するように構成され、その詳細は本明細書で繰り返すことはしない。
いくつかの実施形態において、単語ベクトルマトリクス生成ユニット(401)はさらに、テキストデータを取得するように構成された取得ユニットを含む。一実施形態において、取得ユニットは、図2を参照して上記のサブ段階S201Aを実装するように構成され、その詳細は本明細書で繰り返すことはしない。
いくつかの実施形態において、単語ベクトルマトリクス生成ユニット(401)はさらに、テキストデータの単語セグメンテーションを実行して単語シーケンスを取得するように構成された単語セグメンテーションユニットを含む。いくつかの実施形態において、単語セグメンテーションユニットは、図2を参照して上記のサブ段階S201Bを実装するように構成され、その詳細は本明細書で繰り返すことはしない。
いくつかの実施形態において、単語ベクトルマトリクス生成ユニット(401)はさらに、単語シーケンスにおける各単語に対応する単語ベクトル(例えば、単語埋め込みに基づいて取得されたベクトル)を判断し、これらの単語ベクトルのマトリクスを生成するように構成されたマトリクス生成ユニットを含む。いくつかの実施形態において、マトリクス生成ユニットは、図2を参照して上記のステップS201Cを実装するように構成され、その詳細は本明細書で繰り返すことはしない。
いくつかの実施形態において、事前処理ユニット(402)はさらに、単語ベクトルのマトリクスを双方向再帰型ニューラルネットワークに入力し、長・短期記憶(LSTM)ユニットを使用して演算を実行するように構成される。いくつかの例において、順方向処理が、各単語ベクトルとその先行文脈テキストとの間の意味論的従属関係を取得するように実行され、逆方向処理が、各単語ベクトルとその後続文脈テキストとの間の意味論的従属関係を取得するように実行される。各単語ベクトルとそれぞれの先行文脈テキストおよびそれぞれの後続文脈テキストとの間の意味論的従属関係が、出力ベクトルとして計算される。
いくつかの実施形態において、畳み込み処理ユニット(403)はさらに、畳み込みユニットおよび非線形変換ユニットを含む。畳み込みユニットは、畳み込みカーネルを使用して出力ベクトルの線形畳み込みを実行するように構成され、それはトピックに関連する。
非線形変換ユニットは、線形畳み込みの結果に非線形変換を実行し、畳み込み結果を取得するように構成される。
いくつかの実施形態において、畳み込みユニットは、下式を使用して、畳み込みカーネルFの群によって出力ベクトルに畳み込み演算を実行するように構成される。
cji=Σ(H:,i:i+m−1・Fj)+bi (7)
ここで、cjiは畳み込み演算の結果としてのベクトルであり、Hは双方向再帰型ニューラルネットワークの出力ベクトルであり、Fjはj番目の畳み込みカーネルであり、biは畳み込みカーネルFjに対応するバイアス値であり、iは整数であり、jは整数であり、mは畳み込みウインドウのサイズである。
cji=Σ(H:,i:i+m−1・Fj)+bi (7)
ここで、cjiは畳み込み演算の結果としてのベクトルであり、Hは双方向再帰型ニューラルネットワークの出力ベクトルであり、Fjはj番目の畳み込みカーネルであり、biは畳み込みカーネルFjに対応するバイアス値であり、iは整数であり、jは整数であり、mは畳み込みウインドウのサイズである。
いくつかの実施形態において、プーリングユニット(404)は畳み込み結果に最大プーリングを実行し、結果に関連づけられた可変長を除去し、テキストデータの意味論的コード化として実数の固定長ベクトルを取得するように構成される。ベクトルの各要素の値は、テキストがトピックを反映する程度を表す。
図5は、本開示のいくつかの実施形態による、テキスト意味論的コード化の装置を示すブロック図である。図5に示されるように、テキスト意味論的コード化装置は1または複数のプロセッサ(501)(例えば、CPU)、メモリ(502)、および、1または複数のプロセッサ(501)とメモリ(502)とを通信可能に接続する通信バス(503)を含む。1または複数のプロセッサ(501)は、メモリ(502)に格納されたコンピュータプログラムなどの実行可能なモジュールを実行するように構成される。
メモリ(502)は、高速ランダムアクセスメモリ(RAM)、不揮発性メモリ(例えば、ディスクメモリ)、および同様のものを含むように構成され得る。メモリ(502)は、1または複数のプロセッサ(501)によって実行されるとき、装置に以下の工程、すなわち、テキストデータに基づいて単語ベクトルマトリクスを生成する段階と、単語ベクトルマトリクスを双方向再帰型ニューラルネットワークに入力して、単語ベクトルのマトリクスを出力ベクトルに事前処理する段階であって、出力ベクトルは文脈の意味論的関係を表す、段階と、畳み込み結果を取得するように出力ベクトルの畳み込みを実行する段階であって、畳み込み結果はトピックに関連する、段階と、テキストデータの意味論的コード化として固定長ベクトルを取得するように畳み込み結果のプーリングを実行する段階であって、意味論的コード化はテキストデータのトピックを表す、段階とを実行するように命令する命令を含む1または複数のプログラムを格納する。
いくつかの実施形態において、1または複数のプロセッサ(501)は、単語ベクトルマトリクスを双方向再帰型ニューラルネットワークに入力することと、長・短期記憶(LSTM)ユニットを使用して演算を実行することと、各単語ベクトルとその先行文脈テキストとの間の意味論的従属関係を取得するように順方向処理を実行することと、各単語ベクトルとその後続文脈テキストとの間の意味論的従属関係を取得するように逆方向処理を実行することと、各単語ベクトルとそれぞれの先行文脈テキストおよびそれぞれの後続文脈テキストとの間の意味論的従属関係を使用して出力ベクトルを生成することと、に関する命令を含む1または複数のプログラムを実行するように構成される。
いくつかの実施形態において、1または複数のプロセッサ(501)は、畳み込みカーネルを使用して出力ベクトル上で線形畳み込み演算を実行することであって、畳み込みカーネルはトピックに関連する、実行することと、畳み込み結果を取得するように線形畳み込み演算の結果に非線形変換を実行することとに関する命令を含む1または複数のプログラムを実行するように構成される。
いくつかの実施形態において、1または複数のプロセッサ(501)は、テキストデータの意味論的コード化として実数の固定長ベクトルを取得するように結果に関連づけられた可変長を除去するように畳み込み結果に最大プーリングを実行することであって、ベクトルの各要素の値はテキストがトピックを反映する程度を表す、実行することに関する命令を含む1または複数のプログラムを実行するように構成される。
いくつかの実施形態において、開示はさらに、そこに命令を格納する、非一時的コンピュータ可読格納媒体を提供する。例えば、メモリは、プロセッサによって実行されるとき、図1から図3および図6を参照して上記の方法を実行するように装置に命令する、命令を格納し得る。いくつかの実施形態において、非一時的コンピュータ可読格納媒体は、リードオンリーメモリ(ROM)、ランダムアクセスメモリ(RAM)、CD−ROM、フロッピーディスク、光学データストレージデバイス、などであり得る。
いくつかの実施形態において、本開示はさらに、コンピュータ可読媒体を提供する。一例において、コンピュータ可読媒体は、そこに命令を格納する、非一時的コンピュータ可読格納媒体であり、装置(例えば、クライアントデバイスまたはサーバ)のプロセッサによって実行されるとき、装置に、テキスト意味論的コード化の方法を実行するように命令し、方法は、テキストデータに基づいて単語ベクトルのマトリクスを生成する段階と、単語ベクトルのマトリクスを双方向再帰型ニューラルネットワークに入力して、単語ベクトルのマトリクスを出力ベクトルに事前処理する段階であって、出力ベクトルは文脈の意味論的関係を表す、段階と、畳み込み結果を取得するように出力ベクトルの畳み込みを実行する段階であって、畳み込み結果はトピックに関連する、段階と、テキストデータの意味論的コード化として固定長ベクトルを取得するように畳み込み結果のプーリングを実行する段階であって、意味論的コード化はテキストデータのトピックを表す、段階とを含む。
図7は、本開示のいくつかの実施形態によるテキスト意味論的コード化の装置を示すブロック図である。本明細書の図7に示されるように、テキスト意味論的コード化装置(700)は、単語ベクトルマトリクス生成ユニット(701)、出力ベクトル取得ユニット(702)、畳み込み処理ユニット(703)、および意味論的コード化ユニット(704)を含む。
単語ベクトルマトリクス生成ユニット(701)は、テキストデータに基づいて単語ベクトルマトリクスを生成するように構成される。いくつかの実施形態において、単語ベクトルマトリクス生成ユニット(701)は、図6を参照して上記の段階S601を実装するように構成され、その詳細は本明細書で繰り返すことはしない。
出力ベクトル取得ユニット(702)は、単語ベクトルマトリクスに基づいて、文脈の意味論的関係を表す出力ベクトルを取得するように構成される。いくつかの実施形態において、出力ベクトル取得ユニット(702)は、図6を参照して上記の段階S602を実装するように構成され、その詳細は本明細書で繰り返すことはしない。
畳み込み処理ユニット(703)は、出力ベクトルに基づいて、トピックに関連する畳み込み結果を取得するように構成される。いくつかの実施形態において、畳み込み処理ユニット(703)は、図6を参照して上記の段階S603を実装するように構成され、その詳細は本明細書で繰り返すことはしない。
意味論的コード化ユニット(704)は、畳み込み結果に基づいて、テキストデータのトピックを表すテキストデータの意味論的コード化として固定長ベクトルを取得するように構成される。いくつかの実施形態において、意味論的コード化ユニット(704)は図6を参照して上記の段階S604を実装するように構成され、その詳細は本明細書で繰り返すことはしない。
いくつかの実施形態において、本開示によって提供される装置の1または複数のユニットまたはモジュールが、上記図2、3および6と実質的に同様な方法を実装するように構成されるが、その詳細は本明細書で繰り返すことはしない。
他の本開示の実施形態は、明細書を考慮し、本明細書に開示される発明を実践した後に、当業者によって容易に想到可能であろう。本開示は、本開示のいかなる変形、使用、または適合例も対象とすることを意図し、変形、使用、または適合例は、本開示の一般な原則に準拠し、現在の開示に開示されていない分野において共通して知られる知識または従来の技術手段を含む。明細書および実施形態は例示のみであるとみなされ、本開示の実際の範囲および主旨は、添付の特許請求の範囲に示される。
本開示は、上に説明された、および添付図面に示された正確な構造に限定されないこと、ならびに、様々な修正および変形が、本開示の範囲から逸脱することなく作成され得ることが、理解されるべきである。本開示の範囲は、添付の特許請求の範囲によってのみ限定される。
本明細書の「第1」および「第2」などの相対的な用語は、1つの実在物または操作を別の実在物または操作から区別するために用いられるに過ぎず、これらの実在物または操作がこの実際の関連性または順序を有することを要求または暗示するものではないことに、留意する必要がある。さらに、用語「include(含む)」、「comprise(含む)」またはこれらの他の変形は、非排他的な含有を対象とすることを意図し、したがって、一連の要素を含む処理、方法、物品、またはデバイスは、その要素のみを含むもののみでなく、はっきりと列挙されていない他の要素もまた含み、または、処理、方法、物品、またはデバイスに固有の要素をさらに含む。ステートメント「1つを含む」によって定義される要素は、さらなる限定なしで、その要素を含む処理、方法、商品、またはデバイスにおける追加の同一の要素の存在を除外するものではない。本開示は、プログラムモジュールなどの、コンピュータによって実行されるコンピュータ実行可能命令の一般的な文脈において説明され得る。一般に、プログラムモジュールは、特定のタスクを実行するか、特定の抽象的なデータタイプを実装するための、ルーティン、プログラム、オブジェクト、コンポーネント、データ構造、などを含む。本開示はまた、分散コンピューティング環境において実装されてもよい。分散コンピューティング環境において、タスクは、通信ネットワークによって接続されるリモート処理デバイスによって実行される。分散コンピューティング環境において、プログラムモジュールは、ストレージデバイスを含む、ローカルまたはリモートコンピュータストレージ媒体に位置してもよい。
現在の明細書における実施形態は、進行的な方式で説明され、異なる実施形態の間の同一のまたは同様の部分に関して、各実施形態が他の実施形態からの相違に焦点を当てるように、互いに参照が行われ得る。特に、装置の実施形態に関して、装置の実施形態が方法の実施形態と実質的に同様であるので、説明は比較的簡潔であり、関連する部分に関する方法の実施形態の説明の参照が行われ得る。上で説明されたデバイス実施形態は例示に過ぎず、別の構成要素として説明されたユニットは、物理的に別であってもよく、別でなくてもよく、ユニットとして表示された構成要素は、物理的にユニットであってもよく、なくてもよい、すなわち、同一の場所に位置してもよく、複数のネットワークユニットに分散して位置してもよい。この実施形態の解決方法の対象は、実際の要求に従って、モジュールの一部またはすべてを選択することによって実装されてもよい。当業者は、創造的な努力なしで、現在の発明を理解および実装できるであろう。上記明細書は、本開示の実装に過ぎない。当業者が、本開示の原則から逸脱することなく改良および修正を行ってよいこと、および、その改良および修正もまた本開示の保護範囲内にあるものとみなされることは、注目されるべきである。
Claims (11)
- テキストデータに基づいて単語ベクトルマトリクスを生成する段階と、
前記単語ベクトルマトリクスを双方向再帰型ニューラルネットワークに入力することによって前記単語ベクトルマトリクスを事前処理して、文脈の意味論的関係を示す出力ベクトルを取得する段階と、
前記出力ベクトルの畳み込み演算を実行して、畳み込み結果を取得する段階であって、前記畳み込み結果は対象に関連する、段階と、
前記畳み込み結果のプーリング演算を実行して、前記テキストデータの意味論的コード化として用いられた固定長ベクトルを取得する段階であって、前記意味論的コード化を使用して前記テキストデータの前記対象を表す、段階と
を備える、テキスト意味論的コード化方法。 - 文脈の意味論的関係を示す出力ベクトルを取得するように、前記単語ベクトルマトリクスを双方向再帰型ニューラルネットワークに入力することによって、前記単語ベクトルマトリクスを事前処理する前記段階は、
前記単語ベクトルマトリクスを前記双方向再帰型ニューラルネットワークに入力する段階と、長・短期記憶(LSTM)演算子を使用することによって計算を実行する段階と、先行するテキストに関する各単語ベクトルの意味論的従属関係を取得するように順方向処理を実行する段階と、後続するテキストに関する各単語ベクトルの意味論的従属関係を取得するように逆方向処理を実行する段階と、前記先行するテキストおよび前記後続するテキストに関する前記各単語ベクトルの意味論的従属関係を、前記出力ベクトルとして使用する段階と、
を有する、請求項1に記載のテキスト意味論的コード化方法。 - 畳み込み結果を取得するように前記出力ベクトルの畳み込み演算を実行する前記段階は、
畳み込みカーネルを使用することによって前記出力ベクトルに線形畳み込み演算を実行する段階であって、前記畳み込みカーネルは前記対象に関連する、段階と、
前記畳み込み結果を取得するように、前記線形畳み込み演算の結果に非線形変換を実行する段階と、
を有する、請求項1または2に記載のテキスト意味論的コード化方法。 - 前記畳み込み結果の前記プーリング演算を実行する前記段階は、
前記畳み込み結果の可変長さを除去し、前記テキストデータの前記意味論的コード化として用いられる固定長浮動小数点値ベクトルを取得するように、前記畳み込み結果に最大プーリング演算を実行する段階を含み、前記固定長浮動小数点値ベクトルの各値は、前記テキストデータが前記対象を反映する程度を示すように用いられる、
請求項1から3のいずれか一項に記載のテキスト意味論的コード化方法。 - 前記テキストデータは、固定長ではないテキストデータである、請求項1から4のいずれか一項に記載のテキスト意味論的コード化方法。
- テキストデータに基づいて単語ベクトルマトリクスを生成する段階と、
前記単語ベクトルマトリクスに従って、文脈の意味論的関係を示すように用いられる出力ベクトルを取得する段階と、
前記出力ベクトルに従って、対象に関連する畳み込み結果を取得する段階と、
前記畳み込み結果に従って、前記テキストデータの前記対象を表すように前記テキストデータの意味論的コード化として用いられる固定長ベクトルを取得する段階と、
を含む、テキスト意味論的コード化方法。 - テキストデータに基づいて単語ベクトルマトリクスを生成するように用いられる単語ベクトルマトリクス生成ユニットと、
文脈の意味論的関係を示す出力ベクトルを取得するように、前記単語ベクトルマトリクスを双方向再帰型ニューラルネットワークに入力することによって前記単語ベクトルマトリクスを事前処理するように用いられる事前処理ユニットと、
畳み込み結果を取得するように前記出力ベクトルに畳み込み演算を実行するように用いられる畳み込み処理ユニットであって、前記畳み込み結果は対象に関連する、畳み込み処理ユニットと、
前記テキストデータの意味論的コード化として用いられる固定長ベクトルを取得するように前記畳み込み結果のプーリング演算を実行するように用いられるプーリング処理ユニットであって、前記意味論的コード化は前記テキストデータの前記対象を表すように用いられる、プーリング処理ユニットと、
を含む、テキスト意味論的コード化装置。 - テキストデータに基づいて単語ベクトルマトリクスを生成するように用いられる単語ベクトルマトリクス生成ユニットと、
前記単語ベクトルマトリクスに従って、文脈の意味論的関係を示すように用いられる出力ベクトルを取得するように用いられる出力ベクトル取得ユニットと、
前記出力ベクトルに従って、対象に関連する畳み込み結果を取得するように用いられる畳み込み処理ユニットと、
前記畳み込み結果に従って、前記テキストデータの前記対象を表すように前記テキストデータの意味論的コード化として用いられる固定長ベクトルを、取得するように用いられる意味論的コード化取得ユニットと、
を含む、テキスト意味論的コード化装置。 - メモリと、1または複数のプログラムとを備え、前記1または複数のプログラムは前記メモリに格納され、1または複数のプロセッサによって実行されるように構成され、前記1または複数のプログラムは、以下の手順のための命令を含み、前記手順は、
テキストデータに基づいて単語ベクトルマトリクスを生成する段階と、
文脈の意味論的関係を示す出力ベクトルを取得するように、前記単語ベクトルマトリクスを双方向再帰型ニューラルネットワークに入力することによって、前記単語ベクトルマトリクスを事前処理する段階と、
畳み込み結果を取得するように前記出力ベクトルに畳み込み演算を実行する段階であって、前記畳み込み結果は対象に関連する、段階と、
前記テキストデータの意味論的コード化として用いられる固定長ベクトルを取得するように、前記畳み込み結果のプーリング演算を実行する段階であって、前記意味論的コード化は前記テキストデータの前記対象を表すように用いられる、段階と、
である、テキスト意味論的コード化のための装置。 - メモリと、1または複数のプログラムとを備え、前記1または複数のプログラムは前記メモリに格納され、1または複数のプロセッサによって実行されるように構成され、前記1または複数のプログラムは、以下の手順のための命令を含み、前記手順は、
テキストデータに基づいて単語ベクトルマトリクスを生成する段階と、
前記単語ベクトルマトリクスに従って、文脈の意味論的関係を示すように用いられる出力ベクトルを取得する段階と、
前記出力ベクトルに従って、対象に関連する畳み込み結果を取得する段階と、
前記畳み込み結果に従って、前記テキストデータの前記対象を表すように前記テキストデータの意味論的コード化として用いられる固定長ベクトルを取得する段階と、
である、テキスト意味論的コード化のための装置。 - 請求項1から5のいずれか一項に記載のテキスト意味論的コード化方法を装置に実行させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711056845.2 | 2017-10-27 | ||
CN201711056845.2A CN110019793A (zh) | 2017-10-27 | 2017-10-27 | 一种文本语义编码方法及装置 |
PCT/CN2018/111628 WO2019080864A1 (zh) | 2017-10-27 | 2018-10-24 | 一种文本语义编码方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021501390A true JP2021501390A (ja) | 2021-01-14 |
Family
ID=66247156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020520227A Pending JP2021501390A (ja) | 2017-10-27 | 2018-10-24 | テキスト意味論的コード化の方法および装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20200250379A1 (ja) |
JP (1) | JP2021501390A (ja) |
CN (1) | CN110019793A (ja) |
TW (1) | TW201917602A (ja) |
WO (1) | WO2019080864A1 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11250221B2 (en) * | 2019-03-14 | 2022-02-15 | Sap Se | Learning system for contextual interpretation of Japanese words |
CN112396484A (zh) * | 2019-08-16 | 2021-02-23 | 阿里巴巴集团控股有限公司 | 商品的验证方法及装置、存储介质和处理器 |
CN110705268B (zh) * | 2019-09-02 | 2024-06-25 | 平安科技(深圳)有限公司 | 基于人工智能的文章主旨提取方法、装置及计算机可读存储介质 |
CN112579730A (zh) * | 2019-09-11 | 2021-03-30 | 慧科讯业有限公司 | 高扩展性、多标签的文本分类方法和装置 |
CN110889290B (zh) * | 2019-11-13 | 2021-11-16 | 北京邮电大学 | 文本编码方法和设备、文本编码有效性检验方法和设备 |
CN110826298B (zh) * | 2019-11-13 | 2023-04-04 | 北京万里红科技有限公司 | 一种智能辅助定密系统中使用的语句编码方法 |
CN112287672A (zh) * | 2019-11-28 | 2021-01-29 | 北京京东尚科信息技术有限公司 | 文本意图识别方法及装置、电子设备、存储介质 |
US11544946B2 (en) * | 2019-12-27 | 2023-01-03 | Robert Bosch Gmbh | System and method for enhancing neural sentence classification |
CN111160042B (zh) * | 2019-12-31 | 2023-04-28 | 重庆觉晓科技有限公司 | 一种文本语义解析方法和装置 |
CN111259162B (zh) * | 2020-01-08 | 2023-10-03 | 百度在线网络技术(北京)有限公司 | 对话交互方法、装置、设备和存储介质 |
CN112069827B (zh) * | 2020-07-30 | 2022-12-09 | 国网天津市电力公司 | 一种基于细粒度主题建模的数据到文本生成方法 |
CN112052687B (zh) * | 2020-09-02 | 2023-11-21 | 厦门市美亚柏科信息股份有限公司 | 基于深度可分离卷积的语义特征处理方法、装置及介质 |
CN112232089B (zh) * | 2020-12-15 | 2021-04-06 | 北京百度网讯科技有限公司 | 语义表示模型的预训练方法、设备和存储介质 |
CN112686050B (zh) * | 2020-12-27 | 2023-12-05 | 北京明朝万达科技股份有限公司 | 基于潜在语义索引的上网行为分析方法、系统和介质 |
CN112800183B (zh) * | 2021-02-25 | 2023-09-26 | 国网河北省电力有限公司电力科学研究院 | 内容名称数据处理方法及终端设备 |
CN113110843B (zh) * | 2021-03-05 | 2023-04-11 | 卓尔智联(武汉)研究院有限公司 | 合约生成模型训练方法、合约生成方法及电子设备 |
CN113033150A (zh) * | 2021-03-18 | 2021-06-25 | 深圳市元征科技股份有限公司 | 一种程序文本的编码处理方法、装置以及存储介质 |
CN115713079A (zh) * | 2021-08-18 | 2023-02-24 | 北京京东方技术开发有限公司 | 用于自然语言处理、训练自然语言处理模型的方法及设备 |
CN115146488B (zh) * | 2022-09-05 | 2022-11-22 | 山东鼹鼠人才知果数据科技有限公司 | 基于大数据的可变业务流程智能建模系统及其方法 |
CN116663568B (zh) * | 2023-07-31 | 2023-11-17 | 腾云创威信息科技(威海)有限公司 | 基于优先级的关键任务识别系统及其方法 |
CN117574922A (zh) * | 2023-11-29 | 2024-02-20 | 西南石油大学 | 一种基于多通道模型的口语理解联合方法及口语理解系统 |
CN117521652B (zh) * | 2024-01-05 | 2024-04-12 | 一站发展(北京)云计算科技有限公司 | 基于自然语言模型的智能匹配系统及方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106980683A (zh) * | 2017-03-30 | 2017-07-25 | 中国科学技术大学苏州研究院 | 基于深度学习的博客文本摘要生成方法 |
CN107169035A (zh) * | 2017-04-19 | 2017-09-15 | 华南理工大学 | 一种混合长短期记忆网络和卷积神经网络的文本分类方法 |
US20180138404A1 (en) * | 2007-04-05 | 2018-05-17 | Ovonyx Memory Technology, Llc | Methods of operating memory devices and electronic systems |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101727500A (zh) * | 2010-01-15 | 2010-06-09 | 清华大学 | 一种基于流聚类的中文网页文本分类方法 |
US9836671B2 (en) * | 2015-08-28 | 2017-12-05 | Microsoft Technology Licensing, Llc | Discovery of semantic similarities between images and text |
US10445356B1 (en) * | 2016-06-24 | 2019-10-15 | Pulselight Holdings, Inc. | Method and system for analyzing entities |
CN106407903A (zh) * | 2016-08-31 | 2017-02-15 | 四川瞳知科技有限公司 | 基于多尺度卷积神经网络的实时人体异常行为识别方法 |
CN106547885B (zh) * | 2016-10-27 | 2020-04-10 | 桂林电子科技大学 | 一种文本分类系统及方法 |
US10643120B2 (en) * | 2016-11-15 | 2020-05-05 | International Business Machines Corporation | Joint learning of local and global features for entity linking via neural networks |
CN107239824A (zh) * | 2016-12-05 | 2017-10-10 | 北京深鉴智能科技有限公司 | 用于实现稀疏卷积神经网络加速器的装置和方法 |
US20180260414A1 (en) * | 2017-03-10 | 2018-09-13 | Xerox Corporation | Query expansion learning with recurrent networks |
CN107229684B (zh) * | 2017-05-11 | 2021-05-18 | 合肥美的智能科技有限公司 | 语句分类方法、系统、电子设备、冰箱及存储介质 |
US9959272B1 (en) * | 2017-07-21 | 2018-05-01 | Memsource a.s. | Automatic classification and translation of written segments |
-
2017
- 2017-10-27 CN CN201711056845.2A patent/CN110019793A/zh active Pending
-
2018
- 2018-08-24 TW TW107129571A patent/TW201917602A/zh unknown
- 2018-10-24 JP JP2020520227A patent/JP2021501390A/ja active Pending
- 2018-10-24 US US16/754,832 patent/US20200250379A1/en not_active Abandoned
- 2018-10-24 WO PCT/CN2018/111628 patent/WO2019080864A1/zh active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180138404A1 (en) * | 2007-04-05 | 2018-05-17 | Ovonyx Memory Technology, Llc | Methods of operating memory devices and electronic systems |
CN106980683A (zh) * | 2017-03-30 | 2017-07-25 | 中国科学技术大学苏州研究院 | 基于深度学习的博客文本摘要生成方法 |
CN107169035A (zh) * | 2017-04-19 | 2017-09-15 | 华南理工大学 | 一种混合长短期记忆网络和卷积神经网络的文本分类方法 |
Non-Patent Citations (2)
Title |
---|
LAI SIWEI 外3名: "Recurrent Convolutional Neural Network for Text Classification", PROCEEDINGS OF THE TWENTY-NINTH AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE, JPN6022042500, 19 February 2015 (2015-02-19), pages 2267 - 2273, ISSN: 0005052049 * |
WEN YING 外3名, LEARNING TEXT REPRESENTATION USING RECURRENT CONVOLUTIONAL NEURAL NETWORK WITH HIGYWAY LAYERS, JPN6022042501, 2 August 2016 (2016-08-02), ISSN: 0004893197 * |
Also Published As
Publication number | Publication date |
---|---|
CN110019793A (zh) | 2019-07-16 |
US20200250379A1 (en) | 2020-08-06 |
TW201917602A (zh) | 2019-05-01 |
WO2019080864A1 (zh) | 2019-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021501390A (ja) | テキスト意味論的コード化の方法および装置 | |
CN108334487B (zh) | 缺失语意信息补全方法、装置、计算机设备和存储介质 | |
US10650311B2 (en) | Suggesting resources using context hashing | |
AU2021201242B2 (en) | Quasi-recurrent neural network | |
CA3050334C (en) | Attention-based sequence transduction neural networks | |
KR102458808B1 (ko) | 신경망을 이용한 텍스트 시퀀스 처리 | |
CN107273503B (zh) | 用于生成同语言平行文本的方法和装置 | |
CN108419094B (zh) | 视频处理方法、视频检索方法、装置、介质及服务器 | |
CN112860866B (zh) | 语义检索方法、装置、设备以及存储介质 | |
US20230244704A1 (en) | Sequenced data processing method and device, and text processing method and device | |
CN109740158B (zh) | 一种文本语义解析方法及装置 | |
CN110610234A (zh) | 将外部应用程序集成到深度神经网络中 | |
JP2022507189A (ja) | 言語処理のためのリカレントニューラルネットワークにおける隠れ状態の生成方法及び装置 | |
CN114021570A (zh) | 实体消歧方法、装置、设备及存储介质 | |
CN116821299A (zh) | 智能问答方法、智能问答装置、设备及存储介质 | |
CN110222144B (zh) | 文本内容提取方法、装置、电子设备及存储介质 | |
Noshin Jahan et al. | Bangla real-word error detection and correction using bidirectional lstm and bigram hybrid model | |
CN112989829B (zh) | 一种命名实体识别方法、装置、设备及存储介质 | |
CN109657071B (zh) | 词汇预测方法、装置、设备和计算机可读存储介质 | |
CN111538803A (zh) | 待匹配的候选提问文本获取方法及装置、设备及介质 | |
Rafat et al. | Vector representation of bengali word using various word embedding model | |
CN114936326A (zh) | 基于人工智能的信息推荐方法、装置、设备及存储介质 | |
CN114970666A (zh) | 一种口语处理方法、装置、电子设备及存储介质 | |
CN111967253A (zh) | 一种实体消歧方法、装置、计算机设备及存储介质 | |
CN112860919B (zh) | 基于生成模型的数据标注方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210928 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221011 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230509 |