Patents
Search within the title, abstract, claims, or full patent document: You can restrict your search to a specific field using field names.
Use TI= to search in the title, AB= for the abstract, CL= for the claims, or TAC= for all three. For example, TI=(safety belt).
Search by Cooperative Patent Classifications (CPCs): These are commonly used to represent ideas in place of keywords, and can also be entered in a search term box. If you're searching forseat belts, you could also search for B60R22/00 to retrieve documents that mention safety belts or body harnesses. CPC=B60R22 will match documents with exactly this CPC, CPC=B60R22/low matches documents with this CPC or a child classification of this CPC.
Learn MoreKeywords and boolean syntax (USPTO or EPO format): seat belt searches these two words, or their plurals and close synonyms. "seat belt" searches this exact phrase, in order. -seat -belt searches for documents not containing either word.
For searches using boolean logic, the default operator is AND with left associativity. Note: this means safety OR seat belt is searched as (safety OR seat) AND belt. Each word automatically includes plurals and close synonyms. Adjacent words that are implicitly ANDed together, such as (safety belt), are treated as a phrase when generating synonyms.
Learn MoreChemistry searches match terms (trade names, IUPAC names, etc. extracted from the entire document, and processed from .MOL files.)
Substructure (use SSS=) and similarity (use ~) searches are limited to one per search at the top-level AND condition. Exact searches can be used multiple times throughout the search query.
Searching by SMILES or InChi key requires no special syntax. To search by SMARTS, use SMARTS=.
To search for multiple molecules, select "Batch" in the "Type" menu. Enter multiple molecules separated by whitespace or by comma.
Learn MoreSearch specific patents by importing a CSV or list of patent publication or application numbers.
言語モデル生成装置、方法及びプログラム
Description
translated from
潜在語言語モデルにおける潜在変数の遷移確率モデルを通常のN-gram言語モデルではなく、リカレントニューラルネットワーク言語モデルでモデル化する。具体的には遷移確率モデルがN-gramモデルである通常の潜在語言語モデルを学習する際に、予測される潜在語系列を利用してリカレントニューラルネットワーク言語モデルを構築し、それを遷移確率モデルに採用する。このとき、出力確率モデルは元の潜在語言語モデルのものを利用する。なお、このように構築するモデルを潜在語リカレントニューラルネットワーク(Latent Words Recurrent Neural Network)言語モデルと呼ぶことにする。
潜在語リカレントニューラルネットワーク言語モデルを構築するための言語モデル生成装置及び方法の実施形態の例について述べる。
入力:単語区切りがわかるテキストデータ
出力:潜在語言語モデルについての情報、学習データの潜在語系列
潜在語言語モデル学習部1は、単語区切りがわかるテキストデータを学習データとして、潜在語言語モデルを学習する(ステップS1)。具体的な学習方法については、例えば非特許文献2に記載された既存の潜在語言語モデルの学習方法を用いればよい。
入力:学習データの潜在語系列
出力:潜在語についてのリカレントニューラルネットワーク
リカレントニューラルネットワーク学習部2は、潜在語言語モデル学習部1の出力として得られた、学習データの潜在語系列からリカレントニューラルネットワークを学習する(ステップS2)。通常は、観測単語系列から学習するリカレントニューラルネットワークをここでは、学習データの潜在語系列から学習することになる。学習方法自体は、観測単語系列を扱う場合とは変わらない。すなわち、例えば非特許文献4に記載されている、観測単語系列からリカレントニューラルネットワークを学習する方法を、観測単語系列に代えて学習データの潜在語系列に対して適用することにより、リカレントニューラルネットワークを学習することができる。
入力:潜在語言語モデル、潜在語についてのリカレントニューラルネットワーク
出力:潜在語リカレントニューラルネットワーク言語モデル
潜在語リカレントニューラルネットワーク言語モデル構成部3は、潜在語言語モデルと、潜在語についてのリカレントニューラルネットワークとから潜在語リカレントニューラルネットワーク言語モデルを構成する(ステップS3)。具体的には、潜在語言語モデルにおけるP(wi|hi,θLWLM)のパラメータと、潜在語についてのリカレントニューラルネットワークにおけるP(hi|hi-1,si-1,θLWRNNLM)のパラメータとを取り出し、取り出したパラメータをペアとした確率モデルを構成する。Jは、hi(i=1,2,…,L)の取り得る値の集合である。
潜在語リカレントニューラルネットワーク言語モデルに基づいて、N-gram言語モデルに近似により生成してもよい。これにより、音声認識や機械翻訳で利用しやすいモデルの形にすることができる。N-gram言語モデルの形は、音声認識や機械翻訳で高速に動作させる形態が整っており、実用に優れる。
入力:潜在語リカレントニューラルネットワーク言語モデル
出力:疑似学習テキスト
疑似学習テキスト生成部4は、潜在語リカレントニューラルネットワーク言語モデル構成部3が構築した潜在語リカレントニューラルネットワーク言語モデルから疑似学習テキストを生成する。ここでは、疑似学習テキスト「w1・w2・…・wM」というM個の単語を生成することを目的とする。基本的に、最初に潜在語系列「h1・h2・…・hM」を最初に生成し、そこから疑似学習テキストを生成することとなる。潜在語系列の生成には、P(hi|hi-1,si-1,θLWRNNLM)のパラメータを利用する。潜在語からの単語を生成する際は、P(wi|hi,θLWLM)のパラメータを利用する。
入力:確率分布(多項分布)
出力:確率分布の実現値
SampleOneアルゴリズムは、確率分布からランダムに1個の値を決定するためのアルゴリズムである。具体的に説明するために、前述の例であるP(h1)が入力である場合を扱う。
rand-P(h1=t1)>0
rand-P(h1=t1)-P(h1=t2)<0
であれば、t2を出力する。SampleOneアルゴリズムは、任意の多項分布からのデータサンプルアルゴリズムと言える。
入力:疑似学習テキスト
出力:潜在語リカレントニューラルネットワーク的N-gram言語モデル
N-gram言語モデル生成部5は、学習テキスト中の全てのN個組みの単語の組み合わせの頻度を数え、N-gram言語モデルとし、潜在語リカレントニューラルネットワーク的N-gram言語モデルを構成する。
言語モデル生成装置及び方法において説明した処理は、記載の順にしたがって時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。
2 リカレントニューラルネットワーク学習部
3 潜在語リカレントニューラルネットワーク言語モデル構成部
4 疑似学習テキスト生成部
5 言語モデル生成部
Claims (4)
Hide Dependent
translated from
- w1,w2,…,wLをテキストデータを構成する各単語とし、h1,h2,…,hLをそれぞれw1,w2,…,wLの潜在語とし、θLWLMを潜在語言語モデルのモデルパラメータとし、Nを所定の正の整数として、上記テキストデータを用いて潜在語言語モデル学習を行い、h1,h2,…,hLと、確率分布P(hi|hi-N+1,…,hi-1,θLWLM)と、確率分布P(wi|hi,θLWLM)とを生成する潜在語言語モデル学習部と、
si-1をhiの直前のネットワーク中の中間層の出力とし、θLWRNNLMをリカレントニューラルネットワークのモデルパラメータとして、h1,h2,…,hLを用いてリカレントニューラルネットワーク学習を行い、確率分布P(hi|hi-1,si-1,θLWRNNLM)を生成するリカレントニューラルネットワーク学習部と、
確率分布P(wi|hi,θLWLM)と確率分布P(hi|hi-1,si-1,θLWRNNLM)との乗算を用いて任意の単語列が出現する確率を計算するための言語モデルを構成する潜在語リカレントニューラルネットワーク言語モデル構成部と、
を含む言語モデル生成装置。 - 請求項1の言語モデル生成装置において、
上記構成された言語モデルに基づいて、疑似学習テキストを生成する疑似学習テキスト生成部と、
上記疑似学習テキストに基づいて、N-gram言語モデルを生成するN-gram言語モデル生成部と、
を更に含む言語モデル生成装置。 - 潜在語言語モデル学習部が、w1,w2,…,wLをテキストデータを構成する各単語とし、h1,h2,…,hLをそれぞれw1,w2,…,wLの潜在語とし、θLWLMを潜在語言語モデルのモデルパラメータとし、Nを所定の正の整数として、上記テキストデータを用いて潜在語言語モデル学習を行い、h1,h2,…,hLと、確率分布P(hi|hi-N+1,…,hi-1,θLWLM)と、確率分布P(wi|hi,θLWLM)とを生成する潜在語言語モデル学習ステップと、
リカレントニューラルネットワーク学習部が、si-1をhiの直前のネットワーク中の中間層の出力とし、θLWRNNLMをリカレントニューラルネットワークのモデルパラメータとして、h1,h2,…,hLを用いてリカレントニューラルネットワーク学習を行い、確率分布P(hi|hi-1,si-1,θLWRNNLM)を生成するリカレントニューラルネットワーク学習ステップと、
潜在語リカレントニューラルネットワーク言語モデル構成部が、確率分布P(wi|hi,θLWLM)と確率分布P(hi|hi-1,si-1,θLWRNNLM)との乗算を用いて任意の単語列が出現する確率を計算するための言語モデルを構成する潜在語リカレントニューラルネットワーク言語モデル構成ステップと、
を含む言語モデル生成方法。 - 請求項1又は2の言語モデル生成装置の各部としてコンピュータを機能させるためのプログラム。