JP7073740B2 - 言語処理装置、言語処理方法及びプログラム - Google Patents
言語処理装置、言語処理方法及びプログラム Download PDFInfo
- Publication number
- JP7073740B2 JP7073740B2 JP2018009933A JP2018009933A JP7073740B2 JP 7073740 B2 JP7073740 B2 JP 7073740B2 JP 2018009933 A JP2018009933 A JP 2018009933A JP 2018009933 A JP2018009933 A JP 2018009933A JP 7073740 B2 JP7073740 B2 JP 7073740B2
- Authority
- JP
- Japan
- Prior art keywords
- word
- vector
- word vector
- language processing
- dictionary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
文言を入力する文言入力部と、
第1単語と、前記第1単語を識別する第1識別番号とを対応させた第1辞書を入力する第1辞書入力部と、
前記第1識別番号に対応させて、前記第1単語をベクトル表現した第1単語ベクトルを入力する第1単語ベクトル入力部と、
第2単語と、前記第2単語を識別する第2識別番号とを対応させた第2辞書を入力する第2辞書入力部と、
前記第2識別番号に対応させて、前記第2単語をベクトル表現した第2単語ベクトルを入力する第2単語ベクトル入力部と、
前記文言に対応する前記第1単語ベクトルと、前記文言に対応する前記第2単語ベクトルとに基づいて第1相違度を計算する計算部と、
前記第1相違度に基づいて、前記第1単語ベクトル及び前記第2単語ベクトルのうち、少なくともいずれか一方を訂正する単語ベクトル訂正部と
を備えることを特徴とする。
ベクトルは、例えば、単語ベクトル等である。また、単語ベクトルは、自然言語処理等で用いられ、単語をベクトル表現したものである。なお、単語ベクトルは、単語を分散表現又は埋め込み表現したデータと呼ばれる場合もある。
図1は、第1実施形態に係る言語処理装置の全体構成例を示す機能ブロック図である。例えば、言語処理装置10は、図示するように、文言入力部10F1、第1辞書入力部10F2、第1単語ベクトル入力部10F3、第2辞書入力部10F4及び第2単語ベクトル入力部10F5を備える機能構成である。さらに、言語処理装置10は、図示するように、計算部10F6及び単語ベクトル訂正部10F7を備える機能構成である。
図2は、本実施形態に係る言語処理装置のハードウェア構成例を示すブロック図である。例えば、言語処理装置10は、図示するようなハードウェア構成である。すなわち、言語処理装置10は、いわゆるPC(Personal Computer)等である情報処理装置である。具体的には、図示するように、言語処理装置10は、CPU10H1、記憶装置10H2、入力装置10H3、出力装置10H4及びインタフェース10H5等を有するハードウェア構成である。
図3は、第1実施形態に係る言語処理装置による全体処理例を示すフローチャートである。まず、言語処理装置は、図示するステップS101乃至ステップS104を行うことで、第1辞書DI1、第1単語ベクトルデータDV1、第2辞書DI2及び第2単語ベクトルデータDV2等といったデータを入力する。
ステップS101では、言語処理装置は、第1辞書DI1を入力する。例えば、第1辞書DI1は、以下のようなデータである。
ステップS102では、言語処理装置は、第1単語ベクトルデータDV1を入力する。例えば、第1単語ベクトルデータDV1は、以下のようなデータである。
ステップS103では、言語処理装置は、第2辞書DI2を入力する。第2辞書DI2は、第1辞書DI1とは別個に用意される辞書である。例えば、第2辞書DI2は、以下のようなデータである。
ステップS104では、言語処理装置は、第2単語ベクトルデータDV2を入力する。例えば、第2単語ベクトルデータDV2は、以下のようなデータである。
ステップS105では、言語処理装置は、文言を入力する。以下、単語を含む文章等を「文言」という。文言は、例えば、テキストデータ又はユーザの操作等によって入力される。
ステップS106では、言語処理装置は、文言に含まれる単語を取り出す。例えば、言語処理装置は、以下のように処理を行う。
ステップS107では、言語処理装置は、単語に対応する第1識別番号を取得する。「B」という単語100の例では、言語処理装置は、第1辞書DI1において「B」という単語100には「2」という第1識別番号が対応するため、「2」という第1識別番号を取得する。
ステップS108では、言語処理装置は、第1識別番号に対応する第1単語ベクトルを取得する。「B」という単語100の例では、単語100の第1識別番号として、ステップS107で第1識別番号が「2」が取得されているため、第1単語ベクトルデータDV1において第1識別番号「2」に対応する「(0.4,0.3,0.1)」という第1単語ベクトルが取得される。
V(N)= V(2) = (0.4,0.3,0.1)・・・(10)式
以下、第2単語ベクトルを「U」で示し、第2識別番号を「M」で示す。したがって、この例における第2識別番号が「1」の場合(M=1)には、「B」という単語100に対する例は、下記(11)式のように示せる。
U(M)= U(1) = (0.8,0.5,0.2)・・・(11)式
<内積値の計算例>(ステップS109)
ステップS109では、言語処理装置は、内積値を計算する。内積値「Q」は、第2識別番号ごとに、例えば、下記(12)式のように第1単語ベクトル及び第2単語ベクトルに基づいて計算される。
Q(N,M)= V(N)*U(M)・・・(12)式
以下に説明する例では、上記(12)式で計算される内積値は、近い単語同士ほど、大きな値となる。
ステップS110では、言語処理装置は、確率値を計算する。確率値「P」は、例えば、下記(13)式のように計算される。
P(N,M)=exp(Q(N,M))/Σexp(Q(N,m))・・・(13)式
なお、上記(13)式では、「exp」は、指数関数を示す。また、上記(13)式では、「Σ」は、すべての第2識別番号「m=1、2、3・・・」に関する総和を示す。
ステップS111では、言語処理装置は、近傍にある単語を出力する。
ステップS112では、言語処理装置は、第1相違度を計算する。例えば、第1相違度「E」は、下記(14)式のように計算される。
E=-log P(N,MC)・・・(14)式
なお、上記(14)式では、「MC」は、ステップS111で出力される第2識別番号である。したがって、上記(14)式に基づいて、第1相違度「E」は、ステップS111で第2識別番号が出力されるごとに計算される。
ステップS113では、言語処理装置は、第2識別番号を取り出す。具体的には、第2単語ベクトルデータDV2に含まれる第2識別番号のうち、言語処理装置は、番号順に第2識別番号「M」を取り出す。
ステップS114では、言語処理装置は、第2単語ベクトルを訂正する。なお、訂正対象となる第2単語ベクトルは、第2単語ベクトルデータDV2に含まれる第2単語ベクトルのうち、ステップS113で取り出された第2識別番号「M」に対応する第2単語ベクトルである。
訂正後 第2単語ベクトル U(M)
=訂正前 第2単語ベクトル U(M)-η(P(N,M)-T(M,MC))V(N)・・・(15)式
上記(15)式における「η」は、学習率である。すなわち、「η」は、あらかじめ設定される値である。例えば、「η」は、「0.01」等が設定される。「η」は、1度に訂正される値の大きさを示す。
ステップS115では、言語処理装置は、第2識別番号が第2単語ベクトルデータにおける最後であるか否かを判断する。すなわち、ステップS113及びステップS114は、第2単語ベクトルデータDV2に含まれる第2単語ベクトルの数分、繰り返し行われる。したがって、第2単語ベクトルデータDV2に含まれる全ての第2単語ベクトル「U(m)」(m=1、2、3・・・)が訂正される。
ステップS116では、言語処理装置は、第1単語ベクトルを訂正する。なお、訂正対象となる第1単語ベクトルは、第1単語ベクトルデータDV1に含まれる第1単語ベクトルのうち、単語100に対応する第1単語ベクトルである。
訂正後 第1単語ベクトル V(N)
=訂正前 第1単語ベクトル V(N)-ηΣ(P(N,m)-T(m,MC))U(m)・・・(16)式
上記(16)式における「η」は、学習率である。すなわち、「η」は、あらかじめ設定される値である。「η」は、1度に訂正される値の大きさを示す。なお、「η」は、第2単語ベクトルを訂正ための上記(15)式における「η」とは、値が異なってもよい。また、上記(16)式では、「Σ」は、すべての第2識別番号「m=1、2、3・・・」に関する総和を示す。
ステップS117では、言語処理装置は、処理対象とした単語が文言における最後であるか否かを判断する。すなわち、ステップS106乃至ステップS116は、文言DC1に含まれる単語の数分、繰り返し行われる。
自然言語処理等では、コーパス(corpus)を用いてドメイン適応等が行われる。このような場合には、コーパスにおける単語の種類数は、ドメインにおける単語の種類数と比較すると、多くなる場合が多い。
例えば、第2実施形態における言語処理装置は、第1実施形態と同様のハードウェア構成の装置等によって実現される。以下、第1実施形態と異なる点を中心に説明し、重複する説明を省略する。
図10は、第2実施形態に係る言語処理装置の全体構成例を示す機能ブロック図である。例えば、言語処理装置10は、図示するように、文言入力部10F1、パラメータ設定部10F22、第3単語ベクトル入力部10F23、第1判定結果データ入力部10F24、判定部10F25及びパラメータ訂正部10F26を備える機能構成である。
図11は、第2実施形態に係る言語処理装置による全体処理例を示すフローチャートである。
ステップS201では、言語処理装置は、パラメータを設定する。以下の説明では、パラメータPARを「W」及び「b」で示す。以下、「W」を「係数ベクトル」という。また、「b」を「切片」という。パラメータは、例えば、以下のようなデータとなる。
ステップS202では、言語処理装置は、第3単語ベクトルデータを入力する。例えば、第3単語ベクトルは、以下に示す第3単語ベクトルデータDV3のように、単語と対応させて入力される。
ステップS203では、言語処理装置は、文言を入力する。以下、第1実施形態と同様に、単語を含む文章等を「文言」という。文言は、例えば、テキストデータ又はユーザの操作等によって入力される。
ステップS204では、言語処理装置は、文言に含まれる単語を取り出す。例えば、言語処理装置は、第1実施形態と同様に、文言に含まれる単語を取り出す。以下、文言から「A」、「C」、「E」という単語が順に取り出される例で説明する。
ステップS205では、言語処理装置は、第1判定結果データを入力する。例えば、第1判定結果データDJ1は、以下のようなデータである。
ステップS206では、言語処理装置は、パラメータに基づいて単語を判定して第2判定結果データを生成する。以下、ステップS204で取り出される単語の単語ベクトルを「x」とする。なお、「x」は、第3単語ベクトルデータDV3で定まる。具体的には、「A」という単語は、「x」=「(0.1,0.5,0.2)」となる。
y=Wx-b・・・(20)式
そして、上記(20)式で計算される「y」が、「y≧0」であると、「語彙に属する」と判定する。一方で、「y」が、「y<0」であると、「語彙に属さない」と判定する。
ステップS207では、言語処理装置は、第2判定結果データにおける判定結果が正しいか否かを判断する。例えば、判定が正しいか否かは、第1判定結果データDJ1における判定結果と、第2判定結果データDJ2における判定結果とが一致するか否かで判断される。
ステップS208では、言語処理装置は、パラメータを訂正する。例えば、訂正は、下記(21)式及び下記(22)式のように行われる。
訂正後のW=訂正前のW+(t-y)x・・・(21)式
訂正後のb=訂正前のb-(t-y)・・・(22)式
なお、上記(21)式及び上記(22)式における「t」は、第1判定結果データDJ1における「判定結果」の値である。
ステップS209では、言語処理装置は、処理対象とした単語が文言における最後であるか否かを判断する。すなわち、ステップS204乃至ステップS208は、文言に含まれる単語の数分、繰り返し行われる。
文言として訓練データが入力されると、例えば、上記(21)式及び上記(22)式のように、パラメータPARを訂正する学習が行われる。このような学習によって生成されたパラメータPARを用いると、言語処理装置は、文言が語彙に属するか否かを精度良く判定できるようになる。
例えば、第3実施形態における言語処理装置は、第1、2実施形態と同様のハードウェア構成の装置等によって実現される。以下、第1実施形態と異なる点を中心に説明し、重複する説明を省略する。
図16は、第3実施形態に係る言語処理装置の全体構成例を示す機能ブロック図である。例えば、言語処理装置10は、文言入力部10F1、単語列ベクトル入力部10F32、状態ベクトル計算部10F33、第2相違度計算部10F34及び学習データ訂正部10F35を備える機能構成である。
図17は、第3実施形態に係る言語処理装置による全体処理例を示すフローチャートである。
ステップS301では、言語処理装置は、単語列ベクトルを入力する。例えば、言語処理装置は、以下のような単語列ベクトルデータを入力する。
ステップS302では、言語処理装置は、学習データを入力する。例えば、学習データは、以下のようなデータである。
s(c+1)=tanh(W trans(x(c))+Us(c)+trans(b))・・・(30)式
なお、状態ベクトルの初期値、すなわち、状態ベクトルs(1)は、例えば、M次元の零ベクトル等である。また、上記(30)式における「trans」は、転置を示す。さらに、上記(30)式における「tanh」は、双曲線正接関数(hyperbolic tangent)を示す。さらにまた、変数「c」は、「c=1、2、3・・・」となる値であり、単語列における先頭からの単語の順番を示す。以下、同様に記載する。
ステップS303では、言語処理装置は、文言を入力する。以下、第1実施形態と同様に図8に示すような文言DC1が入力される例で説明する。文言DC1は、例えば、テキストデータ又はユーザの操作等によって入力される。
ステップS304では、言語処理装置は、「c=1」及び「L=文言に含まれる単語数+1」とする。なお、「c=1」は、初期値の設定例である。図示するように、変数「c」は、ステップS303で入力される文言の単語数までカウントアップされる値となる。一方で、定数「L」は、変数「c」の上限値を定める値である。
ステップS305では、言語処理装置は、文言から長さが「c」となる単語列を取り出す。
ステップS306では、言語処理装置は、単語列の状態ベクトルを計算及び単語列ベクトルを特定する。
s(2)=tanh(W trans(x(1))+Us(1)+trans(b))・・・(31)式
上記(31)式における「x(1)」は、1番目の単語、すなわち、「B」という単語100の単語ベクトルである。したがって、単語列ベクトルデータDLVに基づいて、「x(1)=(0.4,0.3,0.1)」である。また、上記(31)式における「s(1)」は、状態ベクトルの初期値である。同様に、上記(31)式における「W」、「U」及び「b」は、学習データの初期値である。
s(3)=tanh(W trans(x(2))+Us(2)+trans(b))・・・(32)式
上記(32)式における「x(2)」は、2番目の単語、すなわち、「C」という単語101の単語ベクトルである。したがって、単語列ベクトルデータDLVに基づいて、「x(2)=(0.2,0.1,0.2)」である。また、上記(32)式における「s(2)」は、上記(31)式で計算される状態ベクトル、すなわち、「c」が1つ前の場合において計算された状態ベクトルである。同様に、上記(32)式における「W」、「U」及び「b」は、上記(31)式で計算される状態ベクトル等に基づいて後段のステップS308で訂正された後の学習データである。
ステップS307では、言語処理装置は、単語列の状態ベクトルが計算でき、かつ、単語列ベクトルが特定できたか否かを判断する。すなわち、ステップS306で状態ベクトルが計算でき、かつ、単語列ベクトルデータDLVに単語列Pに対応する単語列ベクトルがあると、言語処理装置は、単語列の状態ベクトルが計算でき、かつ、単語列ベクトルが特定できたと判断する(ステップS307でYES)。一方で、例えば、単語列ベクトルが「N/A」であると、単語列ベクトルが特定できていないと判断する(ステップS307でNO)。
ステップS308では、言語処理装置は、第2相違度を計算する。例えば、第2相違度は、下記(33)式のように計算される。
第2相違度=dist(Pv,Sv)・・・(33)式
上記(33)式における「dist」は、2つのベクトル「Pv」及び「Sv」のユークリッド距離を計算する関数を示す。また、上記(33)式における「Pv」は、ステップS306で特定される単語列ベクトルである。さらに、上記(33)式における「Sv」は、ステップS306で計算される状態ベクトルである。
第2相違度=dist(Pv,tanh(HSv+b2))・・・(34)式
上記(34)式における「H」は、新たに加えるM行 N列の行列である。同様に、「b2」は、新たに加えるN次元のベクトルである。上記(34)式のように計算すると、状態ベクトル「Sv」の次元数「M」と、単語列ベクトルの次元数「N」とが異なっても、第2相違度が計算できる。
ステップS309では、言語処理装置は、第2相違度に基づいて学習データを訂正する。例えば、学習データDLAは、下記(35)式のように訂正される。
訂正後のW=訂正前のW-ηΔW
訂正後のU=訂正前のU-ηΔU
訂正後のb=訂正前のb-ηΔb ・・・(35)式
上記(35)式における「η」は、学習率である。すなわち、「η」は、あらかじめ設定される値である。「η」は、1度に訂正される値の大きさを示す。また、上記(35)式における「ΔW」は、行列「W」の要素w(i,j)で、関数「dist」を(Pv,Sv)において偏微分して求まる係数である。「ΔW」は、解析的に計算される係数でもよいし、又は、要素w(i,j)を微小値dだけ変化させた場合の「dist(Pv,Sv)」の差分でもよい。
ステップS310では、言語処理装置は、「c=c+1」とする。すなわち、言語処理装置は、変数「c」をカウントアップする。
ステップS311では、言語処理装置は、「c<L」であるか否かを判断する。すなわち、ステップS304で設定される定数「L」と、変数「c」とを比較することで、言語処理装置は、ステップS303で入力される文言に含まれる単語についてすべて処理を行うようにループさせる。
以上のような構成であると、言語処理装置は、未知の単語列があっても、状態ベクトルを計算することで学習データを訂正し、学習することができる。そのため、言語処理装置は、未知の単語列をオンラインで精度良くベクトル表現すること等ができる。
なお、上記実施形態において、非線形関数の例として「tanh」を用いる例を説明したが、非線形関数は、「tanh」に限られない。例えば、非線形関数は、シグモイド(sigmoid)関数等でもよい。
10F1 文言入力部
10F2 第1辞書入力部
10F3 第1単語ベクトル入力部
10F4 第2辞書入力部
10F5 第2単語ベクトル入力部
10F6 計算部
10F61 内積値計算部
10F62 確率値計算部
10F63 第1相違度計算部
10F7 単語ベクトル訂正部
DI1 第1辞書
DI2 第2辞書
DV1 第1単語ベクトルデータ
DV2 第2単語ベクトルデータ
DC1 文言
10F22 パラメータ設定部
10F23 第3単語ベクトル入力部
10F24 第1判定結果データ入力部
10F25 判定部
10F26 パラメータ訂正部
PAR パラメータ
DJ1 第1判定結果データ
DJ2 第2判定結果データ
DV3 第3単語ベクトルデータ
20 直線
10F32 単語列ベクトル入力部
10F33 状態ベクトル計算部
10F34 第2相違度計算部
10F35 学習データ訂正部
P 単語列
DLV 単語列ベクトルデータ
DLA 学習データ
Claims (5)
- 文言を入力する文言入力部と、
第1単語と、前記第1単語を識別する第1識別番号とを対応させた第1辞書を入力する第1辞書入力部と、
前記第1識別番号に対応させて、前記第1単語をベクトル表現した第1単語ベクトルを入力する第1単語ベクトル入力部と、
第2単語と、前記第2単語を識別する第2識別番号とを対応させた第2辞書を入力する第2辞書入力部と、
前記第2識別番号に対応させて、前記第2単語をベクトル表現した第2単語ベクトルを入力する第2単語ベクトル入力部と、
前記文言に対応する前記第1単語ベクトルと、前記文言に対応する前記第2単語ベクトルと、の内積値に基づいて、第1相違度を計算する計算部と、
前記第1相違度に基づいて、前記第1単語ベクトルと近傍にある単語の第2単語ベクトルとの内積値が大きく、前記第1単語ベクトルと前記近傍にある単語以外の第2単語ベクトルとの内積値が小さくなるように、前記第1単語ベクトル及び前記第2単語ベクトルのうち、少なくともいずれか一方を訂正する単語ベクトル訂正部と
を備える言語処理装置。 - 文言を入力する文言入力部と、
単語と、前記単語をベクトル表現した単語ベクトルとを対応させた第3単語ベクトルデータを入力する第3単語ベクトル入力部と、
前記文言が前記第3単語ベクトルデータが示す語彙に属するか否かを判定した結果を示す第1判定結果データを入力する第1判定結果データ入力部と、
前記文言が前記語彙に属するか否かをパラメータに基づいて判定した結果を示す第2判定結果データを生成し、前記パラメータは前記判定の基準を特定するためのパラメータである、判定部と、
前記第1判定結果データ及び前記第2判定結果データに基づいて、前記第1判定結果データと前記第2判定結果データとが一致するように、前記パラメータを訂正するパラメータ訂正部と
を備え、
前記パラメータ訂正部で訂正されたパラメータに基づいて、判定された単語を集めた辞書を前記第2辞書とする
請求項1に記載の言語処理装置。 - 前記計算部は、前記第1単語の近くに前記第2単語が現れる確率を推定した値である確率値に基づいて、前記確率値が大きいほど、値が小さくなる前記第1相違度を計算する請求項1に記載の言語処理装置。
- 言語処理装置が行う言語処理方法であって、
言語処理装置が、文言を入力する文言入力手順と、
言語処理装置が、第1単語と、前記第1単語を識別する第1識別番号とを対応させた第1辞書を入力する第1辞書入力手順と、
言語処理装置が、前記第1識別番号に対応させて、前記第1単語をベクトル表現した第1単語ベクトルを入力する第1単語ベクトル入力手順と、
言語処理装置が、第2単語と、前記第2単語を識別する第2識別番号とを対応させた第2辞書を入力する第2辞書入力手順と、
言語処理装置が、前記第2識別番号に対応させて、前記第2単語をベクトル表現した第2単語ベクトルを入力する第2単語ベクトル入力手順と、
言語処理装置が、前記文言に対応する前記第1単語ベクトルと、前記文言に対応する前記第2単語ベクトルと、の内積値に基づいて第1相違度を計算する計算手順と、
言語処理装置が、前記第1相違度に基づいて、前記第1単語ベクトルと近傍にある単語の第2単語ベクトルとの内積値が大きく、前記第1単語ベクトルと前記近傍にある単語以外の第2単語ベクトルとの内積値が小さくなるように、前記第1単語ベクトル及び前記第2単語ベクトルのうち、少なくともいずれか一方を訂正する単語ベクトル訂正手順と
を含む言語処理方法。 - コンピュータに言語処理方法を実行させるためのプログラムであって、
コンピュータが、文言を入力する文言入力手順と、
コンピュータが、第1単語と、前記第1単語を識別する第1識別番号とを対応させた第1辞書を入力する第1辞書入力手順と、
コンピュータが、前記第1識別番号に対応させて、前記第1単語をベクトル表現した第1単語ベクトルを入力する第1単語ベクトル入力手順と、
コンピュータが、第2単語と、前記第2単語を識別する第2識別番号とを対応させた第2辞書を入力する第2辞書入力手順と、
コンピュータが、前記第2識別番号に対応させて、前記第2単語をベクトル表現した第2単語ベクトルを入力する第2単語ベクトル入力手順と、
コンピュータが、前記文言に対応する前記第1単語ベクトルと、前記文言に対応する前記第2単語ベクトルと、の内積値に基づいて第1相違度を計算する計算手順と、
コンピュータが、前記第1相違度に基づいて、前記第1単語ベクトルと近傍にある単語の第2単語ベクトルとの内積値が大きく、前記第1単語ベクトルと前記近傍にある単語以外の第2単語ベクトルとの内積値が小さくなるように、前記第1単語ベクトル及び前記第2単語ベクトルのうち、少なくともいずれか一方を訂正する単語ベクトル訂正手順と
を実行させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018009933A JP7073740B2 (ja) | 2018-01-24 | 2018-01-24 | 言語処理装置、言語処理方法及びプログラム |
JP2022077851A JP2022110062A (ja) | 2018-01-24 | 2022-05-11 | 言語処理装置、言語処理方法及びプログラム |
JP2023183901A JP2023178459A (ja) | 2018-01-24 | 2023-10-26 | 言語処理装置、言語処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018009933A JP7073740B2 (ja) | 2018-01-24 | 2018-01-24 | 言語処理装置、言語処理方法及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022077851A Division JP2022110062A (ja) | 2018-01-24 | 2022-05-11 | 言語処理装置、言語処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019128788A JP2019128788A (ja) | 2019-08-01 |
JP7073740B2 true JP7073740B2 (ja) | 2022-05-24 |
Family
ID=67472248
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018009933A Active JP7073740B2 (ja) | 2018-01-24 | 2018-01-24 | 言語処理装置、言語処理方法及びプログラム |
JP2022077851A Pending JP2022110062A (ja) | 2018-01-24 | 2022-05-11 | 言語処理装置、言語処理方法及びプログラム |
JP2023183901A Pending JP2023178459A (ja) | 2018-01-24 | 2023-10-26 | 言語処理装置、言語処理方法及びプログラム |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022077851A Pending JP2022110062A (ja) | 2018-01-24 | 2022-05-11 | 言語処理装置、言語処理方法及びプログラム |
JP2023183901A Pending JP2023178459A (ja) | 2018-01-24 | 2023-10-26 | 言語処理装置、言語処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (3) | JP7073740B2 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001243230A (ja) | 2000-02-25 | 2001-09-07 | Nippon Telegr & Teleph Corp <Ntt> | 類似性判別方法 |
JP2001306612A (ja) | 2000-04-26 | 2001-11-02 | Sharp Corp | 情報提供装置、情報提供方法およびその方法を実現するプログラムを記録した機械読取可能な記録媒体 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5404575B2 (ja) * | 2010-10-04 | 2014-02-05 | 日本電信電話株式会社 | 経験要因関係分析装置及び方法及びプログラム |
-
2018
- 2018-01-24 JP JP2018009933A patent/JP7073740B2/ja active Active
-
2022
- 2022-05-11 JP JP2022077851A patent/JP2022110062A/ja active Pending
-
2023
- 2023-10-26 JP JP2023183901A patent/JP2023178459A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001243230A (ja) | 2000-02-25 | 2001-09-07 | Nippon Telegr & Teleph Corp <Ntt> | 類似性判別方法 |
JP2001306612A (ja) | 2000-04-26 | 2001-11-02 | Sharp Corp | 情報提供装置、情報提供方法およびその方法を実現するプログラムを記録した機械読取可能な記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP2022110062A (ja) | 2022-07-28 |
JP2023178459A (ja) | 2023-12-14 |
JP2019128788A (ja) | 2019-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yao et al. | Deep discriminative CNN with temporal ensembling for ambiguously-labeled image classification | |
CN111783474B (zh) | 一种评论文本观点信息处理方法、装置及存储介质 | |
US11010554B2 (en) | Method and device for identifying specific text information | |
CN110633577B (zh) | 文本脱敏方法以及装置 | |
CN104933158B (zh) | 数学问题求解模型的训练方法和装置、推理方法和装置 | |
JP2020061173A (ja) | 回答学習装置、回答学習方法、回答生成装置、回答生成方法、及びプログラム | |
JP6892606B2 (ja) | 位置特定装置、位置特定方法及びコンピュータプログラム | |
CN109977203B (zh) | 语句相似度确定方法、装置、电子设备及可读存储介质 | |
CN109033085B (zh) | 中文分词系统及中文文本的分词方法 | |
CN111223476B (zh) | 语音特征向量的提取方法、装置、计算机设备和存储介质 | |
CN113128203A (zh) | 基于注意力机制的关系抽取方法、系统、设备及存储介质 | |
CN116432655B (zh) | 基于语用知识学习的少样本命名实体识别方法和装置 | |
CN113449084A (zh) | 基于图卷积的关系抽取方法 | |
WO2019160096A1 (ja) | 関係性推定モデル学習装置、方法、及びプログラム | |
CN116663525A (zh) | 一种文档审核方法、装置、设备及存储介质 | |
CN112765357A (zh) | 文本分类方法、装置和电子设备 | |
CN110968725A (zh) | 图像内容描述信息生成方法、电子设备及存储介质 | |
CN113657098A (zh) | 文本纠错方法、装置、设备及存储介质 | |
CN114722958A (zh) | 网络训练及目标检测方法、装置、电子设备和存储介质 | |
CN110795942B (zh) | 基于语义识别的关键词确定方法、装置和存储介质 | |
CN111373391A (zh) | 语言处理装置、语言处理系统和语言处理方法 | |
CN114139537A (zh) | 词向量的生成方法及装置 | |
CN117473093A (zh) | 一种基于llm模型获取目标事件的数据处理系统 | |
CN113705207A (zh) | 语法错误识别方法及装置 | |
JP7073740B2 (ja) | 言語処理装置、言語処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201023 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210924 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220412 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220425 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7073740 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |