JP6701479B2 - 校正支援装置、および校正支援プログラム - Google Patents
校正支援装置、および校正支援プログラム Download PDFInfo
- Publication number
- JP6701479B2 JP6701479B2 JP2018211019A JP2018211019A JP6701479B2 JP 6701479 B2 JP6701479 B2 JP 6701479B2 JP 2018211019 A JP2018211019 A JP 2018211019A JP 2018211019 A JP2018211019 A JP 2018211019A JP 6701479 B2 JP6701479 B2 JP 6701479B2
- Authority
- JP
- Japan
- Prior art keywords
- term
- data
- word
- vector
- words
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Machine Translation (AREA)
Description
1.校正支援装置は、単語集に関するデータであって該単語集に含まれるそれぞれの単語に対応する単語ベクトルデータを規定するためのデータである単語特定データと、前記単語集に含まれる単語の一部によって構成されて且つ検査対象とされる用語である対象用語を規定するデータである検査対象データと、前記対象用語以前および以後に登場する単語に応じたデータを入力として前記対象用語が適切である可能性の大小を表現するスコアを出力する出力写像を規定するデータである出力写像データと、が記憶された記憶装置と、入力された文の中から前記対象用語を抽出し、当該抽出した対象用語である抽出用語以前に登場する1または複数の単語に関する前記単語特定データに応じた前記単語ベクトルデータと、該抽出用語以降に登場する1または複数の単語のそれぞれに関する前記単語特定データに応じた前記単語ベクトルデータとを用いて前記出力写像の入力ベクトルデータを生成し、該入力ベクトルデータと前記出力写像データとに基づき、前記スコアを算出する算出処理と、前記スコアに基づき、前記抽出用語の適切性の判定結果を通知する通知処理と、を実行する処理回路と、を備える。
7.上記1〜6のいずれか1つに記載の校正支援装置において、前記処理回路は、前記通知処理に対し、前記抽出用語の適切性の判定結果に対する修正要求を受け付ける受付処理と、前記修正要求を受け付けた場合、修正対象となった文書を前記記憶装置に記憶させる記憶処理と、を実行する。
上記構成では、単語ベクトルデータの次元が、単語集に規定されている単語数よりも小さいため、単語数と同一の次元の場合と比較すると、出力写像のパラメータ数を低減することができ、ひいては、十分な学習がなされるうえで要求される学習データ数を軽減することができる。
13.上記1〜12のいずれか1つに記載の前記各処理をコンピュータによって実行させる校正支援プログラム。
以下、校正支援装置にかかる第1の実施形態について図面を参照しつつ説明する。なお、以下では、「ベクトル」を、列ベクトルとし、図7においては、スペースの都合上、行ベクトルを記載する場合には、転置記号を表記しているが、本明細書では、便宜上、行ベクトルを転置記号なしで用いる。また、本明細書では、n行m列の行列を、行列aij(i=1〜n,j=1〜m)と記載し、また、その行列の成分について、成分aijと記載し、いずれを示しているかを、記号の前に付与された単語が「行列」であるか「成分」であるかによって指定する。
サーバ側装置40は、CPU42、記憶装置44および通信機46を備えており、それらがネットワーク48を介して互いに接続されている。サーバ側装置40は、通信機46によって外部のネットワーク30を介してクライアント側装置10と通信可能となっている。
図5に、検査対象となる文書が入力されることにより、サーバ側装置40によって実行される処理の手順を示す。図5に示す処理は、CPU42が、前処理プログラム52を実行することにより実現される。
図6に示す一連の処理において、CPU42は、まず記憶装置44にアクセスし、図5のS24の処理によって記憶された単語IDや、S30の処理で記憶された類型wCを取得する(S40)。次にCPU42は、検査対象データ56に基づき、入力された契約文書中の検査対象とする用語である対象用語の1つを抽出し、これを抽出用語とする(S42)。次に、CPU42は、検査対象データ56に基づき、抽出用語が複合語であるか否かを判定する(S44)。そしてCPU42は、複合語であると判定する場合(S44:YES)、抽出用語を構成する最初の単語を抽出用語に代入する(S46)。すなわち、たとえば、抽出用語が「違約金」の場合、「違約」と「金」との複合語であるが、先頭の単語である「違約」を抽出用語であると定義しなおす。
図7に、S52の処理の詳細を示す。
図6に戻り、CPU42は、契約文書中の全対象用語を抽出したか否かを判定する(S54)。そしてCPU42は、未だ全ては抽出していないと判定する場合(S54:NO)、S42の処理に戻る。これに対しCPU42は、全てを抽出したと判定する場合(S54:YES)、抽出用語の正解確率psを、関連用語の正解確率ptαが上回るものがあるか否かを判定する(S56)。この処理は、クライアントに修正の提案をすべき箇所があるか否かを判定する処理である。
ちなみに、出力行列wOijや、L側圧縮行列wLij、R側圧縮行列wRijは、次のようにして学習されたものである。すなわち、学習対象となる契約文書の各単語を抽出用語として、S70〜S78の処理によって出力ベクトルを求めた後、ソフトマックス関数によって、各成分の規格化スコアを算出する。そして、規格化スコアに基づき、ソフトマックスクロスエントロピーを算出し、これを最小化する。ここで、ソフトマックスクロスエントロピーは、規格化スコアC1,…,CVのそれぞれに対するラベル変数l1,…,lVを用いて、−l1・LogC1−…−lV・LogCVとなる。ここで、ラベル変数lp(p=1〜V)は、正解の単語のみ「1」、それ以外が「0」となる。
CPU42は、契約文書が入力されると、契約文書を単語に分解し、対象用語を抽出用語として抽出する。そして、CPU42は、抽出用語w(i)の前のD個の単語と、抽出用語w(i)以後のD個の単語とを入力とし、各単語が抽出用語w(i)として適切である可能性の大小を示すスコアを、出力ベクトルの成分vO1,…,vOVとして算出する。このように、契約文書中の全単語を抽出用語とすることなく、対象用語に限って抽出用語としたため、契約文書の検査に要する演算負荷を軽減できる。
(1)1−of−V符号化処理によって生成されたV次元ベクトルを、それよりも次元数の小さいL側投影ベクトルやR側投影ベクトルに変換し、これに基づき、出力写像の入力を定めた。ここで、S72の処理によって生成されたV次元ベクトルの第x成分が「1」の場合、L側投影ベクトルは、L側圧縮行列wLijの第x列のベクトル(wL1x,…,wLNx)となり、R側ベクトルは、R側圧縮行列wRijの第x列ベクトル(wR1x,…,wRNx)となる。換言すれば、単語IDが「x」の場合、L側投影ベクトルは、L側圧縮行列wLijの第x列のベクトル(wL1x,…,wLNx)となり、R側ベクトルは、R側圧縮行列wRijの第x列ベクトル(wR1x,…,wRNx)となる。L側圧縮ベクトルやR側圧縮ベクトルは、規格化されているわけでもなく、また、互いに異なる単語同士で直交しているわけでもないが、単語の有する情報を低次元に圧縮して表現したベクトルである。このため、1−of−V符号化ベクトルを直接用いて出力写像の入力を定める場合と比較して、出力行列のパラメータ数を低減することができる。すなわち、1−of−V符号化ベクトルを直接用いる場合、出力行列wOijのパラメータ数は、「V×(2V+N)」となる一方、本実施形態では、「V×(3N)」で済む。また、L側圧縮行列wLijおよびR側圧縮行列wRijを含めても、本実施形態のパラメータ数は、「V×(5N)」で済む。このため、学習に利用できるデータ量の割に、出力行列wOijの精度を高めることができる。
以下、第2の実施形態について、第1の実施形態との相違点を中心に図面を参照しつつ説明する。
図8に、上記対象用語の追加にかかる処理の手順を示す。図8に示す処理は、校正支援プログラム50をCPU42が実行することによって実現される。
このように、本実施形態では、クライアントが希望すれば対象用語を追加可能となっている。特に、本実施形態では、出力写像が、全単語のスコアを出力する写像であるため、対象用語の追加によって、出力写像を変更する必要が生じない。さらに、出力行列wOijが、文書中の各単語を教師データとして適合された値であるため、対象用語の追加に伴って、新たな学習をしなくても、追加された対象用語の検査を高精度に実行することができる。
上記実施形態における事項と、上記「課題を解決するための手段」の欄に記載した事項との対応関係は、次の通りである。以下では、「課題を解決するための手段」の欄に記載した解決手段の番号毎に、対応関係を示している。[1]単語ベクトルデータは、S74の処理によって算出されるベクトルデータに対応し、算出処理は、S76〜S78の処理に対応する。通知処理は、S80,S82,S56〜S60の処理に対応する。校正支援装置は、サーバ側装置40に対応し、処理回路は、校正支援プログラムを実行するCPU42に対応する。[2]選択処理は、S80の処理に対応する。[3]喚起処理は、S56〜S60の処理に対応する。[4]代替案通知処理は、S56〜S60の処理に対応する。[5]S44,S46の処理に対応する。[6]登録処理は、S92の処理に対応する。[7]受付処理は、S62の処理に対応し、記憶処理は、S64の処理に対応する。[8]L側ベクトルは、L側合成ベクトル(ALv1,…,ALvN)に対応し、R側ベクトルは、R側合成ベクトル(ARv1,…,ARvN)に対応する。[10]単語ベクトルデータが、S74の処理によって生成されるベクトルデータであることに対応する。L側圧縮算出処理およびR側圧縮算出処理は、S74,S76の処理に対応する。[11]類型入力生成処理は、S78の処理に対応する。[13]コンピュータは、CPU42に対応する。
なお、本実施形態は、以下のように変更して実施することができる。本実施形態および以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
上記実施形態では、類型ベクトルの次元を、L側投影ベクトルやR側投影ベクトルの次元と等しくしたがこれに限らない。たとえば、類型の数の次元を有したベクトルとしてもよく、またたとえば類型の数の次元よりも小さい次元を有したベクトルとしてもよい。さらにスカラー量にて定量化してもよい。なお、スカラー量とする場合、上記実施形態やそれらの変形例における類型ベクトルとの連結を、類型を示すスカラー量(1次元ベクトル)との連結と読み替えるものとする。
上記実施形態では、L側合成ベクトルとR側合成ベクトルとを、ベクトルの平均値としたが、これに限らない。たとえばS76の処理において、「1/D」の因子を削除することによって、単にベクトルの和としてもよい。以下では、ベクトルAとベクトルBとの合成ベクトルを、ベクトルAとベクトルBとの和の定数倍とする。ただし、定数は「0」以外の実数とする。
上記実施形態では、L側合成ベクトルとR側合成ベクトルと類型ベクトルとの連結ベクトルを出力写像の入力としたが、これに限らない。たとえば、類型を参照しないようにしてもよい。これは具体的には、たとえば、以下のようにすればよい。
(b)圧縮写像を、L側とR側との2つとするのではなく、L側の「i−D」の単語用から「i−1」の単語用までのD個の行列と、R側の「i+1」の単語用のものから「i+D」の単語用のものまでのD個の行列との合計2D個の互いに成分が異なりうる圧縮写像を用いて、抽出用語以前および以後の2D個の単語ベクトルを生成する。そしてそれら2D個のN次元ベクトルの連結ベクトルを、出力写像の入力とする。この場合、出力行列wOijは、V行「2DN」列の行列となる。なお、この場合、抽出用語以前のD個の単語に関するL側ベクトルデータは、D個のN次元ベクトルの連結ベクトルとなり、抽出用語以後のD個の単語に関するR側ベクトルデータは、D個のN次元ベクトルの連結ベクトルとなる。
(f)圧縮写像を、L側とR側との2つとするのではなく、L側の「i−D」の単語用から「i−1」の単語用までのD個の行列と、R側の「i+1」の単語用のものから「i+D」の単語用のものまでのD個の行列との合計2D個の互いに成分が異なりうる圧縮写像を用いて、抽出用語以前および以後の2D個の単語ベクトルを生成する。そしてそれら2D個のN次元ベクトルの合成ベクトルを、出力写像の入力とする。この場合、出力行列wOijは、V行N列の行列となる。
(g)L側圧縮写像とR側圧縮写像とを区別せず、V次元ベクトルをN次元ベクトルに圧縮する単一の圧縮写像を用いる。そして、抽出用語以前のD個の単語のV次元ベクトルと抽出用語以後のD個の単語のV次元ベクトルとが上記圧縮する写像によって圧縮された2D個のN次元ベクトルの合成ベクトルを、出力写像の入力とする。この場合、出力行列は、V行N列の行列となる。
上記実施形態では、抽出用語以前の単語および以後の単語であって且つ抽出用語が含まれる文と同一の文中の単語に基づき、出力写像の入力を定めたが、これに限らない。たとえば抽出用語が含まれる文に隣接するいくつかの文中の単語をさらに含めてもよい。
L側圧縮写像データとしては、線形写像に限らない。たとえばL側投影ベクトルの各成分PvL1,…,PvLNのそれぞれを入力とするN個のロジスティックシグモイド関数の出力を最終的な出力とする非線形写像であってもよい。
上記実施形態では、L側圧縮写像データおよびR側圧縮写像データを記憶装置44に記憶したが、これに限らない。たとえば、単語特定データ54によって特定される単語IDのそれぞれと、S74の処理を得て生成されるL側投影ベクトルやR側投影ベクトルとを、紐づけて記憶装置44に記憶しておいてもよい。さらに、単語特定データ54自体を、S74の処理を得て生成されるL側投影ベクトルやR側投影ベクトルとしてもよい。これらの場合には、S72,S74の処理は削除される。なお、圧縮写像によって生成される単語ベクトルを単語IDに紐づけて記憶することなどは、上記「出力写像について」の欄の(a)〜(g)の変形例やそれらの変形例においても可能である。
上記実施形態では、抽出用語が複合語である場合、そのうちの最初の単語を抽出用語とみなし、その次につながる単語については、写像の入力に加えたがこれに限らない。たとえば、抽出用語が複合語である場合において、用語によっては、そのうちの最後の単語等を抽出用語と見なし、それよりも前の単語については、写像の入力に加えてもよい。なお、抽出用語とみなされなかった単語を写像の入力とすること自体必須ではない。
上記実施形態では、抽出用語の前後の互いに等しいD個の単語を、抽出用語の検査のための入力としたが、これに限らず、抽出用語以前と以後とで、入力とする単語の数を異ならせてもよい。この場合、抽出用語以前のD1個の単語と、抽出用語以後のD2個の単語とを入力とすることとなり、上記において、「2D」と記載されている部分は「D1+D2」と読み替えることとする。この際、いずれか一方については、複数でなくてもよい。ただし、その場合、抽出用語が複合語である場合の、抽出用語を構成する単語の一部ではないこととする。
S80の処理においてすべての単語の規格化スコアを算出し、S56の処理に代えて、抽出用語の規格化スコアよりも規格化スコアが大きくなる単語があるか否かを判定する処理を実行してもよい。
上記実施形態では、抽出用語の規格化スコアと関連用語の規格化スコアとを選択的に抽出して大小を比較したが、抽出用語のスコアと関連用語のスコアとの選択的な大小比較としては、これに限らない。たとえば、全単語の規格化スコアを算出するとともに、抽出用語の規格化スコアと関連用語の規格化スコアとのそれぞれに「1」を加算し、規格化スコアのうちの大きいものから選択的に2つを抽出して、正解確率を算出してもよい。
上記実施形態では、抽出用語の正解確率psよりも関連用語の正解確率ptの方が高い場合に、抽出用語が適切ではないかもしれない旨を通知したが、これに限らない。たとえば、抽出用語の正解確率psから関連用語の正解確率ptの最大値を減算した値がゼロよりも大きい所定量以下である場合に、抽出用語が適切ではないかもしれない旨を通知してもよい。
上記実施形態では、抽出用語の正解確率psよりも関連用語の正解確率ptの方が高い場合に、代替案を通知したがこれに限らない。たとえば、抽出用語の正解確率psから関連用語の正解確率ptの最大値を減算した値がゼロよりも大きい所定量以下である場合に、代替案を通知してもよい。また上記実施形態では、関連用語が複数ある場合、関連用語の全てを通知したがこれに限らない。たとえば正解確率が一番大きいもののみを代替案として通知してもよい。
上記実施形態では、学習時には、全単語を順次教師データとして、そのスコアを算出し、スコアに基づくソフトマックスクロスエントロピーを最小化するように、写像データを更新したが、これに限らない。たとえば、ソフトマックスクロスエントロピーに代えて、教師データに対応するスコアと「1」との差と、それ以外のスコアと「0」との差のそれぞれの2乗和を最小とするように、写像データを更新してもよい。またたとえば、全単語を順次教師データとすること自体、必須ではない。
・「校正支援装置について」
上記実施形態では、サーバ側装置40によって校正支援装置を構成したが、これに限らない。たとえば、クライアント側装置10に、校正支援プログラム50や、前処理プログラム52、単語特定データ54および検査対象データ56をインストールし、クライアント側装置10によって校正支援装置を構成してもよい。この場合、写像データの更新がなされる場合、更新データをクライアント側装置10に提供可能としてもよい。
上記実施形態では、記憶装置44に記憶されたプログラムを実行するCPU42によって、処理回路を実現したが、これに限らない。たとえば、S72,S74の処理を、ハードウェア処理する専用のハードウェア回路(たとえばASIC等)を備える等、処理回路は、以下の(a)〜(c)のいずれかの構成であればよい。(a)上記処理の全てを、プログラムに従って実行する処理装置と、プログラムを記憶するプログラム格納装置とを備える。(b)上記処理の一部をプログラムに従って実行する処理装置およびプログラム格納装置と、残りの処理を実行する専用のハードウェア回路とを備える。(c)上記処理の全てを実行する専用のハードウェア回路を備える。ここで、処理装置およびプログラム格納装置を備えたソフトウェア処理回路や、専用のハードウェア回路は複数であってもよい。すなわち、上記処理は、1または複数のソフトウェア処理回路および1または複数の専用のハードウェア回路の少なくとも一方を備えた処理回路によって実行されればよい。
上記実施形態では、中間層が1層のニューラルネットワークの出力がスコアとなるモデルを例示したが、これに限らない。たとえば、中間層が2層以上となるものであってもよい。
Claims (13)
- 単語集に関するデータであって該単語集に含まれるそれぞれの単語に対応する単語ベクトルデータを規定するためのデータである単語特定データと、前記単語集に含まれる単語の一部によって構成されて且つ検査対象とされる用語である対象用語を規定するデータである検査対象データと、前記対象用語以前および以後に登場する単語に応じたデータを入力として前記対象用語が適切である可能性の大小を表現するスコアを出力する出力写像を規定するデータである出力写像データと、が記憶された記憶装置と、
入力された文の中から前記対象用語を抽出し、当該抽出した対象用語である抽出用語以前に登場する1または複数の単語に関する前記単語特定データに応じた前記単語ベクトルデータと、該抽出用語以降に登場する1または複数の単語のそれぞれに関する前記単語特定データに応じた前記単語ベクトルデータとを用いて前記出力写像の入力ベクトルデータを生成し、該入力ベクトルデータと前記出力写像データとに基づき、前記スコアを算出する算出処理と、
前記スコアに基づき、前記抽出用語の適切性の判定結果を通知する通知処理と、を実行する処理回路と、を備える校正支援装置。 - 前記出力写像は、前記単語集に含まれる単語であって前記対象用語を構成する単語よりも多くの単語のそれぞれのスコアを出力するものであり、
前記通知処理は、前記出力されたスコアのうち、前記抽出用語のスコアを選択して評価する選択処理を含む請求項1記載の校正支援装置。 - 前記検査対象データは、前記対象用語のいくつかが互いに関連した関連用語であることを規定するデータである関連規定データを含み、
前記通知処理は、前記抽出用語のスコアと、該抽出用語に関連した前記関連用語のスコアとの選択的な大小比較に基づき、前記抽出用語のスコアに対する前記関連用語のスコアの相対的な大きさが所定以上である場合に、前記抽出用語が誤りである可能性がある旨の注意喚起をする喚起処理を含む請求項2記載の校正支援装置。 - 前記検査対象データは、前記対象用語のいくつかが互いに関連した関連用語であることを示すデータである関連規定データを含み、
前記通知処理は、前記抽出用語のスコアと、該抽出用語に関連した前記関連用語のスコアとの選択的な大小比較に基づき、前記抽出用語のスコアに対する前記関連用語のスコアの相対的な大きさが規定以上である場合に、当該関連用語が適切である可能性がある旨通知する代替案通知処理を含む請求項2記載の校正支援装置。 - 前記算出処理は、前記抽出用語が複合語である場合、前記出力写像の出力のうち前記抽出用語を構成する単語のスコアに基づき、前記抽出用語のスコアを算出する請求項2〜4のいずれか1項に記載の校正支援装置。
- 前記処理回路は、外部からの要求に応じて前記検査対象データを更新することによって前記対象用語を新たに登録する登録処理を実行する請求項1〜5のいずれか1項に記載の校正支援装置。
- 前記処理回路は、
前記通知処理に対し、前記抽出用語の適切性の判定結果に対する修正要求を受け付ける受付処理と、
前記修正要求を受け付けた場合、修正対象となった文書を前記記憶装置に記憶させる記憶処理と、を実行する請求項1〜6のいずれか1項に記載の校正支援装置。 - 前記スコアの前記出力写像による原像であるベクトルの成分は、L側ベクトルとR側ベクトルとの連結ベクトルの成分を包含し、
前記L側ベクトルは、前記抽出用語以前に登場する複数の単語のそれぞれに関する前記単語ベクトルデータ同士の合成および連結の少なくとも一方の演算によって定まるベクトルデータであるL側ベクトルデータによって規定され、
前記R側ベクトルは、前記抽出用語以後に登場する複数の単語のそれぞれに関する前記単語ベクトルデータ同士の合成および連結の少なくとも一方の演算によって定まるベクトルデータであるR側ベクトルデータによって規定される請求項1〜7のいずれか1項に記載の校正支援装置。 - 前記L側ベクトルデータを定めるために用いられて且つ前記抽出用語以後に登場する1つの単語に関する前記単語ベクトルデータと、前記R側ベクトルデータを定めるために用いられて且つ前記抽出用語以後に登場する1つの単語に関する前記単語ベクトルデータとには、対応する単語が同一であっても互いに異なるものが含まれる請求項8記載の校正支援装置。
- 前記単語ベクトルデータの次元は、前記単語集に規定されている単語数よりも小さい請求項1〜9のいずれか1項に記載の校正支援装置。
- 前記記憶装置は、文書の類型に対応付けられたデータを記憶しており、
前記処理回路は、
検査対象となる文書の類型を取得する取得処理を実行し、
前記算出処理は、前記類型に対応づけられたデータに基づき前記出力写像の入力を定める類型入力生成処理を含む請求項10記載の校正支援装置。 - 前記出力写像データは、学習用の文書の各単語を、当該単語が前記対象用語であるか否かにかかわらず、教師データとし、当該教師データ以前に登場する1または複数の単語の前記単語ベクトルデータと、該教師データ以後に登場する1または複数の単語の前記単語ベクトルデータとを特徴量として学習されたデータである請求項1〜11のいずれか1項に記載の校正支援装置。
- 請求項1〜12のいずれか1項に記載の前記各処理をコンピュータによって実行させる校正支援プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018211019A JP6701479B2 (ja) | 2018-11-09 | 2018-11-09 | 校正支援装置、および校正支援プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018211019A JP6701479B2 (ja) | 2018-11-09 | 2018-11-09 | 校正支援装置、および校正支援プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020077269A JP2020077269A (ja) | 2020-05-21 |
JP6701479B2 true JP6701479B2 (ja) | 2020-05-27 |
Family
ID=70724173
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018211019A Active JP6701479B2 (ja) | 2018-11-09 | 2018-11-09 | 校正支援装置、および校正支援プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6701479B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7371057B2 (ja) * | 2021-04-28 | 2023-10-30 | デロイトトーマツファイナンシャルアドバイザリー合同会社 | 情報処理装置、情報処理方法、端末プログラム、サーバプログラム及び契約書修正支援システム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003132059A (ja) * | 2001-10-19 | 2003-05-09 | Seiko Epson Corp | 言語文を用いた検索装置、検索システム、検索方法、プログラム、および記録媒体 |
JP2010218228A (ja) * | 2009-03-17 | 2010-09-30 | Nec Corp | 文書作成支援装置、その方法及びそのプログラム |
JPWO2014002775A1 (ja) * | 2012-06-25 | 2016-05-30 | 日本電気株式会社 | 同義語抽出システム、方法および記録媒体 |
US9996530B1 (en) * | 2016-12-30 | 2018-06-12 | Google Llc | Determining NCCs and/or using the NCCs to adapt performance of computer-based action(s) |
-
2018
- 2018-11-09 JP JP2018211019A patent/JP6701479B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020077269A (ja) | 2020-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020008919A1 (ja) | 機械学習装置及び方法 | |
CN109271627B (zh) | 文本分析方法、装置、计算机设备和存储介质 | |
CN107871014A (zh) | 一种基于深度融合哈希的大数据跨模态检索方法及系统 | |
CN109145245A (zh) | 预测点击率的方法、装置、计算机设备及存储介质 | |
CN111091175A (zh) | 神经网络模型训练方法、分类方法、装置和电子设备 | |
CN105975573A (zh) | 一种基于knn的文本分类方法 | |
KR20190041790A (ko) | 신경망 번역 모델 구축 장치 및 방법 | |
CN109903099B (zh) | 用于评分预测的模型构建方法和系统 | |
US11847389B2 (en) | Device and method for optimizing an input parameter in a processing of a semiconductor | |
CN111538841B (zh) | 基于知识互蒸馏的评论情感分析方法、装置及系统 | |
CN116258145B (zh) | 多模态命名实体识别方法、装置、设备以及存储介质 | |
CN114616573A (zh) | 学习辅助装置、学习装置、学习辅助方法和学习辅助程序 | |
CN114445121A (zh) | 一种广告点击率预测模型构建及广告点击率预测方法 | |
CN114386513A (zh) | 一种集成评论与评分的交互式评分预测方法及系统 | |
CN112699215A (zh) | 基于胶囊网络与交互注意力机制的评级预测方法及系统 | |
Jaroli et al. | Deep learning model based novel semantic analysis | |
JP6701479B2 (ja) | 校正支援装置、および校正支援プログラム | |
CN114357284A (zh) | 基于深度学习的众包任务个性化推荐方法和系统 | |
KR20220155785A (ko) | 챗봇 운영 방법 및 장치 | |
JP2019109648A (ja) | 情報処理システムおよび情報処理システムの学習方法 | |
CN117171358A (zh) | 一种基于电网调度的多模态知识图谱方法 | |
CN113312445B (zh) | 数据处理方法、模型构建方法、分类方法及计算设备 | |
CN114066036B (zh) | 一种基于自修正融合模型的成本预测方法以及装置 | |
CN113822684B (zh) | 黑产用户识别模型训练方法、装置、电子设备及存储介质 | |
CN113449524B (zh) | 一种命名实体识别方法、系统、设备以及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181114 Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20181114 |
|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20181114 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200225 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200326 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6701479 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |