JP2017021523A - 用語意味コード判定装置、方法、及びプログラム - Google Patents

用語意味コード判定装置、方法、及びプログラム Download PDF

Info

Publication number
JP2017021523A
JP2017021523A JP2015137799A JP2015137799A JP2017021523A JP 2017021523 A JP2017021523 A JP 2017021523A JP 2015137799 A JP2015137799 A JP 2015137799A JP 2015137799 A JP2015137799 A JP 2015137799A JP 2017021523 A JP2017021523 A JP 2017021523A
Authority
JP
Japan
Prior art keywords
term
meaning
feature vector
context
code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015137799A
Other languages
English (en)
Other versions
JP6495124B2 (ja
Inventor
昭典 藤野
Akinori Fujino
昭典 藤野
潤 鈴木
Jun Suzuki
潤 鈴木
努 平尾
Tsutomu Hirao
努 平尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015137799A priority Critical patent/JP6495124B2/ja
Publication of JP2017021523A publication Critical patent/JP2017021523A/ja
Application granted granted Critical
Publication of JP6495124B2 publication Critical patent/JP6495124B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】用語の意味コードを精度よく判定することができるようにする。
【解決手段】用語特徴ベクトル生成部22が、用語の文字列から、用語特徴ベクトルを生成する。用語意味確率計算部24が、生成された用語特徴ベクトルに基づいて、各意味コードに対する適合度を表す用語意味確率を計算する。文脈特徴ベクトル生成部26が、用語の前後に記述されている文字列から、文脈特徴ベクトルを生成する。文脈意味確率計算部28が、生成された文脈特徴ベクトルに基づいて、各意味コードに対する適合度を表す文脈意味確率を計算する。意味コード判定部30が、用語意味確率計算部24によって計算された各意味コードに対する用語意味確率、及び文脈意味確率計算部28によって計算された各意味コードに対する文脈意味確率に基づいて、用語の意味コードを判定する。
【選択図】図1

Description

本発明は、用語意味コード判定装置、方法、及びプログラムに係り、特に、用語に対する意味コードを判定するための用語意味コード判定装置、方法、及びプログラムに関する。
用語には、ひらがな、カタカナ、漢字などの異なる文字を用いた表記や、略語や省略などのような表記揺れがある。また、同義語、類義語などのように同じ意味を表すが異なる表現の用語がある。このような異なる表記、表現の用語に同じ意味であることを表す意味コードを付与する問題に対して、非特許文献1に記載されている、用語の文字列に含まれる部分文字列から、各部分文字列の有無または個数を表す特徴ベクトルを生成し、教師あり学習技術を用いて生成した判定ルールをもとに用語の意味コードを推定する技術を利用できる。また、非特許文献2に記載されている、用語のペアが同義語であるかどうかを文脈類似度と表記類似度を用いて推定する技術を利用することができる。あるいは、非特許文献3に記載されている、実際の文書で一緒に用いられる単語の情報をもとに用語を分類する技術を利用することができる。
Akinori Fujino, Jun Suzuki, Tsutomu Hirao,Hisashi Kurasawa,Katsuyoshi Hayashi,"SCT-D3 at the NTCIR-11 MedNLP-2 Task",Proceedings of the 11th NTCIR Conference, December 9-12, 2014, Tokyo, Japan 森本康嗣, 柳井孝介, 岩山真,「文脈類似度と表記類似度を用いた教師あり同義語抽出.」,言語処理学会第16 回年次大会発表論文集, p.974−977 (2010). 荒牧英治, 今井健, 梶野正幸, 美代賢吾, 大江和彦,「医学辞書を用いた用語間関係の自動抽出手法と用語の自動分類手法に関する研究」, 医療情報学, Vol.25, No.6,p.463-474, 2006.
本発明が解決しようとする課題は、事前に人手で定義されている意味コードを専門用語に付与する問題において、非常に多数の意味コードの候補の中から、各用語に最も適した意味コードを1つ選択することである。
一般の単語と異なり、正確に内容を伝達するために、大部分の専門用語には専門分野ごとにそれぞれ唯一の意味が定義されている、と考えられる。その一方で、実際の文書では、文脈から明らかに判断できる場合、専門用語を省略して記載することも多い。
例えば、「胃の上部に癌がみられる」という場合、「胃癌」ではなく「癌」と省略して記載しても人間は正確に文意を理解できる。しかし、コンピュータが「癌」の用語に意味コードを付与する場合、「癌」には部位に応じて異なる意味コードが定義されているため、該当する意味コードの中から最適な候補を選択する必要が生じる。
したがって、文書に含まれる専門用語に意味コードを付与する問題は、専門用語に唯一の意味が定義されているという仮定のもとで、同じ意味をもつが異なる表記、表現で書かれた用語に同じ意味コードを付与すること、および、専門用語が省略して記載されることで生じる複数の意味コードの候補の中から最適な意味コードを選択して付与することに相当する。
従来の技術では、上記非特許文献2のように、2つの用語が同じ意味をもつかどうかを推定するか、上記非特許文献3のように、クラスタリング技術を利用して用語の集合を類似の意味をもつ用語に分けることが行われている。
本発明が解決しようとする課題に上記非特許文献2の技術を適用する場合、例えば、意味コードごとに用語例を1つ選択し、意味コードを付与したい用語がどの用語例に近いかを該当技術で調べることで意味コードを推定することができる。
しかし、この方法では、用語例の選択の仕方に意味コードの推定精度が大きく影響される可能性がある。
一方、本発明が解決しようとする課題に上記非特許文献3の技術を用いる場合、クラスタリング技術で機械的に分類された用語の集合と、人手で定義された意味コードとを一対一に対応付けることは容易ではない。
上記非特許文献1の技術を用いる場合、あらかじめ教師あり学習を用いて生成した判定ルールを用いて、非常に多数の意味コードの候補の中から各用語に最も適した意味コードを1つ選択することができる。
しかし、この技術では、文字列が同一の用語に対して、用語が含まれる文書の内容や文脈によらずにすべて同一の意味コードを付与する。例えば「癌」の用語にはある特定の意味コードを必ず選択し、文脈に応じて異なる意味コードを付与することができない。実際の文書に記述された専門用語に対して付与すべき意味コードを推定する問題に対して、高い推定精度を達成する手法を開発することが課題である。
本発明は、上記問題点を解決するために成されたものであり、用語の意味コードを精度よく判定するための用語意味コード判定装置、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、第1の発明に係る用語意味コード判定装置は、入力されたテキスト中における用語に対して、意味コードを判定する用語意味コード判定装置であって、前記用語の文字列から、用語特徴ベクトルを生成する用語特徴ベクトル生成部と、前記用語特徴ベクトル生成部によって生成された前記用語特徴ベクトルに基づいて、各意味コードに対する適合度を表す用語意味確率を計算する用語意味確率計算部と、前記用語の前後に記述されている文字列から、文脈特徴ベクトルを生成する文脈特徴ベクトル生成部と、前記文脈特徴ベクトル生成部によって生成された前記文脈特徴ベクトルに基づいて、各意味コードに対する適合度を表す文脈意味確率を計算する文脈意味確率計算部と、前記用語意味確率計算部によって計算された各意味コードに対する用語意味確率、及び前記文脈意味確率計算部によって計算された各意味コードに対する文脈意味確率に基づいて、前記用語の意味コードを判定する意味コード判定部と、を含んで構成されている。
また、第1の発明に係る用語意味コード判定装置において、前記用語意味確率計算部は、前記用語特徴ベクトル生成部によって生成された前記用語特徴ベクトルと、前記用語特徴ベクトルから各意味コードに対する用語意味確率を計算するための予め学習された用語意味確率モデルとに基づいて、各意味コードに対する用語意味確率を計算し、前記文脈意味確率計算部は、前記文脈特徴ベクトル生成部によって生成された前記文脈特徴ベクトルと、前記文脈特徴ベクトルから各意味コードに対する文脈意味確率を計算するための予め学習された文脈意味確率モデルとに基づいて、各意味コードに対する文脈意味確率を計算するようにしてもよい。
また、第1の発明に係る用語意味コード判定装置において、意味コードが予め付与された複数の用語の文字列の各々について生成された前記用語特徴ベクトルと、前記複数の用語の文字列の各々に付与された意味コードとに基づいて、前記用語意味確率モデルを学習する用語意味確率モデル生成部と、意味コードが予め付与された、用語の前後に記述される文字列の各々について、前記用語の前後に記述される文字列から生成された前記文脈特徴ベクトルと、前記用語の前後に記述される文字列の各々に付与された意味コードとに基づいて、前記文脈意味確率モデルを学習する文脈意味確率モデル生成部とを更に含むようにしてもよい。
また、第1の発明に係る用語意味コード判定装置において、前記用語特徴ベクトル生成部は、前記用語について、前記用語に含まれる文字、及び前記用語の文字列に含まれる部分文字列から、各部分文字列の有無又は個数と、文字の種類及び該文字の前又は後の文字との各組み合わせの有無又は個数と、を表す前記用語特徴ベクトルを生成するようにしてもよい。
第2の発明に係る用語意味コード判定方法は、用語特徴ベクトル生成部、用語意味確率計算部、文脈特徴ベクトル生成部、文脈意味確率計算部、及び意味コード判定部を含み、入力されたテキスト中における用語に対して、意味コードを判定する用語意味コード判定装置における用語意味コード判定方法であって、前記用語特徴ベクトル生成部が、前記用語の文字列から、用語特徴ベクトルを生成するステップと、前記用語意味確率計算部が、前記用語特徴ベクトル生成部によって生成された前記用語特徴ベクトルに基づいて、各意味コードに対する適合度を表す用語意味確率を計算するステップと、前記文脈特徴ベクトル生成部が、前記用語の前後に記述されている文字列から、文脈特徴ベクトルを生成するステップと、前記文脈意味確率計算部が、前記文脈特徴ベクトル生成部によって生成された前記文脈特徴ベクトルに基づいて、各意味コードに対する適合度を表す文脈意味確率を計算するステップと、前記意味コード判定部が、前記用語意味確率計算部によって計算された各意味コードに対する用語意味確率、及び前記文脈意味確率計算部によって計算された各意味コードに対する文脈意味確率に基づいて、前記用語の意味コードを判定するステップと、を含む。
また、第2の発明に係る用語意味コード判定方法において、前記用語特徴ベクトル生成部が用語特徴ベクトルを生成するステップは、前記用語について、前記用語に含まれる文字、及び前記用語の文字列に含まれる部分文字列から、各部分文字列の有無又は個数と、文字の種類及び該文字の前又は後の文字との各組み合わせの有無又は個数と、を表す前記用語特徴ベクトルを生成するようにしてもよい。
第3の発明に係るプログラムは、コンピュータを、上記第1の発明に係る用語意味コード判定装置を構成する各部として機能させるためのプログラムである。
本発明の用語意味コード判定装置、方法、及びプログラムによれば、用語の文字列から生成された用語特徴ベクトルに基づいて、各意味コードに対する適合度を表す用語意味確率を計算し、用語の前後に記述されている文字列から生成された文脈特徴ベクトルに基づいて、各意味コードに対する適合度を表す文脈意味確率を計算し、各意味コードに対する用語意味確率、及び各意味コードに対する文脈意味確率に基づいて、用語の意味コードを判定することにより、用語の意味コードを精度よく判定するができる、という効果が得られる。
本発明の実施の形態に係る用語意味コード判定装置の機能的構成を示すブロック図である。 特徴量のインデックスを示す概念図である。 特徴量のインデックスを示す概念図である。 本発明の実施の形態に係る用語意味コード判定装置の確率モデル生成部32の詳細な構成例を示すブロック図である。 本発明の実施の形態に係る用語意味コード判定装置における用語意味確率モデル生成処理ルーチンのフローチャート図である。 本発明の実施の形態に係る用語意味コード判定装置における文脈意味確率モデル生成処理ルーチンのフローチャート図である。 本発明の実施の形態に係る用語意味コード判定装置における意味コード判定処理ルーチンのフローチャート図である。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<本発明の実施の形態に係る用語意味コード判定装置の構成>
まず、本発明の実施の形態に係る用語意味コード判定装置の構成について説明する。
図1に示すように、本発明の実施の形態に係る用語意味コード判定装置100は、CPUと、RAMと、後述する各処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この用語意味コード判定装置100は、機能的には図1に示すように入力部10と、演算部20と、出力部40を備えている。本発明の実施の形態に係る用語意味コード判定装置100は、入力されたテキスト中における用語に対して、意味コードを判定する。
また、本発明の実施の形態は、電子カルテ文書、医療文書、技術文書などの専門文書の内容を機械的に解析したり、特定の内容を含む専門文書を検索することを可能にするために、文書に出現する医療用語、技術用語などの専門用語に対して、意味やカテゴリを表すコードを機械的に付与する技術に関する。
入力部10は、テキスト入力部11と、用語入力部12と、文脈入力部14と、訓練データ入力部16とを備えている。
テキスト入力部11は、意味コードを推定する対象である用語を含むテキストを受け付ける。そして、テキスト入力部11は、受け付けたテキスト中における、意味コード推定対象の用語と、当該用語の前後に記述されている文字列とを出力する。
用語入力部12は、テキスト入力部11によって出力された、意味コード推定対象の用語の文字列を受け付ける。用語入力部12は、意味コードを推定する対象である用語を入力する際のインターフェースとなる。
文脈入力部14は、テキスト入力部11によって出力された、意味コード推定対象の用語の前後に記述されている文字列を受け付ける。文脈入力部14は、用語の前後に記述されている文字列を入力する際のインターフェースとなる。
訓練データ入力部16は、意味コードが予め付与された用語の文字列と、意味コードが予め付与された、用語の前後に記述される文字列とを、訓練データとして受け付ける。意味コードが予め付与された用語の文字列は、用語の文字列と意味コードとの組を表す訓練データである。また、意味コードが予め付与された、用語の前後に記述される文字列は、文脈を表す文字列と意味コードとの組を表す訓練データである。訓練データは、後述する確率モデル生成部32によって用いられる。
演算部20は、用語特徴ベクトル生成部22と、用語意味確率計算部24と、文脈特徴ベクトル生成部26と、文脈意味確率計算部28と、意味コード判定部30と、確率モデル生成部32とを備えている。
用語特徴ベクトル生成部22は、用語入力部12によって受け付けられた用語の文字列から、用語特徴ベクトルを生成する。
例えば、用語特徴ベクトル生成部22は、用語入力部12によって受け付けられた用語について、当該用語に含まれる文字、及び当該用語の文字列に含まれる部分文字列から、各部分文字列の個数を表す用語特徴ベクトルを生成する。なお、各部分文字列の有無を表す特徴ベクトルを生成してもよい。
例えば、用語特徴ベクトル生成部22は、各部分文字列の個数を表す用語特徴ベクトルとして、文字ベースのuni‐gram,bi‐gram,tri‐gramなど、用語を構成する文字列を特徴量とし、用語に含まれる各特徴量の個数を表す用語特徴ベクトルを生成する。
また、用語特徴ベクトル生成部22は、文字の種類及び該文字の前又は後の文字との各組み合わせの個数を追加で用いて用語特徴ベクトルを生成してもよい。なお、文字の種類及び該文字の前又は後の文字との各組み合わせの有無を表す特徴ベクトルを生成してもよい。
例えば、用語特徴ベクトル生成部22は、文字の種類及び該文字の前又は後の文字との各組み合わせとして、ひらがな、カタカナ、アルファベットなど、用語に含まれる文字の種類とその前後の文字の組み合わせで定義される特徴量を追加で用いてもよい。
図2及び図3に、用語から生成される用語特徴ベクトルを説明するための図を示す。
例えば、「ピロリ菌」という用語に含まれる文字列の特徴量のインデックスが、図2に示すようなものであるとする。「_」が先頭に付いているものは用語を構成する部分文字列の先端を表し、末尾に付いているものは用語を構成する部分文字列の終端を表す。
また、カタカナをT、漢字をTで表し、「ピロリ菌」という用語に含まれる文字の種類と前後の文字の組合せのインデックスが、図3に示すようなものであるとする。
このとき、用語「ピロリ菌」は、i∈{u,u,u,u,b,b,b,b,b,t,t,t,t,c,c,c,c,c,c,c,c}のときにx=1、iがそれ以外の文字列の特徴量のときにx=0の要素からなる用語特徴ベクトルx=(x,...,x,...,x)で表すことができる。
用語意味確率計算部24は、用語特徴ベクトル生成部22によって生成された用語特徴ベクトルに基づいて、各意味コードに対する適合度を表す用語意味確率を計算する。
具体的には、用語意味確率計算部24は、用語特徴ベクトル生成部22によって生成された用語特徴ベクトルと、当該用語特徴ベクトルから各意味コードに対する用語意味確率を計算するための予め学習された用語意味確率モデルとに基づいて、各意味コードに対する用語意味確率を計算する。用語意味確率モデルは、後述する確率モデル生成部32によって予め生成される。
用語意味確率の計算には、例えば、統計的機械学習技術の一種であるサポートベクトルマシン(SVM)、あるいはロジスティック回帰モデルのような2値分類器に基づいて生成される用語意味確率モデルを用いることで実現できる。これらの技術では、用語特徴ベクトルxで表される用語が意味コードkに関連する度合を表すスコア関数fks(x;wks)を定義し、スコア関数のモデルパラメータwksの値を事前に機械的に学習しておく。用語意味確率モデルのモデルパラメータwksの値は、後述する確率モデル生成部32によって予め学習される。
そして、意味コードを判定したい用語の用語特徴ベクトルx(m) に対して、意味コードkごとに用語意味確率を
のように算出する。ここで、rは、r=+1の場合に意味コードkに関連することを表し、r=−1の場合に意味コードkに関連しないことを表す2値変数である。
文脈特徴ベクトル生成部26は、文脈入力部14によって受け付けられた、用語の前後に記述されている文字列から、文脈特徴ベクトルを生成する。
例えば、文脈特徴ベクトル生成部26は、用語特徴ベクトル生成部22と同様に、用語の前後に記述されている文字列の各部分文字列の個数を表す特徴ベクトルとして、uni‐gram,bi‐gram,tri‐gramなど、当該文字列を構成する部分文字列を特徴量とし、当該文字列に含まれる各特徴量の個数を表す文脈特徴ベクトルを生成する。
文脈意味確率計算部28は、文脈特徴ベクトル生成部26によって生成された文脈特徴ベクトルに基づいて、各意味コードに対する適合度を表す用語意味確率を計算する。
具体的には、文脈意味確率計算部28は、文脈特徴ベクトル生成部26によって生成された文脈特徴ベクトルと、文脈特徴ベクトルから各意味コードに対する文脈意味確率を計算するための予め学習された文脈意味確率モデルとに基づいて、各意味コードに対する文脈意味確率を計算する。文脈意味確率モデルは、後述する確率モデル生成部32によって予め生成される。
文脈意味確率の計算においても、用語意味確率と同様に、例えば、サポートベクトルマシン(SVM)、あるいはロジスティック回帰モデルのような2値分類器を用いて、前後の文字列が文脈特徴ベクトルxで表される用語が意味コードkに関連する度合を表すスコア関数fkc(x;wkc)を定義し、スコア関数のモデルパラメータwkcの値を事前に機械的に学習しておく。文脈意味確率モデルのモデルパラメータwkcの値は、後述する確率モデル生成部32によって予め学習される。
そして、意味コードを判定したい用語の文脈特徴ベクトルx(m) に対して、意味コードkごとに文脈意味確率を
のように算出する。
意味コード判定部30は、用語意味確率計算部24によって計算された各意味コードに対する用語意味確率、及び文脈意味確率計算部28によって計算された各意味コードに対する文脈意味確率に基づいて、当該用語の意味コードを判定する。
具体的には、意味コード判定部30では、用語意味確率計算部24で算出した用語意味確率と、文脈意味確率計算部28で算出した文脈意味確率とを用いて、用語特徴ベクトルがx(m) であり、文脈特徴ベクトルがx(m) である用語x(m)=(x(m) ,x(m) )に対して最も適した意味コードを1つ選択する。
例えば、以下の式(1)で表されるスコア関数Score(k,x(m))の値が最大になるkを、当該用語に適した意味コードとして選択する。
なお、上記式(1)中のβは、用語意味確率と文脈意味確率との間に重みを与えるパラメータであり、装置の設計者が事前にβの値を調整する。
確率モデル生成部32は、訓練データ入力部16によって受け付けた訓練データの集合に基づいて、用語意味確率モデルと文脈意味確率モデルとを学習する。
確率モデル生成部32は、図4に示すように、訓練データ集合データベース320と、用語特徴ベクトル生成部322と、用語意味確率モデル生成部324と、用語意味確率モデル記憶部326と、文脈特徴ベクトル生成部328と、文脈意味確率モデル生成部330と、文脈意味確率モデル記憶部332とを備えている。
訓練データ集合データベース320には、訓練データ入力部16によって受け付けられた訓練データの集合が格納される。訓練データは、人手で意味コードを付与した実際の文書から抽出した用語の他に、意味コードを定義する辞書に記載されている用語や、同義語・類義語の関係が記載されている任意の辞書から抽出した用語を加えてもよい。
なお、辞書から抽出した用語を用いる場合、用語の文字列と意味コードの組が訓練データ集合データベース320に格納される。任意の辞書に含まれている用語には、通常、意味コードが付与されていないため、意味コードを定義するのに用いられている用語と、辞書に記載の同義語・類義語の関係とを利用して意味コードを付与する。
例えば、意味コードを定義するのに用いられている用語と同義語・類義語の関係にある用語に対して同一の意味コードを付与する。また、意味コードの定義を説明している定義文を、文脈を表す文字列と意味コードとの組として、訓練データ集合データベース320に加えてもよい。
用語特徴ベクトル生成部322は、訓練データ集合データベース320に格納された複数の訓練データの各々について、用語特徴ベクトル生成部22と同様に、当該訓練データに含まれる用語の文字列について用語特徴ベクトルを生成する。
用語意味確率モデル生成部324は、訓練データ集合データベース320に格納された複数の訓練データの各々に対する、用語特徴ベクトル生成部322によって生成された用語特徴ベクトルと、当該訓練データに含まれる意味コードとに基づいて、用語意味確率モデルを学習する。
具体的には、用語意味確率モデル生成部324は、用語特徴ベクトルと意味コードとの組から構成されるデータ集合を用いて、任意の用語特徴ベクトルx(m) の用語意味確率
を算出するためのモデルパラメータwksの値を計算することで用語意味確率モデルを生成し、用語意味確率モデル記憶部326に格納する。
用語意味確率モデル記憶部326には、用語意味確率モデル生成部324によって生成された用語意味確率モデルが格納される。
文脈特徴ベクトル生成部328は、訓練データ集合データベース320に格納された複数の訓練データの各々について、文脈特徴ベクトル生成部26と同様に、当該訓練データに含まれる、用語の前後に記述される文字列について文脈特徴ベクトルを生成する。
文脈意味確率モデル生成部330は、訓練データ集合データベース320に格納された複数の訓練データの各々に対する、文脈特徴ベクトル生成部328によって生成された文脈特徴ベクトルと、当該訓練データに含まれる意味コードとに基づいて、文脈意味確率モデルを学習する。
具体的には、文脈意味確率モデル生成部330は、文脈特徴ベクトルと意味コードとの組から構成されるデータ集合を用いて、任意の文脈特徴ベクトルx(m) の文脈意味確率
を算出するためのモデルパラメータwkcの値を計算することで文脈意味確率モデルを生成し、文脈意味確率モデル記憶部332に格納する。
文脈意味確率モデル記憶部332には、文脈意味確率モデル生成部330によって生成された文脈意味確率モデルが格納される。
出力部40は、意味コード判定部30によって判定された、当該用語の意味コードを結果として出力する。出力部40は、意味コードの判定結果を表示、保存する際のインターフェースとなる。
<本発明の実施の形態に係る用語意味コード判定装置の作用>
次に、本発明の実施の形態に係る用語意味コード判定装置100の作用について説明する。訓練データの集合が用語意味コード判定装置100に入力されると、訓練データ入力部16によって訓練データの集合を受け付け、訓練データ集合データベース320に格納される。そして、用語意味コード判定装置100は、図5に示す用語意味確率モデル生成処理ルーチンと、図6に示す文脈意味確率モデル生成処理ルーチンとを実行する。
<用語意味確率モデル生成処理ルーチン>
ステップS100において、用語特徴ベクトル生成部322は、訓練データ集合データベース320に格納されている訓練データの集合のうち、意味コードと用語の文字列との組である訓練データの各々を取得する。
次に、ステップS102において、用語特徴ベクトル生成部322は、上記ステップS100で取得した複数の訓練データの各々について、当該訓練データに含まれる用語の文字列について用語特徴ベクトルを生成する。
ステップS104において、用語意味確率モデル生成部324は、上記ステップS102で生成された用語特徴ベクトルの各々と、訓練データに含まれる意味コードの各々とに基づいて、用語意味確率モデルを生成し、用語意味確率モデル記憶部326に記憶して、用語意味確率モデル生成処理ルーチンを終了する。
<文脈意味確率モデル生成処理ルーチン>
ステップS200において、文脈特徴ベクトル生成部328は、訓練データ集合データベース320に格納されている訓練データの集合のうち、意味コードと、用語の前後に記述される文字列との組である訓練データの各々を取得する。
ステップS202において、文脈特徴ベクトル生成部328は、上記ステップS200で取得した複数の訓練データの各々について、当該訓練データに含まれる、用語の前後に記述される文字列について文脈特徴ベクトルを生成する。
ステップS204において、文脈意味確率モデル生成部330は、上記ステップS202で生成された文脈特徴ベクトルの各々と、訓練データに含まれる意味コードの各々とに基づいて、文脈意味確率モデルを生成し、文脈意味確率モデル記憶部332に記憶して、文脈意味確率モデル生成処理ルーチンを終了する。
用語意味確率モデルが用語意味確率モデル記憶部326に格納され、文脈意味確率モデルが文脈意味確率モデル記憶部332に格納され、意味コードを推定する対象である用語を含むテキストが用語意味コード判定装置100に入力されると、用語意味コード判定装置100は、図7に示す意味コード判定処理ルーチンを実行する。
まず、テキスト入力部11が、意味コードを推定する対象である用語を含むテキストを受け付ける。そして、受け付けたテキスト中における、意味コード推定対象の用語と、当該用語の前後に記述されている文字列とがテキスト入力部11によって出力されると、用語意味コード判定装置100は、図7に示す意味コード判定処理ルーチンを実行する。
ステップS300において、用語入力部12は、テキスト入力部11によって出力された、意味コード推定対象の用語の文字列を受け付ける。また、文脈入力部14は、テキスト入力部11によって出力された、意味コード推定対象の用語の前後に記述されている文字列を受け付ける。
ステップS302において、用語特徴ベクトル生成部22は、上記ステップS300で受け付けられた用語の文字列から、用語特徴ベクトルを生成する。
ステップS304において、用語意味確率計算部24は、上記ステップS302で生成された用語特徴ベクトルと、用語意味確率モデル記憶部326に格納された用語意味確率モデルとに基づいて、各意味コードに対する適合度を表す用語意味確率を計算する。
ステップS306において、文脈特徴ベクトル生成部26は、上記ステップS300で受け付けられた、用語の前後に記述されている文字列から、文脈特徴ベクトルを生成する。
ステップS308において、文脈意味確率計算部28は、上記ステップS306で生成された文脈特徴ベクトルと、文脈意味確率モデル記憶部332に格納された文脈意味確率モデルとに基づいて、各意味コードに対する文脈意味確率を計算する。
ステップS310において、意味コード判定部30は、上記ステップS304で計算された各意味コードに対する用語意味確率、及び上記ステップS308で計算された各意味コードに対する文脈意味確率に基づいて、当該用語の意味コードを判定する。
ステップS312において、意味コード判定部30によって判定された、当該用語の意味コードを結果として出力して、意味コード判定処理ルーチンを終了する。
以上説明したように、本発明の実施の形態に係る用語意味コード判定装置によれば、用語の文字列から生成された用語特徴ベクトルに基づいて、各意味コードに対する適合度を表す用語意味確率を計算し、用語の前後に記述されている文字列から生成された文脈特徴ベクトルに基づいて、各意味コードに対する適合度を表す文脈意味確率を計算し、各意味コードに対する用語意味確率、及び各意味コードに対する文脈意味確率に基づいて、用語の意味コードを判定することにより、用語の意味コードを精度よく判定するができる。
また、本発明の実施の形態に係る用語意味コード判定装置によれば、意味コードが予め付与された複数の用語の文字列の各々について生成された用語特徴ベクトルと、複数の用語の文字列の各々に付与された意味コードとに基づいて、用語意味確率モデルを学習し、意味コードが予め付与された、用語の前後に記述される文字列の各々について、用語の前後に記述される文字列から生成された文脈特徴ベクトルと、用語の前後に記述される文字列の各々に付与された意味コードとに基づいて、文脈意味確率モデルを学習することにより、用語の意味コードを精度よく判定するための確率モデルを得ることができる。
また、本実施の形態では、用語を表す用語特徴ベクトルと、用語が含まれる文書の文脈を表す文脈特徴ベクトルとから意味コードを推定するための判別ルールを統計的機械学習技術で獲得し、特徴ベクトルと意味コードの対応関係を明示的に与える。この対応関係を用いることで、学習に用いるデータに同一の用語が含まれない場合でも用語の意味コードを推定するとともに、同一の文字列で表現される用語に対して文脈に応じて異なる意味コードを付与することを可能にする。
また、人手で意味コードを付与した実際の文書から抽出した用語を学習に用いることで、実際によく行われる方法で省略された用語や、意味コードの定義に用いられた用語例と大きく異なる用語に対して意味コードの推定精度を高めるとともに、用語の前後に出現する文字列を学習することで異なる文脈で用いられる用語の省略形に対する意味コードの推定精度を高めることが期待できる。
また、同義語・類義語の関係が記載されている辞書から抽出した用語を学習に利用することで、異なる言語やアルファベットによる略記などを含む異表記で書かれた用語に対して意味コードの推定精度を高めることが期待できる。
さらに、意味コードの定義文を文脈の学習に利用することで、意味コードを説明するのに用いられる関連語が実際の文書で該当の用語の前後で用いられている場合に意味コードの推定精度を高めることが期待できる。
<実験例>
次に、国立情報学研究所(NII)主催の評価型ワークショップNTCIR−11のMedNLP2タスク(http://mednlp.jp/ntcir11/)で配布された疑似医療文書のベンチマークセットに、本発明の実施の形態に係る用語意味コード判定装置を適用した場合の結果を示す。
疑似医療文書のベンチマークセットには、訓練データとテストデータが含まれており、それぞれのデータには、病名・症状を表す用語にICDコードが付与された疑似医療文書が含まれている。ICDコードは、病態管理および情報共有のためのコードであり、医療用語の標準化のために開発されたコードである。ICDコードを利用することで、様々な省略形や漢字かな表記の違いなど、同一の意味をもつ異表現の用語を把握、管理することができる。ICD10対応標準病名マスター(http://www2.medis.or.jp/stdcd/byomei/)には5000種類以上のICDコードが定義されている。
性能評価では、ICDコードを意味コードとし、疑似医療文書に含まれる病名・症状を表す用語にICDコードを付与する問題に適用した場合に得られる精度を調べた。上記実施の形態の用語意味確率計算部24で確率値を算出するための用語意味確率モデルを、ロジスティック回帰モデルを用いて設計し、ベンチマークセットの訓練データに含まれる用語とICD10対応標準病名マスターに含まれる病名基本テーブルに含まれる用語を訓練データ集合データベース320に格納した。また、ICD10対応標準病名マスターの検索テーブルに含まれる用語も訓練データ集合データベース320に格納した。ICD10対応標準病名マスターの病名基本テーブルに含まれる用語と同義・類義の用語に該当ICDコードを付与した。さらに、ライフサイエンス辞書(LSD,http://lsd.pharm.kyoto-u.ac.jp/ja/index.html)、T辞書(http://www.tdic.co.jp/)、UMLSメタシソーラス(http://www.nlm.nih.gov/research/umls/) から取り出した辞書MedDRAから、ICD10対応標準病名マスターに含まれる用語と同義・類義の用語を抽出し、該当ICDコードを付与して訓練データ集合データベース320に格納した。
文脈意味確率計算部28で確率値を算出するための文脈意味確率モデルもロジスティック回帰モデルを用いて設計し、ベンチマークセットの訓練データ中に出現する用語を含む行に記載されている文字列のすべてを、用語の前後に記述される文字列として訓練データ集合データベース320に格納した。また、ICD10国際疾病分類第10版(http://www.dis.h.u-tokyo.ac.jp/byomei/icd10/)に記載されている各ICDコードの分類見出しを文脈意味確率モデルのモデルパラメータの値を推定するのに用いるため、分類見出しの文字列と対応するICDコードの組も訓練データ集合データベース320に格納した。
表1は、上記の手法で判定ルールを生成して、ベンチマークセットのテストデータに含まれる2134個の病名・症状用語に適用した場合の意味コードの正解率と、正しく意味コードが推定された用語の個数(正解数)を表す。表には意味コード判定部による推定結果の正解率の他に、用語意味確率を最大にする意味コードを選択した場合の正解率を用語意味確率計算部の欄に、文脈意味確率を最大にする意味コードを選択した場合の正解率を文脈意味確率計算部の欄にあわせて記す。表より、用語の文字列に含まれる部分文字列から算出する用語意味確率と、用語の前後に記載されている文字列から算出する文脈意味確
率と、を組み合わせて用いることで意味コードの推定精度が向上することがわかる。
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、本実施の形態では、用語の意味コードを判定する処理と、用語意味確率モデル及び文脈意味確率モデルを生成する処理とを、1つの装置で行う場合を例に説明したが、意味コードを判定する処理と、用語意味確率モデル及び文脈意味確率モデルを生成する処理とを、別々の装置で実行してもよい。その場合には、用語の意味コードを判定する用語意味コード判定装置は、用語特徴ベクトル生成部22と、用語意味確率計算部24と、文脈特徴ベクトル生成部26と、文脈意味確率計算部28と、意味コード判定部30とを含んで構成され、用語意味確率モデル及び文脈意味確率モデルを生成する確率モデル生成装置は、確率モデル生成部32を含んで構成される。
また、本実施の形態では、意味コードが予め付与された用語の文字列と、意味コードが予め付与された、用語の前後に記述される文字列とを、訓練データとして用いる場合を例に説明したが、これに限定されるものではなく、用語の文字列と用語の前後に記述される文字列と意味コードとの組み合わせを表すデータを訓練データとして用いてもよい。
また、上述の用語意味コード判定装置は、内部にコンピュータシステムを有しているが、コンピュータシステムは、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読取り可能な記録媒体に格納して提供することも可能である。
10 入力部
11 テキスト入力部
12 用語入力部
14 文脈入力部
16 訓練データ入力部
20 演算部
22 用語特徴ベクトル生成部
26 文脈特徴ベクトル生成部
24 用語意味確率計算部
28 文脈意味確率計算部
32 確率モデル生成部
30 意味コード判定部
40 出力部
100 用語意味コード判定装置
320 訓練データ集合データベース
322 用語特徴ベクトル生成部
324 用語意味確率モデル生成部
326 用語意味確率モデル記憶部
328 文脈特徴ベクトル生成部
330 文脈意味確率モデル生成部
332 文脈意味確率モデル記憶部

Claims (7)

  1. 入力されたテキスト中における用語に対して、意味コードを判定する用語意味コード判定装置であって、
    前記用語の文字列から、用語特徴ベクトルを生成する用語特徴ベクトル生成部と、
    前記用語特徴ベクトル生成部によって生成された前記用語特徴ベクトルに基づいて、各意味コードに対する適合度を表す用語意味確率を計算する用語意味確率計算部と、
    前記用語の前後に記述されている文字列から、文脈特徴ベクトルを生成する文脈特徴ベクトル生成部と、
    前記文脈特徴ベクトル生成部によって生成された前記文脈特徴ベクトルに基づいて、各意味コードに対する適合度を表す文脈意味確率を計算する文脈意味確率計算部と、
    前記用語意味確率計算部によって計算された各意味コードに対する用語意味確率、及び前記文脈意味確率計算部によって計算された各意味コードに対する文脈意味確率に基づいて、前記用語の意味コードを判定する意味コード判定部と、
    を含む用語意味コード判定装置。
  2. 前記用語意味確率計算部は、前記用語特徴ベクトル生成部によって生成された前記用語特徴ベクトルと、前記用語特徴ベクトルから各意味コードに対する用語意味確率を計算するための予め学習された用語意味確率モデルとに基づいて、各意味コードに対する用語意味確率を計算し、
    前記文脈意味確率計算部は、前記文脈特徴ベクトル生成部によって生成された前記文脈特徴ベクトルと、前記文脈特徴ベクトルから各意味コードに対する文脈意味確率を計算するための予め学習された文脈意味確率モデルとに基づいて、各意味コードに対する文脈意味確率を計算する請求項1記載の用語意味コード判定装置。
  3. 意味コードが予め付与された複数の用語の文字列の各々について生成された前記用語特徴ベクトルと、前記複数の用語の文字列の各々に付与された意味コードとに基づいて、前記用語意味確率モデルを学習する用語意味確率モデル生成部と、
    意味コードが予め付与された、用語の前後に記述される文字列の各々について、前記用語の前後に記述される文字列から生成された前記文脈特徴ベクトルと、前記用語の前後に記述される文字列の各々に付与された意味コードとに基づいて、前記文脈意味確率モデルを学習する文脈意味確率モデル生成部とを更に含む請求項2記載の用語意味コード判定装置。
  4. 前記用語特徴ベクトル生成部は、前記用語について、前記用語に含まれる文字、及び前記用語の文字列に含まれる部分文字列から、各部分文字列の有無又は個数と、文字の種類及び該文字の前又は後の文字との各組み合わせの有無又は個数と、を表す前記用語特徴ベクトルを生成する請求項1〜請求項3の何れか1項に記載の用語意味コード判定装置。
  5. 用語特徴ベクトル生成部、用語意味確率計算部、文脈特徴ベクトル生成部、文脈意味確率計算部、及び意味コード判定部を含み、入力されたテキスト中における用語に対して、意味コードを判定する用語意味コード判定装置における用語意味コード判定方法であって、
    前記用語特徴ベクトル生成部が、前記用語の文字列から、用語特徴ベクトルを生成するステップと、
    前記用語意味確率計算部が、前記用語特徴ベクトル生成部によって生成された前記用語特徴ベクトルに基づいて、各意味コードに対する適合度を表す用語意味確率を計算するステップと、
    前記文脈特徴ベクトル生成部が、前記用語の前後に記述されている文字列から、文脈特徴ベクトルを生成するステップと、
    前記文脈意味確率計算部が、前記文脈特徴ベクトル生成部によって生成された前記文脈特徴ベクトルに基づいて、各意味コードに対する適合度を表す文脈意味確率を計算するステップと、
    前記意味コード判定部が、前記用語意味確率計算部によって計算された各意味コードに対する用語意味確率、及び前記文脈意味確率計算部によって計算された各意味コードに対する文脈意味確率に基づいて、前記用語の意味コードを判定するステップと、
    を含む用語意味コード判定方法。
  6. 前記用語特徴ベクトル生成部が用語特徴ベクトルを生成するステップは、前記用語について、前記用語に含まれる文字、及び前記用語の文字列に含まれる部分文字列から、各部分文字列の有無又は個数と、文字の種類及び該文字の前又は後の文字との各組み合わせの有無又は個数と、を表す前記用語特徴ベクトルを生成する請求項5に記載の用語意味コード判定方法。
  7. コンピュータを、請求項1〜請求項4のいずれか1項に記載の用語意味コード判定装置を構成する各部として機能させるためのプログラム。
JP2015137799A 2015-07-09 2015-07-09 用語意味コード判定装置、用語意味コード判定モデル学習装置、方法、及びプログラム Active JP6495124B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015137799A JP6495124B2 (ja) 2015-07-09 2015-07-09 用語意味コード判定装置、用語意味コード判定モデル学習装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015137799A JP6495124B2 (ja) 2015-07-09 2015-07-09 用語意味コード判定装置、用語意味コード判定モデル学習装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2017021523A true JP2017021523A (ja) 2017-01-26
JP6495124B2 JP6495124B2 (ja) 2019-04-03

Family

ID=57889599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015137799A Active JP6495124B2 (ja) 2015-07-09 2015-07-09 用語意味コード判定装置、用語意味コード判定モデル学習装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6495124B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200106126A (ko) * 2019-02-28 2020-09-11 네이버 주식회사 대화 시스템에서의 의도 불분명 질의를 처리하는 방법 및 시스템
JP2020149369A (ja) * 2019-03-13 2020-09-17 株式会社東芝 対話制御システム、対話制御方法及びプログラム
US11797581B2 (en) 2018-06-12 2023-10-24 Fujitsu Limited Text processing method and text processing apparatus for generating statistical model

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006107353A (ja) * 2004-10-08 2006-04-20 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2006127077A (ja) * 2004-10-28 2006-05-18 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
US20070136689A1 (en) * 2005-12-13 2007-06-14 David Richardson-Bunbury System for determining probable meanings of inputted words
JP2008009671A (ja) * 2006-06-29 2008-01-17 National Institute Of Information & Communication Technology データ表示装置、データ表示方法及びデータ表示プログラム
JP2008021139A (ja) * 2006-07-13 2008-01-31 National Institute Of Information & Communication Technology 意味タグ付け用モデル構築装置、意味タグ付け装置及びコンピュータプログラム
JP2008225846A (ja) * 2007-03-13 2008-09-25 Nippon Telegr & Teleph Corp <Ntt> 単語意味タグ付与装置および方法、プログラム並びに記録媒体
WO2013132614A1 (ja) * 2012-03-07 2013-09-12 三菱電機株式会社 語義推定装置、方法及びプログラム
WO2015029241A1 (en) * 2013-08-27 2015-03-05 Nec Corporation Word translation acquisition method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006107353A (ja) * 2004-10-08 2006-04-20 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2006127077A (ja) * 2004-10-28 2006-05-18 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
US20070136689A1 (en) * 2005-12-13 2007-06-14 David Richardson-Bunbury System for determining probable meanings of inputted words
JP2008009671A (ja) * 2006-06-29 2008-01-17 National Institute Of Information & Communication Technology データ表示装置、データ表示方法及びデータ表示プログラム
JP2008021139A (ja) * 2006-07-13 2008-01-31 National Institute Of Information & Communication Technology 意味タグ付け用モデル構築装置、意味タグ付け装置及びコンピュータプログラム
JP2008225846A (ja) * 2007-03-13 2008-09-25 Nippon Telegr & Teleph Corp <Ntt> 単語意味タグ付与装置および方法、プログラム並びに記録媒体
WO2013132614A1 (ja) * 2012-03-07 2013-09-12 三菱電機株式会社 語義推定装置、方法及びプログラム
US20150006155A1 (en) * 2012-03-07 2015-01-01 Mitsubishi Electric Corporation Device, method, and program for word sense estimation
WO2015029241A1 (en) * 2013-08-27 2015-03-05 Nec Corporation Word translation acquisition method

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
九岡 佑介、外2名: "複数の特徴ベクトルのクラスタリングに基づく単語の意味の弁別", 言語処理学会第14回年次大会発表論文集, JPN6018020469, 17 March 2008 (2008-03-17), JP, pages 572 - 575, ISSN: 0003809262 *
持橋 大地、外1名: "意味の確率的表現", 情報処理学会研究報告, vol. 第2002巻,第4号, JPN6010000736, 22 January 2002 (2002-01-22), JP, pages 77 - 84, ISSN: 0003970276 *
持橋 大地、外1名: "連想としての意味", 情報処理学会研究報告, vol. 第99巻,第95号, JPN6019003099, 26 November 1999 (1999-11-26), JP, pages 155 - 162, ISSN: 0003970277 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11797581B2 (en) 2018-06-12 2023-10-24 Fujitsu Limited Text processing method and text processing apparatus for generating statistical model
KR20200106126A (ko) * 2019-02-28 2020-09-11 네이버 주식회사 대화 시스템에서의 의도 불분명 질의를 처리하는 방법 및 시스템
KR102204740B1 (ko) * 2019-02-28 2021-01-19 네이버 주식회사 대화 시스템에서의 의도 불분명 질의를 처리하는 방법 및 시스템
US11403345B2 (en) 2019-02-28 2022-08-02 Naver Corporation Method and system for processing unclear intent query in conversation system
JP2020149369A (ja) * 2019-03-13 2020-09-17 株式会社東芝 対話制御システム、対話制御方法及びプログラム
CN111694933A (zh) * 2019-03-13 2020-09-22 株式会社东芝 对话控制系统、对话控制方法以及存储介质
JP7055764B2 (ja) 2019-03-13 2022-04-18 株式会社東芝 対話制御システム、対話制御方法及びプログラム
US11783129B2 (en) 2019-03-13 2023-10-10 Kabushiki Kaisha Toshiba Interactive control system, interactive control method, and computer program product

Also Published As

Publication number Publication date
JP6495124B2 (ja) 2019-04-03

Similar Documents

Publication Publication Date Title
US10713571B2 (en) Displaying quality of question being asked a question answering system
CN110427618B (zh) 对抗样本生成方法、介质、装置和计算设备
US9916304B2 (en) Method of creating translation corpus
JP5356197B2 (ja) 単語意味関係抽出装置
US8364470B2 (en) Text analysis method for finding acronyms
Sahu et al. Feature engineering and ensemble-based approach for improving automatic short-answer grading performance
CN110162771B (zh) 事件触发词的识别方法、装置、电子设备
US20180181544A1 (en) Systems for Automatically Extracting Job Skills from an Electronic Document
Qian et al. Tri-training for authorship attribution with limited training data
US8442771B2 (en) Methods and apparatus for term normalization
US9262400B2 (en) Non-transitory computer readable medium and information processing apparatus and method for classifying multilingual documents
JP2019185551A (ja) アノテーション付テキストデータの拡張方法、アノテーション付テキストデータの拡張プログラム、アノテーション付テキストデータの拡張装置、及び、テキスト分類モデルの訓練方法
US11669740B2 (en) Graph-based labeling rule augmentation for weakly supervised training of machine-learning-based named entity recognition
US11507746B2 (en) Method and apparatus for generating context information
CN107357765A (zh) Word文档碎片化方法及装置
Zavala et al. A Hybrid Bi-LSTM-CRF model for Knowledge Recognition from eHealth documents.
CN116661855A (zh) 一种代码注释生成方法及装置
JP6495124B2 (ja) 用語意味コード判定装置、用語意味コード判定モデル学習装置、方法、及びプログラム
CN113553853B (zh) 命名实体识别方法、装置、计算机设备及存储介质
Liu et al. Integrated cTAKES for Concept Mention Detection and Normalization.
CN112559711A (zh) 一种同义文本提示方法、装置及电子设备
JP6368633B2 (ja) 用語意味学習装置、用語意味判定装置、方法、及びプログラム
Trye et al. A hybrid architecture for labelling bilingual māori-english tweets
CN110866393B (zh) 基于领域知识库的简历信息抽取方法及系统
Shekhar et al. Computational linguistic retrieval framework using negative bootstrapping for retrieving transliteration variants

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190306

R150 Certificate of patent or registration of utility model

Ref document number: 6495124

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150