JP2020160974A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2020160974A
JP2020160974A JP2019061544A JP2019061544A JP2020160974A JP 2020160974 A JP2020160974 A JP 2020160974A JP 2019061544 A JP2019061544 A JP 2019061544A JP 2019061544 A JP2019061544 A JP 2019061544A JP 2020160974 A JP2020160974 A JP 2020160974A
Authority
JP
Japan
Prior art keywords
sentence
important part
information indicating
information processing
learned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019061544A
Other languages
English (en)
Inventor
和久 大野
Kazuhisa Ono
和久 大野
伊藤 直之
Naoyuki Ito
直之 伊藤
靖寿 松葉
Yasuhisa Matsuba
靖寿 松葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2019061544A priority Critical patent/JP2020160974A/ja
Publication of JP2020160974A publication Critical patent/JP2020160974A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Document Processing Apparatus (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】文章内の重要箇所を適切に識別することができる情報処理装置等を提供する。【解決手段】情報処理装置1は、対象文を取得する取得部と、文章に対して、前記文章の重要箇所を示す情報を学習させた学習済みの変換器を用いて、取得した前記対象文に前記重要箇所を示す情報を付与する変換部とを備えることを特徴とする。文章の重要箇所を示す情報を学習済みの変換器を用いることで、文章内の重要箇所を適切に識別することができる。【選択図】図1

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。
文章内の重要度の高い箇所を抽出して強調表示させる技術がある。例えば特許文献1では、tf−idf法を用いて複数の文書からハイライト表示すべき単語又はフレーズを抽出し、ハイライト表示させる拾い読み支援システム等が開示されている。
特開2012−203868号公報
しかしながら、同じ語であっても、文脈によっては重要でない場合もある。特許文献1に係る発明は、ハイライト表示すべき単語又はフレーズとして抽出した語に一律にハイライトを付与するものであり、重要ではない語にもハイライトを付与する恐れがある。
一つの側面では、文章内の重要箇所を適切に識別することができる情報処理装置等を提供することを目的とする。
一つの側面に係る情報処理装置は、対象文を取得する取得部と、文章に対して、前記文章の重要箇所を示す情報を学習させた学習済みの変換器を用いて、取得した前記対象文に前記重要箇所を示す情報を付与する変換部とを備えることを特徴とする。
一つの側面では、文章内の重要箇所を適切に識別することができる。
ハイライト付与システムの構成例を示す模式図である。 サーバの構成例を示すブロック図である。 文章学習処理に関する説明図である。 ハイライト付与処理に関する説明図である。 文章学習処理の手順を示すフローチャートである。 ハイライト付与処理の手順を示すフローチャートである。 実施の形態2に係る文章学習処理に関する説明図である。 上述した形態のサーバの動作を示す機能ブロック図である。
以下、本発明をその実施の形態を示す図面に基づいて詳述する。
(実施の形態1)
図1は、ハイライト付与システムの構成例を示す模式図である。本実施の形態では、対象文の重要箇所にハイライトを付与するハイライト付与システムについて説明する。ハイライト付与システムは、情報処理装置1、端末2を含む。各装置は、インターネット等のネットワークNを介して通信接続されている。
情報処理装置1は、種々の情報処理、情報の送受信を行う装置であり、例えばサーバ装置、パーソナルコンピュータ等である。本実施の形態において情報処理装置1はサーバ装置であるものとし、以下では簡潔のためサーバ1と読み替える。サーバ1は、教師用の文章に対し、当該文章のハイライトを付与すべき箇所(重要箇所)を学習済みの変換モデルを用いて、ハイライトが付与されていない対象文を、ハイライトを付与した対象文に変換する処理を行う。
端末2は、サーバ1に接続されたクライアント端末であり、例えばパーソナルコンピュータ等である。例えばサーバ1は、ネットワークNを介して端末2から対象文のデータを取得し、取得した対象文を変換して端末2に出力する。
なお、本実施の形態ではクラウド上のサーバ1がハイライト付与処理を実行するものとするが、ローカル装置(例えば端末2)でハイライト付与処理を実行してもよい。
図2は、サーバ1の構成例を示すブロック図である。制御部11、主記憶部12、通信部13、補助記憶部14を有する。
制御部11は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置を有し、補助記憶部14に記憶されたプログラムPを読み出して実行することにより、種々の情報処理、制御処理等を行う。主記憶部12は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の一時記憶領域であり、制御部11が演算処理を実行するために必要なデータを一時的に記憶する。通信部13は、通信に関する処理を行うための通信モジュールであり、外部と情報の送受信を行う。
補助記憶部14は、ハードディスク、大容量メモリ等の不揮発性記憶領域であり、制御部11が処理を実行するために必要なプログラムP、その他のデータを記憶している。また、補助記憶部14は、変換モデル141を記憶している。変換モデル141は、機械学習により生成された学習済みモデルであり、ハイライト未付与の対象文を、ハイライトを付与した対象文に変換する学習済みモデルである。
なお、補助記憶部14はサーバ1に接続された外部記憶装置であってもよい。また、サーバ1は複数のコンピュータからなるマルチコンピュータであっても良く、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。
また、本実施の形態においてサーバ1は上記の構成に限られず、例えば操作入力を受け付ける入力部、画像を表示する表示部等を含んでもよい。また、サーバ1は、CD(Compact Disk)−ROM、DVD(Digital Versatile Disc)−ROM等の可搬型記憶媒体1aを読み取る読取部を備え、可搬型記憶媒体1aからプログラムPを読み取って実行するようにしても良い。あるいはサーバ1は、半導体メモリ1bからプログラムPを読み込んでも良い。
図3は、文章学習処理に関する説明図である。図3では、文章内の重要箇所(ハイライト箇所)を示す情報を未付与の文章と、重要箇所を示す情報を付与済みの文章とを用いた機械学習を行い、変換モデル141を生成する様子を概念的に図示している。図3に基づき、変換モデル141を生成する機械学習処理について説明する。
なお、以下の説明では便宜上、重要箇所を示す情報を未付与の文章を「ハイライト未付与文」と呼び、重要箇所を示す情報を付与済みの文章を「ハイライト付与文」と呼ぶものとする。
サーバ1は、変換モデル141を生成するための教師データであって、複数のハイライト未付与文と、各ハイライト未付与文に対応する複数のハイライト付与文とを用いて変換モデル141を生成する。図3下側に、当該教師データを図示してある。
ハイライト付与文に付与されている、重要箇所を示す情報は、例えば重要箇所の開始位置及び終了位置を示す情報である。具体的には、重要箇所を示す情報は、ハイライト未付与文に対し、重要箇所の開始位置及び終了位置に挿入された文字列であって、重要箇所の開始位置及び終了位置を表す文字列(メタデータ)である。
例えば図3下側の表に示すように、ハイライト付与文には、ハイライトすべき箇所(テキスト)の前後に、ハイライトの開始位置を表す「<h>」、及びハイライトの終了位置を表す「</h>」のタグが挿入されている。すなわち、本実施の形態でハイライト付与文には、重要箇所の開始位置及び終了位置を示す情報が、ハイライト付与文を構成する一つの文字列として含まれる。ハイライト付与文が与えられた場合、端末2は、上記のタグを参照して開始位置及び終了位置を識別し、タグで挟まれたテキストのハイライト表示を行う(図4参照)。
なお、上記のタグ(文字列)は文章内の重要箇所の開始位置及び終了位置を示す情報の一例であって、タグの挿入は必須ではない。
また、上記では重要箇所の開始位置及び終了位置を示す情報を付与するものとしたが、本実施の形態はこれに限定されず、開始位置から終了位置までに出現する全ての文字(文字列)に対して、個々に当該文字が重要箇所であることを示す識別情報を付与してもよい。すなわち、サーバ1は、文章内の重要箇所に対し、重要箇所であることをコンピュータが識別可能な情報を付与可能であればよく、その内容は特に限定されない。
サーバ1は、上記のハイライト未付与文及びハイライト付与文を用いて、ハイライト未付与文をハイライト付与文に変換する変換モデル141を生成する。上述の如く、変換モデル141は機械学習により生成される学習済みモデルであり、例えば深層学習により生成されるニューラルネットワークである。本実施の形態においてサーバ1は、RNN(Recurrent Neural Network)による文章生成モデルを利用し、変換モデル141を生成する。例えば、EncoderDecoderモデルの一種であるSequence−to−Sequence(Seq2Seq)を利用する。Seq2Seqの学習は任意長の入力列から任意長の出力列を出力するような学習である。ここでは、入力列をハイライト未付与文、出力列をハイライト付与文として学習を行う。
変換モデル141は、文章内で出現する各文字列のデータの入力を受け付けるための入力層と、各文字列に続いて出現する文字列を推定した推定結果を出力する出力層と、入力層及び出力層の間の演算処理を行う中間層(隠れ層)とを有する。入力層は、文章における出現順序に従って、文章内に出現する各文字列のデータの入力をそれぞれ受け付ける複数のニューロンを有する。中間層は、入力層の各ニューロンに対応して、入力層と出力層との間の演算を行うための複数のニューロンを有する。中間層のニューロンは、過去の演算結果を用いて次の入力値に関する演算を行うことで、直近までの時系列的なデータ(入力列)から次の値を演算する。出力層は、中間層から出力された演算値に基づき、文章内に出現する文字列の推定結果を表す出力値を出力する。
サーバ1はまず、ハイライト未付与文を所定単位の文字列毎に分割する。例えばサーバ1は、形態素解析などの所定の辞書データを参照して、ハイライト未付与文を単語毎に分割する。なお、分割単位は単語単位に限定されず、例えば一文字単位、あるいは単語よりも大きいフレーズ単位で文字列の分割を行ってもよい。
サーバ1は、分割した各文字列を、文章内での並び順に従って入力層に順次入力する。サーバ1は、文章の先頭から続く一又は複数の文字列を順次入力し、当該一又は複数の文字列に続いて出現すると推定される次の文字列のデータを、出力値として出力層から取得する。
ここでサーバ1は、重要箇所の開始位置及び終了位置を表すタグも文章を構成する一つの文字列とみなし、タグが出現する位置を推定する。例えば図3に示すように、サーバ1は、入力層に分割した全文章(全文字列)を入力後、「信長」、「は」という文字列が出力され、2つの文字列に続く文字列として、重要箇所の開始位置を表す<h>のタグが出現するか否かを推定する。当該タグが出現するとの推定結果が出力層から出力された場合、サーバ1は、上記の2つの文字列に続く次の文字列として、当該タグを挿入する。
サーバ1は、出力層の各ニューロンから出力された文字列を、入力層の次のニューロンに入力しながら演算を行い、文章の先頭から順に文字列の推定を行ってハイライト付与文を生成する。これによりサーバ1は、ハイライト未付与文をハイライト付与文に変換する。サーバ1は、変換したハイライト付与文を構成する各文字列を、教師用のハイライト付与文の各文字列と比較する。サーバ1は、両者が近似するように、各ニューロン間の重み、活性化関数の係数等の各種パラメータの最適化を行う。サーバ1は、教師データに含まれる各ハイライト未付与文及びハイライト付与文のペアについて上記の処理を行い、変換モデル141を生成する。
図4は、ハイライト付与処理に関する説明図である。図4に基づき、変換モデル141を用いて対象文をハイライト付与文に変換する処理について説明する。
サーバ1は、例えば端末2からハイライト付与対象とする対象文を取得する。サーバ1は、学習時と同様に、対象文を単語等の所定単位の文字列毎に分割する。
サーバ1は、分割した各文字列を、対象文における並び順に従って変換モデル141に順次入力する。サーバ1は変換モデル141から、対象文の先頭から続く一又は複数の文字列の次に出現する文字列を推定した推定結果を順次取得し、対象文を変換した文章を生成する。この場合にサーバ1は、重要箇所の開始位置及び終了位置を示すタグが出現するか否かも含めて文字列の推定を行い、重要箇所の開始位置及び終了位置にタグを挿入したハイライト付与文へと対象文を変換する。
サーバ1は、タグが挿入されたハイライト付与文を端末2に出力し、表示させる。端末2は、タグを参照して重要箇所の開始位置及び終了位置を識別し、重要箇所の背景色を変更するなどして他の箇所と色分けし、ハイライト表示を行う。なお、図4では便宜上、ハイライト表示を行っている様子をハッチングにより図示している。
なお、上記のハイライト表示は重要箇所の強調表示の一例であり、例えば端末2は、下線付き表示、太字表示、フォントの変更などで強調表示を行ってもよい。
図5は、文章学習処理の手順を示すフローチャートである。図5に基づき、機械学習を行って変換モデル141を生成する処理の処理内容について説明する。
サーバ1の制御部11は、変換モデル141を生成するための教師データであって、重要箇所を示す情報が付与されていないハイライト未付与文と、重要箇所を示す情報が付与されたハイライト付与文とを対応付けた教師データを取得する(ステップS11)。重要箇所を示す情報は、例えば重要箇所の開始位置及び終了位置を示す情報である。より具体的には、重要箇所を示す情報は、重要箇所を示す情報が未付与の文章に対し、重要箇所の開始位置及び終了位置に挿入する文字列であって、重要箇所の開始位置及び終了位置を表す文字列(メタデータ)である。
制御部11は、ハイライト未付与文を、所定単位の文字列毎に分割する(ステップS12)。例えば制御部11は、所定の辞書データを参照して単語毎に分割する。
制御部11は、各文字列に分割したハイライト未付与文と、ハイライト付与文とを用いて機械学習を行い、変換モデル141を生成する(ステップS13)。具体的には、制御部11は、ハイライト未付与文から分割した各文字列を文章の並び順に従って変換モデル141に入力し、重要箇所の開始位置及び終了位置と推定される位置に、重要箇所の開始位置及び終了位置を示す文字列を挿入したハイライト付与文を出力として取得する。制御部11は、出力されたハイライト付与文を教師用のハイライト付与文と比較し、両者が近似するように各種パラメータを最適化して変換モデル141を生成する。制御部11は一連の処理を終了する。
図6は、ハイライト付与処理の手順を示すフローチャートである。図6に基づき、変換モデル141を用いて対象文をハイライト付与文に変換する処理の処理内容について説明する。
サーバ1の制御部11は、端末2から対象文を取得する(ステップS31)。制御部11は、対象文を所定単位の文字列毎に分割する(ステップS32)。
制御部11は、分割した各文字列を対象文の並び順に従って変換モデル141に順次入力し、重要箇所を示す情報を付与したハイライト付与文に対象文を変換する(ステップS33)。具体的には上述の如く、制御部11は、対象文の先頭から順に各文字列を変換モデル141に入力し、重要箇所の開始位置及び終了位置と推定される位置に、重要箇所の開始位置及び終了位置を示す文字列を挿入したハイライト付与文を出力として取得する。制御部11は、変換したハイライト付与文を端末2に出力し(ステップS34)、一連の処理を終了する。
なお、上記では、入力文(ハイライト未付与文)を構成する各文字列を文章の並び順に従って先頭から順に入力するものとしたが、本実施の形態はこれに限定されず、例えば文章の末尾から順に入力してハイライトの開始位置及び終了位置を推定するようにしてもよい。
以上より、本実施の形態1によれば、ハイライト付与前のハイライト未付与文と、ハイライト付与後のハイライト付与文とを学習済みの変換モデル141を用いることで、文章内の重要箇所を適切に識別し、ハイライトを付与することができる。
また、本実施の形態1によれば、入力文(対象文)を構成する各文字列を時系列で扱う変換モデル141を利用することで、重要箇所の開始位置及び終了位置を適切に推定することができる。
また、本実施の形態1によれば、重要箇所の開始位置及び終了位置を表すタグ(文字列)を、文章を構成する一つの文字列とみなして処理することで、ハイライト付与文への変換を好適に行うことができる。
(実施の形態2)
本実施の形態では、ハイライトの種類に応じたタグを付与する形態について述べる。なお、実施の形態1と重複する内容については同一の符号を付して説明を省略する。
図7は、実施の形態2に係る文章学習処理に関する説明図である。本実施の形態では、教師用のハイライト付与文において、重要箇所を表示する際のハイライト(表示態様)の種類に応じたタグ(文字列)が付与されている。ハイライトの種類は、例えば図7下側の表に示すように、フォントサイズ、色の種類、太字表示の有無などであるが、ハイライトの具体的な表示手法(表示態様)は特に限定されない。また、実施の形態1でも説明したように、タグによる識別は一例であって、ハイライト付与文にはハイライトの種類に応じた情報が付与されていればよい。
サーバ1は、実施の形態1と同様にハイライト未付与文を所定単位の文字列毎に分割して変換モデル141に入力し、タグを含む各文字列を文章の先頭から順に推定してハイライト付与文を生成する。この場合にサーバ1は、ハイライトの種類に応じて異なるタグを推定し、ハイライト付与文を生成する。
サーバ1は、タグを含む各文字列を教師用のハイライト付与文の文字列と比較し、両者が近似するように学習を行う。この場合にサーバ1は、重要箇所の開始位置及び終了位置として推定したタグについて、ハイライトの種類も含めて同じになるように学習を行い、変換モデル141を生成する。
サーバ1は、生成した変換モデル141を用いて対象文の変換を行い、ハイライトの種類に応じて異なる種類のタグを挿入したハイライト付与文を生成して端末2に出力する。端末2がハイライト付与文を表示する場合、例えばタグの種類に応じて色を変えるなどして、重要箇所に応じたハイライト表示を行う。
ハイライトの種類に応じた文章の学習及び変換を行う点以外は実施の形態1と同様であるため、本実施の形態ではフローチャートその他の詳細な説明は省略する。
以上より、本実施の形態2によれば、重要箇所に応じて異なるハイライトを付与した文章を生成することができる。
(実施の形態3)
図8は、上述した形態のサーバ1の動作を示す機能ブロック図である。制御部11がプログラムPを実行することにより、サーバ1は以下のように動作する。
取得部81は、対象文を取得する。変換部82は、文章に対して、前記文章の重要箇所を示す情報を学習させた学習済みの変換器を用いて、取得した前記対象文に前記重要箇所を示す情報を付与する。
本実施の形態3は以上の如きであり、その他は実施の形態1及び2と同様であるので、対応する部分には同一の符号を付してその詳細な説明を省略する。
今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
1 サーバ(情報処理装置)
11 制御部
12 主記憶部
13 通信部
14 補助記憶部
P プログラム
141 変換モデル
2 端末

Claims (8)

  1. 対象文を取得する取得部と、
    文章に対して、前記文章の重要箇所を示す情報を学習させた学習済みの変換器を用いて、取得した前記対象文に前記重要箇所を示す情報を付与する変換部と
    を備えることを特徴とする情報処理装置。
  2. 前記対象文を複数の文字列に分割する分割部を備え、
    前記変換部は、前記複数の文字列を前記対象文の並び順に従って前記変換器に順次入力する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記変換部は、前記対象文を、前記重要箇所の開始位置及び終了位置を示す情報を付与した文章に変換する
    ことを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記変換部は、前記開始位置から前記終了位置までに出現する全ての文字列に対して個々に識別情報を付与した文章に変換する
    ことを特徴とする請求項3に記載の情報処理装置。
  5. 前記開始位置及び終了位置を示す情報は、該開始位置及び終了位置に挿入される文字列であり、
    前記変換部は、前記文章に対して前記開始位置及び終了位置を表す文字列が挿入された文章を学習済みの前記変換器を用いて、前記対象文に前記開始位置及び終了位置を表す文字列を挿入した文章に変換する
    ことを特徴とする請求項3に記載の情報処理装置。
  6. 前記重要箇所を示す情報は、該重要箇所を表示する際の表示態様の種類を示す情報を含み、
    前記変換部は、前記重要箇所に対し、前記表示態様の種類を示す情報を付与する
    ことを特徴とする請求項1〜5のいずれか1項に記載の情報処理装置。
  7. 対象文を取得し、
    文章に対して、前記文章の重要箇所を示す情報を学習させた学習済みの変換器を用いて、取得した前記対象文に前記重要箇所を示す情報を付与する
    処理をコンピュータに実行させることを特徴とする情報処理方法。
  8. 対象文を取得し、
    文章に対して、前記文章の重要箇所を示す情報を学習させた学習済みの変換器を用いて、取得した前記対象文に前記重要箇所を示す情報を付与する
    処理をコンピュータに実行させることを特徴とするプログラム。
JP2019061544A 2019-03-27 2019-03-27 情報処理装置、情報処理方法及びプログラム Pending JP2020160974A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019061544A JP2020160974A (ja) 2019-03-27 2019-03-27 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019061544A JP2020160974A (ja) 2019-03-27 2019-03-27 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2020160974A true JP2020160974A (ja) 2020-10-01

Family

ID=72639500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019061544A Pending JP2020160974A (ja) 2019-03-27 2019-03-27 情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2020160974A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7414868B2 (ja) 2022-02-18 2024-01-16 Lineヤフー株式会社 情報処理装置、情報処理方法および情報処理プログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005292958A (ja) * 2004-03-31 2005-10-20 National Institute Of Information & Communication Technology 教師データ作成装置およびプログラム、言語解析処理装置およびプログラム、ならびに要約処理装置およびプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005292958A (ja) * 2004-03-31 2005-10-20 National Institute Of Information & Communication Technology 教師データ作成装置およびプログラム、言語解析処理装置およびプログラム、ならびに要約処理装置およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7414868B2 (ja) 2022-02-18 2024-01-16 Lineヤフー株式会社 情報処理装置、情報処理方法および情報処理プログラム

Similar Documents

Publication Publication Date Title
US11386271B2 (en) Mathematical processing method, apparatus and device for text problem, and storage medium
US11106714B2 (en) Summary generating apparatus, summary generating method and computer program
CN108733837B (zh) 一种病历文本的自然语言结构化方法及装置
JP6462970B1 (ja) 分類装置、分類方法、生成方法、分類プログラム及び生成プログラム
CN107807968B (zh) 基于贝叶斯网络的问答装置、方法及存储介质
CN106778878B (zh) 一种人物关系分类方法及装置
US11429786B2 (en) Document analysis device, learning device, document analysis method, and learning method
WO2019118257A1 (en) Assertion-based question answering
US20220138601A1 (en) Question responding apparatus, learning apparatus, question responding method and program
CN111274829A (zh) 一种利用跨语言信息的序列标注方法
JP7155625B2 (ja) 検査装置、検査方法、プログラム及び学習装置
CN110750642A (zh) 一种基于cnn的中文关系分类方法及系统
JP2022145623A (ja) ヒント情報を提示する方法及び装置並びにコンピュータプログラム
JP2018097468A (ja) 文分類学習装置、文分類装置、文分類学習方法、及び文分類学習プログラム
CN115374259A (zh) 一种问答数据挖掘方法、装置及电子设备
JP2019101149A (ja) 設問自動生成プログラム及び設問自動生成装置
JP2020160974A (ja) 情報処理装置、情報処理方法及びプログラム
JP6770709B2 (ja) 機械学習用モデル生成装置及びプログラム。
Bikeyev Synthetic Ontologies: A Hypothesis
CN117501283A (zh) 文本到问答模型系统
JP7212642B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP7327647B2 (ja) 発話生成装置、発話生成方法、プログラム
JP6526607B2 (ja) 学習装置、学習方法、および学習プログラム
Sukhareva et al. Crowdsourcing a large dataset of domain-specific context-sensitive semantic verb relations
CN113537263A (zh) 二分类模型的训练方法及装置、实体链接方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230228

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230509