JP7265837B2 - 学習装置および学習方法 - Google Patents

学習装置および学習方法 Download PDF

Info

Publication number
JP7265837B2
JP7265837B2 JP2017141170A JP2017141170A JP7265837B2 JP 7265837 B2 JP7265837 B2 JP 7265837B2 JP 2017141170 A JP2017141170 A JP 2017141170A JP 2017141170 A JP2017141170 A JP 2017141170A JP 7265837 B2 JP7265837 B2 JP 7265837B2
Authority
JP
Japan
Prior art keywords
sentence
word
vector
geodesic
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017141170A
Other languages
English (en)
Other versions
JP2019021206A (ja
Inventor
祐 宮崎
隼人 小林
香里 谷尾
晃平 菅原
正樹 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2017141170A priority Critical patent/JP7265837B2/ja
Publication of JP2019021206A publication Critical patent/JP2019021206A/ja
Application granted granted Critical
Publication of JP7265837B2 publication Critical patent/JP7265837B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、学習装置および学習方法に関する。
従来、入力された情報の解析結果に基づいて、入力された情報と関連する情報を検索もしくは生成し、検索もしくは生成した情報を応答として出力する技術が知られている。このような技術の一例として、入力されたテキストに含まれる単語、文章、文脈を多次元ベクトルに変換して解析し、解析結果に基づいて、入力されたテキストと類似するテキストや、入力されたテキストに続くテキストを類推し、類推結果を出力する自然言語処理の技術が知られている。
特開2000-353160号公報
"word2vecによる自然言語処理",西尾泰和,2014年05月発行,ISBN978-4-87311-683-9
しかしながら、上記の従来技術では、所定の概念の理解を援助する情報を出力することができない場合がある。
例えば、上記の従来技術では、入力されたテキストと類似するテキストや、入力されたテキストに続くテキスト等、利用者が予測しうる情報を出力しているに過ぎない。このため、例えば、たとえ話等、利用者の理解を援助する情報を出力することができない場合がある。
本願は、上記に鑑みてなされたものであって、所定の概念の理解を援助する情報を出力することを目的とする。
本願に係る学習装置は、所定の構造を有する文章に含まれる単語群を抽出する抽出部と、同一の文章から抽出された単語群に含まれる各単語の概念を示すベクトルが、当該文章と対応するベクトルの合成で構成されるようにするように、前記単語から当該単語の概念を示すベクトルを生成するモデルを学習する学習部とを有することを特徴とする。
実施形態の一態様によれば、所定の概念の理解を援助する情報を出力することができる。
図1は、実施形態に係る学習装置が実行する学習処理の一例を示す図である。 図2は、実施形態に係る学習装置の構成例を示す図である。 図3は、実施形態に係る正解データデータベースに登録される情報の一例を示す図である。 図4は、実施形態に係るベクトルデータベースに登録される情報の一例を示す図である。 図5は、実施形態に係る測地線データベースに登録される情報の一例を示す図である。 図6は、実施形態に係る学習装置が比較する構造の一例を示す図である。 図7は、実施形態に係る学習処理の流れの一例を説明するフローチャートである。 図8は、実施形態に係る測定処理の流れの一例を説明するフローチャートである。 図9は、ハードウェア構成の一例を示す図である。
以下に、本願に係る学習装置および学習方法を実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る学習装置および学習方法が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
[実施形態]
〔1-1.学習装置の一例〕
まず、図1を用いて、学習装置が実行する処理の一例について説明する。図1は、実施形態に係る学習装置が実行する学習処理の一例を示す図である。図1では、学習装置10は、以下に説明する学習処理を実行する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。
より具体的には、学習装置10は、インターネット等の所定のネットワークNを介して、入力装置100や情報処理装置200(例えば、図2を参照)といった任意の装置と通信が可能である。
ここで、入力装置100は、マイクなどの音声を取得する音声取得装置を用いて、利用者の発言を取得する。そして、入力装置100は、任意の音声認識技術を用いて、発言をテキストデータに変換し、変換後のテキストデータを学習装置10へと送信する。また、情報処理装置200は、スピーカ等の音声を出力する装置を用いて、学習装置10から受信したテキストデータの読み上げを行う。なお、情報処理装置200は、学習装置10から受信したテキストデータを所定の表示装置に表示してもよい。
なお、入力装置100や情報処理装置200は、スマートフォンやタブレット等のスマートデバイス、デスクトップPC(Personal Computer)やノートPC等、サーバ装置等の情報処理装置により実現される。なお、入力装置100および情報処理装置200は、例えば、同一の情報処理装置によって実現されてもよく、例えば、ロボット等の装置によって実現されてもよい。
〔1-2.学習装置の処理について〕
ここで、ある事柄についてたとえ話を生成することができるのであれば、その事柄の概念を理解しているとも考えられる。また、かかる事柄の抽象化度が高い程、事柄をより良く理解しているとも考えられる。このため、学習装置10が事柄をより高度に抽象化できるのであれば、その事柄の概念を理解している(事柄の概念を学習している)と言うことができる。また、学習装置10が、ある事柄の概念をたとえ話にすることができるのであれば、利用者にその事柄をより容易に理解させることができるとも考えられる。
そこで、学習装置10は、入力された事柄を精度良く抽出するために、以下の学習処理を実行する。まず、学習装置10は、所定の構造を有する文章に含まれる複数の単語(以下、「単語群」と記載する)を抽出する。そして、学習装置10は、同一の文章から抽出された単語群に含まれる各単語の概念を示すベクトルが、その文章と対応するベクトルの合成を構成するように、単語から単語の概念を示すベクトルを生成するモデルを学習する。すなわち、学習装置10は、各単語のベクトルを合成した際に、ある文章から抽出した文章と対応するベクトルを構成するように、単語から単語の概念を示すベクトルを生成するモデルを学習する。より具体的には、学習装置10は、文章と対応するベクトルとして、文章と対応する測地線の接ベクトルを構成するように、各単語の概念を示すベクトルを生成するモデルを学習する。
例えば、学習装置10は、正解データとして入力された文章から第1単語、第2単語、および第3単語を抽出したものとする。このような場合、学習装置10は、word2vec等の技術を用いて、各単語を多次元量(ベクトル)へと変換する。ここで、word2vecでは、単語が入力された際に、単語が有する特徴(概念等)を示すベクトルへと変化させるモデルを用いて、単語をベクトルへと変換する。そして、学習装置10は、第1単語のベクトルを含むベクトル空間(分散表現空間)において、第1単語のベクトルと、第2単語のベクトルと、第3単語のベクトルとが測地線を構成するように、バックプロパゲーション等、各種任意の学習手法を用いて、word2vec(w2v)で用いるモデルの修正を行う。
例えば、学習装置10は、単語をn次元のベクトルへと変化するモデルを用いて、第1単語、第2単語、および第3単語をベクトルに変換する。より具体的な例を挙げると、学習装置10は、第1単語、第2単語および第3単語をモデルに入力することで、第1単語のベクトル「(a1、a2・・・・an)」、第2単語のベクトル「(b1、b2・・・・bn)」、および第3単語のベクトル「(c1、c2・・・・cn)」を取得する。
このような場合、学習装置10は、第1単語のベクトル「(a1、a2・・・・an)」、第2単語のベクトル「(b1、b2・・・・bn)」、および第3単語のベクトル「(c1、c2・・・・cn)」が、共通する測地線の接ベクトルとなるように、モデルの修正を行う。より具体的には、学習装置10は、第1単語のベクトルの方向に第1単語のベクトルを移動させたベクトルが第2単語のベクトルとなり、第2単語のベクトルの方向に第2単語のベクトルを移動させたベクトルが第3単語のベクトルとなるように、モデルの修正を行う。
このような処理の結果、学習装置10は、第1単語、第2単語および第3単語を含む文章が有する概念であって、文章が有する構成を考慮した概念を一つの測地線へと落とし込むことができる。このような文章の概念及び構造を落とし込んだ分散表現空間上で、各文章の測地線同士を比較した場合には、文章の構造を考慮した上で、文章の抽象化された概念同士を比較することができる。
例えば、「「月曜日」は「曜日」の「1つ目」である」という第1文章と「「1月1日」は「一年」の「初日」である」という第2文章とを考える。例えば、学習装置10は、「月曜日」を第1単語とし、「曜日」を第2単語とし「1つ目」を第3単語とし、上述した学習により生成されたモデルを用いて各単語をベクトル化した場合は、「月曜日」を示すベクトルを生成するとともに、「曜日」のベクトルとして、「月曜日」のベクトルの先に「月曜日」のベクトルを移動させたベクトルと、「1つ目」のベクトルとして、「曜日」のベクトルの先に「曜日」のベクトルを移動させたベクトルとを生成する。また、例えば、学習装置10は、「1月1日」を第1単語とし、「一年」を第2単語とし「初日」を第3単語とし、上述した学習により生成されたモデルを用いて各単語をベクトル化した場合は、「1月1日」を示すベクトルを生成するとともに、「一年」のベクトルとして、「1月1日」のベクトルの先に「1月1日」のベクトルを移動させたベクトルと、「初日」のベクトルとして、「一年」のベクトルの先に「一年」のベクトルを移動させたベクトルとを生成する。すなわち、学習装置10は、文章における出現順序(すなわち、構造)を接ベクトルの順番として保持する測地線を生成する。
ここで、算出した測地線からなる空間(以下、「測地線空間」と記載する。)上においては、第1文章の測地線と第2文章の測地線とのユークリッド距離とが近くなるとは限らない。しかしながら、第1文章および第2文章においては、文章構造が類似している。例えば、第1文章および第2文章では、第1単語が日付に関連する単語であり、第2単語が日付を含む単語であり、第3単語が第2単語において第1単語が示す意味を示す単語である。このため、測地線空間上においては、第1文章の測地線の形状(例えば、曲率等といった曲がり具合等)と第2文章の測地線の形状とが類似すると予測される。
このため、例えば、学習装置10は、正解データとなる様々な文章の測地線を測地線空間上に落とし込んでおき、測地線空間上において、処理対象となる文章の測地線と類似する測地線(例えば、処理対象となる文章の測地線をアフィン変換した測地線や、アフィン変換した測地線と類似する測地線等、形状が類似する測地線)が示す文章を出力した場合は、処理対象となる文章と構造が類似する文章、すなわち、処理対象となる文章のたとえ話を出力することができると考えられる。
そこで、学習装置10は、以下の測定処理を実行する。まず、学習装置10は、上述した学習処理によって学習が行われたモデルを用いて、利用者から受け付けた文章に含まれる単語の概念を示すベクトルを静止絵する。そして、学習装置10は、生成したベクトルを接ベクトルとする測地線を生成し、生成した測地線と他の文章と対応する測地線との類似性に基づいて、利用者から受付けた文章と同様の構造を有する文章を測地線空間上から特定する。そして、学習装置10は、特定した文章を出力する。より具体的には、学習装置10は、利用者から受付けた文章が有する概念を示すたとえとして、生成した文章を出力する。
〔1-3.学習処理や測定処理の利用例について〕
ここで、学習装置10は、上述したたとえ話を出力する処理を任意の目的で実行してよい。例えば、学習装置10は、利用者に概念を教示するために、上述した学習処理や測定処理を利用してもよい。より具体的な例を挙げると、学習装置10は、利用者が知識を有する分野でのたとえ話を生成することで、効率的に人に概念を理解させてもよい。
例えば、学習装置10は、利用者から文章Aおよび分野Dの指定を受付ける。このような場合、学習装置10は、測地線空間上において、分野Dに属する文章の測地線のうち、文章Aと類似する測地線を抽出する。そして、学習装置10は、抽出した測地線が示す文章Bを出力することで、利用者が指定した分野Dでのたとえ話を出力してもよい。より具体的には、学習装置10は、「文章Aに含まれる各単語の関係は、文章Bに含まれる各単語の関係みたいなもの」等といった応答を出力してもよい。
このように、学習装置10は、文章Aを構成する単語のみならず、文章Aの構造(各単語の関係性)を文章Aの概念の構成要素として学習し、構成要素が類似する概念(すなわち、文章Bの概念)を測地線空間上で抽出し、抽出した概念の構成要素を用いて、文章Aの概念のたとえ話を生成する。
なお、例えば、学習装置10は、利用者からたとえ話の条件を受付けてもよい。例えば、学習装置10は、文章Aおよび分野Dの指定と共に、たとえのベースとなる単語Cの指定を受付ける。このような場合、学習装置10は、分野Dに属する文章の測地線のうち、文章Aと類似する測地線であって、単語Cのベクトル(すなわち、単語Cの概念)を接ベクトルとする測地線を選択し、選択した測地線が示す文章を出力する。この結果、学習装置10は、文章Aに含まれる各単語の関係性を、単語Cを用いて例えたたとえ話を出力することができるので、利用者の理解を促進させることができる。
一方、上述したようなたとえ話の精度は、入力された文章の理解度を図る指標となりえる。そこで、学習装置10は、上述した測定処理により利用者から受付けた文章と単語群の関係性の連鎖が類似する文章を応答として出力し、利用者との対話を通して効率的な学習を行ってもよい。
例えば、学習装置10は、利用者から文章Aおよび分野Dの指定を受付ける。このような場合、学習装置10は、測地線空間上において、分野Dに属する文章の測地線のうち、文章Aの測地線と構造が類似する複数の測地線を候補として抽出する。そして、学習装置10は、抽出した測地線のうち、正答である最も可能性が高い測地線を用いてたとえ話を生成し、生成したたとえ話を出力する。この結果、利用者からたとえ話が正しい旨の入力を受付けた場合は、処理を終了する。一方、学習装置10は、利用者からたとえ話が間違っている旨の入力を受付けた場合は、その測地線を候補から除外するように、最も正答である可能性が高い測地線を再選択し、他の測地線からたとえ話を再生成する。そして、学習装置10は、再生成したたとえ話を出力する。このような処理を繰りかえす際に、正答である最も可能性が高い測地線を選択する際のアルゴリズムを段階的に補正すればよい。すなわち、学習装置10は、利用者から受付けた文章の測地線と類似する測地線を特定する際の特定アルゴリズム(換言すると、測地線同士の類似性を特定するアルゴリズム)を段階的に補正すればよい。
〔1-4.学習処理について〕
なお、学習装置10は、任意の数の単語を含む文章を測地線空間上に落とし込んでよい。例えば、学習装置10は、モデルを用いて、文章に含まれるn個の単語のベクトルを算出する。そして、学習装置10は、2~nまでの自然数をiとおいた場合に、i-1番目に出現する単語のベクトルの先にその単語のベクトルを移動したベクトルがi番目に出現する単語のベクトルとなるように、モデルの学習を行えばよい。
なお、学習装置10は、単語群が所定の構造を有する文章、すなわち、各単語が所定の関係性を有する文章であれば、任意の文章を正解データとし、上述した学習処理を実行すればよい。この際、学習装置10は、文章の内容が属する分野(例えば、医療分野や技術分野等)等に関わらず、任意の文章を正解データとして学習してよい。
〔1-5.類似性の判断について〕
ここで、学習装置10は、フィッシャー情報行列を用いて、測地線同士の比較を行ってもよい。より具体的には、学習装置10は、利用者から受付けた文章の測地線をパラメータとするフィッシャー情報行列と、他の文章の測地線をパラメータとするフィッシャー情報行列との類似性に基づいて、利用者から受付けた文章と同様の構造を有する文章を特定してもよい。すなわち、学習装置10は、測地線ξを有する確率密度関数の統計モデルにおける統計的不変性同士の比較結果に基づいて、測地線の比較を行ってもよい。
〔1-6.数式の一例について〕
ここで、上述した学習処理や測地線同士の比較は、以下の数式によって表すことができる。例えば、情報幾何学において、測地線ξの点pと点p’とをつなぐ接続は、以下の式(1)で表すことができる。ここで、式(1)では、点p’のダッシュをチルダで示した。
Figure 0007265837000001
ここで、各単語のベクトルは、測地線ξの接ベクトル(一次微分)となる。このため、1番目の単語のベクトルを接ベクトルdξとし、2番目の単語のベクトルをdξ’とすると、dξ’は、式(2)に示す接ベクトルdξの移動で示すことができる。また、3番目の単語のベクトルをdξ’’とすると、dξ’’は、式(3)に示す接ベクトルdξ’の移動で示すことができる。
Figure 0007265837000002
Figure 0007265837000003
ここで、測地線同士の比較において、フィッシャー情報行列を用いた処理を考える。ある測地線ξをパラメータとした場合、統計モデルp(x)における確率密度関数をp(x,ξ)とすると、分布状況を考慮した内積値gij(ξ)は、以下の式(4)で表すことができる。ここで、式(4)中の∂は、式(5)に示すξの偏微分を示す。また、式(4)のEは、式(6)に示す関数である。
Figure 0007265837000004
Figure 0007265837000005
Figure 0007265837000006
このような内積値gij(ξ)の値同士を比較することで、学習装置10は、測地線同士の比較を実現することができる。
〔1-7.学習装置10が実行する処理の一例〕
次に、図1を用いて、学習装置10が実行する学習処理および測定処理の一例について説明する。まず、学習装置10は、正解データとなる文章を用いた学習処理を実行する。具体的には、学習装置10は、所定のモデルを用いて、文章に含まれる各単語をベクトル化する(ステップS1)。例えば、学習装置10は、文章#1から単語#1-1、単語#1-2、単語#1-3を抽出した場合は、各単語をベクトル#1-1、ベクトル#1-2、ベクトル#1-3へとベクトル化する。
そして、学習装置10は、各単語のベクトルを接ベクトルと見做した際に1つの測地線を構成するように、単語をベクトル化するモデルの修正を行う(ステップS2)例えば、学習装置10は、ベクトル#1-1の先にベクトル#1-1を移動したベクトルが、ベクトル#1-2となり、ベクトル#1-2の先にベクトル#1-2を移動したベクトルが、ベクトル#1-3となるように、モデルの修正を行う。すなわち、学習装置10は、文章#1から抽出した各単語のベクトルが、測地線G1の接ベクトルを構成するように、単語をベクトル化するモデルを学習する。
続いて、学習装置10は、測定処理を実行する。まず、学習装置10は、学習したモデルを用いて、正解データの測地線を生成する(ステップS3)。例えば、学習装置10は、文章#2に含まれる単語群#2から各単語のベクトル#2-1~#2-3を生成し、生成したベクトル#2-1~#3-1を接ベクトルとする測地線、すなわち、文章#2に対応する測地線#2を生成する。また、学習装置10は、他にも、各種文章に対応する測地線を生成しておく。
また、学習装置10は、利用者の発言Aを入力として受付ける(ステップS4)。このような場合、学習装置10は、発言Aに含まれる単語群である発言単語群から、モデルを用いてベクトルを生成し、生成したベクトルを接ベクトルとする測地線を発言Aに対応する測地線を発言測地線として生成する。そして、学習装置10は、発言測地線と正解データの測地線とを比較し、類似する測地線を特定する(ステップS5)。
続いて、学習装置10は、類似する測地線と対応する文章を選択し(ステップS6)、選択した文章を発言Aに対するたとえ話として出力する(ステップS7)。例えば、学習装置10は、文章#1と対応する測地線#1と、文章#2と対応する測地線#2とのうち、発言測地線と測地線#1とが類似する場合、測地線#1と対応する文章#1を選択し、選択した文章に基づく応答を出力する。この結果、例えば、ロボット等の情報処理装置200は、文章#1に基づく応答を発言Bとして音声出力することができる。
〔2.学習装置の構成〕
以下、上記した学習処理を実現する学習装置10が有する機能構成の一例について説明する。図2は、実施形態に係る学習装置の構成例を示す図である。図2に示すように、学習装置10は、通信部20、記憶部30、および制御部40を有する。
通信部20は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、ネットワークNと有線または無線で接続され、入力装置100、および情報処理装置200との間で情報の送受信を行う。
記憶部30は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部30は、正解データデータベース31、ベクトルデータベース32、測地線データベース33、およびモデルデータベース34を記憶する。
正解データデータベース31には、正解データとなる文章が登録されている。例えば、図3は、実施形態に係る正解データデータベースに登録される情報の一例を示す図である。図3に示す例では、正解データデータベース31には、「文章ID(Identifier)」、「文章データ」、「第1単語」、「第2単語」等といった項目を有する情報が登録される。
ここで、「文章ID(Identifier)」は、正解データとなる文章を識別するための情報である。また、「文章データ」とは、文章のテキストデータである。また、「第1単語」とは、対応付けられた「文章データ」に含まれる単語群のうち、文章内に最初に出現する単語であり、「第2単語」とは、対応付けられた「文章データ」に含まれる単語群のうち、文章内に2番目に出現する単語である。なお、正解データデータベース31には、「第1単語」や「第2単語」以外にも、文章に含まれる単語が順に登録されているものとする。
例えば、図3に示す例では、文章ID「ID#1」、文章データ「文章データ#1」、第1単語「単語#1-1」、および第2単語「単語#1-2」が対応付けて登録されている。このような情報は、文章ID「ID#1」が示す文章が文章データ「文章データ#1」であり、かかる文章中に第1単語「単語#1-1」および第2単語「単語#1-2」が順に含まれている旨を示す。
なお、図3に示す例では、「文章データ#1」、「単語#1-1」、「単語#1-2」等といった概念的な値について記載したが、実際には文章のテキストデータや単語のテキストデータが登録されることとなる。
図2に戻り、説明を続ける。ベクトルデータベース32には、各単語のベクトルが登録されている。例えば、図4は、実施形態に係るベクトルデータベースに登録される情報の一例を示す図である。図4に示す例では、ベクトルデータベース32には、「単語」および「ベクトル情報」が登録されている。ここで、「単語」とは、ベクトルの元となる単語のテキストデータである。また、「ベクトル情報」とは、対応付けられた単語からモデルを用いて生成したベクトル、すなわち、単語の概念を示すベクトルである。
例えば、図4に示す例では、ベクトルデータベース32には、単語「単語#1-1」、およびベクトル情報「ベクトル#1」が対応付けて登録されている。このような情報は、単語「単語#1-1」の概念を示すベクトルが「ベクトル#1」である旨を示す。なお、図4に示す例では、「ベクトル#1」といった概念的な値について記載したが、実際には、ベクトルデータベース32には、モデルを用いて生成した多次元量であるベクトルが登録されることとなる。
図2に戻り、説明を続ける。測地線データベース33には、各文章と対応する測地線の情報が登録される。例えば、図5は、実施形態に係る測地線データベースに登録される情報の一例を示す図である。図5に示す例では、測地線データベース33には、「文章ID」、および「測地線情報」といった情報が対応付けて登録される。ここで、「測地線情報」とは、対応付けられた「文章ID」が示す文章と対応する測地線を示す情報であり、例えば、測地線を構成する確率密度関数である。より具体的には、「測地線情報」とは、対応付けられた「文章ID」が示す文章に含まれる各単語のベクトルを接ベクトルとする測地線である。
例えば、図5に示す例では、測地線データベース33には、文章ID「ID#1」および測地線情報「測地線情報#1」が登録されている。このような情報は、文章ID「ID#1」が示す文章の測地線が「測地線情報#1」により示される測地線である旨を示す。なお、図5に示す例では、「測地線情報#1」といった概念的な値について記載したが、実際には、測地線データベース33には、測地線を構成する関数が登録されることとなる。
図2に戻り、説明を続ける。モデルデータベース34には、単語が入力されると、単語が示す概念を示すベクトルを出力するモデルが登録されている。例えば、モデルデータベース34には、w2vにおいて単語をベクトル化するニューラルネットワークにおけるノード同士の接続関係、各ノードに用いられる関数、各ノード間で値を伝達する際の重みである接続係数等が登録される。このようなモデルを修正することで、学習装置10は、文章に含まれる各単語のベクトルが文章と対応する測地線の接ベクトルを構成するように、各単語をベクトル化するモデルを学習する。例えば、学習装置10は、文章に複数の単語が含まれる場合、最初に出現する単語のベクトルをそのベクトルの先に移動したベクトルが、2番目に出現する単語のベクトルとなり、2番目に出現する単語のベクトルをそのベクトルの先に移動したベクトルが、3番目に出現する単語のベクトルとなるように、単語をベクトル化するモデルを学習する。
なお、モデルは、単語群に関する情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、文章と対応する測地線の接ベクトルを構成するように、文章に含まれる各単語のベクトルを示す情報を出力するよう、コンピュータを機能させるためのモデルである。
制御部40は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、学習装置10内部の記憶装置に記憶されている各種プログラムがRAM等を作業領域として実行されることにより実現される。また、制御部40は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
また、制御部40は、記憶部30に記憶されるモデルに従った情報処理により、モデルの入力層に入力された単語に関する情報に対し、モデルが有する係数(すなわち、モデルが学習した特徴に対応する係数)に基づく演算を行い、モデルの出力層から、各単語の概念を示すベクトルを出力層から出力する。
図2に示すように、制御部40は、抽出部41、学習部42、生成部43、特定部44、および出力部45を有する。なお、抽出部41および学習部42は、上述した学習処理を実行し、選択部43~出力部45は、上述した測定処理を実行する。
抽出部41は、所定の構造を有する文章に含まれる単語群を抽出する。例えば、抽出部41は、図示を省略した任意の装置から正解データとして文章を受信すると、形態素解析等により、文章に含まれる単語群を抽出する。そして、抽出部41は、受信した文章と、文章に含まれる単語群とを正解データデータベース31に登録する。例えば、抽出部41は、単語群に含まれる各単語を、文章中に出現する順に、正解データデータベース31に登録する。
学習部42は、同一の文章から抽出された単語群に含まれる各単語の概念を示すベクトルが、その文章と対応するベクトルの合成を構成するように、単語から単語の概念を示すベクトルを生成するモデルを学習する。例えば、学習部42は、同一の文章から抽出された単語群に含まれる各単語の概念を示すベクトルが、文章と対応する測地線の接ベクトルを構成するように、単語からその単語の概念を示すベクトルを生成するモデルを学習する。すなわち、学習部42は、モデルデータベース32に登録されたモデルの学習を行う。
例えば、学習部42は、モデルデータベース34に登録されたモデルを読み出す。また、学習部42は、正解データデータベース31に登録された文章を読出し、読み出した文章に含まれる各単語をベクトル化する。そして、学習部42は、各単語と各単語のベクトルとを対応付けてベクトルデータベース33に登録する。
続いて、学習部42は、ベクトルデータベース33に登録された各単語のベクトルを用いて、モデルの修正を行う。より具体的には、学習部42は、ベクトルデータベース32に登録されたベクトルの中から、同一の文章に含まれる単語のベクトルを抽出する。そして、学習部42は、抽出したベクトルが同一の測地線の接ベクトルとなるように、モデルの修正を行う。換言すると、学習部42は、ある文章においてi-1番目に出現する単語のベクトルの先にその単語のベクトルを移動したベクトルがi番目に出現する単語のベクトルとなるように、モデルの学習を行う。
例えば、学習部42は、ある文章においてi-1番目に出現する単語からモデルが生成したベクトルの先にそのベクトルを移動したベクトル(以下、「指標ベクトル」と記載する。)と、i番目に出現する単語からモデルが生成したベクトルとを比較する。そして、学習部42は、i番目に出現する単語から生成するベクトルが指標ベクトルに近づくように、モデルが有する接続係数を修正する。
なお、学習部42は、同一の文章に含まれる単語群のうち、3つ以上の単語について、同時に、i-1番目に出現する単語からモデルが生成したベクトルの先にそのベクトルを移動したベクトルが、i番目に出現する単語からモデルが生成したベクトルとなるようにモデルの学習を行ってもよい。また、学習部42は、複数の文章について、同時に、上述したモデルの学習を行ってもい。このような処理を各文章および各単語について繰り返し実行することで、学習部42は、同一の文章に含まれる単語群を、その文章と対応する測地線の接ベクトルに変換するモデルを学習することができる。
このような学習部42の学習処理により生成されたモデルを用いて、各文章の単語群をベクトルに変換した場合は、文章と対応する測地線を得ることができる。このような測地線同士の比較を行うことで、文章が有する単語間の関係性の構造を比較することができる。例えば、図6は、実施形態に係る学習装置が比較する構造の一例を示す図である。例えば、図6に示す例では、文章#1には、単語#1-1~#1-3が含まれており、文章#2には、単語#2-1~#2-3が含まれている。
ここで、文章#1では、単語#1-1が文章#1のベースとなる概念を示し、単語#1-2がベースのバリエーションを示すという構成#1-1を有する。また、文章#1では、単語#1-3が、単語#1-1および単語#1-2からなる概念を修飾するという構成#1-2を有するものとする。このような文章#1に含まれる各単語を、学習部42が実行する学習処理によって学習が行われたモデルを用いてベクトル化した場合、文章#1の構造を測地線に落とし込むことができると考えられる。例えば、学習装置10は、単語#1-1のベクトルを単語#1-1のベクトルの先に移動したベクトルが、単語#1-2となるように、単語をベクトル化するので、文章において各単語#1-1~単語#1-3が出現する順序を測地線の関数に落とし込むことができる。
ここで、文章#2においても同様に、単語#2-1が文章#2のベースとなる概念を示し、単語#2-2がベースのバリエーションを示すという構成#2-1を有する。また、文章#2では、単語#2-3が、単語#2-1および単語#2-2からなる概念を修飾するという構成#2-2を有するものとする。このような文章#2を測地線に変換した場合、個々の単語#2-1~#2-3が単語#1-1~#1-3と類似せずとも、構成#2-1および構成#2-2が構成#1-1および構成#1-2と類似する場合は、文章#2の測地線が文章#1の測地線と類似すると考えられる。
そこで、学習装置10は、文章#1の測地線と文章#2の測地線とが類似する場合には、文章#1と文章#2とが類似する構造を有すると推定し、文章#1の構造が示す概念のたとえ話に文章#2が利用可能であると判定する。例えば、学習装置10は、以下に説明する測定処理を実行することで、文章#1のたとえ話を生成する。
図2に戻り、説明を続ける。生成部43は、学習部42により学習されたモデルを用いて、正解データである各文章を測地線に変換する。例えば、生成部43は、学習済みのモデルを用いて、正解データデータベース31に登録された各単語をベクトル化する。また、生成部43は、各単語のベクトルを改めてベクトルデータベース32に登録するとともに、同一の文章に含まれる各単語のベクトルから文章と対応する測地線の関数を算出する。そして、生成部43は、算出した測地線の関数を文章IDと対応付けて測地線データベース33に登録することで、各文章に含まれる単語の概念や、各文章の構造を反映させた測地線空間を生成する。
また、生成部43は、入力装置100を介して、利用者が入力した文章を受付けた場合は、学習部42により学習されたモデルを用いて、利用者から受け付けた文章に含まれる単語の概念を示すベクトルを生成する。例えば、生成部43は、抽出部41と同様に形態素解析等を用いて、利用者から受付けた文章に含まれる単語群を抽出する。そして、静止絵部43は、学習済みのモデルを用いて、抽出した単語群をそれぞれベクトルに変換し、変換後のベクトルを接ベクトルとする測地線、すなわち、利用者から受付けた文章と対応する測地線を算出する。
特定部44は、利用者から受付けた文章と対応する測地線と、他の文章と対応する測地線との類似性に基づいて、利用者から受付けた文章と同様の構造を有する文章を特定する。例えば、特定部44は、利用者から受付けた文章と対応する測地線を生成部43から受付けると、受付けた測地線と、測地線データベース33に登録された各測地線とを比較することで、利用者から受け付けた文章と構造が類似する他の文章を検索する。例えば、特定部44は、利用者から受付けた文章と対応する測地線と曲率等といった形状が最も類似する測地線を測地線データベース33から検索し、検索した測地線と対応する文章を特定する。
なお、特定部44は、利用者から受付けた文章の測地線をパラメータとするフィッシャー情報行列と、他の文章の測地線をパラメータとするフィッシャー情報行列との類似性に基づいて、利用者から受付けた文章と同様の構造を有する文章を特定してもよい。例えば、特定部44は、上述した式(4)~(6)を用いて、測地線データベース33に登録された各測地線ごとに、各測地線をパラメータとするフィッシャー情報行列を算出する。このようなフィッシャー情報行列は、測地線情報として測地線データベース33に登録されていてもよい。また、特定部44は、利用者から受付けた文章の測地線をパラメータとするフィッシャー情報行列を算出する。そして、特定部44は、各フィッシャー情報行列を比較することで、利用者から受付けた文章の測地線と類似する測地線を特定する。
出力部45は、特定部44により特定された文章を、利用者から受付けた文章が有する概念を示すたとえ話として出力する。例えば、出力部45は、特定部44によって特定された文章を正解データデータベース31から読み出す。そして、出力部45は、読み出した文章を、利用者から受付けた文章が有する概念を示すたとえ話として出力する。
〔3.学習装置が実行する処理の流れの一例〕
次に、図7を用いて、学習装置10が実行する学習処理の流れの一例について説明する。図7は、実施形態に係る学習処理の流れの一例を説明するフローチャートである。まず、学習装置10は、正解データとなる文章を取得すると(ステップS101)、取得した文章から単語群を抽出する(ステップS102)。そして、学習装置10は、単語群の各単語をベクトル化し(ステップS103)、各単語のベクトルが同じ測地線の接ベクトルとなるように、モデルの学習を行い(ステップS104)、処理を終了する。
次に、図8を用いて、学習装置10が実行する測定処理の流れの一例について説明する。図8は、実施形態に係る測定処理の流れの一例を説明するフローチャートである。まず、学習装置10は、利用者の発言等、利用者が入力した文章を取得すると(ステップS201)、文章に含まれる各単語群のベクトルを算出し、算出した各単語のベクトルを接ベクトルと見做すことで、文章と対応する測地線を算出する(ステップS202)。また、学習装置10は、類似する測地線を特定し(ステップS203)、特定した測地線と対応する文章を用いて、入力された文章のたとえ話を生成し(ステップS204)、生成したたとえ話を出力して(ステップS205)、処理を終了する。
〔4.変形例〕
上記では、学習装置10による学習処理および測定処理の一例について説明した。しかしながら、実施形態は、これに限定されるものではない。以下、学習装置10が実行する学習処理のバリエーションについて説明する。
〔4-1.学習処理について〕
上述した例では、学習装置10は、正解データとして受付けた文章の各単語をベクトル化し、各単語のベクトルを接ベクトルとする測地線を算出した。ここで、学習装置10は、所定の構造を有する文章であれば、任意の文章を正解データとして採用してよい。
また、例えば、学習装置10は、文章に含まれる単語間の関係性の構造に応じて、接ベクトルの順番を変化させてもよい。例えば、学習装置10は、第1の構造を有する文章を測地線空間に落とし込む場合は、各単語が文書中に出現する順序で、各単語のベクトルを接ベクトルとする測地線を生成する。一方、学習装置10は、第1の構造とは逆の概念を形成する第2の構造を有する文章を測地線空間に落とし込む場合は、各単語が文書中に出現する順序とは逆の順序で、各単語のベクトルを接ベクトルとする測地線を生成してもよい。また、学習装置10は、同様に、文章の構造に応じて異なる順番で、各単語のベクトルが文章と対応する測地線の接ベクトルとなるように、単語をベクトル化するモデルを学習してもよい。また、学習装置10は、文章と対応するベクトルを各単語のベクトルが構成する場合は、測地線以外にも、任意の手法を用いて、文章と対応するベクトルを構成するように、各単語のベクトルを生成すればよい。
〔4-2.装置構成〕
上述した例では、学習装置10は、学習装置10内で学習処理および測定処理を実行した。しかしながら、実施形態は、これに限定されるものではない。例えば、学習装置10は、学習処理のみを実行し、測定処理については、他の装置が実行してもよい。例えば、学習装置10が上述した学習処理によって生成した測地線空間をプログラムパラメータとして用いるプログラムを実行することで、学習装置10以外の情報処理装置が、上述した測定処理を実現してもよい。また、学習装置10は、正解データデータベース31や測地線データベース33を外部のストレージサーバに記憶させてもよい。
〔4-3.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文章中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、上記してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
〔5.プログラム〕
また、上述してきた実施形態に係る学習装置10は、例えば図9に示すような構成のコンピュータ1000によって実現される。図9は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD、フラッシュメモリ等により実現される。
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
例えば、コンピュータ1000が学習装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムまたはデータ(例えば、モデル)を実行することにより、制御部40の機能を実現する。コンピュータ1000の演算装置1030は、これらのプログラムまたはデータ(例えば、モデル)を一次記憶装置1040から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
〔6.効果〕
上述したように、学習装置10は、所定の構造を有する文章に含まれる単語群を抽出する。そして、学習装置10は、同一の文章から抽出された単語群に含まれる各単語の概念を示すベクトルが、その文章と対応するベクトルの合成を構成するように、単語から単語の概念を示すベクトルを生成するモデルを学習する。例えば、学習装置10は、文章と対応するベクトルとして、文章と対応する測地線の接ベクトルを構成するように、各単語の概念を示すベクトルを生成するモデルを学習する。このため、学習装置10は、文章に含まれる各単語の関係性の構造同士を比較可能な測地線空間空間を生成することができるので、例えば、たとえ話等、利用者の理解を援助する情報を出力することができる。
また、学習装置10は、学習されたモデルを用いて、利用者から受け付けた文章に含まれる単語の概念を示すベクトルを生成する。そして、学習装置10は、生成されたベクトルを接ベクトルとする測地線と、他の文章と対応する測地線との類似性に基づいて、利用者から受付けた文章と同様の構造を有する文章を特定する。このため、学習装置10は、各文章に含まれる単語の概念のみならず、各文章が有する構造同士の類似性に基づいて、利用者から受付けた文章と類似する文章を特定することができる。
また、学習装置10は、特定された文章を、利用者から受付けた文章が有する概念を示すたとえとして出力する。このため、学習装置10は、適切なたとえ話を出力することができる。
また、学習装置10は、利用者から受付けた文章の測地線をパラメータとするフィッシャー情報行列と、他の文章の測地線をパラメータとするフィッシャー情報行列との類似性に基づいて、利用者から受付けた文章と同様の構造を有する文章を特定する。このため、学習装置10は、測地線同士を適切に比較することができるので、利用者から受付けた文章と構造が類似する他の文章を特定することができる。
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、生成部は、生成手段や生成回路に読み替えることができる。
20 通信部
30 記憶部
31 正解データデータベース
32 ベクトルデータベース
33 測地線データベース
34 モデルデータベース
40 制御部
41 抽出部
42 学習部
43 生成部
44 特定部
45 出力部
100 入力装置
200 情報処理装置

Claims (3)

  1. 所定の文章に含まれる単語群を抽出する抽出部と、
    単語の特徴に基づいて当該単語をベクトル化するモデルを用いて、前記所定の文章から抽出された単語群に含まれる各単語をそれぞれベクトル化し、各単語と対応するベクトルを前記所定の文章に出現する順序で、ある単語と対応するベクトルの始点を当該単語の直前に出現する単語と対応するベクトルの終点となるように並べた際に、各単語と対応するベクトルのそれぞれが前記所定の文章が属する分野として前記所定の文章とともに指定された分野に対応する測地線に対する接線ベクトルとなるように前記モデルを再学習させることで、前記所定の文章が属する分野として前記所定の文章とともに指定された分野の文章が有する概念および構造を前記モデルに学習させる学習部と、
    比較対象となる文章ごとに、当該文章と対応する分野として指定された分野に基づき、当該文章に含まれる単語と対応するベクトルを前記学習部により学習されたモデルを用いて生成し、当該文章に出現する順に、ある単語と対応するベクトルの始点を当該単語の直前に出現する単語と対応するベクトルの終点となるように並べた際に、各ベクトルが連続する接ベクトルとなる測地線を前記比較対象となる文章ごとに生成する生成部と、
    前記測地線の類似性に基づいて、前記比較対象となる文章の類似性を特定する特定部と
    を有することを特徴とする学習装置。
  2. 前記特定部は、比較対象となる文章から生成された測地線をパラメータとするフィッシャー情報行列の類似性に基づいて、前記比較対象となる文章の類似性を特定する
    ことを特徴とする請求項1に記載の学習装置。
  3. 学習装置が実行する学習方法であって、
    所定の文章に含まれる単語群を抽出する抽出工程と、
    単語の特徴に基づいて当該単語をベクトル化するモデルを用いて、前記所定の文章から抽出された単語群に含まれる各単語をそれぞれベクトル化し、各単語と対応するベクトルを前記所定の文章に出現する順序で、ある単語と対応するベクトルの始点を当該単語の直前に出現する単語と対応するベクトルの終点となるように並べた際に、各単語と対応するベクトルのそれぞれが前記所定の文章が属する分野として前記所定の文章とともに指定された分野に対応する測地線に対する接線ベクトルとなるように前記モデルを再学習させることで、前記所定の文章が属する分野として前記所定の文章とともに指定された分野の文章が有する概念および構造を前記モデルに学習させる学習工程と、
    比較対象となる文章ごとに、当該文章と対応する分野として指定された分野に基づき、当該文章に含まれる単語と対応するベクトルを前記学習工程により学習されたモデルを用いて生成し、当該文章に出現する順に、ある単語と対応するベクトルの始点を当該単語の直前に出現する単語と対応するベクトルの終点となるように並べた際に、各ベクトルが連続する接ベクトルとなる測地線を前記比較対象となる文章ごとに生成する生成工程と、
    前記測地線の類似性に基づいて、前記比較対象となる文章の類似性を特定する特定工程と
    を含むことを特徴とする学習方法。
JP2017141170A 2017-07-20 2017-07-20 学習装置および学習方法 Active JP7265837B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017141170A JP7265837B2 (ja) 2017-07-20 2017-07-20 学習装置および学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017141170A JP7265837B2 (ja) 2017-07-20 2017-07-20 学習装置および学習方法

Publications (2)

Publication Number Publication Date
JP2019021206A JP2019021206A (ja) 2019-02-07
JP7265837B2 true JP7265837B2 (ja) 2023-04-27

Family

ID=65353565

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017141170A Active JP7265837B2 (ja) 2017-07-20 2017-07-20 学習装置および学習方法

Country Status (1)

Country Link
JP (1) JP7265837B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102227939B1 (ko) * 2019-04-02 2021-03-15 성균관대학교산학협력단 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 방법 및 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008287437A (ja) 2007-05-16 2008-11-27 Canon Inc 情報処理方法、情報処理装置
JP2008310796A (ja) 2007-06-15 2008-12-25 Mitsubishi Electric Research Laboratories Inc コンピュータにより実施される、訓練データから分類器を構築し、前記分類器を用いてテストデータ中の移動物体を検出する方法
JP2009523270A (ja) 2005-12-09 2009-06-18 フラウンホファー‐ゲゼルシャフト・ツア・フェルダルング ・デア・アンゲバンテン・フォルシュング・エー・ファウ. データ列の自動比較に用いられる方法およびその装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009523270A (ja) 2005-12-09 2009-06-18 フラウンホファー‐ゲゼルシャフト・ツア・フェルダルング ・デア・アンゲバンテン・フォルシュング・エー・ファウ. データ列の自動比較に用いられる方法およびその装置
JP2008287437A (ja) 2007-05-16 2008-11-27 Canon Inc 情報処理方法、情報処理装置
JP2008310796A (ja) 2007-06-15 2008-12-25 Mitsubishi Electric Research Laboratories Inc コンピュータにより実施される、訓練データから分類器を構築し、前記分類器を用いてテストデータ中の移動物体を検出する方法

Also Published As

Publication number Publication date
JP2019021206A (ja) 2019-02-07

Similar Documents

Publication Publication Date Title
JP5749279B2 (ja) アイテム関連付けのための結合埋込
US20190005399A1 (en) Learning device, generation device, learning method, generation method, and non-transitory computer readable storage medium
US11675975B2 (en) Word classification based on phonetic features
US11282501B2 (en) Speech recognition method and apparatus
CN105989067B (zh) 从图片生成文本摘要的方法、用户设备及训练服务器
JP6975610B2 (ja) 学習装置および学習方法
JP6195542B2 (ja) 学習装置、学習方法及び学習プログラム
JP5638503B2 (ja) テキスト要約装置、方法及びプログラム
JP2017199149A (ja) 学習装置、学習方法および学習プログラム
CN114443899A (zh) 视频分类方法、装置、设备及介质
US20190354533A1 (en) Information processing device, information processing method, and non-transitory computer-readable recording medium
KR20180137168A (ko) 신경망 기반의 텍스트의 카테고리를 분류하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
JP2020027609A (ja) 応答推論方法及び装置
JP2017199383A (ja) モデル
EP3625705A1 (en) Content access and storage
US20190122099A1 (en) Learning apparatus, generation apparatus, classification apparatus, learning method, and non-transitory computer readable storage medium
JP7058556B2 (ja) 判定装置、判定方法、および判定プログラム
JP6775366B2 (ja) 選択装置、および選択方法
JP6963988B2 (ja) 提供装置、提供方法および提供プログラム
JP7265837B2 (ja) 学習装置および学習方法
JP5355483B2 (ja) 略語完全語復元装置とその方法と、プログラム
JP2019021218A (ja) 学習装置、プログラムパラメータ、学習方法およびモデル
JP6964481B2 (ja) 学習装置、プログラムおよび学習方法
JP6680655B2 (ja) 学習装置および学習方法
JP2023021946A (ja) データ検索方法及びシステム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210531

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220209

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220209

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220217

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220222

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220428

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220510

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220614

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220705

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220913

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221114

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20221213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230213

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20230221

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20230328

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230417

R150 Certificate of patent or registration of utility model

Ref document number: 7265837

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350