JP6400037B2 - 判定装置、および判定方法 - Google Patents

判定装置、および判定方法 Download PDF

Info

Publication number
JP6400037B2
JP6400037B2 JP2016054543A JP2016054543A JP6400037B2 JP 6400037 B2 JP6400037 B2 JP 6400037B2 JP 2016054543 A JP2016054543 A JP 2016054543A JP 2016054543 A JP2016054543 A JP 2016054543A JP 6400037 B2 JP6400037 B2 JP 6400037B2
Authority
JP
Japan
Prior art keywords
words
determination
word
relevance
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016054543A
Other languages
English (en)
Other versions
JP2017167986A (ja
Inventor
隼人 小林
隼人 小林
崇史 宮崎
崇史 宮崎
佑輔 渡邊
佑輔 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2016054543A priority Critical patent/JP6400037B2/ja
Priority to US15/453,317 priority patent/US20170270097A1/en
Publication of JP2017167986A publication Critical patent/JP2017167986A/ja
Application granted granted Critical
Publication of JP6400037B2 publication Critical patent/JP6400037B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、判定装置、および判定方法に関する。
従来、入力された情報の解析結果に基づいて、入力された情報と関連する情報を検索もしくは生成し、検索もしくは生成した情報を応答として出力する技術が知られている。このような技術の一例として、入力されたテキストに含まれる単語、文章、文脈を多次元ベクトルに変換して解析し、解析結果に基づいて、入力されたテキストと類似するテキストや、入力されたテキストに続くテキストを類推し、類推結果を出力する自然言語処理の技術が知られている。
特開2015−170168号公報
「生体分子の分子動力学シミュレーション(1)方法」、古明地勇人、上林正巳、長嶋雲兵、J. Chem. Software, Vol. 6, No. 1, p. 1-36 (2000)、インターネット<http://www.sccj.net/CSSJ/jcs/v6n1/a1/document.pdf>(2016年2月29日検索)
しかしながら、従来技術では、2つの単語間の関連性を利用して、テキストを多次元ベクトルに変換したり、入力されたテキストと類似するテキストを類推しているに過ぎず、3つ以上の単語間の関連性を利用する手法については、提案されていなかった。
本願は、上記に鑑みてなされたものであって、3つ以上の単語間の関連性を利用することで、自然言語処理の精度を向上させることを目的とする。
本願に係る判定装置は、関連性の判定対象となる3つの単語を分散表現空間上に対応付ける対応部と、前記3つの単語が有する関連性を、前記分散表現空間上に対応付けられた前記3つの単語により定義づけられる角度として判定する判定部とを有することを特徴とする。
実施形態の一態様によれば、自然言語処理の精度を向上させることができる。
図1は、実施形態に係る判定処理の一例を示す図である。 図2は、実施形態に係る判定装置が有する機能構成の一例を示す図である。 図3は、実施形態に係る単語データベースに登録される情報の一例を示す図である。 図4は、実施形態に係る判定装置が実行する処理の流れの一例を説明する図である。 図5は、ハードウェア構成の一例を示す図である。
以下に、本願に係る判定装置、判定装置、および判定方法を実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る判定装置、判定装置、および判定方法が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
〔1.判定装置〕
まず、図1を用いて、実施形態に係る判定処理の一例について説明する。図1は、実施形態に係る判定処理の一例を示す図である。図1では、所定の学習データC10を用いて、単語が有する意味の関連性(以下、「単語間の関連性」と記載する場合がある。)を判定する判定処理の一例について説明する。また、以下の説明では、判定処理の結果に基づいて、単語間の関連性を学習するとともに、学習結果に基づいて、入力された単語と類似する単語を出力する処理の一例について説明する。
判定装置10は、単語間の関連性を判定し、判定結果に基づく学習処理や判定処理を実行する装置である。例えば、判定装置10は、サーバ装置やクラウドシステム等により実現される。このような判定装置10は、単語間の関連性を判定する判定処理、判定処理の結果に基づいて単語間の関連性を学習した学習処理、及び判定結果に基づいて入力された単語と類似する単語等を出力する出力処理を実行する。
〔1−1.判定処理および学習処理〕
ここで、単語間の関連性を判定する手法の一つとして、W2V(Word to Vector)等、判定対象となる単語を複数次元の数値、すなわち分散表現に変換し、変換後の分散表現を分散表現空間上にマッピングすることで、単語間の関連性を判定する技術が知られている。例えば、このような分散表現を用いた従来技術では、学習データC10から単語を抽出し、抽出した単語を分散表現空間上にマッピングし、各単語の出現頻度や、学習データC10内における各単語の関係等に従って、分散表現空間上における各単語間のコサイン距離(内積、又はコサイン類似度とも呼ばれる。)を調整することで、各単語間の関連性を学習する。そして、従来技術では、最終的に得られた各単語間のコサイン距離等に基づいて、各単語が類似する単語であるか否かを判定する。すなわち、従来技術では、各単語間のコサイン距離に基づいて、単語間の関連性を判定する。
しかしながら、単語間のコサイン距離に基づいて、各単語が類似する単語であるか否かの判定を行った場合、2つの単語間の類似度を判定することができるものの、3つの単語が有する関連性に基づいた判定を行うことができない。すなわち、従来技術においては、2つの単語間の関連性を判定しているに過ぎず、3つ以上の単語間の関連性を精度良く判定することができなかった。例えば、従来技術では、単語#1、単語#2、および単語#3が有する関連性を判定する際に、単語#1と単語#2との関連性や、単語#2と単語#3との関連性を判定しているに過ぎず、単語#1を中心とした単語#2および単語#3の関係等、3つの単語が全体として有する関連性を判定することができない。この結果、従来技術では、3つ以上の単語が有する関連性を分散表現空間上に反映させることができず、学習精度を向上させることができなかった。
そこで、判定装置10は、以下の判定処理を実行する。まず、判定装置10は、学習データC10として、小説や特許明細書等の文章を取得する(ステップS1)。このような場合、判定装置10は、学習データC10に含まれるテキストの形態素解析を行い、判定対象とする単語を抽出する。例えば、判定装置10は、学習データC10に含まれる名詞を抽出する。また、判定装置10は、抽出した単語間の関連性を、分散表現空間上の距離および角度に落とし込んで判定する(ステップS2)。そして、判定装置10は、2単語間のコサイン距離、3単語間の角度、および4単語間の二面角をパラメータとすることで、単語間の関連性を学習したモデルを生成する学習処理を実行する。すなわち、判定装置10は、ステップS2に示した判定処理による判定結果に基づいて、単語間の関連性を判定するための学習器の学習を行う。
例えば、判定装置10は、2単語間の共起性をコサイン距離として判定する(ステップS3)。具体的な例を挙げると、判定装置10は、「バナナ」という単語と「リンゴ」という単語とを分散表現に変換する。そして、判定装置10は、学習データC10内で、「バナナ」という単語と「リンゴ」という単語とが出現する頻度や、「バナナ」という単語と「リンゴ」という単語が出現する近さ等に基づいて、「バナナ」という単語の分散表現と、「リンゴ」という単語の分散表現との間のコサイン距離を調整する。すなわち、判定装置10は、分散表現空間上のコサイン距離をパラメータとして、2単語間の関連性を学習する。
また、判定装置10は、3単語間の関連性を、基準単語を中心とする角度として判定する(ステップS4)。具体的には、判定装置10は、分散表現空間上にマッピングされた3単語によって定義づけられる角度として、3単語が有する関連性を判定する。例えば、判定装置10は、3単語のうちいずれか1つの単語を基準単語として選択する。また、判定装置10は、分散表現空間上において、基準単語を中心(頂点)とする他の2つの単語間の角度を算出する。例えば、判定装置10は、「バナナ」、「トマト」、「リンゴ」の関連性を判定する場合、分散表現空間上において「トマト」を頂点とする「バナナ」と「リンゴ」との間の角度θを、「バナナ」、「トマト」、「リンゴ」の関連性を示す情報として判定する。そして、判定装置10は、学習データC10内において各3単語が出現する頻度や近さ等に応じて、算出した角度θを調整する。すなわち、判定装置10は、分散表現空間上で3単語により生じる角度θをパラメータとして、3単語間の関連性を学習する。
また、判定装置10は、4単語間の関連性を、基準となる2つの単語を交線とする二面角として判定する(ステップS5)。具体的には、判定装置10は、分散表現空間上にマッピングされた4単語によって定義づけられる二面角として、4単語間の関連性を判定する。例えば、判定装置10は、4単語のうちいずれか2つを基準単語として選択する。そして、判定装置10は、選択した2つの基準単語を含む線を交線とする2つの面であって、基準単語以外の単語のうちそれぞれ異なる単語を含む面が有する角度φを算出する。例えば、判定装置10は、「バナナ」、「トマト」、「リンゴ」、および「オレンジ」の関連性を判定する場合、「リンゴ」と「トマト」を基準単語として選択する。なお、判定装置10は、任意の単語を基準単語として選択してよい。そして、判定装置10は、基準単語である「リンゴ」および「トマト」と、「バナナ」とを含む平面と、基準単語である「リンゴ」および「トマト」と、「オレンジ」とを含む平面との間の角度φを「バナナ」、「トマト」、「リンゴ」、および「オレンジ」の関連性を示す情報として判定する。そして、判定装置10は、学習データC10内において各4単語が出現する頻度や近さ等に応じて、算出した角度φを調整する。すなわち、判定装置10は、分散表現空間上で4単語により生じる角度φをパラメータとして、4単語間の関連性を学習する。
このように、判定装置10は、学習データC10から抽出される各単語から、2単語の組、3単語の組、及び4単語の組を生成し、生成した各組について、2単語間のコサイン距離、3単語間の角度、および4単語間の二面角をパラメータとして算出する。そして、判定装置10は、算出した各パラメータを、2単語間の関連性、3単語間の関連性、および4単語間の関連性として、学習データC10に基づいて調整することで、各単語間の関連性を学習した学習器を生成する(ステップS6)。
なお、判定装置10は、単語間の関連性を学習した学習器として、任意の態様の学習器を生成してよい。例えば、判定装置10は、複数の中間層を有するニューラルネットワーク等を用いて(いわゆるディープラーニングと呼ばれる技術を用いて)、各単語間の関連性を学習する。なお、判定装置10は、W2Vの学習を行う学習器において、2単語間のコサイン距離、3単語間の角度、および4単語間の二面角をパラメータとして学習させてもよい。
なお、例えば、判定装置10は、4単語間の二面角をパラメータとして学習するとともに、4単語に含まれる3単語間の角度をパラメータとして学習してもよい。また、判定装置10は、重複する単語について角度や二面角を判定してもよい。例えば、判定装置10は、「バナナ」を頂点とした「トマト」と「リンゴ」との間の角度と「トマト」を頂点とした「バナナ」と「リンゴ」との間の角度とを両方ともにパラメータにしてもよい。また、例えば、判定装置10は、「リンゴ」、「トマト」、「バナナ」を含む平面と、「リンゴ」、「トマト」「オレンジ」を含む平面との間の角度を算出するとともに、「オレンジ」、「トマト」、「バナナ」を含む平面と、「オレンジ」、「トマト」「リンゴ」を含む平面との角度を算出し、両角度をパラメータにしてもよい。すなわち、判定装置10は、上述した処理を適宜組み合わせた学習を行ってもよい。
〔1−2.出力処理〕
次に、判定装置10が判定結果に基づいて実行する出力処理について説明する。まず、判定装置10は、利用者U01が使用する端末装置100から、判定対象データを受付ける(ステップS7)。例えば、判定装置10は、判定対象データとして単語「バナナ」を受付ける。このような場合、判定装置10は、学習済みの2単語間のコサイン距離、3単語間の角度、4単語間の二面角をパラメータとして、判定対象データである単語「バナナ」と類似する単語を判定する。すなわち、判定装置10は、2単語間のコサイン距離、3単語間の角度、4単語間の二面角をパラメータとして、各単語をマッピングした分散表現空間を用いて、単語「バナナ」と類似する単語を判定する(ステップS8)。例えば、判定装置10は、「バナナ」とのコサイン距離が近い単語や、「バナナ」と角度が近い他の単語を抽出する。そして、判定装置10は、判定結果を端末装置100に出力する(ステップS9)。例えば、判定装置10は、分散表現空間上において単語「バナナ」と類似する単語が「リンゴ」である場合には、単語「リンゴ」を端末装置100に出力する。
なお、判定装置10は、判定結果に基づく処理であれば、任意の処理を出力処理として実行してもよい。例えば、判定装置10は、端末装置100から判定対象データとして3つの単語を受付けた場合には、分散表現空間上において、判定対象データとして受付けた3つの単語により定義づけられる角度θを算出する。そして、判定装置10は、算出した角度θの値に基づいて、判定対象データとして受付けた3つの単語が関連性を有するか否か、どのような関連性を有するか等を示す情報を判定結果として出力してもよい。同様に、判定装置10は、端末装置100から判定対象データとして4つの単語を受付けた場合には、分散表現空間上において、判定対象データとして受付けた4つの単語により定義づけられる二面角φを算出する。そして、判定装置10は、算出した二面角φの値に基づいて、判定対象データとして受付けた4つの単語が関連性を有するか否か、どのような関連性を有するか等を示す情報を判定結果として出力してもよい。
〔2.判定装置の構成〕
次に、上述した実施形態にかかる判定装置10の構成について説明する。図2は、実施形態に係る判定装置が有する機能構成の一例を示す図である。図2に示すように、判定装置10は、通信部20、記憶部30、および制御部40を有する。通信部20は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、ネットワークNと有線または無線で接続され、端末装置100や、データサーバ50の間で情報の送受信を行う。なお、データサーバ50は、各種の小説やニュース等の記事、論文データベースや特許明細書のデータベース等、学習データC10として利用可能な任意のテキストデータを配信する情報処理装置であり、サーバ装置やクラウドシステム等により実現される。
記憶部30は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部30は、学習データデータベース31、単語データベース32、およびモデルデータベース33(以下、「各データベース31〜33」と総称する場合がある。)を有する。
学習データデータベース31には、学習データC10が登録される。例えば、学習データデータベース31には、データサーバ50から学習データとして取得された小説、記事、論文、特許明細書等のテキストデータが登録されている。
単語データベース32には、学習データデータベース31に登録された学習データC10から抽出された単語が登録されている。例えば、図3は、実施形態に係る単語データベースに登録される情報の一例を示す図である。例えば、図3に示す例では、単語データベース32には、「組種別」、「単語#1」〜「単語#4」といった項目を有する情報が登録されている。
ここで、「組種別」とは、対応付けられた単語の数を示す情報である。例えば、単語データベース32には、組種別「2単語」に対し、2つの異なる単語を対応付けた情報が対応付けて登録され、組種別「3単語」に対し、3つの異なる単語を対応付けた情報が対応付けて登録されている。また、単語データベース32には、組種別「4単語」に対し、4つの異なる単語を対応付けた情報が対応付けて登録されている。なお、図3に示す例では、学習データC10から抽出された単語として、「リンゴ」や「バナナ」等といった単語が登録される例について記載したが、実施形態は、これに限定されるものではない。すなわち、単語データベース32には、学習データC10から抽出された任意の単語が登録されているものとする。
図2に戻り、説明を続ける。モデルデータベース33には、判定処理の結果である判定結果に基づいて学習されたモデルのデータが登録される。例えば、モデルデータベース33には、学習データC10に含まれる単語を、単語間の関係に基づいて分散表現空間上にマッピングしたモデル、すなわち、W2Vの処理に用いられるモデル等が登録される。なお、モデルデータベース33には、所謂ディープラーニング等に用いられる複数の中間層を有するニューラルネットワークのデータが登録されていてもよい。
制御部40は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、判定装置10内部の記憶装置に記憶されている各種プログラムがRAM等を作業領域として実行されることにより実現される。また、制御部40は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
図2に示すように、制御部40は、取得部41、解析部42、対応部43、判定部44、学習部45、および提供部46を有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部40の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
取得部41は、判定対象となる単語を含む学習データC10を取得する。例えば、取得部41は、データサーバ50等から学習データC10を取得する。そして、取得部41は、取得した学習データC10を学習データデータベース31に登録する。なお、取得部41は、データサーバ50以外にも、例えば、ウェブ上に存在する任意のテキストを学習データC10として収集し、収集した学習データC10を学習データデータベース31に登録してもよい。また、取得部41は、利用者U01が使用する端末装置100等から、学習用のテキストデータを含む学習データC10を取得し、取得した学習データC10を学習データデータベース31に登録してもよい。
解析部42は、学習データデータベース31に登録された学習データC10の解析を行い、判定対象となる単語、すなわち、学習対象となる単語を抽出する。例えば、解析部42は、学習データデータベース31から学習データC10を読み出すと、学習データC10の形態素解析を行う。そして、解析部42は、学習データC10から判定対象となる単語を抽出する。
また、解析部42は、抽出した単語から2つの単語の組(以下、「2単語」と記載する。)と、3つの単語の組(以下、「3単語」と記載する。)と、4つの単語の組(以下、「4単語」と記載する。)とを生成する。例えば、解析部42は、抽出した単語を総当たり的に組み合わせることで、2単語、3単語および4単語を生成し、生成した2単語、3単語および4単語を単語データベース32に登録する。
対応部43は、関連性の判定対象となる2単語、3単語および4単語を分散表現空間上に対応付ける。また、判定部44は、単語間の関連性を、分散表現空間上におけるコサイン距離、3単語により定義づけられる角度、および4単語により定義づけられる二面角として判定する。そして、学習部45は、判定部44による判定結果に基づいて、複数の単語が有する関連性を学習するモデルを生成し、生成したモデルをモデルデータベース33に登録する。
例えば、対応部43は、単語データベース32に登録された各単語を分散表現に変換する。続いて、判定部44は、単語データベース32に登録された各2単語について、以下の処理を実行する。まず、判定部44は、判定対象となる2単語の分散表現空間上におけるコサイン距離を、2単語が有する関連性のパラメータとして算出する。また、判定部44は、学習データデータベース31に登録された学習データC10を参照し、判定対象となる2単語が出現する頻度や、出現する文脈の同一性、学習データC10内で2単語が出現する近さ等を、2単語が有する関連性の指標として取得する。そして、学習部45は、2単語が有する関連性のパラメータとして判定部44が算出したコサイン距離をパラメータとし、判定部44が学習データC10から取得した指標に従って、判定対象となる2単語の分散表現を調整する。例えば、学習部45は、判定対象となる2単語が学習データC10上において類似する単語であるならば、コサイン距離の値がより大きくなるように、2単語の分散表現を調整する。
すなわち、判定部44は、2単語間の関連性を、分散表現空間上におけるコサイン距離として判定する。そして、学習部45は、判定結果に基づいて、判定対象となる2単語間の分散表現を学習する。このような調整を単語データベース32に登録された各2単語について実行することで、判定装置10は、各2単語間の関連性をコサイン距離に落とし込んだ、各単語の分散表現を取得することができる。なお、このようなコサイン距離を用いた学習手法については、W2V等の公知の技術を適用可能であるものとする。
また、判定部44は、3単語間の関連性および4単語間の関連性を分散表現空間上の角度や二面角に落とし込むことで、より精度の高い単語間の関連性を含む分散表現を取得する。例えば、判定部44は、判定対象となる3単語により定義づけられる分散表現空間上の角度を、3単語が有する関連性のパラメータとして算出する。より具体的には、判定部44は、判定対象となる3単語のうちいずれか1つの単語を基準単語として選択し、基準単語を頂点とした、他の2つの単語間の分散表現空間上における角度を算出する。また、判定部44は、学習データデータベース31に登録された学習データC10を参照し、判定対象となる3単語が出現する頻度や、出現する文脈の同一性、学習データC10内で3単語が出現する近さ等を、3単語が有する関連性の指標として取得する。そして、学習部45は、3単語が有する関連性のパラメータとして判定部44が算出した角度をパラメータとし、判定部44が学習データC10から取得した指標に従って、判定対象となる3単語の分散表現を調整する。例えば、学習部45は、判定対象となる3単語が学習データC10上において類似する単語であるならば、角度の値がより小さくなるように、3単語の分散表現を調整する。
また、例えば、判定部44は、判定対象となる4単語により定義づけられる分散表現空間上の二面角の角度を、4単語が有する関連性のパラメータとして算出する。より具体的には、判定部44は、判定対象となる4単語のうちいずれか2つの単語を基準単語として選択する。そして、判定部44は、分散表現空間上において、基準単語として選択した2つの単語を含む線を交線とする2つの面であって、判定対象となる4単語のうち基準単語以外の単語を含む2つの面が有する角度を算出する。すなわち、判定部44は、4単語に含まれる単語#1〜#4のうち、基準単語として単語#1、単語#2を選択した場合には、単語#1〜#3を含む分散表現空間上の面と、単語#1、単語#2、および単語#4を含む分散表現空間上の面との間の角度、すなわち、二面角の角度を算出する。
また、判定部44は、2単語や3単語と同様に、学習データC10に判定対象となる4単語が出現する頻度等、4単語が有する関連性の指標を取得する。そして、学習部45は、4単語が有する関連性のパラメータとして判定部44が算出した二面角の角度をパラメータとし、判定部44が学習データC10から取得した指標に従って、判定対象となる4単語の分散表現を調整する。例えば、学習部45は、判定対象となる4単語が学習データC10上において類似する単語であるならば、二面角の角度の値がより小さくなるように、4単語の分散表現を調整する。
なお、上述した説明では、2単語間の関連性、3単語間の関連性、および4単語間の関連性をそれぞれ独立に学習するように記載したが、実施形態は、これに限定されるものではない。すなわち、学習部45は、コサイン距離を2単語間の関連性を示すパラメータとし、分散表現空間上の角度を3単語間の関連性を示すパラメータとし、分散表現空間上の二面角の角度を4単語間の関連性を示すパラメータとし、各パラメータの値に学習データC10から取得された指標が反映されるように、各単語の分散表現を調整すればよい。
なお、判定部44は、判定対象とした4単語に含まれる3つの単語が有する関連性を、分散表現空間上におけるその3つの単語により定義づけられる角度として判定してもよい。すなわち、判定部44は、学習データC10から総当たり的に抽出された2単語、3単語、および4単語のそれぞれの関連性を、コサイン距離、角度、および二面角の角度として判定してもよい。
このように、判定部44は、3単語間の関連性を、分散表現空間上において3つの単語により定義づけられる角度として判定する。また、判定部44は、4単語間の関連性を、分散表現空間上において4つの単語により定義づけられる二面角の角度として判定する。このように、判定装置10は、2単語間の関連性のみならず、3単語間および4単語間の関連性をパラメータとして有するので、単語間の関連性をより精度良く反映させた分散表現空間を得ることができる。
提供部46は、判定結果を用いて学習された分散表現空間を用いて、利用者U01に対する各種のサービスを提供する。例えば、提供部46は、判定対象データを端末装置100から受付けると、モデルデータベース33に登録されたモデル、すなわち、学習部45によって学習されたモデルを読出し、読み出したモデルを用いて、判定対象データに基づき、利用者U01に対して提供する情報を生成する。例えば、学習部45は、モデルデータベース33に登録されたモデルを用いて、判定対象データとして受付けた単語と類似する単語を分散表現空間上から選択する。すなわち、提供部46は、2単語間のコサイン距離、3単語間の角度、および4単語間の二面角をパラメータとして、判定対象データとして受付けた単語と類似する単語を選択する。そして、提供部46は、選択した単語を利用者U01に対して提供する。
なお、判定対象データは、例えば、W2V等と同様に、単語間の演算を行う演算式であってもよい。このような場合、提供部46は、演算式の解に最も類似する単語を選択して提供することとなる。
〔3.算出手法の一例〕
次に、数式を用いて、判定装置10が、各種パラメータとして用いる情報を算出する処理の一例について説明する。なお、以下に示す例では、3単語間および4単語間の関連性を、分子動力学のシミュレーション手法を応用した数式を用いて実現する例について記載したが、実施形態は、これに限定されるものではない。
まず、2単語のコサイン類似度を算出する処理の一例について説明する。例えば、分散表現空間上にマッピングした単語#1をq、単語#2をdとした場合、単語#1と単語#2とのコサイン類似度は、以下の式(1)で表すことができる。なお、分散表現空間上においては、qおよびdは、多次元量(すなわち、ベクトル)である。なお、式(1)では、ベクトルとなるqおよびdを、上付き矢印を付したqおよびdで表した。
Figure 0006400037
ここで、単語#1と単語#2とが類似する単語であるならば、分散表現空間上における単語#1と単語#2とのコサイン類似度の値は増加すると考えられる。そこで、判定装置10は、式(1)で示されるコサイン類似度の値をパラメータとして、単語間の関連性を分散表現空間上に落とし込む。例えば、判定装置10は、単語#1と単語#2との間のコサイン類似度と、単語#1と単語#3との間のコサイン類似度とを算出する。そして、判定装置10は、学習データC10において、単語#1と単語#2との関連性が、単語#1と単語#3との関連性よりも高いと判定される場合には、単語#1と単語#2との間のコサイン類似度の値が、単語#1と単語#3との間のコサイン類似度の値よりも大きくなるように、各単語#1〜#3の分散表現を調整する。
次に、3単語間の角度を算出する処理の一例について説明する。例えば、単語#1の分散表現を「i」、単語#2の分散表現を「j」、単語#3の分散表現を「k」とし、単語#2を中心として単語#1および単語#3との間の角度を「θijk」とする。このような場合、「θijk」の余弦である「cosθijk」は、以下の式(2)で表すことができる。ここで、式(2)の右辺の分母に示す太字の「rij」は、「i」から「j」までのベクトルを示し、太字の「rkj」は、「k」から「j」までのベクトルを示す。また、式(2)の右辺の分子に示す「rij」は、「i」から「j」までのベクトルのノルムを示し、「rjk」は、「j」から「k」までのベクトルのノルムを示す。
Figure 0006400037
このため、判定装置10は、式(2)で示される「θijk」の余弦を算出し、算出した値を逆三角関数(arccos)により算出することができる。
判定装置10は、逆三角関数を用いて、式(2)の値から分散表現空間上における単語#1〜#3の間の角度を算出する。また、判定装置10は、式(2)を用いて、分散表現空間上における単語#1、単語#2、および単語#4の間の角度を算出する。そして、判定装置10は、学習データC10における単語#1〜#3の間の関連性と、学習データC10における単語#1、単語#2、および単語#4の間の関連性を比較し、学習データC10における単語#1〜#3の間の関連性がより高い場合には、分散表現空間上における単語#1〜#3の間の角度を、分散表現空間上における単語#1、単語#2、および単語#4の間の角度よりも小さくなるように、各単語#1〜#4の分散表現を調整する。
次に、4単語間の二面角の角度を算出する処理の一例について説明する。例えば、単語#1の分散表現を「i」、単語#2の分散表現を「j」、単語#3の分散表現を「k」、単語#4の分散表現を「l」とする。ここで、単語#2と単語#3とを基準単語として選択すると、二面角の角度「φ」は、「i」、「j」、および「k」を含む面と、「l」、「j」、および「k」を含む面との間の角度で表すことができる。
ここで、「i」、「j」、および「k」を含む面の法線を太字の「n」、「l」、「j」、および「k」を含む面の法線を太字の「n」とすると、太字の「n」および太字の「n」は、以下の式(3)で表すことができる。ここで、太字の「rij」は、「i」から「j」までのベクトル、太字の「rkj」は、「k」から「j」までのベクトル、太字の「rkl」は、「k」から「l」までのベクトルを示す。
Figure 0006400037
すると、単語#1〜#4によって定義づけられる二面角の角度を「φ」とすると、「φ」の余弦である「cosφ」は、以下の式(4)で表すことができる。ここで、「n」および「n」は、太字の「n」および太字の「n」のノルムである。
Figure 0006400037
このため、−π<φ≦πの範囲でφの値を求めると、式(5)で表すことができる。
Figure 0006400037
なお、判定装置10は、分子ポテンシャル計算の手法に基づいて、分散表現空間上における単語間のエネルギーを算出し、算出したエネルギーをパラメータとして学習してもよい。例えば、上述した式(1)〜式(5)によって各単語間のコサイン距離、角度、および二面角の角度が定義づけられる場合、各単語間のエネルギーは、以下の式で表すことができる。例えば、単語#1、単語#2、単語#3間のエネルギー「V1,2,3 angle」は、以下の式(6)で表すことができる。
Figure 0006400037
また、例えば、単語#1〜#4間のエネルギー「V1,2,3,4 dihedral」は、以下の式(7)で表すことができる。
Figure 0006400037
また、例えば、単語#1および単語#2間のエネルギー「V1,2 bond」は、以下の式(8)で表すことができる。
Figure 0006400037
このような分子ポテンシャル計算の手法に基づいて、各単語間に仮想的に生じるエネルギーの値をパラメータとして導入することで、単語間の関連性の判定精度をさらに向上させてもよい。
なお、判定装置10は、上述したパラメータや分散表現を調整する際に用いる指標、すなわち、学習データC10における各単語間の関連性を任意の手法で算出してよい。例えば、判定装置10は、学習データC10において、各単語間の関連性を判定する場合には、例えば、TF−IDF(Term Frequency-Inverse Document Frequency)の技術等に基づいて、関連性を示すスコアを算出し、算出したスコアに基づいて、各単語間の関連性を相対的に示せばよい。同様に、判定装置10は、TF−IDFの技術を用いて、複数の単語間の関連性を示すスコアを算出し、算出したスコアに基づいて、各単語間の関連性を相対的に示せばよい。
〔4.処理の流れの一例〕
次に、図4を用いて、判定装置10が実行する処理の流れの一例について説明する。図4は、実施形態に係る判定装置が実行する処理の流れの一例を説明する図である。例えば、判定装置10は、学習データC10を取得し(ステップS101)、学習データC10に含まれるテキストの形態素解析を行い、単語の抽出を行う(ステップS102)。次に、判定装置10は、抽出した単語を分散表現に変換し(ステップS103)、2単語間の関連性を分散表現空間上の距離として、単語間の関連性を判定する(ステップS104)。また、判定装置10は、3単語間の関連性を分散表現空間上に対応付けられた3単語により定義づけられる角度として判定する(ステップS105)。また、判定装置10は、4単語間の関連性を分散表現空間上に対応付けられた4単語により定義づけられる二面角の角度として判定する(ステップS106)。なお、判定装置10は、ステップS104〜S106の処理を任意の順番で実行してもよく、同時並行的に実行してもよい。そして、判定装置10は、判定結果が正解データに近づくように、判定結果に基づくモデルの学習を行って(ステップS107)、処理を終了する。
〔5.変形例〕
上述した実施形態に係る判定装置10は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、上記の判定装置10の他の実施形態について説明する。
〔5−1.パラメータを用いた処理について〕
例えば、上述した判定装置10は、複数の単語間のコサイン距離、角度、および二面角の角度をパラメータとして、各単語間の関連性を学習したモデルを生成した。しかしながら、実施形態は、これに限定されるものではない。すなわち、判定装置10は、複数の単語間のコサイン距離、角度、および二面角の角度をパラメータとして、指定された単語や単語群と類似する単語や単語群等を検索して出力してもよい。
また、判定装置10は、学習データC10における各単語間の関連性、すなわち、各単語の分散表現を調整する際の指標を任意の態様で特定してもよい。例えば、判定装置10は、TF−IDFを用いたスコアリング等の技術を提供してもよく、人によるスコアリングに基づいて分散表現を調整してもよい。このような分散表現を調整する際の指標については、任意の公知技術を適用可能である。
〔5−2.ハードウェア構成について〕
また、上述してきた実施形態に係る判定装置10は、例えば図5に示すような構成のコンピュータ1000によって実現される。図5は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一時的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD、フラッシュメモリ等により実現される。
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
例えば、コンピュータ1000が判定装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部40の機能を実現する。
〔6.効果〕
このように、判定装置10は、関連性の判定対象となる3つの単語を分散表現空間上に対応付け、3つの単語が有する関連性を、分散表現空間上に対応付けられた3つの単語により定義づけられる角度として判定する。より具体的には、判定装置10は、3つの単語が有する関連性を、分散表現空間上に対応付けられた3つの単語のうち、いずれか1つの単語を頂点とした他の2つの単語間の角度として判定する。このように、判定装置10は、3つ以上の単語間の関連性を分散表現空間上の角度に落とし込んで学習または利用することができるので、自然言語処理の精度を向上させることができる。
また、判定装置10は、関連性の判定対象となる4つの単語を分散表現空間上に対応付け、4つの単語が有する関連性を、分散表現空間上に対応付けられた4つの単語により定義づけられる二面角の角度として判定する。より具体的には、判定装置10は、4つの単語が有する関連性を、分散表現空間上に対応付けられた4つの単語のうち、いずれか2つの基準単語を含む線を交線とする2つの面であって、基準単語以外の単語のうち、それぞれ異なる単語を含む面が有する角度として判定する。このように、判定装置10は、4つ以上の単語間の関連性を分散表現空間上の角度に落とし込んで学習または利用することができるので、自然言語処理の精度を向上させることができる。
また、判定装置10は、4つの単語のうちいずれか3つの単語が有する関連性を、分散表現空間上に対応付けられた3つの単語により定義づけられる角度として判定する。このため、判定装置10は、自然言語処理の精度をさらに向上させることができる。
また、判定装置10は、関連性の判定対象となる複数の単語のうち、任意の2つの単語間の関連性を、分散表現空間上に対応付けられた2つの単語間のコサイン距離として判定する。このため、判定装置10は、自然言語処理の精度をさらに向上させることができる。
また、判定装置10は、判定結果を用いて、複数の単語が有する関連性を判定する学習器の学習を行う。例えば、判定装置10は、複数の中間層を有するニューラルネットワークの学習を行う。このため、例えば、判定装置10は、3つ以上または4つ以上の単語が有する関連性を考慮した分散表現空間の学習を行うことができるので、自然言語処理の精度をさらに向上させることができる。
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、判定部は、判定手段や判定回路に読み替えることができる。
10 判定装置
20 通信部
30 記憶部
31 学習データデータベース
32 単語データベース
33 モデルデータベース
40 制御部
41 取得部
42 解析部
43 対応部
44 判定部
45 学習部
46 提供部
50 データサーバ
100 端末装置

Claims (9)

  1. 関連性の判定対象となる3つの単語を分散表現空間上に対応付ける対応部と、
    前記3つの単語が有する関連性を、前記分散表現空間上に対応付けられた前記3つの単語により定義づけられる角度として判定する判定部と
    を有することを特徴とする判定装置。
  2. 前記判定部は、前記3つの単語が有する関連性を、前記分散表現空間上に対応付けられた前記3つの単語のうち、いずれか1つの単語を頂点とした他の2つの単語間の角度として判定する
    ことを特徴とする請求項1に記載の判定装置。
  3. 関連性の判定対象となる4つの単語を分散表現空間上に対応付ける対応部と、
    前記4つの単語が有する関連性を、前記分散表現空間上に対応付けられた前記4つの単語により定義づけられる二面角の角度として判定する判定部と
    を有することを特徴とする判定装置。
  4. 前記判定部は、前記4つの単語が有する関連性を、前記分散表現空間上に対応付けられた前記4つの単語のうち、いずれか2つの基準単語を含む線を交線とする2つの面であって、前記基準単語以外の単語のうち、それぞれ異なる単語を含む面が有する角度として判定する
    ことを特徴とする請求項3に記載の判定装置。
  5. 前記判定部はさらに、前記4つの単語のうちいずれか3つの単語が有する関連性を、前記分散表現空間上に対応付けられた当該3つの単語により定義づけられる角度として判定する
    ことを特徴とする請求項3または4に記載の判定装置。
  6. 前記判定部はさらに、関連性の判定対象となる複数の単語のうち、任意の2つの単語間の関連性を、前記分散表現空間上に対応付けられた当該2つの単語間のコサイン距離として判定する
    ことを特徴とする請求項1〜5のうちいずれか1つに記載の判定装置。
  7. 前記判定部による判定結果を用いて、複数の単語が有する関連性を判定する学習器の学習を行う学習部
    をさらに有することを特徴とする請求項1〜6のうちいずれか1つに記載の判定装置。
  8. 前記学習部は、前記学習器として、複数の中間層を有するニューラルネットワークを学習する
    ことを特徴とする請求項7に記載の判定装置。
  9. 判定装置が実行する判定方法であって、
    関連性の判定対象となる3つの単語を分散表現空間上に対応付ける対応工程と、
    前記3つの単語が有する関連性を、前記分散表現空間上に対応付けられた前記3つの単語により定義づけられる角度として判定する判定工程と
    を含むことを特徴とする判定方法。
JP2016054543A 2016-03-17 2016-03-17 判定装置、および判定方法 Active JP6400037B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016054543A JP6400037B2 (ja) 2016-03-17 2016-03-17 判定装置、および判定方法
US15/453,317 US20170270097A1 (en) 2016-03-17 2017-03-08 Determination apparatus and determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016054543A JP6400037B2 (ja) 2016-03-17 2016-03-17 判定装置、および判定方法

Publications (2)

Publication Number Publication Date
JP2017167986A JP2017167986A (ja) 2017-09-21
JP6400037B2 true JP6400037B2 (ja) 2018-10-03

Family

ID=59855642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016054543A Active JP6400037B2 (ja) 2016-03-17 2016-03-17 判定装置、および判定方法

Country Status (2)

Country Link
US (1) US20170270097A1 (ja)
JP (1) JP6400037B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10915707B2 (en) * 2017-10-20 2021-02-09 MachineVantage, Inc. Word replaceability through word vectors
JP7116309B2 (ja) 2018-10-10 2022-08-10 富士通株式会社 コンテキスト情報生成方法、コンテキスト情報生成装置およびコンテキスト情報生成プログラム

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0892963A1 (en) * 1996-01-26 1999-01-27 David E. Patterson Method of creating and searching a molecular virtual library using validated molecular structure descriptors
US6298174B1 (en) * 1996-08-12 2001-10-02 Battelle Memorial Institute Three-dimensional display of document set
US20030069873A1 (en) * 1998-11-18 2003-04-10 Kevin L. Fox Multiple engine information retrieval and visualization system
US6952700B2 (en) * 2001-03-22 2005-10-04 International Business Machines Corporation Feature weighting in κ-means clustering
US20030009298A1 (en) * 2001-03-23 2003-01-09 International Business Machines Corporation Field-based similarity search system and method
US20080077570A1 (en) * 2004-10-25 2008-03-27 Infovell, Inc. Full Text Query and Search Systems and Method of Use
US7630980B2 (en) * 2005-01-21 2009-12-08 Prashant Parikh Automatic dynamic contextual data entry completion system
US9275129B2 (en) * 2006-01-23 2016-03-01 Symantec Corporation Methods and systems to efficiently find similar and near-duplicate emails and files
US9600568B2 (en) * 2006-01-23 2017-03-21 Veritas Technologies Llc Methods and systems for automatic evaluation of electronic discovery review and productions
US7590626B2 (en) * 2006-10-30 2009-09-15 Microsoft Corporation Distributional similarity-based models for query correction
JP5164876B2 (ja) * 2009-02-12 2013-03-21 日本電信電話株式会社 代表語抽出方法及び装置及びプログラム及びコンピュータ読取可能な記録媒体
US9165052B2 (en) * 2009-11-24 2015-10-20 Zymeworks Inc. Density based clustering for multidimensional data
JP5356197B2 (ja) * 2009-12-01 2013-12-04 株式会社日立製作所 単語意味関係抽出装置
JP2012123639A (ja) * 2010-12-08 2012-06-28 Kyoto Univ イメージ可視化システム及び情報提供システム並びにそれらのコンピュータプログラム
US20120198355A1 (en) * 2011-01-31 2012-08-02 International Business Machines Corporation Integrating messaging with collaboration tools
JP5611173B2 (ja) * 2011-11-10 2014-10-22 日本電信電話株式会社 単語属性推定装置及び方法及びプログラム
US20140249799A1 (en) * 2013-03-04 2014-09-04 Microsoft Corporation Relational similarity measurement
WO2014144963A1 (en) * 2013-03-15 2014-09-18 Alexandre Zanghellini Automated method of computational enzyme identification and design
US10210246B2 (en) * 2014-09-26 2019-02-19 Oracle International Corporation Techniques for similarity analysis and data enrichment using knowledge sources
US9774553B2 (en) * 2014-12-01 2017-09-26 Google Inc. Systems and methods for estimating message similarity
US10509814B2 (en) * 2014-12-19 2019-12-17 Universidad Nacional De Educacion A Distancia (Uned) System and method for the indexing and retrieval of semantically annotated data using an ontology-based information retrieval model
US9348920B1 (en) * 2014-12-22 2016-05-24 Palantir Technologies Inc. Concept indexing among database of documents using machine learning techniques
US10339440B2 (en) * 2015-02-19 2019-07-02 Digital Reasoning Systems, Inc. Systems and methods for neural language modeling
US20160307563A1 (en) * 2015-04-15 2016-10-20 Xerox Corporation Methods and systems for detecting plagiarism in a conversation
US9672206B2 (en) * 2015-06-01 2017-06-06 Information Extraction Systems, Inc. Apparatus, system and method for application-specific and customizable semantic similarity measurement
US9589237B1 (en) * 2015-11-17 2017-03-07 Spotify Ab Systems, methods and computer products for recommending media suitable for a designated activity
US9436760B1 (en) * 2016-02-05 2016-09-06 Quid, Inc. Measuring accuracy of semantic graphs with exogenous datasets
US20170249388A1 (en) * 2016-02-26 2017-08-31 Microsoft Technology Licensing, Llc Expert Detection in Social Networks

Also Published As

Publication number Publication date
JP2017167986A (ja) 2017-09-21
US20170270097A1 (en) 2017-09-21

Similar Documents

Publication Publication Date Title
Sachs et al. Langevin dynamics with variable coefficients and nonconservative forces: from stationary states to numerical methods
Hasan et al. Fractional optimal control of distributed systems in spherical and cylindrical coordinates
Park et al. Design of unknown input observers for linear systems with unmatched unknown inputs
Hussain et al. A novel feature-engineered–NGBoost machine-learning framework for fraud detection in electric power consumption data
Wu et al. Iterative closest point registration for fast point feature histogram features of a volume density optimization algorithm
JP6400037B2 (ja) 判定装置、および判定方法
Lißner et al. Data-driven microstructure property relations
Genicot et al. Weakly correlated sparse components with nearly orthonormal loadings
JP6396353B2 (ja) 判定装置、および判定方法
Lee et al. Optimal sensor placement in reduced-order models using modal constraint conditions
Alvarez et al. Implicit subspace iteration to improve the stability analysis in grinding processes
Mbuga et al. Spectral clustering of mixed-type data
Xiang et al. Multimodal fusion of voice and gesture data for UAV control
Ispirova et al. Domain heuristic fusion of multi-word embeddings for nutrient value prediction
Ariannezhad et al. On applicability of MQ-RPIM and MLPG meshless methods with 3D extended-enriched base functions for estimation of mode I stress intensity factor and fatigue crack growth in cyclic tensile and bending load of an un-notched and notched shaft
Balogh et al. Extending the admissible control-loop delays for the inverted pendulum by fractional-order proportional-derivative controller
JP6680656B2 (ja) 判定装置および判定方法
Danaei et al. Adjusting a momentum-based golf clubhead-ball impact model to improve accuracy
JP2018045656A (ja) 学習装置、プログラムパラメータおよび学習方法
Çınar Optimal tuning of a PID controller using a wound healing algorithm based on the clonal selection principle
JP7017478B2 (ja) 出力装置、出力方法および出力プログラム
JP7265837B2 (ja) 学習装置および学習方法
JP6756648B2 (ja) 生成装置、生成方法および生成プログラム
Yang et al. A Planning Framework for Robotic Insertion Tasks via Hydroelastic Contact Model
DeBlasio et al. Predicting core columns of protein multiple sequence alignments for improved parameter advising

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170919

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180731

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180904

R150 Certificate of patent or registration of utility model

Ref document number: 6400037

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250