JP6828823B2 - 知識生成装置、知識生成方法、及びプログラム - Google Patents

知識生成装置、知識生成方法、及びプログラム Download PDF

Info

Publication number
JP6828823B2
JP6828823B2 JP2019541596A JP2019541596A JP6828823B2 JP 6828823 B2 JP6828823 B2 JP 6828823B2 JP 2019541596 A JP2019541596 A JP 2019541596A JP 2019541596 A JP2019541596 A JP 2019541596A JP 6828823 B2 JP6828823 B2 JP 6828823B2
Authority
JP
Japan
Prior art keywords
knowledge
data
input data
learning
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019541596A
Other languages
English (en)
Other versions
JPWO2019053878A1 (ja
Inventor
大地 木村
大地 木村
正明 土田
正明 土田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2019053878A1 publication Critical patent/JPWO2019053878A1/ja
Application granted granted Critical
Publication of JP6828823B2 publication Critical patent/JP6828823B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N99/00Subject matter not provided for in other groups of this subclass

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、推論に用いるための知識を生成するための、知識生成装置、及び知識生成方法に関し、更には、これらを実現するためのプログラムに関する。
仮説推論は、既存の知識に基づいて、観測した事実(入力データ)を説明付ける、仮説を導く推理方法であり、近年においては、処理速度の飛躍的向上により、計算機を用いて行なわれるようになっている。仮説推論によれば、例えば、物体、製造システム、実行中のソフトウェアプログラムなどに生じた異常状態に対して、その状態に至る幾つかの可能性に基づく仮説のうち、得られている関連事実を最もよく説明できる仮説を得ることができる。
ところで、仮説推論にて用いられる知識を全て静的なデータベースによって用意しようとすると、データベースには大量の知識を格納しておく必要がある。これは、仮説を導くためには、入力データに対して、コンテキストに依存して解釈する必要があること、及び厳密には同一の入力データが入力されることが殆どないこと、による。
従って、大量の知識を予め用意することには限界があるため、既存の知識と入力データとに対して含意判定を行ない、含意判定の結果を用いることで、新たな知識を生成する試みがなされている。例えば、入力データが「運賃を統一する」であり、知識が「価格を調整する→カルテル発生」であるとする。この場合において、含意判定によって、前者が後者を含意すると判定されると、「運賃を統一する→価格を調整する」という新たな知識が生成される。
また、このような含意判定を行なうための技術は、例えば、特許文献1に開示されている。特許文献1に開示された技術においては、まず、判定対象となる第1のテキストと第2のテキストとについて、共通部分構造が抽出される。続いて、共通部分構造間の依存関係に基づく特徴量、共通部分構造とそれ以外の構造との間の依存関係に基づく特徴量のうちいずれかが抽出される。その後、抽出された特徴量に基づいて、第1のテキストと第2のテキストとの間の含意関係が判定される。特許文献1に開示された技術では、文章の構造を表す情報を用いることで、複数の文章間の含意関係が判定される。
国際公開第2015/004155号公報
上述のように、特許文献1に開示された技術を用いれば、含意と判断されたデータを用いて、自動的に多数の知識を新たに作成することが可能となる。しかしながら、このようにして生成された知識には、全て正しいとは限らないという問題が存在する。そして、正しくない知識を用いて仮説推論が行なわれた場合は、間違った推論結果が得られることになる。
本発明の目的の一例は、上記問題を解消し、間違った知識の生成を抑制し得る、知識生成装置、知識生成方法、及びプログラムを提供することにある。
上記目的を達成するため、本発明の一側面における知識生成装置は、
推論で用いる知識の生成のための、入力データ及び予め用意された知識データを取得し、取得した前記入力データ及び前記知識データを用いて生成される知識が、適正かどうかを、統計的な予測モデルを用いて判定する、知識判定部と、
前記知識判定部が適正と判断した前記入力データ及び前記知識データを用いて、前記推論で用いる知識を生成する、知識生成部と、を備え、
前記予測モデルは、入力データ及び知識データの組み合わせに応じて、両者から得られる知識の適正度合を出力するモデルである、
ことを特徴とする。
また、上記目的を達成するため、本発明の一側面における知識生成方法は、
(a)推論で用いる知識の生成のための、入力データ及び予め用意された知識データを取得し、取得した前記入力データ及び前記知識データを用いて生成される知識が、適正かどうかを、統計的な予測モデルを用いて判定する、ステップと、
(b)前記(a)のステップで適正と判断した前記入力データ及び前記知識データを用いて、前記推論で用いる知識を生成する、ステップと、を有し、
前記予測モデルは、入力データ及び知識データの組み合わせに応じて、両者から得られる知識の適正度合を出力するモデルである、
ことを特徴とする。
更に、上記目的を達成するため、本発明の一側面におけるプログラムは、
コンピュータに、
(a)推論で用いる知識の生成のための、入力データ及び予め用意された知識データを取得し、取得した前記入力データ及び前記知識データを用いて生成される知識が、適正かどうかを、統計的な予測モデルを用いて判定する、ステップと、
(b)前記(a)のステップで適正と判断した前記入力データ及び前記知識データを用いて、前記推論で用いる知識を生成する、ステップと、
を実行させる、
前記予測モデルは、入力データ及び知識データの組み合わせに応じて、両者から得られる知識の適正度合を出力するモデルである、
ことを特徴とする。
以上のように本発明によれば、仮説推論に用いる知識の生成において、間違った知識の生成を抑制することができる。
図1は、本発明の実施の形態における知識生成装置の概略構成を示すブロック図である。 図2は、本発明の実施の形態における知識生成装置の構成を具体的に示すブロック図である。 図3(a)及び(b)は、本発明の実施の形態における知識生成装置で行われる学習処理を示す説明図であり、図3(a)は知識生成部での学習処理を示し、図3(b)はモデル生成部での学習処理を示している。 図4は、本発明の実施の形態における知識生成装置の予測モデルの作成時の動作を示すフロー図である。 図5は、本発明の実施の形態における知識生成装置の知識生成時の動作を示すフロー図である。 図6は、本発明の実施の形態における知識生成装置を実現するコンピュータの一例を示すブロック図である。
(実施の形態)
以下、本発明の実施の形態における、知識生成装置、知識生成方法、及びコンピュータ読み取り可能な記録媒体について、図1〜図6を参照しながら説明する。
[装置構成]
最初に、本実施の形態における知識生成装置の概略構成について図1を用いて説明する。図1は、本発明の実施の形態における知識生成装置の概略構成を示すブロック図である。
図1に示す、本実施の形態における知識生成装置100は、推論で用いる知識を生成するための装置である。図1に示すように、知識生成装置100は、知識判定部10と、知識生成部20とを備えている。
知識判定部10は、まず、推論で用いる知識の生成のための、入力データ及び予め用意された知識データ40を取得する。また、知識データ40は、推論に用いることができる推論の集合で構成されている。次いで、知識判定部10は、取得した入力データ及び知識データ40を用いて生成される知識が、適正かどうかを、統計的な予測モデル30を用いて判定する。
予測モデル30は、入力データ及び知識データの組み合わせに応じて、両者から得られる知識の適正度合を出力するモデルである。また、知識生成部20は、知識判定部10が適正と判断した入力データ及び知識データ40を用いて、推論で用いる知識を生成する。
このように、本実施の形態においては、作成される知識について、予め適正かどうかが判定され、適正と判定される場合にのみ、この知識が生成され、仮説推論が行われる。このため、本実施の形態によれば、仮説推論に用いる知識の生成において、間違った知識の生成を抑制することができる。
続いて、図2を用いて、本実施の形態における知識生成装置100の構成についてより具体的に説明する。図2は、本発明の実施の形態における知識生成装置の構成を具体的に示すブロック図である。
図2に示すように、本実施の形態においては、知識生成装置100は、上述した、知識判定部10及び知識生成部20に加えて、予測モデル30を生成するモデル生成部50と、入力データから知識の生成に用いるデータを抽出するデータ抽出部60とを更に備えている。入力データとしては、例えば、電子メール、ブログ、電子掲示板の書き込み、ニュース等を構成しているテキストデータが挙げられる。
モデル生成部50は、学習用の入力データ及び学習用の知識データの組み合せを用いた場合に、知識生成部10によって生成された知識と、学習用の入力データ及び学習用の知識の組み合せに対して与えられている正解の知識とを、学習データとして取得する。そして、モデル生成部50は、取得した学習データを用いて、学習処理を行なって、予測モデル30を生成する。
知識判定部10は、本実施の形態では、入力データ及び知識データ40を予測モデル30に適用して、データ抽出部60によって抽出されたデータ(以下「抽出データ」と表記する)及び知識データ40を用いて知識生成部20で生成される知識が、適正かどうかを判定する。
知識生成部20は、本実施の形態では、予め、知識生成のための学習モデル(図2において図示せず)を生成し、知識判定部10が適正と判断した抽出データ及び知識データを、生成した学習モデルに適用して、推論で用いる知識を生成する。
ここで、図3を用いて、モデル生成部50による学習処理と、知識生成部20による学習処理とについて具体的に説明する。図3(a)及び(b)は、本発明の実施の形態における知識生成装置で行われる学習処理を示す説明図であり、図3(a)は知識生成部での学習処理を示し、図3(b)はモデル生成部での学習処理を示している。
また、本実施の形態では、知識生成部20は、学習モデルを用いた含意判定によって、知識を生成するとする。このため、含意判定が可能となるように、データ抽出部60は、入力データに含まれる文章に対して述語項構造解析を行い、例えば、入力データ中の主語、述語、目的語を抽出する。
図3(a)に示すように、知識生成部20の学習処理においては、まず、データ抽出部60が、学習データとなる入力データから、主語、述語、目的語のテキストデータ(抽出データ)を抽出し、これを知識生成部20に入力する。
また、知識生成部20は、抽出データを取得すると、知識データ40を構成している知識毎に、当該知識が、抽出データを含意しているかどうかを判定し、含意していると判定した場合は、抽出データと該当する知識とで、新たな知識を生成する。そして、知識生成部20は、生成した知識と、予め用意されている正解知識(教師データ)とを対比し、対比結果(正解又は不正解)を学習して、学習モデルを作成する。
また、図3(b)に示すように、モデル生成部50の学習処理においては、モデル生成部50は、知識生成部20と異なり、学習データとなる入力データの全体を取得する。つまり、モデル生成部50は、入力データ中の主語、述語、目的語だけでなく、修飾語等も取得する。
また、このとき、同じ入力データがデータ抽出部60にも入力され、データ抽出部60は、入力データから、主語、述語、目的語を抽出し、これらを抽出データとして、知識生成部20に渡す。そして、知識生成部20は、抽出データと知識データ40とを、学習モデルに適用して、知識を生成する。その後、生成された知識には、外部のシステム等によって、予め用意された正解知識に基づいて、正解であるか否かを示すラベルが付与される。
続いて、モデル生成部50は、入力データ及び知識データ40を用いて、同じ入力データから知識生成部20によって生成される知識のラベルが、正解であるかどうかを予測する。そして、モデル生成部50は、予測結果と、生成された知識のラベルとを対比し、対比結果(予測が正解又は不正解)を学習して、予測モデル30を作成する。その後、作成された予測モデル30は、知識判定部10による判定に用いられる。
[装置動作]
次に、本発明の実施の形態における知識生成装置の動作について図4及び図5を用いて説明する。以下の説明においては、適宜図1〜図3を参酌する。また、本実施の形態では、知識生成装置100を動作させることによって、知識生成方法が実施される。よって、本実施の形態における知識生成方法の説明は、以下の知識生成装置100の動作説明に代える。
まず、図4を用いて、予測モデルの作成処理、即ち、モデル作成部50による学習処理について説明する。図4は、本発明の実施の形態における知識生成装置の予測モデルの作成時の動作を示すフロー図である。前提として、知識生成部20においては学習処理が実行され(図3(a)参照)、既に学習モデルが作成されているとする。
図4に示すように、まず、モデル生成部50は、学習データとなる入力データの全体を取得する(ステップA1)。次に、モデル生成部50は、入力データ及び知識データ40を用いて、同じ入力データから知識生成部20によって生成される知識のラベルが、正解であるかどうかを予測する(ステップA2)。
また、ステップA1及びA2に同期して、同じ入力データがデータ抽出部60にも入力され、データ抽出部60は、入力データから、主語、述語、目的語を抽出し、これらを抽出データとして、知識生成部20に渡す。そして、知識生成部20は、抽出データと知識データ40とを、学習モデルに適用して、知識を生成する。その後、生成された知識には、外部のシステム等によって、予め用意された正解知識に基づいて、正解であるか否かを示すラベルが付与される(図3(b)参照)。
ステップA2の実行後、モデル生成部50は、ステップA2の予測結果(正解又は不正解)と、知識生成部20が生成した知識に付与されたラベル(正解又は不正解)とを対比し、対比結果を学習して、予測モデル30を作成する(ステップA3)。ステップA3で作成された予測モデル30は、知識判定部10による判定に用いられる。
続いて、図5を用いて、知識の作成処理について説明する。図5は、本発明の実施の形態における知識生成装置の知識生成時の動作を示すフロー図である。
図5に示すように、最初に、データ抽出部60は、入力データを取得し、取得した入力データを知識判定部10に入力する(ステップB1)。
続いて、データ抽出部60は、取得した入力データから、知識の生成に用いるデータを抽出し、抽出したデータ(抽出データ)を知識生成部20に入力する(ステップB2)。具体的には、例えば、入力データが電子メールであった場合は、データ抽出部60は、電子メールを構成している文毎に、述語項構造解析を実行し、各文を構成する主語、述語、目的語を抽出し、これらを知識生成部20に入力する。
次に、知識判定部10は、ステップB1で取得された入力データと知識データ40とを予測モデル30に適用して、ステップB2で抽出された抽出データ及び知識データ40を用いて知識生成部20で生成される知識が、適正かどうかを判定する(ステップB3)。
ステップB3の判定の結果、適正でないと判定された場合は、ステップB5が実行される。一方、ステップB3の判定の結果、適正であると判定された場合は、知識生成部20は、ステップB2で抽出された抽出データと知識データ40とを学習モデル(図3(a)及び(b)参照)に適用して、推論で用いる知識を生成する(ステップB4)。生成された知識は、例えば、別のシステムで行われる推論に用いられる。
次に、ステップB5では、知識判定部10は、ステップB1で取得された入力データに含まれる全てのテキストに対して、ステップB3が実行されているかどうかを判定する。ステップB5の判定の結果、全てのテキストに対してステップB3が実行されていない場合は、再度ステップB3を実行する。一方、ステップB5の判定の結果、全てのテキストに対してステップB3が実行されている場合は、知識生成装置100における処理は終了する。
ここで、具体例を用いて、図5に示したステップB1〜B5について説明する。まず、ステップB1で取得された入力データが電子メールであり、その中に「仮定の話として、我々が運賃を統一したとしましょう。」という文が含まれていたとする。
この場合、データ抽出部60は、「仮定の話として、我々が運賃を統一したとしましょう。」に対して述語項構造解析を行い、下記の結果を得る。
述語項構造:我々(が格)が 運賃(を格)を (に格)に 統一(述語)
(なお、この文には「に格」は存在していない。)
また、知識データ40に知識として、「価格を調整する→カルテル発生」が含まれているとすると、知識生成部20は、通常、この知識と抽出データとから、「運賃を統一する」は「価格を調整する」に対して含意であると判断し、下記の知識を新たに生成する。
知識:運賃を統一する→価格を調整する
しかしながら、本実施の形態では、知識判定部10は、入力データ全体、即ち、抽出データとして抽出されていない部分も用いて、生成される知識が適正かどうかを判定する。上述の例であれば、データ抽出部60は、抽出データだけでなく、「仮定」という文言も予測モデルに適用する。
このとき、予測モデルが、仮定という文言が含まれた場合に、適正度合として低い値(例えば、10%以下)を出力するとする。知識判定部10は、上述の入力データから知識生成部20によって生成される知識は適正でないと判定する。
以上のように、本実施の形態では、入力データから作成されると予測される知識が、予め適正かどうかが判定される。そして、適正と判定される場合にのみ、知識生成部は、入力データから知識を生成する。
このため、本実施の形態によれば、仮説推論に用いる知識の生成において、間違った知識の生成を抑制でき、仮説推論の精度の向上を図ることができる。また、知識判定部10は、入力データ全体を用いて判定を行うため、知識生成部20による知識生成においてコンテキストが反映され、知識の妥当性が高まることになる。また、知識生成部20における精度がそれほど高くない場合、即ち、学習モデルが単純な場合であっても、適正な知識の生成が可能となる。
[プログラム]
本実施の形態におけるプログラムは、コンピュータに、図4に示すステップA1〜A3を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における知識生成装置と知識生成方法とを実現することができる。この場合、コンピュータのプロセッサは、知識判定部10、知識生成部20、モデル生成部50及びデータ抽出部60として機能し、処理を行なう。
また、本実施の形態では、予測モデル30及び知識データ40は、コンピュータに備えられたハードディスク等の記憶装置に、これらを構成するデータファイルを格納することによって実現される。
また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、知識判定部10、知識生成部20、モデル生成部50及びデータ抽出部60のいずれかとして機能しても良い。また、予測モデル30及び知識データ40は、は、本実施の形態におけるプログラムを実行するコンピュータとは別のコンピュータの記憶装置に格納されていても良い。
ここで、本実施の形態におけるプログラムを実行することによって、知識生成装置100を実現するコンピュータについて図6を用いて説明する。図6は、本発明の実施の形態における知識生成装置を実現するコンピュータの一例を示すブロック図である。
図6に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。
CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD−ROM(Compact DiskRead Only Memory)などの光学記録媒体が挙げられる。
なお、本実施の形態における知識生成装置100は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、知識生成装置100は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
上述した実施の形態の一部又は全部は、以下に記載する(付記1)〜(付記9)によって表現することができるが、以下の記載に限定されるものではない。
(付記1)
推論で用いる知識の生成のための、入力データ及び予め用意された知識データを取得し、取得した前記入力データ及び前記知識データを用いて生成される知識が、適正かどうかを、統計的な予測モデルを用いて判定する、知識判定部と、
前記知識判定部が適正と判断した前記入力データ及び前記知識データを用いて、前記推論で用いる知識を生成する、知識生成部と、を備え、
前記予測モデルは、入力データ及び知識データの組み合わせに応じて、両者から得られる知識の適正度合を出力するモデルである、
ことを特徴とする知識生成装置。
(付記2)
前記予測モデルを生成する、モデル生成部を更に備え、
前記モデル生成部は、学習用の入力データ及び学習用の知識データの組み合せを用いた場合に、前記知識生成部によって生成された知識と、前記学習用の入力データ及び前記学習用の知識の組み合せに対して与えられている正解の知識とを、学習データとして用いて、学習処理を行なって、前記予測モデルを生成する、
付記1に記載の知識生成装置。
(付記3)
前記入力データから、知識の生成に用いるデータを抽出する、データ抽出部を更に備え、
前記知識判定部は、前記データ抽出部によって抽出されたデータ及び前記知識データを用いて生成される知識が、適正かどうかを、前記予測モデルを用いて判定し、
前記知識生成部は、前記知識判定部が適正と判断した、前記データ抽出部によって抽出されたデータ及び前記知識データを用いて、前記推論で用いる知識を生成する、
付記1または2に記載の知識生成装置。
(付記4)
(a)推論で用いる知識の生成のための、入力データ及び予め用意された知識データを取得し、取得した前記入力データ及び前記知識データを用いて生成される知識が、適正かどうかを、統計的な予測モデルを用いて判定する、ステップと、
(b)前記(a)のステップで適正と判断した前記入力データ及び前記知識データを用いて、前記推論で用いる知識を生成する、ステップと、を有し、
前記予測モデルは、入力データ及び知識データの組み合わせに応じて、両者から得られる知識の適正度合を出力するモデルである、
ことを特徴とする知識生成方法。
(付記5)
(c)前記予測モデルを生成する、ステップを更に有し、
前記(c)のステップにおいて、学習用の入力データ及び学習用の知識データの組み合せを用いた場合に、前記(b)のステップの実行によって生成される知識と、前記学習用の入力データ及び前記学習用の知識の組み合せに対して与えられている正解の知識とを、学習データとして用いて、学習処理を行なって、前記予測モデルを生成する、
付記4に記載の知識生成方法。
(付記6)
(d)前記入力データから、知識の生成に用いるデータを抽出する、ステップを更に有し、
前記(a)のステップにおいて、前記(d)のステップによって抽出されたデータ及び前記知識データを用いて生成される知識が、適正かどうかを、前記予測モデルを用いて判定し、
前記(b)のステップにおいて、前記(a)のステップで適正と判断した、前記(d)のステップで抽出されたデータ及び前記知識データを用いて、前記推論で用いる知識を生成する、
付記4または5に記載の知識生成方法。
(付記7)
コンピュータに、
(a)推論で用いる知識の生成のための、入力データ及び予め用意された知識データを取得し、取得した前記入力データ及び前記知識データを用いて生成される知識が、適正かどうかを、統計的な予測モデルを用いて判定する、ステップと、
(b)前記(a)のステップで適正と判断した前記入力データ及び前記知識データを用いて、前記推論で用いる知識を生成する、ステップと、
を実行させ、
前記予測モデルは、入力データ及び知識データの組み合わせに応じて、両者から得られる知識の適正度合を出力するモデルである、
ことを特徴とするプログラム
(付記8)
記コンピュータに、
(c)前記予測モデルを生成する、ステップを更に実行させ、
前記(c)のステップにおいて、学習用の入力データ及び学習用の知識データの組み合せを用いた場合に、前記(b)のステップの実行によって生成される知識と、前記学習用の入力データ及び前記学習用の知識の組み合せに対して与えられている正解の知識とを、学習データとして用いて、学習処理を行なって、前記予測モデルを生成する、
付記7に記載のプログラム
(付記9)
記コンピュータに、
(d)前記入力データから、知識の生成に用いるデータを抽出する、ステップを更に実行させ、
前記(a)のステップにおいて、前記(d)のステップによって抽出されたデータ及び前記知識データを用いて生成される知識が、適正かどうかを、前記予測モデルを用いて判定し、
前記(b)のステップにおいて、前記(a)のステップで適正と判断した、前記(d)のステップで抽出されたデータ及び前記知識データを用いて、前記推論で用いる知識を生成する、
付記7または8に記載のプログラム
以上のように本発明によれば、仮説推論に用いる知識の生成において、間違った知識の生成を抑制することができる。本発明は、事故、犯罪、サイバー攻撃などの状況または原因を明らかにする作業の効率化に有用である。同様に、本発明は、災害及びシステム障害の原因分析と対策検討にも有用である。
10 知識判定部
20 知識生成部
30 予測モデル
40 知識データ
50 モデル生成部
60 データ抽出部
100 知識生成装置
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス

Claims (9)

  1. 推論で用いる知識の生成のための、入力データ及び予め用意された知識データを取得し、取得した前記入力データ及び前記知識データを用いて生成される知識が、適正かどうかを、統計的な予測モデルを用いて判定する、知識判定部と、
    前記知識判定部が適正と判断した前記入力データ及び前記知識データを用いて、前記推論で用いる知識を生成する、知識生成部と、を備え、
    前記予測モデルは、入力データ及び知識データの組み合わせに応じて、両者から得られる知識の適正度合を出力するモデルである、
    ことを特徴とする知識生成装置。
  2. 前記予測モデルを生成する、モデル生成部を更に備え、
    前記モデル生成部は、学習用の入力データ及び学習用の知識データの組み合せを用いた場合に、前記知識生成部によって生成された知識と、前記学習用の入力データ及び前記学習用の知識の組み合せに対して与えられている正解の知識とを、学習データとして用いて、学習処理を行なって、前記予測モデルを生成する、
    請求項1に記載の知識生成装置。
  3. 前記入力データから、知識の生成に用いるデータを抽出する、データ抽出部を更に備え、
    前記知識判定部は、前記データ抽出部によって抽出されたデータ及び前記知識データを用いて生成される知識が、適正かどうかを、前記予測モデルを用いて判定し、
    前記知識生成部は、前記知識判定部が適正と判断した、前記データ抽出部によって抽出されたデータ及び前記知識データを用いて、前記推論で用いる知識を生成する、
    請求項1または2に記載の知識生成装置。
  4. (a)推論で用いる知識の生成のための、入力データ及び予め用意された知識データを取得し、取得した前記入力データ及び前記知識データを用いて生成される知識が、適正かどうかを、統計的な予測モデルを用いて判定する、ステップと、
    (b)前記(a)のステップで適正と判断した前記入力データ及び前記知識データを用いて、前記推論で用いる知識を生成する、ステップと、を有し、
    前記予測モデルは、入力データ及び知識データの組み合わせに応じて、両者から得られる知識の適正度合を出力するモデルである、
    ことを特徴とする知識生成方法。
  5. (c)前記予測モデルを生成する、ステップを更に有し、
    前記(c)のステップにおいて、学習用の入力データ及び学習用の知識データの組み合せを用いた場合に、前記(b)のステップの実行によって生成される知識と、前記学習用の入力データ及び前記学習用の知識の組み合せに対して与えられている正解の知識とを、学習データとして用いて、学習処理を行なって、前記予測モデルを生成する、
    請求項4に記載の知識生成方法。
  6. (d)前記入力データから、知識の生成に用いるデータを抽出する、ステップを更に有し、
    前記(a)のステップにおいて、前記(d)のステップによって抽出されたデータ及び前記知識データを用いて生成される知識が、適正かどうかを、前記予測モデルを用いて判定し、
    前記(b)のステップにおいて、前記(a)のステップで適正と判断した、前記(d)のステップで抽出されたデータ及び前記知識データを用いて、前記推論で用いる知識を生成する、
    請求項4または5に記載の知識生成方法。
  7. コンピュータに、
    (a)推論で用いる知識の生成のための、入力データ及び予め用意された知識データを取得し、取得した前記入力データ及び前記知識データを用いて生成される知識が、適正かどうかを、統計的な予測モデルを用いて判定する、ステップと、
    (b)前記(a)のステップで適正と判断した前記入力データ及び前記知識データを用いて、前記推論で用いる知識を生成する、ステップと、
    を実行させ、
    前記予測モデルは、入力データ及び知識データの組み合わせに応じて、両者から得られる知識の適正度合を出力するモデルである、
    ことを特徴とするプログラム
  8. 記コンピュータに、
    (c)前記予測モデルを生成する、ステップを更に実行させ、
    前記(c)のステップにおいて、学習用の入力データ及び学習用の知識データの組み合せを用いた場合に、前記(b)のステップの実行によって生成される知識と、前記学習用の入力データ及び前記学習用の知識の組み合せに対して与えられている正解の知識とを、学習データとして用いて、学習処理を行なって、前記予測モデルを生成する、
    請求項7に記載のプログラム
  9. 記コンピュータに、
    (d)前記入力データから、知識の生成に用いるデータを抽出する、ステップを更に実行させ、
    前記(a)のステップにおいて、前記(d)のステップによって抽出されたデータ及び前記知識データを用いて生成される知識が、適正かどうかを、前記予測モデルを用いて判定し、
    前記(b)のステップにおいて、前記(a)のステップで適正と判断した、前記(d)のステップで抽出されたデータ及び前記知識データを用いて、前記推論で用いる知識を生成する、
    請求項7または8に記載のプログラム
JP2019541596A 2017-09-15 2017-09-15 知識生成装置、知識生成方法、及びプログラム Active JP6828823B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/033450 WO2019053878A1 (ja) 2017-09-15 2017-09-15 知識生成装置、知識生成方法、及びコンピュータ読み取り可能な記録媒体

Publications (2)

Publication Number Publication Date
JPWO2019053878A1 JPWO2019053878A1 (ja) 2020-10-15
JP6828823B2 true JP6828823B2 (ja) 2021-02-10

Family

ID=65723352

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019541596A Active JP6828823B2 (ja) 2017-09-15 2017-09-15 知識生成装置、知識生成方法、及びプログラム

Country Status (2)

Country Link
JP (1) JP6828823B2 (ja)
WO (1) WO2019053878A1 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07105159A (ja) * 1993-09-30 1995-04-21 Omron Corp 情報処理装置
EP1560158A1 (en) * 2002-10-18 2005-08-03 Japan Science and Technology Agency Learning/thinking machine and learning/thinking method based on structured knowledge, computer system, and information generation method
JP6614152B2 (ja) * 2014-09-05 2019-12-04 日本電気株式会社 テキスト処理システム、テキスト処理方法、及び、コンピュータ・プログラム

Also Published As

Publication number Publication date
WO2019053878A1 (ja) 2019-03-21
JPWO2019053878A1 (ja) 2020-10-15

Similar Documents

Publication Publication Date Title
US9542176B2 (en) Predicting software build errors
US20170315803A1 (en) Method and apparatus for generating a refactored code
US9779087B2 (en) Cross-lingual discriminative learning of sequence models with posterior regularization
US20210201196A1 (en) Method and apparatus for training machine reading comprehension model, and storage medium
Dietsch et al. Fairness modulo theory: A new approach to LTL software model checking
EP3885963A1 (en) Method and apparatus for determining causality, electronic device and storage medium
US10977156B2 (en) Linking source code with compliance requirements
AU2019203758A1 (en) Automatic analysis of a set of systems used to implement a process
EP3640814A1 (en) User-friendly explanation production using generative adversarial networks
US9984064B2 (en) Reduction of memory usage in feature generation
JP6828823B2 (ja) 知識生成装置、知識生成方法、及びプログラム
US20230419036A1 (en) Random token segmentation for training next token prediction models
CN113721928B (zh) 一种基于二进制分析的动态库裁剪方法
US9749281B2 (en) Dynamic adaption of electronic routing slips for financial messaging
US20220405473A1 (en) Machine learning for training nlp agent
US20220365955A1 (en) Search platform for unstructured interaction summaries
CN110515653B (zh) 文档生成方法、装置、电子设备及计算机可读存储介质
Ye et al. Parallel computational tree logic model‐checking on pushdown systems
US11074518B2 (en) Computer system, generation method of plan, and non-transitory computer readable storage medium
US10127075B2 (en) Model driven optimization of annotator execution in question answering system
US20230418566A1 (en) Programmatically generating evaluation data sets for code generation models
US20230418567A1 (en) Constrained prefix matching for generating next token predictions
US20230136507A1 (en) Hybrid model for case complexity classification
US20230418565A1 (en) Validating and providing proactively generated code suggestions
US11748576B2 (en) Interpretation of deep neural model based dialogue agents

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200309

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210104

R150 Certificate of patent or registration of utility model

Ref document number: 6828823

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150