JP7162015B2 - 深層適応的意味論論理ネットワーク - Google Patents
深層適応的意味論論理ネットワーク Download PDFInfo
- Publication number
- JP7162015B2 JP7162015B2 JP2019561177A JP2019561177A JP7162015B2 JP 7162015 B2 JP7162015 B2 JP 7162015B2 JP 2019561177 A JP2019561177 A JP 2019561177A JP 2019561177 A JP2019561177 A JP 2019561177A JP 7162015 B2 JP7162015 B2 JP 7162015B2
- Authority
- JP
- Japan
- Prior art keywords
- module
- machine learning
- network
- rules
- inferences
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003044 adaptive effect Effects 0.000 title claims description 19
- 238000010801 machine learning Methods 0.000 claims description 98
- 230000006870 function Effects 0.000 claims description 69
- 239000013598 vector Substances 0.000 claims description 69
- 238000013473 artificial intelligence Methods 0.000 claims description 64
- 238000012549 training Methods 0.000 claims description 47
- 238000013528 artificial neural network Methods 0.000 claims description 41
- 238000000034 method Methods 0.000 claims description 30
- 230000014509 gene expression Effects 0.000 claims description 23
- 230000015654 memory Effects 0.000 claims description 22
- 238000004422 calculation algorithm Methods 0.000 claims description 21
- 238000013507 mapping Methods 0.000 claims description 10
- 238000012986 modification Methods 0.000 claims description 8
- 230000004048 modification Effects 0.000 claims description 8
- 238000012937 correction Methods 0.000 claims description 3
- 230000003993 interaction Effects 0.000 claims description 3
- 238000011002 quantification Methods 0.000 claims description 2
- 238000005352 clarification Methods 0.000 claims 1
- 230000004069 differentiation Effects 0.000 claims 1
- 230000008685 targeting Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 20
- 238000004891 communication Methods 0.000 description 18
- 238000013461 design Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 9
- 230000005291 magnetic effect Effects 0.000 description 7
- 238000007726 management method Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 206010028980 Neoplasm Diseases 0.000 description 6
- NIXOWILDQLNWCW-UHFFFAOYSA-N acrylic acid group Chemical group C(C=C)(=O)O NIXOWILDQLNWCW-UHFFFAOYSA-N 0.000 description 6
- 230000006978 adaptation Effects 0.000 description 6
- 201000011510 cancer Diseases 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 241000282472 Canis lupus familiaris Species 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 230000006855 networking Effects 0.000 description 3
- 230000001537 neural effect Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000000875 corresponding effect Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000000779 smoke Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000010561 standard procedure Methods 0.000 description 2
- 230000009897 systematic effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000011157 data evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 230000000391 smoking effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/22—Indexing; Data structures therefor; Storage structures
- G06F16/2228—Indexing structures
- G06F16/2246—Trees, e.g. B+trees
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/242—Query formulation
- G06F16/243—Natural language query formulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本出願は、その開示の全体が参照により本明細書に組み込まれる、2017年5月9日に出願した米国仮特許出願第62/503,809号、表題「Deep adaptive semantic logic network」に対して米国特許法第119条に基づく優先権を主張する。
(∀x,y)(friends(x,y)→friends(y,x))
(∀x,y)((smokes(x)∧friends(x,y))→smokes(y))
(∀x)(smokes(x)→hasCancer(x))
xおよびyベクトルがルールにおいて変化するとき、それらのルールの解釈は変化する。
1.各人をパラメータ化されたベクトルにマップする、
2.各述語/関数をパラメータ化されたネットワークにマップする、
3.全ネットワークを公式解析木から構築する、
4.各ルールの定数の述語および関数の各データカラムの変数を対象とする
(図3のカラムを参照)、
5.パラメータを学習する(ネットワークをトレーニングする)、および、
6.ネットワークの定数ならびにパラメータのベクトル値が、ルールのセット内のアサーションを真とさせるおよび機械学習モデルをトレーニングするために使用されているデータと一致させるように適合される。
ネットワーク
コンピューティングシステム
Claims (20)
- 知識表現および推論のための適応的意味論学習を使用する1以上の機械学習モデルを作成するため互いに連携するように構成された2以上のモジュールを含む人工知能エンジン、を備えた装置であって、
前記人工知能エンジンの前記2以上のモジュールは、特定の分野の1以上の人間ソースによって使用される専門用語を有するその分野の1以上のソースからの前記表現および推論を、制約として働き第1の機械学習モデルによって理解可能なネットワークにグラフ化されるルールのセットへとエンコードすることを生じさせるよう連携し、
前記モジュールは、前記エンコードされたルールのセットを解釈するように構成され、前記エンコードされたルールの前記解釈は、異なる関数および述語に関連する前記ネットワークの前記ルールのセットおよびパラメータの異なる定数に関連するベクトルを適応させて、可能な限り前記ルールを真にさせる最適な解釈を得るように前記ネットワークをトレーニングすることによって、変化し得り、
前記解釈は、クエリサポートモジュールを介して問い合わせることができ、前記モジュールは、ソフトウェアにおいてコード化された任意の命令を実行する1以上のプロセッサを利用し、前記人工知能エンジンの1以上のメモリに記憶される、装置。 - 前記2以上のモジュールは、
専門知識データベースおよび/または直接ユーザ入力を含む1以上のソースから、前記表現および推論の入力を可能にするように構成された、理論モジュールと、
機械学習を使用するために前記モジュールによって使用される計算アルゴリズムに理解可能なように、前記表現および推論から導出された、述語、関数、および定数を含むアサーションをエンコードするように構成された、理論表現モジュールと、
をさらに含む、請求項1に記載の人工知能エンジン。 - 前記2以上のモジュールが、
前記1以上のソースからの前記表現および推論の入力を可能にするための理論モジュールと、理論表現モジュールと、
をさらに含み、
前記理論表現モジュールは、前記ネットワークをまとめて前記第1の機械学習モデルを生成するように構成され、前記理論表現モジュールから生成された前記作成された第1の機械学習モデルは、i)前記1以上のソースから提供され前記理論モジュールを介して供給された前記表現および推論から導出された前記ルールのセットと、ii)データでの反復トレーニングから導出された機械学習アサーションとの両方でトレーニングされ、
前記人工知能エンジンは、i)前記表現および推論から導出された前記ルールのセットと、ii)それらのルールの解釈の修正形態であって前記トレーニングデータのみを使用して単に学習することよりも少ないトレーニング周期および計算時間の消費を可能にする前記トレーニングデータを備えた前記機械学習から導出された前記修正形態と、の両方を使用するように構成されている、請求項1に記載の人工知能エンジン。 - 前記クエリサポートモジュールは、前記クエリサポートモジュールを介して、ブールクエリ、自然言語検索クエリ、説明要求、公理補正、およびこれらの任意の組合せから成るグループから選択された様々な人間相互作用をサポートし、次いで、前記第1の機械学習モデル内のニューラルネットワークによって決定がどのように行われるかの説明をディスプレイに提示してクエリ結果に説明可能性を与えるようにさらに構成され、前記説明可能性は、前記クエリサポートモジュールを介して前記知識表現および推論において表現されたプロパティをユーザが問い合わせるとき、前記クエリサポートモジュールが、信頼性スコアと、1)その分野の1以上のソースから前記表現および推論において供給された定数、記号、関数、および述語への前記プロパティのマッピング、および2)前記マッピングに関連する前記論理ステップの提供のうちの少なくとも1つと、を有するクエリ結果を生成するように構成されるような態様である、請求項3に記載の人工知能エンジン。
- 前記2以上のモジュールは、
前記表現および推論から導出された前記記号、定数、関数、および述語のインベントリを含むように構成された、言語モジュールと、
前記モジュールは、i)前記第1の機械学習モデルのトレーニングのために使用される前記データ内で発見された意味論的に類似の専門用語が前記モジュールによって論理的に関連付けられることを可能にすること、ii)前記1以上のソースから供給された意味論的に類似の用語のリストが前記人工知能エンジンの前記モジュールによって論理的に関連付けられることを可能にすること、あるいはiii)意味論的に類似の用語を論理的に関連付けるために前記モジュールによって使用されることになるこれら2つの任意の組合せによってエンコードされたルールのセットの前記解釈を適応させるようにも構成され、及び、
前記表現および推論から導出された前記記号を取得しネットワーク内でそれらの各々を関連付けるように構成されたモデル表現モジュールであって、前記モデル表現モジュールは、前記表現および推論から導出された前記定数を取得しそれらを前記ネットワークへの入力として意味論的ベクトルにマップするようにも構成され、前記モデル表現モジュールは、前記表現および推論から導出された前記述語を取得しそれらを前記ネットワークにマップするようにも構成され、前記モデル表現モジュールは、各ネットワークおよびそれの学習されたベクトルにアノテートするようにも構成される、モデル表現モジュールと、
をさらに含む、請求項1に記載の人工知能エンジン。 - 前記2以上のモジュールは、さらに、
前記エンコードされた表現および推論を経て、各ステートメントの部分をそのステートメント内の定数、記号、述語、および/または関数のカテゴリへと解析するように構成された、パーサーモジュールと、
各定数をパラメータ化されたベクトルにマップするように構成された前記人工知能エンジンの第1のモジュールであって、各定数は、ノードのサブグラフへの入力としてマップされ、前記人工知能エンジンの前記第1のモジュールは、各述語および/または関数をパラメータ化されたネットワークにマップするようにも構成された、第1のモジュールと、
解析木から全ネットワークを構築するように構成された前記人工知能エンジンの第2のモジュールであって、前記パーサーモジュールおよび言語モジュールは、前記ステートメントの前記定数が後でベクトルと関連付けられる深層ネットワークの構造を定義するために、アサートされた知識を表す論理公式の解析木を作成するよう連携し、モデル表現モジュールは、前記表現および推論のアサーションを真にすること、ならびに、より最適な解釈を伝達するために信頼性スコアによって指示される前記第1の機械学習モデルのトレーニングのために使用される前記データと一致させることを目的として、前記定数に関連するベクトル値を適応させると共に前記ネットワークのパラメータを適応させるように構成された、第2のモジュールと、
を含む、請求項1に記載の人工知能エンジン。 - 前記2以上のモジュールは、さらに、
各前記ルール内の各述語および関数の変数を対象とするように構成された前記人工知能エンジンの第3のモジュールであって、前記第3のモジュールは、1以上のコスト関数を使用してエラーを最小化し、かつ、前記理論表現モジュールから前記第1の機械学習モデルのためのこれらのコスト関数を供給してトレーニングデータから導出された統計主導の結論を導き前記ルールを可能な限り真にさせる前記より最適な解釈に寄与するように構成された、第3のモジュールを含み、
前記人工知能エンジンの前記理論表現モジュールは、前記ステートメントの前記セット内の前記表現および推論を表すグラフの前記ネットワークを前記第1の機械学習モデルへと自動的にまとめるように構成され、前記理論表現モジュールは、前記第1の機械学習モデルにおいて利用される前記知識表現および推論を表す前記ルールのセットの前記解釈を適応させるために、パラメータを学習し前記モデル内の前記ネットワークのトレーニングからのフィードバックを提供するようにも構成される、請求項6に記載の人工知能エンジン。 - 前記2以上のモジュールは、さらに、
前記機械学習モデルをトレーニングするために使用される前記データでのトレーニングの反復に基づく定数とは関連していない前記ルールのセットおよび/またはベクトルの一部を構成する異なる定数に関連するベクトルに対する修正をサポートするように構成された、定量化サポートモジュールを含む、請求項1に記載の人工知能エンジン。 - 前記2以上のモジュールは、さらに、
前記適応的意味論学習が、ネットワーク化されたトポロジーにエンコードされた前記表現および推論を表す第1の機械学習モデルへと自動的にまとめられるように、意味論的ベクトル、ネットワーク、およびカスタム構造を使用するように構成された、モデル表現モジュールと、
前記ルールのセット内の前記定数を前記モデル表現モジュールに送って前記トレーニング可能な意味論ベクトルを各前記定数に割り当てるように構成された、言語モジュールであって、前記エンコードされたルールのセットの前記解釈は、i)前記第1の機械学習モデルのトレーニングのために使用される前記データ内で発見された意味論的に類似の専門用語が前記モジュールによって論理的に関連付けられることを可能にすること、ii)前記1以上のソースから供給された意味論的に類似の用語のリストが前記人工知能エンジンの前記モジュールによって論理的に関連付けられることを可能にすること、およびiii)意味論的に類似の用語を論理的に関連付けるために前記モジュールによって使用されることになるこれら2つの任意の組合せ、によって適応可能である、言語モジュールと、を含み、
前記言語モジュールは、また、前記ルールのセット内の前記記号を前記モデル表現モジュールに送って微分関数を適用するように構成され、前記言語モジュールは、また、述語および関数を前記モデル表現モジュールに送ってトレーニング可能なマルチレイヤパーセプトロン(MLP)ネットワークを使用するように構成された、請求項1に記載の人工知能エンジン。 - 前記モデル表現モジュールは、さらに、仕様モジュールの参照に基づいて前記ネットワークに入る関数および述語の任意のパラメータを適応させるように構成され、前記モデル表現モジュールは、そして、前記ネットワークを取り込みそれらを前記理論表現モジュールに送ってそれらのすべてを前記第1の機械学習モデル内に構築するように構成される、請求項9に記載の人工知能エンジン。
- 人工知能エンジンのための方法であって、
知識表現および推論のための適応的意味論学習を使用する1以上の機械学習モデルを作成するために人工知能エンジンの2以上のモジュールを互いに連携させるステップと、
特定の分野の1以上の人間ソースによって使用される専門用語を有するその分野の1以上のソースからの前記表現および推論を、制約として働き第1の機械学習モデルによって理解可能なネットワークにグラフ化されたルールのセットにエンコードすることを生じさせる前記人工知能エンジンの2以上のモジュールと連携するステップと、
前記エンコードされたルールのセットの解釈を適応させるステップであって、前記エンコードされたルールの解釈は、異なる関数および述語に関連する前記ネットワークの前記ルールのセットおよびパラメータの異なる定数に関連するベクトルを適応させて、可能な限り前記ルールを真にさせるより最適な解釈を得るように、前記ネットワークをトレーニングすることによって変化し得る、ステップと、
クエリ結果に説明可能性を与えるために前記第1の機械学習モデル内の前記ネットワークによってどのように決定が行われるかを提示するためにクエリサポートモジュールを介して前記第1の機械学習モデルが問い合わせられることを可能にするステップと、
を含む、方法。 - 専門知識データベースおよび/または直接ユーザ入力を含む前記1以上のソースから、前記表現および推論の入力を可能にするステップと、
機械学習を使用するために前記モジュールによって使用される計算アルゴリズムに理解可能になるように、前記表現および推論から導出された、述語、関数、および定数を含むアサーションをエンコードするステップと、
をさらに含む、請求項11に記載の方法。 - 前記1以上のソースから前記表現および推論を入力するために理論モジュールを使用するステップと、
ネットワークをまとめて前記第1の機械学習モデルを生成するために理論表現モジュールを使用するステップであって、前記まとめられたネットワークは、前記表現および推論から導出される、ステップと、をさらに含み、
前記理論表現モジュールから生成された前記作成された第1の機械学習モデルは、i)制約として働き前記表現および推論から導出された前記ルールのセットと、ii)前記トレーニングデータを用いた前記機械学習から導出されたそれらのルールの解釈の修正形態との両方でトレーニングされている、請求項11に記載の方法。 - 前記第1の機械学習モデルのブールクエリ、自然言語検索クエリ、説明要求、公理補正、およびこれらの任意の組合せから成るグループから選択された様々な人間相互作用のクエリを可能にし、次いで、クエリ結果に説明可能性を与えるために前記第1の機械学習モデル内のネットワークによって決定がどのように行われるかをディスプレイに提示するステップをさらに含み、前記説明可能性は、ユーザが前記クエリサポートモジュールを介して前記知識表現および推論において表現されたプロパティを問い合わせるとき、前記クエリサポートモジュールが、信頼性スコアと、1)その分野の1以上のソースから前記表現および推論において供給された前記定数、記号、関数、および述語への前記プロパティのマッピングおよび2)前記マッピングに関連する前記論理ステップの提供のうちの少なくとも1つと、を有するクエリ結果を生成するように構成されるような態様である、請求項13に記載の方法。
- 前記表現および推論から導出された前記記号、定数、関数、および述語のインベントリを記憶するステップと、
i)前記第1の機械学習モデルのトレーニングのために使用される前記データ内で発見された意味論的に類似の専門用語が前記モジュールによって論理的に関連付けられることを可能にすること、ii)前記1以上のソースから供給された意味論的に類似の用語のリストが前記人工知能エンジンの前記モジュールによって論理的に関連付けられることを可能にすること、あるいはiii)意味論的に類似の用語を論理的に関連付けるために前記モジュールによって使用されることになるこれら2つの任意の組合せによって、エンコードされたルールのセットの前記解釈を適応させるステップと、並びに、
前記表現および推論から導出された前記記号を取得するステップであって、ネットワーク内でそれらの各々を関連付ける、ステップ、前記表現および推論から導出された前記定数を取得するステップであって、それらを前記ネットワークへの入力として意味論的ベクトルにマップする、ステップ、前記表現および推論から導出された前記述語を取得するステップであって、それらを前記ネットワークにマップする、ステップ、及び、各ネットワークおよびそれの学習されたベクトルにアノテートするステップと、
をさらに含む、請求項11に記載の方法。 - ステートメントのセット内の前記エンコードされた表現および推論を経るステップであって、各ステートメントの部分をそのステートメント内の定数、記号、述語、および/または関数のカテゴリに解析する、ステップと、
各定数をパラメータ化されたベクトルにマップするステップであって、各定数は、ノードのサブグラフへの入力としてマップされ、前記人工知能エンジンの前記第1のモジュールは、各述語および/または関数をパラメータ化されたネットワークにマップするようにも構成される、ステップと、
解析木から全ネットワークを構築するステップと、
前記ステートメントの前記定数が後でベクトルと関連付けられる深層ネットワークの構造を定義するために、アサートされた知識を表す論理公式の解析木を作成するステップと、
前記表現および推論のアサーションを真にすること、ならびに、前記より最適な解釈を伝達するために信頼性スコアによって指示される前記第1の機械学習モデルのトレーニングのために使用される前記データと一致させることを目的として、前記定数に関連するベクトル値を適応させると共に前記ネットワークのパラメータを適応させるステップと、
をさらに含む、請求項11に記載の方法。 - 各前記ルール内の各述語および関数の変数を目標とするステップと、トレーニングデータから導出される統計主導の結論を導きかつ前記第1の機械学習モデルのためにこれらのコスト関数を供給するようエラーを最小化する1以上のコスト関数を使用するステップと、
前記第1の機械学習モデル内に前記ステートメントのセット内の前記表現および推論を表すグラフの前記ネットワークを自動的にまとめるステップと、
パラメータを学習するステップであって、前記第1の機械学習モデルにおいて利用される前記知識表現および推論を表すルールのセットの前記解釈を適応させるために、前記モデル内の前記ネットワークのトレーニングからのフィードバックを提供する、ステップと、
をさらに含む、請求項16に記載の方法。 - 導くための前記機械学習モデルをトレーニングするために使用されるデータでのトレーニングの反復に基づいて前記ルールのセットの一部を構成する異なる定数に関連するベクトルに対する修正をサポートするステップ、ならびに、前記機械学習モデルをトレーニングするために使用される前記データでのトレーニングの反復に基づく定数とは関連しないベクトルを適応させるステップをさらに含む、請求項11に記載の方法。
- i)前記機械学習モデルをトレーニングするために使用される前記データ内で発見された意味論的に類似の専門用語が前記モジュールによって論理的に関連付けられることを可能にすること、ii)専門家によって供給された意味論的に類似の用語のリストが前記人工知能エンジンの前記モジュールによって論理的に関連付けられることを可能にすること、および、iii)意味論的に類似の用語を論理的に関連付けるために前記モジュールによって使用されることになるこれら2つの任意の組合せによって、前記エンコードされたルールのセットの前記解釈もまた適応させるステップと、
前記適応的意味論学習が前記第1の機械学習モデルに自動的にまとめられてネットワーク化されたトポロジーにエンコードされた前記表現および推論を表すように、意味論ベクトル、ネットワーク、およびカスタム構造を採用するステップと、
前記ルールのセット内の各前記定数に前記トレーニング可能な意味論ベクトルを割り当てるステップ、微分関数を前記ルールのセット内の前記記号に適用するステップ、および前記ルールのセット内の前記述語および関数のためにトレーニング可能なマルチレイヤパーセプトロン(MLP)ニューラルネットワークを使用するステップと、
をさらに含む、請求項18に記載の方法。 - 仕様モジュールの参照に基づいて前記ネットワークに入る関数および述語の任意のパラメータを適応させるステップと、
前記ネットワークを取り込みそれらを前記理論表現モジュールに送って前記第1の機械学習モデル内に前記ネットワークを構築するステップと、
をさらに含む、請求項19に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762503809P | 2017-05-09 | 2017-05-09 | |
US62/503,809 | 2017-05-09 | ||
PCT/US2018/031645 WO2018208813A1 (en) | 2017-05-09 | 2018-05-08 | Deep adaptive semantic logic network |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020520504A JP2020520504A (ja) | 2020-07-09 |
JP7162015B2 true JP7162015B2 (ja) | 2022-10-27 |
Family
ID=64104980
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019561177A Active JP7162015B2 (ja) | 2017-05-09 | 2018-05-08 | 深層適応的意味論論理ネットワーク |
Country Status (4)
Country | Link |
---|---|
US (1) | US11461643B2 (ja) |
EP (1) | EP3622406A4 (ja) |
JP (1) | JP7162015B2 (ja) |
WO (1) | WO2018208813A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3671571A1 (en) * | 2018-12-20 | 2020-06-24 | Siemens Aktiengesellschaft | A method and system for generating an artificial intelligence model |
US10831452B1 (en) | 2019-09-06 | 2020-11-10 | Digital Asset Capital, Inc. | Modification of in-execution smart contract programs |
CN112580357A (zh) * | 2019-09-29 | 2021-03-30 | 微软技术许可有限责任公司 | 自然语言查询的语义解析 |
US11132687B2 (en) * | 2019-10-04 | 2021-09-28 | Visa International Service Association | Method for dynamically reconfiguring machine learning models |
US11900070B2 (en) | 2020-02-03 | 2024-02-13 | International Business Machines Corporation | Producing explainable rules via deep learning |
US11232357B2 (en) * | 2020-02-13 | 2022-01-25 | UMNAI Limited | Method for injecting human knowledge into AI models |
JP7391212B2 (ja) * | 2020-03-10 | 2023-12-04 | エスアールアイ インターナショナル | ニューラル記号コンピューティング |
CN111950291B (zh) * | 2020-06-22 | 2024-02-23 | 北京百度网讯科技有限公司 | 语义表示模型的生成方法、装置、电子设备及存储介质 |
CN112256411B (zh) * | 2020-10-15 | 2024-02-27 | 上海昀层信息技术有限公司 | 一种密码智能调度系统及方法 |
CN112199896A (zh) * | 2020-10-26 | 2021-01-08 | 云中芯半导体技术(苏州)有限公司 | 一种基于机器学习的芯片逻辑综合优化加速方法 |
US20220300799A1 (en) * | 2021-03-16 | 2022-09-22 | International Business Machines Corporation | Neuro-Symbolic Approach for Entity Linking |
CN113222170B (zh) * | 2021-03-30 | 2024-04-23 | 新睿信智能物联研究院(南京)有限公司 | 一种用于物联网ai协同服务平台的智能算法和模型 |
CN115033650A (zh) * | 2022-06-09 | 2022-09-09 | 深圳计算科学研究院 | 一种基于关系数据的数据处理方法及其装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000137616A (ja) | 1998-11-02 | 2000-05-16 | Nippon Telegr & Teleph Corp <Ntt> | 論理関数学習方法及び論理関数学習プログラムを記録した記録媒体 |
JP2013008221A (ja) | 2011-06-24 | 2013-01-10 | National Institute Of Information & Communication Technology | 論理推論システム、計算学習装置および論理推論方法 |
JP2013536484A (ja) | 2010-06-22 | 2013-09-19 | プライマル フュージョン インコーポレイテッド | コンピュータ化エージェントのシステムとユーザ指図セマンティックネットワーキング |
JP2013537655A (ja) | 2010-06-22 | 2013-10-03 | プライマル フュージョン インコーポレイテッド | 複雑な知識表現を分析および合成するシステムおよび方法 |
JP2015130194A (ja) | 2015-02-02 | 2015-07-16 | 洋彰 宮崎 | 自律型知識分析機 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6094646A (en) * | 1997-08-18 | 2000-07-25 | Siemens Aktiengesellschaft | Method and apparatus for computerized design of fuzzy logic rules from training data vectors of a training dataset |
US8788701B1 (en) | 2006-08-25 | 2014-07-22 | Fair Isaac Corporation | Systems and methods for real-time determination of the semantics of a data stream |
US7689526B2 (en) | 2007-01-25 | 2010-03-30 | Fair Isaac Corporation | Knowledge base with clustered data objects |
US9916538B2 (en) * | 2012-09-15 | 2018-03-13 | Z Advanced Computing, Inc. | Method and system for feature detection |
US10372815B2 (en) * | 2013-07-12 | 2019-08-06 | Microsoft Technology Licensing, Llc | Interactive concept editing in computer-human interactive learning |
US10521747B2 (en) | 2014-04-08 | 2019-12-31 | Northrop Grumman Systems Corporation | System and method for providing a scalable semantic mechanism for policy-driven assessment and effective action taking on dynamically changing data |
US20160026919A1 (en) * | 2014-07-24 | 2016-01-28 | Agt International Gmbh | System and method for social event detection |
US10509814B2 (en) * | 2014-12-19 | 2019-12-17 | Universidad Nacional De Educacion A Distancia (Uned) | System and method for the indexing and retrieval of semantically annotated data using an ontology-based information retrieval model |
-
2018
- 2018-05-08 JP JP2019561177A patent/JP7162015B2/ja active Active
- 2018-05-08 EP EP18798256.6A patent/EP3622406A4/en active Pending
- 2018-05-08 US US16/611,177 patent/US11461643B2/en active Active
- 2018-05-08 WO PCT/US2018/031645 patent/WO2018208813A1/en unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000137616A (ja) | 1998-11-02 | 2000-05-16 | Nippon Telegr & Teleph Corp <Ntt> | 論理関数学習方法及び論理関数学習プログラムを記録した記録媒体 |
JP2013536484A (ja) | 2010-06-22 | 2013-09-19 | プライマル フュージョン インコーポレイテッド | コンピュータ化エージェントのシステムとユーザ指図セマンティックネットワーキング |
JP2013537655A (ja) | 2010-06-22 | 2013-10-03 | プライマル フュージョン インコーポレイテッド | 複雑な知識表現を分析および合成するシステムおよび方法 |
JP2013008221A (ja) | 2011-06-24 | 2013-01-10 | National Institute Of Information & Communication Technology | 論理推論システム、計算学習装置および論理推論方法 |
JP2015130194A (ja) | 2015-02-02 | 2015-07-16 | 洋彰 宮崎 | 自律型知識分析機 |
Also Published As
Publication number | Publication date |
---|---|
JP2020520504A (ja) | 2020-07-09 |
WO2018208813A1 (en) | 2018-11-15 |
US11461643B2 (en) | 2022-10-04 |
US20200193286A1 (en) | 2020-06-18 |
EP3622406A1 (en) | 2020-03-18 |
EP3622406A4 (en) | 2021-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7162015B2 (ja) | 深層適応的意味論論理ネットワーク | |
US11164109B2 (en) | Artificial intelligence engine for mixing and enhancing features from one or more trained pre-existing machine-learning models | |
US11836650B2 (en) | Artificial intelligence engine for mixing and enhancing features from one or more trained pre-existing machine-learning models | |
US20200167145A1 (en) | Active adaptation of networked compute devices using vetted reusable software components | |
Ghaisas et al. | Knowledge-assisted ontology-based requirements evolution | |
Lande et al. | GPT Semantic Networking: A Dream of the Semantic Web–The Time is Now | |
JP2023179657A (ja) | ニューラル記号コンピューティング | |
Gonzalez-Rodriguez et al. | Self-Organized Linguistic Systems: From traditional AI to bottom-up generative processes | |
Nilsson et al. | Ai concepts for system of systems dynamic interoperability | |
Smirnov et al. | Ontology matching for socio-cyberphysical systems: An approach based on background knowledge | |
KR102666248B1 (ko) | 생성형 딥러닝 모델 학습 데이터 생성을 위한 프롬프트 생성 장치 | |
Bajnaid et al. | Context-aware SQA e-learning system | |
Merkle et al. | A Semantic Use Case Simulation Framework for Training Machine Learning Algorithms | |
Peredo et al. | SOFTWARE ARCHITECTURE AND DESIGN WITH SEMANTIC WEB TECHNOLOGIES IN VIRTUAL LEARNING ENVIRONMENTS. | |
Hashemi | Integrating Qt and LLMs on the NVIDIA Jetson board for controlling a patient-assisting robot arm | |
Ale et al. | Empowering generative AI through mobile edge computing | |
Kumaravelan et al. | Optimizing Dialogue Strategy in Large-Scale Spoken Dialogue System: A Learning Automaton Based Approach | |
Damaševičius | Bibliography in SCOPUS |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20191106 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210331 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220224 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220519 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221012 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221017 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7162015 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20240308 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D04 |