JP2018092576A - 離散最適化のための帰納論理プログラミング強化ディープビリーフネットワーク・モデルのトレーニング - Google Patents
離散最適化のための帰納論理プログラミング強化ディープビリーフネットワーク・モデルのトレーニング Download PDFInfo
- Publication number
- JP2018092576A JP2018092576A JP2017101329A JP2017101329A JP2018092576A JP 2018092576 A JP2018092576 A JP 2018092576A JP 2017101329 A JP2017101329 A JP 2017101329A JP 2017101329 A JP2017101329 A JP 2017101329A JP 2018092576 A JP2018092576 A JP 2018092576A
- Authority
- JP
- Japan
- Prior art keywords
- value set
- values
- value
- predefined threshold
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000001939 inductive effect Effects 0.000 title claims abstract description 23
- 238000012549 training Methods 0.000 title claims description 21
- 238000005457 optimization Methods 0.000 title abstract description 24
- 238000010801 machine learning Methods 0.000 claims abstract description 11
- 238000000034 method Methods 0.000 claims description 35
- 238000005070 sampling Methods 0.000 claims description 28
- 230000015654 memory Effects 0.000 claims description 18
- 238000000638 solvent extraction Methods 0.000 claims description 10
- 238000004891 communication Methods 0.000 claims description 6
- 238000005192 partition Methods 0.000 abstract description 2
- 239000000523 sample Substances 0.000 description 27
- 238000009826 distribution Methods 0.000 description 15
- 230000003190 augmentative effect Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000010276 construction Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 241001274613 Corvus frugilegus Species 0.000 description 3
- 230000001186 cumulative effect Effects 0.000 description 3
- 238000013500 data storage Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 230000001976 improved effect Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000010348 incorporation Methods 0.000 description 2
- 125000001997 phenyl group Chemical group [H]C1=C([H])C([H])=C(*)C([H])=C1[H] 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000014616 translation Effects 0.000 description 2
- 241000255581 Drosophila <fruit fly, genus> Species 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 210000003918 fraction a Anatomy 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
- G06N5/025—Extracting rules from data
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/04—Programme control other than numerical control, i.e. in sequence controllers or logic controllers
- G05B19/042—Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
- G05B19/0428—Safety, monitoring
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3341—Query execution using boolean model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/24765—Rule-based classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
- G06N5/047—Pattern matching networks; Rete networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
Abstract
Description
本特許出願は、2016年12月5日出願のインド特許出願第201621041570号の優先権を主張する。
本明細書における開示は、一般に、ニューロシンボリック最適化に関し、より詳しくは、離散最適化のために帰納論理プログラミングによって強化されたディープビリーフネットワーク・モデルをトレーニングすることに関する。
本開示の実施形態の目的は、目的関数F(x)を最小化することであると仮定し、ここでxは、あるインスタンス空間Xからのインスタンスであり、本アプローチは、最初に、低い方および高い方の値、すなわちF(x)≦θおよびF(x)>θのサンプルを区別するために然るべき機械学習モデルを構築し、次にこのモデルを用いて、図2の方法の以下の説明的なステップ(EDOS手順)によって、サンプルを生成する:
1.集団を初期化する P:={xi};θ:=θ0
2.while not converged do
a.P中のすべてのxiに対してF(xi)≦θならばlabel(xi):=1、そうでない場合はlabel(xi):=0
b.1および0ラベルを区別するためにDBNモデルMをトレーニングする、すなわち、P(x:label(x)=1|M)>P(x:label(x)=0|M)
c.モデルMを用いた繰り返しサンプリングによってPを再生成する
d.閾値θを減少させる
3.return P
インスタンスXのセットから引き出されたいくつかのデータインスタンスxおよびドメイン固有の背景知識を所与として、2つのクラス(簡単にするために、良いおよび悪いと称される)を区別するモデルを構築するためにILPエンジン(モデル)が用いられると仮定する。ILPエンジンは、hj:Class(x;good)←Cpj(x)の形式の規則を用いて良いインスタンスのためのモデルを構築する。Cpj:X→{0,1}は、「コンテキスト述語」を表す。コンテキスト述語は、Xの任意の要素に関してTRUE(1)またはFALSE(0)に評価されるリテラルの接続詞に対応する。意味のある特徴に対しては、Cpjが少なくとも1つのリテラルを含むことを必要とし、論理的には、それゆえに、対応するhjが少なくとも2つのリテラルをもつ確定節であることを必要とする。規則hj:Class(x;good)←Cpj(x)は、次のように1対1のマッピングを用いて特徴fjへ変換される、すなわち、Cpj(x)=1であればfj(x)=1(そうでない場合は0)。この関数は、Featureと表される。従って、Feature(hj)=fj、Feature−1(fj)=(hj)。これは、ときにはFeature(H)={f:h∈H and f=Feature(h)}およびRules(F)={h:f∈F and h=Feature−1(f)}と呼ばれる。
先の研究が示唆したのは、サンプルをILP構築モデルの成功セットから引き出すことができれば、準最適解を特定する効率を著しく向上できるであろうということである。ILP支援DBNモデル(またはILP強化DBNモデル)を用いてこれを達成する直接的なアプローチは、すべてのILP特徴をクランプすることであるように思われるであろうが、その理由は、このことがネットワークからのサンプルを対応規則の成功セットの共通部分からのサンプルの方へバイアスすることになるためである(共通部分中のインスタンスが求められる成功セット内にあることが保証されるのは明白である)。しかしながら、これは、不当に制限的になり、その理由は、求められるサンプルがモデルにおけるすべての規則を満たすサンプルではなく、少なくとも1つの規則を満たすサンプルであるためである。明らかな修正は、特徴のサブセットをクランプすることであろう(would be clamp)。しかしながら、特徴のサブセットからのすべてのサンプルが適切というわけではないこともある。
1.S:=φ,k=0
2.while |k|≦N do
a.Fからサイズkの特徴のサブセットFkをランダムに選択する
b.Fk中にXクランピング特徴の小さいサンプル・セットを生成する
c.x∈X中のサンプルごとおよび規則hjごとに、countk=0に設定する
i.x∈success−set、ここで(fj(x)=1)=>(x∈success−set(B and hj))であればcountk=countk+1
3.k個の特徴をクランプすることによってSを生成する、ここでcountk=max(count1,count2...countN)
4.Return S
本開示における経験的評価の目的は、以下の推測を検討することである、すなわち、
1)各反復の際に、EODS手順は、ILP特徴有りの方が無しより良いサンプルをもたらす。
2)終了の際に、EODS手順は、ILP特徴有りの方が無しより多くの準最適なインスタンスをもたらす。
3)両方の手順は、初期トレーニング・セットからのランダムサンプリングよりうまく行く。
2つの合成データセットが用いられた。一方は、KRKチェス・エンドゲーム(ボード上にホワイトキング、ホワイトルーク、およびブラックキングだけのエンドゲーム)から生じ、他方は、制約付きであるが、それでも困難な5×5ジョブショップ・スケジューリング(各々が一度に1つのタスクだけを処理することが可能な、5つの機械上へ様々な長さの時間を要する5つのジョブをスケジュールする)から生じた。
チェスに関しては、背景述語が以下をエンコードする(WKは白キング(WK denotes)、WRは白ルーク、およびBKは黒キングを表す):(a)ピース間距離WK−BK、WK−BK、WK−WR、(b)ファイルおよび距離パターン:WR−BK、WK−WR、WK−BK、(c)「アラインメント距離」:WR−BK、(d)隣接パターン:WK−WR、WK−BK、WR−BK、(e)「間」パターン:WKとBKとの間のWR、WRとBKとの間のWK、WKとWRとの間のBK、(f)最近接エッジへの距離:BK、(g)最近接コーナへの距離:BK、(h)中心への距離:WK、および(i)ピース間パターン:オポジション状態のキング、ほぼオポジション状態のキング、L状パターン。これらの概念を用いる歴史とそれらの定義とを扱う先行研究がなされてきた。デプス<=2に対して生成されるサンプル規則は、2つのキングのファイル間の距離がゼロ以上であり、これらのキングのランクが5未満の距離で分離され、白キングおよびルークのランクが3未満の距離で分離されることである。
チェスに関する閾値のシーケンスは、(8,4,2,0)である。ジョブショップに関しては、このシーケンスは、(900,890,880…600)である。従って、チェスではθ*=0、ジョブショップでは600であり、これが意味するのは、チェスでは厳密に最適な解が必要なことである。
それぞれチェスおよびジョブショップに関して推測1)および2)に関連する結果が下の表3、4、5および6に表示される。
Claims (15)
- プロセッサに実装された方法であって、
(a)(i)複数の値を備えるデータセットおよび(ii)予め定義された閾値を初期化するステップと、
(b)前記予め定義された閾値に基づいて前記複数の値を第1の値セットおよび第2の値セットへ区分するステップと、
(c)1つ以上のブール特徴を得るために、帰納論理プログラミング(ILP)および前記データセットと関連付けられたドメイン知識を用いて、前記第1の値セットおよび前記第2の値セットの各々に関する機械学習モデルを構築するステップと、
(d)前記第1の値セットおよび前記第2の値セットの間で最適な値セットを特定するために、前記データセットに加えられている前記1つ以上のブール特徴を用いて、ディープビリーフネットワーク(DBN)モデルをトレーニングするステップと、
(e)1つ以上のサンプルを生成するために、前記トレーニングされたDBNモデルを用いて、前記最適な値セットをサンプリングするステップと
を備える、方法。 - 前記1つ以上の生成されたサンプルを用いて、前記予め定義された閾値の値を調整し、最適なサンプルが生成されるまでステップ(b)から(e)までを繰り返すステップをさらに備える、請求項1に記載のプロセッサに実装された方法。
- 前記予め定義された閾値に基づいて前記複数の値を第1の値セットおよび第2の値セットへ区分する前記ステップは、前記複数の値からの各値と前記予め定義された閾値との比較を行うステップを備える、請求項1に記載のプロセッサに実装された方法。
- 前記第1の値セットは、前記予め定義された閾値以下の値である、請求項1に記載のプロセッサに実装された方法。
- 前記第2の値セットは、前記予め定義された閾値より大きい値である、請求項1に記載のプロセッサに実装された方法。
- システムであって、
命令を記憶するメモリ、
1つ以上の通信インターフェース、および
前記1つ以上の通信インターフェースを経由して前記メモリに通信可能に結合された1つ以上のハードウェアプロセッサを備え、前記1つ以上のハードウェアプロセッサは、前記命令によって、
(a)(i)複数の値を備えるデータセットおよび(ii)予め定義された閾値を初期化し、
(b)前記予め定義された閾値に基づいて前記複数の値を第1の値セットおよび第2の値セットへ区分し、
(c)1つ以上のブール特徴を得るために、帰納論理プログラミング(ILP)および前記データセットと関連付けられたドメイン知識を用いて、前記第1の値セットおよび前記第2の値セットの各々に関する機械学習モデルを構築し、
(d)前記第1の値セットおよび前記第2の値セットの間で最適な値セットを特定するために、前記データセットに加えられている前記1つ以上のブール特徴を用いて、ディープビリーフネットワーク(DBN)モデルをトレーニングして、
(e)1つ以上のサンプルを生成するために、前記トレーニングされたDBNモデルを用いて、前記最適な値セットをサンプリングする
ように構成された、
システム。 - 前記1つ以上のハードウェアプロセッサは、前記1つ以上の生成されたサンプルを用いて、前記予め定義された閾値の値を調整し、最適なサンプルが生成されるまでステップ(b)から(e)までを繰り返すようにさら構成された、請求項6に記載のシステム。
- 前記複数の値は、前記複数の値からの各値と前記予め定義された閾値との比較を行うことによって前記第1の値セットおよび前記第2の値セットへ区分される、請求項6に記載のシステム。
- 前記第1の値セットは、前記予め定義された閾値以下の値である、請求項6に記載のシステム。
- 前記第2の値セットは、前記予め定義された閾値より大きい値である、請求項6に記載のシステム。
- 1つ以上の命令を備える1つ以上の非一時的機械可読情報記憶媒体であって、前記1つ以上の命令は、1つ以上のハードウェアプロセッサによって実行されたときに、
(a)(i)複数の値を備えるデータセットおよび(ii)予め定義された閾値を初期化するステップと、
(b)前記予め定義された閾値に基づいて前記複数の値を第1の値セットおよび第2の値セットへ区分するステップと、
(c)1つ以上のブール特徴を得るために、帰納論理プログラミング(ILP)および前記データセットと関連付けられたドメイン知識を用いて、前記第1の値セットおよび前記第2の値セットの各々に関する機械学習モデルを構築するステップと、
(d)前記第1の値セットおよび前記第2の値セットの間で最適な値セットを特定するために、前記データセットに加えられている前記1つ以上のブール特徴を用いて、ディープビリーフネットワーク(DBN)モデルをトレーニングするステップと、
(e)1つ以上のサンプルを生成するために、前記トレーニングされたDBNモデルを用いて、前記最適な値セットをサンプリングするステップと
をもたらす、1つ以上の非一時的機械可読情報記憶媒体。 - 前記命令は、前記1つ以上の生成されたサンプルを用いて、前記予め定義された閾値の値を調整し、最適なサンプルが生成されるまでステップ(b)から(e)までを繰り返すステップをさらにもたらす、請求項11に記載の1つ以上の非一時的機械可読情報記憶媒体。
- 前記予め定義された閾値に基づいて前記複数の値を第1の値セットおよび第2の値セットへ区分する前記ステップは、前記複数の値からの各値と前記予め定義された閾値との比較を行うステップを備える、請求項11に記載の1つ以上の非一時的機械可読情報記憶媒体。
- 前記第1の値セットは、前記予め定義された閾値以下の値である、請求項11に記載の1つ以上の非一時的機械可読情報記憶媒体。
- 前記第2の値セットは、前記予め定義された閾値より大きい値である、請求項11に記載の1つ以上の非一時的機械可読情報記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IN201621041570 | 2016-12-05 | ||
IN201621041570 | 2016-12-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018092576A true JP2018092576A (ja) | 2018-06-14 |
JP6403834B2 JP6403834B2 (ja) | 2018-10-10 |
Family
ID=58698965
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017101329A Active JP6403834B2 (ja) | 2016-12-05 | 2017-05-23 | 離散最適化のための帰納論理プログラミング強化ディープビリーフネットワーク・モデルのトレーニング |
Country Status (6)
Country | Link |
---|---|
US (1) | US20180157977A1 (ja) |
EP (1) | EP3330901A1 (ja) |
JP (1) | JP6403834B2 (ja) |
AU (1) | AU2017203299B2 (ja) |
CA (1) | CA2967641C (ja) |
MX (1) | MX2017006853A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7464946B2 (ja) | 2021-01-29 | 2024-04-10 | 日本電信電話株式会社 | 論理プログラム推定装置、論理プログラム推定方法、及びプログラム |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109063247B (zh) * | 2018-06-26 | 2023-04-18 | 西安工程大学 | 基于深度信念网络的滑坡灾害预报方法 |
CN109011580B (zh) * | 2018-06-29 | 2021-12-21 | 腾讯科技(深圳)有限公司 | 残局牌面获取方法、装置、计算机设备及存储介质 |
CN109492319B (zh) * | 2018-11-23 | 2022-08-12 | 东北电力大学 | 一种火电厂锅炉烟气含氧量软测量方法 |
CN111539611A (zh) * | 2020-04-17 | 2020-08-14 | 上海电气集团股份有限公司 | 一种装配调度方法、装置、设备及介质 |
CN111753920B (zh) * | 2020-06-30 | 2022-06-21 | 重庆紫光华山智安科技有限公司 | 特征构建方法、装置、计算机设备及存储介质 |
JP2023081576A (ja) | 2021-12-01 | 2023-06-13 | 富士通株式会社 | エージェントモデル構築プログラム、エージェントモデル構築方法および情報処理装置 |
CN115577511B (zh) * | 2022-09-26 | 2023-11-17 | 南京航空航天大学 | 基于无人机运动状态的短期航迹预测方法、装置及系统 |
-
2017
- 2017-05-05 EP EP17169689.1A patent/EP3330901A1/en not_active Ceased
- 2017-05-09 US US15/590,742 patent/US20180157977A1/en not_active Abandoned
- 2017-05-16 CA CA2967641A patent/CA2967641C/en active Active
- 2017-05-17 AU AU2017203299A patent/AU2017203299B2/en active Active
- 2017-05-23 JP JP2017101329A patent/JP6403834B2/ja active Active
- 2017-05-25 MX MX2017006853A patent/MX2017006853A/es unknown
Non-Patent Citations (1)
Title |
---|
嶋津恵子,外1名: "データベースからの知識発見システムDB−Amp", 人工知能学会誌, vol. 第15巻,第4号, JPN6018032424, 1 July 2000 (2000-07-01), JP, pages 629 - 637 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7464946B2 (ja) | 2021-01-29 | 2024-04-10 | 日本電信電話株式会社 | 論理プログラム推定装置、論理プログラム推定方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
AU2017203299A1 (en) | 2018-06-21 |
EP3330901A1 (en) | 2018-06-06 |
CA2967641A1 (en) | 2018-06-05 |
JP6403834B2 (ja) | 2018-10-10 |
CA2967641C (en) | 2022-06-14 |
AU2017203299B2 (en) | 2019-02-14 |
US20180157977A1 (en) | 2018-06-07 |
MX2017006853A (es) | 2018-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6403834B2 (ja) | 離散最適化のための帰納論理プログラミング強化ディープビリーフネットワーク・モデルのトレーニング | |
US11631009B2 (en) | Multi-hop knowledge graph reasoning with reward shaping | |
Brownlee | XGBoost With python: Gradient boosted trees with XGBoost and scikit-learn | |
US9684874B2 (en) | Parallel decision or regression tree growing | |
US10002221B2 (en) | Enhanced parameter tuning for very-large-scale integration synthesis | |
EP2991003B1 (en) | Method and apparatus for classification | |
Samb et al. | A novel RFE-SVM-based feature selection approach for classification | |
KR20200063330A (ko) | 메타학습에 기반한 임의의 목표 데이터셋과 모델 구조로의 전이학습 방법 및 시스템 | |
WO2019152929A1 (en) | Regularized neural network architecture search | |
US20200143243A1 (en) | Multiobjective Coevolution of Deep Neural Network Architectures | |
Singh et al. | Parallel large scale feature selection for logistic regression | |
KR20200046189A (ko) | 생성적 적대 신경망에 기반한 협업 필터링을 위한 방법 및 시스템 | |
US11537373B2 (en) | Systems and methods for scalable hierarchical polyhedral compilation | |
JP6230987B2 (ja) | 言語モデル作成装置、言語モデル作成方法、プログラム、および記録媒体 | |
JP7342971B2 (ja) | 対話処理装置、学習装置、対話処理方法、学習方法及びプログラム | |
Ugare et al. | Incremental verification of neural networks | |
US11256993B2 (en) | Parallelization approaches of modified teaching learning based search optimization technique for variable selection | |
JP2012221489A (ja) | 効率的にクエリを処理する方法及び装置 | |
KR102559605B1 (ko) | 함수 최적화 방법 및 장치 | |
WO2023147140A1 (en) | Routing to expert subnetworks in mixture-of-experts neural networks | |
US20220188691A1 (en) | Machine Learning Pipeline Generation | |
Peharz et al. | Exact maximum margin structure learning of Bayesian networks | |
WO2021226709A1 (en) | Neural architecture search with imitation learning | |
US11321424B2 (en) | Predicting variables where a portion are input by a user and a portion are predicted by a system | |
KR101538131B1 (ko) | 버그 정정 개발자 추천을 위한 하이브리드 버그 할당 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180828 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180911 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6403834 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |