JP7430406B2 - 深層特徴抽出を用いた能動的転移学習のためのシステムおよび方法 - Google Patents
深層特徴抽出を用いた能動的転移学習のためのシステムおよび方法 Download PDFInfo
- Publication number
- JP7430406B2 JP7430406B2 JP2021521821A JP2021521821A JP7430406B2 JP 7430406 B2 JP7430406 B2 JP 7430406B2 JP 2021521821 A JP2021521821 A JP 2021521821A JP 2021521821 A JP2021521821 A JP 2021521821A JP 7430406 B2 JP7430406 B2 JP 7430406B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- training
- neural network
- machine learning
- feature extractor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 116
- 238000013526 transfer learning Methods 0.000 title description 27
- 238000000605 extraction Methods 0.000 title description 11
- 238000012549 training Methods 0.000 claims description 137
- 238000013528 artificial neural network Methods 0.000 claims description 52
- 230000008569 process Effects 0.000 claims description 52
- 238000010801 machine learning Methods 0.000 claims description 30
- 238000010200 validation analysis Methods 0.000 claims description 26
- 238000007637 random forest analysis Methods 0.000 claims description 22
- 229940000406 drug candidate Drugs 0.000 claims description 15
- 238000009826 distribution Methods 0.000 claims description 9
- 230000001988 toxicity Effects 0.000 claims description 9
- 231100000419 toxicity Toxicity 0.000 claims description 9
- 230000035699 permeability Effects 0.000 claims description 8
- 238000012706 support-vector machine Methods 0.000 claims description 8
- 238000007781 pre-processing Methods 0.000 claims description 7
- 238000000354 decomposition reaction Methods 0.000 claims description 6
- 238000007876 drug discovery Methods 0.000 claims description 6
- 230000002776 aggregation Effects 0.000 claims description 5
- 238000004220 aggregation Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000004140 cleaning Methods 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 5
- 238000010521 absorption reaction Methods 0.000 claims description 4
- 238000003066 decision tree Methods 0.000 claims description 4
- 230000008030 elimination Effects 0.000 claims description 4
- 238000003379 elimination reaction Methods 0.000 claims description 4
- 230000008014 freezing Effects 0.000 claims description 4
- 238000007710 freezing Methods 0.000 claims description 4
- 229910052739 hydrogen Inorganic materials 0.000 claims description 4
- 239000001257 hydrogen Substances 0.000 claims description 4
- 238000001727 in vivo Methods 0.000 claims description 4
- 238000003064 k means clustering Methods 0.000 claims description 4
- 238000012417 linear regression Methods 0.000 claims description 4
- 230000002503 metabolic effect Effects 0.000 claims description 4
- 230000037323 metabolic rate Effects 0.000 claims description 4
- 230000036470 plasma concentration Effects 0.000 claims description 4
- 239000003446 ligand Substances 0.000 claims description 2
- 102000004169 proteins and genes Human genes 0.000 claims description 2
- 108090000623 proteins and genes Proteins 0.000 claims description 2
- 238000003860 storage Methods 0.000 claims 4
- 238000003062 neural network model Methods 0.000 claims 1
- 239000000126 substance Substances 0.000 description 17
- 230000008901 benefit Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 239000012528 membrane Substances 0.000 description 4
- 239000002131 composite material Substances 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000007477 logistic regression Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000001404 mediated effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 102000005962 receptors Human genes 0.000 description 2
- 108020003175 receptors Proteins 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 206010019851 Hepatotoxicity Diseases 0.000 description 1
- UFHFLCQGNIYNRP-UHFFFAOYSA-N Hydrogen Chemical compound [H][H] UFHFLCQGNIYNRP-UHFFFAOYSA-N 0.000 description 1
- 206010027476 Metastases Diseases 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007686 hepatotoxicity Effects 0.000 description 1
- 231100000304 hepatotoxicity Toxicity 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000009401 metastasis Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000011170 pharmaceutical development Methods 0.000 description 1
- 230000003285 pharmacodynamic effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000004579 scanning voltage microscopy Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16C—COMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
- G16C20/00—Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
- G16C20/30—Prediction of properties of chemical compounds, compositions or mixtures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2113—Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16B—BIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
- G16B15/00—ICT specially adapted for analysing two-dimensional or three-dimensional molecular structures, e.g. structural or functional relations or structure alignment
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16B—BIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
- G16B40/00—ICT specially adapted for biostatistics; ICT specially adapted for bioinformatics-related machine learning or data mining, e.g. knowledge discovery or pattern finding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16C—COMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
- G16C20/00—Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
- G16C20/70—Machine learning, data mining or chemometrics
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Chemical & Material Sciences (AREA)
- Crystallography & Structural Chemistry (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biotechnology (AREA)
- Bioethics (AREA)
- Databases & Information Systems (AREA)
- Epidemiology (AREA)
- Public Health (AREA)
- Investigating Or Analysing Biological Materials (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本願は、「Systems and Methods for Active Transfer Learning with Deep Featurization」と題され、2018年10月23日に出願された、米国仮特許出願第62/749,653号の利益および優先権を主張する。米国仮特許出願第62/749,653号の開示は、参照することによってその全体として本明細書に組み込まれる。
深層特徴抽出に基づくアンサンブル方法
(訓練および有効データの両方を用いたニューラルネットワーク訓練)
(深層特徴抽出を用いた能動的転移学習)
(モデル訓練要素)
(訓練アプリケーション)
(結果)
Claims (24)
- 創薬のためのコンピュータ実装方法であって、
分子の1つ以上のデータセットを収集することであって、分子の各データセットは、複数の分子を特徴付け、各分子について、前記分子の1つ以上の分子性質を特徴付ける、ことと、
前記分子の1つ以上のデータセットを使用して複数の分子予測タスクを実施するように深層特徴抽出器ニューラルネットワークを訓練することと、
前記深層特徴抽出器ニューラルネットワークを使用して分子予測タスクを実施するように機械学習モデルを訓練することであって、前記機械学習モデルを訓練することは、前記分子の1つ以上のデータセットからの複数の分子の各々について、
前記深層特徴抽出器ニューラルネットワークの中間出力を生成するために、前記深層特徴抽出器ニューラルネットワークを使用して、前記分子を特徴付けるデータを処理することと、
前記分子の予測された性質を特徴付ける出力を生成するために、前記分子のために前記深層特徴抽出器ニューラルネットワークによって生成された前記中間出力を処理するように前記機械学習モデルを訓練することと
を含む、ことと、
前記訓練された機械学習モデルを使用して、薬物候補を識別することと
を含む、方法。 - 前記深層特徴抽出器ニューラルネットワークの加重をフリーズさせることをさらに含む、請求項1に記載の方法。
- 前記深層特徴抽出器ニューラルネットワークを訓練することは、1つ以上のエポックに関して前記深層特徴抽出器ニューラルネットワークを訓練することを含む、請求項1に記載の方法。
- 各エポックは、前記深層特徴抽出器ニューラルネットワークを1つ以上のデータセット上で訓練することを含む、請求項3に記載の方法。
- 分子の各データセットは、前記分子のデータセット内に含まれる分子の異なる分子性質を特徴付ける、請求項1に記載の方法。
- 前記機械学習モデルを検証することをさらに含む、請求項1に記載の方法。
- 前記機械学習モデルを検証することは、前記機械学習モデルに関するアウトオブバッグスコアを算出することを含む、請求項6に記載の方法。
- 前記機械学習モデルを検証することは、
(a)前記深層特徴抽出器ニューラルネットワークを訓練データセット上で訓練することと、
(b)前記機械学習モデルを前記訓練データセット上で訓練することと、
(c)検証データセットに基づいて、前記機械学習モデルに関する検証スコアを算出することと
を含む、請求項6に記載の方法。 - 前記深層特徴抽出器ニューラルネットワークは、マスタモデルおよび複数の二次モデルを備え、
前記分子の1つ以上のデータセットからの前記複数の分子の各々について、前記深層特徴抽出器ニューラルネットワークの前記中間出力を生成するために、前記深層特徴抽出器ニューラルネットワークを使用して、前記分子を特徴付ける前記データを処理することは、
前記深層特徴抽出器ニューラルネットワークに含まれる前記マスタモデルの1つ以上の層の出力として前記深層特徴抽出器ニューラルネットワークの前記中間出力を生成すること
を含む、請求項1に記載の方法。 - 前記機械学習モデルは、ランダムフォレストモデル、サポートベクトルマシンモデル、XGBoostモデル、線形回帰モデル、最近傍法モデル、単純ベイズモデル、決定木モデル、ニューラルネットワークモデル、またはk-平均クラスタリングモデルのうちの少なくとも1つを備える、請求項1に記載の方法。
- 前記訓練された機械学習モデルを使用して、前記薬物候補を識別することは、前記深層特徴抽出器ニューラルネットワークのマスタモデルおよび前記機械学習モデルを合成モデルとして合成し、新しい入力のセットを分類することを含む、請求項1に記載の方法。
- 前記分子の1つ以上のデータセットを前処理することをさらに含む、請求項1に記載の方法。
- 前記1つ以上のデータセットを前処理することはさらに、フォーマッティング、クリーニング、サンプリング、スケーリング、分解、データフォーマットの変換、または集約のうちの少なくとも1つを含む、請求項12に記載の方法。
- 前記訓練された機械学習モデルを使用して、前記薬物候補を識別することは、前記訓練された機械学習モデルを使用して前記薬物候補の性質を予測することを含む、請求項1に記載の方法。
- 前記薬物候補の前記性質は、吸収率、分布率、代謝率、消失率、毒性、可溶性、代謝安定性、インビボエンドポイント、エクスビボエンドポイント、分子量、効能、親油性、水素結合、浸透性、選択性、pKa、クリアランス、半減期、分布容積、血漿濃度、および安定性から成る群から選択される少なくとも1つを備える、請求項14に記載の方法。
- 前記分子の1つ以上のデータセットは、リガンド分子および/または標的分子を含む、請求項1に記載の方法。
- 前記標的分子は、タンパク質である、請求項16に記載の方法。
- 前記機械学習モデルは、非微分可能モデルである、請求項1に記載の方法。
- 前記機械学習モデルは、ニューラルネットワークではない、請求項1に記載の方法。
- 前記機械学習モデルは、ランダムフォレストモデルを含む、請求項1に記載の方法。
- 前記機械学習モデルは、アンサンブルモデルを含む、請求項1に記載の方法。
- 前記機械学習モデルは、前記深層特徴抽出器ニューラルネットワークと勾配情報を共有しない、請求項1に記載の方法。
- 1つ以上のコンピュータと、
前記1つ以上のコンピュータに通信可能に結合された1つ以上の記憶デバイスと
を備え、前記1つ以上の記憶デバイスは、命令を記憶し、前記命令は、前記1つ以上のコンピュータによって実行されると、請求項1~22のいずれか一項に記載のそれぞれの方法の動作を前記1つ以上のコンピュータに実施させる、システム。 - 命令を記憶する1つ以上の非一過性コンピュータ記憶媒体であって、前記命令は、1つ以上のコンピュータによって実行されると、請求項1~22のいずれか一項に記載のそれぞれの方法の動作を前記1つ以上のコンピュータに実施させる、1つ以上の非一過性コンピュータ記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862749653P | 2018-10-23 | 2018-10-23 | |
US62/749,653 | 2018-10-23 | ||
PCT/US2019/057468 WO2020086604A1 (en) | 2018-10-23 | 2019-10-22 | Systems and methods for active transfer learning with deep featurization |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022505540A JP2022505540A (ja) | 2022-01-14 |
JP7430406B2 true JP7430406B2 (ja) | 2024-02-13 |
Family
ID=70332229
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021521821A Active JP7430406B2 (ja) | 2018-10-23 | 2019-10-22 | 深層特徴抽出を用いた能動的転移学習のためのシステムおよび方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210358564A1 (ja) |
EP (1) | EP3871154A4 (ja) |
JP (1) | JP7430406B2 (ja) |
KR (1) | KR20210076122A (ja) |
CN (1) | CN113168568A (ja) |
WO (1) | WO2020086604A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113610831B (zh) * | 2021-08-19 | 2022-03-11 | 江西应用技术职业学院 | 基于计算机图像技术和迁移学习的木材缺陷检测方法 |
US11893499B2 (en) | 2019-03-12 | 2024-02-06 | International Business Machines Corporation | Deep forest model development and training |
US20230222324A1 (en) | 2020-06-08 | 2023-07-13 | Nippon Telegraph And Telephone Corporation | Learning method, learning apparatus and program |
US11888895B2 (en) * | 2020-09-02 | 2024-01-30 | Proofpoint, Inc. | Using neural networks to process forensics and generate threat intelligence information |
CN113610184B (zh) * | 2021-08-19 | 2022-03-11 | 江西应用技术职业学院 | 一种基于迁移学习的木材纹理分类方法 |
CN114141317A (zh) * | 2021-12-07 | 2022-03-04 | 北京百度网讯科技有限公司 | 化合物性质预测模型训练方法、装置、设备以及存储介质 |
US20230409874A1 (en) * | 2022-06-21 | 2023-12-21 | Microsoft Technology Licensing, Llc | Accelerated transfer learning as a service for neural networks |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009057337A (ja) | 2007-08-31 | 2009-03-19 | Dainippon Sumitomo Pharma Co Ltd | メタボロームデータの解析方法および代謝関与マーカー |
JP2016062544A (ja) | 2014-09-22 | 2016-04-25 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 情報処理装置、プログラム、及び情報処理方法 |
JP2016191966A (ja) | 2015-03-30 | 2016-11-10 | 株式会社メガチップス | クラスタリング装置及び機械学習装置 |
JP2017097807A (ja) | 2015-11-27 | 2017-06-01 | 富士通株式会社 | 学習方法、学習プログラムおよび情報処理装置 |
WO2018079020A1 (ja) | 2016-10-26 | 2018-05-03 | ソニー株式会社 | 情報処理装置および情報処理方法 |
US20180204111A1 (en) | 2013-02-28 | 2018-07-19 | Z Advanced Computing, Inc. | System and Method for Extremely Efficient Image and Pattern Recognition and Artificial Intelligence Platform |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9489373B2 (en) * | 2013-07-12 | 2016-11-08 | Microsoft Technology Licensing, Llc | Interactive segment extraction in computer-human interactive learning |
US8818910B1 (en) * | 2013-11-26 | 2014-08-26 | Comrise, Inc. | Systems and methods for prioritizing job candidates using a decision-tree forest algorithm |
CA2951723C (en) * | 2014-06-10 | 2021-04-27 | Sightline Innovation Inc. | System and method for network based application development and implementation |
US10776712B2 (en) * | 2015-12-02 | 2020-09-15 | Preferred Networks, Inc. | Generative machine learning systems for drug design |
-
2019
- 2019-10-22 US US17/287,879 patent/US20210358564A1/en active Pending
- 2019-10-22 JP JP2021521821A patent/JP7430406B2/ja active Active
- 2019-10-22 CN CN201980078111.5A patent/CN113168568A/zh active Pending
- 2019-10-22 EP EP19875291.7A patent/EP3871154A4/en active Pending
- 2019-10-22 KR KR1020217015072A patent/KR20210076122A/ko unknown
- 2019-10-22 WO PCT/US2019/057468 patent/WO2020086604A1/en unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009057337A (ja) | 2007-08-31 | 2009-03-19 | Dainippon Sumitomo Pharma Co Ltd | メタボロームデータの解析方法および代謝関与マーカー |
US20180204111A1 (en) | 2013-02-28 | 2018-07-19 | Z Advanced Computing, Inc. | System and Method for Extremely Efficient Image and Pattern Recognition and Artificial Intelligence Platform |
JP2016062544A (ja) | 2014-09-22 | 2016-04-25 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 情報処理装置、プログラム、及び情報処理方法 |
JP2016191966A (ja) | 2015-03-30 | 2016-11-10 | 株式会社メガチップス | クラスタリング装置及び機械学習装置 |
JP2017097807A (ja) | 2015-11-27 | 2017-06-01 | 富士通株式会社 | 学習方法、学習プログラムおよび情報処理装置 |
WO2018079020A1 (ja) | 2016-10-26 | 2018-05-03 | ソニー株式会社 | 情報処理装置および情報処理方法 |
Non-Patent Citations (3)
Title |
---|
中山 英樹,深層畳み込みニューラルネットによる画像特徴抽出と転移学習,電子情報通信学会技術研究報告,日本,一般社団法人電子情報通信学会,2015年07月09日,第115巻, 第146号,第55頁-第59頁,ISSN:0913-5685 |
小川 恭子, ほか3名,機械学習およびニューラルネットワークによる競馬予測,電気学会研究会資料 情報システム研究会 IS-18-001~015・017~020,日本,一般社団法人電気学会,2018年03月22日,第57頁-第60頁 |
桃田 侑典、猪口 明博,人工化合物を用いたディープラーニングによる変異原性の予測,第114回 知識ベースシステム研究会資料 (SIG-KBS-B801),日本,一般社団法人人工知能学会 ,2018年08月10日,第7頁-第13頁 |
Also Published As
Publication number | Publication date |
---|---|
US20210358564A1 (en) | 2021-11-18 |
EP3871154A4 (en) | 2022-11-09 |
KR20210076122A (ko) | 2021-06-23 |
WO2020086604A1 (en) | 2020-04-30 |
JP2022505540A (ja) | 2022-01-14 |
EP3871154A1 (en) | 2021-09-01 |
CN113168568A (zh) | 2021-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7430406B2 (ja) | 深層特徴抽出を用いた能動的転移学習のためのシステムおよび方法 | |
CN107862173B (zh) | 一种先导化合物虚拟筛选方法和装置 | |
Wang et al. | Next point-of-interest recommendation on resource-constrained mobile devices | |
JP6790286B2 (ja) | 強化学習を用いたデバイス配置最適化 | |
TWI754033B (zh) | 關注點文案的生成 | |
US11132604B2 (en) | Nested machine learning architecture | |
Chen et al. | Gene expression inference with deep learning | |
Yu et al. | Hybrid adaptive classifier ensemble | |
Zhang et al. | Deep Learning over Multi-field Categorical Data: –A Case Study on User Response Prediction | |
Kapp et al. | A dynamic model selection strategy for support vector machine classifiers | |
CN116261731A (zh) | 基于多跳注意力图神经网络的关系学习方法与系统 | |
US20230325687A1 (en) | System and method for de novo drug discovery | |
US11263534B1 (en) | System and method for molecular reconstruction and probability distributions using a 3D variational-conditioned generative adversarial network | |
Arowolo et al. | A survey of dimension reduction and classification methods for RNA-Seq data on malaria vector | |
Nguyen et al. | Perceiver CPI: a nested cross-attention network for compound–protein interaction prediction | |
WO2023050143A1 (zh) | 一种推荐模型训练方法及装置 | |
Amiri et al. | A subspace aggregating algorithm for accurate classification | |
WO2024012360A1 (zh) | 一种数据处理方法及相关装置 | |
Zhao et al. | Pareto-based many-objective convolutional neural networks | |
Gu | A dual-model semi-supervised self-organizing fuzzy inference system for data stream classification | |
Moser et al. | Dartsrenet: Exploring new rnn cells in renet architectures | |
Nerurkar et al. | Analysis of probabilistic models for influence ranking in social networks | |
Zerrouk et al. | Evolutionary algorithm for optimized CNN architecture search applied to real-time boat detection in aerial images | |
Fushimi et al. | Accelerating Greedy K-Medoids Clustering Algorithm with Distance by Pivot Generation | |
Liu et al. | Learning graph representation by aggregating subgraphs via mutual information maximization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210622 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230217 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230512 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230607 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240124 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7430406 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |