JP2021502650A - 時不変分類 - Google Patents
時不変分類 Download PDFInfo
- Publication number
- JP2021502650A JP2021502650A JP2020526410A JP2020526410A JP2021502650A JP 2021502650 A JP2021502650 A JP 2021502650A JP 2020526410 A JP2020526410 A JP 2020526410A JP 2020526410 A JP2020526410 A JP 2020526410A JP 2021502650 A JP2021502650 A JP 2021502650A
- Authority
- JP
- Japan
- Prior art keywords
- vector
- label
- autoencoder
- style
- vectors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000013598 vector Substances 0.000 claims abstract description 1159
- 238000000034 method Methods 0.000 claims abstract description 255
- 238000012549 training Methods 0.000 claims abstract description 141
- 238000005457 optimization Methods 0.000 claims abstract description 11
- 230000007423 decrease Effects 0.000 claims abstract description 6
- 238000009826 distribution Methods 0.000 claims description 205
- 230000001537 neural effect Effects 0.000 claims description 128
- 230000006870 function Effects 0.000 claims description 110
- 210000005036 nerve Anatomy 0.000 claims description 90
- 238000013528 artificial neural network Methods 0.000 claims description 32
- 238000004891 communication Methods 0.000 claims description 29
- 230000015654 memory Effects 0.000 claims description 23
- 238000003860 storage Methods 0.000 claims description 21
- 238000013507 mapping Methods 0.000 claims description 15
- 230000004044 response Effects 0.000 claims description 13
- 238000001514 detection method Methods 0.000 claims description 11
- 230000000694 effects Effects 0.000 claims description 8
- 230000006403 short-term memory Effects 0.000 claims description 2
- 238000004925 denaturation Methods 0.000 claims 1
- 230000036425 denaturation Effects 0.000 claims 1
- 230000007787 long-term memory Effects 0.000 claims 1
- 239000010410 layer Substances 0.000 description 112
- 238000010801 machine learning Methods 0.000 description 47
- 238000010586 diagram Methods 0.000 description 19
- 238000005516 engineering process Methods 0.000 description 15
- 210000003169 central nervous system Anatomy 0.000 description 12
- 230000002123 temporal effect Effects 0.000 description 12
- 238000012986 modification Methods 0.000 description 11
- 230000004048 modification Effects 0.000 description 11
- 210000002569 neuron Anatomy 0.000 description 10
- 238000002372 labelling Methods 0.000 description 9
- 230000033001 locomotion Effects 0.000 description 8
- 230000009471 action Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 7
- 238000012360 testing method Methods 0.000 description 7
- 230000006399 behavior Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000001953 sensory effect Effects 0.000 description 5
- 238000003491 array Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000008035 nerve activity Effects 0.000 description 4
- 210000000056 organ Anatomy 0.000 description 4
- 230000006978 adaptation Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 210000004027 cell Anatomy 0.000 description 3
- 239000002131 composite material Substances 0.000 description 3
- 210000003414 extremity Anatomy 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 210000000352 storage cell Anatomy 0.000 description 3
- 230000036962 time dependent Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 210000003403 autonomic nervous system Anatomy 0.000 description 2
- 239000008280 blood Substances 0.000 description 2
- 210000004369 blood Anatomy 0.000 description 2
- QBWCMBCROVPCKQ-UHFFFAOYSA-N chlorous acid Chemical compound OCl=O QBWCMBCROVPCKQ-UHFFFAOYSA-N 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- NOESYZHRGYRDHS-UHFFFAOYSA-N insulin Chemical compound N1C(=O)C(NC(=O)C(CCC(N)=O)NC(=O)C(CCC(O)=O)NC(=O)C(C(C)C)NC(=O)C(NC(=O)CN)C(C)CC)CSSCC(C(NC(CO)C(=O)NC(CC(C)C)C(=O)NC(CC=2C=CC(O)=CC=2)C(=O)NC(CCC(N)=O)C(=O)NC(CC(C)C)C(=O)NC(CCC(O)=O)C(=O)NC(CC(N)=O)C(=O)NC(CC=2C=CC(O)=CC=2)C(=O)NC(CSSCC(NC(=O)C(C(C)C)NC(=O)C(CC(C)C)NC(=O)C(CC=2C=CC(O)=CC=2)NC(=O)C(CC(C)C)NC(=O)C(C)NC(=O)C(CCC(O)=O)NC(=O)C(C(C)C)NC(=O)C(CC(C)C)NC(=O)C(CC=2NC=NC=2)NC(=O)C(CO)NC(=O)CNC2=O)C(=O)NCC(=O)NC(CCC(O)=O)C(=O)NC(CCCNC(N)=N)C(=O)NCC(=O)NC(CC=3C=CC=CC=3)C(=O)NC(CC=3C=CC=CC=3)C(=O)NC(CC=3C=CC(O)=CC=3)C(=O)NC(C(C)O)C(=O)N3C(CCC3)C(=O)NC(CCCCN)C(=O)NC(C)C(O)=O)C(=O)NC(CC(N)=O)C(O)=O)=O)NC(=O)C(C(C)CC)NC(=O)C(CO)NC(=O)C(C(C)O)NC(=O)C1CSSCC2NC(=O)C(CC(C)C)NC(=O)C(NC(=O)C(CCC(N)=O)NC(=O)C(CC(N)=O)NC(=O)C(NC(=O)C(N)CC=1C=CC=CC=1)C(C)C)CC1=CN=CN1 NOESYZHRGYRDHS-UHFFFAOYSA-N 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 210000000653 nervous system Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 210000001428 peripheral nervous system Anatomy 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 239000002356 single layer Substances 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 102000004877 Insulin Human genes 0.000 description 1
- 108090001061 Insulin Proteins 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002902 bimodal effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000009530 blood pressure measurement Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 229940125396 insulin Drugs 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- -1 size (s) Substances 0.000 description 1
- 230000000392 somatic effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 210000001364 upper extremity Anatomy 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Complex Calculations (AREA)
Abstract
Description
出力として表され、元のk番目の神経サンプルベクトル配列(xi)kである、生成することと、生成されたコスト関数の損失に基づいて、符号化ネットワークおよび/または復号ネットワークの隠れ層(複数可)の重みを更新することと、をさらに含む、コンピュータ実装方法。
出力として表され、元のk番目の神経サンプルベクトル配列(xi)kである、生成することと、生成されたコスト関数の損失に基づいて、符号化ネットワークおよび/または復号ネットワークの隠れ層(複数可)の重みを更新することと、をさらに含む、コンピュータ実装方法。
ここで、各y’nは、カテゴリカル分布210aからランダムにサンプリングされる。効果的に、弁別器ネットワーク210は、入力が生成されるときに負の値を生成し、入力がカテゴリカル分布210aからサンプリングされるときに正の値を生成するようにトレーニングされる。
ここで、各z’nはガウス分布214からランダムにサンプリングされる。効果的に、弁別器ネットワーク210は、入力が生成されるときに負の値を生成し、入力がカテゴリカル分布210aからサンプリングされるときに正の値を生成するようにトレーニングされる。
で表記され、オートエンコーダ220の損失コスト関数LAEが、次のように定義され得る。
ここで、各y’nは、カテゴリカル分布210aからランダムにサンプリングされる。効果的に、弁別器ネットワーク210は、入力が生成されるときに負の値を生成し、入力がカテゴリカル分布210aからサンプリングされるときに正の値を生成するようにトレーニングされる。
ここで、各Ai’nは確率分布P(Ai)214aからランダムにサンプリングされる。効果的に、弁別器ネットワーク212aは、入力が生成されるときに負の値を生成し、入力が確率分布P(Ai)214aからサンプリングされるときに正の値を生成するようにトレーニングされる。これは、1つ以上のベクトルAi208a〜208nの各々について実行される。
Claims (65)
- オートエンコーダをトレーニングするためのコンピュータ実装方法であって、前記オートエンコーダが、入力データを分類するためのN次元潜在空間の潜在ベクトルを出力し、前記潜在ベクトルが、ラベルベクトルyおよびスタイルベクトルzを含み、前記方法が、前記入力データに関連付けられたラベルベクトルyのセットに時不変性をもたらすために、トレーニング中に前記スタイルベクトルzを正則化することを含む、コンピュータ実装方法。
- 前記スタイルベクトルzを正則化することが、選択された1つ以上の確率分布P(Ai)および対応する1つ以上のベクトルAiに基づいており、前記スタイルベクトルzが、前記1つ以上のベクトルAiを含む、請求項1に記載のコンピュータ実装方法。
- 前記スタイルベクトルzを正則化することが、入力トレーニングデータで前記オートエンコーダのエンコーダネットワークをトレーニングして、前記スタイルベクトルzの少なくとも一部分に選択された確率分布を適用することをさらに含む、請求項1または2に記載のコンピュータ実装方法。
- 前記スタイルベクトルzを正則化することが、トレーニング中に前記ラベルベクトルyのセットの前記時不変性を増加させる、請求項1〜3のいずれか一項に記載のコンピュータ実装方法。
- 前記スタイルベクトルzを正則化することが、前記オートエンコーダをトレーニングする前に、
前記スタイルベクトルzを分割するための1つ以上のベクトルAiの数を選択すること、
前記選択されたベクトルAiに対応する1つ以上の確率分布P(Ai)の数を選択することをさらに含み、
前記スタイルベクトルzを正則化することが、前記対応する選択された確率分布P(Ai)に基づいて、前記選択されたベクトルAiの各々を正則化することをさらに含み、前記スタイルベクトルzが、前記選択されたベクトルAiに分割される、請求項1〜4のいずれか一項に記載のコンピュータ実装方法。 - zを正則化することが、1つ以上の選択された確率分布P(Ai)および前記スタイルベクトルzを分割する対応する1つ以上の選択されたベクトルAiを含むハイパーパラメータのセットを取得することをさらに含み、前記ハイパーパラメータのセットが、前記1つ以上の選択された確率分布P(Ai)および対応する1つ以上の選択されたベクトルAiに基づいて、トレーニング中にスタイルベクトルzを正則化することによって実質的に時不変のラベルベクトルyを出力するようにトレーニングされ得るオートエンコーダ構造を定義する、請求項1〜5のいずれか一項に記載のコンピュータ実装方法。
- トレーニング中に前記スタイルベクトルzを正則化することにより、入力データに関連付けられた前記ラベルベクトルyがラベルベクトルyの複数または2つ以上のクラスタを形成し、各々が、実質的に同じまたは類似するラベルベクトルyのサブグループを含み、前記ラベルベクトルyのセットが、実質的に時不変である、請求項1〜6のいずれか一項に記載のコンピュータ実装方法。
- 各クラスタが、領域または境界によって定義され、各クラスタのラベルベクトルyの前記サブグループが、前記定義された領域または境界内に含まれ、ラベルベクトルyが、前記同じクラスタの前記領域または境界内に含まれる場合、実質的に同じか類似しており、前記クラスタが、真の状態またはクラスラベルに関連する、請求項7に記載のコンピュータ実装方法。
- 前記ラベルベクトルyのセットをクラスタ化して、各クラスタが実質的に同じまたは類似するラベルベクトルyのサブグループを含む、ラベルベクトルyの複数のクラスタを形成することと、
ラベルベクトルyの前記クラスタの各々を、入力データの分類で前記トレーニングされたオートエンコーダが使用するために、前記入力データに関連付けられたクラスまたは状態ラベルSのセットからのクラスまたは状態ラベルにマッピングすることと、をさらに含む、請求項7または8に記載のコンピュータ実装方法。 - 前記入力データが、1つ以上の高周波時変入力信号に基づく入力データを含む、請求項1〜9のいずれか一項に記載のコンピュータ実装方法。
- 前記入力データが、1つ以上の神経信号に関連する神経サンプルデータを含む、請求項1〜10のいずれか一項に記載のコンピュータ実装方法。
- 前記オートエンコーダが、
前記潜在空間のスタイルベクトルzを出力するための潜在表現層であって、前記スタイルベクトルzが、前記1つ以上の選択されたベクトルAiを含む、潜在表現層と、
1つ以上の正則化ネットワークであって、各正則化ネットワークが、入力層、1つ以上の隠れ層を含む弁別器ネットワーク、および生成器損失関数LGAiを評価するための出力層を含み、前記入力層が、スタイルベクトルzの前記1つ以上の選択されたベクトルAiのうちの対応する1つに接続される、1つ以上の正則化ネットワークと、をさらに含み、前記方法が、
前記潜在ベクトルzを正則化することであって、前記正則化ネットワークの各々について、
潜在ベクトルzの前記対応するベクトルAiと、前記対応する選択された確率分布P(Ai)から生成されたサンプルベクトルとを区別するために、前記各正則化ネットワークをトレーニングすることであって、前記サンプルベクトルが、前記潜在ベクトルzのベクトルAiと同じ次元のものである、トレーニングすることと、
前記潜在ベクトルzの前記ベクトルAiに前記確率分布P(Ai)を適用するためにエンコーダネットワークをトレーニングする際に前記オートエンコーダが使用する前記生成器損失関数値LGAiを出力することと、をさらに含む、正則化することをさらに含む、請求項2〜11のいずれか一項に記載のコンピュータ実装方法。 - 前記オートエンコーダが、
前記潜在空間の前記ラベルベクトルyを出力する前記潜在表現層と、
入力層、1つ以上の隠れ層、およびラベルベクトルyに関連付けられた生成器損失関数LGYを評価するための出力層を含む、結合された敵対的ネットワークと、をさらに含み、前記敵対的ネットワークの前記入力層が、前記ラベルベクトルyに接続され、前記方法が、
前記潜在表現層によって生成されたラベルベクトルyと、前記ラベルベクトルyと同じ次元の1つのホットベクトルのセットのカテゴリカル分布からのサンプルベクトルとを区別するために前記敵対的ネットワークをトレーニングすることと、
前記ラベルベクトルyに前記カテゴリカル分布を適用するために、エンコーダネットワークをトレーニングする際に前記オートエンコーダが使用するラベルベクトルyに関連付けられた前記生成器損失関数値LGYを出力することと、をさらに含む、請求項2〜12のいずれか一項に記載のコンピュータ実装方法。 - 前記オートエンコーダが、前記潜在表現層に結合された復号ネットワークをさらに含み、前記入力データのトレーニングセットが、神経サンプルベクトル配列
のトレーニングセットを含み、1≦i≦Lkと1≦k≦Tであり、Lkがk番目の神経サンプルベクトル配列の長さであり、Tが、前記オートエンコーダを通過するk番目の神経活動に対応するk番目の神経サンプルベクトル配列ごとのトレーニング神経サンプルベクトル配列の数であり、前記方法が、
前記1つ以上の正則化ネットワークおよび/または前記敵対的ネットワークの前記出力に基づいて損失関数またはコスト関数を生成することであって、k番目の神経サンプルベクトル配列の推定値が、前記復号ネットワークからの
出力として表され、元のk番目の神経サンプルベクトル配列(xi)kである、生成することと、
前記生成されたコスト関数の損失に基づいて、前記符号化ネットワークおよび/または復号ネットワークの前記隠れ層の重みを更新することと、をさらに含む、請求項12または13に記載のコンピュータ実装方法。 - オートエンコーダを最適化するためのコンピュータ実装方法であって、前記オートエンコーダが、入力データを分類するためのN次元潜在空間の潜在ベクトルを出力し、前記潜在ベクトルが、ラベルベクトルyおよびスタイルベクトルzを含み、前記方法が、前記スタイルベクトルzの正則化を制御して、前記ラベルベクトルyの時不変性を増加または減少させることを含む、コンピュータ実装方法。
- 前記スタイルベクトルzの正則化を制御することが、1つ以上の確率分布P(Ai)および対応する1つ以上のベクトルAiを選択することであって、前記スタイルベクトルzが、前記1つ以上のベクトルAiを含む、選択することと、前記選択された確率分布に基づいてスタイルベクトルzを正則化することと、を含む、請求項15に記載のコンピュータ実装方法。
- スタイルベクトルzを正則化することが、入力トレーニングデータで前記オートエンコーダのエンコーダネットワークをトレーニングして、前記スタイルベクトルzの少なくとも一部分に選択された確率分布を適用することをさらに含む、請求項15または16に記載のコンピュータ実装方法。
- 前記スタイルベクトルzの正則化を制御して、正則化することなくオートエンコーダから出力されるラベルベクトルyの対応するセットと比較して、前記ラベルベクトルyのセットの前記時不変性を増加させる、請求項15〜17のいずれか一項に記載のコンピュータ実装方法。
- 前記スタイルベクトルzの正則化を制御することが、
前記スタイルベクトルzを分割するための1つ以上のベクトルAiの数を選択すること、
前記選択されたベクトルAiに対応する1つ以上の確率分布P(Ai)の数を選択することをさらに含み、
前記選択されたベクトルAiおよび選択された確率分布P(Ai)に基づいて前記スタイルベクトルzを正則化することが、前記対応する選択された確率分布P(Ai)に基づいて前記選択されたベクトルAiの各々を正則化することをさらに含み、前記スタイルベクトルzが、前記選択された1つ以上のベクトルAiの連結体である、請求項15〜18のいずれか一項に記載のコンピュータ実装方法。 - 前記スタイルベクトルzを分割するために選択される複数のベクトルAiまたは複数のベクトルAiが存在する、請求項16〜19のいずれか一項に記載のコンピュータ実装方法。
- 前記zの正則化が、前記オートエンコーダの複数のトレーニングサイクルにわたって制御される、請求項15に記載のコンピュータ実装方法。
- 前記zの正則化を制御することが、
複数のハイパーパラメータのセットを生成することであって、ハイパーパラメータの各セットが、1つ以上の選択された確率分布P(Ai)と、前記スタイルベクトルzを分割する対応する1つ以上の選択されたベクトルAiを含み、前記ハイパーパラメータの各セットが、オートエンコーダ構造を定義する、生成することと、
前記複数のハイパーパラメータのセットのハイパーパラメータの各セットについて、前記オートエンコーダの前記ラベルベクトルyの前記クラスタ化および時不変性の性能を、
前記ハイパーパラメータのセットに基づいて前記オートエンコーダを構成することと、
入力データに対して前記構成済みのオートエンコーダをトレーニングすることにより、前記ハイパーパラメータのセットに基づいて前記スタイルベクトルzを正則化することと、
前記トレーニングされたオートエンコーダおよび入力データに基づいて、ラベルベクトルyのセットを生成することと、
前記ラベルベクトルyの複数または2つ以上のクラスタを決定することと、
各クラスタに実質的に同じまたは類似するラベルベクトルyのサブグループが含まれているかどうかを検出することと、
各クラスタが実質的に同じまたは類似するラベルベクトルyのサブグループを含むことの検出に応答して、前記ラベルベクトルyのセットが実質的に時不変であるかどうかを検出することと、
各クラスタが実質的に同じまたは類似するラベルベクトルyのサブグループを含むことの検出、および前記ラベルベクトルyのセットが実質的に時不変であることの検出に応答して、前記選択されたハイパーパラメータのセットを最適化されたハイパーパラメータデータセットに保存することであって、前記最適化されたハイパーパラメータデータセット内の前記ハイパーパラメータの各セットが、トレーニング中にスタイルベクトルzを正則化することにより、実質的に時不変のラベルベクトルyを出力するようにトレーニングされ得るオートエンコーダ構造を定義する、保存することと、によって、決定することと、をさらに含む、請求項1〜21のいずれか一項に記載のコンピュータ実装方法。 - 各クラスタが、領域または境界によって定義され、各クラスタのラベルベクトルyの前記サブグループが、前記定義された領域または境界内に含まれ、ラベルベクトルyが、前記同じクラスタの前記領域または境界内に含まれる場合、実質的に同じか類似している、請求項22に記載のコンピュータ実装方法。
- 前記ラベルベクトルyのセットをクラスタ化して、各クラスタが実質的に同じまたは類似するラベルベクトルyのサブグループを含む、ラベルベクトルyの複数のクラスタを形成することと、
ラベルベクトルyの前記クラスタの各々を、入力データの分類で前記ハイパーパラメータのセットによって定義されたオートエンコーダが使用するために、前記入力データに関連付けられたクラスまたは状態ラベルSのセットからのクラスまたは状態ラベルにマッピングすることと、をさらに含む、請求項22または23に記載のコンピュータ実装方法。 - オートエンコーダ構成データのセットを最適化されたオートエンコーダ構成データセットに保存することであって、前記オートエンコーダ構成データのセットが、
前記最適化されたハイパーパラメータデータセットに保存された前記ハイパーパラメータのセットを表すデータ、
ラベルベクトルyの前記クラスタを表すデータ、
クラスまたは状態ラベルSへのラベルベクトルyの前記クラスタの各々の前記マッピングを表すデータ、および
前記トレーニングされたオートエンコーダに関連付けられた1つ以上のニューラルネットワークおよび/または隠れ層の前記重みおよび/またはパラメータを表すデータの群からの1つ以上を表すデータを含む、保存することをさらに含む、請求項22〜24のいずれか一項に記載のコンピュータ実装方法。 - 前記最適化されたオートエンコーダ構成データセットからオートエンコーダ構成データのセットを選択することと、
前記オートエンコーダ構成データのセットに基づいてオートエンコーダを構成することであって、前記オートエンコーダが、入力データを分類するためのN次元潜在空間の潜在ベクトルを出力し、前記潜在ベクトルが、ラベルベクトルyおよびスタイルベクトルzを含み、前記オートエンコーダが、前記オートエンコーダ構成データのセットの前記トレーニングされたオートエンコーダに関連付けられた1つ以上のニューラルネットワークおよび/または隠れ層の前記重みおよび/またはパラメータを表すデータに基づいて構成され、前記トレーニングされたオートエンコーダが、前記スタイルベクトルzを正則化し、実質的に時不変のラベルベクトルyを出力する、構成することと、をさらに含む、請求項25に記載のコンピュータ実装方法。 - 前記ハイパーパラメータのセットが、
前記エンコーダ状態の長さを含む、オートエンコーダサイズ、
初期学習率または減衰、
バッチサイズであって、サンプルの数を含み、前記オートエンコーダニューラルネットワークまたは隠れ層の重みまたはパラメータの前記更新を定義する、バッチサイズ、
前記ラベルベクトルyのサイズ、
前記ラベルベクトルyに関連付けられたクラスまたは状態の数、
隠れ層、ニューラルネットワークセル、および/または長期短期記憶セルの数、
フィードサイズであって、データ点またはバッチごとの時間ステップ数を含む、フィードサイズ、
損失重み付け係数であって、前記オートエンコーダが弁別器および/または生成器ニューラルネットワークコンポーネントを使用するときに生成的および弁別的損失に与える相対的重み付けを含む、損失重み付け係数、
前記オートエンコーダニューラルネットワーク構造の前記重みを最適化するための最適化関数、
重み更新アルゴリズムの種類または前記オートエンコーダニューラルネットワーク構造の前記重みの手順、
学習率減衰係数であって、前記オートエンコーダのプラトーまたは停滞の損失コスト関数に関連する前記損失が発生したときに学習率を調整するために使用される、学習率減衰係数、および
学習率を調整する頻度を決定するための1つ以上の性能チェックポイントの群からの1つ以上をさらに含む、請求項6または22〜26のいずれか一項に記載のコンピュータ実装方法。 - 選択された1つ以上の確率分布および選択された1つ以上のベクトルAiを取得することであって、前記取得された確率分布および対応するベクトルAiに基づく前記スタイルベクトルzの正則化が、スタイルベクトルzがトレーニング中に正則化されていない場合と比較して、前記ラベルベクトルyの前記時不変性を増加させる、取得することと、
前記取得された確率分布および対応するベクトルAiに基づいて、前記第2のオートエンコーダの正則化コンポーネントを構成することと、
ラベルベクトルyのセットを生成するための入力データセットに基づいて、前記第2のオートエンコーダをトレーニングし、潜在ベクトルzを正則化することであって、前記ラベルベクトルyのセットが、前記入力データに関連付けられた状態またはクラスラベルのセットにマッピングする、トレーニングすることと、
追加データを前記トレーニングされた第2のオートエンコーダに入力し、出力ラベルベクトルyを前記状態またはクラスラベルのセットにマッピングすることにより、前記追加データを分類することであって、前記出力ラベルベクトルyが、前記取得された確率分布および対応するベクトルAiに基づいて、実質的に時不変である、分類することと、をさらに含む、請求項16〜27のいずれか一項に記載のコンピュータ実装方法。 - 前記入力データが、1つ以上の高周波時変入力信号に基づく入力データを含む、請求項15〜28のいずれか一項に記載のコンピュータ実装方法。
- 前記入力データが、1つ以上の神経信号に関連する神経サンプルデータを含む、請求項15〜28のいずれか一項に記載のコンピュータ実装方法。
- 前記オートエンコーダが、
前記潜在空間のスタイルベクトルzを出力するための潜在表現層であって、前記スタイルベクトルzが、前記1つ以上の選択されたベクトルAiを含む、潜在表現層と、
1つ以上の正則化ネットワークであって、各正則化ネットワークが、入力層、1つ以上の隠れ層を含む弁別器ネットワーク、および生成器損失関数LGAiを評価するための出力層を含み、前記入力層が、スタイルベクトルzの前記1つ以上の選択されたベクトルAiのうちの対応する1つに接続される、1つ以上の正則化ネットワークと、をさらに含み、前記方法が、
前記潜在ベクトルzを正則化することであって、前記正則化ネットワークの各々について、
潜在ベクトルzの前記対応するベクトルAiと、前記対応する選択された確率分布P(Ai)から生成されたサンプルベクトルとを区別するために、前記各正則化ネットワークをトレーニングすることであって、前記サンプルベクトルが、前記潜在ベクトルzのベクトルAiと同じ次元のものである、トレーニングすることと、
前記潜在ベクトルzの前記ベクトルAiに前記確率分布P(Ai)を適用するためにエンコーダネットワークをトレーニングする際に前記オートエンコーダが使用する前記生成器損失関数値LGAiを出力することと、をさらに含む、正則化することをさらに含む、請求項15〜30のいずれか一項に記載のコンピュータ実装方法。 - 前記オートエンコーダが、
前記潜在空間の前記ラベルベクトルyを出力する前記潜在表現層と、
入力層、1つ以上の隠れ層、およびラベルベクトルyに関連付けられた生成器損失関数LGYを評価するための出力層を含む、結合された敵対的ネットワークと、をさらに含み、前記敵対的ネットワークの前記入力層が、前記ラベルベクトルyに接続され、前記方法が、
前記潜在表現層によって生成されたラベルベクトルyと、前記ラベルベクトルyと同じ次元の1つのホットベクトルのセットのカテゴリカル分布からのサンプルベクトルとを区別するために前記敵対的ネットワークをトレーニングすることと、
前記ラベルベクトルyに前記カテゴリカル分布を適用するために、エンコーダネットワークをトレーニングする際に前記オートエンコーダが使用するラベルベクトルyに関連付けられた前記生成器損失関数値LGYを出力することと、をさらに含む、請求項31に記載のコンピュータ実装方法。 - 前記オートエンコーダが、前記潜在表現層に結合された復号ネットワークをさらに含み、前記入力データのトレーニングセットが、神経サンプルベクトル配列
のトレーニングセットを含み、1≦i≦Lkと1≦k≦Tであり、Lkがk番目の神経サンプルベクトル配列の長さであり、Tが、前記オートエンコーダを通過するk番目の神経活動に対応するk番目の神経サンプルベクトル配列ごとのトレーニング神経サンプルベクトル配列の数であり、前記方法が、
前記1つ以上の正則化ネットワークおよび/または前記敵対的ネットワークの前記出力に基づいて損失関数またはコスト関数を生成することであって、k番目の神経サンプルベクトル配列の推定値が、前記復号ネットワークからの
前記生成されたコスト関数の損失に基づいて、前記符号化ネットワークおよび/または復号ネットワークの前記隠れ層の重みを更新することと、をさらに含む、請求項31または32に記載のコンピュータ実装方法。 - 前記選択された1つ以上の確率分布の各確率分布が、
正規分布、
ガウス分布、
ラプラシアン、
ガンマ、
前述の分布の1つ以上の順列、
分散または平均などの異なるプロパティを持つ前述の分布の1つ以上の順列、および
前記入力データに関連付けられた前記ラベルベクトルyの前記時不変性に寄与する任意の他の確率分布の群からの1つ以上の確率分布またはそれらの組み合わせを含む、請求項1〜33のいずれか一項に記載のコンピュータ実装方法。 - オートエンコーダのためのコンピュータ実装方法であって、前記オートエンコーダが、入力データを分類するためのN次元潜在空間の潜在ベクトルを出力し、前記潜在ベクトルが、ラベルベクトルyおよびスタイルベクトルzを含み、前記方法が、
トレーニングされたオートエンコーダ構造を表すデータを取得することであって、前記スタイルベクトルzが、トレーニング中に正則化され、1つ以上のラベルベクトルyが実質的に時不変であることを確実にする、取得することと、
前記取得したオートエンコーダ構造に基づいて前記オートエンコーダを構成することと、
前記入力データに関連付けられた1つ以上のラベルベクトルyを分類することであって、前記1つ以上のラベルベクトルyは実質的に、時不変である、分類することと、を含む、コンピュータ実装方法。 - 前記オートエンコーダ構造が、請求項1〜14、34、および47〜65のいずれか一項に記載の方法に従ってトレーニングされたオートエンコーダに基づく、請求項35に記載のコンピュータ実装方法。
- 前記オートエンコーダ構造が、請求項15〜34、および47〜65のいずれか一項に記載の方法に従って最適化および/またはトレーニングされたオートエンコーダに基づく、請求項35または36に記載のコンピュータ実装方法。
- 装置であって、
通信インターフェースと、
メモリユニットと、
プロセッサユニットと、を備え、前記プロセッサユニットが、前記通信インターフェースおよび前記メモリユニットに接続され、前記プロセッサユニット、ストレージユニット、通信インターフェースが、請求項1〜14、34および47〜65のいずれか一項に記載の方法を実行するように構成されている、装置。 - 装置であって、
通信インターフェースと、
メモリユニットと、
プロセッサユニットと、を備え、前記プロセッサユニットが、前記通信インターフェースおよび前記メモリユニットに接続され、前記プロセッサユニット、ストレージユニット、通信インターフェースが、請求項15〜34および47〜65のいずれか一項に記載の方法を実行するように構成されている、装置。 - 装置であって、
通信インターフェースと、
メモリユニットと、
プロセッサユニットと、を備え、前記プロセッサユニットが、前記通信インターフェースおよび前記メモリユニットに接続され、前記プロセッサユニット、ストレージユニット、通信インターフェースが、請求項35〜37および47〜65のいずれか一項に記載の方法を実行するように構成されている、装置。 - プロセッサ上で実行されると、前記プロセッサに請求項1〜14、34および47〜65のいずれか一項に記載の方法を実行させるプログラムコードが保存されたコンピュータ可読媒体。
- プロセッサ上で実行されると、前記プロセッサに請求項15〜34および47〜65のいずれか一項に記載の方法を実行させるプログラムコードが保存されたコンピュータ可読媒体。
- プロセッサ上で実行されると、前記プロセッサに請求項35〜37および47〜65のいずれか一項に記載の方法を実行させるプログラムコードが保存されたコンピュータ可読媒体。
- 装置であって、
符号化ネットワークと、
復号ネットワークと、
潜在空間のスタイルベクトルzおよび出力ラベルベクトルyを出力する潜在表現層であって、前記スタイルベクトルzが、1つ以上の選択された確率分布に対応する1つ以上の選択されたベクトルAiを含み、前記符号化ネットワークの出力が、前記潜在表現層に接続され、前記潜在表現層が、前記復号ネットワークの入力に接続される、潜在表現層と、
前記潜在表現層に接続された正則化コンポーネントであって、前記正則化コンポーネントが、前記装置のトレーニング中に前記スタイルベクトルzを正則化し、前記装置が入力データを分類するときに実質的に時不変の出力ラベルベクトルyをもたらすように構成された、正則化コンポーネントと、を備える、装置。 - 前記正則化コンポーネントが、
1つ以上の正則化ネットワークであって、各正則化ネットワークが、入力層、1つ以上の隠れ層を含む弁別器ネットワーク、および生成器損失関数LGAiを評価するための出力層を含み、前記入力層が、スタイルベクトルzの前記1つ以上の選択されたベクトルAiのうちの対応する1つに接続される、1つ以上の正則化ネットワークと、をさらに含み、
前記正則化ネットワークの各々が、トレーニング中に、
潜在ベクトルzの前記対応するベクトルAiと、前記対応する選択された確率分布P(Ai)から生成されたサンプルベクトルとを区別するために、前記弁別器ネットワークをトレーニングし、前記サンプルベクトルが、前記潜在ベクトルzのベクトルAiと同じ次元のものであり、
前記潜在ベクトルzの前記ベクトルAiに前記確率分布P(Ai)を適用するためにエンコーダネットワークをトレーニングして前記生成器損失関数値LGAiを出力するように構成されている、請求項44に記載の装置。 - 入力層、1つ以上の隠れ層、およびラベルベクトルyに関連付けられた生成器損失関数LGYを評価するための出力層を含む、結合された敵対的ネットワークと、をさらに含み、前記敵対的ネットワークの前記入力層が、前記ラベルベクトルyに接続され、前記敵対的ネットワークが、トレーニング中に、
ラベルベクトルyと、前記ラベルベクトルyと同じ次元の1つのホットベクトルのセットのカテゴリカル分布からのサンプルベクトルとを区別するために前記1つ以上の隠れ層をトレーニングし、
前記ラベルベクトルyに前記カテゴリカル分布を適用するために、前記エンコーダネットワークをトレーニングしてラベルベクトルyに関連付けられた前記生成器損失関数値LGYを出力するように構成されている、請求項45に記載の装置。 - オートエンコーダのためのコンピュータ実装方法であって、前記オートエンコーダが、入力データを分類するためのN次元潜在空間の潜在ベクトルを出力し、前記潜在ベクトルが、ラベルベクトルyおよびスタイルベクトルzを含み、前記方法が、スタイルベクトルzの前記正則化を制御して、1つ以上の確率分布P(Ai)および対応する1つ以上のベクトルAiを選択することにより、前記ラベルベクトルyの時不変性を増加または減少させることであって、前記スタイルベクトルzが、前記1つ以上のベクトルAiを含む、制御することと、前記選択された確率分布に基づいてスタイルベクトルzを正則化することと、を含み、前記制御する方法が、
複数のハイパーパラメータのセットを生成することであって、ハイパーパラメータの各セットが、1つ以上の選択された確率分布P(Ai)と、前記スタイルベクトルzを分割する対応する1つ以上の選択されたベクトルAiを含み、前記ハイパーパラメータの各セットが、オートエンコーダ構造を定義する、生成することと、
前記複数のハイパーパラメータのセットのハイパーパラメータの各セットについて、前記オートエンコーダの前記ラベルベクトルyの前記クラスタ化および時不変性の性能を、
前記ハイパーパラメータのセットに基づいて前記オートエンコーダを構成することと、
入力データに対して前記構成済みのオートエンコーダをトレーニングすることにより、前記ハイパーパラメータのセットに基づいて前記スタイルベクトルzを正則化することと、
前記トレーニングされたオートエンコーダおよび入力データに基づいて、ラベルベクトルyのセットを生成することと、
前記ラベルベクトルyの複数または2つ以上のクラスタを決定することと、
各クラスタに実質的に同じまたは類似するラベルベクトルyのサブグループが含まれているかどうかを検出することと、
各クラスタが実質的に同じまたは類似するラベルベクトルyのサブグループを含むことの検出に応答して、前記選択されたハイパーパラメータのセットを最適化されたハイパーパラメータデータセットに保存することであって、前記最適化されたハイパーパラメータデータセット内の前記ハイパーパラメータの各セットが、トレーニング中にスタイルベクトルzを正則化することにより、実質的に時不変のラベルベクトルyを出力するようにトレーニングされ得るオートエンコーダ構造を定義する、保存することと、によって、決定することと、をさらに含む、コンピュータ実装方法。 - オートエンコーダのためのコンピュータ実装方法であって、前記方法が、
各クラスタが実質的に同じまたは類似するラベルベクトルyのサブグループを含むことの検出に応答して、前記ラベルベクトルyのセットが実質的に時不変であるかどうかを検出することと、
各クラスタが実質的に同じまたは類似するラベルベクトルyのサブグループを含むことの検出、および前記ラベルベクトルyのセットが実質的に時不変であることの検出に応答して、前記選択されたハイパーパラメータのセットを最適化されたハイパーパラメータデータセットに保存することであって、前記最適化されたハイパーパラメータデータセット内の前記ハイパーパラメータの各セットが、トレーニング中にスタイルベクトルzを正則化することにより、実質的に時不変のラベルベクトルyを出力するようにトレーニングされ得るオートエンコーダ構造を定義する、保存することと、をさらに含む、コンピュータ実装方法。 - 各クラスタが、領域または境界によって定義され、各クラスタのラベルベクトルyの前記サブグループが、前記定義された領域または境界内に含まれ、ラベルベクトルyが、前記同じクラスタの前記領域または境界内に含まれる場合、実質的に同じか類似している、請求項47または48のいずれか一項に記載のコンピュータ実装方法。
- 前記ラベルベクトルyのセットをクラスタ化して、各クラスタが実質的に同じまたは類似するラベルベクトルyのサブグループを含む、ラベルベクトルyの複数のクラスタを形成することと、
ラベルベクトルyの前記クラスタの各々を、入力データの分類で前記ハイパーパラメータのセットによって定義されたオートエンコーダが使用するために、前記入力データに関連付けられたクラスまたは状態ラベルSのセットからのクラスまたは状態ラベルにマッピングすることと、をさらに含む、請求項47〜49のいずれか一項に記載のコンピュータ実装方法。 - オートエンコーダ構成データのセットを最適化されたオートエンコーダ構成データセットに保存することであって、前記オートエンコーダ構成データのセットが、
前記最適化されたハイパーパラメータデータセットに保存された前記ハイパーパラメータのセットを表すデータ、
ラベルベクトルyの前記クラスタを表すデータ、
クラスまたは状態ラベルSへのラベルベクトルyの前記クラスタの各々の前記マッピングを表すデータ、および
前記トレーニングされたオートエンコーダに関連付けられた1つ以上のニューラルネットワークおよび/または隠れ層の前記重みおよび/またはパラメータを表すデータの群からの1つ以上を表すデータを含む、保存することをさらに含む、請求項47〜50のいずれか一項に記載のコンピュータ実装方法。 - 前記スタイルベクトルzを正則化することが、前記スタイルベクトルzの一部分を正則化することをさらに含む、請求項1〜14、15〜34、35〜37、または47〜51のいずれか一項に記載のコンピュータ実装方法。
- 前記スタイルベクトルzを正則化することが、前記スタイルベクトルzのセクションを正則化することをさらに含む、請求項1〜14、15〜34、35〜37、または47〜52のいずれか一項に記載のコンピュータ実装方法。
- 前記スタイルベクトルzを正則化することが、前記スタイルベクトルzのサブベクトルを正則化することをさらに含む、請求項1〜14、15〜34、35〜37、または47〜53のいずれか一項に記載のコンピュータ実装方法。
- 前記スタイルベクトルzの前記サブベクトルが、前記選択されたベクトルAiのサブグループを含む、請求項54に記載のコンピュータ実装方法。
- 前記スタイルベクトルzの前記サブベクトルの長さが、前記スタイルベクトルzの長さよりも短い、請求項55に記載のコンピュータ実装方法。
- 前記スタイルベクトルzを正則化することが、前記選択されたベクトルAiおよび対応する選択された確率分布P(Ai)のサブグループを選択することと、前記スタイルベクトルzの前記選択されたベクトルAiの前記サブグループのみを正則化することと、をさらに含み、前記ベクトルAiの前記サブグループ内のベクトルAiの数が、前記選択されたベクトルAiの数よりも少ない、請求項1〜14、15〜34、35〜37、または47〜53のいずれかに記載のコンピュータ実装方法。
- 前記ラベルベクトルyが敵対的ネットワークによって制約または制限されていない場合、前記オートエンコーダが、
前記潜在空間の前記ラベルベクトルyを出力する潜在表現層と、
前記ラベルベクトルyを操作および分類するために前記ラベルベクトルyに結合された分類コンポーネントと、をさらに含む、請求項1〜14、15〜34、35〜37、または47〜57のいずれかに記載のコンピュータ実装方法。 - 前記ラベルベクトルyが、ソフトベクトルである、請求項58に記載のコンピュータ実装方法。
- 前記ラベルベクトルyが、ワンホット状ベクトルではない、請求項58または59に記載のコンピュータ実装方法。
- 前記ラベルベクトルyが、密なソフトベクトルである、請求項58〜60のいずれか一項に記載のコンピュータ実装方法。
- 前記スタイルベクトルzが、部分的に正則化されている、請求項1〜14、15〜34、35〜37のいずれか一項に記載のコンピュータ実装方法。
- 前記スタイルベクトルzが、完全に正則化されている、請求項1〜14、15〜34、35〜37のいずれか一項に記載のコンピュータ実装方法。
- 前記ラベルベクトルyが、ベクトル、テンソルまたはその他を含み、前記ベクトル、テンソルまたはその他が、
ワンホットベクトルと、
エントロピーの尺度と、
L1 L2またはその両方に正則化されたものと、
離散的なボルツマン分布ベクトルと、
先行クラス状態の表現と、
既知の機能または構成セットと、の群からの少なくとも1つ以上を含む、請求項1、15、35、47および48のいずれか1項に記載のコンピュータ実装方法。 - 前記スタイルベクトルzが、ベクトル、テンソルまたはその他を含み、前記ベクトル、テンソルまたはその他が、
確率分布と、
L1 L2またはその他の基準と、
迷惑変数と、
エラー変数と、の群からの少なくとも1つ以上によってペナルティが課されるか、正則化される、請求項1、15、35、47、48および64のいずれか一項に記載のコンピュータ実装方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB1718756.8 | 2017-11-13 | ||
GBGB1718756.8A GB201718756D0 (en) | 2017-11-13 | 2017-11-13 | Neural interface |
GBGB1719257.6A GB201719257D0 (en) | 2017-11-13 | 2017-11-20 | Time invariant classification |
GB1719257.6 | 2017-11-20 | ||
PCT/GB2018/053287 WO2019092459A1 (en) | 2017-11-13 | 2018-11-13 | Time invariant classification |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021502650A true JP2021502650A (ja) | 2021-01-28 |
JP2021502650A5 JP2021502650A5 (ja) | 2021-12-23 |
Family
ID=60788365
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020526410A Pending JP2021502650A (ja) | 2017-11-13 | 2018-11-13 | 時不変分類 |
Country Status (8)
Country | Link |
---|---|
US (1) | US11610132B2 (ja) |
EP (1) | EP3710997A1 (ja) |
JP (1) | JP2021502650A (ja) |
KR (1) | KR20210011361A (ja) |
AU (1) | AU2018363299A1 (ja) |
CA (1) | CA3082657A1 (ja) |
GB (2) | GB201718756D0 (ja) |
WO (1) | WO2019092459A1 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11494582B2 (en) * | 2018-02-08 | 2022-11-08 | Western Digital Technologies, Inc. | Configurable neural network engine of tensor arrays and memory cells |
US11164073B2 (en) | 2018-02-08 | 2021-11-02 | Western Digital Technologies, Inc. | Systolic neural network processor with feedback control |
CN109858046B (zh) * | 2018-02-09 | 2024-03-08 | 谷歌有限责任公司 | 利用辅助损失来学习神经网络中的长期依赖性 |
US11514313B2 (en) * | 2018-09-27 | 2022-11-29 | Google Llc | Sampling from a generator neural network using a discriminator neural network |
US11783176B2 (en) | 2019-03-25 | 2023-10-10 | Western Digital Technologies, Inc. | Enhanced storage device memory architecture for machine learning |
US10929058B2 (en) | 2019-03-25 | 2021-02-23 | Western Digital Technologies, Inc. | Enhanced memory device architecture for machine learning |
US11442417B2 (en) * | 2019-03-29 | 2022-09-13 | Microsoft Technology Licensing, Llc | Control system using autoencoder |
JP7202260B2 (ja) * | 2019-06-07 | 2023-01-11 | 株式会社日立製作所 | ハイパーパラメータ管理装置、ハイパーパラメータ管理システム及びハイパーパラメータ管理方法 |
US11455527B2 (en) * | 2019-06-14 | 2022-09-27 | International Business Machines Corporation | Classification of sparsely labeled text documents while preserving semantics |
EP3792830A1 (en) * | 2019-09-10 | 2021-03-17 | Robert Bosch GmbH | Training a class-conditional generative adverserial network |
US11711310B2 (en) | 2019-09-18 | 2023-07-25 | Tweenznet Ltd. | System and method for determining a network performance property in at least one network |
KR20210039598A (ko) * | 2019-10-02 | 2021-04-12 | 삼성전자주식회사 | 응답 추론 방법 및 장치 |
US11716338B2 (en) * | 2019-11-26 | 2023-08-01 | Tweenznet Ltd. | System and method for determining a file-access pattern and detecting ransomware attacks in at least one computer network |
US11410083B2 (en) * | 2020-01-07 | 2022-08-09 | International Business Machines Corporation | Determining operating range of hyperparameters |
WO2022028687A1 (en) * | 2020-08-05 | 2022-02-10 | Nokia Solutions And Networks Oy | Latent variable decorrelation |
CN112697268B (zh) * | 2020-12-04 | 2022-06-24 | 佳木斯电机股份有限公司 | 一种基于t-sne的电机异常检测集成算法 |
CN112991171B (zh) * | 2021-03-08 | 2023-07-28 | Oppo广东移动通信有限公司 | 图像处理方法、装置、电子设备及存储介质 |
GB202106969D0 (en) * | 2021-05-14 | 2021-06-30 | Samsung Electronics Co Ltd | Method and apparatus for improving model efficiency |
CN113361971B (zh) * | 2021-07-13 | 2023-04-07 | 浙江菲达环保科技股份有限公司 | 石膏脱水脱硫废水联控方法及系统 |
CN113890109B (zh) * | 2021-09-05 | 2023-08-25 | 三峡大学 | 具有时间空间相关性的多风电场功率日场景生成方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017094899A1 (en) * | 2015-12-02 | 2017-06-08 | Preferred Networks, Inc. | Generative machine learning systems for drug design |
WO2017094267A1 (ja) * | 2015-12-01 | 2017-06-08 | 株式会社Preferred Networks | 異常検出システム、異常検出方法、異常検出プログラム及び学習済モデル生成方法 |
US20170213000A1 (en) * | 2016-01-25 | 2017-07-27 | Shenzhen University | Metabolic mass spectrometry screening method for diseases based on deep learning and the system thereof |
Family Cites Families (101)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2868343A1 (en) | 2013-10-31 | 2015-05-06 | Ecole Polytechnique Federale De Lausanne (EPFL) EPFL-TTO | System to deliver adaptive electrical spinal cord stimulation to facilitate and restore locomotion after a neuromotor impairment |
JP6390239B2 (ja) * | 2014-07-25 | 2018-09-19 | 富士ゼロックス株式会社 | 情報処理装置、及びプログラム |
CN107205641A (zh) | 2014-08-29 | 2017-09-26 | 因赛飞公司 | 用于增强神经功能的方法和装置 |
WO2016154298A1 (en) | 2015-03-23 | 2016-09-29 | Temple University-Of The Commonwealth System Of Higher Education | System and method for automatic interpretation of eeg signals using a deep learning statistical model |
CN105550744A (zh) * | 2015-12-06 | 2016-05-04 | 北京工业大学 | 一种基于迭代的神经网络聚类方法 |
RU2625053C1 (ru) * | 2016-07-29 | 2017-07-11 | Акционерное общество "Лаборатория Касперского" | Устранение ложных срабатываний антивирусных записей |
US10624558B2 (en) * | 2017-08-10 | 2020-04-21 | Siemens Healthcare Gmbh | Protocol independent image processing with adversarial networks |
US10753997B2 (en) * | 2017-08-10 | 2020-08-25 | Siemens Healthcare Gmbh | Image standardization using generative adversarial networks |
US10679129B2 (en) * | 2017-09-28 | 2020-06-09 | D5Ai Llc | Stochastic categorical autoencoder network |
DE102017218476A1 (de) * | 2017-10-16 | 2019-04-18 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Ermitteln von Emissionen |
US11250329B2 (en) * | 2017-10-26 | 2022-02-15 | Nvidia Corporation | Progressive modification of generative adversarial neural networks |
US11468262B2 (en) * | 2017-10-30 | 2022-10-11 | Nec Corporation | Deep network embedding with adversarial regularization |
US20210342570A1 (en) * | 2017-11-27 | 2021-11-04 | Deciphex | Automated clustering of anomalous histopathology tissue samples |
WO2019102042A1 (en) * | 2017-11-27 | 2019-05-31 | Deciphex | Automated screening of histopathology tissue samples via classifier performance metrics |
US10803347B2 (en) * | 2017-12-01 | 2020-10-13 | The University Of Chicago | Image transformation with a hybrid autoencoder and generative adversarial network machine learning architecture |
EP3788512A4 (en) * | 2017-12-30 | 2022-03-09 | Target Brands, Inc. | HIERARCHICAL, PARALLEL MODELS FOR REAL-TIME EXTRACTING HIGH VALUE INFORMATION FROM DATA STREAMS AND THE ASSOCIATED CREATION SYSTEM AND METHOD |
CA3091480A1 (en) * | 2018-02-17 | 2019-08-22 | Regeneron Pharmaceuticals, Inc. | Gan-cnn for mhc peptide binding prediction |
US10825219B2 (en) * | 2018-03-22 | 2020-11-03 | Northeastern University | Segmentation guided image generation with adversarial networks |
GB201805293D0 (en) * | 2018-03-29 | 2018-05-16 | Benevolentai Tech Limited | Attention filtering for multiple instance learning |
US10650245B2 (en) * | 2018-06-08 | 2020-05-12 | Adobe Inc. | Generating digital video summaries utilizing aesthetics, relevancy, and generative neural networks |
US20210117733A1 (en) * | 2018-06-29 | 2021-04-22 | Nec Corporation | Pattern recognition apparatus, pattern recognition method, and computer-readable recording medium |
JP7047664B2 (ja) * | 2018-08-23 | 2022-04-05 | 日本電信電話株式会社 | 学習装置、学習方法および予測システム |
US20210350179A1 (en) * | 2018-10-05 | 2021-11-11 | Imperial College Of Science, Technology And Medicine | Method for detecting adverse cardiac events |
US11398297B2 (en) * | 2018-10-11 | 2022-07-26 | Chun-Chieh Chang | Systems and methods for using machine learning and DNA sequencing to extract latent information for DNA, RNA and protein sequences |
US11544530B2 (en) * | 2018-10-29 | 2023-01-03 | Nec Corporation | Self-attentive attributed network embedding |
US11423282B2 (en) * | 2018-10-30 | 2022-08-23 | Huawei Technologies Co., Ltd. | Autoencoder-based generative adversarial networks for text generation |
US10854109B2 (en) * | 2018-10-31 | 2020-12-01 | Sony Interactive Entertainment Inc. | Color accommodation for on-demand accessibility |
US11610435B2 (en) * | 2018-11-14 | 2023-03-21 | Nvidia Corporation | Generative adversarial neural network assisted video compression and broadcast |
US20200160176A1 (en) * | 2018-11-16 | 2020-05-21 | Royal Bank Of Canada | System and method for generative model for stochastic point processes |
US11664108B2 (en) * | 2018-11-29 | 2023-05-30 | January, Inc. | Systems, methods, and devices for biophysical modeling and response prediction |
US11178170B2 (en) * | 2018-12-14 | 2021-11-16 | Ca, Inc. | Systems and methods for detecting anomalous behavior within computing sessions |
US11449537B2 (en) * | 2018-12-18 | 2022-09-20 | Adobe Inc. | Detecting affective characteristics of text with gated convolutional encoder-decoder framework |
EP3674983A1 (en) * | 2018-12-29 | 2020-07-01 | Dassault Systèmes | Machine-learning for 3d modeled object inference |
EP4383689A2 (en) * | 2019-02-22 | 2024-06-12 | Shubharanjan Dasgupta | Automated closed-loop actions in a network using a distributed ledger |
US11715016B2 (en) * | 2019-03-15 | 2023-08-01 | International Business Machines Corporation | Adversarial input generation using variational autoencoder |
CN113892020A (zh) * | 2019-05-27 | 2022-01-04 | 昭和电工株式会社 | 图像分析装置、方法、以及程序 |
US20220237905A1 (en) * | 2019-05-28 | 2022-07-28 | Toyota Motor Europe | Method and system for training a model for image generation |
EP3748544A1 (en) * | 2019-06-03 | 2020-12-09 | IMRA Europe S.A.S. | Mixture distribution estimation for future prediction |
US11514691B2 (en) * | 2019-06-12 | 2022-11-29 | International Business Machines Corporation | Generating training sets to train machine learning models |
GB201908530D0 (en) * | 2019-06-13 | 2019-07-31 | Microsoft Technology Licensing Llc | Robutness against manipulations n machine learning |
EP3751467A1 (en) * | 2019-06-14 | 2020-12-16 | Robert Bosch GmbH | A machine learning system |
US20210019541A1 (en) * | 2019-07-18 | 2021-01-21 | Qualcomm Incorporated | Technologies for transferring visual attributes to images |
US11443137B2 (en) * | 2019-07-31 | 2022-09-13 | Rohde & Schwarz Gmbh & Co. Kg | Method and apparatus for detecting signal features |
US11321066B2 (en) * | 2019-08-12 | 2022-05-03 | Nec Corporation | Securing software installation through deep graph learning |
US10803646B1 (en) * | 2019-08-19 | 2020-10-13 | Neon Evolution Inc. | Methods and systems for image and voice processing |
US10658005B1 (en) * | 2019-08-19 | 2020-05-19 | Neon Evolution Inc. | Methods and systems for image and voice processing |
US20220327389A1 (en) * | 2019-09-04 | 2022-10-13 | Georgia Tech Research Corporation | Detecting and Classifying Anomalies in Artificial Intelligence Systems |
US10957026B1 (en) * | 2019-09-09 | 2021-03-23 | Adobe Inc. | Learning from estimated high-dynamic range all weather lighting parameters |
EP3798916A1 (en) * | 2019-09-24 | 2021-03-31 | Another Brain | Transformation of data samples to normal data |
US11783518B2 (en) * | 2019-09-30 | 2023-10-10 | Lawrence Livermore National Security, Llc | Few-view computed tomography reconstruction using deep neural network inference |
US11537898B2 (en) * | 2019-10-02 | 2022-12-27 | Samsung Electronics Co., Ltd. | Generative structure-property inverse computational co-design of materials |
US11537881B2 (en) * | 2019-10-21 | 2022-12-27 | The Boeing Company | Machine learning model development |
US11157772B2 (en) * | 2019-10-28 | 2021-10-26 | Element Ai Inc. | System and method for generating adversarial examples |
US11657290B2 (en) * | 2019-10-28 | 2023-05-23 | Robert Bosch Gmbh | System and method with a robust deep generative model |
WO2021097426A1 (en) * | 2019-11-15 | 2021-05-20 | Brain Corporation | Systems and methods for training neural networks on a cloud server using sensory data collected by robots |
US11710046B2 (en) * | 2019-11-29 | 2023-07-25 | 42Maru Inc. | Method and apparatus for generating Q and A model by using adversarial learning |
EP4092555A4 (en) * | 2020-01-17 | 2023-01-11 | Fujitsu Limited | CONTROL METHOD, INFORMATION PROCESSING DEVICE AND CONTROL PROGRAM |
US11748629B2 (en) * | 2020-01-21 | 2023-09-05 | Moxa Inc. | Device and method of handling anomaly detection |
US11354792B2 (en) * | 2020-02-07 | 2022-06-07 | Adobe Inc. | System and methods for modeling creation workflows |
US11776180B2 (en) * | 2020-02-26 | 2023-10-03 | Adobe Inc. | Controlled style-content image generation based on disentangling content and style |
US11704804B2 (en) * | 2020-04-02 | 2023-07-18 | GE Precision Healthcare LLC | Domain adaptation using post-processing model correction |
US11301724B2 (en) * | 2020-04-30 | 2022-04-12 | Robert Bosch Gmbh | Semantic adversarial generation based function testing method in autonomous driving |
GB202006809D0 (en) * | 2020-05-07 | 2020-06-24 | Microsoft Technology Licensing Llc | Variational auto encoder for mixed data types |
US11210275B2 (en) * | 2020-05-13 | 2021-12-28 | Sap Se | Synthetic workload generation for workload classification |
US20210358164A1 (en) * | 2020-05-15 | 2021-11-18 | Nvidia Corporation | Content-aware style encoding using neural networks |
US20210374525A1 (en) * | 2020-05-28 | 2021-12-02 | International Business Machines Corporation | Method and system for processing data records |
JP2022003451A (ja) * | 2020-06-23 | 2022-01-11 | 富士通株式会社 | 最適解獲得プログラム、最適解獲得方法および情報処理装置 |
US11663486B2 (en) * | 2020-06-23 | 2023-05-30 | International Business Machines Corporation | Intelligent learning system with noisy label data |
US11735197B2 (en) * | 2020-07-07 | 2023-08-22 | Google Llc | Machine-learned differentiable digital signal processing |
US20220012568A1 (en) * | 2020-07-07 | 2022-01-13 | Nvidia Corporation | Image generation using one or more neural networks |
US11475332B2 (en) * | 2020-07-12 | 2022-10-18 | International Business Machines Corporation | Selecting forecasting models by machine learning based on analysis of model robustness |
US20220028180A1 (en) * | 2020-07-27 | 2022-01-27 | Raytheon Company | Shape-based vehicle classification using laser scan and neural network |
US20220076135A1 (en) * | 2020-09-08 | 2022-03-10 | Nec Laboratories America, Inc. | Meta-learning system and method for disentangled domain representation learning |
US10930066B1 (en) * | 2020-09-11 | 2021-02-23 | Mythical, Inc. | Systems and methods for using natural language processing (NLP) to automatically generate three-dimensional objects in a virtual space |
KR20220038907A (ko) * | 2020-09-21 | 2022-03-29 | 삼성에스디에스 주식회사 | 생성적 대립 신경망(gan) 기반의 데이터 예측 방법, 그리고 이를 구현하기 위한 장치 |
US20220101122A1 (en) * | 2020-09-25 | 2022-03-31 | Nvidia Corporation | Energy-based variational autoencoders |
US20220108183A1 (en) * | 2020-10-01 | 2022-04-07 | Salesforce.Com, Inc. | Momentum contrastive autoencoder |
CA3194695A1 (en) * | 2020-10-01 | 2022-04-07 | Thomas KEHLER | Probabilistic graphical networks |
US11670072B2 (en) * | 2020-10-02 | 2023-06-06 | Servicenow Canada Inc. | Systems and computer-implemented methods for identifying anomalies in an object and training methods therefor |
US20220108434A1 (en) * | 2020-10-07 | 2022-04-07 | National Technology & Engineering Solutions Of Sandia, Llc | Deep learning for defect detection in high-reliability components |
US20220129712A1 (en) * | 2020-10-27 | 2022-04-28 | Raytheon Company | Deep neural network hardener |
US20220129758A1 (en) * | 2020-10-27 | 2022-04-28 | Raytheon Company | Clustering autoencoder |
US11631156B2 (en) * | 2020-11-03 | 2023-04-18 | Adobe Inc. | Image generation and editing with latent transformation detection |
US20220148188A1 (en) * | 2020-11-06 | 2022-05-12 | Tasty Tech Ltd. | System and method for automated simulation of teeth transformation |
US11948083B2 (en) * | 2020-11-16 | 2024-04-02 | UMNAI Limited | Method for an explainable autoencoder and an explainable generative adversarial network |
US11544281B2 (en) * | 2020-11-20 | 2023-01-03 | Adobe Inc. | Query-oriented approximate query processing based on machine learning techniques |
KR102429411B1 (ko) * | 2020-11-24 | 2022-08-04 | 주식회사 유비무환 | 영유아의 영양 및 소화흡수 상태 모니터링에 의한 맞춤형 hmr 이유식 제공방법 및 제공시스템 |
EP4244854A1 (en) * | 2020-12-11 | 2023-09-20 | Google LLC | Unsupervised learning of disentangled speech content and style representation |
US11568961B2 (en) * | 2020-12-16 | 2023-01-31 | Ro5 Inc. | System and method for accelerating FEP methods using a 3D-restricted variational autoencoder |
US20220198286A1 (en) * | 2020-12-16 | 2022-06-23 | Ro5 Inc. | System and method for molecular reconstruction from molecular probability distributions |
EP4027300B1 (en) * | 2021-01-12 | 2023-12-27 | Fujitsu Limited | Apparatus, program, and method for anomaly detection and classification |
DE102021200789A1 (de) * | 2021-01-28 | 2022-07-28 | Robert Bosch Gesellschaft mit beschränkter Haftung | Computer-implementiertes Verfahren und Vorrichtung zur Manipulationserkennung für Abgasnachbehandlungssysteme mithilfe Verfahren künstlicher Intelligenz |
US11694018B2 (en) * | 2021-01-29 | 2023-07-04 | Salesforce, Inc. | Machine-learning based generation of text style variations for digital content items |
US20220253639A1 (en) * | 2021-02-01 | 2022-08-11 | Inception Institute of Artificial Intelligence Ltd | Complementary learning for multi-modal saliency detection |
US20220254152A1 (en) * | 2021-02-08 | 2022-08-11 | Nec Laboratories America, Inc. | Learning orthogonal factorization in gan latent space |
US20220269937A1 (en) * | 2021-02-24 | 2022-08-25 | Nvidia Corporation | Generating frames for neural simulation using one or more neural networks |
US11763135B2 (en) * | 2021-03-01 | 2023-09-19 | Robert Bosch Gmbh | Concept-based adversarial generation method with steerable and diverse semantics |
US20220309292A1 (en) * | 2021-03-12 | 2022-09-29 | International Business Machines Corporation | Growing labels from semi-supervised learning |
EP4057292A1 (en) * | 2021-03-12 | 2022-09-14 | Siemens Healthcare GmbH | On-site training of a machine-learning algorithm for generating synthetic imaging data |
US20220308242A1 (en) * | 2021-03-25 | 2022-09-29 | Rensselaer Polytechnic Institute | X-ray photon-counting data correction through deep learning |
US20210319240A1 (en) * | 2021-06-23 | 2021-10-14 | Intel Corporation | Generator exploitation for deepfake detection |
-
2017
- 2017-11-13 GB GBGB1718756.8A patent/GB201718756D0/en not_active Ceased
- 2017-11-20 GB GBGB1719257.6A patent/GB201719257D0/en not_active Ceased
-
2018
- 2018-11-13 EP EP18808465.1A patent/EP3710997A1/en active Pending
- 2018-11-13 AU AU2018363299A patent/AU2018363299A1/en not_active Abandoned
- 2018-11-13 US US16/763,956 patent/US11610132B2/en active Active
- 2018-11-13 WO PCT/GB2018/053287 patent/WO2019092459A1/en unknown
- 2018-11-13 CA CA3082657A patent/CA3082657A1/en active Pending
- 2018-11-13 KR KR1020207017015A patent/KR20210011361A/ko not_active Application Discontinuation
- 2018-11-13 JP JP2020526410A patent/JP2021502650A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017094267A1 (ja) * | 2015-12-01 | 2017-06-08 | 株式会社Preferred Networks | 異常検出システム、異常検出方法、異常検出プログラム及び学習済モデル生成方法 |
WO2017094899A1 (en) * | 2015-12-02 | 2017-06-08 | Preferred Networks, Inc. | Generative machine learning systems for drug design |
US20170213000A1 (en) * | 2016-01-25 | 2017-07-27 | Shenzhen University | Metabolic mass spectrometry screening method for diseases based on deep learning and the system thereof |
Non-Patent Citations (2)
Title |
---|
三好 康祐: "SCAN", 全脳アーキテクチャ開発部オフ会[ONLINE], JPN6022055770, 9 November 2017 (2017-11-09), ISSN: 0004959453 * |
立花 亮介 ほか: "深層学習における敵対的ネットワークによるラベル推定と半教師あり学習", 人工知能学会全国大会(第30回)論文集, JPN6022055769, 6 June 2016 (2016-06-06), pages 1 - 4, ISSN: 0004959452 * |
Also Published As
Publication number | Publication date |
---|---|
WO2019092459A1 (en) | 2019-05-16 |
KR20210011361A (ko) | 2021-02-01 |
EP3710997A1 (en) | 2020-09-23 |
CA3082657A1 (en) | 2019-05-16 |
US11610132B2 (en) | 2023-03-21 |
US20200387798A1 (en) | 2020-12-10 |
GB201719257D0 (en) | 2018-01-03 |
GB201718756D0 (en) | 2017-12-27 |
AU2018363299A1 (en) | 2020-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021502650A (ja) | 時不変分類 | |
CN110020623B (zh) | 基于条件变分自编码器的人体活动识别系统及方法 | |
Heo et al. | Uncertainty-aware attention for reliable interpretation and prediction | |
Burrello et al. | Hyperdimensional computing with local binary patterns: One-shot learning of seizure onset and identification of ictogenic brain regions using short-time iEEG recordings | |
Livezey et al. | Deep learning as a tool for neural data analysis: speech classification and cross-frequency coupling in human sensorimotor cortex | |
CN113627518A (zh) | 利用迁移学习实现多通道卷积-递归神经网络脑电情感识别模型的方法 | |
US20190005384A1 (en) | Topology aware graph neural nets | |
KR101779800B1 (ko) | 기계학습 기반 다면적 성장 평가 방법 및 시스템 | |
Shen et al. | Multivariate time series forecasting based on elastic net and high-order fuzzy cognitive maps: a case study on human action prediction through EEG signals | |
Zhang et al. | Multivariate time series missing data imputation using recurrent denoising autoencoder | |
Kachuee et al. | Dynamic feature acquisition using denoising autoencoders | |
KR102198302B1 (ko) | 성장 예측 방법 및 그 장치 | |
Dong et al. | Subject sensitive EEG discrimination with fast reconstructable CNN driven by reinforcement learning: A case study of ASD evaluation | |
US20220180512A1 (en) | Method for predicting disease based on medical image | |
Hartvigsen et al. | Recurrent halting chain for early multi-label classification | |
McKearney et al. | Auditory brainstem response detection using machine learning: a comparison with statistical detection methods | |
Nafiz et al. | Automated Detection of COVID-19 Cough Sound using Mel-Spectrogram Images and Convolutional Neural Network | |
KR20220107940A (ko) | 의료 영상의 병변 평가 방법 | |
Redhya et al. | Refining PD classification through ensemble bionic machine learning architecture with adaptive threshold based image denoising | |
CN116469148A (zh) | 一种基于面部结构识别的概率预测系统及预测方法 | |
CN114224354B (zh) | 心律失常分类方法、装置及可读存储介质 | |
Pandian et al. | Effect of data preprocessing in the detection of epilepsy using machine learning techniques | |
Al-Shedivat et al. | Personalized survival prediction with contextual explanation networks | |
Francis et al. | Deep learning and pattern-based methodology for multivariable sensor data regression | |
Zeng et al. | Use of Deep Learning for Continuous Prediction of Mortality for All Admissions in Intensive Care Units |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211112 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211112 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230110 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230410 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230609 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230912 |