JP7431291B2 - ドメイン分類器を使用したニューラルネットワークにおけるドメイン適応のためのシステム及び方法 - Google Patents
ドメイン分類器を使用したニューラルネットワークにおけるドメイン適応のためのシステム及び方法 Download PDFInfo
- Publication number
- JP7431291B2 JP7431291B2 JP2022129586A JP2022129586A JP7431291B2 JP 7431291 B2 JP7431291 B2 JP 7431291B2 JP 2022129586 A JP2022129586 A JP 2022129586A JP 2022129586 A JP2022129586 A JP 2022129586A JP 7431291 B2 JP7431291 B2 JP 7431291B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- layer
- output
- domain
- weights
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 44
- 238000013528 artificial neural network Methods 0.000 title description 132
- 230000006978 adaptation Effects 0.000 title description 84
- 230000002123 temporal effect Effects 0.000 claims description 25
- 238000003860 storage Methods 0.000 claims description 19
- 238000012549 training Methods 0.000 description 76
- 230000009471 action Effects 0.000 description 41
- 239000013598 vector Substances 0.000 description 28
- 230000006870 function Effects 0.000 description 24
- 238000012360 testing method Methods 0.000 description 19
- 238000013459 approach Methods 0.000 description 12
- 238000010606 normalization Methods 0.000 description 11
- 238000013135 deep learning Methods 0.000 description 10
- 238000005457 optimization Methods 0.000 description 9
- 238000009826 distribution Methods 0.000 description 8
- 230000008909 emotion recognition Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000015654 memory Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000000875 corresponding effect Effects 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 230000008451 emotion Effects 0.000 description 4
- 230000004927 fusion Effects 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012015 optical character recognition Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000010200 validation analysis Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 238000001931 thermography Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 206010011469 Crying Diseases 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000009193 crawling Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000004851 dishwashing Methods 0.000 description 1
- 230000035622 drinking Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000003094 perturbing effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000004080 punching Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 230000009183 running Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000009184 walking Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Description
Claims (13)
- ドメイン分類器を備える第1の浅い二値分類器を使用して、第1のモデルの第1の層からの空間出力が前記第1のモデルからのものであるかまたは前記第1のモデルとは異なる第2のモデルからのものであるかを判定することであって、前記第1のモデル及び前記第2のモデルは、異なるドメインのデータに関し、前記第1のモデルは、ターゲットドメインのデータに関し、前記第2のモデルはソースドメインのデータに関する、判定することと、
前記空間出力が前記第1のモデルからのものであるとの判定に基づき、前記第1の層の1つ以上の重みを調整することと、
前記空間出力が前記第2のモデルからのものであるとの判定に基づき、前記第1の層の1つ以上の重みを調整することを拒否することと、
ドメイン分類器を備える第2の浅い二値分類器を使用して前記第1のモデルの第2の層からの時間出力が前記第1のモデルからのものであるかまたは前記第2のモデルからのものであるかを判定することであって、前記第1の層及び前記第2の層は、互いに異なる隠れ層である、判定することと、
前記時間出力が前記第1のモデルからのものであるとの判定に基づき、前記第2の層の1つ以上の重みを調整することと、
前記時間出力が前記第2のモデルからのものであるとの判定に基づき、前記第2の層の1つ以上の重みを調整することを拒否することと、
を少なくとも1つのプロセッサによって実行可能にさせるための命令を含む前記少なくとも1つのプロセッサを含む、装置。 - 前記第1の浅い二値分類器は、前記第2の浅い二値分類器とは異なる、請求項1に記載の装置。
- 前記命令は、前記第2のモデルをコピーすることによって前記第1のモデルを最初に確立することを実行可能にさせるためのものである、請求項1に記載の装置。
- 前記空間出力が第1の空間出力であり、前記命令が、
前記第1の空間出力が前記第2のモデルからのものであるとの判定に基づき、前記第1のモデルの第3の層を選択することと、
前記第3の層からの第2の空間出力を識別することと、
前記第1の浅い二値分類器を使用して、前記第2の空間出力が前記第1のモデルからのものであるか又は前記第2のモデルからのものであるかを判定することと、
前記第2の空間出力が前記第1のモデルからのものであるとの判定に基づき、前記第3の層の1つ以上の重みを調整することと、
を前記少なくとも1つのプロセッサによって実行可能にさせるためのものである、請求項1に記載の装置。 - 前記時間出力は、第1の時間出力であり、前記命令は、
前記第1の時間出力が前記第2のモデルからのものであるとの判定に基づき、前記第1のモデルの第4の層を選択することと、
前記第4の層からの第2の時間出力を識別することと、
前記第2の浅い二値分類器を使用して、前記第2の時間出力が前記第1のモデルからのものであるか又は前記第2のモデルからのものであるかを判定することと、
前記第2の時間出力が前記第1のモデルからのものであるとの判定に基づき、前記第4の層の1つ以上の重みを調整することと、
を前記少なくとも1つのプロセッサによって実行可能にさせるためのものである、請求項4に記載の装置。 - 前記命令は、前記空間出力が前記第1のモデルからのものであるか又は前記第2のモデルからのものであるかを判定するために前記第1の浅い二値分類器を使用する前に、前記第1の浅い二値分類器が前記第1のモデル及び前記第2のモデルのいずれかの層からの空間出力を正しく分類することを学習するように前記第1の浅い二値分類器の1つ以上の層の1つ以上の重みを調整することを実行可能にさせるためのものである、請求項1に記載の装置。
- 前記ドメイン分類器が、教師なしモードにおいて、ラベル付きデータを使用して、前記第1のモデル及び前記第2のモデルのうちのいずれかの層からの空間出力を正しく分類することを学習するように動作する、請求項1に記載の装置。
- 前記命令は、前記時間出力が前記第1のモデルからのものであるか又は前記第2のモデルからのものであるかを判定するために前記第2の浅い二値分類器を使用する前に、前記第2の浅い二値分類器が前記第1のモデル及び前記第2のモデルのいずれかの層からの時間出力を正しく分類することを学習するように前記第2の浅い二値分類器の1つ以上の層の1つ以上の重みを調整することを前記少なくとも1つのプロセッサによって実行可能にさせるためのものである、請求項1に記載の装置。
- 前記ドメイン分類器が、教師なしモードにおいて、ラベル付きデータを使用して、前記第1のモデル及び前記第2のモデルのうちのいずれかの層からの時間出力を正しく分類することを学習するように動作する、請求項1に記載の装置。
- プロセッサが、ドメイン分類器を備える第1の浅い二値分類器を使用して第1のモデルの第1の層からの空間出力が前記第1のモデルからのものであるかまたは前記第1のモデルとは異なる第2のモデルからのものであるかを判定することであって、前記第1のモデル及び前記第2のモデルは、異なるドメインのデータに関し、前記第1のモデルは、ターゲットドメインのデータに関し、前記第2のモデルはソースドメインのデータに関する、判定することと、
前記プロセッサが、前記空間出力が前記第1のモデルからのものであるとの判定に基づき、前記第1の層の1つ以上の重みを調整することと、
前記プロセッサが、前記空間出力が前記第2のモデルからのものであるとの判定に基づき、前記第1の層の1つ以上の重みを調整することを拒否することと、
前記プロセッサが、ドメイン分類器を備える第2の浅い二値分類器を使用して前記第1のモデルの第2の層からの時間出力が前記第1のモデルからのものであるかまたは前記第2のモデルからのものであるかを判定することであって、前記第1の層及び前記第2の層は、互いに異なる隠れ層である、判定することと、
前記プロセッサが、前記時間出力が前記第1のモデルからのものであるとの判定に基づき、前記第2の層の1つ以上の重みを調整することと、
前記プロセッサが、前記時間出力が前記第2のモデルからのものであるとの判定に基づき、前記第2の層の1つ以上の重みを調整することを拒否することと、
を含む、方法。 - 前記空間出力が第1の空間出力であり、前記方法は、
前記プロセッサが、前記第1の空間出力が前記第2のモデルからのものであるとの判定に基づき、前記第1のモデルの第3の層を選択することと、
前記プロセッサが、前記第3の層からの第2の空間出力を識別することと、
前記プロセッサが、前記第1の浅い二値分類器を使用して、前記第2の空間出力が前記第1のモデルからのものであるか又は前記第2のモデルからのものであるかを判定することと、
前記プロセッサが、前記第2の空間出力が前記第1のモデルからのものであるとの判定に基づき、前記第3の層の1つ以上の重みを調整することと、
を含む、請求項10に記載の方法。 - 前記時間出力は、第1の時間出力であり、前記方法は、
前記プロセッサが、前記第1の時間出力が前記第2のモデルからのものであるとの判定に基づき、前記第1のモデルの第3の層を選択することと、
前記プロセッサが、前記第3の層からの第2の時間出力を識別することと、
前記プロセッサが、前記第2の浅い二値分類器を使用して、前記第2の時間出力が前記第1のモデルからのものであるか又は前記第2のモデルからのものであるかを判定することと、
前記プロセッサが、前記第2の時間出力が前記第1のモデルからのものであるとの判定に基づき、前記第3の層の1つ以上の重みを調整することと、
を含む、請求項10に記載の方法。 - 一時的信号ではない少なくとも1つのコンピュータ記憶装置であって、少なくとも1つのプロセッサにより、
ドメイン分類器を備える第1の浅い二値分類器を使用して第1のモデルの第1の層からの空間出力が前記第1のモデルからのものであるかまたは前記第1のモデルとは異なる第2のモデルからのものであるかを判定することであって、前記第1のモデル及び前記第2のモデルは、異なるドメインのデータに関し、前記第1のモデルは、ターゲットドメインのデータに関し、前記第2のモデルはソースドメインのデータに関する、判定することと、
前記空間出力が前記第1のモデルからのものであるとの判定に基づき、前記第1の層の1つ以上の重みを調整することと、
前記空間出力が前記第2のモデルからのものであるとの判定に基づき、前記第1の層の1つ以上の重みを調整することを拒否することと、
ドメイン分類器を備える第2の浅い二値分類器を使用して前記第1のモデルの第2の層からの時間出力が前記第1のモデルからのものであるかまたは前記第2のモデルからのものであるかを判定することであって、前記第1の層及び前記第2の層は、互いに異なる隠れ層である、判定することと、
前記時間出力が前記第1のモデルからのものであるとの判定に基づき、前記第2の層の1つ以上の重みを調整することと、
前記時間出力が前記第2のモデルからのものであるとの判定に基づき、前記第2の層の1つ以上の重みを調整することを拒否することと、
を実行可能にさせるための命令を含む前記少なくとも1つのコンピュータ記憶装置を含む、装置。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/176,812 | 2018-10-31 | ||
US16/176,812 US11494612B2 (en) | 2018-10-31 | 2018-10-31 | Systems and methods for domain adaptation in neural networks using domain classifier |
JP2021522367A JP7126613B2 (ja) | 2018-10-31 | 2019-08-27 | ドメイン分類器を使用したニューラルネットワークにおけるドメイン適応のためのシステム及び方法 |
PCT/US2019/048397 WO2020091882A1 (en) | 2018-10-31 | 2019-08-27 | Systems and methods for domain adaptation in neural networks using domain classifier |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021522367A Division JP7126613B2 (ja) | 2018-10-31 | 2019-08-27 | ドメイン分類器を使用したニューラルネットワークにおけるドメイン適応のためのシステム及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022171662A JP2022171662A (ja) | 2022-11-11 |
JP7431291B2 true JP7431291B2 (ja) | 2024-02-14 |
Family
ID=70326916
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021522367A Active JP7126613B2 (ja) | 2018-10-31 | 2019-08-27 | ドメイン分類器を使用したニューラルネットワークにおけるドメイン適応のためのシステム及び方法 |
JP2022129586A Active JP7431291B2 (ja) | 2018-10-31 | 2022-08-16 | ドメイン分類器を使用したニューラルネットワークにおけるドメイン適応のためのシステム及び方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021522367A Active JP7126613B2 (ja) | 2018-10-31 | 2019-08-27 | ドメイン分類器を使用したニューラルネットワークにおけるドメイン適応のためのシステム及び方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11494612B2 (ja) |
EP (1) | EP3874414A4 (ja) |
JP (2) | JP7126613B2 (ja) |
CN (1) | CN112970035A (ja) |
WO (1) | WO2020091882A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190096872A (ko) * | 2019-07-31 | 2019-08-20 | 엘지전자 주식회사 | 연합학습(Federated learning)을 통한 필기체 인식방법 및 이를 위한 장치 |
KR20210053020A (ko) * | 2019-11-01 | 2021-05-11 | 삼성전자주식회사 | 전자 장치 및 그 동작 방법 |
US11301754B2 (en) * | 2019-12-10 | 2022-04-12 | Sony Corporation | Sharing of compressed training data for neural network training |
US20210350139A1 (en) * | 2020-05-11 | 2021-11-11 | Nvidia Corporation | Highlight determination using one or more neural networks |
US11676370B2 (en) * | 2020-05-27 | 2023-06-13 | Nec Corporation | Self-supervised cross-video temporal difference learning for unsupervised domain adaptation |
CN111882055B (zh) * | 2020-06-15 | 2022-08-05 | 电子科技大学 | 一种基于CycleGAN与伪标签的目标检测自适应模型的构建方法 |
CN114664292B (zh) * | 2020-12-22 | 2023-08-01 | 马上消费金融股份有限公司 | 模型训练、语音识别方法、装置、设备及可读存储介质 |
CN113435055B (zh) * | 2021-07-08 | 2022-11-22 | 上海交通大学 | 盾构刀盘扭矩领域自适应迁移预测方法和系统 |
US11443286B1 (en) * | 2021-10-01 | 2022-09-13 | Flourish Worldwide, LLC | Methods and systems for exploiting value in certain domains |
CN116029394B (zh) * | 2023-03-29 | 2023-06-30 | 季华实验室 | 自适应文本情感识别模型训练方法、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016191975A (ja) | 2015-03-30 | 2016-11-10 | 株式会社メガチップス | 機械学習装置 |
JP2018005638A (ja) | 2016-07-04 | 2018-01-11 | 日本電信電話株式会社 | 映像認識モデル学習装置、映像認識装置、方法、及びプログラム |
US20180218284A1 (en) | 2017-01-31 | 2018-08-02 | Xerox Corporation | Method and system for learning transferable feature representations from a source domain for a target domain |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8126710B2 (en) * | 2005-06-01 | 2012-02-28 | Loquendo S.P.A. | Conservative training method for adapting a neural network of an automatic speech recognition device |
US7983478B2 (en) * | 2007-08-10 | 2011-07-19 | Microsoft Corporation | Hidden markov model based handwriting/calligraphy generation |
US8756183B1 (en) | 2010-06-14 | 2014-06-17 | Hrl Laboratories, Llc | System for representing, storing, and reconstructing an input signal |
US9460711B1 (en) | 2013-04-15 | 2016-10-04 | Google Inc. | Multilingual, acoustic deep neural networks |
JP5777178B2 (ja) * | 2013-11-27 | 2015-09-09 | 国立研究開発法人情報通信研究機構 | 統計的音響モデルの適応方法、統計的音響モデルの適応に適した音響モデルの学習方法、ディープ・ニューラル・ネットワークを構築するためのパラメータを記憶した記憶媒体、及び統計的音響モデルの適応を行なうためのコンピュータプログラム |
US20160078359A1 (en) * | 2014-09-12 | 2016-03-17 | Xerox Corporation | System for domain adaptation with a domain-specific class means classifier |
US10878320B2 (en) | 2015-07-22 | 2020-12-29 | Qualcomm Incorporated | Transfer learning in neural networks |
KR102492318B1 (ko) | 2015-09-18 | 2023-01-26 | 삼성전자주식회사 | 모델 학습 방법 및 장치, 및 데이터 인식 방법 |
US9807473B2 (en) | 2015-11-20 | 2017-10-31 | Microsoft Technology Licensing, Llc | Jointly modeling embedding and translation to bridge video and language |
US10319374B2 (en) * | 2015-11-25 | 2019-06-11 | Baidu USA, LLC | Deployed end-to-end speech recognition |
WO2017212459A1 (en) * | 2016-06-09 | 2017-12-14 | Sentient Technologies (Barbados) Limited | Content embedding using deep metric learning algorithms |
US20180024968A1 (en) * | 2016-07-22 | 2018-01-25 | Xerox Corporation | System and method for domain adaptation using marginalized stacked denoising autoencoders with domain prediction regularization |
US10242443B2 (en) | 2016-11-23 | 2019-03-26 | General Electric Company | Deep learning medical systems and methods for medical procedures |
CN110226172B (zh) | 2016-12-15 | 2024-02-02 | 谷歌有限责任公司 | 将源域图像变换为目标域图像 |
US20180268292A1 (en) | 2017-03-17 | 2018-09-20 | Nec Laboratories America, Inc. | Learning efficient object detection models with knowledge distillation |
US10624558B2 (en) * | 2017-08-10 | 2020-04-21 | Siemens Healthcare Gmbh | Protocol independent image processing with adversarial networks |
EP3830596A2 (en) | 2018-07-30 | 2021-06-09 | Hyperfine Research, Inc. | Deep learning techniques for magnetic resonance image reconstruction |
-
2018
- 2018-10-31 US US16/176,812 patent/US11494612B2/en active Active
-
2019
- 2019-08-27 CN CN201980072024.9A patent/CN112970035A/zh active Pending
- 2019-08-27 JP JP2021522367A patent/JP7126613B2/ja active Active
- 2019-08-27 WO PCT/US2019/048397 patent/WO2020091882A1/en unknown
- 2019-08-27 EP EP19878364.9A patent/EP3874414A4/en active Pending
-
2022
- 2022-08-16 JP JP2022129586A patent/JP7431291B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016191975A (ja) | 2015-03-30 | 2016-11-10 | 株式会社メガチップス | 機械学習装置 |
JP2018005638A (ja) | 2016-07-04 | 2018-01-11 | 日本電信電話株式会社 | 映像認識モデル学習装置、映像認識装置、方法、及びプログラム |
US20180218284A1 (en) | 2017-01-31 | 2018-08-02 | Xerox Corporation | Method and system for learning transferable feature representations from a source domain for a target domain |
Non-Patent Citations (5)
Title |
---|
Eric Tzeng et al.,"Adversarial Discriminative Domain Adaptation",2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR),米国,IEEE,2017年07月21日,pp.2962-2971 |
Gabriela Csurka,"Domain Adaptation for Visual Applications: A Comprehensive Survey",arXiv,米国,Cornell University,2017年03月30日,pp.1-46,https://arxiv.org/abs/1702.05374 |
Kajal Kansal et al.,"Transfer Learning of Spatio-Temporal Information Using 3D-CNN for Person Re-identification",2018 IEEE International Conference on Systems, Man, and Cybernetics (SMC),米国,IEEE,2018年10月07日,pp.923-928 |
Wen-Sheng Chu et al.,"Learning Spatial and Temporal Cues for Multi-Label Facial Action Unit Detection",2017 12th IEEE International Conference on Automatic Face & Gesture Recognition (FG 2017),米国,IEEE,2017年05月30日,pp.25-32 |
上乃 聖、外7名,"転移学習による注意機構付き単語単位音声認識の適応",電子情報通信学会技術研究報告,日本,一般社団法人電子情報通信学会,2018年08月20日,Vol.118, No.198,pp.7-8 |
Also Published As
Publication number | Publication date |
---|---|
CN112970035A (zh) | 2021-06-15 |
JP2022505718A (ja) | 2022-01-14 |
US20200134424A1 (en) | 2020-04-30 |
JP2022171662A (ja) | 2022-11-11 |
JP7126613B2 (ja) | 2022-08-26 |
US11494612B2 (en) | 2022-11-08 |
EP3874414A4 (en) | 2022-08-03 |
WO2020091882A1 (en) | 2020-05-07 |
EP3874414A1 (en) | 2021-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7431291B2 (ja) | ドメイン分類器を使用したニューラルネットワークにおけるドメイン適応のためのシステム及び方法 | |
JP7108144B2 (ja) | クロスドメインバッチ正規化を使用したニューラルネットワークにおけるドメイン適応のためのシステム及び方法 | |
US20230325663A1 (en) | Systems and methods for domain adaptation in neural networks | |
US11281709B2 (en) | System and method for converting image data into a natural language description | |
CN111699528B (zh) | 电子装置及执行电子装置的功能的方法 | |
US11450353B2 (en) | Video tagging by correlating visual features to sound tags | |
JP7277611B2 (ja) | テキスト類似性を使用した視覚的タグのサウンドタグへのマッピング | |
US11997445B2 (en) | Systems and methods for live conversation using hearing devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220914 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230726 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230801 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7431291 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |