JP6957624B2 - ターゲット・ドメイン画像へのソース・ドメイン画像の変換 - Google Patents
ターゲット・ドメイン画像へのソース・ドメイン画像の変換 Download PDFInfo
- Publication number
- JP6957624B2 JP6957624B2 JP2019531682A JP2019531682A JP6957624B2 JP 6957624 B2 JP6957624 B2 JP 6957624B2 JP 2019531682 A JP2019531682 A JP 2019531682A JP 2019531682 A JP2019531682 A JP 2019531682A JP 6957624 B2 JP6957624 B2 JP 6957624B2
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- domain
- image
- task
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 claims description 251
- 238000000034 method Methods 0.000 claims description 84
- 230000009466 transformation Effects 0.000 claims description 62
- 238000012549 training Methods 0.000 claims description 56
- 230000008569 process Effects 0.000 claims description 55
- 239000013598 vector Substances 0.000 claims description 44
- 238000012545 processing Methods 0.000 claims description 31
- 238000005457 optimization Methods 0.000 claims description 29
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000009827 uniform distribution Methods 0.000 claims description 6
- 230000001131 transforming effect Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 13
- 238000004590 computer program Methods 0.000 description 12
- 230000009471 action Effects 0.000 description 11
- 239000003795 chemical substances by application Substances 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 238000010606 normalization Methods 0.000 description 5
- 238000009826 distribution Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000026676 system process Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 206010040030 Sensory loss Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000005945 translocation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4084—Scaling of whole images or parts thereof, e.g. expanding or contracting in the transform domain, e.g. fast Fourier transform [FFT] domain scaling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7753—Incorporation of unlabelled data, e.g. multiple instance learning [MIL]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
αLd(D,G)+βLt(G,T)
を満足し、ここで、αおよびβは、損失の相互作用を制御する固定された重みであり、Ld(D,G)は、鑑別器ニューラル・ネットワークがターゲット・ドメイン画像および変換された画像のドメインをどれほど正確に識別できるのかを測定するドメイン損失であり、Lt(G,T)は、タスク・ニューラル・ネットワークが実行するように構成される分類タスクに対するタスク・ニューラル・ネットワークの性能を測定するタスク固有損失である。
を満足し、ここで、Eyは、変数yに関する期待値であり、D(xt;θD)は、鑑別器ニューラル・ネットワーク・パラメータの現在値θDに従ってターゲット・ドメイン画像xtに関して生成されるターゲット・ドメイン・スコアであり、G(xs,z;θG)は、鑑別器ニューラル・ネットワーク・パラメータの現在値θGに従ってソース・ドメイン画像xsおよび雑音ベクトルzから生成される変換された画像であり、D(G(xs,z;θG);θD)は、変換された画像に関して生成されるターゲット・ドメイン・スコアである。
を満足し、ここで、
は、ソース・ドメイン画像xsに関するタスク出力の転置であり、T(xs;θT)は、タスク・ニューラル・ネットワーク・パラメータの現在値θTに従ってソース・ドメイン画像xsに関して生成されるタスク出力であり、T(G(xs,z;θG);θT)は、ソース・ドメイン画像xsから生成される変換された画像に関して生成されるタスク出力である。
Claims (18)
- 1つまたは複数のコンピュータによって実施されるドメイン変換ニューラル・ネットワークを備えるシステムであって、前記ドメイン変換ニューラル・ネットワークは、
ソース・ドメインから入力画像を受け取り、
前記ソース・ドメインから前記ソース・ドメインとは異なるターゲット・ドメインへの前記入力画像の変換である変換画像を生成するために、前記ソース・ドメインからの前記入力画像を含むネットワーク入力を処理し、
前記ドメイン変換ニューラル・ネットワークは、ターゲット・ドメイン画像と当該ドメイン変換ニューラル・ネットワークにより生成された変換画像とを区別するように構成された鑑別器ニューラル・ネットワークと同時にトレーニングされ、
前記トレーニングは、第1の最適化ステップと第2の最適化ステップとの間で交番することによって2ステップ最適化プロセスを繰り返して実行することを含み、
前記第1の最適化ステップ中に、前記ドメイン変換ニューラル・ネットワークのパラメータの値を固定された状態に保ちながら前記鑑別器ニューラル・ネットワークのパラメータの現在値およびタスク・ニューラル・ネットワークのパラメータの現在値を更新し、
前記タスク・ニューラル・ネットワークは、前記入力画像を受け取り、前記入力画像を特徴づけるタスク出力を生成するために前記入力画像を処理するように構成され、
前記第2の最適化ステップ中に、前記鑑別器ニューラル・ネットワークのパラメータの値およびタスク・ニューラル・ネットワークのパラメータの値を固定された状態に保ちながら前記ドメイン変換ニューラル・ネットワークのパラメータの現在値を更新する、
システム。 - 前記ネットワーク入力は、さらに雑音ベクトルを含み、
前記雑音ベクトルは、所定の個数の雑音値を含むベクトルである、請求項1に記載のシステム。 - 各雑音値は、それぞれの一様分布からサンプリングされる、請求項2に記載のシステム。
- 前記入力画像は、それぞれが特定の解像度を有する複数のチャネルを含み、
前記ドメイン変換ニューラル・ネットワークは、
前記雑音ベクトルを処理して前記特定の解像度を有する追加チャネルを生成し、
前記入力画像と前記追加チャネルを結合して結合入力を生成する
ように構成された結合サブニューラル・ネットワークと、
前記変換された画像を生成するために前記結合された入力を処理する
ように構成された畳み込みサブニューラル・ネットワークと
をさらに含む、請求項2に記載のシステム。 - 前記変換された画像を生成するために前記結合された入力を処理することは、前記結合された入力または前記ネットワーク入力に複数の解像度を保存する畳み込みを適用することを含む、請求項4に記載のシステム。
- 前記畳み込みサブニューラル・ネットワークは、それぞれがそれぞれの複数の解像度を保存する畳み込み層を含む複数の残差ブロックを含む、請求項5に記載のシステム。
- ソース・ドメインから入力画像を受け取り、前記ソース・ドメインから前記ソース・ドメインとは異なるターゲット・ドメインへの前記入力画像の変換である前記入力画像の変換である変換画像を生成するために、前記ソース・ドメインからの前記入力画像を含むネットワーク入力を処理するドメイン変換ニューラル・ネットワークをトレーニングする方法であって、前記方法は、
ラベル付けされたトレーニング・ソース・ドメイン画像を受け取ることと、
ラベル付けされていないトレーニング・ターゲット・ドメイン画像を受け取ることと、
ターゲット・ドメイン画像と前記ドメイン変換ニューラル・ネットワークによって生成された変換画像との間で区別するために鑑別器ニューラル・ネットワークをトレーニングしている間に、変換画像を生成するために、前記ラベル付けされたトレーニング・ソース・ドメイン画像および前記ラベル付けされていないトレーニング・ターゲット・ドメイン画像に対して、前記ドメイン変換ニューラル・ネットワークをトレーニングすることを含み、
前記トレーニングは、第1の最適化ステップと第2の最適化ステップとの間で交番することによって2ステップ最適化プロセスを繰り返して実行することを含み、
前記第1の最適化ステップ中に、前記ドメイン変換ニューラル・ネットワークのパラメータの値を固定された状態に保ちながら前記鑑別器ニューラル・ネットワークのパラメータの現在値およびタスク・ニューラル・ネットワークのパラメータの現在値を更新し、
前記タスク・ニューラル・ネットワークは、前記入力画像を受け取り、前記入力画像を特徴づけるタスク出力を生成するために前記入力画像を処理するように構成され、
前記第2の最適化ステップ中に、前記鑑別器ニューラル・ネットワークのパラメータの値および前記タスク・ニューラル・ネットワークのパラメータの値を固定された状態に保ちながら前記ドメイン変換ニューラル・ネットワークのパラメータの現在値を更新する、
方法。 - 前記ドメイン変換ニューラル・ネットワークのパラメータの値を固定された状態に保ちながら前記鑑別器ニューラル・ネットワークのパラメータの現在値および前記タスク・ニューラル・ネットワークのパラメータの現在値を更新することは、
前記鑑別器ニューラル・ネットワークの前記パラメータに関する損失関数のドメイン損失項を最大にするためにニューラル・ネットワーク・トレーニング技法を実行することによって前記鑑別器ニューラル・ネットワークの前記パラメータの前記現在値の更新を判定し、前記ドメイン損失項は、(i)前記ターゲット・ドメインからではないものとしてターゲット・ドメイン画像を不正に識別することおよび前記ターゲット・ドメインからであるものとして変換画像を識別することに関して前記鑑別器ニューラル・ネットワークにペナルティを与えると同時に、(ii)前記鑑別器ニューラル・ネットワークによって前記ターゲット・ドメインからではないものとして識別される変換画像を生成することに関して前記ドメイン変換ニューラル・ネットワークにペナルティを与え、
前記タスク・ニューラル・ネットワークの前記パラメータに関する前記損失関数のタスク固有損失項を最小にするために前記ニューラル・ネットワーク・トレーニング技法を実行することによって前記タスク・ニューラル・ネットワークの前記パラメータの前記現在値の更新を判定することを含み、
前記タスク固有損失項は、(i)対応するソース・ドメイン画像に関する既知のタスク出力とは異なって変換画像の特性を表すことに関して前記タスク・ニューラル・ネットワークにペナルティを与えると同時に、(ii)前記対応するソース・ドメイン画像に関する前記既知のタスク出力から前記タスク・ニューラル・ネットワークによって異なって特性を表される変換画像を生成することに関して前記ドメイン変換ニューラル・ネットワークにペナルティを与える、
請求項7に記載の方法。 - 前記鑑別器ニューラル・ネットワークの前記パラメータの値および前記タスク・ニューラル・ネットワークの前記パラメータの値を固定された状態に保ちながら前記ドメイン変換ニューラル・ネットワークの前記パラメータの現在値を更新することは、
前記ドメイン変換ニューラル・ネットワークの前記パラメータに関する前記損失関数を最小にするために前記ニューラル・ネットワーク・トレーニング技法を実行することによって前記ドメイン変換ニューラル・ネットワークの前記パラメータの前記現在値の更新を定めること
を含む、請求項8に記載の方法。 - 1つまたは複数のコンピュータによって実施されるときに、前記1つまたは複数のコンピュータに、請求項1〜6のいずれか1項に記載の前記ドメイン変換ニューラル・ネットワークを実施させる命令を記憶する、1つまたは複数のコンピュータ記憶媒体。
- 1つまたは複数のコンピュータによって実施されるドメイン変換ニューラル・ネットワークの動作方法であって、
ソース・ドメインから入力画像を受け取るステップと、
前記ソース・ドメインから前記ソース・ドメインとは異なるターゲット・ドメインへの前記入力画像の変換である変換画像を生成するために、前記ソース・ドメインからの前記入力画像を含むネットワーク入力を処理するステップと
を備え、
前記ドメイン変換ニューラル・ネットワークは、ターゲット・ドメイン画像と当該ドメイン変換ニューラル・ネットワークにより生成された変換画像とを区別するように構成された鑑別器ニューラル・ネットワークと同時にトレーニングされ、
前記トレーニングは、第1の最適化ステップと第2の最適化ステップとの間で交番することによって2ステップ最適化プロセスを繰り返して実行することを含み、
前記第1の最適化ステップ中に、前記ドメイン変換ニューラル・ネットワークのパラメータの値を固定された状態に保ちながら前記鑑別器ニューラル・ネットワークのパラメータの現在値およびタスク・ニューラル・ネットワークのパラメータの現在値を更新し、
前記タスク・ニューラル・ネットワークは、前記入力画像を受け取り、前記入力画像を特徴づけるタスク出力を生成するために前記入力画像を処理するように構成され、
前記第2の最適化ステップ中に、前記鑑別器ニューラル・ネットワークのパラメータの値およびタスク・ニューラル・ネットワークのパラメータの値を固定された状態に保ちながら前記ドメイン変換ニューラル・ネットワークのパラメータの現在値を更新する、
方法。 - 前記ネットワーク入力は、さらに雑音ベクトルを含み、
前記雑音ベクトルは、所定の個数の雑音値を含むベクトルである、請求項11に記載の方法。 - 各雑音値は、それぞれの一様分布からサンプリングされる、請求項12に記載の方法。
- 前記入力画像は、それぞれが特定の解像度を有する複数のチャネルを含み、
前記ドメイン変換ニューラル・ネットワークは、
前記雑音ベクトルを処理して前記特定の解像度を有する追加チャネルを生成し、
前記入力画像と前記追加チャネルを結合して結合入力を生成する
ように構成された結合サブニューラル・ネットワークと、
前記変換された画像を生成するために前記結合された入力を処理する
ように構成された畳み込みサブニューラル・ネットワークと
をさらに含む、請求項12に記載の方法。 - 前記変換された画像を生成するために前記結合された入力を処理することは、前記結合された入力または前記ネットワーク入力に複数の解像度を保存する畳み込みを適用することを含む、請求項14に記載の方法。
- 前記畳み込みサブニューラル・ネットワークは、それぞれがそれぞれの複数の解像度を保存する畳み込み層を含む複数の残差ブロックを含む、請求項15に記載の方法。
- 1つまたは複数のコンピュータによって実施されるときに、前記1つまたは複数のコンピュータに、請求項7〜9のいずれか1項に記載の方法の動作を実行させる命令を記憶する、1つまたは複数のコンピュータ記憶媒体。
- 1つまたは複数のコンピュータと、前記1つまたは複数のコンピュータによって実施されるときに、前記1つまたは複数のコンピュータに、請求項7〜9のいずれか1項に記載の方法の動作を実行させる命令を記憶する1つまたは複数のストレージ・デバイスとを含む、システム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/GR2016/000067 WO2018109505A1 (en) | 2016-12-15 | 2016-12-15 | Transforming source domain images into target domain images |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020502665A JP2020502665A (ja) | 2020-01-23 |
JP6957624B2 true JP6957624B2 (ja) | 2021-11-02 |
Family
ID=57796749
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019531682A Active JP6957624B2 (ja) | 2016-12-15 | 2016-12-15 | ターゲット・ドメイン画像へのソース・ドメイン画像の変換 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10991074B2 (ja) |
EP (1) | EP3555812B1 (ja) |
JP (1) | JP6957624B2 (ja) |
CN (1) | CN110226172B (ja) |
WO (1) | WO2018109505A1 (ja) |
Families Citing this family (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10268275B2 (en) | 2016-08-03 | 2019-04-23 | Ultrahaptics Ip Ltd | Three-dimensional perceptions in haptic systems |
US10529088B2 (en) | 2016-12-02 | 2020-01-07 | Gabriel Fine | Automatically determining orientation and position of medically invasive devices via image processing |
US11531395B2 (en) | 2017-11-26 | 2022-12-20 | Ultrahaptics Ip Ltd | Haptic effects from focused acoustic fields |
CN109754357B (zh) * | 2018-01-26 | 2021-09-21 | 京东方科技集团股份有限公司 | 图像处理方法、处理装置以及处理设备 |
US11651584B2 (en) * | 2018-10-16 | 2023-05-16 | General Electric Company | System and method for memory augmented domain adaptation |
US11494612B2 (en) | 2018-10-31 | 2022-11-08 | Sony Interactive Entertainment Inc. | Systems and methods for domain adaptation in neural networks using domain classifier |
US11640519B2 (en) | 2018-10-31 | 2023-05-02 | Sony Interactive Entertainment Inc. | Systems and methods for domain adaptation in neural networks using cross-domain batch normalization |
US11222210B2 (en) * | 2018-11-13 | 2022-01-11 | Nec Corporation | Attention and warping based domain adaptation for videos |
GB2581991B (en) * | 2019-03-06 | 2022-06-01 | Huawei Tech Co Ltd | Enhancement of three-dimensional facial scans |
US11120526B1 (en) * | 2019-04-05 | 2021-09-14 | Snap Inc. | Deep feature generative adversarial neural networks |
US10546216B1 (en) * | 2019-04-11 | 2020-01-28 | Seetree Systems Ltd. | Recurrent pattern image classification and registration |
US11842517B2 (en) * | 2019-04-12 | 2023-12-12 | Ultrahaptics Ip Ltd | Using iterative 3D-model fitting for domain adaptation of a hand-pose-estimation neural network |
EP3739521A1 (en) * | 2019-05-14 | 2020-11-18 | Robert Bosch GmbH | Training system for training a generator neural network |
CN110135508B (zh) * | 2019-05-21 | 2022-11-29 | 腾讯科技(深圳)有限公司 | 模型训练方法、装置、电子设备及计算机可读存储介质 |
JP7276449B2 (ja) * | 2019-06-18 | 2023-05-18 | 日本電信電話株式会社 | 一般化データ生成装置、推定装置、一般化データ生成方法、推定方法、一般化データ生成プログラム、及び推定プログラム |
CN110414845B (zh) * | 2019-07-31 | 2023-09-19 | 创新先进技术有限公司 | 针对目标交易的风险评估方法及装置 |
CN110399856B (zh) * | 2019-07-31 | 2021-09-14 | 上海商汤临港智能科技有限公司 | 特征提取网络训练方法、图像处理方法、装置及其设备 |
CN110570492B (zh) * | 2019-09-11 | 2021-09-03 | 清华大学 | 一种基于神经网络的ct伪影抑制方法、设备以及介质 |
US11195056B2 (en) | 2019-09-25 | 2021-12-07 | Fotonation Limited | System improvement for deep neural networks |
US11664820B2 (en) * | 2019-09-25 | 2023-05-30 | Nokia Technologies Oy | Domain adaptation |
KR102637341B1 (ko) * | 2019-10-15 | 2024-02-16 | 삼성전자주식회사 | 음성 생성 방법 및 장치 |
US11551084B2 (en) | 2019-12-20 | 2023-01-10 | Robert Bosch Gmbh | System and method of robust active learning method using noisy labels and domain adaptation |
CN111199256B (zh) * | 2020-01-02 | 2024-03-22 | 东软医疗系统股份有限公司 | 图像优化网络的训练方法、图像处理方法及装置 |
CA3163620A1 (en) | 2020-01-03 | 2021-07-08 | Razvan RANCA | Method of determining painting requirements for a damage vehicle |
CN111401454A (zh) * | 2020-03-19 | 2020-07-10 | 创新奇智(重庆)科技有限公司 | 一种基于迁移学习的少样本目标识别方法 |
WO2021236051A1 (en) * | 2020-05-18 | 2021-11-25 | Google Llc | Few-shot domain adaptation in generative adversarial networks |
KR20230022843A (ko) | 2020-06-15 | 2023-02-16 | 인텔 코포레이션 | 적응적 런타임 효율적 이미지 분류를 위한 입력 이미지 크기 전환 가능 네트워크 |
EP4200744A1 (en) | 2020-08-21 | 2023-06-28 | Ventana Medical Systems, Inc. | Correcting differences in multi-scanners for digital pathology images using deep learning |
CN112184846A (zh) * | 2020-09-16 | 2021-01-05 | 上海眼控科技股份有限公司 | 图像生成方法、装置、计算机设备和可读存储介质 |
WO2022058738A1 (en) | 2020-09-17 | 2022-03-24 | Ultraleap Limited | Ultrahapticons |
CN112232430A (zh) * | 2020-10-23 | 2021-01-15 | 浙江大华技术股份有限公司 | 神经网络模型测试方法、装置、存储介质及电子装置 |
CN112184851B (zh) * | 2020-10-26 | 2023-09-26 | 北京百度网讯科技有限公司 | 图像编辑方法、网络训练方法、相关装置及电子设备 |
JP2022085356A (ja) | 2020-11-27 | 2022-06-08 | 株式会社Jvcケンウッド | 機械学習装置、機械学習方法、および学習済みモデル |
CN112836795B (zh) * | 2021-01-27 | 2023-08-18 | 西安理工大学 | 一种多源非均衡域自适应方法 |
JP2022122326A (ja) | 2021-02-10 | 2022-08-23 | 株式会社Jvcケンウッド | 機械学習装置、機械学習方法、および機械学習プログラム |
CN113469082B (zh) * | 2021-07-08 | 2022-02-15 | 南京航空航天大学 | 一种基于迁移成分分析的卫星执行器故障检测方法 |
CN115705395A (zh) * | 2021-08-10 | 2023-02-17 | 中兴通讯股份有限公司 | 信号识别方法及装置、计算机可读存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100470255C (zh) * | 2006-04-21 | 2009-03-18 | 清华大学 | 基于多视子图像对的单通道合成孔径雷达动目标检测方法 |
US9460386B2 (en) * | 2015-02-05 | 2016-10-04 | International Business Machines Corporation | Passage justification scoring for question answering |
CN104850825B (zh) * | 2015-04-18 | 2018-04-27 | 中国计量学院 | 一种基于卷积神经网络的人脸图像颜值计算方法 |
US9916522B2 (en) * | 2016-03-11 | 2018-03-13 | Kabushiki Kaisha Toshiba | Training constrained deconvolutional networks for road scene semantic segmentation |
US10289951B2 (en) * | 2016-11-02 | 2019-05-14 | Adobe Inc. | Video deblurring using neural networks |
US10192321B2 (en) * | 2017-01-18 | 2019-01-29 | Adobe Inc. | Multi-style texture synthesis |
-
2016
- 2016-12-15 CN CN201680092033.0A patent/CN110226172B/zh active Active
- 2016-12-15 JP JP2019531682A patent/JP6957624B2/ja active Active
- 2016-12-15 EP EP16826149.3A patent/EP3555812B1/en active Active
- 2016-12-15 WO PCT/GR2016/000067 patent/WO2018109505A1/en active Search and Examination
-
2019
- 2019-06-14 US US16/442,365 patent/US10991074B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN110226172B (zh) | 2024-02-02 |
US20190304065A1 (en) | 2019-10-03 |
US10991074B2 (en) | 2021-04-27 |
JP2020502665A (ja) | 2020-01-23 |
EP3555812B1 (en) | 2022-07-06 |
WO2018109505A1 (en) | 2018-06-21 |
CN110226172A (zh) | 2019-09-10 |
EP3555812A1 (en) | 2019-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6957624B2 (ja) | ターゲット・ドメイン画像へのソース・ドメイン画像の変換 | |
JP6771645B2 (ja) | ドメイン分離ニューラルネットワーク | |
US11200696B2 (en) | Method and apparatus for training 6D pose estimation network based on deep learning iterative matching | |
US10289909B2 (en) | Conditional adaptation network for image classification | |
US10740897B2 (en) | Method and device for three-dimensional feature-embedded image object component-level semantic segmentation | |
CN110799992B (zh) | 使用模拟和域适配以用于机器人控制 | |
US20200160178A1 (en) | Learning to generate synthetic datasets for traning neural networks | |
CN111386536A (zh) | 语义一致的图像样式转换 | |
JP7087006B2 (ja) | 画像埋め込みを使用するロボティックエージェントのためのポリシーコントローラの最適化 | |
CN111727441A (zh) | 实现用于高效学习的条件神经过程的神经网络系统 | |
US11951622B2 (en) | Domain adaptation using simulation to simulation transfer | |
JP2024521645A (ja) | 時空間上のアテンションを使用したビデオシーケンスからの物体表現の教師なし学習 | |
Xiao | Camera ISP optimization for computer vision tasks performed by deep neural networks | |
Kaur et al. | Image Segmentation with Artificial Neural Networs Alongwith Updated Jseg Algorithm | |
Yamaguchi et al. | Generative model based frame generation of volcanic flow video | |
CN117173509A (zh) | 训练方法、检测方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190802 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190802 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20200214 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201013 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210819 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210906 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211006 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6957624 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |