JP2020502665A - ターゲット・ドメイン画像へのソース・ドメイン画像の変換 - Google Patents
ターゲット・ドメイン画像へのソース・ドメイン画像の変換 Download PDFInfo
- Publication number
- JP2020502665A JP2020502665A JP2019531682A JP2019531682A JP2020502665A JP 2020502665 A JP2020502665 A JP 2020502665A JP 2019531682 A JP2019531682 A JP 2019531682A JP 2019531682 A JP2019531682 A JP 2019531682A JP 2020502665 A JP2020502665 A JP 2020502665A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- domain
- image
- transformed
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 claims abstract description 243
- 238000000034 method Methods 0.000 claims abstract description 71
- 230000008569 process Effects 0.000 claims abstract description 46
- 238000012545 processing Methods 0.000 claims abstract description 39
- 230000009466 transformation Effects 0.000 claims abstract description 23
- 238000012549 training Methods 0.000 claims description 55
- 239000013598 vector Substances 0.000 claims description 47
- 238000005457 optimization Methods 0.000 claims description 18
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 9
- 238000009827 uniform distribution Methods 0.000 claims description 6
- 238000004088 simulation Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 abstract description 13
- 238000010586 diagram Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 15
- 230000009471 action Effects 0.000 description 7
- 239000003795 chemical substances by application Substances 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 238000010606 normalization Methods 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000026676 system process Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4084—Scaling of whole images or parts thereof, e.g. expanding or contracting in the transform domain, e.g. fast Fourier transform [FFT] domain scaling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7753—Incorporation of unlabelled data, e.g. multiple instance learning [MIL]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
αLd(D,G)+βLt(G,T)
を満足し、ここで、αおよびβは、損失の相互作用を制御する固定された重みであり、Ld(D,G)は、鑑別器ニューラル・ネットワークがターゲット・ドメイン画像および変換された画像のドメインをどれほど正確に識別できるのかを測定するドメイン損失であり、Lt(G,T)は、タスク・ニューラル・ネットワークが実行するように構成される分類タスクに対するタスク・ニューラル・ネットワークの性能を測定するタスク固有損失である。
を満足し、ここで、Eyは、変数yに関する期待値であり、D(xt;θD)は、鑑別器ニューラル・ネットワーク・パラメータの現在値θDに従ってターゲット・ドメイン画像xtに関して生成されるターゲット・ドメイン・スコアであり、G(xs,z;θG)は、鑑別器ニューラル・ネットワーク・パラメータの現在値θGに従ってソース・ドメイン画像xsおよび雑音ベクトルzから生成される変換された画像であり、D(G(xs,z;θG);θD)は、変換された画像に関して生成されるターゲット・ドメイン・スコアである。
を満足し、ここで、
は、ソース・ドメイン画像xsに関するタスク出力の転置であり、T(xs;θT)は、タスク・ニューラル・ネットワーク・パラメータの現在値θTに従ってソース・ドメイン画像xsに関して生成されるタスク出力であり、T(G(xs,z;θG);θT)は、ソース・ドメイン画像xsから生成される変換された画像に関して生成されるタスク出力である。
Claims (23)
- 1つまたは複数のコンピュータによって実施されるドメイン変換ニューラル・ネットワークであって、前記ドメイン変換ニューラル・ネットワークは、
ソース・ドメインから入力画像を受け取り、
雑音ベクトルを受け取り、
前記ソース・ドメインから前記ソース・ドメインとは異なるターゲット・ドメインへの前記入力画像の変換である変換された画像を生成するために、前記ソース・ドメインからの前記入力画像および前記雑音ベクトルを含むネットワーク入力を処理する
ように構成される、ドメイン変換ニューラル・ネットワーク
を含むシステム。 - 前記雑音ベクトルは、所定の個数の雑音値を含むベクトルである、請求項1に記載のシステム。
- 各雑音値は、それぞれの一様分布からサンプリングされる、請求項2に記載のシステム。
- 前記入力画像は、それぞれが特定の解像度を有する複数のチャネルを含み、前記ドメイン変換ニューラル・ネットワークは、
前記特定の解像度を有する追加チャネルを生成するために前記雑音ベクトルを処理し、
結合された入力を生成するために前記入力画像および前記追加チャネルを連結する
ように構成された結合するサブニューラル・ネットワーク
を含む、請求項1〜3のいずれか1項に記載のシステム。 - 前記ドメイン変換ニューラル・ネットワークは、
前記変換された画像を生成するために前記結合された入力を処理する
ように構成された畳み込みサブニューラル・ネットワーク
をさらに含む、請求項4に記載のシステム。 - 前記変換された画像を生成するために前記結合された入力を処理することは、前記結合された入力または前記ネットワーク入力に複数の解像度を保存する畳み込みを適用することを含む、請求項5に記載のシステム。
- 前記畳み込みサブニューラル・ネットワークは、それぞれがそれぞれの複数の解像度を保存する畳み込み層を含む複数の残差ブロックを含む、請求項6に記載のシステム。
- 前記ターゲット・ドメインは、実世界環境の画像であり、前記ソース・ドメインは、前記実世界環境のシミュレーションの画像である、請求項1〜7のいずれか1項に記載のシステム。
- 1つまたは複数のコンピュータによって実施されるドメイン変換ニューラル・ネットワークであって、前記ドメイン変換ニューラル・ネットワークは、
ソース・ドメインから入力画像を受け取り、前記ソース・ドメインは、実世界環境のシミュレーションの画像であり、
前記ソース・ドメインからターゲット・ドメインへの前記入力画像の変換である変換された画像を生成するために、前記ソース・ドメインからの前記入力画像を含むネットワーク入力を処理し、前記ターゲット・ドメインは、前記実世界環境の画像である
ように構成される、ドメイン変換ニューラル・ネットワーク
を含むシステム。 - 前記ドメイン変換ニューラル・ネットワークは、
雑音ベクトルを受け取る
ようにさらに構成され、
前記ネットワーク入力は、前記雑音ベクトルをさらに含む
請求項9に記載のシステム。 - 前記雑音ベクトルは、所定の個数の雑音値を含むベクトルである、請求項10に記載のシステム。
- 各雑音値は、それぞれの一様分布からサンプリングされる、請求項11に記載のシステム。
- 前記入力画像は、それぞれが特定の解像度を有する複数のチャネルを含み、前記ドメイン変換ニューラル・ネットワークは、
前記特定の解像度を有する追加チャネルを生成するために前記雑音ベクトルを処理し、
結合された入力を生成するために前記入力画像および前記追加チャネルを連結する
ように構成された結合するサブニューラル・ネットワーク
を含む、請求項10〜12のいずれか1項に記載のシステム。 - 前記ドメイン変換ニューラル・ネットワークは、
前記変換された画像を生成するために前記ネットワーク入力または前記結合された入力のいずれかを処理する
ように構成された畳み込みサブニューラル・ネットワーク
をさらに含む、請求項9〜13のいずれか1項に記載のシステム。 - 前記変換された画像を生成するために前記ネットワーク入力または前記結合された入力を処理することは、前記結合された入力または前記ネットワーク入力に複数の解像度を保存する畳み込みを適用することを含む、請求項14に記載のシステム。
- 前記畳み込みサブニューラル・ネットワークは、それぞれがそれぞれの複数の解像度を保存する畳み込み層を含む複数の残差ブロックを含む、請求項15に記載のシステム。
- 請求項1〜16のいずれか1項に記載の前記ドメイン変換ニューラル・ネットワークをトレーニングする方法であって、前記方法は、
ラベル付けされたトレーニング・ソース・ドメイン画像を受け取ることと、
ラベル付けされていないトレーニング・ターゲット・ドメイン画像を受け取ることと、
ターゲット・ドメイン画像と前記ドメイン変換ニューラル・ネットワークによって生成された変換された画像との間で区別するために鑑別器ニューラル・ネットワークをトレーニングしている間に、変換された画像を生成するために、前記ラベル付けされたトレーニング・ソース・ドメイン画像および前記ラベル付けされていないトレーニング・ターゲット・ドメイン画像に対して、前記ドメイン変換ニューラル・ネットワークをトレーニングすることと
を含む、方法。 - 前記トレーニングすることは、
第1の最適化ステップの実行と第2の最適化ステップの実行との間で交番することによって2ステップ最適化プロセスを繰り返して実行することであって、
前記第1の最適化ステップ中に、前記ドメイン変換ニューラル・ネットワークのパラメータの値を固定された状態に保ちながら前記鑑別器ニューラル・ネットワークのパラメータの現在値およびタスク・ニューラル・ネットワークのパラメータの現在値を更新することであって、前記タスク・ニューラル・ネットワークは、入力画像を受け取り、前記入力画像の特性を表すタスク出力を生成するために前記入力画像を処理するように構成される、更新することと、
前記第2の最適化ステップ中に、前記鑑別器ニューラル・ネットワークの前記パラメータの値および前記タスク・ニューラル・ネットワークの前記パラメータの値を固定された状態に保ちながら前記ドメイン変換ニューラル・ネットワークの前記パラメータの現在値を更新することと
を含む、繰り返して実行すること
を含む、請求項17に記載の方法。 - 前記ドメイン変換ニューラル・ネットワークのパラメータの値を固定された状態に保ちながら前記鑑別器ニューラル・ネットワークのパラメータの現在値およびタスク・ニューラル・ネットワークのパラメータの現在値を更新することは、
前記鑑別器ニューラル・ネットワークの前記パラメータに関する損失関数のドメイン損失項を最大にするためにニューラル・ネットワーク・トレーニング技法を実行することによって前記鑑別器ニューラル・ネットワークの前記パラメータの前記現在値の更新を判定することであって、前記ドメイン損失項は、(i)前記ターゲット・ドメインからではないものとしてターゲット・ドメイン画像を不正に識別することおよび前記ターゲット・ドメインからであるものとして変換された画像を識別することに関して前記鑑別器ニューラル・ネットワークにペナルティを与えると同時に、(ii)前記鑑別器ニューラル・ネットワークによって前記ターゲット・ドメインからではないものとして識別される変換された画像を生成することに関して前記ドメイン変換ニューラル・ネットワークにペナルティを与える、判定することと、
前記タスク・ニューラル・ネットワークの前記パラメータに関する前記損失関数のタスク固有損失項を最小にするために前記ニューラル・ネットワーク・トレーニング技法を実行することによって前記タスク・ニューラル・ネットワークの前記パラメータの前記現在値の更新を判定することであって、前記タスク固有損失項は、(i)対応するソース・ドメイン画像に関する既知のタスク出力とは異なって変換された画像の特性を表すことに関して前記タスク・ニューラル・ネットワークにペナルティを与えると同時に、(ii)前記対応するソース・ドメイン画像に関する前記既知のタスク出力から前記タスク・ニューラル・ネットワークによって異なって特性を表される変換された画像を生成することに関して前記ドメイン変換ニューラル・ネットワークにペナルティを与える、判定することと
を含む、請求項17に記載の方法。 - 前記鑑別器ニューラル・ネットワークの前記パラメータの値および前記タスク・ニューラル・ネットワークの前記パラメータの値を固定された状態に保ちながら前記ドメイン変換ニューラル・ネットワークの前記パラメータの現在値を更新することは、
前記ドメイン変換ニューラル・ネットワークの前記パラメータに関する前記損失関数を最小にするために前記ニューラル・ネットワーク・トレーニング技法を実行することによって前記ドメイン変換ニューラル・ネットワークの前記パラメータの前記現在値の更新を判定すること
を含む、請求項19に記載の方法。 - 1つまたは複数のコンピュータによって実施される時に、前記1つまたは複数のコンピュータに、請求項1から16のいずれか1項に記載の前記ドメイン変換ニューラル・ネットワークを実施させる命令を記憶する1つまたは複数のコンピュータ記憶媒体。
- 1つまたは複数のコンピュータによって実施される時に、前記1つまたは複数のコンピュータに、請求項17から20のいずれか1項に記載の前記それぞれの方法の動作を実行させる命令を記憶する1つまたは複数のコンピュータ記憶媒体。
- 1つまたは複数のコンピュータと、前記1つまたは複数のコンピュータによって実施される時に、前記1つまたは複数のコンピュータに、請求項17から20のいずれか1項に記載の前記それぞれの方法の動作を実行させる命令を記憶する1つまたは複数のストレージ・デバイスとを含むシステム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/GR2016/000067 WO2018109505A1 (en) | 2016-12-15 | 2016-12-15 | Transforming source domain images into target domain images |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020502665A true JP2020502665A (ja) | 2020-01-23 |
JP6957624B2 JP6957624B2 (ja) | 2021-11-02 |
Family
ID=57796749
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019531682A Active JP6957624B2 (ja) | 2016-12-15 | 2016-12-15 | ターゲット・ドメイン画像へのソース・ドメイン画像の変換 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10991074B2 (ja) |
EP (1) | EP3555812B1 (ja) |
JP (1) | JP6957624B2 (ja) |
CN (1) | CN110226172B (ja) |
WO (1) | WO2018109505A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022113534A1 (ja) | 2020-11-27 | 2022-06-02 | 株式会社Jvcケンウッド | 機械学習装置、機械学習方法、および学習済みモデル |
WO2022172569A1 (ja) | 2021-02-10 | 2022-08-18 | 株式会社Jvcケンウッド | 機械学習装置、機械学習方法、および機械学習プログラム |
JP7505116B2 (ja) | 2020-08-21 | 2024-06-24 | ベンタナ メディカル システムズ, インコーポレイテッド | デジタル病理画像についてのマルチスキャナにおける相違の深層学習を使用した補正 |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10268275B2 (en) | 2016-08-03 | 2019-04-23 | Ultrahaptics Ip Ltd | Three-dimensional perceptions in haptic systems |
US10529088B2 (en) | 2016-12-02 | 2020-01-07 | Gabriel Fine | Automatically determining orientation and position of medically invasive devices via image processing |
US11531395B2 (en) | 2017-11-26 | 2022-12-20 | Ultrahaptics Ip Ltd | Haptic effects from focused acoustic fields |
CN109754357B (zh) * | 2018-01-26 | 2021-09-21 | 京东方科技集团股份有限公司 | 图像处理方法、处理装置以及处理设备 |
US11651584B2 (en) * | 2018-10-16 | 2023-05-16 | General Electric Company | System and method for memory augmented domain adaptation |
US11640519B2 (en) | 2018-10-31 | 2023-05-02 | Sony Interactive Entertainment Inc. | Systems and methods for domain adaptation in neural networks using cross-domain batch normalization |
US11494612B2 (en) * | 2018-10-31 | 2022-11-08 | Sony Interactive Entertainment Inc. | Systems and methods for domain adaptation in neural networks using domain classifier |
US11222210B2 (en) * | 2018-11-13 | 2022-01-11 | Nec Corporation | Attention and warping based domain adaptation for videos |
GB2581991B (en) * | 2019-03-06 | 2022-06-01 | Huawei Tech Co Ltd | Enhancement of three-dimensional facial scans |
US11120526B1 (en) * | 2019-04-05 | 2021-09-14 | Snap Inc. | Deep feature generative adversarial neural networks |
US10546216B1 (en) * | 2019-04-11 | 2020-01-28 | Seetree Systems Ltd. | Recurrent pattern image classification and registration |
US11842517B2 (en) * | 2019-04-12 | 2023-12-12 | Ultrahaptics Ip Ltd | Using iterative 3D-model fitting for domain adaptation of a hand-pose-estimation neural network |
EP3739521A1 (en) * | 2019-05-14 | 2020-11-18 | Robert Bosch GmbH | Training system for training a generator neural network |
CN110135508B (zh) * | 2019-05-21 | 2022-11-29 | 腾讯科技(深圳)有限公司 | 模型训练方法、装置、电子设备及计算机可读存储介质 |
WO2020255260A1 (ja) * | 2019-06-18 | 2020-12-24 | 日本電信電話株式会社 | 一般化データ生成装置、推定装置、一般化データ生成方法、推定方法、一般化データ生成プログラム、及び推定プログラム |
CN110399856B (zh) * | 2019-07-31 | 2021-09-14 | 上海商汤临港智能科技有限公司 | 特征提取网络训练方法、图像处理方法、装置及其设备 |
CN110414845B (zh) * | 2019-07-31 | 2023-09-19 | 创新先进技术有限公司 | 针对目标交易的风险评估方法及装置 |
CN110570492B (zh) * | 2019-09-11 | 2021-09-03 | 清华大学 | 一种基于神经网络的ct伪影抑制方法、设备以及介质 |
US11195056B2 (en) * | 2019-09-25 | 2021-12-07 | Fotonation Limited | System improvement for deep neural networks |
US11664820B2 (en) * | 2019-09-25 | 2023-05-30 | Nokia Technologies Oy | Domain adaptation |
KR102637341B1 (ko) * | 2019-10-15 | 2024-02-16 | 삼성전자주식회사 | 음성 생성 방법 및 장치 |
US11551084B2 (en) | 2019-12-20 | 2023-01-10 | Robert Bosch Gmbh | System and method of robust active learning method using noisy labels and domain adaptation |
CN111199256B (zh) * | 2020-01-02 | 2024-03-22 | 东软医疗系统股份有限公司 | 图像优化网络的训练方法、图像处理方法及装置 |
WO2021136937A1 (en) | 2020-01-03 | 2021-07-08 | Tractable Ltd | Method of determining damage to parts of a vehicle |
CN111401454A (zh) * | 2020-03-19 | 2020-07-10 | 创新奇智(重庆)科技有限公司 | 一种基于迁移学习的少样本目标识别方法 |
CN113538439A (zh) * | 2020-04-22 | 2021-10-22 | 中国农业机械化科学研究院 | 基于小样本域迁移学习图像分割方法及秸秆图像分割模型 |
US20230214663A1 (en) * | 2020-05-18 | 2023-07-06 | Google Llc | Few-Shot Domain Adaptation in Generative Adversarial Networks |
KR20230022843A (ko) | 2020-06-15 | 2023-02-16 | 인텔 코포레이션 | 적응적 런타임 효율적 이미지 분류를 위한 입력 이미지 크기 전환 가능 네트워크 |
US11886639B2 (en) | 2020-09-17 | 2024-01-30 | Ultraleap Limited | Ultrahapticons |
CN112232430B (zh) * | 2020-10-23 | 2024-09-06 | 浙江大华技术股份有限公司 | 神经网络模型测试方法、装置、存储介质及电子装置 |
CN112184851B (zh) * | 2020-10-26 | 2023-09-26 | 北京百度网讯科技有限公司 | 图像编辑方法、网络训练方法、相关装置及电子设备 |
CN112836795B (zh) * | 2021-01-27 | 2023-08-18 | 西安理工大学 | 一种多源非均衡域自适应方法 |
CN113469082B (zh) * | 2021-07-08 | 2022-02-15 | 南京航空航天大学 | 一种基于迁移成分分析的卫星执行器故障检测方法 |
CN115705395A (zh) * | 2021-08-10 | 2023-02-17 | 中兴通讯股份有限公司 | 信号识别方法及装置、计算机可读存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100470255C (zh) * | 2006-04-21 | 2009-03-18 | 清华大学 | 基于多视子图像对的单通道合成孔径雷达动目标检测方法 |
US9460386B2 (en) * | 2015-02-05 | 2016-10-04 | International Business Machines Corporation | Passage justification scoring for question answering |
CN104850825B (zh) * | 2015-04-18 | 2018-04-27 | 中国计量学院 | 一种基于卷积神经网络的人脸图像颜值计算方法 |
US9916522B2 (en) * | 2016-03-11 | 2018-03-13 | Kabushiki Kaisha Toshiba | Training constrained deconvolutional networks for road scene semantic segmentation |
US10289951B2 (en) * | 2016-11-02 | 2019-05-14 | Adobe Inc. | Video deblurring using neural networks |
US10192321B2 (en) * | 2017-01-18 | 2019-01-29 | Adobe Inc. | Multi-style texture synthesis |
-
2016
- 2016-12-15 EP EP16826149.3A patent/EP3555812B1/en active Active
- 2016-12-15 WO PCT/GR2016/000067 patent/WO2018109505A1/en active Search and Examination
- 2016-12-15 CN CN201680092033.0A patent/CN110226172B/zh active Active
- 2016-12-15 JP JP2019531682A patent/JP6957624B2/ja active Active
-
2019
- 2019-06-14 US US16/442,365 patent/US10991074B2/en active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7505116B2 (ja) | 2020-08-21 | 2024-06-24 | ベンタナ メディカル システムズ, インコーポレイテッド | デジタル病理画像についてのマルチスキャナにおける相違の深層学習を使用した補正 |
WO2022113534A1 (ja) | 2020-11-27 | 2022-06-02 | 株式会社Jvcケンウッド | 機械学習装置、機械学習方法、および学習済みモデル |
WO2022172569A1 (ja) | 2021-02-10 | 2022-08-18 | 株式会社Jvcケンウッド | 機械学習装置、機械学習方法、および機械学習プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6957624B2 (ja) | 2021-11-02 |
WO2018109505A1 (en) | 2018-06-21 |
EP3555812A1 (en) | 2019-10-23 |
US10991074B2 (en) | 2021-04-27 |
CN110226172B (zh) | 2024-02-02 |
EP3555812B1 (en) | 2022-07-06 |
US20190304065A1 (en) | 2019-10-03 |
CN110226172A (zh) | 2019-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020502665A (ja) | ターゲット・ドメイン画像へのソース・ドメイン画像の変換 | |
US11200696B2 (en) | Method and apparatus for training 6D pose estimation network based on deep learning iterative matching | |
CN109643383B (zh) | 域分离神经网络 | |
Yu et al. | Underwater-GAN: Underwater image restoration via conditional generative adversarial network | |
US11341364B2 (en) | Using simulation and domain adaptation for robotic control | |
JP7087006B2 (ja) | 画像埋め込みを使用するロボティックエージェントのためのポリシーコントローラの最適化 | |
CN113039563A (zh) | 学习生成用于训练神经网络的合成数据集 | |
CN110062934A (zh) | 使用神经网络确定图像中的结构和运动 | |
CN111386536A (zh) | 语义一致的图像样式转换 | |
US20210192271A1 (en) | Method and Apparatus for Pose Planar Constraining on the Basis of Planar Feature Extraction | |
US20200234468A1 (en) | Learning visual concepts using neural networks | |
CN112489164B (zh) | 基于改进深度可分离卷积神经网络的图像着色方法 | |
CN118202391A (zh) | 从单二维视图进行对象类的神经辐射场生成式建模 | |
CN117576248B (zh) | 基于姿态引导的图像生成方法和装置 | |
US20240296596A1 (en) | Personalized text-to-image diffusion model | |
Kaur et al. | Image Segmentation with Artificial Neural Networs Alongwith Updated Jseg Algorithm | |
Yamaguchi et al. | Generative model based frame generation of volcanic flow video | |
CN117173509A (zh) | 训练方法、检测方法、装置、电子设备及存储介质 | |
CN116629363A (zh) | 一种基于深度网络的模型抽象推理泛化能力评价方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190802 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190802 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20200214 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201013 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210819 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210906 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211006 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6957624 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |