JP7448693B2 - 複数のドメインデータセットを用いた機械学習の予測の生成 - Google Patents
複数のドメインデータセットを用いた機械学習の予測の生成 Download PDFInfo
- Publication number
- JP7448693B2 JP7448693B2 JP2022580471A JP2022580471A JP7448693B2 JP 7448693 B2 JP7448693 B2 JP 7448693B2 JP 2022580471 A JP2022580471 A JP 2022580471A JP 2022580471 A JP2022580471 A JP 2022580471A JP 7448693 B2 JP7448693 B2 JP 7448693B2
- Authority
- JP
- Japan
- Prior art keywords
- training
- matrix
- input
- domain index
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010801 machine learning Methods 0.000 title claims description 105
- 238000012549 training Methods 0.000 claims description 376
- 239000011159 matrix material Substances 0.000 claims description 300
- 238000009826 distribution Methods 0.000 claims description 181
- 238000000034 method Methods 0.000 claims description 47
- 230000006870 function Effects 0.000 claims description 31
- 238000001514 detection method Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 15
- 230000011218 segmentation Effects 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 7
- 239000000203 mixture Substances 0.000 description 7
- 238000013500 data storage Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 230000005670 electromagnetic radiation Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
- G06V10/7784—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
- G06V10/7788—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/771—Feature selection, e.g. selecting representative features from a multi-dimensional feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Image Analysis (AREA)
Description
機械学習モデルは、訓練入力と対応するグラウンドトゥルース(ground-truth)出力との複数のペアを含む対応する訓練データセット(すなわち、訓練データ分布)を使用して、タスクを実行するように訓練されてよい。場合によっては、複数の異なる訓練データセットが、所与のタスクに関して利用可能である場合があり、訓練データセットの属性が、互いに異なる場合がある。たとえば、第1の訓練データセットが、タスクに関連する1つまたは複数の第1の条件に関する正確なグラウンドトゥルースデータを含む場合がある一方、第2の訓練データセットは、1つまたは複数の第1の条件に関しては不正確であるが、1つまたは複数の第2の条件に関しては正確であるグラウンドトゥルースデータを含む場合がある。訓練データセット間のこの違いは、あり得る要因の中でもとりわけ、訓練データの生成に使用されるセンサーの特性、センサーデータの処理および/もしくは訓練データの生成に使用されるアルゴリズムの特性、訓練データの手動アノテータ間の差異、ならびに/または訓練データによって表される異なる条件の発生の頻度を含む、正確なグラウンドトゥルースデータの取得に関連する様々な実際的制約の結果である可能性がある。
図1は、例示的なコンピューティングデバイス100を示す。コンピューティングデバイス100は、モバイル電話のフォームファクタで示される。しかし、コンピューティングデバイス100は、代替的に、とりわけ、ラップトップコンピュータ、タブレットコンピュータ、および/またはウェアラブルコンピューティングデバイスとして実装される場合がある。コンピューティングデバイス100は、本体102、ディスプレイ106、ならびにボタン108および110などの様々な要素を含んでよい。コンピューティングデバイス100は、前面カメラ104および背面カメラ112などの1つまたは複数のカメラをさらに含んでよい。
図3は、複数の訓練データ分布を示し、それらの訓練データ分布の各々は、特定のタスクを実行するように機械学習モデルを訓練するために使用されてよい。特に、図3は、訓練データ分布300、訓練データ分布320、および訓練データ分布340を含み、これらは、まとめて訓練データ分布300~340と呼ばれる場合がある。各訓練データ分布は、対応する複数の訓練サンプルを含んでよい。特に、訓練データ分布300は、訓練サンプル302を含んでよく、訓練データ分布320は、訓練サンプル322を含んでよく、訓練データ分布340は、訓練サンプル342を含んでよい。訓練サンプル302、322、および342のそれぞれの訓練サンプルは、対応する訓練入力および対応するグラウンドトゥルース出力を含んでよい。
図4は、複数の異なる訓練データ分布が出力を生成するために機械学習モデルによってどのようにして使用されるかの制御を可能にするように構成されてよいシステム400を示す。特に、システム400は、機械学習モデル404およびドメインインデックス行列ジェネレータ406を含んでよい。システム400は、入力行列402に基づいて出力行列410を生成するように構成されてよい。システム400は、ハードウェアとして、ソフトウェアとして、またはそれらの組合せとして実装されてよい。たとえば、システム400は、コンピューティングデバイス100および/またはコンピューティングシステム200によって実装されてよい。
図6は、機械学習モデル404のための例示的な訓練システムおよびプロセスを示す。特に、訓練システム600は、機械学習モデル404、ドメイン検出モデル606、予測損失関数616、ドメイン損失関数(domain loss function)612、およびモデルパラメータアジャスタ630を含んでよい。訓練システム600は、訓練サンプル620に基づいて、ドメイン検出モデル606および/または機械学習モデル404のための更新されたモデルパラメータ632を生成するように構成されてよい。訓練システム600は、ハードウェアとして、ソフトウェアとして、またはそれらの組合せとして実装されてよい。たとえば、訓練システム600は、コンピューティングデバイス100および/またはコンピューティングシステム200によって実装されてよい。
図7A、図7B、図7C、図7D、および図7Eは、モノスコピック/単眼画像に基づいて深度画像を生成するタスクへの機械学習モデル404の応用の態様を表す。特に、図7Aは、草および葉を含むシーンの画像700を含む。領域702は、比較的高周波数のテクスチャを含み、一方、領域704は、比較的低周波数のテクスチャを含む。領域702および704内の周波数成分の違いが原因で、異なる訓練データ分布は、これらの領域に関する深さ予測の異なるレベルの精度をもたらす場合がある。
図8は、機械学習モデルによって、出力データが基づく訓練データ分布を決定的に選択しながら出力データを生成することに関連する動作の流れ図を示す。動作は、とりわけ、コンピューティングデバイス100、コンピューティングシステム200、システム400、および/または訓練システム600によって実行されてよい。図8の実施形態は、そこに示された特徴のうちの任意の1つまたは複数を削除することによって簡略化される場合がある。さらに、これらの実施形態は、前の図のいずれかのまたは本明細書に別途記載された特徴、態様、および/または実装形態と組み合わされてよい。
本開示は、様々な態様の例示として意図されている、本出願に記載の特定の実施形態によって限定されるべきでない。当業者に明らかであろうように、多くの修正および変更が、本開示の範囲を逸脱することなくなされ得る。本明細書に記載の方法および装置に加えて、本開示の範囲内の機能的に均等な方法および装置は、上述の説明から当業者に明らかであろう。そのような修正および変更は、添付の請求項の範囲内に入るように意図される。
102 本体
104 前面カメラ
106 ディスプレイ
108、110 ボタン
112 背面カメラ
200 コンピューティングシステム
202 通信インターフェース
204 ユーザインターフェース
206 プロセッサ
208 データストレージ
210 接続メカニズム
212 データ
214 アプリケーションデータ
216 オペレーティングシステムデータ
218 プログラム命令
220 アプリケーションプログラム
222 オペレーティングシステム
224 カメラコンポーネント
300 訓練データ分布
302 訓練サンプル
304 属性
306 グラウンドトゥルースデータの精度
308 周波数成分
310 統計的特性
312 特徴クラス
314 データソース
320 訓練データ分布
322 訓練サンプル
324 属性
326 グラウンドトゥルースデータの精度
328 周波数成分
330 統計的特性
332 特徴クラス
334 データソース
340 訓練データ分布
342 訓練サンプル
344 属性
346 グラウンドトゥルースデータの精度
348 周波数成分
350 統計的特性
352 特徴クラス
354 データソース
400 システム
402 入力行列
404 機械学習モデル
406 ドメインインデックス行列ジェネレータ
408 ドメインインデックス行列
410 出力行列
502 入力行列
508 ドメインインデックス行列
510 出力行列
520、522、524、526 行列要素
530 行列要素
532 ドメインインデックス値
540、542、544、546 行列要素
600 訓練システム
606 ドメイン検出モデル
608 訓練ドメインインデックス行列
610 訓練出力行列
612 ドメイン損失関数
614 ドメイン損失値
616 予測損失関数
618 予測損失値
620 訓練サンプル
622 訓練入力行列
624 グラウンドトゥルース出力行列
626 グラウンドトゥルースドメインインデックス行列
630 モデルパラメータアジャスタ
632 更新されたモデルパラメータ
700 画像
710 深度画像
720 深度画像
730 深度画像
740 深度画像
Claims (18)
- 入力データを表す入力行列を取得するステップと、
前記入力行列のそれぞれの入力値に関して、前記それぞれの入力値に対応する出力値を生成する際に使用される対応する訓練データ分布を示す対応するドメインインデックス値を含むドメインインデックス行列を決定するステップであって、前記対応する訓練データ分布が、複数の訓練データ分布のうちの1つである、ステップと、
前記複数の訓練データ分布を使用して出力行列を生成するように訓練された機械学習モデルに、前記入力行列および前記ドメインインデックス行列を提供するステップであって、前記複数の訓練データ分布のそれぞれの訓練データ分布が、前記複数の訓練データ分布のその他の訓練データ分布の対応する属性と異なる属性に関連付けられる、ステップと、
前記機械学習モデルによって、前記入力行列および前記ドメインインデックス行列に基づいて、前記入力行列のそれぞれの入力値に関して、対応する出力値が前記対応する訓練データ分布の前記属性を示すように(i)前記それぞれの入力値および(ii)前記対応するドメインインデックス値に基づいて生成された前記対応する出力値を含む出力行列を生成するステップとを含むコンピュータによって実施される方法。 - それぞれの訓練データ分布の前記属性が、前記それぞれの訓練データ分布によって表される1つまたは複数の条件に関連するグラウンドトゥルースデータの精度を含み、前記グラウンドトゥルースデータの前記精度が、前記1つまたは複数の条件の関数として前記複数の訓練データ分布にわたって変化する請求項1に記載のコンピュータによって実施される方法。
- 前記それぞれの訓練データ分布によって表される前記1つまたは複数の条件が、(i)前記グラウンドトゥルースデータの周波数成分、(ii)前記グラウンドトゥルースデータに対応する訓練入力の周波数成分、(iii)前記グラウンドトゥルースデータの統計的特性、または(iv)前記訓練入力の統計的特性のうちの1つまたは複数を含む請求項2に記載のコンピュータによって実施される方法。
- それぞれの訓練データ分布の前記属性が、前記それぞれの訓練データ分布によって表される前記入力データの特徴の1つまたは複数の分類を含み、前記1つまたは複数の分類が、前記入力データの特徴の複数の可能な分類のサブセットであり、前記複数の可能な分類が、前記複数の訓練データ分布によって表される請求項1から3のいずれか一項に記載のコンピュータによって実施される方法。
- 前記対応するドメインインデックス値が、複数のドメインインデックス値を含み、前記複数のドメインインデックス値のそれぞれのドメインインデックス値が、予め定義された範囲から選択され、前記それぞれの入力値に対応する前記出力値を生成する際に使用される対応する訓練データ分布の程度を示し、それぞれのドメインインデックス値の前記対応する訓練データ分布が、前記複数の訓練データ分布のうちの1つである請求項1から4のいずれか一項に記載のコンピュータによって実施される方法。
- 前記複数のドメインインデックス値の中のドメインインデックス値の数が、前記複数の訓練データ分布の中の訓練分布の数に等しい請求項5に記載のコンピュータによって実施される方法。
- 前記それぞれの入力値に対応する前記複数のドメインインデックス値の合計が、所定の値に等しく、それぞれのドメインインデックス値が、前記対応する訓練データ分布によって寄与される前記対応する出力値の全信号のうちの割合を示す請求項5に記載のコンピュータによって実施される方法。
- 前記機械学習モデルが、
訓練入力行列およびグラウンドトゥルース出力行列を含む訓練サンプルを取得することと、
前記訓練入力行列のそれぞれの訓練入力値に関して、(i)前記それぞれの訓練入力値に対応する訓練出力値を生成する際に使用され、(ii)前記訓練サンプルが属する対応する訓練データ分布を示す対応する訓練ドメインインデックス値を含む訓練ドメインインデックス行列を前記訓練サンプルに関して決定することと、
前記機械学習モデルに前記訓練入力行列および前記訓練ドメインインデックス行列を提供することと、
前記機械学習モデルによって、前記訓練入力行列および前記訓練ドメインインデックス行列に基づいて、前記訓練入力行列のそれぞれの訓練入力値に関して、(i)前記それぞれの訓練入力値および(ii)前記対応する訓練ドメインインデックス値に基づいて生成された対応する訓練出力値を含む訓練出力行列を生成することと、
前記訓練入力行列と前記訓練出力行列とを比較するように構成された予測損失関数を使用して予測損失値を決定することと、
前記予測損失値に基づいて前記機械学習モデルの1つまたは複数のパラメータを調整することとを含む訓練プロセスを使用して訓練された請求項1から7のいずれか一項に記載のコンピュータによって実施される方法。 - 前記訓練ドメインインデックス行列を決定することが、
前記訓練サンプルが属する前記対応する訓練データ分布を決定することと、
前記訓練入力行列のそれぞれの訓練入力値に関して、前記訓練サンプルが属する前記対応する訓練データ分布に関連する訓練ドメインインデックス値を割り振ることとを含む請求項8に記載のコンピュータによって実施される方法。 - 前記訓練サンプルが、前記訓練サンプルが属する前記それぞれの訓練データ分布を示すグラウンドトゥルースドメインインデックス行列をさらに含み、前記訓練プロセスが、
ドメイン検出モデルによって、前記それぞれの訓練サンプルの前記対応する訓練入力行列および前記対応するグラウンドトゥルース出力行列に基づいて、前記訓練ドメインインデックス行列を決定することと、
前記訓練ドメインインデックス行列と前記グラウンドトゥルースドメインインデックス行列とを比較するように構成されたドメイン損失関数を使用してドメイン損失値を決定することと、
前記ドメイン損失値に基づいて、(i)前記機械学習モデルまたは(ii)ドメイン検出機械学習モデルのうちの少なくとも一方の1つまたは複数のパラメータを調整することとをさらに含む請求項8に記載のコンピュータによって実施される方法。 - 前記入力行列が、入力画像を含み、前記出力行列が、(i)前記入力画像によって表される物体に関連するバウンディングボックス、(ii)前記入力画像によって表される前記物体のセグメンテーションマップ、(iii)前記入力画像によって表される前記物体に関連する1つもしくは複数の座標、または(iv)前記入力画像によって表される前記物体の姿勢の表現のうちの1つまたは複数を表す出力画像を含む請求項1から10のいずれか一項に記載のコンピュータによって実施される方法。
- 前記入力行列が、画像を含み、前記出力行列が、深度マップを含み、前記複数の訓練データ分布が、
複数のステレオスコピック画像に基づいて生成された第1の訓練データ分布と、
複数のマルチピクセル画像に基づいて生成された第2の訓練データ分布と、
別の機械学習モデルによる複数のモノスコピック画像の処理に基づいて生成された第3の訓練データ分布とを含む請求項1から11のいずれか一項に記載のコンピュータによって実施される方法。 - 前記ドメインインデックス行列を決定するステップが、
前記入力行列に基づいて、前記入力行列のそれぞれの入力値に関して、前記複数の訓練データ分布の特定の属性の対応する属性値を決定することと、
前記入力行列のそれぞれの入力値に関して、前記対応する属性値に基づいて前記対応するドメインインデックス値を決定することとを含む請求項1から12のいずれか一項に記載のコンピュータによって実施される方法。 - 前記ドメインインデックス行列を決定するステップが、
前記ドメインインデックス行列の定義を可能にするように構成されたユーザインターフェースを提供することと、
前記ユーザインターフェースを介して、前記ドメインインデックス行列の少なくとも一部の定義を受け取ることとを含む請求項1から13のいずれか一項に記載のコンピュータによって実施される方法。 - 前記ドメインインデックス行列と異なる第2のドメインインデックス行列を決定するステップと、
前記入力行列および前記第2のドメインインデックス行列を前記機械学習モデルに提供するステップと、
前記機械学習モデルによって、前記入力行列および前記第2のドメインインデックス行列に基づいて、前記出力行列と異なる第2の出力行列を生成するステップとをさらに含む請求項1から14のいずれか一項に記載のコンピュータによって実施される方法。 - 前記入力行列および前記出力行列が、それぞれ、第1の次元を有し、前記ドメインインデックス行列が、前記第1の次元よりも小さく、前記機械学習モデルの潜在空間に対応する第2の次元を有し、前記出力行列を生成するステップが、前記入力行列の潜在空間表現を生成することを含み、所与のドメインインデックス値が、(i)前記第1の次元で表される前記入力行列の複数の入力値と、(ii)前記第2の次元で、前記複数の入力値を前記入力行列の前記潜在空間表現の一部として表す単一の潜在空間値とに対応する請求項1から15のいずれか一項に記載のコンピュータによって実施される方法。
- プロセッサと、
前記プロセッサによって実行されるときに、前記プロセッサに請求項1から16のいずれか一項に記載の動作を実行させる命令を記憶させたコンピュータ可読記憶媒体とを含むシステム。 - コンピューティングデバイスによって実行されるときに、前記コンピューティングデバイスに請求項1から16のいずれか一項に記載の動作を実行させる命令を記憶させたコンピュータ可読記憶媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2021/043134 WO2023009101A1 (en) | 2021-07-26 | 2021-07-26 | Generation of machine learning predictions using multiple domain data sets |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023538799A JP2023538799A (ja) | 2023-09-12 |
JP7448693B2 true JP7448693B2 (ja) | 2024-03-12 |
Family
ID=77358389
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022580471A Active JP7448693B2 (ja) | 2021-07-26 | 2021-07-26 | 複数のドメインデータセットを用いた機械学習の予測の生成 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20240221371A1 (ja) |
EP (1) | EP4154182A1 (ja) |
JP (1) | JP7448693B2 (ja) |
KR (1) | KR20230018398A (ja) |
CN (1) | CN115885298A (ja) |
WO (1) | WO2023009101A1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010272109A (ja) | 2009-04-20 | 2010-12-02 | Fujifilm Corp | 画像処理装置、画像処理方法およびプログラム |
WO2020107022A1 (en) | 2018-11-23 | 2020-05-28 | Slingshot Aerospace, Inc. | Signal processing workflow engine incorporating graphical user interface for space situational awareness |
US20200251100A1 (en) | 2019-02-01 | 2020-08-06 | International Business Machines Corporation | Cross-domain multi-task learning for text classification |
JP2021082293A (ja) | 2019-11-21 | 2021-05-27 | エヌビディア コーポレーション | 自律マシン適用におけるradarセンサを使用する障害物インスタンスの検出のためのディープ・ニューラル・ネットワーク |
-
2021
- 2021-07-26 KR KR1020227043711A patent/KR20230018398A/ko unknown
- 2021-07-26 JP JP2022580471A patent/JP7448693B2/ja active Active
- 2021-07-26 US US17/998,329 patent/US20240221371A1/en active Pending
- 2021-07-26 EP EP21755649.7A patent/EP4154182A1/en active Pending
- 2021-07-26 CN CN202180045469.5A patent/CN115885298A/zh active Pending
- 2021-07-26 WO PCT/US2021/043134 patent/WO2023009101A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010272109A (ja) | 2009-04-20 | 2010-12-02 | Fujifilm Corp | 画像処理装置、画像処理方法およびプログラム |
WO2020107022A1 (en) | 2018-11-23 | 2020-05-28 | Slingshot Aerospace, Inc. | Signal processing workflow engine incorporating graphical user interface for space situational awareness |
US20200251100A1 (en) | 2019-02-01 | 2020-08-06 | International Business Machines Corporation | Cross-domain multi-task learning for text classification |
JP2021082293A (ja) | 2019-11-21 | 2021-05-27 | エヌビディア コーポレーション | 自律マシン適用におけるradarセンサを使用する障害物インスタンスの検出のためのディープ・ニューラル・ネットワーク |
Also Published As
Publication number | Publication date |
---|---|
US20240221371A1 (en) | 2024-07-04 |
CN115885298A (zh) | 2023-03-31 |
WO2023009101A1 (en) | 2023-02-02 |
KR20230018398A (ko) | 2023-02-07 |
EP4154182A1 (en) | 2023-03-29 |
JP2023538799A (ja) | 2023-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10205896B2 (en) | Automatic lens flare detection and correction for light-field images | |
CN109983508B (zh) | 快速傅立叶颜色恒常性 | |
US12033309B2 (en) | Learning-based lens flare removal | |
US20210383199A1 (en) | Object-Centric Learning with Slot Attention | |
Luo et al. | Bokeh rendering from defocus estimation | |
US12008738B2 (en) | Defocus blur removal and depth estimation using dual-pixel image data | |
US11790550B2 (en) | Learnable cost volume for determining pixel correspondence | |
WO2012040162A1 (en) | Color correction for digital images | |
CN116980579B (zh) | 一种基于图像虚化的图像立体成像方法及相关装置 | |
JP7448693B2 (ja) | 複数のドメインデータセットを用いた機械学習の予測の生成 | |
US20220383628A1 (en) | Conditional Object-Centric Learning with Slot Attention for Video and Other Sequential Data | |
CN113486924B (zh) | 带有槽位关注的以对象为中心的学习 | |
US20240249422A1 (en) | Single Image 3D Photography with Soft-Layering and Depth-aware Inpainting | |
CN116569191A (zh) | 对情境注意特征和卷积特征的门控 | |
WO2023233575A1 (ja) | 推定装置、学習装置、推定方法、学習方法及びプログラム | |
WO2023136822A1 (en) | Machine learning models for example-guided image inpainting | |
WO2024191418A1 (en) | Images with synthetic focus profiles generated from images from multiple perspectives | |
WO2024163522A1 (en) | Denoising diffusion models for image enhancement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230202 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240117 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240229 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7448693 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |