JP2022505762A - 画像セマンティックセグメンテーションネットワークのトレーニング方法、装置、機器及びコンピュータプログラム - Google Patents
画像セマンティックセグメンテーションネットワークのトレーニング方法、装置、機器及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2022505762A JP2022505762A JP2021522420A JP2021522420A JP2022505762A JP 2022505762 A JP2022505762 A JP 2022505762A JP 2021522420 A JP2021522420 A JP 2021522420A JP 2021522420 A JP2021522420 A JP 2021522420A JP 2022505762 A JP2022505762 A JP 2022505762A
- Authority
- JP
- Japan
- Prior art keywords
- image
- network
- semantic segmentation
- training
- mask
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 339
- 238000012549 training Methods 0.000 title claims abstract description 260
- 238000000034 method Methods 0.000 title claims abstract description 119
- 238000004590 computer program Methods 0.000 title claims description 9
- 238000012360 testing method Methods 0.000 claims abstract description 137
- 238000009826 distribution Methods 0.000 claims abstract description 69
- 230000008569 process Effects 0.000 claims abstract description 26
- 238000003709 image segmentation Methods 0.000 claims description 26
- 238000012545 processing Methods 0.000 claims description 22
- 230000006870 function Effects 0.000 claims description 18
- 238000001514 detection method Methods 0.000 claims description 6
- 230000036544 posture Effects 0.000 claims description 6
- 239000003086 colorant Substances 0.000 claims description 2
- 238000012216 screening Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 11
- 230000000873 masking effect Effects 0.000 description 9
- 230000000694 effects Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 206010020400 Hostility Diseases 0.000 description 1
- 125000000205 L-threonino group Chemical group [H]OC(=O)[C@@]([H])(N([H])[*])[C@](C([H])([H])[H])([H])O[H] 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
Description
トレーニング画像セットに従って、第1画像セマンティックセグメンテーションネットワークをトレーニングするステップであって、前記トレーニング画像セット内のトレーニング画像は、注釈情報を含む、ステップと、
マスクネットワークを介して、前記第1画像セマンティックセグメンテーションネットワークのネットワーク重みに対してマスク処理を実行して、第2画像セマンティックセグメンテーションネットワークを取得するステップであって、前記マスクネットワークは、前記第1画像セマンティックセグメンテーションネットワークの画像の特徴分布に敏感ではないネットワーク重みをスクリーニングするために使用される、ステップと、
前記トレーニング画像セット及び前記テスト画像セットに従って、前記第2画像セマンティックセグメンテーションネットワークをトレーニングするステップであって、前記テスト画像セット内のテスト画像は、前記注釈情報を含まなく、且つ前記トレーニング画像セットと前記テスト画像セットの分布は異なる、ステップと、を含む。
テスト画像セット内のテスト画像を取得するステップと、
前記テスト画像を前記ターゲット画像セマンティックセグメンテーションネットワークに入力し、前記ターゲット画像セマンティックセグメンテーションネットワークによって出力されたターゲット画像セマンティックセグメンテーション結果を取得するステップであって、前記ターゲット画像セマンティックセグメンテーション結果は、前記テスト画像の各ピクセルが属する対象に対応するカテゴリを含む、ステップと、
前記ターゲット画像セマンティックセグメンテーション結果に従って、前記テスト画像に対応するセグメンテーション画像を表示するステップと、を含み、前記セグメンテーション画像には異なるカテゴリの対象が注釈されている。
トレーニング画像セットに従って、第1画像セマンティックセグメンテーションネットワークをトレーニングするように構成される第1トレーニングモジュールであって、前記トレーニング画像セット内のトレーニング画像は、注釈情報を含む、第1トレーニングモジュールと、
マスクネットワークを介して、前記第1画像セマンティックセグメンテーションネットワークのネットワーク重みに対してマスク処理を実行して、第2画像セマンティックセグメンテーションネットワークを取得するように構成されるマスクモジュールであって、前記マスクネットワークは、前記第1画像セマンティックセグメンテーションネットワークの画像の特徴分布に敏感ではないネットワーク重みをスクリーニングするために使用される、マスクモジュールと、
前記トレーニング画像セット及び前記テスト画像セットに従って、前記第2画像セマンティックセグメンテーションネットワークをトレーニングするように構成される、第2トレーニングモジュールと、を備え、前記テスト画像セット内のテスト画像は、前記注釈情報を含まなく、且つ前記トレーニング画像セットと前記テスト画像セットの分布は異なる。
32 第1画像セマンティックセグメンテーションネットワーク
34 注釈情報
35 マスクネットワーク
36 第2画像セマンティックセグメンテーションネットワーク
37 テスト画像
51 配列
52 実数マスク
53 閾値関数
54 二値化マスク
55 配列
56 配列
57 摂動配列
71 弁別器
110 端末
120 サーバ
121 トレーニング画像セット
122 テスト画像セット
123 画像セマンティックセグメンテーションネットワーク
1010 第1トレーニングモジュール
1020 マスクモジュール
1030 第2トレーニングモジュール
1100 コンピュータ機器
1101 中央処理ユニット
1102 ランダムアクセスメモリ(RAM)
1103 専用メモリ(ROM)
1104 システムメモリ
1105 システムバス
1106 出力システム
1107 大容量記憶機器
1108 ディスプレイスクリーン
1109 入力機器
1110 入力出力コントローラ
1111 ネットワークインターフェースユニット
1112 ネットワーク
1113 操作システム
1114 アプリケーション
1115 プログラムモジュール
1208 ディスプレイスクリーン
Claims (15)
- コンピュータ機器が実行する、画像セマンティックセグメンテーションネットワークのトレーニング方法であって、
トレーニング画像セットに従って、第1画像セマンティックセグメンテーションネットワークをトレーニングするステップであって、前記トレーニング画像セット内のトレーニング画像は、注釈情報を含む、ステップと、
マスクネットワークを介して、前記第1画像セマンティックセグメンテーションネットワークのネットワーク重みに対してマスク処理を実行して、第2画像セマンティックセグメンテーションネットワークを取得するステップであって、前記マスクネットワークは、前記第1画像セマンティックセグメンテーションネットワークにおける画像の特徴分布に敏感ではないネットワーク重みをスクリーニングするために使用される、ステップと、
前記トレーニング画像セット及びテスト画像セットに従って、前記第2画像セマンティックセグメンテーションネットワークをトレーニングするステップであって、前記テスト画像セット内のテスト画像は、注釈情報を含まなく、且つ前記トレーニング画像セットと前記テスト画像セットの分布は異なる、ステップと、
を含むことを特徴とする、画像セマンティックセグメンテーションネットワークのトレーニング方法。 - 前記マスクネットワークと前記第1画像セマンティックセグメンテーションネットワークとのネットワーク構造が同じであり、且つ、前記マスクネットワークと前記第1画像セマンティックセグメンテーションネットワークとのネットワーク重みの数は同じであり、
マスクネットワークを介して、前記第1画像セマンティックセグメンテーションネットワークのネットワーク重みに対してマスク処理を実行して、第2画像セマンティックセグメンテーションネットワークを取得する前記ステップは、
前記第1画像セマンティックセグメンテーションネットワークに対応する第1重み配列を取得するステップであって、前記第1重み配列は、前記第1画像セマンティックセグメンテーションネットワークにおける各畳み込みカーネルに対応するネットワーク重みを含む、ステップと、
前記マスクネットワークに対応する実数マスクを介して前記第1重み配列に対してマスク処理を実行して、第2重み配列を取得するステップであって、前記実数マスクは、前記マスクネットワークにおける各畳み込みカーネルに対応するネットワーク重みを含む、ステップと、
前記第2重み配列に従って、前記第2画像セマンティックセグメンテーションネットワークを生成するステップと、
を含むことを特徴とする、請求項1に記載の画像セマンティックセグメンテーションネットワークのトレーニング方法。 - 前記マスクネットワークに対応する実数マスクを介して前記第1重み配列に対してマスク処理を実行して、第2重み配列を取得する前記ステップは、
閾値関数を介して前記実数マスクに対して二値化処理を実行して、二値化マスクを生成するステップであって、前記二値化マスクは、0及び1によって構成される配列であり、且つ、前記二値化マスクのサイズは、前記第1重み配列のサイズと同じである、ステップと、
前記第1重み配列を前記二値化マスクとポイントツーポイントで乗算して、前記第2重み配列を取得するステップと、
を含むことを特徴とする、請求項2に記載の画像セマンティックセグメンテーションネットワークのトレーニング方法。 - 前記画像セマンティックセグメンテーションネットワークのトレーニング方法は、
前記第1重み配列を前記二値化マスクとポイントツーポイントで乗算して、中間重み配列を取得するステップと
前記中間重み配列及び摂動配列に従って前記第2重み配列を生成するステップと、をさらに含み、前記摂動配列は、前記中間重み配列内のネットワーク重みに摂動を増加するために使用される
ことを特徴とする、請求項3に記載の画像セマンティックセグメンテーションネットワークのトレーニング方法。 - 前記第2重み配列に従って、前記第2画像セマンティックセグメンテーションネットワークを生成する前記ステップは、
前記第2重み配列に従って、前記第1画像セマンティックセグメンテーションネットワークにおける各畳み込みカーネルに対してネットワーク重みの更新を実行するステップと、
ネットワーク重みの更新後の前記第1画像セマンティックセグメンテーションネットワークを前記第2画像セマンティックセグメンテーションネットワークとして決定するステップと、
を含むことを特徴とする、請求項2ないし4のいずれか一項に記載の画像セマンティックセグメンテーションネットワークのトレーニング方法。 - 前記トレーニング画像セット及び前記テスト画像セットに従って、前記第2画像セマンティックセグメンテーションネットワークをトレーニングする前記ステップは、
前記トレーニング画像セットに従って前記第2画像セマンティックセグメンテーションネットワークのセグメンテーション損失を計算するステップと、
前記トレーニング画像セット及び前記テスト画像セットに従って、弁別器の弁別器損失を計算するステップであって、前記弁別器は、画像特徴に従って、画像が属する画像セットを決定するために使用される、ステップと、
前記セグメンテーション損失及び前記弁別器損失に従って、前記第2画像セマンティックセグメンテーションネットワーク及び前記弁別器に対して敵対的トレーニングを実行するステップと、
を含むことを特徴とする、請求項1ないし4のいずれか一項に記載の画像セマンティックセグメンテーションネットワークのトレーニング方法。 - 前記トレーニング画像セット及び前記テスト画像セットに従って、弁別器の弁別器損失を計算する前記ステップは、
ターゲット画像を前記第2画像セマンティックセグメンテーションネットワークに入力して、ターゲット画像特徴を取得するステップであって、前記ターゲット画像は、前記トレーニング画像セットに属し、または前記テスト画像セットに属する、ステップと、
前記ターゲット画像特徴を前記弁別器に入力して、弁別結果を取得するステップと、
前記ターゲット画像が属する画像セット及び前記弁別結果に従って、前記弁別器損失を計算するステップと、
を含むことを特徴とする、請求項6に記載の画像セマンティックセグメンテーションネットワークのトレーニング方法。 - 前記方法が補助運転の分野に使用される場合、前記トレーニング画像セットと前記テスト画像セットの分布が異なることは、属する都市が異なること、属する季節が異なること、属する期間が異なることのうちの少なくとも1つを含み、
または、
前記方法が顔識別の分野に使用される場合、前記トレーニング画像セットと前記テスト画像セットの分布が異なることは、人種が異なること、肌の色が異なること、スタイルが異なることのうちの少なくとも1つを含み、
または、
前記方法が体検出の分野に使用される場合、前記トレーニング画像セットと前記テスト画像セットの分布が異なることは、収集環境が異なること、人種が異なること、姿勢が異なることのうちの少なくとも1つを含む
ことを特徴とする、請求項1ないし4のいずれか一項に記載の画像セマンティックセグメンテーションネットワークのトレーニング方法。 - ターゲット画像セマンティックセグメンテーションネットワークが構成されているコンピュータ機器に使用される、画像セマンティックセグメンテーション方法であって、前記ターゲット画像セマンティックセグメンテーションネットワークは、請求項1ないし8のいずれか一項に記載の画像セマンティックセグメンテーションネットワークのトレーニング方法を使用してトレーニングして取得されるものであり、
テスト画像セット内のテスト画像を取得するステップと、
前記テスト画像を前記ターゲット画像セマンティックセグメンテーションネットワークに入力し、前記ターゲット画像セマンティックセグメンテーションネットワークによって出力されたターゲット画像セマンティックセグメンテーション結果を取得するステップであって、前記ターゲット画像セマンティックセグメンテーション結果は、前記テスト画像の各ピクセルが属する対象に対応するカテゴリを含む、ステップと、
前記ターゲット画像セマンティックセグメンテーション結果に従って、前記テスト画像に対応するセグメンテーション画像を表示するステップと、を含み、前記セグメンテーション画像には異なるカテゴリの対象が注釈されている
ことを特徴とする、画像セマンティックセグメンテーション方法。 - 画像セマンティックセグメンテーションネットワークのトレーニング装置であって、
トレーニング画像セットに従って、第1画像セマンティックセグメンテーションネットワークをトレーニングするように構成される第1トレーニングモジュールであって、前記トレーニング画像セット内のトレーニング画像は、注釈情報を含む、第1トレーニングモジュールと、
マスクネットワークを介して、前記第1画像セマンティックセグメンテーションネットワークのネットワーク重みに対してマスク処理を実行して、第2画像セマンティックセグメンテーションネットワークを取得するように構成されるマスクモジュールであって、前記マスクネットワークは、前記第1画像セマンティックセグメンテーションネットワークにおける画像の特徴分布に敏感ではないネットワーク重みをスクリーニングするために使用される、マスクモジュールと、
前記トレーニング画像セット及びテスト画像セットに従って、前記第2画像セマンティックセグメンテーションネットワークをトレーニングするように構成される、第2トレーニングモジュールと、を備え、前記テスト画像セット内のテスト画像は、前記注釈情報を含まなく、且つ前記トレーニング画像セットと前記テスト画像セットの分布は異なる
ことを特徴とする、画像セマンティックセグメンテーションネットワークのトレーニング装置。 - 前記マスクネットワークと前記第1画像セマンティックセグメンテーションネットワークとのネットワーク構造が同じであり、且つ、前記マスクネットワークと前記第1画像セマンティックセグメンテーションネットワークとのネットワーク重みの数は同じであり、
前記マスクモジュールは、
前記第1画像セマンティックセグメンテーションネットワークに対応する第1重み配列を取得するように構成される取得ユニットであって、前記第1重み配列は、前記第1画像セマンティックセグメンテーションネットワークにおける各畳み込みカーネルに対応するネットワーク重みを含む、取得ユニットと、
前記マスクネットワークに対応する実数マスクを介して、前記第1重み配列に対してマスク処理を実行して、第2重み配列を取得するように構成されるマスクユニットであって、前記実数マスクは、前記マスクネットワークにおける各畳み込みカーネルに対応するネットワーク重みを含む、マスクユニットと、
前記第2重み配列に従って、前記第2画像セマンティックセグメンテーションネットワークを生成するように構成される、生成ユニットと、
を備えることを特徴とする、請求項10に記載の画像セマンティックセグメンテーションネットワークのトレーニング装置。 - 前記マスクユニットは、
閾値関数を介して前記実数マスクに対して二値化処理を実行して、二値化マスクを生成し、
前記第1重み配列を前記二値化マスクとポイントツーポイントで乗算して、前記第2重み配列を取得するように構成され、
前記二値化マスクは、0及び1によって構成される配列であり、且つ、前記二値化マスクのサイズは、前記第1重み配列のサイズと同じである
ことを特徴とする、請求項11に記載の画像セマンティックセグメンテーションネットワークのトレーニング装置。 - 前記マスクユニットは、さらに、
前記第1重み配列を前記二値化マスクとポイントツーポイントで乗算して、中間重み配列を取得し、
前記中間重み配列及び摂動配列に従って前記第2重み配列を生成するように構成され、前記摂動配列は、前記中間重み配列内のネットワーク重みに摂動を増加するために使用される
ことを特徴とする、請求項12に記載の画像セマンティックセグメンテーションネットワークのトレーニング装置。 - メモリとプロセッサとを備える、コンピュータ機器であって、前記メモリにはコンピュータ可読命令が記憶され、前記コンピュータ可読命令は、前記プロセッサによって実行されるとき、前記プロセッサに請求項1ないし9のいずれか一項に記載の画像セマンティックセグメンテーションネットワークのトレーニング方法のステップを実行させる、コンピュータ機器。
- コンピュータプログラムであって、
コンピュータに、請求項1ないし9のいずれか一項に記載の画像セマンティックセグメンテーションネットワークのトレーニング方法を実行させるように構成される、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910231466.5A CN109978893B (zh) | 2019-03-26 | 2019-03-26 | 图像语义分割网络的训练方法、装置、设备及存储介质 |
CN201910231466.5 | 2019-03-26 | ||
PCT/CN2020/079470 WO2020192469A1 (zh) | 2019-03-26 | 2020-03-16 | 图像语义分割网络的训练方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022505762A true JP2022505762A (ja) | 2022-01-14 |
JP7375006B2 JP7375006B2 (ja) | 2023-11-07 |
Family
ID=67080548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021522420A Active JP7375006B2 (ja) | 2019-03-26 | 2020-03-16 | 画像セマンティックセグメンテーションネットワークのトレーニング方法、装置、機器及びコンピュータプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210241107A1 (ja) |
EP (1) | EP3951713A4 (ja) |
JP (1) | JP7375006B2 (ja) |
KR (1) | KR102635987B1 (ja) |
CN (1) | CN109978893B (ja) |
WO (1) | WO2020192469A1 (ja) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10853704B2 (en) * | 2018-12-18 | 2020-12-01 | Clarifai, Inc. | Model-based image labeling and/or segmentation |
CN109978893B (zh) * | 2019-03-26 | 2023-06-20 | 腾讯科技(深圳)有限公司 | 图像语义分割网络的训练方法、装置、设备及存储介质 |
CN110378438A (zh) * | 2019-08-07 | 2019-10-25 | 清华大学 | 标签容错下的图像分割模型的训练方法、装置及相关设备 |
CN112419328B (zh) * | 2019-08-22 | 2023-08-04 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN110599491B (zh) * | 2019-09-04 | 2024-04-12 | 腾讯医疗健康(深圳)有限公司 | 基于先验信息的眼部图像分割方法、装置、设备及介质 |
CN110647993A (zh) * | 2019-09-23 | 2020-01-03 | 南方科技大学 | 一种红外传感器掩膜制造方法、装置、系统及存储介质 |
CN112634190A (zh) * | 2019-09-24 | 2021-04-09 | 上海汽车集团股份有限公司 | 一种涂胶检测方法及装置 |
CN110868598B (zh) * | 2019-10-17 | 2021-06-22 | 上海交通大学 | 基于对抗生成网络的视频内容替换方法及系统 |
CN111260679B (zh) * | 2020-01-07 | 2022-02-01 | 广州虎牙科技有限公司 | 图像处理方法、图像分割模型训练方法及相关装置 |
US11450008B1 (en) * | 2020-02-27 | 2022-09-20 | Amazon Technologies, Inc. | Segmentation using attention-weighted loss and discriminative feature learning |
CN111507989A (zh) * | 2020-04-15 | 2020-08-07 | 上海眼控科技股份有限公司 | 语义分割模型的训练生成方法、车辆外观检测方法、装置 |
CN111626301B (zh) * | 2020-05-07 | 2023-09-26 | 京东科技信息技术有限公司 | 一种图像筛选方法、装置、电子设备及存储介质 |
CN111666945A (zh) * | 2020-05-11 | 2020-09-15 | 深圳力维智联技术有限公司 | 一种基于语义分割的店面违规识别方法及装置、存储介质 |
CN111833239B (zh) * | 2020-06-01 | 2023-08-01 | 北京百度网讯科技有限公司 | 图像的翻译方法和装置、图像翻译模型的训练方法和装置 |
CN112101463A (zh) * | 2020-09-17 | 2020-12-18 | 成都数之联科技有限公司 | 图像语义分割网络训练方法、分割方法、分割装置和介质 |
CN112330640A (zh) * | 2020-11-09 | 2021-02-05 | 平安科技(深圳)有限公司 | 医学图像中结节区域的分割方法、装置及设备 |
CN112465840B (zh) * | 2020-12-10 | 2023-02-17 | 重庆紫光华山智安科技有限公司 | 语义分割模型训练方法、语义分割方法及相关装置 |
KR102580914B1 (ko) * | 2020-12-15 | 2023-09-20 | 세종대학교산학협력단 | 딥러닝 기반 이미지 복구 기술을 이용한 패션 이미지 검색 방법 및 장치 |
CN112734775B (zh) * | 2021-01-19 | 2023-07-07 | 腾讯科技(深圳)有限公司 | 图像标注、图像语义分割、模型训练方法及装置 |
US11763135B2 (en) * | 2021-03-01 | 2023-09-19 | Robert Bosch Gmbh | Concept-based adversarial generation method with steerable and diverse semantics |
CN113052868B (zh) * | 2021-03-11 | 2023-07-04 | 奥比中光科技集团股份有限公司 | 一种抠图模型训练、图像抠图的方法及装置 |
CN113762262B (zh) * | 2021-05-19 | 2024-05-31 | 腾讯科技(深圳)有限公司 | 图像数据筛选、图像分割模型训练方法、装置和存储介质 |
CN113421191A (zh) * | 2021-06-28 | 2021-09-21 | Oppo广东移动通信有限公司 | 图像处理方法、装置、设备及存储介质 |
CN113723231A (zh) * | 2021-08-17 | 2021-11-30 | 南京邮电大学 | 低光照语义分割模型训练方法、语义分割方法及装置 |
CN114596552B (zh) * | 2022-03-09 | 2023-06-23 | 阿波罗智能技术(北京)有限公司 | 信息处理方法、训练方法、装置、设备、车辆及介质 |
CN114693967B (zh) * | 2022-03-20 | 2023-10-31 | 电子科技大学 | 基于二分类张量增强的多分类语义分割方法 |
CN114693934B (zh) * | 2022-04-13 | 2023-09-01 | 北京百度网讯科技有限公司 | 语义分割模型的训练方法、视频语义分割方法及装置 |
CN114677567B (zh) * | 2022-05-27 | 2022-10-14 | 成都数联云算科技有限公司 | 模型训练方法、装置、存储介质及电子设备 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10819919B2 (en) * | 2017-06-05 | 2020-10-27 | Adasky, Ltd. | Shutterless far infrared (FIR) camera for automotive safety and driving systems |
US10699386B2 (en) * | 2017-06-05 | 2020-06-30 | Adasky, Ltd. | Techniques for scene-based nonuniformity correction in shutterless FIR cameras |
WO2018232592A1 (en) * | 2017-06-20 | 2018-12-27 | Microsoft Technology Licensing, Llc. | SEMANTIC SEGMENTATION TAKING INTO ACCOUNT AN EVENT WITH COMPLETE CONVOLUTION |
CN108875732B (zh) * | 2018-01-11 | 2022-07-12 | 北京旷视科技有限公司 | 模型训练与实例分割方法、装置和系统及存储介质 |
CN108256527A (zh) * | 2018-01-23 | 2018-07-06 | 深圳市唯特视科技有限公司 | 一种基于端到端全卷积网络的皮肤病变多类语义分割方法 |
CN108537292B (zh) * | 2018-04-10 | 2020-07-31 | 上海白泽网络科技有限公司 | 语义分割网络训练方法、图像语义分割方法及装置 |
CN108830277B (zh) * | 2018-04-20 | 2020-04-21 | 平安科技(深圳)有限公司 | 语义分割模型的训练方法、装置、计算机设备和存储介质 |
CN109190684B (zh) * | 2018-08-15 | 2022-03-04 | 西安电子科技大学 | 基于素描及结构生成对抗网络的sar图像样本生成方法 |
US11556746B1 (en) * | 2018-10-26 | 2023-01-17 | Amazon Technologies, Inc. | Fast annotation of samples for machine learning model development |
CN109978893B (zh) * | 2019-03-26 | 2023-06-20 | 腾讯科技(深圳)有限公司 | 图像语义分割网络的训练方法、装置、设备及存储介质 |
-
2019
- 2019-03-26 CN CN201910231466.5A patent/CN109978893B/zh active Active
-
2020
- 2020-03-16 JP JP2021522420A patent/JP7375006B2/ja active Active
- 2020-03-16 KR KR1020217014500A patent/KR102635987B1/ko active IP Right Grant
- 2020-03-16 WO PCT/CN2020/079470 patent/WO2020192469A1/zh unknown
- 2020-03-16 EP EP20778318.4A patent/EP3951713A4/en active Pending
-
2021
- 2021-04-20 US US17/235,046 patent/US20210241107A1/en active Pending
Non-Patent Citations (4)
Title |
---|
ARUN MALLYA,外2名: ""Piggyback: Adapting a Single Network to Multiple Tasks by Learning to Mask Weights"", [ONLINE], JPN6022020059, 16 March 2018 (2018-03-16), ISSN: 0004919245 * |
PIERLUIGI ZAMA RAMIREZ,外2名: ""Exploiting Semantics in Adversarial Training for Image-Level Domain Adaptation"", [ONLINE], JPN6022020058, 13 October 2018 (2018-10-13), ISSN: 0004919246 * |
WENZHU YANG,外5名: ""Thinning of convolutional neural network with mixed pruning"", IET IMAGE PROCESSING, vol. Volume 13,Issure 5, JPN7022005273, 20 March 2019 (2019-03-20), pages 779 - 784, ISSN: 0004919247 * |
松本 晨人,外1名: ""画像変換ネットワークによる連続学習"", 第11回データ工学と情報マネジメントに関するフォーラム (第17回日本データベース学会年次大会) [, JPN6022020057, 6 March 2019 (2019-03-06), ISSN: 0004919248 * |
Also Published As
Publication number | Publication date |
---|---|
EP3951713A4 (en) | 2022-05-18 |
US20210241107A1 (en) | 2021-08-05 |
JP7375006B2 (ja) | 2023-11-07 |
KR102635987B1 (ko) | 2024-02-08 |
EP3951713A1 (en) | 2022-02-09 |
CN109978893A (zh) | 2019-07-05 |
CN109978893B (zh) | 2023-06-20 |
KR20210073569A (ko) | 2021-06-18 |
WO2020192469A1 (zh) | 2020-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7375006B2 (ja) | 画像セマンティックセグメンテーションネットワークのトレーニング方法、装置、機器及びコンピュータプログラム | |
Chen et al. | A deep learning algorithm for simulating autonomous driving considering prior knowledge and temporal information | |
Ramanishka et al. | Toward driving scene understanding: A dataset for learning driver behavior and causal reasoning | |
Singh et al. | Image classification: a survey | |
US20180114071A1 (en) | Method for analysing media content | |
CN112419368A (zh) | 运动目标的轨迹跟踪方法、装置、设备及存储介质 | |
CN110827236B (zh) | 基于神经网络的脑组织分层方法、装置、计算机设备 | |
CN111274926B (zh) | 图像数据筛选方法、装置、计算机设备和存储介质 | |
CN110889421A (zh) | 目标物检测方法及装置 | |
CN111667001A (zh) | 目标重识别方法、装置、计算机设备和存储介质 | |
CN112801236B (zh) | 图像识别模型的迁移方法、装置、设备及存储介质 | |
CN107203775A (zh) | 一种图像分类的方法、装置和设备 | |
CN111368634B (zh) | 基于神经网络的人头检测方法、系统及存储介质 | |
CN114820644A (zh) | 对图像的像素进行分类的方法和设备 | |
CN116964588A (zh) | 一种目标检测方法、目标检测模型训练方法及装置 | |
CN116311214A (zh) | 车牌识别方法和装置 | |
Chen et al. | STRAN: Student expression recognition based on spatio-temporal residual attention network in classroom teaching videos | |
CN111523351A (zh) | 神经网络的训练方法、装置和电子设备 | |
JP7355299B2 (ja) | 学習用データセット生成システム、学習サーバ、及び学習用データセット生成プログラム | |
CN117037244A (zh) | 人脸安全检测方法、装置、计算机设备和存储介质 | |
CN116823884A (zh) | 多目标跟踪方法、系统、计算机设备及存储介质 | |
CN112529116B (zh) | 场景元素融合处理方法、装置和设备及计算机存储介质 | |
KR102348368B1 (ko) | 머신러닝 모델의 학습 데이터 생성과 머신러닝 모델을 이용한 유사 이미지 생성을 위한 장치, 방법, 시스템 및 컴퓨터 판독가능 저장 매체 | |
CN114596435A (zh) | 语义分割标签的生成方法、装置、设备及存储介质 | |
Patel et al. | Single-object detection from video streaming |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210423 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220516 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220523 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230508 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230725 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231010 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231025 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7375006 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |