JP7045490B2 - 画像分割と分割ネットワークトレーニング方法および装置、機器、媒体、並びに製品 - Google Patents
画像分割と分割ネットワークトレーニング方法および装置、機器、媒体、並びに製品 Download PDFInfo
- Publication number
- JP7045490B2 JP7045490B2 JP2020569112A JP2020569112A JP7045490B2 JP 7045490 B2 JP7045490 B2 JP 7045490B2 JP 2020569112 A JP2020569112 A JP 2020569112A JP 2020569112 A JP2020569112 A JP 2020569112A JP 7045490 B2 JP7045490 B2 JP 7045490B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature information
- processing
- land
- sample image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/182—Network patterns, e.g. roads or rivers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本発明は、出願日が2018年6月15日であり、出願番号が201810623306.0であり、発明名称が「画像の目標対象分割とトレーニング方法および装置、機器、媒体、並びに製品」である中国特許出願の優先権を主張し、当該中国特許出願の全ての内容が参照として本願に組み入れられる。
図面を参照し、以下の詳細な叙述に基づいて、本発明をより明瞭に理解できる。
少なくとも1つの土地サンプル画像の予測分割結果および少なくとも1つの道路サンプル画像の予測分割結果に基づいて、土地分割ニューラルネットワークのパラメータを調整するステップは、土地サンプル画像に対応する予測分割結果および土地サンプル画像に対応するラベル情報に基づいて第1損失を得るステップと、道路サンプル画像に対応する予測分割結果および道路画像に対応するラベル情報に基づいて第2損失を得るステップと、第1損失および第2損失に基づいて土地分割ニューラルネットワークのパラメータを調整するステップと、を含む。
結果予測モジュール81は、具体的に、複数の処理ブロックを利用して少なくとも1つの土地サンプル画像および少なくとも1つの道路サンプル画像に対して特徴抽出処理を実行して、複数の処理ブロックの中の各処理ブロックによって出力されるサンプル画像特徴情報を得、融合ネットワークを利用して複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力されたサンプル画像特徴情報に対して少なくとも2段の融合処理を実行して、目標サンプル画像特徴情報を得、目標サンプル画像特徴情報に基づいて、分割ネットワークを利用して少なくとも1つの土地サンプル画像の予測分割結果および少なくとも1つの道路サンプル画像の予測分割結果を得る。
結果予測モジュール81は、さらに、前記目標サンプル画像特徴情報に基づいて、前記少なくとも1つの土地サンプル画像の予測分割結果および前記少なくとも1つの道路サンプル画像の予測分割結果を得る前に、前記スライス層を利用して前記目標サンプル画像特徴情報に含まれた前記土地サンプル画像特徴情報および前記道路サンプル画像特徴情報に対して分割を実行するステップと、前記土地サンプル画像特徴情報を前記分割ネットワークに入力して処理を実行して、土地サンプル画像の予測分割結果を得、前記道路サンプル画像特徴情報を前記分割ネットワークに入力して処理を実行して、前記道路サンプル画像の予測分割結果を得るステップと、をさらに含む。
Claims (20)
- 画像分割方法であって、
複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップと、
前記複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力された画像特徴情報に対して少なくとも2段の融合処理を実行して、目標画像特徴情報を得るステップと、
前記目標画像特徴情報に基づいて、前記画像の目標対象分割結果を確定するステップと、を含む
ことを特徴とする画像分割方法。 - 前記複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力された画像特徴情報に対して少なくとも2段の融合処理を実行して、目標画像特徴情報を得るステップは、
各ペアの前記隣接する処理ブロックによって出力された画像特徴情報に対して第1段の融合処理を実行して、第1融合特徴情報を得るステップと、
少なくとも1ペアの隣接する前記第1融合特徴情報に対して第2段の融合処理を実行して、少なくとも1つの第2融合特徴情報を得るステップと、
前記少なくとも1つの第2融合特徴情報に基づいて、前記目標画像特徴情報を確定するステップと、を含む
ことを特徴とする請求項1に記載の画像分割方法。 - 前記少なくとも1つの第2融合特徴情報に基づいて、前記目標画像特徴情報を確定するステップは、
後続融合処理によって得られた後続融合特徴情報の数が1つになるまでに、前記少なくとも1つの第2融合特徴情報に対して前記後続融合処理を実行するステップと、
前記数が1つである後続融合特徴情報を前記目標画像特徴情報とするステップと、を含み、
各ペアの前記隣接する処理ブロックによって出力された画像特徴情報に対して融合処理を実行する過程において、各ペアの前記隣接する処理ブロックによって出力された画像特徴情報を要素ごとに加える
ことを特徴とする請求項2に記載の画像分割方法。 - 前記複数の処理ブロック同士の間は、順次に接続されるか、および/または、各ペアの前記隣接する処理ブロックによって出力された画像特徴情報は、同一の大きさおよび同一のチャンネル数を有する
ことを特徴とする請求項1乃至3の何れか1項に記載の画像分割方法。 - 前記処理ブロックは、少なくとも1つの処理ユニットを含み、各々の前記処理ユニットは、少なくとも1つの特徴抽出層と特徴調整層とを含み、
前記複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップは、
前記処理ユニット中の前記少なくとも1つの特徴抽出層を利用して前記処理ユニットの入力情報に対して特徴抽出処理を実行して、第1特徴情報を得るステップと、
前記処理ユニット中の前記特徴調整層を利用して前記第1特徴情報に対して調整処理を実行して、前記処理ユニットによって出力された画像特徴情報を得るステップと、を含む
ことを特徴とする請求項1乃至4の何れか1項に記載の画像分割方法。 - 前記複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力された画像特徴情報に対して少なくとも2段の融合処理を実行して、目標画像特徴情報を得るステップの前に、
前記複数の処理ブロックの中の処理ブロックM1によって出力された画像特徴情報に対して特徴縮小処理を実行するステップと、
前記複数の処理ブロックの中の処理ブロックM2によって出力された画像特徴情報に対して特徴拡張処理を実行するステップと、をさらに含み、
前記処理ブロックM2の入力端と前記処理ブロックM1の出力端は、直接接続または間接接続され、
前記複数の処理ブロックを利用して前記画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップは、
前記複数の処理ブロックの中の処理ブロックN1を利用して前記処理ブロックN1の入力情報に対して特徴抽出処理を実行して、前記処理ブロックN1に対応する第1画像特徴情報を得るステップであって、前記処理ブロックN1の入力情報は、前記画像、および/または、前記処理ブロックN1の前に位置する少なくとも1つの処理ブロックによって出力された画像特徴情報を含み、N1は、1以上の整数であるステップと、
前記第1画像特徴情報を前記処理ブロックN1の次の1つの処理ブロックに入力して特徴抽出処理を実行して、前記次の1つの処理ブロックによって出力される第2画像特徴情報を得るステップと、を含む
ことを特徴とする請求項1乃至5の何れか1項に記載の画像分割方法。 - 前記第1画像特徴情報を前記処理ブロックN1の次の1つの処理ブロックに入力して特徴抽出処理を実行して、前記次の1つの処理ブロックによって出力される第2画像特徴情報を得るステップは、
前記画像および/または少なくとも1つの処理ブロックN2によって出力された画像特徴情報および前記第1画像特徴情報を、前記処理ブロックN1の次の1つの処理ブロックに入力して特徴抽出処理を実行して、前記次の1つの処理ブロックによって出力される第2画像特徴情報を得るステップであって、前記処理ブロックN1の入力端と前記処理ブロックN2の出力端は、直接接続または間接接続されるステップを含み、
前記画像および/または少なくとも1つの処理ブロックN2によって出力された画像特徴情報および前記第1画像特徴情報を、前記処理ブロックN1の次の1つの処理ブロックに入力して特徴抽出処理を実行するステップの前に、前記画像分割方法は、
前記少なくとも1つの処理ブロックN2によって出力された画像特徴情報に対して融合処理を実行し、融合処理して得られた画像特徴情報を前記処理ブロックN1の次の1つの処理ブロックに入力するステップをさらに含む
ことを特徴とする請求項6に記載の画像分割方法。 - 前記複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップの前に、
畳み込み層を利用して前記画像に対して特徴抽出処理を実行して、前記画像の初期特徴情報を得るステップをさらに含み、
前記複数の処理ブロックを利用して画像に対して特徴抽出処理を実行するステップは、
前記画像の初期特徴情報を前記複数の処理ブロックに入力して特徴抽出処理を実行するステップを含む
ことを特徴とする請求項1乃至7の何れか1項に記載の画像分割方法。 - 前記画像は、リモートセンシング画像であり、前記目標対象は、土地である
ことを特徴とする請求項1乃至8の何れか1項に記載の画像分割方法。 - 前記画像分割方法は、分割ニューラルネットワークを利用して実現され、前記画像は、土地サンプル画像であり、
前記画像分割方法は、
前記分割ニューラルネットワークを利用して道路サンプル画像に対して処理を実行して、前記道路サンプル画像の分割結果を得るステップと、
前記土地サンプル画像の目標対象予測結果および前記道路サンプル画像の分割結果に基づいて、前記分割ニューラルネットワークのパラメータを調整するステップと、をさらに含み、
前記目標画像特徴情報は、混合特徴情報に基づいて得られたものであり、前記混合特徴情報は、前記分割ニューラルネットワークにより前記土地サンプル画像および前記道路サンプル画像に対してバッチ処理を実行して得られたものであり、
前記土地サンプル画像の目標対象予測結果および前記道路サンプル画像の分割結果に基づいて、前記分割ニューラルネットワークのパラメータを調整するステップは、
前記土地サンプル画像の目標対象予測結果および前記土地サンプル画像のラベル情報に基づいて第1損失を得るステップと、
前記道路サンプル画像の分割結果および前記道路サンプル画像のラベル情報に基づいて第2損失を得るステップと、
前記第1損失および前記第2損失に基づいて前記分割ニューラルネットワークのパラメータを調整するステップと、を含み、
前記第1損失および前記第2損失に基づいて前記分割ニューラルネットワークのパラメータを調整するステップは、
前記第1損失および前記第2損失を加重和して総損失を得るステップと、
前記総損失に基づいて、前記分割ニューラルネットワークのパラメータを調整するステップと、を含む
ことを特徴とする請求項1乃至9の何れか1項に記載の画像分割方法。 - 前記複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップの前に、
パラメータを設定することによって、前記サンプル画像に対して、前記サンプル画像の大きさの調整、前記サンプル画像の角度の回転、および、前記サンプル画像の明るさの変更の中の少なくとも1種の強化処理を実行するステップをさらに含み、
前記複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップは、
複数の処理ブロックを利用して前記少なくとも1種の強化処理の後の画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップを含む
ことを特徴とする請求項10に記載の画像分割方法。 - 前記複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップの前に、
所定の大きさのトリミング枠を利用して前記画像をトリミングして、少なくとも1つのトリミング画像を得るステップをさらに含み、
前記複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップは、
複数の処理ブロックを利用して前記トリミング画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップを含む
ことを特徴とする請求項1乃至11の何れか1項に記載の画像分割方法。 - 画像分割装置であって、
複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るための画像処理モジュールと、
前記複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力された画像特徴情報に対して少なくとも2段の融合処理を実行して、目標画像特徴情報を得るための融合モジュールと、
前記目標画像特徴情報に基づいて、前記画像の目標対象分割結果を確定するための分割モジュールと、を備える
ことを特徴とする画像分割装置。 - 土地分割ニューラルネットワークのトレーニング方法であって、
少なくとも1つの土地サンプル画像および少なくとも1つの道路サンプル画像を前記土地分割ニューラルネットワークに入力して、前記少なくとも1つの土地サンプル画像の予測分割結果および前記少なくとも1つの道路サンプル画像の予測分割結果を得るステップと、
前記少なくとも1つの土地サンプル画像の予測分割結果および前記少なくとも1つの道路サンプル画像の予測分割結果に基づいて、前記土地分割ニューラルネットワークのパラメータを調整するステップと、を含む
ことを特徴とする土地分割ニューラルネットワークのトレーニング方法。 - 前記土地分割ニューラルネットワークは、順次に接続された複数の処理ブロック、融合ネットワーク、および、分割ネットワークを含み、
前記少なくとも1つの土地サンプル画像および少なくとも1つの道路サンプル画像を前記土地分割ニューラルネットワークに入力して、前記少なくとも1つの土地サンプル画像の予測分割結果および前記少なくとも1つの道路サンプル画像の予測分割結果を得るステップは、
複数の処理ブロックを利用して前記少なくとも1つの土地サンプル画像および前記少なくとも1つの道路サンプルに対して画像特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力されるサンプル画像特徴情報を得るステップと、
前記融合ネットワークを利用して前記複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力されたサンプル画像特徴情報に対して少なくとも2段の融合処理を実行して、目標サンプル画像特徴情報を得るステップと、
前記目標サンプル画像特徴情報に基づいて、前記分割ネットワークを利用して前記少なくとも1つの土地サンプル画像の予測分割結果および前記少なくとも1つの道路サンプル画像の予測分割結果を得るステップと、含む
ことを特徴とする請求項14に記載の土地分割ニューラルネットワークのトレーニング方法。 - 前記複数の処理ブロックを利用して前記少なくとも1つの土地サンプル画像および前記少なくとも1つの道路サンプルに対して画像特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力されるサンプル画像特徴情報を得るステップは、
前記複数の処理ブロックを利用して各前記土地サンプル画像および各前記道路サンプル画像に対して処理を実行して、各々の前記土地サンプル画像に対応する少なくとも2組のサンプル画像特徴情報および各々の前記道路サンプル画像に対応する少なくとも2組のサンプル画像特徴情報を得るステップを含み、
前記複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力されたサンプル画像特徴情報に対して少なくとも2段の融合処理を実行して、目標サンプル画像特徴情報を得るステップは、
各々の土地サンプル画像に対応する少なくとも2組のサンプル画像特徴情報に対して少なくとも2段の融合を実行して、前記各々の土地サンプル画像に対応する土地サンプル画像特徴情報を得るステップと、
各々の道路サンプル画像に対応する少なくとも2組のサンプル画像特徴情報に対して少なくとも2段の融合を実行して、前記各々の道路サンプル画像の道路サンプル画像特徴情報を得るステップと、を含み、
前記目標サンプル画像特徴情報は、前記少なくとも1つの土地サンプル画像に対応する土地サンプル画像特徴情報、および、前記少なくとも1つの道路サンプル画像に対応する道路サンプル画像特徴情報を含む
ことを特徴とする請求項15に記載の土地分割ニューラルネットワークのトレーニング方法。 - 前記土地分割ニューラルネットワークは、スライス層をさらに含み、
前記目標サンプル画像特徴情報に基づいて、前記少なくとも1つの土地サンプル画像の予測分割結果および前記少なくとも1つの道路サンプル画像の予測分割結果を得る前に、
前記土地分割ニューラルネットワークのトレーニング方法は、
前記スライス層を利用して前記目標サンプル画像特徴情報に含まれた前記土地サンプル画像特徴情報および前記道路サンプル画像特徴情報に対して分割を実行するステップと、
前記土地サンプル画像特徴情報を前記分割ネットワークに入力して処理を実行して、土地サンプル画像の予測分割結果を得、前記道路サンプル画像特徴情報を前記分割ネットワークに入力して処理を実行して、前記道路サンプル画像の予測分割結果を得るステップと、をさらに含み、
前記土地サンプル画像および前記道路サンプル画像は、それぞれ、ラベル情報を有し、
前記少なくとも1つの土地サンプル画像の予測分割結果および前記少なくとも1つの道路サンプル画像の予測分割結果に基づいて、前記土地分割ニューラルネットワークのパラメータを調整するステップは、
前記土地サンプル画像に対応する予測分割結果および前記土地サンプル画像に対応するラベル情報に基づいて第1損失を得るステップと、
前記道路サンプル画像に対応する予測分割結果および前記道路サンプル画像に対応するラベル情報に基づいて第2損失を得るステップと、
前記第1損失および前記第2損失に基づいて前記土地分割ニューラルネットワークのパラメータを調整するステップと、を含み、
前記第1損失および前記第2損失に基づいて前記土地分割ニューラルネットワークのパラメータを調整するステップは、
前記第1損失および前記第2損失を加重和して総損失を得るステップと、
前記総損失に基づいて前記土地分割ニューラルネットワークのパラメータを調整するステップと、を含む
ことを特徴とする請求項15または16に記載の土地分割ニューラルネットワークのトレーニング方法。 - 土地分割ニューラルネットワークのトレーニング装置であって、
少なくとも1つの土地サンプル画像および少なくとも1つの道路サンプル画像を前記土地分割ニューラルネットワークに入力して、前記少なくとも1つの土地サンプル画像の予測分割結果および前記少なくとも1つの道路サンプル画像の予測分割結果を得るための結果予測モジュールと、
前記少なくとも1つの土地サンプル画像の予測分割結果および前記少なくとも1つの道路サンプル画像の予測分割結果に基づいて、前記土地分割ニューラルネットワークのパラメータを調整するためのパラメータ調整モジュールと、を備える
ことを特徴とする土地分割ニューラルネットワークのトレーニング装置。 - 電子デバイスであって、
実行可能命令を記憶するためのメモリと、
およびプロセッサ、前記メモリと通信することによって、前記実行可能命令を実行して、請求項1乃至12の何れか1項に記載の画像分割方法の操作を完成し、または、前記メモリと通信することによって、前記実行可能命令を実行して、請求項14乃至17の何れか1項に記載の土地分割ニューラルネットワークのトレーニング方法の操作を完成する
ことを特徴とする電子デバイス。 - コンピュータ可読記憶媒体であって、
コンピュータ読み取り可能命令を記憶し、前記命令が実行されるときに、請求項1乃至12の何れか1項に記載の画像分割方法、または、請求項14乃至17の何れか1項に記載の土地分割ニューラルネットワークのトレーニング方法の操作が実行される
ことを特徴とするコンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810623306.0 | 2018-06-15 | ||
CN201810623306.0A CN108830221A (zh) | 2018-06-15 | 2018-06-15 | 图像的目标对象分割及训练方法和装置、设备、介质、产品 |
PCT/CN2019/091328 WO2019238126A1 (zh) | 2018-06-15 | 2019-06-14 | 图像分割及分割网络训练方法和装置、设备、介质、产品 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021526276A JP2021526276A (ja) | 2021-09-30 |
JP7045490B2 true JP7045490B2 (ja) | 2022-03-31 |
Family
ID=64142272
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020569112A Active JP7045490B2 (ja) | 2018-06-15 | 2019-06-14 | 画像分割と分割ネットワークトレーニング方法および装置、機器、媒体、並びに製品 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210097325A1 (ja) |
JP (1) | JP7045490B2 (ja) |
CN (1) | CN108830221A (ja) |
SG (1) | SG11202012531TA (ja) |
WO (1) | WO2019238126A1 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108830221A (zh) * | 2018-06-15 | 2018-11-16 | 北京市商汤科技开发有限公司 | 图像的目标对象分割及训练方法和装置、设备、介质、产品 |
CN111260564A (zh) * | 2018-11-30 | 2020-06-09 | 北京市商汤科技开发有限公司 | 一种图像处理方法和装置及计算机存储介质 |
CN109635813B (zh) * | 2018-12-13 | 2020-12-25 | 银河水滴科技(北京)有限公司 | 一种钢轨区域图像分割方法及装置 |
CN111626313B (zh) * | 2019-02-28 | 2023-06-02 | 银河水滴科技(北京)有限公司 | 一种特征提取模型训练方法、图像处理方法及装置 |
CN109934223B (zh) * | 2019-03-01 | 2022-04-26 | 北京地平线机器人技术研发有限公司 | 实例分割结果评价参数确定方法及装置 |
CN110062164B (zh) * | 2019-04-22 | 2021-10-26 | 深圳市商汤科技有限公司 | 视频图像处理方法及装置 |
CN110245710B (zh) * | 2019-06-18 | 2022-11-29 | 腾讯科技(深圳)有限公司 | 语义分割模型的训练方法、语义分割方法及装置 |
CN111178445A (zh) * | 2019-12-31 | 2020-05-19 | 上海商汤智能科技有限公司 | 图像处理方法及装置 |
CN111667440B (zh) * | 2020-05-14 | 2024-02-13 | 涡阳县幸福门业有限公司 | 一种金属门烤漆温度分布图像的融合方法 |
CN112132832B (zh) * | 2020-08-21 | 2021-09-28 | 苏州浪潮智能科技有限公司 | 一种增强图像实例分割的方法、系统、设备及介质 |
CN112529863B (zh) * | 2020-12-04 | 2024-01-23 | 推想医疗科技股份有限公司 | 测量骨密度的方法及装置 |
CN112686274B (zh) * | 2020-12-31 | 2023-04-18 | 上海智臻智能网络科技股份有限公司 | 目标对象的检测方法及设备 |
CN113705718B (zh) * | 2021-09-06 | 2024-04-02 | 齐齐哈尔大学 | 基于多层次特征密集融合的遥感场景图像分类方法 |
CN114596620B (zh) * | 2022-05-10 | 2022-08-05 | 深圳市海清视讯科技有限公司 | 人脸识别设备补光控制方法、装置、设备及存储介质 |
CN115222638B (zh) * | 2022-08-15 | 2023-03-07 | 深圳市眼科医院 | 一种基于神经网络模型的视网膜血管图像分割方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108830221A (zh) | 2018-06-15 | 2018-11-16 | 北京市商汤科技开发有限公司 | 图像的目标对象分割及训练方法和装置、设备、介质、产品 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101216890B (zh) * | 2008-01-09 | 2011-02-16 | 北京中星微电子有限公司 | 一种彩色图像分割方法 |
CN101425184B (zh) * | 2008-10-30 | 2011-08-24 | 西安电子科技大学 | 基于第二代Bandelet域隐马尔科夫树模型的图像分割方法 |
CN105488534B (zh) * | 2015-12-04 | 2018-12-07 | 中国科学院深圳先进技术研究院 | 交通场景深度解析方法、装置及系统 |
-
2018
- 2018-06-15 CN CN201810623306.0A patent/CN108830221A/zh active Pending
-
2019
- 2019-06-14 JP JP2020569112A patent/JP7045490B2/ja active Active
- 2019-06-14 WO PCT/CN2019/091328 patent/WO2019238126A1/zh active Application Filing
- 2019-06-14 SG SG11202012531TA patent/SG11202012531TA/en unknown
-
2020
- 2020-12-14 US US17/121,670 patent/US20210097325A1/en not_active Abandoned
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108830221A (zh) | 2018-06-15 | 2018-11-16 | 北京市商汤科技开发有限公司 | 图像的目标对象分割及训练方法和装置、设备、介质、产品 |
Non-Patent Citations (1)
Title |
---|
Chao Tian et al.,Dense Fusion Classmate Network for Land Cover Classification,[online], 2018 [retrieved on 2021.12.15], Internet: <https://arxiv.org/ftp/arxiv/papers/1911/1911.08189.pdf>,2018年,[online], 2018 [retrieved on 2021.12.15], Internet: <https://arxiv.org/ftp/arxiv/papers/1911/1911.08189.pdf> |
Also Published As
Publication number | Publication date |
---|---|
SG11202012531TA (en) | 2021-01-28 |
US20210097325A1 (en) | 2021-04-01 |
JP2021526276A (ja) | 2021-09-30 |
WO2019238126A1 (zh) | 2019-12-19 |
CN108830221A (zh) | 2018-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7045490B2 (ja) | 画像分割と分割ネットワークトレーニング方法および装置、機器、媒体、並びに製品 | |
CN110298262B (zh) | 物体识别方法及装置 | |
CN110378381B (zh) | 物体检测方法、装置和计算机存储介质 | |
KR102224510B1 (ko) | 데이터 관리를 위한 시스템들 및 방법들 | |
CN110599492B (zh) | 图像分割模型的训练方法、装置、电子设备及存储介质 | |
CN108647585B (zh) | 一种基于多尺度循环注意力网络的交通标识符检测方法 | |
Wang et al. | Understanding convolution for semantic segmentation | |
CN106683048B (zh) | 一种图像超分辨率方法及设备 | |
US20200234447A1 (en) | Computer vision system and method | |
US20220215227A1 (en) | Neural Architecture Search Method, Image Processing Method And Apparatus, And Storage Medium | |
CN110458165B (zh) | 一种引入注意力机制的自然场景文本检测方法 | |
US20210398252A1 (en) | Image denoising method and apparatus | |
CN111402130B (zh) | 数据处理方法和数据处理装置 | |
CN111104962A (zh) | 图像的语义分割方法、装置、电子设备及可读存储介质 | |
CN110033003A (zh) | 图像分割方法和图像处理装置 | |
US10650283B2 (en) | Electronic apparatus and control method thereof | |
JP7059318B2 (ja) | 地域的特徴を有する分類器学習のための学習データ生成方法およびそのシステム | |
CN111401517B (zh) | 一种感知网络结构搜索方法及其装置 | |
CN112308200A (zh) | 神经网络的搜索方法及装置 | |
KR102140805B1 (ko) | 위성 영상의 물체 식별을 위한 뉴럴 네트워크 학습 방법 및 장치 | |
CN107590811B (zh) | 基于场景分割的风景图像处理方法、装置及计算设备 | |
CN111369567B (zh) | 三维图像中目标对象的分割方法、装置及电子设备 | |
CN113378984B (zh) | 一种医学图像分类方法、系统、终端以及存储介质 | |
US20190362467A1 (en) | Electronic apparatus and control method thereof | |
CN112949520A (zh) | 一种基于多尺度小样本的航拍车辆检测方法及检测系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201211 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201211 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220311 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220318 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7045490 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |