JP7045490B2 - 画像分割と分割ネットワークトレーニング方法および装置、機器、媒体、並びに製品 - Google Patents

画像分割と分割ネットワークトレーニング方法および装置、機器、媒体、並びに製品 Download PDF

Info

Publication number
JP7045490B2
JP7045490B2 JP2020569112A JP2020569112A JP7045490B2 JP 7045490 B2 JP7045490 B2 JP 7045490B2 JP 2020569112 A JP2020569112 A JP 2020569112A JP 2020569112 A JP2020569112 A JP 2020569112A JP 7045490 B2 JP7045490 B2 JP 7045490B2
Authority
JP
Japan
Prior art keywords
image
feature information
processing
land
sample image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020569112A
Other languages
English (en)
Other versions
JP2021526276A (ja
Inventor
超 田
▲聰▼ 李
建萍 石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sensetime Technology Development Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Publication of JP2021526276A publication Critical patent/JP2021526276A/ja
Application granted granted Critical
Publication of JP7045490B2 publication Critical patent/JP7045490B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/182Network patterns, e.g. roads or rivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理技術に関し、特に画像分割と分割ネットワークトレーニング方法および装置、機器、媒体、並びに製品に関する。
<関連出願の相互引用>
本発明は、出願日が2018年6月15日であり、出願番号が201810623306.0であり、発明名称が「画像の目標対象分割とトレーニング方法および装置、機器、媒体、並びに製品」である中国特許出願の優先権を主張し、当該中国特許出願の全ての内容が参照として本願に組み入れられる。
リモートセンシング衛星の急速な発展に伴い、リモートセンシング画像も様々な分野で適用され始めている。衛星リモートセンシング画像のシーンがより大きく、明確の境界がなく、精確な構造情報がないため、リモートセンシング画像は伝統的な画像と分割シーンが異なり、伝統的なニューラルネットワークを使用すると分割に困難が存在し、効果がより低く、改善しにくい。
本発明の実施例は、画像分割とトレーニング方法および装置、機器、媒体、並びに製品を提供することを期待している。
本発明の実施例の1態様によると、画像分割方法を提供し、当該方法は、複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップと、前記複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力された画像特徴情報に対して少なくとも2段の融合処理を実行して、目標画像特徴情報を得るステップと、前記目標画像特徴情報に基づいて、前記画像の目標対象分割結果を確定するステップと、を含む。
選択的に、前記複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力された画像特徴情報に対して少なくとも2段の融合処理を実行して、目標画像特徴情報を得るステップは、各ペアの前記隣接する処理ブロックによって出力された画像特徴情報に対して第1段の融合処理を実行して、第1融合特徴情報を得るステップと、少なくとも1ペアの隣接する前記第1融合特徴情報に対して第2段の融合処理を実行して、少なくとも1つの第2融合特徴情報を得るステップと、前記少なくとも1つの第2融合特徴情報に基づいて、前記目標画像特徴情報を確定するステップと、を含む。
選択的に、前記少なくとも1つの第2融合特徴情報に基づいて、前記目標画像特徴情報を確定するステップは、後続融合処理によって得られた後続融合特徴情報の数が1つになるまでに、前記少なくとも1つの第2融合特徴情報に対して前記後続融合処理を実行するステップと、前記数が1つである後続融合特徴情報を前記目標画像特徴情報とするステップと、を含む。
選択的に、各ペアの前記隣接する処理ブロックによって出力された画像特徴情報に対して融合処理を実行する過程において、各ペアの前記隣接する処理ブロックによって出力された画像特徴情報を要素ごとに加える。
選択的に、前記複数の処理ブロック同士の間は、順次に接続されるか、および/または、各ペアの前記隣接する処理ブロックによって出力された画像特徴情報は、同一の大きさおよび同一のチャンネル数を有する。
選択的に、前記処理ブロックは、少なくとも1つの処理ユニットを含み、各々の前記処理ユニットは、少なくとも1つの特徴抽出層と特徴調整層とを含み、前記複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップは、前記処理ユニット中の前記少なくとも1つの特徴抽出層を利用して前記処理ユニットの入力情報に対して特徴抽出処理を実行して、第1特徴情報を得るステップと、前記処理ユニット中の前記特徴調整層を利用して前記第1特徴情報に対して調整処理を実行して、前記処理ユニットによって出力された画像特徴情報を得るステップと、を含む。
選択的に、前記複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力された画像特徴情報に対して少なくとも2段の融合処理を実行して、目標画像特徴情報を得るステップの前に、前記複数の処理ブロックの中の処理ブロックM1によって出力された画像特徴情報に対して特徴縮小処理を実行するステップと、前記複数の処理ブロックの中の処理ブロックM2によって出力された画像特徴情報に対して特徴拡張処理を実行するステップと、をさらに含み、前記処理ブロックM2の入力端と前記処理ブロックM1の出力端は、直接接続または間接接続される。
選択的に、前記複数の処理ブロックを利用して前記画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップは、前記複数の処理ブロックの中の処理ブロックN1を利用して前記処理ブロックN1の入力情報に対して特徴抽出処理を実行して、前記処理ブロックN1に対応する第1画像特徴情報を得るステップであって、前記処理ブロックN1の入力情報は、前記画像、および/または、前記処理ブロックN1の前に位置する少なくとも1つの処理ブロックによって出力された画像特徴情報を含み、N1は、1以上の整数であるステップと、前記第1画像特徴情報を前記処理ブロックN1の次の1つの処理ブロックに入力して特徴抽出処理を実行して、前記次の1つの処理ブロックによって出力される第2画像特徴情報を得るステップと、を含む。
選択的に、前記第1画像特徴情報を前記処理ブロックN1の次の1つの処理ブロックに入力して特徴抽出処理を実行して、前記次の1つの処理ブロックによって出力される第2画像特徴情報を得るステップは、前記画像および/または少なくとも1つの処理ブロックN2によって出力された画像特徴情報および前記第1画像特徴情報を、前記処理ブロックN1の次の1つの処理ブロックに入力して特徴抽出処理を実行して、前記次の1つの処理ブロックによって出力される第2画像特徴情報を得るステップであって、前記処理ブロックN1の入力端と前記処理ブロックN2の出力端は、直接接続または間接接続されるステップを含む。
選択的に、前記画像および/または少なくとも1つの処理ブロックN2によって出力された画像特徴情報および前記第1画像特徴情報を、前記処理ブロックN1の次の1つの処理ブロックに入力して特徴抽出処理を実行するステップの前に、前記少なくとも1つの処理ブロックN2によって出力された画像特徴情報に対して融合処理を実行し、融合処理して得られた画像特徴情報を前記処理ブロックN1の次の1つの処理ブロックに入力するステップをさらに含む。
選択的に、前記複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップの前に、畳み込み層を利用して前記画像に対して特徴抽出処理を実行して、前記画像の初期特徴情報を得るステップをさらに含み、前記複数の処理ブロックを利用して画像に対して特徴抽出処理を実行するステップは、前記画像の初期特徴情報を前記複数の処理ブロックに入力して特徴抽出処理を実行するステップを含む。
選択的に、前記画像は、リモートセンシング画像であり、前記目標対象は、土地である。
選択的に、前記画像分割方法は、分割ニューラルネットワークを利用して実現され、前記画像は、土地サンプル画像であり、前記画像分割方法は、前記分割ニューラルネットワークを利用して道路サンプル画像に対して処理を実行して、前記道路サンプル画像の分割結果を得るステップと、前記土地サンプル画像の目標対象予測結果および前記道路サンプル画像の分割結果に基づいて、前記分割ニューラルネットワークのパラメータを調整するステップと、をさらに含む。
選択的に、前記目標画像特徴情報は、混合特徴情報に基づいて得られたものであり、前記混合特徴情報は、前記分割ニューラルネットワークにより前記土地サンプル画像および前記道路サンプル画像に対してバッチ処理を実行して得られたものである。
選択的に、前記土地サンプル画像の目標対象予測結果および前記道路サンプル画像の分割結果に基づいて、前記分割ニューラルネットワークのパラメータを調整するステップは、前記土地サンプル画像の目標対象予測結果および前記土地サンプル画像のラベル情報に基づいて第1損失を得るステップと、前記道路サンプル画像の分割結果および前記道路サンプル画像のラベル情報に基づいて第2損失を得るステップと、前記第1損失および前記第2損失に基づいて前記分割ニューラルネットワークのパラメータを調整するステップと、を含む。
選択的に、前記第1損失および前記第2損失に基づいて前記分割ニューラルネットワークのパラメータを調整するステップは、前記第1損失および前記第2損失を加重和して総損失を得るステップと、前記総損失に基づいて、前記分割ニューラルネットワークのパラメータを調整するステップと、を含む。
選択的に、前記複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップの前に、パラメータを設定することによって、前記サンプル画像に対して、前記サンプル画像の大きさの調整、前記サンプル画像の角度の回転、および、前記サンプル画像の明るさの変更の中の少なくとも1種の強化処理を実行するステップをさらに含み、前記複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップは、複数の処理ブロックを利用して前記少なくとも1種の強化処理の後の画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップを含む。
選択的に、前記複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップの前に、所定の大きさのトリミング枠を利用して前記画像をトリミングして、少なくとも1つのトリミング画像を得るステップをさらに含み、前記複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップは、複数の処理ブロックを利用して前記トリミング画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップを含む。
本発明の実施例のもう1態様によると、画像分割装置を提供し、当該装置は、複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るための画像処理モジュールと、前記複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力された画像特徴情報に対して少なくとも2段の融合処理を実行して、目標画像特徴情報を得るための融合モジュールと、前記目標画像特徴情報に基づいて、前記画像の目標対象分割結果を確定するための分割モジュールと、を備える。
本発明の実施例のもう1態様によると、土地分割ニューラルネットワークのトレーニング方法を提供し、当該方法は、少なくとも1つの土地サンプル画像および少なくとも1つの道路サンプル画像を前記土地分割ニューラルネットワークに入力して、前記少なくとも1つの土地サンプル画像の予測分割結果および前記少なくとも1つの道路サンプル画像の予測分割結果を得るステップと、前記少なくとも1つの土地サンプル画像の予測分割結果および前記少なくとも1つの道路サンプル画像の予測分割結果に基づいて、前記土地分割ニューラルネットワークのパラメータを調整するステップと、を含む。
選択的に、前記土地分割ニューラルネットワークは、順次に接続された複数の処理ブロック、融合ネットワーク、および、分割ネットワークを含み、前記少なくとも1つの土地サンプル画像および少なくとも1つの道路サンプル画像を前記土地分割ニューラルネットワークに入力して、前記少なくとも1つの土地サンプル画像の予測分割結果および前記少なくとも1つの道路サンプル画像の予測分割結果を得るステップは、複数の処理ブロックを利用して前記少なくとも1つの土地サンプル画像および前記少なくとも1つの道路サンプルに対して画像特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力されるサンプル画像特徴情報を得るステップと、前記融合ネットワークを利用して前記複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力されたサンプル画像特徴情報に対して少なくとも2段の融合処理を実行して、目標サンプル画像特徴情報を得るステップと、前記目標サンプル画像特徴情報に基づいて、前記分割ネットワークを利用して前記少なくとも1つの土地サンプル画像の予測分割結果および前記少なくとも1つの道路サンプル画像の予測分割結果を得るステップと、含む。
選択的に、前記複数の処理ブロックを利用して前記少なくとも1つの土地サンプル画像および前記少なくとも1つの道路サンプルに対して画像特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力されるサンプル画像特徴情報を得るステップは、前記複数の処理ブロックを利用して各前記土地サンプル画像および各前記道路サンプル画像に対して処理を実行して、各々の前記土地サンプル画像に対応する少なくとも2組のサンプル画像特徴情報および各々の前記道路サンプル画像に対応する少なくとも2組のサンプル画像特徴情報を得るステップを含む。
選択的に、前記複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力されたサンプル画像特徴情報に対して少なくとも2段の融合処理を実行して、目標サンプル画像特徴情報を得るステップは、各々の土地サンプル画像に対応する少なくとも2組のサンプル画像特徴情報に対して少なくとも2段の融合を実行して、前記各々の土地サンプル画像に対応する土地サンプル画像特徴情報を得るステップと、各々の道路サンプル画像に対応する少なくとも2組のサンプル画像特徴情報に対して少なくとも2段の融合を実行して、前記各々の道路サンプル画像の道路サンプル画像特徴情報を得るステップと、を含み、ここで、前記目標サンプル画像特徴情報は、前記少なくとも1つの土地サンプル画像に対応する土地サンプル画像特徴情報、および、前記少なくとも1つの道路サンプル画像に対応する道路サンプル画像特徴情報を含む。
選択的に、前記土地分割ニューラルネットワークは、スライス層をさらに含み、前記目標サンプル画像特徴情報に基づいて、前記少なくとも1つの土地サンプル画像の予測分割結果および前記少なくとも1つの道路サンプル画像の予測分割結果を得る前に、前記方法は、前記スライス層を利用して前記目標サンプル画像特徴情報に含まれた前記土地サンプル画像特徴情報および前記道路サンプル画像特徴情報に対して分割を実行するステップと、前記土地サンプル画像特徴情報を前記分割ネットワークに入力して処理を実行して、土地サンプル画像の予測分割結果を得、前記道路サンプル画像特徴情報を前記分割ネットワークに入力して処理を実行して、前記道路サンプル画像の予測分割結果を得るステップと、をさらに含む。
選択的に、前記土地サンプル画像および前記道路サンプル画像は、それぞれ、ラベル情報を有し、前記少なくとも1つの土地サンプル画像の予測分割結果および前記少なくとも1つの道路サンプル画像の予測分割結果に基づいて、前記土地分割ニューラルネットワークのパラメータを調整するステップは、前記土地サンプル画像に対応する予測分割結果および前記土地サンプル画像に対応するラベル情報に基づいて第1損失を得るステップと、前記道路サンプル画像に対応する予測分割結果および前記道路サンプル画像に対応するラベル情報に基づいて第2損失を得るステップと、前記第1損失および前記第2損失に基づいて前記土地分割ニューラルネットワークのパラメータを調整するステップと、を含む。
選択的に、前記第1損失および前記第2損失に基づいて前記土地分割ニューラルネットワークのパラメータを調整するステップは、前記第1損失および前記第2損失を加重和して総損失を得るステップと、前記総損失に基づいて前記土地分割ニューラルネットワークのパラメータを調整するステップと、を含む。
本発明の実施例のもう1態様によると、土地分割ニューラルネットワークのトレーニング装置を提供し、当該装置は、少なくとも1つの土地サンプル画像および少なくとも1つの道路サンプル画像を前記土地分割ニューラルネットワークに入力して、前記少なくとも1つの土地サンプル画像の予測分割結果および前記少なくとも1つの道路サンプル画像の予測分割結果を得るための結果予測モジュールと、前記少なくとも1つの土地サンプル画像の予測分割結果および前記少なくとも1つの道路サンプル画像の予測分割結果に基づいて、前記土地分割ニューラルネットワークのパラメータを調整するためのパラメータ調整モジュールと、を備える。
本発明の実施例のもう1態様によると、電子デバイスを提供し、当該電子デバイスは、実行可能命令を記憶するためのメモリと、前記メモリと通信することによって、前記実行可能命令を実行して、上記の任意の1項に記載の画像分割方法の操作を完成し、または、前記メモリと通信することによって、前記実行可能命令を実行して、上記の任意の1項に記載の土地分割ニューラルネットワークのトレーニング方法の操作を完成するためのプロセッサと、を備える。
本発明の実施例のもう1態様によると、コンピュータ可読記憶媒体を提供し、当該コンピュータ可読記憶媒体は、コンピュータ読み取り可能命令を記憶し、前記命令が実行されるときに、上記の任意の1項に記載の画像分割方法または上記の任意の1項に記載の土地分割ニューラルネットワークのトレーニング方法の操作が実行される。
本発明の実施例のもう1態様によると、コンピュータプログラム製品を提供し、当該製品は、コンピュータ可読コードを含み、前記コンピュータ可読コードが機器上で運行されると、前記機器中のプロセッサによって、上記の任意の1項に記載の画像分割方法または上記の任意の1項に記載の土地分割ニューラルネットワークのトレーニング方法を実現するための命令が実行される。
本発明の実施例の別の1態様によると、別の1種のコンピュータプログラム製品を提供し、当該製品は、コンピュータ可読命令を記憶し、前記命令が実行されるときに、コンピュータが、上記の任意の可能な実現形態に記載の画像分割方法を実行するようにし、または、任意の可能な実現形態に記載の土地分割ニューラルネットワークのトレーニング方法の操作を実行するようにする。
1つの選択可能な実施形態において、前記コンピュータプログラム製品は、具体的に、コンピュータ記憶媒体であり、もう1選択可能な実施形態において、前記コンピュータプログラム製品は、具体的に、例えばSDKのソフトウェア製品である。
本発明の実施例によると、もう1種の画像分割と土地分割ニューラルネットワークのトレーニング方法および装置、電子デバイス、コンピュータ記憶媒体、並びにコンピュータプログラム製品をさらに提供し、ここで、複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得、複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力された画像特徴情報に対して少なくとも2段の融合処理を実行して、目標画像特徴情報を得、目標画像特徴情報に基づいて画像の目標対象分割結果を確定する。
本発明の上記の実施例によって提供される画像の目標対象分割と土地分割ニューラルネットワークのトレーニング方法および装置、機器、媒体、並びに製品は、複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得、複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力された画像特徴情報に対して少なくとも2段の融合処理を実行して、目標画像特徴情報を得、目標画像特徴情報に基づいて画像の目標対象分割結果を確定し、隣接された画像特徴情報の少なくとも2段の融合によって、もう一層多い情報を得て、画像中の目標対象のより精確な分割に有利である。
以下、図面および実施例によって、本発明の技術案をさらに詳細に説明する。
明細書の一部を構成する図面は、本発明の実施例を叙述し、且つ叙述とともに本発明の原理の解釈に用いられる。
図面を参照し、以下の詳細な叙述に基づいて、本発明をより明瞭に理解できる。
本発明の実施例によって提供される画像分割方法の模式的なフローチャートである。 本発明の実施例によって提供される画像分割方法中の処理ブロックの1例示的な構造図である。 本発明の実施例によって提供される画像分割方法中の分割ニューラルネットワークのトレーニング過程での1例示的な構造の模式図である。 本発明の実施例とFC-DenseNetとの分割効果の比較の1つの示例図である。 本発明の実施例とFC-DenseNetおよびClassmateNet構造との分割効果の比較の1つの示例図である。 本発明の実施例によって提供される画像分割装置の構造の模式図である。 本発明の実施例によって提供される土地分割ニューラルネットワークのトレーニング方法の例示的なフローチャートである。 本発明の実施例によって提供される土地分割ニューラルネットワークのトレーニング装置の構造の模式図である。 本発明の実施例の実現に適当な電子デバイスの1例の構造の模式図である。
現在、図面を参照して本発明の各種の例示的な実施例を詳細に叙述する。注意すべきことは、別途詳細に説明しない限り、これらの実施例に叙述された部品とステップの相対的な配置、数値条件式、及び数値は、本発明の範囲を制限しない。
同時に、理解すべきことは、叙述の便宜上、図面に示される各部分の寸法が実際の縮尺に応じて描かれるとは限らない。
以下では、少なくとも1例示的な実施例の叙述が実に説明的なものに過ぎず、決して本発明及びその応用や使用に対する如何なる制限にもならない。
当業者にとって既知の技術、方法及び機器について詳細に議論しないが、適切な場合には、前記技術、方法及び機器が明細書の一部と見なされるべきである。
注意すべきことは、類似する符号及びアルファベットが後の図面において類似する要素を示すため、ある要素が、1つの図面で定義されると、後の図面においてさらに議論される必要がない。
理解すべきことは、本発明の実施例は、リモートセンシング画像の土地分割に基づいて提案されたものであるが、その他の分野にも適用でき、本発明の実施例は、これに対して限定しない。
図1は、本発明の実施例によって提供される画像分割方法の模式的なフローチャートであり、図1に示すように、当該方法は、以下のステップを含む。
ステップ110において、複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得る。
ここで、処理ブロックは、少なくとも1つの処理ユニットを含み。選択的に、複数の処理ブロック同士の間は、順次に接続でき、複数の処理ブロックはそれぞれ互いに異なる深度に位置し、例えば、複数の処理ブロックのうち任意の処理ブロックの出力端は、次の1つの処理ブロックの入力端と接続されてもよい。
複数の処理ブロックを利用して画像に対して順に特徴抽出処理を実行できる。例えば、複数の処理ブロック中の1番目の処理ブロックは、入力された画像に対して特徴抽出処理を実行して、1番目の処理ブロックによって出力される画像特徴情報を得ることができる。2番目の処理ブロックは、入力された画像に対して特徴情報特徴抽出処理を実行して、第2処理ブロックによって出力された画像特徴情報を得ることができ、ここで、当該2番目の処理ブロックに入力する画像特徴情報は、第1処理ブロックによって出力された画像特徴情報を含んでもよく、または、前記画像をさらに含んでもよいし、等々、複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得ることができる。
1つまたは複数の選択可能な実施例において、複数の処理ブロックの中の処理ブロックN1を利用して処理ブロックN1の入力情報に対して特徴抽出処理を実行して、処理ブロックN1に対応する第1画像特徴情報を得る。ここで、N1は、1以上の整数である。
第1画像特徴情報を処理ブロックN1の次の1つの処理ブロックに入力して特徴抽出処理を実行して、次の1つの処理ブロックによって出力される第2画像特徴情報を得る。
選択的に、処理ブロックN1は、複数の処理ブロックの中の1番目の処理ブロックであってもよく、この場合、処理ブロックN1の入力情報は、上記の画像または画像の初期画像特徴情報であってもよい。または、処理ブロックN1は、複数の処理ブロックの中の2番目の処理ブロック、または、さらに後の処理ブロックであってもよく、この場合、処理ブロックN1の入力情報は、前の1つの処理ブロックによって出力された画像特徴情報を含んでもよく、または、当該前の1つの処理ブロックの前に位置する任意の1つまたは複数の処理ブロックによって出力された画像特徴情報をさらに含んでもよく、または、画像をさらに含んでもよい。すなわち、処理ブロックN1の入力情報は、画像および/または処理ブロックN1の前に位置する1つまたは複数の処理ブロックによって出力された画像特徴情報を含んでもよい。処理ブロックの入力情報が互いに異なる深度の画像特徴情報を含むため、処理ブロックによって出力された画像特徴情報がもう一層多い画像情報を含むようにする。
前方に位置する処理ブロックが得た画像特徴情報に含まれた浅層情報が多いほど、後方に位置する処理ブロックによって出力された画像特徴情報と結合して、画像中の浅層情報と深層情報とをいずれも得ることができる。
選択的に、第1画像特徴情報を処理ブロックN1の次の1つの処理ブロックに入力して処理を実行して、次の1つの処理ブロックによって出力される第2画像特徴情報を得ることは、画像および/または少なくとも1つの処理ブロックN2によって出力された画像特徴情報および第1画像特徴情報を、処理ブロックN1の次の1つの処理ブロックに入力して特徴抽出処理を実行して、次の1つの処理ブロックによって出力される第2画像特徴情報を得ることを含む。ここで、処理ブロックN1の入力端は、処理ブロックN2の出力端と直接接続または間接接続される。本発明の実施例において、処理ブロックN1は、ネットワーク構造上、処理ブロックN2の後に位置する。
選択的に、処理ブロックN1の次の1つの処理ブロックの入力は、処理ブロックN1によって出力された画像特徴情報のみであってもよく、例えば、処理ブロックN1が第3処理ブロックであり、処理ブロックN1の次の1つの処理ブロックが第4処理ブロックであると、第4処理ブロックの入力は、第3処理ブロックによって出力された画像特徴情報である。
選択的に、処理ブロックN1の次の1つの処理ブロックの入力は、処理ブロックN1によって出力された画像特徴情報、および、少なくとも1つの処理ブロックN2によって出力された画像特徴情報を含み、例えば、処理ブロックN1が第3処理ブロックであり、処理ブロックN1の次の1つの処理ブロックが第4処理ブロックであり、少なくとも1つの処理ブロックN2が第1処理ブロックおよび/または第2処理ブロックを含み、この場合、第4処理ブロックの入力は、第3処理ブロックによって出力された画像特徴情報および第1処理ブロックによって出力された画像特徴情報であるか、または、第3処理ブロックによって出力された画像特徴情報および第2処理ブロックによって出力された画像特徴情報であるか、または、第3処理ブロックによって出力された画像特徴情報、第1処理ブロックによって出力された画像特徴情報、および、第2処理ブロックによって出力された画像特徴情報である。
選択的に、処理ブロックN1の次の1つの処理ブロックの入力は、処理ブロックN1によって出力された画像特徴情報および画像を含み、または、処理ブロックN1の次の1つの処理ブロックの入力は、処理ブロックN1によって出力された画像特徴情報、画像、および、少なくとも1つの処理ブロックN2によって出力された画像特徴情報を含む。
選択的に、処理ブロックN1の次の1つの処理ブロックの入力が、処理ブロックN1および少なくとも1つの処理ブロックN2によって出力された画像特徴情報を含む場合、これら画像特徴情報を次の1つの処理ブロックに入力する前に、さらに、少なくとも1つの処理ブロックN2および処理ブロックN1の中の一部または全部の処理ブロックによって出力された画像特徴情報に対して融合処理を実行し、融合処理して得られた画像特徴情報を処理ブロックN1の次の1つの処理ブロックに入力してもよい。
少なくとも2つの処理ブロックによって出力された画像特徴情報を1つの処理ブロックに入力する必要がある場合、これら特徴情報に対して融合を実行することによって、処理ブロックが処理するようにする。具体的な融合方式は、ビット単位の加算(要素ごとに加える)、チャンネル単位の重畳、または、その他の方式であり得る。
1つまたは複数の選択可能な実施例において、画像を複数の処理ブロックに入力する前に、さらに、1つまたは複数の畳み込み層を利用して画像に対して特徴抽出処理を実行して、画像の初期特徴情報を得ることができ、これに応じて、画像の初期特徴情報を複数の処理ブロックに入力して順に特徴抽出処理を実行でき、本発明の実施例は、これに対して限定しない。
この場合、処理ブロックN1の次の1つの処理ブロックの入力は、画像の初期特徴情報をさらに含んでもよい。選択的に、処理ブロックN1の次の1つの処理ブロックの入力が処理ブロックN1によって出力された画像特徴情報および画像を含むと想定すると、画像の初期特徴情報と処理ブロックN1によって出力された画像特徴情報とに対して融合処理を実行できる。または、処理ブロックN1の次の1つの処理ブロックの入力が、処理ブロックN1によって出力された画像特徴情報、画像、および、少なくとも1つの処理ブロックN2によって出力された画像特徴情報を含むと想定すると、画像の初期特徴情報と、処理ブロックN1によって出力された画像特徴情報と、画像と、少なくとも1つの処理ブロックN2によって出力された画像特徴情報と、に対して、融合処理を実行でき、等々、本発明の実施例は、これに対して限定しない。
ステップ120において、複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力された画像特徴情報に対して少なくとも2段の融合処理を実行して、目標画像特徴情報を得る。
1つまたは複数の選択可能な実施例において、各ペアの隣接する処理ブロックによって出力された画像特徴情報に対して第1段の融合処理を実行して、第1融合特徴情報を得、少なくとも1ペアの隣接する第1融合特徴情報に対して第2段の融合処理を実行して、少なくとも1つの第2融合特徴情報を得、少なくとも1つの第2融合特徴情報に基づいて、目標画像特徴情報を確定する。
本発明の実施例において、複数の処理ブロックは、複数ペアの隣接する処理ブロックに分けられることができ、各ペアの隣接する処理ブロックは、2つの隣接する処理ブロック(すなわち直接接続された2つの処理ブロック)を含み、選択的に、互いに異なるペアの隣接する処理ブロックは、互いに異なる処理ブロックを含み、または、互いに異なるペアの隣接する処理ブロックは、同一の処理ブロックを含まないでもよく、例えば、1番目の処理ブロックと2番目の処理ブロックによって第1ペアの隣接する処理ブロックが構成され、3番目の処理ブロックと4番目の処理ブロックによって第2ペアの隣接する処理ブロックが構成され、等々。
いくつかの実施例において、各ペアの隣接する処理ブロックによって出力された画像特徴情報に対して融合処理を実行することによって(例えば、各ペアの隣接する処理ブロックによって出力された画像特徴情報を要素ごとに加える)、画像特徴情報のペアごとの融合を実現した。
複数ペアの隣接する処理ブロックを有するため、各ペアの処理ブロックの画像特徴情報を融合した後に複数の第1融合特徴情報を得ることができ、この場合、第1融合特徴情報(例えば、2つの第1融合特徴情報または2つ以上の第1融合特徴情報)の中の一部または全部の第2段の融合処理を実行して、1つの第2融合特徴情報を得、当該第2融合特徴情報を目標画像特徴情報とすることができる。または、複数の第1融合特徴情報に対してペアごとの隣接融合を実行して、複数の第2融合特徴情報を得ることができ、この場合、選択的に、後続融合処理によって得られた後続融合特徴情報の数が1つになるまで、複数の第2融合特徴情報に対して後続融合処理を実行でき、数が1つである後続融合特徴情報を目標画像特徴情報とする。
この場合の後続融合処理は、第2融合特徴情報をペアごとに融合(例えば、2つの第2融合特徴情報を要素ごとに加える)し、ペアごとに融合した後に得られた後続融合特徴情報は少なくとも1つまたは複数であり、後続融合特徴情報の数が1つであると、当該後続融合特徴情報を目標画像特徴情報とする。当後続融合特徴情報の数が複数であると、後続融合処理によって得られた後続融合特徴情報の数が1つになるまで、当該後続融合特徴情報を継続的にペアごとに融合(例えば、2つの後続融合特徴情報を要素ごとに加える)し、当該後続融合特徴情報(1つになった後続融合特徴情報)を目標画像特徴情報とする。例えば、8個の処理ブロックを含み、1段の融合を通じて4個の第1融合特徴情報を得、2段の融合を通じて2個の第2融合特徴情報を得、3段の融合を通じて1つの後続融合特徴情報を得、当該後続融合特徴情報を目標画像特徴情報とする。
細部情報をさらに処理するために、本発明の実施例では、高密度融合(Dense Fusion)構造を提案し、互いに異なる深度の層(Layer)をペアごとに融合し、要素ごとに和を求めて(Element-wise Sum)融合を実行し、最後の1層までに再帰的に融合する。高密度融合構造によって、ネットワークがもう一層多い深層と浅層の情報を取得できるようにして、細部的の精確な分割に有利である。
理解すべきことは、上記の説明では、処理ブロックを2つ単位に段ごとに融合する例を挙げて説明したが、本発明の実施例において、隣接する3つまたはさらに多い数の処理ブロックを単位として段ごとに融合を実行でき、本発明の実施例は、これに対して限定しない。
ステップ130において、目標画像特徴情報に基づいて画像の目標対象分割結果を確定する。
本発明の上記の実施例によって提供される画像の目標対象分割方法によると、複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得、複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力された画像特徴情報に対して少なくとも2段の融合処理を実行して、目標画像特徴情報を得、目標画像特徴情報に基づいて画像の目標対象分割結果を確定し、隣接された画像特徴情報の少なくとも2段の融合によって、もう一層多い情報を得て、画像中の目標対象のより精確な分割に有利である。
選択的に、特徴情報は、3次ベクトルであってもよく、例えば、複数の2次元マトリックスを含む。または、少なくとも1つのチャンネルを有する特徴マップを含み、各々の特徴マップは、1つの2次元ベクトルに対応されてもよく、本発明の実施例は、これに対して限定しない。
1つまたは複数の選択可能な実施例において、処理ブロックは、1つまたは複数の処理ユニットを含んでもよく、各々の処理ユニットは、処理ブロックの入力情報に対して特徴抽出処理を実行できる。例えば、各々の処理ユニットは、1つまたは複数の畳み込み層を含んでもよいし、または、他の層をさらに含んでもよい。例えばバッチ正規化(Batch Normalization、BN)層、活性化層などの中の1種または任意の組み合わせをさらに含んでもよい。または、処理ブロックは、処理ユニットの後に位置する他のユニットを含んでもよく、例えば、解像度下げ層、特徴ズーム層、BN層、活性化層の中の任意の1種または組み合わせを含んでもよい。
1つまたは複数の選択的な実施例において、処理ユニットは、少なくとも1つの特徴抽出層および特徴調整層を含み、
ステップ110は、処理ユニット中の少なくとも1つの特徴抽出層を利用して処理ユニットの入力情報に対して特徴抽出処理を実行して、第1特徴情報を得、処理ユニット中の特徴調整層を利用して第1特徴情報に対して調整処理を実行して、処理ユニットによって出力される画像特徴情報を得ることを含んでもよい。
選択的に、各ペアの前記隣接する処理ブロックによって出力された画像特徴情報は、同一の大きさおよび同一のチャンネル数を有する。画像特徴情報同士の間のペアごとの融合を実現するためには、各ペアの隣接する処理ブロックによって出力される画像特徴情報が同一の大きさおよび同一のチャンネル数を有することを必要とする。本発明の実施例においては、処理ユニット中に特徴情報の大きさおよびチャンネル数を調整するための1つの特徴調整層を追加することで実現し、当該特徴調整層は、処理ユニット内に配置されてもよいし、単独的に配置されてもよく、本発明の実施例は、特徴調整層の位置に対して限定しない。1つの選択可能な例において、各々の処理ユニットは、少なくとも1つの特徴抽出層(例えば、畳み込み層、標準化層BN、および、活性化層ReLUなど)および特徴調整層(例えば、畳み込み層、標準化層BN、および、活性化層ReLUなど)を含んでもよい。図2は、本発明の実施例によって提供される画像分割方法中の処理ブロックの1例示的な構造図である。図2に示すように、処理ブロック(Dense Block)は、複数の処理ユニット(Layer Unit)を含み、各々の処理ユニットは、3つ畳み込み層を含み、各々の畳み込み層の後にはそれぞれ1つのバッチ正規化層(BN)および1つの活性化層(ReLU)が接続され、ここで、前の2つの畳み込み層によって出力された特徴マップを次の1つの処理ユニットに入力し、傍らへ出力する畳み込み層を特徴調整層とする。当該特徴調整層は2番目の畳み込み層によって出力された特徴マップに対して大きさおよびチャンネルの調整を実行するによって、出力される特徴情報(例えば、特徴マップ)が他の処理ユニットによって出力される特徴情報大きさおよびチャンネル数と同一になるようにして、特徴情報の融合の用意をする。
1つまたは複数の選択可能な実施例において、ステップ120の前に、複数の処理ブロックの中の処理ブロックM1によって出力された画像特徴情報に対して特徴縮小処理を実行し、複数の処理ブロックの中の処理ブロックM2によって出力された画像特徴情報に対して特徴拡張処理を実行するステップをさらに含んでもよい。ここで、処理ブロックM2の入力端は、処理ブロックM1の出力端と直接接続または間接接続され、または、処理ブロックM2によって出力された画像特徴情報は、少なくとも一部的に、処理ブロックM1によって出力された画像特徴情報に基づいて得られたものである。
一般的に、ニューラルネットワークで、上層の処理ブロックによって得られる画像特徴情報は、経過した処理層の数がより少ないため、含まれた画像情報がより少ないが、下層の処理ブロックによって得られる画像特徴情報は、経過した処理層の数がより多いため、含まれた画像情報がより多い。したがって、選択的に、ペアごとに融合する場合、隣接する処理ブロックに対応する画像特徴情報が浅層特徴であると、隣接する処理ブロックの中の下方に位置する処理ブロックによって出力された画像特徴情報に対して特徴縮小処理を実行し(例えば、ダウンサンプリング処理)、隣接する処理ブロックに対応する画像処理特徴が深層特徴であると、隣接する処理ブロックの中の上方に位置する処理ブロックによって出力された画像特徴情報に対して特徴拡張処理を実行する(例えば、補間処理などの、双線形補間処理であり得る)。
1つまたは複数の選択可能な実施例において、本発明の実施例処理の画像は、リモートセンシング画像であり得、この場合、目標対象は、土地であり、すなわち、本発明の上記の実施例の方法は、リモートセンシング画像による土地に対する分割を実現する。例えば、リモートセンシング画像中の土地を、森林、草地、都市、農地などに分割する。
本発明の上記の実施例によって提供される画像分割方法を適用する場面は、土地計画、土地使用モニタリング、土地現状調査などを含むが、これらに限定されない。
1つまたは複数の選択可能な実施例において、本発明の実施例の画像分割方法は、分割ニューラルネットワークを利用して実現され、画像は、土地サンプル画像である。
本発明の実施例の画像分割方法は、サンプル画像の目標対象分割結果およびサンプル画像のラベル情報に基づいて、分割ニューラルネットワークをトレーニングするステップをさらに含む。
もう一層精確な画像分割結果を得るために、画像分割を実現する分割ニューラルネットワークに対してトレーニングを実行し、トレーニングを通じて当該ネットワークの特定目標対象(例えば、土地)に対する分割タスクの精確性を向上させる必要がある。
選択的に、サンプル画像は、土地サンプル画像であり、本発明の実施例の方法は、分割ニューラルネットワークを利用して道路サンプル画像に対して処理を実行して、道路サンプル画像の分割結果を得るステップと、
土地サンプル画像の目標対象予測結果および道路サンプル画像の分割結果に基づいて、分割ニューラルネットワークのパラメータを調整するステップと、をさらに含む。
伝統的なCNNによって土地画像(例えば、リモートセンシング画像)に対して分割を実行する場合、中間レベルの構造情報が欠落されることになり、構造情報は、画像分割の支援および分類に対して重要な役割を果たす。例えば、土地被覆タイプの分類の場合、リモートセンシング画像はより大きいシーンをカバーし、シーンが解像度の制限および影響を受ける同時に、ラベルによってもたらさせるノイズも画像の分割に大きい影響を与える。それで、土地画像の構造情報をどのように効率的且つ精確に取得するかが、分割問題を解決するキーポイントになっている。本発明の実施例によって提案される分割ニューラルネットワークは、道路データを導入してトレーニングを実行し、土地画像の構造欠落問題を補い、細部情報を改善した。
土地被覆のリモートセンシング画像の場合、画像のスケールがより大きく、含まれたシーンが多く、乱雑し、滑らかな境界線がないし、また、土地被覆自身に明確に定量化された境界線がないため、ラベル付けがあいまいになる。伝統的なCNNは、シーンがより大きいリモートセンシング画像に対して構造情報を取得することが困難であり、分割効果がより低くなる。本発明の実施例は、既に取得した道路データを支援データとして利用してネットワークのトレーニングを支援することを提案する。道路データには、明確な構造特徴が存在し、土地被覆中に、いくつかの道路データが存在することになる。また、互いに異なる土地タイプで、道路の分布は互いに異なる状態を現す。したがって、この考えに基づいて、分割ニューラルネットワーク(例えば、高密度融合クラスメートネットワーク、Dense Fusion Classmate Network、DFCNet)によって土地と道路の情報を同時に取得することで、道路が土地の分類を支援するようにする。道路データは、土地被覆と比較すると取得がもっと容易であり、ラベル付けも簡単であるため、実際の適用において、より少ないし且つラベル付けがより難しい土地被覆データに対して、ラベル付けが容易な一部の道路データを利用して、土地被覆タイプの分類を支援できる。
選択的に、目標画像特徴情報は、混合特徴情報に基づいて得られたものであり、前記混合特徴情報は、前記分割ニューラルネットワークにより前記土地サンプル画像および前記道路サンプル画像に対してバッチ処理を実行して得られたものである。
得られたサンプル画像セットが分割ニューラルネットワークの処理を通じて対応される目標サンプル画像特徴情報セットが得られた後、土地サンプル画像と道路画像とを区分するために、本発明の実施例においては、スライス層(slice)によって、土地サンプル画像に対応する目標サンプル画像特徴情報と、道路画像に対応する目標サンプル画像特徴情報と、を区分し、具体的な区分は、土地サンプル画像および道路画像を入力する順序にしたがって実行できる。
選択的に、土地サンプル画像の目標対象予測結果および道路サンプル画像の分割結果に基づいて、分割ニューラルネットワークのパラメータを調整するステップは、土地サンプル画像の目標対象予測結果および土地サンプル画像のラベル情報に基づいて第1損失を得るステップと、道路サンプル画像の分割結果および道路サンプル画像のラベル情報に基づいて第2損失を得るステップと、第1損失および第2損失に基づいて分割ニューラルネットワークのパラメータを調整するステップと、を含む。
選択的に、第1損失および第2損失を加重和して、総損失を得、総損失に基づいて分割ニューラルネットワークのパラメータを調整する。第1損失および第2損失を加重和することによって、分割ニューラルネットワークのパラメータを調整し、当該加重和する重み値は、予め設定するか、または、実験または複数回のトレーニングによって得ることができ、一般的に、第1損失の重み値は、第2損失の重み値よりも大きく、例えば、第1損失の重み値/第2損失の重み値は、8:7であり、本発明の実施例は、具体的な重み値の大きさに対して限定しない。
本発明の実施例において、道路データを利用して土地分類の構造欠落情報を補い、分割ニューラルネットワークの土地分割タスクに対する精確性を向上させた。取得が容易であり且つラベル付けが容易である道路データを利用して、道路データを追加して分割を実行した後、土地被覆分類の効率および精確率を向上させることができる。また、細部の処理もより完璧になる。
1つまたは複数の選択可能な実施例において、ステップ110の前に、パラメータを設定することによって、サンプル画像に対して、サンプル画像の大きさの調整、サンプル画像の角度の回転、サンプル画像の明るさの変更の中の少なくとも1種の強化処理を実行するステップをさらに含んでもよく、ステップ110は、複数の処理ブロックを利用して少なくとも1種の強化処理の後の画像に対して特徴抽出処理を実行して、複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップを含んでもよい。
本発明の実施例は、データ強化処理を実現し、上記の少なくとも1つのパラメータを調整することによって、もう一層多いサンプル画像を得ることができ、また、サンプル画像の表示効果を向上させて、よりよいトレーニング効果を得る。例えば、ネットワークトレーニングデータのトリミング大きさは、513x513であり、道路データ画像に対するランダム調整大きさ(resize)の値の範囲は、[0.5,1.5]であり、土地分類画像に対するランダムresizeの値の範囲は、[0.8,1.25]である。道路および土地データに対するランダム回転(rotate)範囲は、[-180,180]であり、明るさ調整(color jitter)パラメータは、0.3である。
1つまたは複数の選択可能な実施例において、ステップ110の前に、所定の大きさのトリミング枠を利用して画像をトリミングして、少なくとも1つのトリミング画像を得るステップをさらに含んでもよく、ステップ110は、複数の処理ブロックを利用してトリミング画像に対して特徴抽出処理を実行して、複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップを含んでもよい。
本発明の実施例は、データ前処理を実現し、もう一層多い情報を取得して、ネットワークの受容フィールドを増やして、トレーニング過程全体を加速するためには、トリミングによってサンプル画像の大きさを縮小できる。例えば、2448x2448の土地データを1024x1024大きさにトリミングし、この場合、1つの土地データに対してトリミングを実行して、複数のサンプルデータを得る。ネットワークのトレーニング過程でトレーニングデータのトリミングサイズを大きくして、ネットワークの多いシーン情報の抽出を支援し、分割の効果を向上させる。
細部情報をさらに処理するために、本発明の実施例は、高密度融合構造を提案する。互いに異なる深度のLayerをペアごとに融合し、Element-wise Sumを通じて融合を実行し、最後の1層までに再帰的に融合する。高密度融合構造によって、ネットワークがもう一層多い深層と浅層の情報を取得できるようにして、細部的の精確な分割に有利である。同時融合は、ネットワークの逆方向伝播(back propagation)が、より良く且つより速く、より浅い層のLayerにリターンするようにし、ネットワークのより良い監視に有利である。
図3は、本発明の実施例によって提供される画像分割方法中の分割ニューラルネットワークのトレーニング過程での1例示的な構造の模式図である。図3に示すように、道路データとサンプル土地データとをconcat層を介して一緒に結合させ、0次元上で結合させる。分割ニューラルネットワーク(DFCNet)全体の構造図は、図3に示すように、conv1は、畳み込み層であり、Dense Block2~Dense Block9は、処理ブロックであり、互いに異なる数の処理ユニットを含む。図面には、パラメータに対する説明がある。Dense Block2の例で、l=6は、DenseBlock2が6個の処理ユニットを含むことを表す。Conv_TDは、ダウンサンプリング操作を表し、(128,1*1,0,1)は、畳み込みチャンネル数が128であり、畳み込みカーネルサイズが1*1であり、paddingの値が0であり、ステップサイズが1であることを表す。
Pooling1、2、3、4は、プーリング層であり、策略は、平均プーリングであり、プーリング区間は、2x2であり、Interp5、6、7、8は、アップサンプリング過程であり、双線形補間によって特徴を2倍に拡大する。
各々のDense Blockには、いずれも、いくつかの処理ユニットLayer Unitが含まれ、各々の処理ユニットには、いずれも、2つの畳み込み層conv_x1/conv_x2(図2に示す)を含まれ、後方にはそれぞれBN層およびRULU層が接続される。Conv_x1の畳み込みカーネルの数は、64であり、conv_x2畳み込みカーネルの数は、16である。Conv_2xの後方には、1つのconv_f畳み込み層が接続されて、特徴融合過程での特徴に対して統合を実行する。
図3の右側の部分が表すのは互いに異なるDense Block同士の間の特徴融合過程であり、画素がより低いDense Blockの後方には1つの補間層(Interp)が接続され、画素がより高いDense BlockとElement-wise和の求めを実行する。最終に、最後の1層まで融合し、最後の1つの特徴融合層上にslice層を追加して、道路と土地データを分けて、それぞれ予測する。
土地分類タスクと、前の経典的なFC-DenseNetネットワーク構造とを、比較する。畳み込みネットワークの最と深い層で、特徴マップを記憶する。図4は、本発明の実施例とFC-DenseNetとの分割効果の比較の1つの示例図である。図4に示すように、(a)は、伝統的なFC-DenseNet分割の結果を表し、(b)は、本発明の実施例の分割の結果を表し、道路データを導入したDFCNetの場合、特徴上でより良い構造情報を有することができる。都市、農地、および、草地の方で、分割をより良く支援できる。
分割効果の場合、図5は、本発明の実施例とFC-DenseNetおよびClassmateNet構造との分割効果の比較の1つの示例図である。図5に示すように、(a)は、FC-DenseNet構造分割の結果を表し、(b)は、ClassmateNet構造分割の結果を表し、(c)は、本発明の実施例のDFCNet構造分割の結果を表す。高密度融合構造を導入しなかったClassmateNetは、経典的なFC-DenseNetと比較すると、分割の方で効果がより良く、DFCNetは、高密度融合Dense Fusion構造を導入しなかったClassmateNetと比較すると、細部の方で更なる改善を有する。
当業者は、上記の方法の実施例を実現する全部または一部のステップは、プログラム命令に関連するハードウェアによって完成でき、前述したプログラムは、コンピュータ可読取記憶媒体に記憶でき、当該プログラムが実行されるときに、上記の方法の実施例のステップが実行され、前述した記憶媒体は、ROM、RAM、磁気ディスク、または、光ディスクなどの、プログラムコードを記憶できる様々な媒体を含むことを理解できる。
図6は、本発明の実施例によって提供される画像分割装置の構造の模式図である。当該装置は、本発明の上記の各方法の実施例の実現に用いられることができる。図6に示すように、当該装置は、以下のモジュールを備える。
画像処理モジュール61は、複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得る。
融合モジュール62は、複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力された画像特徴情報に対して少なくとも2段の融合処理を実行して、目標画像特徴情報を得る。
分割モジュール63は、目標画像特徴情報に基づいて画像の目標対象分割結果を確定する。
処理ブロックは、少なくとも1つの処理ユニットを含み。選択的に、複数の処理ブロック同士の間は、順次に接続でき、ここで、複数の処理ブロックは、それぞれ互いに異なる深度に位置することができ、例えば、複数の処理ブロック中の任意の処理ブロックの出力端は、次の1つの処理ブロックの入力端と接続できる。
融合モジュール62は、具体的に、各ペアの隣接する処理ブロックによって出力された画像特徴情報に対して第1段の融合処理を実行して、第1融合特徴情報を得、少なくとも1ペアの隣接する第1融合特徴情報に対して第2段の融合処理を実行して、少なくとも1つの第2融合特徴情報を得、少なくとも1つの第2融合特徴情報に基づいて、目標画像特徴情報を確定する。
本発明の実施例において、複数の処理ブロックは、複数ペアの隣接する処理ブロックに分けられ、各ペアの隣接する処理ブロックは、2つの隣接する処理ブロック(すなわち直接接続された2つの処理ブロック)を含み、選択的に、互いに異なるペアの隣接する処理ブロックは、互いに異なる処理ブロックを含み、または、互いに異なるペアの隣接する処理ブロックは、同一の処理ブロックを含まないでもよく、例えば、1番目の処理ブロックと2番目の処理ブロックによって第1ペアの隣接する処理ブロックが構成され、3番目の処理ブロックと4番目の処理ブロックによって第2ペアの隣接する処理ブロックが構成され、等々。
融合モジュール62は、具体的に、後続融合処理によって得られた後続融合特徴情報の数が1つになるまで、少なくとも1つの第2融合特徴情報に対して後続融合処理を実行し、数が1つである後続融合特徴情報を目標画像特徴情報とする。
融合モジュール62は、具体的に、各ペアの前記隣接する処理ブロックによって出力された画像特徴情報に対して融合処理を実行する過程において、各ペアの前記隣接する処理ブロックによって出力された画像特徴情報を要素ごとに加える。
細部情報をさらに処理するために、本発明の実施例においては、高密度融合構造を提案する。互いに異なる深度の層(Layer)をペアごとに融合し、要素ごとに和を求めて融合を実行し、最後の1層までに再帰的に融合する。高密度融合構造によって、ネットワークがもう一層多い深層と浅層の情報を取得できるようにして、細部的の精確な分割に有利である。
本発明の上記の実施例によって提供される画像分割装置によると、複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得、複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力された画像特徴情報に対して少なくとも2段の融合処理を実行して、目標画像特徴情報を得、目標画像特徴情報に基づいて画像の目標対象分割結果を確定し、隣接された画像特徴情報の少なくとも2段の融合によって、もう一層多い情報を得て、画像中の目標対象のより精確な分割に有利である。
1つまたは複数の選択可能な実施例において、複数の処理ブロック同士の間は、順次に接続されるか、および/または、各ペアの前記隣接する処理ブロックによって出力された画像特徴情報は、同一の大きさおよび同一のチャンネル数を有する。画像特徴情報同士の間のペアごとの融合を実現するためには、各ペアの隣接する処理ブロックによって出力される画像特徴情報が同一の大きさおよび同一のチャンネル数を有することを必要とする。本発明の実施例においては、処理ユニット中に特徴情報の大きさおよびチャンネル数を調整するための1つの特徴調整層を追加することで実現し、当該特徴調整層は、処理ユニット内に配置されてもよいし、単独的に配置されてもよく、本発明の実施例は、特徴調整層の位置に対して限定しない。1つの選択可能な例において、各々の処理ユニットは、少なくとも1つの特徴抽出層(例えば、畳み込み層、標準化層BN、および、活性化層ReLUなど)および1つの特徴調整層(例えば、畳み込み層、標準化層BN、および、活性化層ReLUなど)を含んでもよい。
1つまたは複数の選択可能な実施例において、処理ブロックは、1つまたは複数の処理ユニットを含んでもよく、各々の処理ユニットは、入力情報に対して特徴抽出処理を実行できる。例えば、各々の処理ユニットは、1つまたは複数の畳み込み層を含んでもよいし、または、他の層をさらに含んでもよい。例えばバッチ正規化(Batch Normalization、BN)層、活性化層などの中の1種または任意の組み合わせをさらに含んでもよい。または、処理ブロックは、処理ユニットの後に位置する他のユニットを含んでもよく、例えば、解像度下げ層、特徴ズーム層、BN層、活性化層の中の任意の1種または組み合わせを含んでもよい。
1つまたは複数の選択可能な実施例において、処理ユニットは、少なくとも1つの特徴抽出層および特徴調整層を含み、画像処理モジュール61は、具体的に、処理ユニット中の少なくとも1つの特徴抽出層を利用して処理ユニットの入力情報に対して特徴抽出処理を実行して、第1特徴情報を得、処理ユニット中の特徴調整層を利用して第1特徴情報に対して調整処理を実行して、処理ユニットによって出力される画像特徴情報を得る。
1つまたは複数の選択可能な実施例において、特徴画像処理モジュールをさらに備え、当該特徴画像処理モジュールは、前記複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力された画像特徴情報に対して少なくとも2段の融合処理を実行して目標画像特徴情報を得る前に、複数の処理ブロックの中の処理ブロックM1によって出力された画像特徴情報に対して特徴縮小処理を実行し、複数の処理ブロックの中の処理ブロックM2によって出力された画像特徴情報に対して特徴拡張処理を実行し、ここで、処理ブロックM2の入力端は処理ブロックM1の出力端と直接接続または間接接続され、または、処理ブロックM2によって出力された画像特徴情報は、少なくとも一部的に、処理ブロックM1によって出力された画像特徴情報に基づいて得られたものである。
一般的に、ニューラルネットワークで、上層の処理ブロックによって得られる画像特徴情報は、経過した処理層の数がより少ないため、含まれた画像情報がより少ないが、下層の処理ブロックによって得られる画像特徴情報は、経過した処理層の数がより多いため、含まれた画像情報がより多い。したがって、選択的に、ペアごとに融合する場合、隣接する処理ブロックに対応する画像特徴情報が浅層特徴であると、隣接する処理ブロックの中の下方に位置する処理ブロックによって出力された画像特徴情報に対して特徴縮小処理を実行し(例えば、ダウンサンプリング処理など)、隣接する処理ブロックに対応する画像処理特徴が深層特徴であると、隣接する処理ブロックの中の上方に位置する処理ブロックによって出力された画像特徴情報に対して特徴拡張処理を実行する(例えば、補間処理などの、双線形補間処理であり得る)。
1つまたは複数の選択可能な実施例において、画像処理モジュール61は、具体的に、複数の処理ブロックの中の処理ブロックN1を利用して処理ブロックN1の入力情報に対して特徴抽出処理を実行して、処理ブロックN1に対応する第1画像特徴情報を得、第1画像特徴情報を処理ブロックN1の次の1つの処理ブロックに入力して特徴抽出処理を実行して、次の1つの処理ブロックによって出力される第2画像特徴情報を得る。ここで、処理ブロックN1の入力情報は、画像、および/または、処理ブロックN1の前に位置する少なくとも1つの処理ブロックによって出力された画像特徴情報を含み、N1は、1以上の整数である。
選択的に、処理ブロックN1は、複数の処理ブロックの中の1番目の処理ブロックであってもよく、この場合、処理ブロックN1の入力情報は、画像または画像の初期特徴情報であってもよく、または、処理ブロックN1は、複数の処理ブロックの中の2番目の処理ブロック、または、さらに後の処理ブロックであってもよく、この場合、処理ブロックN1の入力情報は、前の1つの処理ブロックによって出力された画像特徴情報を含んでもよく、または、当該前の1つの処理ブロックの前に位置する任意の1つまたは複数の処理ブロックによって出力された画像特徴情報をさらに含んでもよく、または、画像をさらに含んでもよい。すなわち、処理ブロックN1の入力情報は、画像および/または処理ブロックN1の前に位置する1つまたは複数の処理ブロックによって出力された画像特徴情報を含んでもよい。処理ブロックの入力情報が互いに異なる深度の画像特徴情報を含むため、処理ブロックによって出力された画像特徴情報がもう一層多い画像情報を含むようにする。
前方に位置する処理ブロックが得た画像特徴情報に含まれた浅層情報が多いほど、後方に位置する処理ブロックによって出力された画像特徴情報と結合して、画像中の浅層情報と深層情報とをいずれも得ることができる。
選択的に、画像処理モジュール61は、具体的に、画像および/または少なくとも1つの処理ブロックN2によって出力された画像特徴情報および第1画像特徴情報を、処理ブロックN1の次の1つの処理ブロックに入力して特徴抽出処理を実行して、次の1つの処理ブロックによって出力される第2画像特徴情報を得、ここで、処理ブロックN1の入力端は、処理ブロックN2の出力端と直接接続または間接接続される。
選択的に、画像処理モジュール61は、さらに、前記画像および/または少なくとも1つの処理ブロックN2によって出力された画像特徴情報および前記第1画像特徴情報を、前記処理ブロックN1の次の1つの処理ブロックに入力して特徴抽出処理を実行する前に、少なくとも1つの処理ブロックN2によって出力された画像特徴情報に対して融合処理を実行し、融合処理して得られた画像特徴情報を処理ブロックN1の次の1つの処理ブロックに入力する。
選択的に、上記の画像の目標対象分割装置は、特徴抽出モジュールをさらに備え、当該特徴抽出モジュールは、複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得る前に、畳み込み層を利用して画像に対して特徴抽出処理を実行して、画像の初期特徴情報を得、画像の初期特徴情報を複数の処理ブロックに入力して特徴抽出処理を実行する。
本発明の実施例処理の画像は、リモートセンシング画像であり得、この場合、目標対象は、土地であり、すなわち、本発明の上記の実施例の方法は、リモートセンシング画像による土地に対する分割を実現する。例えば、リモートセンシング画像中の土地を、森林、草地、都市、農地などに分割する。
本発明の上記の実施例によって提供される画像分割装置土地計画、土地使用モニタリング、土地現状調査などに適用できるが、これらに限定されない。
1つまたは複数の選択可能な実施例において、本発明の実施例画像分割装置は、分割ニューラルネットワークを利用して実現され、画像は、土地サンプル画像であり、本発明の実施例画像の目標対象分割装置は、トレーニングモジュールをさらに備え、当該トレーニングモジュールは、分割ニューラルネットワークを利用して道路サンプル画像に対して処理を実行して、道路サンプル画像の分割結果を得、土地サンプル画像の目標対象予測結果および道路サンプル画像の分割結果に基づいて、前記分割ニューラルネットワークのパラメータを調整する。
より精確な目標対象分割結果を得るためには、画像分割を実現する分割ニューラルネットワークに対してトレーニングを実行し、トレーニングを通じて当該ネットワークの特定目標対象(例えば、土地)に対する分割タスクの精確性を向上させる必要がある。
伝統的なCNNによって土地画像(例えば、リモートセンシング画像)に対して分割を実行する場合、中間レベルの構造情報が欠落されることになり、構造情報は、画像分割の支援および分類に対して重要な役割を果たす。それで、土地画像の構造情報をどのように効率的且つ精確に取得するかが、分割問題を解決するキーポイントになっている。本発明の実施例によって提案される分割ニューラルネットワークは、道路データを導入してトレーニングを実行し、土地画像の構造欠落問題を補い、細部情報を改善した。
土地被覆のリモートセンシング画像の場合、画像のスケールがより大きく、含まれたシーンが多く、乱雑し、滑らかな境界線がないし、また、土地被覆自身に明確に定量化された境界線がないため、ラベル付けがあいまいになる。伝統的なCNNは、シーンがより大きいリモートセンシング画像に対して構造情報を取得することが困難であり、分割効果がより低くなる。本発明の実施例は、既に取得した道路データを支援データとして利用してネットワークのトレーニングを支援することを提案する。道路データには、明確な構造特徴が存在し、土地被覆中に、いくつかの道路データが存在することになる。また、互いに異なる土地タイプで、道路の分布は互いに異なる状態を現す。したがって、この考えに基づいて、分割ニューラルネットワーク(例えば、高密度融合クラスメートネットワーク)を利用して土地と道路の情報を同時に取得することで、道路が土地の分類を支援するようにする。道路データは、土地被覆と比較すると取得がもっと容易であり、ラベル付けも簡単であるため、実際の適用において、より少ないし且つラベル付けがより難しい土地被覆データに対して、ラベル付けが容易な一部の道路データを利用して、土地被覆タイプの分類を支援できる。
選択的に、目標画像特徴情報は、混合特徴情報に基づいて得られたものであり、混合特徴情報は、分割ニューラルネットワークにより土地サンプル画像および道路サンプル画像に対してバッチ処理を実行して得られたものである。
選択的に、トレーニングモジュールは、具体的に、土地サンプル画像の目標対象予測結果および土地サンプル画像のラベル情報に基づいて第1損失を得、道路サンプル画像の分割結果および道路サンプル画像のラベル情報に基づいて第2損失を得、第1損失および第2損失に基づいて分割ニューラルネットワークのパラメータを調整する。
選択的に、トレーニングモジュールは、具体的に、第1損失および第2損失を加重和して、総損失を得、総損失に基づいて分割ニューラルネットワークのパラメータを調整する。
1つまたは複数の選択可能な実施例において、強化画像処理モジュールをさらに備えてもよく、当該強化画像処理モジュールは、複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得る前に、パラメータを設定することによって、サンプル画像に対して、サンプル画像の大きさの調整、サンプル画像の角度の回転、サンプル画像の明るさの変更の中の少なくとも1種の強化処理を実行する。
画像処理モジュール61は、具体的に、複数の処理ブロックを利用して少なくとも1種の強化処理の後の画像に対して特徴抽出処理を実行して、複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得る。
本発明の実施例は、データ強化処理を実現し、上記の少なくとも1つのパラメータを調整することによって、もう一層多いサンプル画像を得ることができ、また、サンプル画像の表示効果を向上させて、よりよいトレーニング効果を得る。例えば、ネットワークトレーニングデータのトリミング大きさは、513x513であり、道路データ画像に対するランダム調整大きさの値の範囲は、[0.5,1.5]であり、土地分類画像に対するランダムresizeの値の範囲は、[0.8,1.25]である。道路および土地データに対するランダム回転範囲は、[-180,180]であり、明るさ調整パラメータは、0.3である。
1つまたは複数の選択可能な実施例において、上記の画像の目標対象分割装置は、前処理モジュールをさらに備えてもよく、前記前処理モジュールは、複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得る前に、所定の大きさのトリミング枠を利用して画像をトリミングして、少なくとも1つのトリミング画像を得る。
画像処理モジュール61は、具体的に、複数の処理ブロックを利用してトリミング画像に対して特徴抽出処理を実行して、複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得る。
本発明の実施例は、データ前処理を実現し、もう一層多い情報を取得して、ネットワークの受容フィールドを増やして、トレーニング過程全体を加速するためには、トリミングによってサンプル画像の大きさを縮小できる。例えば、2448x2448の土地データを1024x1024大きさにトリミングし、この場合、1つの土地データに対してトリミングを実行して、複数のサンプルデータを得る。ネットワークのトレーニング過程でトレーニングデータのトリミングサイズを大きくして、ネットワークの多いシーン情報の抽出を支援し、分割の効果を向上させる。
図7は、本発明の実施例によって提供される土地分割ニューラルネットワークのトレーニング方法の例示的なフローチャートである。図7に示すように、当該方法は、以下のステップを含む。
ステップ710において、少なくとも1つの土地サンプル画像および少なくとも1つの道路サンプル画像を土地分割ニューラルネットワークに入力して、少なくとも1つの土地サンプル画像の予測分割結果および少なくとも1つの道路サンプル画像の予測分割結果を得る。
ステップ720において、少なくとも1つの土地サンプル画像の予測分割結果および少なくとも1つの道路サンプル画像の予測分割結果に基づいて、土地分割ニューラルネットワークのパラメータを調整する。
土地画像の場合、一般的に、スケールがより大きく、含まれたシーンが多く、乱雑し、滑らかな境界線がないし、また、土地被覆自身に明確に定量化された境界線がないため、ラベル付けがあいまいになる。伝統的なCNNは、シーンがより大きい土地画像に対して構造情報を取得することが困難であり、分割効果がより低くなる。
本発明の実施例においては、ラベル情報を有する道路データを支援データとして利用して土地分割ニューラルネットワークのトレーニングを支援することを提案する。道路データには、明確な構造特徴が存在し、土地被覆中に、いくつかの道路データが存在することになる。また、互いに異なる土地タイプで、道路の分布は互いに異なる状態を現す。したがって、この考えに基づいて、土地分割ニューラルネットワーク(例えば、高密度融合クラスメートネットワーク)に利用して土地と道路の情報を同時に取得することで、道路が土地の分類を支援するようにする。道路データは、土地被覆と比較すると取得がもっと容易であり、ラベル付けも簡単であるため、実際の適用において、より少ないし且つラベル付けがより難しい土地被覆データに対して、ラベル付けが容易な一部の道路データを利用して、土地被覆タイプの分類を支援できる。
図1に示す画像の目標対象分割方法中の画像がリモートセンシング画像であり、目標対象が土地である場合、本発明の実施例のトレーニングを通じて得られた土地分割ニューラルネットワークは、上記の図1に示す画像の目標対象分割方法に適用でき、リモートセンシング画像中の土地に対する分割の実行を実現して、土地分割結果を得ることができる。
1つまたは複数の選択可能な実施例において、土地分割ニューラルネットワークは、順次に接続された複数の処理ブロック、融合ネットワーク、および、分割ネットワークを含む。
ステップ710は、複数の処理ブロックを利用して少なくとも1つの土地サンプル画像および少なくとも1つの道路サンプル画像に対して特徴抽出処理を実行して、複数の処理ブロックの中の各処理ブロックによって出力されるサンプル画像特徴情報を得るステップと、融合ネットワークを利用して複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力されたサンプル画像特徴情報に対して少なくとも2段の融合処理を実行して、目標サンプル画像特徴情報を得るステップと、目標サンプル画像特徴情報に基づいて、分割ネットワークを利用して少なくとも1つの土地サンプル画像の予測分割結果および少なくとも1つの道路サンプル画像の予測分割結果を得るステップと、を含んでもよい。
細部情報をさらに処理するために、本発明の実施例は、高密度融合構造を提案する。互いに異なる深度のLayerをペアごとに融合し、Element-wise Sumを通じて融合を実行し、最後の1層までに再帰的に融合する。高密度融合構造によって、ネットワークがもう一層多い深層と浅層の情報を取得できるようにして、細部的の精確な分割に有利である。同時融合は、ネットワークの逆方向伝播が、より良く且つより速く、より浅い層のLayerにリターンするようにし、ネットワークのより良い監視に有利である。
選択的に、前記複数の処理ブロックを利用して各前記土地サンプル画像および各前記道路サンプル画像に対して処理を実行して、各々の前記土地サンプル画像に対応する少なくとも2組のサンプル画像特徴情報および各々の前記道路サンプル画像に対応する少なくとも2組のサンプル画像特徴情報を得る。
ここで、複数の処理ブロックを利用して各々の土地サンプル画像に対して処理を実行して、少なくとも2組のサンプル画像特徴情報を得ることができ、ここで、当該少なくとも2組のサンプル画像特徴情報は、少なくとも2つの処理ブロックに対応されることができる。例えば、複数の処理ブロックの中の各処理ブロックによって出力されるサンプル画像特徴情報を含み、または、複数の処理ブロック中部分処理ブロックによって出力されたサンプル画像特徴情報を含み、本発明の実施例は、これに対して限定しない。
本発明の実施例の土地分割ニューラルネットワークは、入力された各土地サンプル画像および各道路サンプル画像に対してそれぞれ処理を実行することによって、バッチ処理のときに互いに異なるサンプル画像同士の間に画像特徴情報の混交が出現されて、トレーニング結果の不正確になることを防止する。
選択的に、複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力されたサンプル画像特徴情報に対して少なくとも2段の融合処理を実行して、目標サンプル画像特徴情報を得るステップは、各々の土地サンプル画像に対応する少なくとも2組のサンプル画像特徴情報に対して少なくとも2段の融合を実行して、前記各々の土地サンプル画像に対応する土地サンプル画像特徴情報を得るステップと、各々の道路サンプル画像に対応する少なくとも2組のサンプル画像特徴情報に対して少なくとも2段の融合を実行して、前記各々の道路サンプル画像の道路サンプル画像特徴情報を得るステップと、を含み、ここで、前記目標サンプル画像特徴情報は、前記少なくとも1つの土地サンプル画像に対応する土地サンプル画像特徴情報、および、前記少なくとも1つの道路サンプル画像に対応する道路サンプル画像特徴情報を含む。
各々の画像サンプル画像および各々の道路サンプル画像は、いずれも、それぞれ、互いに異なる画像特徴情報を有し、互いに異なるサンプル画像の画像特徴情報が融合されると、トレーニング結果の不精確をもたらす。本発明の実施例の土地分割ニューラルネットワークは、各々のサンプル画像(土地サンプル画像または道路サンプル画像)に対応する2組のサンプル画像特徴情報をそれぞれ実行することによって、複数のサンプル画像に対応するサンプル画像特徴情報同士の間の融合を防止する。
選択的に、土地分割ニューラルネットワークは、スライス層をさらに含み、目標サンプル画像特徴情報に基づいて、少なくとも1つの土地サンプル画像の予測分割結果および少なくとも1つの道路サンプル画像の予測分割結果を確定する前に、前記スライス層を利用して前記目標サンプル画像特徴情報に含まれた前記土地サンプル画像特徴情報および前記道路サンプル画像特徴情報に対して分割を実行するステップと、前記土地サンプル画像特徴情報を前記分割ネットワークに入力して処理を実行して、土地サンプル画像の予測分割結果を得、前記道路サンプル画像特徴情報を前記分割ネットワークに入力して処理を実行して、前記道路サンプル画像の予測分割結果を得るステップと、をさらに含む。
少なくとも1つの土地サンプル画像および少なくとも1つの道路サンプル画像は、土地分割ニューラルネットワークに含まれた複数の順次に接続された処理ブロックによって処理された後に、対応する目標サンプル画像特徴情報セットが得られた後、土地サンプル画像と道路サンプル画像とを区分するために、道路画像の情報を利用して土地分割ニューラルネットワークに対してトレーニングを実行する。本発明の実施例においては、スライス層(slice)によって土地サンプル画像に対応する目標サンプル画像特徴情報と道路サンプル画像に対応する目標サンプル画像特徴情報とを区分し、具体的な区分は、土地サンプル画像および道路サンプル画像を入力する順序にしたがって区分できる。
選択的に、土地サンプル画像および道路サンプル画像は、それぞれ、ラベル情報を有し、
少なくとも1つの土地サンプル画像の予測分割結果および少なくとも1つの道路サンプル画像の予測分割結果に基づいて、土地分割ニューラルネットワークのパラメータを調整するステップは、土地サンプル画像に対応する予測分割結果および土地サンプル画像に対応するラベル情報に基づいて第1損失を得るステップと、道路サンプル画像に対応する予測分割結果および道路画像に対応するラベル情報に基づいて第2損失を得るステップと、第1損失および第2損失に基づいて土地分割ニューラルネットワークのパラメータを調整するステップと、を含む。
選択的に、第1損失および第2損失を加重和して、総損失を得、総損失に基づいて土地分割ニューラルネットワークのパラメータを調整する。第1損失および第2損失を加重和することによって、土地分割ニューラルネットワークのパラメータを調整し、当該加重和する重み値は、予め設定するか、または、実験または複数回のトレーニングによって得ることができ、一般的に、第1損失の重み値は、第2損失の重み値よりも大きく、例えば、第1損失の重み値/第2損失の重み値は、8:7であり、本発明の実施例は、具体的な重み値の大きさに対して限定しない。
本発明の実施例において、道路データを利用して土地分類の構造欠落情報を補い、土地分割ニューラルネットワークの土地分割タスクに対する精確性を向上させた。取得が容易であり且つラベル付けが容易である道路データを利用して、道路データを追加して分割を実行した後、土地被覆分類の効率および精確率を向上させることができる。また、細部の処理もより完璧になる。
本発明の土地分割ニューラルネットワークのトレーニング過程の1つの例は、図3に示すようであり、本発明の実現される分割効果とFC-DenseNet分割効果との比較は、図4に示すようであり、本発明の実現される分割効果とFC-DenseNetおよびClassmateNet構造の分割効果との比較は、図5に示すようである。
実際の適用において、道路データが相対的に簡単であり、ラベル付けと取得の過程は、いずれも、土地被覆の画像よりも容易である。それで、簡単な道路データを導入することで、取得とラベル付けがより難い土地被覆画像の分類を大幅に改善し、標準の人力を節約することができる。また、高密度融合モデルネットワーク構造を追加することによって、細部で土地被覆の分類に役立つ。
当業者は、上記の方法の実施例を実現する全部または一部のステップは、プログラム命令に関連するハードウェアによって完成でき、前述したプログラムは、コンピュータ可読取記憶媒体に記憶でき、当該プログラムが実行されるときに、上記の方法の実施例のステップが実行され、前述した記憶媒体は、ROM、RAM、磁気ディスク、または、光ディスクなどの、プログラムコードを記憶できる様々な媒体を含むことを理解できる。
図8は、本発明の実施例によって提供される土地分割ニューラルネットワークのトレーニング装置の構造の模式図である。当該装置は、本発明の上記の各方法の実施例の実現に用いられることができる。図8に示すように、当該装置は、以下のモジュールを備える。
結果予測モジュール81は、少なくとも1つの土地サンプル画像および少なくとも1つの道路サンプル画像を前記土地分割ニューラルネットワークに入力して、少なくとも1つの土地サンプル画像の予測分割結果および少なくとも1つの道路サンプル画像の予測分割結果を得る。
パラメータ調整モジュール82は、少なくとも1つの土地サンプル画像の予測分割結果および少なくとも1つの道路サンプル画像の予測分割結果に基づいて、土地分割ニューラルネットワークのパラメータを調整する。
土地画像の場合、一般的に、スケールより大きく、含まれたシーンが多く、乱雑し、滑らかな境界線がないし、また、土地被覆自身に明確に定量化された境界線がないため、ラベル付けがあいまいになる。伝統的なCNNは、シーンがより大きい土地画像に対して構造情報を取得することが非常に困難であり、分割効果がより低くなる。
本発明の実施例においては、ラベル情報を有する道路データを支援データとして利用して土地分割ニューラルネットワークのトレーニングを支援することを提案する。道路データには、明確な構造特徴が存在し、土地被覆中に、いくつかの道路データが存在することになる。また、互いに異なる土地タイプで、道路の分布は互いに異なる状態を現す。したがって、この考えに基づいて、土地分割ニューラルネットワーク(例えば、高密度融合クラスメートネットワーク)に利用して土地と道路の情報を同時に取得することで、道路が土地の分類を支援するようにする。道路データは、土地被覆と比較すると取得がもっと容易であり、ラベル付けも簡単であるため、実際の適用において、より少ないし且つラベル付けがより難しい土地被覆データに対して、ラベル付けが容易な一部の道路データを利用して、土地被覆タイプの分類を支援できる。
1つまたは複数の選択可能な実施例において、土地分割ニューラルネットワークは、順次に接続された複数の処理ブロック、融合ネットワーク、および、分割ネットワークを含み、
結果予測モジュール81は、具体的に、複数の処理ブロックを利用して少なくとも1つの土地サンプル画像および少なくとも1つの道路サンプル画像に対して特徴抽出処理を実行して、複数の処理ブロックの中の各処理ブロックによって出力されるサンプル画像特徴情報を得、融合ネットワークを利用して複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力されたサンプル画像特徴情報に対して少なくとも2段の融合処理を実行して、目標サンプル画像特徴情報を得、目標サンプル画像特徴情報に基づいて、分割ネットワークを利用して少なくとも1つの土地サンプル画像の予測分割結果および少なくとも1つの道路サンプル画像の予測分割結果を得る。
細部情報をさらに処理するために、本発明の実施例は、高密度融合構造を提案する。互いに異なる深度のLayerをペアごとに融合し、Element-wise Sumを通じて融合を実行し、最後の1層までに再帰的に融合する。高密度融合構造によって、ネットワークがもう一層多い深層と浅層の情報を取得できるようにして、細部的の精確な分割に有利である。同時融合は、ネットワークの逆方向伝播が、より良く且つより速く、より浅い層のLayerにリターンするようにし、ネットワークのより良い監視に有利である。
選択的に、結果予測モジュール81は、具体的に、前記複数の処理ブロックを利用して各前記土地サンプル画像および各前記道路サンプル画像に対して処理を実行して、各々の前記土地サンプル画像に対応する少なくとも2組のサンプル画像特徴情報および各々の前記道路サンプル画像に対応する少なくとも2組のサンプル画像特徴情報を得るステップを含む。
選択的に、結果予測モジュール81は、具体的に、各々の土地サンプル画像に対応する少なくとも2組のサンプル画像特徴情報に対して少なくとも2段の融合を実行して、前記各々の土地サンプル画像に対応する土地サンプル画像特徴情報を得るステップと、各々の道路サンプル画像に対応する少なくとも2組のサンプル画像特徴情報に対して少なくとも2段の融合を実行して、前記各々の道路サンプル画像の道路サンプル画像特徴情報を得るステップと、を含み、ここで、前記目標サンプル画像特徴情報は、前記少なくとも1つの土地サンプル画像に対応する土地サンプル画像特徴情報、および、前記少なくとも1つの道路サンプル画像に対応する道路サンプル画像特徴情報を含む。
選択的に、土地分割ニューラルネットワークは、スライス層をさらに含み、
結果予測モジュール81は、さらに、前記目標サンプル画像特徴情報に基づいて、前記少なくとも1つの土地サンプル画像の予測分割結果および前記少なくとも1つの道路サンプル画像の予測分割結果を得る前に、前記スライス層を利用して前記目標サンプル画像特徴情報に含まれた前記土地サンプル画像特徴情報および前記道路サンプル画像特徴情報に対して分割を実行するステップと、前記土地サンプル画像特徴情報を前記分割ネットワークに入力して処理を実行して、土地サンプル画像の予測分割結果を得、前記道路サンプル画像特徴情報を前記分割ネットワークに入力して処理を実行して、前記道路サンプル画像の予測分割結果を得るステップと、をさらに含む。
選択的に、土地サンプル画像および道路サンプル画像は、それぞれ、ラベル情報を有し、パラメータ調整モジュール82は、具体的に、土地サンプル画像に対応する予測分割結果および土地サンプル画像に対応するラベル情報に基づいて第1損失を得、道路サンプル画像に対応する予測分割結果および道路サンプル画像に対応するラベル情報に基づいて第2損失を得、第1損失および第2損失に基づいて土地分割ニューラルネットワークのパラメータを調整する。
選択的に、パラメータ調整モジュール82は、具体的に、第1損失および第2損失を加重和して、総損失を得、総損失に基づいて土地分割ニューラルネットワークのパラメータを調整する。
本発明の実施例のもう1態様によると、電子デバイスを提供し、当該電子デバイスは、プロセッサを備え、前記プロセッサは、上記の任意の1項に記載の画像分割装置または上記の任意の1項に記載の土地分割ニューラルネットワークのトレーニング装置を含む。
本発明の実施例のもう1態様によると、電子デバイスを提供し、当該電子デバイスは、実行可能命令を記憶するためのメモリと、前記メモリと通信することによって、前記実行可能命令を実行して、上記の任意の1項に記載の画像分割方法の操作を完成し、または、前記メモリと通信することによって、前記実行可能命令を実行して、上記の任意の1項に記載の土地分割ニューラルネットワークのトレーニング方法の操作を完成するためのプロセッサと、を備える。
本発明の実施例のもう1態様によると、コンピュータ可読記憶媒体を提供し、当該コンピュータ可読記憶媒体は、コンピュータ読み取り可能命令を記憶し、前記命令が実行されるときに、上記の任意の1項に記載の画像分割方法または上記の任意の1項に記載の土地分割ニューラルネットワークのトレーニング方法の操作が実行される。
本発明の実施例のもう1態様によると、コンピュータプログラム製品を提供し、当該コンピュータプログラム製品は、コンピュータ可読コードを含み、前記コンピュータ可読コードが機器上で運行されると、前記機器中のプロセッサによって、上記の任意の1項に記載の画像分割方法または上記の任意の1項に記載の土地分割ニューラルネットワークのトレーニング方法を実現するための命令が実行される。
1つまたは複数の選択可能な実施形態において、本発明の実施例は、コンピュータプログラムプログラム製品をさらに提供し、当該コンピュータプログラムプログラム製品は、コンピュータ可読命令を記憶し、前記命令が実行されるときに、コンピュータが上記の任意の可能な実現形態に記載の画像分割方法を実行するようにし、または、任意の可能な実現形態に記載の土地分割ニューラルネットワークのトレーニング方法の操作を実行するようにする。
当該コンピュータプログラム製品は、具体的に、ハードウェア、ソフトウェア、または、その組み合わせの方式によって実現できる。選択可能な1例において、前記コンピュータプログラム製品は、具体的に、コンピュータ記憶媒体として具現され、選択可能なもう1例において、前記コンピュータプログラム製品は、具体的に、ソフトウェア開発キット(Software Development Kit、SDK)などのソフトウェア製品として具現される。
本発明の実施例は、画像分割と土地分割ニューラルネットワークのトレーニング方法および装置、電子デバイス、コンピュータ記憶媒体、並びにコンピュータプログラム製品をさらに提供し、ここで、複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得、複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力された画像特徴情報に対して少なくとも2段の融合処理を実行して、目標画像特徴情報を得、目標画像特徴情報に基づいて画像の目標対象分割結果を確定する。
いくつかの実施例において、当該目標追跡指示は、具体的に、呼び出し命令であってもよく、第1装置は、呼び出し方式によって、第2装置が目標追跡を実行するように指示し、これに応じて、第2装置は、呼び出し命令が受信されたことに応答して、上記の目標追跡中の任意の実施例中のステップおよび/または流れを実行できる。
理解すべきなのは、本発明の実施例中の「第1」、「第2」などの用語は、区分するためのもので過ぎず、本発明の実施例に対する限定として理解してはいけない。
さらに理解すべきなのは、本発明において、「複数」は、2つ以上を表し、「少なくとも1つ」は、1つまたは2つの以上を表すことができる。
さらに理解すべきなのは、本発明で言及された任意の1つの部品、データ、または、構成は、明確に限定されなかったか、または、前後の叙述で反対の示唆がない場合、一般的に、1つまたは複数に理解され得る。
さらに理解すべきなのは、本発明は、各々の実施例の説明に対して、主に各々の実施例同士の間の差異を強調し、同一または類似な部分は互いに参考でき、簡素化のために、1つずつ繰り返して説明しない。
本発明の実施例は、電子デバイスをさらに提供し、当該電子デバイスは、例えば、移動端末、パーソナルコンピュータ(PC)、タブレットコンピュータ、サーバなどであってもよい。以下、図9を参考すると、本発明の実施例を実現するための電子デバイス900の1例の構造の模式図を示し、図9に示すように、電子デバイス900は、1つのまたは複数のプロセッサ、通信部などを備え、前記1つのまたは複数のプロセッサは、1つのまたは複数の中央処理ユニット(CPU)901、および/または、1つのまたは複数の画像プロセッサ(GPU)913などであり得、プロセッサは、読み取り専用メモリ(ROM)902に記憶されている実行可能命令、または、記憶部分908からランダムアクセスメモリ(RAM)903にロードした実行可能命令に従って、各種の適当な動作と処理を実行することができる。通信部912は、ネットワークカードを含んでもよいが、これに限定されなく、前記ネットワークカードは、IB(Infiniband)ネットワークカードを含んでもよいが、これに限定されない。
プロセッサは、読み取り専用メモリ902、および/または、ランダムアクセスメモリ903と通信して実行可能命令を実行でき、バス904を介して通信部912と接続され、通信部912を介して他の目標機器と通信することによって、本発明の実施例によって提供される任意の方法に対応する操作を完成し、例えば、複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得、複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力された画像特徴情報に対して少なくとも2段の融合処理を実行して、目標画像特徴情報を得、目標画像特徴情報に基づいて画像の目標対象分割結果を確定する。
なお、RAM903には、さらに、装置の操作に必要な各種のプログラムおよびデータが記憶されていてもよい。CPU901、ROM902、および、RAM903は、バス904を介して互いに接続される、RAM903がある場合、ROM902は選択的なモジュールである。RAM903は、実行可能命令を記憶し、運行のときにROM902に実行可能命令を書き込む。実行可能命令は、中央処理ユニット901が、上記の通信方法に対応する操作を実行するようにする。入力/出力(I/O)インターフェース905も、バス904に接続される。通信部912は、統合して設けられてもよいし、複数のサブモジュール(たとえば、複数のIBネットワークカード)を有し、当該複数のサブモジュールがそれぞれバスと接続されるように、設けられてもよい。
キーボード、マウスなどを含む入力部分906、カソード光線管(CRT)、液晶ディスプレイ(LCD)などおよびスピーカーなどを含む出力部分907、ハードディスクなどを含む記憶部分908、および、LANカード、モデムなどのネットワークインターフェースカードを含む通信部分909のようなコンポーネントが、I/Oインターフェース905に接続される。通信部分909は、インターネットなどのネットワークを介して通信処理を実行する。ドライバ910も、必要に応じてI/Oインターフェース905に接続される。必要に応じて、磁気ディスク、光ディスク、磁気光学ディスク、半導体メモリなどの取り外し可能媒体911がドライバ910に装着されて、当該取り外し可能媒体911から読み取られたコンピュータプログラムを、必要に応じて、記憶部分908にインストールする。
特に説明する必要があるのは、図9に示すアーキテクチャは、選択的な1実現形態に過ぎず、具体的な実施過程において、上記の図9の部品数とタイプは、実際の要件に応じて、選択、削除、増加、または、切替することができる。異なる機能部品の配置については、分離配置および統合配置などの実現形態を採用でき、たとえば、GPUとCPUを分離可能に配置するか、または、GPUをCPUに統合可能な配置し、通信部を分離可能な配置するか、または、CPUやGPUに統合可能な配置してもよい。これらの切り替え可能な実施形態は、いずれも本発明の保護範囲内に入る。
特に説明する必要があるのは、図9に示すアーキテクチャは、選択的な1実現形態に過ぎず、具体的な実施過程において、上記の図9の部品数とタイプは、実際の要件に応じて、選択、削除、増加、または、切替することができる。異なる機能部品の配置については、分離配置および統合配置などの実現形態を採用でき、たとえば、GPUとCPUを分離可能に配置するか、または、GPUをCPUに統合可能な配置し、通信部を分離可能な配置するか、または、CPUやGPUに統合可能な配置してもよい。これらの切り替え可能な実施形態は、いずれも本発明の保護範囲内に入る。
本発明の方法および装置は、たくさんの方式で実現され得る。本発明の方法および装置は、たとえば、ソフトウェア、ハードウェア、ファームウェア又はソフトウェア、ハードウェア、ファームウェアの如何なる組み合わせで実現され得る。前記方法のステップに用いられる上記順番は、単に説明用であり、本発明の方法のステップは、他の方式で特別に説明しない限り、上記具体的に叙述された順番に限定されない。また、幾つかの実施例において、本発明を記録媒体に記録されたプログラムとして実施してもよい。これらのプログラムは、本発明の方法を実施するための機器読み取り可能な指令を含む。したがって、本発明は、更に、本発明の方法を実行するためのプログラムを記憶する記録媒体もカバーする。
本発明の叙述は、例示及び説明のために提示されたものであり、網羅的なものでありもしくは開示された形式に本開示を限定するというわけでない。当業者にとっては多くの修正及び変形を加えることができるのは明らかであろう。実施形態は、本発明の原理及び実際応用をより明瞭に説明するためのものであり、また、当業者が本開示を理解して特定用途に適した各種の修正を加えた各種の実施例を設計可能にするように、選択され説明されたものである。

Claims (20)

  1. 画像分割方法であって、
    複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップと、
    前記複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力された画像特徴情報に対して少なくとも2段の融合処理を実行して、目標画像特徴情報を得るステップと、
    前記目標画像特徴情報に基づいて、前記画像の目標対象分割結果を確定するステップと、を含む
    ことを特徴とする画像分割方法。
  2. 前記複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力された画像特徴情報に対して少なくとも2段の融合処理を実行して、目標画像特徴情報を得るステップは、
    各ペアの前記隣接する処理ブロックによって出力された画像特徴情報に対して第1段の融合処理を実行して、第1融合特徴情報を得るステップと、
    少なくとも1ペアの隣接する前記第1融合特徴情報に対して第2段の融合処理を実行して、少なくとも1つの第2融合特徴情報を得るステップと、
    前記少なくとも1つの第2融合特徴情報に基づいて、前記目標画像特徴情報を確定するステップと、を含む
    ことを特徴とする請求項1に記載の画像分割方法。
  3. 前記少なくとも1つの第2融合特徴情報に基づいて、前記目標画像特徴情報を確定するステップは、
    後続融合処理によって得られた後続融合特徴情報の数が1つになるまでに、前記少なくとも1つの第2融合特徴情報に対して前記後続融合処理を実行するステップと、
    前記数が1つである後続融合特徴情報を前記目標画像特徴情報とするステップと、を含み、
    各ペアの前記隣接する処理ブロックによって出力された画像特徴情報に対して融合処理を実行する過程において、各ペアの前記隣接する処理ブロックによって出力された画像特徴情報を要素ごとに加える
    ことを特徴とする請求項2に記載の画像分割方法。
  4. 前記複数の処理ブロック同士の間は、順次に接続されるか、および/または、各ペアの前記隣接する処理ブロックによって出力された画像特徴情報は、同一の大きさおよび同一のチャンネル数を有する
    ことを特徴とする請求項1乃至の何れか1項に記載の画像分割方法。
  5. 前記処理ブロックは、少なくとも1つの処理ユニットを含み、各々の前記処理ユニットは、少なくとも1つの特徴抽出層と特徴調整層とを含み、
    前記複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップは、
    前記処理ユニット中の前記少なくとも1つの特徴抽出層を利用して前記処理ユニットの入力情報に対して特徴抽出処理を実行して、第1特徴情報を得るステップと、
    前記処理ユニット中の前記特徴調整層を利用して前記第1特徴情報に対して調整処理を実行して、前記処理ユニットによって出力された画像特徴情報を得るステップと、を含む
    ことを特徴とする請求項1乃至の何れか1項に記載の画像分割方法。
  6. 前記複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力された画像特徴情報に対して少なくとも2段の融合処理を実行して、目標画像特徴情報を得るステップの前に、
    前記複数の処理ブロックの中の処理ブロックM1によって出力された画像特徴情報に対して特徴縮小処理を実行するステップと、
    前記複数の処理ブロックの中の処理ブロックM2によって出力された画像特徴情報に対して特徴拡張処理を実行するステップと、をさらに含み、
    前記処理ブロックM2の入力端と前記処理ブロックM1の出力端は、直接接続または間接接続され
    前記複数の処理ブロックを利用して前記画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップは、
    前記複数の処理ブロックの中の処理ブロックN1を利用して前記処理ブロックN1の入力情報に対して特徴抽出処理を実行して、前記処理ブロックN1に対応する第1画像特徴情報を得るステップであって、前記処理ブロックN1の入力情報は、前記画像、および/または、前記処理ブロックN1の前に位置する少なくとも1つの処理ブロックによって出力された画像特徴情報を含み、N1は、1以上の整数であるステップと、
    前記第1画像特徴情報を前記処理ブロックN1の次の1つの処理ブロックに入力して特徴抽出処理を実行して、前記次の1つの処理ブロックによって出力される第2画像特徴情報を得るステップと、を含む
    ことを特徴とする請求項1乃至の何れか1項に記載の画像分割方法。
  7. 前記第1画像特徴情報を前記処理ブロックN1の次の1つの処理ブロックに入力して特徴抽出処理を実行して、前記次の1つの処理ブロックによって出力される第2画像特徴情報を得るステップは、
    前記画像および/または少なくとも1つの処理ブロックN2によって出力された画像特徴情報および前記第1画像特徴情報を、前記処理ブロックN1の次の1つの処理ブロックに入力して特徴抽出処理を実行して、前記次の1つの処理ブロックによって出力される第2画像特徴情報を得るステップであって、前記処理ブロックN1の入力端と前記処理ブロックN2の出力端は、直接接続または間接接続されるステップを含み、
    前記画像および/または少なくとも1つの処理ブロックN2によって出力された画像特徴情報および前記第1画像特徴情報を、前記処理ブロックN1の次の1つの処理ブロックに入力して特徴抽出処理を実行するステップの前に、前記画像分割方法は、
    前記少なくとも1つの処理ブロックN2によって出力された画像特徴情報に対して融合処理を実行し、融合処理して得られた画像特徴情報を前記処理ブロックN1の次の1つの処理ブロックに入力するステップをさらに含む
    ことを特徴とする請求項に記載の画像分割方法。
  8. 前記複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップの前に、
    畳み込み層を利用して前記画像に対して特徴抽出処理を実行して、前記画像の初期特徴情報を得るステップをさらに含み、
    前記複数の処理ブロックを利用して画像に対して特徴抽出処理を実行するステップは、
    前記画像の初期特徴情報を前記複数の処理ブロックに入力して特徴抽出処理を実行するステップを含む
    ことを特徴とする請求項1乃至の何れか1項に記載の画像分割方法。
  9. 前記画像は、リモートセンシング画像であり、前記目標対象は、土地である
    ことを特徴とする請求項1乃至の何れか1項に記載の画像分割方法。
  10. 前記画像分割方法は、分割ニューラルネットワークを利用して実現され、前記画像は、土地サンプル画像であり、
    前記画像分割方法は、
    前記分割ニューラルネットワークを利用して道路サンプル画像に対して処理を実行して、前記道路サンプル画像の分割結果を得るステップと、
    前記土地サンプル画像の目標対象予測結果および前記道路サンプル画像の分割結果に基づいて、前記分割ニューラルネットワークのパラメータを調整するステップと、をさらに含み、
    前記目標画像特徴情報は、混合特徴情報に基づいて得られたものであり、前記混合特徴情報は、前記分割ニューラルネットワークにより前記土地サンプル画像および前記道路サンプル画像に対してバッチ処理を実行して得られたものであり、
    前記土地サンプル画像の目標対象予測結果および前記道路サンプル画像の分割結果に基づいて、前記分割ニューラルネットワークのパラメータを調整するステップは、
    前記土地サンプル画像の目標対象予測結果および前記土地サンプル画像のラベル情報に基づいて第1損失を得るステップと、
    前記道路サンプル画像の分割結果および前記道路サンプル画像のラベル情報に基づいて第2損失を得るステップと、
    前記第1損失および前記第2損失に基づいて前記分割ニューラルネットワークのパラメータを調整するステップと、を含み、
    前記第1損失および前記第2損失に基づいて前記分割ニューラルネットワークのパラメータを調整するステップは、
    前記第1損失および前記第2損失を加重和して総損失を得るステップと、
    前記総損失に基づいて、前記分割ニューラルネットワークのパラメータを調整するステップと、を含む
    ことを特徴とする請求項1乃至9の何れか1項に記載の画像分割方法。
  11. 前記複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップの前に、
    パラメータを設定することによって、前記サンプル画像に対して、前記サンプル画像の大きさの調整、前記サンプル画像の角度の回転、および、前記サンプル画像の明るさの変更の中の少なくとも1種の強化処理を実行するステップをさらに含み、
    前記複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップは、
    複数の処理ブロックを利用して前記少なくとも1種の強化処理の後の画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップを含む
    ことを特徴とする請求項10に記載の画像分割方法。
  12. 前記複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップの前に、
    所定の大きさのトリミング枠を利用して前記画像をトリミングして、少なくとも1つのトリミング画像を得るステップをさらに含み、
    前記複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップは、
    複数の処理ブロックを利用して前記トリミング画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るステップを含む
    ことを特徴とする請求項1乃至11の何れか1項に記載の画像分割方法。
  13. 画像分割装置であって、
    複数の処理ブロックを利用して画像に対して特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力される画像特徴情報を得るための画像処理モジュールと、
    前記複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力された画像特徴情報に対して少なくとも2段の融合処理を実行して、目標画像特徴情報を得るための融合モジュールと、
    前記目標画像特徴情報に基づいて、前記画像の目標対象分割結果を確定するための分割モジュールと、を備える
    ことを特徴とする画像分割装置。
  14. 土地分割ニューラルネットワークのトレーニング方法であって、
    少なくとも1つの土地サンプル画像および少なくとも1つの道路サンプル画像を前記土地分割ニューラルネットワークに入力して、前記少なくとも1つの土地サンプル画像の予測分割結果および前記少なくとも1つの道路サンプル画像の予測分割結果を得るステップと、
    前記少なくとも1つの土地サンプル画像の予測分割結果および前記少なくとも1つの道路サンプル画像の予測分割結果に基づいて、前記土地分割ニューラルネットワークのパラメータを調整するステップと、を含む
    ことを特徴とする土地分割ニューラルネットワークのトレーニング方法。
  15. 前記土地分割ニューラルネットワークは、順次に接続された複数の処理ブロック、融合ネットワーク、および、分割ネットワークを含み、
    前記少なくとも1つの土地サンプル画像および少なくとも1つの道路サンプル画像を前記土地分割ニューラルネットワークに入力して、前記少なくとも1つの土地サンプル画像の予測分割結果および前記少なくとも1つの道路サンプル画像の予測分割結果を得るステップは、
    複数の処理ブロックを利用して前記少なくとも1つの土地サンプル画像および前記少なくとも1つの道路サンプルに対して画像特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力されるサンプル画像特徴情報を得るステップと、
    前記融合ネットワークを利用して前記複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力されたサンプル画像特徴情報に対して少なくとも2段の融合処理を実行して、目標サンプル画像特徴情報を得るステップと、
    前記目標サンプル画像特徴情報に基づいて、前記分割ネットワークを利用して前記少なくとも1つの土地サンプル画像の予測分割結果および前記少なくとも1つの道路サンプル画像の予測分割結果を得るステップと、含む
    ことを特徴とする請求項14に記載の土地分割ニューラルネットワークのトレーニング方法。
  16. 前記複数の処理ブロックを利用して前記少なくとも1つの土地サンプル画像および前記少なくとも1つの道路サンプルに対して画像特徴抽出処理を実行して、前記複数の処理ブロックの中の各処理ブロックによって出力されるサンプル画像特徴情報を得るステップは、
    前記複数の処理ブロックを利用して各前記土地サンプル画像および各前記道路サンプル画像に対して処理を実行して、各々の前記土地サンプル画像に対応する少なくとも2組のサンプル画像特徴情報および各々の前記道路サンプル画像に対応する少なくとも2組のサンプル画像特徴情報を得るステップを含み、
    前記複数の処理ブロックの中の少なくとも2ペアの隣接する処理ブロックによって出力されたサンプル画像特徴情報に対して少なくとも2段の融合処理を実行して、目標サンプル画像特徴情報を得るステップは、
    各々の土地サンプル画像に対応する少なくとも2組のサンプル画像特徴情報に対して少なくとも2段の融合を実行して、前記各々の土地サンプル画像に対応する土地サンプル画像特徴情報を得るステップと、
    各々の道路サンプル画像に対応する少なくとも2組のサンプル画像特徴情報に対して少なくとも2段の融合を実行して、前記各々の道路サンプル画像の道路サンプル画像特徴情報を得るステップと、を含み、
    前記目標サンプル画像特徴情報は、前記少なくとも1つの土地サンプル画像に対応する土地サンプル画像特徴情報、および、前記少なくとも1つの道路サンプル画像に対応する道路サンプル画像特徴情報を含む
    ことを特徴とする請求項15に記載の土地分割ニューラルネットワークのトレーニング方法。
  17. 前記土地分割ニューラルネットワークは、スライス層をさらに含み、
    前記目標サンプル画像特徴情報に基づいて、前記少なくとも1つの土地サンプル画像の予測分割結果および前記少なくとも1つの道路サンプル画像の予測分割結果を得る前に、
    前記土地分割ニューラルネットワークのトレーニング方法は、
    前記スライス層を利用して前記目標サンプル画像特徴情報に含まれた前記土地サンプル画像特徴情報および前記道路サンプル画像特徴情報に対して分割を実行するステップと、
    前記土地サンプル画像特徴情報を前記分割ネットワークに入力して処理を実行して、土地サンプル画像の予測分割結果を得、前記道路サンプル画像特徴情報を前記分割ネットワークに入力して処理を実行して、前記道路サンプル画像の予測分割結果を得るステップと、をさらに含み、
    前記土地サンプル画像および前記道路サンプル画像は、それぞれ、ラベル情報を有し、
    前記少なくとも1つの土地サンプル画像の予測分割結果および前記少なくとも1つの道路サンプル画像の予測分割結果に基づいて、前記土地分割ニューラルネットワークのパラメータを調整するステップは、
    前記土地サンプル画像に対応する予測分割結果および前記土地サンプル画像に対応するラベル情報に基づいて第1損失を得るステップと、
    前記道路サンプル画像に対応する予測分割結果および前記道路サンプル画像に対応するラベル情報に基づいて第2損失を得るステップと、
    前記第1損失および前記第2損失に基づいて前記土地分割ニューラルネットワークのパラメータを調整するステップと、を含み、
    前記第1損失および前記第2損失に基づいて前記土地分割ニューラルネットワークのパラメータを調整するステップは、
    前記第1損失および前記第2損失を加重和して総損失を得るステップと、
    前記総損失に基づいて前記土地分割ニューラルネットワークのパラメータを調整するステップと、を含む
    ことを特徴とする請求項15または16に記載の土地分割ニューラルネットワークのトレーニング方法。
  18. 土地分割ニューラルネットワークのトレーニング装置であって、
    少なくとも1つの土地サンプル画像および少なくとも1つの道路サンプル画像を前記土地分割ニューラルネットワークに入力して、前記少なくとも1つの土地サンプル画像の予測分割結果および前記少なくとも1つの道路サンプル画像の予測分割結果を得るための結果予測モジュールと、
    前記少なくとも1つの土地サンプル画像の予測分割結果および前記少なくとも1つの道路サンプル画像の予測分割結果に基づいて、前記土地分割ニューラルネットワークのパラメータを調整するためのパラメータ調整モジュールと、を備える
    ことを特徴とする土地分割ニューラルネットワークのトレーニング装置。
  19. 電子デバイスであって、
    実行可能命令を記憶するためのメモリと、
    およびプロセッサ、前記メモリと通信することによって、前記実行可能命令を実行して、請求項1乃至12の何れか1項に記載の画像分割方法の操作を完成し、または、前記メモリと通信することによって、前記実行可能命令を実行して、請求項14乃至17の何れか1項に記載の土地分割ニューラルネットワークのトレーニング方法の操作を完成する
    ことを特徴とする電子デバイス。
  20. コンピュータ可読記憶媒体であって、
    コンピュータ読み取り可能命令を記憶し、前記命令が実行されるときに、請求項1乃至12の何れか1項に記載の画像分割方法、または、請求項14乃至17の何れか1項に記載の土地分割ニューラルネットワークのトレーニング方法の操作が実行される
    ことを特徴とするコンピュータ可読記憶媒体。
JP2020569112A 2018-06-15 2019-06-14 画像分割と分割ネットワークトレーニング方法および装置、機器、媒体、並びに製品 Active JP7045490B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810623306.0 2018-06-15
CN201810623306.0A CN108830221A (zh) 2018-06-15 2018-06-15 图像的目标对象分割及训练方法和装置、设备、介质、产品
PCT/CN2019/091328 WO2019238126A1 (zh) 2018-06-15 2019-06-14 图像分割及分割网络训练方法和装置、设备、介质、产品

Publications (2)

Publication Number Publication Date
JP2021526276A JP2021526276A (ja) 2021-09-30
JP7045490B2 true JP7045490B2 (ja) 2022-03-31

Family

ID=64142272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020569112A Active JP7045490B2 (ja) 2018-06-15 2019-06-14 画像分割と分割ネットワークトレーニング方法および装置、機器、媒体、並びに製品

Country Status (5)

Country Link
US (1) US20210097325A1 (ja)
JP (1) JP7045490B2 (ja)
CN (1) CN108830221A (ja)
SG (1) SG11202012531TA (ja)
WO (1) WO2019238126A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108830221A (zh) * 2018-06-15 2018-11-16 北京市商汤科技开发有限公司 图像的目标对象分割及训练方法和装置、设备、介质、产品
CN111260564A (zh) * 2018-11-30 2020-06-09 北京市商汤科技开发有限公司 一种图像处理方法和装置及计算机存储介质
CN109635813B (zh) * 2018-12-13 2020-12-25 银河水滴科技(北京)有限公司 一种钢轨区域图像分割方法及装置
CN111626313B (zh) * 2019-02-28 2023-06-02 银河水滴科技(北京)有限公司 一种特征提取模型训练方法、图像处理方法及装置
CN109934223B (zh) * 2019-03-01 2022-04-26 北京地平线机器人技术研发有限公司 实例分割结果评价参数确定方法及装置
CN110062164B (zh) * 2019-04-22 2021-10-26 深圳市商汤科技有限公司 视频图像处理方法及装置
CN110245710B (zh) * 2019-06-18 2022-11-29 腾讯科技(深圳)有限公司 语义分割模型的训练方法、语义分割方法及装置
CN111178445A (zh) * 2019-12-31 2020-05-19 上海商汤智能科技有限公司 图像处理方法及装置
CN111667440B (zh) * 2020-05-14 2024-02-13 涡阳县幸福门业有限公司 一种金属门烤漆温度分布图像的融合方法
CN112132832B (zh) * 2020-08-21 2021-09-28 苏州浪潮智能科技有限公司 一种增强图像实例分割的方法、系统、设备及介质
CN112529863B (zh) * 2020-12-04 2024-01-23 推想医疗科技股份有限公司 测量骨密度的方法及装置
CN112686274B (zh) * 2020-12-31 2023-04-18 上海智臻智能网络科技股份有限公司 目标对象的检测方法及设备
CN113705718B (zh) * 2021-09-06 2024-04-02 齐齐哈尔大学 基于多层次特征密集融合的遥感场景图像分类方法
CN114596620B (zh) * 2022-05-10 2022-08-05 深圳市海清视讯科技有限公司 人脸识别设备补光控制方法、装置、设备及存储介质
CN115222638B (zh) * 2022-08-15 2023-03-07 深圳市眼科医院 一种基于神经网络模型的视网膜血管图像分割方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108830221A (zh) 2018-06-15 2018-11-16 北京市商汤科技开发有限公司 图像的目标对象分割及训练方法和装置、设备、介质、产品

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101216890B (zh) * 2008-01-09 2011-02-16 北京中星微电子有限公司 一种彩色图像分割方法
CN101425184B (zh) * 2008-10-30 2011-08-24 西安电子科技大学 基于第二代Bandelet域隐马尔科夫树模型的图像分割方法
CN105488534B (zh) * 2015-12-04 2018-12-07 中国科学院深圳先进技术研究院 交通场景深度解析方法、装置及系统

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108830221A (zh) 2018-06-15 2018-11-16 北京市商汤科技开发有限公司 图像的目标对象分割及训练方法和装置、设备、介质、产品

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Chao Tian et al.,Dense Fusion Classmate Network for Land Cover Classification,[online], 2018 [retrieved on 2021.12.15], Internet: <https://arxiv.org/ftp/arxiv/papers/1911/1911.08189.pdf>,2018年,[online], 2018 [retrieved on 2021.12.15], Internet: <https://arxiv.org/ftp/arxiv/papers/1911/1911.08189.pdf>

Also Published As

Publication number Publication date
SG11202012531TA (en) 2021-01-28
US20210097325A1 (en) 2021-04-01
JP2021526276A (ja) 2021-09-30
WO2019238126A1 (zh) 2019-12-19
CN108830221A (zh) 2018-11-16

Similar Documents

Publication Publication Date Title
JP7045490B2 (ja) 画像分割と分割ネットワークトレーニング方法および装置、機器、媒体、並びに製品
CN110298262B (zh) 物体识别方法及装置
CN110378381B (zh) 物体检测方法、装置和计算机存储介质
KR102224510B1 (ko) 데이터 관리를 위한 시스템들 및 방법들
CN110599492B (zh) 图像分割模型的训练方法、装置、电子设备及存储介质
CN108647585B (zh) 一种基于多尺度循环注意力网络的交通标识符检测方法
Wang et al. Understanding convolution for semantic segmentation
CN106683048B (zh) 一种图像超分辨率方法及设备
US20200234447A1 (en) Computer vision system and method
US20220215227A1 (en) Neural Architecture Search Method, Image Processing Method And Apparatus, And Storage Medium
CN110458165B (zh) 一种引入注意力机制的自然场景文本检测方法
US20210398252A1 (en) Image denoising method and apparatus
CN111402130B (zh) 数据处理方法和数据处理装置
CN111104962A (zh) 图像的语义分割方法、装置、电子设备及可读存储介质
CN110033003A (zh) 图像分割方法和图像处理装置
US10650283B2 (en) Electronic apparatus and control method thereof
JP7059318B2 (ja) 地域的特徴を有する分類器学習のための学習データ生成方法およびそのシステム
CN111401517B (zh) 一种感知网络结构搜索方法及其装置
CN112308200A (zh) 神经网络的搜索方法及装置
KR102140805B1 (ko) 위성 영상의 물체 식별을 위한 뉴럴 네트워크 학습 방법 및 장치
CN107590811B (zh) 基于场景分割的风景图像处理方法、装置及计算设备
CN111369567B (zh) 三维图像中目标对象的分割方法、装置及电子设备
CN113378984B (zh) 一种医学图像分类方法、系统、终端以及存储介质
US20190362467A1 (en) Electronic apparatus and control method thereof
CN112949520A (zh) 一种基于多尺度小样本的航拍车辆检测方法及检测系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201211

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220318

R150 Certificate of patent or registration of utility model

Ref document number: 7045490

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150