JP2022505775A - 画像分類モデルの訓練方法、画像処理方法及びその装置、並びにコンピュータプログラム - Google Patents

画像分類モデルの訓練方法、画像処理方法及びその装置、並びにコンピュータプログラム Download PDF

Info

Publication number
JP2022505775A
JP2022505775A JP2021522436A JP2021522436A JP2022505775A JP 2022505775 A JP2022505775 A JP 2022505775A JP 2021522436 A JP2021522436 A JP 2021522436A JP 2021522436 A JP2021522436 A JP 2021522436A JP 2022505775 A JP2022505775 A JP 2022505775A
Authority
JP
Japan
Prior art keywords
image
trained
network
model
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021522436A
Other languages
English (en)
Other versions
JP7185039B2 (ja
Inventor
▲澤▼群 ▲掲▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2022505775A publication Critical patent/JP2022505775A/ja
Application granted granted Critical
Publication of JP7185039B2 publication Critical patent/JP7185039B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Figure 2022505775000001
本願は、画像分類モデルの訓練方法を開示する。前記方法は、訓練されるべき画像を取得するステップと、訓練されるべきオフセットネットワークの第1モデルパラメータを一定にした場合、訓練されるべき画像分類ネットワークを介して訓練されるべき画像の第1予測カテゴリアノテーション情報を取得するステップと、画像コンテンツカテゴリ情報及び第1予測カテゴリアノテーション情報に基づいて、分類損失関数を用いて第2モデルパラメータを決定するステップと、訓練されるべき画像分類ネットワークの第2モデルパラメータを一定にした場合、訓練されるべきオフセットネットワークを介して訓練されるべき画像の第2予測カテゴリアノテーション情報を取得するステップと、画像コンテンツカテゴリ情報及び第2予測カテゴリアノテーション情報に基づいて、分類損失関数を用いて第3モデルパラメータを決定するステップと、第2モデルパラメータ及び第3モデルパラメータに基づいて、画像セマンティックセグメンテーションネットワークモデルを得るステップと、を含む。本願は、AIにより、画素レベルのアノテーション及びモデル訓練を実現させ、手動アノテーションを必要とせず、手動アノテーションコストを低減させ、モデル訓練効率を更に向上させる。

Description

(関連出願の相互参照)
本願は、2019年03月26日に提出された出願番号が201910233985.5であり、発明名称が「画像分類モデルの訓練方法、画像処理方法及びその装置」である中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
本願は、人工知能分野に関し、特に画像分類モデルの訓練方法、画像処理方法及びその装置、並びにコンピュータプログラムに関する。
画像セマンティックセグメンテーションは、画像理解の基本的な技術であり、自動運転システム(例えば、ストリートビュー認識及び理解)、無人機の適用(例えば、着陸点の判定)及びウェアラブル機器の適用において、極めて重要な役割を果たしている。画像は、多数の画素からなるものであり、セマンティックセグメンテーションは、画素を画像において表現されたセマンティック意味によってセグメンテーションし、機械を、画像におけるコンテンツを自動的にセグメンテーションして認識するようにすることである。
現在、一般的には、1つの深層畳み込みニューラルネットワークを訓練することで、画像全体の分類を実現させ、更に、該深層畳み込みニューラルネットワークに基づいて、訓練されるべき画像における対応する画像コンテンツ領域を位置決めし、続いて、これらの画像全体分類アノテーションされた画像コンテンツ領域を分割のための教師情報として、最後に、画像セマンティックセグメンテーションネットワークモデルを訓練により得る。
しかしながら、画像セマンティックセグメンテーションネットワークモデルを訓練する時、用いられる訓練されるべき画像は、画素レベルのアノテーションを必要とすることが多い。解像度が1024×2048である訓練されるべき画像を例として、該解像度の一枚の画像を手動でアノテーションするために、一般的には1.5時間を必要とする。これにより、手動アノテーションコストが高すぎて、モデル訓練効率が低くなることを招く。
本願の実施例は、画像レベルとアノテーションされた訓練されるべき画像に対して訓練を行うことができ、画像セマンティックセグメンテーションネットワークモデルの性能を確保する上で、手動による画素レベルのアノテーションを必要とせず、手動アノテーションコストを低減させ、モデル訓練効率を更に向上させる、画像分類モデルの訓練方法、画像処理方法及びその装置、並びにコンピュータプログラムを提供する。
これに鑑み、本願の第1態様は、コンピュータ機器が実行する画像分類モデルの訓練方法を提供する。前記画像分類モデルの訓練方法は、
訓練されるべき画像を取得するステップであって、前記訓練されるべき画像は、カテゴリアノテーション情報を有し、前記カテゴリアノテーション情報は、前記訓練されるべき画像に存在する画像コンテンツカテゴリ情報を表すためのものである、ステップと、
訓練されるべきオフセットネットワークの第1モデルパラメータを一定にした場合、訓練されるべき画像分類ネットワークを介して前記訓練されるべき画像の第1予測カテゴリアノテーション情報を取得するステップであって、前記訓練されるべきオフセットネットワークは、オフセット変数に基づいて画像を分類するためのものであり、前記訓練されるべき画像分類ネットワークは、画像における画像コンテンツを分類するためのものである、ステップと、
前記画像コンテンツカテゴリ情報及び前記第1予測カテゴリアノテーション情報に基づいて、分類損失関数を用いて前記訓練されるべき画像分類ネットワークに対応する第2モデルパラメータを決定するステップと、
前記訓練されるべき画像分類ネットワークの前記第2モデルパラメータを一定にした場合、前記訓練されるべきオフセットネットワークを介して前記訓練されるべき画像の第2予測カテゴリアノテーション情報を取得するステップと、
前記画像コンテンツカテゴリ情報及び前記第2予測カテゴリアノテーション情報に基づいて、前記分類損失関数を用いて前記訓練されるべきオフセットネットワークに対応する第3モデルパラメータを決定するステップと、
前記第2モデルパラメータ及び前記第3モデルパラメータに基づいて、訓練されるべき画像セマンティックセグメンテーションネットワークモデルを訓練し、画像セマンティックセグメンテーションネットワークモデルを得るステップであって、前記画像セマンティックセグメンテーションネットワークモデルは、処理されるべき画像のセマンティックセグメンテーション結果を決定するためのものである、ステップと、を含む。
本願の第2態様は、コンピュータ機器が実行する画像処理方法を提供する。前記画像処理方法は、
処理されるべき画像を取得するステップと、
画像セマンティックセグメンテーションネットワークモデルにより、前記処理されるべき画像のセマンティックセグメンテーション結果を取得するステップであって、前記画像セマンティックセグメンテーションネットワークモデルは、訓練されるべき画像分類ネットワーク及び訓練されるべきオフセットネットワークに基づいて交互に訓練を行うことで得られたものであり、前記訓練されるべきオフセットネットワークは、オフセット変数に基づいて画像を分類するためのものであり、前記訓練されるべき画像分類ネットワークは、画像における画像コンテンツを分類するためのものである、ステップと、
前記セマンティックセグメンテーション結果に基づいて、前記処理されるべき画像を処理するステップと、を含む。
本願の第3態様は、コンピュータ機器に適用されるモデル訓練装置を提供する。前記モデル訓練装置は、取得モジュールと、決定モジュールと、訓練モジュールと、を備え、
前記取得モジュールは、訓練されるべき画像を取得するように構成され、前記訓練されるべき画像は、カテゴリアノテーション情報を有し、前記カテゴリアノテーション情報は、前記訓練されるべき画像に存在する画像コンテンツカテゴリ情報を表すためのものであり、
前記取得モジュールは更に、訓練されるべきオフセットネットワークの第1モデルパラメータを一定にした場合、訓練されるべき画像分類ネットワークを介して前記訓練されるべき画像の第1予測カテゴリアノテーション情報を取得するように構成され、前記訓練されるべきオフセットネットワークは、オフセット変数に基づいて画像を分類するためのものであり、前記訓練されるべき画像分類ネットワークは、画像における画像コンテンツを分類するためのものであり、
前記決定モジュールは、前記画像コンテンツカテゴリ情報及び前記第1予測カテゴリアノテーション情報に基づいて、分類損失関数を用いて前記訓練されるべき画像分類ネットワークに対応する第2モデルパラメータを決定するように構成され、
前記取得モジュールは更に、前記訓練されるべき画像分類ネットワークの前記第2モデルパラメータを一定にした場合、前記訓練されるべきオフセットネットワークを介して前記訓練されるべき画像の第2予測カテゴリアノテーション情報を取得するように構成され、
前記決定モジュールは更に、前記画像コンテンツカテゴリ情報及び前記取得モジュールにより取得された前記第2予測カテゴリアノテーション情報に基づいて、前記分類損失関数を用いて前記訓練されるべきオフセットネットワークに対応する第3モデルパラメータを決定するように構成され、
前記訓練モジュールは、前記決定モジュールにより決定された前記第2モデルパラメータ及び前記第3モデルパラメータに基づいて、訓練されるべき画像セマンティックセグメンテーションネットワークモデルを訓練し、画像セマンティックセグメンテーションネットワークモデルを得るように構成され、前記画像セマンティックセグメンテーションネットワークモデルは、処理されるべき画像のセマンティックセグメンテーション結果を決定するためのものである。
可能な設計では、本願の実施例の第3態様の第1実施形態において、
前記決定モジュールは具体的には、前記画像コンテンツカテゴリ情報及び前記第1予測カテゴリアノテーション情報に基づいて、各カテゴリに対応する予測確率値を決定し、
前記各カテゴリに対応する予測確率値に基づいて、前記分類損失関数の分類損失を決定し、
前記分類損失関数の分類損失が最小値である場合、前記訓練されるべき画像分類ネットワークに対応する前記第2モデルパラメータを決定するように構成される。
可能な設計では、本願の実施例の第3態様の第2実施形態において、
前記決定モジュールは具体的には、前記画像コンテンツカテゴリ情報及び前記第2予測カテゴリアノテーション情報に基づいて、各カテゴリに対応する予測確率値を決定し、
前記各カテゴリに対応する予測確率値に基づいて、前記分類損失関数の分類損失を決定し、
前記分類損失関数の分類損失が最大値である場合、前記訓練されるべきオフセットネットワークに対応する前記第3モデルパラメータを決定するように構成される。
可能な設計では、本願の実施例の第3態様の第3実施形態において、
前記分類損失関数は、
Figure 2022505775000002
で表され、
ここで、前記Lは、前記分類損失関数を表し、前記I()は、ディラック関数を表し、前記Nは、カテゴリの総数を表し、前記cは、第cカテゴリを表し、前記kは、1以上であって前記N以下であり、前記Pは、前記第cカテゴリに対応する予測確率値を表す。
可能な設計では、本願の実施例の第3態様の第4実施形態において、
前記取得モジュールは更に、前記訓練されるべきオフセットネットワークを介して前記訓練されるべき画像の第2予測カテゴリアノテーション情報を取得する前に、変形可能な畳み込みニューラルネットワークを介して前記訓練されるべき画像に対応する訓練されるべき特徴画像を取得するように構成され、前記変形可能な畳み込みニューラルネットワークは、前記訓練されるべき画像のオフセット変数を予測するためのものであり、
前記取得モジュールは具体的には、前記訓練されるべきオフセットネットワークを介して前記訓練されるべき特徴画像に対応する前記第2予測カテゴリアノテーション情報を取得するように構成される。
可能な設計では、本願の実施例の第3態様の第5実施形態において、
前記取得モジュールは具体的には、

Figure 2022505775000003
で前記訓練されるべき特徴画像を生成するように構成され、
ここで、前記y(p)は、前記訓練されるべき特徴画像を表し、前記pは、前記訓練されるべき特徴画像における画素値を表し、前記pは、畳み込みカーネルにおける、サンプリング点の位置を表し、前記Δpは、前記オフセット変数を表し、前記w(p)は、前記畳み込みカーネルが前記訓練されるべき画像における対応する位置で畳み込み演算を行うための重み値を表し、前記x(p+p+Δp)は、前記訓練されるべき画像における対応する位置の画素値を表す。
可能な設計では、本願の実施例の第3態様の第6実施形態において、
前記取得モジュールは更に、前記決定モジュールが前記画像コンテンツカテゴリ情報及び前記第2予測カテゴリアノテーション情報に基づいて前記分類損失関数を用いて前記訓練されるべきオフセットネットワークに対応する第3モデルパラメータを決定した後、前記訓練されるべきオフセットネットワークに対応する前記第3モデルパラメータを一定にした場合、前記訓練されるべき画像分類ネットワークを介して前記訓練されるべき画像の第3予測カテゴリアノテーション情報を取得するように構成され、
前記決定モジュールは更に、前記画像コンテンツカテゴリ情報及び前記取得モジュールにより取得された前記第3予測カテゴリアノテーション情報に基づいて、前記分類損失関数を用いて前記訓練されるべき画像分類ネットワークに対応する第4モデルパラメータを決定するように構成され、
前記取得モジュールは更に、前記訓練されるべき画像分類ネットワークの前記第4モデルパラメータを一定にした場合、前記訓練されるべきオフセットネットワークを介して前記訓練されるべき画像の第4予測カテゴリアノテーション情報を取得するように構成され、
前記決定モジュールは更に、前記画像コンテンツカテゴリ情報及び前記取得モジュールにより取得された前記第4予測カテゴリアノテーション情報に基づいて、前記分類損失関数を用いて前記訓練されるべきオフセットネットワークに対応する第5モデルパラメータを決定するように構成され、
前記訓練モジュールは具体的には、前記決定モジュール302により決定された前記第2モデルパラメータ、前記第3モデルパラメータ、前記第4モデルパラメータ及び前記第5モデルパラメータに基づいて、前記訓練されるべき画像セマンティックセグメンテーションネットワークモデルを訓練し、前記画像セマンティックセグメンテーションネットワークモデルを得るように構成される。
可能な設計では、本願の実施例の第3態様の第7実施形態において、
前記訓練モジュールは具体的には、前記第2モデルパラメータ及び前記第3モデルパラメータを用いて前記訓練されるべきオフセットネットワークをN回訓練した場合、前記訓練されるべきオフセットネットワークを毎回訓練する時のオフセット変数に基づいて、前記訓練されるべき画像に対応する画像コンテンツ領域を決定するように構成され、前記Nは、1以上の整数であり、
前記訓練モジュールは具体的には、前記画像コンテンツ領域に基づいて、ターゲット損失関数を用いて訓練されるべき画像セマンティックセグメンテーションネットワークモデルを訓練し、
前記ターゲット損失関数の損失結果が最小値である場合、前記画像セマンティックセグメンテーションネットワークモデルを生成するように構成される。
可能な設計では、本願の実施例の第3態様の第8実施形態において、
前記ターゲット損失関数は、
Figure 2022505775000004
で表され、
ここで、前記Lsegは、前記ターゲット損失関数を表し、前記Nは、カテゴリ総数を表し、前記cは、第cカテゴリを表し、前記kは、1以上であって前記N以下であり、前記I()は、ディラック関数を表し、前記
Figure 2022505775000005
は、画素点での、前記第cカテゴリの予測確率値を表し、前記iは、前記訓練されるべき画像における、前記画素点の横座標位置を表し、前記jは、前記訓練されるべき画像における、前記画素点の縦座標位置を表す。
本願の第4態様は、コンピュータ機器に適用される画像処理装置を提供する。前記画像処理装置は、取得モジュールと、処理モジュールと、を備え、
前記取得モジュールは、処理されるべき画像を取得するように構成され、
前記取得モジュールは更に、画像セマンティックセグメンテーションネットワークモデルにより、前記処理されるべき画像のセマンティックセグメンテーション結果を取得するように構成され、前記画像セマンティックセグメンテーションネットワークモデルは、訓練されるべき画像分類ネットワーク及び訓練されるべきオフセットネットワークに基づいて交互に訓練を行うことで得られたものであり、前記訓練されるべきオフセットネットワークは、オフセット変数に基づいて画像を分類するためのものであり、前記訓練されるべき画像分類ネットワークは、画像における画像コンテンツを分類するためのものであり、
前記処理モジュールは、前記取得モジュールにより取得された前記セマンティックセグメンテーション結果に基づいて、前記処理されるべき画像を処理するように構成される。
本願の第5態様は、サーバを提供する。前記サーバは、メモリと、送受信機と、プロセッサと、バスシステムと、を備え、
前記メモリは、プログラムを記憶するように構成され、
前記プロセッサは、前記メモリにおけるプログラムを実行するように構成され、前記プログラムは、
訓練されるべき画像を取得するステップであって、前記訓練されるべき画像は、カテゴリアノテーション情報を有し、前記カテゴリアノテーション情報は、前記訓練されるべき画像に存在する画像コンテンツカテゴリ情報を表すためのものである、ステップと、
訓練されるべきオフセットネットワークの第1モデルパラメータを一定にした場合、訓練されるべき画像分類ネットワークを介して前記訓練されるべき画像の第1予測カテゴリアノテーション情報を取得するステップであって、前記訓練されるべきオフセットネットワークは、オフセット変数に基づいて画像を分類するためのものであり、前記訓練されるべき画像分類ネットワークは、画像における画像コンテンツを分類するためのものである、ステップと、
前記画像コンテンツカテゴリ情報及び前記第1予測カテゴリアノテーション情報に基づいて、分類損失関数を用いて前記訓練されるべき画像分類ネットワークに対応する第2モデルパラメータを決定するステップと、
前記訓練されるべき画像分類ネットワークの前記第2モデルパラメータを一定にした場合、前記訓練されるべきオフセットネットワークを介して前記訓練されるべき画像の第2予測カテゴリアノテーション情報を取得するステップと、
前記画像コンテンツカテゴリ情報及び前記第2予測カテゴリアノテーション情報に基づいて、前記分類損失関数を用いて前記訓練されるべきオフセットネットワークに対応する第3モデルパラメータを決定するステップと、
前記第2モデルパラメータ及び前記第3モデルパラメータに基づいて、訓練されるべき画像セマンティックセグメンテーションネットワークモデルを訓練し、画像セマンティックセグメンテーションネットワークモデルを得るステップであって、前記画像セマンティックセグメンテーションネットワークモデルは、処理されるべき画像のセマンティックセグメンテーション結果を決定するためのものである、ステップと、を実行するように構成され、
前記バスシステムは、前記メモリと前記プロセッサを接続して、前記メモリと前記プロセッサを通信させるように構成される。
本願の第6態様は、サーバを提供する。前記サーバは、メモリと、送受信機と、プロセッサと、バスシステムと、を備え、
前記メモリは、プログラムを記憶するように構成され、
前記プロセッサは、前記メモリにおけるプログラムを実行するように構成され、前記プログラムは、
処理されるべき画像を取得するステップと、
画像セマンティックセグメンテーションネットワークモデルにより、前記処理されるべき画像のセマンティックセグメンテーション結果を取得するステップであって、前記画像セマンティックセグメンテーションネットワークモデルは、訓練されるべき画像分類ネットワーク及び訓練されるべきオフセットネットワークに基づいて交互に訓練を行うことで得られたものであり、前記訓練されるべきオフセットネットワークは、オフセット変数に基づいて画像を分類するためのものであり、前記訓練されるべき画像分類ネットワークは、画像における画像コンテンツを分類するためのものである、ステップと、
前記セマンティックセグメンテーション結果に基づいて、前記処理されるべき画像を処理するステップと、を実行するように構成され、
前記バスシステムは、前記メモリと前記プロセッサを接続して、前記メモリと前記プロセッサを通信させるように構成される。
本願の第7態様は、コンピュータ可読記憶媒体を提供する。前記コンピュータ可読記憶媒体に命令が記憶されており、該命令がコンピュータで実行されるときに、コンピュータに上記各態様に記載の方法を実行させる。
本願の第8態様は、コンピュータプログラムを提供する。前記コンピュータプログラムは、コンピュータに上記各態様に記載の方法を実行させる。
上記技術的解決手段から分かるように、本願の実施例は、下記利点を有する。
本願の実施例において、画像分類モデルの訓練方法を提供する。まず、訓練されるべき画像を取得し、訓練されるべきオフセットネットワークの第1モデルパラメータを一定にした場合、訓練されるべき画像分類ネットワークを介して訓練されるべき画像の第1予測カテゴリアノテーション情報を取得し、続いて、画像コンテンツカテゴリ情報及び第1予測カテゴリアノテーション情報に基づいて、分類損失関数を用いて訓練されるべき画像分類ネットワークに対応する第2モデルパラメータを決定し、訓練されるべき画像分類ネットワークの第2モデルパラメータを一定にした場合、訓練されるべきオフセットネットワークを介して訓練されるべき画像の第2予測カテゴリアノテーション情報を取得し、続いて、画像コンテンツカテゴリ情報及び第2予測カテゴリアノテーション情報に基づいて分類損失関数を用いて訓練されるべきオフセットネットワークに対応する第3モデルパラメータを決定し、最後に、第2モデルパラメータ及び第3モデルパラメータに基づいて、訓練されるべき画像セマンティックセグメンテーションネットワークモデルを訓練し、画像セマンティックセグメンテーションネットワークモデルを得ることができる。上記方式で、オフセットネットワーク及び画像分類ネットワークを用いて、画像レベルとアノテーションされた訓練されるべき画像を訓練することができ、画像セマンティックセグメンテーションネットワークモデルの性能を確保する上で、手動による画素レベルのアノテーションを必要とせず、手動アノテーションコストを低減させ、モデル訓練効率を更に向上させる。
本願の実施例による画像処理システムのアーキテクチャを示す概略図である。 本願の実施例による画像セマンティックセグメンテーションネットワークモデルのフローフレームワークを示す概略図である。 本願の実施例による画像分類モデルの訓練方法の一実施例を示す概略図である。 本願の実施例によるオフセットネットワーク及び画像分類ネットワーク的の構造を示す概略図である。 本願の実施例による変形可能な畳み込みニューラルネットワークの構造を示す概略図である。 本願の実施例による画像処理方法の一実施例を示す概略図である。 本願の実施例による変形可能な畳み込みニューラルネットワークに基づく画像処理フローを示す概略図である。 本願の実施例によるモデル訓練装置の一実施例を示す概略図である。 本願の実施例による画像処理装置の一実施例を示す概略図である。 本願の実施例によるサーバの構造を示す概略図である。 本願の実施例による端末装置の構造を示す概略図である。
本願の実施例は、画像レベルとアノテーションされた訓練されるべき画像に対して訓練を行うことができ、画像セマンティックセグメンテーションネットワークモデルの性能を確保する上で、手動による画素レベルのアノテーションを必要とせず、手動アノテーションコストを低減させ、モデル訓練効率を更に向上させる、画像分類モデルの訓練方法、画像処理方法及びその装置を提供する。
本願の明細書、特許請求の範囲及び上記図面に言及された「第1」、「第2」、「第3」、「第4」等の用語(存在すれば)は、類似した対象を区別するためのものであり、特定の順番又は前後順序を説明するためのものではない。ここで説明した本願の実施例をここで示した又は説明した順番以外の順番で実施可能なものにするために、このように使用されたデータは適した場合であれば互いに取り替え可能なことは、理解されるべきである。なお、「備える」と「有する」という用語及びそれらの変形は、非排他的な包含を網羅することを意図している。例えば、一連のステップ又はユニットを含むプロセス、方法、システム、製品又は装置は、明記されたステップ又はユニットに限定されず、明記されていないか又はこれらのプロセス、方法、製品又は装置固有の他のステップ又はユニットを含んでもよい。
本願は、画像セマンティックセグメンテーションネットワークモデルの訓練方法、及び該画像セマンティックセグメンテーションネットワークモデルを利用した画像処理方法を提供する。該方法は、人工知能により、画像セマンティックセグメンテーションモデル訓練過程における手動アノテーションを減少させ、モデル訓練効率を向上させることができる。
人工知能(Artificial Intelligence:AI)は、デジタルコンピュータ又はデジタルコンピュータにより制御された機器を利用して人間の知能をシミュレーション、延長、拡張し、環境を感知して知識を取得し、知識を利用して最適な結果を得る理論、方法、技術及び適用システムである。換言すれば、人工知能は、コンピュータサイエンスにおける1つの総合技術であり、知能の本質を理解し、人間知能と同様な方式で反応可能な新たな知能機器を生み出すことを意図する。人工知能は、種々の知能機器の設計原理及び実現方法を検討し、機器に、感知、推理及び意思決定機能を持たせるためのものである。
人工知能技術は、総合的な学科であり、広い分野に関し、ハードウェアレベルの技術を含むだけでなく、ソフトウェアレベルの技術も含む。人工知能基礎技術は一般的には、センサ、専用人工知能チップ、クラウドコンピューティング、分散型ストレージ、ビッグデータ処理技術、オペレーティング/インタラクションシステム、メカトロニクスなどの技術を含む。人工知能ソフトウェア技術は、主に、コンピュータビジョン技術、音声処理技術、自然言語処理技術及び機械学習/深層学習などの分野を含む。
コンピュータビジョン技術(Computer Vision:CV)は、マシンに「見る」ようにする方法を研究する科学であり、さらに、人間の肉眼の代わりに撮影機及びコンピュータを使用して目標を識別、追跡、測定等のマシンビジョンを行って、さらに画像処理をして、コンピュータで、人間の肉眼観察または機器へ送信して検出することに適した画像になるように処理することである。1つの科学分野として、コンピュータビジョンは、関連した理論及び技術を検討し、画像又は多次元データから情報を取得できる人工知能システムを構築することを意図している。コンピュータビジョン技術は一般的には、画像処理、画像認識、画像セマンティック理解、画像検索、光学文字認識(Optical Character Recognition:OCR)、ビデオ処理、ビデオセマンティック理解、ビデオコンテンツ/挙動認識、三次元物体再構築、3D技術、仮想現実、拡張現実、位置推定とマッピングの同時実行等の技術を含み、一般的な顔認識、指紋認識などの生体特徴認識技術を更に含む。
機械学習(Machine Learning:ML)は、多数の分野に関わる学科であり、確率論、統計学、近似論、凸分析、アルゴリズム複雑度理論などの複数の学科に関する。それは、コンピュータが人間の学習挙動を如何に模擬又は実現するかを鋭意検討し、新たな知識及びスキルを取得し、既存の知識構造を再構成し、自体の性能を絶え間なく改良する。機械学習は、人工知能のキーポイントであり、コンピュータに知能を持たせる根本的な手段であり、その適用は、人工知能の各分野にわたる。機械学習及び深層学習は一般的には、人工ニューラルネットワーク、信念ネットワーク、強化学習、転移学習、帰納的学習、教示的学習などの技術を含む。
本願で提供される方法は、主に、人工知能分野におけるコンピュータビジョン分野に適用される。コンピュータビジョン分野において、セグメンテーション、検出、認識及び追跡という課題は、密に関連している。従来の、グレースケール、色、テクスチャ及び形状などの特徴に基づく画像セグメンテーション課題と異なっており、画像セマンティックセグメンテーションは、画素レベルで画像を理解し、画像における各画素に対応するターゲットカテゴリを決定する必要がある。カテゴリのアルゴリズム精度に求められる要件は、とどまるところを知らない。コンピュータによる画像コンテンツの理解は、最初の画像全体に対するセマンティックラベルの提供(画像分類)から、画像に出現した画像コンテンツ位置の画成までに進歩することができる。更に、コンピュータに画像における各画素点のセマンティック情報を理解させ、コンピュータに人間のように画像を見てもらう。これは、画像セマンティックセグメンテーションである。
画像セマンティックセグメンテーションの目的は画像における各画素点についてラベルをアノテーションするという点で、画像分類及び画像コンテンツ検出と相違している。簡単に理解すれば、セマンティックセグメンテーションは、コンピュータビジョンにおける十分に重要な分野であり、これは、画像を画素レベルで認識することである。つまり、画像における各画素が属する対象カテゴリをアノテーションする。本願で提供される画像処理方法は、自動運転シーンに適用可能である。つまり、車両に、必要な感知機能を追加し、車両が位置する環境を了解し、自動運転される自動車の安全な走行に寄与する。また、医用画像による診断にも適用可能である。機械は、放射線医による分析を補強し、診断試験に必要な時間を大幅に低減させる。例えば、胸部のX線フィルムをセグメンテーションすることで、心臓領域及び肺部領域を得ることができる。
理解しやすくするために、本願は、画像処理方法を提供する。該方法は、図1に示す画像処理システムに適用される。図1を参照すると、図1は、本願の実施例による画像処理システムのアーキテクチャを示す概略図である。図面に示すように、本願で提供されるモデル訓練装置は、サーバに配置されてもよく、画像処理装置は、クライアントに配置されてもよい。任意選択的に、画像処理装置は、サーバに配置されてもよい。ここで、画像処理装置がクライアントに配置されることを例として説明する。まず、サーバは、変形可能な畳み込みニューラルネットワークを訓練して画像全体の分類を実現させる。続いて、サーバは、競合的学習ポリシーを利用して使ネットワークバックボーン(即ち、画像分類ネットワーク)及びネットワーク分岐(即ち、オフセットネットワーク)を交互に訓練する。オフセットネットワークを訓練するたびに、サーバは、分類損失関数の増大により生成された勾配を利用して該ネットワーク分岐を更新し、画像全体分類に対する貢献が弱い領域を次第に見付けるようにする。これにより、ターゲット画像コンテンツの画像コンテンツ領域を得る。最後に、位置決めにより得られた画像コンテンツ領域をセグメンテーションのための教師情報として、訓練を行うことで、画像セマンティックセグメンテーションネットワークモデルを得、画像セグメンテーションを実現させる。
クライアントがサーバに接続された場合、クライアントは、サーバから画像セマンティックセグメンテーションネットワークモデルをダウンロードし、更に、処理されるべき画像を該画像セマンティックセグメンテーションネットワークモデルに入力し、画像セマンティックセグメンテーションネットワークモデルにより、処理されるべき画像のセマンティックセグメンテーション結果を出力することができる。又は、クライアントは、処理されるべき画像をサーバにアップロードし、サーバは、画像セマンティックセグメンテーションネットワークモデルを利用して、処理されるべき画像を処理し、セマンティックセグメンテーション結果を得、音声セグメンテーション結果をクライアントに返信することもできる。クライアントがサーバに接続されていない場合、サーバは、直接的にバックグラウンドで画像セマンティックセグメンテーションネットワークモデルを利用して、処理されるべき画像を処理し、セマンティックセグメンテーション結果を得ることもできる。
クライアントは、端末装置に配置されてもよく、端末装置は、無人車両、ロボット、タブレット、ノートパソコン、パーソナルテジタルアシスタント、携帯電話、音声対話端末及びパーソナルコンピュータ(personal computer:PC)を含むが、これに限定されないことに留意されたい。
理解しやすくするために、図2を参照されたい。図2は、本願の実施例による画像セマンティックセグメンテーションネットワークモデルのフローフレームワークを示す概略図である。図面に示すように、まず、訓練画像21及び画像レベルのカテゴリアノテーション情報22を取得し、次に、訓練画像21及びカテゴリアノテーション情報22を利用して訓練を行い、弱教師あり画像セマンティックセグメンテーションネットワークモデル23を得る。続いて、未知の試験画像24を取得し、該試験画像24を画像セマンティックセグメンテーションネットワークモデル23に入力し、該画像セマンティックセグメンテーションネットワークモデル23により、未知の試験画像24に対してセグメンテーションを行うことで、試験画像のセマンティックセグメンテーション結果25を予測する。
上記説明を参照しながら、以下、本願における画像分類モデルの訓練方法を説明する。ここで、該方法は、コンピュータ機器により実行されてもよい。例えば、コンピュータ機器におけるモデル訓練装置により実行されてもよい。ここで、該コンピュータ機器は、上記図1に示すシステムにおけるサーバであってもよい。図3を参照すると、本願の実施例における画像分類モデルの訓練方法の一実施例は、以下を含む。
101において、訓練されるべき画像を取得し、訓練されるべき画像は、カテゴリアノテーション情報を有し、カテゴリアノテーション情報は、訓練されるべき画像に存在する画像コンテンツカテゴリ情報を表すためのものである。
本実施例において、モデル訓練装置は、まず、訓練されるべき画像を取得する必要がある。ここで、訓練されるべき画像は、カテゴリアノテーション情報を有する。カテゴリアノテーション情報は、訓練されるべき画像中存在的に存在する画像コンテンツカテゴリ情報を表すためのものである。例えば、訓練されるべき画像において、「人間」、「馬」、「テレビ」及び「ソファー」などの画像コンテンツカテゴリ情報をアノテーションする。任意選択的に、画像コンテンツカテゴリ情報は、画像における物体に対応するカテゴリ情報に加えて、空、雲、芝生及び海などのシーンに対応するカテゴリ情報であってもよい。
一例において、データベースから訓練されるべき画像をダウンロードし、続いて、手動アノテーションの方式で訓練されるべき画像をアノテーションすることで、訓練されるべき画像のカテゴリアノテーション情報を得ることができる。大量のユーザデータを有するウェブサイトから、カテゴリアノテーション情報を有する訓練されるべき画像を自動的にクローリングすることもできる。訓練されるべき画像は、ビットマップ(BitMaP:BMP)フォーマット、パーソナルコンピュータ交換(Personal Computer Exchange:PCX)フォーマット、タグ画像ファイルフォーマット(TagImage File Format:TIF)、グラフィックインターチェンジフォーマット(Graphics Interchange Format:GIF)、共同写真専門家グループ(Joint Photographic Expert Group:JPEG)フォーマット、交換可能な画像ファイルフォーマット(Exchangeable Image file Format:EXIF)、スケーラブルベクトルグラフィックス(Scalable Vector Graphics:SVG)フォーマット、図面交換フォーマット(Drawing Exchange Format:DXF)、カプセル化されたページ記述言語(Encapsulated Post Script:EPS)フォーマット、ポータブルネットワークグラフィックス(Portable Network Graphics:PNG)フォーマット、ハイダイナミックレンジイメージング(High Dynamic Range Imaging:HDRI)及びメタファイルフォーマット(Windows Metafile Format:WMF)というフォーマットを含むが、これらに限定されない。
ウェブサイトにおける訓練されるべき画像をクローリングする場合、該訓練されるべき画像は、ハイパーテキストマークアップ言語(HyperText Markup Language,HTML)、ピクチャ、ドキュメント(Document:Doc)、マルチメディア、ダイナミックウェブページ及びポータブルドキュメントフォーマット(Portable Document Format:PDF)等のフォーマットに存在してもよい。
102において、訓練されるべきオフセットネットワークの第1モデルパラメータを一定にした場合、訓練されるべき画像分類ネットワークを介して訓練されるべき画像の第1予測カテゴリアノテーション情報を取得し、訓練されるべきオフセットネットワークは、オフセット変数に基づいて画像を分類するためのものであり、訓練されるべき画像分類ネットワークは、画像における画像コンテンツを分類するためのものである。
本実施例において、モデル訓練装置は、訓練されるべき画像及び該訓練されるべき画像に対応するカテゴリアノテーション情報を取得した後、画像分類ネットワークとオフセットネットワークに対する交互訓練を開始する。例えば、図4を参照されたい。図4は、本願の実施例によるオフセットネットワーク及び画像分類ネットワークの構造を示す概略図である。図面に示すように、訓練されるべき画像分類ネットワーク41を訓練する場合、まず、訓練されるべきオフセットネットワーク42の重み値を一定にする必要がある。つまり、訓練されるべきオフセットネットワーク42の第1モデルパラメータを一定にする。続いて、訓練されるべき画像43を訓練されるべき画像分類ネットワーク41に入力し、該訓練されるべき画像分類ネットワーク41により、訓練されるべき画像43の第1予測カテゴリアノテーション情報を出力する。
ここで、訓練されるべきオフセットネットワーク42は、分類に対する貢献が弱い入力点位置を提供し、変更したオフセット変数44に基づいて、判別性が弱い画像コンテンツ領域までに位置決めするという目的を達成することができる。訓練されるべき画像分類ネットワーク41は、画像全体における画像コンテンツ領域を分類するために用いられる。
103において、画像コンテンツカテゴリ情報及び第1予測カテゴリアノテーション情報に基づいて、分類損失関数を用いて訓練されるべき画像分類ネットワークに対応する第2モデルパラメータを決定する。
本実施例において、モデル訓練装置は、分類損失関数を用いて、訓練されるべき画像分類ネットワークを訓練する。分類損失関数は、モデル予測値と真値との不一致度合いを予測するためのものである。ここで、訓練されるべき画像の画像コンテンツカテゴリ情報は、真値であり、訓練されるべき画像の第1予測カテゴリアノテーション情報は、予測値である。分類損失関数は小さいほど、画像分類ネットワークのロバスト性は高くなる。従って、分類損失関数によれば、訓練されるべき画像分類ネットワークに対応する第2モデルパラメータを得ることができる。
104において、訓練されるべき画像分類ネットワークの第2モデルパラメータを一定にした場合、訓練されるべきオフセットネットワークを介して訓練されるべき画像の第2予測カテゴリアノテーション情報を取得する。
本実施例において、モデル訓練装置は、訓練により、訓練されるべき画像分類ネットワークの第2モデルパラメータを得た後、モデルの交互訓練に基づいて、訓練されるべき画像分類ネットワークの重み値を一定にする必要がある。つまり、訓練されるべき画像分類ネットワークの第2モデルパラメータを一定にする。続いて、訓練されるべき画像を訓練されるべきオフセットネットワークに入力し、該訓練されるべきオフセットネットワークにより、訓練されるべき画像の第2予測カテゴリアノテーション情報を出力する。
訓練されるべき画像分類ネットワークと訓練されるべきオフセットネットワークを交互に訓練する場合、まず、固定訓練されるべきオフセットネットワークのモデルパラメータを一定にし、続いて、訓練されるべき画像分類ネットワークを訓練することができることは、理解されるべきである。まず、訓練されるべき画像分類ネットワークのモデルパラメータを一定にし、続いて、訓練されるべきオフセットネットワークを訓練することもできる。本願は、まず、訓練されるべきオフセットネットワークのモデルパラメータを一定にし、続いて、訓練されるべき画像分類ネットワークを訓練することを例として説明するが、これは、本願を限定するものと理解すべきではない。
105において、画像コンテンツカテゴリ情報及び第2予測カテゴリアノテーション情報に基づいて、分類損失関数を用いて訓練されるべきオフセットネットワークに対応する第3モデルパラメータを決定する。
本実施例において、モデル訓練装置は、同一の分類損失関数を用いて、訓練されるべきオフセットネットワークを訓練する。分類損失関数は、モデル予測値と真値との不一致度合いを予測するためのものである。ここで、訓練されるべき画像の画像コンテンツカテゴリ情報は、真値であり、訓練されるべき画像の第2予測カテゴリアノテーション情報は、予測値である。従って、分類損失関数によれば、オフセットネットワークに対応する第2モデルパラメータを得ることができる。
106において、第2モデルパラメータ及び第3モデルパラメータに基づいて、訓練されるべき画像セマンティックセグメンテーションネットワークモデルを訓練し、画像セマンティックセグメンテーションネットワークモデルを得、画像セマンティックセグメンテーションネットワークモデルは、処理されるべき画像のセマンティックセグメンテーション結果を決定するためのものである。
本実施例において、少なくとも1回の交互訓練を行った後、モデル訓練装置は、毎回の訓練で得られたモデルパラメータ(訓練により得られた第2モデルパラメータ及び第3モデルパラメータを含む)に基づいて、訓練されるべき画像セマンティックセグメンテーションネットワークモデルを訓練する。例示的な解決手段において、交互訓練を終了した後、オフセットネットワークを訓練する過程において予測されたオフセット変数を1つの画像コンテンツ領域となるように融合し、最後に、得られた画像コンテンツ領域を画素レベルのセグメンテーションの教師情報として用い、該教師情報を用いて、訓練されるべき画像セマンティックセグメンテーションネットワークモデルを訓練し、画像セマンティックセグメンテーションネットワークモデルを得る。処理されるべき画像を画像セマンティックセグメンテーションネットワークモデルに入力する場合、該画像セマンティックセグメンテーションネットワークモデルにより、対応するセマンティックセグメンテーション結果を出力する。
教師あり学習(supervised learning)は、主に、回帰(regression)及び分類(classification)という2つの解題を解決するために用いられる。回帰は、定量的出力に対応し、分類は、定性的出力に対応する。簡潔に言えば、既知のデータから、演算により、明確な値を得ることは、回帰である。例えば、y=f(x)は、典型的な回帰関係を示す。既知のデータ又はアノテーションされたデータから、演算により、カテゴリを得ることは、分類である。
本願の実施例において、上記方式で、オフセットネットワーク及び画像分類ネットワークを用いて、画像レベルとアノテーションされた訓練されるべき画像を訓練することができ、画像セマンティックセグメンテーションネットワークモデルの性能を確保する上で、手動による画素レベルのアノテーションを必要とせず、手動アノテーションコストを低減させ、モデル訓練効率を更に向上させる
任意選択的に、上記図3に対応する実施例を基に、本願の実施例で提供される画像分類モデルの訓練方法の第1選択可能な実施例において、画像コンテンツカテゴリ情報及び第1予測カテゴリアノテーション情報に基づいて、分類損失関数を用いて、訓練されるべき画像分類ネットワークに対応する第2モデルパラメータを決定するステップは、
画像コンテンツカテゴリ情報及び第1予測カテゴリアノテーション情報に基づいて、各カテゴリに対応する予測確率値を決定するステップと、
各カテゴリに対応する予測確率値に基づいて、分類損失関数の分類損失を決定するステップと、
分類損失関数の分類損失が最小値である場合、訓練されるべき画像分類ネットワークに対応する第2モデルパラメータを決定するステップと、を含む。
本実施例において、第2モデルパラメータの決定方法を説明する。まず、真値(即ち、訓練されるべき画像の画像コンテンツカテゴリ情報)及び予測値(即ち、訓練されるべき画像の第1予測カテゴリアノテーション情報)に基づいて、各カテゴリに対応する予測確率値を決定する。「人間」、「馬」、「冷蔵庫」、「テレビ」及び「ソファー」という5つのカテゴリがあると仮定すれば、第1予測カテゴリアノテーション情報は、「人間」、「冷蔵庫」、「テレビ」及び「ソファー」含み、下記予測確率値を得ることができる。「人間」の予測確率値は、0.93であり、「冷蔵庫」の予測確率値は、0.88であり、「馬」の予測確率値は、0であり、「テレビ」の予測確率値は、0.5であり、「ソファー」の予測確率値は、0.65である。続いて、各カテゴリに対応する予測確率値に基づいて、分類損失関数の分類損失を決定する。
該分類損失関数の分類損失が最小値になった場合、該最小値で、訓練されるべき画像分類ネットワークに対応するモデルパラメータを取得することができる。該モデルパラメータは、第2モデルパラメータである。本願における分類損失関数の分類損失は、クロスエントロピー分類損失であってもよいことは、理解されるべきである。
次に、本願の実施例において、上記方式で、画像レベルの分類損失関数の分類損失を最小化することで、画像全体分類能力を持つ画像分類ネットワークを得ることができ、また、該画像分類ネットワークは、高いロバスト性を有し、より高い画像分類効果を有する。
任意選択的に、上記図3に対応する実施例を基に、本願の実施例で提供される画像分類モデルの訓練方法の第2選択可能な実施例において、画像コンテンツカテゴリ情報及び第2予測カテゴリアノテーション情報に基づいて、分類損失関数を用いて、訓練されるべきオフセットネットワークに対応する第3モデルパラメータを決定するステップは、
画像コンテンツカテゴリ情報及び第2予測カテゴリアノテーション情報に基づいて、各カテゴリに対応する予測確率値を決定するステップと、
各カテゴリに対応する予測確率値に基づいて、分類損失関数の分類損失を決定するステップと、
分類損失関数の分類損失が最大値である場合、訓練されるべきオフセットネットワークに対応する第3モデルパラメータを決定するステップと、を含む。
本実施例において、第3モデルパラメータの決定方法を説明する。まず、真値(即ち、訓練されるべき画像の画像コンテンツカテゴリ情報)及び予測値(即ち、訓練されるべき画像の第2予測カテゴリアノテーション情報)に基づいて、各カテゴリに対応する予測確率値を決定する。ここの第2予測カテゴリアノテーション情報は、変形可能な畳み込みニューラルネットワークにより処理されたものである。「人間」、「馬」、「冷蔵庫」、「テレビ」及び「ソファー」という5つのカテゴリがあると仮定すれば、第2予測カテゴリアノテーション情報は、「人間」、「馬」、「冷蔵庫」、「テレビ」及び「ソファー」含み、下記予測確率値を得ることができる。「人間」の予測確率値は、0.75であり、「冷蔵庫」の予測確率値は、0.65であり、「馬」の予測確率値は、0.19であり、「冷蔵庫」の予測確率値は、0.66であり、「テレビ」の予測確率値は、0.43であり、「ソファー」の予測確率値は、0.78である。続いて、各カテゴリに対応する予測確率値に基づいて、分類損失関数の分類損失を決定する。
該分類損失関数の分類損失が最大値になった場合、該最大値で、訓練されるべきオフセットネットワークに対応するモデルパラメータを取得することができる。該モデルパラメータは、第3モデルパラメータである。本願における分類損失関数の分類損失は、クロスエントロピー分類損失であってもよいことは、理解されるべきである。
実際の適用において、時系列又は画像は連続したものであることが多いが、モデルに入力されたデータは、不連続的なものであることが多い。従って、入力に微小な摂動を加えることで、モデルを、ノイズ摂動に対してより良好に対抗するようにする。つまり、対抗サンプルを取得し、これを最大限分類し、サンプル空間において1つの元のサンプルに近接させる(距離は、無限に小さい)。勾配降下法又はニュートン法などを用いて、モデルパラメータを算出することができることは、理解されるべきである。
次に、本願の実施例において、上記方式で、画像レベルの分類損失関数の分類損失を最大化することで、画像分類ネットワークの分類難度を向上させ、敵対的訓練の効果を達成し、画像分類ネットワークの分類効果を高くし、つまり、より高い画像分類効果を持たせる。なお、画像レベルの分類損失関数の分類損失を最大化することで、オフセットネットワークが、分類に対する貢献が弱い入力点の位置を提供し、変更したオフセット変数に基づいて、判別性が弱い画像コンテンツ領域を位置決めするという目的を達成することもできる。
任意選択的に、上記図3及び上記図3に対応する第1又は第2実施例を基に、本願の実施例で提供される画像分類モデルの訓練方法の第3選択可能な実施例において、分類損失関数は、
Figure 2022505775000006
で表されてもよく、
ここで、Lは、分類損失関数を表し、I()は、ディラック関数を表し、Nは、カテゴリの総数を表し、cは、第cカテゴリを表し、kは、1以上であってN以下であり、Pは、第cカテゴリに対応する予測確率値を表す。
本実施例において、画像分類ネットワーク及びオフセットネットワークを訓練により得るための分類損失関数を定義する。つまり、下記分類損失関数を用いる。
Figure 2022505775000007
上記から分かるように、画像分類ネットワーク及びオフセットネットワークを訓練する場合、画像レベルの画像コンテンツ領域を訓練対象とすることで得られた画像分類ネットワーク及びオフセットネットワークは、画像における各画像コンテンツ領域のカテゴリを予測することができる。
また、本願の実施例において、分類損失関数の例示的なコンテンツを提供する。上記方式によれば、解決手段の実現のために、実行可能な方法を提供し、解決手段の実行可能性及び操作可能性を向上させることができる。
任意選択的に、上記図3に対応する実施例を基に、本願の実施例で提供される画像分類モデルの訓練方法の第4選択可能な実施例において、訓練されるべきオフセットネットワークを介して訓練されるべき画像の第2予測カテゴリアノテーション情報を取得する前に、
変形可能な畳み込みニューラルネットワークを介して訓練されるべき画像に対応する訓練されるべき特徴画像を取得するステップであって、変形可能な畳み込みニューラルネットワークは訓練されるべき画像のオフセット変数を予測するためのものである、ステップを更に含んでもよく、
訓練されるべきオフセットネットワークを介して訓練されるべき画像の第2予測カテゴリアノテーション情報を取得するステップは、
訓練されるべきオフセットネットワークを介して訓練されるべき特徴画像に対応する第2予測カテゴリアノテーション情報を取得するステップを含んでもよい。
本実施例において、利用変形可能な畳み込みニューラルネットワークを利用して第2予測カテゴリアノテーション情報を生成する方法を説明する。一例示的な解決手段において、まず、訓練されるべき画像を変形可能な畳み込みニューラルネットワーク(deformable convolution)に入力し、変形可能な畳み込みニューラルネットワークにより、予測されたオフセット変数を出力する。オフセット変数は、1つの畳み込みカーネルの各重み値に対応する入力画素の位置オフセットである。オフセット変数によれば、操作の実際の入力特徴を変更することができる。
理解しやすくするために、図5を参照されたい。図5は、本願の実施例による変形可能な畳み込みニューラルネットワークの構造を示す概略図である。図面に示すように、従来の畳み込みウィンドウは、各畳み込みウィンドウの画素重み値のみを訓練すればよいが、変形可能な畳み込みネットワークは、畳み込みウィンドウの形状を訓練するための幾つかのパラメータを追加する必要がある。図5におけるオフセット領域51は、変形畳み込みに追加された訓練されるべきパラメータである。訓練されるべきパラメータの大きさは、訓練されるべき画像52の大きさと同じである。畳み込みウィンドウがオフセット領域51でスライドすると、畳み込み画素のオフセット効果を示し、サンプリング点の最適化の効果を達成する。最後に、訓練されるべき特徴画像53を出力する。訓練されるべき特徴画像を訓練されるべきオフセットネットワークに入力し、訓練されるべきオフセットネットワークにより、第2予測カテゴリアノテーション情報を出力する。
次に、本願の実施例において、上記方式で、1つの畳み込みカーネルにおける各重みに対応する入力画素の位置オフセット変数を予測し、畳み込み操作の実際の入力特徴を変更し、これにより、最も有効な変換方式を訓練により得、敵対的訓練のモードを実現させることができる。
任意選択的に、上記図3に対応する第4実施例を基に、本願の実施例で提供される画像分類モデルの訓練方法の第5選択可能な実施例において、変形可能な畳み込みニューラルネットワークを介して訓練されるべき画像に対応する訓練されるべき特徴画像を取得するステップは、
Figure 2022505775000008
で訓練されるべき特徴画像を生成するステップを含んでもよく、
ここで、y(p)は、訓練されるべき特徴画像を表し、pは、訓練されるべき特徴画像における画素値を表し、pは、畳み込みカーネルにおける、サンプリング点の位置を表し、Δpは、オフセット変数を表し、w(p)は、畳み込みカーネルが訓練されるべき画像における対応する位置で畳み込み演算を行うための重み値を表し、
x(p+p+Δp)は、訓練されるべき画像における対応する位置の画素値を表す。
本実施例において、変形可能な畳み込みニューラルネットワークを介して訓練されるべき特徴画像を取得する方法を説明する。出力位置がpである特徴に対して、従来の畳み込み層を用いると、対応する入力特徴位置集合は、p+pである。ここで、p∈Rであり、Rは、0を中心とした全ての標準的な正方形オフセット量である例えば、1つの3×3畳み込みカーネルに対応するRは、{(0,0),(-1,-1),(-1,1),(1,1),(1,-1),(-1,0),(1,0),(0,1),(0,1)}である。変形可能な畳み込みニューラルネットワークの入力特徴集合は、p+pを基に、予測された追加のオフセット変数を導入する。従って、実際に入力された特徴位置集合は、p+p+Δpである。つまり、出力層y(p)は、
Figure 2022505775000009
で表され、
ここで、y(p)は、訓練されるべき特徴画像を表し、pは、訓練されるべき特徴画像における画素値を表し、pは、畳み込みカーネルにおける、サンプリング点の位置を表し、Δpは、オフセット変数を表し、w(p)は、畳み込みカーネルが訓練されるべき画像における対応する位置で畳み込み演算を行うための重み値を表し、x(p+p+Δp)は、訓練されるべき画像における対応する位置の画素値を表す。
また、本願の実施例において、訓練されるべき特徴画像を生成するための例示的な方式を提供する。上記方式で、解決手段の実現のために、実行可能方法を提供し、解決手段の実行可能性及び操作可能性を向上させることができる。
任意選択的に、上記図3に対応する実施例を基に、本願の実施例で提供される画像分類モデルの訓練方法の第6選択可能な実施例において、画像コンテンツカテゴリ情報及び第2予測カテゴリアノテーション情報に基づいて、分類損失関数を用いて訓練されるべきオフセットネットワークに対応する第3モデルパラメータを決定した後、
訓練されるべきオフセットネットワークに対応する第3モデルパラメータを一定にした場合、訓練されるべき画像分類ネットワークを介して訓練されるべき画像の第3予測カテゴリアノテーション情報を取得するステップと、
画像コンテンツカテゴリ情報及び第3予測カテゴリアノテーション情報に基づいて、分類損失関数を用いて訓練されるべき画像分類ネットワークに対応する第4モデルパラメータを決定するステップと、
訓練されるべき画像分類ネットワークの第4モデルパラメータを一定にした場合、訓練されるべきオフセットネットワークを介して訓練されるべき画像の第4予測カテゴリアノテーション情報を取得するステップと、
画像コンテンツカテゴリ情報及び第4予測カテゴリアノテーション情報に基づいて、分類損失関数を用いて訓練されるべきオフセットネットワークに対応する第5モデルパラメータを決定するステップと、を更に含んでもよく
第2モデルパラメータ及び第3モデルパラメータに基づいて、訓練されるべき画像セマンティックセグメンテーションネットワークモデルを訓練し、画像セマンティックセグメンテーションネットワークモデルを得るステップは、
第2モデルパラメータ、第3モデルパラメータ、第4モデルパラメータ及び第5モデルパラメータに基づいて、訓練されるべき画像セマンティックセグメンテーションネットワークモデルを訓練し、画像セマンティックセグメンテーションネットワークモデルを得るステップを含む。
本実施例において、もう1つのモデル交互訓練過程を説明する。モデル訓練装置は、一回の交互訓練を完了した後、次回の要件訓練を開始することができる。例えば、訓練されるべき画像分類ネットワークを訓練する場合、まず、訓練されるべきオフセットネットワークの重み値を一定にする必要がある。つまり、固定訓練されるべきオフセットネットワークの第3モデルパラメータを一定にする。続いて、訓練されるべき画像を訓練されるべき画像分類ネットワークに入力し、該訓練されるべき画像分類ネットワークにより、訓練されるべき画像の第3予測カテゴリアノテーション情報を出力する。従って、モデル訓練装置は、分類損失関数を用いて、訓練されるべき画像分類ネットワークを訓練する。分類損失関数は、モデル予測値と真値との不一致度合いを予測するためのものである。ここで、訓練されるべき画像の画像コンテンツカテゴリ情報は、真値であり、訓練されるべき画像の第3予測カテゴリアノテーション情報は、予測値である。分類損失関数は小さいほど、画像分類ネットワークのロバスト性は高くなる。従って、分類損失関数によれば、訓練されるべき画像分類ネットワークに対応する第4モデルパラメータを得ることができる。
モデル訓練装置は、訓練により、訓練されるべき画像分類ネットワークの第4モデルパラメータを得た後、モデルの交互訓練に基づいて、訓練されるべき画像分類ネットワークの重み値を一定にする必要がある。つまり、訓練されるべき画像分類ネットワークの第4モデルパラメータを一定にする。続いて、訓練されるべき画像を訓練されるべきオフセットネットワークに入力し、該訓練されるべきオフセットネットワークにより、訓練されるべき画像の第4予測カテゴリアノテーション情報を出力する。
モデル訓練装置は、同一の分類損失関数を用いて、訓練されるべきオフセットネットワークを訓練する。分類損失関数は、モデル予測値と真値との不一致度合いを予測するためのものである。ここで、訓練されるべき画像の画像コンテンツカテゴリ情報は、真値であり、訓練されるべき画像の第4予測カテゴリアノテーション情報は、予測値である。従って、分類損失関数によれば、オフセットネットワークに対応する第5モデルパラメータを得ることができる。
複数回の交互訓練を行った後、モデル訓練装置は、毎回の訓練で得られたモデルパラメータ(訓練により得られた第2モデルパラメータ、第3モデルパラメータ、第4モデルパラメータ及び第5モデルパラメータを含む)に基づいて、訓練されるべき画像セマンティックセグメンテーションネットワークモデルを訓練する。例示的な解決手段において、交互訓練を終了した後、オフセットネットワークを訓練する過程において予測されたオフセット変数を1つの比較的完全な画像コンテンツ領域となるように融合し、最後に、得られた画像コンテンツ領域を画素レベルのセグメンテーションの教師情報として用い、該教師情報を用いて、訓練されるべき画像セマンティックセグメンテーションネットワークモデルを訓練し、画像セマンティックセグメンテーションネットワークモデルを得る。処理されるべき画像を画像セマンティックセグメンテーションネットワークモデルに入力する場合、該画像セマンティックセグメンテーションネットワークモデルにより、対応するセマンティックセグメンテーション結果を出力する。
次に、本願の実施例において、上記方式で、1つの分岐を一定にし、もう1つの分岐を訓練するという方策により、画像分類ネットワークとオフセットネットワークに絶え間なく競合的学習を実行させることができ、画像分類ネットワークは情報量のより小さい領域を入力とした後に分類器を絶え間なく補強するように訓練する一方で、オフセットネットワークの分岐により判別性がより弱い領域を絶え間なく位置決めすることもできる。
任意選択的に、上記図3に対応する実施例を基に、本願の実施例で提供される画像分類モデルの訓練方法の第1選択可能な実施例において、第2モデルパラメータ及び第3モデルパラメータに基づいて、訓練されるべき画像セマンティックセグメンテーションネットワークモデルを訓練し、画像セマンティックセグメンテーションネットワークモデルを得るステップは、
第2モデルパラメータ及び第3モデルパラメータを用いて訓練されるべきオフセットネットワークをN回訓練した場合、訓練されるべきオフセットネットワークを毎回訓練する時のオフセット変数に基づいて、訓練されるべき画像に対応する画像コンテンツ領域を決定するステップであって、Nは、1以上の整数である、ステップと、
画像コンテンツ領域に基づいて、ターゲット損失関数を用いて訓練されるべき画像セマンティックセグメンテーションネットワークモデルを訓練するステップと、
ターゲット損失関数の損失結果が最小値である場合、画像セマンティックセグメンテーションネットワークモデルを生成するステップと、を含んでもよい。
本実施例において、画像セマンティックセグメンテーションネットワークモデルの生成方法を説明する。N回の交互訓練を終了した後、オフセットネットワークを訓練する過程において予測されたオフセット変数を全て融合することで、比較的完全な画像コンテンツ領域を得、つまり、訓練されるべき画像に対応する画像コンテンツ領域を得ることができる。得られた画像コンテンツ領域を画素レベルのセグメンテーションの教師情報として用い、続いて、ターゲット損失関数を用いて訓練されるべき画像セマンティックセグメンテーションネットワークモデルを訓練する。ターゲット損失関数が最小値である場合、画像セマンティックセグメンテーションネットワークモデルを生成する。
画像セマンティックセグメンテーションネットワークモデルの適用範囲は広い。例えば、画像修正者が画像を正確に美化するのを補助するか又は無人運転自動車が前方の障害物を正確に理解するのを補助する。画像セマンティックセグメンテーションネットワークモデルを用いてセマンティックセグメンテーションを行う方法は多数である。例えば、閾値法を用いる。閾値法の目的は、グレースケール画像を前背景が分離した二値画像に変換することである。グレースケール画像に、前景画像コンテンツ及び背景画像という2つの主なカテゴリのみを含むと仮定する。続いて、平衡画像統計ヒストグラムの方式で、良好な画素閾値を見付け、画像における全ての点を該2つのカテゴリに分ける。ここで、閾値より大きい点は、画像コンテンツであり、閾値以下の点は、背景である。
また例えば、画素クラスタリングの方法で、まず、K個の中心点を選択し、続いて、各画素点と該K個の画素との差別の大きさに基づいて、画像の全ての点を該K個の中心点に割り当て、続いて、各カテゴリの中心を再演算し、上記ステップに応じて反復最適化を行い、画像における全ての画素をK個のカテゴリに分ける。
また例えば、画素縁セグメンテーションの方法で、抽出された縁情報を利用して、画像における異なる領域をセグメンテーションする。
次に、本願の実施例において、上記方式で、データアノテーションに対する要件が高すぎるという問題を解決し、大量の画像に対して画素レベルのアノテーションを行う必要がなく、弱教師あり要件での画像セマンティックセグメンテーションを実現させる。高価な画素レベルの情報を必要とせず、画像レベルのアノテーションのみを提供すれば、従来方法に匹敵するセマンティックセグメンテーション精度を取得することができる。
任意選択的に、上記図3に対応する第7実施例を基に、本願の実施例で提供される画像分類モデルの訓練方法の第8選択可能な実施例において、ターゲット損失関数は、
Figure 2022505775000010
で表されてもよく、
ここで、Lsegは、ターゲット損失関数を表し、Nは、カテゴリ総数を表し、cは、第cカテゴリを表し、kは、1以上であって前記N以下であり、I()は、ディラック関数を表し、
Figure 2022505775000011
は、画素点での、第cカテゴリの予測確率値を表し、iは、訓練されるべき画像における、画素点の横座標位置を表し、jは、訓練されるべき画像における、画素点の縦座標位置を表す。
本実施例において、画像セマンティックセグメンテーションネットワークモデルを訓練により得るためのターゲット損失関数を定義する。つまり、
Figure 2022505775000012
というターゲット損失関数を用いる。
上記から分かるように、画像セマンティックセグメンテーションネットワークモデルを訓練する場合、画素レベルの画像を訓練対象とすることで得られた画像セマンティックセグメンテーションネットワークモデルは、画像における各特徴点のカテゴリを予測することができる。
また、本願の実施例において、ターゲット損失関数の例示的なコンテンツを提供する。上記方式によれば、解決手段の実現のために、実行可能な方法を提供し、解決手段の実行可能性及び操作可能性を向上させることができる。
上記説明を参照しながら、以下、本願における画像処理方法を説明する。ここで、該方法は、コンピュータ機器により実行されてもよい。例えば、コンピュータ機器におけるモデル訓練装置により実行されてもよい。ここで、該コンピュータ機器は、上記図1に示すシステムにおける端末機器又はサーバであってもよい。図6を参照すると、本願の実施例における画像処理方法の一実施例は、以下を含む。
201において、処理されるべき画像を取得する。
本実施例において、モデル訓練装置は、1つの画像セマンティックセグメンテーションネットワークモデルを訓練により得た後、画像処理装置は、1つの処理されるべき画像を取得することができる。ここで、画像処理装置は、無人車両に配置される場合、カメラにより、無人車両の走行過程において収集されたストリートビュー画像を取得することができる。画像処理装置は、ロボットに配置される場合、ロボットが位置する環境でのストリートビュー画像をリアルタイムで収集することができる。画像処理装置は、携帯電話又はタブレットなどのハンドヘルド機器に配置される場合、ユーザにより撮られた写真又はウェブサイトからダウンロードされたピクチャを取得することができる。これらの画像はいずれも、処理されるべき画像とすることができる。
処理されるべき画像は、BMPフォーマット、PCXフォーマット、TIF、GIF、JPEGフォーマット、EXIF、SVGフォーマット、DXF、EPSフォーマット、PNGフォーマット、HDRIフォーマット及びWMFというフォーマットを含むが、これらに限定されない。
202において、画像セマンティックセグメンテーションネットワークモデルにより、処理されるべき画像のセマンティックセグメンテーション結果を取得し、画像セマンティックセグメンテーションネットワークモデルは、訓練されるべき画像分類ネットワーク及び訓練されるべきオフセットネットワークに基づいて交互に訓練を行うことで得られたものであり、訓練されるべきオフセットネットワークは、オフセット変数に基づいて画像を分類するためのものであり、訓練されるべき画像分類ネットワークは、画像における画像コンテンツを分類するためのものである。
本実施例において、画像処理装置は、処理されるべき画像を画像セマンティックセグメンテーションネットワークモデルに入力し、該画像セマンティックセグメンテーションネットワークモデルにより、対応するセマンティックセグメンテーション結果を出力する。ここで、画像セマンティックセグメンテーションネットワークモデルは、訓練されるべき画像分類ネットワーク及び訓練されるべきオフセットネットワークを交互に訓練することで得られたものであり、該訓練されるべきオフセットネットワークは、オフセット変数に基づいて画像を分類するためのものであり、訓練されるべき画像分類ネットワークは、画像における画像コンテンツを分類するためのものである。画像セマンティックセグメンテーションネットワークモデルの訓練過程は、上記図3及び図3に対応する第1から第8実施例に記載したとおりであり、ここで、詳細な説明を省略することは、理解されるべきである。
画像セマンティックセグメンテーションネットワークモデルは、全畳み込みニューラルネットワーク(Fully Convolutional Networks:FCN)、条件付き確率場(conditional random field:CRF)又はマルコフ確率場(Markov random field:MRF)に基づいて訓練されたものであり、他の構造のニューラルネットワークに基づいて訓練されたものであってもよく、ここで、詳細な説明を省略することは、理解されるべきである。
ここで、FCNは主に、畳み込み(Convolutional)、アップサンプリング(Upsample)及びスキップ構造(Skip Layer)という3つの技術を用いる。畳み込みは、VGG16又は残差ネットワーク(Residual Neural Network:ResNet)50/101等などのような一般的な分類ネットワークの全結合層を捨て、対応する畳み込み層を交換することである。アップサンプリングは、逆畳み込み(Deconvolution)であり、逆畳み込みは、畳み込みと同様であり、いずも乗算及び加算を行う。逆畳み込みは、1対多式であり、逆畳み込みのフォワードプロパゲーション及びバックプロパゲーションとして、畳み込みのフォワードプロパゲーション及びバックプロパゲーションを逆転したものを利用すればよい。スキップ構造の役割は、結果最適化である。全畳み込みを行った結果を直接的にアップサンプリングすることで得られた結果は粗いため、異なるプーリング層の結果をアップサンプリングした後に出力を最適化する必要がある。
203において、セマンティックセグメンテーション結果に基づいて、処理されるべき画像を処理する。
本実施例において、画像処理装置は、セマンティックセグメンテーション結果に基づいて該処理されるべき画像を処理する。任意選択的に、セマンティックセグメンテーション結果は、ウェブサイトで画像を利用して画像を検索するために用いられる。つまり、処理されるべき画像に関わる他の画像を検索するために用いられる。また、画像コンテンツ分析に基づくカスタマイズ推薦などにも適用可能である。セマンティックセグメンテーション結果は、一般的には下記特徴を有する。1つ目の特徴は、セグメンテーションで得られた異なる領域の内部は、平滑であり、そのテクスチャ及びグレースケールは類似性を有することである。2つ目の特徴は、隣接セマンティックセグメンテーション領域のセグメンテーションの根拠とした性質が明らかに相違していることである。3つ目の特徴は、セグメンテーションした後の異なるセマンティック領域の境界は明確であって規則的である。
本願の実施例において、上記方式で、弱教師あり画像セマンティックセグメンテーションを実現させ、精細な画素レベルのセグメンテーションアノテーションデータを欠けている場合に適用可能であり、画像全体の分類アノテーションのみに依存し、正確率の高い画像セグメンテーションを実現させる。
理解しやすくするために、図7を参照されたい。図7は、本願の実施例による変形可能な畳み込みニューラルネットワークに基づく画像処理フローを示す概略図である。図面に示すように、まず、処理されるべき画像71を取得し、該処理されるべき画像から、例えば図7に示す赤色自動車のような関心画像を抽出し、処理されるべき画像から抽出された関心画像を畳み込み層72に入力し、関心領域プーリング層73により、関心画像の特徴マップ74を得る。一例示的な解決手段において、プーリング対象が3×3の特徴マップであると仮定すると、まず、入力された関心画像に対して関心領域プーリングを行い、大きさが3×3である特徴マップ74を得、続いて、全結合層75により、各領域に対応するオフセット変数76を出力する。もう1つの全結合層77により処理を行うことで、セマンティックセグメンテーション結果(分類情報78及び位置決め情報79を含む)を得る。
以下、本願におけるモデル訓練装置を詳しく説明する。ここで、該モデル訓練装置は、コンピュータに適用可能である。例えば、該コンピュータ機器は、上記図1に示すシステムにおけるサーバであってもよい。図8を参照すると、図8は、本願の実施例によるモデル訓練装置の一実施例を示す概略図である。モデル訓練装置30は、取得モジュール301と、決定モジュール302と、訓練モジュール303と、を備え、
前記取得モジュール301は、訓練されるべき画像を取得するように構成され、前記訓練されるべき画像は、カテゴリアノテーション情報を有し、前記カテゴリアノテーション情報は、前記訓練されるべき画像に存在する画像コンテンツカテゴリ情報を表すためのものであり、
前記取得モジュール301は更に、訓練されるべきオフセットネットワークの第1モデルパラメータを一定にした場合、訓練されるべき画像分類ネットワークを介して前記訓練されるべき画像の第1予測カテゴリアノテーション情報を取得するように構成され、前記訓練されるべきオフセットネットワークは、オフセット変数に基づいて画像を分類するためのものであり、前記訓練されるべき画像分類ネットワークは、画像における画像コンテンツを分類するためのものであり、
前記決定モジュール302は、前記画像コンテンツカテゴリ情報及び前記第1予測カテゴリアノテーション情報に基づいて、分類損失関数を用いて前記訓練されるべき画像分類ネットワークに対応する第2モデルパラメータを決定するように構成され、
前記取得モジュール301は更に、前記訓練されるべき画像分類ネットワークの前記第2モデルパラメータを一定にした場合、前記訓練されるべきオフセットネットワークを介して前記訓練されるべき画像の第2予測カテゴリアノテーション情報を取得するように構成され、
前記決定モジュール302は更に、前記画像コンテンツカテゴリ情報及び前記取得モジュール301により取得された前記第2予測カテゴリアノテーション情報に基づいて、前記分類損失関数を用いて前記訓練されるべきオフセットネットワークに対応する第3モデルパラメータを決定するように構成され、
前記訓練モジュール303は、前記決定モジュール302により決定された前記第2モデルパラメータ及び前記第3モデルパラメータに基づいて、訓練されるべき画像セマンティックセグメンテーションネットワークモデルを訓練し、画像セマンティックセグメンテーションネットワークモデルを得るように構成され、前記画像セマンティックセグメンテーションネットワークモデルは、処理されるべき画像のセマンティックセグメンテーション結果を決定するためのものである。
本実施例において、取得モジュール301は、訓練されるべき画像を取得し、前記訓練されるべき画像は、カテゴリアノテーション情報を有し、前記カテゴリアノテーション情報は、前記訓練されるべき画像に存在する画像コンテンツカテゴリ情報を表すためのものである。訓練されるべきオフセットネットワークの第1モデルパラメータを一定にした場合、前記取得モジュール301は、訓練されるべき画像分類ネットワークを介して前記訓練されるべき画像の第1予測カテゴリアノテーション情報を取得し、前記訓練されるべきオフセットネットワークは、オフセット変数に基づいて画像を分類するためのものであり、前記訓練されるべき画像分類ネットワークは、画像における画像コンテンツを分類するためのものである。決定モジュール302は、前記画像コンテンツカテゴリ情報及び前記取得モジュール301により取得された前記第1予測カテゴリアノテーション情報に基づいて、分類損失関数を用いて前記訓練されるべき画像分類ネットワークに対応する第2モデルパラメータを決定する。前記訓練されるべき画像分類ネットワークの前記第2モデルパラメータを一定にした場合、前記取得モジュール301は、前記訓練されるべきオフセットネットワークを介して前記訓練されるべき画像の第2予測カテゴリアノテーション情報を取得する。前記決定モジュール302は、前記画像コンテンツカテゴリ情報及び前記取得モジュール301により取得された前記第2予測カテゴリアノテーション情報に基づいて、前記分類損失関数を用いて前記訓練されるべきオフセットネットワークに対応する第3モデルパラメータを決定する。訓練モジュール303は、前記決定モジュール302により決定された前記第2モデルパラメータ及び前記第3モデルパラメータに基づいて、訓練されるべき画像セマンティックセグメンテーションネットワークモデルを訓練し、画像セマンティックセグメンテーションネットワークモデルを得、前記画像セマンティックセグメンテーションネットワークモデルは、処理されるべき画像のセマンティックセグメンテーション結果を決定するためのものである。
本願の実施例において、上記方式で、オフセットネットワーク及び画像分類ネットワークを用いて、画像レベルとアノテーションされた訓練されるべき画像を訓練することができ、画像セマンティックセグメンテーションネットワークモデルの性能を確保する上で、手動による画素レベルのアノテーションを必要とせず、手動アノテーションコストを低減させ、モデル訓練効率を更に向上させる。
任意選択的に、上記図8に対応する実施例を基に、本願の実施例で提供されるモデル訓練装置30のもう1つの実施例において、
前記決定モジュール302は具体的には、前記画像コンテンツカテゴリ情報及び前記第1予測カテゴリアノテーション情報に基づいて、各カテゴリに対応する予測確率値を決定し、
前記各カテゴリに対応する予測確率値に基づいて、前記分類損失関数の分類損失を決定し、
前記分類損失関数の分類損失が最小値である場合、前記訓練されるべき画像分類ネットワークに対応する前記第2モデルパラメータを決定するように構成される。
次に、本願の実施例において、上記方式で、画像レベルの分類損失関数の分類損失を最小化することで、画像全体分類能力を持つ画像分類ネットワークを得ることができ、また、該画像分類ネットワークは、高いロバスト性を有し、より高い画像分類効果を有する。
任意選択的に、上記図8に対応する実施例を基に、本願の実施例で提供されるモデル訓練装置30のもう1つの実施例において、
前記決定モジュール302は具体的には、前記画像コンテンツカテゴリ情報及び前記第2予測カテゴリアノテーション情報に基づいて、各カテゴリに対応する予測確率値を決定し、
前記各カテゴリに対応する予測確率値に基づいて、前記分類損失関数の分類損失を決定し、
前記分類損失関数の分類損失が最大値である場合、前記訓練されるべきオフセットネットワークに対応する前記第3モデルパラメータを決定するように構成される。
次に、本願の実施例において、上記方式で、画像レベルの分類損失関数の分類損失を最大化することで、画像分類ネットワークの分類難度を向上させ、敵対的訓練の効果を達成し、画像分類ネットワークの分類効果を高くし、つまり、より高い画像分類効果を持たせる。なお、画像レベルの分類損失関数の分類損失を最大化することで、オフセットネットワークが、分類に対する貢献が弱い入力点の位置を提供し、変更したオフセット変数に基づいて、判別性が弱い画像コンテンツ領域を位置決めするという目的を達成することもできる。
任意選択的に、上記図8に対応する実施例を基に、本願の実施例で提供されるモデル訓練装置30のもう1つの実施例において、
前記分類損失関数は、
Figure 2022505775000013
で表され、
ここで、前記Lは、前記分類損失関数を表し、前記I()は、ディラック関数を表し、前記Nは、カテゴリの総数を表し、前記cは、第cカテゴリを表し、前記kは、1以上であって前記N以下であり、前記Pは、前記第cカテゴリに対応する予測確率値を表す。
また、本願の実施例において、分類損失関数の例示的なコンテンツを提供する。上記方式によれば、解決手段の実現のために、実行可能な方法を提供し、解決手段の実行可能性及び操作可能性を向上させることができる。
任意選択的に、上記図8に対応する実施例を基に、本願の実施例で提供されるモデル訓練装置30のもう1つの実施例において、
前記取得モジュール301は更に、前記訓練されるべきオフセットネットワークを介して前記訓練されるべき画像の第2予測カテゴリアノテーション情報を取得する前に、変形可能な畳み込みニューラルネットワークを介して前記訓練されるべき画像に対応する訓練されるべき特徴画像を取得するように構成され、前記変形可能な畳み込みニューラルネットワークは、前記訓練されるべき画像のオフセット変数を予測するためのものであり、
前記取得モジュールは具体的には、前記訓練されるべきオフセットネットワークを介して前記訓練されるべき特徴画像に対応する前記第2予測カテゴリアノテーション情報を取得するように構成される。
次に、本願の実施例において、上記方式で、1つの畳み込みカーネルにおける各重みに対応する入力画素の位置オフセット変数を予測し、畳み込み操作の実際の入力特徴を変更し、これにより、最も有効な変換方式を訓練により得、敵対的訓練のモードを実現させることができる。
任意選択的に、上記図8に対応する実施例を基に、本願の実施例で提供されるモデル訓練装置30のもう1つの実施例において、
前記取得モジュール301は具体的には、
Figure 2022505775000014
で前記訓練されるべき特徴画像を生成するように構成され、
ここで、前記y(p)は、前記訓練されるべき特徴画像を表し、前記pは、前記訓練されるべき特徴画像における画素値を表し、前記pは、畳み込みカーネルにおける、サンプリング点の位置を表し、前記Δpは、前記オフセット変数を表し、前記w(p)は、前記畳み込みカーネルが前記訓練されるべき画像における対応する位置で畳み込み演算を行うための重み値を表し、前記x(p+p+Δp)は、前記訓練されるべき画像における対応する位置の画素値を表す。
また、本願の実施例において、訓練されるべき特徴画像を生成するための例示的な方式を提供する。上記方式で、解決手段の実現のために、実行可能方法を提供し、解決手段の実行可能性及び操作可能性を向上させることができる。
任意選択的に、上記図8に対応する実施例を基に、本願の実施例で提供されるモデル訓練装置30のもう1つの実施例において、
前記取得モジュール301は更に、前記決定モジュール302が前記画像コンテンツカテゴリ情報及び前記第2予測カテゴリアノテーション情報に基づいて前記分類損失関数を用いて前記訓練されるべきオフセットネットワークに対応する第3モデルパラメータを決定した後、前記訓練されるべきオフセットネットワークに対応する前記第3モデルパラメータを一定にした場合、前記訓練されるべき画像分類ネットワークを介して前記訓練されるべき画像の第3予測カテゴリアノテーション情報を取得するように構成され、
前記決定モジュール302は更に、前記画像コンテンツカテゴリ情報及び前記取得モジュール301により取得された前記第3予測カテゴリアノテーション情報に基づいて、前記分類損失関数を用いて前記訓練されるべき画像分類ネットワークに対応する第4モデルパラメータを決定するように構成され、
前記取得モジュール301は更に、前記訓練されるべき画像分類ネットワークの前記第4モデルパラメータを一定にした場合、前記訓練されるべきオフセットネットワークを介して前記訓練されるべき画像の第4予測カテゴリアノテーション情報を取得するように構成され、
前記決定モジュール302は更に、前記画像コンテンツカテゴリ情報及び前記取得モジュール301により取得された前記第4予測カテゴリアノテーション情報に基づいて、前記分類損失関数を用いて前記訓練されるべきオフセットネットワークに対応する第5モデルパラメータを決定するように構成され、
前記訓練モジュール303は具体的には、前記決定モジュール302により決定された前記第2モデルパラメータ、前記第3モデルパラメータ、前記第4モデルパラメータ及び前記第5モデルパラメータに基づいて、前記訓練されるべき画像セマンティックセグメンテーションネットワークモデルを訓練し、前記画像セマンティックセグメンテーションネットワークモデルを得るように構成される。
次に、本願の実施例において、上記方式で、1つの分岐を一定にし、もう1つの分岐を訓練するという方策により、画像分類ネットワークとオフセットネットワークに絶え間なく競合的学習を実行させることができ、画像分類ネットワークは情報量のより小さい領域を入力とした後に分類器を絶え間なく補強するように訓練する一方で、オフセットネットワークの分岐により判別性がより弱い領域を絶え間なく位置決めすることもできる。
任意選択的に、上記図8に対応する実施例を基に、本願の実施例で提供されるモデル訓練装置30のもう1つの実施例において、
前記訓練モジュール303は具体的には、前記第2モデルパラメータ及び前記第3モデルパラメータを用いて前記訓練されるべきオフセットネットワークをN回訓練した場合、前記訓練されるべきオフセットネットワークを毎回訓練する時のオフセット変数に基づいて、前記訓練されるべき画像に対応する画像コンテンツ領域を決定するように構成され、前記Nは、1以上の整数であり、
前記訓練モジュール303は具体的には、前記画像コンテンツ領域に基づいて、ターゲット損失関数を用いて訓練されるべき画像セマンティックセグメンテーションネットワークモデルを訓練し、
前記ターゲット損失関数の損失結果が最小値である場合、前記画像セマンティックセグメンテーションネットワークモデルを生成するように構成される。
次に、本願の実施例において、上記方式で、データアノテーションに対する要件が高すぎるという問題を解決し、大量の画像に対して画素レベルのアノテーションを行う必要がなく、弱教師あり要件での画像セマンティックセグメンテーションを実現させる。高価な画素レベルの情報を必要とせず、画像レベルのアノテーションのみを提供すれば、従来方法に匹敵するセマンティックセグメンテーション精度を取得することができる。
任意選択的に、上記図8に対応する実施例を基に、本願の実施例で提供されるモデル訓練装置30のもう1つの実施例において、
前記ターゲット損失関数は、
Figure 2022505775000015
で表され、
ここで、前記Lsegは、前記ターゲット損失関数を表し、前記Nは、カテゴリ総数を表し、前記cは、第cカテゴリを表し、前記kは、1以上であって前記N以下であり、前記I()は、ディラック関数を表し、前記
Figure 2022505775000016
は、画素点での、前記第cカテゴリの予測確率値を表し、前記iは、前記訓練されるべき画像における、前記画素点の横座標位置を表し、前記jは、前記訓練されるべき画像における、前記画素点の縦座標位置を表す。
また、本願の実施例において、ターゲット損失関数の例示的なコンテンツを提供する。上記方式によれば、解決手段の実現のために、実行可能な方法を提供し、解決手段の実行可能性及び操作可能性を向上させることができる。
以下、本願における画像処理装置を詳しく説明する。ここで、該画像処理装置は、コンピュータ機器に適用可能である。例えば、該コンピュータ機器は、上記図1に示すシステムにおけるサーバ又は端末装置であってもよい。図9を参照すると、図9は、本願の実施例による画像処理装置の一実施例を示す概略図である。画像処理装置40は、取得モジュール401と、処理モジュール402と、を備え、
前記取得モジュール401は、処理されるべき画像を取得するように構成され、
前記取得モジュール401は更に、画像セマンティックセグメンテーションネットワークモデルにより、前記処理されるべき画像のセマンティックセグメンテーション結果を取得するように構成され、前記画像セマンティックセグメンテーションネットワークモデルは、訓練されるべき画像分類ネットワーク及び訓練されるべきオフセットネットワークに基づいて交互に訓練を行うことで得られたものであり、前記訓練されるべきオフセットネットワークは、オフセット変数に基づいて画像を分類するためのものであり、前記訓練されるべき画像分類ネットワークは、画像における画像コンテンツを分類するためのものであり、
前記処理モジュール402は、前記取得モジュールにより取得された前記セマンティックセグメンテーション結果に基づいて、前記処理されるべき画像を処理するように構成される。
本実施例において、取得モジュール401は、処理されるべき画像を取得する。前記取得モジュール401は、画像セマンティックセグメンテーションネットワークモデルにより、前記処理されるべき画像のセマンティックセグメンテーション結果を取得し、前記画像セマンティックセグメンテーションネットワークモデルは、訓練されるべき画像分類ネットワーク及び訓練されるべきオフセットネットワークに基づいて交互に訓練を行うことで得られたものであり、前記訓練されるべきオフセットネットワークは、オフセット変数に基づいて画像を分類するためのものであり、前記訓練されるべき画像分類ネットワークは、画像における画像コンテンツを分類するためのものである。前記処理モジュール402は、前記取得モジュール401により取得された前記セマンティックセグメンテーション結果に基づいて、前記処理されるべき画像を処理するように構成される。
本願の実施例において、上記方式で、弱教師あり画像セマンティックセグメンテーションを実現させ、精細な画素レベルのセグメンテーションアノテーションデータを欠けている場合に適用可能であり、画像全体の分類アノテーションのみに依存し、正確率の高い画像セグメンテーションを実現させる。
図10は、本願の実施例によるサーバ構造を示す概略図である。該サーバ500は、構成又は性能によって大きく異なることがあり、1つ又は1つ以上の中央演算処理装置(central processing units:CPU)522(例えば、1つ又は1つ以上のプロセッサ)と、メモリ532と、アプリケーションプログラム542又はデータ544を記憶するための記憶媒体530(例えば1つ又は1つ以上の大容量記憶媒体)と、を備えてもよい。ここで、メモリ532及び記憶媒体530は一時的媒体又は永久的記憶媒体であってもよい。記憶媒体530に記憶されたプログラムは、1つ又は1つ以上のモジュール(図示されず)を含んでもよい。各モジュールは、サーバにおける一連の指令操作を含んでもよい。更に、中央演算処理装置522は、記憶媒体530と通信して、サーバ500で記憶媒体530における一連の命令操作を実行するように構成されてもよい。
サーバ500は、1つ又は1つ以上の電源526、1つ又は1つ以上の有線又は無線ネットワークインタフェース550、1つ又は1つ以上の入力出力インタフェース558、及び/又は、Windows ServerTM、Mac OS XTM、UnixTM, LinuxTM、FreeBSDTM等のような1つ又は1つ以上のオペレーティングシステム541を更に含んでもよい。
上記実施例におけるサーバにより実行されたステップは、該図10に示すサーバ構造に基づいたものであってもよい。
本願の実施例において、該サーバに含まれるCPU 522は、上記図3又は図6に示す実施例における全て又は一部のステップを実行するように構成される。
本願の実施例は、もう1つの画像処理装置を提供する。図11に示すように、説明しやすくするために、本願の実施例に係わる部分のみを示す。開示されていない具体的な技術的細部は、本願の実施例の方法を参照されたい。該端末装置は、携帯電話、タブレット、パーソナルデジタルアシスタント(personal digital assistant:PDA)、ポイントオブセールス機器(point of sales:POS)、車載コンピュータなどの任意の端末装置であってもよい。端末装置が携帯電話であることを例とする。
図11は、本願の実施例による端末装置に関わる携帯電話の一部の構造を示すブロック図である。図11を参照すると、携帯電話は、無線周波数(radio frequency:RF)回路610と、メモリ620、入力ユニット630、表示ユニット640、センサ650、オーディオ回路660、ワイヤレスフィデリティ(wireless fidelity:WiFi)モジュール670、プロセッサ680、電源690などの部材を備える。図11に示す携帯電話構造は、携帯電話を限定するものではなく、図示されているものよりも多いまたは少ない部材を備えてもよく、又は、幾つかの部材を組み合わせてもよく、又は、異なる部材を配置してもよいことは、当業者であれば、理解すべきである。
以下、図11を参照しながら、携帯電話の各構成部材を具体的に説明する。
RF回路610は、情報を受信するか通話過程中で信号を送受信するように構成される。特に、基地局の下り情報を受信した後に、プロセッサ680に送信し、なお、設計された上りデータを基地局に送信するように構成される。
メモリ620は、ソフトウェアプログラム及びモジュールを記憶するように構成され、プロセッサ680は、メモリ620に記憶されたソフトウェアプログラム及びモジュールを実行することで、携帯電話の種々の機能適用及びデータ処理を実行する。
入力ユニット630は、入力された数字又は文字情報を受信し、携帯電話のユーザ設定及び機能制御に関わるキー信号入力を生成するように構成される。例えば、入力ユニット630は、タッチパネル631及び他の入力機器632を備えてもよい。タッチパネル631に加えて、入力ユニット630は、他の入力装置632を備えてもよい。例えば、他の入力装置632は、物理的キーボード、機能キー(例えば、音量制御キー、スイッチキーなど)、トラックボール、マウス、操作レバーなどのうちの1つ又は複数を含んでもよいが、これらに限定されない。
表示ユニット640は、ユーザから入力された情報又はユーザに提供された情報及び携帯電話の種々のメニューを表示するように構成される。表示ユニット640は、表示パネル641を備えてもよい。任意選択的に、液晶ディスプレイ(liquid crystal display:LCD)、有機発光ダイオード(organic light-emitting diode:OLED)等の形態で表示パネル641を構成することができる。更に、タッチパネル631は、表示パネル641を被覆してもよい。図11において、タッチパネル631と表示パネル641は、2つの独立した部材として携帯電話の入力及び出力機能を実現するが、幾つかの実施例において、タッチパネル631と表示パネル641を集積することで、携帯電話の入力及び出力機能を実現させることができる。
携帯電話は、例えば、光センサ、動きセンサ及び他のセンサのような、少なくとも1つのセンサ650を更に備えてもよい。
オーディオ回路660、スピーカー661、マイクロホン662は、ユーザと携帯電話とのオーディオインタフェースを提供することができる。
図11は、WiFiモジュール670を示すが、これが携帯電話の不可欠な構造ではなく、本発明の本質を変更することなくこれを省略されてもよいことは、理解されるべきである。
プロセッサ680は、携帯電話の制御センターである。これは、種々のインタフェース及び回路を利用して携帯電話全体の各部分を接続する。メモリ620に記憶されたソフトウェアプログラム及び/又はモジュールを行うか又は実行し、メモリ620に記憶されたデータを呼び出すことで、携帯電話の種々の機能を実行してデータを処理し、携帯電話全体に対してモニタリングする。
携帯電話は、各部材に給電する電源690(例えば、バッテリ)を更に備える。任意選択的に、電源は、電源管理システムを介してプロセッサ680に論理的に接続されてもよい。
図示されていないが、携帯電話は、カメラ、ブルートゥースモジュールなどを更に備えてもよく、ここで、詳細な説明を省略する。
本願の実施例において、該端末装置に備えられるプロセッサ680は、上記図3又は図6に示す実施例における全て又は一部のステップを実行するように構成される。
説明上の便宜及び簡素化を図るために、上記説明されたシステム、装置及びユニットの具体的な作動過程は、前記方法の実施例における対応した過程を参照することができるから、ここで詳しく説明しないようにすることは、当業者にはっきり理解されるべきである。
本発明で提供する幾つかの実施例で開示したシステム、装置及び方法は、他の方式によって実現できることを理解すべきである。例えば、以上に記載した装置の実施例はただ例示的なもので、例えば、前記ユニットの分割はただロジック機能の分割で、実際に実現する時は他の分割方式によってもよい。例えば、複数のユニット又は組立体を組み合わせてもよいし、別のシステムに組み込んでもよい。又は若干の特徴を無視してもよいし、実行しなくてもよい。また、示したか或いは検討した相互間の結合又は直接的な結合又は通信接続は、幾つかのインタフェース、装置又はユニットによる間接的な結合又は通信接続であってもよく、電気的、機械的または他の形態であってもよい。
分離部材として説明した前記ユニットは、物理的に別個のものであってもよいし、そうでなくてもよい。ユニットとして示された部材は、物理的ユニットであってもよいし、そうでなくてもよい。即ち、同一の位置に位置してもよいし、複数のネットワークに分布してもよい。実際の需要に応じてそのうちの一部又は全てのユニットにより本実施例の方策の目的を実現することができる。
また、本願の各実施例における各機能ユニットは一つの処理ユニットに集積されてもよいし、各ユニットが物理的に別個のものとして存在してもよいし、2つ以上のユニットが一つのユニットに集積されてもよい。上記集積したユニットは、ハードウェアの形態で実現してもよく、ソフトウェア機能ユニットの形態で実現してもよい。
前記集積したユニットはソフトウェア機能ユニットの形で実現され、かつ独立した製品として販売または使用されるとき、コンピュータにより読み取り可能な記憶媒体内に記憶されてもよい。このような理解のもと、本発明の技術的解決手段は、本質的に、又は、従来技術に対して貢献をもたらした部分又は該技術的解決手段の一部は、ソフトウェア製品の形式で具現することができ、このようなコンピュータソフトウェア製品は、記憶媒体に記憶しても良く、また、コンピュータ設備(パソコン、サーバ、又はネットワーク装置など)に、本発明の各実施例に記載の方法の全部又は一部のステップを実行させるための若干の命令を含む。前記の記憶媒体は、USBメモリ、リムーバブルハードディスク、読み出し専用メモリ(Read-only Memory:ROM)、ランダムアクセスメモリ(Random Access Memory:RAM)、磁気ディスク、又は光ディスクなど、プログラムコードを記憶可能な各種の媒体を含む。
なお、上記実施例は本願の具体的な実施形態に過ぎず、本願の技術的解決手段を説明するためのものであり、これを限定するものではなく、本願の保護範囲はこれに制限されるものではなく、前記実施例を参照しながら、本願を詳細に説明したが、本技術分野を周知するいかなる当業者であれば、本願で開示された技術範囲内で、前記実施例に記載の技術的解決手段に対して変化または代替を容易に想到することができ、又は一部の技術的特徴に対して均等物による置換を行うこともでき、これらの修正、変化又は置換は、対応する技術的解決手段の本質を本願の実施例の技術的解決手段の製品及び範囲を離脱させるものではなく、本願の保護範囲内に含まれるものとすることは、当業者であれば、理解すべきである。従って、本願の保護範囲は特許請求の範囲の保護範囲を基準とするべきである。
21 訓練画像
22 カテゴリアノテーション情報
23 画像セマンティックセグメンテーションネットワークモデル
24 試験画像
25 セマンティックセグメンテーション結果
30 モデル訓練装置
40 画像処理装置
41 画像分類ネットワーク
42 オフセットネットワーク
43 画像
44 オフセット変数
51 オフセット領域
52 画像
53 特徴画像
71 画像
72 層
73 関心領域プーリング層
74 特徴マップ
75 全結合層
76 オフセット変数
77 全結合層
78 分類情報
79 情報
301 取得モジュール
302 決定モジュール
303 訓練モジュール
401 取得モジュール
402 処理モジュール
500 サーバ
522 中央演算処理装置
526 電源
530 記憶媒体
532 メモリ
541 オペレーティングシステム
542 アプリケーションプログラム
544 データ
550 無線ネットワークインタフェース
558 入力出力インタフェース
610 RF回路
620 メモリ
630 入力ユニット
631 タッチパネル
632 入力装置
640 表示ユニット
641 表示パネル
650 センサ
660 オーディオ回路
661 スピーカー
662 マイクロホン
670 WiFiモジュール
680 プロセッサ
690 電源

Claims (15)

  1. コンピュータ機器が実行する画像分類モデルの訓練方法であって、
    訓練されるべき画像を取得するステップであって、前記訓練されるべき画像は、カテゴリアノテーション情報を有し、前記カテゴリアノテーション情報は、前記訓練されるべき画像に存在する画像コンテンツカテゴリ情報を表すためのものである、ステップと、
    訓練されるべきオフセットネットワークの第1モデルパラメータを一定にした場合、訓練されるべき画像分類ネットワークを介して前記訓練されるべき画像の第1予測カテゴリアノテーション情報を取得するステップであって、前記訓練されるべきオフセットネットワークは、オフセット変数に基づいて画像を分類するためのものであり、前記訓練されるべき画像分類ネットワークは、画像における画像コンテンツを分類するためのものである、ステップと、
    前記画像コンテンツカテゴリ情報及び前記第1予測カテゴリアノテーション情報に基づいて、分類損失関数を用いて前記訓練されるべき画像分類ネットワークに対応する第2モデルパラメータを決定するステップと、
    前記訓練されるべき画像分類ネットワークの前記第2モデルパラメータを一定にした場合、前記訓練されるべきオフセットネットワークを介して前記訓練されるべき画像の第2予測カテゴリアノテーション情報を取得するステップと、
    前記画像コンテンツカテゴリ情報及び前記第2予測カテゴリアノテーション情報に基づいて、前記分類損失関数を用いて前記訓練されるべきオフセットネットワークに対応する第3モデルパラメータを決定するステップと、
    前記第2モデルパラメータ及び前記第3モデルパラメータに基づいて、訓練されるべき画像セマンティックセグメンテーションネットワークモデルを訓練し、画像セマンティックセグメンテーションネットワークモデルを得るステップであって、前記画像セマンティックセグメンテーションネットワークモデルは、処理されるべき画像のセマンティックセグメンテーション結果を決定するためのものである、ステップと、を含むことを特徴とする、画像分類モデルの訓練方法。
  2. 前記画像コンテンツカテゴリ情報及び前記第1予測カテゴリアノテーション情報に基づいて、分類損失関数を用いて前記訓練されるべき画像分類ネットワークに対応する第2モデルパラメータを決定するステップは、
    前記画像コンテンツカテゴリ情報及び前記第1予測カテゴリアノテーション情報に基づいて、各カテゴリに対応する予測確率値を決定するステップと、
    前記各カテゴリに対応する予測確率値に基づいて、前記分類損失関数の分類損失を決定するステップと、
    前記分類損失関数の分類損失が最小値である場合、前記訓練されるべき画像分類ネットワークに対応する前記第2モデルパラメータを決定するステップと、を含むことを特徴とする
    請求項1に記載の画像分類モデルの訓練方法。
  3. 前記画像コンテンツカテゴリ情報及び前記第2予測カテゴリアノテーション情報に基づいて、前記分類損失関数を用いて前記訓練されるべきオフセットネットワークに対応する第3モデルパラメータを決定するステップは、
    前記画像コンテンツカテゴリ情報及び前記第2予測カテゴリアノテーション情報に基づいて、各カテゴリに対応する予測確率値を決定するステップと、
    前記各カテゴリに対応する予測確率値に基づいて、前記分類損失関数の分類損失を決定するステップと、
    前記分類損失関数の分類損失が最大値である場合、前記訓練されるべきオフセットネットワークに対応する前記第3モデルパラメータを決定するステップと、を含むことを特徴とする
    請求項1に記載の画像分類モデルの訓練方法。
  4. 前記分類損失関数は、
    Figure 2022505775000017
    で表され、
    ここで、前記Lは、前記分類損失関数を表し、前記I()は、ディラック関数を表し、前記Nは、カテゴリの総数を表し、前記cは、第cカテゴリを表し、前記kは、1以上であって前記N以下であり、前記Pは、前記第cカテゴリに対応する予測確率値を表すことを特徴とする
    請求項1から3のうちいずれか一項に記載の画像分類モデルの訓練方法。
  5. 前記訓練されるべきオフセットネットワークを介して前記訓練されるべき画像の第2予測カテゴリアノテーション情報を取得する前に、
    変形可能な畳み込みニューラルネットワークを介して前記訓練されるべき画像に対応する訓練されるべき特徴画像を取得するステップであって、前記変形可能な畳み込みニューラルネットワークは、前記訓練されるべき画像のオフセット変数を予測するためのものである、ステップを更に含み、
    前記訓練されるべきオフセットネットワークを介して前記訓練されるべき画像の第2予測カテゴリアノテーション情報を取得するステップは、
    前記訓練されるべきオフセットネットワークを介して前記訓練されるべき特徴画像に対応する前記第2予測カテゴリアノテーション情報を取得するステップを含むことを特徴とする
    請求項1に記載の画像分類モデルの訓練方法。
  6. 前記変形可能な畳み込みニューラルネットワークを介して前記訓練されるべき画像に対応する訓練されるべき特徴画像を取得するステップは、
    Figure 2022505775000018
    で前記訓練されるべき特徴画像を生成するステップを含み、
    ここで、前記y(p)は、前記訓練されるべき特徴画像を表し、前記pは、前記訓練されるべき特徴画像における画素値を表し、前記pは、畳み込みカーネルにおける、サンプリング点の位置を表し、前記Δpは、前記オフセット変数を表し、前記w(p)は、前記畳み込みカーネルが前記訓練されるべき画像における対応する位置で畳み込み演算を行うための重み値を表し、前記x(p+p+Δp)は、前記訓練されるべき画像における対応する位置の画素値を表すことを特徴とする
    請求項5に記載の画像分類モデルの訓練方法。
  7. 前記画像コンテンツカテゴリ情報及び前記第2予測カテゴリアノテーション情報に基づいて前記分類損失関数を用いて前記訓練されるべきオフセットネットワークに対応する第3モデルパラメータを決定した後、
    前記訓練されるべきオフセットネットワークに対応する前記第3モデルパラメータを一定にした場合、前記訓練されるべき画像分類ネットワークを介して前記訓練されるべき画像の第3予測カテゴリアノテーション情報を取得するステップと、
    前記画像コンテンツカテゴリ情報及び前記第3予測カテゴリアノテーション情報に基づいて、前記分類損失関数を用いて前記訓練されるべき画像分類ネットワークに対応する第4モデルパラメータを決定するステップと、
    前記訓練されるべき画像分類ネットワークの前記第4モデルパラメータを一定にした場合、前記訓練されるべきオフセットネットワークを介して前記訓練されるべき画像の第4予測カテゴリアノテーション情報を取得するステップと、
    前記画像コンテンツカテゴリ情報及び前記第4予測カテゴリアノテーション情報に基づいて、前記分類損失関数を用いて前記訓練されるべきオフセットネットワークに対応する第5モデルパラメータを決定するステップと、を更に含み、
    前記第2モデルパラメータ及び前記第3モデルパラメータに基づいて、訓練されるべき画像セマンティックセグメンテーションネットワークモデルを訓練し、画像セマンティックセグメンテーションネットワークモデルを得るステップは、
    前記第2モデルパラメータ、前記第3モデルパラメータ、前記第4モデルパラメータ及び前記第5モデルパラメータに基づいて、前記訓練されるべき画像セマンティックセグメンテーションネットワークモデルを訓練し、前記画像セマンティックセグメンテーションネットワークモデルを得るステップを含むことを特徴とする
    請求項1に記載の画像分類モデルの訓練方法。
  8. 前記第2モデルパラメータ及び前記第3モデルパラメータに基づいて、訓練されるべき画像セマンティックセグメンテーションネットワークモデルを訓練し、画像セマンティックセグメンテーションネットワークモデルを得るステップは、
    前記第2モデルパラメータ及び前記第3モデルパラメータを用いて前記訓練されるべきオフセットネットワークをN回訓練した場合、前記訓練されるべきオフセットネットワークを毎回訓練する時のオフセット変数に基づいて、前記訓練されるべき画像に対応する画像コンテンツ領域を決定するステップであって、前記Nは、1以上の整数である、ステップと、
    前記画像コンテンツ領域に基づいて、ターゲット損失関数を用いて訓練されるべき画像セマンティックセグメンテーションネットワークモデルを訓練するステップと、
    前記ターゲット損失関数の損失結果が最小値である場合、前記画像セマンティックセグメンテーションネットワークモデルを生成するステップと、を含むことを特徴とする
    請求項1に記載の画像分類モデルの訓練方法。
  9. 前記ターゲット損失関数は、
    Figure 2022505775000019
    で表され、
    ここで、前記Lsegは、前記ターゲット損失関数を表し、前記Nは、カテゴリ総数を表し、前記cは、第cカテゴリを表し、前記kは、1以上であって前記N以下であり、前記I()は、ディラック関数を表し、前記
    Figure 2022505775000020
    は、画素点での、前記第cカテゴリの予測確率値を表し、前記iは、前記訓練されるべき画像における、前記画素点の横座標位置を表し、前記jは、前記訓練されるべき画像における、前記画素点の縦座標位置を表すことを特徴とする
    請求項8に記載の画像分類モデルの訓練方法。
  10. コンピュータ機器が実行する画像処理方法であって、
    処理されるべき画像を取得するステップと、
    画像セマンティックセグメンテーションネットワークモデルにより、前記処理されるべき画像のセマンティックセグメンテーション結果を取得するステップであって、前記画像セマンティックセグメンテーションネットワークモデルは、訓練されるべき画像分類ネットワーク及び訓練されるべきオフセットネットワークに基づいて交互に訓練を行うことで得られたものであり、前記訓練されるべきオフセットネットワークは、オフセット変数に基づいて画像を分類するためのものであり、前記訓練されるべき画像分類ネットワークは、画像における画像コンテンツを分類するためのものである、ステップと、
    前記セマンティックセグメンテーション結果に基づいて、前記処理されるべき画像を処理するステップと、を含むことを特徴とする、画像処理方法。
  11. コンピュータ機器に適用されるモデル訓練装置であって、前記モデル訓練装置は、取得モジュールと、決定モジュールと、訓練モジュールと、を備え、
    前記取得モジュールは、訓練されるべき画像を取得するように構成され、前記訓練されるべき画像は、カテゴリアノテーション情報を有し、前記カテゴリアノテーション情報は、前記訓練されるべき画像に存在する画像コンテンツカテゴリ情報を表すためのものであり、
    前記取得モジュールは更に、訓練されるべきオフセットネットワークの第1モデルパラメータを一定にした場合、訓練されるべき画像分類ネットワークを介して前記訓練されるべき画像の第1予測カテゴリアノテーション情報を取得するように構成され、前記訓練されるべきオフセットネットワークは、オフセット変数に基づいて画像を分類するためのものであり、前記訓練されるべき画像分類ネットワークは、画像における画像コンテンツを分類するためのものであり、
    前記決定モジュールは、前記画像コンテンツカテゴリ情報及び前記第1予測カテゴリアノテーション情報に基づいて、分類損失関数を用いて前記訓練されるべき画像分類ネットワークに対応する第2モデルパラメータを決定するように構成され、
    前記取得モジュールは更に、前記訓練されるべき画像分類ネットワークの前記第2モデルパラメータを一定にした場合、前記訓練されるべきオフセットネットワークを介して前記訓練されるべき画像の第2予測カテゴリアノテーション情報を取得するように構成され、
    前記決定モジュールは更に、前記画像コンテンツカテゴリ情報及び前記取得モジュールにより取得された前記第2予測カテゴリアノテーション情報に基づいて、前記分類損失関数を用いて前記訓練されるべきオフセットネットワークに対応する第3モデルパラメータを決定するように構成され、
    前記訓練モジュールは、前記決定モジュールにより決定された前記第2モデルパラメータ及び前記第3モデルパラメータに基づいて、訓練されるべき画像セマンティックセグメンテーションネットワークモデルを訓練し、画像セマンティックセグメンテーションネットワークモデルを得るように構成され、前記画像セマンティックセグメンテーションネットワークモデルは、処理されるべき画像のセマンティックセグメンテーション結果を決定するためのものであることを特徴とする、モデル訓練装置。
  12. コンピュータ機器に適用される画像処理装置であって、前記画像処理装置は、取得モジュールと、処理モジュールと、を備え、
    前記取得モジュールは、処理されるべき画像を取得するように構成され、
    前記取得モジュールは更に、画像セマンティックセグメンテーションネットワークモデルにより、前記処理されるべき画像のセマンティックセグメンテーション結果を取得するように構成され、前記画像セマンティックセグメンテーションネットワークモデルは、訓練されるべき画像分類ネットワーク及び訓練されるべきオフセットネットワークに基づいて交互に訓練を行うことで得られたものであり、前記訓練されるべきオフセットネットワークは、オフセット変数に基づいて画像を分類するためのものであり、前記訓練されるべき画像分類ネットワークは、画像における画像コンテンツを分類するためのものであり、
    前記処理モジュールは、前記取得モジュールにより取得された前記セマンティックセグメンテーション結果に基づいて、前記処理されるべき画像を処理するように構成されることを特徴とする、画像処理装置。
  13. サーバであって、前記サーバは、メモリと、送受信機と、プロセッサと、バスシステムと、を備え、
    前記メモリは、プログラムを記憶するように構成され、
    前記プロセッサは、前記メモリにおけるプログラムを実行するように構成され、前記プログラムは、
    訓練されるべき画像を取得するステップであって、前記訓練されるべき画像は、カテゴリアノテーション情報を有し、前記カテゴリアノテーション情報は、前記訓練されるべき画像に存在する画像コンテンツカテゴリ情報を表すためのものである、ステップと、
    訓練されるべきオフセットネットワークの第1モデルパラメータを一定にした場合、訓練されるべき画像分類ネットワークを介して前記訓練されるべき画像の第1予測カテゴリアノテーション情報を取得するステップであって、前記訓練されるべきオフセットネットワークは、オフセット変数に基づいて画像を分類するためのものであり、前記訓練されるべき画像分類ネットワークは、画像における画像コンテンツを分類するためのものである、ステップと、
    前記画像コンテンツカテゴリ情報及び前記第1予測カテゴリアノテーション情報に基づいて、分類損失関数を用いて前記訓練されるべき画像分類ネットワークに対応する第2モデルパラメータを決定するステップと、
    前記訓練されるべき画像分類ネットワークの前記第2モデルパラメータを一定にした場合、前記訓練されるべきオフセットネットワークを介して前記訓練されるべき画像の第2予測カテゴリアノテーション情報を取得するステップと、
    前記画像コンテンツカテゴリ情報及び前記第2予測カテゴリアノテーション情報に基づいて、前記分類損失関数を用いて前記訓練されるべきオフセットネットワークに対応する第3モデルパラメータを決定するステップと、
    前記第2モデルパラメータ及び前記第3モデルパラメータに基づいて、訓練されるべき画像セマンティックセグメンテーションネットワークモデルを訓練し、画像セマンティックセグメンテーションネットワークモデルを得るステップであって、前記画像セマンティックセグメンテーションネットワークモデルは、処理されるべき画像のセマンティックセグメンテーション結果を決定するためのものである、ステップと、を実行するように構成され、
    前記バスシステムは、前記メモリと前記プロセッサを接続して、前記メモリと前記プロセッサを通信させるように構成されることを特徴とする、サーバ。
  14. 端末装置であって、前記端末装置は、メモリと、送受信機と、プロセッサと、バスシステムと、を備え、
    前記メモリは、プログラムを記憶するように構成され、
    前記プロセッサは、前記メモリにおけるプログラムを実行するように構成され、前記プログラムは、
    処理されるべき画像を取得するステップと、
    画像セマンティックセグメンテーションネットワークモデルにより、前記処理されるべき画像のセマンティックセグメンテーション結果を取得するステップであって、前記画像セマンティックセグメンテーションネットワークモデルは、訓練されるべき画像分類ネットワーク及び訓練されるべきオフセットネットワークに基づいて交互に訓練を行うことで得られたものであり、前記訓練されるべきオフセットネットワークは、オフセット変数に基づいて画像を分類するためのものであり、前記訓練されるべき画像分類ネットワークは、画像における画像コンテンツを分類するためのものである、ステップと、
    前記セマンティックセグメンテーション結果に基づいて、前記処理されるべき画像を処理するステップと、を実行するように構成され、
    前記バスシステムは、前記メモリと前記プロセッサを接続して、前記メモリと前記プロセッサを通信させるように構成されることを特徴とする、端末装置。
  15. コンピュータに請求項1から9のうちいずれか一項に記載の方法又は請求項10に記載の方法を実行させることを特徴とする、コンピュータプログラム。
JP2021522436A 2019-03-26 2020-03-16 画像分類モデルの訓練方法、画像処理方法及びその装置、並びにコンピュータプログラム Active JP7185039B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910233985.5 2019-03-26
CN201910233985.5A CN109784424B (zh) 2019-03-26 2019-03-26 一种图像分类模型训练的方法、图像处理的方法及装置
PCT/CN2020/079496 WO2020192471A1 (zh) 2019-03-26 2020-03-16 一种图像分类模型训练的方法、图像处理的方法及装置

Publications (2)

Publication Number Publication Date
JP2022505775A true JP2022505775A (ja) 2022-01-14
JP7185039B2 JP7185039B2 (ja) 2022-12-06

Family

ID=66490551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021522436A Active JP7185039B2 (ja) 2019-03-26 2020-03-16 画像分類モデルの訓練方法、画像処理方法及びその装置、並びにコンピュータプログラム

Country Status (6)

Country Link
US (1) US20210241109A1 (ja)
EP (1) EP3951654A4 (ja)
JP (1) JP7185039B2 (ja)
KR (1) KR20210072051A (ja)
CN (1) CN109784424B (ja)
WO (1) WO2020192471A1 (ja)

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111161274B (zh) * 2018-11-08 2023-07-07 上海市第六人民医院 腹部图像分割方法、计算机设备
CN109784424B (zh) * 2019-03-26 2021-02-09 腾讯科技(深圳)有限公司 一种图像分类模型训练的方法、图像处理的方法及装置
CN110210544B (zh) * 2019-05-24 2021-11-23 上海联影智能医疗科技有限公司 图像分类方法、计算机设备和存储介质
CN110223230A (zh) * 2019-05-30 2019-09-10 华南理工大学 一种多前端深度图像超分辨率系统及其数据处理方法
CN111047130B (zh) * 2019-06-11 2021-03-02 北京嘀嘀无限科技发展有限公司 用于交通分析和管理的方法和系统
CN110458218B (zh) * 2019-07-31 2022-09-27 北京市商汤科技开发有限公司 图像分类方法及装置、分类网络训练方法及装置
CN110490239B (zh) * 2019-08-06 2024-02-27 腾讯医疗健康(深圳)有限公司 图像质控网络的训练方法、质量分类方法、装置及设备
CN110807760B (zh) * 2019-09-16 2022-04-08 北京农业信息技术研究中心 一种烟叶分级方法及系统
CN110705460B (zh) * 2019-09-29 2023-06-20 北京百度网讯科技有限公司 图像类别识别方法及装置
CN110737783B (zh) * 2019-10-08 2023-01-17 腾讯科技(深圳)有限公司 一种推荐多媒体内容的方法、装置及计算设备
CN110826596A (zh) * 2019-10-09 2020-02-21 天津大学 一种基于多尺度可变形卷积的语义分割方法
CN110704661B (zh) * 2019-10-12 2021-04-13 腾讯科技(深圳)有限公司 一种图像分类方法和装置
CN110930417B (zh) * 2019-11-26 2023-08-08 腾讯科技(深圳)有限公司 图像分割模型的训练方法和装置、图像分割方法和装置
CN110956214B (zh) * 2019-12-03 2023-10-13 北京车和家信息技术有限公司 一种自动驾驶视觉定位模型的训练方法及装置
CN112750128B (zh) * 2019-12-13 2023-08-01 腾讯科技(深圳)有限公司 图像语义分割方法、装置、终端及可读存储介质
CN113053332B (zh) * 2019-12-28 2022-04-22 Oppo广东移动通信有限公司 背光亮度调节方法、装置、电子设备及可读存储介质
CN111259904B (zh) * 2020-01-16 2022-12-27 西南科技大学 一种基于深度学习和聚类的语义图像分割方法及系统
CN111369564B (zh) * 2020-03-04 2022-08-09 腾讯科技(深圳)有限公司 一种图像处理的方法、模型训练的方法及装置
CN111523548B (zh) * 2020-04-24 2023-11-28 北京市商汤科技开发有限公司 一种图像语义分割、智能行驶控制方法及装置
CN113673668A (zh) * 2020-05-13 2021-11-19 北京君正集成电路股份有限公司 一种车辆检测训练中二级损失函数的计算方法
CN111723813B (zh) 2020-06-05 2021-07-06 中国科学院自动化研究所 基于类内判别器的弱监督图像语义分割方法、系统、装置
CN111814833A (zh) * 2020-06-11 2020-10-23 浙江大华技术股份有限公司 票据处理模型的训练方法及图像处理方法、图像处理设备
CN111784673B (zh) * 2020-06-30 2023-04-18 创新奇智(上海)科技有限公司 缺陷检测模型训练和缺陷检测方法、设备及存储介质
CN111783635A (zh) * 2020-06-30 2020-10-16 北京百度网讯科技有限公司 图像标注方法、装置、设备以及存储介质
CN112132841B (zh) * 2020-09-22 2024-04-09 上海交通大学 医疗图像切割方法及装置
CN112333402B (zh) * 2020-10-20 2021-10-22 浙江大学 一种基于声波的图像对抗样本生成方法及系统
CN112257727B (zh) * 2020-11-03 2023-10-27 西南石油大学 一种基于深度学习自适应可变形卷积的特征图像提取方法
CN112487479B (zh) * 2020-12-10 2023-10-13 支付宝(杭州)信息技术有限公司 一种训练隐私保护模型的方法、隐私保护方法及装置
CN112232355B (zh) * 2020-12-11 2021-04-02 腾讯科技(深圳)有限公司 图像分割网络处理、图像分割方法、装置和计算机设备
CN112950639B (zh) * 2020-12-31 2024-05-10 山西三友和智慧信息技术股份有限公司 一种基于SA-Net的MRI医学图像分割方法
CN112819008B (zh) * 2021-01-11 2022-10-28 腾讯科技(深圳)有限公司 实例检测网络的优化方法、装置、介质及电子设备
CN112767420B (zh) * 2021-02-26 2021-11-23 中国人民解放军总医院 基于人工智能的核磁影像分割方法、装置、设备和介质
CN113033549B (zh) * 2021-03-09 2022-09-20 北京百度网讯科技有限公司 定位图获取模型的训练方法和装置
CN113033436B (zh) * 2021-03-29 2024-04-16 京东鲲鹏(江苏)科技有限公司 障碍物识别模型训练方法及装置、电子设备、存储介质
CN113139618B (zh) * 2021-05-12 2022-10-14 电子科技大学 一种基于集成防御的鲁棒性增强的分类方法及装置
CN113505800A (zh) * 2021-06-30 2021-10-15 深圳市慧鲤科技有限公司 图像处理方法及其模型的训练方法和装置、设备、介质
CN113822901B (zh) * 2021-07-21 2023-12-12 南京旭锐软件科技有限公司 图像分割方法、装置、存储介质及电子设备
CN113610807B (zh) * 2021-08-09 2024-02-09 西安电子科技大学 基于弱监督多任务学习的新冠肺炎分割方法
CN113642581B (zh) * 2021-08-12 2023-09-22 福州大学 基于编码多路径语义交叉网络的图像语义分割方法及系统
KR102430989B1 (ko) 2021-10-19 2022-08-11 주식회사 노티플러스 인공지능 기반 콘텐츠 카테고리 예측 방법, 장치 및 시스템
CN113723378B (zh) * 2021-11-02 2022-02-08 腾讯科技(深圳)有限公司 一种模型训练的方法、装置、计算机设备和存储介质
CN114332554A (zh) * 2021-11-10 2022-04-12 腾讯科技(深圳)有限公司 图像分割模型的训练方法、图像分割方法、装置及设备
CN113780249B (zh) * 2021-11-10 2022-02-15 腾讯科技(深圳)有限公司 表情识别模型的处理方法、装置、设备、介质和程序产品
CN113963220A (zh) * 2021-12-22 2022-01-21 熵基科技股份有限公司 安检图像分类模型训练方法、安检图像分类方法及装置
TWI806392B (zh) * 2022-01-27 2023-06-21 國立高雄師範大學 表格文本的表格辨識方法
CN115019038B (zh) * 2022-05-23 2024-04-30 杭州海马体摄影有限公司 一种相似图像像素级语义匹配方法
CN114677677B (zh) * 2022-05-30 2022-08-19 南京友一智能科技有限公司 一种质子交换膜燃料电池气体扩散层材料比例预测方法
CN114792398B (zh) * 2022-06-23 2022-09-27 阿里巴巴(中国)有限公司 图像分类的方法、存储介质、处理器及系统
CN115170809B (zh) * 2022-09-06 2023-01-03 浙江大华技术股份有限公司 图像分割模型训练、图像分割方法、装置、设备及介质
CN116503686A (zh) * 2023-03-28 2023-07-28 北京百度网讯科技有限公司 图像矫正模型的训练方法、图像矫正方法、装置及介质
CN116403163B (zh) * 2023-04-20 2023-10-27 慧铁科技有限公司 一种截断塞门手把开合状态的识别方法和装置
CN116363374B (zh) * 2023-06-02 2023-08-29 中国科学技术大学 图像语义分割网络持续学习方法、系统、设备及存储介质
CN117218686B (zh) * 2023-10-20 2024-03-29 广州脉泽科技有限公司 一种开放场景下的掌静脉roi提取方法及系统
CN117333493B (zh) * 2023-12-01 2024-03-15 深圳市志达精密科技有限公司 一种基于机器视觉的显示器底座生产用检测系统以及方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018198233A1 (ja) * 2017-04-26 2018-11-01 株式会社ソニー・インタラクティブエンタテインメント 学習装置、画像認識装置、学習方法及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102436583B (zh) * 2011-09-26 2013-10-30 哈尔滨工程大学 基于对标注图像学习的图像分割方法
US10019657B2 (en) * 2015-05-28 2018-07-10 Adobe Systems Incorporated Joint depth estimation and semantic segmentation from a single image
US10657364B2 (en) * 2016-09-23 2020-05-19 Samsung Electronics Co., Ltd System and method for deep network fusion for fast and robust object detection
EP3432263B1 (en) * 2017-07-17 2020-09-16 Siemens Healthcare GmbH Semantic segmentation for cancer detection in digital breast tomosynthesis
CN108764164B (zh) * 2018-05-30 2020-12-08 华中科技大学 一种基于可变形卷积网络的人脸检测方法及系统
CN109101897A (zh) * 2018-07-20 2018-12-28 中国科学院自动化研究所 水下机器人的目标检测方法、系统及相关设备
CN109493330A (zh) * 2018-11-06 2019-03-19 电子科技大学 一种基于多任务学习的细胞核实例分割方法
CN109784424B (zh) * 2019-03-26 2021-02-09 腾讯科技(深圳)有限公司 一种图像分类模型训练的方法、图像处理的方法及装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018198233A1 (ja) * 2017-04-26 2018-11-01 株式会社ソニー・インタラクティブエンタテインメント 学習装置、画像認識装置、学習方法及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JIFENG DAI,外6名: ""Deformable Convolutional Networks"", 2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION, JPN6022020060, 25 December 2017 (2017-12-25), pages 764 - 773, ISSN: 0004777707 *
YUNCHAO WEI,外5名: ""Object Region Mining with Adversarial Erasing: A Simple Classification to Semantic Segmentation App", 2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, JPN6022020061, 9 November 2017 (2017-11-09), pages 6488 - 6496, ISSN: 0004777706 *

Also Published As

Publication number Publication date
US20210241109A1 (en) 2021-08-05
EP3951654A1 (en) 2022-02-09
WO2020192471A1 (zh) 2020-10-01
CN109784424A (zh) 2019-05-21
KR20210072051A (ko) 2021-06-16
CN109784424B (zh) 2021-02-09
EP3951654A4 (en) 2022-05-25
JP7185039B2 (ja) 2022-12-06

Similar Documents

Publication Publication Date Title
JP7185039B2 (ja) 画像分類モデルの訓練方法、画像処理方法及びその装置、並びにコンピュータプログラム
JP7096444B2 (ja) 画像領域位置決め方法、モデル訓練方法及び関連装置
WO2020215984A1 (zh) 基于深度学习的医学图像检测方法及相关设备
CN111797893B (zh) 一种神经网络的训练方法、图像分类系统及相关设备
WO2022083536A1 (zh) 一种神经网络构建方法以及装置
US20220036135A1 (en) Method and apparatus for determining image to be labeled and model training method and apparatus
WO2020182121A1 (zh) 表情识别方法及相关装置
CN110689025B (zh) 图像识别方法、装置、系统及内窥镜图像识别方法、装置
CN111507378A (zh) 训练图像处理模型的方法和装置
CN109559300A (zh) 图像处理方法、电子设备及计算机可读存储介质
CN113807399A (zh) 一种神经网络训练方法、检测方法以及装置
CN112419326B (zh) 图像分割数据处理方法、装置、设备及存储介质
CN111813532A (zh) 一种基于多任务机器学习模型的图像管理方法及装置
CN113723378B (zh) 一种模型训练的方法、装置、计算机设备和存储介质
WO2021190433A1 (zh) 更新物体识别模型的方法和装置
WO2024083121A1 (zh) 一种数据处理方法及其装置
CN111091010A (zh) 相似度确定、网络训练、查找方法及装置和存储介质
WO2023231753A1 (zh) 一种神经网络的训练方法、数据的处理方法以及设备
CN111950700A (zh) 一种神经网络的优化方法及相关设备
CN115238909A (zh) 一种基于联邦学习的数据价值评估方法及其相关设备
CN116935188B (zh) 模型训练方法、图像识别方法、装置、设备及介质
Arun Prasath et al. Prediction of sign language recognition based on multi layered CNN
WO2023207531A1 (zh) 一种图像处理方法及相关设备
Rawat et al. Indian Sign Language Recognition System for Interrogative Words Using Deep Learning
John et al. Static hand gesture recognition using multi-dilated DenseNet-based deep learning architecture

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221124

R150 Certificate of patent or registration of utility model

Ref document number: 7185039

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150