JP2022500798A - 画像処理方法及び装置、コンピュータ機器並びにコンピュータ記憶媒体 - Google Patents

画像処理方法及び装置、コンピュータ機器並びにコンピュータ記憶媒体 Download PDF

Info

Publication number
JP2022500798A
JP2022500798A JP2021537467A JP2021537467A JP2022500798A JP 2022500798 A JP2022500798 A JP 2022500798A JP 2021537467 A JP2021537467 A JP 2021537467A JP 2021537467 A JP2021537467 A JP 2021537467A JP 2022500798 A JP2022500798 A JP 2022500798A
Authority
JP
Japan
Prior art keywords
vector
normalization
hyperparameter
preset
feature map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021537467A
Other languages
English (en)
Other versions
JP7076648B2 (ja
Inventor
邵文▲ち▼
孟天健
▲張▼瑞茂
▲羅▼平
▲呉▼凌云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Sensetime Technology Co Ltd
Original Assignee
Shenzhen Sensetime Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Sensetime Technology Co Ltd filed Critical Shenzhen Sensetime Technology Co Ltd
Publication of JP2022500798A publication Critical patent/JP2022500798A/ja
Application granted granted Critical
Publication of JP7076648B2 publication Critical patent/JP7076648B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B10/00Integration of renewable energy sources in buildings
    • Y02B10/40Geothermal heat-pumps

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

画像処理方法及び装置、コンピュータ機器並びに記憶媒体であって、前記方法は、処理されるべき画像の第1特徴マップを取得すること(S101)と、前記第1特徴マップの最終重みベクトルを決定すること(S102)と、前記最終重みベクトルに基づいて、予め設定された正規化集合から、前記第1特徴マップに対応するターゲット正規化方式を決定すること(S103)と、前記ターゲット正規化方式を用いて、前記第1特徴マップに対して正規化処理を行い、第2特徴マップを得ること(S104)と、を含む。

Description

(関連出願の相互参照)
本願は、2019年1月29日に提出された出願番号201910087398.Xの中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
本願の実施例は、コンピュータビジョン通信分野に関し、画像処理方法及び装置、コンピュータ機器並びに記憶媒体に関するが、これらに限定されない。
深層学習に基づいて画像を処理する方法において、正規化は、不可欠なモジュールである。現在、業界内で、様々な学習タスクについて、画像分類に適用したバッチ正規化(Batch Normalization:BN)、シーケンス予測に適用した層正規化(Layer Normalization:LN)、モデル生成に適用したインスタンス正規化(Instance Normalization:IN)、適用範囲がより広いグループ正規化(Group Normalization:GN)を含む多くの正規化方法を提出した。しかしながら、これらの正規化方法は、特定のモデルの特定のタスクのみに適用する。この障害を克服してニューラルネットワークの性能を更に向上させるために、種々のビジョンタスクに適用する適応的正規化(Switchable Normalization:SN)が提出された。SNは、BN、IN、LNの統計量に対して重み付き組み合わせを行うことで、バッチサイズへの依存を克服し、全ての正規化層のために、最適な正規化操作方式の重み付き組み合わせを選択することができる。しかしながら、SNには、依然として下記重大な欠陥が存在する。SNは、正規化指数関数(softmax)により、様々な正規化方法の統計量の重み係数を算出するため、重み係数は、0ではない。これは、いずれの時刻でもSN正規化層は、様々な正規化操作の統計量を算出する必要があることを意味する。つまり、各回の正規化は、1つ以上の正規化方式に対応する。従って、冗長な計算が引き起こされてしまう。
これに鑑み、本願の実施例は、画像処理方法及び装置、コンピュータ機器並びに記憶媒体を提供する。
本願の実施例の技術的解決手段は、以下のように実現する。
本願の実施例は、画像処理方法を提供する。前記方法は、
処理されるべき画像の第1特徴マップを取得することと、
前記第1特徴マップの最終重みベクトルを決定することと、
前記最終重みベクトルに基づいて、予め設定された正規化集合から、前記第1特徴マップに対応するターゲット正規化方式を決定することと、
前記ターゲット正規化方式を用いて、前記第1特徴マップに対して正規化処理を行い、第2特徴マップを得ることと、を含む。
本願の実施例において、前記処理されるべき画像の第1特徴マップを取得することは、
前記ニューラルネットワークにおける畳み込み層を利用して、前記処理されるべき画像に対して特徴抽出を行い、前記第1特徴マップを得ることを含み、
対応して、前記予め設定されたパラメータ集合は、第1ハイパーパラメータ、第2ハイパーパラメータ及び学習パラメータを含み、第1特徴マップの最終重みベクトルを決定することは、
前記予め設定されたパラメータ集合における第1ハイパーパラメータ、第2ハイパーパラメータ及び学習パラメータに基づいて、前記第1特徴マップの最終重みベクトルを算出することを含む。
本願の実施例において、前記予め設定されたパラメータ集合における第1ハイパーパラメータ、第2ハイパーパラメータ及び学習パラメータに基づいて、第1特徴マップの最終重みベクトルを算出することは、
前記第1ハイパーパラメータ及び前記第2ハイパーパラメータに基づいて、予め設定された制約条件を決定することと、
前記予め設定された制約条件及び前記学習パラメータに基づいて、前記第1特徴マップの最終重みベクトルを決定することであって、前記学習パラメータは、前記第1特徴マップの最終重みベクトルを算出するためのものであり、前記第1ハイパーパラメータは、予め設定されたシンプレックスの中心を表すためのものであり、前記第2ハイパーパラメータは、前記最終重みベクトルの範囲を小さくするためのものである、ことと、を含む。
本願の実施例において、前記予め設定された制約条件は、前記最終重みベクトルと前記第1ハイパーパラメータとの距離を前記第2ハイパーパラメータの数値以上に限定するためのものである。
本願の実施例において、前記第1特徴マップの最終重みベクトルを決定することは、前記第1特徴マップの平均値ベクトル及び分散ベクトルを決定することと、前記予め設定された制約条件及び前記学習パラメータに基づいて、前記平均値ベクトルに対応する平均値最終重みベクトル及び前記分散ベクトルに対応する分散最終重みベクトルをそれぞれ決定することと、を含み、
対応して、前記最終重みベクトルに基づいて、予め設定された正規化集合から、前記第1特徴マップに対応するターゲット正規化方式を決定することは、前記平均値最終重みベクトル及び前記分散最終重みベクトルに基づいて、平均値の第1サブ正規化方式及び分散の第2サブ正規化方式をそれぞれ決定することであって、前記第1サブ正規化方式は前記第2サブ正規化方式と同じであるか又は異なる、ことを含み、
対応して、前記ターゲット正規化方式を利用して、前記第1特徴マップに対して正規化処理を行い、第2特徴マップを得ることは、前記第1サブ正規化方式及び前記第2サブ正規化方式に基づいて、前記平均値ベクトル及び前記分散ベクトルに対してそれぞれ正規化を行い、正規化された平均値ベクトル及び正規化された分散ベクトルを得ることと、前記正規化された平均値ベクトル、前記正規化された分散ベクトル及び前記第1特徴マップに基づいて、前記第2特徴マップを得ることと、を含む。
本願の実施例において、前記第1特徴マップの平均値ベクトル及び分散ベクトルを決定することは、
予め設定された正規化集合に基づいて、前記第1特徴マップの平均値ベクトル及び分散ベクトルを決定することを含み、
前記平均値ベクトルの次元数及び分散ベクトルの次元数は、いずれも前記予め設定された正規化集合における正規化方式の数と同じであり、
前記平均値ベクトルにおける第i次元での平均値は、前記予め設定された正規化集合におけるj番目の正規化方式に対応し、前記分散ベクトルにおける第i次元での分散は、前記予め設定された正規化集合におけるj番目の正規化方式に対応し、i及びjはいずれも0より大きくて前記予め設定された正規化集合における正規化方式の数より小さい整数である。
本願の実施例において、前記方法は、
予め設定された正規化集合における正規化方式の数に基づいて、前記学習パラメータの次元数、前記第1ハイパーパラメータの次元数及び前記第1ハイパーパラメータにおける各次元での数値を決定することであって、前記第1ハイパーパラメータの各次元の数値の合計は、1であり、前記第1ハイパーパラメータの次元数は、前記学習パラメータの次元数と同じであり、前記第1ハイパーパラメータの各次元の数値と同じであり、且つ各次元の数値の合計は、1である、ことと、
予め設定されたシンプレックスの中心から頂点までの距離を決定し、前記距離を、前記第2ハイパーパラメータに対応する予め設定された閾値として決定することであって、前記予め設定されたシンプレックスの各辺長さは、予め設定された固定数値であり、且つ頂点の数は、前記正規化方式の数と同じであり、前記第2ハイパーパラメータは、0より大きくて前記予め設定された閾値以下である数値である、ことと、を含む。
本願の実施例において、前記予め設定されたパラメータ集合における第1ハイパーパラメータ、第2ハイパーパラメータ及び学習パラメータに基づいて、第1特徴マップの最終重みベクトルを算出することは、
前記第2ハイパーパラメータ及び前記学習パラメータに基づいて、第1サブ重みベクトルを決定することと、
前記第1サブ重みベクトルと前記第1ハイパーパラメータとの距離が前記第2ハイパーパラメータ以上である場合、前記第1サブ重みベクトルを前記最終重みベクトルと決定することと、を含む。
本願の実施例において、前記第2ハイパーパラメータ及び前記学習パラメータに基づいて、第1サブ重みベクトルを決定した後、前記方法は、
前記第1サブ重みベクトルと前記第1ハイパーパラメータとの距離が前記第2ハイパーパラメータ未満である場合、前記第1ハイパーパラメータ、前記第2ハイパーパラメータ及び前記第1サブ重みベクトルに基づいて、第2サブ重みベクトルを決定することと、
第2サブ重みベクトルが0以上である場合、前記第2サブ重みベクトルを最終重みベクトルと決定することと、を更に含む。
本願の実施例において、前記第1ハイパーパラメータ、前記第2ハイパーパラメータ及び前記第1サブ重みベクトルに基づいて、第2サブ重みベクトルを決定した後、前記方法は、
前記第2サブ重みベクトルが0未満である場合、前記第2サブ重みベクトルに基づいて、前記第1ハイパーパラメータを更新し、更新された第1ハイパーパラメータを得ることと、
前記第2ハイパーパラメータ、前記更新された第1ハイパーパラメータ及び更新されていない第1ハイパーパラメータに基づいて、更新された第2ハイパーパラメータを決定することと、
前記第2サブ重みベクトル及び前記学習パラメータに基づいて、第3サブ重みベクトルを決定することと、
前記更新された第1ハイパーパラメータ、前記更新された第2ハイパーパラメータ及び前記第3サブ重みベクトルに基づいて、最終重みベクトルを決定することと、を更に含む。
本願の実施例において、前記第1サブ正規化方式及び前記第2サブ正規化方式に基づいて、前記平均値ベクトル及び前記分散ベクトルに対してそれぞれ正規化を行い、正規化された平均値ベクトル及び正規化された分散ベクトルを得ることは、
前記平均値最終重みベクトルにおける各次元での重みを前記平均値ベクトルにおける各次元での重みと一対一に対応するように乗算し、各次元で得られた積を加算し、正規化された平均値ベクトルを得ることと、
前記分散最終重みベクトルにおける各次元での重みを前記分散ベクトルにおける各次元での分散と一対一に対応するように乗算し、各次元で得られた積を加算し、正規化された分散ベクトルを得ることと、を含む。
本願の実施例において、前記正規化された平均値ベクトル、正規化された分散ベクトル及び前記第1特徴マップに基づいて、前記第2特徴マップを得ることは、
前記第1特徴マップと前記正規化された平均値ベクトルとの間の差の値を決定することと、
前記正規化された分散ベクトルと予め設定された調整量との和に対応する平均分散を決定することと、
前記平均分散に対する前記差の値の比率を決定することと、
予め設定されたスケーリングパラメータを用いて前記比率をスケーリングし、スケーリングされた比率を得ることと、
予め設定されたシフトパラメータに応じて前記スケーリングされた比率を調整し、前記第2特徴マップを得ることと、を含む。
本願の実施例は、画像処理装置を提供する。前記装置は、第1取得モジュールと、第1計算モジュールと、第1決定モジュールと、第1処理モジュールと、を備え、
前記第1取得モジュールは、処理されるべき画像の第1特徴マップを取得するように構成され、
前記第1取得モジュールは、前記第1特徴マップの最終重みベクトルを決定するように構成され、
前記第1決定モジュールは、前記最終重みベクトルに基づいて、予め設定された正規化集合から、前記第1特徴マップに対応するターゲット正規化方式を決定するように構成され、
前記第1処理モジュールは、前記ターゲット正規化方式を用いて、前記第1特徴マップに対して正規化処理を行い、第2特徴マップを得るように構成される。
本願の実施例において、前記第1取得モジュールは、
前記ニューラルネットワークにおける畳み込み層を利用して、前記処理されるべき画像に対して特徴抽出を行い、前記第1特徴マップを得るように構成される第1抽出サブモジュールを備え、
対応して、前記予め設定されたパラメータ集合は、第1ハイパーパラメータ、第2ハイパーパラメータ及び学習パラメータを含み、前記第1計算モジュールは、
前記予め設定されたパラメータ集合における第1ハイパーパラメータ、第2ハイパーパラメータ及び学習パラメータに基づいて、前記第1特徴マップの最終重みベクトルを算出するように構成される第1計算サブモジュールを備える。
本願の実施例において、前記第1計算サブモジュールは、
前記第1ハイパーパラメータ及び前記第2ハイパーパラメータに基づいて、予め設定された制約条件を決定するように構成される第1決定ユニットと、
前記予め設定された制約条件及び前記学習パラメータに基づいて、前記第1特徴マップの最終重みベクトルを決定するように構成される第2決定ユニットであって、前記学習パラメータは、前記第1特徴マップの最終重みベクトルを算出するためのものであり、前記第1ハイパーパラメータは、予め設定されたシンプレックスの中心を表すためのものであり、前記第2ハイパーパラメータは、前記最終重みベクトルの範囲を小さくするためのものである、第2決定ユニットと、を備える。
本願の実施例において、前記予め設定された制約条件は、前記最終重みベクトルと前記第1ハイパーパラメータとの距離を前記第2ハイパーパラメータの数値以上に限定するためのものである。
本願の実施例において、前記第1取得モジュールは、前記第1特徴マップの平均値ベクトル及び分散ベクトルを決定するように構成される第1決定サブモジュールと、
前記予め設定された制約条件及び前記学習パラメータに基づいて、前記平均値ベクトルに対応する平均値最終重みベクトル及び前記分散ベクトルに対応する分散最終重みベクトルをそれぞれ決定するように構成される第2決定サブモジュールと、を備え、
対応して、前記第1決定モジュールは、前記平均値最終重みベクトル及び前記分散最終重みベクトルに基づいて、平均値の第1サブ正規化方式及び分散の第2サブ正規化方式をそれぞれ決定するように構成される第3決定サブモジュールであって、前記第1サブ正規化方式は前記第2サブ正規化方式と同じであるか又は異なる、第3決定サブモジュールを備え、
対応して、前記第1処理モジュールは、前記第1サブ正規化方式及び前記第2サブ正規化方式に基づいて、前記平均値ベクトル及び前記分散ベクトルに対してそれぞれ正規化を行い、正規化された平均値ベクトル及び正規化された分散ベクトルを得るように構成される第1正規化サブモジュールと、
前記正規化された平均値ベクトル、前記正規化された分散ベクトル及び前記第1特徴マップに基づいて、前記第2特徴マップを得るように構成される第4決定サブモジュールと、を備える。
本願の実施例において、前記第1決定サブモジュールは、
予め設定された正規化集合に基づいて、前記第1特徴マップの平均値ベクトル及び分散ベクトルを決定するように構成される第3決定ユニットを備え、
前記平均値ベクトルの次元数及び分散ベクトルの次元数は、いずれも前記予め設定された正規化集合における正規化方式の数と同じであり、
前記平均値ベクトルにおける第i次元での平均値は、前記予め設定された正規化集合におけるj番目の正規化方式に対応し、前記分散ベクトルにおける第i次元での分散は、前記予め設定された正規化集合におけるj番目の正規化方式に対応し、i及びjはいずれも0より大きくて前記予め設定された正規化集合における正規化方式の数より小さい整数である。
本願の実施例において、前記装置は、
予め設定された正規化集合における正規化方式の数に基づいて、前記学習パラメータの次元数、前記第1ハイパーパラメータの次元数及び前記第1ハイパーパラメータにおける各次元での数値を決定するように構成される第2決定モジュールであって、前記第1ハイパーパラメータの各次元の数値の合計は、1であり、前記第1ハイパーパラメータの次元数は、前記学習パラメータの次元数と同じであり、前記第1ハイパーパラメータの各次元の数値と同じであり、且つ各次元の数値の合計は、1である、第2決定モジュールと、
予め設定されたシンプレックスの中心から頂点までの距離を決定し、前記距離を、前記第2ハイパーパラメータに対応する予め設定された閾値として決定するように構成される第3決定モジュールであって、前記予め設定されたシンプレックスの各辺長さは、予め設定された固定数値であり、且つ頂点の数は、前記正規化方式の数と同じであり、前記第2ハイパーパラメータは、0より大きくて前記予め設定された閾値以下である数値である、第3決定モジュールと、を備える。
本願の実施例において、前記第1計算サブモジュールは、
前記第2ハイパーパラメータ及び前記学習パラメータに基づいて、第1サブ重みベクトルを決定するように構成される第4決定ユニットと、
前記第1サブ重みベクトルと前記第1ハイパーパラメータとの距離が前記第2ハイパーパラメータ以上である場合、前記第1サブ重みベクトルを前記最終重みベクトルと決定するように構成される第5決定ユニットと、を備える。
本願の実施例において、前記装置は、
前記第1サブ重みベクトルと前記第1ハイパーパラメータとの距離が前記第2ハイパーパラメータ未満である場合、前記第1ハイパーパラメータ、前記第2ハイパーパラメータ及び前記第1サブ重みベクトルに基づいて、第2サブ重みベクトルを決定するように構成される第4決定モジュールと、
第2サブ重みベクトルが0以上である場合、前記第2サブ重みベクトルを最終重みベクトルと決定するように構成される第5決定モジュールと、を更に備える。
本願の実施例において、前記装置は、
前記第2サブ重みベクトルが0未満である場合、前記第2サブ重みベクトルに基づいて、前記第1ハイパーパラメータを更新し、更新された第1ハイパーパラメータを得るように構成される第1更新モジュールと、
前記第2ハイパーパラメータ、前記更新された第1ハイパーパラメータ及び更新されていない第1ハイパーパラメータに基づいて、更新された第2ハイパーパラメータを決定するように構成される第6決定モジュールと、
前記第2サブ重みベクトル及び前記学習パラメータに基づいて、第3サブ重みベクトルを決定するように構成される第7決定モジュールと、
前記更新された第1ハイパーパラメータ、前記更新された第2ハイパーパラメータ及び前記第3サブ重みベクトルに基づいて、最終重みベクトルを決定するように構成される第8決定モジュールと、を更に備える。
本願の実施例において、前記第1正規化サブモジュールは、
前記平均値最終重みベクトルにおける各次元での重みを前記平均値ベクトルにおける各次元での重みと一対一に対応するように乗算し、各次元で得られた積を加算し、正規化された平均値ベクトルを得るように構成される第1計算ユニットと、
前記分散最終重みベクトルにおける各次元での重みを前記分散ベクトルにおける各次元での分散と一対一に対応するように乗算し、各次元で得られた積を加算し、正規化された分散ベクトルを得るように構成される第2計算ユニットと、を備える。
本願の実施例において、前記第4決定サブモジュールは、
前記第1特徴マップと前記正規化された平均値ベクトルとの間の差の値を決定するように構成される第1差値算出ユニットと、
前記正規化された分散ベクトルと予め設定された調整量との和に対応する平均分散を決定するように構成される第3計算ユニットと、
前記平均分散に対する前記差の値の比率を決定するように構成される第4計算ユニットと、
予め設定されたスケーリングパラメータを用いて前記比率をスケーリングし、スケーリングされた比率を得るように構成される第1スケーリングユニットと、
予め設定されたシフトパラメータに応じて前記スケーリングされた比率を調整し、前記第2特徴マップを得るように構成される第1調整ユニットと、を備える。
対応して、本願の実施例は、コンピュータ記憶媒体を提供する。前記コンピュータ記憶媒体にコンピュータ実行可能な命令が記憶されており、該コンピュータ実行可能な命令が、本願の実施例で提供される画像処理方法におけるステップを実施するために実行される。
本願の実施例は、コンピュータ機器を提供する。前記コンピュータ機器は、メモリと、プロセッサと、を備え、前記メモリに、コンピュータ実行可能な命令が記憶されており、前記プロセッサが前記メモリにおけるコンピュータ実行可能な命令を実行して、本願の実施例で提供される画像処理方法におけるステップを実施する。
本願の実施例は、コンピュータプログラム製品を提供する。前記コンピュータプログラム製品は、コンピュータ実行可能な命令を含み、該コンピュータ実行可能な命令が、本願の実施例で提供される画像処理方法におけるステップを実施するために実行される。
本願の実施例では、スパース適応的正規化の方式を採用し、各特徴マップに対して、種々の正規化の重み付き組み合わせではなく、現在の特徴マップに適用可能な正規化方式を適応的に選択することで、冗長な計算を避ける。
本願の実施例によるネットワークアーキテクチャの構成を示す概略図である。 本願の実施例による画像処理方法の実現フローを示す概略図である。 本願の実施例による画像処理方法の実現フローを示す概略図である。 本願の実施例による画像処理方法のもう1つの実現フローを示す概略図である。 本願の実施例による画像処理方法のまた1つの実現フローを示す概略図である。 異なる関数を用いて重みベクトルを得た結果を示す比較図である。 本願の実施例による異なる関数及び異なるパラメータに基づいて得られた重みベクトルを示す概略図である。 本願の実施例による画像認識装置の構造を示す概略図である。 本願の実施例によるコンピュータ機器の構造を示す概略図である。
本願の実施例の目的、技術的解決手段及び利点をより明確にするために、以下、本願の実施例における図面を参照しながら、本願の具体的な技術的解決手段を更に詳しく説明する。下記実施例は、本願を説明するためのものに過ぎず、本願の範囲を限定するものではない。
本実施例は、まずネットワークアーキテクチャを提供する。図1Aは、本願の実施例によるネットワークアーキテクチャの構成を示す概略図である。図1Aに示すように、該ネットワークアーキテクチャは、2つ又は複数のコンピュータ機器11〜1Nと、サーバ30とを備え、コンピュータ機器11〜1Nとサーバ31は、ネットワーク21を介して通信する。コンピュータ機器は、実現過程において、情報処理能力を持つ様々なタイプのコンピュータ機器であってもよい。例えば、前記コンピュータ機器は、スマートフォン、タブレット、デスクトップコンピュータ、パーソナルデジタルアシスタントなどを含んでもよい。
本実施例は、画像処理方法を提供する。該方法は、ニューラルネットワークの各正規化層のために最適な正規化方式を選択し、ニューラルネットワークの汎化能力を向上させ、試験過程を速くすることができる。該方法は、コンピュータ機器に適用される。該方法により実現される機能は、コンピュータ機器におけるプロセッサによりプログラムコードを呼び出すことで実現されてもよい。勿論、プログラムコードは、コンピュータ記憶媒体に記憶されてもよい。従って、該コンピュータ機器は、少なくとも、プロセッサと、記憶媒体と、を備える。
図1Bは、本願の実施例による画像処理方法の実現フローを示す概略図である。図1Bに示すように、前記方法は下記ステップを含む。
ステップS101において、処理されるべき画像の第1特徴マップを取得する。ここで、前記処理されるべき画像は、外観が複雑である画像であってもよく、外観が簡潔である画像であってもよい。前記ステップS101は、コンピュータ機器により実現してもよい。更に、前記コンピュータ機器は、スマート端末であってもよく、例えば、携帯電話(例えば、スマートフォン)、タブレット、ノートパソコンなどのような無線通信能力を持つ携帯端末機器であってもよく、デスクトップコンピュータなどのような移動しにくいスマート端末機器であってもよい。前記コンピュータ機器は、画像認識又は処理に用いられる。前記第1特徴マップは、ニューラルネットワークにおける畳み込み層を利用して前記処理されるべき画像に対して特徴抽出を行うことで得られた第1特徴マップであってもよい。
ステップS102において、前記第1特徴マップの最終重みベクトルを決定する。ここで、予め設定されたパラメータ集合に基づいて、第1特徴マップの最終重みベクトルを算出することで、第1特徴マップの最終重みベクトルを決定することができる。予め設定されたパラメータ集合は、第1ハイパーパラメータ、第2ハイパーパラメータ及び学習パラメータを含む。ここで、第1ハイパーパラメータuは、予め設定されたシンプレックスの中心を表すためのものであり、前記第2ハイパーパラメータrは、前記最終重みベクトルの数値範囲を小さくするためのものであり、第2ハイパーパラメータrの数値範囲は、0より大きくて予め設定されたシンプレックスの中心から頂点までの距離以下である。本実施例において、予め設定された正規化集合における正規化方式の数に基づいて、学習パラメータの次元数、第1ハイパーパラメータの次元数及び前記第1ハイパーパラメータにおける各次元での数値を決定する。ここで、第1ハイパーパラメータの各次元の数値の合計は、1であり、第1ハイパーパラメータの次元数は、学習パラメータの次元数と同じであり、第1ハイパーパラメータの各次元の数値は同じであり、且つ各次元の数値の合計は、1である。続いて、予め設定されたシンプレックスの中心から頂点までの距離を決定し、該距離を前記第2ハイパーパラメータに対応する予め設定された閾値として決定する。前記予め設定されたシンプレックスの各辺長さは、予め設定された固定数値であり、且つ頂点の数は、正規化方式の数と同じであり、前記第2ハイパーパラメータは、0より大きくて前記予め設定された閾値以下である数値である。例えば、予め設定された正規化集合に3つの正規化方式(例えば、BN、IN及びLN)が含まれると、予め設定されたシンプレックスは、辺長さがルート2である正三角形であり、学習パラメータzは任意の三次元ベクトルであり、例えばz(0.5,0.3,0.2)であり、第1ハイパーパラメータは、三次元ベクトルu(1/3,1/3,1/3)である。第2ハイパーパラメータは、該シンプレックスの中心を起点として訓練過程に伴って次第に増大した円の半径であり、つまり、第2ハイパーパラメータは、0より大きくてシンプレックスの中心から頂点までの距離未満である。予め設定された正規化集合に種々の正規化方式が含まれる。例えば、予め設定された正規化集合
Figure 2022500798
には、BN、IN及びLNが含まれ、
Figure 2022500798
として表されてもよい。前記ステップS102は、下記過程により実現することができる。まず、予め設定されたパラメータ集合における第1ハイパーパラメータ、第2ハイパーパラメータ及び学習パラメータに基づいて、前記第1特徴マップの最終重みベクトルを算出する。スパース適応的正規化方式を用いるため、各特徴マップに対して、様々な正規化方式の重み付き組み合わせを選択することなく、完全スパース方式で、該特徴マップに適する正規化方式を選択し、冗長な計算を避けるだけでなく、ニューラルネットワークの汎化能力を向上させることもできる。
ステップS103において、最終重みベクトルに基づいて、予め設定された正規化集合から第1特徴マップに対応するターゲット正規化方式を決定する。ここで、最終重みベクトルは、完全スパース重みベクトルと理解されてもよい。つまり、該重みベクトルには、1つのみの次元での数値は1であり、他の次元での数値は、いずれも0である。ステップS103は、予め設定された正規化集合が、
Figure 2022500798
であり、最終重みベクトルpが(0,0,1)である場合、ターゲット正規化方式がLNであることを表し、最終重みベクトルpが(0,1,0)である場合、ターゲット正規化方式がINであることを表し、最終重みベクトルpが(1,0,0)である場合、ターゲット正規化方式がBNであることを表すと理解されてもよい。
ステップS104において、ターゲット正規化方式を用いて、第1特徴マップに対して正規化処理を行い、第2特徴マップを得る。ここで、上記第2特徴マップは、前記第1特徴マップに対してターゲット正規化方式で正規化処理を行うことで得られた特徴マップである。本実施例は、上記処理ステップにより、スパース適応的正規化方式で画像を処理することを実現させ、画像を処理するための好適な正規化方式をより高い効率で選択することができ、得られた第2特徴マップは、後続の深層学習の処理ステップに適用可能であることは、理解されるべきである。
本願の実施例において、スパース適応的正規化をニューラルネットワークに適用し、続いて事前設定された予め設定されたパラメータ集合に基づいて、最終重みベクトルを決定することで、ターゲット正規化方式を決定し、各特徴マップに対して、種々の正規化の重み付き組み合わせを選択することなく、現在の特徴マップに適用可能な正規化方式を適応的に選択することで、冗長な計算を避けるだけでなく、ニューラルネットワークの汎化能力を向上させることもできる。
本実施例は、画像処理方法を提供する。図2Aは、本願の実施例による画像処理方法の実現フローを示す概略図である。図2Aに示すように、前記方法は、下記ステップを含む。
ステップS201において、ニューラルネットワークにおける畳み込み層を利用して、処理されるべき画像に対して特徴抽出を行い、第1特徴マップを得る。ここで、処理されるべき画像をニューラルネットワークに入力し、畳み込み層によりサンプル画像に対して特徴抽出を行い、第1特徴マップを得る。
ステップS202において、予め設定されたパラメータ集合における第1ハイパーパラメータ、第2ハイパーパラメータ及び学習パラメータに基づいて、第1特徴マップの最終重みベクトルを算出する。ここで、前記ステップS202は、下記過程により実現することができる。まず、前記第1ハイパーパラメータ及び前記第2ハイパーパラメータに基づいて、予め設定された制約条件を決定する。ここで、前記制約条件は、前記最終重みベクトルと前記第1ハイパーパラメータとの距離を前記第2ハイパーパラメータの数値以上に限定するためのものであり、最終重みベクトルpが、
Figure 2022500798
を満たすことと表されてもよい。続いて、前記予め設定された制約条件及び前記学習パラメータに基づいて、前記第1特徴マップの最終重みベクトルを決定する。最後に、前記最終重みベクトルに基づいて、前記第1特徴マップを正規化し、第2特徴マップを得る。従って、訓練過程において、予め設定された制約条件及び学習パラメータに基づいて得られた最終重みベクトルは、完全スパースのものである。
ステップS203において、前記最終重みベクトルに基づいて、予め設定された正規化集合から、前記第1特徴マップに対応するターゲット正規化方式を決定する。
ステップS204において、前記ターゲット正規化方式を用いて、前記第1特徴マップに対して正規化処理を行い、第2特徴マップを得る。
本実施例において、入力された学習パラメータz及び制約条件に基づいて、ニューラルネットワークを訓練し、得られた特徴マップの最終重みベクトルを完全スパースのものにすることで、ニューラルネットワークに入力された処理されるべき画像に対して、該特徴マップに適した正規化方式を適応的に選択し、該特徴マップを正規化し、冗長な計算を避け、ニューラルネットワークの汎化能力を向上させる。
本実施例は、画像処理方法を提供する。図2Bは、本願の実施例による画像処理方法のもう1つの実現フローを示す概略図である。図2Bに示すように、前記方法は、下記ステップを含む。
ステップS221において、処理されるべき画像の第1特徴マップを取得する。
ステップS222において、前記第1特徴マップの平均値ベクトル及び分散ベクトルを決定する。ここで、まず、予め設定された正規化集合に基づいて、前記第1特徴マップの平均値ベクトル及び分散ベクトルを決定する。前記平均値ベクトルの次元数及び分散ベクトルの次元数は、いずれも前記予め設定された正規化集合における正規化方式の数と同じであり、前記平均値ベクトルにおける第i次元での平均値は、前記予め設定された正規化集合におけるj番目の正規化方式に対応し、前記分散ベクトルにおける第i次元での分散は、前記予め設定された正規化集合におけるj番目の正規化方式に対応し、i及びjはいずれも0より大きくて前記予め設定された正規化集合における正規化方式の数より小さい整数である。例えば、予め設定された正規化集合は、
Figure 2022500798
であり、該正規化集合に基づいて、第1特徴マップの平均値ベクトル及び分散ベクトルを決定する。平均値ベクトル及び分散ベクトルは、いずれも三次元ベクトルであり、また、平均値ベクトルにおける第1次元での平均値は、INに対応し、第2次元での平均値は、BNに対応し、第3次元での平均値は、LNに対応する。
ステップS223において、予め設定された制約条件及び学習パラメータに基づいて、平均値ベクトルに対応する平均値最終重みベクトル及び分散ベクトルに対応する分散最終重みベクトルをそれぞれ決定する。上記ステップS222及びステップS223において、「前記第1特徴マップの最終重みベクトルの決定」方式を提出した。該方式において、設定された予め設定された条件よれば、得られた最終重みベクトルが完全スパース重みベクトルとなる。つまり、該重みベクトルにおいて、1つのみの次元での数値が1であり、他の次元での数値はいずれも0である。
ステップS224において、前記平均値最終重みベクトル及び前記分散最終重みベクトルに基づいて、平均値の第1サブ正規化方式及び分散の第2サブ正規化方式をそれぞれ決定する。ここで、前記第1サブ正規化方式は、前記第2サブ正規化方式と同じであるか又は異なる。例えば、予め設定された正規化集合が、
Figure 2022500798
であり、平均値最終重みベクトルが(0,0,1)である場合、平均値の第1サブ正規化方式がLNであることを表し、分散最終重みベクトルが(0,1,0)である場合、分散の第2サブ正規化方式がINであることを表す。
ステップS225において、前記第1サブ正規化方式及び前記第2サブ正規化方式に基づいて、前記平均値ベクトル及び前記分散ベクトルに対してそれぞれ正規化を行い、正規化された平均値ベクトル及び正規化された分散ベクトルを得る。ここで、例えば、平均値最終重みベクトルが(0,0,1)であり、つまり、平均値の第1サブ正規化方式がLNである場合、LNを用いて平均値ベクトルに対して正規化処理を行い、正規化された平均値ベクトルを得る。分散最終重みベクトルが(0,1,0)であり、つまり、分散の第2サブ正規化方式がINである場合、INを用いて分散ベクトルに対して正規化処理を行い、正規化された分散ベクトルを得る。
ステップS226において、前記正規化された平均値ベクトル、前記正規化された分散ベクトル及び前記第1特徴マップに基づいて、前記第2特徴マップを得る。ここで、前記ステップS226は、下記過程により実現することができる。まず、前記平均値最終重みベクトルにおける各次元での重みを前記平均値ベクトルにおける各次元での重みと一対一に対応するように乗算し、各次元で得られた積を加算し、正規化された平均値ベクトルを得る。続いて、前記分散最終重みベクトルにおける各次元での重みを前記分散ベクトルにおける各次元での分散と一対一に対応するように乗算し、各次元で得られた積を加算し、正規化された分散ベクトルを得る。最後に、前記正規化された平均値ベクトル及び正規化された分散ベクトルに基づいて、第2特徴マップを得る。
上記ステップS225及びステップS226において、「前記ターゲット正規化方式を用いて、前記第1特徴マップに対して正規化処理を行い、第2特徴マップを得る」ことを実現させる方式を提供する。該方式において、平均値ベクトル及び分散ベクトルにそれぞれ対応する第1サブ正規化方式及び前記第2サブ正規化方式をそれぞれ得ることで、平均値ベクトル及び分散ベクトルに対して正規化を行い、ニューラルネットワークの汎化能力を向上させる。
本願の実施例において、予め設定された制約条件及び前記学習パラメータに基づいて、平均値ベクトル及び分散ベクトルにそれぞれ対応する最終重みベクトルを得ることで、得られた最終重みベクトルを完全スパースのものにする。最終重みベクトルに基づいて、第1特徴マップの正規化を完了し、第2特徴マップを得る。該ニューラルネットワークは、入力された処理されるべき画像に対して、該処理されるべき画像に適した正規化方式を適応的に選択することができ、演算量を減少させる。
本実施例は、画像処理方法を提供する。図2Cは、本願の実施例による画像処理方法のまた1つの実現フローを示す概略図である。図2Cに示すように、前記方法は、下記ステップを含む。
ステップS231において、前記ニューラルネットワークにおける畳み込み層を利用して前記処理されるべき画像に対して特徴抽出を行い、前記第1特徴マップを得る。
ステップS232aにおいて、前記第2ハイパーパラメータ及び前記学習パラメータに基づいて、第1サブ重みベクトルを決定する。ここで、前記第1サブ重みベクトルpと前記第1ハイパーパラメータuとの距離が前記第2ハイパーパラメータr以上であり、つまり、
Figure 2022500798
である場合、ステップS233aへ進み、そうでなければ、ステップS232bへ進む。
ステップS233aにおいて、前記第1サブ重みベクトルと前記第1ハイパーパラメータとの距離が前記第2ハイパーパラメータ以上である場合、前記第1サブ重みベクトルを前記最終重みベクトルとして決定する。ここで、前記ステップS233aを実行した後、ステップS232bへ進む。上記ステップS232a及びステップS233aにおいて、「最終重みベクトルを決定する方式」を提供する。つまり、第1サブ重みベクトルが予め設定された制約条件を満たすと判定した場合、第1サブ重みベクトルは、最終重みベクトルである。
ステップS232bにおいて、前記第1サブ重みベクトルと前記第1ハイパーパラメータとの距離が前記第2ハイパーパラメータ未満である場合、前記第1ハイパーパラメータ、前記第2ハイパーパラメータ及び前記第1サブ重みベクトルに基づいて、第2サブ重みベクトルを決定する。ここで、第2ハイパーパラメータが0より大きくて予め設定されたシンプレックスの中心から頂点までの距離未満である数値であるため、第2ハイパーパラメータによりニューラルネットワークを訓練する過程において、開発者は、自律的に、第2ハイパーパラメータを0から予め設定されたシンプレックスの中心から頂点までの距離のうちのいずれか1つの数値とすることができる。また、本実施例において、第2ハイパーパラメータは、予め設定されたシンプレックスの中心から頂点までの距離に近いほど、重みベクトルは、スパースのものになる。ここで、第2サブ重みベクトルpは0以上である場合、ステップS233bへ進み、そうでなければ、ステップS232cへ進む。
ステップS233bにおいて、第2サブ重みベクトルが0以上である場合、前記第2サブ重みベクトルを最終重みベクトルとして決定する。ここで、ステップS233bを実行した後、ステップS232cへ進む。上記ステップS232b及びステップS233bにおいて、もう1つの「最終重みベクトルを決定する方式」を提供する。つまり、第1サブ重みベクトルが予め設定された制約条件を満たしていないと判定した場合、第1ハイパーパラメータ、第2ハイパーパラメータ及び第1サブ重みベクトルに基づいて、第2サブ重みベクトルを算出し、第2サブ重みベクトルが0より大きいと、第2サブ重みベクトルを最終重みベクトルとして決定する。
ステップS232cにおいて、前記第2サブ重みベクトルが0未満である場合、前記第2サブ重みベクトルに基づいて、前記第1ハイパーパラメータを更新し、更新された第1ハイパーパラメータを得る。ここで、例えば、第1ハイパーパラメータ
Figure 2022500798
とする。ここで、
Figure 2022500798
は、それぞれ正規化方式BN、IN及びLNに対応する。
ステップS233cにおいて、前記第2ハイパーパラメータ、前記更新された第1ハイパーパラメータ及び更新されていない第1ハイパーパラメータに基づいて、更新された第2ハイパーパラメータを決定する。ここで、更新された第2ハイパーパラメータr`は、
Figure 2022500798
と表されてもよい。
ステップS234cにおいて、前記第2サブ重みベクトル及び前記学習パラメータに基づいて、第3サブ重みベクトルを決定する。ここで、第2サブ重みベクトルを関数sparsemaxへマッピングし、第3サブ重みベクトルpを得る。即ち、
Figure 2022500798
である。
ステップS235cにおいて、前記更新された第1ハイパーパラメータ、前記更新された第2ハイパーパラメータ及び前記第3サブ重みベクトルに基づいて、最終重みベクトルを決定する。ここで、最終重みベクトルpは、
Figure 2022500798
と表されてもよい。最終重みベクトルを決定することは、第1ハイパーパラメータ及び前記第2ハイパーパラメータにより決定された予め設定された制約条件、及び前記学習パラメータに基づいて、前記平均値ベクトルに対応する平均値最終重みベクトル及び前記分散ベクトルに対応する分散最終重みベクトルをそれぞれ決定することであってもよい。
上記ステップS232c及びステップS234cにおいて、もう1つの「最終重みベクトルを決定する方式」を提供する。つまり、第2サブ重みベクトルが0未満であると判定した場合、入力された学習パラメータを再び更新し、第3サブ重みベクトルを取得し、続いて、第3サブ重みベクトルに基づいて、最終重みベクトルを得る。
ステップS233において、平均値最終重みベクトル及び分散最終重みベクトルに基づいて、前記平均値ベクトル及び前記分散ベクトルに対してそれぞれ正規化を行い、第2特徴マップを得る。ここで、前記ステップS233は、下記過程により実現することができる。まず、前記平均値最終重みベクトルにおける各次元での重みを前記平均値ベクトルにおける各次元での重みと一対一に対応するように乗算し、各次元で得られた積を加算し、正規化された平均値ベクトルを得る。続いて、前記分散最終重みベクトルにおける各次元での重みを前記分散ベクトルにおける各次元での分散と一対一に対応するように乗算し、各次元で得られた積を加算し、正規化された分散ベクトルを得る。最後に、第1特徴マップと前記正規化された平均値ベクトルとの間の差の値を決定し、前記正規化された分散ベクトルと予め設定された調整量との和に対応する平均分散を決定し、前記平均分散に対する前記差の値の比率を決定し、予め設定されたスケーリングパラメータ及び予め設定されたシフトパラメータを用いて前記比率を調整し、前記第3特徴マップを得る。
本実施例において、入力された第1学習パラメータ及び予め設定された制約条件に基づいて、複数回の判断を行うことで、最終重みベクトルを完全スパースのものにする。最終重みベクトルに基づいて、第1特徴マップに対する正規化を完了し、第2特徴マップを得る。正規化方式に、より少ないパラメータ量を持たせ、且つ深層ニューラルネットワークにおいてより高い汎用性を持たせる。
本願の実施例において、適応的正規化におけるsoftmax関数の代わりに、完全スパース関数(sparsestmax)を提出することで、スパース最適化課題をニューラルネットワークのフォワード計算に変換し、重み係数の完全スパース化を実現させる。全ての正規化層のために、正規化操作方式の重み付き組み合せを選択することなく、最適な正規化操作を選択することができる。本実施例で指定したスパース適応的正規化(Sparse Switchable Normalization:SSN)の表現式は、式(1)に示すとおりである。
Figure 2022500798
ここで、
Figure 2022500798
は、入力された特徴マップの平均値ベクトルに対応する重みを表し、
Figure 2022500798
は、該特徴マップの分散ベクトルに対応する重みを表し、
Figure 2022500798
である。
Figure 2022500798
は、正規化前及び正規化後の特徴マップを表し、
Figure 2022500798
であり、Nは、小バッチ内のサンプル量を表し、
Figure 2022500798
であり、Cは、特徴マップのチャネル数を表し、
Figure 2022500798
であり、Hは、各チャネルの空間的次元での高さを表し、
Figure 2022500798
であり、Wは、各チャネルの空間的次元での幅を表し、
Figure 2022500798
はそれぞれ普通のスケーリングパラメータ及びシフトパラメータを表し、
Figure 2022500798
は、数値の不安定性を予防するための予め設定された調整量(極めて小さい)である。各画素点について、正規化された平均値は、
Figure 2022500798
であり、正規化された分散は、
Figure 2022500798
である。スパース適応的正規化において、
Figure 2022500798
は、0又は1の変数に限定される。従って、重みベクトル
Figure 2022500798
における3つの数値
Figure 2022500798
のうち、1つのみが1であり、残りは、いずれも0である。
Figure 2022500798
は、予め設定された正規化集合を表す。
Figure 2022500798
は、正規化方式IN、BN及びLNにそれぞれ対応する特徴マップの平均値及び分散である。ここで、
Figure 2022500798
は、様々な正規化方式に対応する。つまり、kの値が1である場合、
Figure 2022500798
は、正規化方式INで得られた平均値及び分散にそれぞれ対応する。kの値が2である場合、
Figure 2022500798
は、正規化方式BNで得られた平均値及び分散にそれぞれ対応する。kの値が3である場合、
Figure 2022500798
は、正規化方式LNで得られた平均値及び分散にそれぞれ対応する。本実施例において、特徴マップの平均値に対応する重みベクトルを
Figure 2022500798
で表し、特徴マップの分散に対応する重みベクトルを
Figure 2022500798
で表す。
式(1)において、
Figure 2022500798
である。
Figure 2022500798
は、正規化集合における様々な正規化方式で計算された画素範囲を表し、
Figure 2022500798
内の画素点と見なされる。正規化方式BN、IN及びLNの画像範囲は、それぞれ、
Figure 2022500798
と表されてもよい。
Figure 2022500798
式(1)によれば、SSNは、正規化集合から、単一の正規化方式を選択する。スパース制約
Figure 2022500798
からソフト制約
Figure 2022500798
まで弛緩すると、SSNのスパース能力は低下する。
本実施例において、
Figure 2022500798
を、SSNにおける重みベクトルpを学習するための関数とする。ここで、
Figure 2022500798
は、3つの次元での統計量に対応するネットワークパラメータである。該パラメータは、逆伝搬を行う場合に、最適化学習を行う。その方程式を説明する前に、まず、
Figure 2022500798
の4つの要件を引き入れ、SSNを可能な限り有効かつ使用しやすくする。
(1)重みベクトルpは単位長さである。pの
Figure 2022500798
ノルムは、1であり、全ての
Figure 2022500798
である。
(2)重みベクトルpは、完全スパースのものである。換言すれば、関数
Figure 2022500798
は、単一サーモベクトルを返送する必要がある。ここで、1つのみの重みは、1であり、他の重みは、0である。
(3)使用しやすい。SSNはモジュールとして実現可能であり、如何なるネットワーク及びタスクに容易につながる。これを実現させるために、重みベクトルpのすべての制約条件を満たし、ネットワークのフォワード計算において実現しなければならない。これは、損失関数に
Figure 2022500798
の損失を追加することと異なり、モデルの開発は煩わしくなる。その原因は、これらの損失係数が一般的にはバッチサイズ、ネットワークアーキテクチャ及びタスクに敏感であることである。
(4)安定性。重みベクトルpの最適化は、安定したものである。これは、
Figure 2022500798
が訓練段階でスパース性を保持できることを意味する。例えば、
Figure 2022500798
は、現在のステップで1つの正規化値を返送し、次のステップでもう1つの正規化値を返送すると、訓練は極めて困難である。
Figure 2022500798
に関わる関数は、softmax(z)及びsparsemax(z)であるが、softmax(z)及びsparsemax(z)は、上記4つの要件を満たしない。まず、関連技術において、softmax(z)を用いる。しかしながら、他のパラメータzは、常に十分にサポートされている。つまり、
Figure 2022500798
である。正規化方式は、softmax(z)関数を用いる場合、スパースのものではないことを意味する。次に、もう1つの関数は、sparsemax(z)である。該関数は、softmax(z)を拡張して一部のスパース分布を発生したものである。sparsemax(z)は最小化pとzとのユークリッド距離により、zを(K−1)次元のシンプレックスにおける最寄り点pへ投影する。式(3)に示すとおりである。
Figure 2022500798
ここで、
Figure 2022500798
は、(K−1)次元のシンプレックスを表し、それは、K個の頂点を含む凸多面体である。例えば、Kが3である場合、
Figure 2022500798
は二次元シンプレックスを表し、正三角形である。該正三角形の頂点はそれぞれBN、IN及びLNに対応する。
図3は、異なる関数で重みベクトルを得た結果を示す概略図である。図3に示すように、点Oは、三次元座標系の原点を表す。点301は、関数sparsestmax(z)から出力された重みベクトルを表し、点303は、関数sparsemax(z)から出力された重みベクトルを表し、点303は、関数softmax(z)から出力された重みベクトルを表す。正三角形は、該三次元座標系に埋め込まれた二次元シンプレックスを表す。uは、シンプレックスの中心である。立方体31は、正規化方式INに対応し且つサイズがN×C×H×Wである特徴マップを表し、つまり、バッチ軸Nに沿って画素点の画素範囲
Figure 2022500798
を求める。立方体32は、正規化方式BNに対応し且つサイズがN×C×H×Wである特徴マップを表し、つまり、空間軸H×Wに沿って画素点の画素範囲
Figure 2022500798
を求める。立方体33は、正規化方式LNに対応し且つサイズがN×C×H×Wである特徴マップを表し、つまり、チャネル軸Cに沿って画素点の画素範囲
Figure 2022500798
を求める。正三角形の各頂点は、3つの正規化のうちの1つを表す。図3に示すように、softmax関数の出力重みベクトルは、sparsemax及びsparsestmax関数から出力された重みベクトルよりも、シンプレックスの中心uに更に近い。本願の実施例で提出されたsparsestmax関数は、最終重みベクトルをエンドツーエンドの方式で、シンプレックスの頂点の1つに収束させる。該3つの標準化方法から、1つのみの正規化方式を選択して特徴マップに対して正規化を行う。換言すれば、sparsemax関数により生成された重みベクトルpは、softmax関数により生成された重みベクトルpよりも、シンプレックスの境界に更に近いことは、sparsemax関数により生成されたスパース比率は、softmax関数により生成されたスパース比率より高い。学習パラメータz=(0.8,0.6,0.1)を例として、softmax(z)=(0.43,0.35,0.22)であって、sparsemax(z)=(0.6,0.4,0)であることは、sparsemax関数によれば、pの幾つかの要素をゼロにする可能性があるが、重みベクトルが完全スパースのものである比率を確保できない。その原因は、シンプレックスにおける各点が、式(3)の解である可能性があることである。
上記検討した全ての制約条件を満たすために、本願の実施例は、sparsestmax関数を引き入れる。該関数は、softmax関数の新たなスパースのバージョンである。sparsestmax関数は、式(4)で定義されてもよい。
Figure 2022500798
ここで、
Figure 2022500798
は、円形制約
Figure 2022500798
を有するシンプレックスを表す。ここで、ベクトル
Figure 2022500798
は、シンプレックスの中心(即ち、第1ハイパーパラメータ)を表し、1は、全て1であるベクトルを表し、rは円の半径であり、円心は、シンプレックスの中心である。
sparsestmax関数は、sparsemax函数と比べて、循環制約
Figure 2022500798
が引き入れられたため、直観的な幾何意味を有する。sparsemax関数(解空間が
Figure 2022500798
である)の解空間と異なり、sparsestmaxの解空間は、円であり、中心u及び半径rは、シンプレックスに含まれない。
完全スパースの要件を満たすために、訓練段階で、半径r(即ち、第2ハイパーパラメータ)をゼロからrまでに線形的に増加させる。rは、シンプレックスの外接円の半径である。
Figure 2022500798
の場合、式(4)の解空間は、シンプレックスのK個の頂点のみを含む。これにより、sparsestmax関数は、完全スパースのものになる。
本実施例において、sparsestmax関数に基づいたスパース適応的正規化過程は、下記ステップのように簡単に説明されてもよい。ステップ1において、前記学習パラメータz、第1ハイパーパラメータu及び第2ハイパーパラメータrに基づいて、第1サブ重みベクトルpを決定する。ステップ2において、
Figure 2022500798
である場合、最終重みベクトルp=pであり、ステップ4へ進み、そうでなければ、第2サブ重みベクトルpを算出し、
Figure 2022500798
である。ステップ3において、
Figure 2022500798
である場合、最終重みベクトルp=pであり、ステップ4へ進み、そうでなければ、更新された第1ハイパーパラメータuを取得し、更新された第2ハイパーパラメータr`及び第3サブ重みベクトルpに基づいて、最終重みベクトル
Figure 2022500798
を決定する。ここで、
Figure 2022500798
であり、
Figure 2022500798
であり、
Figure 2022500798
である。ステップ4において、特徴マップの平均値を
Figure 2022500798
と決定し、分散を
Figure 2022500798
と決定する。ここで、p`は、分散に対応する最終重みベクトルである。分散に対応する最終重みベクトルの取得方式は、平均値に対応する最終重みベクトルの取得方式と同じである。
図4は、本願の実施例による異なる関数及び異なるパラメータに基づいて得られた重みベクトルを示す概略図である。図4(a)は、K=3であり且つz=(0.5,0.3,0.2)である場合、関数softmaxにより得られた重みベクトルp=(0.39,0.32,0.29)を表し、図4(b)は、K=3であり且つz=(0.5,0.3,0.2)である場合、関数sparsemaxにより得られた重みベクトルp=(0.5,0.3,0.2)を表す。これから分かるように、softmax函数の出力は、sparsemax関数の出力よりも均一である。図4(c)から図4(f)は、K=3である場合、異なる半径(異なる第2ハイパーパラメータ)に基づいて得られた重みベクトルを表す。sparsestmax関数は、rの増加に伴ってますますスパースになる出力を生成する。
図4(b)及び図4(c)に示すように、z=(0.5,0.3,0.2)とし、sparsemax関数から出力された重みベクトルは、p=(0.5,0.3,0.2)とする。r=0.15である場合、pは、制約条件
Figure 2022500798
を満たす。従って、pは、sparsestmax関数の解であってもよい。この場合、sparsestmaxの計算方法は、sparsemaxと同じである。これにより、最適な重みベクトルを返送する。
図4(d)に示すように、rが0.3までに増加した場合、p=(0.5,0.3,0.2)である場合、
Figure 2022500798
である。これは、予め設定された制約条件を満たしないことを意味する。この場合、sparsestmaxは、円における点pを返送する。これは、pを円に投影した面により算出されたものであり、つまり、
Figure 2022500798
を出力とする。
図4(e)に示すように、r=0.6である場合、pは、シンプレックスから出る。この場合、pは、シンプレックスにおける最寄り点であるpに投射される。続いて、sparsestmax関数により、pをpへマッピングする。pの表現式は、式(5)に示すとおりである。
Figure 2022500798
図4(f)に示すように、r=rc=0.816である場合、K=3について、円は、シンプレックスの外接円になり、pは3つの頂点の1つまでに移動する。該頂点は、pに最も近い点である。この場合、完全スパースの最終重みベクトルp=(1,0,0)を出力とする。
sparsestmax関数は、上記検討した、
Figure 2022500798
の全ての4つの要件を満たす。半径rは、訓練の進行に伴って0からrまでに増加するため、sparsestmax関数から出力された重みベクトルの解空間は、シンプレックスの3つの頂点までに縮小する。これは、sparsestmax関数から出力された重みベクトルpが単位長さであり、且つ完全スパースのものであることを示す。つまり、
Figure 2022500798
の最初の2つの要件を満たす。3番目の要件について、sparsestmax関数は、深層ネットワークのフォワード計算において実行される。損失関数に余分なスパース正規化要素を引き入れることなく、正規化の難度が調整しやすいため、使用しやすい。4番目の要件について、sparsestmax関数により訓練されたSSNは安定したものであるため、4番目の要件を満たす。一般的には、各kについて、
Figure 2022500798
である場合、zは、ゼロである。これは、pの要素が0になると、後続の訓練段階で「ウェークアップ」することがないことを示す。これは、訓練のスパース性の維持に寄与する。
上述したように、上記様々な段階の属性を検査する。ここで、
Figure 2022500798
をそれぞれ「解析方向」及び「解析距離」とする。
Figure 2022500798
である場合、pにおけるk番目の成分は、他の成分よりも重要ではないことを示す。従って、訓練を中止することは、合理的である。pがpまでに移動して、続いてpまでに移動した場合、
Figure 2022500798
になる。この場合、pがシンプレックスからである前に、好適なスパース方向を学習したことを示す。
本実施例において、SSNにおける重要度比率は、スパース距離を学習する必要がなく、スパース方向の更新に注目する。これにより、各訓練ステップにおけるIN、BN及びLNの相対的大きさを調整する。該属性は、重要度比率を訓練する場合の難度を直観的に低下させる。Lを深層ネットワークにおける正規化層の層数とする。訓練段階で、計算の複雑さは、低い、しかしながら、SSNは、完全スパースの正規化方式の選択を学習するため、試験段階で、関連技術におけるスパースの速度より速い。各正規化層におけるIN、BN及びLNの統計データを推定する必要があるSNと異なり、本実施例で提供されるSSNは、1つのみ正規化方式の統計データを計算する。この場合、SSNにおけるBNを線形変換に変換し、続いて、それを先の畳み込み層に結合する。従って、ネットワークの汎化能力を向上させ、試験過程を加速するだけでなく、深層ニューラルネットワークにおいてより高い汎用性を有する。
本願の実施例は、画像処理装置を提供する。図5は、本願の実施例による画像処理装置の構造を示す概略図である。図5に示すように、前記装置500は、第1取得モジュール501と、第1計算モジュール502と、第1決定モジュール503と、第1処理モジュール504と、を備え、前記第1取得モジュール501は、処理されるべき画像の第1特徴マップを取得するように構成され、前記第1取得モジュール502は、前記第1特徴マップの最終重みベクトルを決定するように構成され、前記第1決定モジュール503は、前記最終重みベクトルに基づいて、予め設定された正規化集合から、前記第1特徴マップに対応するターゲット正規化方式を決定するように構成され、前記第1処理モジュール504は、前記ターゲット正規化方式を用いて、前記第1特徴マップに対して正規化処理を行い、第2特徴マップを得るように構成される。
本願の実施例において、前記第1取得モジュール501は、前記ニューラルネットワークにおける畳み込み層を利用して、前記処理されるべき画像に対して特徴抽出を行い、前記第1特徴マップを得るように構成される第1抽出サブモジュールを備え、なお、前記予め設定されたパラメータ集合は、第1ハイパーパラメータ、第2ハイパーパラメータ及び学習パラメータを含み、前記第1計算モジュール502は、前記予め設定されたパラメータ集合における第1ハイパーパラメータ、第2ハイパーパラメータ及び学習パラメータに基づいて、前記第1特徴マップの最終重みベクトルを算出するように構成される第1計算サブモジュールを備える。
本願の実施例において、前記第1計算サブモジュールは、前記第1ハイパーパラメータ及び前記第2ハイパーパラメータに基づいて、予め設定された制約条件を決定するように構成される第1決定ユニットと、前記予め設定された制約条件及び前記学習パラメータに基づいて、前記第1特徴マップの最終重みベクトルを決定するように構成される第2決定ユニットであって、前記学習パラメータは、前記第1特徴マップの最終重みベクトルを算出するためのものであり、前記第1ハイパーパラメータは、予め設定されたシンプレックスの中心を表すためのものであり、前記第2ハイパーパラメータは、前記最終重みベクトルの範囲を小さくするためのものである、第2決定ユニットと、を備える。
本願の実施例において、前記予め設定された制約条件は、前記最終重みベクトルと前記第1ハイパーパラメータとの距離を前記第2ハイパーパラメータの数値以上に限定するためのものである。
本願の実施例において、前記第1取得モジュール501は、前記第1特徴マップの平均値ベクトル及び分散ベクトルを決定するように構成される第1決定サブモジュールと、前記予め設定された制約条件及び前記学習パラメータに基づいて、前記平均値ベクトルに対応する平均値最終重みベクトル及び前記分散ベクトルに対応する分散最終重みベクトルをそれぞれ決定するように構成される第2決定サブモジュールと、を備え、なお、前記第1決定モジュール503は、前記平均値最終重みベクトル及び前記分散最終重みベクトルに基づいて、平均値の第1サブ正規化方式及び分散の第2サブ正規化方式をそれぞれ決定するように構成される第3決定サブモジュールであって、前記第1サブ正規化方式は前記第2サブ正規化方式と同じであるか又は異なる、第3決定サブモジュールを備え、なお、前記第1処理モジュール504は、前記第1サブ正規化方式及び前記第2サブ正規化方式に基づいて、前記平均値ベクトル及び前記分散ベクトルに対してそれぞれ正規化を行い、正規化された平均値ベクトル及び正規化された分散ベクトルを得るように構成される第1正規化サブモジュールと、前記正規化された平均値ベクトル、前記正規化された分散ベクトル及び前記第1特徴マップに基づいて、前記第2特徴マップを得るように構成される第4決定サブモジュールと、を備える。
本願の実施例において、前記第1決定サブモジュールは、予め設定された正規化集合に基づいて、前記第1特徴マップの平均値ベクトル及び分散ベクトルを決定するように構成される第3決定ユニットを備え、前記平均値ベクトルの次元数及び分散ベクトルの次元数は、いずれも前記予め設定された正規化集合における正規化方式の数と同じであり、前記平均値ベクトルにおける第i次元での平均値は、前記予め設定された正規化集合におけるj番目の正規化方式に対応し、前記分散ベクトルにおける第i次元での分散は、前記予め設定された正規化集合におけるj番目の正規化方式に対応し、i及びjはいずれも0より大きくて前記予め設定された正規化集合における正規化方式の数より小さい整数である。
本願の実施例において、前記装置は、予め設定された正規化集合における正規化方式の数に基づいて、前記学習パラメータの次元数、前記第1ハイパーパラメータの次元数及び前記第1ハイパーパラメータにおける各次元での数値を決定するように構成される第2決定モジュールであって、前記第1ハイパーパラメータの各次元の数値の合計は、1であり、前記第1ハイパーパラメータの次元数は、前記学習パラメータの次元数と同じであり、前記第1ハイパーパラメータの各次元の数値と同じであり、且つ各次元の数値の合計は、1である、第2決定モジュールと、予め設定されたシンプレックスの中心から頂点までの距離を決定し、前記距離を、前記第2ハイパーパラメータに対応する予め設定された閾値として決定するように構成される第3決定モジュールであって、前記予め設定されたシンプレックスの各辺長さは、予め設定された固定数値であり、且つ頂点の数は、前記正規化方式の数と同じであり、前記第2ハイパーパラメータは、0より大きくて前記予め設定された閾値以下である数値である、第3決定モジュールと、を備える。
本願の実施例において、前記第1計算サブモジュールは、前記第2ハイパーパラメータ及び前記学習パラメータに基づいて、第1サブ重みベクトルを決定するように構成される第4決定ユニットと、前記第1サブ重みベクトルと前記第1ハイパーパラメータとの距離が前記第2ハイパーパラメータ以上である場合、前記第1サブ重みベクトルを前記最終重みベクトルと決定するように構成される第5決定ユニットと、を備える。
本願の実施例において、前記装置は、
前記第1サブ重みベクトルと前記第1ハイパーパラメータとの距離が前記第2ハイパーパラメータ未満である場合、前記第1ハイパーパラメータ、前記第2ハイパーパラメータ及び前記第1サブ重みベクトルに基づいて、第2サブ重みベクトルを決定するように構成される第4決定モジュールと、第2サブ重みベクトルが0以上である場合、前記第2サブ重みベクトルを最終重みベクトルと決定するように構成される第5決定モジュールと、を更に備える。
本願の実施例において、前記装置は、前記第2サブ重みベクトルが0未満である場合、前記第2サブ重みベクトルに基づいて、前記第1ハイパーパラメータを更新し、更新された第1ハイパーパラメータを得るように構成される第1更新モジュールと、前記第2ハイパーパラメータ、前記更新された第1ハイパーパラメータ及び更新されていない第1ハイパーパラメータに基づいて、更新された第2ハイパーパラメータを決定するように構成される第6決定モジュールと、前記第2サブ重みベクトル及び前記学習パラメータに基づいて、第3サブ重みベクトルを決定するように構成される第7決定モジュールと、前記更新された第1ハイパーパラメータ、前記更新された第2ハイパーパラメータ及び前記第3サブ重みベクトルに基づいて、最終重みベクトルを決定するように構成される第8決定モジュールと、を更に備える。
本願の実施例において、前記第1正規化サブモジュールは、前記平均値最終重みベクトルにおける各次元での重みを前記平均値ベクトルにおける各次元での重みと一対一に対応するように乗算し、各次元で得られた積を加算し、正規化された平均値ベクトルを得るように構成される第1計算ユニットと、前記分散最終重みベクトルにおける各次元での重みを前記分散ベクトルにおける各次元での分散と一対一に対応するように乗算し、各次元で得られた積を加算し、正規化された分散ベクトルを得るように構成される第2計算ユニットと、を備える。
本願の実施例において、前記第4決定サブモジュールは、前記第1特徴マップと前記正規化された平均値ベクトルとの間の差の値を決定するように構成される第1差値算出ユニットと、前記正規化された分散ベクトルと予め設定された調整量との和に対応する平均分散を決定するように構成される第3計算ユニットと、前記平均分散に対する前記差の値の比率を決定するように構成される第4計算ユニットと、予め設定されたスケーリングパラメータを用いて前記比率をスケーリングし、スケーリングされた比率を得るように構成される第1スケーリングユニットと、予め設定されたシフトパラメータに応じて前記スケーリングされた比率を調整し、前記第2特徴マップを得るように構成される第1調整ユニットと、を備える。
上記装置の実施例に関する説明は、上記方法の実施例に関する説明と類似しており、方法の実施例と類似した有益な効果を有することに留意されたい。本願の装置の実施例で説明されない技術的な詳細については、本願の方法の実施例の説明を参照されたい。
本願の実施例において、上記画像処理方法がソフトウェア機能ユニットの形で実現され、かつ独立した製品として販売または使用されるとき、コンピュータにより読み取り可能な記憶媒体内に記憶されてもよいことに留意されたい。このような理解のもと、本発明の技術的解決手段は、本質的に、又は、従来技術に対して貢献をもたらした部分又は該技術的解決手段の一部は、ソフトウェア製品の形式で具現することができ、このようなコンピュータソフトウェア製品は、記憶媒体に記憶しても良く、また、一台の即時通信装置(端末、サーバ等)に、本発明の各実施例に記載の方法の全部又は一部のステップを実行させるための若干の命令を含む。前記の記憶媒体は、Uディスク、リムーバブルハードディスク、読み出し専用メモリ(Read-only Memory:ROM)、磁気ディスク又は光ディスなど、プログラムコードを記憶可能な各種の媒体を含む。従って、本願の実施例は、如何なる特定のハードウェアとソフトウェアの組み合わせにも限定されない。
なお、本願の実施例は、コンピュータ記憶媒体を提供する。前記コンピュータ記憶媒体にコンピュータ実行可能な命令が記憶されており、前記コンピュータ実行可能な命令が実行された後、本願の実施例で提供される画像処理方法におけるステップを実現させることができる。
本願の実施例は、コンピュータ機器を提供する。前記コンピュータ機器は、メモリと、プロセッサと、を備え、前記メモリにコンピュータ実行可能な命令が記憶されており、前記プロセッサが前記メモリにおけるコンピュータ実行可能な命令を実行する場合、本願の実施例で提供される画像処理方法におけるステップを実現させることができる。
図6は、本願の実施例によるコンピュータ機器の構造を示す概略図である。図6に示すように、該コンピュータ機器600のハードウェアエンティティは、プロセッサ601、通信インタフェース602及びメモリ603を備え、
プロセッサ601は、一般的には、コンピュータ機器600の全体的操作を制御する。
通信インタフェース602は、コンピュータ機器を、ネットワークを介して他の端末又はサーバと通信させる。
メモリ603は、プロセッサ601による実行可能な命令及びアプリケーションを記憶するように構成され、また、プロセッサ601及びコンピュータ機器600における各モジュールにより処理されるか又は処理されたデータ(例えば、画像データ、オーディオデータ、音声通信データ及びビデオ通信データ)をキャッシュすることもでき、フラッシュ(FLASH(登録商標))又はランダムアクセスメモリ(Random Access Memory:RAM)により実現することができる。
上記即時コンピュータ機器及び記憶媒体の実施例に関する説明は、上記方法の実施例に関する説明と類似しており、方法の実施例と類似した有益な効果を有する。本願の即時通信装置及び記憶媒体の実施例で説明されない技術的な詳細については、本願の方法の実施例の説明を参照されたい。
明細書全文を通じて述べられる「1つの実施例」または「一実施例」は、実施例に関連する特定の特徴、構造または特性が、本発明の少なくとも1つの実施例の中に含まれることを意味すると理解されたい。従って、本明細書全体を通して出現する「1つの実施例において」又は「一実施例において」は、同じ実施例を指すとは限らない。また、これらの特定の特徴、構造または特性は、任意かつ適切な方式で1つまたは複数の実施例に組み入れられることができる。本発明の各実施例において、上記各プロセスの番号の大きさは、実行順の前後を意味するのではなく、各プロセスの実行順は、その機能および内在的な論理によって確定されるものであり、本発明の実施例の実施プロセスに対しいっさい限定を構成しないと理解すべきである。上記の本発明に係る実施例の番号は、ただ、記述するためのものであり、実施例の優劣を代表しない。
本明細書において、用語「含む」、「備える」、またはそれらの他のいずれかの変形は、非排他的包含を包括するように意図される。従って、一連の要素を含むプロセス、方法、品目又は装置は、これらの要素を含むだけでなく、明確に列挙されていない他の要素も含み、又は、このようなプロセス、方法、品目又は装置に固有の要素も含む。更なる限定が存在しない場合、“・・・を含む”なる文章によって規定される要素は、該要素を有するプロセス、方法、品目又は装置内に、同じ要素が更に存在することを排除しない。
本願で提供される幾つかの実施例において、開示される装置及び方法は、他の方式によって実現できることを理解すべきである。例えば、以上に記載した装置の実施例はただ例示的なもので、例えば、前記ユニットの分割はただロジック機能の分割で、実際に実現する時は他の分割方式によってもよい。例えば、複数のユニット又は組立体を組み合わせてもよく、別のシステムに組み込んでもよい。又は若干の特徴を無視してもよく、実行しなくてもよい。また、示したか或いは検討した相互間の結合又は直接的な結合又は通信接続は、幾つかのインタフェース、装置又はユニットによる間接的な結合又は通信接続であってもよく、電気的、機械的または他の形態であってもよい。
分離部材として説明した該ユニットは、物理的に別個のものであってもよく、そうでなくてもよい。ユニットとして示された部材は、物理的ユニットであってもよく、そうでなくてもよい。即ち、同一の位置に位置してもよく、複数のネットワークに分布してもよい。実際の需要に応じてそのうちの一部又は全てのユニットにより本実施例の方策の目的を実現することができる。
また、本発明の各実施例における各機能ユニットは一つの処理ユニットに集積されてもよく、各ユニットが物理的に別個のものとして存在してもよく、2つ以上のユニットが一つのユニットに集積されてもよい。上記集積したユニットはハードウェアとして実現してもよく、ハードウェアとソフトウェア機能ユニットを組み合わせて実現してもよい。
上記各方法に係る実施例の全部又は一部のステップはプログラム命令に係るハードウェアにより実現され、前記プログラムはコンピュータ読み取り可能な記憶媒体に記憶され、該プログラムが実行される時、上記方法の実施例におけるステップを実行し、前記記憶媒体は、携帯型記憶装置、読み出し専用メモリ(Read-only Memory:ROM)、磁気ディスク又は光ディスクなど、プログラムコードを記憶可能な各種の媒体を含むことは、当業者であれば、理解すべてきである。
又は、本発明の上記集積したユニットがソフトウェア機能ユニットの形で実現され、かつ独立した製品として販売または使用されるとき、コンピュータにより読み取り可能な記憶媒体内に記憶されてもよい。このような理解のもと、本発明の技術的解決手段は、本質的に、又は、従来技術に対して貢献をもたらした部分又は該技術的解決手段の一部は、ソフトウェア製品の形式で具現することができ、このようなコンピュータソフトウェア製品は、記憶媒体に記憶しても良く、また、コンピュータ設備(パソコン又はサーバなど)に、本発明の各実施例に記載の方法の全部又は一部のステップを実行させるための若干の命令を含む。前記の記憶媒体は、携帯型記憶装置、ROM、磁気ディスク、又は光ディスクなど、プログラムコードを記憶可能な各種の媒体を含む。
以上は本発明の具体的な実施形態に過ぎず、本発明の保護の範囲はそれらに制限されるものではなく、当業者が本発明に開示された技術範囲内で容易に想到しうる変更や置換はいずれも、本発明の保護範囲内に含まれるべきである。従って、本発明の保護範囲は特許請求の範囲の保護範囲を基準とするべきである。
本願の実施例は、コンピュータプログラム製品を提供する。前記コンピュータプログラム製品は、コンピュータ実行可能な命令を含み、該コンピュータ実行可能な命令が、本願の実施例で提供される画像処理方法におけるステップを実施するために実行される。
例えば、本願は以下の項目を提供する。
(項目1)
画像処理方法であって、
処理されるべき画像の第1特徴マップを取得することと、
前記第1特徴マップの最終重みベクトルを決定することと、
前記最終重みベクトルに基づいて、予め設定された正規化集合から、前記第1特徴マップに対応するターゲット正規化方式を決定することと、
前記ターゲット正規化方式を用いて、前記第1特徴マップに対して正規化処理を行い、第2特徴マップを得ることと、を含む、前記方法。
(項目2)
前記処理されるべき画像の第1特徴マップを取得することは、
前記ニューラルネットワークにおける畳み込み層を利用して、前記処理されるべき画像に対して特徴抽出を行い、前記第1特徴マップを得ることを含み、
前記予め設定されたパラメータ集合は、第1ハイパーパラメータ、第2ハイパーパラメータ及び学習パラメータを含み、前記第1特徴マップの最終重みベクトルを決定することは、
前記予め設定されたパラメータ集合における第1ハイパーパラメータ、第2ハイパーパラメータ及び学習パラメータに基づいて、前記第1特徴マップの最終重みベクトルを算出することを含むことを特徴とする
項目1に記載の方法。
(項目3)
前記予め設定されたパラメータ集合における第1ハイパーパラメータ、第2ハイパーパラメータ及び学習パラメータに基づいて、第1特徴マップの最終重みベクトルを算出することは、
前記第1ハイパーパラメータ及び前記第2ハイパーパラメータに基づいて、予め設定された制約条件を決定することと、
前記予め設定された制約条件及び前記学習パラメータに基づいて、前記第1特徴マップの最終重みベクトルを決定することであって、前記学習パラメータは、前記第1特徴マップの最終重みベクトルを算出するためのものであり、前記第1ハイパーパラメータは、予め設定されたシンプレックスの中心を表すためのものであり、前記第2ハイパーパラメータは、前記最終重みベクトルの範囲を小さくするためのものである、ことと、を含むことを特徴とする
項目2に記載の方法。
(項目4)
前記予め設定された制約条件は、前記最終重みベクトルと前記第1ハイパーパラメータとの距離を、前記第2ハイパーパラメータの数値以上に限定するためのものであることを特徴とする
項目3に記載の方法。
(項目5)
前記第1特徴マップの最終重みベクトルを決定することは、前記第1特徴マップの平均値ベクトル及び分散ベクトルを決定することと、前記予め設定された制約条件及び前記学習パラメータに基づいて、前記平均値ベクトルに対応する平均値最終重みベクトル及び前記分散ベクトルに対応する分散最終重みベクトルをそれぞれ決定することと、を含み、
前記最終重みベクトルに基づいて、予め設定された正規化集合から、前記第1特徴マップに対応するターゲット正規化方式を決定することは、前記平均値最終重みベクトル及び前記分散最終重みベクトルに基づいて、平均値の第1サブ正規化方式及び分散の第2サブ正規化方式をそれぞれ決定することであって、前記第1サブ正規化方式は前記第2サブ正規化方式と同じであるか又は異なる、ことを含み、
前記ターゲット正規化方式を利用して、前記第1特徴マップに対して正規化処理を行い、第2特徴マップを得ることは、前記第1サブ正規化方式及び前記第2サブ正規化方式に基づいて、前記平均値ベクトル及び前記分散ベクトルに対してそれぞれ正規化を行い、正規化された平均値ベクトル及び正規化された分散ベクトルを得ることと、前記正規化された平均値ベクトル、前記正規化された分散ベクトル及び前記第1特徴マップに基づいて、前記第2特徴マップを得ることと、を含むことを特徴とする
項目1に記載の方法。
(項目6)
前記第1特徴マップの平均値ベクトル及び分散ベクトルを決定することは、
予め設定された正規化集合に基づいて、前記第1特徴マップの平均値ベクトル及び分散ベクトルを決定することを含み、
前記平均値ベクトルの次元数及び分散ベクトルの次元数は、いずれも前記予め設定された正規化集合における正規化方式の数と同じであり、
前記平均値ベクトルにおける第i次元での平均値は、前記予め設定された正規化集合におけるj番目の正規化方式に対応し、前記分散ベクトルにおける第i次元での分散は、前記予め設定された正規化集合におけるj番目の正規化方式に対応し、i及びjはいずれも0より大きくて前記予め設定された正規化集合における正規化方式の数より小さい整数であることを特徴とする
項目5に記載の方法。
(項目7)
前記方法は、
予め設定された正規化集合における正規化方式の数に基づいて、前記学習パラメータの次元数、前記第1ハイパーパラメータの次元数及び前記第1ハイパーパラメータにおける各次元での数値を決定することであって、前記第1ハイパーパラメータの各次元の数値の合計は、1であり、前記第1ハイパーパラメータの次元数は、前記学習パラメータの次元数と同じであり、前記第1ハイパーパラメータの各次元の数値と同じであり、且つ各次元の数値の合計は、1である、ことと、
予め設定されたシンプレックスの中心から頂点までの距離を決定し、前記距離を、前記第2ハイパーパラメータに対応する予め設定された閾値として決定することであって、前記予め設定されたシンプレックスの各辺長さは、予め設定された固定数値であり、且つ頂点の数は、前記正規化方式の数と同じであり、前記第2ハイパーパラメータは、0より大きくて前記予め設定された閾値以下である数値である、ことと、を含むことを特徴とする
項目2から6のうちいずれか一項に記載の方法。
(項目8)
前記予め設定されたパラメータ集合における第1ハイパーパラメータ、第2ハイパーパラメータ及び学習パラメータに基づいて、第1特徴マップの最終重みベクトルを算出することは、
前記第2ハイパーパラメータ及び前記学習パラメータに基づいて、第1サブ重みベクトルを決定することと、
前記第1サブ重みベクトルと前記第1ハイパーパラメータとの距離が前記第2ハイパーパラメータ以上である場合、前記第1サブ重みベクトルを前記最終重みベクトルと決定することと、を含むことを特徴とする
項目2に記載の方法。
(項目9)
前記第2ハイパーパラメータ及び前記学習パラメータに基づいて、第1サブ重みベクトルを決定した後、前記方法は、
前記第1サブ重みベクトルと前記第1ハイパーパラメータとの距離が前記第2ハイパーパラメータ未満である場合、前記第1ハイパーパラメータ、前記第2ハイパーパラメータ及び前記第1サブ重みベクトルに基づいて、第2サブ重みベクトルを決定することと、
第2サブ重みベクトルが0以上である場合、前記第2サブ重みベクトルを最終重みベクトルと決定することと、を更に含むことを特徴とする
項目8に記載の方法。
(項目10)
前記第1ハイパーパラメータ、前記第2ハイパーパラメータ及び前記第1サブ重みベクトルに基づいて、第2サブ重みベクトルを決定した後、前記方法は、
前記第2サブ重みベクトルが0未満である場合、前記第2サブ重みベクトルに基づいて、前記第1ハイパーパラメータを更新し、更新された第1ハイパーパラメータを得ることと、
前記第2ハイパーパラメータ、前記更新された第1ハイパーパラメータ及び更新されていない第1ハイパーパラメータに基づいて、更新された第2ハイパーパラメータを決定することと、
前記第2サブ重みベクトル及び前記学習パラメータに基づいて、第3サブ重みベクトルを決定することと、
前記更新された第1ハイパーパラメータ、前記更新された第2ハイパーパラメータ及び前記第3サブ重みベクトルに基づいて、最終重みベクトルを決定することと、を更に含むことを特徴とする
項目9に記載の方法。
(項目11)
前記第1サブ正規化方式及び前記第2サブ正規化方式に基づいて、前記平均値ベクトル及び前記分散ベクトルに対してそれぞれ正規化を行い、正規化された平均値ベクトル及び正規化された分散ベクトルを得ることは、
前記平均値最終重みベクトルにおける各次元での重みを前記平均値ベクトルにおける各次元での重みと一対一に対応するように乗算し、各次元で得られた積を加算し、正規化された平均値ベクトルを得ることと、
前記分散最終重みベクトルにおける各次元での重みを前記分散ベクトルにおける各次元での分散と一対一に対応するように乗算し、各次元で得られた積を加算し、正規化された分散ベクトルを得ることと、を含むことを特徴とする
項目5に記載の方法。
(項目12)
前記正規化された平均値ベクトル、正規化された分散ベクトル及び前記第1特徴マップに基づいて、前記第2特徴マップを得ることは、
前記第1特徴マップと前記正規化された平均値ベクトルとの間の差の値を決定することと、
前記正規化された分散ベクトルと予め設定された調整量との和に対応する平均分散を決定することと、
前記平均分散に対する前記差の値の比率を決定することと、
予め設定されたスケーリングパラメータを用いて前記比率をスケーリングし、スケーリングされた比率を得ることと、
予め設定されたシフトパラメータに応じて前記スケーリングされた比率を調整し、前記第2特徴マップを得ることと、を含むことを特徴とする
項目5に記載の方法。
(項目13)
画像処理装置であって、前記装置は、第1取得モジュールと、第1計算モジュールと、第1決定モジュールと、第1処理モジュールと、を備え、
前記第1取得モジュールは、処理されるべき画像の第1特徴マップを取得するように構成され、
前記第1取得モジュールは、前記第1特徴マップの最終重みベクトルを決定するように構成され、
前記第1決定モジュールは、前記最終重みベクトルに基づいて、予め設定された正規化集合から、前記第1特徴マップに対応するターゲット正規化方式を決定するように構成され、
前記第1処理モジュールは、前記ターゲット正規化方式を用いて、前記第1特徴マップに対して正規化処理を行い、第2特徴マップを得るように構成される、前記装置。
(項目14)
前記第1取得モジュールは、
前記ニューラルネットワークにおける畳み込み層を利用して、前記処理されるべき画像に対して特徴抽出を行い、前記第1特徴マップを得るように構成される第1抽出サブモジュールを備え、
前記予め設定されたパラメータ集合は、第1ハイパーパラメータ、第2ハイパーパラメータ及び学習パラメータを含み、前記第1計算モジュールは、
前記予め設定されたパラメータ集合における第1ハイパーパラメータ、第2ハイパーパラメータ及び学習パラメータに基づいて、前記第1特徴マップの最終重みベクトルを算出するように構成される第1計算サブモジュールを備えることを特徴とする
項目13に記載の装置。
(項目15)
前記第1計算サブモジュールは、
前記第1ハイパーパラメータ及び前記第2ハイパーパラメータに基づいて、予め設定された制約条件を決定するように構成される第1決定ユニットと、
前記予め設定された制約条件及び前記学習パラメータに基づいて、前記第1特徴マップの最終重みベクトルを決定するように構成される第2決定ユニットであって、前記学習パラメータは、前記第1特徴マップの最終重みベクトルを算出するためのものであり、前記第1ハイパーパラメータは、予め設定されたシンプレックスの中心を表すためのものであり、前記第2ハイパーパラメータは、前記最終重みベクトルの範囲を小さくするためのものである、第2決定ユニットと、を備えることを特徴とする
項目14に記載の装置。
(項目16)
前記予め設定された制約条件は、前記最終重みベクトルと前記第1ハイパーパラメータとの距離を前記第2ハイパーパラメータの数値以上に限定するためのものであることを特徴とする
項目15に記載の装置。
(項目17)
前記第1取得モジュールは、前記第1特徴マップの平均値ベクトル及び分散ベクトルを決定するように構成される第1決定サブモジュールと、
前記予め設定された制約条件及び前記学習パラメータに基づいて、前記平均値ベクトルに対応する平均値最終重みベクトル及び前記分散ベクトルに対応する分散最終重みベクトルをそれぞれ決定するように構成される第2決定サブモジュールと、を備え、
前記第1決定モジュールは、前記平均値最終重みベクトル及び前記分散最終重みベクトルに基づいて、平均値の第1サブ正規化方式及び分散の第2サブ正規化方式をそれぞれ決定するように構成される第3決定サブモジュールであって、前記第1サブ正規化方式は前記第2サブ正規化方式と同じであるか又は異なる、第3決定サブモジュールを備え、
前記第1処理モジュールは、前記第1サブ正規化方式及び前記第2サブ正規化方式に基づいて、前記平均値ベクトル及び前記分散ベクトルに対してそれぞれ正規化を行い、正規化された平均値ベクトル及び正規化された分散ベクトルを得るように構成される第1正規化サブモジュールと、
前記正規化された平均値ベクトル、前記正規化された分散ベクトル及び前記第1特徴マップに基づいて、前記第2特徴マップを得るように構成される第4決定サブモジュールと、を備えることを特徴とする
項目13に記載の装置。
(項目18)
前記第1決定サブモジュールは、
予め設定された正規化集合に基づいて、前記第1特徴マップの平均値ベクトル及び分散ベクトルを決定するように構成される第3決定ユニットを備え、
前記平均値ベクトルの次元数及び分散ベクトルの次元数は、いずれも前記予め設定された正規化集合における正規化方式の数と同じであり、
前記平均値ベクトルにおける第i次元での平均値は、前記予め設定された正規化集合におけるj番目の正規化方式に対応し、前記分散ベクトルにおける第i次元での分散は、前記予め設定された正規化集合におけるj番目の正規化方式に対応し、i及びjはいずれも0より大きくて前記予め設定された正規化集合における正規化方式の数より小さい整数であることを特徴とする
項目17に記載の装置。
(項目19)
前記装置は、
予め設定された正規化集合における正規化方式の数に基づいて、前記学習パラメータの次元数、前記第1ハイパーパラメータの次元数及び前記第1ハイパーパラメータにおける各次元での数値を決定するように構成される第2決定モジュールであって、前記第1ハイパーパラメータの各次元の数値の合計は、1であり、前記第1ハイパーパラメータの次元数は、前記学習パラメータの次元数と同じであり、前記第1ハイパーパラメータの各次元の数値と同じであり、且つ各次元の数値の合計は、1である、第2決定モジュールと、
予め設定されたシンプレックスの中心から頂点までの距離を決定し、前記距離を、前記第2ハイパーパラメータに対応する予め設定された閾値として決定するように構成される第3決定モジュールであって、前記予め設定されたシンプレックスの各辺長さは、予め設定された固定数値であり、且つ頂点の数は、前記正規化方式の数と同じであり、前記第2ハイパーパラメータは、0より大きくて前記予め設定された閾値以下である数値である、第3決定モジュールと、を備えることを特徴とする
項目14から18のうちいずれか一項に記載の装置。
(項目20)
前記第1計算サブモジュールは、
前記第2ハイパーパラメータ及び前記学習パラメータに基づいて、第1サブ重みベクトルを決定するように構成される第4決定ユニットと、
前記第1サブ重みベクトルと前記第1ハイパーパラメータとの距離が前記第2ハイパーパラメータ以上である場合、前記第1サブ重みベクトルを前記最終重みベクトルと決定するように構成される第5決定ユニットと、を備えることを特徴とする
項目14に記載の装置。
(項目21)
前記装置は、
前記第1サブ重みベクトルと前記第1ハイパーパラメータとの距離が前記第2ハイパーパラメータ未満である場合、前記第1ハイパーパラメータ、前記第2ハイパーパラメータ及び前記第1サブ重みベクトルに基づいて、第2サブ重みベクトルを決定するように構成される第4決定モジュールと、
第2サブ重みベクトルが0以上である場合、前記第2サブ重みベクトルを最終重みベクトルと決定するように構成される第5決定モジュールと、を更に備えることを特徴とする
項目20に記載の装置。
(項目22)
前記装置は、
前記第2サブ重みベクトルが0未満である場合、前記第2サブ重みベクトルに基づいて、前記第1ハイパーパラメータを更新し、更新された第1ハイパーパラメータを得るように構成される第1更新モジュールと、
前記第2ハイパーパラメータ、前記更新された第1ハイパーパラメータ及び更新されていない第1ハイパーパラメータに基づいて、更新された第2ハイパーパラメータを決定するように構成される第6決定モジュールと、
前記第2サブ重みベクトル及び前記学習パラメータに基づいて、第3サブ重みベクトルを決定するように構成される第7決定モジュールと、
前記更新された第1ハイパーパラメータ、前記更新された第2ハイパーパラメータ及び前記第3サブ重みベクトルに基づいて、最終重みベクトルを決定するように構成される第8決定モジュールと、を更に備えることを特徴とする
項目21に記載の装置。
(項目23)
前記第1正規化サブモジュールは、
前記平均値最終重みベクトルにおける各次元での重みを前記平均値ベクトルにおける各次元での重みと一対一に対応するように乗算し、各次元で得られた積を加算し、正規化された平均値ベクトルを得るように構成される第1計算ユニットと、
前記分散最終重みベクトルにおける各次元での重みを前記分散ベクトルにおける各次元での分散と一対一に対応するように乗算し、各次元で得られた積を加算し、正規化された分散ベクトルを得るように構成される第2計算ユニットと、を備えることを特徴とする
項目17に記載の装置。
(項目24)
前記第4決定サブモジュールは、
前記第1特徴マップと前記正規化された平均値ベクトルとの間の差の値を決定するように構成される第1差値算出ユニットと、
前記正規化された分散ベクトルと予め設定された調整量との和に対応する平均分散を決定するように構成される第3計算ユニットと、
前記平均分散に対する前記差の値の比率を決定するように構成される第4計算ユニットと、
予め設定されたスケーリングパラメータを用いて前記比率をスケーリングし、スケーリングされた比率を得るように構成される第1スケーリングユニットと、
予め設定されたシフトパラメータに応じて前記スケーリングされた比率を調整し、前記第2特徴マップを得るように構成される第1調整ユニットと、を備えることを特徴とする
項目17に記載の装置。
(項目25)
コンピュータ実行可能な命令を記憶するコンピュータ記憶媒体であって、前記コンピュータ実行可能な命令が、項目1から12のうちいずれか一項に記載の方法のステップを実施するために実行される、前記コンピュータ記憶媒体。
(項目26)
メモリ及びプロセッサを備えるコンピュータ機器であって、前記メモリに、コンピュータ実行可能な命令が記憶されており、前記プロセッサが前記メモリにおけるコンピュータ実行可能な命令を実行して、項目1から12のうちいずれか一項に記載の方法のステップを実施する、前記コンピュータ機器。
(項目27)
コンピュータ実行可能な命令を含むコンピュータプログラム製品であって、前記コンピュータ実行可能な命令が、項目1から12のうちいずれか一項に記載の方法のステップを実施するために実行される、前記コンピュータプログラム製品。

Claims (27)

  1. 画像処理方法であって、
    処理されるべき画像の第1特徴マップを取得することと、
    前記第1特徴マップの最終重みベクトルを決定することと、
    前記最終重みベクトルに基づいて、予め設定された正規化集合から、前記第1特徴マップに対応するターゲット正規化方式を決定することと、
    前記ターゲット正規化方式を用いて、前記第1特徴マップに対して正規化処理を行い、第2特徴マップを得ることと、を含む、前記方法。
  2. 前記処理されるべき画像の第1特徴マップを取得することは、
    前記ニューラルネットワークにおける畳み込み層を利用して、前記処理されるべき画像に対して特徴抽出を行い、前記第1特徴マップを得ることを含み、
    前記予め設定されたパラメータ集合は、第1ハイパーパラメータ、第2ハイパーパラメータ及び学習パラメータを含み、前記第1特徴マップの最終重みベクトルを決定することは、
    前記予め設定されたパラメータ集合における第1ハイパーパラメータ、第2ハイパーパラメータ及び学習パラメータに基づいて、前記第1特徴マップの最終重みベクトルを算出することを含むことを特徴とする
    請求項1に記載の方法。
  3. 前記予め設定されたパラメータ集合における第1ハイパーパラメータ、第2ハイパーパラメータ及び学習パラメータに基づいて、第1特徴マップの最終重みベクトルを算出することは、
    前記第1ハイパーパラメータ及び前記第2ハイパーパラメータに基づいて、予め設定された制約条件を決定することと、
    前記予め設定された制約条件及び前記学習パラメータに基づいて、前記第1特徴マップの最終重みベクトルを決定することであって、前記学習パラメータは、前記第1特徴マップの最終重みベクトルを算出するためのものであり、前記第1ハイパーパラメータは、予め設定されたシンプレックスの中心を表すためのものであり、前記第2ハイパーパラメータは、前記最終重みベクトルの範囲を小さくするためのものである、ことと、を含むことを特徴とする
    請求項2に記載の方法。
  4. 前記予め設定された制約条件は、前記最終重みベクトルと前記第1ハイパーパラメータとの距離を、前記第2ハイパーパラメータの数値以上に限定するためのものであることを特徴とする
    請求項3に記載の方法。
  5. 前記第1特徴マップの最終重みベクトルを決定することは、前記第1特徴マップの平均値ベクトル及び分散ベクトルを決定することと、前記予め設定された制約条件及び前記学習パラメータに基づいて、前記平均値ベクトルに対応する平均値最終重みベクトル及び前記分散ベクトルに対応する分散最終重みベクトルをそれぞれ決定することと、を含み、
    前記最終重みベクトルに基づいて、予め設定された正規化集合から、前記第1特徴マップに対応するターゲット正規化方式を決定することは、前記平均値最終重みベクトル及び前記分散最終重みベクトルに基づいて、平均値の第1サブ正規化方式及び分散の第2サブ正規化方式をそれぞれ決定することであって、前記第1サブ正規化方式は前記第2サブ正規化方式と同じであるか又は異なる、ことを含み、
    前記ターゲット正規化方式を利用して、前記第1特徴マップに対して正規化処理を行い、第2特徴マップを得ることは、前記第1サブ正規化方式及び前記第2サブ正規化方式に基づいて、前記平均値ベクトル及び前記分散ベクトルに対してそれぞれ正規化を行い、正規化された平均値ベクトル及び正規化された分散ベクトルを得ることと、前記正規化された平均値ベクトル、前記正規化された分散ベクトル及び前記第1特徴マップに基づいて、前記第2特徴マップを得ることと、を含むことを特徴とする
    請求項1に記載の方法。
  6. 前記第1特徴マップの平均値ベクトル及び分散ベクトルを決定することは、
    予め設定された正規化集合に基づいて、前記第1特徴マップの平均値ベクトル及び分散ベクトルを決定することを含み、
    前記平均値ベクトルの次元数及び分散ベクトルの次元数は、いずれも前記予め設定された正規化集合における正規化方式の数と同じであり、
    前記平均値ベクトルにおける第i次元での平均値は、前記予め設定された正規化集合におけるj番目の正規化方式に対応し、前記分散ベクトルにおける第i次元での分散は、前記予め設定された正規化集合におけるj番目の正規化方式に対応し、i及びjはいずれも0より大きくて前記予め設定された正規化集合における正規化方式の数より小さい整数であることを特徴とする
    請求項5に記載の方法。
  7. 前記方法は、
    予め設定された正規化集合における正規化方式の数に基づいて、前記学習パラメータの次元数、前記第1ハイパーパラメータの次元数及び前記第1ハイパーパラメータにおける各次元での数値を決定することであって、前記第1ハイパーパラメータの各次元の数値の合計は、1であり、前記第1ハイパーパラメータの次元数は、前記学習パラメータの次元数と同じであり、前記第1ハイパーパラメータの各次元の数値と同じであり、且つ各次元の数値の合計は、1である、ことと、
    予め設定されたシンプレックスの中心から頂点までの距離を決定し、前記距離を、前記第2ハイパーパラメータに対応する予め設定された閾値として決定することであって、前記予め設定されたシンプレックスの各辺長さは、予め設定された固定数値であり、且つ頂点の数は、前記正規化方式の数と同じであり、前記第2ハイパーパラメータは、0より大きくて前記予め設定された閾値以下である数値である、ことと、を含むことを特徴とする
    請求項2から6のうちいずれか一項に記載の方法。
  8. 前記予め設定されたパラメータ集合における第1ハイパーパラメータ、第2ハイパーパラメータ及び学習パラメータに基づいて、第1特徴マップの最終重みベクトルを算出することは、
    前記第2ハイパーパラメータ及び前記学習パラメータに基づいて、第1サブ重みベクトルを決定することと、
    前記第1サブ重みベクトルと前記第1ハイパーパラメータとの距離が前記第2ハイパーパラメータ以上である場合、前記第1サブ重みベクトルを前記最終重みベクトルと決定することと、を含むことを特徴とする
    請求項2に記載の方法。
  9. 前記第2ハイパーパラメータ及び前記学習パラメータに基づいて、第1サブ重みベクトルを決定した後、前記方法は、
    前記第1サブ重みベクトルと前記第1ハイパーパラメータとの距離が前記第2ハイパーパラメータ未満である場合、前記第1ハイパーパラメータ、前記第2ハイパーパラメータ及び前記第1サブ重みベクトルに基づいて、第2サブ重みベクトルを決定することと、
    第2サブ重みベクトルが0以上である場合、前記第2サブ重みベクトルを最終重みベクトルと決定することと、を更に含むことを特徴とする
    請求項8に記載の方法。
  10. 前記第1ハイパーパラメータ、前記第2ハイパーパラメータ及び前記第1サブ重みベクトルに基づいて、第2サブ重みベクトルを決定した後、前記方法は、
    前記第2サブ重みベクトルが0未満である場合、前記第2サブ重みベクトルに基づいて、前記第1ハイパーパラメータを更新し、更新された第1ハイパーパラメータを得ることと、
    前記第2ハイパーパラメータ、前記更新された第1ハイパーパラメータ及び更新されていない第1ハイパーパラメータに基づいて、更新された第2ハイパーパラメータを決定することと、
    前記第2サブ重みベクトル及び前記学習パラメータに基づいて、第3サブ重みベクトルを決定することと、
    前記更新された第1ハイパーパラメータ、前記更新された第2ハイパーパラメータ及び前記第3サブ重みベクトルに基づいて、最終重みベクトルを決定することと、を更に含むことを特徴とする
    請求項9に記載の方法。
  11. 前記第1サブ正規化方式及び前記第2サブ正規化方式に基づいて、前記平均値ベクトル及び前記分散ベクトルに対してそれぞれ正規化を行い、正規化された平均値ベクトル及び正規化された分散ベクトルを得ることは、
    前記平均値最終重みベクトルにおける各次元での重みを前記平均値ベクトルにおける各次元での重みと一対一に対応するように乗算し、各次元で得られた積を加算し、正規化された平均値ベクトルを得ることと、
    前記分散最終重みベクトルにおける各次元での重みを前記分散ベクトルにおける各次元での分散と一対一に対応するように乗算し、各次元で得られた積を加算し、正規化された分散ベクトルを得ることと、を含むことを特徴とする
    請求項5に記載の方法。
  12. 前記正規化された平均値ベクトル、正規化された分散ベクトル及び前記第1特徴マップに基づいて、前記第2特徴マップを得ることは、
    前記第1特徴マップと前記正規化された平均値ベクトルとの間の差の値を決定することと、
    前記正規化された分散ベクトルと予め設定された調整量との和に対応する平均分散を決定することと、
    前記平均分散に対する前記差の値の比率を決定することと、
    予め設定されたスケーリングパラメータを用いて前記比率をスケーリングし、スケーリングされた比率を得ることと、
    予め設定されたシフトパラメータに応じて前記スケーリングされた比率を調整し、前記第2特徴マップを得ることと、を含むことを特徴とする
    請求項5に記載の方法。
  13. 画像処理装置であって、前記装置は、第1取得モジュールと、第1計算モジュールと、第1決定モジュールと、第1処理モジュールと、を備え、
    前記第1取得モジュールは、処理されるべき画像の第1特徴マップを取得するように構成され、
    前記第1取得モジュールは、前記第1特徴マップの最終重みベクトルを決定するように構成され、
    前記第1決定モジュールは、前記最終重みベクトルに基づいて、予め設定された正規化集合から、前記第1特徴マップに対応するターゲット正規化方式を決定するように構成され、
    前記第1処理モジュールは、前記ターゲット正規化方式を用いて、前記第1特徴マップに対して正規化処理を行い、第2特徴マップを得るように構成される、前記装置。
  14. 前記第1取得モジュールは、
    前記ニューラルネットワークにおける畳み込み層を利用して、前記処理されるべき画像に対して特徴抽出を行い、前記第1特徴マップを得るように構成される第1抽出サブモジュールを備え、
    前記予め設定されたパラメータ集合は、第1ハイパーパラメータ、第2ハイパーパラメータ及び学習パラメータを含み、前記第1計算モジュールは、
    前記予め設定されたパラメータ集合における第1ハイパーパラメータ、第2ハイパーパラメータ及び学習パラメータに基づいて、前記第1特徴マップの最終重みベクトルを算出するように構成される第1計算サブモジュールを備えることを特徴とする
    請求項13に記載の装置。
  15. 前記第1計算サブモジュールは、
    前記第1ハイパーパラメータ及び前記第2ハイパーパラメータに基づいて、予め設定された制約条件を決定するように構成される第1決定ユニットと、
    前記予め設定された制約条件及び前記学習パラメータに基づいて、前記第1特徴マップの最終重みベクトルを決定するように構成される第2決定ユニットであって、前記学習パラメータは、前記第1特徴マップの最終重みベクトルを算出するためのものであり、前記第1ハイパーパラメータは、予め設定されたシンプレックスの中心を表すためのものであり、前記第2ハイパーパラメータは、前記最終重みベクトルの範囲を小さくするためのものである、第2決定ユニットと、を備えることを特徴とする
    請求項14に記載の装置。
  16. 前記予め設定された制約条件は、前記最終重みベクトルと前記第1ハイパーパラメータとの距離を前記第2ハイパーパラメータの数値以上に限定するためのものであることを特徴とする
    請求項15に記載の装置。
  17. 前記第1取得モジュールは、前記第1特徴マップの平均値ベクトル及び分散ベクトルを決定するように構成される第1決定サブモジュールと、
    前記予め設定された制約条件及び前記学習パラメータに基づいて、前記平均値ベクトルに対応する平均値最終重みベクトル及び前記分散ベクトルに対応する分散最終重みベクトルをそれぞれ決定するように構成される第2決定サブモジュールと、を備え、
    前記第1決定モジュールは、前記平均値最終重みベクトル及び前記分散最終重みベクトルに基づいて、平均値の第1サブ正規化方式及び分散の第2サブ正規化方式をそれぞれ決定するように構成される第3決定サブモジュールであって、前記第1サブ正規化方式は前記第2サブ正規化方式と同じであるか又は異なる、第3決定サブモジュールを備え、
    前記第1処理モジュールは、前記第1サブ正規化方式及び前記第2サブ正規化方式に基づいて、前記平均値ベクトル及び前記分散ベクトルに対してそれぞれ正規化を行い、正規化された平均値ベクトル及び正規化された分散ベクトルを得るように構成される第1正規化サブモジュールと、
    前記正規化された平均値ベクトル、前記正規化された分散ベクトル及び前記第1特徴マップに基づいて、前記第2特徴マップを得るように構成される第4決定サブモジュールと、を備えることを特徴とする
    請求項13に記載の装置。
  18. 前記第1決定サブモジュールは、
    予め設定された正規化集合に基づいて、前記第1特徴マップの平均値ベクトル及び分散ベクトルを決定するように構成される第3決定ユニットを備え、
    前記平均値ベクトルの次元数及び分散ベクトルの次元数は、いずれも前記予め設定された正規化集合における正規化方式の数と同じであり、
    前記平均値ベクトルにおける第i次元での平均値は、前記予め設定された正規化集合におけるj番目の正規化方式に対応し、前記分散ベクトルにおける第i次元での分散は、前記予め設定された正規化集合におけるj番目の正規化方式に対応し、i及びjはいずれも0より大きくて前記予め設定された正規化集合における正規化方式の数より小さい整数であることを特徴とする
    請求項17に記載の装置。
  19. 前記装置は、
    予め設定された正規化集合における正規化方式の数に基づいて、前記学習パラメータの次元数、前記第1ハイパーパラメータの次元数及び前記第1ハイパーパラメータにおける各次元での数値を決定するように構成される第2決定モジュールであって、前記第1ハイパーパラメータの各次元の数値の合計は、1であり、前記第1ハイパーパラメータの次元数は、前記学習パラメータの次元数と同じであり、前記第1ハイパーパラメータの各次元の数値と同じであり、且つ各次元の数値の合計は、1である、第2決定モジュールと、
    予め設定されたシンプレックスの中心から頂点までの距離を決定し、前記距離を、前記第2ハイパーパラメータに対応する予め設定された閾値として決定するように構成される第3決定モジュールであって、前記予め設定されたシンプレックスの各辺長さは、予め設定された固定数値であり、且つ頂点の数は、前記正規化方式の数と同じであり、前記第2ハイパーパラメータは、0より大きくて前記予め設定された閾値以下である数値である、第3決定モジュールと、を備えることを特徴とする
    請求項14から18のうちいずれか一項に記載の装置。
  20. 前記第1計算サブモジュールは、
    前記第2ハイパーパラメータ及び前記学習パラメータに基づいて、第1サブ重みベクトルを決定するように構成される第4決定ユニットと、
    前記第1サブ重みベクトルと前記第1ハイパーパラメータとの距離が前記第2ハイパーパラメータ以上である場合、前記第1サブ重みベクトルを前記最終重みベクトルと決定するように構成される第5決定ユニットと、を備えることを特徴とする
    請求項14に記載の装置。
  21. 前記装置は、
    前記第1サブ重みベクトルと前記第1ハイパーパラメータとの距離が前記第2ハイパーパラメータ未満である場合、前記第1ハイパーパラメータ、前記第2ハイパーパラメータ及び前記第1サブ重みベクトルに基づいて、第2サブ重みベクトルを決定するように構成される第4決定モジュールと、
    第2サブ重みベクトルが0以上である場合、前記第2サブ重みベクトルを最終重みベクトルと決定するように構成される第5決定モジュールと、を更に備えることを特徴とする
    請求項20に記載の装置。
  22. 前記装置は、
    前記第2サブ重みベクトルが0未満である場合、前記第2サブ重みベクトルに基づいて、前記第1ハイパーパラメータを更新し、更新された第1ハイパーパラメータを得るように構成される第1更新モジュールと、
    前記第2ハイパーパラメータ、前記更新された第1ハイパーパラメータ及び更新されていない第1ハイパーパラメータに基づいて、更新された第2ハイパーパラメータを決定するように構成される第6決定モジュールと、
    前記第2サブ重みベクトル及び前記学習パラメータに基づいて、第3サブ重みベクトルを決定するように構成される第7決定モジュールと、
    前記更新された第1ハイパーパラメータ、前記更新された第2ハイパーパラメータ及び前記第3サブ重みベクトルに基づいて、最終重みベクトルを決定するように構成される第8決定モジュールと、を更に備えることを特徴とする
    請求項21に記載の装置。
  23. 前記第1正規化サブモジュールは、
    前記平均値最終重みベクトルにおける各次元での重みを前記平均値ベクトルにおける各次元での重みと一対一に対応するように乗算し、各次元で得られた積を加算し、正規化された平均値ベクトルを得るように構成される第1計算ユニットと、
    前記分散最終重みベクトルにおける各次元での重みを前記分散ベクトルにおける各次元での分散と一対一に対応するように乗算し、各次元で得られた積を加算し、正規化された分散ベクトルを得るように構成される第2計算ユニットと、を備えることを特徴とする
    請求項17に記載の装置。
  24. 前記第4決定サブモジュールは、
    前記第1特徴マップと前記正規化された平均値ベクトルとの間の差の値を決定するように構成される第1差値算出ユニットと、
    前記正規化された分散ベクトルと予め設定された調整量との和に対応する平均分散を決定するように構成される第3計算ユニットと、
    前記平均分散に対する前記差の値の比率を決定するように構成される第4計算ユニットと、
    予め設定されたスケーリングパラメータを用いて前記比率をスケーリングし、スケーリングされた比率を得るように構成される第1スケーリングユニットと、
    予め設定されたシフトパラメータに応じて前記スケーリングされた比率を調整し、前記第2特徴マップを得るように構成される第1調整ユニットと、を備えることを特徴とする
    請求項17に記載の装置。
  25. コンピュータ実行可能な命令を記憶するコンピュータ記憶媒体であって、前記コンピュータ実行可能な命令が、請求項1から12のうちいずれか一項に記載の方法のステップを実施するために実行される、前記コンピュータ記憶媒体。
  26. メモリ及びプロセッサを備えるコンピュータ機器であって、前記メモリに、コンピュータ実行可能な命令が記憶されており、前記プロセッサが前記メモリにおけるコンピュータ実行可能な命令を実行して、請求項1から12のうちいずれか一項に記載の方法のステップを実施する、前記コンピュータ機器。
  27. コンピュータ実行可能な命令を含むコンピュータプログラム製品であって、前記コンピュータ実行可能な命令が、請求項1から12のうちいずれか一項に記載の方法のステップを実施するために実行される、前記コンピュータプログラム製品。
JP2021537467A 2019-01-29 2019-10-31 画像処理方法及び装置、コンピュータ機器並びにコンピュータ記憶媒体 Active JP7076648B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910087398.XA CN109784420B (zh) 2019-01-29 2019-01-29 一种图像处理方法及装置、计算机设备和存储介质
CN201910087398.X 2019-01-29
PCT/CN2019/114721 WO2020155712A1 (zh) 2019-01-29 2019-10-31 图像处理方法、装置、计算机设备和计算机存储介质

Publications (2)

Publication Number Publication Date
JP2022500798A true JP2022500798A (ja) 2022-01-04
JP7076648B2 JP7076648B2 (ja) 2022-05-27

Family

ID=66503596

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021537467A Active JP7076648B2 (ja) 2019-01-29 2019-10-31 画像処理方法及び装置、コンピュータ機器並びにコンピュータ記憶媒体

Country Status (6)

Country Link
US (1) US20210158088A1 (ja)
JP (1) JP7076648B2 (ja)
CN (1) CN109784420B (ja)
SG (1) SG11202102380TA (ja)
TW (1) TWI712960B (ja)
WO (1) WO2020155712A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109784420B (zh) * 2019-01-29 2021-12-28 深圳市商汤科技有限公司 一种图像处理方法及装置、计算机设备和存储介质
CN110348537B (zh) * 2019-07-18 2022-11-29 北京市商汤科技开发有限公司 图像处理方法及装置、电子设备和存储介质
CN111062429A (zh) * 2019-12-12 2020-04-24 上海点泽智能科技有限公司 基于深度学习的厨师帽和口罩佩戴的检测方法
CN111325222A (zh) * 2020-02-27 2020-06-23 深圳市商汤科技有限公司 图像归一化处理方法及装置、存储介质
CN112000756A (zh) * 2020-08-21 2020-11-27 上海商汤智能科技有限公司 轨迹预测的方法、装置、电子设备及存储介质
EP4276692A1 (en) * 2022-05-13 2023-11-15 Robert Bosch GmbH Neural network layer for non-linear normalization

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003346083A (ja) * 2002-05-27 2003-12-05 Canon Inc 文字認識装置、文字認識方法、プログラムおよび記憶媒体、および文字認識システム
CN103902737A (zh) * 2014-04-22 2014-07-02 上海理工大学 基于群智能算法的投影寻踪分类建模软件及实现
US20170220905A1 (en) * 2014-05-17 2017-08-03 Beijing University Of Technology Feature grouping normalization method for cognitive state recognition
CN107193993A (zh) * 2017-06-06 2017-09-22 苏州大学 基于局部学习特征权重选择的医疗数据分类方法及装置
CN108921283A (zh) * 2018-06-13 2018-11-30 深圳市商汤科技有限公司 深度神经网络的归一化方法和装置、设备、存储介质
KR20180130869A (ko) * 2017-05-30 2018-12-10 주식회사 케이티 손 제스처를 검출하는 컨볼루션 신경망, 그리고 손 제스처에 의한 기기 제어시스템

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL107996A0 (en) * 1993-12-12 1994-05-30 P Inspection Ltd As Apparatus and method for signal processing
US8923650B2 (en) * 2013-01-07 2014-12-30 Wexenergy Innovations Llc System and method of measuring distances related to an object
US10325351B2 (en) * 2016-03-11 2019-06-18 Qualcomm Technologies, Inc. Systems and methods for normalizing an image
KR102662949B1 (ko) * 2016-11-24 2024-05-02 엘지전자 주식회사 인공지능 이동 로봇 및 그 제어방법
US10963737B2 (en) * 2017-08-01 2021-03-30 Retina-Al Health, Inc. Systems and methods using weighted-ensemble supervised-learning for automatic detection of ophthalmic disease from images
CN107808138B (zh) * 2017-10-31 2021-03-30 电子科技大学 一种基于FasterR-CNN的通信信号识别方法
CN108200522B (zh) * 2017-11-24 2020-02-18 华侨大学 一种变正则化比例归一化子带自适应滤波方法
CN108764357A (zh) * 2018-05-31 2018-11-06 西安电子科技大学 基于压缩-激发的聚合残差网络高光谱图像分类方法
CN109003265B (zh) * 2018-07-09 2022-02-11 嘉兴学院 一种基于贝叶斯压缩感知的无参考图像质量客观评价方法
CN109255381B (zh) * 2018-09-06 2022-03-29 华南理工大学 一种基于二阶vlad稀疏自适应深度网络的图像分类方法
CN109784420B (zh) * 2019-01-29 2021-12-28 深圳市商汤科技有限公司 一种图像处理方法及装置、计算机设备和存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003346083A (ja) * 2002-05-27 2003-12-05 Canon Inc 文字認識装置、文字認識方法、プログラムおよび記憶媒体、および文字認識システム
CN103902737A (zh) * 2014-04-22 2014-07-02 上海理工大学 基于群智能算法的投影寻踪分类建模软件及实现
US20170220905A1 (en) * 2014-05-17 2017-08-03 Beijing University Of Technology Feature grouping normalization method for cognitive state recognition
KR20180130869A (ko) * 2017-05-30 2018-12-10 주식회사 케이티 손 제스처를 검출하는 컨볼루션 신경망, 그리고 손 제스처에 의한 기기 제어시스템
CN107193993A (zh) * 2017-06-06 2017-09-22 苏州大学 基于局部学习特征权重选择的医疗数据分类方法及装置
CN108921283A (zh) * 2018-06-13 2018-11-30 深圳市商汤科技有限公司 深度神经网络的归一化方法和装置、设备、存储介质

Also Published As

Publication number Publication date
TW202029074A (zh) 2020-08-01
SG11202102380TA (en) 2021-04-29
WO2020155712A1 (zh) 2020-08-06
TWI712960B (zh) 2020-12-11
CN109784420B (zh) 2021-12-28
CN109784420A (zh) 2019-05-21
US20210158088A1 (en) 2021-05-27
JP7076648B2 (ja) 2022-05-27

Similar Documents

Publication Publication Date Title
JP7076648B2 (ja) 画像処理方法及び装置、コンピュータ機器並びにコンピュータ記憶媒体
CN110503192A (zh) 资源有效的神经架构
TW201918939A (zh) 用於學習低精度神經網路的方法及裝置
US11983632B2 (en) Generating and utilizing pruned neural networks
US20230267730A1 (en) Image abnormality detection model training
WO2022105108A1 (zh) 一种网络数据分类方法、装置、设备及可读存储介质
US11704570B2 (en) Learning device, learning system, and learning method
WO2019154411A1 (zh) 词向量更新方法和装置
US20200193270A1 (en) Low precision and coarse-to-fine dynamic fixed-point quantization design in convolution neural network
CN113486963A (zh) 一种密度自适应的点云端到端采样方法
CN116188878A (zh) 基于神经网络结构微调的图像分类方法、装置和存储介质
WO2019234156A1 (en) Training spectral inference neural networks using bilevel optimization
WO2020195940A1 (ja) ニューラルネットワークのモデル縮約装置
CN112257466A (zh) 一种应用于小型机器翻译设备的模型压缩方法
US7933449B2 (en) Pattern recognition method
CN111210439B (zh) 通过抑制非感兴趣信息的语义分割方法、设备及存储设备
US20200372363A1 (en) Method of Training Artificial Neural Network Using Sparse Connectivity Learning
WO2022197615A1 (en) Techniques for adaptive generation and visualization of quantized neural networks
CN110826726B (zh) 目标处理方法、目标处理装置、目标处理设备及介质
CN114065913A (zh) 模型量化方法、装置及终端设备
US20230050538A1 (en) Boosting and matrix factorization
WO2022201399A1 (ja) 推論装置、推論方法および推論プログラム
US20240161245A1 (en) Image optimization
US20230351181A1 (en) Approximating activation functions with taylor series
US20240127045A1 (en) Optimizing algorithms for hardware devices

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210310

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220517

R150 Certificate of patent or registration of utility model

Ref document number: 7076648

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150