JP2021507439A - 画像処理方法及び装置、電子機器、記憶媒体並びにプログラム製品 - Google Patents
画像処理方法及び装置、電子機器、記憶媒体並びにプログラム製品 Download PDFInfo
- Publication number
- JP2021507439A JP2021507439A JP2020554362A JP2020554362A JP2021507439A JP 2021507439 A JP2021507439 A JP 2021507439A JP 2020554362 A JP2020554362 A JP 2020554362A JP 2020554362 A JP2020554362 A JP 2020554362A JP 2021507439 A JP2021507439 A JP 2021507439A
- Authority
- JP
- Japan
- Prior art keywords
- feature
- vector
- feature map
- weight
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 30
- 238000003860 storage Methods 0.000 title claims abstract description 17
- 230000005540 biological transmission Effects 0.000 claims abstract description 138
- 239000013598 vector Substances 0.000 claims description 312
- 238000012545 processing Methods 0.000 claims description 137
- 238000000034 method Methods 0.000 claims description 101
- 238000000605 extraction Methods 0.000 claims description 61
- 230000008569 process Effects 0.000 claims description 46
- 238000013528 artificial neural network Methods 0.000 claims description 40
- 230000009467 reduction Effects 0.000 claims description 33
- 238000012549 training Methods 0.000 claims description 30
- 238000004458 analytical method Methods 0.000 claims description 24
- 239000011159 matrix material Substances 0.000 claims description 17
- 230000002093 peripheral effect Effects 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 11
- 238000010586 diagram Methods 0.000 abstract description 17
- 238000004891 communication Methods 0.000 description 18
- 230000002457 bidirectional effect Effects 0.000 description 9
- 238000009826 distribution Methods 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 229940050561 matrix product Drugs 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
Abstract
Description
本願は、2018年8月7日に中国特許局に提出された、出願番号CN201810893153.1、発明の名称「画像処理方法及び装置、電子機器、記憶媒体並びにプログラム製品」の中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
本願は、機械学習技術に関し、特に、画像処理方法及び装置、電子機器、記憶媒体並びにプログラム製品に関する。
処理すべき画像に対して特徴抽出を行って前記画像の特徴マップを生成するステップと、
前記特徴マップに含まれる複数の特徴点のそれぞれに対応する特徴重みを決定するステップと、
対応する前記特徴重みに基づいて、各特徴点の特徴情報をそれぞれ前記特徴マップにおける関連する複数の他の特徴点に伝送し、特徴強調後の特徴マップを取得するステップと、を含む画像処理方法を提供する。
処理すべき画像に対して特徴抽出を行って前記画像の特徴マップを生成するための特徴抽出ユニットと、
前記特徴マップに含まれる複数の特徴点のそれぞれに対応する特徴重みを決定するための重み決定ユニットと、
対応する前記特徴重みに基づいて、各特徴点の特徴情報をそれぞれ前記特徴マップおける関連する複数の他の特徴点に伝送し、特徴強調後の特徴マップを取得するための特徴強調ユニットと、を含む画像処理装置を提供する。
前記メモリと通信することにより、前記実行可能コマンドを実行して以上のいずれか一項に記載の画像処理方法の操作を完成するためのプロセッサと、を含むことを特徴とする電子機器を提供する。
図面を参照し、以下の詳細な説明により本発明をより明瞭に理解することができる。
特徴マップに対して第1のブランチ処理を行い、含まれる複数の特徴点のうちの各特徴点の内部受信重みの第1の重みベクトルを取得するステップと、
特徴マップに対して第2のブランチ処理を行い、含まれる複数の特徴点のうちの各特徴点の外部送信重みの第2の重みベクトルを取得するステップと、を含んでよい。
ニューラルネットワークにより特徴マップを処理し、第1の中間重みベクトルを取得するステップと、
第1の中間重みベクトル中の無効情報を除去し、第1の重みベクトルを取得するステップと、を含む。
特徴マップにおける各特徴点をそれぞれ第1の入力点とし、第1の入力点の周囲位置を第1の入力点に対応する第1の出力点とするステップと、
特徴マップにおける第1の入力点と第1の入力点に対応する第1の出力点との間の第1の伝達割合ベクトルを取得するステップと、
第1の伝達割合ベクトルに基づいて第1の中間重みベクトルを取得するステップと、を含む。
第1の中間重みベクトルから第1の出力点に含まれる情報が空である第1の伝達割合ベクトルを認識するステップと、
第1の中間重みベクトルから第1の出力点に含まれる情報が空である第1の伝達割合ベクトルを除去し、特徴マップの内部受信重みを取得するステップと、
内部受信重みに基づいて第1の重みベクトルを決定するステップと、を含む。
内部受信重みを対応の第1の出力点の位置に応じて配列し、第1の重みベクトルを取得するステップを含む。
畳み込み層により特徴マップに対して次元削減処理を行い、第1の中間特徴マップを取得するステップを更に含み、
ニューラルネットワークにより特徴マップを処理し、第1の中間重みベクトルを取得するステップには、
ニューラルネットワークにより次元削減後の第1の中間特徴マップを処理し、第1の中間重みベクトルを取得するステップを含む。
第1の中間特徴マップにおける各第1の中間特徴点をそれぞれ第1の入力点とし、第1の入力点の周囲の全ての位置を第1の入力点に対応する第1の出力点とするステップと、
第1の中間特徴マップにおける第1の入力点と第1の入力点に対応する全ての第1の出力点の間の第1の伝達割合ベクトルを取得するステップと、
第1の伝達割合ベクトルに基づいて第1の中間重みベクトルを取得するステップと、を含む。
ニューラルネットワークにより特徴マップを処理し、第2の中間重みベクトルを取得するステップと、
第2の中間重みベクトル中の無効情報を除去し、第2の重みベクトルを取得するステップと、を含む。
特徴マップにおける各特徴点をそれぞれ第2の出力点とし、第2の出力点の周囲位置を第2の出力点に対応する第2の入力点とするステップと、
特徴マップにおける第2の出力点と第2の出力点に対応する第2の入力点との間の第2の伝達割合ベクトルを取得するステップと、
第2の伝達割合ベクトルに基づいて第2の中間重みベクトルを取得するステップと、を含む。
第2の中間重みベクトルから第2の出力点に含まれる情報が空である第2の伝達割合ベクトルを認識するステップと、
第2の中間重みベクトルから第2の出力点に含まれる情報が空である第2の伝達割合ベクトルを除去し、特徴マップの外部送信重みを取得するステップと、
外部送信重みに基づいて第2の重みベクトルを決定するステップと、を含む。
外部送信重みを対応の第2の入力点の位置に応じて配列し、第2の重みベクトルを取得するステップを含む。
畳み込み層により特徴マップに対して次元削減処理を行い、第2の中間特徴マップを取得するステップを更に含み、
ニューラルネットワークにより特徴マップを処理し、第2の中間重みベクトルを取得するステップには、
ニューラルネットワークにより次元削減後の第2の中間特徴マップを処理し、第2の中間重みベクトルを取得するステップを含む。
第2の中間特徴マップにおける各第2の中間特徴点をそれぞれ第2の出力点とし、第2の出力点の周囲の全ての位置の第2の中間特徴点を第2の入力点に対応する第2の出力点とするステップと、
第2の中間特徴マップにおける第2の出力点と第2の出力点に対応する全ての第2の入力点の間の第2の伝達割合ベクトルを取得するステップと、
第2の伝達割合ベクトルに基づいて第2の中間重みベクトルを取得するステップと、を含む。
第1の重みベクトルと特徴マップに基づいて第1の特徴ベクトルを取得し、第2の重みベクトルと特徴マップに基づいて第2の特徴ベクトルを取得するステップと、
第1の特徴ベクトル、第2の特徴ベクトル及び特徴マップに基づいて特徴強調後の特徴マップを取得するステップと、を含んでよい。
第1の重みベクトルと、特徴マップに対して次元削減処理を行った後の第1の中間特徴マップとに対して行列乗算処理を行い、第1の特徴ベクトルを取得するステップと、
第2の重みベクトルと、特徴マップに対して次元削減処理を行った後の第2の中間特徴マップとに対して行列乗算処理を行い、第2の特徴ベクトルを取得するステップと、を含む。
又は、第1の重みベクトルと特徴マップとに対して行列乗算処理を行い、第1の特徴ベクトルを取得するステップと、
第2の重みベクトルと特徴マップとに対して行列乗算処理を行い、第2の特徴ベクトルを取得するステップと、を含む。
第1の特徴ベクトルと第2の特徴ベクトルをチャネル次元で結合し、結合特徴ベクトルを取得するステップと、
結合特徴ベクトルと特徴マップをチャネル次元で結合し、特徴強調後の特徴マップを取得するステップと、を含む。
結合特徴ベクトルに対して特徴投影処理を行い、処理後の結合特徴ベクトルを取得するステップを更に含み、
結合特徴ベクトルと特徴マップをチャネル次元で結合し、特徴強調後の特徴マップを取得するステップには、
処理後の結合特徴ベクトルと特徴マップをチャネル次元で結合し、特徴強調後の特徴マップを取得するステップを含む。
1)それぞれのブランチにおいて、チャネル数を減少する畳み込み操作が行われ、特徴の次元削減(reduction)により計算量の節約が実現される。
2)次元削減特徴マップに対して、1つの小型ニューラルネットワーク(一般的には畳み込み層と非線形活性化層のカスケードであって、これらは畳み込みニューラルネットワークの基礎モジュールとなる)により特徴重みを予測(adaption)し、数量が特徴マップの2倍程度の特徴重みを取得する(例えば、特徴マップの大きさをH×W(高H、幅W)とすれば、各特徴点に対して予測した特徴重みの数量が(2H−1)×(2W−1)となり、それにより相対位置関係を考えた上で各点が、それぞれ図全体における全ての点と情報を伝搬できることを保証する)。
3)特徴重みに対して収集又は配信(各点に対して予測された(2H−1)×(2W−1)の重みのうちH*W個が有効なものであり、他のものが無効である)の方式により、入力特徴と同様な大きさを有するコンパクトな有効重みを取得し、その中の有効重みを抽出して改めて配列して、コンパクトな重み行列を取得する。
4)得られた重み行列と上記の次元低減後の特徴の行列積を取得して、情報伝達を行う。
5)上下の2つのブランチで得られた特徴を先に結合し、次に特徴投影(feature projection;例えば、1つのニューラルネットワークを用いて得られた特徴を処理する(例えば、1つの畳み込み層と非線形活性化層のカスケードを用いることができる))処理を行い、グローバル特徴を取得する。
6)得られたグローバル特徴と初期の入力特徴を結合し、最終的な出力特徴表現を取得し、ここで、結合は特徴次元の結合であってもよい。勿論、ここでは最初の入力と新たなグローバル特徴の融合が行われ、結合が簡単な方式である。加算又は他の融合方式を用いてもよい。この特徴は最初の特徴中のセマンティック情報を含み、更にグローバル特徴に対応するグローバルなコンテキスト情報をも含む。
本実施例の方法は、
サンプル画像を用いて特徴強調ネットワークをトレーニングし、又は、サンプル画像を用いて特徴抽出ネットワークと特徴強調ネットワークをトレーニングするステップを更に含んでもよい。
サンプル画像を特徴抽出ネットワークと特徴強調ネットワークに入力し、予測処理結果を取得するステップと、
予測処理結果とアノテーション付き処理結果に基づいて、特徴強調ネットワークをトレーニングするステップと、を含む。
サンプル画像を特徴抽出ネットワークと特徴強調ネットワークに入力し、予測処理結果を取得するステップと、
予測処理結果とアノテーション付き処理結果に基づいて第1の損失を取得するステップと、
第1の損失に基づいて特徴抽出ネットワークと特徴強調ネットワークをトレーニングするステップと、を含む。
特徴抽出ネットワークの1つの中間層によって出力された特徴マップに基づいて、中間予測処理結果を決定するステップと、
中間予測処理結果とアノテーション付き処理結果に基づいて第2の損失を取得するステップと、
第2の損失に基づいて前記特徴抽出ネットワークのパラメータを調整するステップと、を更に含んでもよい。
特徴強調後の特徴マップに基づいて画像に対してシーン解析処理又は物体分割処理を行うための画像処理ユニットを更に含む。
シーン解析処理の結果又は物体分割処理の結果により、ロボットナビゲーション制御又は車両インテリジェントドライブ制御を行うための結果適用ユニットを更に含む。
特徴マップに対して第1のブランチ処理を行い、含まれる複数の特徴点のうちの各特徴点の内部受信重みの第1の重みベクトルを取得するための第1の重みモジュールと、
特徴マップに対して第2のブランチ処理を行い、含まれる複数の特徴点のうちの各特徴点の外部送信重みの第2の重みベクトルを取得するための第2の重みモジュールと、を含む。
ニューラルネットワークにより特徴マップを処理し、第1の中間重みベクトルを取得するための第1の中間ベクトルモジュールと、
第1の中間重みベクトル中の無効情報を除去し、第1の重みベクトルを取得するための第1の情報除去モジュールと、を含む。
畳み込み層により特徴マップに対して次元削減処理を行い、第1の中間特徴マップを取得するための第1の次元削減モジュールを更に含み、
第1の中間ベクトルモジュールは、ニューラルネットワークにより次元削減後の第1の中間特徴マップを処理し、第1の中間重みベクトルを取得するために用いられる。
ニューラルネットワークにより特徴マップを処理し、第2の中間重みベクトルを取得するための第2の中間ベクトルモジュールと、
第2の中間重みベクトル中の無効情報を除去し、第2の重みベクトルを取得するための第2の情報除去モジュールと、を含む。
畳み込み層により特徴マップに対して次元削減処理を行い、第2の中間特徴マップを取得するための第2の次元削減モジュールを更に含み、
第2の中間ベクトルモジュールは、ニューラルネットワークにより次元削減後の第2の中間特徴マップを処理し、第2の中間重みベクトルを取得するために用いられる。
第1の重みベクトルと特徴マップに基づいて第1の特徴ベクトルを取得し、第2の重みベクトルと特徴マップに基づいて第2の特徴ベクトルを取得するための特徴ベクトルモジュールと、
第1の特徴ベクトル、第2の特徴ベクトル及び特徴マップに基づいて特徴強調後の特徴マップを取得するための特徴マップ強調モジュールと、を含む。
結合特徴ベクトルに対して特徴投影処理を行い、処理後の結合特徴ベクトルを取得するための特徴投影モジュールを更に含み、
特徴マップ強調モジュールは、処理後の結合特徴ベクトルと特徴マップをチャネル次元で結合し、特徴強調後の特徴マップを取得するために用いられる。
本実施例の装置は、
サンプル画像を用いて特徴強調ネットワークをトレーニングし、又は、サンプル画像を用いて特徴抽出ネットワークと特徴強調ネットワークをトレーニングするためのトレーニングユニットを更に含んでもよい。
前記プロセッサは、前記メモリと通信することにより、前記実行可能コマンドを実行して以上のいずれか一項に記載の画像処理方法の操作を完成するためのプロセッサと、を含む電子機器を提供する。
Claims (50)
- 処理すべき画像に対して特徴抽出を行って前記画像の特徴マップを生成することと、
前記特徴マップに含まれる複数の特徴点のそれぞれに対応する特徴重みを決定することと、
前記対応する特徴重みに基づいて、各特徴点の特徴情報をそれぞれ前記特徴マップにおける関連する複数の他の特徴点に伝送し、特徴強調後の特徴マップを取得することと、を含むことを特徴とする画像処理方法。 - 前記特徴強調後の特徴マップに基づいて前記画像に対してシーン解析処理又は物体分割処理を行うことを更に含むことを特徴とする請求項1に記載の方法。
- 前記シーン解析処理の結果又は前記物体分割処理の結果により、ロボットナビゲーション制御又は車両インテリジェントドライブ制御を行うことを更に含むことを特徴とする請求項2に記載の方法。
- 前記特徴マップに含まれる特徴点の特徴重みは、特徴点が前記特徴マップに含まれる他の特徴点の特徴情報を受信する時の重みを示す内部受信重みと、特徴点が特徴情報を前記特徴マップに含まれる他の特徴点に伝送する時の重みを示す外部送信重みと、を含むことを特徴とする請求項1〜3のいずれか一項に記載の方法。
- 特徴マップに含まれる複数の特徴点のそれぞれに対応する特徴重みを決定することには、
前記特徴マップに対して第1のブランチ処理を行い、含まれる複数の特徴点のうちの各特徴点の内部受信重みの第1の重みベクトルを取得することと、
前記特徴マップに対して第2のブランチ処理を行い、含まれる複数の特徴点のうちの各特徴点の外部送信重みの第2の重みベクトルを取得することと、を含むことを特徴とする請求項4に記載の方法。 - 前記特徴マップに対して第1のブランチ処理を行って、含まれる複数の特徴点のうちの各特徴点の内部受信重みの第1の重みベクトルを取得することは、
ニューラルネットワークにより前記特徴マップを処理し、第1の中間重みベクトルを取得することと、
前記第1の中間重みベクトルにおける無効情報を除去し、前記第1の重みベクトルを取得することと、を含み、
前記無効情報は、特徴伝送に影響を与えない又は影響度合が設定条件より小さい情報を示すことを特徴とする請求項5に記載の方法。 - ニューラルネットワークにより前記特徴マップを処理し、第1の中間重みベクトルを取得することは、
前記特徴マップにおける各特徴点について、当該特徴点を第1の入力点とし、前記第1の入力点の周囲位置を前記第1の入力点に対応する第1の出力点とし、前記第1の入力点と前記第1の入力点に対応する第1の出力点との間の第1の伝達割合ベクトルを取得し、前記周囲位置は、前記特徴マップにおける複数の特徴点と前記第1の入力点の空間位置での複数の隣接位置とを含むことと、
前記各特徴点の前記第1の伝達割合ベクトルに基づいて前記第1の中間重みベクトルを取得することと、を含むことを特徴とする請求項6に記載の方法。 - 前記第1の中間重みベクトル中の無効情報を除去し、前記第1の重みベクトルを取得することは、
前記第1の出力点に含まれる情報が空である第1の伝達割合ベクトルを前記第1の中間重みベクトルから認識することと、
前記第1の中間重みベクトルから認識された第1の伝達割合ベクトルを除去し、前記特徴マップの前記内部受信重みを取得することと、
前記内部受信重みに基づいて前記第1の重みベクトルを決定することと、を含むことを特徴とする請求項7に記載の方法。 - 前記内部受信重みに基づいて前記第1の重みベクトルを決定することは、
前記内部受信重みを対応の前記第1の出力点の位置に応じて配列し、前記第1の重みベクトルを取得することを含むことを特徴とする請求項8に記載の方法。 - ニューラルネットワークにより前記特徴マップを処理し、第1の中間重みベクトルを取得する前に、
畳み込み層により前記特徴マップに対して次元削減処理を行い、第1の中間特徴マップを取得することを更に含み、
ニューラルネットワークにより前記特徴マップを処理し、第1の中間重みベクトルを取得することは、
前記ニューラルネットワークにより前記次元削減後の第1の中間特徴マップを処理し、前記第1の中間重みベクトルを取得することを含むことを特徴とする請求項6〜9のいずれか一項に記載の方法。 - 前記特徴マップに対して第2のブランチ処理を行って、含まれる複数の特徴点のうちの各前記特徴点の外部送信重みの第2の重みベクトルを取得することは、
ニューラルネットワークにより前記特徴マップを処理し、第2の中間重みベクトルを取得することと、
前記第2の中間重みベクトルにおける無効情報を除去し、前記第2の重みベクトルを取得することと、を含み、
前記無効情報は、特徴伝送に影響を与えない又は影響度合が設定条件より小さい情報を示すことを特徴とする請求項5〜10のいずれか一項に記載の方法。 - 前記ニューラルネットワークにより前記特徴マップを処理し、前記第2の中間重みベクトルを取得することは、
前記特徴マップにおける各特徴点について、当該特徴点を第2の出力点とし、前記第2の出力点の周囲位置を前記第2の出力点に対応する第2の入力点とし、前記第2の出力点と前記第2の出力点に対応する第2の入力点との間の第2の伝達割合ベクトルを取得し、前記周囲位置は、前記特徴マップにおける複数の特徴点と前記第2の出力点の空間位置での複数の隣接位置を含むことと、
前記各特徴点の前記第2の伝達割合ベクトルに基づいて前記第2の中間重みベクトルを取得することと、を含むことを特徴とする請求項11に記載の方法。 - 前記第2の中間重みベクトル中の無効情報を除去し、前記第2の重みベクトルを取得することは、
前記第2の出力点に含まれる情報が空である第2の伝達割合ベクトルを前記第2の中間重みベクトルから認識することと、
前記第2の中間重みベクトルから認識された第2の伝達割合ベクトルを除去し、前記特徴マップの前記外部送信重みを取得することと、
前記外部送信重みに基づいて前記第2の重みベクトルを決定することと、を含むことを特徴とする請求項12に記載の方法。 - 前記外部送信重みに基づいて前記第2の重みベクトルを決定することは、
前記外部送信重みを対応の前記第2の入力点の位置に応じて配列し、前記第2の重みベクトルを取得することを含むことを特徴とする請求項13に記載の方法。 - ニューラルネットワークにより前記特徴マップを処理し、第2の中間重みベクトルを取得する前に、
畳み込み層により前記特徴マップに対して次元削減処理を行い、第2の中間特徴マップを取得することを更に含み、
ニューラルネットワークにより前記特徴マップを処理し、第2の中間重みベクトルを取得することは、
前記ニューラルネットワークにより前記次元削減後の第2の中間特徴マップを処理し、前記第2の中間重みベクトルを取得することを含むことを特徴とする請求項11〜14のいずれか一項に記載の方法。 - 対応する前記特徴重みに基づいて、各特徴点の特徴情報をそれぞれ前記特徴マップにおける関連する複数の他の特徴点に伝送し、特徴強調後の特徴マップを取得することは、
前記第1の重みベクトルと前記特徴マップに基づいて第1の特徴ベクトルを取得し、前記第2の重みベクトルと前記特徴マップに基づいて第2の特徴ベクトルを取得することと、
前記第1の特徴ベクトル、前記第2の特徴ベクトル及び前記特徴マップに基づいて前記特徴強調後の特徴マップを取得することと、を含むことを特徴とする請求項5〜15のいずれか一項に記載の方法。 - 前記第1の重みベクトルと前記特徴マップに基づいて第1の特徴ベクトルを取得することは、
前記第1の重みベクトルと、前記特徴マップ又は前記特徴マップに対して次元削減処理を行った後の第1の中間特徴マップとに対して行列乗算処理を行い、前記第1の特徴ベクトルを取得することを含み、
前記第2の重みベクトルと前記特徴マップに基づいて第2の特徴ベクトルを取得することは、
前記第2の重みベクトルと、前記特徴マップ又は前記特徴マップに対して次元削減処理を行った後の第2の中間特徴マップとに対して行列乗算処理を行い、前記第2の特徴ベクトルを取得することを含むことを特徴とする請求項16に記載の方法。 - 前記第1の特徴ベクトル、前記第2の特徴ベクトル及び前記特徴マップに基づいて前記特徴強調後の特徴マップを取得することは、
前記第1の特徴ベクトルと前記第2の特徴ベクトルをチャネル次元で結合し、結合特徴ベクトルを取得することと、
前記結合特徴ベクトルと前記特徴マップをチャネル次元で結合し、前記特徴強調後の特徴マップを取得することと、を含むことを特徴とする請求項16又は17に記載の方法。 - 前記結合特徴ベクトルと前記特徴マップをチャネル次元で結合し、前記特徴強調後の特徴マップを取得する前に、
前記結合特徴ベクトルに対して特徴投影処理を行い、処理後の結合特徴ベクトルを取得することを更に含み、
前記結合特徴ベクトルと前記特徴マップをチャネル次元で結合し、前記特徴強調後の特徴マップを取得することは、
前記処理後の結合特徴ベクトルと前記特徴マップをチャネル次元で結合し、前記特徴強調後の特徴マップを取得することを含むことを特徴とする請求項18に記載の方法。 - 特徴抽出ネットワークと特徴強調ネットワークを用いて実現されるものであって、
処理すべき画像に対して特徴抽出を行って前記画像の特徴マップを生成する前に、
サンプル画像を用いて前記特徴強調ネットワークをトレーニングし、又は、サンプル画像を用いて前記特徴抽出ネットワークと前記特徴強調ネットワークをトレーニングすることを更に含み、
前記サンプル画像は、アノテーション付きシーン解析結果又はアノテーション付き物体分割結果を含むアノテーション付き処理結果を有することを特徴とする請求項2〜19のいずれか一項に記載の方法。 - サンプル画像を用いて前記特徴強調ネットワークをトレーニングすることは、
前記サンプル画像を前記特徴抽出ネットワークと前記特徴強調ネットワークに入力し、予測処理結果を取得することと、
前記予測処理結果と前記アノテーション付き処理結果に基づいて、前記特徴強調ネットワークをトレーニングすることと、を含むことを特徴とする請求項20に記載の方法。 - サンプル画像を用いて前記特徴抽出ネットワークと前記特徴強調ネットワークをトレーニングすることは、
前記サンプル画像を前記特徴抽出ネットワークと前記特徴強調ネットワークに入力し、予測処理結果を取得することと、
前記予測処理結果と前記アノテーション付き処理結果に基づいて第1の損失を取得することと、
前記第1の損失に基づいて前記特徴抽出ネットワークと前記特徴強調ネットワークをトレーニングすることと、を含むことを特徴とする請求項20に記載の方法。 - 前記特徴抽出ネットワークにおける1つの中間層によって出力された特徴マップに基づいて、中間予測処理結果を決定することと、
前記中間予測処理結果と前記アノテーション付き処理結果に基づいて第2の損失を取得することと、
前記第2の損失に基づいて前記特徴抽出ネットワークのパラメータを調整することと、を更に含むことを特徴とする請求項22に記載の方法。 - 処理すべき画像に対して特徴抽出を行って前記画像の特徴マップを生成するための特徴抽出ユニットと、
前記特徴マップに含まれる複数の特徴点のそれぞれに対応する特徴重みを決定するための重み決定ユニットと、
前記対応する特徴重みに基づいて、各特徴点の特徴情報をそれぞれ前記特徴マップにおける関連する複数の他の特徴点に伝送し、特徴強調後の特徴マップを取得するための特徴強調ユニットと、を含むことを特徴とする画像処理装置。 - 前記特徴強調後の特徴マップに基づいて前記画像に対してシーン解析処理又は物体分割処理を行うための画像処理ユニットを更に含むことを特徴とする請求項24に記載の装置。
- 前記シーン解析処理の結果又は前記物体分割処理の結果により、ロボットナビゲーション制御又は車両インテリジェントドライブ制御を行うための結果適用ユニットを更に含むことを特徴とする請求項25に記載の装置。
- 前記特徴マップに含まれる特徴点の特徴重みは、特徴点が前記特徴マップに含まれる他の特徴点の特徴情報を受信する時の重みを示す内部受信重みと、特徴点が特徴情報を前記特徴マップに含まれる他の特徴点に伝送する時の重みを示す外部送信重みと、を含むことを特徴とする請求項24〜26のいずれか一項に記載の装置。
- 前記重み決定ユニットは、
前記特徴マップに対して第1のブランチ処理を行い、含まれる複数の特徴点のうちの各特徴点の内部受信重みの第1の重みベクトルを取得するための第1の重みモジュールと、
前記特徴マップに対して第2のブランチ処理を行い、含まれる複数の特徴点のうちの各特徴点の外部送信重みの第2の重みベクトルを取得するための第2の重みモジュールと、を含むことを特徴とする請求項27に記載の装置。 - 前記第1の重みモジュールは、
ニューラルネットワークにより前記特徴マップを処理し、第1の中間重みベクトルを取得するための第1の中間ベクトルモジュールと、
前記第1の中間重みベクトルにおける無効情報を除去し、前記第1の重みベクトルを取得するための第1の情報除去モジュールと、を含み、
前記無効情報は、特徴伝送に影響を与えない又は影響度合が設定条件より小さい情報を示すことを特徴とする請求項28に記載の装置。 - 前記第1の中間ベクトルモジュールは、
前記特徴マップにおける各特徴点について、当該特徴点をそれぞれ第1の入力点とし、前記第1の入力点の周囲位置を前記第1の入力点に対応する第1の出力点とし、前記第1の入力点と前記第1の入力点に対応する第1の出力点の間の第1の伝達割合ベクトルを取得し、前記周囲位置は前記特徴マップにおける複数の特徴点と前記第1の入力点の空間位置での複数の隣接位置を含み、
前記各特徴点の前記第1の伝達割合ベクトルに基づいて前記第1の中間重みベクトルを取得するために用いられることを特徴とする請求項29に記載の装置。 - 前記第1の情報除去モジュールは、
前記第1の出力点に含まれる情報が空である第1の伝達割合ベクトルを前記第1の中間重みベクトルから認識し、
前記第1の中間重みベクトルから認識された第1の伝達割合ベクトルを除去し、前記特徴マップの前記内部受信重みを取得し、
前記内部受信重みに基づいて前記第1の重みベクトルを決定するために用いられることを特徴とする請求項30に記載の装置。 - 前記内部受信重みに基づいて前記第1の重みベクトルを決定するときに、前記第1の情報除去モジュールは、前記内部受信重みを対応の前記第1の出力点の位置に応じて配列し、前記第1の重みベクトルを取得するために用いられることを特徴とする請求項31に記載の装置。
- 前記第1の重みモジュールは、畳み込み層により前記特徴マップに対して次元削減処理を行い、第1の中間特徴マップを取得するための第1の次元削減モジュールを更に含み、
前記第1の中間ベクトルモジュールは、前記ニューラルネットワークにより前記次元削減後の第1の中間特徴マップを処理し、前記第1の中間重みベクトルを取得するために用いられることを特徴とする請求項29〜32のいずれか一項に記載の装置。 - 前記第2の重みモジュールは、
ニューラルネットワークにより前記特徴マップを処理し、第2の中間重みベクトルを取得するための第2の中間ベクトルモジュールと、
前記第2の中間重みベクトルにおける無効情報を除去し、前記第2の重みベクトルを取得するための第2の情報除去モジュールと、を含み、
前記無効情報は、特徴伝送に影響を与えない又は影響度合が設定条件より小さい情報を示すことを特徴とする請求項28〜33のいずれか一項に記載の装置。 - 前記第2の中間ベクトルモジュールは、
前記特徴マップにおける各特徴点について、当該特徴点を第2の出力点とし、前記第2の出力点の周囲位置を前記第2の出力点に対応する第2の入力点とし、前記第2の出力点と前記第2の出力点に対応する第2の入力点との間の第2の伝達割合ベクトルを取得し、前記周囲位置は、前記特徴マップにおける複数の特徴点と前記第2の出力点の空間位置での複数の隣接位置を含み、
前記各特徴点の前記第2の伝達割合ベクトルに基づいて前記第2の中間重みベクトルを取得するために用いられることを特徴とする請求項34に記載の装置。 - 前記第2の情報除去モジュールは、
前記第2の出力点に含まれる情報が空である第2の伝達割合ベクトルを前記第2の中間重みベクトルから認識し、
前記第2の中間重みベクトルから認識された第2の伝達割合ベクトルを除去し、前記特徴マップの前記外部送信重みを取得し、
前記外部送信重みに基づいて前記第2の重みベクトルを決定するために用いられることを特徴とする請求項35に記載の装置。 - 前記外部送信重みに基づいて前記第2の重みベクトルを決定するときに、前記第2の情報除去モジュールは、前記外部送信重みを対応の前記第2の入力点の位置に応じて配列し、前記第2の重みベクトルを取得するために用いられることを特徴とする請求項36に記載の装置。
- 前記第2の重みモジュールは、
畳み込み層により前記特徴マップに対して次元削減処理を行い、第2の中間特徴マップを取得するための第2の次元削減モジュールを更に含み、
前記第2の中間ベクトルモジュールは、前記ニューラルネットワークにより前記次元削減後の第2の中間特徴マップを処理し、前記第2の中間重みベクトルを取得するために用いられることを特徴とする請求項34〜37のいずれか一項に記載の装置。 - 前記特徴強調ユニットは、
前記第1の重みベクトルと前記特徴マップに基づいて第1の特徴ベクトルを取得し、前記第2の重みベクトルと前記特徴マップに基づいて第2の特徴ベクトルを取得するための特徴ベクトルモジュールと、
前記第1の特徴ベクトル、前記第2の特徴ベクトル及び前記特徴マップに基づいて前記特徴強調後の特徴マップを取得するための特徴マップ強調モジュールと、を含むことを特徴とする請求項28〜38のいずれか一項に記載の装置。 - 前記特徴ベクトルモジュールは、前記第1の重みベクトルと、前記特徴マップ又は前記特徴マップに対して次元削減処理を行った後の第1の中間特徴マップとに対して行列乗算処理を行い、前記第1の特徴ベクトルを取得するステップと、前記第2の重みベクトルと、前記特徴マップ又は前記特徴マップに対して次元削減処理を行った後の第2の中間特徴マップとに対して行列乗算処理を行い、前記第2の特徴ベクトルを取得するために用いられることを特徴とする請求項39に記載の装置。
- 前記特徴マップ強調モジュールは、
前記第1の特徴ベクトルと前記第2の特徴ベクトルとをチャネル次元で結合し、結合特徴ベクトルを取得し、
前記結合特徴ベクトルと前記特徴マップをチャネル次元で結合し、前記特徴強調後の特徴マップを取得するために用いられることを特徴とする請求項39又は40に記載の装置。 - 前記特徴強調ユニットは、前記結合特徴ベクトルに対して特徴投影処理を行い、処理後の結合特徴ベクトルを取得するための特徴投影モジュールを更に含み、
前記特徴マップ強調モジュールは、前記処理後の結合特徴ベクトルと前記特徴マップをチャネル次元で結合し、前記特徴強調後の特徴マップを取得するために用いられることを特徴とする請求項41に記載の装置。 - 特徴抽出ネットワークと特徴強調ネットワークを用いて実現されるものであって、
サンプル画像を用いて前記特徴強調ネットワークをトレーニングし、又は、サンプル画像を用いて前記特徴抽出ネットワークと前記特徴強調ネットワークをトレーニングするためのトレーニングユニットを更に含み、前記サンプル画像は、アノテーション付きシーン解析結果又はアノテーション付き物体分割結果を含むアノテーション付き処理結果を有することを特徴とする請求項25〜42のいずれか一項に記載の装置。 - 前記トレーニングユニットは、
前記サンプル画像を前記特徴抽出ネットワークと前記特徴強調ネットワークに入力し、予測処理結果を取得し、
前記予測処理結果と前記アノテーション付き処理結果に基づいて、前記特徴強調ネットワークをトレーニングするために用いられることを特徴とする請求項43に記載の装置。 - 前記トレーニングユニットは、
前記サンプル画像を前記特徴抽出ネットワークと前記特徴強調ネットワークに入力し、予測処理結果を取得し、
前記予測処理結果と前記アノテーション付き処理結果に基づいて第1の損失を取得し、
前記第1の損失に基づいて前記特徴抽出ネットワークと前記特徴強調ネットワークをトレーニングするステップとに用いられることを特徴とする請求項43に記載の装置。 - 前記トレーニングユニットは、更に、
前記特徴抽出ネットワークにおける1つの中間層によって出力された特徴マップに基づいて、中間予測処理結果を決定し、
前記中間予測処理結果と前記アノテーション付き処理結果に基づいて第2の損失を取得し、
前記第2の損失に基づいて前記特徴抽出ネットワークのパラメータを調整するために用いられることを特徴とする請求項45に記載の装置。 - 請求項24〜46のいずれか一項に記載の画像処理装置を備えるプロセッサを含むことを特徴とする電子機器。
- 実行可能コマンドを記憶するためのメモリと、
プロセッサを備え、
前記プロセッサは、前記メモリと通信することにより、前記実行可能コマンドを実行して請求項1〜23のいずれか一項に記載の画像処理方法の操作を完成することを特徴とする電子機器。 - コンピュータ読取可能なコマンドを記憶するためのコンピュータ記憶媒体であって、前記コマンドが実行されると、請求項1〜23のいずれか一項に記載の画像処理方法の操作が実行されることを特徴とするコンピュータ記憶媒体。
- コンピュータ可読コードを含むコンピュータプログラム製品であって、前記コンピュータ可読コードが機器上で作動すると、前記機器におけるプロセッサは、請求項1〜23のいずれか一項に記載の画像処理方法を実現するためのコマンドを実行することを特徴とするコンピュータプログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810893153.1 | 2018-08-07 | ||
CN201810893153.1A CN109344840B (zh) | 2018-08-07 | 2018-08-07 | 图像处理方法和装置、电子设备、存储介质、程序产品 |
PCT/CN2019/093646 WO2020029708A1 (zh) | 2018-08-07 | 2019-06-28 | 图像处理方法和装置、电子设备、存储介质、程序产品 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021507439A true JP2021507439A (ja) | 2021-02-22 |
JP2021507439A5 JP2021507439A5 (ja) | 2021-04-01 |
JP7065199B2 JP7065199B2 (ja) | 2022-05-11 |
Family
ID=65291562
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020554362A Active JP7065199B2 (ja) | 2018-08-07 | 2019-06-28 | 画像処理方法及び装置、電子機器、記憶媒体並びにプログラム製品 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20200356802A1 (ja) |
JP (1) | JP7065199B2 (ja) |
CN (1) | CN109344840B (ja) |
SG (1) | SG11202005737WA (ja) |
WO (1) | WO2020029708A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109344840B (zh) * | 2018-08-07 | 2022-04-01 | 深圳市商汤科技有限公司 | 图像处理方法和装置、电子设备、存储介质、程序产品 |
CN109798888B (zh) * | 2019-03-15 | 2021-09-17 | 京东方科技集团股份有限公司 | 移动设备的姿态确定装置、方法和视觉里程计 |
JP6965298B2 (ja) * | 2019-03-18 | 2021-11-10 | 株式会社東芝 | 物体検出装置、物体検出方法、プログラム、および移動体 |
US11080884B2 (en) * | 2019-05-15 | 2021-08-03 | Matterport, Inc. | Point tracking using a trained network |
CN110135440A (zh) * | 2019-05-15 | 2019-08-16 | 北京艺泉科技有限公司 | 一种适用于海量文物图像检索的图像特征提取方法 |
CN111767925A (zh) * | 2020-04-01 | 2020-10-13 | 北京沃东天骏信息技术有限公司 | 物品图片的特征提取和处理方法、装置、设备和存储介质 |
CN111951252B (zh) * | 2020-08-17 | 2024-01-23 | 中国科学院苏州生物医学工程技术研究所 | 多时序图像处理方法、电子设备及存储介质 |
CN112191055B (zh) * | 2020-09-29 | 2021-12-31 | 武穴市东南矿业有限公司 | 一种矿山机械用具有空气检测结构的降尘装置 |
CN112926595B (zh) * | 2021-02-04 | 2022-12-02 | 深圳市豪恩汽车电子装备股份有限公司 | 深度学习神经网络模型的训练装置、目标检测系统及方法 |
CN113065997B (zh) * | 2021-02-27 | 2023-11-17 | 华为技术有限公司 | 一种图像处理方法、神经网络的训练方法以及相关设备 |
CN112987765B (zh) * | 2021-03-05 | 2022-03-15 | 北京航空航天大学 | 一种仿猛禽注意力分配的无人机/艇精准自主起降方法 |
CN113191461B (zh) * | 2021-06-29 | 2021-09-17 | 苏州浪潮智能科技有限公司 | 一种图片识别方法、装置、设备及可读存储介质 |
CN113485750B (zh) * | 2021-06-29 | 2024-01-23 | 海光信息技术股份有限公司 | 数据处理方法及数据处理装置 |
TWI806640B (zh) * | 2022-01-11 | 2023-06-21 | 旺宏電子股份有限公司 | 記憶體裝置及其操作方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105023253A (zh) * | 2015-07-16 | 2015-11-04 | 上海理工大学 | 基于视觉底层特征的图像增强方法 |
JP2017182771A (ja) * | 2016-03-24 | 2017-10-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 物体検出装置、物体検出方法及び物体検出プログラム |
CN108205803A (zh) * | 2017-07-19 | 2018-06-26 | 北京市商汤科技开发有限公司 | 图像处理方法、神经网络模型的训练方法及装置 |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102801972B (zh) * | 2012-06-25 | 2017-08-29 | 北京大学深圳研究生院 | 基于特征的运动矢量估计和传递方法 |
KR101517538B1 (ko) * | 2013-12-31 | 2015-05-15 | 전남대학교산학협력단 | 중심 가중치 맵을 이용한 중요도 영역 검출 장치 및 방법, 이를 위한 프로그램을 기록한 기록 매체 |
CN105095833B (zh) * | 2014-05-08 | 2019-03-15 | 中国科学院声学研究所 | 用于人脸识别的网络构建方法、识别方法及系统 |
US9792521B2 (en) * | 2014-12-26 | 2017-10-17 | Here Global B.V. | Extracting feature geometries for localization of a device |
US20160358069A1 (en) * | 2015-06-03 | 2016-12-08 | Samsung Electronics Co., Ltd. | Neural network suppression |
US11449061B2 (en) * | 2016-02-29 | 2022-09-20 | AI Incorporated | Obstacle recognition method for autonomous robots |
US11927965B2 (en) * | 2016-02-29 | 2024-03-12 | AI Incorporated | Obstacle recognition method for autonomous robots |
CN106022221B (zh) * | 2016-05-09 | 2021-11-30 | 腾讯科技(深圳)有限公司 | 一种图像处理方法及处理系统 |
CN106127208A (zh) * | 2016-06-16 | 2016-11-16 | 北京市商汤科技开发有限公司 | 对图像中的多个对象进行分类的方法和系统、计算机系统 |
CN107516103B (zh) * | 2016-06-17 | 2020-08-25 | 北京市商汤科技开发有限公司 | 一种影像分类方法和系统 |
JP6776696B2 (ja) * | 2016-07-26 | 2020-10-28 | 富士通株式会社 | 並列情報処理装置、情報処理方法、およびプログラム |
US20180039853A1 (en) * | 2016-08-02 | 2018-02-08 | Mitsubishi Electric Research Laboratories, Inc. | Object Detection System and Object Detection Method |
US11544539B2 (en) * | 2016-09-29 | 2023-01-03 | Tsinghua University | Hardware neural network conversion method, computing device, compiling method and neural network software and hardware collaboration system |
KR101879207B1 (ko) * | 2016-11-22 | 2018-07-17 | 주식회사 루닛 | 약한 지도 학습 방식의 객체 인식 방법 및 장치 |
CN108154222B (zh) * | 2016-12-02 | 2020-08-11 | 北京市商汤科技开发有限公司 | 深度神经网络训练方法和系统、电子设备 |
CN108229274B (zh) * | 2017-02-28 | 2020-09-04 | 北京市商汤科技开发有限公司 | 多层神经网络模型训练、道路特征识别的方法和装置 |
US11010595B2 (en) * | 2017-03-23 | 2021-05-18 | Samsung Electronics Co., Ltd. | Facial verification method and apparatus |
CN108229497B (zh) * | 2017-07-28 | 2021-01-05 | 北京市商汤科技开发有限公司 | 图像处理方法、装置、存储介质、计算机程序和电子设备 |
CN107527059B (zh) * | 2017-08-07 | 2021-12-21 | 北京小米移动软件有限公司 | 文字识别方法、装置及终端 |
WO2019041360A1 (zh) * | 2017-09-04 | 2019-03-07 | 华为技术有限公司 | 行人属性识别与定位方法以及卷积神经网络系统 |
CN108229307B (zh) * | 2017-11-22 | 2022-01-04 | 北京市商汤科技开发有限公司 | 用于物体检测的方法、装置和设备 |
US11270523B2 (en) * | 2017-11-29 | 2022-03-08 | Sdc U.S. Smilepay Spv | Systems and methods for constructing a three-dimensional model from two-dimensional images |
CN108053028B (zh) * | 2017-12-21 | 2021-09-14 | 深圳励飞科技有限公司 | 数据定点化处理方法、装置、电子设备及计算机存储介质 |
JP7094702B2 (ja) * | 2018-01-12 | 2022-07-04 | キヤノン株式会社 | 画像処理装置及びその方法、プログラム |
CN108364023A (zh) * | 2018-02-11 | 2018-08-03 | 北京达佳互联信息技术有限公司 | 基于注意力模型的图像识别方法和系统 |
US11768292B2 (en) * | 2018-03-14 | 2023-09-26 | Uatc, Llc | Three-dimensional object detection |
US10592780B2 (en) * | 2018-03-30 | 2020-03-17 | White Raven Ltd. | Neural network training system |
CN110660037B (zh) * | 2018-06-29 | 2023-02-10 | 京东方科技集团股份有限公司 | 图像间脸部交换的方法、装置、系统和计算机程序产品 |
CN109344840B (zh) * | 2018-08-07 | 2022-04-01 | 深圳市商汤科技有限公司 | 图像处理方法和装置、电子设备、存储介质、程序产品 |
CN111666960B (zh) * | 2019-03-06 | 2024-01-19 | 南京地平线机器人技术有限公司 | 图像识别方法、装置、电子设备及可读存储介质 |
-
2018
- 2018-08-07 CN CN201810893153.1A patent/CN109344840B/zh active Active
-
2019
- 2019-06-28 JP JP2020554362A patent/JP7065199B2/ja active Active
- 2019-06-28 SG SG11202005737WA patent/SG11202005737WA/en unknown
- 2019-06-28 WO PCT/CN2019/093646 patent/WO2020029708A1/zh active Application Filing
-
2020
- 2020-06-18 US US16/905,478 patent/US20200356802A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105023253A (zh) * | 2015-07-16 | 2015-11-04 | 上海理工大学 | 基于视觉底层特征的图像增强方法 |
JP2017182771A (ja) * | 2016-03-24 | 2017-10-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 物体検出装置、物体検出方法及び物体検出プログラム |
CN108205803A (zh) * | 2017-07-19 | 2018-06-26 | 北京市商汤科技开发有限公司 | 图像处理方法、神经网络模型的训练方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109344840A (zh) | 2019-02-15 |
JP7065199B2 (ja) | 2022-05-11 |
WO2020029708A1 (zh) | 2020-02-13 |
US20200356802A1 (en) | 2020-11-12 |
SG11202005737WA (en) | 2020-07-29 |
CN109344840B (zh) | 2022-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7065199B2 (ja) | 画像処理方法及び装置、電子機器、記憶媒体並びにプログラム製品 | |
US11734851B2 (en) | Face key point detection method and apparatus, storage medium, and electronic device | |
JP6916383B2 (ja) | 画像質問応答方法、装置、システムおよび記憶媒体 | |
CN110347873B (zh) | 视频分类方法、装置、电子设备及存储介质 | |
CN112528977B (zh) | 目标检测方法、装置、电子设备和存储介质 | |
JP6896176B2 (ja) | システム強化学習方法及び装置、電子機器、コンピュータ記憶媒体並びにコンピュータプログラム | |
JP2023547917A (ja) | 画像分割方法、装置、機器および記憶媒体 | |
EP3843004A1 (en) | Portrait segmentation method, model training method and electronic device | |
CN112862828B (zh) | 一种语义分割方法、模型训练方法及装置 | |
CN113254684B (zh) | 一种内容时效的确定方法、相关装置、设备以及存储介质 | |
CN114743196B (zh) | 文本识别的方法及装置、神经网络的训练方法 | |
CN111930964B (zh) | 内容处理方法、装置、设备及存储介质 | |
US10733481B2 (en) | Cloud device, terminal device, and method for classifying images | |
EP4113376A1 (en) | Image classification model training method and apparatus, computer device, and storage medium | |
CN114359289A (zh) | 一种图像处理方法及相关装置 | |
CN114549369B (zh) | 数据修复方法、装置、计算机及可读存储介质 | |
CN112966592A (zh) | 手部关键点检测方法、装置、设备和介质 | |
CN116229188A (zh) | 图像处理显示方法、分类模型的生成方法及其设备 | |
US20230306602A1 (en) | Information generation method and apparatus, electronic device, and computer readable medium | |
CN115249361A (zh) | 指示表达文本定位模型训练、装置、设备和介质 | |
CN115712828A (zh) | 一种图像分类方法及其相关设备 | |
CN115511779B (zh) | 图像检测方法、装置、电子设备和存储介质 | |
CN116362301A (zh) | 一种模型的量化方法以及相关设备 | |
CN116363454A (zh) | 一种小样本图像识别方法及相关设备 | |
CN111160197A (zh) | 人脸检测方法、装置、电子设备、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200624 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200624 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210901 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220413 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220425 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7065199 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |