JP7096888B2 - ネットワークモジュール、割り当て方法及び装置、電子機器並びに記憶媒体 - Google Patents
ネットワークモジュール、割り当て方法及び装置、電子機器並びに記憶媒体 Download PDFInfo
- Publication number
- JP7096888B2 JP7096888B2 JP2020527741A JP2020527741A JP7096888B2 JP 7096888 B2 JP7096888 B2 JP 7096888B2 JP 2020527741 A JP2020527741 A JP 2020527741A JP 2020527741 A JP2020527741 A JP 2020527741A JP 7096888 B2 JP7096888 B2 JP 7096888B2
- Authority
- JP
- Japan
- Prior art keywords
- neurons
- feature map
- layer
- image processing
- processing model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/35—Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
Description
本願は、2019年2月25日に中国特許局に提出された、出願番号が201910139007.4であり、発明の名称が「ネットワークモジュール、割り当て方法及び装置、電子機器並びに記憶媒体」である中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
順にカスケード接続される第1ネットワーク層、第2ネットワーク層及び第3ネットワーク層を含み、
前記第1ネットワーク層は、入力された画像を処理して第1特徴マップを得るために用いられ、
前記第2ネットワーク層は、複数の並列のブランチを含み、
各ブランチが第1サンプリング層を含み、
前記第1サンプリング層が、前記第1特徴マップに対してダウンサンプリングを行って第2特徴マップを得るために用いられ、
異なる前記ブランチ中の前記第1サンプリング層で得られた前記第2特徴マップのスケールが異なり、
前記第3ネットワーク層は、各前記ブランチが出力した特徴マップデータを結合するために用いられる。
前記第1畳み込み層は、前記第2特徴マップに対して畳み込み操作を行って第3特徴マップを得るために用いられ、
前記第2サンプリング層は、前記第3特徴マップのスケールを前記第1特徴マップのスケールに復元するために用いられる。
前記第2畳み込み層は、前記第1特徴マップに対して畳み込み操作を行って、畳み込み操作で得られた特徴マップデータを前記第3ネットワーク層に入力するために用いられ、
前記第3ネットワーク層は、更に、前記第2ネットワーク層中の前記複数の並列のブランチで出力した特徴マップデータと各前記元比例ブランチで出力した特徴マップデータを結合するために用いられる。
前記画像処理モデル中の複数の畳み込み層のニューロンの重要性に基づいて、前記ニューロンを選別して第1結果を得るステップであって、複数の畳み込み層が前記画像処理モデルの同一深度にあり、且つ各々の畳み込み層がそれぞれ異なるスケールの前記特徴マップを処理するために用いられ、前記第1結果が複数のニューロンを含むステップと、
前記第1結果中の各ニューロンの位置属性に基づいて、各前記ニューロンに対応する前記特徴マップのスケールを統計して、割り当て関係を得るステップであって、前記位置属性が、各ニューロンの属する畳み込み層を表し、前記割り当て関係が、各前記特徴マップと前記特徴マップが利用するニューロンとの間の対応関係を表すステップと、
前記割り当て関係に基づいて、利用するニューロンを各前記特徴マップに割り当てるステップと、を含む。
各ネットワークモジュール中のブランチの数を決定して、予め設定された前記ネットワークモジュールの数に基づいて、前記画像処理モデルを構築するステップと、
前記画像処理モデルをトレーニングして、前記画像処理モデル中のbatchnorm層のscaleパラメータを得るステップであって、前記scaleパラメータが、前記ネットワークモジュールにおける各ブランチ中の畳み込み層のニューロンの重要性を表すステップと、を更に含む。
前記画像処理モデルを予めトレーニングして得られたbatchnorm層のscaleパラメータに基づいて、複数の前記畳み込み層のニューロンを順序付けて、複数の前記畳み込み層中のニューロンの並び順序を表す第1シーケンスを得るステップと、
予め設定された計算量に基づいて、複数の前記特徴マップを処理するための予備ニューロン数量を決定するステップと、
決定された前記予備ニューロン数量に基づいて、前記第1シーケンスから必要なニューロンを順に抽出して、前記第1結果を得るステップと、を含む。
前記割り当て関係に基づいて、前記画像処理モデルの第1ネットワーク構造を決定するステップと、
前記第1ネットワーク構造の画像処理モデルをトレーニングするステップと、を更に含む。
前記画像処理モデル中の複数の畳み込み層のニューロンの重要性に基づいて、前記ニューロンを選別して第1結果を得るための選別モジュールであって、複数の畳み込み層が前記画像処理モデルの同一深度にあり、且つ各々の畳み込み層がそれぞれ異なるスケールの前記特徴マップを処理するために用いられ、前記第1結果が複数のニューロンを含む選別モジュールと、
前記第1結果中の各ニューロンの位置属性に基づいて、各前記ニューロンに対応する前記特徴マップのスケールを統計して、割り当て関係を得るための統計モジュールであって、前記位置属性が、各ニューロンの属する畳み込み層を表し、前記割り当て関係が、各前記特徴マップと前記特徴マップが利用するニューロンとの間の対応関係を表す統計モジュールと、
前記割り当て関係に基づいて、利用するニューロンを各前記特徴マップに割り当てるための割り当てモジュールと、を含む。
前記選別モジュールが前記画像処理モデル中の複数の畳み込み層のニューロンの重要性に基づいて、前記ニューロンを選別する前に、各ネットワークモジュール中のブランチの数を決定して、予め設定された前記ネットワークモジュールの数に基づいて、前記画像処理モデルを構築するためのモデル構築モジュールと、
前記画像処理モデルをトレーニングして、前記画像処理モデル中のbatchnorm層のscaleパラメータを得るための第1トレーニングモジュールであって、前記scaleパラメータが、前記ネットワークモジュールにおける各ブランチ中の畳み込み層のニューロンの重要性を表す第1トレーニングモジュールと、を更に含む。
前記画像処理モデルを予めトレーニングして得られたbatchnorm層のscaleパラメータに基づいて、複数の前記畳み込み層のニューロンを順序付けて、複数の前記畳み込み層中のニューロンの並び順序を表す第1シーケンスを得るための順序付けサブモジュールと、
予め設定された計算量に基づいて、複数の前記特徴マップを処理するための予備ニューロン数量を決定するためのニューロン数決定サブモジュールと、
決定された前記予備ニューロン数量に基づいて、前記第1シーケンスから必要なニューロンを順に抽出して、前記第1結果を得るためのニューロン抽出サブモジュールと、を含む。
前記割り当てモジュールが前記割り当て関係に基づいて、利用するニューロンを各前記特徴マップに割り当てた後、前記割り当て関係に基づいて、前記画像処理モデルの第1ネットワーク構造を決定するためのネットワーク構造決定モジュールと、
前記第1ネットワーク構造の画像処理モデルをトレーニングするための第2トレーニングモジュールと、を更に含む。
上記のいずれか一項に記載の方法を実行するように構成されるプロセッサと、
プロセッサ実行可能コマンドを記憶するためのメモリと、を含む。
画像処理モデルを予めトレーニングして得られたbatchnorm層のscaleパラメータに基づいて、複数の畳み込み層のニューロンを順序付けて、複数の畳み込み層中のニューロンの並び順序を表す第1シーケンスを得るステップと、
予め設定された計算量に基づいて、複数の特徴マップを処理するための予備ニューロン数量を決定するステップと、
決定された予備ニューロン数量に基づいて、第1シーケンスから必要なニューロンを抽出して、第1結果を得るステップと、を含んでよい。
割り当て関係に基づいて、画像処理モデルの第1ネットワーク構造を決定し、第1ネットワーク構造の画像処理モデルをトレーニングするステップを更に含んでもよく、それによって画像処理モデルを最適化する目的を達成して、最終的に得られる画像処理モデルに分類や検出タスクでより高い精度を持たせる。
前記画像処理モデル中の複数の畳み込み層のニューロンの重要性に基づいて、前記ニューロンを選別して第1結果を得るための選別モジュール110であって、複数の畳み込み層が前記画像処理モデルの同一深度にあり、且つ各々の畳み込み層がそれぞれ異なるスケールの前記特徴マップを処理するために用いられ、前記第1結果が複数のニューロンを含む選別モジュール110と、
前記第1結果中の各ニューロンの位置属性に基づいて、各前記ニューロンに対応する前記特徴マップのスケールを統計して、割り当て関係を得るための統計モジュール120であって、前記位置属性が、各ニューロンの属する畳み込み層を表し、前記割り当て関係が、各前記特徴マップと前記特徴マップが利用するニューロンとの間の対応関係を表す統計モジュール120と、
前記割り当て関係に基づいて、利用するニューロンを各前記特徴マップに割り当てるための割り当てモジュール130と、を含む。
前記選別モジュールが前記画像処理モデル中の複数の畳み込み層のニューロンの重要性に基づいて、前記ニューロンを選別するステップの前に、各ネットワークモジュール中のブランチの数を決定して、予め設定された前記ネットワークモジュールの数に基づいて、前記画像処理モデルを構築するためのモデル構築モジュールと、
前記画像処理モデルをトレーニングして、前記画像処理モデル中のbatchnorm層のscaleパラメータを得るための第1トレーニングモジュールであって、前記scaleパラメータが、前記ネットワークモジュールにおける各ブランチ中の畳み込み層のニューロンの重要性を表す第1トレーニングモジュールと、を更に含む。
前記画像処理モデルを予めトレーニングして得られたbatchnorm層のscaleパラメータに基づいて、複数の前記畳み込み層のニューロンを順序付けて、複数の前記畳み込み層中のニューロンの並び順序を表す第1シーケンスを得るための順序付けサブモジュールと、
予め設定された計算量に基づいて、複数の前記特徴マップを処理するための予備ニューロン数量を決定するためのニューロン数決定サブモジュールと、
決定された前記予備ニューロン数量に基づいて、前記第1シーケンスから必要なニューロンを順に抽出して、前記第1結果を得るためのニューロン抽出サブモジュールと、を含む。
前記割り当てモジュールが前記割り当て関係に基づいて、利用するニューロンを各前記特徴マップに割り当てた後、前記割り当て関係に基づいて、前記画像処理モデルの第1ネットワーク構造を決定するためのネットワーク構造決定モジュールと、
前記第1ネットワーク構造の画像処理モデルをトレーニングするための第2トレーニングモジュールと、を更に含む。
Claims (11)
- 割り当て方法であって、
画像処理モデルに複数の特徴マップが存在する場合、各前記特徴マップが利用するニューロンを各前記特徴マップに割り当てるために用いられ、前記画像処理モデルが、少なくとも一つのネットワークモジュールを含み、前記割り当て方法は、
前記画像処理モデル中の複数の畳み込み層のニューロンの重要性に基づいて、前記ニューロンを選別して第1結果を得るステップであって、前記畳み込み層のニューロンの重要性が、前記画像処理モデル中のbatchnorm層のscaleパラメータによって表され、複数の畳み込み層が前記画像処理モデルの同一深度にあり、且つ各々の畳み込み層がそれぞれ異なるスケールの前記特徴マップを処理するために用いられ、前記第1結果が複数のニューロンを含むステップと、
前記第1結果中の各ニューロンの位置属性に基づいて、各前記ニューロンに対応する前記特徴マップのスケールを決定して、割り当て関係を得るステップであって、前記位置属性が、各ニューロンの属する畳み込み層の位置を表し、前記割り当て関係が、各前記特徴マップと前記特徴マップが利用するニューロンとの間の対応関係を表すステップと、
前記割り当て関係に基づいて、利用するニューロンを各前記特徴マップに割り当てるステップと、を含み、
前記ネットワークモジュールは、
順にカスケード接続される第1ネットワーク層、第2ネットワーク層及び第3ネットワーク層を含み、
前記第1ネットワーク層は、入力された画像を処理して第1特徴マップを得るために用いられ、
前記第2ネットワーク層は、複数の並列のブランチを含み、
各ブランチが第1サンプリング層を含み、
前記第1サンプリング層が、前記第1特徴マップに対してダウンサンプリングを行って第2特徴マップを得るために用いられ、
異なる前記ブランチ中の前記第1サンプリング層で得られた前記第2特徴マップのスケールが異なり、
前記第3ネットワーク層は、各前記ブランチが出力した特徴マップデータを結合するために用いられることを特徴とする、
割り当て方法。 - 前記画像処理モデル中の複数の畳み込み層のニューロンの重要性に基づいて、前記ニューロンを選別して、第1結果を得るステップの前に、
各ネットワークモジュール中のブランチの数を決定して、予め設定された前記ネットワークモジュールの数に基づいて、前記画像処理モデルを構築するステップと、
前記画像処理モデルをトレーニングして、前記画像処理モデル中のbatchnorm層のscaleパラメータを得るステップと、を更に含むことを特徴とする請求項1に記載の方法。 - 前記画像処理モデル中の複数の畳み込み層のニューロンの重要性に基づいて、前記ニューロンを選別して、第1結果を得る前記ステップは、
前記画像処理モデルを予めトレーニングして得られたbatchnorm層のscaleパラメータの値に基づいて、前記scaleパラメータの対応する複数の前記畳み込み層のニューロンを順序付けて、複数の前記畳み込み層中のニューロンの並び順序を表す第1シーケンスを得るステップと、
予め設定された計算量に基づいて、複数の前記特徴マップを処理するための予備ニューロン数量を決定するステップと、
決定された前記予備ニューロン数量に基づいて、前記第1シーケンスから必要なニューロンを順に抽出して、前記第1結果を得るステップと、を含むことを特徴とする請求項1又は2に記載の方法。 - 前記割り当て関係に基づいて、利用するニューロンを各前記特徴マップに割り当てるステップの後に、
前記割り当て関係に基づいて、前記画像処理モデルの第1ネットワーク構造を決定するステップと、
前記第1ネットワーク構造の画像処理モデルをトレーニングするステップと、を更に含むことを特徴とする請求項3に記載の方法。 - 割り当て装置であって、
画像処理モデルに複数の特徴マップが存在する場合、各前記特徴マップが利用するニューロンを各前記特徴マップに割り当てるために用いられ、前記画像処理モデルが、少なくとも一つのネットワークモジュールを含み、前記割り当て装置は、
前記画像処理モデル中の複数の畳み込み層のニューロンの重要性に基づいて、前記ニューロンを選別して第1結果を得るための選別モジュールであって、前記畳み込み層のニューロンの重要性が、前記画像処理モデル中のbatchnorm層のscaleパラメータによって表され、複数の畳み込み層が前記画像処理モデルの同一深度にあり、且つ各々の畳み込み層がそれぞれ異なるスケールの前記特徴マップを処理するために用いられ、前記第1結果が複数のニューロンを含む選別モジュールと、
前記第1結果中の各ニューロンの位置属性に基づいて、各前記ニューロンに対応する前記特徴マップのスケールを決定して、割り当て関係を得るための統計モジュールであって、前記位置属性が、各ニューロンの属する畳み込み層の位置を表し、前記割り当て関係が、各前記特徴マップと前記特徴マップが利用するニューロンとの間の対応関係を表す統計モジュールと、
前記割り当て関係に基づいて、利用するニューロンを各前記特徴マップに割り当てるための割り当てモジュールと、を含み、
前記ネットワークモジュールは、
順にカスケード接続される第1ネットワーク層、第2ネットワーク層及び第3ネットワーク層を含み、
前記第1ネットワーク層は、入力された画像を処理して第1特徴マップを得るために用いられ、
前記第2ネットワーク層は、複数の並列のブランチを含み、
各ブランチが第1サンプリング層を含み、
前記第1サンプリング層が、前記第1特徴マップに対してダウンサンプリングを行って第2特徴マップを得るために用いられ、
異なる前記ブランチ中の前記第1サンプリング層で得られた前記第2特徴マップのスケールが異なり、
前記第3ネットワーク層は、各前記ブランチが出力した特徴マップデータを結合するために用いられることを特徴とする、
割り当て装置。 - 前記選別モジュールが前記画像処理モデル中の複数の畳み込み層のニューロンの重要性に基づいて、前記ニューロンを選別する前に、各ネットワークモジュール中のブランチの数を決定して、予め設定された前記ネットワークモジュールの数に基づいて、前記画像処理モデルを構築するためのモデル構築モジュールと、
前記画像処理モデルをトレーニングして、前記画像処理モデル中のbatchnorm層のscaleパラメータを得るための第1トレーニングモジュールと、を更に含むことを特徴とする請求項5に記載の装置。 - 前記選別モジュールは、
前記画像処理モデルを予めトレーニングして得られたbatchnorm層のscaleパラメータの値に基づいて、前記scaleパラメータの対応する複数の前記畳み込み層のニューロンを順序付けて、複数の前記畳み込み層中のニューロンの並び順序を表す第1シーケンスを得るための順序付けサブモジュールと、
予め設定された計算量に基づいて、複数の前記特徴マップを処理するための予備ニューロン数量を決定するためのニューロン数決定サブモジュールと、
決定された前記予備ニューロン数量に基づいて、前記第1シーケンスから必要なニューロンを順に抽出して、前記第1結果を得るためのニューロン抽出サブモジュールと、を含むことを特徴とする請求項5又は6に記載の装置。 - 前記割り当てモジュールが前記割り当て関係に基づいて、利用するニューロンを各前記特徴マップに割り当てた後、前記割り当て関係に基づいて、前記画像処理モデルの第1ネットワーク構造を決定するためのネットワーク構造決定モジュールと、
前記第1ネットワーク構造の画像処理モデルをトレーニングするための第2トレーニングモジュールと、を更に含むことを特徴とする請求項7に記載の装置。 - 電子機器であって、
請求項1-4のいずれか一項に記載の方法を実行するように構成されるプロセッサと、
プロセッサ実行可能コマンドを記憶するためのメモリと、を含むことを特徴とする電子機器。 - コンピュータ読取可能記憶媒体であって、
コンピュータプログラムコマンドが記憶され、前記コンピュータプログラムコマンドがプロセッサにより実行される時に、前記プロセッサに、請求項1-4のいずれか一項に記載の方法を実現させることを特徴とするコンピュータ読取可能記憶媒体。 - コンピュータプログラムであって、
コンピュータ読取可能コードを含み、前記コンピュータ読取可能コードが電子機器中で実行される時に、前記電子機器中のプロセッサに、請求項1-4のいずれか一項に記載の方法を実現させることを特徴とするコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910139007.4 | 2019-02-25 | ||
CN201910139007.4A CN109902738B (zh) | 2019-02-25 | 2019-02-25 | 网络模块和分配方法及装置、电子设备和存储介质 |
PCT/CN2019/114460 WO2020173115A1 (zh) | 2019-02-25 | 2019-10-30 | 网络模块和分配方法及装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021517282A JP2021517282A (ja) | 2021-07-15 |
JP7096888B2 true JP7096888B2 (ja) | 2022-07-06 |
Family
ID=66945573
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020527741A Active JP7096888B2 (ja) | 2019-02-25 | 2019-10-30 | ネットワークモジュール、割り当て方法及び装置、電子機器並びに記憶媒体 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11443438B2 (ja) |
JP (1) | JP7096888B2 (ja) |
KR (1) | KR20200106027A (ja) |
CN (2) | CN109902738B (ja) |
SG (1) | SG11202004552VA (ja) |
TW (1) | TWI766228B (ja) |
WO (1) | WO2020173115A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109902738B (zh) | 2019-02-25 | 2021-07-20 | 深圳市商汤科技有限公司 | 网络模块和分配方法及装置、电子设备和存储介质 |
CN110826696B (zh) * | 2019-10-30 | 2023-06-27 | 北京百度网讯科技有限公司 | 超网络的搜索空间构建方法、装置以及电子设备 |
CN112418394B (zh) * | 2020-11-04 | 2022-05-13 | 武汉大学 | 一种电磁波频率预测方法及装置 |
CN112633402B (zh) * | 2020-12-30 | 2024-05-03 | 南京大学 | 一种实现动态计算的高精度高比例的分类模型及分类方法 |
CN113240084B (zh) * | 2021-05-11 | 2024-02-02 | 北京搜狗科技发展有限公司 | 一种数据处理方法、装置、电子设备及可读介质 |
CN113327203A (zh) * | 2021-05-28 | 2021-08-31 | 北京百度网讯科技有限公司 | 图像处理网络模型、方法、设备和介质 |
CN113569913B (zh) * | 2021-06-29 | 2023-04-25 | 西北大学 | 基于分层选择性Adaboost-DNNs的图像分类模型建立、分类方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229497A (zh) | 2017-07-28 | 2018-06-29 | 北京市商汤科技开发有限公司 | 图像处理方法、装置、存储介质、计算机程序和电子设备 |
JP2019028073A (ja) | 2017-07-25 | 2019-02-21 | 同方威視技術股▲分▼有限公司 | Ct画像を再構成する方法及びデバイス、並びに記憶媒体 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102156881B (zh) * | 2011-04-13 | 2012-07-25 | 上海海事大学 | 基于多尺度图像相位信息的海难搜救目标检测方法 |
CN103200242B (zh) * | 2013-03-20 | 2016-04-06 | 成都康赛信息技术有限公司 | 基于物联网构建跨层面数据分析枢纽的方法 |
CN107871136A (zh) * | 2017-03-22 | 2018-04-03 | 中山大学 | 基于稀疏性随机池化的卷积神经网络的图像识别方法 |
US10679351B2 (en) * | 2017-08-18 | 2020-06-09 | Samsung Electronics Co., Ltd. | System and method for semantic segmentation of images |
US10043113B1 (en) * | 2017-10-04 | 2018-08-07 | StradVision, Inc. | Method and device for generating feature maps by using feature upsampling networks |
CN107766292B (zh) * | 2017-10-30 | 2020-12-29 | 中国科学院计算技术研究所 | 一种神经网络处理方法及处理系统 |
CN108154192B (zh) * | 2018-01-12 | 2022-05-17 | 西安电子科技大学 | 基于多尺度卷积与特征融合的高分辨sar地物分类方法 |
CN108416307B (zh) * | 2018-03-13 | 2020-08-14 | 北京理工大学 | 一种航拍图像路面裂缝检测方法、装置及设备 |
CN108830185B (zh) * | 2018-05-28 | 2020-11-10 | 四川瞳知科技有限公司 | 基于多任务联合学习的行为识别及定位方法 |
CN109376667B (zh) * | 2018-10-29 | 2021-10-01 | 北京旷视科技有限公司 | 目标检测方法、装置及电子设备 |
CN109902738B (zh) * | 2019-02-25 | 2021-07-20 | 深圳市商汤科技有限公司 | 网络模块和分配方法及装置、电子设备和存储介质 |
-
2019
- 2019-02-25 CN CN201910139007.4A patent/CN109902738B/zh active Active
- 2019-02-25 CN CN202110891899.0A patent/CN113592004A/zh active Pending
- 2019-10-30 JP JP2020527741A patent/JP7096888B2/ja active Active
- 2019-10-30 KR KR1020207015036A patent/KR20200106027A/ko not_active Application Discontinuation
- 2019-10-30 SG SG11202004552VA patent/SG11202004552VA/en unknown
- 2019-10-30 WO PCT/CN2019/114460 patent/WO2020173115A1/zh active Application Filing
-
2020
- 2020-01-14 TW TW109101144A patent/TWI766228B/zh active
- 2020-06-01 US US16/888,931 patent/US11443438B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019028073A (ja) | 2017-07-25 | 2019-02-21 | 同方威視技術股▲分▼有限公司 | Ct画像を再構成する方法及びデバイス、並びに記憶媒体 |
CN108229497A (zh) | 2017-07-28 | 2018-06-29 | 北京市商汤科技开发有限公司 | 图像处理方法、装置、存储介质、计算机程序和电子设备 |
Non-Patent Citations (1)
Title |
---|
HE, Kaiming ほか,Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition,[online],2015年04月23日,[令和3年7月21日検索]、インターネット<URL:https://arxiv.org/pdf/1406.4729.pdf> |
Also Published As
Publication number | Publication date |
---|---|
TW202032499A (zh) | 2020-09-01 |
WO2020173115A1 (zh) | 2020-09-03 |
KR20200106027A (ko) | 2020-09-10 |
JP2021517282A (ja) | 2021-07-15 |
TWI766228B (zh) | 2022-06-01 |
CN113592004A (zh) | 2021-11-02 |
SG11202004552VA (en) | 2020-10-29 |
US20200294249A1 (en) | 2020-09-17 |
US11443438B2 (en) | 2022-09-13 |
CN109902738B (zh) | 2021-07-20 |
CN109902738A (zh) | 2019-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7096888B2 (ja) | ネットワークモジュール、割り当て方法及び装置、電子機器並びに記憶媒体 | |
JP7238141B2 (ja) | 顔と手を関連付けて検出する方法及び装置、電子機器、記憶媒体及びコンピュータプログラム | |
CN109829433B (zh) | 人脸图像识别方法、装置、电子设备及存储介质 | |
JP7262659B2 (ja) | 目標対象物マッチング方法及び装置、電子機器並びに記憶媒体 | |
CN106651955B (zh) | 图片中目标物的定位方法及装置 | |
JP7085622B2 (ja) | 画像におけるシーケンスを認識する方法及び装置、電子機器並びに記憶媒体 | |
CN109816764B (zh) | 图像生成方法及装置、电子设备和存储介质 | |
JP2022524262A (ja) | 目標対象物の検出方法、目標対象物の検出装置、電子機器、記憶媒体及びコンピュータプログラム | |
JP2022512023A (ja) | バッチ正規化データの処理方法及び装置、電子機器及び記憶媒体 | |
CN111222637B (zh) | 神经网络模型部署方法及装置、电子设备和存储介质 | |
CN110458218B (zh) | 图像分类方法及装置、分类网络训练方法及装置 | |
CN109522937B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
JP2022522551A (ja) | 画像処理方法及び装置、電子機器並びに記憶媒体 | |
CN111695682B (zh) | 数据处理方法及装置 | |
CN114140611A (zh) | 显著目标检测方法及装置、电子设备和存储介质 | |
CN111597029A (zh) | 数据处理方法及装置、电子设备和存储介质 | |
CN110929616B (zh) | 一种人手识别方法、装置、电子设备和存储介质 | |
CN109447258B (zh) | 神经网络模型的优化方法及装置、电子设备和存储介质 | |
JP2022511151A (ja) | 積み重ね物体を認識する方法及び装置、電子機器、記憶媒体及びコンピュータプログラム | |
CN111694768B (zh) | 运算方法、装置及相关产品 | |
CN109635926B (zh) | 用于神经网络的注意力特征获取方法、装置及存储介质 | |
CN110543900A (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN115223018B (zh) | 伪装对象协同检测方法及装置、电子设备和存储介质 | |
CN111695686A (zh) | 运算方法、装置及相关产品 | |
CN111860796B (zh) | 运算方法、装置及相关产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200518 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210803 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211102 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220621 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220624 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7096888 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |