JP7387847B2 - オブジェクトの検出方法、装置、デバイス、媒体及びプログラム - Google Patents
オブジェクトの検出方法、装置、デバイス、媒体及びプログラム Download PDFInfo
- Publication number
- JP7387847B2 JP7387847B2 JP2022149839A JP2022149839A JP7387847B2 JP 7387847 B2 JP7387847 B2 JP 7387847B2 JP 2022149839 A JP2022149839 A JP 2022149839A JP 2022149839 A JP2022149839 A JP 2022149839A JP 7387847 B2 JP7387847 B2 JP 7387847B2
- Authority
- JP
- Japan
- Prior art keywords
- convolution
- feature extraction
- object detection
- feature
- generating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 166
- 238000000605 extraction Methods 0.000 claims description 168
- 238000003062 neural network model Methods 0.000 claims description 51
- 238000000034 method Methods 0.000 claims description 43
- 238000012549 training Methods 0.000 claims description 32
- 238000004590 computer program Methods 0.000 claims description 17
- 238000011176 pooling Methods 0.000 claims description 17
- 238000004422 calculation algorithm Methods 0.000 claims description 15
- 230000004927 fusion Effects 0.000 claims description 11
- 230000002238 attenuated effect Effects 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 18
- 238000004891 communication Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 241000196324 Embryophyta Species 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000283690 Bos taurus Species 0.000 description 1
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 244000025254 Cannabis sativa Species 0.000 description 1
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Bioinformatics & Computational Biology (AREA)
Description
本開示の実施例によれば、本開示は、コンピュータプログラムをさらに提供し、コンピュータプログラムがプロセッサによって実行される場合、本開示によって提供されるオブジェクトの検出方法が実現される。
Claims (27)
- 検出対象の画像を取得するステップと、
前記検出対象の画像に基づいて、オブジェクト検出のためのトレーニングされたニューラルネットワークモデル内の複数の特徴抽出ネットワークを介して、複数の特徴マップを生成するステップであって、前記複数の特徴抽出ネットワークが順に接続され、前記複数の特徴抽出ネットワークのうち後の特徴抽出ネットワークの入力データは、前の特徴抽出ネットワークの出力データおよび入力データに基づいているステップと、
前記複数の特徴マップに基づいて、前記ニューラルネットワークモデル内のオブジェクト検出ネットワークを介して、オブジェクト検出結果を生成するステップと、を含み、
前記オブジェクト検出ネットワークは、位置ボックス検出分岐とオブジェクト分類分岐とを含み、前記位置ボックス検出分岐は、第1の深さ方向に分離可能な畳み込み層、グローバル平均プーリング層、および第2の深さ方向に分離可能な畳み込み層を含み、前記オブジェクト分類分岐は、第3の深さ方向に分離可能な畳み込み層、第4の深さ方向に分離可能な畳み込み層、および第5の深さ方向に分離可能な畳み込み層を含み、前記第5の深さ方向に分離可能な畳み込み層と前記第3の深さ方向に分離可能な畳み込み層との間にはスキップ接続があり、前記スキップ接続は、前記第5の深さ方向に分離可能な畳み込み層の入力データが、前記第3の深さ方向に分離可能な畳み込み層の入力データと出力データとに基づくようにする、
ことを特徴とするオブジェクトの検出方法。 - 前記複数の特徴マップを生成するステップは、
前記検出対象の画像に基づいて、第1の特徴抽出ネットワークを介して、第1の特徴マップを生成するステップと、
前記検出対象の画像と前記第1の特徴マップとに基づいて、第2の特徴抽出ネットワークを介して、第2の特徴マップを生成するステップと、を含む、
ことを特徴とする請求項1に記載のオブジェクトの検出方法。 - 前記複数の特徴マップを生成するステップは、
前記検出対象の画像に基づいて、第1の特徴抽出ネットワークを介して、特徴抽出結果を生成するステップと、
前記検出対象の画像と前記特徴抽出結果とに基づいて、第2の特徴抽出ネットワークを介して、第1の特徴マップを生成するステップと、
前記検出対象の画像、前記特徴抽出結果および前記第1の特徴マップに基づいて、第3の特徴抽出ネットワークを介して、第2の特徴マップを生成するステップと、を含む、
ことを特徴とする請求項1に記載のオブジェクトの検出方法。 - 前記複数の特徴マップを生成するステップは、
前記検出対象の画像に基づいて、残差畳み込みネットワークを介して、残差畳み込み結果を生成するステップと、
前記残差畳み込み結果に基づいて、前記複数の特徴抽出ネットワークを介して、前記複数の特徴マップを生成するステップと、を含む、
ことを特徴とする請求項1に記載のオブジェクトの検出方法。 - 前記残差畳み込み結果を生成するステップは、
前記検出対象の画像に基づいて、3*3畳み込み層および1*1畳み込み層を含む第1の分岐を介して、第1の分岐畳み込み結果を生成するステップと、
前記検出対象の画像に基づいて、1*1畳み込み層、3*3畳み込み層および1*1畳み込み層を含む第2の分岐を介して、第2の分岐畳み込み結果を生成するステップと、
前記第1の分岐畳み込み結果と前記第2の分岐畳み込み結果とに基づいて、前記残差畳み込み結果を生成するステップと、を含む、
ことを特徴とする請求項4に記載のオブジェクトの検出方法。 - 前記オブジェクト検出結果を生成するステップは、
前記複数の特徴マップに基づいて、前記ニューラルネットワークモデル内の特徴ピラミッドネットワークを介して、融合特徴マップを生成するステップと、
前記融合特徴マップに基づいて、前記オブジェクト検出ネットワークを介して、前記オブジェクト検出結果を生成するステップと、を含む、
ことを特徴とする請求項1に記載のオブジェクトの検出方法。 - 前記オブジェクト検出結果を生成するステップは、
前記融合特徴マップに基づいて、第1の深さ方向に分離可能な畳み込み層を介して、第1の畳み込み結果を生成するステップと、
前記第1の畳み込み結果に基づいて、グローバル平均プーリング層を介して、プーリング結果を生成するステップと、
前記プーリング結果に基づいて、第2の深さ方向に分離可能な畳み込み層を介して、前記検出対象の画像内の検出されたオブジェクトの位置ボックス情報を生成するステップと、を含む、
ことを特徴とする請求項6に記載のオブジェクトの検出方法。 - 前記第1の深さ方向に分離可能な畳み込み層及び前記第2の深さ方向に分離可能な畳み込み層の畳み込みカーネルのサイズは5*5に設定されている、
ことを特徴とする請求項7に記載のオブジェクトの検出方法。 - 前記オブジェクト検出結果を生成するステップは、
前記融合特徴マップに基づいて、第3の深さ方向に分離可能な畳み込み層を介して、第2の畳み込み結果を生成するステップと、
前記第2の畳み込み結果に基づいて、第4の深さ方向に分離可能な畳み込み層を介して、第3の畳み込み結果を生成するステップと、
前記第2の畳み込み結果と前記第3の畳み込み結果とに基づいて、第5の深さ方向に分離可能な畳み込み層を介して、前記検出対象の画像内の検出されたオブジェクトのタイプ情報を生成するステップと、を含む、
ことを特徴とする請求項6に記載のオブジェクトの検出方法。 - 前記ニューラルネットワークモデルは、指数平滑移動平均アルゴリズムによる複数回のトレーニングによって生成され、所定のトレーニングエポックごとに指数平滑移動平均アルゴリズムのパラメーターをリセットする、
ことを特徴とする請求項1に記載のオブジェクトの検出方法。 - 前記ニューラルネットワークモデルは、複数回のトレーニングによって生成され、前記複数回のトレーニングのうち次のエポックのトレーニングの学習率は、前のエポックのトレーニングの学習率に基づいてコサイン減衰される、
ことを特徴とする請求項1に記載のオブジェクトの検出方法。 - 前記ニューラルネットワークモデルは、運動量勾配降下法によってトレーニングされて生成され、前記運動量勾配降下法の正則化減衰率は4e-5に設定されている、
ことを特徴とする請求項1に記載のオブジェクトの検出方法。 - 検出対象の画像を取得する画像取得モジュールと、
前記検出対象の画像に基づいて、オブジェクト検出のためのトレーニングされたニューラルネットワークモデル内の複数の特徴抽出ネットワークを介して、複数の特徴マップを生成する特徴抽出モジュールであって、前記複数の特徴抽出ネットワークが順に接続され、前記複数の特徴抽出ネットワークのうち後の特徴抽出ネットワークの入力データは、前の特徴抽出ネットワークの出力データおよび入力データに基づいている特徴抽出モジュールと、
前記複数の特徴マップに基づいて、前記ニューラルネットワークモデル内のオブジェクト検出ネットワークを介して、オブジェクト検出結果を生成するオブジェクト検出モジュールと、を含み、
前記オブジェクト検出ネットワークは、位置ボックス検出分岐とオブジェクト分類分岐とを含み、前記位置ボックス検出分岐は、第1の深さ方向に分離可能な畳み込み層、グローバル平均プーリング層、および第2の深さ方向に分離可能な畳み込み層を含み、前記オブジェクト分類分岐は、第3の深さ方向に分離可能な畳み込み層、第4の深さ方向に分離可能な畳み込み層、および第5の深さ方向に分離可能な畳み込み層を含み、前記第5の深さ方向に分離可能な畳み込み層と前記第3の深さ方向に分離可能な畳み込み層との間にはスキップ接続があり、前記スキップ接続は、前記第5の深さ方向に分離可能な畳み込み層の入力データが、前記第3の深さ方向に分離可能な畳み込み層の入力データと出力データとに基づくようにする、
ことを特徴とするオブジェクトの検出装置。 - 前記特徴抽出モジュールが、
前記検出対象の画像に基づいて、第1の特徴抽出ネットワークを介して、第1の特徴マップを生成する第1の特徴マップ生成サブモジュールと、
前記検出対象の画像と前記第1の特徴マップとに基づいて、第2の特徴抽出ネットワークを介して、第2の特徴マップを生成する第2の特徴マップ生成サブモジュールと、を含む、
ことを特徴とする請求項13に記載のオブジェクトの検出装置。 - 前記特徴抽出モジュールが、
前記検出対象の画像に基づいて、第1の特徴抽出ネットワークを介して、特徴抽出結果を生成する特徴抽出結果生成サブモジュールと、
前記検出対象の画像と前記特徴抽出結果とに基づいて、第2の特徴抽出ネットワークを介して、第1の特徴マップを生成する第1の特徴マップ生成サブモジュールと、
前記検出対象の画像、前記特徴抽出結果および前記第1の特徴マップに基づいて、第3の特徴抽出ネットワークを介して、第2の特徴マップを生成する第2の特徴マップ生成サブモジュールと、を含む、
ことを特徴とする請求項13に記載のオブジェクトの検出装置。 - 前記特徴抽出モジュールが、
前記検出対象の画像に基づいて、残差畳み込みネットワークを介して、残差畳み込み結果を生成する残差畳み込みサブモジュールと、
前記残差畳み込み結果に基づいて、前記複数の特徴抽出ネットワークを介して、前記複数の特徴マップを生成する特徴抽出サブモジュールと、を含む、
ことを特徴とする請求項13~15のいずれかに記載のオブジェクトの検出装置。 - 前記残差畳み込みサブモジュールが、さらに、
前記検出対象の画像に基づいて、3*3畳み込み層および1*1畳み込み層を含む第1の分岐を介して、第1の分岐畳み込み結果を生成し、
前記検出対象の画像に基づいて、1*1畳み込み層、3*3畳み込み層および1*1畳み込み層を含む第2の分岐を介して、第2の分岐畳み込み結果を生成し、
前記第1の分岐畳み込み結果と前記第2の分岐畳み込み結果とに基づいて、前記残差畳み込み結果を生成する、
ことを特徴とする請求項16に記載のオブジェクトの検出装置。 - 前記オブジェクト検出モジュールが、
前記複数の特徴マップに基づいて、前記ニューラルネットワークモデル内の特徴ピラミッドネットワークを介して、融合特徴マップを生成する特徴融合サブモジュールと、
前記融合特徴マップに基づいて、前記オブジェクト検出ネットワークを介して、前記オブジェクト検出結果を生成するオブジェクト検出サブモジュールと、を含む、
ことを特徴とする請求項13~15のいずれかに記載のオブジェクトの検出装置。 - 前記オブジェクト検出サブモジュールが、
前記融合特徴マップに基づいて、第1の深さ方向に分離可能な畳み込み層を介して、第1の畳み込み結果を生成し、
前記第1の畳み込み結果に基づいて、グローバル平均プーリング層を介して、プーリング結果を生成し、
前記プーリング結果に基づいて、第2の深さ方向に分離可能な畳み込み層を介して、前記検出対象の画像内の検出されたオブジェクトの位置ボックス情報を生成する、
ことを特徴とする請求項18に記載のオブジェクトの検出装置。 - 前記第1の深さ方向に分離可能な畳み込み層及び前記第2の深さ方向に分離可能な畳み込み層の畳み込みカーネルのサイズは5*5に設定されている、
ことを特徴とする請求項19に記載のオブジェクトの検出装置。 - 前記オブジェクト検出サブモジュールが、
前記融合特徴マップに基づいて、第3の深さ方向に分離可能な畳み込み層を介して、第2の畳み込み結果を生成し、
前記第2の畳み込み結果に基づいて、第4の深さ方向に分離可能な畳み込み層を介して、第3の畳み込み結果を生成し、
前記第2の畳み込み結果と前記第3の畳み込み結果とに基づいて、第5の深さ方向に分離可能な畳み込み層を介して、前記検出対象の画像内の検出されたオブジェクトのタイプ情報を生成する、
ことを特徴とする請求項18に記載のオブジェクトの検出装置。 - 前記ニューラルネットワークモデルは、指数平滑移動平均アルゴリズムによる複数回のトレーニングによって生成され、所定のトレーニングエポックごとに指数平滑移動平均アルゴリズムのパラメーターをリセットする、
ことを特徴とする請求項13に記載のオブジェクトの検出装置。 - 前記ニューラルネットワークモデルは、複数回のトレーニングによって生成され、前記複数回のトレーニングのうち次のエポックのトレーニングの学習率は、前のエポックのトレーニングの学習率に基づいてコサイン減衰される、
ことを特徴とする請求項13に記載のオブジェクトの検出装置。 - 前記ニューラルネットワークモデルは、運動量勾配降下法によってトレーニングされて生成され、前記運動量勾配降下法の正則化減衰率は4e-5に設定されている、
ことを特徴とする請求項13に記載のオブジェクトの検出装置。 - 電子機器であって、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行される命令が記憶されており、前記命令は、前記少なくとも1つのプロセッサが請求項1~12のいずれかに記載のオブジェクトの検出方法を実行できるように、前記少なくとも1つのプロセッサによって実行される、
ことを特徴とする電子機器。 - コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令は、コンピュータに請求項1~12のいずれかに記載のオブジェクトの検出方法を実行させる、
ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。 - コンピュータプログラムであって、
前記コンピュータプログラムがプロセッサによって実行される場合、請求項1~12のいずれかに記載のオブジェクトの検出方法が実現される、
ことを特徴とするコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111202517.5A CN113947144B (zh) | 2021-10-15 | 2021-10-15 | 用于对象检测的方法、装置、设备、介质和程序产品 |
CN202111202517.5 | 2021-10-15 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022173321A JP2022173321A (ja) | 2022-11-18 |
JP7387847B2 true JP7387847B2 (ja) | 2023-11-28 |
Family
ID=79330551
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022149839A Active JP7387847B2 (ja) | 2021-10-15 | 2022-09-21 | オブジェクトの検出方法、装置、デバイス、媒体及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11620815B2 (ja) |
JP (1) | JP7387847B2 (ja) |
CN (1) | CN113947144B (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116385814B (zh) * | 2023-03-07 | 2023-12-05 | 广州市妇女儿童医疗中心 | 一种检测目标的超声筛查方法、系统、装置及介质 |
CN116090670B (zh) * | 2023-04-03 | 2023-07-14 | 武汉纺织大学 | 一种基于多属性的服装流行趋势预测方法 |
CN117690124B (zh) * | 2023-12-13 | 2024-07-09 | 安徽农业大学 | 基于多尺度注意力机制的小番茄成熟度实时检测方法 |
CN117739289B (zh) * | 2024-02-20 | 2024-04-26 | 齐鲁工业大学(山东省科学院) | 基于声图融合的泄漏检测方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020113000A (ja) | 2019-01-10 | 2020-07-27 | 日本電信電話株式会社 | 物体検出認識装置、方法、及びプログラム |
JP2020135872A (ja) | 2019-02-19 | 2020-08-31 | 富士通株式会社 | 物体認識方法、装置及びネットワーク |
CN112347936A (zh) | 2020-11-07 | 2021-02-09 | 南京天通新创科技有限公司 | 一种基于深度可分离卷积的快速目标检测方法 |
CN113158913A (zh) | 2021-04-25 | 2021-07-23 | 安徽科大擎天科技有限公司 | 一种人脸口罩佩戴识别方法、系统及终端 |
JP2021117969A (ja) | 2020-01-23 | 2021-08-10 | 同▲済▼大学 | ランダムバッチマスクとマルチスケール表現学習を融合した人物再同定方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108182388A (zh) * | 2017-12-14 | 2018-06-19 | 哈尔滨工业大学(威海) | 一种基于图像的运动目标跟踪方法 |
CN109359666B (zh) * | 2018-09-07 | 2021-05-28 | 佳都科技集团股份有限公司 | 一种基于多特征融合神经网络的车型识别方法及处理终端 |
CN109614985B (zh) * | 2018-11-06 | 2023-06-20 | 华南理工大学 | 一种基于密集连接特征金字塔网络的目标检测方法 |
GB2580671B (en) * | 2019-01-22 | 2022-05-04 | Toshiba Kk | A computer vision system and method |
CN111260630A (zh) * | 2020-01-16 | 2020-06-09 | 高新兴科技集团股份有限公司 | 一种改进的轻量化的小目标检测方法 |
CN111274942A (zh) * | 2020-01-19 | 2020-06-12 | 国汽(北京)智能网联汽车研究院有限公司 | 一种基于级联网络的交通锥识别方法及装置 |
CN111539942B (zh) * | 2020-04-28 | 2021-08-31 | 中国科学院自动化研究所 | 基于多尺度深度特征融合的人脸深度篡改图像的检测方法 |
CN111768365B (zh) * | 2020-05-20 | 2023-05-30 | 太原科技大学 | 基于卷积神经网络多特征融合的太阳能电池缺陷检测方法 |
US10902291B1 (en) * | 2020-08-04 | 2021-01-26 | Superb Ai Co., Ltd. | Methods for training auto labeling device and performing auto labeling related to segmentation while performing automatic verification by using uncertainty scores and devices using the same |
CN111968087B (zh) * | 2020-08-13 | 2023-11-07 | 中国农业科学院农业信息研究所 | 一种植物病害区域检测方法 |
CN112232232B (zh) * | 2020-10-20 | 2022-09-27 | 城云科技(中国)有限公司 | 一种目标检测方法 |
CN112488060B (zh) * | 2020-12-18 | 2023-08-08 | 北京百度网讯科技有限公司 | 目标检测方法、装置、设备和介质 |
CN113269038B (zh) * | 2021-04-19 | 2022-07-15 | 南京邮电大学 | 一种基于多尺度的行人检测方法 |
CN113298032A (zh) * | 2021-06-16 | 2021-08-24 | 武汉卓目科技有限公司 | 基于深度学习的无人机视角图像的车辆目标检测方法 |
-
2021
- 2021-10-15 CN CN202111202517.5A patent/CN113947144B/zh active Active
-
2022
- 2022-09-21 JP JP2022149839A patent/JP7387847B2/ja active Active
- 2022-10-06 US US17/938,457 patent/US11620815B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020113000A (ja) | 2019-01-10 | 2020-07-27 | 日本電信電話株式会社 | 物体検出認識装置、方法、及びプログラム |
JP2020135872A (ja) | 2019-02-19 | 2020-08-31 | 富士通株式会社 | 物体認識方法、装置及びネットワーク |
JP2021117969A (ja) | 2020-01-23 | 2021-08-10 | 同▲済▼大学 | ランダムバッチマスクとマルチスケール表現学習を融合した人物再同定方法 |
CN112347936A (zh) | 2020-11-07 | 2021-02-09 | 南京天通新创科技有限公司 | 一种基于深度可分离卷积的快速目标检测方法 |
CN113158913A (zh) | 2021-04-25 | 2021-07-23 | 安徽科大擎天科技有限公司 | 一种人脸口罩佩戴识别方法、系统及终端 |
Also Published As
Publication number | Publication date |
---|---|
JP2022173321A (ja) | 2022-11-18 |
CN113947144B (zh) | 2022-05-17 |
US20230031579A1 (en) | 2023-02-02 |
CN113947144A (zh) | 2022-01-18 |
US11620815B2 (en) | 2023-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7387847B2 (ja) | オブジェクトの検出方法、装置、デバイス、媒体及びプログラム | |
US10943145B2 (en) | Image processing methods and apparatus, and electronic devices | |
US11216971B2 (en) | Three-dimensional bounding box from two-dimensional image and point cloud data | |
US9904875B2 (en) | Processing images using deep neural networks | |
US20220207299A1 (en) | Method and apparatus for building image enhancement model and for image enhancement | |
US20230068238A1 (en) | Method and apparatus for processing image, electronic device and storage medium | |
JP6932254B2 (ja) | キーフレームスケジューリング方法及び装置、電子機器、プログラム並びに媒体 | |
US11967150B2 (en) | Parallel video processing systems | |
CN113705515B (zh) | 语义分割模型的训练和高精地图车道线的生成方法和设备 | |
JP7324891B2 (ja) | バックボーンネットワーク生成方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
CN116363459A (zh) | 目标检测方法、模型训练方法、装置、电子设备及介质 | |
CN114186681A (zh) | 用于生成模型簇的方法、装置及计算机程序产品 | |
Qi et al. | A DNN-based object detection system on mobile cloud computing | |
US20230245429A1 (en) | Method and apparatus for training lane line detection model, electronic device and storage medium | |
CN113780578B (zh) | 模型训练方法、装置、电子设备及可读存储介质 | |
CN116363429A (zh) | 图像识别模型的训练方法、图像识别方法、装置及设备 | |
CN115147547B (zh) | 人体重建方法和装置 | |
CN113361621B (zh) | 用于训练模型的方法和装置 | |
CN113361519B (zh) | 目标处理方法、目标处理模型的训练方法及其装置 | |
CN114078097A (zh) | 图像去雾模型的获取方法、装置和电子设备 | |
CN114282664A (zh) | 自反馈模型训练方法、装置、路侧设备及云控平台 | |
CN114220163A (zh) | 人体姿态估计方法、装置、电子设备及存储介质 | |
CN113840169A (zh) | 一种视频处理方法、装置、计算设备和存储介质 | |
CN116778006B (zh) | 图片编码器的建模方法、装置、电子设备及存储介质 | |
CN114581746B (zh) | 物体检测方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220921 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230719 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231024 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231115 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7387847 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |