JP2021532435A - 目標検出および目標検出ネットワークのトレーニング - Google Patents
目標検出および目標検出ネットワークのトレーニング Download PDFInfo
- Publication number
- JP2021532435A JP2021532435A JP2020561707A JP2020561707A JP2021532435A JP 2021532435 A JP2021532435 A JP 2021532435A JP 2020561707 A JP2020561707 A JP 2020561707A JP 2020561707 A JP2020561707 A JP 2020561707A JP 2021532435 A JP2021532435 A JP 2021532435A
- Authority
- JP
- Japan
- Prior art keywords
- bounding box
- target
- foreground
- candidate
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 164
- 238000012549 training Methods 0.000 title claims abstract description 73
- 230000011218 segmentation Effects 0.000 claims abstract description 134
- 238000000034 method Methods 0.000 claims abstract description 81
- 238000000605 extraction Methods 0.000 claims description 50
- 230000008569 process Effects 0.000 claims description 26
- 238000012545 processing Methods 0.000 claims description 10
- 238000003860 storage Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 15
- 238000011176 pooling Methods 0.000 description 7
- 238000012544 monitoring process Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000005670 electromagnetic radiation Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Remote Sensing (AREA)
- Astronomy & Astrophysics (AREA)
- Image Analysis (AREA)
Abstract
Description
入力画像の特徴データを取得することと、前記特徴データに従って、前記入力画像の複数の候補バウンディングボックスを決定することと、前記特徴データに従って、前記入力画像の前景セグメンテーション結果を取得することであって、前景セグメンテーション結果は、前記入力画像の複数の画素における各画素が前景に属するかどうかを指示する指示情報を含むことと、前記複数の候補バウンディングボックスおよび前記前景セグメンテーション結果に従って、前記入力画像の目標検出結果を取得することとを含む。
前記特徴抽出ネットワークを介してサンプル画像に対して特徴抽出処理を実行して、前記サンプル画像の特徴データを取得することと、前記特徴データに従って、前記目標予測ネットワークを介して複数のサンプル候補バウンディングボックスを取得する;前記特徴データに従って、前記前景セグメンテーションネットワークを介して前記サンプル画像のサンプル前景セグメンテーション結果を取得することであって、前記サンプル前景セグメンテーション結果は、前記サンプル画像の複数の画素点における各画素点が前景に属するかどうかを指示する指示情報を含むことと、前記複数のサンプル候補バウンディングボックス、前記サンプル前景セグメンテーション結果および前記サンプル画像の注釈情報に従って、ネットワーク損失値を決定することと、前記ネットワーク損失値に基づいて、前記目標検出ネットワークのネットワークパラメータを調整することとを含む。
入力画像の特徴データを取得するように構成される特徴抽出ユニットと、前記特徴データに従って、前記入力画像の複数の候補バウンディングボックスを決定するように構成される目標予測ユニットと、前記特徴データに従って、前記入力画像の前景セグメンテーション結果を取得するように構成される前景セグメンテーションユニットであって、前景セグメンテーション結果は、前記入力画像の複数の画素における各画素が前景に属するかどうかを指示する指示情報を含む前景セグメンテーションユニットと、前記複数の候補バウンディングボックスおよび前記前景セグメンテーション結果に従って、前記入力画像の目標検出結果を取得するように構成される目標決定ユニットとを備える。
前記特徴抽出ネットワークを介してサンプル画像に対して特徴抽出処理を実行して、前記サンプル画像の特徴データを取得するように構成される特徴抽出ユニットと、前記特徴データに従って、前記目標予測ネットワークを介して複数のサンプル候補バウンディングボックスを取得するように構成される目標予測ユニットと、前記特徴データに従って、前記前景セグメンテーションネットワークを介して前記サンプル画像のサンプル前景セグメンテーション結果を取得するように構成される前景セグメンテーションユニットであって、前記サンプル前景セグメンテーション結果は、前記サンプル画像の複数の画素点における各画素点が前景に属するかどうかを指示する指示情報を含む前景セグメンテーションユニットと、前記複数のサンプル候補バウンディングボックス、前記サンプル前景セグメンテーション結果および前記サンプル画像の注釈情報に従って、ネットワーク損失値を決定するように構成される損失値決定ユニットと、前記ネットワーク損失値に基づいて、前記目標検出ネットワークのネットワークパラメータを調整するように構成されるパラメータ調整ユニットとを備える。
各アンカー(anchor)ボックスに対して1つの信頼度評点を生成する。当該信頼度評点は、アンカーボックスが前景または背景である確率に関し、例えば、アンカーボックスが前景である確率が高いほど、信頼度評点は高くなる。
はアンカーボックスの幅を示し、
はアンカーボックスの長さを示し、
はアンカーボックスの角度(水平に対するアンカーボックスの回転角度)を示し、
はアンカーボックスの中心点の座標を示す。方向に均一に分布する6つのアンカーボックスに対応し、
は、それぞれ、
である。
前記特徴データに従って、入力画像における各画素において、前記画素が前景や背景である確率を予測し、前景確率が、設定された値より高い画素を前景画素として使用することにより、画素レベルの前景セグメンテーション結果241を生成する。
であり、両者間の角度は
である。図5Bのバウンディングボックス503およびバウンディングボックス504において、両者の面積の交差比は
であり、両者間の角度は
である。ここで、
<
である。
を増加させて重複パラメータの計算を実行する。例えば、2つバウンディングボックス面積の交差比の値と角度係数の値を掛け算することにより、重複パラメータを取得する。
ニューラルネットワークをトレーニングする前に、先ず、サンプルセットを先に準備することができ、当該サンプルセットは、目標検出ネットワークをトレーニングするための複数のトレーニングサンプルを含み得る。
本開示の一実施例では、目標検出ネットワークは、特徴抽出ネットワーク、並びに当該特徴抽出ネットワークとそれぞれカスケード接続された目標予測ネットワークおよび前景セグメンテーションネットワークを含み得る。
いくつかの実施例において、目標検出ネットワークの構造は図8を参照することができる。
、即ち、第1ネットワーク損失値を取得することができる。当該第1ネットワーク損失関数の値は、注釈情報と予測情報の間の差を具現する。
、即ち、第2ネットワーク損失値を取得することができる。当該第2ネットワーク損失関数の値は、予測した前景画像と注釈情報の間の差を具現する。
いくつかの実施例において、目標予測ネットワークは、次の方式により、目標対象の候補バウンディングボックスを予測して取得する。目標予測ネットワーク的構造は図8を参照することができる。
関連技術では、各アンカーに対応するアンカーボックスのパラメータは、通常、長さ、幅および中心点の座標を含む。本具現例において、回転アンカーボックスの設定方法を提案する。
はアンカーボックスの中心点の座標を示す。方向に均一に分布する6つのアンカーボックスに対応して、
は、それぞれ、
である。対応的に、この例において、アンカーボックスのパラメータは
で示される。ここで、アスペクト比率は、1、3、5として設定されてもよく、検出する目標対象に対して他の値に設定されてもよい。
で示されることができ、当該パラメータは、図8の回帰層823を使用して回帰計算を実行することができる。回帰計算の方法は、次の通りである。
であり、ここで、
は、それぞれ、前景アンカーボックスの中心点x座標、中心点y座標、幅、長さ、角度を示し、真のバウンディングボックスに対応する5つの値は
であり、ここで、
は、それぞれ、真のバウンディングボックスの中心点x座標、中心点y座標、幅、長さ、角度を示す。
を決定することができ、ここで、
は、それぞれ、中心点x座標、中心点y座標、幅、長さ、角度のオフセットを示す。各オフセットは、例えば、それぞれ、式(4)〜(8)を介して計算することができる。
を識別する能力を備え、即ち、アンカーボックスのパラメータ値に基づいて、中心点x座標、中心点y座標、幅、長さ、角度を含む、候補バウンディングボックスのパラメータ値を決定することができる。トレーニングする時は、回帰層を使用して前景アンカーボックスから候補バウンディングボックスへのオフセットを先に計算することができる。トレーニングする時のネットワークパラメータの最適化が完了していないため、当該オフセットと実際のオフセット
の差が比較的に大きい可能性がある。
、およびトレーニングする時の前景アンカーボックスと真のバウンディングボックスのオフセット
を使用して回帰損失を計算することができる。
標準情報及び候補バウンディングボックスの情報に基づいて第1ネットワーク損失関数の値を取得する場合、アンカーボックスの各パラメータの重みの比率を設定して、幅の重みの比率が他のパラメータの重みの比率より高くなり、設定された重みの比率に従って、第1ネットワーク損失関数の値を計算するようにすることができる。
いくつかの実施例において、次の方式によりサンプル画像内の前景画像領域を予測して取得することができる前景セグメンテーションネットワークの構造は、図8を参照することができる。
Claims (37)
- 目標検出方法であって、
入力画像の特徴データを取得することと、
前記特徴データに従って、前記入力画像の複数の候補バウンディングボックスを決定することと、
前記特徴データに従って、前記入力画像の前景セグメンテーション結果を取得することであって、前記前景セグメンテーション結果は、前記入力画像の複数の画素における各画素が前景に属するかどうかを指示する指示情報を含むことと、
前記複数の候補バウンディングボックスおよび前記前景セグメンテーション結果に従って、前記入力画像の目標検出結果を取得することとを含むことを特徴とする、前記目標検出方法。 - 前記複数の候補バウンディングボックスおよび前記前景セグメンテーション結果に従って、前記入力画像の目標検出結果を取得することは、
前記複数の候補バウンディングボックスにおける各候補バウンディングボックスと、前記前景セグメンテーション結果に対応する前景画像領域との間の重複領域に従って、複数の候補バウンディングボックスから少なくとも1つの目標バウンディングボックスを選択することと、
前記少なくとも1つの目標バウンディングボックスに基づいて、前記入力画像の目標検出結果を取得することとを含むことを特徴とする、
請求項1に記載の目標検出方法。 - 前記複数の候補バウンディングボックスにおける各候補バウンディングボックスと、前記前景セグメンテーション結果に対応する前景画像領域との間の重複領域に従って、複数の候補バウンディングボックスから少なくとも1つの目標バウンディングボックスを選択することは、
前記複数の候補バウンディングボックスにおける各候補バウンディングボックスにおいて、前記候補バウンディングボックスと、対応する前景画像領域との間の重複領域の、前記候補バウンディングボックスに占める比率が第1閾値より大きい場合、前記候補バウンディングボックスを前記目標バウンディングボックスとして使用することを含むことを特徴とする、
請求項2に記載の目標検出方法。 - 前記少なくとも1つの目標バウンディングボックスは、第1バウンディングボックスおよび第2バウンディングボックスを含み、前記少なくとも1つの目標バウンディングボックスに基づいて、前記入力画像の目標検出結果を取得することは、
前記第1バウンディングボックスと前記第2バウンディングボックスの間の角度に基づいて、前記第1バウンディングボックスと前記第2バウンディングボックスの重複パラメータを決定することと、
前記第1バウンディングボックスと前記第2バウンディングボックスの重複パラメータに基づいて、前記第1バウンディングボックスおよび前記第2バウンディングボックスに対応する目標対象位置を決定することとを含むことを特徴とする、
請求項2または3に記載の目標検出方法。 - 前記第1バウンディングボックスと前記第2バウンディングボックスの間の角度に基づいて、前記第1バウンディングボックスと前記第2バウンディングボックスの重複パラメータを決定することは、
前記第1バウンディングボックスと前記第2バウンディングボックスの間の角度に従って、角度係数を取得することと、
前記第1バウンディングボックスと前記第2バウンディングボックスの間の交差比および前記角度係数に従って、前記重複パラメータを取得することとを含むことを特徴とする、
請求項4に記載の目標検出方法。 - 前記第1バウンディングボックスと前記第2バウンディングボックスの重複パラメータは、前記交差比と前記角度係数の積であり、前記角度係数は、前記第1バウンディングボックスと前記第2バウンディングボックスの間の角度の増加に伴い増加することを特徴とする、
請求項5に記載の目標検出方法。 - 前記交差比が一定に維持される条件では、前記第1バウンディングボックスと前記第2バウンディングボックスの重複パラメータは、前記第1バウンディングボックスと前記第2バウンディングボックスの間の角度の増加に伴い増加することを特徴とする、
請求項5または6に記載の目標検出方法。 - 前記第1バウンディングボックスと前記第2バウンディングボックスの重複パラメータに基づいて、前記第1バウンディングボックスおよび前記第2バウンディングボックスに対応する目標対象位置を決定することは、
前記第1バウンディングボックスと前記第2バウンディングボックスの重複パラメータが第2閾値より大きい場合、前記第1バウンディングボックスおよび前記第2バウンディングボックスのうちの1つのバウンディングボックスを前記目標対象位置として使用することを含むことを特徴とする、
請求項4ないし7のいずれか一項に記載の目標検出方法。 - 前記第1バウンディングボックスおよび前記第2バウンディングボックスのうちの1つのバウンディングボックスを前記目標対象位置として使用することは、
前記第1バウンディングボックスと、前記前景セグメンテーション結果に対応する前景画像領域の間の重複パラメータ、および前記第2バウンディングボックスと前記前景画像領域の間の重複パラメータを決定することと、
前記第1バウンディングボックスおよび前記第2バウンディングボックスのうち、前記前景画像領域との間の重複パラメータがより大きいバウンディングボックスを前記目標対象位置として使用することとを含むことを特徴とする、
請求項8に記載の目標検出方法。 - 前記第1バウンディングボックスと前記第2バウンディングボックスの重複パラメータに基づいて、前記第1バウンディングボックスおよび前記第2バウンディングボックスに対応する目標対象位置を決定することは、
前記第1バウンディングボックスと前記第2バウンディングボックスの重複パラメータが第2閾値より小さいか等しい場合、前記第1バウンディングボックスおよび前記第2バウンディングボックスを両方とも前記目標対象位置として使用することを含むことを特徴とする、
請求項4ないし9のいずれか一項に記載の目標検出方法。 - 前記入力画像内の検出される目標対象のアスペクト比は特定の値より大きいことを特徴とする、
請求項1ないし10のいずれか一項に記載の目標検出方法。 - 目標検出ネットワークのトレーニング方法であって、
前記目標検出ネットワークは、特徴抽出ネットワーク、目標予測ネットワークおよび前景セグメンテーションネットワークを含み、前記方法は、
前記特徴抽出ネットワークを介してサンプル画像に対して特徴抽出処理を実行して、前記サンプル画像の特徴データを取得することと、
前記特徴データに従って、前記目標予測ネットワークを介して複数のサンプル候補バウンディングボックスを取得することと、
前記特徴データに従って、前記前景セグメンテーションネットワークを介して前記サンプル画像のサンプル前景セグメンテーション結果を取得することであって、前記サンプル前景セグメンテーション結果は、前記サンプル画像の複数の画素点における各画素点が前景に属するかどうかを指示する指示情報を含むことと、
前記複数のサンプル候補バウンディングボックス、前記サンプル前景セグメンテーション結果および前記サンプル画像の注釈情報に従って、ネットワーク損失値を決定することと、
前記ネットワーク損失値に基づいて、前記目標検出ネットワークのネットワークパラメータを調整することとを含むことを特徴とする、前記目標検出ネットワークのトレーニング方法。 - 前記注釈情報は、前記サンプル画像に含まれる少なくとも1つの目標対象の真のバウンディングボックスを含み、前記複数のサンプル候補バウンディングボックス、前記サンプル前景画像領域および前記サンプル画像の注釈情報に従って、ネットワーク損失値を決定することは、
前記複数の候補バウンディングボックスにおける各候補バウンディングボックスにおいて、前記候補バウンディングボックスと、前記サンプル画像によって注釈された少なくとも1つの真の目標バウンディングボックスにおける各真の目標バウンディングボックスの間の交差比を決定することと、
決定された前記複数の候補バウンディングボックスにおける各候補バウンディングボックスの前記交差比に従って、第1ネットワーク損失値を決定することとを含むことを特徴とする、
請求項12に記載の目標検出ネットワークのトレーニング方法。 - 前記候補バウンディングボックスと前記真の目標バウンディングボックスの間の交差比は、前記候補バウンディングボックスおよび前記真の目標バウンディングボックスを含む外接円に基づいて取得されることを特徴とする、
請求項13に記載の目標検出ネットワークのトレーニング方法。 - 前記ネットワーク損失値を決定するプロセスにおいて、前記候補バウンディングボックスの幅に対応する重みは、前記候補バウンディングボックスの長さに対応する重みより高いことを特徴とする、
請求項12ないし14のいずれか一項に記載の目標検出ネットワークのトレーニング方法。 - 前記特徴データに従って、前記前景セグメンテーションネットワークを介して前記サンプル画像のサンプル前景セグメンテーション結果を取得することは、
前記特徴データに対してアップサンプリング処理を実行して、処理後の前記特徴データの大きさをサンプル画像の大きさと同じにすることと、
前記処理後の前記特徴データに基づいて画素セグメンテーションを実行して、前記サンプル画像のサンプル前景セグメンテーション結果を取得することとを含むことを特徴とする、
請求項12ないし15のいずれか一項に記載の目標検出ネットワークのトレーニング方法。 - 前記サンプル画像に含まれる目標対象のアスペクト比は、設定された値より高いことを特徴とする、
請求項12ないし16のいずれか一項に記載の目標検出ネットワークのトレーニング方法。 - 目標検出装置であって、
入力画像の特徴データを取得するように構成される特徴抽出ユニットと、
前記特徴データに従って、前記入力画像の複数の候補バウンディングボックスを決定するように構成される目標予測ユニットと、
前記特徴データに従って、前記入力画像の前景セグメンテーション結果を取得するように構成される前景セグメンテーションユニットであって、前景セグメンテーション結果は、前記入力画像の複数の画素における各画素が前景に属するかどうかを指示する指示情報を含む前景セグメンテーションユニットと、
前記複数の候補バウンディングボックスおよび前記前景セグメンテーション結果に従って、前記入力画像の目標検出結果を取得するように構成される目標決定ユニットとを備えることを特徴とする、前記目標検出装置。 - 前記目標決定ユニットは、具体的に、
前記複数の候補バウンディングボックスにおける各候補バウンディングボックスと、前記前景セグメンテーション結果に対応する前景画像領域との間の重複領域に従って、複数の候補バウンディングボックスから少なくとも1つの目標バウンディングボックスを選択し、
前記少なくとも1つの目標バウンディングボックスに基づいて、前記入力画像の目標検出結果を取得するように構成されることを特徴とする、
請求項18に記載の目標検出装置。 - 前記目標決定ユニットは、前記複数の候補バウンディングボックスにおける各候補バウンディングボックスと、前記前景セグメンテーション結果に対応する前景画像領域との間の重複領域に従って、複数の候補バウンディングボックスから少なくとも1つの目標バウンディングボックスを選択するように構成される場合、具体的に、
前記複数の候補バウンディングボックスにおける各候補バウンディングボックスにおいて、前記候補バウンディングボックスと、対応する前景画像領域との間の重複領域の、前記候補バウンディングボックスに占める比率が第1閾値より大きい場合、前記候補バウンディングボックスを前記目標バウンディングボックスとして使用するように構成されることを特徴とする、
請求項19に記載の目標検出装置。 - 前記少なくとも1つの目標バウンディングボックスは、第1バウンディングボックスおよび第2バウンディングボックスを含み、前記目標決定ユニットは、前記少なくとも1つの目標バウンディングボックスに基づいて、前記入力画像の目標検出結果を取得するように構成される場合、具体的に、
前記第1バウンディングボックスと前記第2バウンディングボックスの間の角度に基づいて、前記第1バウンディングボックスと前記第2バウンディングボックスの重複パラメータを決定し、
前記第1バウンディングボックスと前記第2バウンディングボックスの重複パラメータに基づいて、前記第1バウンディングボックスおよび前記第2バウンディングボックスに対応する目標対象位置を決定するように構成されることを特徴とする、
請求項19または20に記載の目標検出装置。 - 前記目標決定ユニットは、前記第1バウンディングボックスと前記第2バウンディングボックスの間の角度に基づいて、前記第1バウンディングボックスと前記第2バウンディングボックスの重複パラメータを決定するように構成される場合、具体的に、
前記第1バウンディングボックスと前記第2バウンディングボックスの間の角度に従って、角度係数を取得し、
前記第1バウンディングボックスと前記第2バウンディングボックスの間の交差比および前記角度係数に従って、前記重複パラメータを取得するように構成されることを特徴とする、
請求項21に記載の目標検出装置。 - 前記第1バウンディングボックスと前記第2バウンディングボックスの重複パラメータは、前記交差比と前記角度係数の積であり、前記角度係数は、前記第1バウンディングボックスと前記第2バウンディングボックスの間の角度の増加に伴い増加することを特徴とする、
請求項22に記載の目標検出装置。 - 前記交差比が一定に維持される条件では、前記第1バウンディングボックスと前記第2バウンディングボックスの重複パラメータは、前記第1バウンディングボックスと前記第2バウンディングボックスの間の角度の増加に伴い増加することを特徴とする、
請求項22または23に記載の目標検出装置。 - 前記第1バウンディングボックスと前記第2バウンディングボックスの重複パラメータに基づいて、前記第1バウンディングボックスおよび前記第2バウンディングボックスに対応する目標対象位置を決定することは、
前記第1バウンディングボックスと前記第2バウンディングボックスの重複パラメータが第2閾値より大きい場合、前記第1バウンディングボックスおよび前記第2バウンディングボックスのうちの1つのバウンディングボックスを前記目標対象位置として使用することを含むことを特徴とする、
請求項21ないし24のいずれか一項に記載の目標検出装置。 - 前記第1バウンディングボックスおよび前記第2バウンディングボックスのうちの1つのバウンディングボックスを前記目標対象位置として使用することは、
前記第1バウンディングボックスと、前記前景セグメンテーション結果に対応する前景画像領域の間の重複パラメータ、および前記第2バウンディングボックスと前記前景画像領域の間の重複パラメータを決定することと、
前記第1バウンディングボックスおよび前記第2バウンディングボックスのうち、前記前景画像領域との間の重複パラメータがより大きいバウンディングボックスを前記目標対象位置として使用することとを含むことを特徴とする、
請求項25に記載の目標検出装置。 - 前記第1バウンディングボックスと前記第2バウンディングボックスの重複パラメータに基づいて、前記第1バウンディングボックスおよび前記第2バウンディングボックスに対応する目標対象位置を決定することは、
前記第1バウンディングボックスと前記第2バウンディングボックスの重複パラメータが第2閾値より小さいか等しい場合、前記第1バウンディングボックスおよび前記第2バウンディングボックスを両方とも前記目標対象位置として使用することを含むことを特徴とする、
請求項21ないし26のいずれか一項に記載の目標検出装置。 - 前記入力画像内の検出される目標対象のアスペクト比は特定の値より大きいことを特徴とする、
請求項18ないし27のいずれか一項に記載の目標検出装置。 - 目標検出ネットワークのトレーニング装置であって、
前記目標検出ネットワークは、特徴抽出ネットワーク、目標予測ネットワークおよび前景セグメンテーションネットワークを含み、前記装置は、
前記特徴抽出ネットワークを介してサンプル画像に対して特徴抽出処理を実行して、前記サンプル画像の特徴データを取得するように構成される特徴抽出ユニットと、
前記特徴データに従って、前記目標予測ネットワークを介して複数のサンプル候補バウンディングボックスを取得するように構成される目標予測ユニットと、
前記特徴データに従って、前記前景セグメンテーションネットワークを介して前記サンプル画像のサンプル前景セグメンテーション結果を取得するように構成される前景セグメンテーションユニットであって、前記サンプル前景セグメンテーション結果は、前記サンプル画像の複数の画素点における各画素点が前景に属するかどうかを指示する指示情報を含む前景セグメンテーションユニットと、
前記複数のサンプル候補バウンディングボックス、前記サンプル前景セグメンテーション結果および前記サンプル画像の注釈情報に従って、ネットワーク損失値を決定するように構成される損失値決定ユニットと、
前記ネットワーク損失値に基づいて、前記目標検出ネットワークのネットワークパラメータを調整するように構成されるパラメータ調整ユニットとを備えることを特徴とする、前記目標検出ネットワークのトレーニング装置。 - 前記注釈情報は、前記サンプル画像に含まれる少なくとも1つの目標対象の真のバウンディングボックスを含み、前記損失値決定ユニットは、具体的に、
前記複数の候補バウンディングボックスにおける各候補バウンディングボックスにおいて、前記候補バウンディングボックスと、前記サンプル画像によって注釈された少なくとも1つの真の目標バウンディングボックスにおける各真の目標バウンディングボックスの間の交差比を決定し、
決定された前記複数の候補バウンディングボックスにおける各候補バウンディングボックスの前記交差比に従って、第1ネットワーク損失値を決定するように構成されることを特徴とする、
請求項29に記載の目標検出ネットワークのトレーニング装置。 - 前記候補バウンディングボックスと前記真の目標バウンディングボックスの間の交差比は、前記候補バウンディングボックスおよび前記真の目標バウンディングボックスを含む外接円に基づいて取得されることを特徴とする、
請求項30に記載の目標検出ネットワークのトレーニング装置。 - 前記ネットワーク損失値を決定するプロセスにおいて、前記候補バウンディングボックスの幅に対応する重みは、前記候補バウンディングボックスの長さに対応する重みより高いことを特徴とする、
請求項29ないし31のいずれか一項に記載の目標検出ネットワークのトレーニング装置。 - 前記前景セグメンテーションユニットは、具体的に、
前記特徴データに対してアップサンプリング処理を実行して、処理後の前記特徴データの大きさをサンプル画像の大きさと同じにし、
前記処理後の前記特徴データに基づいて画素セグメンテーションを実行して、前記サンプル画像のサンプル前景セグメンテーション結果を取得するように構成されることを特徴とする、
請求項29ないし32のいずれか一項に記載の目標検出ネットワークのトレーニング装置。 - 前記サンプル画像に含まれる目標対象のアスペクト比は、設定された値より高いことを特徴とする、
請求項29ないし33のいずれか一項に記載の目標検出ネットワークのトレーニング装置。 - 目標検出機器であって、
メモリおよびプロセッサを備え、前記メモリは、前記プロセッサによって実行可能なコンピュータ命令を記憶するように構成され、前記プロセッサは、前記コンピュータ命令を実行する時に、請求項1ないし11のいずれか一項に記載の方法を実現するように構成されることを特徴とする、前記目標検出機器。 - 目標検出ネットワークのトレーニング機器であって、
メモリおよびプロセッサを備え、前記メモリは、前記プロセッサによって実行可能なコンピュータ命令を記憶するように構成され、前記プロセッサは、前記コンピュータ命令を実行する時に、請求項12ないし17のいずれか一項に記載の方法を実現するように構成されることを特徴とする、前記目標検出ネットワークのトレーニング機器。 - コンピュータプログラムが記憶された不揮発性コンピュータ読み取り可能な記憶媒体であって、
前記プログラムがプロセッサによって実行されると、前記プロセッサが請求項1ないし11のいずれか一項に記載の方法を実現し、または請求項12ないし17のいずれか一項に記載の方法を実現するようにすることを特徴とする、前記不揮発性コンピュータ読み取り可能な記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910563005.8 | 2019-06-26 | ||
CN201910563005.8A CN110298298B (zh) | 2019-06-26 | 2019-06-26 | 目标检测及目标检测网络的训练方法、装置及设备 |
PCT/CN2019/128383 WO2020258793A1 (zh) | 2019-06-26 | 2019-12-25 | 目标检测及目标检测网络的训练 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021532435A true JP2021532435A (ja) | 2021-11-25 |
JP7096365B2 JP7096365B2 (ja) | 2022-07-05 |
Family
ID=68028948
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020561707A Active JP7096365B2 (ja) | 2019-06-26 | 2019-12-25 | 目標検出および目標検出ネットワークのトレーニング |
Country Status (7)
Country | Link |
---|---|
US (1) | US20210056708A1 (ja) |
JP (1) | JP7096365B2 (ja) |
KR (1) | KR102414452B1 (ja) |
CN (1) | CN110298298B (ja) |
SG (1) | SG11202010475SA (ja) |
TW (1) | TWI762860B (ja) |
WO (1) | WO2020258793A1 (ja) |
Families Citing this family (73)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110298298B (zh) * | 2019-06-26 | 2022-03-08 | 北京市商汤科技开发有限公司 | 目标检测及目标检测网络的训练方法、装置及设备 |
CN110781819A (zh) * | 2019-10-25 | 2020-02-11 | 浪潮电子信息产业股份有限公司 | 一种图像目标检测方法、系统、电子设备及存储介质 |
CN110866928B (zh) * | 2019-10-28 | 2021-07-16 | 中科智云科技有限公司 | 基于神经网络的目标边界分割及背景噪声抑制方法及设备 |
CN112784638B (zh) * | 2019-11-07 | 2023-12-08 | 北京京东乾石科技有限公司 | 训练样本获取方法和装置、行人检测方法和装置 |
CN110930420B (zh) * | 2019-11-11 | 2022-09-30 | 中科智云科技有限公司 | 基于神经网络的稠密目标背景噪声抑制方法及设备 |
CN110880182B (zh) * | 2019-11-18 | 2022-08-26 | 东声(苏州)智能科技有限公司 | 图像分割模型训练方法、图像分割方法、装置及电子设备 |
US11200455B2 (en) * | 2019-11-22 | 2021-12-14 | International Business Machines Corporation | Generating training data for object detection |
CN111027602B (zh) * | 2019-11-25 | 2023-04-07 | 清华大学深圳国际研究生院 | 一种多级结构目标检测方法及系统 |
CN112886996B (zh) * | 2019-11-29 | 2024-08-20 | 北京三星通信技术研究有限公司 | 信号接收方法、用户设备、电子设备及计算机存储介质 |
WO2021111622A1 (ja) * | 2019-12-06 | 2021-06-10 | 日本電気株式会社 | パラメータ決定装置、パラメータ決定方法、及び、非一時的なコンピュータ可読媒体 |
CN111079638A (zh) * | 2019-12-13 | 2020-04-28 | 河北爱尔工业互联网科技有限公司 | 基于卷积神经网络的目标检测模型训练方法、设备和介质 |
CN111179300A (zh) * | 2019-12-16 | 2020-05-19 | 新奇点企业管理集团有限公司 | 障碍物检测的方法、装置、系统、设备以及存储介质 |
CN113051969A (zh) * | 2019-12-26 | 2021-06-29 | 深圳市超捷通讯有限公司 | 物件识别模型训练方法及车载装置 |
SG10201913754XA (en) * | 2019-12-30 | 2020-12-30 | Sensetime Int Pte Ltd | Image processing method and apparatus, electronic device, and storage medium |
CN111105411B (zh) * | 2019-12-30 | 2023-06-23 | 创新奇智(青岛)科技有限公司 | 一种磁瓦表面缺陷检测方法 |
CN111079707B (zh) * | 2019-12-31 | 2023-06-13 | 深圳云天励飞技术有限公司 | 人脸检测方法及相关装置 |
CN111241947B (zh) * | 2019-12-31 | 2023-07-18 | 深圳奇迹智慧网络有限公司 | 目标检测模型的训练方法、装置、存储介质和计算机设备 |
CN111260666B (zh) * | 2020-01-19 | 2022-05-24 | 上海商汤临港智能科技有限公司 | 图像处理方法及装置、电子设备、计算机可读存储介质 |
CN111508019A (zh) * | 2020-03-11 | 2020-08-07 | 上海商汤智能科技有限公司 | 目标检测方法及其模型的训练方法及相关装置、设备 |
CN111353464B (zh) * | 2020-03-12 | 2023-07-21 | 北京迈格威科技有限公司 | 一种物体检测模型训练、物体检测方法及装置 |
CN113496513A (zh) * | 2020-03-20 | 2021-10-12 | 阿里巴巴集团控股有限公司 | 一种目标对象检测方法及装置 |
US11847771B2 (en) * | 2020-05-01 | 2023-12-19 | Samsung Electronics Co., Ltd. | Systems and methods for quantitative evaluation of optical map quality and for data augmentation automation |
CN111582265A (zh) * | 2020-05-14 | 2020-08-25 | 上海商汤智能科技有限公司 | 一种文本检测方法及装置、电子设备和存储介质 |
CN111738112B (zh) * | 2020-06-10 | 2023-07-07 | 杭州电子科技大学 | 基于深度神经网络和自注意力机制的遥感船舶图像目标检测方法 |
CN111797704B (zh) * | 2020-06-11 | 2023-05-02 | 同济大学 | 一种基于相关物体感知的动作识别方法 |
CN111797993B (zh) * | 2020-06-16 | 2024-02-27 | 东软睿驰汽车技术(沈阳)有限公司 | 深度学习模型的评价方法、装置、电子设备及存储介质 |
CN112001247B (zh) * | 2020-07-17 | 2024-08-06 | 浙江大华技术股份有限公司 | 多目标检测方法、设备及存储装置 |
CN111967595B (zh) * | 2020-08-17 | 2023-06-06 | 成都数之联科技股份有限公司 | 候选框标注方法及系统及模型训练方法及目标检测方法 |
US11657373B2 (en) * | 2020-08-21 | 2023-05-23 | Accenture Global Solutions Limited | System and method for identifying structural asset features and damage |
CN112508848B (zh) * | 2020-11-06 | 2024-03-26 | 上海亨临光电科技有限公司 | 一种基于深度学习多任务端到端的遥感图像船舶旋转目标检测方法 |
KR20220068357A (ko) * | 2020-11-19 | 2022-05-26 | 한국전자기술연구원 | 딥러닝 객체 검출 처리 장치 |
CN112597837B (zh) * | 2020-12-11 | 2024-05-28 | 北京百度网讯科技有限公司 | 图像检测方法、装置、设备、存储介质和计算机程序产品 |
CN112906732B (zh) * | 2020-12-31 | 2023-12-15 | 杭州旷云金智科技有限公司 | 目标检测方法、装置、电子设备及存储介质 |
CN112862761B (zh) * | 2021-01-20 | 2023-01-17 | 清华大学深圳国际研究生院 | 一种基于深度神经网络的脑瘤mri图像分割方法及系统 |
KR102378887B1 (ko) * | 2021-02-15 | 2022-03-25 | 인하대학교 산학협력단 | 객체 탐지에서의 둘레기반 IoU 손실함수를 통한 효율적인 바운딩 박스 회귀 학습 방법 및 장치 |
CN112966587B (zh) * | 2021-03-02 | 2022-12-20 | 北京百度网讯科技有限公司 | 目标检测模型的训练方法、目标检测方法及相关设备 |
CN113780270B (zh) * | 2021-03-23 | 2024-06-21 | 京东鲲鹏(江苏)科技有限公司 | 目标检测方法和装置 |
CN112967322B (zh) * | 2021-04-07 | 2023-04-18 | 深圳创维-Rgb电子有限公司 | 运动目标检测模型建立方法和运动目标检测方法 |
CN113095257A (zh) * | 2021-04-20 | 2021-07-09 | 上海商汤智能科技有限公司 | 异常行为检测方法、装置、设备及存储介质 |
CN113160201B (zh) * | 2021-04-30 | 2024-04-12 | 聚时科技(上海)有限公司 | 基于极坐标的环状边界框的目标检测方法 |
CN112990204B (zh) * | 2021-05-11 | 2021-08-24 | 北京世纪好未来教育科技有限公司 | 目标检测方法、装置、电子设备及存储介质 |
CN113706450A (zh) * | 2021-05-18 | 2021-11-26 | 腾讯科技(深圳)有限公司 | 图像配准方法、装置、设备及可读存储介质 |
CN113313697B (zh) * | 2021-06-08 | 2023-04-07 | 青岛商汤科技有限公司 | 图像分割和分类方法及其模型训练方法、相关装置及介质 |
CN113284185B (zh) * | 2021-06-16 | 2022-03-15 | 河北工业大学 | 用于遥感目标检测的旋转目标检测方法 |
CN113536986B (zh) * | 2021-06-29 | 2024-06-14 | 南京逸智网络空间技术创新研究院有限公司 | 一种基于代表特征的遥感图像中的密集目标检测方法 |
CN113627421B (zh) * | 2021-06-30 | 2024-09-06 | 华为技术有限公司 | 一种图像处理方法、模型的训练方法以及相关设备 |
CN113505256B (zh) * | 2021-07-02 | 2022-09-02 | 北京达佳互联信息技术有限公司 | 特征提取网络训练方法、图像处理方法及装置 |
CN113610764A (zh) * | 2021-07-12 | 2021-11-05 | 深圳市银星智能科技股份有限公司 | 地毯识别方法、装置、智能设备及存储介质 |
CN113537342B (zh) * | 2021-07-14 | 2024-09-20 | 浙江智慧视频安防创新中心有限公司 | 一种图像中物体检测方法、装置、存储介质及终端 |
CN113361662B (zh) * | 2021-07-22 | 2023-08-29 | 全图通位置网络有限公司 | 一种城市轨道交通遥感图像数据的处理系统及方法 |
CN113657482A (zh) * | 2021-08-14 | 2021-11-16 | 北京百度网讯科技有限公司 | 模型训练方法、目标检测方法、装置、设备以及存储介质 |
CN113658199B (zh) * | 2021-09-02 | 2023-11-03 | 中国矿业大学 | 基于回归修正的染色体实例分割网络 |
CN113469302A (zh) * | 2021-09-06 | 2021-10-01 | 南昌工学院 | 一种视频图像的多圆形目标识别方法和系统 |
US11900643B2 (en) * | 2021-09-17 | 2024-02-13 | Himax Technologies Limited | Object detection method and object detection system |
CN113850783B (zh) * | 2021-09-27 | 2022-08-30 | 清华大学深圳国际研究生院 | 一种海面船舶检测方法及系统 |
CN114037865B (zh) * | 2021-11-02 | 2023-08-22 | 北京百度网讯科技有限公司 | 图像处理方法、装置、设备、存储介质和程序产品 |
CN114118408A (zh) * | 2021-11-11 | 2022-03-01 | 北京达佳互联信息技术有限公司 | 图像处理模型的训练方法、图像处理方法、装置及设备 |
CN114387492B (zh) * | 2021-11-19 | 2024-10-15 | 西北工业大学 | 一种基于深度学习的近岸水面区域舰船检测方法及装置 |
CN114399697A (zh) * | 2021-11-25 | 2022-04-26 | 北京航空航天大学杭州创新研究院 | 一种基于运动前景的场景自适应目标检测方法 |
WO2023128323A1 (ko) * | 2021-12-28 | 2023-07-06 | 삼성전자 주식회사 | 목표 객체를 검출하는 전자 장치 및 방법 |
CN114359561A (zh) * | 2022-01-10 | 2022-04-15 | 北京百度网讯科技有限公司 | 一种目标检测方法及目标检测模型的训练方法、装置 |
WO2023178542A1 (en) * | 2022-03-23 | 2023-09-28 | Robert Bosch Gmbh | Image processing apparatus and method |
CN114492210B (zh) * | 2022-04-13 | 2022-07-19 | 潍坊绘圆地理信息有限公司 | 一种高光谱卫星星载数据智能解译系统及其实现方法 |
CN114463603B (zh) * | 2022-04-14 | 2022-08-23 | 浙江啄云智能科技有限公司 | 图像检测模型的训练方法、装置、电子设备及存储介质 |
CN114842510A (zh) * | 2022-05-27 | 2022-08-02 | 澜途集思生态科技集团有限公司 | 基于ScratchDet算法的生态生物识别方法 |
CN115131552A (zh) * | 2022-07-20 | 2022-09-30 | 上海联影智能医疗科技有限公司 | 目标检测方法、计算机设备和存储介质 |
CN117036670B (zh) * | 2022-10-20 | 2024-06-07 | 腾讯科技(深圳)有限公司 | 质量检测模型的训练方法、装置、设备、介质及程序产品 |
CN115496917B (zh) * | 2022-11-01 | 2023-09-26 | 中南大学 | 一种GPR B-Scan图像中的多目标检测方法及装置 |
CN116152487A (zh) * | 2023-04-17 | 2023-05-23 | 广东广物互联网科技有限公司 | 一种基于深度IoU网络的目标检测方法、装置、设备及介质 |
CN116721093B (zh) * | 2023-08-03 | 2023-10-31 | 克伦斯(天津)轨道交通技术有限公司 | 基于神经网络的地铁轨道障碍物检测方法和系统 |
CN117876384B (zh) * | 2023-12-21 | 2024-08-20 | 珠海横琴圣澳云智科技有限公司 | 目标对象实例分割、模型训练方法及相关产品 |
CN117854211B (zh) * | 2024-03-07 | 2024-05-28 | 南京奥看信息科技有限公司 | 一种基于智能视觉的目标对象识别方法及装置 |
CN118397256B (zh) * | 2024-06-28 | 2024-08-30 | 武汉卓目科技股份有限公司 | Sar图像舰船目标检测方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180089505A1 (en) * | 2016-09-23 | 2018-03-29 | Samsung Electronics Co., Ltd. | System and method for deep network fusion for fast and robust object detection |
JP2019061505A (ja) * | 2017-09-27 | 2019-04-18 | 株式会社デンソー | 情報処理システム、制御システム、及び学習方法 |
JP2019067404A (ja) * | 2017-10-03 | 2019-04-25 | 株式会社ストラドビジョン | マルコフ連鎖を用いてイメージ上の対象客体を追跡、分割する方法及び装置 |
CN110298298A (zh) * | 2019-06-26 | 2019-10-01 | 北京市商汤科技开发有限公司 | 目标检测及目标检测网络的训练方法、装置及设备 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9665767B2 (en) * | 2011-02-28 | 2017-05-30 | Aic Innovations Group, Inc. | Method and apparatus for pattern tracking |
KR20140134505A (ko) * | 2013-05-14 | 2014-11-24 | 경성대학교 산학협력단 | 영상 객체 추적 방법 |
CN103530613B (zh) * | 2013-10-15 | 2017-02-01 | 易视腾科技股份有限公司 | 一种基于单目视频序列的目标人手势交互方法 |
CN105046721B (zh) * | 2015-08-03 | 2018-08-17 | 南昌大学 | 基于Grabcut及LBP跟踪质心矫正模型的Camshift算法 |
CN107872644B (zh) * | 2016-09-23 | 2020-10-09 | 亿阳信通股份有限公司 | 视频监控方法及装置 |
CN106898005B (zh) * | 2017-01-04 | 2020-07-17 | 努比亚技术有限公司 | 一种实现交互式图像分割的方法、装置及终端 |
KR20180107988A (ko) * | 2017-03-23 | 2018-10-04 | 한국전자통신연구원 | 객체 탐지 장치 및 방법 |
KR101837482B1 (ko) * | 2017-03-28 | 2018-03-13 | (주)이더블유비엠 | 영상처리방법 및 장치, 그리고 이를 이용한 제스처 인식 인터페이스 방법 및 장치 |
CN107369158B (zh) * | 2017-06-13 | 2020-11-13 | 南京邮电大学 | 基于rgb-d图像的室内场景布局估计及目标区域提取方法 |
CN107862262A (zh) * | 2017-10-27 | 2018-03-30 | 中国航空无线电电子研究所 | 一种适用于高空侦察的快速可见光图像舰船检测方法 |
CN108513131B (zh) * | 2018-03-28 | 2020-10-20 | 浙江工业大学 | 一种自由视点视频深度图感兴趣区域编码方法 |
CN108717693A (zh) * | 2018-04-24 | 2018-10-30 | 浙江工业大学 | 一种基于rpn的视盘定位方法 |
CN109214353B (zh) * | 2018-09-27 | 2021-11-23 | 云南大学 | 一种基于剪枝模型的人脸图像快速检测训练方法和装置 |
-
2019
- 2019-06-26 CN CN201910563005.8A patent/CN110298298B/zh active Active
- 2019-12-25 JP JP2020561707A patent/JP7096365B2/ja active Active
- 2019-12-25 SG SG11202010475SA patent/SG11202010475SA/en unknown
- 2019-12-25 WO PCT/CN2019/128383 patent/WO2020258793A1/zh active Application Filing
- 2019-12-25 KR KR1020207030752A patent/KR102414452B1/ko active IP Right Grant
-
2020
- 2020-01-17 TW TW109101702A patent/TWI762860B/zh active
- 2020-10-21 US US17/076,136 patent/US20210056708A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180089505A1 (en) * | 2016-09-23 | 2018-03-29 | Samsung Electronics Co., Ltd. | System and method for deep network fusion for fast and robust object detection |
JP2019061505A (ja) * | 2017-09-27 | 2019-04-18 | 株式会社デンソー | 情報処理システム、制御システム、及び学習方法 |
JP2019067404A (ja) * | 2017-10-03 | 2019-04-25 | 株式会社ストラドビジョン | マルコフ連鎖を用いてイメージ上の対象客体を追跡、分割する方法及び装置 |
CN110298298A (zh) * | 2019-06-26 | 2019-10-01 | 北京市商汤科技开发有限公司 | 目标检测及目标检测网络的训练方法、装置及设备 |
Also Published As
Publication number | Publication date |
---|---|
US20210056708A1 (en) | 2021-02-25 |
TWI762860B (zh) | 2022-05-01 |
KR20210002104A (ko) | 2021-01-06 |
SG11202010475SA (en) | 2021-01-28 |
TW202101377A (zh) | 2021-01-01 |
CN110298298A (zh) | 2019-10-01 |
WO2020258793A1 (zh) | 2020-12-30 |
CN110298298B (zh) | 2022-03-08 |
KR102414452B1 (ko) | 2022-06-29 |
JP7096365B2 (ja) | 2022-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7096365B2 (ja) | 目標検出および目標検出ネットワークのトレーニング | |
CN112446327B (zh) | 一种基于无锚框的遥感图像目标检测方法 | |
CN109902677B (zh) | 一种基于深度学习的车辆检测方法 | |
CN111222395B (zh) | 目标检测方法、装置与电子设备 | |
CN112233181A (zh) | 6d位姿识别的方法、装置及计算机存储介质 | |
CN109697441B (zh) | 一种目标检测方法、装置及计算机设备 | |
CN109712071B (zh) | 基于航迹约束的无人机图像拼接与定位方法 | |
CN113409325B (zh) | 基于精细分割的大幅面sar影像舰船目标检测识别方法 | |
CN113850129A (zh) | 一种旋转等变的空间局部注意力遥感图像目标检测方法 | |
CN109858547A (zh) | 一种基于bssd的目标检测方法与装置 | |
CN112800955A (zh) | 基于加权双向特征金字塔的遥感影像旋转目标检测方法及系统 | |
CN113724135A (zh) | 图像拼接方法、装置、设备及存储介质 | |
CN114926747A (zh) | 一种基于多特征聚合与交互的遥感图像定向目标检测方法 | |
CN108010065A (zh) | 低空目标快速检测方法及装置、存储介质及电子终端 | |
AU2020272936A1 (en) | Methods and systems for crack detection using a fully convolutional network | |
CN114332633B (zh) | 雷达图像目标检测识别方法、设备和存储介质 | |
CN113850761A (zh) | 一种基于多角度检测框的遥感图像目标检测方法 | |
CN114565824B (zh) | 基于全卷积网络的单阶段旋转舰船检测方法 | |
CN115100616A (zh) | 点云目标检测方法、装置、电子设备及存储介质 | |
CN110717910B (zh) | 基于卷积神经网络的ct图像目标检测方法及ct扫描仪 | |
CN116953702A (zh) | 基于演绎范式的旋转目标检测方法及装置 | |
CN116189160A (zh) | 一种基于局部对比度机制的红外弱小目标检测方法 | |
CN116385477A (zh) | 一种基于图像分割的杆塔图像配准方法 | |
CN115035429A (zh) | 一种基于复合主干网络和多预测头的航拍目标检测方法 | |
US12062223B2 (en) | High-resolution image matching method and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201102 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201102 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220607 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220623 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7096365 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |