JP7096365B2 - 目標検出および目標検出ネットワークのトレーニング - Google Patents
目標検出および目標検出ネットワークのトレーニング Download PDFInfo
- Publication number
- JP7096365B2 JP7096365B2 JP2020561707A JP2020561707A JP7096365B2 JP 7096365 B2 JP7096365 B2 JP 7096365B2 JP 2020561707 A JP2020561707 A JP 2020561707A JP 2020561707 A JP2020561707 A JP 2020561707A JP 7096365 B2 JP7096365 B2 JP 7096365B2
- Authority
- JP
- Japan
- Prior art keywords
- bounding box
- target
- foreground
- network
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Remote Sensing (AREA)
- Astronomy & Astrophysics (AREA)
- Image Analysis (AREA)
Description
入力画像の特徴データを取得することと、前記特徴データに従って、前記入力画像の複数の候補バウンディングボックスを決定することと、前記特徴データに従って、前記入力画像の前景セグメンテーション結果を取得することであって、前景セグメンテーション結果は、前記入力画像の複数の画素における各画素が前景に属するかどうかを指示する指示情報を含むことと、前記複数の候補バウンディングボックスおよび前記前景セグメンテーション結果に従って、前記入力画像の目標検出結果を取得することとを含む。
前記特徴抽出ネットワークを介してサンプル画像に対して特徴抽出処理を実行して、前記サンプル画像の特徴データを取得することと、前記特徴データに従って、前記目標予測ネットワークを介して複数のサンプル候補バウンディングボックスを取得する;前記特徴データに従って、前記前景セグメンテーションネットワークを介して前記サンプル画像のサンプル前景セグメンテーション結果を取得することであって、前記サンプル前景セグメンテーション結果は、前記サンプル画像の複数の画素点における各画素点が前景に属するかどうかを指示する指示情報を含むことと、前記複数のサンプル候補バウンディングボックス、前記サンプル前景セグメンテーション結果および前記サンプル画像の注釈情報に従って、ネットワーク損失値を決定することと、前記ネットワーク損失値に基づいて、前記目標検出ネットワークのネットワークパラメータを調整することとを含む。
入力画像の特徴データを取得するように構成される特徴抽出ユニットと、前記特徴データに従って、前記入力画像の複数の候補バウンディングボックスを決定するように構成される目標予測ユニットと、前記特徴データに従って、前記入力画像の前景セグメンテーション結果を取得するように構成される前景セグメンテーションユニットであって、前景セグメンテーション結果は、前記入力画像の複数の画素における各画素が前景に属するかどうかを指示する指示情報を含む前景セグメンテーションユニットと、前記複数の候補バウンディングボックスおよび前記前景セグメンテーション結果に従って、前記入力画像の目標検出結果を取得するように構成される目標決定ユニットとを備える。
前記特徴抽出ネットワークを介してサンプル画像に対して特徴抽出処理を実行して、前記サンプル画像の特徴データを取得するように構成される特徴抽出ユニットと、前記特徴データに従って、前記目標予測ネットワークを介して複数のサンプル候補バウンディングボックスを取得するように構成される目標予測ユニットと、前記特徴データに従って、前記前景セグメンテーションネットワークを介して前記サンプル画像のサンプル前景セグメンテーション結果を取得するように構成される前景セグメンテーションユニットであって、前記サンプル前景セグメンテーション結果は、前記サンプル画像の複数の画素点における各画素点が前景に属するかどうかを指示する指示情報を含む前景セグメンテーションユニットと、前記複数のサンプル候補バウンディングボックス、前記サンプル前景セグメンテーション結果および前記サンプル画像の注釈情報に従って、ネットワーク損失値を決定するように構成される損失値決定ユニットと、前記ネットワーク損失値に基づいて、前記目標検出ネットワークのネットワークパラメータを調整するように構成されるパラメータ調整ユニットとを備える。
各アンカー(anchor)ボックスに対して1つの信頼度評点を生成する。当該信頼度評点は、アンカーボックスが前景または背景である確率に関し、例えば、アンカーボックスが前景である確率が高いほど、信頼度評点は高くなる。
はアンカーボックスの幅を示し、
はアンカーボックスの長さを示し、
はアンカーボックスの角度(水平に対するアンカーボックスの回転角度)を示し、
はアンカーボックスの中心点の座標を示す。方向に均一に分布する6つのアンカーボックスに対応し、
は、それぞれ、
である。
前記特徴データに従って、入力画像における各画素において、前記画素が前景や背景である確率を予測し、前景確率が、設定された値より高い画素を前景画素として使用することにより、画素レベルの前景セグメンテーション結果241を生成する。
であり、両者間の角度は
である。図5Bのバウンディングボックス503およびバウンディングボックス504において、両者の面積の交差比は
であり、両者間の角度は
である。ここで、
<
である。
を増加させて重複パラメータの計算を実行する。例えば、2つバウンディングボックス面積の交差比の値と角度係数の値を掛け算することにより、重複パラメータを取得する。
ニューラルネットワークをトレーニングする前に、先ず、サンプルセットを先に準備することができ、当該サンプルセットは、目標検出ネットワークをトレーニングするための複数のトレーニングサンプルを含み得る。
本開示の一実施例では、目標検出ネットワークは、特徴抽出ネットワーク、並びに当該特徴抽出ネットワークとそれぞれカスケード接続された目標予測ネットワークおよび前景セグメンテーションネットワークを含み得る。
いくつかの実施例において、目標検出ネットワークの構造は図8を参照することができる。
、即ち、第1ネットワーク損失値を取得することができる。当該第1ネットワーク損失関数の値は、注釈情報と予測情報の間の差を具現する。
、即ち、第2ネットワーク損失値を取得することができる。当該第2ネットワーク損失関数の値は、予測した前景画像と注釈情報の間の差を具現する。
いくつかの実施例において、目標予測ネットワークは、次の方式により、目標対象の候補バウンディングボックスを予測して取得する。目標予測ネットワーク的構造は図8を参照することができる。
関連技術では、各アンカーに対応するアンカーボックスのパラメータは、通常、長さ、幅および中心点の座標を含む。本具現例において、回転アンカーボックスの設定方法を提案する。
はアンカーボックスの中心点の座標を示す。方向に均一に分布する6つのアンカーボックスに対応して、
は、それぞれ、
である。対応的に、この例において、アンカーボックスのパラメータは
で示される。ここで、アスペクト比率は、1、3、5として設定されてもよく、検出する目標対象に対して他の値に設定されてもよい。
で示されることができ、当該パラメータは、図8の回帰層823を使用して回帰計算を実行することができる。回帰計算の方法は、次の通りである。
であり、ここで、
は、それぞれ、前景アンカーボックスの中心点x座標、中心点y座標、幅、長さ、角度を示し、真のバウンディングボックスに対応する5つの値は
であり、ここで、
は、それぞれ、真のバウンディングボックスの中心点x座標、中心点y座標、幅、長さ、角度を示す。
を決定することができ、ここで、
は、それぞれ、中心点x座標、中心点y座標、幅、長さ、角度のオフセットを示す。各オフセットは、例えば、それぞれ、式(4)~(8)を介して計算することができる。
を識別する能力を備え、即ち、アンカーボックスのパラメータ値に基づいて、中心点x座標、中心点y座標、幅、長さ、角度を含む、候補バウンディングボックスのパラメータ値を決定することができる。トレーニングする時は、回帰層を使用して前景アンカーボックスから候補バウンディングボックスへのオフセットを先に計算することができる。トレーニングする時のネットワークパラメータの最適化が完了していないため、当該オフセットと実際のオフセット
の差が比較的に大きい可能性がある。
、およびトレーニングする時の前景アンカーボックスと真のバウンディングボックスのオフセット
を使用して回帰損失を計算することができる。
標準情報及び候補バウンディングボックスの情報に基づいて第1ネットワーク損失関数の値を取得する場合、アンカーボックスの各パラメータの重みの比率を設定して、幅の重みの比率が他のパラメータの重みの比率より高くなり、設定された重みの比率に従って、第1ネットワーク損失関数の値を計算するようにすることができる。
いくつかの実施例において、次の方式によりサンプル画像内の前景画像領域を予測して取得することができる前景セグメンテーションネットワークの構造は、図8を参照することができる。
Claims (14)
- 目標検出方法であって、
入力画像の特徴データを取得することと、
前記特徴データに従って、前記入力画像の複数の候補バウンディングボックスを決定することと、
前記特徴データに従って、前記入力画像の前景セグメンテーション結果を取得することであって、前記前景セグメンテーション結果は、前記入力画像の複数の画素における各画素が前景に属するかどうかを指示する指示情報を含むことと、
前記複数の候補バウンディングボックスにおける各候補バウンディングボックスと、前記前景セグメンテーション結果に対応する前景画像領域との間の重複領域に従って、複数の候補バウンディングボックスから少なくとも1つの目標バウンディングボックスを選択することと、
前記少なくとも1つの目標バウンディングボックスに基づいて、前記入力画像の目標検出結果を取得することとを含み、
前記複数の候補バウンディングボックスにおける各候補バウンディングボックスと、前記前景セグメンテーション結果に対応する前景画像領域との間の重複領域に従って、複数の候補バウンディングボックスから少なくとも1つの目標バウンディングボックスを選択することは、
前記複数の候補バウンディングボックスにおける各候補バウンディングボックスにおいて、前記候補バウンディングボックスと、対応する前景画像領域との間の重複領域の、前記候補バウンディングボックスに占める比率が第1閾値より大きい場合、前記候補バウンディングボックスを前記目標バウンディングボックスとして使用することを含むことを特徴とする、前記目標検出方法。 - 前記少なくとも1つの目標バウンディングボックスは、第1バウンディングボックスおよび第2バウンディングボックスを含み、前記少なくとも1つの目標バウンディングボックスに基づいて、前記入力画像の目標検出結果を取得することは、
前記第1バウンディングボックスと前記第2バウンディングボックスの間の角度に基づいて、前記第1バウンディングボックスと前記第2バウンディングボックスの重複パラメータを決定することと、
前記第1バウンディングボックスと前記第2バウンディングボックスの重複パラメータに基づいて、前記第1バウンディングボックスおよび前記第2バウンディングボックスに対応する目標対象位置を決定することとを含むことを特徴とする、
請求項1に記載の目標検出方法。 - 前記第1バウンディングボックスと前記第2バウンディングボックスの間の角度に基づいて、前記第1バウンディングボックスと前記第2バウンディングボックスの重複パラメータを決定することは、
前記第1バウンディングボックスと前記第2バウンディングボックスの間の角度に従って、角度係数を取得することと、
前記第1バウンディングボックスと前記第2バウンディングボックスの間の交差比および前記角度係数に従って、前記重複パラメータを取得することとを含むことを特徴とする、
請求項2に記載の目標検出方法。 - 前記第1バウンディングボックスと前記第2バウンディングボックスの重複パラメータは、前記交差比と前記角度係数の積であり、前記角度係数は、前記第1バウンディングボックスと前記第2バウンディングボックスの間の角度の増加に伴い増加し、または
前記交差比が一定に維持される条件では、前記第1バウンディングボックスと前記第2バウンディングボックスの重複パラメータは、前記第1バウンディングボックスと前記第2バウンディングボックスの間の角度の増加に伴い増加することを特徴とする、
請求項3に記載の目標検出方法。 - 前記第1バウンディングボックスと前記第2バウンディングボックスの重複パラメータに基づいて、前記第1バウンディングボックスおよび前記第2バウンディングボックスに対応する目標対象位置を決定することは、
前記第1バウンディングボックスと前記第2バウンディングボックスの重複パラメータが第2閾値より大きい場合、前記第1バウンディングボックスおよび前記第2バウンディングボックスのうちの1つのバウンディングボックスを前記目標対象位置として使用し、および/または
前記第1バウンディングボックスと前記第2バウンディングボックスの重複パラメータが第2閾値より小さいか等しい場合、前記第1バウンディングボックスおよび前記第2バウンディングボックスを両方とも前記目標対象位置として使用することを含むことを特徴とする、
請求項2ないし4のいずれか一項に記載の目標検出方法。 - 前記第1バウンディングボックスおよび前記第2バウンディングボックスのうちの1つのバウンディングボックスを前記目標対象位置として使用することは、
前記第1バウンディングボックスと、前記前景セグメンテーション結果に対応する前景画像領域の間の重複パラメータ、および前記第2バウンディングボックスと前記前景画像領域の間の重複パラメータを決定することと、
前記第1バウンディングボックスおよび前記第2バウンディングボックスのうち、前記前景画像領域との間の重複パラメータがより大きいバウンディングボックスを前記目標対象位置として使用することとを含むことを特徴とする、
請求項5に記載の目標検出方法。 - 目標検出ネットワークのトレーニング方法であって、
前記目標検出ネットワークは、特徴抽出ネットワーク、目標予測ネットワークおよび前景セグメンテーションネットワークを含み、前記方法は、
前記特徴抽出ネットワークを介してサンプル画像に対して特徴抽出処理を実行して、前記サンプル画像の特徴データを取得することと、
前記特徴データに従って、前記目標予測ネットワークを介して複数のサンプル候補バウンディングボックスを取得することと、
前記特徴データに従って、前記前景セグメンテーションネットワークを介して前記サンプル画像のサンプル前景セグメンテーション結果を取得することであって、前記サンプル前景セグメンテーション結果は、前記サンプル画像の複数の画素点における各画素点が前景に属するかどうかを指示する指示情報を含むことと、
前記複数のサンプル候補バウンディングボックスにおける各サンプル候補バウンディングボックスと、前記サンプル前景セグメンテーション結果に対応する前景画像領域との間の重複領域に従って、複数のサンプル候補バウンディングボックスから少なくとも1つの目標バウンディングボックスを選択することと、
前記少なくとも1つの目標バウンディングボックスおよび前記サンプル画像の注釈情報に従って、ネットワーク損失値を決定することと、
前記ネットワーク損失値に基づいて、前記目標検出ネットワークのネットワークパラメータを調整することと、を含み、
前記複数のサンプル候補バウンディングボックスにおける各サンプル候補バウンディングボックスと、前記サンプル前景セグメンテーション結果に対応する前景画像領域との間の重複領域に従って、複数のサンプル候補バウンディングボックスから少なくとも1つの目標バウンディングボックスを選択することは、
前記複数のサンプル候補バウンディングボックスにおける各サンプル候補バウンディングボックスにおいて、前記サンプル候補バウンディングボックスと、対応する前景画像領域との間の重複領域の、前記サンプル候補バウンディングボックスに占める比率が第1閾値より大きい場合、前記サンプル候補バウンディングボックスを前記目標バウンディングボックスとして使用することを含む、ことを特徴とする、前記目標検出ネットワークのトレーニング方法。 - 前記注釈情報は、前記サンプル画像に含まれる少なくとも1つの目標対象の真のバウンディングボックスを含み、前記少なくとも1つの目標バウンディングボックスおよび前記サンプル画像の注釈情報に従って、ネットワーク損失値を決定することは、
前記少なくとも1つの目標バウンディングボックスにおける各目標バウンディングボックスにおいて、前記目標バウンディングボックスと、前記サンプル画像によって注釈された少なくとも1つの真の目標バウンディングボックスにおける各真の目標バウンディングボックスの間の交差比を決定することと、
決定された前記少なくとも1つの目標バウンディングボックスにおける各目標バウンディングボックスの前記交差比に従って、第1ネットワーク損失値を決定することとを含むことを特徴とする、
請求項7に記載の目標検出ネットワークのトレーニング方法。 - 前記目標バウンディングボックスと前記真の目標バウンディングボックスの間の交差比は、前記目標バウンディングボックスおよび前記真の目標バウンディングボックスを含む外接円に基づいて取得されることを特徴とする、
請求項8に記載の目標検出ネットワークのトレーニング方法。 - 前記ネットワーク損失値を決定するプロセスにおいて、前記候補バウンディングボックスの幅に対応する重みは、前記候補バウンディングボックスの長さに対応する重みより高いことを特徴とする、
請求項7ないし9のいずれか一項に記載の目標検出ネットワークのトレーニング方法。 - 目標検出機器であって、
メモリおよびプロセッサを備え、前記メモリは、前記プロセッサによって実行可能なコンピュータ命令を記憶するように構成され、前記プロセッサは、前記コンピュータ命令を実行する時に、請求項1ないし6のいずれか一項に記載の方法を実現するように構成されることを特徴とする、前記目標検出機器。 - 目標検出ネットワークのトレーニング機器であって、
メモリおよびプロセッサを備え、前記メモリは、前記プロセッサによって実行可能なコンピュータ命令を記憶するように構成され、前記プロセッサは、前記コンピュータ命令を実行する時に、請求項7ないし10のいずれか一項に記載の方法を実現するように構成されることを特徴とする、前記目標検出ネットワークのトレーニング機器。 - コンピュータプログラムが記憶された不揮発性コンピュータ読み取り可能な記憶媒体であって、
前記プログラムがプロセッサによって実行されると、前記プロセッサが請求項1ないし6のいずれか一項に記載の方法を実現し、または請求項7ないし10のいずれか一項に記載の方法を実現するようにすることを特徴とする、前記不揮発性コンピュータ読み取り可能な記憶媒体。 - コンピュータ読み取り可能な記憶媒体に記憶され、コンピュータ読み取り可能なコードを含むコンピュータプログラム製品であって、
前記コンピュータ読み取り可能なコードがデバイス上で実行される時に、前記デバイス中のプロセッサは、請求項1ないし6のいずれか一項に記載の方法、または請求項7ないし10のいずれか一項に記載の方法を実現するための命令を実行することを特徴とする、前記コンピュータプログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910563005.8 | 2019-06-26 | ||
CN201910563005.8A CN110298298B (zh) | 2019-06-26 | 2019-06-26 | 目标检测及目标检测网络的训练方法、装置及设备 |
PCT/CN2019/128383 WO2020258793A1 (zh) | 2019-06-26 | 2019-12-25 | 目标检测及目标检测网络的训练 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021532435A JP2021532435A (ja) | 2021-11-25 |
JP7096365B2 true JP7096365B2 (ja) | 2022-07-05 |
Family
ID=68028948
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020561707A Active JP7096365B2 (ja) | 2019-06-26 | 2019-12-25 | 目標検出および目標検出ネットワークのトレーニング |
Country Status (7)
Country | Link |
---|---|
US (1) | US20210056708A1 (ja) |
JP (1) | JP7096365B2 (ja) |
KR (1) | KR102414452B1 (ja) |
CN (1) | CN110298298B (ja) |
SG (1) | SG11202010475SA (ja) |
TW (1) | TWI762860B (ja) |
WO (1) | WO2020258793A1 (ja) |
Families Citing this family (63)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110298298B (zh) * | 2019-06-26 | 2022-03-08 | 北京市商汤科技开发有限公司 | 目标检测及目标检测网络的训练方法、装置及设备 |
CN110781819A (zh) * | 2019-10-25 | 2020-02-11 | 浪潮电子信息产业股份有限公司 | 一种图像目标检测方法、系统、电子设备及存储介质 |
CN110866928B (zh) * | 2019-10-28 | 2021-07-16 | 中科智云科技有限公司 | 基于神经网络的目标边界分割及背景噪声抑制方法及设备 |
CN112784638B (zh) * | 2019-11-07 | 2023-12-08 | 北京京东乾石科技有限公司 | 训练样本获取方法和装置、行人检测方法和装置 |
CN110930420B (zh) * | 2019-11-11 | 2022-09-30 | 中科智云科技有限公司 | 基于神经网络的稠密目标背景噪声抑制方法及设备 |
CN110880182B (zh) * | 2019-11-18 | 2022-08-26 | 东声(苏州)智能科技有限公司 | 图像分割模型训练方法、图像分割方法、装置及电子设备 |
US11200455B2 (en) * | 2019-11-22 | 2021-12-14 | International Business Machines Corporation | Generating training data for object detection |
CN111027602B (zh) * | 2019-11-25 | 2023-04-07 | 清华大学深圳国际研究生院 | 一种多级结构目标检测方法及系统 |
CN112886996A (zh) * | 2019-11-29 | 2021-06-01 | 北京三星通信技术研究有限公司 | 信号接收方法、用户设备、电子设备及计算机存储介质 |
CN111079638A (zh) * | 2019-12-13 | 2020-04-28 | 河北爱尔工业互联网科技有限公司 | 基于卷积神经网络的目标检测模型训练方法、设备和介质 |
CN111179300A (zh) * | 2019-12-16 | 2020-05-19 | 新奇点企业管理集团有限公司 | 障碍物检测的方法、装置、系统、设备以及存储介质 |
CN113051969A (zh) * | 2019-12-26 | 2021-06-29 | 深圳市超捷通讯有限公司 | 物件识别模型训练方法及车载装置 |
CN111105411B (zh) * | 2019-12-30 | 2023-06-23 | 创新奇智(青岛)科技有限公司 | 一种磁瓦表面缺陷检测方法 |
SG10201913754XA (en) * | 2019-12-30 | 2020-12-30 | Sensetime Int Pte Ltd | Image processing method and apparatus, electronic device, and storage medium |
CN111241947B (zh) * | 2019-12-31 | 2023-07-18 | 深圳奇迹智慧网络有限公司 | 目标检测模型的训练方法、装置、存储介质和计算机设备 |
CN111079707B (zh) * | 2019-12-31 | 2023-06-13 | 深圳云天励飞技术有限公司 | 人脸检测方法及相关装置 |
CN111260666B (zh) * | 2020-01-19 | 2022-05-24 | 上海商汤临港智能科技有限公司 | 图像处理方法及装置、电子设备、计算机可读存储介质 |
CN111508019A (zh) * | 2020-03-11 | 2020-08-07 | 上海商汤智能科技有限公司 | 目标检测方法及其模型的训练方法及相关装置、设备 |
CN111353464B (zh) * | 2020-03-12 | 2023-07-21 | 北京迈格威科技有限公司 | 一种物体检测模型训练、物体检测方法及装置 |
US11847771B2 (en) * | 2020-05-01 | 2023-12-19 | Samsung Electronics Co., Ltd. | Systems and methods for quantitative evaluation of optical map quality and for data augmentation automation |
CN111582265A (zh) * | 2020-05-14 | 2020-08-25 | 上海商汤智能科技有限公司 | 一种文本检测方法及装置、电子设备和存储介质 |
CN111738112B (zh) * | 2020-06-10 | 2023-07-07 | 杭州电子科技大学 | 基于深度神经网络和自注意力机制的遥感船舶图像目标检测方法 |
CN111797704B (zh) * | 2020-06-11 | 2023-05-02 | 同济大学 | 一种基于相关物体感知的动作识别方法 |
CN111797993B (zh) * | 2020-06-16 | 2024-02-27 | 东软睿驰汽车技术(沈阳)有限公司 | 深度学习模型的评价方法、装置、电子设备及存储介质 |
CN112001247A (zh) * | 2020-07-17 | 2020-11-27 | 浙江大华技术股份有限公司 | 多目标检测方法、设备及存储装置 |
CN111967595B (zh) * | 2020-08-17 | 2023-06-06 | 成都数之联科技股份有限公司 | 候选框标注方法及系统及模型训练方法及目标检测方法 |
US11657373B2 (en) * | 2020-08-21 | 2023-05-23 | Accenture Global Solutions Limited | System and method for identifying structural asset features and damage |
CN112508848B (zh) * | 2020-11-06 | 2024-03-26 | 上海亨临光电科技有限公司 | 一种基于深度学习多任务端到端的遥感图像船舶旋转目标检测方法 |
KR20220068357A (ko) * | 2020-11-19 | 2022-05-26 | 한국전자기술연구원 | 딥러닝 객체 검출 처리 장치 |
CN112597837B (zh) * | 2020-12-11 | 2024-05-28 | 北京百度网讯科技有限公司 | 图像检测方法、装置、设备、存储介质和计算机程序产品 |
CN112906732B (zh) * | 2020-12-31 | 2023-12-15 | 杭州旷云金智科技有限公司 | 目标检测方法、装置、电子设备及存储介质 |
CN112862761B (zh) * | 2021-01-20 | 2023-01-17 | 清华大学深圳国际研究生院 | 一种基于深度神经网络的脑瘤mri图像分割方法及系统 |
KR102378887B1 (ko) * | 2021-02-15 | 2022-03-25 | 인하대학교 산학협력단 | 객체 탐지에서의 둘레기반 IoU 손실함수를 통한 효율적인 바운딩 박스 회귀 학습 방법 및 장치 |
CN112966587B (zh) * | 2021-03-02 | 2022-12-20 | 北京百度网讯科技有限公司 | 目标检测模型的训练方法、目标检测方法及相关设备 |
CN112967322B (zh) * | 2021-04-07 | 2023-04-18 | 深圳创维-Rgb电子有限公司 | 运动目标检测模型建立方法和运动目标检测方法 |
CN113095257A (zh) * | 2021-04-20 | 2021-07-09 | 上海商汤智能科技有限公司 | 异常行为检测方法、装置、设备及存储介质 |
CN113160201B (zh) * | 2021-04-30 | 2024-04-12 | 聚时科技(上海)有限公司 | 基于极坐标的环状边界框的目标检测方法 |
CN112990204B (zh) * | 2021-05-11 | 2021-08-24 | 北京世纪好未来教育科技有限公司 | 目标检测方法、装置、电子设备及存储介质 |
CN113706450A (zh) * | 2021-05-18 | 2021-11-26 | 腾讯科技(深圳)有限公司 | 图像配准方法、装置、设备及可读存储介质 |
CN113313697B (zh) * | 2021-06-08 | 2023-04-07 | 青岛商汤科技有限公司 | 图像分割和分类方法及其模型训练方法、相关装置及介质 |
CN113284185B (zh) * | 2021-06-16 | 2022-03-15 | 河北工业大学 | 用于遥感目标检测的旋转目标检测方法 |
CN113536986B (zh) * | 2021-06-29 | 2024-06-14 | 南京逸智网络空间技术创新研究院有限公司 | 一种基于代表特征的遥感图像中的密集目标检测方法 |
CN113627421A (zh) * | 2021-06-30 | 2021-11-09 | 华为技术有限公司 | 一种图像处理方法、模型的训练方法以及相关设备 |
CN113505256B (zh) * | 2021-07-02 | 2022-09-02 | 北京达佳互联信息技术有限公司 | 特征提取网络训练方法、图像处理方法及装置 |
CN113610764A (zh) * | 2021-07-12 | 2021-11-05 | 深圳市银星智能科技股份有限公司 | 地毯识别方法、装置、智能设备及存储介质 |
CN113361662B (zh) * | 2021-07-22 | 2023-08-29 | 全图通位置网络有限公司 | 一种城市轨道交通遥感图像数据的处理系统及方法 |
CN113657482A (zh) * | 2021-08-14 | 2021-11-16 | 北京百度网讯科技有限公司 | 模型训练方法、目标检测方法、装置、设备以及存储介质 |
CN113658199B (zh) * | 2021-09-02 | 2023-11-03 | 中国矿业大学 | 基于回归修正的染色体实例分割网络 |
CN113469302A (zh) * | 2021-09-06 | 2021-10-01 | 南昌工学院 | 一种视频图像的多圆形目标识别方法和系统 |
US11900643B2 (en) * | 2021-09-17 | 2024-02-13 | Himax Technologies Limited | Object detection method and object detection system |
CN113850783B (zh) * | 2021-09-27 | 2022-08-30 | 清华大学深圳国际研究生院 | 一种海面船舶检测方法及系统 |
CN114037865B (zh) * | 2021-11-02 | 2023-08-22 | 北京百度网讯科技有限公司 | 图像处理方法、装置、设备、存储介质和程序产品 |
WO2023128323A1 (ko) * | 2021-12-28 | 2023-07-06 | 삼성전자 주식회사 | 목표 객체를 검출하는 전자 장치 및 방법 |
CN114359561A (zh) * | 2022-01-10 | 2022-04-15 | 北京百度网讯科技有限公司 | 一种目标检测方法及目标检测模型的训练方法、装置 |
WO2023178542A1 (en) * | 2022-03-23 | 2023-09-28 | Robert Bosch Gmbh | Image processing apparatus and method |
CN114492210B (zh) * | 2022-04-13 | 2022-07-19 | 潍坊绘圆地理信息有限公司 | 一种高光谱卫星星载数据智能解译系统及其实现方法 |
CN114463603B (zh) * | 2022-04-14 | 2022-08-23 | 浙江啄云智能科技有限公司 | 图像检测模型的训练方法、装置、电子设备及存储介质 |
CN114842510A (zh) * | 2022-05-27 | 2022-08-02 | 澜途集思生态科技集团有限公司 | 基于ScratchDet算法的生态生物识别方法 |
CN117036670B (zh) * | 2022-10-20 | 2024-06-07 | 腾讯科技(深圳)有限公司 | 质量检测模型的训练方法、装置、设备、介质及程序产品 |
CN115496917B (zh) * | 2022-11-01 | 2023-09-26 | 中南大学 | 一种GPR B-Scan图像中的多目标检测方法及装置 |
CN116152487A (zh) * | 2023-04-17 | 2023-05-23 | 广东广物互联网科技有限公司 | 一种基于深度IoU网络的目标检测方法、装置、设备及介质 |
CN116721093B (zh) * | 2023-08-03 | 2023-10-31 | 克伦斯(天津)轨道交通技术有限公司 | 基于神经网络的地铁轨道障碍物检测方法和系统 |
CN117854211B (zh) * | 2024-03-07 | 2024-05-28 | 南京奥看信息科技有限公司 | 一种基于智能视觉的目标对象识别方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180089505A1 (en) | 2016-09-23 | 2018-03-29 | Samsung Electronics Co., Ltd. | System and method for deep network fusion for fast and robust object detection |
JP2019061505A (ja) | 2017-09-27 | 2019-04-18 | 株式会社デンソー | 情報処理システム、制御システム、及び学習方法 |
JP2019067404A (ja) | 2017-10-03 | 2019-04-25 | 株式会社ストラドビジョン | マルコフ連鎖を用いてイメージ上の対象客体を追跡、分割する方法及び装置 |
CN110298298A (zh) | 2019-06-26 | 2019-10-01 | 北京市商汤科技开发有限公司 | 目标检测及目标检测网络的训练方法、装置及设备 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9665767B2 (en) * | 2011-02-28 | 2017-05-30 | Aic Innovations Group, Inc. | Method and apparatus for pattern tracking |
KR20140134505A (ko) * | 2013-05-14 | 2014-11-24 | 경성대학교 산학협력단 | 영상 객체 추적 방법 |
CN103530613B (zh) * | 2013-10-15 | 2017-02-01 | 易视腾科技股份有限公司 | 一种基于单目视频序列的目标人手势交互方法 |
CN105046721B (zh) * | 2015-08-03 | 2018-08-17 | 南昌大学 | 基于Grabcut及LBP跟踪质心矫正模型的Camshift算法 |
CN107872644B (zh) * | 2016-09-23 | 2020-10-09 | 亿阳信通股份有限公司 | 视频监控方法及装置 |
CN106898005B (zh) * | 2017-01-04 | 2020-07-17 | 努比亚技术有限公司 | 一种实现交互式图像分割的方法、装置及终端 |
KR20180107988A (ko) * | 2017-03-23 | 2018-10-04 | 한국전자통신연구원 | 객체 탐지 장치 및 방법 |
KR101837482B1 (ko) * | 2017-03-28 | 2018-03-13 | (주)이더블유비엠 | 영상처리방법 및 장치, 그리고 이를 이용한 제스처 인식 인터페이스 방법 및 장치 |
CN107369158B (zh) * | 2017-06-13 | 2020-11-13 | 南京邮电大学 | 基于rgb-d图像的室内场景布局估计及目标区域提取方法 |
CN107862262A (zh) * | 2017-10-27 | 2018-03-30 | 中国航空无线电电子研究所 | 一种适用于高空侦察的快速可见光图像舰船检测方法 |
CN108513131B (zh) * | 2018-03-28 | 2020-10-20 | 浙江工业大学 | 一种自由视点视频深度图感兴趣区域编码方法 |
CN108717693A (zh) * | 2018-04-24 | 2018-10-30 | 浙江工业大学 | 一种基于rpn的视盘定位方法 |
CN109214353B (zh) * | 2018-09-27 | 2021-11-23 | 云南大学 | 一种基于剪枝模型的人脸图像快速检测训练方法和装置 |
-
2019
- 2019-06-26 CN CN201910563005.8A patent/CN110298298B/zh active Active
- 2019-12-25 KR KR1020207030752A patent/KR102414452B1/ko active IP Right Grant
- 2019-12-25 JP JP2020561707A patent/JP7096365B2/ja active Active
- 2019-12-25 WO PCT/CN2019/128383 patent/WO2020258793A1/zh active Application Filing
- 2019-12-25 SG SG11202010475SA patent/SG11202010475SA/en unknown
-
2020
- 2020-01-17 TW TW109101702A patent/TWI762860B/zh active
- 2020-10-21 US US17/076,136 patent/US20210056708A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180089505A1 (en) | 2016-09-23 | 2018-03-29 | Samsung Electronics Co., Ltd. | System and method for deep network fusion for fast and robust object detection |
JP2019061505A (ja) | 2017-09-27 | 2019-04-18 | 株式会社デンソー | 情報処理システム、制御システム、及び学習方法 |
JP2019067404A (ja) | 2017-10-03 | 2019-04-25 | 株式会社ストラドビジョン | マルコフ連鎖を用いてイメージ上の対象客体を追跡、分割する方法及び装置 |
CN110298298A (zh) | 2019-06-26 | 2019-10-01 | 北京市商汤科技开发有限公司 | 目标检测及目标检测网络的训练方法、装置及设备 |
Also Published As
Publication number | Publication date |
---|---|
TWI762860B (zh) | 2022-05-01 |
KR20210002104A (ko) | 2021-01-06 |
SG11202010475SA (en) | 2021-01-28 |
US20210056708A1 (en) | 2021-02-25 |
WO2020258793A1 (zh) | 2020-12-30 |
JP2021532435A (ja) | 2021-11-25 |
CN110298298A (zh) | 2019-10-01 |
TW202101377A (zh) | 2021-01-01 |
CN110298298B (zh) | 2022-03-08 |
KR102414452B1 (ko) | 2022-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7096365B2 (ja) | 目標検出および目標検出ネットワークのトレーニング | |
Lin et al. | IENet: Interacting embranchment one stage anchor free detector for orientation aerial object detection | |
CN109902677B (zh) | 一种基于深度学习的车辆检测方法 | |
CN111222395B (zh) | 目标检测方法、装置与电子设备 | |
CN111259758B (zh) | 一种针对密集区域的两阶段遥感图像目标检测方法 | |
US10509987B1 (en) | Learning method and learning device for object detector based on reconfigurable network for optimizing customers' requirements such as key performance index using target object estimating network and target object merging network, and testing method and testing device using the same | |
CN104599258B (zh) | 一种基于各向异性特征描述符的图像拼接方法 | |
CN112233181A (zh) | 6d位姿识别的方法、装置及计算机存储介质 | |
CN109712071B (zh) | 基于航迹约束的无人机图像拼接与定位方法 | |
CN109858547A (zh) | 一种基于bssd的目标检测方法与装置 | |
CN113743417B (zh) | 语义分割方法和语义分割装置 | |
CN111815665A (zh) | 基于深度信息与尺度感知信息的单张图像人群计数方法 | |
CN112800955A (zh) | 基于加权双向特征金字塔的遥感影像旋转目标检测方法及系统 | |
CN114926747A (zh) | 一种基于多特征聚合与交互的遥感图像定向目标检测方法 | |
CN114119610B (zh) | 基于旋转目标检测的缺陷检测方法 | |
CN113658257B (zh) | 一种无人设备定位方法、装置、设备及存储介质 | |
CN108010065A (zh) | 低空目标快速检测方法及装置、存储介质及电子终端 | |
CN114332633B (zh) | 雷达图像目标检测识别方法、设备和存储介质 | |
CN103733225B (zh) | 特征点对等系统、特征点对等方法、以及记录介质 | |
Kim et al. | Rotational multipyramid network with bounding‐box transformation for object detection | |
CN115100616A (zh) | 点云目标检测方法、装置、电子设备及存储介质 | |
CN113850761A (zh) | 一种基于多角度检测框的遥感图像目标检测方法 | |
CN116953702A (zh) | 基于演绎范式的旋转目标检测方法及装置 | |
CN106778822B (zh) | 基于漏斗变换的图像直线检测方法 | |
CN116310837B (zh) | 一种sar舰船目标旋转检测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201102 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201102 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220607 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220623 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7096365 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |