JP2022507145A - ターゲット追跡方法及び装置、インテリジェント移動機器並びに記憶媒体 - Google Patents
ターゲット追跡方法及び装置、インテリジェント移動機器並びに記憶媒体 Download PDFInfo
- Publication number
- JP2022507145A JP2022507145A JP2021525569A JP2021525569A JP2022507145A JP 2022507145 A JP2022507145 A JP 2022507145A JP 2021525569 A JP2021525569 A JP 2021525569A JP 2021525569 A JP2021525569 A JP 2021525569A JP 2022507145 A JP2022507145 A JP 2022507145A
- Authority
- JP
- Japan
- Prior art keywords
- target
- image
- offset
- value
- intelligent mobile
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000000034 method Methods 0.000 title claims abstract description 136
- 238000001514 detection method Methods 0.000 claims description 76
- 238000012545 processing Methods 0.000 claims description 52
- 238000007781 pre-processing Methods 0.000 claims description 49
- 230000008569 process Effects 0.000 claims description 44
- 230000002787 reinforcement Effects 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 16
- 238000010606 normalization Methods 0.000 claims description 16
- 239000000284 extract Substances 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 4
- 241001270131 Agaricus moelleri Species 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 19
- 238000007726 management method Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 16
- 230000033001 locomotion Effects 0.000 description 15
- 238000004891 communication Methods 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 235000011034 Rubus glaucus Nutrition 0.000 description 5
- 235000009122 Rubus idaeus Nutrition 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 5
- 240000007651 Rubus glaucus Species 0.000 description 4
- 230000009471 action Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000003062 neural network model Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000009432 framing Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 244000235659 Rubus idaeus Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 201000001098 delayed sleep phase syndrome Diseases 0.000 description 1
- 208000033921 delayed sleep phase type circadian rhythm sleep disease Diseases 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000010030 laminating Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/32—Normalisation of the pattern dimensions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
- G06V20/47—Detecting features for summarising video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
Description
本願は、2019年07月17日に中国特許局に提出された、出願番号が201910646696.8である中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
なお、収集された画像が複数である場合、これに対応して複数のグレースケール画像を得ることができる。該複数のグレースケール画像における各画素点の画素値により、複数のグレースケール画像の画素値の平均値及び標準偏差を得ることができる。つまり、本願の実施例の平均値及び標準偏差は、1つの画像に対するものであってもよく、複数の画像に対するものであってもよい。複数の画像の各画素点の画素値の平均値及び標準偏差を得た場合、各画像の各画素点の画素値と平均値との差を得、続いて、差と平均値との比を得、該比を利用して画素点の画素値を更新することができる。
画像を収集するように構成される画像収集モジュール10と、
前記画像におけるターゲット対象の位置を決定するように構成されるターゲット検出モジュール20と、
前記ターゲット対象の位置と前記画像の中心位置との距離に基づいて、インテリジェント移動機器の回転を制御するための制御命令を決定するように構成される制御モジュール30であって、前記制御命令は、前記ターゲット対象を前記画像の中心位置に位置させるためのものであり、且つ前記制御命令は、前記距離を構成するためのオフセットシーケンスにおけるオフセット値に対応する回転命令を含み、前記オフセットシーケンスは、少なくとも1つのオフセット値を含む、制御モジュール30と、を備える。
前記ターゲット検出モジュールは更に、前記前処理操作後に得られた画像に対してターゲット検出処理を行い、前記前処理操作後の画像における前記ターゲット対象の位置を得、
前記前処理操作後の画像における前記ターゲット対象の位置に基づいて、前記画像における前記ターゲット対象の位置を決定するように構成される。
前記グレースケール画像における各画素点の画素値の平均値及び標準偏差を決定することと、
前記各画素点の画素値と前記平均値との差を得ることと、
前記各画素点に対応する前記差と前記標準偏差との比を前記各画素点の正規化された画素値として決定することと、を含む。
前記画像特徴に対して分類処理を行い、前記画像におけるターゲット対象の位置領域を得、
前記位置領域の中心位置を前記ターゲット対象の位置として決定するように構成される。
対応的に、前記ターゲット検出モジュールは更に、前記画像における顔の位置を決定するように構成される。
前記ターゲットオフセットに基づいて、複数組のオフセットシーケンスを生成することであって、各組のオフセットシーケンスにおけるオフセット値の加算値は、前記ターゲットオフセットである、ことと、
強化学習アルゴリズムを利用して、前記複数組のオフセットシーケンスから、要件を満たすオフセットシーケンスを選択し、要件を満たす前記オフセットシーケンスに対応する制御命令を得ることと、を実行するように構成される。
前記オフセット値に対応する報酬値を得、前記オフセット値に対応する前記報酬値及び前記最大価値に基づいて、前記オフセット値の最終価値を決定することであって、前記報酬値は、前記オフセット値の最大価値に対応する回転命令が実行されていない場合、ターゲット対象の位置と画像中心位置との距離である、ことと、
前記複数組のオフセットシーケンスにおける各オフセット値の前記最終価値の和が最も大きいオフセットシーケンスを、要件を満たすオフセットシーケンスとして決定することと、を実行するように構成される。
前記ターゲット対象の位置領域に対応する面積が第1閾値より大きい場合、前記インテリジェント移動機器の後退を制御するための制御命令を生成し、
前記ターゲット対象の位置領域に対応する面積が第2閾値未満である場合、前記インテリジェント移動機器の前進を制御するための制御命令を生成するように構成され、前記第1閾値は第2閾値より大きい。
前記制御モジュールは、前記管理装置に接続され、前記管理装置に基づいてターゲット対象の位置を得て前記制御命令を生成し、前記制御命令に基づいて、前記インテリジェント移動機器の回転を制御するように構成される。
Claims (25)
- ターゲット追跡方法であって、
収集された画像を取得することと、
前記画像におけるターゲット対象の位置を決定することと、
前記ターゲット対象の位置と前記画像の中心位置との距離に基づいて、インテリジェント移動機器の回転を制御するための制御命令を決定することであって、前記制御命令は、前記ターゲット対象を前記画像の中心位置に位置させるためのものであり、且つ前記制御命令は、前記距離を構成するためのオフセットシーケンスにおけるオフセット値に対応する回転命令を含み、前記オフセットシーケンスは、少なくとも1つのオフセット値を含む、ことと、を含む、ターゲット追跡方法。 - 前記画像におけるターゲット対象の位置を決定する前に、前記ターゲット追跡方法は、前記画像に対して前処理操作を実行することを更に含み、前記前処理操作は、前記画像を所定の規格のグレースケール画像に調整することと、前記グレースケール画像に対して正規化処理を行うことと、を含み、
前記画像におけるターゲット対象の位置を決定することは、
前記前処理操作後に得られた画像に対してターゲット検出処理を行い、前記前処理操作後の画像における前記ターゲット対象の位置を得ることと、
前記前処理操作後の画像における前記ターゲット対象の位置に基づいて、前記画像における前記ターゲット対象の位置を決定することと、を含むことを特徴とする
請求項1に記載のターゲット追跡方法。 - 前記グレースケール画像に対して正規化処理を行うことは、
前記グレースケール画像における各画素点の画素値の平均値及び標準偏差を決定することと、
前記各画素点の画素値と前記平均値との差を得ることと、
前記各画素点に対応する前記差と前記標準偏差との比を前記各画素点の正規化された画素値として決定することと、を含むことを特徴とする
請求項2に記載のターゲット追跡方法。 - 前記画像におけるターゲット対象の位置を決定することは、
前記画像の画像特徴を抽出することと、
前記画像特徴に対して分類処理を行い、前記画像におけるターゲット対象の位置領域を得ることと、
前記位置領域の中心位置を前記ターゲット対象の位置として決定することと、を含むことを特徴とする
請求項1から3のうちいずれか一項に記載のターゲット追跡方法。 - 前記ターゲット対象は、顔を含み、
対応的に、前記画像におけるターゲット対象の位置を決定することは、前記画像における顔の位置を決定することを含むことを特徴とする
請求項1から4のうちいずれか一項に記載のターゲット追跡方法。 - 前記ターゲット対象の位置と前記画像の中心位置との距離に基づいて、インテリジェント移動機器の回転を制御するための命令を決定することは、
前記画像におけるターゲット対象の位置と前記画像の中心位置との距離に基づいて、ターゲットオフセットを決定することと、
前記ターゲットオフセットに基づいて、複数組のオフセットシーケンスを生成することであって、各組のオフセットシーケンスにおけるオフセット値の加算値は、前記ターゲットオフセットである、ことと、
強化学習アルゴリズムを利用して、前記複数組のオフセットシーケンスから、要件を満たすオフセットシーケンスを選択し、要件を満たす前記オフセットシーケンスに対応する制御命令を決定することと、を含むことを特徴とする
請求項1から5のうちいずれか一項に記載のターゲット追跡方法。 - 前記強化学習アルゴリズムを利用して、前記複数組のオフセットシーケンスから、要件を満たすオフセットシーケンスを選択することは、
前記複数組のオフセットシーケンスにおける各オフセット値に対して、価値テーブルにおける、前記オフセット値に対応する最大価値を決定することであって、前記価値テーブルは、異なる回転命令での、オフセット値に対応する価値を含む、ことと、
前記オフセット値に対応する報酬値を得、前記オフセット値に対応する前記報酬値及び前記最大価値に基づいて、前記オフセット値の最終価値を決定することであって、前記報酬値は、前記オフセット値の最大価値に対応する回転命令が実行されていない場合、ターゲット対象の位置と画像中心位置との距離である、ことと、
前記複数組のオフセットシーケンスにおける各オフセット値の前記最終価値の和が最も大きいオフセットシーケンスを、要件を満たすオフセットシーケンスとして決定することと、を含むことを特徴とする
請求項6に記載のターゲット追跡方法。 - 前記要件を満たす前記オフセットシーケンスに対応する制御命令を決定することは、
要件を満たす前記オフセットシーケンスにおける各オフセット値の最大価値に対応する回転命令に基づいて、前記制御命令を決定することを含むことを特徴とする
請求項6又は7に記載のターゲット追跡方法。 - 前記ターゲット追跡方法は、
前記制御命令に基づいて、前記インテリジェント移動機器を、回転を実行するように駆動することを更に含むことを特徴とする
請求項1から8のうちいずれか一項に記載のターゲット追跡方法。 - 前記ターゲット追跡方法は、
前記ターゲット対象の位置領域に基づいて、前記インテリジェント移動機器の回転を制御するための制御命令を決定することと、
前記ターゲット対象の位置領域に対応する面積が第1閾値より大きいことに応答して、前記インテリジェント移動機器の後退を制御するための制御命令を生成することと、
前記ターゲット対象の位置領域に対応する面積が第2閾値未満であることに応答して、前記インテリジェント移動機器の前進を制御するための制御命令を生成することであって、前記第1閾値は第2閾値より大きい、ことと、を更に含むことを特徴とする
請求項4に記載のターゲット追跡方法。 - ターゲット追跡装置であって、
画像を収集するように構成される画像収集モジュールと、
前記画像におけるターゲット対象の位置を決定するように構成されるターゲット検出モジュールと、
前記ターゲット対象の位置と前記画像の中心位置との距離に基づいて、インテリジェント移動機器の回転を制御するための制御命令を決定するように構成される制御モジュールであって、前記制御命令は、前記ターゲット対象を前記画像の中心位置に位置させるためのものであり、且つ前記制御命令は、前記距離を構成するためのオフセットシーケンスにおけるオフセット値に対応する回転命令を含み、前記オフセットシーケンスは、少なくとも1つのオフセット値を含む、制御モジュールと、を備える、ターゲット追跡装置。 - 前記ターゲット追跡装置は、前記画像に対して前処理操作を実行するように構成される前処理モジュールを更に備え、前記前処理操作は、前記画像を所定の規格のグレースケール画像に調整することと、前記グレースケール画像に対して正規化処理を行うことと、を含み、
前記ターゲット検出モジュールは更に、前記前処理操作後に得られた画像に対してターゲット検出処理を行い、前記前処理操作後の画像における前記ターゲット対象の位置を得、
前記前処理操作後の画像における前記ターゲット対象の位置に基づいて、前記画像における前記ターゲット対象の位置を決定するように構成されることを特徴とする
請求項11に記載のターゲット追跡装置。 - 前記前処理モジュールにより実行される、前記グレースケール画像に対して正規化処理を行うことは、
前記グレースケール画像における各画素点の画素値の平均値及び標準偏差を決定することと、
前記各画素点の画素値と前記平均値との差を得ることと、
前記各画素点に対応する前記差と前記標準偏差との比を前記各画素点の正規化された画素値として決定することと、を含むことを特徴とする
請求項12に記載のターゲット追跡装置。 - 前記ターゲット検出モジュールは更に、前記画像の画像特徴を抽出し、
前記画像特徴に対して分類処理を行い、前記画像におけるターゲット対象の位置領域を得、
前記位置領域の中心位置を前記ターゲット対象の位置として決定するように構成されることを特徴とする
請求項11から13のうちいずれか一項に記載のターゲット追跡装置。 - 前記ターゲット対象は、顔を含み、
対応的に、前記ターゲット検出モジュールは更に、前記画像における顔の位置を決定するように構成されることを特徴とする
請求項11から14のうちいずれか一項に記載のターゲット追跡装置。 - 前記制御モジュールは更に、前記画像におけるターゲット対象の位置と前記画像の中心位置との距離に基づいて、ターゲットオフセットを決定することと、
前記ターゲットオフセットに基づいて、複数組のオフセットシーケンスを生成することであって、各組のオフセットシーケンスにおけるオフセット値の加算値は、前記ターゲットオフセットである、ことと、
強化学習アルゴリズムを利用して、前記複数組のオフセットシーケンスから、要件を満たすオフセットシーケンスを選択し、要件を満たす前記オフセットシーケンスに対応する制御命令を得ることと、を実行するように構成されることを特徴とする
請求項11から15のうちいずれか一項に記載のターゲット追跡装置。 - 前記制御モジュールは更に、前記複数組のオフセットシーケンスにおける各オフセット値に対して、価値テーブルにおける、前記オフセット値に対応する最大価値を決定することであって、前記価値テーブルは、異なる回転命令での、オフセット値に対応する価値を含む、ことと、
前記オフセット値に対応する報酬値を得、前記オフセット値に対応する前記報酬値及び前記最大価値に基づいて、前記オフセット値の最終価値を決定することであって、前記報酬値は、前記オフセット値の最大価値に対応する回転命令が実行されていない場合、ターゲット対象の位置と画像中心位置との距離である、ことと、
前記複数組のオフセットシーケンスにおける各オフセット値の前記最終価値の和が最も大きいオフセットシーケンスを、要件を満たすオフセットシーケンスとして決定することと、を実行するように構成されることを特徴とする
請求項16に記載のターゲット追跡装置。 - 前記制御モジュールは更に、要件を満たす前記オフセットシーケンスにおける各オフセット値の最大価値に対応する回転命令に基づいて、前記制御命令を決定するように構成されることを特徴とする
請求項16又は17に記載のターゲット追跡装置。 - 前記ターゲット検出モジュールは更に、前記ターゲット対象の位置領域に基づいて、前記インテリジェント移動機器の回転を制御するための制御命令を決定し、
前記ターゲット対象の位置領域に対応する面積が第1閾値より大きい場合、前記インテリジェント移動機器の後退を制御するための制御命令を生成し、
前記ターゲット対象の位置領域に対応する面積が第2閾値未満である場合、前記インテリジェント移動機器の前進を制御するための制御命令を生成するように構成され、前記第1閾値は第2閾値より大きいことを特徴とする
請求項14に記載のターゲット追跡装置。 - インテリジェント移動機器であって、請求項11から19のうちいずれか一項に記載のターゲット追跡装置を備え、
前記ターゲット追跡装置内のターゲット検出モジュールは、インテリジェント移動機器の管理装置に集積され、前記管理装置は、前記画像収集モジュールにより収集された画像に対してターゲット検出処理を行い、前記ターゲット対象の位置を得、
前記制御モジュールは、前記管理装置に接続され、前記管理装置に基づいてターゲット対象の位置を得て前記制御命令を生成し、前記制御命令に基づいて、前記インテリジェント移動機器の回転を制御するように構成される、インテリジェント移動機器。 - 前記管理装置に、前記画像に対して前処理操作を実行し、前記前処理操作後の画像に対してターゲット検出処理を行い、前記画像におけるターゲット対象の位置を得るように構成される、前記ターゲット追跡装置の前処理モジュールが更に集積されることを特徴とする
請求項20に記載のインテリジェント移動機器。 - 前記インテリジェント移動機器は、教習ロボットを含むことを特徴とする
請求項20又は21に記載のインテリジェント移動機器。 - インテリジェント移動機器であって、
プロセッサと、
プロセッサによる実行可能な命令を記憶するように構成されるメモリと、を備え、
前記プロセッサは、前記メモリに記憶されている命令を呼び出して、請求項1から10のうちいずれか一項に記載のターゲット追跡方法を実行するように構成される、インテリジェント移動機器。 - コンピュータ可読記憶媒体であって、該コンピュータ可読記憶媒体にコンピュータプログラム命令が記憶されており、前記コンピュータプログラム命令は、プロセッサにより実行されるときに、前記プロセッサに請求項1から10のうちいずれか一項に記載のターゲット追跡方法を実現させる、コンピュータ可読記憶媒体。
- コンピュータプログラムであって、前記コンピュータプログラムは、コンピュータ可読コードを含み、前記コンピュータ可読コードがインテリジェント移動機器で実行されるときに、前記インテリジェント移動機器におけるプロセッサに、請求項1から10のうちいずれか一項に記載のターゲット追跡方法を実行させる、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910646696.8 | 2019-07-17 | ||
CN201910646696.8A CN110348418B (zh) | 2019-07-17 | 2019-07-17 | 目标跟踪方法及装置、智能移动设备和存储介质 |
PCT/CN2020/089620 WO2021008207A1 (zh) | 2019-07-17 | 2020-05-11 | 目标跟踪方法及装置、智能移动设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022507145A true JP2022507145A (ja) | 2022-01-18 |
Family
ID=68175655
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021525569A Ceased JP2022507145A (ja) | 2019-07-17 | 2020-05-11 | ターゲット追跡方法及び装置、インテリジェント移動機器並びに記憶媒体 |
Country Status (5)
Country | Link |
---|---|
JP (1) | JP2022507145A (ja) |
KR (1) | KR20210072808A (ja) |
CN (1) | CN110348418B (ja) |
TW (2) | TW202215364A (ja) |
WO (1) | WO2021008207A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110348418B (zh) * | 2019-07-17 | 2022-03-11 | 上海商汤智能科技有限公司 | 目标跟踪方法及装置、智能移动设备和存储介质 |
CN112207821B (zh) * | 2020-09-21 | 2021-10-01 | 大连遨游智能科技有限公司 | 视觉机器人的目标搜寻方法及机器人 |
CN113139655B (zh) * | 2021-03-31 | 2022-08-19 | 北京大学 | 一种基于强化学习的目标追踪的训练方法、追踪方法 |
CN115250329B (zh) * | 2021-04-28 | 2024-04-19 | 深圳市三诺数字科技有限公司 | 摄像头的控制方法、装置、计算机设备及存储介质 |
CN113409220A (zh) * | 2021-06-28 | 2021-09-17 | 展讯通信(天津)有限公司 | 人脸图像处理方法、装置、介质及设备 |
CN113625658B (zh) * | 2021-08-17 | 2022-12-06 | 杭州飞钛航空智能装备有限公司 | 偏移信息处理方法、装置、电子设备和制孔机构 |
CN115037877A (zh) * | 2022-06-08 | 2022-09-09 | 湖南大学重庆研究院 | 自动跟随方法、装置以及安全监测方法、装置 |
WO2024092526A1 (zh) * | 2022-11-01 | 2024-05-10 | 深圳市昊一源科技有限公司 | 相机的控制装置以及相机 |
CN117238039B (zh) * | 2023-11-16 | 2024-03-19 | 暗物智能科技(广州)有限公司 | 基于顶视视角的多任务人体行为分析方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006024128A (ja) * | 2004-07-09 | 2006-01-26 | Funai Electric Co Ltd | 自走ロボット |
JP2007535024A (ja) * | 2004-02-13 | 2007-11-29 | 本田技研工業株式会社 | 顔認識システム |
JP2010176504A (ja) * | 2009-01-30 | 2010-08-12 | Canon Inc | 画像処理装置、画像処理方法及びプログラム |
JP2012191265A (ja) * | 2011-03-08 | 2012-10-04 | Nikon Corp | 画像処理装置およびプログラム |
JP2017068298A (ja) * | 2015-09-28 | 2017-04-06 | 株式会社日立システムズ | 自律飛行移動体、ターゲット追跡方法 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1178467C (zh) * | 1998-04-16 | 2004-12-01 | 三星电子株式会社 | 自动跟踪运动目标的方法和装置 |
CN101888479B (zh) * | 2009-05-14 | 2012-05-02 | 汉王科技股份有限公司 | 检测和跟踪目标图像的方法及装置 |
CN102411368B (zh) * | 2011-07-22 | 2013-10-09 | 北京大学 | 机器人的主动视觉人脸跟踪方法和跟踪系统 |
CN102307297A (zh) * | 2011-09-14 | 2012-01-04 | 镇江江大科茂信息系统有限责任公司 | 一种多方位视频目标跟踪检测的智能监控系统 |
CN105408937B (zh) * | 2013-05-02 | 2018-02-13 | 高通股份有限公司 | 用于便于计算机视觉应用程序初始化的方法 |
CN104751486B (zh) * | 2015-03-20 | 2017-07-11 | 安徽大学 | 一种多ptz相机的运动目标接力跟踪算法 |
CN108431549B (zh) * | 2016-01-05 | 2020-09-04 | 御眼视觉技术有限公司 | 具有施加的约束的经训练的系统 |
CN108351654B (zh) * | 2016-02-26 | 2021-08-17 | 深圳市大疆创新科技有限公司 | 用于视觉目标跟踪的系统和方法 |
WO2017147792A1 (en) * | 2016-03-01 | 2017-09-08 | SZ DJI Technology Co., Ltd. | Methods and systems for target tracking |
CN105740644B (zh) * | 2016-03-24 | 2018-04-13 | 苏州大学 | 一种基于模型学习的清洁机器人最优目标路径规划方法 |
CN107798723B (zh) * | 2016-08-30 | 2021-11-19 | 北京神州泰岳软件股份有限公司 | 一种目标跟踪控制的方法和装置 |
US10140719B2 (en) * | 2016-12-22 | 2018-11-27 | TCL Research America Inc. | System and method for enhancing target tracking via detector and tracker fusion for unmanned aerial vehicles |
CN109040574A (zh) * | 2017-06-08 | 2018-12-18 | 北京君正集成电路股份有限公司 | 一种转动摇头机跟踪目标的方法及装置 |
EP3656118A4 (en) * | 2017-07-18 | 2021-03-03 | Hangzhou Taro Positioning Technology Co., Ltd. | INTELLIGENT OBJECT TRACKING |
CN107992099A (zh) * | 2017-12-13 | 2018-05-04 | 福州大学 | 一种基于改进帧差法的目标运动视频跟踪方法及系统 |
CN108549413A (zh) * | 2018-04-27 | 2018-09-18 | 全球能源互联网研究院有限公司 | 一种云台旋转控制方法、装置及无人飞行器 |
CN108806146A (zh) * | 2018-06-06 | 2018-11-13 | 合肥嘉仕诚能源科技有限公司 | 一种安防监控动态目标锁定追踪方法及系统 |
CN109992000B (zh) * | 2019-04-04 | 2020-07-03 | 北京航空航天大学 | 一种基于分层强化学习的多无人机路径协同规划方法及装置 |
CN110348418B (zh) * | 2019-07-17 | 2022-03-11 | 上海商汤智能科技有限公司 | 目标跟踪方法及装置、智能移动设备和存储介质 |
-
2019
- 2019-07-17 CN CN201910646696.8A patent/CN110348418B/zh active Active
-
2020
- 2020-05-11 KR KR1020217014152A patent/KR20210072808A/ko not_active Application Discontinuation
- 2020-05-11 JP JP2021525569A patent/JP2022507145A/ja not_active Ceased
- 2020-05-11 WO PCT/CN2020/089620 patent/WO2021008207A1/zh active Application Filing
- 2020-06-19 TW TW110149350A patent/TW202215364A/zh unknown
- 2020-06-19 TW TW109120760A patent/TWI755762B/zh active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007535024A (ja) * | 2004-02-13 | 2007-11-29 | 本田技研工業株式会社 | 顔認識システム |
JP2006024128A (ja) * | 2004-07-09 | 2006-01-26 | Funai Electric Co Ltd | 自走ロボット |
JP2010176504A (ja) * | 2009-01-30 | 2010-08-12 | Canon Inc | 画像処理装置、画像処理方法及びプログラム |
JP2012191265A (ja) * | 2011-03-08 | 2012-10-04 | Nikon Corp | 画像処理装置およびプログラム |
JP2017068298A (ja) * | 2015-09-28 | 2017-04-06 | 株式会社日立システムズ | 自律飛行移動体、ターゲット追跡方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2021008207A1 (zh) | 2021-01-21 |
TW202215364A (zh) | 2022-04-16 |
TW202105326A (zh) | 2021-02-01 |
TWI755762B (zh) | 2022-02-21 |
KR20210072808A (ko) | 2021-06-17 |
CN110348418A (zh) | 2019-10-18 |
CN110348418B (zh) | 2022-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022507145A (ja) | ターゲット追跡方法及び装置、インテリジェント移動機器並びに記憶媒体 | |
US11216694B2 (en) | Method and apparatus for recognizing object | |
US11989350B2 (en) | Hand key point recognition model training method, hand key point recognition method and device | |
TWI766286B (zh) | 圖像處理方法及圖像處理裝置、電子設備和電腦可讀儲存媒介 | |
US10325351B2 (en) | Systems and methods for normalizing an image | |
WO2021051857A1 (zh) | 目标对象匹配方法及装置、电子设备和存储介质 | |
US11301726B2 (en) | Anchor determination method and apparatus, electronic device, and storage medium | |
CN110443366B (zh) | 神经网络的优化方法及装置、目标检测方法及装置 | |
Maro et al. | Event-based gesture recognition with dynamic background suppression using smartphone computational capabilities | |
KR20190102152A (ko) | 디스플레이 패널의 색상을 조정하는 인공 지능 장치 및 그 방법 | |
US20210279892A1 (en) | Image processing method and device, and network training method and device | |
JP2021503659A (ja) | 生体検出方法、装置及びシステム、電子機器並びに記憶媒体 | |
JP2023518562A (ja) | デバイスのハンドジェスチャベースの制御のための方法及びシステム | |
US11385526B2 (en) | Method of processing image based on artificial intelligence and image processing device performing the same | |
CN112889068A (zh) | 用于图像处理的神经网络对象识别的方法和系统 | |
JP2022524262A (ja) | 目標対象物の検出方法、目標対象物の検出装置、電子機器、記憶媒体及びコンピュータプログラム | |
US20240169687A1 (en) | Model training method, scene recognition method, and related device | |
CN110543849A (zh) | 检测器的配置方法及装置、电子设备和存储介质 | |
KR102421488B1 (ko) | 복수개의 출력 레이어를 이용한 인공 지능 장치 및 방법 | |
CN113065591A (zh) | 目标检测方法及装置、电子设备和存储介质 | |
CN111435422B (zh) | 动作识别方法、控制方法及装置、电子设备和存储介质 | |
CN115516822A (zh) | 智能家电装置以及方法 | |
US20230245344A1 (en) | Electronic device and controlling method of electronic device | |
WO2023137923A1 (zh) | 基于姿态指导的行人重识别方法、装置、设备及存储介质 | |
CN114359808A (zh) | 目标检测方法及装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210511 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210511 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220518 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220802 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221129 |
|
A045 | Written measure of dismissal of application [lapsed due to lack of payment] |
Free format text: JAPANESE INTERMEDIATE CODE: A045 Effective date: 20230328 |