JP7305251B2 - オブジェクト追跡方法、オブジェクト追跡装置、コンピュータプログラム、及び電子機器 - Google Patents
オブジェクト追跡方法、オブジェクト追跡装置、コンピュータプログラム、及び電子機器 Download PDFInfo
- Publication number
- JP7305251B2 JP7305251B2 JP2021556570A JP2021556570A JP7305251B2 JP 7305251 B2 JP7305251 B2 JP 7305251B2 JP 2021556570 A JP2021556570 A JP 2021556570A JP 2021556570 A JP2021556570 A JP 2021556570A JP 7305251 B2 JP7305251 B2 JP 7305251B2
- Authority
- JP
- Japan
- Prior art keywords
- frame image
- image
- current frame
- motion vector
- detected object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Description
カメラによって収集されたビデオストリームを取得し、前記ビデオストリームを復号することにより、複数のフレームの画像を取得するステップと、
処理対象の現在のフレームの画像について、前記現在のフレームの画像が第1タイプの画像であることに応答して、前記現在のフレームの画像に対してオブジェクト検出を行うことにより、被検出オブジェクトの前記現在のフレームの画像における位置情報を取得するステップと、
前記現在のフレームの画像が第2タイプの画像であることに応答して、1つ前のフレームの画像の動きベクトルに基づいて、前記1つ前のフレームの画像における被検出オブジェクトの、前記現在のフレームの画像における位置情報を予測するステップと、を含む。
カメラによって収集されたビデオストリームを取得する取得モジュールと、
前記ビデオストリームを復号することにより、複数のフレームの画像を取得する復号モジュールと、
処理対象の現在のフレームの画像について、前記現在のフレームの画像が第1タイプの画像であることに応答して、前記現在のフレームの画像に対してオブジェクト検出を行うことにより、被検出オブジェクトの前記現在のフレームの画像における位置情報を取得し、前記現在のフレームの画像が第2タイプの画像であることに応答して、1つ前のフレームの画像の動きベクトルに基づいて、前記1つ前のフレームの画像における被検出オブジェクトの、前記現在のフレームの画像における位置情報を予測する処理モジュールと、を含む。
前記被検出オブジェクトの前記現在のフレームの画像における位置情報を前記端末に送信し、前記端末によって、前記被検出オブジェクトの前記現在のフレームの画像における位置情報を表示する送信モジュールをさらに含む。
カメラによって収集されたビデオストリームを取得し、前記ビデオストリームを復号することにより、複数のフレームの画像を取得するステップと、
処理対象の現在のフレームの画像について、前記現在のフレームの画像が第1タイプの画像であることに応答して、前記現在のフレームの画像に対してオブジェクト検出を行うことにより、被検出オブジェクトの前記現在のフレームの画像における位置情報を取得するステップと、
前記現在のフレームの画像が第2タイプの画像であることに応答して、1つ前のフレームの画像の動きベクトルに基づいて、前記1つ前のフレームの画像における被検出オブジェクトの、前記現在のフレームの画像における位置情報を予測するステップと、を実現させる。
カメラによって収集されたビデオストリームを取得し、前記ビデオストリームを復号することにより、複数のフレームの画像を取得するステップと、
処理対象の現在のフレームの画像について、前記現在のフレームの画像が第1タイプの画像であることに応答して、前記現在のフレームの画像に対してオブジェクト検出を行うことにより、被検出オブジェクトの前記現在のフレームの画像における位置情報を取得するステップと、
前記現在のフレームの画像が第2タイプの画像であることに応答して、1つ前のフレームの画像の動きベクトルに基づいて、前記1つ前のフレームの画像における被検出オブジェクトの、前記現在のフレームの画像における位置情報を予測するステップと、を実現させる。
カメラによって収集されたビデオストリームを取得する取得モジュール1301と、
前記ビデオストリームを復号することにより、複数のフレームの画像を取得する復号モジュール1302と、
処理対象の現在のフレームの画像について、前記現在のフレームの画像が第1タイプの画像であることに応答して、前記現在のフレームの画像に対してオブジェクト検出を行うことにより、被検出オブジェクトの前記現在のフレームの画像における位置情報を取得し、前記現在のフレームの画像が第2タイプの画像であることに応答して、1つ前のフレームの画像の動きベクトルに基づいて、前記1つ前のフレームの画像における被検出オブジェクトの、前記現在のフレームの画像における位置情報を予測する処理モジュール1303と、を含む。
前記複数のフレームの画像のうち、復号された1番目のフレームの画像は前記検出フレームであり、2つずつの前記検出フレームの間に1つ又は複数の前記追跡フレームが置かれる。
前記被検出オブジェクトの前記現在のフレームの画像における位置情報を前記端末に送信し、前記端末によって、前記被検出オブジェクトの前記現在のフレームの画像における位置情報を表示する送信モジュールをさらに含む。
カメラによって収集されたビデオストリームを取得し、前記ビデオストリームを復号することにより、複数のフレームの画像を取得するステップと、
処理対象の現在のフレームの画像について、前記現在のフレームの画像が第1タイプの画像であることに応答して、前記現在のフレームの画像に対してオブジェクト検出を行うことにより、被検出オブジェクトの前記現在のフレームの画像における位置情報を取得するステップと、
前記現在のフレームの画像が第2タイプの画像であることに応答して、1つ前のフレームの画像の動きベクトルに基づいて、前記1つ前のフレームの画像における被検出オブジェクトの、前記現在のフレームの画像における位置情報を予測するステップと、を実現させる。
前記複数のフレームの画像のうち、復号された1番目のフレームの画像は前記検出フレームであり、2つずつの前記検出フレームの間に1つ又は複数の前記追跡フレームが置かれる。
前記現在のフレームの画像に対してオブジェクト検出を行った後、前記現在のフレームの画像における被検出オブジェクトに対してキーポイント検出を行うステップと、
取得されたキーポイント検出結果と、前記現在のフレームの画像の動きベクトルとに基づいて、前記現在のフレームの画像における被検出オブジェクトの、次のフレームの画像における位置情報を予測するステップと、を実現させる。
前記少なくとも1つの命令は、前記プロセッサによってロードされて実行されると、
被検出オブジェクトごとに、前記被検出オブジェクトのキーポイント検出結果に基づいて、前記被検出オブジェクトを複数の領域に分割するステップと、
前記現在のフレームの画像の動きベクトルに基づいて、前記被検出オブジェクトの各領域の動きベクトルオフセットを取得するステップと、
前記各領域の動きベクトルオフセットに基づいて、前記被検出オブジェクトの前記次のフレームの画像における位置情報を予測するステップと、を実現させる。
次のフレームの画像が前記追跡フレームであることに応答して、前記現在のフレームの画像の動きベクトルに基づいて、前記現在のフレームの画像における被検出オブジェクトの、前記次のフレームの画像における位置情報を予測するステップを実現させる。
前記現在のフレームの画像の動きベクトルに基づいて、前記被検出オブジェクトの各領域の動きベクトルオフセットを取得するステップと、
前記各領域の動きベクトルオフセットに基づいて、前記被検出オブジェクトの前記次のフレームの画像における位置情報を予測するステップと、を実現させる。
前記被検出オブジェクトの領域ごとに、前記現在のフレームの画像の動きベクトルに基づいて、前記領域における各画素点の動きベクトルを取得するステップと、
前記領域に含まれる画素点の総数と、前記領域における各画素点の動きベクトルとに基づいて、前記領域の動きベクトルオフセットを取得するステップと、を実現させる。
前記各領域の動きベクトルオフセットに基づいて、前記各領域を平行移動させることにより、前記各領域の前記次のフレームの画像における位置情報を取得するステップと、
予測した前記各領域の前記次のフレームの画像における位置情報に基づいて、前記次のフレームの画像において、前記各領域を囲む1つの境界ボックスを生成することにより、前記被検出オブジェクトの前記次のフレームの画像における位置情報を取得するステップと、を実現させる。
端末から送信された、前記カメラに対するオブジェクト追跡要求を受信すると、前記カメラによって収集されたビデオストリームを取得するステップを実現させる。
前記被検出オブジェクトの前記現在のフレームの画像における位置情報を前記端末に送信し、前記端末によって、前記被検出オブジェクトの前記現在のフレームの画像における位置情報を表示するステップを実現させる。
前記現在のフレームの画像における歩行者に対して人体骨格のキーポイント検出を行うステップを実現させ、
前記被検出オブジェクトのキーポイント検出結果に基づいて、前記被検出オブジェクトを複数の領域に分割する前記ステップは、
前記歩行者の人体骨格のキーポイント検出の結果に基づいて、前記歩行者を複数の人体領域に分割するステップを含む。
カメラによって収集されたビデオストリームを取得し、前記ビデオストリームを復号することにより、複数のフレームの画像を取得するステップと、
処理対象の現在のフレームの画像について、前記現在のフレームの画像が第1タイプの画像であることに応答して、前記現在のフレームの画像に対してオブジェクト検出を行うことにより、被検出オブジェクトの前記現在のフレームの画像における位置情報を取得するステップと、
前記現在のフレームの画像が第2タイプの画像であることに応答して、1つ前のフレームの画像の動きベクトルに基づいて、前記1つ前のフレームの画像における被検出オブジェクトの、前記現在のフレームの画像における位置情報を予測するステップと、を実現させることが可能である。
前記複数のフレームの画像のうち、復号された1番目のフレームの画像は前記検出フレームであり、2つずつの前記検出フレームの間に1つ又は複数の前記追跡フレームが置かれる。
前記現在のフレームの画像に対してオブジェクト検出を行った後、前記現在のフレームの画像における被検出オブジェクトに対してキーポイント検出を行うステップと、
取得されたキーポイント検出結果と、前記現在のフレームの画像の動きベクトルとに基づいて、前記現在のフレームの画像における被検出オブジェクトの、次のフレームの画像における位置情報を予測するステップと、を実現させる。
前記命令は、前記プロセッサによってロードされて実行されると、
被検出オブジェクトごとに、前記被検出オブジェクトのキーポイント検出結果に基づいて、前記被検出オブジェクトを複数の領域に分割するステップと、
前記現在のフレームの画像の動きベクトルに基づいて、前記被検出オブジェクトの各領域の動きベクトルオフセットを取得するステップと、
前記各領域の動きベクトルオフセットに基づいて、前記被検出オブジェクトの前記次のフレームの画像における位置情報を予測するステップと、を実現させる。
次のフレームの画像が前記追跡フレームであることに応答して、前記現在のフレームの画像の動きベクトルに基づいて、前記現在のフレームの画像における被検出オブジェクトの、前記次のフレームの画像における位置情報を予測するステップを実現させる。
前記現在のフレームの画像の動きベクトルに基づいて、前記被検出オブジェクトの各領域の動きベクトルオフセットを取得するステップと、
前記各領域の動きベクトルオフセットに基づいて、前記被検出オブジェクトの前記次のフレームの画像における位置情報を予測するステップと、を実現させる。
前記被検出オブジェクトの領域ごとに、前記現在のフレームの画像の動きベクトルに基づいて、前記領域における各画素点の動きベクトルを取得するステップと、
前記領域に含まれる画素点の総数と、前記領域における各画素点の動きベクトルとに基づいて、前記領域の動きベクトルオフセットを取得するステップと、を実現させる。
前記各領域の動きベクトルオフセットに基づいて、前記各領域を平行移動させることにより、前記各領域の前記次のフレームの画像における位置情報を取得するステップと、
予測した前記各領域の前記次のフレームの画像における位置情報に基づいて、前記次のフレームの画像において、前記各領域を囲む1つの境界ボックスを生成することにより、前記被検出オブジェクトの前記次のフレームの画像における位置情報を取得するステップと、を実現させる。
端末から送信された、前記カメラに対するオブジェクト追跡要求を受信すると、前記カメラによって収集されたビデオストリームを取得するステップを実現させる。
前記被検出オブジェクトの前記現在のフレームの画像における位置情報を前記端末に送信し、前記端末によって、前記被検出オブジェクトの前記現在のフレームの画像における位置情報を表示するステップを実現させる。
前記現在のフレームの画像における歩行者に対して人体骨格のキーポイント検出を行うステップを実現させ、
前記被検出オブジェクトのキーポイント検出結果に基づいて、前記被検出オブジェクトを複数の領域に分割する前記ステップは、
前記歩行者の人体骨格のキーポイント検出の結果に基づいて、前記歩行者を複数の人体領域に分割するステップを含む。
1302 復号モジュール
1303 処理モジュール
1401 プロセッサ
1402 メモリ
Claims (13)
- 電子機器が実行するオブジェクト追跡方法であって、
カメラによって収集されたビデオストリームを取得し、前記ビデオストリームを復号することにより、複数のフレームの画像を取得するステップであって、第1タイプの画像は、前記複数のフレームの画像のうちの検出フレームであり、第2タイプの画像は、前記複数のフレームの画像のうちの追跡フレームであり、前記複数のフレームの画像のうち、復号された1番目のフレームの画像は前記検出フレームであり、2つずつの前記検出フレームの間に1つ又は複数の前記追跡フレームが置かれる、ステップと、
処理対象の現在のフレームの画像について、前記現在のフレームの画像が前記第1タイプの画像であることに応答して、前記現在のフレームの画像に対してオブジェクト検出を行うことにより、被検出オブジェクトの前記現在のフレームの画像における位置情報を取得するステップと、
前記現在のフレームの画像が前記第2タイプの画像であることに応答して、1つ前のフレームの画像の動きベクトルに基づいて、前記1つ前のフレームの画像における被検出オブジェクトの、前記現在のフレームの画像における位置情報を予測するステップと、
を含むことを特徴とするオブジェクト追跡方法。 - 前記現在のフレームの画像が前記第1タイプの画像であることに応答して、
前記現在のフレームの画像に対してオブジェクト検出を行った後、前記現在のフレームの画像における被検出オブジェクトに対してキーポイント検出を行うステップと、
取得されたキーポイント検出結果と、前記現在のフレームの画像の動きベクトルとに基づいて、前記現在のフレームの画像における被検出オブジェクトの、次のフレームの画像における位置情報を予測するステップと、をさらに含む、
ことを特徴とする請求項1に記載の方法。 - 前記現在のフレームの画像における被検出オブジェクトは、1つ又は複数であり、取得されたキーポイント検出結果と、前記現在のフレームの画像の動きベクトルとに基づいて、前記現在のフレームの画像における被検出オブジェクトの、次のフレームの画像における位置情報を予測する前記ステップは、
被検出オブジェクトごとに、前記被検出オブジェクトのキーポイント検出結果に基づいて、前記被検出オブジェクトを複数の領域に分割するステップと、
前記現在のフレームの画像の動きベクトルに基づいて、前記被検出オブジェクトの各領域の動きベクトルオフセットを取得するステップと、
前記各領域の動きベクトルオフセットに基づいて、前記被検出オブジェクトの前記次のフレームの画像における位置情報を予測するステップと、を含む、
ことを特徴とする請求項2に記載の方法。 - 前記現在のフレームの画像が第2タイプの画像であることに応答して、
次のフレームの画像が追跡フレームであることに応答して、前記現在のフレームの画像の動きベクトルに基づいて、前記現在のフレームの画像における被検出オブジェクトの、前記次のフレームの画像における位置情報を予測するステップをさらに含む、
ことを特徴とする請求項3に記載の方法。 - 前記現在のフレームの画像の動きベクトルに基づいて、前記現在のフレームの画像における被検出オブジェクトの、前記次のフレームの画像における位置情報を予測する前記ステップは、
前記現在のフレームの画像の動きベクトルに基づいて、前記分割された前記被検出オブジェクトの複数の領域の各領域の動きベクトルオフセットを取得するステップと、
前記各領域の動きベクトルオフセットに基づいて、前記被検出オブジェクトの前記次のフレームの画像における位置情報を予測するステップと、を含む、
ことを特徴とする請求項4に記載の方法。 - 前記現在のフレームの画像の動きベクトルに基づいて、前記被検出オブジェクトの各領域の動きベクトルオフセットを取得する前記ステップは、
前記被検出オブジェクトの領域ごとに、前記現在のフレームの画像の動きベクトルに基づいて、前記領域における各画素点の動きベクトルを取得するステップと、
前記領域に含まれる画素点の総数と、前記領域における各画素点の動きベクトルとに基づいて、前記領域の動きベクトルオフセットを取得するステップと、を含む、
ことを特徴とする請求項3に記載の方法。 - 前記各領域の動きベクトルオフセットに基づいて、前記被検出オブジェクトの前記次のフレームの画像における位置情報を予測する前記ステップは、
前記各領域の動きベクトルオフセットに基づいて、前記各領域を平行移動させることにより、前記各領域の前記次のフレームの画像における位置情報を取得するステップと、
予測した前記各領域の前記次のフレームの画像における位置情報に基づいて、前記次のフレームの画像において、前記各領域を囲む1つの境界ボックスを生成することにより、前記被検出オブジェクトの前記次のフレームの画像における位置情報を取得するステップと、を含む、
ことを特徴とする請求項3に記載の方法。 - カメラによって収集されたビデオストリームを取得する前記ステップは、
端末から送信された、前記カメラに対するオブジェクト追跡要求を受信すると、前記カメラによって収集されたビデオストリームを取得するステップを含む、
ことを特徴とする請求項1に記載の方法。 - 前記被検出オブジェクトの前記現在のフレームの画像における位置情報を前記端末に送信し、前記端末によって、前記被検出オブジェクトの前記現在のフレームの画像における位置情報を表示するステップをさらに含む、
ことを特徴とする請求項8に記載の方法。 - 前記被検出オブジェクトが歩行者であることに応答して、前記現在のフレームの画像における被検出オブジェクトに対してキーポイント検出を行う前記ステップは、
前記現在のフレームの画像における歩行者に対して人体骨格のキーポイント検出を行うステップを含み、
前記被検出オブジェクトのキーポイント検出結果に基づいて、前記被検出オブジェクトを複数の領域に分割する前記ステップは、
前記歩行者の人体骨格のキーポイント検出の結果に基づいて、前記歩行者を複数の人体領域に分割するステップを含む、
ことを特徴とする請求項3に記載の方法。 - オブジェクト追跡装置であって、
カメラによって収集されたビデオストリームを取得する取得モジュールと、
前記ビデオストリームを復号することにより、複数のフレームの画像を取得する復号モジュールであって、第1タイプの画像は、前記複数のフレームの画像のうちの検出フレームであり、第2タイプの画像は、前記複数のフレームの画像のうちの追跡フレームであり、前記複数のフレームの画像のうち、復号された1番目のフレームの画像は前記検出フレームであり、2つずつの前記検出フレームの間に1つ又は複数の前記追跡フレームが置かれる、復号モジュールと、
処理対象の現在のフレームの画像について、前記現在のフレームの画像が第1タイプの画像であることに応答して、前記現在のフレームの画像に対してオブジェクト検出を行うことにより、被検出オブジェクトの前記現在のフレームの画像における位置情報を取得し、前記現在のフレームの画像が第2タイプの画像であることに応答して、1つ前のフレームの画像の動きベクトルに基づいて、前記1つ前のフレームの画像における被検出オブジェクトの、前記現在のフレームの画像における位置情報を予測する処理モジュールと、
を含むことを特徴とするオブジェクト追跡装置。 - 請求項1~10のいずれか1項に記載のオブジェクト追跡方法をコンピュータに実現させることを特徴とするコンピュータプログラム。
- 電子機器であって、プロセッサとメモリとを備え、前記メモリには、少なくとも1つの命令が記憶され、前記少なくとも1つの命令は、前記プロセッサによってロードされて実行されると、請求項1~10のいずれか1項に記載のオブジェクト追跡方法を実現させる、
ことを特徴とする機器。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910810167.7A CN110516620B (zh) | 2019-08-29 | 2019-08-29 | 目标跟踪方法、装置、存储介质及电子设备 |
CN201910810167.7 | 2019-08-29 | ||
PCT/CN2020/109272 WO2021036828A1 (zh) | 2019-08-29 | 2020-08-14 | 目标跟踪方法、装置、存储介质及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022526750A JP2022526750A (ja) | 2022-05-26 |
JP7305251B2 true JP7305251B2 (ja) | 2023-07-10 |
Family
ID=68628141
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021556570A Active JP7305251B2 (ja) | 2019-08-29 | 2020-08-14 | オブジェクト追跡方法、オブジェクト追跡装置、コンピュータプログラム、及び電子機器 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11783491B2 (ja) |
JP (1) | JP7305251B2 (ja) |
CN (1) | CN110516620B (ja) |
WO (1) | WO2021036828A1 (ja) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110276411B (zh) * | 2019-06-28 | 2022-11-18 | 腾讯科技(深圳)有限公司 | 图像分类方法、装置、设备、存储介质和医疗电子设备 |
CN110516620B (zh) * | 2019-08-29 | 2023-07-28 | 腾讯科技(深圳)有限公司 | 目标跟踪方法、装置、存储介质及电子设备 |
US11727255B2 (en) * | 2019-10-15 | 2023-08-15 | Rutgers, The State University Of New Jersey | Systems and methods for edge assisted real-time object detection for mobile augmented reality |
CN112926371B (zh) * | 2019-12-06 | 2023-11-03 | 中国移动通信集团设计院有限公司 | 道路勘测方法及系统 |
CN111161316B (zh) * | 2019-12-18 | 2023-08-01 | 深圳云天励飞技术有限公司 | 目标物体跟踪方法、装置及终端设备 |
CN111144406B (zh) * | 2019-12-22 | 2023-05-02 | 复旦大学 | 一种太阳能面板清扫机器人自适应目标roi定位方法 |
CN111144304A (zh) * | 2019-12-26 | 2020-05-12 | 上海眼控科技股份有限公司 | 车辆目标检测模型的生成方法、车辆目标检测方法及装置 |
CN113496500B (zh) * | 2020-04-02 | 2024-09-20 | 杭州萤石软件有限公司 | 一种越界检测方法、装置及存储介质 |
CN111709978A (zh) * | 2020-05-06 | 2020-09-25 | 广东康云科技有限公司 | 一种跨屏目标跟踪方法、系统、装置及存储介质 |
CN111582233A (zh) * | 2020-05-21 | 2020-08-25 | 北京澎思科技有限公司 | 数据处理方法、电子设备和存储介质 |
CN111985419B (zh) * | 2020-08-25 | 2022-10-14 | 腾讯科技(深圳)有限公司 | 视频处理方法及相关设备 |
CN112116068B (zh) * | 2020-08-27 | 2024-09-13 | 山东浪潮科学研究院有限公司 | 一种环视图像拼接方法、设备及介质 |
CN112037259A (zh) * | 2020-08-27 | 2020-12-04 | 北京极智嘉科技有限公司 | 动态目标的跟踪系统及方法 |
CN112200830A (zh) * | 2020-09-11 | 2021-01-08 | 山东信通电子股份有限公司 | 一种目标跟踪方法及设备 |
CN112381858B (zh) * | 2020-11-13 | 2024-06-11 | 成都商汤科技有限公司 | 目标检测方法、装置、存储介质及设备 |
CN112836568B (zh) * | 2020-12-08 | 2024-08-23 | 北京迈格威科技有限公司 | 位置预测方法、装置、电子设备及可读存储介质 |
CN112949401B (zh) * | 2021-02-01 | 2024-03-26 | 浙江大华技术股份有限公司 | 图像分析方法、装置、设备及计算机存储介质 |
CN112837340B (zh) * | 2021-02-05 | 2023-09-29 | Oppo广东移动通信有限公司 | 属性的跟踪方法、装置、电子设备以及存储介质 |
CN112990069B (zh) * | 2021-03-31 | 2024-10-15 | 芯算一体(深圳)科技有限公司 | 异常驾驶行为检测方法、装置、终端及介质 |
CN112991393A (zh) * | 2021-04-15 | 2021-06-18 | 北京澎思科技有限公司 | 目标检测与跟踪方法、装置、电子设备及存储介质 |
CN113160276B (zh) * | 2021-04-28 | 2023-05-26 | 珠海市金锐电力科技有限公司 | 一种目标跟踪方法、目标跟踪装置及计算机可读存储介质 |
CN113223052A (zh) * | 2021-05-12 | 2021-08-06 | 北京百度网讯科技有限公司 | 轨迹优化方法、装置、设备、存储介质以及程序产品 |
CN113221800A (zh) * | 2021-05-24 | 2021-08-06 | 珠海大横琴科技发展有限公司 | 一种待检测目标的监控判断方法及系统 |
CN113538968B (zh) * | 2021-07-20 | 2023-02-28 | 阿波罗智联(北京)科技有限公司 | 用于输出信息的方法和装置 |
CN113470080B (zh) * | 2021-07-20 | 2024-05-14 | 浙江大华技术股份有限公司 | 一种违规行为识别方法 |
CN113794886A (zh) * | 2021-08-11 | 2021-12-14 | 镕铭微电子(济南)有限公司 | 采用视频编码信息辅助目标检测方法及设备 |
JP7491878B2 (ja) | 2021-08-12 | 2024-05-28 | Kddi株式会社 | 骨格推定装置及びプログラム |
CN113837093A (zh) * | 2021-09-24 | 2021-12-24 | 温州大学大数据与信息技术研究院 | 一种公共场所移动目标检测方法及装置 |
US11948183B2 (en) * | 2021-10-11 | 2024-04-02 | Everseen Limited | System and method for detecting a cart-based loss incident in a retail store |
CN114202562A (zh) * | 2021-12-07 | 2022-03-18 | 北京市商汤科技开发有限公司 | 视频处理方法及装置、电子设备和存储介质 |
CN114302234B (zh) * | 2021-12-29 | 2023-11-07 | 杭州当虹科技股份有限公司 | 一种空中技巧快速包装方法 |
CN114500952A (zh) * | 2022-02-14 | 2022-05-13 | 深圳市中壬速客信息技术有限公司 | 园区动态监控的控制方法、装置、设备和计算机存储介质 |
CN114640807B (zh) * | 2022-03-15 | 2024-01-16 | 京东科技信息技术有限公司 | 基于视频的对象统计方法、装置、电子设备和存储介质 |
CN114758307A (zh) * | 2022-04-07 | 2022-07-15 | 上海闪马智能科技有限公司 | 一种危化品车检测方法、装置、存储介质及电子装置 |
CN115760923B (zh) * | 2022-12-08 | 2024-05-28 | 上海人工智能创新中心 | 一种被动式非视域目标实时定位跟踪方法和系统 |
CN116883915B (zh) * | 2023-09-06 | 2023-11-21 | 常州星宇车灯股份有限公司 | 一种基于前后帧图像关联的目标检测方法及检测系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015129152A1 (ja) | 2014-02-26 | 2015-09-03 | 株式会社ソシオネクスト | 画像認識システムおよび半導体集積回路 |
CN106797451A (zh) | 2014-11-14 | 2017-05-31 | 英特尔公司 | 具有模型验证和管理的视觉对象跟踪系统 |
JP2017102622A (ja) | 2015-11-30 | 2017-06-08 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7860162B2 (en) * | 2005-09-29 | 2010-12-28 | Panasonic Corporation | Object tracking method and object tracking apparatus |
TWI393074B (zh) * | 2009-12-10 | 2013-04-11 | Ind Tech Res Inst | 移動物體偵測裝置與方法 |
US9349066B2 (en) * | 2012-01-06 | 2016-05-24 | Qualcomm Incorporated | Object tracking and processing |
EP2706372A1 (en) * | 2012-09-10 | 2014-03-12 | Esaote S.p.A. | Method and apparatus for ultrasound image acquisition |
US10474921B2 (en) * | 2013-06-14 | 2019-11-12 | Qualcomm Incorporated | Tracker assisted image capture |
US9465994B1 (en) * | 2015-02-23 | 2016-10-11 | Amazon Technologies, Inc. | Predicting performance and success of large-scale vision algorithms |
US9811732B2 (en) * | 2015-03-12 | 2017-11-07 | Qualcomm Incorporated | Systems and methods for object tracking |
CN104683803A (zh) * | 2015-03-24 | 2015-06-03 | 江南大学 | 一种应用于压缩域的运动对象检测与跟踪方法 |
CN105069408B (zh) * | 2015-07-24 | 2018-08-03 | 上海依图网络科技有限公司 | 一种复杂场景下基于人脸识别的视频人像跟踪方法 |
US10586102B2 (en) * | 2015-08-18 | 2020-03-10 | Qualcomm Incorporated | Systems and methods for object tracking |
US10275669B2 (en) * | 2015-09-09 | 2019-04-30 | Lightmetrics Technologies Pvt. Ltd. | System and method for detecting objects in an automotive environment |
CN105654512B (zh) * | 2015-12-29 | 2018-12-07 | 深圳微服机器人科技有限公司 | 一种目标跟踪方法和装置 |
US9659380B1 (en) * | 2016-01-07 | 2017-05-23 | International Business Machines Corporation | Object position tracking using motion estimation |
US11144761B2 (en) * | 2016-04-04 | 2021-10-12 | Xerox Corporation | Deep data association for online multi-class multi-object tracking |
CN106022238B (zh) | 2016-05-12 | 2019-05-28 | 清华大学 | 基于滑窗优化的多目标跟踪方法 |
CN107798272B (zh) | 2016-08-30 | 2021-11-02 | 佳能株式会社 | 快速多目标检测与跟踪系统 |
CN106919918B (zh) * | 2017-02-27 | 2022-11-29 | 腾讯科技(上海)有限公司 | 一种人脸跟踪方法和装置 |
CN107483953B (zh) * | 2017-10-10 | 2019-11-29 | 司马大大(北京)智能系统有限公司 | 帧间运动估计方法、装置及电子设备 |
CN108024113B (zh) * | 2017-12-15 | 2021-05-11 | 东华大学 | 一种目标占比自适应的压缩域小目标跟踪方法 |
CN108280843A (zh) * | 2018-01-24 | 2018-07-13 | 新华智云科技有限公司 | 一种视频目标检测跟踪方法及设备 |
CN109325961B (zh) * | 2018-08-27 | 2021-07-09 | 北京悦图数据科技发展有限公司 | 无人机视频多目标跟踪方法及装置 |
CN109685797B (zh) * | 2018-12-25 | 2021-08-10 | 北京旷视科技有限公司 | 骨骼点检测方法、装置、处理设备及存储介质 |
CN109886243B (zh) * | 2019-03-01 | 2021-03-26 | 腾讯医疗健康(深圳)有限公司 | 图像处理方法、装置、存储介质、设备以及系统 |
CN110516620B (zh) * | 2019-08-29 | 2023-07-28 | 腾讯科技(深圳)有限公司 | 目标跟踪方法、装置、存储介质及电子设备 |
-
2019
- 2019-08-29 CN CN201910810167.7A patent/CN110516620B/zh active Active
-
2020
- 2020-08-14 WO PCT/CN2020/109272 patent/WO2021036828A1/zh active Application Filing
- 2020-08-14 JP JP2021556570A patent/JP7305251B2/ja active Active
-
2021
- 2021-09-10 US US17/472,292 patent/US11783491B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015129152A1 (ja) | 2014-02-26 | 2015-09-03 | 株式会社ソシオネクスト | 画像認識システムおよび半導体集積回路 |
CN106797451A (zh) | 2014-11-14 | 2017-05-31 | 英特尔公司 | 具有模型验证和管理的视觉对象跟踪系统 |
JP2017102622A (ja) | 2015-11-30 | 2017-06-08 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2022526750A (ja) | 2022-05-26 |
CN110516620A (zh) | 2019-11-29 |
US11783491B2 (en) | 2023-10-10 |
US20210407103A1 (en) | 2021-12-30 |
CN110516620B (zh) | 2023-07-28 |
WO2021036828A1 (zh) | 2021-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7305251B2 (ja) | オブジェクト追跡方法、オブジェクト追跡装置、コンピュータプログラム、及び電子機器 | |
WO2021017606A1 (zh) | 视频处理方法、装置、电子设备及存储介质 | |
WO2021129064A1 (zh) | 姿态获取方法、关键点坐标定位模型的训练方法和装置 | |
Basly et al. | CNN-SVM learning approach based human activity recognition | |
Kumarapu et al. | Animepose: Multi-person 3d pose estimation and animation | |
CN112419368A (zh) | 运动目标的轨迹跟踪方法、装置、设备及存储介质 | |
US20220254157A1 (en) | Video 2D Multi-Person Pose Estimation Using Multi-Frame Refinement and Optimization | |
Liang et al. | Model-based hand pose estimation via spatial-temporal hand parsing and 3D fingertip localization | |
CN111240476B (zh) | 基于增强现实的交互方法、装置、存储介质和计算机设备 | |
Lee et al. | 3-D human behavior understanding using generalized TS-LSTM networks | |
EP3965071A2 (en) | Method and apparatus for pose identification | |
CN115699102A (zh) | 使用遮挡感知单对象跟踪在视频流中跟踪多个对象 | |
Scarpellini et al. | Lifting monocular events to 3d human poses | |
Silva et al. | Tensorpose: Real-time pose estimation for interactive applications | |
WO2023083030A1 (zh) | 一种姿态识别方法及其相关设备 | |
Ding et al. | Simultaneous body part and motion identification for human-following robots | |
Kulkarni et al. | Poseanalyser: A survey on human pose estimation | |
Shah et al. | Computer Vision & Deep Learning based realtime and pre-recorded human pose estimation | |
Nigam et al. | Multiview human activity recognition using uniform rotation invariant local binary patterns | |
Yuan et al. | A systematic survey on human behavior recognition methods | |
CN116883961A (zh) | 一种目标感知方法以及装置 | |
Parekh et al. | Deep learning-based 2D and 3D human pose estimation: a survey | |
Mur-Labadia et al. | AFF-ttention! Affordances and Attention models for Short-Term Object Interaction Anticipation | |
Hornauer et al. | Visual domain adaptation for monocular depth estimation on resource-constrained hardware | |
Guan et al. | HRPose: Real-Time High-Resolution 6D Pose Estimation Network Using Knowledge Distillation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210917 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210917 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230529 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230622 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7305251 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |