JP2022534337A - ビデオターゲット追跡方法と装置、コンピュータ装置、プログラム - Google Patents
ビデオターゲット追跡方法と装置、コンピュータ装置、プログラム Download PDFInfo
- Publication number
- JP2022534337A JP2022534337A JP2021537733A JP2021537733A JP2022534337A JP 2022534337 A JP2022534337 A JP 2022534337A JP 2021537733 A JP2021537733 A JP 2021537733A JP 2021537733 A JP2021537733 A JP 2021537733A JP 2022534337 A JP2022534337 A JP 2022534337A
- Authority
- JP
- Japan
- Prior art keywords
- target
- map
- image frame
- detection
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 238000001514 detection method Methods 0.000 claims abstract description 152
- 238000003709 image segmentation Methods 0.000 claims abstract description 116
- 238000012549 training Methods 0.000 claims description 50
- 230000003287 optical effect Effects 0.000 claims description 47
- 230000008569 process Effects 0.000 claims description 25
- 230000011218 segmentation Effects 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 13
- 238000003062 neural network model Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 16
- 230000003044 adaptive effect Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 8
- 239000000284 extract Substances 0.000 description 7
- 230000002093 peripheral effect Effects 0.000 description 6
- 238000004590 computer program Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000010339 dilation Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20156—Automatic seed setting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
Description
検出対象ビデオにおけるターゲット画像フレームに対応する局所検出マップを取得するステップであって、前記局所検出マップは、前記検出対象ビデオにおける、画像分割モデルにより追跡することが必要となるターゲットオブジェクトの見かけ情報に基づいて生成されるものである、ステップと、
前記ターゲット画像フレームに対応する相対動き顕著性マップを取得するステップであって、前記相対動き顕著性マップは、前記ターゲットオブジェクトの動き情報に基づいて生成されるものである、ステップと、
前記局所検出マップと前記相対動き顕著性マップとに基づいて、前記ターゲット画像フレームに対応する制約情報を決定するステップであって、前記制約情報に、前記ターゲット画像フレームにおける絶対正のサンプル画素、絶対負のサンプル画素及び不確定のサンプル画素が含まれる、ステップと、
前記制約情報により前記画像分割モデルのパラメータを調整し、調整された画像分割モデルを取得するステップと、
前記調整された画像分割モデルにより、前記ターゲット画像フレームにおける前記ターゲットオブジェクトを抽出するステップと、を含む。
検出対象ビデオにおけるターゲット画像フレームに対応する局所検出マップを取得する検出マップ取得モジュールであって、前記局所検出マップは、前記検出対象ビデオにおける、画像分割モデルにより追跡することが必要となるターゲットオブジェクトの見かけ情報に基づいて生成されるものである、検出マップ取得モジュールと、
前記ターゲット画像フレームに対応する相対動き顕著性マップを取得する動きマップ取得モジュールであって、前記相対動き顕著性マップは、前記ターゲットオブジェクトの動き情報に基づいて生成されるものである、動きマップ取得モジュールと、
前記局所検出マップと前記相対動き顕著性マップとに基づいて、前記ターゲット画像フレームに対応する制約情報を決定する制約情報取得モジュールであって、前記制約情報に、前記ターゲット画像フレームにおける絶対正のサンプル画素、絶対負のサンプル画素及び不確定のサンプル画素が含まれる、制約情報取得モジュールと、
前記制約情報により前記画像分割モデルのパラメータを調整し、調整された画像分割モデルを取得するモデル調整モジュールと、
前記調整された画像分割モデルにより、前記ターゲット画像フレームにおける前記ターゲットオブジェクトを抽出するターゲット分割モジュールと、を含む。
例示的な実施態様において、本ステップは、以下のようなサブステップ1~3を含んでもよい。
任意選択で、ターゲット画像フレームと近接画像フレームとの間のオプティカルフローを算出するベースモデルとしてFlowNet2を用いる。FlowNet2は、CNN(Convolutional Neural Networks、畳み込みニューラルネットワーク)を利用してオプティカルフローを抽出するモデルであり、速度が速く、精度が高いなどの利点を有する。
1.初期の画像分割モデルを構築する。
2.第1のサンプルセットを用いて初期の画像分割モデルに初期トレーニングを行って、初期トレーニングされた画像分割モデルを取得する。
3.第2のサンプルセットを用いて、初期トレーニングされた画像分割モデルに再トレーニングを行って、プリトレーニング済みの画像分割モデルを取得する。
例示的な実施態様において、上記サンプル選択サブモジュール711は、
上記既にラベル付けされた画像フレームに枠をランダムに散布し、
上記枠に占める上記ターゲットオブジェクトの割合を算出し、
上記枠に占める上記ターゲットオブジェクトの割合が上記所定の閾値よりも大きければ、上記枠を上記既にラベル付けされた画像フレームに対応する検出ターゲット枠として決定するとともに、上記既にラベル付けされた画像フレームと上記検出ターゲット枠とを上記トレーニングサンプルとして選択する。
例示的な実施態様において、上記動きマップ取得サブモジュール722は、
上記局所検出マップにおける背景領域のオプティカルフローに基づいて、背景オプティカルフローを決定し、上記局所検出マップにおける背景領域とは、上記局所検出マップにおいて検出された上記ターゲットオブジェクトの所在する領域以外の残りの領域であり、
上記背景オプティカルフロー及び上記ターゲット画像フレームに対応する上記オプティカルフローに基づいて、上記相対動き顕著性マップを生成する。
上記ターゲット画像フレームにおけるターゲット画素について、
上記ターゲット画素の上記局所検出マップにおける値が第1の所定の条件を満たし、かつ上記ターゲット画素の上記相対動き顕著性マップにおける値が第2の所定の条件を満たす場合、上記ターゲット画素が上記絶対正のサンプル画素であると決定し、
上記ターゲット画素の上記局所検出マップにおける値が上記第1の所定の条件を満たさず、かつ上記ターゲット画素の上記相対動き顕著性マップにおける値が上記第2の所定の条件を満たさない場合、上記ターゲット画素が上記絶対負のサンプル画素であると決定し、
上記ターゲット画素の上記局所検出マップにおける値が上記第1の所定の条件を満たし、かつ上記ターゲット画素の上記相対動き顕著性マップにおける値が上記第2の所定の条件を満たさないか、又は、上記ターゲット画素の上記局所検出マップにおける値が上記第1の所定の条件を満たさず、かつ上記ターゲット画素の上記相対動き顕著性マップにおける値が上記第2の所定の条件を満たす場合、上記ターゲット画素が上記不確定のサンプル画素であると決定する。
少なくとも1つのラベル付きのピクチャが含まれる第1のサンプルセットを用いて上記初期の画像分割モデルに初期トレーニングを行い、初期トレーニングされた画像分割モデルを取得し、
少なくとも1つのラベル付きのビデオが含まれる第2のサンプルセットを用いて上記初期トレーニングされた画像分割モデルに再トレーニングを行い、プリトレーニング済みの画像分割モデルを取得する。
Claims (15)
- コンピュータ装置が実行するビデオターゲット追跡方法であって、
検出対象ビデオにおけるターゲット画像フレームに対応する局所検出マップを取得するステップであって、前記局所検出マップは、前記検出対象ビデオにおける、画像分割モデルにより追跡することが必要となるターゲットオブジェクトの見かけ情報に基づいて生成されるものである、ステップと、
前記ターゲット画像フレームに対応する相対動き顕著性マップを取得するステップであって、前記相対動き顕著性マップは、前記ターゲットオブジェクトの動き情報に基づいて生成されるものである、ステップと、
前記局所検出マップと前記相対動き顕著性マップとに基づいて、前記ターゲット画像フレームに対応する制約情報を決定するステップであって、前記制約情報に、前記ターゲット画像フレームにおける絶対正のサンプル画素、絶対負のサンプル画素及び不確定のサンプル画素が含まれる、ステップと、
前記制約情報により前記画像分割モデルのパラメータを調整し、調整された画像分割モデルを取得するステップと、
前記調整された画像分割モデルにより、前記ターゲット画像フレームにおける前記ターゲットオブジェクトを抽出するステップと、を含むことを特徴とする方法。 - 検出対象ビデオにおけるターゲット画像フレームに対応する局所検出マップを取得する前記ステップは、
前記検出対象ビデオの既にラベル付けされた画像フレームから、少なくとも1つのトレーニングサンプルを選択するステップであって、前記トレーニングサンプルには、前記既にラベル付けされた画像フレームと、前記既にラベル付けされた画像フレームに対応する検出ターゲット枠とが含まれ、前記検出ターゲット枠とは、前記検出ターゲット枠に占める前記ターゲットオブジェクトの割合が所定の閾値よりも大きい画像領域を指す、ステップと、
前記トレーニングサンプルによりターゲット検出モデルのパラメータを調整し、調整されたターゲット検出モデルを取得するステップと、
前記調整されたターゲット検出モデルにより前記ターゲット画像フレームを処理し、前記局所検出マップを取得するステップと、を含むことを特徴とする請求項1に記載の方法。 - 前記検出対象ビデオの既にラベル付けされた画像フレームから、少なくとも1つのトレーニングサンプルを選択する前記ステップは、
前記既にラベル付けされた画像フレームに枠をランダムに散布するステップと、
ランダムに散布された前記枠に占める前記ターゲットオブジェクトの割合を算出するステップと、
前記枠に占める前記ターゲットオブジェクトの割合が前記所定の閾値よりも大きければ、前記枠を前記既にラベル付けされた画像フレームに対応する検出ターゲット枠として決定するとともに、前記既にラベル付けされた画像フレームと前記検出ターゲット枠とを前記トレーニングサンプルとして選択するステップと、を含むことを特徴とする請求項2に記載の方法。 - 前記ターゲット画像フレームに対応する相対動き顕著性マップを取得する前記ステップは、
前記ターゲット画像フレームと近接画像フレームとの間のオプティカルフローを算出するステップと、
前記オプティカルフローに基づいて、前記相対動き顕著性マップを生成するステップと、を含むことを特徴とする請求項1に記載の方法。 - 前記オプティカルフローに基づいて、前記相対動き顕著性マップを生成する前記ステップは、
前記局所検出マップにおける背景領域のオプティカルフローに基づいて、背景オプティカルフローを決定するステップであって、前記局所検出マップにおける背景領域とは、前記局所検出マップにおいて検出された前記ターゲットオブジェクトの所在する領域以外の残りの領域を指す、ステップと、
前記背景オプティカルフロー及び前記ターゲット画像フレームに対応する前記オプティカルフローに基づいて、前記相対動き顕著性マップを生成するステップと、を含むことを特徴とする請求項4に記載の方法。 - 前記局所検出マップと前記相対動き顕著性マップとに基づいて、前記ターゲット画像フレームに対応する制約情報を決定する前記ステップは、
前記ターゲット画像フレームにおけるターゲット画素について、
前記ターゲット画素の前記局所検出マップにおける値が第1の所定の条件を満たし、かつ前記ターゲット画素の前記相対動き顕著性マップにおける値が第2の所定の条件を満たせば、前記ターゲット画素が前記絶対正のサンプル画素であると決定するステップ、
前記ターゲット画素の前記局所検出マップにおける値が前記第1の所定の条件を満たさず、かつ前記ターゲット画素の前記相対動き顕著性マップにおける値が前記第2の所定の条件を満たさなければ、前記ターゲット画素が前記絶対負のサンプル画素であると決定するステップ、
前記ターゲット画素の前記局所検出マップにおける値が前記第1の所定の条件を満たし、かつ前記ターゲット画素の前記相対動き顕著性マップにおける値が前記第2の所定の条件を満たさなければ、前記ターゲット画素が前記不確定のサンプル画素であると決定するステップ、又は、
前記ターゲット画素の前記局所検出マップにおける値が前記第1の所定の条件を満たさず、かつ前記ターゲット画素の前記相対動き顕著性マップにおける値が前記第2の所定の条件を満たせば、前記ターゲット画素が前記不確定のサンプル画素であると決定するステップを含むことを特徴とする請求項1~5のいずれか一項に記載の方法。 - 前記制約情報により画像分割モデルのパラメータを調整し、調整された画像分割モデルを取得する前記ステップは、
前記絶対正のサンプル画素と前記絶対負のサンプル画素とを用いて、前記画像分割モデルのパラメータを調整し、前記調整された画像分割モデルを取得するステップを含むことを特徴とする請求項1~5のいずれか一項に記載の方法。 - 前記画像分割モデルのプリトレーニングプロセスは、
初期の画像分割モデルを構築するステップと、
第1のサンプルセットを用いて前記初期の画像分割モデルに初期トレーニングを行い、初期トレーニングされた画像分割モデルを取得するステップであって、前記第1のサンプルセットに少なくとも1つのラベル付きのピクチャが含まれる、ステップと、
第2のサンプルセットを用いて前記初期トレーニングされた画像分割モデルに再トレーニングを行い、プリトレーニング済みの画像分割モデルを取得するステップであって、前記第2のサンプルセットに少なくとも1つのラベル付きのビデオが含まれる、ステップと、を含むことを特徴とする請求項1~5のいずれか一項に記載の方法。 - ビデオターゲット追跡装置であって、
検出対象ビデオにおけるターゲット画像フレームに対応する局所検出マップを取得する検出マップ取得モジュールであって、前記局所検出マップは、前記検出対象ビデオにおける、画像分割モデルにより追跡することが必要となるターゲットオブジェクトの見かけ情報に基づいて生成されるものであり、前記画像分割モデルは、前記検出対象ビデオの画像フレームから前記ターゲットオブジェクトを分割して抽出するためのニューラルネットワークモデルである、検出マップ取得モジュールと、
前記ターゲット画像フレームに対応する相対動き顕著性マップを取得する動きマップ取得モジュールであって、前記相対動き顕著性マップは、前記ターゲットオブジェクトの動き情報に基づいて生成されるものである、動きマップ取得モジュールと、
前記局所検出マップと前記相対動き顕著性マップとに基づいて、前記ターゲット画像フレームに対応する制約情報を決定する制約情報取得モジュールであって、前記制約情報に、前記ターゲット画像フレームにおける絶対正のサンプル画素、絶対負のサンプル画素及び不確定のサンプル画素が含まれる、制約情報取得モジュールと、
前記制約情報により前記画像分割モデルのパラメータを調整し、調整された画像分割モデルを取得するモデル調整モジュールと、
前記調整された画像分割モデルにより、前記ターゲット画像フレームにおける前記ターゲットオブジェクトを抽出するターゲット分割モジュールと、を含むことを特徴とする装置。 - 前記検出マップ取得モジュールは、
前記検出対象ビデオの既にラベル付けされた画像フレームから、少なくとも1つのトレーニングサンプルを選択するサンプル選択サブモジュールであって、前記トレーニングサンプルには、前記既にラベル付けされた画像フレームと、前記既にラベル付けされた画像フレームに対応する検出ターゲット枠とが含まれ、前記検出ターゲット枠とは、前記ターゲットオブジェクトの割合が所定の閾値よりも大きい画像領域を指す、サンプル選択サブモジュールと、
前記トレーニングサンプルによりターゲット検出モデルのパラメータを調整し、調整されたターゲット検出モデルを取得するモデル調整サブモジュールと、
前記調整されたターゲット検出モデルにより前記ターゲット画像フレームを処理し、前記局所検出マップを取得する検出マップ取得サブモジュールと、を含むことを特徴とする請求項9に記載の装置。 - 前記動きマップ取得モジュールは、
前記ターゲット画像フレームと近接画像フレームとの間のオプティカルフローを算出するオプティカルフロー算出サブモジュールと、
前記オプティカルフローに基づいて、前記相対動き顕著性マップを生成する動きマップ取得サブモジュールと、を含むことを特徴とする請求項9に記載の装置。 - 前記制約情報取得モジュールは、
前記ターゲット画像フレームにおけるターゲット画素について、
前記ターゲット画素の前記局所検出マップにおける値が第1の所定の条件を満たし、かつ前記ターゲット画素の前記相対動き顕著性マップにおける値が第2の所定の条件を満たす場合、前記ターゲット画素が前記絶対正のサンプル画素であると決定し、
前記ターゲット画素の前記局所検出マップにおける値が前記第1の所定の条件を満たさず、かつ前記ターゲット画素の前記相対動き顕著性マップにおける値が前記第2の所定の条件を満たさない場合、前記ターゲット画素が前記絶対負のサンプル画素であると決定し、
前記ターゲット画素の前記局所検出マップにおける値が前記第1の所定の条件を満たし、かつ前記ターゲット画素の前記相対動き顕著性マップにおける値が前記第2の所定の条件を満たさないか、或いは、前記ターゲット画素の前記局所検出マップにおける値が前記第1の所定の条件を満たさず、かつ前記ターゲット画素の前記相対動き顕著性マップにおける値が前記第2の所定の条件を満たす場合、前記ターゲット画素が前記不確定のサンプル画素であると決定することを特徴とする請求項9~11のいずれか一項に記載の装置。 - 前記モデル調整モジュールは、
前記絶対正のサンプル画素と前記絶対負のサンプル画素とを用いて前記画像分割モデルを再トレーニングし、前記調整された画像分割モデルを取得することを特徴とする請求項9~11のいずれか一項に記載の装置。 - プロセッサと、
少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶されているメモリと、を含むコンピュータ装置であって、
前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット又は命令セットは、前記プロセッサによりロードされて実行されると、前記プロセッサに、
請求項1~8のいずれか一項に記載の方法を実行させることを特徴とする、コンピュータ装置。 - コンピュータに、請求項1~8のいずれか一項に記載の方法を実行させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910447379.3 | 2019-05-27 | ||
CN201910447379.3A CN110176027B (zh) | 2019-05-27 | 2019-05-27 | 视频目标跟踪方法、装置、设备及存储介质 |
PCT/CN2020/088286 WO2020238560A1 (zh) | 2019-05-27 | 2020-04-30 | 视频目标跟踪方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022534337A true JP2022534337A (ja) | 2022-07-29 |
JP7236545B2 JP7236545B2 (ja) | 2023-03-09 |
Family
ID=67696270
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021537733A Active JP7236545B2 (ja) | 2019-05-27 | 2020-04-30 | ビデオターゲット追跡方法と装置、コンピュータ装置、プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US12067733B2 (ja) |
EP (1) | EP3979200A4 (ja) |
JP (1) | JP7236545B2 (ja) |
CN (1) | CN110176027B (ja) |
WO (1) | WO2020238560A1 (ja) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109086709B (zh) * | 2018-07-27 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 特征提取模型训练方法、装置及存储介质 |
CN110176027B (zh) | 2019-05-27 | 2023-03-14 | 腾讯科技(深圳)有限公司 | 视频目标跟踪方法、装置、设备及存储介质 |
CN110503074B (zh) * | 2019-08-29 | 2022-04-15 | 腾讯科技(深圳)有限公司 | 视频帧的信息标注方法、装置、设备及存储介质 |
CN110807784B (zh) * | 2019-10-30 | 2022-07-26 | 北京百度网讯科技有限公司 | 用于分割物体的方法和装置 |
CN112784638B (zh) * | 2019-11-07 | 2023-12-08 | 北京京东乾石科技有限公司 | 训练样本获取方法和装置、行人检测方法和装置 |
CN112862855B (zh) * | 2019-11-12 | 2024-05-24 | 北京京邦达贸易有限公司 | 图像标注方法、装置、计算设备及存储介质 |
CN110866515B (zh) * | 2019-11-22 | 2023-05-09 | 盛景智能科技(嘉兴)有限公司 | 厂房内对象行为识别方法、装置以及电子设备 |
CN111242973A (zh) * | 2020-01-06 | 2020-06-05 | 上海商汤临港智能科技有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
CN111260679B (zh) * | 2020-01-07 | 2022-02-01 | 广州虎牙科技有限公司 | 图像处理方法、图像分割模型训练方法及相关装置 |
CN111274892B (zh) * | 2020-01-14 | 2020-12-18 | 北京科技大学 | 一种鲁棒的遥感影像变化检测方法及系统 |
CN111208148A (zh) * | 2020-02-21 | 2020-05-29 | 凌云光技术集团有限责任公司 | 一种挖孔屏漏光缺陷检测系统 |
CN111340101B (zh) * | 2020-02-24 | 2023-06-30 | 广州虎牙科技有限公司 | 稳定性评估方法、装置、电子设备和计算机可读存储介质 |
CN111444826B (zh) * | 2020-03-25 | 2023-09-29 | 腾讯科技(深圳)有限公司 | 视频检测方法、装置、存储介质及计算机设备 |
CN111476252B (zh) * | 2020-04-03 | 2022-07-29 | 南京邮电大学 | 一种面向计算机视觉应用的轻量化无锚框目标检测方法 |
CN111461130B (zh) * | 2020-04-10 | 2021-02-09 | 视研智能科技(广州)有限公司 | 一种高精度图像语义分割算法模型及分割方法 |
JP7557958B2 (ja) | 2020-04-23 | 2024-09-30 | 株式会社日立システムズ | 画素レベル対象物検出システムおよびそのプログラム |
CN111654746B (zh) * | 2020-05-15 | 2022-01-21 | 北京百度网讯科技有限公司 | 视频的插帧方法、装置、电子设备和存储介质 |
CN112132871B (zh) * | 2020-08-05 | 2022-12-06 | 天津(滨海)人工智能军民融合创新中心 | 一种基于特征光流信息的视觉特征点追踪方法、装置、存储介质及终端 |
CN112525145B (zh) * | 2020-11-30 | 2022-05-17 | 北京航空航天大学 | 一种飞机降落相对姿态动态视觉测量方法及系统 |
CN112541475B (zh) * | 2020-12-24 | 2024-01-19 | 北京百度网讯科技有限公司 | 感知数据检测方法及装置 |
KR20220099210A (ko) * | 2021-01-05 | 2022-07-13 | 삼성디스플레이 주식회사 | 표시 장치, 이를 포함하는 가상 현실 표시 시스템 및 이를 이용한 입력 영상 기반 사용자 움직임 추정 방법 |
CN112733802B (zh) * | 2021-01-25 | 2024-02-09 | 腾讯科技(深圳)有限公司 | 图像的遮挡检测方法、装置、电子设备及存储介质 |
CN113011371A (zh) * | 2021-03-31 | 2021-06-22 | 北京市商汤科技开发有限公司 | 目标检测方法、装置、设备及存储介质 |
CN113361519B (zh) * | 2021-05-21 | 2023-07-28 | 北京百度网讯科技有限公司 | 目标处理方法、目标处理模型的训练方法及其装置 |
CN113361373A (zh) * | 2021-06-02 | 2021-09-07 | 武汉理工大学 | 一种农业场景下的航拍图像实时语义分割方法 |
CN113518256B (zh) * | 2021-07-23 | 2023-08-08 | 腾讯科技(深圳)有限公司 | 视频处理方法、装置、电子设备及计算机可读存储介质 |
CN113807185B (zh) * | 2021-08-18 | 2024-02-27 | 苏州涟漪信息科技有限公司 | 一种数据处理方法和装置 |
US20210385463A1 (en) * | 2021-08-20 | 2021-12-09 | Intel Corporation | Resource-efficient video coding and motion estimation |
US12106487B2 (en) | 2021-11-24 | 2024-10-01 | Microsoft Technology Licensing, Llc | Feature prediction for efficient video processing |
CN114140488A (zh) * | 2021-11-30 | 2022-03-04 | 北京达佳互联信息技术有限公司 | 视频目标分割方法及装置、视频目标分割模型的训练方法 |
CN114359973A (zh) * | 2022-03-04 | 2022-04-15 | 广州市玄武无线科技股份有限公司 | 基于视频的商品状态识别方法、设备及计算机可读介质 |
CN114639171B (zh) * | 2022-05-18 | 2022-07-29 | 松立控股集团股份有限公司 | 一种停车场全景安全监控方法 |
CN114979652A (zh) * | 2022-05-20 | 2022-08-30 | 北京字节跳动网络技术有限公司 | 一种视频处理方法、装置、电子设备及存储介质 |
CN115052154B (zh) * | 2022-05-30 | 2023-04-14 | 北京百度网讯科技有限公司 | 一种模型训练和视频编码方法、装置、设备及存储介质 |
CN115860275B (zh) * | 2023-02-23 | 2023-05-05 | 深圳市南湖勘测技术有限公司 | 一种用于土地整备利益统筹测绘采集方法及系统 |
CN116188460B (zh) * | 2023-04-24 | 2023-08-25 | 青岛美迪康数字工程有限公司 | 基于运动矢量的图像识别方法、装置和计算机设备 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8467570B2 (en) * | 2006-06-14 | 2013-06-18 | Honeywell International Inc. | Tracking system with fused motion and object detection |
CN101968884A (zh) * | 2009-07-28 | 2011-02-09 | 索尼株式会社 | 检测视频图像中的目标的方法和装置 |
US9107604B2 (en) * | 2011-09-26 | 2015-08-18 | Given Imaging Ltd. | Systems and methods for generating electromagnetic interference free localization data for an in-vivo device |
US11100335B2 (en) * | 2016-03-23 | 2021-08-24 | Placemeter, Inc. | Method for queue time estimation |
CN106127807A (zh) * | 2016-06-21 | 2016-11-16 | 中国石油大学(华东) | 一种实时的视频多类多目标跟踪方法 |
CN106530330B (zh) * | 2016-12-08 | 2017-07-25 | 中国人民解放军国防科学技术大学 | 基于低秩稀疏的视频目标跟踪方法 |
US11423548B2 (en) * | 2017-01-06 | 2022-08-23 | Board Of Regents, The University Of Texas System | Segmenting generic foreground objects in images and videos |
US20180204076A1 (en) * | 2017-01-13 | 2018-07-19 | The Regents Of The University Of California | Moving object detection and classification image analysis methods and systems |
CN106709472A (zh) * | 2017-01-17 | 2017-05-24 | 湖南优象科技有限公司 | 一种基于光流特征的视频目标检测与跟踪方法 |
CN106934346B (zh) * | 2017-01-24 | 2019-03-15 | 北京大学 | 一种目标检测性能优化的方法 |
CN107066990B (zh) * | 2017-05-04 | 2019-10-11 | 厦门美图之家科技有限公司 | 一种目标跟踪方法及移动设备 |
CN108305275B (zh) * | 2017-08-25 | 2021-02-12 | 深圳市腾讯计算机系统有限公司 | 主动跟踪方法、装置及系统 |
CN107679455A (zh) * | 2017-08-29 | 2018-02-09 | 平安科技(深圳)有限公司 | 目标跟踪装置、方法及计算机可读存储介质 |
CN107644429B (zh) * | 2017-09-30 | 2020-05-19 | 华中科技大学 | 一种基于强目标约束视频显著性的视频分割方法 |
CN107886515B (zh) * | 2017-11-10 | 2020-04-21 | 清华大学 | 利用光流场的图像分割方法及装置 |
CN108122247B (zh) * | 2017-12-25 | 2018-11-13 | 北京航空航天大学 | 一种基于图像显著性和特征先验模型的视频目标检测方法 |
CN109035293B (zh) * | 2018-05-22 | 2022-07-15 | 安徽大学 | 适用于视频图像中显著人体实例分割的方法 |
CN108765465B (zh) * | 2018-05-31 | 2020-07-10 | 西安电子科技大学 | 一种无监督sar图像变化检测方法 |
CN109145781B (zh) * | 2018-08-03 | 2021-05-04 | 北京字节跳动网络技术有限公司 | 用于处理图像的方法和装置 |
CN109376603A (zh) * | 2018-09-25 | 2019-02-22 | 北京周同科技有限公司 | 一种视频识别方法、装置、计算机设备及存储介质 |
CN109461168B (zh) * | 2018-10-15 | 2021-03-16 | 腾讯科技(深圳)有限公司 | 目标对象的识别方法和装置、存储介质、电子装置 |
CN109635657B (zh) * | 2018-11-12 | 2023-01-06 | 平安科技(深圳)有限公司 | 目标跟踪方法、装置、设备及存储介质 |
CN109492608B (zh) * | 2018-11-27 | 2019-11-05 | 腾讯科技(深圳)有限公司 | 图像分割方法、装置、计算机设备及存储介质 |
CN109711445B (zh) * | 2018-12-18 | 2020-10-16 | 绍兴文理学院 | 目标跟踪分类器在线训练样本的超像素中智相似加权方法 |
CN110176027B (zh) * | 2019-05-27 | 2023-03-14 | 腾讯科技(深圳)有限公司 | 视频目标跟踪方法、装置、设备及存储介质 |
-
2019
- 2019-05-27 CN CN201910447379.3A patent/CN110176027B/zh active Active
-
2020
- 2020-04-30 EP EP20812620.1A patent/EP3979200A4/en active Pending
- 2020-04-30 JP JP2021537733A patent/JP7236545B2/ja active Active
- 2020-04-30 WO PCT/CN2020/088286 patent/WO2020238560A1/zh unknown
-
2021
- 2021-08-30 US US17/461,978 patent/US12067733B2/en active Active
Non-Patent Citations (1)
Title |
---|
YE WANG,外7名: "Unsupervised Video Object Segmentation with Distractor-Aware Online Adaptation", [ONLINE], JPN6022035235, 19 December 2018 (2018-12-19), ISSN: 0004862902 * |
Also Published As
Publication number | Publication date |
---|---|
CN110176027A (zh) | 2019-08-27 |
EP3979200A1 (en) | 2022-04-06 |
WO2020238560A1 (zh) | 2020-12-03 |
US20210398294A1 (en) | 2021-12-23 |
US12067733B2 (en) | 2024-08-20 |
CN110176027B (zh) | 2023-03-14 |
JP7236545B2 (ja) | 2023-03-09 |
EP3979200A4 (en) | 2022-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7236545B2 (ja) | ビデオターゲット追跡方法と装置、コンピュータ装置、プログラム | |
CN112052787B (zh) | 基于人工智能的目标检测方法、装置及电子设备 | |
US11170210B2 (en) | Gesture identification, control, and neural network training methods and apparatuses, and electronic devices | |
CN109558832B (zh) | 一种人体姿态检测方法、装置、设备及存储介质 | |
CN108780508B (zh) | 用于归一化图像的系统和方法 | |
US20190279014A1 (en) | Method and apparatus for detecting object keypoint, and electronic device | |
CN108416266B (zh) | 一种利用光流提取运动目标的视频行为快速识别方法 | |
CN111161311A (zh) | 一种基于深度学习的视觉多目标跟踪方法及装置 | |
EP2864933B1 (en) | Method, apparatus and computer program product for human-face features extraction | |
CN111275034B (zh) | 从图像中提取文本区域的方法、装置、设备和存储介质 | |
CN108334878B (zh) | 视频图像检测方法、装置、设备及可读存储介质 | |
CN111652181B (zh) | 目标跟踪方法、装置及电子设备 | |
US11720745B2 (en) | Detecting occlusion of digital ink | |
CN112836625A (zh) | 人脸活体检测方法、装置、电子设备 | |
US11367206B2 (en) | Edge-guided ranking loss for monocular depth prediction | |
Sharjeel et al. | Real time drone detection by moving camera using COROLA and CNN algorithm | |
CN113744280B (zh) | 图像处理方法、装置、设备及介质 | |
CN117079305A (zh) | 姿态估计方法、姿态估计装置以及计算机可读存储介质 | |
CN115984712A (zh) | 基于多尺度特征的遥感图像小目标检测方法及系统 | |
CN113344200B (zh) | 用于训练可分离卷积网络的方法、路侧设备及云控平台 | |
CN114627534A (zh) | 活体判别方法及电子设备、存储介质 | |
CN114120423A (zh) | 人脸图像检测方法、装置、电子设备和计算机可读介质 | |
CN116228850A (zh) | 物体姿态估计方法、装置、电子设备及可读存储介质 | |
CN113537359A (zh) | 训练数据的生成方法及装置、计算机可读介质和电子设备 | |
CN107563284B (zh) | 行人追踪方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210708 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7236545 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |