JP2015041383A - 対象追跡方法及び対象追跡装置 - Google Patents
対象追跡方法及び対象追跡装置 Download PDFInfo
- Publication number
- JP2015041383A JP2015041383A JP2014164040A JP2014164040A JP2015041383A JP 2015041383 A JP2015041383 A JP 2015041383A JP 2014164040 A JP2014164040 A JP 2014164040A JP 2014164040 A JP2014164040 A JP 2014164040A JP 2015041383 A JP2015041383 A JP 2015041383A
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- feature set
- target
- tracking template
- template
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】対象追跡方法は、画像を順次に入力するステップと、1つ又は複数の特徴を有する第1特徴集合に基づいて形成された第1追跡テンプレートを用いて対象の入力画像における第1位置を決定し、第1特徴集合と異なり、且つ1つ又は複数の特徴を有する第2特徴集合に基づいて形成された第2追跡テンプレートを用いて対象の入力画像における第2位置を決定するステップと、第1位置及び第2位置に基づいて、対象の入力画像における最終位置を決定するステップと、を含み、第1追跡テンプレートは所定数のフレームごとに更新され、第2追跡テンプレートは予め設定された規則に基づいて更新され、第2追跡テンプレートと第1追跡テンプレートとは個別に更新され、第2追跡テンプレートの更新頻度は第1追跡テンプレートの更新頻度よりも低い。
【選択図】図2
Description
2、対象追跡装置
3、対象追跡方法の第1実施例
4、対象追跡方法の第2実施例
5、対象追跡を行うための計算システム
下記の説明中、追跡対象を手として説明し、これは例示に過ぎず、実際に、本発明は追跡する対象が制限されない。
図1は本発明の1つの実施例による手追跡技術を人間とコンピュータのインタラクションに用いられるシーンを模式的に示す模式図である。図1に示すように、一台のカメラをコンピュータ上方に置き、ユーザーはカメラ範囲内に立つ。ユーザーがカメラ範囲内に彼/彼女の手を移動する時、コンピュータは手の真実の位置情報を計算して、手に対するリアルタイム追跡の目的を達することができ、手の異なる時刻での位置点は図1に示す。
以下、図2を参照しながら本発明の実施例による対象追跡装置の配置例示を説明する。
以下、詳しく対象追跡装置100の各部の機能と操作の例示を説明する。上記のように、手を追跡対象として説明する。
追跡スタート前の初期第1と第2追跡テンプレートの決定に対して、まず対応する第1特徴集合と第2特徴集合を決定することができる。
(1)まず、対象画素領域と背景画素領域を分割し、図5(a)に示すように、具体的な過程は例えば図4に示す通りである。
第1追跡テンプレートと第2追跡テンプレートを決定した後、入力画像に対して、それぞれ第一追跡テンプレートと第2追跡テンプレートを用いて対象の入力画像中の位置を決定又は検索し、第1位置と第2位置を取得することができる。
次に、対象候補領域内に、2種の異なる追跡テンプレートに基づいて、それぞれ対象の位置を位置決めする。
ステップS230において、該第1位置と第2位置に基づいて、対象の入力画像中の最終位置を決定する。
前記第1実施例ではテンプレート更新を行うことのみを説明した。以下、説明しようとする第2実施例の対象追跡方法はオンラインテンプレート更新を行うとともにオンライン特徴更新も行う。
(2)対象と背景領域を分析することにより、各候補特徴集合の対象と背景領域を区分する能力を評価すること、
(3)区分能力が最も強い第1候補特徴集合を決定すること、
(4)現在に決定された区分能力が最も強い第1候補特徴集合は現在に使用している第1特徴集合と異なると、該区分能力が最も強い第1候補特徴集合を保存し、且つ現在画像を候補サンプルとして保存する。該第1候補特徴集合が後続の連続のmlフレームにおいていずれも区分能力が最も強い候補特徴集合であると評価されると、現在に使用する第1特徴集合が現在追跡環境に適合しなくなったと考えられ、第1特徴集合を更新することを決定し、それ以外の場合は第1特徴集合を更新しないと考えられる。mlは正整数であり、その大きさは人工設定され又は学習により決定されてもよい。
(2)対象と背景領域を分析することにより、各候補特徴集合の対象と背景領域を区分する能力を評価すること、
(3)区分能力が第2強い第2候補特徴集合を決定すること、
(4)現在に決定された区分能力が第2強い第1候補特徴集合は現在に使用している第2特徴集合と異なると、該区分能力が最も強い第2候補特徴集合を保存し、且つ現在画像を候補サンプルとして保存する。該第2候補特徴集合が後続の連続のm2フレームにおいていずれも区分能力が第2強い候補特徴集合であると評価されると、現在に使用する第2特徴集合が現在追跡環境に適合しなくなったと考えられ、第2特徴集合を更新することを決定し、それ以外の場合は第2特徴集合を更新しないと考えられる。m2は正整数であり、その大きさは人工設定され又は学習により決定されてもよい。
本発明はさらに対象追跡を行うための計算システムにより実施することができる。図10は本発明実施形態を実現するための例示性計算システム600を示すブロック図である。図10に示すように、計算システム600は、CPU(中央処理ユニット)601、RAM(ランダムアクセスする記憶器)602、ROM(読み出し専用メモリ)603、システムバス604、ハードディスクコントローラ605、キーボードコントローラ606、シリアルインタフェースコントローラ607、並行インタフェースコントローラ608、表示コントローラ609、ハードディスク610、キーボード611、シリアル外部設備612、並行外部設備613及びディスプレイ614を備えても良い。これらの設備において、システムバス604にカップリングされたのはCPU601、RAM602、ROM603、ハードディスクコントローラ605、キーボードコントローラ606、シリアルコントローラ607、並行コントローラ608及び表示コントローラ609である。ハードディスク610はハードディスクコントローラ605にカップリングされ、キーボード611はキーボードコントローラ606にカップリングされ、シリアル外部設備612はシリアルインタフェースコントローラ607にカップリングされ、並行外部設備613は並行インタフェースコントローラ608にカップリングされ、及びディスプレイ614は表示コントローラ609にカップリングされる。図16に記載の構成ブロック図は例示の目的のために過ぎず、本発明範囲を制限するものではないと理解すべきである。いくつの場合、具体的な状況に応じていくつの設備を増加又は減少させることができる。
例えば、前記説明において、追跡対象例示は手であり、しかし、これは例示に過ぎず、追跡対象は人の顔、体全体、他の能動的な物体等であってもよい。
さらに前記説明において、分散比率を用いて特徴の対象と背景区分の能力を評価し、実際上に他の方法、例えば開放試験(CHI)、情報ゲイン(informationgain、IG)、相互情報量(mutualinformation、MI)、主成分分析(PrincipleComponentAnalysis、PCA)等の方法を用いて特徴を評価してもよい。
Claims (18)
- 画像を順次に入力するステップと、
1つ又は複数の特徴を有する第1特徴集合に基づいて形成された第1追跡テンプレートを用いて対象の入力画像における第1位置を決定し、前記第1特徴集合と異なり、且つ1つ又は複数の特徴を有する第2特徴集合に基づいて形成された第2追跡テンプレートを用いて対象の入力画像における第2位置を決定するステップと、
前記第1位置及び前記第2位置に基づいて、対象の入力画像における最終位置を決定するステップと、を含み、
前記第1追跡テンプレートは所定数のフレームごとに更新され、前記第2追跡テンプレートは予め設定された規則に基づいて更新され、前記第2追跡テンプレートと前記第1追跡テンプレートとは個別に更新され、前記第2追跡テンプレートの更新頻度は前記第1追跡テンプレートの更新頻度よりも低い、対象追跡方法。 - 決定された対象の入力画像における最終位置に基づいて、対象領域と背景領域を分割するステップと、
対象領域と背景領域を分析することにより、各候補特徴集合の対象領域と背景領域を区分する能力を評価するステップと、
区分能力が最も強い第1候補特徴集合と第2候補特徴集合を決定するステップと、
前記第1候補特徴集合を用いて前記第1特徴集合を更新するか否かを判断し、前記第2候補特徴集合を用いて前記第2特徴集合を更新するか否かを判断するステップと、
前記第1候補特徴集合を用いて前記第1特徴集合を更新すると判断された場合、前記第1特徴集合を更新し、該更新された第1特徴集合及び直前の所定数のフレームの追跡結果に基づいて前記第1追跡テンプレートを再構築し、そうでない場合は、所定数のフレームの画像ごとに前記第1追跡テンプレートを更新し、前記第1特徴集合をそのままにするステップと、
前記第2候補特徴集合を用いて前記第2特徴集合を更新すると判断された場合、前記第2特徴集合を更新し、該更新された第2特徴集合及び直前の所定数のフレームの追跡結果に基づいて前記第2追跡テンプレートを再構築するステップと、をさらに含む請求項1に記載の対象追跡方法。 - 前記第1追跡テンプレートを用いて対象の入力画像における第1位置を決定し、第2追跡テンプレートを用いて対象の入力画像における第2位置を決定するステップは、
対象の運動情報に基づいて、対象の入力画像における候補出現領域を予測するステップと、
前記候補出現領域において、前記第1追跡テンプレートを用いて対象の入力画像における第1位置を決定し、前記第2追跡テンプレートを用いて対象の入力画像における第2位置を決定するステップと、を含む請求項1に記載の対象追跡方法。 - 所定数のフレームごとに前記第1追跡テンプレートを更新する際に、各フレームの入力画像ごとに前記第1追跡テンプレートを更新する請求項1に記載の対象追跡方法。
- 前記第1追跡テンプレートを用いて対象の入力画像における第1位置を決定し、第2追跡テンプレートを用いて対象の入力画像における第2位置を決定するステップは、
それぞれ前記第1追跡テンプレート及び前記第2追跡テンプレートに基づいて、対象の入力画像における候補領域に対応する第1信頼度図及び第2信頼度図を計算するステップと、
それぞれ前記第1信頼度図及び前記第2信頼度図に基づいて、平均値シフト法により対象の前記第1信頼度図における第1位置及び対象の前記第2信頼度図における第2位置を前記対象の入力画像における第1位置と前記対象の入力画像における第2位置として取得するステップと、を含む請求項1に記載の対象追跡方法。 - 前記第1位置及び前記第2位置に基づいて、対象の入力画像における最終位置を決定するステップは、
それぞれ前記第1位置の信頼性及び前記第2位置の信頼性を決定するステップと、
前記第1位置の信頼性及び前記第2位置の信頼性に基づいて、前記第1位置が占める重み及び前記第2位置が占める重みを決定するステップと、
前記第1位置の重み及び前記第2位置の重みに基づいて、前記第1位置と前記第2位置の加重和を、前記対象の入力画像における最終位置として計算するステップと、を含む請求項1に記載の対象追跡方法。 - 前記所定数のフレームごとに第一追跡テンプレートを更新する際に、
現在の追跡テンプレート及び現在の追跡された対象の加重和に基づいて、更新された第1追跡テンプレートを取得する請求項1に記載の対象追跡方法。 - 前記各候補特徴集合は独立した1つの特徴又は複数の特徴の組合せからなり、
前記対象領域と背景領域を分析することにより、各候補特徴集合の対象領域と背景領域を区分する能力を評価するステップは、
それぞれ各候補特徴集合の対象領域及び背景領域画素についてのヒストグラム分布を計算するステップと、
特徴評価関数により前記各候補特徴集合の対象領域と背景領域を区分する能力を評価するステップと、を含む請求項2に記載の対象追跡方法。 - 前記入力された画像は奥行き情報を含み、
前記決定された対象の入力画像における最終位置に基づいて、対象領域と背景領域を分割するステップは、奥行き情報に基づいて前記対象領域と背景領域を分割するステップを含む請求項2に記載の対象追跡方法。 - 画像を順次に入力する画像入力部と、
1つ又は複数の特徴を有する第1特徴集合に基づいて形成された第1追跡テンプレートを用いて対象の入力画像における第1位置を決定する第1追跡テンプレート位置決定部と、
前記第1特徴集合と異なり、且つ1つ又は複数の特徴を有する第2特徴集合に基づいて形成された第2追跡テンプレートを用いて対象の入力画像における第2位置を決定する第2追跡テンプレート位置決定部と、
前記第1位置及び前記第2位置に基づいて、対象の入力画像における最終位置を決定する対象最終位置決定部と、
所定数のフレームごとに前記第1追跡テンプレートを更新する第1追跡テンプレート更新部と、
予め設定された規則に基づいて前記第2追跡テンプレートを更新する第2追跡テンプレート更新部と、を含み、
前記第2追跡テンプレートと前記第1追跡テンプレートとは個別に更新され、前記第2追跡テンプレートの更新頻度は前記第1追跡テンプレートの更新頻度よりも低い、対象追跡装置。 - 決定された対象の入力画像における最終位置に基づいて、対象領域と背景領域を分割する分割部と、
対象領域と背景領域を分析することにより、各候補特徴集合の対象領域と背景領域を区分する能力を評価する評価部と、
区分能力が最も強い第1候補特徴集合と第2候補特徴集合を決定する決定部と、
前記第1候補特徴集合を用いて前記第1特徴集合を更新するか否かを判断し、前記第2候補特徴集合を用いて前記第2特徴集合を更新するか否かを判断する判断部と、
前記第1候補特徴集合を用いて前記第1特徴集合を更新すると判断された場合、前記第1特徴集合を更新し、該更新された第1特徴集合及び直前の所定数のフレームの追跡結果に基づいて前記第1追跡テンプレートを再構築し、そうでない場合は、所定数のフレームの画像ごとに前記第1追跡テンプレートを更新し、前記第1特徴集合をそのままにする第1更新部と、
前記第2候補特徴集合を用いて前記第2特徴集合を更新すると判断された場合、前記第2特徴集合を更新し、該更新された第2特徴集合及び直前の所定数のフレームの追跡結果に基づいて前記第2追跡テンプレートを再構築する第2更新部と、をさらに含む請求項10に記載の対象追跡装置。 - 対象の運動情報に基づいて、対象の入力画像における候補出現領域を予測し、
前記第1追跡テンプレート位置決定部は、前記候補出現領域において、前記第1追跡テンプレートを用いて対象の入力画像における第1位置を決定し、
前記第2追跡テンプレート位置決定部は、前記候補出現領域において、前記第2追跡テンプレートを用いて対象の入力画像における第2位置を決定する請求項10に記載の対象追跡装置。 - 前記第1追跡テンプレート更新部は、各フレームの入力画像ごとに前記第1追跡テンプレートを更新する請求項10に記載の対象追跡装置。
- それぞれ前記第1追跡テンプレート及び前記第2追跡テンプレートに基づいて、対象の入力画像における候補領域に対応する第1信頼度図及び第2信頼度図を計算し、
前記第1追跡テンプレート位置決定部は、前記第1信頼度図に基づいて、平均値シフト法により対象の前記第1信頼度図における第1位置を、前記対象の入力画像における第1位置として取得し、
前記第2追跡テンプレート位置決定部は、前記第2信頼度図に基づいて、平均値シフト法により対象の前記第2信頼度図における第2位置を、前記対象の入力画像における第2位置として取得する請求項10に記載の対象追跡装置。 - 対象最終位置決定部は、
それぞれ前記第1位置の信頼性及び前記第2位置の信頼性を決定し、
前記第1位置の信頼性及び前記第2位置の信頼性に基づいて、前記第1位置が占める重み及び前記第2位置が占める重みを決定し、
前記第1位置の重み及び前記第2位置の重みに基づいて、前記第1位置と前記第2位置の加重和を、前記対象の入力画像における最終位置として計算する請求項10に記載の対象追跡装置。 - 前記第1追跡テンプレート更新部は、現在の追跡テンプレート及び現在の追跡された対象の加重和に基づいて、更新された第1追跡テンプレートを取得する請求項10に記載の対象追跡装置。
- 前記各候補特徴集合は独立した1つの特徴又は複数の特徴の組合せからなり、
前記評価部は、
それぞれ各候補特徴集合の対象領域及び背景領域画素についてのヒストグラム分布を計算し、
特徴評価関数により前記各候補特徴集合の対象領域と背景領域を区分する能力を評価する請求項11に記載の対象追跡装置。 - 前記入力された画像は奥行き情報を含み、
前記分割部は、奥行き情報に基づいて前記対象領域と背景領域を分割する請求項11に記載の対象追跡装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310373327.9A CN104424634B (zh) | 2013-08-23 | 2013-08-23 | 对象跟踪方法和装置 |
CN201310373327.9 | 2013-08-23 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015041383A true JP2015041383A (ja) | 2015-03-02 |
JP6458394B2 JP6458394B2 (ja) | 2019-01-30 |
Family
ID=52480416
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014164040A Expired - Fee Related JP6458394B2 (ja) | 2013-08-23 | 2014-08-12 | 対象追跡方法及び対象追跡装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9311534B2 (ja) |
JP (1) | JP6458394B2 (ja) |
CN (1) | CN104424634B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020135079A (ja) * | 2019-02-13 | 2020-08-31 | Necソリューションイノベータ株式会社 | 追跡装置、追跡方法、及びプログラム |
JP2020135078A (ja) * | 2019-02-13 | 2020-08-31 | Necソリューションイノベータ株式会社 | 追跡装置、追跡方法、及びプログラム |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103679743B (zh) * | 2012-09-06 | 2016-09-14 | 索尼公司 | 目标跟踪装置和方法,以及照相机 |
JP6072892B2 (ja) * | 2013-02-27 | 2017-02-01 | 日立オートモティブシステムズ株式会社 | 撮像装置及び車両制御装置 |
CN104794733B (zh) | 2014-01-20 | 2018-05-08 | 株式会社理光 | 对象跟踪方法和装置 |
US10438631B2 (en) | 2014-02-05 | 2019-10-08 | Snap Inc. | Method for real-time video processing involving retouching of an object in the video |
US10092220B2 (en) * | 2014-03-20 | 2018-10-09 | Telecom Italia S.P.A. | System and method for motion capture |
CN105096259B (zh) | 2014-05-09 | 2018-01-09 | 株式会社理光 | 深度图像的深度值恢复方法和系统 |
EP3057046A1 (en) * | 2015-02-13 | 2016-08-17 | Tata Consultancy Services Limited | Method and system for employee assesment |
JP6800628B2 (ja) * | 2016-06-22 | 2020-12-16 | キヤノン株式会社 | 追跡装置、追跡方法、及びプログラム |
CN107610157B (zh) * | 2016-07-12 | 2020-10-09 | 深圳雷柏科技股份有限公司 | 一种无人机目标追踪方法及系统 |
US10380756B2 (en) * | 2016-09-08 | 2019-08-13 | Sony Corporation | Video processing system and method for object detection in a sequence of image frames |
CN107729848B (zh) * | 2017-10-20 | 2019-10-25 | 北京大学 | 对象检测方法及装置 |
CN109753846A (zh) * | 2017-11-03 | 2019-05-14 | 北京深鉴智能科技有限公司 | 目标跟踪硬件实现系统和方法 |
CN108230359B (zh) * | 2017-11-12 | 2021-01-26 | 北京市商汤科技开发有限公司 | 目标检测方法和装置、训练方法、电子设备、程序和介质 |
CN108229307B (zh) * | 2017-11-22 | 2022-01-04 | 北京市商汤科技开发有限公司 | 用于物体检测的方法、装置和设备 |
CN108009506A (zh) * | 2017-12-07 | 2018-05-08 | 平安科技(深圳)有限公司 | 入侵检测方法、应用服务器及计算机可读存储介质 |
CN109033955B (zh) * | 2018-06-15 | 2020-08-14 | 中国科学院半导体研究所 | 一种人脸跟踪方法和系统 |
WO2020014901A1 (zh) * | 2018-07-18 | 2020-01-23 | 深圳前海达闼云端智能科技有限公司 | 一种目标跟踪方法、装置、电子设备和可读存储介质 |
CN109271854B (zh) * | 2018-08-07 | 2021-02-02 | 北京市商汤科技开发有限公司 | 基于视频处理方法及装置、视频设备及存储介质 |
CN110895819B (zh) * | 2018-09-12 | 2022-11-29 | 长沙智能驾驶研究院有限公司 | 目标跟踪方法、装置、计算机可读存储介质和计算机设备 |
CN109658434B (zh) * | 2018-12-26 | 2023-06-16 | 成都纵横自动化技术股份有限公司 | 一种目标跟踪的方法及装置 |
CN109785385B (zh) * | 2019-01-22 | 2021-01-29 | 中国科学院自动化研究所 | 视觉目标跟踪方法及系统 |
CN109886997B (zh) * | 2019-01-23 | 2023-07-11 | 平安科技(深圳)有限公司 | 基于目标检测的识别框确定方法、装置及终端设备 |
US11106949B2 (en) * | 2019-03-22 | 2021-08-31 | Microsoft Technology Licensing, Llc | Action classification based on manipulated object movement |
CN112184750A (zh) * | 2019-06-13 | 2021-01-05 | 北京四维图新科技股份有限公司 | 基于视频图像的对象跟踪方法及装置 |
CN110660081B (zh) * | 2019-09-18 | 2022-02-11 | 西安交通大学 | 一种基于自适应的特征选择的目标跟踪方法 |
US11238314B2 (en) * | 2019-11-15 | 2022-02-01 | Salesforce.Com, Inc. | Image augmentation and object detection |
CN110930428B (zh) * | 2020-02-19 | 2020-08-14 | 成都纵横大鹏无人机科技有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
CN111340845B (zh) * | 2020-02-25 | 2020-12-29 | 上海黑眸智能科技有限责任公司 | 基于深度视觉传感器的自动跟踪方法、系统、终端以及介质 |
CN111696132B (zh) * | 2020-05-15 | 2023-12-29 | 深圳市优必选科技股份有限公司 | 目标跟踪方法、装置、计算机可读存储介质及机器人 |
CN111640140B (zh) * | 2020-05-22 | 2022-11-25 | 北京百度网讯科技有限公司 | 目标跟踪方法、装置、电子设备及计算机可读存储介质 |
CN112967310B (zh) * | 2021-02-04 | 2023-07-14 | 成都国翼电子技术有限公司 | 一种基于fpga的模板匹配加速方法 |
CN113129335B (zh) * | 2021-03-25 | 2023-03-14 | 西安电子科技大学 | 一种基于孪生网络的视觉跟踪算法及多模板更新策略 |
CN117376456A (zh) * | 2023-11-23 | 2024-01-09 | 广州城市理工学院 | 一种网关数据模板筛选方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005236508A (ja) * | 2004-02-18 | 2005-09-02 | Matsushita Electric Ind Co Ltd | 自動追尾装置及び自動追尾方法 |
JP2008021266A (ja) * | 2006-07-14 | 2008-01-31 | Matsushita Electric Ind Co Ltd | 顔向き検出装置、顔向き検出方法、および顔向き検出プログラム |
JP2008123416A (ja) * | 2006-11-15 | 2008-05-29 | Nikon Corp | 被写体追跡プログラム、被写体追跡装置、およびカメラ |
WO2009098894A1 (ja) * | 2008-02-06 | 2009-08-13 | Panasonic Corporation | 電子カメラおよび画像処理方法 |
JP2011258180A (ja) * | 2010-05-10 | 2011-12-22 | Casio Comput Co Ltd | 被写体追跡装置、被写体追跡方法及びプログラム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4798259B2 (ja) * | 2009-06-08 | 2011-10-19 | 株式会社ニコン | 被写体追尾装置、およびカメラ |
CN101763515B (zh) * | 2009-09-23 | 2012-03-21 | 中国科学院自动化研究所 | 一种基于计算机视觉的实时手势交互方法 |
US8787663B2 (en) * | 2010-03-01 | 2014-07-22 | Primesense Ltd. | Tracking body parts by combined color image and depth processing |
CN101853071B (zh) * | 2010-05-13 | 2012-12-05 | 重庆大学 | 基于视觉的手势识别方法及系统 |
CN102184417A (zh) * | 2011-05-10 | 2011-09-14 | 韩祎 | 一种数字图像中物体检测方法及装置 |
CN102855637A (zh) * | 2012-07-17 | 2013-01-02 | 沈阳大学 | 一种用于视频图像的融合双边滤波的协方差跟踪方法 |
CN102831439B (zh) * | 2012-08-15 | 2015-09-23 | 深圳先进技术研究院 | 手势跟踪方法及系统 |
-
2013
- 2013-08-23 CN CN201310373327.9A patent/CN104424634B/zh not_active Expired - Fee Related
-
2014
- 2014-08-12 JP JP2014164040A patent/JP6458394B2/ja not_active Expired - Fee Related
- 2014-08-21 US US14/465,784 patent/US9311534B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005236508A (ja) * | 2004-02-18 | 2005-09-02 | Matsushita Electric Ind Co Ltd | 自動追尾装置及び自動追尾方法 |
JP2008021266A (ja) * | 2006-07-14 | 2008-01-31 | Matsushita Electric Ind Co Ltd | 顔向き検出装置、顔向き検出方法、および顔向き検出プログラム |
JP2008123416A (ja) * | 2006-11-15 | 2008-05-29 | Nikon Corp | 被写体追跡プログラム、被写体追跡装置、およびカメラ |
WO2009098894A1 (ja) * | 2008-02-06 | 2009-08-13 | Panasonic Corporation | 電子カメラおよび画像処理方法 |
JP2011258180A (ja) * | 2010-05-10 | 2011-12-22 | Casio Comput Co Ltd | 被写体追跡装置、被写体追跡方法及びプログラム |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020135079A (ja) * | 2019-02-13 | 2020-08-31 | Necソリューションイノベータ株式会社 | 追跡装置、追跡方法、及びプログラム |
JP2020135078A (ja) * | 2019-02-13 | 2020-08-31 | Necソリューションイノベータ株式会社 | 追跡装置、追跡方法、及びプログラム |
JP7283734B2 (ja) | 2019-02-13 | 2023-05-30 | Necソリューションイノベータ株式会社 | 追跡装置、追跡方法、及びプログラム |
JP7283735B2 (ja) | 2019-02-13 | 2023-05-30 | Necソリューションイノベータ株式会社 | 追跡装置、追跡方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN104424634A (zh) | 2015-03-18 |
US9311534B2 (en) | 2016-04-12 |
US20150055829A1 (en) | 2015-02-26 |
JP6458394B2 (ja) | 2019-01-30 |
CN104424634B (zh) | 2017-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6458394B2 (ja) | 対象追跡方法及び対象追跡装置 | |
TWI754855B (zh) | 人臉圖像識別方法、裝置、電子設備及儲存介質 | |
US10733431B2 (en) | Systems and methods for optimizing pose estimation | |
US10796452B2 (en) | Optimizations for structure mapping and up-sampling | |
CN108140032B (zh) | 用于自动视频概括的设备和方法 | |
WO2019218824A1 (zh) | 一种移动轨迹获取方法及其设备、存储介质、终端 | |
CN109035304B (zh) | 目标跟踪方法、介质、计算设备和装置 | |
He et al. | A global sampling method for alpha matting | |
US10572072B2 (en) | Depth-based touch detection | |
AU2014218444B2 (en) | Dynamic feature selection for joint probabilistic recognition | |
US20150347846A1 (en) | Tracking using sensor data | |
KR102177412B1 (ko) | 이미지와 텍스트간 유사도 매칭 시스템 및 방법 | |
EP3602424A1 (en) | Sensor data processor with update ability | |
US20200012887A1 (en) | Attribute recognition apparatus and method, and storage medium | |
Couprie et al. | Convolutional nets and watershed cuts for real-time semantic labeling of rgbd videos | |
Fang et al. | Deep3DSaliency: Deep stereoscopic video saliency detection model by 3D convolutional networks | |
CN113033458B (zh) | 动作识别方法和装置 | |
CN113283368B (zh) | 一种模型训练方法、人脸属性分析方法、装置及介质 | |
WO2023109361A1 (zh) | 用于视频处理的方法、系统、设备、介质和产品 | |
JP6448212B2 (ja) | 認識装置及び認識方法 | |
CN115170464A (zh) | 肺图像的处理方法、装置、电子设备和存储介质 | |
Venegas et al. | Automatic ladybird beetle detection using deep-learning models | |
Ramachandra et al. | Perceptual metric learning for video anomaly detection | |
Teixeira et al. | Object segmentation using background modelling and cascaded change detection | |
CN111968030B (zh) | 信息生成方法、装置、电子设备和计算机可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170721 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180613 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180626 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180823 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181127 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181210 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6458394 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |