JP2015138554A - 対象追跡方法及び装置 - Google Patents
対象追跡方法及び装置 Download PDFInfo
- Publication number
- JP2015138554A JP2015138554A JP2015006674A JP2015006674A JP2015138554A JP 2015138554 A JP2015138554 A JP 2015138554A JP 2015006674 A JP2015006674 A JP 2015006674A JP 2015006674 A JP2015006674 A JP 2015006674A JP 2015138554 A JP2015138554 A JP 2015138554A
- Authority
- JP
- Japan
- Prior art keywords
- candidate target
- depth
- target
- sub
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
【課題】本発明は対象追跡方法及び装置を提供する。【解決手段】対象追跡方法は、画像シーケンスを取得するステップと、追跡される対象の候補目標エリアを予測するステップと、候補目標エリアの深度重みマップを確定するステップと、特徴の確率密度分布で表される目標テンプレートを取得するステップと、候補目標エリアに位置しスライドする候補目標を特徴の確率密度分布で表し、候補目標の特徴の確率密度を推定する工程において、画素ごとに、画素の色空間情報と、画素の深度重み情報に基づいて重み付けを行うステップと、目標テンプレートの確率密度表示と候補目標の確率密度表示に基づき、目標テンプレートと候補目標との類似度を計算することによって、候補目標エリアの確信度マップを取得するステップと、候補目標エリアの確信度マップに基づいて、追跡される対象の現在の画像における位置を特定するステップと、を含む。【選択図】図2
Description
本発明は画像処理に関し、具体的にはコンピュータ視覚技術における対象追跡方法及び装置に関する。
現在、コンピュータ視覚技術分野において、対象追跡は、例えば、マン・マシン・インタラクション制御システム、ユーザー監視システム、車両運転支援システムなどにおける、ジェスチャー追跡、歩行者追跡、車両追跡などのように、広く汎用され、非常に重要な技術になっている。
ジェスチャー追跡を例にすると、ジェスチャー制御システムはユーザーに対して特に便利である。有効なジェスチャー識別システムは、自然かつ効果的なインタラクション方式を提供することができるが、ジェスチャー識別システムにおける、非常に重要でかつ決定的な部分は、つまり手の追跡である。
手追跡システムは、ユーザーの操作の利便性を図るためには、ユーザーにいずれかの特殊装置、例えば特殊な手袋、カラーマーカーなどの装着を求めるべきではない。同時に、手は柔軟なもので、動きが早く、変形が容易で、自己遮蔽などの特徴を有するため、手の追跡技術は非常にチャレンジ的なジョブである。
現在、手追跡技術は、主として色特徴によって追跡を行い、周知のように、色情報は光照射変化と背景色の影響を受け易いため、追跡システムのロバスト性を低減してしまう。また、追跡システムは、一部遮蔽または追跡オブジェクトの形態変化の影響を受け易く、追跡機能の低下に繋がってしまう。追跡システムのロバスト性を高めるために、現在この分野において研究改善がなされ、多くの特許及び関係文献が存在している。
米国特許出願公開US20110211754A1号は、カラー画像と深度画像を併せることによってオブジェクト追跡を行う追跡方法を公開している。該発明においては、カラー画像と深度画像上でそれぞれオブジェクト追跡を行っており、最終の追跡結果はカラー画像と深度画像上における追跡結果によって共同で決められる。追跡工程で用いられた特徴は主として深度情報、色情報及び色動き情報などがあり、追跡の核心技術は多種の特徴を融合して形成されており、a)形状モデル、例えば、楕円モデルを採用して手の形状を代表すること、b)手の最新位置に基づいて対応する色ヒストグラムを生成すること、c)深度平均値情報を採用し、追跡する手の現在の深度値を予測すること、d)背景モデルを更新すること、が含まれている。当該技術において、カラー画像上の追跡結果は依然として光照射条件の影響を受け易くなるため、光照射条件が悪い場合、追跡結果は主として深度画像上の追跡で決められる。また、深度マップにおける追跡結果は主として深度のしきい値によって判定がなされ、ロバスト性が悪くなる可能性がある。
著者QIAO Bing,LI Zhicheng, HU Pengの、「information and control」というジャーナルに発表された「Object
Tracking Algorithm Based on Camshift with Dual ROI and Velocity Information Fusion」という表題の文献においては、追跡オブジェクトの周囲の背景色の影響による追跡失敗を防止するために、単一のROIエリアを2つのROIサブエリアに分割し、一方のエリアはメイン追跡エリアとし、他方のエリアはサブ追跡エリアとする技術が提案されている。該文献によれば、2つのcamshift追跡装置はそれぞれ追跡を行う。該文献の該追跡方法によると、追跡オブジェクトと周囲の背景色が完全に類似した場合は、エラーが生じる可能性がある。
Tracking Algorithm Based on Camshift with Dual ROI and Velocity Information Fusion」という表題の文献においては、追跡オブジェクトの周囲の背景色の影響による追跡失敗を防止するために、単一のROIエリアを2つのROIサブエリアに分割し、一方のエリアはメイン追跡エリアとし、他方のエリアはサブ追跡エリアとする技術が提案されている。該文献によれば、2つのcamshift追跡装置はそれぞれ追跡を行う。該文献の該追跡方法によると、追跡オブジェクトと周囲の背景色が完全に類似した場合は、エラーが生じる可能性がある。
本発明の目的は、コンピュータ視覚技術における対象追跡方法及び装置を提供することにある。
本発明の一態様によれば、1つの対象追跡方法を提供する。該方法は、グレースケール画像シーケンスと、関連する深度画像シーケンスとを取得するステップと、現在のグレースケール画像と深度画像のうちの少なくとも1つにおいて追跡される対象の候補目標エリアを予測するステップと、各画素の深度情報に基づき、該画素が追跡される対象に属する確率を表示する各画素の深度重み情報が含まれる候補目標エリアの深度重みマップを確定するステップと、特徴の確率密度分布で表される目標テンプレートを取得するステップと、候補目標エリアに位置しスライドする候補目標を特徴の確率密度分布で表しており、候補目標の特徴の確率密度を推定する工程において、画素ごとに画素の色空間情報のみでなく、画素の深度重み情報にも基づいて重み付けを行うステップと、目標テンプレートの確率密度表示と候補目標の確率密度表示に基づき、目標テンプレートと候補目標との類似度を計算することによって、候補目標エリアの確信度マップを取得するステップと、候補目標エリアの確信度マップに基づいて、追跡される対象の現在の画像における位置を特定するステップと、を含んでもよい。
本発明の他の一態様によれば、1つの対象追跡装置を提供する。該装置は、グレースケール画像シーケンスと、関連する深度画像シーケンスとを取得する画像取得部と、現在のグレースケール画像と深度画像のうちの少なくとも1つにおいて追跡される対象の候補目標エリアを予測する候補目標エリア予測部と、各画素の深度情報に基づき、該画素が追跡される対象に属する確率を表示する各画素の深度重み情報が含まれる候補目標エリアの深度重みマップを確定する深度重み確定部と、目標テンプレートを取得するための、特徴の確率密度分布で表される目標テンプレート取得部と、候補目標エリアに位置しスライドする候補目標を特徴の確率密度分布で表しており、候補目標の特徴の確率密度を推定する工程において、画素ごとに画素の色空間情報のみでなく、画素の深度重み情報にも基づいて重み付けを行う候補目標表示部と、目標テンプレートの確率密度表示と候補目標の確率密度表示に基づき、目標テンプレートと候補目標との類似度を計算することによって、候補目標エリアの確信度マップを取得する確信度マップ取得部と、候補目標エリアの確信度マップに基づいて、追跡される対象の現在の画像における位置を特定する対象位置決め部と、を含んでもよい。
本発明の実施例による対象追跡方法及び対象追跡装置を利用すれば、候補目標の各特徴の確率密度を推定する工程において、画素ごとに画素の色空間情報のみでなく、画素の深度重み情報にも基づいて重み付けを行うため、従来技術における、深度情報を分離的かつ単独に考慮するか、深度情報のみをしきい値として不適な目標候補のフィルター処理を行うことに比べて、全追跡工程において深度情報を対象追跡に自然且つ緊密に結合することで、情報の利用率及び追跡の正確性を向上することができる。
以下の、図面を併せた本発明の実施例に対する詳細な記述により、本発明のこれらおよび/またはその他の方面と利点がより明らかに、より理解し易くなる。
本発明の1つの実施例における手追跡技術がマン・マシン・インタラクションに用いられる場面の概要図である。
本発明の実施例における対象追跡装置100の構成ブロック図である。
本発明の1つの実施例における対象追跡方法200の全体フロー図である。
候補目標空間エリアに対して算出された深度重みマップの概要図である。
(a)および(b)は、ブロック分け例示図に対して、如何にサブテンプレートを追跡することにより候補追跡エリアの分割処理を行うかを概要的に説明した図である。
(a)乃至(g)は、ブロック分けと深度重み付けによる対象追跡方法の概要図である。
(a)は、目標テンプレートの分割および目標テンプレートとサブ目標テンプレート間の関係を概要的に説明し、(b)は、サブ目標テンプレートの独立更新を概要的に説明した図である。
本発明の実施形態を実現するために適したコンピュータシステム600の一例のブロック図である。
当業者の本発明への理解を容易とするために、以下、図面と具体的な実施例を併せて、さらに本発明を詳細に説明する。
下記の順で説明する。
1、適用場面の例
2、対象追跡装置の構成例
3、対象追跡方法の第1実施例
4、対象追跡方法の第2実施例
5、対象追跡方法の第3実施例
6、対象追跡を行うためのコンピュータシステム
以下の説明において、手を追跡対象として説明する。しかし、これは例示に過ぎず、実際に、本発明は任意の対象の追跡に適用することができる。
2、対象追跡装置の構成例
3、対象追跡方法の第1実施例
4、対象追跡方法の第2実施例
5、対象追跡方法の第3実施例
6、対象追跡を行うためのコンピュータシステム
以下の説明において、手を追跡対象として説明する。しかし、これは例示に過ぎず、実際に、本発明は任意の対象の追跡に適用することができる。
1、適用場面の例
図1は、本発明の1つの実施例における手追跡技術がマン・マシン・インタラクションに用いられる場面を概要的に説明した概要図である。図1に示されたように、カメラがコンピュータの上方に配置され、ユーザーがカメラの範囲内に立つ。ユーザーがカメラの範囲内で、手を動かすと、コンピュータは、手に対するリアルタイム追跡の目的を達成するように、手の真実の位置情報を計算し、手の異なる時刻における位置ポイントは、図1におけるドットで示された通りである。
図1は、本発明の1つの実施例における手追跡技術がマン・マシン・インタラクションに用いられる場面を概要的に説明した概要図である。図1に示されたように、カメラがコンピュータの上方に配置され、ユーザーがカメラの範囲内に立つ。ユーザーがカメラの範囲内で、手を動かすと、コンピュータは、手に対するリアルタイム追跡の目的を達成するように、手の真実の位置情報を計算し、手の異なる時刻における位置ポイントは、図1におけるドットで示された通りである。
該カメラは、例えば、両眼カメラのように、カラー画像及び深度画像を取得可能なものが好ましい。当業者に周知されているように、深度画像(Depth image)は画像における画素値が深度となる画像である。グレースケール画像に比べて、深度画像はオブジェクトの深度(奥行)情報を備えるため、特に立体情報が必要な各種応用に適合する。また、周知のように、1つの画素点の深度値と視差値との間には簡単な換算関係があるため、本発明における深度情報の意味は広義であって、視差情報が含まれる。
ここで、図1は1つの概要的な例に過ぎず、手を追跡するための装置は、コンピュータに限らず、例えば、ゲーム機、プロジェクター、テレビなどであってもよい。
2、対象追跡装置の構成例
以下、図2を参考して本発明の実施例における対象追跡装置の構成例を説明する。
以下、図2を参考して本発明の実施例における対象追跡装置の構成例を説明する。
図2は本発明の実施例における対象追跡装置100の構成ブロック図である。
図2に示されたように、対象追跡装置100は、画像取得部110、候補目標エリア予測部120、深度重み確定部130、目標テンプレート取得部140、候補目標表示部150、確信度マップ取得部160、対象位置決め部170を含む。
画像取得部110は、グレースケール画像シーケンスと、関連する深度画像シーケンスとを取得する、例えば、両眼カメラからのカラー画像及び深度画像を受信する、ためのものである。
候補目標エリア予測部120は、現在のグレースケール画像と深度画像のうちの少なくとも1つから、追跡される対象の候補目標エリアを予測するためのものである。
深度重み確定部130は、各画素の深度情報に基づき、該画素が追跡される対象に属する確率を表示する各画素の深度重み情報が含まれる候補目標エリアの深度重みマップを確定するためのものである。
目標テンプレート取得部140は、特徴の確率密度分布で表される目標テンプレートを取得するためのものである。
候補目標表示部150は、候補目標エリアに位置しスライドする候補目標を特徴の確率密度分布で表しており、候補目標の特徴の確率密度を推定する工程において、画素ごとに画素の色空間情報のみでなく、画素の深度重み情報にも基づいて重み付けを行うためのものである。
確信度マップ取得部160は、目標テンプレートの確率密度表示と候補目標の確率密度表示に基づき、目標テンプレートと候補目標との類似度を計算することによって、候補目標エリアの確信度マップを取得するためのものである。
対象位置決め部170は、候補目標エリアの確信度マップに基づいて、追跡される対象の現在の画像における位置を特定するためのものである。
対象追跡装置100は対象位置決め部170の追跡結果を評価して目標テンプレート更新を適時に行うための目標テンプレート更新部をさらに含むことが好ましいが、必須ではない。
ここで、上記対象追跡装置100の部はソフトウェア・プログラムによって実現されてもよい。例えば、汎用コンピュータにおけるCPUと、RAMとROMなどおよびその中に実行するソフトウェア・コードを結合することによって実現される。ソフトウェア・プログラムはフラッシュメモリ、フロッピー(登録商標)ディスク、ハードディスク、コンパクトディスクなどのような記憶媒体上に記憶され、実行時にランダム・アクセス・メモリディスクRAMのようなものにロードしCPUによって実行される。また、汎用コンピュータ以外に、専用集積回路とソフトウェアとの協働によって実現されてもよい。前記集積回路は、例えば、MPU(マイクロプロセッサ)、DSP(デジタル・シグナル・プロセッサ)、FPGA(フィールド・プログラマブル・ゲート・アレイ)、ASIC(特定用途向け集積回路)などのうちの少なくとも1つによって実現されるものを含む。このような汎用コンピュータまたは専用集積回路などは、例えば、カメラのような撮像装置と通信可能であるため、カメラで撮影したカラー画像および/または立体画像への処理によって対象追跡結果の取得が可能になり、また、オプション的に、対象追跡結果による実行中のアプリケーションへの制御が可能になる。また、対象追跡装置100の各部は専門的なハードウェアによって実現されてもよい。例えば、特定のフィールド・プログラマブル・ゲート・アレイ、特定用途向け集積回路などがある。また、対象追跡装置100の各部はソフトウェアとハードウェアとの組み合わせによって実現されてもよい。
ここで、図2に示された矢印は2つのパーツの機能の間に論理関係が存在することを表すだけで、2つのパーツの間は、直接または間接に動作的に接続されてもよい。また、図2におけるある2つのパーツの間にある方向の矢印による接続が示されなくても、これは両者間に該方向の論理関係が必ず存在しないことを表すものではなく、逆に、両者間には動作的な接続関係が存在してもよい。例えば、対象位置決め部170及び目標テンプレート更新部180は、操作工程において画像入力部110から入力された1フレームまたは複数フレームの画像を利用する必要があり得ることから、対象位置決め部170と目標テンプレート更新部180と画像入力部110との間には論理関係が存在してもよい。
上記対象追跡装置100における各単位の構造と数は、本発明の範囲への制限をなすものではない。本発明の1つの実施例によれば、上記画像取得部110、候補目標エリア予測部120、深度重み確定部130、目標テンプレート表示部140、候補目標表示部150、確信度マップ取得部160、対象位置決め部170は1つの独立の部に統合されて対応する機能及び操作を実現してもよく、または、画像取得部110、候補目標エリア予測部120、深度重み確定部130、目標テンプレート表示部140、候補目標表示部150、確信度マップ取得部160、対象位置決め部170をさらにより小さい単位に分割してその各々の機能及び動作を実現してもよい。
また、ここで、図2に示された構造は排他的なものではなく、逆に対象追跡装置100は、他の部、例えば、例として対象位置決め部170の処理後の結果を表示するためのディスプレー部と、例えば、関連する情報および/または中間処理結果を外部へ伝達するための通信部などを含んでもよい。
3、対象追跡方法の第1実施例
以下、対象追跡装置100の各部の機能及び動作例を詳細に説明する。以上のように、手を追跡対象として説明する。
以下、対象追跡装置100の各部の機能及び動作例を詳細に説明する。以上のように、手を追跡対象として説明する。
図3は本発明の1つの実施例における対象追跡方法200の全体フロー図である。
図3に示されたように、ステップS210において、画像取得部110はグレースケール画像シーケンスと、関連する深度画像シーケンスとを取得する。
例えば、両眼カメラ、多眼ケメラ、立体カメラによって画像を撮影し、次に画像取得部110に入力される。画像取得部110に入力された画像はRGBカラー画像のみを含んでもよい。次に、画像取得部110は取得されたRGBカラー画像(例えば、左画像と右画像)によってマッチング処理を行うことで深度画像を取得する。代わりに、RGBカラー画像のみでなく、関連する深度画像も含まれる画像シーケンスを画像取得部に入力してもよい。
好ましくは、ローカルにおいてカメラから画像を直接的に入力する代わりに、有線回線または無線回線によってリモートから画像を受信してもよい。
ここで、本明細書において、両眼カメラを立体ビデオカメラの例とする。しかし、本発明は他の種類の立体ビデオカメラ、例えば、赤外線を能動的に放射することによって立体情報を補助的に生成する立体ビデオカメラを応用してもよい。このようなビデオカメラの例では、マイクロソフトのKinect、他にも赤外線飛行時間(Time of Flight,TOF)技術に基づく種類、または構造化照明(structured light)に基づく種類などがある。
ステップS220において、現在のグレースケール画像と深度画像のうちの少なくとも1つから、追跡される対象の候補目標エリアを予測する。
追跡される対象の候補目標エリアを予測することで、以降の該予測された候補目標エリアにおける対象の捜索が可能になり、処理量の低減、追跡のリアルタイム性の向上が可能になり、同時にシステムのロバスト性を増強することができる。
例えば、対象の過去の運動情報、例えば速度、加速度などによって、入力画像における対象の候補出現エリアを予測する。
具体的に、例えば、局所範囲内の手の動きは等速移動に近似し、移動速度を予測根拠とすれば、現在の画像における、手の出現可能位置は、式(8)及び(9)によって求められる。現在、よく使用される予測方法はkalmanフィルター、粒子フィルターなどであり、本実施例では、任意の予測方法を用いてもよい。
式(1)中、(Sx,t−1,Sy,t−1)は前フレームにおける(t−1時刻)手の位置ポイントの横座標と縦座標であり、(Sx,t,Sy,t)は現画像(t時刻)における、手の出現可能な位置ポイントの横座標と縦座標である。Δtは連続する2つのフレームの間の時間間隔である。式(2)は移動速度を計算する数式を示す。
もう1つの例において、位置エリアの予測は、さらに深度(奥行)に対する予測を含む。この場合は、上記式(1)及び(2)は、以下の式(3)及び(4)にそれぞれ変換する。
候補エリアの予測によって、処理時間を低減させるのみでなく、システムのロバスト性をも増強することができる。
ステップS230において、各画素の深度情報に基づき、該画素が追跡される対象に属する確率を表示する各画素の深度重み情報が含まれる候補目標エリアの深度重みマップを確定する。
該ステップは深度の視点から、各画素が追跡される対象に属する確率を推定することを目的とする。
1つの例示において、候補目標エリアの深度重みマップを確定することは、
まず、追跡される対象の現在フレームにおける代表的な深度値depthobjectを予測することと、
次に、下記式(5)によって候補目標エリアにおける画素iが追跡される対象に属する確率を計算すること、を含んでもよい。
まず、追跡される対象の現在フレームにおける代表的な深度値depthobjectを予測することと、
次に、下記式(5)によって候補目標エリアにおける画素iが追跡される対象に属する確率を計算すること、を含んでもよい。
式中、iは候補目標エリアに位置される画素の番号を表し、depth(i)は画素iの深度値または画素iの局所エリアの平滑深度値を表し、min(depthobject,depth(i))はdepth(i)とdepthobjectにおけるより小さい値を表し、max(depthobject,depth(i))はdepth(i)とdepthobjectにおけるより大きい値を表示する。ここで、画素iの局所エリアの平滑深度値は、ある状況でノイズの影響から、画素i自身の深度値が該位置における実際の深度をリアルに正確に反映しない可能性があることを考慮し、この場合は画素iの周辺エリアにおける画素の深度値に基づいて画素iの深度値を平滑化することでノイズの影響を低減することができる。もう1つの例示において、下記式(6)によって候補目標エリアにおける画素iが追跡される対象に属する確率を計算してもよい。
式中、iは候補目標エリアに位置される画素の番号を表し、depth(i)は画素iの深度値または画素iの局所エリアの平滑深度値を表し、hdepthは中心点depthobjectに対する帯域幅を表し、k(・)はカーネル関数、例えば、ガウス関数を表示する。
追跡される対象の現在フレームにおける代表的な深度値depthobjectを予測する方法の例示として、例えば、追跡される対象の直前のフレームまたは複数のフレーム画像における深度平均値を代表的な深度値depthobjectとしてもよい。もう1つの例示において、追跡される対象の直前のフレームまたは複数のフレーム画像における値の採用頻度が最も高い深度値を代表的な深度値depthobjectとしてもよい。もう1つの例示において、現在フレームの候補目標エリアにおける深度平均値を代表的な深度値depthobjectとしてもよい。もう1つの例示において、現在フレームの候補目標エリアにおける値の採用頻度が最も高い深度値を代表的な深度値depthobjectとしてもよい。
もう1つの例示において、前記式(3)における3番目の等式、式(4)における3番目の等式を利用するように歴史情報から得られた手の深度方向上の移動速度に基づいて手の現在フレームにおける深度値を推定することによって、代表的な深度値depthobjectとしてもよい。
図4は候補目標空間エリアに対して算出された深度重みマップについての概要図である。
ステップS240において、特徴の確率密度分布で表される目標テンプレートを取得する。
1つの目標テンプレートに対して、各種の形式で表徴することが可能である。
例えば最も簡単には、グレースケール画像における各画素のRGB色特徴を利用して直接的に表示できる。即ちその表示は該目標テンプレートである。
1つの例示において、画素の特徴はRGB色特徴成分であり、または画像画素の値域はRGB色空間であると言う。
特徴空間における各特徴の確率密度分布で目標テンプレートを表示するため、1つの具体的な例示において、各特徴を離散化して特徴空間における特徴値の確率で目標テンプレートを表してもよい。
例えば、三次元RGB特徴空間に対して、特徴空間をm個の空間柱(通常binと称されている)に分割する。例えば、R特徴における値の採用範囲をa個の空間に、G特徴における値の採用範囲をb個の空間に、B特徴における値の採用範囲をc個の空間に分けると、m=a*b*c個のbinが得られる。即ち、特徴空間における特徴値の数(即ちbinの数である)はmである。次に、各binの中に入る(あるいは、対応する特徴値を取る)画素の個数を合計することによって目標テンプレートを表徴してもよい。
関数b(.)を、xi(二次元空間における座標)に位置される画素を量子化された後の特徴空間における空間柱binに関連付けるためのエリア間の量子化関数とすると、1つの例示における目標テンプレートは、特徴空間における各特徴値u=1...m(各空間柱とも言われる)の確率で表示できる。これは、下式(7)に示されたように、目標テンプレート表示または目標テンプレート記述と称される。
式中、X0は目標エリアの中心位置を表し、一般的にはゼロとし、uは特徴値の番号であり、u=1...m、mは上記のように特徴空間の特徴値における採用可能な値の総数を表し、quは目標テンプレートの特徴空間のu番目の特徴値の確率であり、Nは目標テンプレートに対応するエリアの画素点の総数であり、iは候補目標における画素の番号であり、xiはi番目の画素の二次元座標であって、一般的には正規化された後の画素位置であるため、上記X0は一般的にはゼロとし、hは中心点に対する帯域幅であって、目標テンプレートに対応するエリアの大きさを表し、Cqは正規化係数であり、b(・)は前記のようにエリア間量子化関数を表し、δはKrohecker delta関数を表し、b(xi)=uになると、δの値は1となり、さもないとゼロとなり、v(i)はi番目の画素の深度重み値である。
ここで、正規化係数Cqは、下式(8)から算出されてもよい。
k(・)は二次元空間情報を基づいて画素に対する重み付けを行うことを目的とする二次元空間重み付けカーネル関数を表示する。遮蔽または背景の影響によって、目標テンプレートの中心付近における画素が他の画素よりも信頼できると考えられるため、
(外1)
は中心の画素に対してより大きな重み値を付与しており、中心から離れた画素に対してより小さな重み値を付与する。1つの例示において、カーネル関数はガウス関数である。
(外1)
は中心の画素に対してより大きな重み値を付与しており、中心から離れた画素に対してより小さな重み値を付与する。1つの例示において、カーネル関数はガウス関数である。
このように、目標テンプレートの表示q=(q1,...,qu,...,qm)が算出される。
このカーネルに基づく対象追跡の技術及びテンプレート表示については2003年「Pattern Analysis and Machine Intelligence,IEEE Transactions on(Volume:25,Issue:5)」に発表された「Kernel−based object tracking」という表題の文献における紹介を参考できる。
ここで、前でRGB色特徴を例として対象画素の特徴の記述を説明したが、これは例に過ぎない。場合によって他の特徴を追加するか、他の特徴をRGB色特徴の代わりに用いてもよい。
例えば、1つの例示において、表示対象の各特徴はグレースケール情報における色特徴成分、グレースケール情報の勾配特徴成分、深度画像における勾配特徴成分を含む。この場合は、このような色特徴成分、グレースケール情報の勾配特徴成分、深度画像における勾配特徴成分の確率密度分布で目標テンプレートを表示できる。グレースケール情報における色特徴成分、グレースケール情報の勾配特徴成分、深度画像における勾配特徴成分が含まれる特徴集合に基づいて得られる目標テンプレートは、RGB色特徴のみに基づいて得られる目標テンプレートに比べて、情報量がさらに豊かであり、勾配特徴成分は方向特徴のような手の輪郭特徴をさらに体現することができる。そのため、よりノイズの影響に対抗し、追跡の正確性を向上することが可能になる。
1つの例示において、特徴がグレースケール情報における色特徴情報、グレースケール情報の勾配特徴成分、深度画像における勾配特徴成分を含む場合において、前でRGBを例に、離散化特徴によって特徴ヒストグラムを取得することを説明したように、各特徴を離散化してもよく、これにより、特徴空間における特徴値の確率を用いた目標テンプレートの表示が可能になる。例えば、L次元特徴空間を仮定し、次元ごとの特徴i(i=1...L)の採用可能な値の範囲をni個のエリアに分けて特徴空間をm個の空間柱(即ちbin)に分割すれば、m=n1*n2,...*ni,...*nL個のbinが得られる。その後、例えば、式(7)に基づいて各binの中に入る(あるいは、対応する特徴値を取る)画素の数を合計することによって目標テンプレートを表徴することができる。
目標テンプレートに対応するエリアについては、例えば、先頭フレームの中から手動で確定される1つの追跡目標を含むエリアであってもよく、例えば、矩形エリアまたは楕円エリアであってもよい。次に、該エリアにおける画素に対して、上記の分析合計処理を行うことによって目標テンプレートを取得し、且つ所定の保存エリアに保存する。
以降のフレームに対する追跡工程において、1つのエリアの大きさが目標テンプレートの大きさと同一の窓口を用いて、例えば、ステップS220から得られた候補目標エリアでスライドさせ、各窓口で枠が確定された候補目標と目標テンプレートとのマッチングを行うことで、目標の位置特定を行ってもよい。
位置特定が成功すると、最新の位置特定された候補目標に基づいて目標テンプレートを更新且つ保存することができる。
図3に戻り、ステップS250において、候補目標エリアに位置しスライドする候補目標を特徴の確率密度分布で表し、候補目標の特徴の確率密度を推定する工程において、画素ごとに画素の色空間情報のみでなく、画素の深度重み情報にも基づいて重み付けを行う。
前記のように、大きさが目標テンプレートと同じ窓口を候補目標エリア上にスライドさせ、窓口が位置特定されたエリアを候補目標とし、候補目標における画素を分析して、候補目標の表示を取得する。
以下、候補目標の表示の例を説明する。
候補目標に対する表示は目標テンプレートの表示と類似し、即ち、同様な特徴空間に対して、候補目標における確率密度分布を取得する。
ここでの重要なのは、候補目標の各特徴の確率密度を推定する工程において、画素ごとに画素の色空間情報のみでなく、画素の深度重み情報にも基づいて重み付けを行う。
候補目標の中心位置をyとすれば、候補目標はp(y)=(p1(y),...,pu(y),...,pm(y))を表示できる。
前記候補目標の特徴空間における特徴値の確率pu(y)は下の式(9)によって計算してもよい。
式中、前記のように、yは候補目標の中心位置を表し、uは特徴値の番号であり、u=1...m、mは特徴空間の特徴値における採用可能な値の総数を表し、Pu(y)は候補目標における特徴空間のu番目の特徴値の確率であり、Nは候補目標の画素点の総数であり、iは候補目標における画素番号であり、xiはi番目の画素の二次元座標であり、hは中心点yに対する帯域幅であり、CPは正規化係数であり、b(・)はエリア間量子化関数を表し、δはKronecker delta関数を表し、k(・)は二次元空間重み付けカーネル関数を表し、v(i)はi番目の画素の深度重み付け値である。
ここでの深度重み付け値v(i)は前ステップS230において得られてもよい。例えば前式(5)または(6)に基づいて計算によって得られる。
本例示において、画素の深度重み付け値と二次元空間位置は同時に利用されて特徴空間における特徴値の確率計算中において該画素に対する重み付け処理を行って、深度情報を自然且つ緊密で対象追跡の中に結合させできる。それで現有技術のように深度情報を分離的で単独に考慮する、または深度情報のみをしきい値として不適当な目標候補のフィルター処理を行うのではない。
図3に戻れば、ステップS260において、目標テンプレートの確率密度表示と候補目標の確率密度表示に基づき、目標テンプレートと候補目標との類似度を計算することによって、候補目標エリアの確信度マップを取得する。
1つの例示において、目標テンプレートと候補目標を2つのm次元ベクトルを見なしてもよい。即ち、候補目標はp(y)=(p1(y),...,pu(y),...,pm(y))であり、目標テンプレートはq=(q1,...,qu,...,qm)である。次に、この2つのベクトル間のBhattacharyya係数に基づいて目標テンプレートと候補目標との間の類似度を計量する。具体的に、前記「Kernel−based object tracking」という表題の文献における技術を参考して、下記の式(10)によって候補目標と目標テンプレートとの類似度を計算してもよい。
式(10)は直観的な物理的意味を有する。即ち、m次元ベクトル
(外2)
と
(外3)
との間に形成される角度の余弦値と見なしてもよく、この2つのベクトル間の相関性がある計量と見なしてもよい。
(外2)
と
(外3)
との間に形成される角度の余弦値と見なしてもよく、この2つのベクトル間の相関性がある計量と見なしてもよい。
これでは、位置yにおける候補目標と目標テンプレートとの類似度を計算によって得られる。
このように、候補目標を選択するためスライドする窓口は候補目標エリア上にスライドさせること、即ち候補目標の位置yを変更することによって、各位置yにおける候補目標が得られる。次に各候補目標に対して上記ステップS250における動作のように候補目標表示が得られ、且つ目標テンプレートと候補目標との間の類似度がさらに計算によって得られる。このように循環して、候補目標エリアを辿り終了まで、候補目標エリアの確信度マップを求め可能である。各位置の確信度は各位置が現在フレームにおける目標位置である可能性を反映する。
図3に戻れば、ステップS270において、候補目標エリアの確信度マップに基づいて、追跡される対象の現在の画像における位置を特定する。
下で式(10)の類似度関数に基づく追跡目標を位置決め工程を例として説明する。
現在フレームの候補目標エリアにおいて目標の1つの開始点を検索して、y0と仮定する。y0は、例えば、候補目標エリアにおける左上隅の点の位置、または候補目標エリアにおける中心点の位置などであってもよい。これではテイラー展開に基づいて、式(10)は式(11)と表してもよい。
式(7)及び(9)を式(11)に代入して式(12)が得られる。
式中、
そのため、候補目標と目標テンプレートとの間の類似度を最大化しようとすれば、式(11)における第2項を最大化すべきである。
ここで、平均シフト方法によって位置y0から位置y1まで再帰的に移動させ、次に辿り処理を行い、候補目標と目標テンプレートとの間の類似度が最大化された候補目標エリアにおける位置ポイントを見つけて対象が現在フレームにおける位置点としてもよい。
前記例示における対象追跡方法が候補目標の各特徴の確率密度を推定する工程において、画素ごとに画素の色空間情報のみでなく、画素の深度重み情報にも基づいて重み付けを行いており、従来技術における深度情報を分離的で単独に検討することまたは深度情報のみをしきい値として不適当な目標候補のフィルター処理を行うことに比べると、全追跡工程において深度情報を対象追跡に自然且つ緊密で結合できることによって、情報の利用率を高めて追跡の正確性を高める。追跡対象は周囲背景の色と完全な相似である場合にも、対象を正確に追跡できる。
ここで、図4に示されたステップ順序は例示のみであって、実際的に、図4に示された順序に従って動作を行わなくてもよい、例えば、画素の深度重み情報を確定するステップ(ステップS230)はステップS250において行われてもよい。
4、対象追跡方法の第2実施例
前記対象追跡方法の第1実施例において、目標テンプレート及び候補目標は対象の全体に対応する。下での第2実施例における対象追跡方法において、目標テンプレート及び候補目標をブロック分けて複数のサブ目標テンプレート及び候補目標が得られ、且つブロック分けの1つのペア(即ちサブ目標テンプレートと対応するサブ候補目標である)に対して、第1実施例における対象追跡方法によって両者の類似度を計算し、且つ各サブテンプレートと対応するサブ候補目標の類似度に基づいて目標テンプレートと候補目標との間の類似度が得られる。
前記対象追跡方法の第1実施例において、目標テンプレート及び候補目標は対象の全体に対応する。下での第2実施例における対象追跡方法において、目標テンプレート及び候補目標をブロック分けて複数のサブ目標テンプレート及び候補目標が得られ、且つブロック分けの1つのペア(即ちサブ目標テンプレートと対応するサブ候補目標である)に対して、第1実施例における対象追跡方法によって両者の類似度を計算し、且つ各サブテンプレートと対応するサブ候補目標の類似度に基づいて目標テンプレートと候補目標との間の類似度が得られる。
具体的に、1つの例示において、目標テンプレートは各サブテンプレートから成る。候補目標に対して、目標テンプレートを各サブ目標テンプレートに分ける手段に従って、候補目標を各サブ候補目標に分割する。
図5(a)および(b)は、ブロック分け例示図に対して、如何にサブテンプレートを追跡することより候補追跡エリアに対して分け処理を行うことを概要的に説明した。図5(a)は手の追跡テンプレートであって、該追跡テンプレートは6つの大きさの等しいサブテンプレートから構成される。これは1つの例示のみであって、サブテンプレートの数の設定は追跡オブジェクトの特性によって異なってもよい。(dx,dy)は各サブテンプレートの中心点(数字1で示された点)と追跡テンプレートの中心点(数字2で示された点)との間の距離オフセットを表示する。(dx,dy)の関係式によって、図5(b)において候補目標(図5(b)において候補目標エリアに位置される点線枠で示された部分)をサブテンプレートに対応する複数のサブエリアブロックに分けてもよい。
1つの例示において、前記全体の目標テンプレート及び候補目標に対する処理と類似しており、各サブテンプレート及び各サブ候補目標に対して、各特徴的な確率でそれぞれ表してもよい。各特徴値の確率は関連するエリアにおける該特徴値を採用する画素の数を合計することによって推定され、サブ候補目標における各特徴値の確率を推定する工程において、画素ごとに画素の色空間情報のみでなく、画素の深度重み情報にも基づいて重み付けを行う。
例えば、このとき、サブ目標テンプレートtの特徴の確率密度を下での式(14)によって計算してもよい。
式中、tはサブ目標テンプレートの番号であり、uは特徴値の番号であり、u=1...m、mは特徴空間の特徴値における採用可能な値の総数を表し、qu tはサブ目標テンプレートにおけるu番目の特徴値の確率であり、Ntはサブ目標テンプレートtの画素点の総数であり、iはサブ目標テンプレートtにおける画素の番号であり、xi tはサブ目標テンプレートtにおける画素iの二次元座標であり、htは中心点x0 tに対する帯域幅であり、Cq tは正規化係数であり、b(・)はエリア間量子化関数を表し、δはKronecker delta関数を表し、k(・)は二次元空間重み付けカーネル関数を表示する。
サブ候補目標tの特徴の確率密度を下での式(15)によって計算してもよい。
式中、tはサブ候補目標の番号であり、ytはサブ候補目標tの中心位置を表し、uは特徴値の番号であり、u=1...m、mは特徴空間の特徴値における採用可能な値の総数を表し、Pu t(yt)はサブ候補目標におけるu番目の特徴値の確率であり、Ntはサブ候補目標tの画素点の総数であり、iはサブ候補目標tにおける画素の番号であり、xi tはサブ候補目標tにおける画素iの二次元座標であり、htは中心点ytに対する帯域幅であり、CP tは正規化係数であり、b(・)はエリア間量子化関数を表し、δはKronecker delta関数を表し、k(・)は二次元空間重み付けカーネル関数を表し、v(it)はサブ候補目標tにおける画素iの深度重み付け値である。
その後、サブ目標テンプレートqu tと対応するサブ候補目標pu t(yt)の確率密度表示に基づいて、サブ目標テンプレートqu tと対応するサブ候補目標pu t(yt)との間の類似度ρtを計算する。計算方法は前文に第1実施例の対象追跡方法における目標テンプレートと候補目標との類似度を計算することについての方法と一致させてもよいが、ここで贅述しない。
各サブ目標テンプレートqu tと対応するサブ候補目標pu t(yt)との間の類似度に基づいて、候補目標と目標テンプレートとの間の類似度ρ(y)を計算する。
1つの例示において、候補目標と目標テンプレートとの間の類似度ρ(y)を式(16)の方法によって計算してもよい。
式中、tはサブ目標テンプレート及びサブ候補目標の番号を表し、Sはサブ目標テンプレート及びサブ候補目標の個数を表し、λは各サブエリアの重み値を表して、サブエリアが目標追跡結果に対して奏される作用の重要度を表徴し、1つの例示において、
と設置してもよいが、これは必要ではなく、ρtはサブ目標テンプレートqu tと対応するサブ候補目標pu t(yt)との間の類似度を表示する。
第1実施例と類似して、窓口が候補目標エリアにおけるスライドによって候補目標の位置を変換して、各位置の候補目標が得られ、次に該候補目標に対する分け処理を行ってサブ候補目標が得られ、サブ候補目標に対する確率密度表示を行ってサブ候補目標と目標テンプレートとの間の類似度を計算して、さらに候補目標と目標テンプレートとの間の類似度が得られる。このように循環して行い、全体の候補目標エリアを辿って、候補目標エリアの確信度マップが得られる。確信度マップ上には、前景エリア(目標オブジェクト)上における画素点がより大きい確信度値を有するが、背景エリアにおける画素点がより小さい確信度値を有する。そのため、確信度マップ上における最大確率分布点を検索することによって現在フレームにおける目標位置が得られる。
図6(a)乃至(g)は、ブロック分けと深度重み付けに基づく対象追跡方法を概要的に説明した概要図である。(a)は候補目標エリアにおけるグレースケール画像を示しており、数字1は候補目標を示して点線は該候補目標の分けを示し、(b)は該候補目標エリアにおける深度画像を示し、(c)は色特徴と勾配特徴が含まれるグレースケール画像から得られた特徴を示し、(d)は得られた候補目標エリアにおける深度重みマップを示し、(e)は目標テンプレートのグレースケール画像、及び目標テンプレートの分け指示、得られた各サブ目標テンプレート表示で得られた目標テンプレートを表し、(f)は得られた候補目標エリアにおける確信度マップを示し、(g)は候補目標エリアにおける位置特定された手の位置ポイントを示した。
第2実施例における方法を利用して、目標テンプレートと候補目標に対する分け処理を行っており、各サブ候補目標の重み値は異なってもよい。1つの例示において、歴史情報による前のサブ候補目標とサブ目標テンプレートとの間の類似度はより低いであれば、該サブ候補目標に対してより低い重み値を設置してもよい。このように、例えば、あるブロックが遮蔽される状況において、該ブロックとサブ目標テンプレートとの間の類似度はより低くて、さらに該ブロックの重み値はより低く設置されるため、遮蔽エリアが全体の候補目標と目標テンプレートとの間の類似度に対する影響を降下できる。また、サブ候補目標の確率密度表示を計算するとき、画素の深度重み情報を自然で緊密に融合させ、それによってあるブロックの深度と予測された手の深度との差がより大きい場合、該ブロックにおける画素に対してより低い深度重み付けを与える。それによって該ブロックが手に対応するブロックに属する確率がより低いであることを評価したため、局所遮蔽が手追跡に対する影響を降下する。第2実施例における深度重み付けを緊密に融合させてブロック分けに基づくことを併せての追跡方法を利用して、例え追跡対象が周囲背景の色と十分に相似し且つ局所遮蔽が存在する状況においても、対象を正確に追跡できる。
5、対象追跡方法の第3実施例
対象追跡方法の第3実施例においては、さらに目標テンプレートを更新するステップを含む。
対象追跡方法の第3実施例においては、さらに目標テンプレートを更新するステップを含む。
1つの例示において、目標テンプレートと候補目標に対するブロック分け処理を行わない場合、そして更新条件を満足する場合は、下記式(17)によって目標テンプレートに対する更新を行う。
式中、qfは更新された後の目標テンプレートであり、qf-1は前フレームの後に得られた目標テンプレート(即ち現在フレームにおいて目標を検索中に使用される目標テンプレートである)であり、pcurは現在フレームにおいて位置特定された候補目標の確率密度表示であり、αは調整係数で、1≧α≧0を満足する。1つの例示において、目標テンプレートと候補目標との類似度が所定のしきい値より低くなった場合は、目標テンプレートに対する更新を行わない。即ちα=0である。もう1つの例示においては、目標テンプレートと候補目標との類似度が大きくなるほど、αが大きくなる。
もう1つの例示において、目標テンプレートと候補目標に対するブロック分け処理を行う場合は、各サブ目標テンプレートを独立に更新することが含む、目標テンプレートの更新を行う、ここでは、位置特定されたサブ候補目標が所定の更新条件を満足する場合のみ、該サブ候補目標を利用して対応するサブ目標テンプレートを更新する。
例えば、k番目のサブテンプレートは、下の式(18)によって更新することができる。
式中、qf kは更新された後のサブ目標テンプレートkであり、qk f-1は前フレームの後に得られた目標テンプレート(即ち現在フレームにおいて目標を検索中に使用されるサブ目標テンプレートである)であり、pk curは現在フレームにおいて位置特定されたサブ候補目標の確率密度表示であり、αは調整係数で、1≧α≧0である。1つの例示において、サブ目標テンプレートとサブ候補目標との類似度が所定のしきい値(例えば、0.5である)より低くなる場合は、サブ目標テンプレートに対する更新を行わない。即ちα=0である。もう1つの例示においては、サブ目標テンプレートとサブ候補目標との類似度が大きくなるほど、αが大きくなる。
本例示において、手追跡テンプレートの更新は、全体テンプレートの更新によって行われるものではなく、各サブテンプレートに対する更新をそれぞれ行うことによって行われる。サブテンプレートの更新工程は独立に行われる。
図7では、(a)が目標テンプレートの分割、および目標テンプレートとサブ目標テンプレートとの間の関係を概要的に説明し;(b)がサブ目標テンプレートの独立更新を概要的に説明した図である。図7(b)において、候補目標上に部分的な遮蔽が出現するため、該遮蔽エリアに対応するブロックとサブ目標テンプレートとの間の類似度はより低くなる。所定のしきい値より低くなれば、該サブ候補目標に基づいて対応するサブ目標テンプレートを更新しない。このように、遮蔽オブジェクトによって生み出されたノイズは追跡テンプレートに引き込まれないため、追跡シフト現象を効果的に阻止する。
もう1つの例示においては、各サブテンプレートに対応する重み係数λの更新も必要となり、(t+1)時刻(即ち現在時刻後の時刻である)に、前記k番目のサブテンプレートが使用される重み係数λは、式(19)による計算によって得られる。
式(19)中、ρはサブ目標テンプレートとサブ候補目標との間の類似度であり、βは1つの比例調整係数である。これによって、現在時刻におけるサブ候補目標とサブ目標テンプレートとの類似度に基づいて、サブ目標テンプレートの重み係数を調整し、次の時刻の使用に供することができる。
一般的な状況において、追跡目標上に部分的な遮蔽が出現する場合、遮蔽された部分は目標の追跡に対して悪い影響を与えるが、本発明の実施例はブロック分け及び重み付けの手段を採用して部分的な遮蔽から与えられる悪い影響を効果的に防止できる。追跡目標の表面に部分的な遮蔽が出現する場合、該部分の信頼性は図7(b)に示されたようにより低くなる。そのため、類似度計算によって得られる該部分に対する重み値は低下し、該部分の追跡結果の全体の目標の追跡結果への影響は少なくなる。手が遮蔽オブジェクトを通り抜けた場合、元々遮蔽された部分の重み係数が再び上昇する。このため、追跡工程において、例え追跡オブジェクト上に部分的な遮蔽が出現したとしても、追跡結果に影響を及ぼすことはない。
以上のことから、サブ候補目標とサブ目標テンプレートとの類似度が低くなる場合、該サブ候補目標に基づいたサブ目標テンプレートの更新を行わないのみならず、同時にサブ目標テンプレートの重み係数て低下することにより、部分的な遮蔽の追跡への影響を効果的に低減することができる。
6、対象追跡を行うためのコンピュータシステム
本発明は、さらに1つの対象追跡を行うためのコンピュータシステムによって実施されてもよい。図8は、本発明の実施形態を実現するために適用する例示性コンピュータシステム600のブロック図である。図8に示されたように、コンピュータシステム600は、CPU(中央処理装置)601、RAM(ランダム・アクセス・メモリディスク)602、ROM(読出専用メモリー)603、バスシステム604、ハードディスク制御部605、キーボード制御部606、シリアルインターフェース制御部607、パラレルインターフェース制御部608、ディスプレー制御部609、ハードディスク610、キーボード611、シリアル周辺機器612、パラレル周辺機器613及びディスプレー614を含んでもよい。これらの装置において、バスシステム604と連結されるものは、CPU601、RAM602、ROM603、ハードディスク制御部605、キーボード制御部606、シリアルインターフェース制御部607、パラレルインターフェース制御部608及びディスプレー制御部609である。ハードディスク610はハードディスク制御部605に、キーボード611はキーボード制御部606に、シリアル周辺機器612はシリアルインターフェース制御部607に、パラレル周辺機器613はパラレルインターフェース制御部608に、ディスプレー614はディスプレー制御部609にそれぞれ連結する。理解すべきなのは、図8に示された構成ブロック図は例示が目的であり、本発明への限定をなすものではない。また、場合によっては、装置の増減も可能である。
本発明は、さらに1つの対象追跡を行うためのコンピュータシステムによって実施されてもよい。図8は、本発明の実施形態を実現するために適用する例示性コンピュータシステム600のブロック図である。図8に示されたように、コンピュータシステム600は、CPU(中央処理装置)601、RAM(ランダム・アクセス・メモリディスク)602、ROM(読出専用メモリー)603、バスシステム604、ハードディスク制御部605、キーボード制御部606、シリアルインターフェース制御部607、パラレルインターフェース制御部608、ディスプレー制御部609、ハードディスク610、キーボード611、シリアル周辺機器612、パラレル周辺機器613及びディスプレー614を含んでもよい。これらの装置において、バスシステム604と連結されるものは、CPU601、RAM602、ROM603、ハードディスク制御部605、キーボード制御部606、シリアルインターフェース制御部607、パラレルインターフェース制御部608及びディスプレー制御部609である。ハードディスク610はハードディスク制御部605に、キーボード611はキーボード制御部606に、シリアル周辺機器612はシリアルインターフェース制御部607に、パラレル周辺機器613はパラレルインターフェース制御部608に、ディスプレー614はディスプレー制御部609にそれぞれ連結する。理解すべきなのは、図8に示された構成ブロック図は例示が目的であり、本発明への限定をなすものではない。また、場合によっては、装置の増減も可能である。
当業者にとっては、本発明はシステム、装置、方法またはコンピュータプログラム製品として実現されてもよい。そのため、本発明は以下の形式として具体的に実現されてもよい。即ち、完全なハードウェアでも、完全なソフトウェア(ファームウェア、常駐ソフトウェア、マイクロコード)でもよく、または、ハードウェアとソフトウェアを組み合わせた形式でもよい。本文においては、一般的に「回路」、「モジュール」、「装置」または「システム」と称している。なお、一部の実施例において、本発明は1つまたは複数のコンピュータ読取可能な媒体におけるコンピュータプログラム製品の形式として実現されてもよい。該コンピュータ読取可能な媒体にはコンピュータ読取可能なプログラムコードが含まれる。
1つまたは複数のコンピュータ読取可能な媒体の任意の組み合わせを用いてもよい。コンピュータ読取可能な媒体はコンピュータ読取可能な信号媒体またはコンピュータ読取可能な記憶媒体であってもよい。コンピュータ読取可能な記憶媒体は電気、磁気、電磁気、光、赤外線または半導体のシステム、装置または部品、または任意の以上の組み合わせであってもよいが、これらに限定されない。コンピュータ読取可能な記憶媒体のさらに具体的な例(網羅的なリストではない)は、1つまたは複数のリード線による電気接続、携帯式コンピュータディスク、ハードディスク、ランダム・アクセス・メモリディスク(RAM)、読出専用メモリー(ROM)、消去・プログラム可能な読取専用メモリー(EPROMまたはフラッシュメモリ)、光ファイバー、携帯式コンパクトディスク型読取専用メモリー(CD−ROM)、光記憶部品、磁気記憶部品、または上述の任意の適切な組み合わせを含む。本文において、コンピュータ読取可能な記憶媒体はプログラムが含まれる、または記憶されるいかなる物理媒体であってもよい。該プログラムは指令実行のシステム、装置または部品より使用され、またはそれらを併せて使用されてもよい。
コンピュータ読取可能な信号媒体は、コンピュータ読取可能なプログラムコードが載せられた、ベースバンド伝送されるか、搬送波の一部として伝達されるデータ信号を含んでもよい。この伝達されるデータ信号は各種形式を用いることができ、電磁気信号、光信号またはこれらの組み合わせを含んでもよいが、この限りではない。コンピュータ読取可能な信号媒体は、コンピュータ読取可能な記憶媒体以外のいかなるコンピュータ読取可能な媒体であってもよい。該コンピュータ読取可能な媒体は、指令実行のシステム、装置または部品より使用されるまたはそれらを併せて使用されるプログラムを送信、伝達または伝送してもよい。
コンピュータ読取可能な媒体上に含まれるプログラムコードは、いかなる適切な媒体によって伝送されてもよい。該媒体は、無線、電線、光ケーブル、RFなど、または上述の任意の適切な組み合わせを含んでもよいが、この限りではない。
1種または多種のプログラミング言語またはその組み合わせによって本発明の動作を実行するためのコンピュータプログラムコードを作成してもよい。前記プログラミング言語は対象指向プログラミング言語、例えば、Java(登録商標)、Smalltalk、C++、を含み、また通常の手続き型プログラミング言語、例えば、「C」言語または類似するプログラミング言語を含む。プログラムコードはユーザーのコンピュータにおいて完全に実行されてもよく、ユーザーのコンピュータにおいて部分的に実行されてもよく、1つの独立したパッケージソフトウェアとして実行されてもよく、一部分がユーザーのコンピュータにおいて、一部分がリモートコンピュータにおいて実行されてもよく、またはリモートコンピュータまたはサーバーにおいて完全に実行されてもよい。リモートコンピュータに関わる場合において、リモートコンピュータはローカルエリア・ネットワーク(LAN)または広域ネットワーク(WAN)を含む任意の種類のネットワークによってユーザーのコンピュータに接続してもよく、または、外部コンピュータ(例えば、インターネットサービス業者を利用してインターネットによって接続する)に接続してもよい。
1種または多種のプログラミング言語またはその組み合わせによって本発明の動作を実行するためのコンピュータプログラムコードを作成してもよい。前記プログラミング言語は対象指向プログラミング言語、例えば、Java(登録商標)、Smalltalk、C++、を含み、また通常の手続き型プログラミング言語、例えば、「C」言語または類似するプログラミング言語を含む。プログラムコードはユーザーのコンピュータにおいて完全に実行されてもよく、ユーザーのコンピュータにおいて部分的に実行されてもよく、1つの独立したパッケージソフトウェアとして実行されてもよく、一部分がユーザーのコンピュータにおいて、一部分がリモートコンピュータにおいて実行されてもよく、またはリモートコンピュータまたはサーバーにおいて完全に実行されてもよい。リモートコンピュータに関わる場合において、リモートコンピュータはローカルエリア・ネットワーク(LAN)または広域ネットワーク(WAN)を含む任意の種類のネットワークによってユーザーのコンピュータに接続してもよく、または、外部コンピュータ(例えば、インターネットサービス業者を利用してインターネットによって接続する)に接続してもよい。
以上、本発明の実施例における方法、装置(システム)及びコンピュータプログラム製品のフロー図および/またはブロック図を参照して本発明を説明したが、フロー図および/またはブロック図の各四角枠及びフロー図および/またはブロック図の各四角枠の組み合わせは、いずれもコンピュータプログラム指令によって実現可能である。これらのコンピュータプログラム指令は汎用コンピュータ、専用コンピュータまたは他のプログラミング可能なデータ処理装置のプロセッサに提供されて1つの機器を生成する。これらのコンピュータプログラム指令はコンピュータまたは他のプログラミング可能なデータ処理装置によって実行されて、フロー図および/またはブロック図における四角枠の中の所定の機能/動作を実現する装置を生成する。
これらのコンピュータプログラム指令をコンピュータまたは他のプログラミング可能なデータ処理装置が特定な方式で動作可能なコンピュータ読取可能な媒体に記憶させてもよい。これにより、コンピュータ読取可能な媒体に記憶される指令は1つのフロー図および/またはブロック図における四角枠の中の所定の機能/動作を実現する指令装置(instruction means)を含む製造品(manufacture)を生成する。
コンピュータ、他のプログラミング可能なデータ処理装置や、他の装置に一連の動作手順を実行し、コンピュータ実現の工程を生成するように、コンピュータプログラム指令をコンピュータ、他のプログラミング可能なデータ処理装置や、他の装置にロードしてもよい。それによって、コンピュータまたは他のプログラミング可能なデータ処理装置に実行される指令により、フロー図および/またはブロック図における四角枠の中の所定の機能/動作を実現する工程が提供される。
前述の説明は説明性的なものに過ぎず、複数の修正および/または差し替えを行ってもよい。
例えば、前の説明において、追跡対象の例は手であるが、これは例に過ぎず、追跡対象は、人の顔、人体全体、他の移動可能なオブジェクトなどであってもよい。
また、例えば、前の説明において、色特徴とグレー特徴を例として特徴評価、特徴選択及びテンプレート構成を説明した。しかし、これは例示のみである。実際的に、採用される特徴に対する制限がなく、形状特徴、輪郭特徴、面積特徴などであってもよい。
また、例えば、前の説明において、特徴の特徴値を離散化させることによって特徴値の確率の計算を説明したが、連続的な値の特徴の確率密度が求められる場合、連続的な値の特徴の確率密度を適用してもよい。
図面におけるフロー図及びブロック図は本発明の複数の実施例におけるシステム、方法及びコンピュータプログラム製品の実現可能な体系構造、機能及び動作を表したものであり、この点において、フロー図またはブロック図における各四角枠は1つのモジュール、プログラムセグメントまたはコードの一部分を代表してもよい。前記モジュール、プログラムセグメントまたはコードの一部分は1つまたは複数の規定される論理的な機能を実現するための実行可能な指令を含む。ここで、幾つかの差し替えとしての実現において、四角枠に表示される機能は図面に表示される手順と異なるものによって発生されてもよい。例えば、実際には2つの連続する四角枠が基本的に並行して実行されてもよく、場合によっては逆の手順によって実行されてもよい。これは関わる機能によって決められる。また、ここで、フロー図および/またはブロック図の各四角枠、及びフロー図および/またはブロック図の各四角枠の組み合わせは、所定の機能または動作を実行する専用のハードウェアによるシステムで実現されてもよく、または専用ハードウェアとコンピュータ指令を併せて実現されてもよい。
以上、本発明の各実施例を説明したが、前述の説明は例示に過ぎず、網羅的なものではなく、開示された各実施例に限定されるものではない。説明された各実施例の範囲及び発想を逸脱しない範囲内の、各種修正及び変更は当業者に自明である。本文に使用される技術用語の選択は、各実施例の原理、実際の応用または市場における技術に対する改善を好適的に解釈すること、または当業者が本文に開示された各実施例を理解させることを目的とする。
Claims (18)
- グレースケール画像シーケンスと、関連する深度画像シーケンスとを取得するステップと、
現在のグレースケール画像と深度画像のうちの少なくとも1つから、追跡される対象の候補目標エリアを予測するステップと、
各画素の深度情報に基づき、該画素が追跡される対象に属する確率を表示する各画素の深度重み情報が含まれる、候補目標エリアの深度重みマップを確定するステップと、
特徴の確率密度分布で表される目標テンプレートを取得するステップと、
候補目標エリアに位置しスライドする候補目標を特徴の確率密度分布で表し、候補目標の特徴の確率密度を推定する工程において、画素ごとに、画素の色空間情報と、画素の深度重み情報とに基づいて重み付けを行うステップと、
目標テンプレートの確率密度表示と候補目標の確率密度表示に基づき、目標テンプレートと候補目標との類似度を計算することによって、候補目標エリアの確信度マップを取得するステップと、
候補目標エリアの確信度マップに基づいて、追跡される対象の現在の画像における位置を特定するステップと、を含む、対象追跡方法。 - 前記候補目標の特徴空間の特徴値の確率は、下記の数式、
によって計算することを特徴とする請求項1に記載の対象追跡方法。 - 目標テンプレートは各サブテンプレートから構成され、
候補目標に対し、目標テンプレートを各サブ目標テンプレートに分割する形式で、候補目標を各サブ候補目標に分割し、
各サブテンプレート及び各サブ候補目標をそれぞれ各特徴値の確率で表し、各特徴値の確率は関連するエリアにおける該特徴値を採用した画素の数を集計することによって推定し、サブ候補目標の各特徴値の確率を推定する工程において、画素ごとに、画素の色空間情報のみでなく、画素の深度重み情報にも基づいて重み付けを行い、
サブ目標テンプレートと、対応するサブ候補目標との確率密度表示に基づいて、サブ目標テンプレートと対応するサブ候補目標との類似度を計算し、及び、
各サブ候補目標と各サブ目標テンプレートとの類似度に基づいて、候補目標と目標テンプレートとの類似度を計算する、ことを特徴とする請求項1に記載の対象追跡方法。 - 前記サブ候補目標の特徴の確率密度は、下記の数式
によって計算することを特徴とする請求項3に記載の対象追跡方法。 - 前記候補目標エリアの深度重みマップを確定するステップは、
追跡される対象の現在フレームにおける代表的な深度値depthobjectを予測することと、
下記の数式
によって、候補目標エリアにおける画素iの追跡される対象に属する確率を計算することと、を含む、ことを特徴とする請求項1に記載の対象追跡方法。 - 前記候補目標エリアの深度重みマップを判断するステップは、
追跡される対象の現在フレームにおける代表的な深度値depthobjectを予測することと、
下記の数式
によって、候補目標エリアにおける画素iの追跡される対象に属する確率を計算することと、を含む、ことを特徴とする請求項1に記載の対象追跡方法。 - 前記各サブ候補目標と各サブ目標テンプレートとの類似度に基づいて候補目標と目標テンプレートとの類似度を計算するステップにおいて、各サブ目標テンプレートが対応する重み係数を有しており、
前記対象追跡方法は、さらに、サブ候補目標とサブ目標テンプレートとの類似度に基づいて、サブ目標テンプレートに対応する重み係数を更新することを含む、ことを特徴とする請求項5または請求項6に記載の対象追跡方法。 - 前記表示対象の各特徴は、グレースケール情報における色特徴成分、グレースケール情報の勾配特徴成分、深度画像における勾配特徴成分を含む、ことを特徴とする請求項1に記載の対象追跡方法。
- 候補目標エリアの確信度マップに基づいて、追跡対象の現在の画像における位置を特定後に、
位置特定されたサブ候補目標が所定の更新条件を満足した場合のみ、該サブ候補目標を利用して対応するサブ目標テンプレートを更新する、独立に各サブ目標テンプレートを更新するステップを含む、目標テンプレート更新ステップをさらに含むことを特徴とする請求項3に記載の対象追跡方法。 - 対象追跡装置であって、
グレースケール画像シーケンスと、関連する深度画像シーケンスとを取得する画像取得部と、
現在のグレースケール画像と深度画像のうちの少なくとも1つから、追跡される対象の候補目標エリアを予測する候補目標エリア予測部と、
各画素の深度情報に基づき、該画素の追跡される対象に属する確率を表示する各画素の深度重み情報が含まれる候補目標エリアの深度重みマップを確定する深度重み確定部と、
特徴の確率密度で表される目標テンプレートを取得するための目標テンプレート取得部と、
候補目標エリアに位置しスライドする候補目標を特徴の確率密度で表示し、候補目標の特徴の確率密度を推定する工程において、画素ごとに、画素の色空間情報のみでなく、画素の深度重み情報にも基づいて重み付けを行う候補目標表示部と、
目標テンプレートの確率密度表示と候補目標の確率密度表示に基づき、目標テンプレートと候補目標との類似度を計算することによって、候補目標エリアの確信度マップを取得する確信度マップ取得部と、
候補目標エリアの確信度マップに基づいて、追跡される対象の現在の画像における位置を特定する対象位置決め部と、を含む、対象追跡装置。 - 前記候補目標の特徴空間の特徴値の確率は、下記の数式、
によって計算することを特徴とする請求項10に記載の対象追跡装置。 - 目標テンプレートは各サブテンプレートから構成され、
候補目標に対し、目標テンプレートを各サブ目標テンプレートに分割する形式で、候補目標を各サブ候補目標に分割し、
各サブテンプレート及び各サブ候補目標をそれぞれ各特徴値の確率で表し、各特徴値の確率は関連するエリアにおける該特徴値を採用した画素の数を集計することによって推定し、サブ候補目標の各特徴値の確率を推定することにおいて、画素ごとに、画素の色空間情報のみでなく、画素の深度重み情報にも基づいて重み付けを行い、
サブ目標テンプレートと、対応するサブ候補目標との確率密度表示に基づいて、サブ目標テンプレートと対応するサブ候補目標との類似度を計算し、及び、
各サブ候補目標と各サブ目標テンプレートとの類似度に基づいて、候補目標と目標テンプレートとの類似度を計算する、ことを特徴とする請求項10に記載の対象追跡装置。 - 前記サブ候補目標の特徴の確率密度は、下記の数式
によって計算することを特徴とする請求項12に記載の対象追跡装置。 - 前記候補目標エリアの深度重みマップを確定することは、
追跡される対象の現在フレームにおける代表的な深度値depthobjectを予測することと、
下記の数式
によって、候補目標エリアにおける画素iの追跡される対象に属する確率を計算することと、を含む、ことを特徴とする請求項10に記載の対象追跡装置。 - 前記候補目標エリアの深度重みマップを判断することは、
追跡される対象の現在フレームにおける代表的な深度値depthobjectを予測することと、
下記の数式
によって、候補目標エリアにおける画素iの追跡される対象に属する確率を計算することと、を含む、ことを特徴とする請求項10に記載の対象追跡装置。 - 前記各サブ候補目標と各サブ目標テンプレートとの類似度に基づいて候補目標と目標テンプレートとの類似度を計算することにおいて、各サブ目標テンプレートが対応する重み係数を有しており、
前記対象追跡装置は、さらに、サブ候補目標とサブ目標テンプレートとの類似度に基づいて、サブ目標テンプレートに対応する重み係数を更新する、ことを特徴とする請求項14または請求項15に記載の対象追跡装置。 - 前記表示対象の各特徴は、グレースケール情報における色特徴成分、グレースケール情報の勾配特徴成分、深度画像における勾配特徴成分を含む、ことを特徴とする請求項10に記載の対象追跡装置。
- 候補目標エリアの確信度マップに基づいて、追跡対象の現在の画像における位置を特定後に、
位置特定されたサブ候補目標が所定の更新条件を満足した場合のみ、該サブ候補目標を利用して対応するサブ目標テンプレートを更新する、独立に各サブ目標テンプレートを更新する目標テンプレート更新部をさらに含むことを特徴とする請求項12に記載の対象追跡装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410025887.XA CN104794733B (zh) | 2014-01-20 | 2014-01-20 | 对象跟踪方法和装置 |
CN201410025887.X | 2014-01-20 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015138554A true JP2015138554A (ja) | 2015-07-30 |
Family
ID=53545060
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015006674A Pending JP2015138554A (ja) | 2014-01-20 | 2015-01-16 | 対象追跡方法及び装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9524562B2 (ja) |
JP (1) | JP2015138554A (ja) |
CN (1) | CN104794733B (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017130640A1 (ja) * | 2016-01-28 | 2017-08-03 | 株式会社リコー | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム |
WO2017170087A1 (ja) * | 2016-03-31 | 2017-10-05 | 日本電気株式会社 | 画像検出装置、画像検出方法、及びプログラムを記憶する記憶媒体 |
WO2018008184A1 (ja) * | 2016-07-08 | 2018-01-11 | オムロン株式会社 | 画像処理装置および画像処理方法 |
Families Citing this family (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6072892B2 (ja) * | 2013-02-27 | 2017-02-01 | 日立オートモティブシステムズ株式会社 | 撮像装置及び車両制御装置 |
US9524028B2 (en) * | 2013-03-08 | 2016-12-20 | Fastvdo Llc | Visual language for human computer interfaces |
CN105335748B (zh) | 2014-08-07 | 2018-10-12 | 株式会社理光 | 图像特征提取方法和系统 |
US20160259980A1 (en) * | 2015-03-03 | 2016-09-08 | Umm Al-Qura University | Systems and methodologies for performing intelligent perception based real-time counting |
CN106296721B (zh) * | 2015-05-14 | 2019-01-25 | 株式会社理光 | 基于立体视觉的对象聚集检测方法和装置 |
US9773192B2 (en) * | 2015-06-07 | 2017-09-26 | Apple Inc. | Fast template-based tracking |
US10586102B2 (en) * | 2015-08-18 | 2020-03-10 | Qualcomm Incorporated | Systems and methods for object tracking |
KR102002573B1 (ko) * | 2015-09-24 | 2019-07-22 | 구글 엘엘씨 | 빠른 직교 투영 |
CN105303188A (zh) * | 2015-12-03 | 2016-02-03 | 深圳市捷顺科技实业股份有限公司 | 一种车牌左右边界的定位方法及装置 |
CN107025830A (zh) * | 2016-01-29 | 2017-08-08 | 北京新唐思创教育科技有限公司 | 一种教学实验的模拟方法及装置 |
CN107610157B (zh) * | 2016-07-12 | 2020-10-09 | 深圳雷柏科技股份有限公司 | 一种无人机目标追踪方法及系统 |
CN105976403B (zh) * | 2016-07-25 | 2018-09-21 | 中国电子科技集团公司第二十八研究所 | 一种基于核函数质心漂移的红外成像目标跟踪方法 |
US20180082428A1 (en) * | 2016-09-16 | 2018-03-22 | Qualcomm Incorporated | Use of motion information in video data to track fast moving objects |
US10147218B2 (en) * | 2016-09-29 | 2018-12-04 | Sony Interactive Entertainment America, LLC | System to identify and use markers for motion capture |
CN108269269A (zh) * | 2016-12-30 | 2018-07-10 | 纳恩博(北京)科技有限公司 | 目标跟踪方法和装置 |
CN107424171B (zh) * | 2017-07-21 | 2020-01-03 | 华中科技大学 | 一种基于分块的抗遮挡目标跟踪方法 |
CN107609571B (zh) * | 2017-08-02 | 2023-09-05 | 南京理工大学 | 一种基于lark特征的自适应目标跟踪方法 |
JP6412998B1 (ja) * | 2017-09-29 | 2018-10-24 | 株式会社Qoncept | 動体追跡装置、動体追跡方法、動体追跡プログラム |
CN109697385A (zh) * | 2017-10-20 | 2019-04-30 | 中移(苏州)软件技术有限公司 | 一种目标跟踪方法及装置 |
CN110637268A (zh) * | 2018-01-23 | 2019-12-31 | 深圳市大疆创新科技有限公司 | 目标检测方法、装置和可移动平台 |
WO2019144281A1 (zh) * | 2018-01-23 | 2019-08-01 | 深圳市大疆创新科技有限公司 | 表面图形确定方法和装置 |
CN108280843A (zh) * | 2018-01-24 | 2018-07-13 | 新华智云科技有限公司 | 一种视频目标检测跟踪方法及设备 |
CN108491816A (zh) * | 2018-03-30 | 2018-09-04 | 百度在线网络技术(北京)有限公司 | 在视频中进行目标跟踪的方法和装置 |
CN109255304B (zh) * | 2018-08-17 | 2021-07-27 | 西安电子科技大学 | 基于分布场特征的目标跟踪方法 |
CN109146906B (zh) * | 2018-08-22 | 2021-03-23 | Oppo广东移动通信有限公司 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
CN109446959B (zh) * | 2018-10-18 | 2021-10-08 | 广州极飞科技股份有限公司 | 目标区域的划分方法及装置、药物的喷洒控制方法 |
CN111223139B (zh) * | 2018-11-26 | 2024-02-13 | 深圳市优必选科技有限公司 | 目标定位方法及终端设备 |
CN111325217B (zh) * | 2018-12-14 | 2024-02-06 | 京东科技信息技术有限公司 | 数据处理方法、装置、系统和介质 |
CN109902588B (zh) * | 2019-01-29 | 2021-08-20 | 北京奇艺世纪科技有限公司 | 一种手势识别方法、装置及计算机可读存储介质 |
CN110267206B (zh) * | 2019-05-21 | 2020-11-17 | 中国联合网络通信集团有限公司 | 用户位置预测方法及装置 |
EP3798976B1 (en) * | 2019-09-30 | 2023-11-01 | Tata Consultancy Services Limited | Method and system for determining dynamism in a scene by processing a depth image |
CN110706262B (zh) * | 2019-10-09 | 2023-06-02 | 上海思岚科技有限公司 | 图像处理方法、装置、设备及存储介质 |
CN110749351A (zh) * | 2019-11-05 | 2020-02-04 | 苏州美能华智能科技有限公司 | 对象的关注目标确定方法、装置及系统 |
CN111325770B (zh) * | 2020-02-13 | 2023-12-22 | 中国科学院自动化研究所 | 基于rgbd相机的目标跟随方法、系统、装置 |
CN111476821B (zh) * | 2020-04-03 | 2022-08-05 | 河海大学 | 基于在线学习的目标跟踪方法 |
CN112955712A (zh) * | 2020-04-28 | 2021-06-11 | 深圳市大疆创新科技有限公司 | 目标跟踪方法、设备及存储介质 |
CN111738265B (zh) * | 2020-05-20 | 2022-11-08 | 山东大学 | Rgb-d图像的语义分割方法、系统、介质及电子设备 |
CN111612001B (zh) * | 2020-05-28 | 2023-04-07 | 华侨大学 | 一种基于特征融合的目标跟踪定位方法 |
CN111695471B (zh) * | 2020-06-02 | 2023-06-27 | 北京百度网讯科技有限公司 | 虚拟形象生成方法、装置、设备以及存储介质 |
CN111652151B (zh) * | 2020-06-04 | 2023-12-19 | 北京环境特性研究所 | 一种红外弱小目标跟踪方法 |
CN111626263B (zh) * | 2020-06-05 | 2023-09-05 | 北京百度网讯科技有限公司 | 一种视频感兴趣区域检测方法、装置、设备及介质 |
CN111797832B (zh) * | 2020-07-14 | 2024-02-02 | 成都数之联科技股份有限公司 | 一种图像感兴趣区域自动生成方法及系统及图像处理方法 |
CN112115415A (zh) * | 2020-07-24 | 2020-12-22 | 中国科学院软件研究所 | 任意形状移动目标的用户点选成功率预测方法 |
CN112132862B (zh) * | 2020-09-11 | 2023-08-15 | 桂林电子科技大学 | 一种基于无人机的自适应尺度估计目标跟踪算法 |
CN112036381B (zh) * | 2020-11-03 | 2021-03-09 | 中山大学深圳研究院 | 视觉跟踪方法、视频监控方法及终端设备 |
CN112348852A (zh) * | 2020-11-04 | 2021-02-09 | 北京伟杰东博信息科技有限公司 | 一种目标对象的位置更新方法及系统 |
CN112884802B (zh) * | 2021-02-24 | 2023-05-12 | 电子科技大学 | 一种基于生成的对抗攻击方法 |
CN113095139B (zh) * | 2021-03-11 | 2022-07-05 | 上海航天控制技术研究所 | 一种基于高斯模板匹配的红外点目标识别方法 |
CN113642631B (zh) * | 2021-08-10 | 2022-07-12 | 沭阳协润电子有限公司 | 基于人工智能的危险区域电子围栏生成方法及系统 |
CN113781561B (zh) * | 2021-09-09 | 2023-10-27 | 诺力智能装备股份有限公司 | 基于自适应高斯权快速点特征直方图的目标位姿估计方法 |
CN113850165B (zh) * | 2021-09-13 | 2024-07-19 | 支付宝(杭州)信息技术有限公司 | 人脸识别方法和装置 |
CN113538546B (zh) * | 2021-09-17 | 2022-01-25 | 智道网联科技(北京)有限公司 | 用于自动驾驶的目标检测方法、装置及设备 |
CN113935428A (zh) * | 2021-10-25 | 2022-01-14 | 山东大学 | 基于图像识别的三维点云聚类识别方法及系统 |
CN114659450B (zh) * | 2022-03-25 | 2023-11-14 | 北京小米机器人技术有限公司 | 机器人跟随方法、装置、机器人及存储介质 |
CN114972132B (zh) * | 2022-05-30 | 2024-07-05 | 浙江孔辉汽车科技有限公司 | 智能agv车实时跟踪方法及跟踪系统 |
CN117557788B (zh) * | 2024-01-12 | 2024-03-26 | 国研软件股份有限公司 | 一种基于运动预测的海上目标检测方法及系统 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9153074B2 (en) * | 2011-07-18 | 2015-10-06 | Dylan T X Zhou | Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command |
US8363909B2 (en) | 2007-03-20 | 2013-01-29 | Ricoh Company, Limited | Image processing apparatus, image processing method, and computer program product |
CN101271514B (zh) | 2007-03-21 | 2012-10-10 | 株式会社理光 | 一种快速目标检测和目标输出的图像检测方法及装置 |
CN101271515B (zh) | 2007-03-21 | 2014-03-19 | 株式会社理光 | 能识别多角度目标的图像检测装置 |
JP2009021459A (ja) | 2007-07-13 | 2009-01-29 | Fuji Xerox Co Ltd | 面発光型半導体レーザの駆動方法および光伝送モジュール |
JP5166102B2 (ja) * | 2008-04-22 | 2013-03-21 | 株式会社東芝 | 画像処理装置及びその方法 |
CN101983389B (zh) | 2008-10-27 | 2012-11-21 | 松下电器产业株式会社 | 移动体检测方法以及移动体检测装置 |
CN101699862B (zh) * | 2009-11-16 | 2011-04-13 | 上海交通大学 | Ptz摄像机获取感兴趣区域高分辨率图像的方法 |
US8787663B2 (en) | 2010-03-01 | 2014-07-22 | Primesense Ltd. | Tracking body parts by combined color image and depth processing |
JP5488076B2 (ja) * | 2010-03-15 | 2014-05-14 | オムロン株式会社 | 対象物追跡装置、対象物追跡方法、および制御プログラム |
KR20110124473A (ko) | 2010-05-11 | 2011-11-17 | 삼성전자주식회사 | 다중시점 영상을 위한 3차원 영상 생성 장치 및 방법 |
CN102004898A (zh) * | 2010-11-03 | 2011-04-06 | 天津工业大学 | 一种基于模板匹配的目标跟踪方法 |
US9300947B2 (en) | 2011-03-24 | 2016-03-29 | Kodak Alaris Inc. | Producing 3D images from captured 2D video |
CN102163280B (zh) * | 2011-04-12 | 2012-09-26 | 华中科技大学 | 一种基于置信度和多帧判决的目标识别跟踪转换方法 |
US9053571B2 (en) * | 2011-06-06 | 2015-06-09 | Microsoft Corporation | Generating computer models of 3D objects |
US9530192B2 (en) | 2011-06-30 | 2016-12-27 | Kodak Alaris Inc. | Method for determining stereo quality score and automatically improving the quality of stereo images |
US20130033713A1 (en) | 2011-08-02 | 2013-02-07 | Samsung Electronics Co., Ltd | Apparatus and method of forming image, terminal and method of print control, and computer-readable medium |
CN102622769B (zh) * | 2012-03-19 | 2015-03-04 | 厦门大学 | 一种在动态场景下以深度为主导线索的多目标跟踪方法 |
WO2013182873A1 (en) | 2012-06-08 | 2013-12-12 | Nokia Corporation | A multi-frame image calibrator |
CN102831409B (zh) * | 2012-08-30 | 2016-09-28 | 苏州大学 | 基于粒子滤波的运动行人视频自动跟踪方法及系统 |
CN103237155B (zh) * | 2013-04-01 | 2016-12-28 | 北京工业大学 | 一种单视角被遮挡的目标的跟踪和定位方法 |
CN103391430B (zh) * | 2013-07-22 | 2014-09-10 | 南通大学 | 基于dsp的相关跟踪方法及专用装置 |
CN104424649B (zh) | 2013-08-21 | 2017-09-26 | 株式会社理光 | 检测运动物体的方法和系统 |
CN104424634B (zh) | 2013-08-23 | 2017-05-03 | 株式会社理光 | 对象跟踪方法和装置 |
US9224060B1 (en) * | 2013-09-17 | 2015-12-29 | Amazon Technologies, Inc. | Object tracking using depth information |
-
2014
- 2014-01-20 CN CN201410025887.XA patent/CN104794733B/zh not_active Expired - Fee Related
-
2015
- 2015-01-16 JP JP2015006674A patent/JP2015138554A/ja active Pending
- 2015-01-20 US US14/600,402 patent/US9524562B2/en active Active
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2017130640A1 (ja) * | 2016-01-28 | 2018-11-08 | 株式会社リコー | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム |
US11004215B2 (en) | 2016-01-28 | 2021-05-11 | Ricoh Company, Ltd. | Image processing apparatus, imaging device, moving body device control system, image information processing method, and program product |
WO2017130640A1 (ja) * | 2016-01-28 | 2017-08-03 | 株式会社リコー | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム |
US10872423B2 (en) | 2016-03-31 | 2020-12-22 | Nec Corporation | Image detection device, image detection method and storage medium storing program |
JPWO2017170087A1 (ja) * | 2016-03-31 | 2019-02-14 | 日本電気株式会社 | 画像検出装置、画像検出方法、及びプログラムを記憶する記憶媒体 |
WO2017170087A1 (ja) * | 2016-03-31 | 2017-10-05 | 日本電気株式会社 | 画像検出装置、画像検出方法、及びプログラムを記憶する記憶媒体 |
JP2021103598A (ja) * | 2016-03-31 | 2021-07-15 | 日本電気株式会社 | 画像処理装置、画像処理方法、及びプログラム |
US11107223B2 (en) | 2016-03-31 | 2021-08-31 | Nec Corporation | Image detection device, image detection method and storage medium storing program |
US11288816B2 (en) | 2016-03-31 | 2022-03-29 | Nec Corporation | Image detection device, image detection method and storage medium storing program |
JP7176590B2 (ja) | 2016-03-31 | 2022-11-22 | 日本電気株式会社 | 画像処理装置、画像処理方法、及びプログラム |
KR20180033552A (ko) * | 2016-07-08 | 2018-04-03 | 오므론 가부시키가이샤 | 화상 처리 장치 및 화상 처리 방법 |
JP2018005839A (ja) * | 2016-07-08 | 2018-01-11 | オムロン株式会社 | 画像処理装置および画像処理方法 |
KR102011231B1 (ko) * | 2016-07-08 | 2019-08-14 | 오므론 가부시키가이샤 | 화상 처리 장치 및 화상 처리 방법 |
US10497133B2 (en) | 2016-07-08 | 2019-12-03 | Omron Corporation | Object tracking apparatus and object tracking method |
WO2018008184A1 (ja) * | 2016-07-08 | 2018-01-11 | オムロン株式会社 | 画像処理装置および画像処理方法 |
Also Published As
Publication number | Publication date |
---|---|
US20150206004A1 (en) | 2015-07-23 |
CN104794733A (zh) | 2015-07-22 |
US9524562B2 (en) | 2016-12-20 |
CN104794733B (zh) | 2018-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015138554A (ja) | 対象追跡方法及び装置 | |
CA3035298C (en) | Predicting depth from image data using a statistical model | |
CN109076198B (zh) | 基于视频的对象跟踪遮挡检测系统、方法和设备 | |
JP6942488B2 (ja) | 画像処理装置、画像処理システム、画像処理方法、及びプログラム | |
KR101776622B1 (ko) | 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
CN109977833B (zh) | 物体追踪方法、物体追踪装置、存储介质及电子设备 | |
US9311534B2 (en) | Method and apparatus for tracking object | |
KR102472767B1 (ko) | 신뢰도에 기초하여 깊이 맵을 산출하는 방법 및 장치 | |
KR101776621B1 (ko) | 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
EP2671384B1 (en) | Mobile camera localization using depth maps | |
US9317772B2 (en) | Method for improving tracking using dynamic background compensation with centroid compensation | |
US9165211B2 (en) | Image processing apparatus and method | |
US11244506B2 (en) | Tracking rigged polygon-mesh models of articulated objects | |
US9280703B2 (en) | Apparatus and method for tracking hand | |
JP6454984B2 (ja) | 深度画像に基づく手の位置確定方法と装置 | |
US20180260040A1 (en) | Tracker for cursor navigation | |
JP2015061239A (ja) | 撮像管理システム、撮像管理装置及びそれらの制御方法、プログラム | |
KR20150144726A (ko) | 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
CN104599287A (zh) | 对象跟踪方法和装置、对象识别方法和装置 | |
CN111144213A (zh) | 一种对象检测方法和相关设备 | |
JP6331761B2 (ja) | 判定装置、判定方法及び判定プログラム | |
JP2022136803A (ja) | 3d位置取得方法及び装置 | |
KR101139930B1 (ko) | 부분 템플릿 매칭 기반의 객체 식별 장치 및 방법 | |
CN112947419A (zh) | 避障方法、装置及设备 | |
JP2018120283A (ja) | 情報処理装置、情報処理方法及びプログラム |