JP2016174252A - 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム - Google Patents
画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2016174252A JP2016174252A JP2015052701A JP2015052701A JP2016174252A JP 2016174252 A JP2016174252 A JP 2016174252A JP 2015052701 A JP2015052701 A JP 2015052701A JP 2015052701 A JP2015052701 A JP 2015052701A JP 2016174252 A JP2016174252 A JP 2016174252A
- Authority
- JP
- Japan
- Prior art keywords
- label
- tracking
- image
- image processing
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
【解決手段】画像処理装置は、複数の撮像手段が撮像する複数の映像について、当該複数の映像のそれぞれから検出された追尾すべき物体について、映像の画像フレーム中の物体の位置と物体を識別する追尾ラベルとを含む追尾結果を取得する取得手段と、取得された複数の追尾結果に基づいて、複数の映像の間で、画像フレーム中に検出された物体を対応付ける対応付け手段311と、当該対応付け結果に基づいて、複数の映像の間で同一の物体であると推定される物体を一意に識別する物体ラベルを生成する物体ラベル生成手段307と、物体ラベルに基づいて、複数の追尾結果を統合して、物体の3次元空間における位置を算出する算出手段311と、を備える。
【選択図】図3
Description
具体的には、特許文献1において、まず各カメラ映像に対して物体を検出して追尾する。そして、複数のカメラ映像からそれぞれ得られる各画像フレーム上の物体の2次元座標の移動軌跡を求め、これから物体の3次元座標を推定することで、複数のカメラの視野間で物体を追尾する。
複数カメラが連携する画像処理について、非特許文献1は、所定の平面パターンをカメラに撮像させることによって、カメラのキャリブレーションを行う技術を開示する。非特許文献2は、複数のカメラを用いて3次元位置を推定するアルゴリズムであって、所定のモデル推定手法を用いて、動きに適応した3次元構造を求める手法を開示する。また、非特許文献3は、複数の人物を検出し追尾するアルゴリズムを開示する。特に、非特許文献3には、歩行者を検出する検出器の連続的な信頼度を利用することによって、複数の歩行者を検出、追尾する手法(アルゴリズム)が開示されている。
例えば、特許文献1では、複数のカメラ映像のうち、それぞれのカメラ映像に映っている物体に対して画像フレーム中での追尾を個別に行い追尾結果を得る。そして複数のカメラの複数の追尾結果をそれぞれ得た後、これら複数のカメラ映像の追尾結果を統合する。しかしながら、従来は、同一物体であっても、追尾ラベルが時刻によって異なることがあった。
上記のような従来の追尾結果を、例えば特許文献2に開示されるような異常なイベントの自動検出に応用しようとすると、同一人物であるにもかかわらず異なる人物として認識されてしまうおそれがあった。すなわち、特許文献2のように滞留時間からその人物が不審であるか否かを判定しようとする場合、図17(a)に示すように、第1カメラの視野から人物が時刻T4で一時的に退出または遮蔽(オクルージョン)により追尾不能になる。その後、時刻T6で再び第1カメラの視野内に侵入した場合には、同一カメラの映像であっても上記のように同一であるべき人物に異なる追尾ラベルが付与されることで、異なる人物として認識されてしまうため、当該人物の正しい滞留時間が測定できない。
本発明は、上記課題に鑑みなされたものであり、複数のカメラが連携して行うカメラ映像中の物体追尾において、複数のカメラ映像間で追尾される物体が同一であるか否かをより正確に識別可能とすることを目的とする。
なお、以下に説明する実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
また、以下では、検出対象物体として人体を例に説明するが、本実施形態は、他のあらゆる検出対象物体に適用することができる。
また、以下に述べる本実施形態において、物体追尾によって生成される各物体の軌跡を物体ごとに区別するために、それぞれの物体の軌跡には追尾対象物体を識別するための符号がカメラごとに付与される。以降、この符号を「追尾ラベル」と呼ぶ。一方、本実施形態においては、カメラが異なる場合であっても、また時刻が異なる場合であっても不変な、物体固有の識別符号が物体に付与される。以降、この符号を「物体ラベル」と呼ぶ。
図1は、本実施形態の画像処理システム1000のシステム構成を示す。本実施形態に係る画像処理システム1000は、複数の物体追尾装置101a、101b、・・・、101n、ラベル割り当て装置(ラベル処理装置)102、モニタリング装置103で構成されている。図1において、n個(nは2以上の整数)の、第1物体追尾装置101a、第2物体追尾装置101b、・・・第N物体追尾装置101n、が示されている。複数の物体追尾装置101a、101b、・・・、101n、ラベル割り当て装置102、モニタリング装置103は、ネットワークやバス等の通信リンクで接続されている。なお、図1のシステム構成は一例であり、複数の物体追尾装置101a、101b、・・・、101n、ラベル割り当て装置102、モニタリング装置103は、一体として画像処理システム1000を構成してもよい。
RAM(Random Access Memory)205は、カメラにより撮像される、動画像等の映像、その他の画像や各種情報を記憶する。また、RAM205は、CPU203のワークエリアやデータの一時待避領域としても機能する。また、各装置は、ディスプレイ206を備えてよく、例えばモニタリング装置103は、このディスプレイ206に後述する監視画像(追尾画像)等表示する表示制御を行うことができる。
なお、本実施形態においては、後述するフローチャートの各ステップに対応する処理を、CPU203を用いてソフトウェアで実現してよいが、これに替えて、その処理の一部または全部を電子回路などのハードウェアで実現するようにしてもよい。
また、本実施形態に係る画像処理システム1000の各コンポーネントは、様々な形態をとることができる。例えば、ビデオカメラや、スチルカメラ、パーソナルコンピュータ、スマートフォン、等の機能として実装することができる。また、ネットワークカメラ、WEBカメラ、USBカメラ、ウェアラブルカメラに組み込んで、これら各種機器を実現することもできる。例えば、ネットワークカメラとして機能させる場合は、ネットワークインターフェースを用いて所定のネットワークに接続するように構成してよい。ネットワークインターフェースは、図2に示されている通信手段207を用いてよい。
物体追尾装置101(101a、101b、・・・、101n)は、追尾結果取得部304、ラベル置換辞書記憶部305、ラベル置換部306を備える。
追尾結果取得部304は、外部の撮像素子201(図2)から入力されるカメラ映像の連続するフレームに対して物体追尾を行う。これによって、カメラ画像の画像フレーム上の検出対象である物体の位置を表す座標、幅、高さ、そして追尾ラベルを含む追尾結果生成を行い、追尾結果を取得する。
物体ラベル情報更新部307は、追尾結果取得部304で取得した物体の座標、幅、高さ、追尾ラベルと、物体対応算出部311が算出した、複数のカメラで撮像したカメラ映像間の物体の対応付け情報とを受け取る。物体ラベル情報更新部307は、受け取った情報を用いて、物体ラベル生成を行い、物体ラベル情報記憶部308に記憶された、追尾ラベルと物体ラベルとの対の候補である、物体ラベル情報を更新する。この物体ラベル情報更新部307は、物体ラベル情報を入力される画像フレームごとに更新してよい。
ラベル置換辞書生成部309は、物体ラベル情報記憶部308に記憶された物体ラベル情報をもとに、追尾ラベルを物体ラベルに置換する際の対応関係の情報を含むラベル置換辞書(ラベル変換辞書)を生成する辞書生成を行う。ラベル置換辞書生成部309は、生成されたラベル置換辞書をラベル置換辞書記憶部305に格納する。
モニタリング装置103は、複数のカメラ映像中の追尾結果を表示出力する。具体的には、モニタリング装置103は、複数の物体追尾装置101(101a、101b、・・・、101n)からそれぞれ、カメラ映像と当該映像中の物体追尾結果を取得し、ラベル割り当て装置102から当該物体の3次元位置座標を取得する。モニタリング装置103を用いて、複数の物体追尾装置101(101a、101b、・・・、101n)が取得する追尾結果の表示、当該追尾結果に基づく所定のイベントの検出、等の各種処理を実行することができる。モニタリング装置103の処理の詳細は後述する。
本実施形態に係る画像処理システム1000の動作を図4のフローチャートを参照して説明する。図4に示されるフローチャートにおいては、複数の物体追尾装置101(101a、101b、・・・、101n)、ラベル割り当て装置102、モニタリング装置103が協調して処理を実行する。例えば、ステップS401、ステップS404〜ステップS409をラベル割り当て装置102により実行することができる。また、ステップS402、ステップS403およびステップS410を物体追尾装置101(101a、101b、・・・、101n)により実行することができる。更に、ステップS411をモニタリング装置103により実行することができる。
まず、ステップS401では、カメラキャリブレーションを行うことによって、各カメラの内部パラメータ、位置、姿勢を推定する。例えば、キャリブレーションボードを検出対象である物体が存在する環境中に設置し、例えば非特許文献1に記載されている手法により各カメラの内部パラメータを求めることができる。非特許文献1に記載されている手法によれば、カメラに所定の平面パターンを撮像させることによって、カメラキャリブレーションが行われる。さらに、環境に設置した別のキャリブレーションマーカーによって各カメラの位置、姿勢を推定することができる。これらの手法は、単独で又は組み合わせて利用してよい。このようにして得られたカメラの例えば内部パラメータ、位置、姿勢などの情報は図3の例に示されたカメラ情報記憶部310にカメラ情報として保持される。
ステップS402においては、物体追尾装置101(101a、101b、・・・、101n)の追尾結果取得部304が、各カメラの出力するカメラ映像から、画像フレームを取得する。本実施形態では、カメラの台数が例えば3台であるため、3つの物体追尾装置101により3枚の画像フレームが取得される。
この人体領域の抽出処理の結果、追尾結果取得部304は、人体領域を示す例えば矩形領域の代表点座標(x,y)、および高さh、幅wを得、また、抽出された人体の領域を他の物体や領域と識別する追尾ラベルを得る。
ステップS404においては、ラベル割り当て装置102の物体対応算出部311により、ステップS403で検出された人物を2つのカメラの画像フレーム間で対応付ける処理が実行される。すなわち、あるカメラの画像フレームで検出された人物が、他のカメラの画像フレームのどの人物に対応するかを探索する。
ここで、人物(人体)の画像フレーム間の対応付けは、人物の人体領域の代表点をエピポーラ幾何(Epipolar Geometry)の原理によって対応付けることによって行うことができる。図5を参照してこのエピポーラ幾何を用いた対応付けの例を説明する。
ここで、第1カメラの画像フレームと第2カメラの画像フレームとの間の位置関係の情報を含む行列である基礎行列であるFは、カメラの位置、姿勢、内部パラメータ等から計算することができる。さらに、人物Aの人体領域の代表点の2次元座標を表わすベクトルをxとすると、エピポーラ線lは次式で表わすことができる。
そのため、当該条件を満たすように、対応付けが可能な人物の組の組み合わせを求める。例えば、図5(a)は、現在の画像フレームを示しており、この図5(a)の例で示される第1カメラの画像フレーム中の人物Aに対応付けられる、第2カメラの画像フレーム中の人物は、人物Bと人物Cとが対応する。したがって、可能性のある組(組み合わせ)として、例えば{A,B}と{A,C}と、が生成される。
図6の例に示すように、第1カメラの画像フレーム601に対し、第1カメラ中心601aと、人体領域の代表点601bとを通る3次元空間中の直線を求める。同様に、第2カメラの画像フレーム602に対し、第2カメラ中心602aと、人体領域の代表点602bを通る3次元空間中の直線を求める。このような直線は、各カメラの位置、姿勢、内部パラメータおよび代表点601b、602bの画像上の座標より求めることができる。
図4に戻り、ステップS406では、ステップS405で求めた3次元位置から虚像を排除してよい。虚像とは、図7のように、カメラと物体を結ぶ直線の交点に、本来ならば存在しない人物の3次元位置が虚像710として推定される現象をいう。図7に示す例では、第1カメラ1の視野701中では、人物B一人が映っており、一方、第2カメラの視野702中では、人物Aと人物Bのl二人が映っている。もし、第1カメラの視野701中に映っている人物が、第2カメラの視野702中の人物Aに対応すると判断してしまうと、虚像710の位置を人物の3次元位置と誤って求めてしまう可能性がある。
例えば、図5(a)で示される例の場合は、第1カメラの画像フレーム中の人物体Aに対応付く人物の組として、{A,B}と{A,C}が生成されているが、いずれか一方の組から推定される3次元位置は虚像である。例えば、人物の組{A,B}が正しかった場合、人物の組{A,C}から求められる三次元位置は、図7に示す例のように、虚像の位置となる。
図4に戻り、ステップS407においては、3次元位置から多カメラの画像フレームに映った物体間の対応を求める。このステップS407の処理は、3つ以上のカメラ映像から物体を追尾する場合に実行される。すなわち、ステップS404で求めた対応付けは2個のカメラの画像フレームに映った物体間の対応であるため、ステップS407では、ステップS404の結果を利用して、さらに3台以上のカメラの映像に映った物体間の対応を求める。
ここで、一部のカメラの画像フレーム中で物体が映っていない場合や、追尾に失敗した場合には、その一部のカメラの画像フレーム中で当該物体の追尾ラベルが欠落することがある。本実施形態においては、このような追尾ラベルの欠落に対応するため、追尾ラベルが欠落していることを明示的に示す無効ラベルXを付与する。
このステップS407においては、より多くのカメラのカメラ画像に映っている(と推定される)物体から優先的に対応付けを決めてよい。これは、多視点幾何の特性から、多くのカメラで検出されるほど、カメラ間の人体対応付けの信頼性が高いと考えられるからである。
図8は、ラベル置換辞書800の構成例を示す。図8において、ラベル置換辞書800は、複数のカラム(縦の「項目」)を格納するテーブルとして構成されている。具体的には、カメラ番号801、当該カメラ番号のカメラで撮像された映像中で検出された物体に付与された追尾ラベル802、当該物体について生成された物体ラベル803を含む。このラベル置換辞書800を参照することで、画像処理システム100の各装置は、カメラ番号801と追尾ラベル802とに基づき、物体ラベル803を取得することができる。本実施形態における、このステップS408におけるラベル置換辞書の生成及び物体ラベル情報の処理内容の詳細は後述する。
このステップS409の処理は、ラベル割り当て装置102のラベル置換辞書生成部309と物体追尾装置101のラベル置換辞書記憶部305とが協調して、通信手段207を介して実行してよい。
ステップS412においては、ステップS401〜ステップS411までの処理を継続するか否かを判定する。例えば、追尾結果取得部304が、カメラからさらなる画像フレームを取得可能である場合は、ステップS402に処理が戻り、取得することが不可能である場合は、処理を終了する
次に、本実施形態における、ラベル割り当て装置102が実行するラベル置換辞書の作成処理および物体ラベル情報更新処理(図4の例で示したステップS408の詳細)を、図9のフローチャートを用いて説明する。
図9に例として示す処理は、ラベル割り当て装置102の物体ラベル情報更新部307及びラベル置換辞書生成部309とが協調して実行することができる。
図4のステップS408では、ステップS407で得られた多カメラ間での物体の対応付け(対応付け情報)の集合と、物体ラベル情報記憶部308に記憶された物体ラベル情報とを用いて、ラベル置換辞書800の生成と物体ラベル情報1010の更新を行う。
図10は、物体ラベル情報1010の構成の一例を示す。図10の例に示されるように、物体ラベル情報1010は、各カメラの追尾ラベル1001、1003、1004と物体ラベル1002とを各カラムとしたテーブルで構成されてよい。この物体ラベル情報1010においても、ラベル情報が欠落していることを示す無効ラベルXを付与することができる。例えば、図10の左から2番目のカラムの第2カメラの追尾ラベル1003中に、第2カメラでは物体が追尾できなかった旨を示す無効ラベルXが示されている。ラベル置換辞書800は、この物体ラベル情報1010を参照することにより生成することができ、図8に例として示したように、カメラ番号801、追尾ラベル802、物体ラベル803をカラムとするテーブルで構成されてよい。
図9のステップS902においては、ラベル置換辞書800を初期化する。この初期化は、例えば、ラベル置換辞書800のエントリー(ラベル置換辞書800のテーブルの各行)の内容を全て削除することによって行ってよい。この初期化は、ラベル置換辞書生成部309が行うことができる。
ステップS904では、ステップS903で選択した対応付け情報との類似度が最も大きいエントリー(以降、最大エントリーと呼ぶ)を、対応付けの尤度が高いエントリーとして、物体ラベル情報1010から探索する。
本実施形態では、この類似度として、追尾ラベルが一致しているカメラの個数を利用する例を説明する。例えば、選択された対応付け情報と各エントリーとの類似度Sは、対応付け情報mとエントリー中の追尾ラベル情報tの類似度として次式で計算することができる。
ただし、本実施形態では、無効ラベルXを考慮してδ(i,j)は次式で表わされる。
ステップS906において、例えば、対応付け情報が第1カメラの画像フレーム中の物体に対して追尾ラベルとして3が付与され、第2カメラの画像フレーム中の物体に追尾ラベルとして無効ラベルXが付与されているものとする。更に、第3カメラの画像フレーム中の物体に対して追尾ラベルとして5が付与されている場合、新たな物体ラベルがAだとすると、(3、X、5、A)という新規エントリーを物体ラベル情報1010のテーブルに追加する。
例えば、あるカメラにおいて、対応付け情報の追尾ラベルが3であり、最大エントリーの追尾ラベルが5の場合であれば、この最大エントリーの追尾ラベルを3で置き換える。ただし、あるカメラにおいて、対応付け情報の追尾ラベルが無効ラベルXを示す場合、この最大エントリー中の当該追尾ラベルは更新しない。
図9のステップS906で新規エントリーが追加、または、ステップS907において更新された物体ラベル情報1010は、物体ラベル情報記憶部308に記憶される。ステップS904、ステップS905、ステップS906、ステップS907の処理は、図3の例で示される物体ラベル情報更新部307が実行することができる。
類似度が高いということは、対応付け情報に含まれる追尾ラベルの組と物体ラベル情報に含まれる物体ラベルの組とが対応付く尤もらしさ(尤度)が高いことを意味する。言い換えると、尤度の高い追尾ラベルの組と物体ラベルとの対応関係(対)を、物体ラベル情報1010から探索し、その尤度の高い対応関係をラベル置換辞書800に記憶させていることになる。
なお、図4のステップS407で求められる複数カメラ間での物体の対応付けは、誤っている可能性があり、その結果、ステップS408で更新される物体ラベル情報1010には誤った情報が含まれている可能性がある。このため、本実施形態においては、より尤度の高いものを選択することによって、このように誤った対応付け情報を排除または低減することができる。
図4に戻り、図4のステップS411におけるモニタリング装置103での画像表示処理の詳細を説明する。ステップS411においては、モニタリング装置103は各物体追尾装置101から、追尾ラベルを物体ラベルに置き換えた追尾結果を受信する。モニタリング装置103は、受信された追尾結果の表示を実行するとともに、さらに、イベント検出のモニタリング処理を行うことができる。
このような表示を実現するため、モニタリング装置103は、物体の3次元位置とその物体ラベルとを、ラベル割り当て装置102から取得する。
モニタリング装置103は、表示画面1110中の各カメラ画像1101a、1101b、1101c、1101d中に、人体領域を示すシンボル1105a、1105bを表示する。そして、3次元マップ1104中の人体の3次元位置や大きさを示すシンボル1103a、1103bと対応させて表示することができる。
なお、本実施形態では、図6等で説明したように、多視点幾何を利用した三角測量の手法で物体の3次元位置を推定する例を示した。
一例として、本実施形態では、所定の監視カメラ、例えば、第1カメラと、第2カメラと、に映る監視領域に事前に定めた時間以上存在する人物を検出する。
具体的には、モニタリング装置103は、各カメラ映像の画像フレームごとに追尾結果とこれに付随する物体ラベルとを例えばRAM205等の記憶領域に記憶しておく。
本実施形態によれば、異なるカメラ間あるいは異なる時刻の間に現れる同一物体に同一のラベルを付与することができる。すなわち、本実施形態によれば、異なるカメラが撮像したカメラ映像の間に表れる物体、又は、同一のカメラが撮像したカメラ映像中の異なる時刻の画像フレーム間に現れる物体、が同一であるか否かを、物体ラベルを用いてより正確に判別することができる。
なお、本実施形態では、各カメラの追尾ラベルと物体ラベルとを対応付けるための情報を記憶するための構成として、物体ラベル情報記憶部308を備えている。この物体ラベル情報記憶部308が、これらの情報を保持することによって、あるカメラ映像で、検出対象である物体の追尾が中断しても、他のカメラ映像において、当該物体の追尾が継続していれば、同一の物体ラベルの付与を続行することができる。
従って、例えば広域を多数のカメラで監視して、移動体等の物体を検出して追尾する場合であっても、精度の高い物体追尾が実現できる。
本実施形態に係る画像処理システム1000は、図1のように、物体追尾装置101、ラベル割り当て装置102、モニタリング装置103により構成される例を説明したが、図1の構成に限定されず、ある装置が他の装置の機能を兼備していてもよい。例えば、物体追尾装置101が、ラベル割り当て装置102の機能を兼備することで、ラベル割り当て装置102を省略する構成になっていてもよい。
また、モニタリング装置103が、ラベル割り当て装置102の機能を兼備することで、ラベル割り当て装置102を省略する構成になっていてもよい。さらに、物体追尾装置101がラベル割り当て装置102やモニタリング装置103の機能を兼備していてもよいし、複数の物体追尾装置101a、101b、・・・、101nの機能を1つの物体追尾装置101にまとめてもよい。複数の装置の機能を1つの装置に兼備させることで、装置の数が減少し、装置の構成が簡単になる。
図12は、図1に例として示された第1物体追尾装置101a〜第N物体追尾装置101nの少なくともいずれか1つがラベル割り当て装置102の機能を兼備している構成を採用する画像処理システム2000のシステム構成の例を示す。
また、本実施形態では、図1に示すように、ラベル割り当て装置102とモニタリング装置103との間に通信リンクが存在する例を示したが、この通信リンクは存在しなくてよい。
本実施形態では、図3(システム構成は図1)に示したように、物体追尾装置101と、モニタリング装置103との間に通信リンクが存在する例を示したが、この通信リンクは存在しなくてもよい。
図14は、物体追尾装置1401と、モニタリング装置1403との間に通信リンクが存在しない構成を採用した画像処理システム4000の機能構成の例を示す。図15は、図14に例として示す画像処理システム4000のシステム構成の例を示す。
このような構成を採用する場合は、図14に示すように、ラベル置換部1406やラベル置換辞書記憶部1405を、ラベル割り当て装置1402に備える構成にしてもよい。図15に示される物体追尾装置1501a、1501b、1501nの追尾結果は、ラベル割り当て装置1502を介して、モニタリング装置1503に対して送出されればよい。
図16は、モニタリング装置1603が、ラベル置換部1606と、ラベル置換辞書記憶部1605とを備えている画像処理システム5000の機能構成を示す図である。このような構成を採用する場合は、物体の追尾ラベルが物体追尾装置1601からモニタリング装置1603に送信される。また、ラベル置換辞書がラベル割り当て装置1602からモニタリング装置1603に送信される。
以上、種々の構成の画像処理装置を説明したが、本実施形態の装置構成、ネットワーク構成、機能構成は任意であって、適宜変更組み合わせて採用されてよい。
コンピュータ220中のCPU203が、ROM204や外部メモリ(ハードディスク等)208から読み出したプログラムコードを実行することにより、上記実施形態の画像処理装置の各機能が実現されるようにしてもよい。更に、そのプログラムコードの指示に基づき、コンピュータ220上で稼働するオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も、本発明の範囲に含まれる。
本発明は、上述した1つ乃至複数のうちのいくつかの効果を有する。
Claims (24)
- 複数の撮像手段により撮像された複数の映像に関して、当該複数の映像のそれぞれから検出された追尾すべき物体について、前記映像の画像フレーム中の前記物体の位置と前記物体を識別する追尾ラベルとを含む追尾結果を取得する取得手段と、
前記取得手段により取得された複数の追尾結果に基づいて、前記複数の映像の間で、画像フレーム中に検出された物体を対応付ける対応付け手段と、
前記対応付け手段による対応付け結果に基づいて、前記複数の映像の間で同一の物体であると推定される物体を一意に識別する物体ラベルを生成する物体ラベル生成手段と、
前記物体ラベルに基づいて、前記取得手段により取得された複数の追尾結果を統合して、前記物体の3次元空間における位置を算出する算出手段と、
を備えることを特徴とする画像処理装置。 - 前記対応付け手段により対応付けられた物体のそれぞれに対する前記追尾ラベルの組と、前記物体ラベルとの対応付けの候補を物体ラベル情報として記憶する記憶手段と、
前記記憶手段に記憶される前記物体ラベル情報から、少なくとも1つの追尾ラベルと前記物体ラベルとの対を含むラベル変換辞書を生成する辞書生成手段と、をさらに備える
ことを特徴とする請求項1に記載の画像処理装置。 - 前記辞書生成手段は、前記物体ラベル情報から、前記追尾ラベルと前記物体ラベルとが対応付けられる尤度が高い候補を選択することで、前記ラベル変換辞書を生成する、ことを特徴とする請求項2に記載の画像処理装置。
- 前記辞書生成手段は、前記物体ラベル情報と、前記追尾ラベルの組との間の類似度を算出することで、前記ラベル変換辞書を生成する、ことを特徴とする請求項2または3に記載の画像処理装置。
- 前記類似度は、前記物体ラベル情報の中の追尾ラベルが前記追尾ラベルの組の中の追尾ラベルと一致する個数である、ことを特徴とする請求項4に記載の画像処理装置。
- 前記辞書生成手段は、前記第1の生成手段により生成された前記追尾ラベルの組の中で、画像フレーム中に前記物体が検出されない旨を示す追尾ラベルを、前記類似度の算出から除外する、ことを特徴とする請求項4または5に記載の画像処理装置。
- 前記辞書生成手段により生成された前記ラベル変換辞書を出力して、ネットワークを介して接続される他の装置に、前記ラベル変換辞書に基づいて、前記追尾ラベルを前記物体ラベルに置換えさせる出力手段、をさらに備える
ことを特徴とする請求項2から5のいずれか1項に記載の画像処理装置。 - 前記対応付け手段により対応付けられた前記追尾ラベルの組により、前記記憶手段に記憶される前記物体ラベル情報を更新する更新手段、をさらに備える
ことを特徴とする請求項2から6のいずれか1項に記載の画像処理装置。 - 前記更新手段は、前記物体ラベル情報を画像フレームごとに更新する、ことを特徴とする請求項8に記載の画像処理装置。
- 前記更新手段は、前記物体ラベル情報と、前記追尾ラベルの組との間の類似度を算出し、算出された前記類似度のより高い候補を前記物体ラベル情報から選択し、選択された候補に含まれる追尾ラベルを、前記追尾ラベルの組で更新する、ことを特徴とする請求項9に記載の画像処理装置。
- 前記類似度は、前記物体ラベル情報の中の追尾ラベルが前記追尾ラベルの組の中の追尾ラベルと一致する個数である、ことを特徴とする請求項10に記載の画像処理装置。
- 前記更新手段は、前記第1の生成手段により生成された前記追尾ラベルの組の中で、画像フレーム中に前記物体が検出されない旨を示す追尾ラベルを、前記類似度の算出から除外する、ことを特徴とする請求項10または11に記載の画像処理装置。
- 前記第1の生成手段は、前記複数の撮像手段のそれぞれの位置および姿勢、並びに前記複数の映像の画像フレーム中の前記物体の位置を用いて、前記複数の追尾結果から、前記物体の前記追尾ラベルの組を生成する、ことを特徴とする請求項1から12のいずれか1項に記載の画像処理装置。
- 映像を撮像する撮像手段と、
撮像された前記映像を他の装置にネットワークを介して通信する通信手段と、をさらに備えることを特徴とする請求項1から13のいずれか1項に記載の画像処理装置。 - 前記対応付け手段は、より多くの撮像手段により検出された物体の追尾結果を優先して、当該物体を対応付ける、ことを特徴とする請求項1から14のいずれか1項に記載の画像処理装置。
- 前記対応付け手段は、前記画像フレーム中の前記物体の領域の代表点をエピポーラ幾何によるステレオ視を用いて対応付けることで、複数の物体を対応付ける、ことを特徴とする請求項1から15のいずれか1項に記載の画像処理装置。
- 撮像手段により撮像された映像から検出された追尾すべき物体の、前記映像の画像フレーム中の位置を算出すると共に、前記物体を識別する追尾ラベルを前記物体に付与して、前記物体の前記位置および前記追尾ラベルを含む追尾結果を生成する生成手段と、
前記生成手段により前記物体に付与された前記追尾ラベルと、複数の撮像手段によりそれぞれ撮像される複数の映像の間で同一の物体であると推定される物体を一意に識別する物体ラベルとの対を含むラベル変換辞書を入力する入力手段と、
前記入力手段に入力された前記ラベル変換辞書に基づいて、前記物体に付与された前記追尾ラベルを、前記他の物体ラベルで置き換える置換手段と、
前記置換手段により置き換えられた前記物体ラベルを用いて、前記映像中の連続する画像フレームにわたり前記物体を追尾する追尾手段と、
前記追尾ラベルが前記物体ラベルで置き換えられた追尾結果を、ネットワークを介して接続される他の装置へ送信する送信手段と、
を備えることを特徴とする画像処理装置。 - 映像を撮像する撮像手段と、
撮像された前記映像を他の装置にネットワークを介して通信する通信手段と、をさらに備えることを特徴とする請求項17に記載の画像処理装置。 - 複数の撮像手段により撮像された複数の映像とともに、複数の映像から検出された追尾すべき物体について、該物体の前記映像の画像フレーム中の前記物体の位置と、前記複数の映像の間で前記物体を一意に識別する物体ラベルとを含む追尾結果を取得する取得手段と、
前記物体ラベルに基づいて、前記取得手段により取得された複数の追尾結果を統合して算出された前記物体の3次元空間における位置を入力する入力手段と、
表示装置に、前記複数の映像の画像と、前記3次元空間の3次元マップとを表示させる際に、同一の前記物体ラベルが付与された物体について、前記画像と前記3次元マップとの間で、前記物体の画像内の領域に同一の物体であることを示すシンボルを表示させる表示制御手段と、を備える
ことを特徴とする画像処理装置。 - ラベル処理装置と、物体追尾装置と、画像表示装置とをネットワークを介して接続して構成される画像処理システムであって、
前記ラベル処理装置は、
複数の撮像手段により撮像された複数の映像に関して、当該複数の映像から検出された追尾すべき物体について、該物体の前記映像の画像フレーム中の前記物体の位置と前記物体を識別する追尾ラベルとを含む追尾結果を取得する取得手段と、
前記取得手段により取得された複数の追尾結果に基づいて、前記複数の映像の間で、画像フレーム中に検出された物体を対応付ける対応付け手段と、
前記対応付け手段による対応付け結果に基づいて、前記複数の映像の間で同一の物体であると推定される物体を一意に識別する物体ラベルを生成する物体ラベル生成手段と、
前記対応付け手段により対応付けられた物体のそれぞれに対する前記追尾ラベルの組と、前記物体ラベルとの対応付けの候補を物体ラベル情報として記憶する記憶手段と、
前記記憶手段に記憶される前記物体ラベル情報から、少なくとも1つの追尾ラベルと前記物体ラベルとの対を含むラベル変換辞書を生成する辞書生成手段と、
前記物体ラベルに基づいて、前記取得手段により取得された複数の追尾結果を統合して、前記物体の3次元空間における位置を算出する算出手段と、
前記ラベル変換辞書を前記物体追尾装置に送信する送信手段と、を備え、
前記物体追尾装置は、
前記追尾結果を生成する追尾結果生成手段と、
前記ラベル変換辞書を入力する入力手段と、
前記入力手段に入力された前記ラベル変換辞書に基づいて、前記物体に付与された前記追尾ラベルを、前記物体ラベルで置き換える置換手段と、
前記置換手段により置き換えられた前記物体ラベルを用いて、前記映像中の連続するフレームにわたり前記物体を追尾する追尾手段と、
前記追尾ラベルが前記物体ラベルで置き換えられた追尾結果を、ネットワークを介して接続される他の装置へ送信する送信手段と、を備え、
前記画像表示装置は、
前記送信手段により送信される追尾結果を、複数の撮像手段によりそれぞれ撮像された複数の映像とともにそれぞれ取得する取得手段と、
前記物体の前記3次元空間における位置を入力する入力手段と、
表示装置に、前記複数の映像の画像と、前記3次元空間の3次元マップとを表示させる際に、同一の前記物体ラベルが付与された物体について、前記画像と前記3次元マップとの間で、前記物体の画像内の領域に同一の物体であることを示すシンボルを表示させる表示制御手段と、を備える
ことを特徴とする画像処理システム。 - 複数の撮像手段により撮像された複数の映像に関して、当該複数の映像のそれぞれから検出された追尾すべき物体について、前記映像の画像フレーム中の前記物体の座標と前記物体を識別する追尾ラベルとを含む追尾結果を取得するステップと、
取得された複数の追尾結果に基づいて、前記複数の映像の間で、画像フレーム中に検出された物体を対応付けるステップと、
対応付け結果に基づいて、前記複数の映像の間で同一の物体であると推定される物体を一意に識別する物体ラベルを生成するステップと、
生成された前記物体ラベルに基づいて、取得された複数の追尾結果を統合して、前記物体の3次元空間における位置を算出するステップと、
を含むことを特徴とする画像処理方法。 - 撮像手段により撮像された映像から検出された追尾すべき物体の、前記映像の画像フレーム中の位置を算出すると共に、前記物体を識別する追尾ラベルを前記物体に付与して、前記物体の前記位置および前記追尾ラベルを含む追尾結果を生成するステップと、
前記物体に付与された前記追尾ラベルと、複数の撮像手段によりそれぞれ撮像される複数の映像の間で同一の物体であると推定される物体を一意に識別する物体ラベルとの対を含むラベル変換辞書を入力するステップと、
入力された前記ラベル変換辞書に基づいて、前記物体に付与された前記追尾ラベルを、前記他の物体ラベルで置き換えるステップと、
置き換えられた前記物体ラベルを用いて、前記映像中の連続するフレームにわたり前記物体を追尾するステップと、
前記追尾ラベルが前記物体ラベルで置き換えられた追尾結果を、ネットワークを介して接続される他の装置へ送信するステップと、
を含むことを特徴とする画像処理方法。 - 複数の撮像手段により撮像された複数の映像とともに、複数の映像から検出された追尾すべき物体について、該物体の前記映像の画像フレーム中の前記物体の位置と、前記複数の映像の間で前記物体を一意に識別する物体ラベルとを含む追尾結果を取得するステップと、
前記物体ラベルに基づいて、取得された複数の前記追尾結果を統合して算出された前記物体の3次元空間における位置を入力するステップと、
表示装置に、前記複数の映像の画像と、前記3次元空間の3次元マップとを表示させる際に、同一の前記物体ラベルが付与された物体について、前記画像と前記3次元マップとの間で、前記物体の画像内の領域に同一の物体であることを示すシンボルを表示させるステップと、を含む
ことを特徴とする画像処理方法。 - コンピュータが読み込み実行することで、前記コンピュータを請求項1から19のいずれか1項に記載の画像処理装置の各手段として機能させるコンピュータプログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015052701A JP6573361B2 (ja) | 2015-03-16 | 2015-03-16 | 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム |
EP16764475.6A EP3272117A4 (en) | 2015-03-16 | 2016-03-14 | Image processing apparatus, image processing system, method for image processing, and computer program |
PCT/JP2016/001416 WO2016147644A1 (en) | 2015-03-16 | 2016-03-14 | Image processing apparatus, image processing system, method for image processing, and computer program |
CN201680016280.2A CN107431786B (zh) | 2015-03-16 | 2016-03-14 | 图像处理设备、图像处理系统和图像处理方法 |
US15/559,003 US10572736B2 (en) | 2015-03-16 | 2016-03-14 | Image processing apparatus, image processing system, method for image processing, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015052701A JP6573361B2 (ja) | 2015-03-16 | 2015-03-16 | 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016174252A true JP2016174252A (ja) | 2016-09-29 |
JP6573361B2 JP6573361B2 (ja) | 2019-09-11 |
Family
ID=56919538
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015052701A Active JP6573361B2 (ja) | 2015-03-16 | 2015-03-16 | 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US10572736B2 (ja) |
EP (1) | EP3272117A4 (ja) |
JP (1) | JP6573361B2 (ja) |
CN (1) | CN107431786B (ja) |
WO (1) | WO2016147644A1 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018129736A (ja) * | 2017-02-10 | 2018-08-16 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2018159144A1 (ja) * | 2017-03-01 | 2018-09-07 | パナソニックIpマネジメント株式会社 | 3次元侵入検知システムおよび3次元侵入検知方法 |
JP2018173976A (ja) * | 2018-06-20 | 2018-11-08 | パナソニックIpマネジメント株式会社 | 3次元侵入検知システムおよび3次元侵入検知方法 |
WO2019017046A1 (ja) * | 2017-07-21 | 2019-01-24 | ソニー株式会社 | 情報処理装置、および情報処理方法 |
JP2019083579A (ja) * | 2019-02-14 | 2019-05-30 | キヤノン株式会社 | 情報処理装置、撮像装置、情報処理方法、およびプログラム |
JP2019087824A (ja) * | 2017-11-02 | 2019-06-06 | 日本信号株式会社 | 監視システム |
KR20200094075A (ko) * | 2019-01-29 | 2020-08-06 | 주식회사 스트라드비젼 | 다수의 차량을 통한 센서 퓨전, v2x 통신 가능한 애플리케이션을 이용한 협업 주행을 위해 주변에 위치하는 카메라 각각에 대응되는 각각의 객체 검출기에 의해 검출되는 객체 검출 정보를 통합하는 방법 및 장치 |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3086284A1 (en) * | 2015-04-23 | 2016-10-26 | Application Solutions (Electronics and Vision) Limited | Camera extrinsic parameters estimation from image lines |
WO2017037754A1 (en) * | 2015-08-28 | 2017-03-09 | Nec Corporation | Analysis apparatus, analysis method, and storage medium |
JP6622150B2 (ja) * | 2016-06-29 | 2019-12-18 | 株式会社東芝 | 情報処理装置および情報処理方法 |
US11249304B2 (en) * | 2016-12-02 | 2022-02-15 | Disney Enterprises, Inc. | Augmented reality camera frustum |
WO2018157092A1 (en) * | 2017-02-27 | 2018-08-30 | Ring Inc. | Identification of suspicious persons using audio/video recording and communication devices |
EP3506213A1 (en) * | 2017-12-28 | 2019-07-03 | Nokia Technologies Oy | An apparatus and associated methods for presentation of augmented reality content |
KR101930796B1 (ko) * | 2018-06-20 | 2018-12-19 | 주식회사 큐픽스 | 이미지를 이용한 3차원 좌표 계산 장치, 3차원 좌표 계산 방법, 3차원 거리 측정 장치 및 3차원 거리 측정 방법 |
CN108921098B (zh) * | 2018-07-03 | 2020-08-18 | 百度在线网络技术(北京)有限公司 | 人体运动分析方法、装置、设备及存储介质 |
CN109163707B (zh) * | 2018-09-06 | 2019-11-26 | 百度在线网络技术(北京)有限公司 | 障碍物感知方法、系统、计算机设备、计算机存储介质 |
US10848539B2 (en) * | 2018-09-20 | 2020-11-24 | Cisco Technology, Inc. | Genlock mechanism for software pacing of media constant bit rate streams |
CN109345748B (zh) * | 2018-10-31 | 2021-03-26 | 北京锐安科技有限公司 | 用户设备关联方法、装置、服务端、检测设备及介质 |
WO2020145882A1 (en) * | 2019-01-09 | 2020-07-16 | Hitachi, Ltd. | Object tracking systems and methods for tracking a target object |
US10891753B2 (en) * | 2019-02-28 | 2021-01-12 | Motorola Solutions, Inc. | Device, system and method for notifying a person-of-interest of their location within an estimated field-of-view of a camera |
CN110322475B (zh) * | 2019-05-23 | 2022-11-11 | 北京中科晶上科技股份有限公司 | 一种视频的稀疏检测方法 |
CN110266999A (zh) * | 2019-06-05 | 2019-09-20 | 长沙年余信息科技有限公司 | 一种园区场地安全监管的系统及其方法 |
CN110503007B (zh) * | 2019-07-31 | 2023-04-07 | 成都甄识科技有限公司 | 一种基于热成像仪的活体动物监测方法、设备及系统 |
CN111753613B (zh) * | 2019-09-18 | 2023-10-10 | 杭州海康威视数字技术股份有限公司 | 基于实验操作的图像分析方法、装置、设备及存储介质 |
CN111444854B (zh) * | 2020-03-27 | 2021-03-02 | 科大讯飞(苏州)科技有限公司 | 异常事件检测方法、相关设备及可读存储介质 |
CN112200838B (zh) * | 2020-10-10 | 2023-01-24 | 中国科学院长春光学精密机械与物理研究所 | 一种弹丸轨迹跟踪方法、装置、设备及存储介质 |
CN112560621A (zh) * | 2020-12-08 | 2021-03-26 | 北京大学 | 基于动物图像的识别方法、装置、终端及介质 |
US20230230379A1 (en) * | 2022-01-19 | 2023-07-20 | Target Brands, Inc. | Safety compliance system and method |
CN114663648A (zh) * | 2022-03-11 | 2022-06-24 | 深圳市商汤科技有限公司 | 结构化目标检测方法、装置、设备及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0749952A (ja) * | 1993-08-06 | 1995-02-21 | Hitachi Ltd | 移動物体監視装置 |
JP2006146378A (ja) * | 2004-11-17 | 2006-06-08 | Hitachi Ltd | 複数カメラを用いた監視システム |
JP2006245795A (ja) * | 2005-03-01 | 2006-09-14 | Toa Corp | 動体追跡装置及び動体追跡表示装置 |
JP2010068466A (ja) * | 2008-09-12 | 2010-03-25 | Toshiba Corp | 移動体追跡装置及び移動体追跡方法 |
US20130136298A1 (en) * | 2011-11-29 | 2013-05-30 | General Electric Company | System and method for tracking and recognizing people |
JP2013206140A (ja) * | 2012-03-28 | 2013-10-07 | Secom Co Ltd | 移動物体追跡装置 |
JP2013242728A (ja) * | 2012-05-21 | 2013-12-05 | Secom Co Ltd | 画像監視装置 |
WO2014050432A1 (ja) * | 2012-09-27 | 2014-04-03 | 日本電気株式会社 | 情報処理システム、情報処理方法及びプログラム |
WO2014162554A1 (ja) * | 2013-04-04 | 2014-10-09 | 株式会社Amatel | 画像処理システムおよび画像処理用プログラム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06119564A (ja) | 1992-10-02 | 1994-04-28 | Toshiba Corp | 不審者検知システム |
US6950123B2 (en) * | 2002-03-22 | 2005-09-27 | Intel Corporation | Method for simultaneous visual tracking of multiple bodies in a closed structured environment |
EP1596334A1 (en) * | 2004-05-13 | 2005-11-16 | Technologiestichting STW | A hybrid graphical model for on-line multicamera tracking |
EP1872307A4 (en) | 2005-03-29 | 2012-10-03 | Stoplift Inc | METHOD AND APPARATUS FOR DETECTING SUSPICENT ACTIVITY USING VIDEO ANALYSIS |
US7576639B2 (en) * | 2006-03-14 | 2009-08-18 | Mobileye Technologies, Ltd. | Systems and methods for detecting pedestrians in the vicinity of a powered industrial vehicle |
JP2010063001A (ja) | 2008-09-05 | 2010-03-18 | Mitsubishi Electric Corp | 人物追跡装置および人物追跡プログラム |
US8320617B2 (en) * | 2009-03-27 | 2012-11-27 | Utc Fire & Security Americas Corporation, Inc. | System, method and program product for camera-based discovery of social networks |
IL200065A (en) * | 2009-07-26 | 2013-11-28 | Verint Systems Ltd | Location and contract based identification systems and methods |
GB2515926B (en) * | 2010-07-19 | 2015-02-11 | Ipsotek Ltd | Apparatus, system and method |
CN104718749A (zh) * | 2012-07-31 | 2015-06-17 | 日本电气株式会社 | 图像处理系统、图像处理方法及程序 |
JP6141079B2 (ja) | 2013-04-08 | 2017-06-07 | キヤノン株式会社 | 画像処理システム、画像処理装置、それらの制御方法、及びプログラム |
-
2015
- 2015-03-16 JP JP2015052701A patent/JP6573361B2/ja active Active
-
2016
- 2016-03-14 WO PCT/JP2016/001416 patent/WO2016147644A1/en active Application Filing
- 2016-03-14 US US15/559,003 patent/US10572736B2/en active Active
- 2016-03-14 CN CN201680016280.2A patent/CN107431786B/zh active Active
- 2016-03-14 EP EP16764475.6A patent/EP3272117A4/en not_active Withdrawn
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0749952A (ja) * | 1993-08-06 | 1995-02-21 | Hitachi Ltd | 移動物体監視装置 |
JP2006146378A (ja) * | 2004-11-17 | 2006-06-08 | Hitachi Ltd | 複数カメラを用いた監視システム |
JP2006245795A (ja) * | 2005-03-01 | 2006-09-14 | Toa Corp | 動体追跡装置及び動体追跡表示装置 |
JP2010068466A (ja) * | 2008-09-12 | 2010-03-25 | Toshiba Corp | 移動体追跡装置及び移動体追跡方法 |
US20130136298A1 (en) * | 2011-11-29 | 2013-05-30 | General Electric Company | System and method for tracking and recognizing people |
JP2013206140A (ja) * | 2012-03-28 | 2013-10-07 | Secom Co Ltd | 移動物体追跡装置 |
JP2013242728A (ja) * | 2012-05-21 | 2013-12-05 | Secom Co Ltd | 画像監視装置 |
WO2014050432A1 (ja) * | 2012-09-27 | 2014-04-03 | 日本電気株式会社 | 情報処理システム、情報処理方法及びプログラム |
WO2014162554A1 (ja) * | 2013-04-04 | 2014-10-09 | 株式会社Amatel | 画像処理システムおよび画像処理用プログラム |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018129736A (ja) * | 2017-02-10 | 2018-08-16 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2018159144A1 (ja) * | 2017-03-01 | 2018-09-07 | パナソニックIpマネジメント株式会社 | 3次元侵入検知システムおよび3次元侵入検知方法 |
JP2018147015A (ja) * | 2017-03-01 | 2018-09-20 | パナソニックIpマネジメント株式会社 | 3次元侵入検知システムおよび3次元侵入検知方法 |
GB2572933B (en) * | 2017-03-01 | 2022-05-18 | Panasonic Ip Man Co Ltd | Three-dimensional intrusion detection system and three-dimensional intrusion detection method |
GB2572933A (en) * | 2017-03-01 | 2019-10-16 | Panasonic Ip Man Co Ltd | Three-dimensional intrusion detection system and three-dimensional intrusion detection method |
JPWO2019017046A1 (ja) * | 2017-07-21 | 2020-05-28 | ソニー株式会社 | 情報処理装置、および情報処理方法 |
WO2019017046A1 (ja) * | 2017-07-21 | 2019-01-24 | ソニー株式会社 | 情報処理装置、および情報処理方法 |
US11132553B2 (en) | 2017-07-21 | 2021-09-28 | Sony Corporation | Information processing apparatus and information processing method |
CN110800313A (zh) * | 2017-07-21 | 2020-02-14 | 索尼公司 | 信息处理设备和信息处理方法 |
JP2019087824A (ja) * | 2017-11-02 | 2019-06-06 | 日本信号株式会社 | 監視システム |
JP7149063B2 (ja) | 2017-11-02 | 2022-10-06 | 日本信号株式会社 | 監視システム |
JP2018173976A (ja) * | 2018-06-20 | 2018-11-08 | パナソニックIpマネジメント株式会社 | 3次元侵入検知システムおよび3次元侵入検知方法 |
KR20200094075A (ko) * | 2019-01-29 | 2020-08-06 | 주식회사 스트라드비젼 | 다수의 차량을 통한 센서 퓨전, v2x 통신 가능한 애플리케이션을 이용한 협업 주행을 위해 주변에 위치하는 카메라 각각에 대응되는 각각의 객체 검출기에 의해 검출되는 객체 검출 정보를 통합하는 방법 및 장치 |
KR102229220B1 (ko) | 2019-01-29 | 2021-03-18 | 주식회사 스트라드비젼 | 다수의 차량을 통한 센서 퓨전, v2x 통신 가능한 애플리케이션을 이용한 협업 주행을 위해 주변에 위치하는 카메라 각각에 대응되는 각각의 객체 검출기에 의해 검출되는 객체 검출 정보를 통합하는 방법 및 장치 |
JP2019083579A (ja) * | 2019-02-14 | 2019-05-30 | キヤノン株式会社 | 情報処理装置、撮像装置、情報処理方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20180101732A1 (en) | 2018-04-12 |
CN107431786A (zh) | 2017-12-01 |
EP3272117A4 (en) | 2018-12-12 |
EP3272117A1 (en) | 2018-01-24 |
US10572736B2 (en) | 2020-02-25 |
CN107431786B (zh) | 2020-08-04 |
JP6573361B2 (ja) | 2019-09-11 |
WO2016147644A1 (en) | 2016-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6573361B2 (ja) | 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム | |
JP6355052B2 (ja) | 撮像装置、画像処理装置、撮像方法および記録媒体 | |
Kale et al. | Moving object tracking using optical flow and motion vector estimation | |
JP6700752B2 (ja) | 位置検出装置、位置検出方法及びプログラム | |
JP7282851B2 (ja) | 装置、方法及びプログラム | |
US9477891B2 (en) | Surveillance system and method based on accumulated feature of object | |
US10445887B2 (en) | Tracking processing device and tracking processing system provided with same, and tracking processing method | |
JP2023015989A (ja) | 物品識別および追跡システム | |
JP5554726B2 (ja) | データ関連付けのための方法と装置 | |
KR102144394B1 (ko) | 영상 정합 장치 및 이를 이용한 영상 정합 방법 | |
JP2017194787A (ja) | 画像処理装置および領域追跡プログラム | |
CN113362441A (zh) | 三维重建方法、装置、计算机设备和存储介质 | |
JP2016085602A (ja) | センサ情報統合方法、及びその装置 | |
Bashar et al. | Multiple object tracking in recent times: A literature review | |
JP6659095B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP5712401B2 (ja) | 行動監視システム、行動監視プログラム、及び行動監視方法 | |
JP6154759B2 (ja) | カメラパラメータ推定装置、カメラパラメータ推定方法及びカメラパラメータ推定プログラム | |
Gruenwedel et al. | Decentralized tracking of humans using a camera network | |
JP5441737B2 (ja) | 画像処理装置、画像処理方法及び画像処理用プログラム | |
Sheikh et al. | Object tracking across multiple independently moving airborne cameras | |
CN114882073A (zh) | 目标跟踪方法和装置,介质和计算机设备 | |
JP6606340B2 (ja) | 画像検出装置、画像検出方法およびプログラム | |
JP2018190132A (ja) | 画像認識用コンピュータプログラム、画像認識装置及び画像認識方法 | |
WO2020022362A1 (ja) | 動き検出装置、特性検出装置、流体検出装置、動き検出システム、動き検出方法、プログラム、および、記録媒体 | |
Shal’nov et al. | Estimation of the people position in the world coordinate system for video surveillance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180314 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190312 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190510 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190716 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190809 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6573361 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |