JP2016174252A - 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム - Google Patents

画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム Download PDF

Info

Publication number
JP2016174252A
JP2016174252A JP2015052701A JP2015052701A JP2016174252A JP 2016174252 A JP2016174252 A JP 2016174252A JP 2015052701 A JP2015052701 A JP 2015052701A JP 2015052701 A JP2015052701 A JP 2015052701A JP 2016174252 A JP2016174252 A JP 2016174252A
Authority
JP
Japan
Prior art keywords
label
tracking
image
image processing
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015052701A
Other languages
English (en)
Other versions
JP6573361B2 (ja
Inventor
内山 寛之
Hiroyuki Uchiyama
寛之 内山
一郎 梅田
Ichiro Umeda
一郎 梅田
睦凌 郭
Muling Guo
睦凌 郭
矢野 光太郎
Kotaro Yano
光太郎 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015052701A priority Critical patent/JP6573361B2/ja
Priority to EP16764475.6A priority patent/EP3272117A4/en
Priority to PCT/JP2016/001416 priority patent/WO2016147644A1/en
Priority to CN201680016280.2A priority patent/CN107431786B/zh
Priority to US15/559,003 priority patent/US10572736B2/en
Publication of JP2016174252A publication Critical patent/JP2016174252A/ja
Application granted granted Critical
Publication of JP6573361B2 publication Critical patent/JP6573361B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】複数のカメラを用いて各カメラ画像に対して物体追尾を行う画像処理装置において、各カメラ画像の物体が同一か否かをより正確に識別することを目的とする。
【解決手段】画像処理装置は、複数の撮像手段が撮像する複数の映像について、当該複数の映像のそれぞれから検出された追尾すべき物体について、映像の画像フレーム中の物体の位置と物体を識別する追尾ラベルとを含む追尾結果を取得する取得手段と、取得された複数の追尾結果に基づいて、複数の映像の間で、画像フレーム中に検出された物体を対応付ける対応付け手段311と、当該対応付け結果に基づいて、複数の映像の間で同一の物体であると推定される物体を一意に識別する物体ラベルを生成する物体ラベル生成手段307と、物体ラベルに基づいて、複数の追尾結果を統合して、物体の3次元空間における位置を算出する算出手段311と、を備える。
【選択図】図3

Description

本発明は画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラムに関し、特に、撮像された物体を撮像映像内で検出および追尾する技術に関する。
例えばカメラ等の撮像手段により所定領域を監視する監視カメラシステムが公知である。例えば特許文献1は、視野が重複する複数のカメラを用いて物体を撮像することで、複数のカメラの視野間で撮像された物体を追尾する技術を開示する。
具体的には、特許文献1において、まず各カメラ映像に対して物体を検出して追尾する。そして、複数のカメラ映像からそれぞれ得られる各画像フレーム上の物体の2次元座標の移動軌跡を求め、これから物体の3次元座標を推定することで、複数のカメラの視野間で物体を追尾する。
一方、特許文献2は、監視カメラシステムにおいて、カメラ映像から異常なイベントを自動検出する技術を開示する。具体的には、特許文献2において、特定の場所における人物の滞留時間から、当該人物が不審人物であるか否かを判定し、不審人物を通知する通報を発する。
複数カメラが連携する画像処理について、非特許文献1は、所定の平面パターンをカメラに撮像させることによって、カメラのキャリブレーションを行う技術を開示する。非特許文献2は、複数のカメラを用いて3次元位置を推定するアルゴリズムであって、所定のモデル推定手法を用いて、動きに適応した3次元構造を求める手法を開示する。また、非特許文献3は、複数の人物を検出し追尾するアルゴリズムを開示する。特に、非特許文献3には、歩行者を検出する検出器の連続的な信頼度を利用することによって、複数の歩行者を検出、追尾する手法(アルゴリズム)が開示されている。
特開2010−063001号公報 特開平6−119564号公報
Zhengyou Zhang,"A Flexible New Technique for Camera Calibration",IEEE Transactions on Pattern Analysis and Machine Intelligence, 22(11):1330−1334, 2000 Pierre Moulon, Pascal Monasse, and Renaud Marlet,"Adaptivestructure from motion with acontrario model estimation",ACCV2012 M.D.Breitenstein et al.,"Robust tracking−by−detection using a detector confidence particle filter",ICCV2009
ところで、あるカメラにより撮像されたカメラ映像に複数の物体が映っており、これら複数の物体に対してそれぞれ物体追尾を行う場合を考える。この場合、当該カメラ映像に含まれる異なる時刻の各画像フレームに存在する物体が同一であるか否かを判別するために、それぞれの物体を識別する固有の符号が付与される。この符号を「追尾ラベル」と呼ぶ。
例えば、特許文献1では、複数のカメラ映像のうち、それぞれのカメラ映像に映っている物体に対して画像フレーム中での追尾を個別に行い追尾結果を得る。そして複数のカメラの複数の追尾結果をそれぞれ得た後、これら複数のカメラ映像の追尾結果を統合する。しかしながら、従来は、同一物体であっても、追尾ラベルが時刻によって異なることがあった。
図17(a)は、3台のカメラの雑像範囲と、その範囲中を移動していく人物の動きを示す。図17(a)中、T1〜T9は各時刻における人物の位置をそれぞれ示す。図17(b)は、図17(a)の各時刻T1〜T9におけるタイムチャートである。図17(b)は、第1カメラ、第2カメラ、第3カメラが視野内にある人物を撮像して追尾ラベルを付しているか、それとも当該人物が第1カメラ、第2カメラ、第3カメラの視野外にあるのかを示す。例えば移動体である追尾対象物体(図17(a)においては人物)が第1〜第3カメラの各カメラの視野に対して図17(a)のような経路を通過したものとする。この場合、図17(b)のタイムチャートに示されるように、第1カメラに着目すると、追尾対象物体が時刻T1で最初に第1カメラの視野内に入り、追尾ラベル1−1が付与される。次に、この追尾対象物体は時刻T4で第1カメラの視野外に退出するため、一旦追尾処理が中断する。その後、時刻T6で、追尾対象物体が再度第1カメラの視野内に入った際に再び追尾処理が開始され、同一の追尾対象物体にもかかわらず新たな追尾ラベル1−2が付与されてしまう。
特に、広域を監視対象領域として移動体である追尾対象物体を追尾する場合には、追尾対象物体が各カメラの視野から頻繁に出入するため、物体追尾処理の精度が損なわれていた。
上記のような従来の追尾結果を、例えば特許文献2に開示されるような異常なイベントの自動検出に応用しようとすると、同一人物であるにもかかわらず異なる人物として認識されてしまうおそれがあった。すなわち、特許文献2のように滞留時間からその人物が不審であるか否かを判定しようとする場合、図17(a)に示すように、第1カメラの視野から人物が時刻T4で一時的に退出または遮蔽(オクルージョン)により追尾不能になる。その後、時刻T6で再び第1カメラの視野内に侵入した場合には、同一カメラの映像であっても上記のように同一であるべき人物に異なる追尾ラベルが付与されることで、異なる人物として認識されてしまうため、当該人物の正しい滞留時間が測定できない。
また、そもそも従来は、各カメラ映像について独立に追尾ラベルを付与するため、同一物体であっても、異なるカメラ映像の物体は異なる追尾ラベルが付与されることで、異なる物体であると認識されてしまうという問題があった。例えば、図17(b)の例においては、同一の人物について、第1カメラのカメラ映像に関する物体追跡処理ではラベル1−1(時刻T1)が付与される。また、第2カメラのカメラ映像に関する物体追跡処理ではラベル2−1(時刻T2)が、第3カメラのカメラ映像に関する物体追跡処理ではラベル3−1(時刻T3)が、それぞれ付与される。その結果、同一の物体が別の物体として認識されてしまい、複数カメラが連携する物体追尾処理の精度が損なわれていた。
本発明は、上記課題に鑑みなされたものであり、複数のカメラが連携して行うカメラ映像中の物体追尾において、複数のカメラ映像間で追尾される物体が同一であるか否かをより正確に識別可能とすることを目的とする。
本発明の目的を達成するために、本発明のある態様に係る画像処理装置によれば、この画像処理装置は、複数の撮像手段により撮像された複数の映像に関して、当該複数の映像のそれぞれから検出された追尾すべき物体について、前記映像の画像フレーム中の前記物体の位置と前記物体を識別する追尾ラベルとを含む追尾結果を取得する取得手段と、前記取得手段により取得された複数の追尾結果に基づいて、前記複数の映像の間で、画像フレーム中に検出された物体を対応付ける対応付け手段と、前記対応付け手段による対応付け結果に基づいて、前記複数の映像の間で同一の物体であると推定される物体を一意に識別する物体ラベルを生成する物体ラベル生成手段と、前記物体ラベルに基づいて、前記取得手段により取得された複数の追尾結果を統合して、前記物体の3次元空間における位置を算出する算出手段と、を備える。
本発明の他の態様に係る画像処理装置によれば、この画像処理装置は、撮像手段により撮像された映像から検出された追尾すべき物体の、前記映像の画像フレーム中の位置を算出すると共に、前記物体を識別する追尾ラベルを前記物体に付与して、前記物体の前記位置および前記追尾ラベルを含む追尾結果を生成する生成手段と、前記生成手段により生成された前記追尾結果を、ネットワークを介して接続される他の装置へ送信する送信手段と、前記生成手段により前記物体に付与された前記追尾ラベルと、複数の撮像手段によりそれぞれ撮像される複数の映像の間で同一の物体であると推定される物体を一意に識別する物体ラベルとの対を含むラベル変換辞書を入力する入力手段と、前記入力手段に入力された前記ラベル変換辞書に基づいて、前記物体に付与された前記追尾ラベルを、前記他の物体ラベルで置き換える置換手段と、前記置換手段により置き換えられた前記物体ラベルを用いて、前記映像中の連続するフレームにわたり前記物体を追尾する追尾手段と、を備える。
また、本発明の他の態様に係る画像処理装置によれば、この画像処理装置は、複数の撮像手段により撮像された複数の映像とともに、複数の映像内で検出された追尾すべき物体について、該物体の前記映像の画像フレーム中の前記物体の位置と、前記複数の映像の間で前記物体を一意に識別する物体ラベルとを含む追尾結果を取得する取得手段と、前記物体ラベルに基づいて、前記取得手段により取得された複数の追尾結果を統合して算出された前記物体の3次元空間における位置を入力する入力手段と、表示装置に、前記複数の映像の画像と、前記3次元空間の3次元マップとを表示させる際に、同一の前記物体ラベルが付与された物体について、前記画像と前記3次元マップとの間で、前記物体の画像内領域に同一の物体であることを示すシンボルを表示させる表示制御手段と、を備える。
本発明によれば、複数のカメラが連携して行うカメラ映像中の物体追尾において、各複数のカメラ映像間で追尾される物体が同一であるか否かをより正確に識別することが可能になる。
本発明の一実施形態に係る画像処理システムのシステム構成の一例を示す図である。 本発明の一実施形態に係る画像処理装置を構成する装置のハードウェア構成例を示す図である。 本発明の一実施形態に係る画像処理システムにおける装置の機能構成を示す図である。 本発明の一実施形態に係る画像処理システムの処理の流れを示すフローチャートである。 異なるカメラ映像中の画像フレーム間における物体の対応付け処理の原理を説明する図である。 物体の3次元位置の推定原理の一例を説明する図である。 虚像の生じる例を説明する図である。 本発明の一実施形態におけるラベル置換辞書の構成の一例を説明する図である。 ラベル置換辞書の作成と物体ラベル情報更新の処理詳細の流れを示すフローチャートである。 本発明の一実施形態における物体ラベル情報の構成の一例を説明する図である。 本発明の一実施形態における追尾結果の表示のための表示画面の構成の一例を説明する図である。 本発明の他の実施形態に係る画像処理システムのシステム構成の一例を示す図である。 本発明の他の実施形態に係る画像処理システムのシステム構成の一例を示す図である。 本発明の他の実施形態に係る画像処理システムの詳細な機能構成の一例を示す図である。 本発明の他の実施形態に係る画像処理システムのシステム構成の一例を示す図である。 本発明の他の実施形態に係る画像処理システムの詳細な機能構成の一例を示す図である。 複数カメラによる物体の検出動作と追尾ラベルを説明する図である。
以下、添付図面を参照して、本発明の実施形態を詳細に説明する。
なお、以下に説明する実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
また、以下では、検出対象物体として人体を例に説明するが、本実施形態は、他のあらゆる検出対象物体に適用することができる。
また、以下に述べる本実施形態において、物体追尾によって生成される各物体の軌跡を物体ごとに区別するために、それぞれの物体の軌跡には追尾対象物体を識別するための符号がカメラごとに付与される。以降、この符号を「追尾ラベル」と呼ぶ。一方、本実施形態においては、カメラが異なる場合であっても、また時刻が異なる場合であっても不変な、物体固有の識別符号が物体に付与される。以降、この符号を「物体ラベル」と呼ぶ。
(画像処理システムの構成)
図1は、本実施形態の画像処理システム1000のシステム構成を示す。本実施形態に係る画像処理システム1000は、複数の物体追尾装置101a、101b、・・・、101n、ラベル割り当て装置(ラベル処理装置)102、モニタリング装置103で構成されている。図1において、n個(nは2以上の整数)の、第1物体追尾装置101a、第2物体追尾装置101b、・・・第N物体追尾装置101n、が示されている。複数の物体追尾装置101a、101b、・・・、101n、ラベル割り当て装置102、モニタリング装置103は、ネットワークやバス等の通信リンクで接続されている。なお、図1のシステム構成は一例であり、複数の物体追尾装置101a、101b、・・・、101n、ラベル割り当て装置102、モニタリング装置103は、一体として画像処理システム1000を構成してもよい。
図2は、複数の物体追尾装置101a、101b、・・・、101n、ラベル割り当て装置102、モニタリング装置103のそれぞれの装置220のハードウェア構成の一例を示す。図2の装置220は、バス210で相互に接続される、信号処理回路202、CPU203、ROM204、RAM205、ディスプレイ206、通信手段207、外部メモリ208、および入力部209を備えてよい。信号処理回路202に電気信号を入力する撮像素子201は、被写体像を光から電気信号に変換するための撮像手段である。CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等で構成してよい。信号処理回路202は、撮像素子201から得られる電気信号、例えば、被写体像に関する時系列信号、を処理し、デジタル信号に変換する信号処理回路である。
CPU203は、ROM204に格納されている制御プログラムを実行することにより、各装置、例えば複数の物体追尾装置101a、101b、・・・、101n、ラベル割り当て装置102、モニタリング装置103等、の全体の制御を行う。ROM(Read Only Memory)204は、CPU203が実行する制御プログラムや各種パラメータデータ等を格納する。この制御プログラムは、CPU203で実行されることにより、後述するフローチャートに示す各処理を実行するための各種手段として、各装置を機能させる。
RAM(Random Access Memory)205は、カメラにより撮像される、動画像等の映像、その他の画像や各種情報を記憶する。また、RAM205は、CPU203のワークエリアやデータの一時待避領域としても機能する。また、各装置は、ディスプレイ206を備えてよく、例えばモニタリング装置103は、このディスプレイ206に後述する監視画像(追尾画像)等表示する表示制御を行うことができる。
また、各装置はさらに、ハードディスクや光学ディスク等である外部メモリ208と、キーボードやマウス等により操作者の操作入力やその他のデータを入力する入力部209と、を備えてもよい。
なお、本実施形態においては、後述するフローチャートの各ステップに対応する処理を、CPU203を用いてソフトウェアで実現してよいが、これに替えて、その処理の一部または全部を電子回路などのハードウェアで実現するようにしてもよい。
また、本実施形態に係る各装置は、撮像素子201や信号処理回路202を省いて、汎用パーソナルコンピュータに実装されてもよいし、専用装置として実現するようにしてもよい。また、各装置は、ネットワークまたは各種記憶媒体を介して取得したソフトウェア(プログラム)をCPU203により実行してもよい。
また、本実施形態に係る画像処理システム1000の各コンポーネントは、様々な形態をとることができる。例えば、ビデオカメラや、スチルカメラ、パーソナルコンピュータ、スマートフォン、等の機能として実装することができる。また、ネットワークカメラ、WEBカメラ、USBカメラ、ウェアラブルカメラに組み込んで、これら各種機器を実現することもできる。例えば、ネットワークカメラとして機能させる場合は、ネットワークインターフェースを用いて所定のネットワークに接続するように構成してよい。ネットワークインターフェースは、図2に示されている通信手段207を用いてよい。
図3は、本実施形態の画像処理システム1000の詳細な機能構成を示す。画像処理システム1000は、図1と同様に、複数の物体追尾装置101(101a、101b、・・・、101n)、ラベル割り当て装置102、モニタリング装置103で構成される。この画像処理システム100は、動画像等の映像中の各画像フレーム中に映っている物体の検出及び追尾を行う物体検出装置としての機能を備えている。
物体追尾装置101(101a、101b、・・・、101n)は、追尾結果取得部304、ラベル置換辞書記憶部305、ラベル置換部306を備える。
追尾結果取得部304は、外部の撮像素子201(図2)から入力されるカメラ映像の連続するフレームに対して物体追尾を行う。これによって、カメラ画像の画像フレーム上の検出対象である物体の位置を表す座標、幅、高さ、そして追尾ラベルを含む追尾結果生成を行い、追尾結果を取得する。
ラベル置換辞書記憶部305は、各物体追尾装置101で追尾対象の物体に付与された追尾ラベルを、複数の物体追尾装置101間で一意に追尾対象物体を識別する物体ラベルへ置き換えるための、ラベル置換辞書を記憶している。このラベル置換辞書は、例えば、カメラ番号と、追尾ラベルと、物体ラベルとを含むレコードを並べたテーブルで構成されてよいが、その詳細構成は後述する。ラベル置換部306は、ラベル置換辞書記憶部305に記憶されたラベル置換辞書を用いて、追尾ラベルを物体ラベルに置換する。
ラベル割り当て装置102は、物体ラベル情報更新部307、物体ラベル情報記憶部308、ラベル置換辞書生成部309、カメラ情報記憶部310、物体対応算出部311、3次元位置記憶部312で構成される。
物体ラベル情報更新部307は、追尾結果取得部304で取得した物体の座標、幅、高さ、追尾ラベルと、物体対応算出部311が算出した、複数のカメラで撮像したカメラ映像間の物体の対応付け情報とを受け取る。物体ラベル情報更新部307は、受け取った情報を用いて、物体ラベル生成を行い、物体ラベル情報記憶部308に記憶された、追尾ラベルと物体ラベルとの対の候補である、物体ラベル情報を更新する。この物体ラベル情報更新部307は、物体ラベル情報を入力される画像フレームごとに更新してよい。
物体ラベル情報記憶部308は、追尾ラベルと物体ラベルを対応付けるための情報が物体ラベル情報として記憶されている。具体的には、物体ラベル情報は、複数の物体追尾装置101(101a、101b、・・・、101n)でそれぞれ付与された追尾ラベルの組と、対応する物体ラベルとの情報を含むがその詳細構成は後述する。
ラベル置換辞書生成部309は、物体ラベル情報記憶部308に記憶された物体ラベル情報をもとに、追尾ラベルを物体ラベルに置換する際の対応関係の情報を含むラベル置換辞書(ラベル変換辞書)を生成する辞書生成を行う。ラベル置換辞書生成部309は、生成されたラベル置換辞書をラベル置換辞書記憶部305に格納する。
カメラ情報記憶部310は、カメラキャリブレーションを行うことによって取得された、各カメラの内部パラメータ、位置、姿勢に関する情報を、カメラ情報として保持する。位置とは、例えば3次元空間上の位置ベクトルであってよく、姿勢とは、例えばカメラの撮像方向が向いている向き(方向ベクトル)であってよい。カメラキャリブレーションは、自動的にカメラ情報記憶部310が行ってもよく、他の装置が行った結果を取得してもよい。また、利用者が手動でカメラキャリブレーションを行ってもよい。
物体対応算出部311は、追尾結果取得部304で取得された異なる複数のカメラの追尾結果間の対応付けを取得する。具体的には、画像フレーム上の物体の座標と、カメラ情報記憶部110に記憶されたカメラ情報とに基づき、複数の追尾結果を統合して検出対象である物体の3次元位置座標を算出する。それとともに、複数カメラ間で追尾される、当該物体の追尾結果の間の対応付け情報を取得する。物体対応算出部311は、このような対応付け情報を、カメラ情報記憶部310が記憶するカメラの内部パラメータや、カメラの位置や姿勢に基づき、算出することができる。
3次元位置記憶部312は、物体対応算出部311が算出した物体の3次元空間における位置(例えば3次元位置座標)を記憶する。
モニタリング装置103は、複数のカメラ映像中の追尾結果を表示出力する。具体的には、モニタリング装置103は、複数の物体追尾装置101(101a、101b、・・・、101n)からそれぞれ、カメラ映像と当該映像中の物体追尾結果を取得し、ラベル割り当て装置102から当該物体の3次元位置座標を取得する。モニタリング装置103を用いて、複数の物体追尾装置101(101a、101b、・・・、101n)が取得する追尾結果の表示、当該追尾結果に基づく所定のイベントの検出、等の各種処理を実行することができる。モニタリング装置103の処理の詳細は後述する。
(画像処理システムの行う画像処理動作)
本実施形態に係る画像処理システム1000の動作を図4のフローチャートを参照して説明する。図4に示されるフローチャートにおいては、複数の物体追尾装置101(101a、101b、・・・、101n)、ラベル割り当て装置102、モニタリング装置103が協調して処理を実行する。例えば、ステップS401、ステップS404〜ステップS409をラベル割り当て装置102により実行することができる。また、ステップS402、ステップS403およびステップS410を物体追尾装置101(101a、101b、・・・、101n)により実行することができる。更に、ステップS411をモニタリング装置103により実行することができる。
本実施形態では、視野が重複するように設置された3台のカメラを要する場合を例として説明するが、カメラの台数はこれに限らず、2台以上の任意の数でよい。
まず、ステップS401では、カメラキャリブレーションを行うことによって、各カメラの内部パラメータ、位置、姿勢を推定する。例えば、キャリブレーションボードを検出対象である物体が存在する環境中に設置し、例えば非特許文献1に記載されている手法により各カメラの内部パラメータを求めることができる。非特許文献1に記載されている手法によれば、カメラに所定の平面パターンを撮像させることによって、カメラキャリブレーションが行われる。さらに、環境に設置した別のキャリブレーションマーカーによって各カメラの位置、姿勢を推定することができる。これらの手法は、単独で又は組み合わせて利用してよい。このようにして得られたカメラの例えば内部パラメータ、位置、姿勢などの情報は図3の例に示されたカメラ情報記憶部310にカメラ情報として保持される。
なお、本実施形態では、上記の方法でカメラキャリブレーションを行うが、これに替えて他の手法でカメラキャリブレーションを行ってもよい。例えば、カメラ映像中のコーナーやSIFT特徴(Scale-Invariant Feature transform)等の特徴点を抽出し、これらの特徴点群を異なるカメラの画像フレーム間で対応付ける。その後、その画像フレーム間の動きに基づき、カメラ位置、姿勢、当該特徴点群等の推定を行ってもよい。例えば、非特許文献2に記載されている手法(アルゴリズム)を用いて、カメラの位置、姿勢、等を推定することができる。また、カメラの内部パラメータと位置、姿勢を同時に求めてもよい。
ステップS402においては、物体追尾装置101(101a、101b、・・・、101n)の追尾結果取得部304が、各カメラの出力するカメラ映像から、画像フレームを取得する。本実施形態では、カメラの台数が例えば3台であるため、3つの物体追尾装置101により3枚の画像フレームが取得される。
次に、ステップS403においては、ステップS402で取得した各画像フレームに対し、物体追尾装置101(101a、101b、・・・、101n)の追尾結果取得部304が物体追尾を行い、画像フレーム内の人体領域および追尾ラベルを抽出する。本実施形態では、検出対象である物体の例として人物を説明し、人物が位置する領域を人体領域と呼ぶが、人物以外の他の物体の領域でもよい。また、物体追尾アルゴリズムとしては、非特許文献3に記載されている手法を利用可能であるが、他のアルゴリズムを利用してもよい。
この人体領域の抽出処理の結果、追尾結果取得部304は、人体領域を示す例えば矩形領域の代表点座標(x,y)、および高さh、幅wを得、また、抽出された人体の領域を他の物体や領域と識別する追尾ラベルを得る。
追尾結果取得部304の出力する追尾結果は、物体追尾装置101に備えられているRAM(図2のRAM205等)等の一時記憶装置に記憶され、また、所定の通信リンクを介してラベル割り当て装置102の物体ラベル情報更新部307に送信される。
ステップS404においては、ラベル割り当て装置102の物体対応算出部311により、ステップS403で検出された人物を2つのカメラの画像フレーム間で対応付ける処理が実行される。すなわち、あるカメラの画像フレームで検出された人物が、他のカメラの画像フレームのどの人物に対応するかを探索する。
ここで、人物(人体)の画像フレーム間の対応付けは、人物の人体領域の代表点をエピポーラ幾何(Epipolar Geometry)の原理によって対応付けることによって行うことができる。図5を参照してこのエピポーラ幾何を用いた対応付けの例を説明する。
図5に例として示されるように、第1カメラの投影面上(画像フレーム中)では、人体Aの代表点は黒星マークで示される。それが、第2カメラやその他のカメラの投影面上(画像フレーム中)では、図5(a)右側第2カメラの画像フレーム中に示されるエピポーラ線(Epipolar Line)と呼ばれる直線で表される。換言すれば、このエピポーラ線は、第2カメラの画像フレーム中で、第1カメラのカメラ視点中心と、人物Aの人体領域の代表点とを結ぶ直線とも言える。
ここで、第1カメラの画像フレームと第2カメラの画像フレームとの間の位置関係の情報を含む行列である基礎行列であるFは、カメラの位置、姿勢、内部パラメータ等から計算することができる。さらに、人物Aの人体領域の代表点の2次元座標を表わすベクトルをxとすると、エピポーラ線lは次式で表わすことができる。
Figure 2016174252
当該代表点とエピポーラ線との間の距離が一定値以下である人体領域に対応する人物を選ぶことによって、2個のカメラの画像フレーム間の対応をとることができる。例えば、図5(a)において、第1カメラの画像フレームの人物Aに対応するものは、第2カメラの画像フレーム上では人物Bと人物Cが候補となる。しかし、第1カメラの画像フレーム中のある人物(例えばA)に対応する他のカメラ(例えば第2カメラ)の画像フレーム中の人物は、原理的には、1つのカメラにつき1人でなければならない。
そのため、当該条件を満たすように、対応付けが可能な人物の組の組み合わせを求める。例えば、図5(a)は、現在の画像フレームを示しており、この図5(a)の例で示される第1カメラの画像フレーム中の人物Aに対応付けられる、第2カメラの画像フレーム中の人物は、人物Bと人物Cとが対応する。したがって、可能性のある組(組み合わせ)として、例えば{A,B}と{A,C}と、が生成される。
図4に戻り、ステップS405では、ステップS404で対応付けられた人物の組に基づき、物体ラベルを用いて人物の3次元位置を推定する。図6は、この3次元位置を推定する原理を示す図である。
図6の例に示すように、第1カメラの画像フレーム601に対し、第1カメラ中心601aと、人体領域の代表点601bとを通る3次元空間中の直線を求める。同様に、第2カメラの画像フレーム602に対し、第2カメラ中心602aと、人体領域の代表点602bを通る3次元空間中の直線を求める。このような直線は、各カメラの位置、姿勢、内部パラメータおよび代表点601b、602bの画像上の座標より求めることができる。
次に、各カメラに関して求めた直線の交点を求め、これを人物の3次元位置とする。なお、直線を求める際の推定誤差によって、実際にはこれらの直線が1点で交わらない場合があるが、この場合には、各直線からの距離の和が最小になる点を交点の替わりに人物の3次元位置として採用すればよい。
図4に戻り、ステップS406では、ステップS405で求めた3次元位置から虚像を排除してよい。虚像とは、図7のように、カメラと物体を結ぶ直線の交点に、本来ならば存在しない人物の3次元位置が虚像710として推定される現象をいう。図7に示す例では、第1カメラ1の視野701中では、人物B一人が映っており、一方、第2カメラの視野702中では、人物Aと人物Bのl二人が映っている。もし、第1カメラの視野701中に映っている人物が、第2カメラの視野702中の人物Aに対応すると判断してしまうと、虚像710の位置を人物の3次元位置と誤って求めてしまう可能性がある。
本実施形態では、この虚像を追尾の過去のフレームを用いることによって排除している。具体的には、過去の人物の画像フレーム間の対応付けから、人物が対応付いていないフレームを探索することによって、虚像の排除を行ってよい。
例えば、図5(a)で示される例の場合は、第1カメラの画像フレーム中の人物体Aに対応付く人物の組として、{A,B}と{A,C}が生成されているが、いずれか一方の組から推定される3次元位置は虚像である。例えば、人物の組{A,B}が正しかった場合、人物の組{A,C}から求められる三次元位置は、図7に示す例のように、虚像の位置となる。
ここで、過去のフレーム図5(b)を参照すれば、人体Aが人体Cとは対応付いていないことを知ることができる。したがって、人物の組{A,C}から生成される3次元位置は虚像であることが分かり、人物の組{A,C}から求められる3次元位置を排除することができる。
図4に戻り、ステップS407においては、3次元位置から多カメラの画像フレームに映った物体間の対応を求める。このステップS407の処理は、3つ以上のカメラ映像から物体を追尾する場合に実行される。すなわち、ステップS404で求めた対応付けは2個のカメラの画像フレームに映った物体間の対応であるため、ステップS407では、ステップS404の結果を利用して、さらに3台以上のカメラの映像に映った物体間の対応を求める。
この対応を求めるためには、まず、3次元位置同士の距離が互いにしきい値以下であるグループを探索する。そして、これらのグループに属する、2カメラ間で対応付けられた物体の組(例えば、これまで述べた人物の組)を集合し、それらに含まれる物体を、多カメラ間で対応付けられる物体であるとする。言い換えれば、2台のカメラの画像フレーム間で対応付けを求めて、得られた3次元位置が近い物体は、同一の物体(例えば人物)であると推定して、対応付けを行うものである。
多カメラの画像フレーム間において物体の対応付けを行った結果は、例えば、各カメラの追尾ラベルをカメラ番号順に複数並べた組であってよい。
ここで、一部のカメラの画像フレーム中で物体が映っていない場合や、追尾に失敗した場合には、その一部のカメラの画像フレーム中で当該物体の追尾ラベルが欠落することがある。本実施形態においては、このような追尾ラベルの欠落に対応するため、追尾ラベルが欠落していることを明示的に示す無効ラベルXを付与する。
具体的には、多カメラ間でのカメラ映像の画像フレームに映っている物体の対応付けの結果を作成する際に、追尾ラベルが欠落している場合には、追尾ラベルとして無効ラベルXを格納する。例えば、第1カメラの画像フレーム中の物体に対して追尾ラベルとして3が付与され、第2カメラでの画像フレームにおいては追尾が失敗し、第3カメラの画像フレーム中の物体に対しては追尾ラベルとして5が付与されている場合を考える。この場合、多カメラ間でのカメラ映像の画像フレーム中の物体の対応付けの結果は、例えば(3、X、5)となる。この無効ラベルXが付与されたカメラについての追尾結果は、物体の対応付け、後述する物体ラベル情報(テーブル)の更新や物体の3次元位置の推定において除外されてよい。
このステップS407においては、より多くのカメラのカメラ画像に映っている(と推定される)物体から優先的に対応付けを決めてよい。これは、多視点幾何の特性から、多くのカメラで検出されるほど、カメラ間の人体対応付けの信頼性が高いと考えられるからである。
なお、本実施形態においては、ステップS405における物体の3次元位置の推定を、カメラ台数に応じた処理で実行することができる。より多くのカメラ映像の画像フレームの間で物体の対応付けを行えば、当該物体の3次元位置をより精度よく推定できる。例えば、カメラ2台以上の映像から検出された物体は上述したエピポーラ幾何に基づくいわゆるステレオ視によってその3次元位置を求めることができる。他方、カメラ1台でのみ撮像されている場合は、例えば、物体の高さ(例えば、人物の身長等)や幅(例えば自動車の車長等)をある値で仮定して、仮想的な3次元位置を推定してもよいし、距離に関する情報を外部から提供を受けてもよい。なお、高さや幅は、物体の大きさの例である。なお、ステップS404からステップS407の物体の対応付けの処理は、ラベル割り当て装置102の物体対応算出部311が実行してよい。
ステップS408では、ステップS407で求めた複数カメラ間での物体の対応付けと、物体ラベル情報記憶部308に記憶された物体ラベル情報とから、追尾ラベルと物体ラベルの置換関係が記述されたラベル置換辞書800を作成する。ここで、複数カメラ間での物体の対応付けは、複数で付与された追尾ラベルの組を含む。また物体ラベル情報については、図10を参照して後述する。このステップS408の処理は、ラベル置換辞書生成部309が実行してよい。
さらに、ステップS408では、物体ラベル情報記憶部308に記憶された物体ラベル情報の更新が行われる。
図8は、ラベル置換辞書800の構成例を示す。図8において、ラベル置換辞書800は、複数のカラム(縦の「項目」)を格納するテーブルとして構成されている。具体的には、カメラ番号801、当該カメラ番号のカメラで撮像された映像中で検出された物体に付与された追尾ラベル802、当該物体について生成された物体ラベル803を含む。このラベル置換辞書800を参照することで、画像処理システム100の各装置は、カメラ番号801と追尾ラベル802とに基づき、物体ラベル803を取得することができる。本実施形態における、このステップS408におけるラベル置換辞書の生成及び物体ラベル情報の処理内容の詳細は後述する。
ステップS409では、ステップS408で作成されたラベル置換辞書800を所定の通信リンクを介して各物体追尾装置101(第1物体追尾装置101a、第2物体追尾装置101b、・・・、第N物体追尾装置101n)に送信する。各物体追尾装置101(101a、101b、・・・、101n)は、この送信されたラベル置換辞書800を受信し、物体追尾装置101が備えるラベル置換辞書記憶部305に置換辞書800を記憶することができる。各物体追尾装置101が受信するラベル置換辞書800は、ラベル割り当て装置102のラベル置換辞書生成部309により生成されるラベル置換辞書800の一部が抽出されたものであってよい。例えば、各物体追尾装置101に入力されるカメラ映像のカメラ番号と、このカメラ番号のカメラ映像中の物体に付与された追尾ラベル、および、当該追尾ラベルに対応し、複数カメラ映像間で一意に当該物体を識別する物体ラベル、の対を含むものであればよい。
このステップS409の処理は、ラベル割り当て装置102のラベル置換辞書生成部309と物体追尾装置101のラベル置換辞書記憶部305とが協調して、通信手段207を介して実行してよい。
次に、ステップS410においては、各物体追尾装置101が、ステップS403において取得した追尾結果に含まれる追尾ラベルとカメラ番号とを、ラベル置換辞書800と照合する。これによって、物体ラベルを取得し、追尾結果の追尾ラベルを物体ラベルに置換する。ステップS410の処理は、図3の例で示したラベル置換部306が実行してよい。ラベル置換部306により、追尾ラベルから物体ラベルに置き換えられた追尾結果は、例えば物体ラベルと物体の2次元座標、幅、大きさ等の情報を含む。これに替えて、ラベル置換部306は、追尾結果中の追尾ラベルに物体ラベルを付加してもよい。この置換え後の追尾結果は、ラベル置換部306から所定の通信リンクを介して図3の例で示すモニタリング装置103に送信される。
ステップS411においては、モニタリング装置103が、各物体追尾装置101から、追尾ラベルが物体ラベルに置き換えられた後の追尾結果を受け取り、モニタリング処理を行う。モニタリング処理では、追尾結果の表示やイベント検出を適宜行うことができるが、その詳細は後述する。
ステップS412においては、ステップS401〜ステップS411までの処理を継続するか否かを判定する。例えば、追尾結果取得部304が、カメラからさらなる画像フレームを取得可能である場合は、ステップS402に処理が戻り、取得することが不可能である場合は、処理を終了する
(ラベル割り当て装置102におけるラベル置換辞書の作成処理・物体ラベル情報更新処理の詳細)
次に、本実施形態における、ラベル割り当て装置102が実行するラベル置換辞書の作成処理および物体ラベル情報更新処理(図4の例で示したステップS408の詳細)を、図9のフローチャートを用いて説明する。
図9に例として示す処理は、ラベル割り当て装置102の物体ラベル情報更新部307及びラベル置換辞書生成部309とが協調して実行することができる。
図4のステップS408では、ステップS407で得られた多カメラ間での物体の対応付け(対応付け情報)の集合と、物体ラベル情報記憶部308に記憶された物体ラベル情報とを用いて、ラベル置換辞書800の生成と物体ラベル情報1010の更新を行う。
上述のように、この対応付け情報は、ある物体について各カメラのカメラ映像ごと追尾ラベルの組を、例えば、カメラ番号順にならべたものである。
図10は、物体ラベル情報1010の構成の一例を示す。図10の例に示されるように、物体ラベル情報1010は、各カメラの追尾ラベル1001、1003、1004と物体ラベル1002とを各カラムとしたテーブルで構成されてよい。この物体ラベル情報1010においても、ラベル情報が欠落していることを示す無効ラベルXを付与することができる。例えば、図10の左から2番目のカラムの第2カメラの追尾ラベル1003中に、第2カメラでは物体が追尾できなかった旨を示す無効ラベルXが示されている。ラベル置換辞書800は、この物体ラベル情報1010を参照することにより生成することができ、図8に例として示したように、カメラ番号801、追尾ラベル802、物体ラベル803をカラムとするテーブルで構成されてよい。
図9に戻り、ステップS901においては、多カメラ(複数カメラ)間での物体の対応付け(対応付け情報)の集合と、物体ラベル情報記憶部308に記憶された物体ラベル情報1010とを入力する。
図9のステップS902においては、ラベル置換辞書800を初期化する。この初期化は、例えば、ラベル置換辞書800のエントリー(ラベル置換辞書800のテーブルの各行)の内容を全て削除することによって行ってよい。この初期化は、ラベル置換辞書生成部309が行うことができる。
次に、ステップS903においては、ステップS901で入力された対応付け情報の集合から任意の1つを処理対象として選ぶ。この選択は、物体ラベル情報更新部307が行ってよい。なお、このステップS903から、ステップS907までに示される処理は、物体ラベル情報1010に対する更新処理等であり、物体ラベル情報更新部307が行ってよい。
ステップS904では、ステップS903で選択した対応付け情報との類似度が最も大きいエントリー(以降、最大エントリーと呼ぶ)を、対応付けの尤度が高いエントリーとして、物体ラベル情報1010から探索する。
本実施形態では、この類似度として、追尾ラベルが一致しているカメラの個数を利用する例を説明する。例えば、選択された対応付け情報と各エントリーとの類似度Sは、対応付け情報mとエントリー中の追尾ラベル情報tの類似度として次式で計算することができる。
Figure 2016174252
ここで、cはカメラ番号である。m={m1,m2,...,mc,...}は対応付け情報で、追尾ラベルmcがカメラ番号cの順に並べられたベクトルである。また、t={t1,t2,...,tc,...}は物体ラベル情報1010の各エントリー中の追尾ラベル情報で、各カメラの追尾ラベルt1がカメラ番号c順に並べられたベクトルである。また、δ(i,j)はiとjが一致、すなわち追尾ラベルが一致したら1を返す関数である。
ただし、本実施形態では、無効ラベルXを考慮してδ(i,j)は次式で表わされる。
Figure 2016174252
追尾対象物体が移動体である場合等、ある物体を映像中で検出し追尾しているカメラの個数は時系列上変化する。例えば、ある画像フレーム時点では2台で撮像し、他の画像フレーム時点では3台で撮像してカメラ映像を出力する。そこで、本実施形態では、無効ラベルXを導入して、あるカメラが撮影していない場合はそのカメラの追尾ラベルを除外して、類似度を算出している。
図9のステップS905においては、ステップS904で得た最大エントリーの類似度が1以上であったか否かを判定する。ここで、最大エントリーない場合や、類似度が1より小さい場合においては、その対応付け情報に含まれる追尾ラベルに対して物体ラベルが未だに割り当てられていないことを示す(ステップS905NO)。そのため、追尾すべき新たな物体が出現したものと判断し、当該あらたな物体に新たな物体ラベルを割り当てるために、ステップS906に進む。他方、類似度が1以上の最大エントリーがある場合には、すでに該当する物体ラベルが存在するものと判断し、選択された対応付け情報で最大エントリーを更新するためにステップS907に進む(ステップS905YES)。
ステップS906においては、入力された対応付け情報に対して新しい物体ラベルを割り当て、割り当てられた物体ラベルと入力された対応付け情報との対を、物体ラベル情報1010に追加する。具体的には、対応付け情報の各カメラの追尾ラベルの組と新たな物体ラベルとを並べたエントリー(以降、新規エントリーと呼ぶ)を、図10の物体ラベル情報1010のテーブルに追加する。
ステップS906において、例えば、対応付け情報が第1カメラの画像フレーム中の物体に対して追尾ラベルとして3が付与され、第2カメラの画像フレーム中の物体に追尾ラベルとして無効ラベルXが付与されているものとする。更に、第3カメラの画像フレーム中の物体に対して追尾ラベルとして5が付与されている場合、新たな物体ラベルがAだとすると、(3、X、5、A)という新規エントリーを物体ラベル情報1010のテーブルに追加する。
一方、図9のステップS907においては、入力された対応付け情報を用いて、ステップS904で得られた物体ラベル情報1010中の最大エントリーを更新する。具体的には、対応付け情報に含まれる追尾ラベルで最大エントリーに含まれる追尾ラベルを上書きしてよい。
例えば、あるカメラにおいて、対応付け情報の追尾ラベルが3であり、最大エントリーの追尾ラベルが5の場合であれば、この最大エントリーの追尾ラベルを3で置き換える。ただし、あるカメラにおいて、対応付け情報の追尾ラベルが無効ラベルXを示す場合、この最大エントリー中の当該追尾ラベルは更新しない。
図9のステップS906で新規エントリーが追加、または、ステップS907において更新された物体ラベル情報1010は、物体ラベル情報記憶部308に記憶される。ステップS904、ステップS905、ステップS906、ステップS907の処理は、図3の例で示される物体ラベル情報更新部307が実行することができる。
次に、図9のステップS908においては、ステップS906で追加された新規エントリー、またはステップS90で更新された最大エントリーを用いて、ラベル置換辞書800を更新する。具体的には、新規または最大エントリーに記述されているカメラ番号801、追尾ラベル802、物体ラベル803の関係をラベル置換辞書800に追加する。例えば、新規または最大エントリーにおいて、第1カメラの画像フレーム中の物体に付与された追尾ラベルが3であり、第2カメラの画像フレーム中の物体に無効ラベルXが付与されているものとする。更に、第3カメラの画像フレーム中の物体に付与された追尾ラベルが5であり、物体ラベルがAの場合は、ラベル置換辞書800のテーブルに(1、3、A)、(3、5、A)の2つのエントリーを追加する。なお、ステップS908の処理は、ラベル置換辞書生成部309が実行してよい。
図9のステップS908におけるラベル置換辞書の更新処理を、別の観点から説明する。ステップS904において説明したように、ステップS904においては、物体ラベル情報1010から、入力された対応付け情報と、最も類似度の高いエントリーを探索し、選択している。
類似度が高いということは、対応付け情報に含まれる追尾ラベルの組と物体ラベル情報に含まれる物体ラベルの組とが対応付く尤もらしさ(尤度)が高いことを意味する。言い換えると、尤度の高い追尾ラベルの組と物体ラベルとの対応関係(対)を、物体ラベル情報1010から探索し、その尤度の高い対応関係をラベル置換辞書800に記憶させていることになる。
また、類似度が高いことは、上記数式(式2)(式3)でも説明したように、追尾対象物体を撮像したカメラの個数が多いであろうことを示唆する。したがって、撮影したカメラの個数の多い方が追尾処理における信頼性が高いという観点から、本実施形態においては、物体ラベル情報1010から、類似度の高いエントリーを選択して優先的に取り出している。そして、ステップS908において、これを反映してラベル置換辞書を生成している。
なお、図4のステップS407で求められる複数カメラ間での物体の対応付けは、誤っている可能性があり、その結果、ステップS408で更新される物体ラベル情報1010には誤った情報が含まれている可能性がある。このため、本実施形態においては、より尤度の高いものを選択することによって、このように誤った対応付け情報を排除または低減することができる。
ステップS909においては、図9フローチャートのステップS903からステップS908までの処理を継続するか否かの判定が行われる。ステップS901で入力された対応付け情報について、ステップS903において、全て選択され処理されていれば、図9のステップS910に処理が移行する。そして、ステップS910においては、ステップS909までの処理の結果として、更新された物体ラベル情報1010とラベル置換辞書800とを出力する。すなわち、更新された物体ラベル情報1010のテーブルが得られる。他方、ステップS903において、対応付け情報が全て選択されていなければ、ステップS909からステップS903に処理が戻り、未処理の対応付け情報に対する処理が継続される。
(モニタリング装置103における画像表示処理の詳細)
図4に戻り、図4のステップS411におけるモニタリング装置103での画像表示処理の詳細を説明する。ステップS411においては、モニタリング装置103は各物体追尾装置101から、追尾ラベルを物体ラベルに置き換えた追尾結果を受信する。モニタリング装置103は、受信された追尾結果の表示を実行するとともに、さらに、イベント検出のモニタリング処理を行うことができる。
まず、モニタリング装置103が実行する追尾結果の表示について説明する。図11は、追尾結果の表示のための表示画面構成例を示す。表示画面1110の構成例は、1つ以上のカメラ画像1101a、1101b、1101c、1101dと、3次元マップ1104と、で構成してよい。なお、図11の例においては、カメラ画像として、第1カメラ画像1101a、第2カメラ画像1101b、第3カメラ画像1101c、第4カメラ画像1101d、の4画面が示されているが、カメラの台数に応じて任意の画面数を採用してよい。
ステップS403において、図11に示すように、カメラ画像1101a〜1101dの画像内には、追尾された人体領域を示すシンボル(例えば、枠(フレーム))1105a、1105bが人体領域に重畳表示等で識別可能に表示されてよい。異なるカメラの間で検出された人物が同一の人物であるか否かをユーザが容易に識別できるように、異なるカメラ間で同一の人物の枠は同じ色で着色してよい。例えば、1105aを人物A、1105bを人物Bとすると、1105aと1105bとの間で異なる色の枠とする等としてよい。
一方、3次元マップ1104には、検索対象である物体(例えば、人物)の3次元位置や大きさを示すシンボル1103a、1103bと、カメラの位置や向きを示すシンボル1102a〜1102dが、床面とともに3次元画像として表示されてよい。図11の例では、物体の3次元位置や大きさを示すシンボル1103として、シンボル1103a、シンボル1103b、が示されている。また、図11の例では、また、カメラの位置や向きを表すシンボル1102として、シンボル1102a、シンボル1102b、シンボル1102c、シンボル1102d、が示されている。カメラ画像1101a、1101b、1101c、1101dの人物と、3次元マップ1104の人物とが、同一人物であるか否かを、ユーザが容易に識別できるように、それぞれを同じ色で着色してよい。例えば、1105bと1103bとが同じ人物であるとすると、1105bと1103bとで同じ色の枠とする等としてよい。
このような表示を実現するため、モニタリング装置103は、物体の3次元位置とその物体ラベルとを、ラベル割り当て装置102から取得する。
また、モニタリング装置103は、各物体追尾装置101から、各カメラでの追尾結果とこれらに付随する物体ラベルを取得するとともに、さらに、カメラ画像も取得する。モニタリング装置103は、この取得したカメラ画像を利用して、図11に例として示されているカメラ画像1101a、1101b、1101c、1101dを表示することができる。
モニタリング装置103は、表示画面1110中の各カメラ画像1101a、1101b、1101c、1101d中に、人体領域を示すシンボル1105a、1105bを表示する。そして、3次元マップ1104中の人体の3次元位置や大きさを示すシンボル1103a、1103bと対応させて表示することができる。
追尾結果の物体ラベルと3次元位置の物体ラベルの一致を調べることによって、人体領域を示すシンボル1105a、1105bと、人体の3次元位置や大きさを示すシンボル1103a、1103bとの対応関係が判明する。この関係に基づき、カメラ画像間1101a〜1101d、およびカメラ画像1101a〜1101dと3次元マップ1104との間で、同一人物と判断された追尾対象人物を、同じ色で着色して表示することができる。
なお、本実施形態では、図6等で説明したように、多視点幾何を利用した三角測量の手法で物体の3次元位置を推定する例を示した。
本実施形態においては、例えば上記のように複数カメラの映像の画像フレーム検出対象である物体の3次元位置を推定する。そして、この推定された3次元位置に基づき、あるカメラ映像に検出漏れがあった場合に、当該検出漏れが生じたカメラ画像上へ検出対象の物体を射影することで、当該検出対象物体が映る位置を推定することが可能である。すなわち、障害物(建築物、霧等)や、撮影環境(逆光等)、その他の障害によってあるカメラ(例えば、第3カメラ)の撮像映像から当該検出対象物体を検出できない場合も考えられる。この場合は、第1カメラ及び第2カメラで撮像した画像フレームから推定した3次元位置を、逆に第3カメラの画像フレーム上で映るであろう位置に射影して検出漏れを補完することが可能である。例えば、モニタリング装置103は、その表示画面1110中の第3カメラ画像1101c上に、3次元位置を推定された検出漏れの生じた人体領域に、検出できなかった検出枠であることを示すシンボルを表示することができる。この場合、この検出枠を示すシンボル1105は、推定された位置であることを示すために、通常のシンボル1105とは色彩や輝度を変えて表示してよい。
次に、モニタリング装置103が実行するイベント検出について説明する。このイベント検出の処理は、例えば、モニタリング装置103が物体追尾装置101から追尾結果とそれに含まれる物体ラベルとに基づき、所定のイベントを検出し、当該イベントを通知する通報を発する処理等である。
一例として、本実施形態では、所定の監視カメラ、例えば、第1カメラと、第2カメラと、に映る監視領域に事前に定めた時間以上存在する人物を検出する。
具体的には、モニタリング装置103は、各カメラ映像の画像フレームごとに追尾結果とこれに付随する物体ラベルとを例えばRAM205等の記憶領域に記憶しておく。
そして、モニタリング装置103は、所定の物体ラベルが含まれている追尾結果が、第1カメラの画像フレームと、第2カメラの画像フレームと、のいずれかにおいて予め事前に定められた時間より前に存在しているか否かを探索する。もし、存在している場合は、この人物は定められた時間以上監視領域中に存在し続けたとみなし、不審人物を報知する通報を発してよい。
本実施形態によれば、異なるカメラ間あるいは異なる時刻の間に現れる同一物体に同一のラベルを付与することができる。すなわち、本実施形態によれば、異なるカメラが撮像したカメラ映像の間に表れる物体、又は、同一のカメラが撮像したカメラ映像中の異なる時刻の画像フレーム間に現れる物体、が同一であるか否かを、物体ラベルを用いてより正確に判別することができる。
これによって、同一物体であっても時刻によって異なる追尾ラベルが付与されてしまうことが有効に防止される。また、同一物体であっても、撮像するカメラ映像によって、異なる追尾ラベルが付与されてしまうことが有効に防止される。さらに、異なるカメラで撮影されたカメラ映像中の画像フレームに映っている物体間、又は、異なる時刻で撮影された画像フレーム中に映っている物体間において、現れる物体が同一であるか否かを、より正確に判別することができる。
なお、本実施形態では、各カメラの追尾ラベルと物体ラベルとを対応付けるための情報を記憶するための構成として、物体ラベル情報記憶部308を備えている。この物体ラベル情報記憶部308が、これらの情報を保持することによって、あるカメラ映像で、検出対象である物体の追尾が中断しても、他のカメラ映像において、当該物体の追尾が継続していれば、同一の物体ラベルの付与を続行することができる。
具体的には、図17(b)に示されているタイムチャートを例にすると、第1カメラのラベル1−1の追尾が中断しても、第2カメラや、第3カメラの追尾が続行している。このため、第1カメラのカメラ映像による追尾が中断している間でも、同一の物体ラベルを付与し続けることができる。上記のとおり、物体ラベル情報更新部307は、カメラ間の物体対応付けを用いて物体ラベル情報1010を更新する。これによって、あるカメラ映像中である物体の追尾ラベルが変更されても、他のカメラ映像で追尾が続行されている限り、同一の物体ラベルの付与を続行できる。
例えば、図17(b)に示されているタイムチャートにおいて、第1カメラのカメラ映像に映っている物体に付与されたラベル1−1が、時刻T6においてラベル1−2に変更されたとする。この場合でも、第3カメラが当該物体の追尾を続行しているため、同一の物体ラベルを付与し続けることができる。
従って、例えば広域を多数のカメラで監視して、移動体等の物体を検出して追尾する場合であっても、精度の高い物体追尾が実現できる。
(本実施形態の変形例)
本実施形態に係る画像処理システム1000は、図1のように、物体追尾装置101、ラベル割り当て装置102、モニタリング装置103により構成される例を説明したが、図1の構成に限定されず、ある装置が他の装置の機能を兼備していてもよい。例えば、物体追尾装置101が、ラベル割り当て装置102の機能を兼備することで、ラベル割り当て装置102を省略する構成になっていてもよい。
また、モニタリング装置103が、ラベル割り当て装置102の機能を兼備することで、ラベル割り当て装置102を省略する構成になっていてもよい。さらに、物体追尾装置101がラベル割り当て装置102やモニタリング装置103の機能を兼備していてもよいし、複数の物体追尾装置101a、101b、・・・、101nの機能を1つの物体追尾装置101にまとめてもよい。複数の装置の機能を1つの装置に兼備させることで、装置の数が減少し、装置の構成が簡単になる。
上記のように複数の装置の機能を1つの装置に兼備させる場合は、通信リンクを介してモジュール間のデータのやり取りを行うのではなく、RAM等の一時記憶装置にデータを記憶しておき、複数の機能を同一のCPUで実行することにより実現しても構わない。また、複数の機能をひとつのプログラムで実現しても構わない。
図12は、図1に例として示された第1物体追尾装置101a〜第N物体追尾装置101nの少なくともいずれか1つがラベル割り当て装置102の機能を兼備している構成を採用する画像処理システム2000のシステム構成の例を示す。
図12に示されている第1物体追尾装置1201a、第2物体追尾装置1201bがラベル割り当て部1202a、1202bをそれぞれ備えることによって、装置の数が減少し、装置の構成が簡単になる。さらに、複数の物体追尾装置1201a、1201bが、他の装置を利用することなく、自律して追尾ラベルから物体ラベルへのラベル割り当てを行うことができる。例えば、物体追尾装置1201a、1201b、1201c、1201nを物体追尾機能を備えたネットワークカメラ等のカメラで構成すれば、カメラ同士が直接に通信できる。これにより、異なるカメラ間や異なる時刻間に現れる追尾対象物体が同一であるか否かの判別が、カメラの集合のみで実現できる。従って、システム構成がより簡単となり、カメラの使用者やカメラを利用する装置により簡便性を提供できる。
図12に例として示す画像処理システム2000では、ラベル割り当て部1202a、1202bを備える物体追尾装置1201a、1201bが2つ示されている。更に、ラベル割り当て部1202a、1202bを備えていない物体追尾装置1201c、1201nが2つ、示されているが、これらは図示される数に限られるものではない。
また、本実施形態では、図1に示すように、ラベル割り当て装置102とモニタリング装置103との間に通信リンクが存在する例を示したが、この通信リンクは存在しなくてよい。
図13は、ラベル割り当て装置1302とモニタリング装置1303との間に通信リンクが存在しない画像処理システム3000の構成の例を示す。このような構成によれば、装置の構成が簡単になると。この場合、本実施形態において、表示画面に3次元位置を表示することを省略してもよい。また、本実施形態ではラベル割り当て装置1302が、物体の3次元位置を計算していた。しかしながら、物体追尾装置1301から得られる追尾結果から、図4に示されたステップS405の処理と同様の手順を用いて、検出対象である物体の3次元位置をモニタリング装置1303で再計算を行ってもよい。
さらに、図12に示した画像処理システム2000と同様の効果を、図13に示した画像処理システム3000でも得るために、物体追尾装置1301a、1301b、1301nが、ラベル割り当て装置1302の機能の全部または一部を備えてもよい。
本実施形態では、図3(システム構成は図1)に示したように、物体追尾装置101と、モニタリング装置103との間に通信リンクが存在する例を示したが、この通信リンクは存在しなくてもよい。
図14は、物体追尾装置1401と、モニタリング装置1403との間に通信リンクが存在しない構成を採用した画像処理システム4000の機能構成の例を示す。図15は、図14に例として示す画像処理システム4000のシステム構成の例を示す。
このような構成を採用する場合は、図14に示すように、ラベル置換部1406やラベル置換辞書記憶部1405を、ラベル割り当て装置1402に備える構成にしてもよい。図15に示される物体追尾装置1501a、1501b、1501nの追尾結果は、ラベル割り当て装置1502を介して、モニタリング装置1503に対して送出されればよい。
この場合、モニタリング装置1503は、各物体追尾装置1501a、1501b、1501nが独自に割り当てた追尾ラベルの替わりに物体固有の物体ラベルを含む追尾結果を取得することができる。したがって、異なるカメラ間あるいは異なる時刻間に現れる物体が同一の物体であるか否かをより正確に判別することができる。さらに、モニタリング装置1503と、物体追尾装置1501との間に、追尾結果情報を通信するための通信リンクを設けなくてよいので、構成がより簡単になる。
本実施形態では、図3に示すように、物体追尾装置101が、ラベル置換部306と、ラベル置換辞書記憶部305とを備える例を示した。これに替えて、モニタリング装置103が、ラベル置換部306と、ラベル置換辞書記憶部305とを備えてもよい。
図16は、モニタリング装置1603が、ラベル置換部1606と、ラベル置換辞書記憶部1605とを備えている画像処理システム5000の機能構成を示す図である。このような構成を採用する場合は、物体の追尾ラベルが物体追尾装置1601からモニタリング装置1603に送信される。また、ラベル置換辞書がラベル割り当て装置1602からモニタリング装置1603に送信される。
これらを受信したモニタリング装置1603のラベル置換部1606は、物体追尾装置1601から受信した追尾結果中に含まれる追尾ラベルを、ラベル置換辞書記憶部1605に記憶されるラベル置換辞書を参照して、物体ラベルに置き換えることができる。このような構成を採用することによって、物体追尾装置1601が、追尾ラベルを物体ラベルに置換する処理を行う必要がなくなり、物体追尾装置1601の計算負荷がより削減される。例えば、物体追尾装置1601の演算性能が限られている場合は、モニタリング装置1603として機能する演算性能が優れたサーバ等のコンピュータ装置において、ラベル置換部1606がその追尾ラベルを物体ラベルに置換する処理を行えばよい。
以上、種々の構成の画像処理装置を説明したが、本実施形態の装置構成、ネットワーク構成、機能構成は任意であって、適宜変更組み合わせて採用されてよい。
以上、本発明の実施形態を詳細に説明したが、本実施形態に係る画像処理装置1000、2000、3000、4000、5000の全部又はその一部のコンポーネントを図2に例として示したコンピュータ220で構成してよい。例えば、物体追尾装置101や、ラベル割り当て装置102、モニタリング装置103、のそれぞれを図2で示したコンピュータ220で構成してよい。
コンピュータ220中のCPU203が、ROM204や外部メモリ(ハードディスク等)208から読み出したプログラムコードを実行することにより、上記実施形態の画像処理装置の各機能が実現されるようにしてもよい。更に、そのプログラムコードの指示に基づき、コンピュータ220上で稼働するオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も、本発明の範囲に含まれる。
また、上述の実施形態は、これらの1以上の機能を実現するコンピュータプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置における1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述した1つ乃至複数のうちのいくつかの効果を有する。
101…物体追尾装置、102…ラベル割り当て装置、103…モニタリング装置、304…追尾結果取得部、305…ラベル置換辞書記憶部、306…ラベル置換部、307…物体ラベル情報更新部、308…物体ラベル情報記憶部、309…ラベル置換辞書生成部、310…カメラ情報記憶部、311…物体対応算出部、312…3次元位置記憶部、1000…画像処理システム

Claims (24)

  1. 複数の撮像手段により撮像された複数の映像に関して、当該複数の映像のそれぞれから検出された追尾すべき物体について、前記映像の画像フレーム中の前記物体の位置と前記物体を識別する追尾ラベルとを含む追尾結果を取得する取得手段と、
    前記取得手段により取得された複数の追尾結果に基づいて、前記複数の映像の間で、画像フレーム中に検出された物体を対応付ける対応付け手段と、
    前記対応付け手段による対応付け結果に基づいて、前記複数の映像の間で同一の物体であると推定される物体を一意に識別する物体ラベルを生成する物体ラベル生成手段と、
    前記物体ラベルに基づいて、前記取得手段により取得された複数の追尾結果を統合して、前記物体の3次元空間における位置を算出する算出手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記対応付け手段により対応付けられた物体のそれぞれに対する前記追尾ラベルの組と、前記物体ラベルとの対応付けの候補を物体ラベル情報として記憶する記憶手段と、
    前記記憶手段に記憶される前記物体ラベル情報から、少なくとも1つの追尾ラベルと前記物体ラベルとの対を含むラベル変換辞書を生成する辞書生成手段と、をさらに備える
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記辞書生成手段は、前記物体ラベル情報から、前記追尾ラベルと前記物体ラベルとが対応付けられる尤度が高い候補を選択することで、前記ラベル変換辞書を生成する、ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記辞書生成手段は、前記物体ラベル情報と、前記追尾ラベルの組との間の類似度を算出することで、前記ラベル変換辞書を生成する、ことを特徴とする請求項2または3に記載の画像処理装置。
  5. 前記類似度は、前記物体ラベル情報の中の追尾ラベルが前記追尾ラベルの組の中の追尾ラベルと一致する個数である、ことを特徴とする請求項4に記載の画像処理装置。
  6. 前記辞書生成手段は、前記第1の生成手段により生成された前記追尾ラベルの組の中で、画像フレーム中に前記物体が検出されない旨を示す追尾ラベルを、前記類似度の算出から除外する、ことを特徴とする請求項4または5に記載の画像処理装置。
  7. 前記辞書生成手段により生成された前記ラベル変換辞書を出力して、ネットワークを介して接続される他の装置に、前記ラベル変換辞書に基づいて、前記追尾ラベルを前記物体ラベルに置換えさせる出力手段、をさらに備える
    ことを特徴とする請求項2から5のいずれか1項に記載の画像処理装置。
  8. 前記対応付け手段により対応付けられた前記追尾ラベルの組により、前記記憶手段に記憶される前記物体ラベル情報を更新する更新手段、をさらに備える
    ことを特徴とする請求項2から6のいずれか1項に記載の画像処理装置。
  9. 前記更新手段は、前記物体ラベル情報を画像フレームごとに更新する、ことを特徴とする請求項8に記載の画像処理装置。
  10. 前記更新手段は、前記物体ラベル情報と、前記追尾ラベルの組との間の類似度を算出し、算出された前記類似度のより高い候補を前記物体ラベル情報から選択し、選択された候補に含まれる追尾ラベルを、前記追尾ラベルの組で更新する、ことを特徴とする請求項9に記載の画像処理装置。
  11. 前記類似度は、前記物体ラベル情報の中の追尾ラベルが前記追尾ラベルの組の中の追尾ラベルと一致する個数である、ことを特徴とする請求項10に記載の画像処理装置。
  12. 前記更新手段は、前記第1の生成手段により生成された前記追尾ラベルの組の中で、画像フレーム中に前記物体が検出されない旨を示す追尾ラベルを、前記類似度の算出から除外する、ことを特徴とする請求項10または11に記載の画像処理装置。
  13. 前記第1の生成手段は、前記複数の撮像手段のそれぞれの位置および姿勢、並びに前記複数の映像の画像フレーム中の前記物体の位置を用いて、前記複数の追尾結果から、前記物体の前記追尾ラベルの組を生成する、ことを特徴とする請求項1から12のいずれか1項に記載の画像処理装置。
  14. 映像を撮像する撮像手段と、
    撮像された前記映像を他の装置にネットワークを介して通信する通信手段と、をさらに備えることを特徴とする請求項1から13のいずれか1項に記載の画像処理装置。
  15. 前記対応付け手段は、より多くの撮像手段により検出された物体の追尾結果を優先して、当該物体を対応付ける、ことを特徴とする請求項1から14のいずれか1項に記載の画像処理装置。
  16. 前記対応付け手段は、前記画像フレーム中の前記物体の領域の代表点をエピポーラ幾何によるステレオ視を用いて対応付けることで、複数の物体を対応付ける、ことを特徴とする請求項1から15のいずれか1項に記載の画像処理装置。
  17. 撮像手段により撮像された映像から検出された追尾すべき物体の、前記映像の画像フレーム中の位置を算出すると共に、前記物体を識別する追尾ラベルを前記物体に付与して、前記物体の前記位置および前記追尾ラベルを含む追尾結果を生成する生成手段と、
    前記生成手段により前記物体に付与された前記追尾ラベルと、複数の撮像手段によりそれぞれ撮像される複数の映像の間で同一の物体であると推定される物体を一意に識別する物体ラベルとの対を含むラベル変換辞書を入力する入力手段と、
    前記入力手段に入力された前記ラベル変換辞書に基づいて、前記物体に付与された前記追尾ラベルを、前記他の物体ラベルで置き換える置換手段と、
    前記置換手段により置き換えられた前記物体ラベルを用いて、前記映像中の連続する画像フレームにわたり前記物体を追尾する追尾手段と、
    前記追尾ラベルが前記物体ラベルで置き換えられた追尾結果を、ネットワークを介して接続される他の装置へ送信する送信手段と、
    を備えることを特徴とする画像処理装置。
  18. 映像を撮像する撮像手段と、
    撮像された前記映像を他の装置にネットワークを介して通信する通信手段と、をさらに備えることを特徴とする請求項17に記載の画像処理装置。
  19. 複数の撮像手段により撮像された複数の映像とともに、複数の映像から検出された追尾すべき物体について、該物体の前記映像の画像フレーム中の前記物体の位置と、前記複数の映像の間で前記物体を一意に識別する物体ラベルとを含む追尾結果を取得する取得手段と、
    前記物体ラベルに基づいて、前記取得手段により取得された複数の追尾結果を統合して算出された前記物体の3次元空間における位置を入力する入力手段と、
    表示装置に、前記複数の映像の画像と、前記3次元空間の3次元マップとを表示させる際に、同一の前記物体ラベルが付与された物体について、前記画像と前記3次元マップとの間で、前記物体の画像内の領域に同一の物体であることを示すシンボルを表示させる表示制御手段と、を備える
    ことを特徴とする画像処理装置。
  20. ラベル処理装置と、物体追尾装置と、画像表示装置とをネットワークを介して接続して構成される画像処理システムであって、
    前記ラベル処理装置は、
    複数の撮像手段により撮像された複数の映像に関して、当該複数の映像から検出された追尾すべき物体について、該物体の前記映像の画像フレーム中の前記物体の位置と前記物体を識別する追尾ラベルとを含む追尾結果を取得する取得手段と、
    前記取得手段により取得された複数の追尾結果に基づいて、前記複数の映像の間で、画像フレーム中に検出された物体を対応付ける対応付け手段と、
    前記対応付け手段による対応付け結果に基づいて、前記複数の映像の間で同一の物体であると推定される物体を一意に識別する物体ラベルを生成する物体ラベル生成手段と、
    前記対応付け手段により対応付けられた物体のそれぞれに対する前記追尾ラベルの組と、前記物体ラベルとの対応付けの候補を物体ラベル情報として記憶する記憶手段と、
    前記記憶手段に記憶される前記物体ラベル情報から、少なくとも1つの追尾ラベルと前記物体ラベルとの対を含むラベル変換辞書を生成する辞書生成手段と、
    前記物体ラベルに基づいて、前記取得手段により取得された複数の追尾結果を統合して、前記物体の3次元空間における位置を算出する算出手段と、
    前記ラベル変換辞書を前記物体追尾装置に送信する送信手段と、を備え、
    前記物体追尾装置は、
    前記追尾結果を生成する追尾結果生成手段と、
    前記ラベル変換辞書を入力する入力手段と、
    前記入力手段に入力された前記ラベル変換辞書に基づいて、前記物体に付与された前記追尾ラベルを、前記物体ラベルで置き換える置換手段と、
    前記置換手段により置き換えられた前記物体ラベルを用いて、前記映像中の連続するフレームにわたり前記物体を追尾する追尾手段と、
    前記追尾ラベルが前記物体ラベルで置き換えられた追尾結果を、ネットワークを介して接続される他の装置へ送信する送信手段と、を備え、
    前記画像表示装置は、
    前記送信手段により送信される追尾結果を、複数の撮像手段によりそれぞれ撮像された複数の映像とともにそれぞれ取得する取得手段と、
    前記物体の前記3次元空間における位置を入力する入力手段と、
    表示装置に、前記複数の映像の画像と、前記3次元空間の3次元マップとを表示させる際に、同一の前記物体ラベルが付与された物体について、前記画像と前記3次元マップとの間で、前記物体の画像内の領域に同一の物体であることを示すシンボルを表示させる表示制御手段と、を備える
    ことを特徴とする画像処理システム。
  21. 複数の撮像手段により撮像された複数の映像に関して、当該複数の映像のそれぞれから検出された追尾すべき物体について、前記映像の画像フレーム中の前記物体の座標と前記物体を識別する追尾ラベルとを含む追尾結果を取得するステップと、
    取得された複数の追尾結果に基づいて、前記複数の映像の間で、画像フレーム中に検出された物体を対応付けるステップと、
    対応付け結果に基づいて、前記複数の映像の間で同一の物体であると推定される物体を一意に識別する物体ラベルを生成するステップと、
    生成された前記物体ラベルに基づいて、取得された複数の追尾結果を統合して、前記物体の3次元空間における位置を算出するステップと、
    を含むことを特徴とする画像処理方法。
  22. 撮像手段により撮像された映像から検出された追尾すべき物体の、前記映像の画像フレーム中の位置を算出すると共に、前記物体を識別する追尾ラベルを前記物体に付与して、前記物体の前記位置および前記追尾ラベルを含む追尾結果を生成するステップと、
    前記物体に付与された前記追尾ラベルと、複数の撮像手段によりそれぞれ撮像される複数の映像の間で同一の物体であると推定される物体を一意に識別する物体ラベルとの対を含むラベル変換辞書を入力するステップと、
    入力された前記ラベル変換辞書に基づいて、前記物体に付与された前記追尾ラベルを、前記他の物体ラベルで置き換えるステップと、
    置き換えられた前記物体ラベルを用いて、前記映像中の連続するフレームにわたり前記物体を追尾するステップと、
    前記追尾ラベルが前記物体ラベルで置き換えられた追尾結果を、ネットワークを介して接続される他の装置へ送信するステップと、
    を含むことを特徴とする画像処理方法。
  23. 複数の撮像手段により撮像された複数の映像とともに、複数の映像から検出された追尾すべき物体について、該物体の前記映像の画像フレーム中の前記物体の位置と、前記複数の映像の間で前記物体を一意に識別する物体ラベルとを含む追尾結果を取得するステップと、
    前記物体ラベルに基づいて、取得された複数の前記追尾結果を統合して算出された前記物体の3次元空間における位置を入力するステップと、
    表示装置に、前記複数の映像の画像と、前記3次元空間の3次元マップとを表示させる際に、同一の前記物体ラベルが付与された物体について、前記画像と前記3次元マップとの間で、前記物体の画像内の領域に同一の物体であることを示すシンボルを表示させるステップと、を含む
    ことを特徴とする画像処理方法。
  24. コンピュータが読み込み実行することで、前記コンピュータを請求項1から19のいずれか1項に記載の画像処理装置の各手段として機能させるコンピュータプログラム。
JP2015052701A 2015-03-16 2015-03-16 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム Active JP6573361B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015052701A JP6573361B2 (ja) 2015-03-16 2015-03-16 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム
EP16764475.6A EP3272117A4 (en) 2015-03-16 2016-03-14 Image processing apparatus, image processing system, method for image processing, and computer program
PCT/JP2016/001416 WO2016147644A1 (en) 2015-03-16 2016-03-14 Image processing apparatus, image processing system, method for image processing, and computer program
CN201680016280.2A CN107431786B (zh) 2015-03-16 2016-03-14 图像处理设备、图像处理系统和图像处理方法
US15/559,003 US10572736B2 (en) 2015-03-16 2016-03-14 Image processing apparatus, image processing system, method for image processing, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015052701A JP6573361B2 (ja) 2015-03-16 2015-03-16 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2016174252A true JP2016174252A (ja) 2016-09-29
JP6573361B2 JP6573361B2 (ja) 2019-09-11

Family

ID=56919538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015052701A Active JP6573361B2 (ja) 2015-03-16 2015-03-16 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム

Country Status (5)

Country Link
US (1) US10572736B2 (ja)
EP (1) EP3272117A4 (ja)
JP (1) JP6573361B2 (ja)
CN (1) CN107431786B (ja)
WO (1) WO2016147644A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018129736A (ja) * 2017-02-10 2018-08-16 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
WO2018159144A1 (ja) * 2017-03-01 2018-09-07 パナソニックIpマネジメント株式会社 3次元侵入検知システムおよび3次元侵入検知方法
JP2018173976A (ja) * 2018-06-20 2018-11-08 パナソニックIpマネジメント株式会社 3次元侵入検知システムおよび3次元侵入検知方法
WO2019017046A1 (ja) * 2017-07-21 2019-01-24 ソニー株式会社 情報処理装置、および情報処理方法
JP2019083579A (ja) * 2019-02-14 2019-05-30 キヤノン株式会社 情報処理装置、撮像装置、情報処理方法、およびプログラム
JP2019087824A (ja) * 2017-11-02 2019-06-06 日本信号株式会社 監視システム
KR20200094075A (ko) * 2019-01-29 2020-08-06 주식회사 스트라드비젼 다수의 차량을 통한 센서 퓨전, v2x 통신 가능한 애플리케이션을 이용한 협업 주행을 위해 주변에 위치하는 카메라 각각에 대응되는 각각의 객체 검출기에 의해 검출되는 객체 검출 정보를 통합하는 방법 및 장치

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3086284A1 (en) * 2015-04-23 2016-10-26 Application Solutions (Electronics and Vision) Limited Camera extrinsic parameters estimation from image lines
WO2017037754A1 (en) * 2015-08-28 2017-03-09 Nec Corporation Analysis apparatus, analysis method, and storage medium
JP6622150B2 (ja) * 2016-06-29 2019-12-18 株式会社東芝 情報処理装置および情報処理方法
US11249304B2 (en) * 2016-12-02 2022-02-15 Disney Enterprises, Inc. Augmented reality camera frustum
WO2018157092A1 (en) * 2017-02-27 2018-08-30 Ring Inc. Identification of suspicious persons using audio/video recording and communication devices
EP3506213A1 (en) * 2017-12-28 2019-07-03 Nokia Technologies Oy An apparatus and associated methods for presentation of augmented reality content
KR101930796B1 (ko) * 2018-06-20 2018-12-19 주식회사 큐픽스 이미지를 이용한 3차원 좌표 계산 장치, 3차원 좌표 계산 방법, 3차원 거리 측정 장치 및 3차원 거리 측정 방법
CN108921098B (zh) * 2018-07-03 2020-08-18 百度在线网络技术(北京)有限公司 人体运动分析方法、装置、设备及存储介质
CN109163707B (zh) * 2018-09-06 2019-11-26 百度在线网络技术(北京)有限公司 障碍物感知方法、系统、计算机设备、计算机存储介质
US10848539B2 (en) * 2018-09-20 2020-11-24 Cisco Technology, Inc. Genlock mechanism for software pacing of media constant bit rate streams
CN109345748B (zh) * 2018-10-31 2021-03-26 北京锐安科技有限公司 用户设备关联方法、装置、服务端、检测设备及介质
WO2020145882A1 (en) * 2019-01-09 2020-07-16 Hitachi, Ltd. Object tracking systems and methods for tracking a target object
US10891753B2 (en) * 2019-02-28 2021-01-12 Motorola Solutions, Inc. Device, system and method for notifying a person-of-interest of their location within an estimated field-of-view of a camera
CN110322475B (zh) * 2019-05-23 2022-11-11 北京中科晶上科技股份有限公司 一种视频的稀疏检测方法
CN110266999A (zh) * 2019-06-05 2019-09-20 长沙年余信息科技有限公司 一种园区场地安全监管的系统及其方法
CN110503007B (zh) * 2019-07-31 2023-04-07 成都甄识科技有限公司 一种基于热成像仪的活体动物监测方法、设备及系统
CN111753613B (zh) * 2019-09-18 2023-10-10 杭州海康威视数字技术股份有限公司 基于实验操作的图像分析方法、装置、设备及存储介质
CN111444854B (zh) * 2020-03-27 2021-03-02 科大讯飞(苏州)科技有限公司 异常事件检测方法、相关设备及可读存储介质
CN112200838B (zh) * 2020-10-10 2023-01-24 中国科学院长春光学精密机械与物理研究所 一种弹丸轨迹跟踪方法、装置、设备及存储介质
CN112560621A (zh) * 2020-12-08 2021-03-26 北京大学 基于动物图像的识别方法、装置、终端及介质
US20230230379A1 (en) * 2022-01-19 2023-07-20 Target Brands, Inc. Safety compliance system and method
CN114663648A (zh) * 2022-03-11 2022-06-24 深圳市商汤科技有限公司 结构化目标检测方法、装置、设备及存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0749952A (ja) * 1993-08-06 1995-02-21 Hitachi Ltd 移動物体監視装置
JP2006146378A (ja) * 2004-11-17 2006-06-08 Hitachi Ltd 複数カメラを用いた監視システム
JP2006245795A (ja) * 2005-03-01 2006-09-14 Toa Corp 動体追跡装置及び動体追跡表示装置
JP2010068466A (ja) * 2008-09-12 2010-03-25 Toshiba Corp 移動体追跡装置及び移動体追跡方法
US20130136298A1 (en) * 2011-11-29 2013-05-30 General Electric Company System and method for tracking and recognizing people
JP2013206140A (ja) * 2012-03-28 2013-10-07 Secom Co Ltd 移動物体追跡装置
JP2013242728A (ja) * 2012-05-21 2013-12-05 Secom Co Ltd 画像監視装置
WO2014050432A1 (ja) * 2012-09-27 2014-04-03 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
WO2014162554A1 (ja) * 2013-04-04 2014-10-09 株式会社Amatel 画像処理システムおよび画像処理用プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06119564A (ja) 1992-10-02 1994-04-28 Toshiba Corp 不審者検知システム
US6950123B2 (en) * 2002-03-22 2005-09-27 Intel Corporation Method for simultaneous visual tracking of multiple bodies in a closed structured environment
EP1596334A1 (en) * 2004-05-13 2005-11-16 Technologiestichting STW A hybrid graphical model for on-line multicamera tracking
EP1872307A4 (en) 2005-03-29 2012-10-03 Stoplift Inc METHOD AND APPARATUS FOR DETECTING SUSPICENT ACTIVITY USING VIDEO ANALYSIS
US7576639B2 (en) * 2006-03-14 2009-08-18 Mobileye Technologies, Ltd. Systems and methods for detecting pedestrians in the vicinity of a powered industrial vehicle
JP2010063001A (ja) 2008-09-05 2010-03-18 Mitsubishi Electric Corp 人物追跡装置および人物追跡プログラム
US8320617B2 (en) * 2009-03-27 2012-11-27 Utc Fire & Security Americas Corporation, Inc. System, method and program product for camera-based discovery of social networks
IL200065A (en) * 2009-07-26 2013-11-28 Verint Systems Ltd Location and contract based identification systems and methods
GB2515926B (en) * 2010-07-19 2015-02-11 Ipsotek Ltd Apparatus, system and method
CN104718749A (zh) * 2012-07-31 2015-06-17 日本电气株式会社 图像处理系统、图像处理方法及程序
JP6141079B2 (ja) 2013-04-08 2017-06-07 キヤノン株式会社 画像処理システム、画像処理装置、それらの制御方法、及びプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0749952A (ja) * 1993-08-06 1995-02-21 Hitachi Ltd 移動物体監視装置
JP2006146378A (ja) * 2004-11-17 2006-06-08 Hitachi Ltd 複数カメラを用いた監視システム
JP2006245795A (ja) * 2005-03-01 2006-09-14 Toa Corp 動体追跡装置及び動体追跡表示装置
JP2010068466A (ja) * 2008-09-12 2010-03-25 Toshiba Corp 移動体追跡装置及び移動体追跡方法
US20130136298A1 (en) * 2011-11-29 2013-05-30 General Electric Company System and method for tracking and recognizing people
JP2013206140A (ja) * 2012-03-28 2013-10-07 Secom Co Ltd 移動物体追跡装置
JP2013242728A (ja) * 2012-05-21 2013-12-05 Secom Co Ltd 画像監視装置
WO2014050432A1 (ja) * 2012-09-27 2014-04-03 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
WO2014162554A1 (ja) * 2013-04-04 2014-10-09 株式会社Amatel 画像処理システムおよび画像処理用プログラム

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018129736A (ja) * 2017-02-10 2018-08-16 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
WO2018159144A1 (ja) * 2017-03-01 2018-09-07 パナソニックIpマネジメント株式会社 3次元侵入検知システムおよび3次元侵入検知方法
JP2018147015A (ja) * 2017-03-01 2018-09-20 パナソニックIpマネジメント株式会社 3次元侵入検知システムおよび3次元侵入検知方法
GB2572933B (en) * 2017-03-01 2022-05-18 Panasonic Ip Man Co Ltd Three-dimensional intrusion detection system and three-dimensional intrusion detection method
GB2572933A (en) * 2017-03-01 2019-10-16 Panasonic Ip Man Co Ltd Three-dimensional intrusion detection system and three-dimensional intrusion detection method
JPWO2019017046A1 (ja) * 2017-07-21 2020-05-28 ソニー株式会社 情報処理装置、および情報処理方法
WO2019017046A1 (ja) * 2017-07-21 2019-01-24 ソニー株式会社 情報処理装置、および情報処理方法
US11132553B2 (en) 2017-07-21 2021-09-28 Sony Corporation Information processing apparatus and information processing method
CN110800313A (zh) * 2017-07-21 2020-02-14 索尼公司 信息处理设备和信息处理方法
JP2019087824A (ja) * 2017-11-02 2019-06-06 日本信号株式会社 監視システム
JP7149063B2 (ja) 2017-11-02 2022-10-06 日本信号株式会社 監視システム
JP2018173976A (ja) * 2018-06-20 2018-11-08 パナソニックIpマネジメント株式会社 3次元侵入検知システムおよび3次元侵入検知方法
KR20200094075A (ko) * 2019-01-29 2020-08-06 주식회사 스트라드비젼 다수의 차량을 통한 센서 퓨전, v2x 통신 가능한 애플리케이션을 이용한 협업 주행을 위해 주변에 위치하는 카메라 각각에 대응되는 각각의 객체 검출기에 의해 검출되는 객체 검출 정보를 통합하는 방법 및 장치
KR102229220B1 (ko) 2019-01-29 2021-03-18 주식회사 스트라드비젼 다수의 차량을 통한 센서 퓨전, v2x 통신 가능한 애플리케이션을 이용한 협업 주행을 위해 주변에 위치하는 카메라 각각에 대응되는 각각의 객체 검출기에 의해 검출되는 객체 검출 정보를 통합하는 방법 및 장치
JP2019083579A (ja) * 2019-02-14 2019-05-30 キヤノン株式会社 情報処理装置、撮像装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
US20180101732A1 (en) 2018-04-12
CN107431786A (zh) 2017-12-01
EP3272117A4 (en) 2018-12-12
EP3272117A1 (en) 2018-01-24
US10572736B2 (en) 2020-02-25
CN107431786B (zh) 2020-08-04
JP6573361B2 (ja) 2019-09-11
WO2016147644A1 (en) 2016-09-22

Similar Documents

Publication Publication Date Title
JP6573361B2 (ja) 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム
JP6355052B2 (ja) 撮像装置、画像処理装置、撮像方法および記録媒体
Kale et al. Moving object tracking using optical flow and motion vector estimation
JP6700752B2 (ja) 位置検出装置、位置検出方法及びプログラム
JP7282851B2 (ja) 装置、方法及びプログラム
US9477891B2 (en) Surveillance system and method based on accumulated feature of object
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
JP2023015989A (ja) 物品識別および追跡システム
JP5554726B2 (ja) データ関連付けのための方法と装置
KR102144394B1 (ko) 영상 정합 장치 및 이를 이용한 영상 정합 방법
JP2017194787A (ja) 画像処理装置および領域追跡プログラム
CN113362441A (zh) 三维重建方法、装置、计算机设备和存储介质
JP2016085602A (ja) センサ情報統合方法、及びその装置
Bashar et al. Multiple object tracking in recent times: A literature review
JP6659095B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5712401B2 (ja) 行動監視システム、行動監視プログラム、及び行動監視方法
JP6154759B2 (ja) カメラパラメータ推定装置、カメラパラメータ推定方法及びカメラパラメータ推定プログラム
Gruenwedel et al. Decentralized tracking of humans using a camera network
JP5441737B2 (ja) 画像処理装置、画像処理方法及び画像処理用プログラム
Sheikh et al. Object tracking across multiple independently moving airborne cameras
CN114882073A (zh) 目标跟踪方法和装置,介质和计算机设备
JP6606340B2 (ja) 画像検出装置、画像検出方法およびプログラム
JP2018190132A (ja) 画像認識用コンピュータプログラム、画像認識装置及び画像認識方法
WO2020022362A1 (ja) 動き検出装置、特性検出装置、流体検出装置、動き検出システム、動き検出方法、プログラム、および、記録媒体
Shal’nov et al. Estimation of the people position in the world coordinate system for video surveillance

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190809

R151 Written notification of patent or utility model registration

Ref document number: 6573361

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151