JP2017016356A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2017016356A
JP2017016356A JP2015131841A JP2015131841A JP2017016356A JP 2017016356 A JP2017016356 A JP 2017016356A JP 2015131841 A JP2015131841 A JP 2015131841A JP 2015131841 A JP2015131841 A JP 2015131841A JP 2017016356 A JP2017016356 A JP 2017016356A
Authority
JP
Japan
Prior art keywords
dimensional position
candidate
time
image
accuracy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015131841A
Other languages
English (en)
Other versions
JP2017016356A5 (ja
JP6659095B2 (ja
Inventor
内山 寛之
Hiroyuki Uchiyama
寛之 内山
矢野 光太郎
Kotaro Yano
光太郎 矢野
一郎 梅田
Ichiro Umeda
一郎 梅田
睦凌 郭
Muling Guo
睦凌 郭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015131841A priority Critical patent/JP6659095B2/ja
Priority to US15/084,381 priority patent/US9877012B2/en
Publication of JP2017016356A publication Critical patent/JP2017016356A/ja
Publication of JP2017016356A5 publication Critical patent/JP2017016356A5/ja
Application granted granted Critical
Publication of JP6659095B2 publication Critical patent/JP6659095B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】物体の三次元位置を推定する際に虚像を効果的に削減する。
【解決手段】連続して撮影されたフレーム画像群を、視野が重複している複数の撮像部のそれぞれから取得する。フレーム画像群上の物体を追尾する。物体のフレーム画像上の位置と複数の撮像部間の位置関係とに基づいて着目時刻における物体の三次元位置の候補を生成する。着目時刻における三次元位置の候補と、着目時刻より前の過去時刻における物体の三次元位置の候補とを対応付ける。着目時刻におけるフレーム画像に基づいて求められた着目時刻における三次元位置の候補が物体に対応する確度を示す局所対応確度と、過去時刻における三次元位置の候補が物体に対応する確度を示す積算対応確度と、の双方に基づいて、着目時刻における三次元位置の候補が物体に対応する確度を示す積算対応確度を求める。積算対応確度に基づいて着目時刻における物体の三次元位置を判定する。
【選択図】図1

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。
監視カメラシステムにおいて、視野が重複している複数のカメラを用いて物体を撮影することで、物体の三次元位置を推定する手法が提案されている。この手法によれば、ステレオ視の原理に従い、位置が既知のカメラで被写体を撮影することで、カメラ画像上の被写体の位置から被写体の三次元位置が推定される。
このとき、実際には物体が存在しない三次元位置において物体が存在すると推定されることが問題となる。以下では、物体が存在する三次元位置、すなわち正しく推定された三次元位置のことを実像と呼び、物体が存在しない三次元位置、すなわち誤って推定された三次元位置のことを虚像と呼ぶ。虚像は、カメラと人物との位置関係により生じる。図2は、虚像が生じるカメラと人物との位置関係を示している。図2においては、カメラ1が人物Bを、カメラ2が人物Aと人物Bとをそれぞれ捉えている。カメラと人物とを結ぶ直線の交点が物体の三次元位置として推定されるため、カメラ1と人物Bとを結ぶ直線と、カメラ2と人物Bとを結ぶ直線との交点に実像が生じる。その一方で、カメラ1と人物Bとを結ぶ直線と、カメラ2と人物Aとを結ぶ直線との交点にも虚像が生じる。
この問題の解決方法として、特許文献1では、像の動きの連動性に基づいて虚像を低減する方法を提案している。具体的には、虚像に連動して動く像が多いという性質を利用して、ある像に連動して動く像を計数し、計数された値が多いと像は虚像として判別される。また、特許文献2は、人物の三次元移動軌跡を求め、これらの三次元移動軌跡の断片を連結して、それぞれの人物の完全な移動軌跡を算出する方法を開示している。特許文献2の方法によれば、一定時間の長さにわたる軌跡同士を連結することにより虚像を削減することができる。
特許第5454573号公報 特開2010−063001号公報
特許文献1の方法には、カメラ数又は物体数が多いと虚像が増えるため、連動性に基づいて虚像を判別することが容易ではないという課題があった。また、特許文献2の方法は、一定時間の長さの軌跡同士を連結するため、即応性が要求される場合には利用しにくいとともに、計算量が大きくなるという課題があった。
本発明は、物体の三次元位置を推定する際に虚像を効果的に削減することを目的とする。
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。すなわち、
連続して撮影されたフレーム画像群を、視野が重複している複数の撮像部のそれぞれから取得する取得手段と、
前記フレーム画像群上の物体を追尾する追尾手段と、
前記物体のフレーム画像上の位置と前記複数の撮像部間の位置関係とに基づいて着目時刻における前記物体の三次元位置の候補を生成する生成手段と、
前記着目時刻における三次元位置の候補と、前記着目時刻より前の過去時刻における前記物体の三次元位置の候補とを対応付ける対応付け手段と、
前記着目時刻におけるフレーム画像に基づいて求められた前記着目時刻における三次元位置の候補が前記物体に対応する確度を示す局所対応確度と、前記過去時刻における三次元位置の候補が前記物体に対応する確度を示す積算対応確度と、の双方に基づいて、前記着目時刻における三次元位置の候補が前記物体に対応する確度を示す積算対応確度を求める算出手段と、
前記積算対応確度に基づいて前記着目時刻における前記物体の三次元位置を判定する判定手段と、
を備える。
本発明によれば、物体の三次元位置を推定する際に虚像を効果的に削減することができる。
一実施形態に係る画像処理装置の機能構成例を示すブロック図。 虚像について説明する図。 一実施形態に係る画像処理装置のハードウェア構成例を示す図。 一実施形態に係る処理のフローチャート。 三次元位置の候補を生成する処理のフローチャート。 三次元位置の候補を生成する処理を説明する図。 三次元位置の候補を生成する処理を説明する図。 対応確度を算出する処理のフローチャート。 画像に投影された三次元位置の候補と物体との距離を説明する図。 三次元位置の候補と物体とを対応付ける処理のフローチャート。 一実施形態における表示画像例を示す図。
以下、本発明の実施形態について説明する。以下では人物を検出対象とする場合について説明するが、検出対象は他の物体であってもよい。
図3は、本実施形態に係る画像処理装置100のハードウェア構成例を示す。撮像素子301は撮像部に相当し、光学的な被写体像を電気信号に変換する。撮像素子301としては、例えばCCD又はCMOS等を用いることができる。信号処理回路302は、撮像素子301から得られた時系列の電気信号をデジタル信号に変換する。撮像素子301及び信号処理回路302により、被写体像を含む画像を生成することができる。以下の説明においては、画像処理装置100は複数のカメラを有しており、それぞれのカメラが撮像素子301を備えているものとする。
CPU303は、ROM304に格納されている制御プログラムを実行することにより、画像処理装置100全体の制御を行う。より具体的には、CPU303が制御プログラムを実行することにより、図1に示される各機能が実現され、及び後述するフローチャートに示される各処理が行われる。ROM304は、CPU303が実行する制御プログラム及び各種パラメータデータを格納する記憶媒体である。RAM305は、画像及び各種情報を記憶する。また、RAM305は、CPU303のワークエリア、又はデータの一時待避領域として機能する。ディスプレイ306は画像を表示する。
画像処理装置100の構成は図3に示すものには限られない。例えば、画像処理装置100は汎用のPCを用いて実現することもできる。この場合、画像処理装置100が撮像素子301、信号処理回路302及びディスプレイ306を有する必要はない。一実施形態において、撮像素子301及び信号処理回路302はカメラのような撮像装置に含まれ、この撮像装置は画像処理装置100と通信可能である。このような実施形態において画像処理装置100は、2つ以上の撮像素子301のそれぞれにより得られた電気信号を取得することができる。
また、コンピュータ等の処理装置において、CPU303のようなプロセッサが、ネットワーク又は記憶媒体を介して取得したソフトウェア(プログラム)を実行することにより、図1に示される機能及び後述するフローチャートに示す各処理を実現してもよい。一方で、これらの機能及び処理のうち1以上を、電子回路等の専用のハードウェアを用いて実現することもできる。例えば、画像処理装置100は物体検出専用のハードウェアで構成された物体検出専用装置であってもよい。
画像処理装置100の機能構成を図1に示す。画像処理装置100は、情報保持部103、物体追尾部102、位置記憶部123、確度算出部109及び位置確定部115を備える。画像処理装置100はさらに、画像取得部101、位置生成部104、位置併合部124、対応記憶部125、位置更新部119、位置削除部122及び表示制御部126を備える。
以下の説明においては、画像処理装置100は、視野が重複している2台のカメラを有しているものとする。上述のように、それぞれのカメラは撮像素子301を備えている。もっとも、カメラの台数は2台以上であれば特に制限されない。
情報保持部103は、キャリブレーションを行うことにより得られた各カメラの内部パラメータ及び位置姿勢に関する情報を保持する。キャリブレーション方法としては公知の方法を採用することができる。例えば、環境中に設置されたキャリブレーションボードをカメラで撮像することにより得られた画像を用いて、各カメラの内部パラメータを求めることができる。具体的な方法としては、Zhengyou Zhang. "A flexible New Technique for Camera Calibration", IEEE Transactions on Pattern Analysis and Machine Intelligence, 22(11):1330-1334, 2000.に記載の方法が挙げられる。その後、環境中に設置された位置姿勢が既知であるキャリブレーションマーカーをカメラで撮像することにより得られた画像を用いて、各カメラの位置姿勢を推定することができる。
別の方法として、カメラによって撮像された画像からコーナーやSIFT特徴等の特徴点を抽出し、それぞれの画像から抽出された特徴点を対応づけることにより、カメラの位置姿勢を推定する方法を用いることもできる。具体的な方法としては、Pierre Moulon, Pascal Monasse, and Renaud Marlet. "Adaptive structure from motion with a contrario model estimation", Computer Vision - ACCV 2012: 11th Asian Conference on Computer Vision, Part IV, pp. 257-270, 2013.に記載の方法が挙げられる。また、カメラの内部パラメータと位置姿勢とを同時に求めてもよい。
画像取得部101は、連続して撮影されたフレーム画像群を複数の撮像部のそれぞれから取得する。例えば、画像取得部101は、各カメラから、連続して撮影されたフレーム画像群で構成される映像を取得することができる。本実施形態においては2台のカメラが用いられるため、画像取得部101は2つの映像を取得する。画像処理装置が備える各部は、ほぼ同時に各カメラにより撮像された複数のフレーム画像を参照して処理を行う。
物体追尾部102は、画像取得部101が取得したフレーム画像群上の物体を追尾する。例えば、物体追尾部102は、画像取得部101により取得されたそれぞれのフレーム画像に対して追尾処理を行うことができる。この結果、追尾対象物体の画像領域がそれぞれのフレーム画像から検出される。本実施形態では人物の追尾が行われるため、物体追尾部102は、画像から人物領域を抽出し、着目時刻の画像から抽出された人物領域と、同一の人物に関して過去の画像から抽出された人物領域と、を対応付ける。こうして、複数の時刻にわたって同一人物を追尾することができる。追尾処理の方法としては公知の方法を用いることができる。例えば、連続する画像のそれぞれに対して人物検出処理を行い、それぞれの画像から検出された人物をマッチングスコアに基づいて対応づけることにより、人物追尾を行うことができる。具体的な方法としては、M. D. Breitenstein et al. "Robust tracking-by-detection using a detector confidence particle filter", 2009 IEEE 12th International Conference on Computer Vision (ICCV), pp. 1515-1522.に記載の方法が挙げられる。
物体追尾部102による追尾処理の結果、それぞれの画像に含まれる追尾対象物体の二次元位置と、追尾対象物体の識別子とのセットが得られる。以下では、追尾対象物体の画像領域のことを追尾結果又は単に物体と呼び、追尾対象物体の識別子のことを追尾結果の識別子と呼ぶ。本実施形態においては、それぞれの画像に含まれる人物の二次元位置と、人物の識別子とのセットが得られる。より具体的には、それぞれの画像に含まれる人物領域の二次元位置と、人物領域の識別子とのセットが得られる。本実施形態において人物領域は矩形領域であり、人物領域の二次元位置としては矩形領域の代表点座標(x,y)、矩形領域の高さh、及び矩形領域の幅wが得られる。代表点座標は、例えば検出された顔領域の中心座標、又は矩形領域の中心座標等でありうる。また、追尾結果の識別子として、2D追尾ラベルiが得られる。2D追尾ラベルiは、それぞれのカメラについて、画像中で追尾されている人物を識別するための符号である。同じカメラにより得られた画像において、異なる人物に対しては異なる2D追尾ラベルiが付されるように、2D追尾ラベルiは決定される。
位置記憶部123は、三次元位置の情報を記憶する。詳細は後述する。
位置生成部104は、物体のフレーム画像上の位置と複数の撮像部間の位置関係とに基づいて着目時刻における物体の三次元位置の候補を生成する。例えば、位置生成部104は、物体追尾部102による追尾処理により得られた人物の二次元位置に基づいて、三次元位置の候補を新規に生成することができる。具体的には、位置生成部104は、それぞれの画像から検出された人物の二次元位置を対応付けることにより、三次元位置の候補を作成する。三次元位置とは三次元空間中の人物の位置を示すものであり、座標(x,y,z)で表される。また、位置生成部104は、三次元位置の候補に対して、識別子と、属性情報とを割り当てる。以下では、三次元位置の候補を単に三次元位置と呼ぶことがある。
識別子とは、生成された三次元位置の候補を識別するための符号であり、例えば3D追尾ラベルjを用いることができる。異なる三次元位置に対しては異なる3D追尾ラベルjが付されるように、3D追尾ラベルjは決定される。また、属性情報とは、三次元位置の性質を表す値又は符号である。本実施形態においては、三次元位置に対応する追尾結果の属性(物体の属性)を用いて三次元位置の属性が決定される。例えば、人物の色(色属性)を属性として用いることができる。別の実施形態においては、色属性の代わりに、人物の年齢、性別、身長、向き若しくは大きさ、又は追尾結果から抽出した特徴量等を、属性として用いることができる。具体的な一例として、位置生成部104は、三次元位置の候補を生成する際に参照された各フレーム画像上の追尾結果から特徴量を抽出し、三次元位置の属性として、各フレーム画像について抽出された特徴量の統計量、例えば平均値、を算出することができる。
位置生成部104は、対応付け部105、位置推定部106及び属性抽出部107を備える。対応付け部105は、物体追尾部102により追尾されている人物を画像間で対応付ける。位置推定部106は、対応付け部105により対応付けられた人物の三次元位置の候補を生成する。属性抽出部107は、対応付け部105により対応付けられた人物の属性を取得する。これらの詳細については後に説明する。
位置記憶部123は、三次元位置の情報を記憶する。例えば、位置記憶部123は、位置生成部104により生成された三次元位置の候補と、この三次元位置についての3D追尾ラベルjと、この三次元位置についての属性と、のセットを記憶することができる。
位置併合部124は、着目時刻における三次元位置の候補と、着目時刻より前の過去時刻における物体の三次元位置の候補とを対応づける。本実施形態においては、位置併合部124は、物体のフレーム画像上の位置と複数の撮像部間の位置関係とに基づいて生成された着目時刻における三次元位置の候補と、過去時刻における三次元位置の候補と、を併合する。こうして、位置併合部124は、着目時刻における三次元位置の候補を過去時刻における三次元位置の候補と対応づける。
例えば、位置併合部124は、位置生成部104により生成された複数の三次元位置の候補を1つに併合することができる。この処理により、同一人物に対応すると判定された三次元位置同士が併合される。また、この処理の結果、着目時刻における三次元位置の候補と、着目時刻より前の過去時刻における物体の三次元位置の候補と、の対応付けが実現できる。もっとも、三次元位置を併合することにより対応付けを行うことは必ずしも必須ではなく、着目時刻における三次元位置の候補と過去時刻における三次元位置の候補とが同一人物に対応すると判定されたことを示す情報を記録することもできる。
位置生成部104による処理の結果、同一人物の三次元位置が複数生成されることがある。また、図4に示す処理全体により生じる推定誤りによって、同一人物の三次元位置が複数存在することがある。そこで、位置併合部124は、同一人物の三次元位置を1つに限定するために、同一人物とみなせる複数の三次元位置を探索して1つに併合する。また、位置併合部124は、現在処理対象となっている着目時刻におけるフレーム画像を用いて生成された三次元位置の候補と、着目時刻よりも前の過去時刻におけるフレーム画像を用いて生成された三次元位置の候補と、も併合する。対応記憶部125は、位置併合部124により併合された三次元位置が同一人物であることを示す情報を記憶する。これらの詳細については後に説明する。
確度算出部109は、着目時刻における三次元位置の候補が物体に対応する積算対応確度を求める。この処理は、着目時刻におけるフレーム画像に基づいて求められた着目時刻における三次元位置の候補が物体に対応する確度を示す局所対応確度と、過去時刻における三次元位置の候補が物体に対応する確度を示す積算対応確度と、の双方に基づいて行われる。本実施形態において、確度算出部109は、着目時刻tのみを考慮した三次元位置jと追尾結果iとの間の対応確度(局所対応確度)と、過去のフレーム画像に基づく三次元位置jと追尾結果iとの間の対応確度(積算対応確度)とに基づいて対応確度を計算する。対応確度の計算方法については後に詳しく説明する。
これらの対応確度とは、三次元位置の候補が示す物体が、追尾されている物体と同一である可能性を示す指標であり、三次元位置と追尾結果とが同一人物に対応する度合いを示すものである。こうして、確度算出部109は、三次元位置と追尾結果間の対応確度を計算する。ここで、三次元位置とは位置併合部124による併合処理により得られた三次元位置のことを指し、それぞれの三次元位置を3D位置ラベルjを用いて三次元位置jと呼ぶ。また、追尾結果とは物体追尾部102による処理によりそれぞれの画像において追尾されている人物のことを指し、それぞれの追尾結果を2D位置ラベルiを用いて追尾結果iと呼ぶ。
確度算出部109は、距離計算部110、相違度計算部111、局所確度計算部112、積算確度計算部113及び積算確度記憶部114を備える。距離計算部110は、三次元位置と物体追尾部の結果とカメラの位置関係とから物体距離を計算する。具体的には、画像に投影された三次元位置と追尾結果の画像上の距離を計算する。相違度計算部111は、三次元位置の持つ色属性と追尾結果の人物検出領域から抽出される色属性の相違度を計算する。局所確度計算部112は、着目時刻tのみを考慮した三次元位置と追尾結果間の対応確度(局所対応確度)を計算するものであり、詳細は後述する。積算確度計算部113は、積算確度記憶部114に記憶された積算対応確度を局所確度計算部112で取得された局所対応確度で更新するものであり、詳細は後述する。積算確度記憶部114は、求められた積算対応確度を、着目時刻における三次元位置の候補が物体に対応する確度を示す積算対応確度として記録する。記録される積算対応確度は、局所対応確度を積算して得られる値に相当する。
位置確定部115は、積算対応確度に基づいて前目時刻における物体の三次元位置を判定する。本実施形態において位置確定部115は、記録された積算対応確度がより高い、着目時刻における三次元位置の候補を、着目時刻における物体の三次元位置に対応すると判定する。このようにして位置確定部115は、対応確度から三次元位置を確定する。本実施形態では、三次元位置の実像らしさを表わす実像信頼度を計算し、それを用いて実像であることを確定する。さらに三次元位置と追尾結果の対応関係を求める。位置確定部115は、信頼度算出部116、位置選択部117及び結果選択部118を備える。信頼度算出部116は、三次元位置の実像らしさを表わす実像信頼度を計算する。位置選択部117は、実像信頼度が大きな三次元位置を求め、実像として確定する。結果選択部118は、三次元位置に対応する追尾結果を確定する。これらの処理の詳細は後述する。
位置更新部119は、位置確定部115で求めた三次元位置と追尾結果の対応関係を用いて、三次元位置及び属性を更新する。位置更新部119は、座標更新部120及び属性更新部121を備える。座標更新部120及び属性更新部121は、それぞれ三次元位置及びそれが持つ属性を更新する。位置削除部122は、不要な三次元位置を削除する。表示制御部126は、物体の検出結果や三次元位置をカメラ画像とともにディスプレイに表示させる。
以下で、図4のフローチャートを参照して、画像処理装置100の動作について説明する。ステップS401においては、上述のようにキャリブレーションを行うことにより、各カメラの内部パラメータ及び位置姿勢が推定され、これらの情報が情報保持部103に保持される。ステップS402において画像取得部101は、上述のように各カメラからフレーム画像を取得する。以下では、画像取得部101は時刻tにおけるフレーム画像を取得するものとする。ステップS403において物体追尾部は、上述のように人物追尾処理を行い、それぞれの追尾結果に代表点座標(x,y)、高さh、幅w、及び2D追尾ラベルiを割り当てる。
ステップS404において、位置生成部104は、上述のように人物の三次元位置の候補を生成し、位置記憶部123に三次元位置の情報を格納する。ステップS404の処理の詳細について、図5を参照して説明する。ステップS501において、位置推定部106は、ある画像から検出された追尾結果が、他の画像のどの追尾結果に対応するかを探索する。画像間での追尾結果の対応付け方法は特に限定されないが、例えばエピポーラ幾何を用いる方法が挙げられる。以下では、エピポーラ幾何を用いて追尾結果を対応づける方法について説明する。説明のために、以下ではカメラ1及びカメラ2の2つのカメラが用いられるものとし、一方のカメラにより撮像された画像をカメラ画像1、他方のカメラにより撮像された画像をカメラ画像2と呼ぶ。
図6(A)はカメラ画像1を示す。カメラ画像1には、人物Aが映っている。情報保持部103は、それぞれのカメラの相対的位置姿勢及び内部パラメータを示す情報を有しているため、この情報を参照して、カメラ画像1において所定の位置に映っている人物Aは、カメラ画像2においてどの位置に映るのかを知ることができる。具体的には、人物Aがカメラ画像2に映っている場合、その位置はエピポーラ線と呼ばれる直線上のどこかになる。
カメラ1,2の位置姿勢及び内部パラメータから得られる、カメラ画像1とカメラ画像2との間での位置関係の情報を含む行列である基礎行列をFとする。さらに、カメラ画像1における人物Aの次元座標を表わすベクトルをxとする。すると、従来より知られているように、ると、エピポーラ線lは次式で表わされる。
Figure 2017016356
対応付け部105は、カメラ画像2において、代表点とエピポーラ線間の距離が閾値以下となる人物を、人物Aに対応する人物として判定する。例えば、図6において、人物Aには、人物B及び人物Cが対応する。もっとも、人物Aと同一の人物はカメラ画像2中にはせいぜい1人しかいないから、人物Bと人物Cとの少なくとも一方は、人物Aに対応する人物として誤検出されている。
ステップS502において位置推定部106は、ステップS501で対応づけられた人物の組に基づいて、この人物の三次元位置を推定する。この推定は、三角測量の原理に従って行うことができる。例えば、三次元空間中において、カメラAの光学中心から人物Aの代表点の方向へと向かう直線と、カメラBの光学中心から人物Bの代表点の方向へと向かう直線と、の交点を、同一人物と推定される人物A,Bの推定三次元位置として取得することができる。具体例としては、位置推定部106は、図7に示すように、各カメラ画像における人物の代表点の座標とカメラの中心座標とを結ぶ三次元空間中の直線を取得する。そして、位置推定部106は、複数のカメラから得られたこれらの直線が交差する座標を取得する。厳密にはこれらの直線が交差することは稀であるから、位置推定部106は、交点の座標の代わりに、これらの直線の共通垂線の中点座標を人物の推定三次元位置として取得することができる。
ステップS503において属性抽出部107は、ステップS501で対応づけられた人物の組について属性を取得する。本実施形態において、属性抽出部107は、それぞれのカメラ画像に含まれる追尾結果の属性を取得し、得られた属性値に基づいて人物の組についての属性を取得する。具体例としては、属性抽出部107は、カメラ画像1における人物Aの追尾結果の色属性と、カメラ画像2における人物Bの追尾結果の色属性とを計算することができる。この色属性は、例えば追尾結果の色の平均でありうる。そして、属性抽出部107は、それぞれの追尾結果の色属性の平均を、人物A,Bについての色属性として用いることができる。
別の実施形態において対応付け部105は、エピポーラ幾何の代わりに、又はエピポーラ幾何に加えて、追尾結果の属性を参照して人物の対応付けを行うこともできる。具体例としては、各追尾結果の属性の誤差が閾値以下である場合に、各人物を対応づけることができる。この場合、ステップS501の前に、属性抽出部107は、各追尾結果の属性(例えば色属性)を取得することができる。また、ステップS503において属性抽出部107は、既に求められている、対応するカメラ画像に含まれる追尾結果の色属性を平均することにより、人物の色属性を取得することができる。
ステップ404では、2台のカメラ間での対応付けについて説明した。しかしながら、3台以上のカメラを用いる場合も、同様に対応付けを行うことができる。例えば、複数のカメラから選択された2台のカメラの組み合わせのそれぞれについて、対応付け及び三次元位置の候補の生成を行うことができる。また、多視点の幾何拘束を用いて対応付け及び三次元位置の候補の生成を行うこともできる。
ステップS404によれば、ステップS403で検出された追尾結果に基づいて新しい三次元位置が作成される。この処理により、以前のフレーム画像では検出されていない新しい実像候補を探し出すことができる。
ステップS405において位置併合部124は、上述のように、同一人物に対応すると判定される三次元位置同士を1つに併合する。本実施形態では、三次元位置同士の距離が短い場合にそれぞれの三次元位置は同一人物を表すものとみなし、位置併合部124はそれぞれの三次元位置を併合する。具体例としては、位置併合部124は、互いの距離が一定値以下である三次元位置を探索し、距離が短い三次元位置同士のグループを作成する。こうして1つのグループに入れられた三次元位置が併合される。位置併合部124は、そして、それぞれのグループについて三次元位置の平均座標をもとめ、これを併合後の三次元位置の座標とする。
本実施形態においては、着目時刻のフレーム画像に基づいて位置生成部104により生成された三次元位置と、過去のフレーム画像に基づいて位置生成部104により生成された三次元位置との距離が短い場合も、それぞれの三次元位置を併合する。具体例としては、位置併合部124は、前回のステップS405により過去のフレーム画像を参照して得られた併合後の三次元位置と、今回のステップS404において着目時刻のフレーム画像を参照して生成された三次元位置の候補と、を併合することができる。別の実施形態においては、過去のフレーム画像に基づいて過去のステップS404において生成された三次元位置の候補と、着目時刻のフレーム画像に基づいて今回のステップS404において生成された三次元位置の候補と、を併合することもできる。
併合後の三次元位置の属性及び3D追尾ラベルjとしては、併合前のいずれかの三次元位置のものが採用される。本実施形態においては、最も古い時刻から存在する三次元位置の属性及び3D追尾ラベルjが採用される。このような構成は、三次元位置に生成された時刻を示す情報を付加することにより実現できる。しかしながら、他の採用基準を用いることもできる。位置併合部124は、さらに、それぞれ異なる物体に対応すると判定された過去時刻における2以上の三次元位置の候補を併合した場合、2以上の三次元位置が同一物体に対応することを示す情報を記録することができる。例えば、位置併合部124は、採用されなかった3D追尾ラベルを有する三次元位置と、採用された3D追尾ラベルを有する三次元位置とが、同一人物を表すことを示す情報を記録することができる。具体例としては、位置併合部124は、これらの3D追尾ラベルが同一であることを示す情報を対応記憶部125に記録することができる。
本実施形態では距離が短い三次元位置同士を併合したが、併合方法はこの方法には限られず、他の基準に従って併合する三次元位置を決定することもできる。例えば、着目時刻における三次元位置の候補と過去時刻における三次元位置の候補との間の距離を用いることができる。また、着目時刻における三次元位置の候補に対応する物体の属性と過去時刻における三次元位置の候補に対応する物体の属性との相違度を用いることもできる。これらのうちの少なくとも一方に基づいて、着目時刻における三次元位置の候補と過去時刻における三次元位置の候補とを併合することができる。例えば、属性が類似する三次元位置同士を併合することもできるし、三次元位置間の距離と属性の相違とに基づいて併合する三次元位置を決定することもできる。ここで、現在時刻又は過去時刻における三次元位置の候補に対応する物体とは、三次元位置の候補を生成する際に参照された各フレーム画像上の物体(追尾結果)であってもよい。一方で、過去時刻における三次元位置の候補に対応する物体は、三次元位置の候補に対応する積算対応確度が所定値以上でありかつ積算対応確度が最も高い物体としてフレーム画像毎に選択された物体(追尾結果)であってもよい。
ステップS405によれば、同一人物である可能性のある複数の実像候補を1つに絞り込むことができる。この処理により、実像の特定精度の向上が見込まれる。また、冗長な三次元位置を削除することにより、計算量削減の効果が見込まれる。
ステップS406で確度算出部109は、上述のように、三次元位置と追尾結果間の対応確度を計算する。ステップS406の詳細を図8のフローチャートを参照して説明する。本実施形態においては着目時刻における三次元位置の候補と過去時刻における三次元位置の候補とを併合して得られた三次元位置jのそれぞれについて対応確度が計算される。しかしながら、着目時刻における三次元位置の候補、又は着目時刻における複数の三次元位置の候補を併合して得られる三次元位置の候補、のそれぞれについて対応確度が計算されてもよい。
ステップS801において距離計算部110は、図9(a)に示すように、三次元位置jのそれぞれを、それぞれのカメラ画像に投影する。次にステップS802で距離計算部110は、図9(b)に示すように、カメラ画像に投影された三次元位置jと追尾結果iとの画像上の距離を計算する。例えば、カメラ画像1上で人物A,Bが追尾されており、カメラ画像2上で人物C,Dが追尾されている場合について考える。この場合、まずカメラ画像1に投影された三次元位置jと人物Aの追尾結果との距離、及びカメラ画像1に投影された三次元位置jと人物Bの追尾結果との間の距離が計算される。また、カメラ画像2に投影された三次元位置jと人物Cの追尾結果との間の距離、及びカメラ画像2に投影された三次元位置jと人物Dの追尾結果との間の距離も計算される。また、これらの計算がそれぞれの三次元位置jについて行われる。
ステップS803で相違度計算部111は、三次元位置jの持つ属性と追尾結果iの属性との相違度を計算する。ここで、追尾結果iの属性とは、追尾結果iに対応する人物検出領域から抽出された属性のことを指す。本実施形態において、三次元位置jの持つ属性、及び追尾結果iの属性は色属性のことを指す。また、本実施形態において、三次元位置jの持つ色属性と追尾結果iの色属性との相違度としては、三次元位置jの持つ色属性のRGB値と追尾結果iの色属性のRGB値との2乗誤差を用いる。カメラ画像1上で人物A,Bが追尾されており、カメラ画像2上で人物C,Dが追尾されている上記の場合、三次元位置jと、人物A,B,C,Dのそれぞれとの間で相違度が計算される。また、これらの計算がそれぞれの三次元位置jについて行われる。
ステップS804で局所確度計算部112は、三次元位置jと追尾結果iが対応している確度を表す局所対応確度を求める。この際、着目時刻におけるフレーム画像上での着目時刻における三次元位置の候補に対応する位置と物体の位置との間の距離と、着目時刻における三次元位置の候補に対応する物体の属性と物体の属性との相違度と、の少なくとも一方を用いることができる。具体的な例としては、局所確度計算部112は、ステップS802で計算された距離と、ステップS803で計算された属性の相違度との少なくとも一方に基づいて、局所対応確度を求めることができる。ここで、三次元位置の候補に対応する物体は、三次元位置の候補を生成する際に参照された各フレーム画像上の物体でありうる。
例えば、局所確度計算部112は、ステップS802で計算された距離と、ステップS803で計算された属性の相違度とに基づいて局所対応確度st i,jを計算する。局所確度計算部112は、距離及び相違度が小さいほど局所対応確度が大きくなるように、局所対応確度を計算することができる。具体例としては、局所確度計算部112は、ステップS802で計算された距離とステップS803で計算された相違度との重み付き平均を任意の重みを用いて求め、さらに局所対応確度として得られた重み付け平均の逆数を求めることができる。本実施形態において、局所確度計算部112は、局所対応確度を距離と相違度との双方から求めるが、どちらか1つだけを用いて局所対応確度を求めてもよい。ステップS804により、三次元位置jと、人物A,B,C,Dのそれぞれとの間で局所対応確度が計算される。また、これらの計算がそれぞれの三次元位置jについて行われる。このように、局所対応確度は、着目時刻におけるフレーム画像に基づいて求められる。
ステップS805で積算確度計算部113は、三次元位置jと追尾結果iとの現在の積算対応確度を、ステップS804で求めた局所対応確度st i,jと、過去に求めた積算対応確度at-1 i,jとから求める。こうして求められる現在の積算対応確度at i,jは、着目時刻tにおけるフレーム画像を用いて算出された積算対応確度に相当する。また、過去に求めた積算対応確度at-1 i,jとは、時刻t−1におけるフレーム画像を用いて算出された積算対応確度のことを指す。
積算確度計算部113は、局所対応確度st i,j及び過去の積算対応確度at-1 i,jが大きいほど現在の積算対応確度が大きくなるように、現在の積算対応確度at i,jを求めることができる。例えば、積算確度計算部113は、現在の積算対応確度at i,jとして、局所対応確度st i,jと過去の積算対応確度at-1 i,jとの任意の重みを用いた重み付き平均を求めることができる。具体例としては、下式を用いる方法が挙げられる。
Figure 2017016356
上式においてwは更新重みを表し、通常0<w<1である。
ステップS805において積算確度計算部113はさらに、閾値以上の値を有する現在の積算対応確度at i,jを、積算確度記憶部114に記録する。次回のステップS407において時刻t+1におけるフレーム画像を用いて積算対応確度at+1 i,jを算出する際には、こうして記録された積算対応確度at i,jは、過去の積算対応確度として参照される。一方で、積算確度計算部113は、現在の積算対応確度が所定値未満である場合、この積算対応確度を記録しない。三次元位置jと追尾結果iとの間の積算対応確度at i,jが閾値未満である場合には、積算確度計算部113は三次元位置jと追尾結果iとの関係は薄いものと判断し、積算対応確度at i,jを記録せず破棄する。
ステップS407において位置確定部115は、それぞれの三次元位置jについて、三次元位置jと追尾結果iとの間の積算対応確度at i,jを用いて、実像らしさを表す実像信頼度Ljを求める。そして、位置確定部115は、実像信頼度Ljに基づいて、三次元位置jを実像を表す三次元位置として確定する。具体的には、位置確定部115は、実像として確定された三次元位置jの実像信頼度が高くなるように、三次元位置jのうちいくつかを実像を表す三次元位置として確定する。そして、位置確定部115、実像として確定した三次元位置に対して対応する追尾結果を割り当て、実像として確定された三次元位置jと追尾結果iとの対応関係を記録する。ステップS407の詳細を図10に示す。図10の処理においては、ステップS1004で処理を継続しないと判定されるまで、ステップS1001からステップS1004までが繰り返し実行される。
ステップS1001において信頼度算出部116は、三次元位置jの実像らしさを表す実像信頼度Ljを求める。信頼度算出部116は、積算対応確度at i,jがより高い追尾結果iを有しているほど実像信頼度Ljが高くなるように、三次元位置jの実像信頼度Ljを算出する。具体例としては次のような方法が挙げられる。以下の処理は、ステップS1003において実像として確定されていない全ての三次元位置jと、ステップS1003において実像に対応する追尾結果として確定されていない全ての追尾結果iを用いて行われる。
まず、信頼度算出部116は、着目時刻における三次元位置の候補のそれぞれについて、1つのフレーム画像群上で追尾されている物体に対応して記録されている積算対応確度を取得する。例えば、信頼度算出部116は、それぞれのカメラ画像について、積算対応確度at i,jが最も高くなる追尾結果iを探索する。
ここでは、1つの三次元位置jに対応する、それぞれのカメラ画像上の追尾結果iは1つであるとする。例えば、カメラ画像1上で人物A,Bが追尾されており、カメラ画像2上で人物C,Dが追尾されている上記の場合であって、まだ三次元位置jが実像として確定されていない場合について説明する。この場合、信頼度算出部116は、フレーム画像群上で追尾されている1以上の物体のうち積算対応確度が最も高くなる物体を選択する。そして、フレーム画像群についての積算対応確度として、選択された物体に対応して記録されている積算対応確度が選択される。例えば、人物Aと人物Bとのうち、三次元位置jとの積算対応確度がより大きくなる人物の追尾結果が、カメラ画像1上の追尾結果として選択される。また、人物Cと人物Dとのうち、三次元位置jとの積算対応確度がより大きくなる人物の追尾結果が、カメラ画像2上の追尾結果として選択される。
そして、信頼度算出部116は、複数のフレーム画像群のそれぞれについて取得された積算対応確度に応じて三次元位置の候補の実像信頼度を求める。例えば、信頼度算出部116は、三次元位置jの実像信頼度Ljとして、それぞれのカメラ画像について選択された追尾結果と三次元位置jとの間の積算対応確度を合計する。具体的には、三次元位置jの実像信頼度Ljは下式で表すことができる。
Figure 2017016356
上式において、Ajは三次元位置jに対応する追尾結果の集合である。1つの三次元位置jに対応するそれぞれのカメラ画像上の追尾結果iは1つであるから、Ajに含まれる追尾結果はカメラ1つにつき最大1つであり、Ajの要素数の最大値はカメラ数である。このように、実像信頼度Ljは、それぞれの三次元位置jについて、実像信頼度Ljが高くなるように追尾結果iを仮に対応づけることにより求められる。以上のように、信頼度算出部116は、それぞれの三次元位置jについて実像信頼度Ljを求める。
ステップS1002において、位置選択部117は、より高い実像信頼度を有する三次元位置の候補を、着目時刻における物体の三次元位置に対応すると判定する。例えば、位置選択部117は、ステップS1001で求めた実像信頼度Ljが最大となる三次元位置jを選択する。選択された三次元位置jは、実像を表す三次元位置として確定される。こうして確定された三次元位置は、続くステップS1001では選択されない。
位置選択部117は、実像信頼度が最も高い三次元位置の候補であって、三次元位置の候補に対応する物体が所定数以上存在する三次元位置の候補を選択して、着目時刻における物体の三次元位置に対応すると判定することができる。ここで、所定数は2以上であれば特に限定されない。三次元位置の候補に対応する物体が1つしかない、すなわち三次元位置の候補に対応する物体が写っているフレーム画像が1つしかない場合、この三次元位置は正確に算出されていない可能性が高い。
ステップS1003において結果選択部118は、ステップS1002で選択された三次元位置jについて、ステップS1001でそれぞれのカメラ画像について選択された追尾結果を、三次元位置jに対応する追尾結果として確定する。もっとも、別の実施形態において、三次元位置jを生成するために用いられた追尾結果を、三次元位置jに対応する追尾結果として確定してもよい。このように、三次元位置の候補に対応する物体は、三次元位置の候補を生成する際に参照された各フレーム画像上の物体であってもよい。また、三次元位置の候補に対応する物体は、三次元位置の候補に対応する積算対応確度が所定値以上でありかつ積算対応確度が最も高い物体としてフレーム画像毎に選択された物体であってもよい。
ステップS1003においてはさらに除外処理が行われ、選択された三次元位置の候補と、三次元位置の候補に対応する物体(追尾結果)と、はステップS1002における選択処理の選択の対象から外される。例えば、こうして確定された追尾結果は、続くステップS1002では選択されない。
ステップS1004で信頼度算出部116は、未確定の三次元位置及び追尾結果のうち、対応付け可能なものが存在するか否かを判定する。存在する場合、処理はステップS1001に戻る。また、存在しない場合、図10の処理は終了する。
例えば、ステップS805では積算対応確度が高い三次元位置と追尾結果との組み合わせが記録される。一方で、三次元位置との対応確度が高い追尾結果が2以上のカメラ画像に存在することにより、三次元位置を精度良く求めることができる。このような観点から、三次元位置について、対応確度が高い追尾結果が存在するカメラ画像の数が1以下である場合に、この三次元位置については追尾結果を対応付けられないものと判定することができる。そして、全ての三次元位置について追尾結果を対応付けできない場合、未確定の三次元位置及び追尾結果のうち対応付け可能なものは存在しないと判定することができる。
以上のステップS1001〜S1004においては、実像信頼度が最大となる三次元位置を選択及び確定し、この三次元位置に対応する追尾結果を確定する選択処理と、選択された三次元位置及び追尾結果を除外する除外処理と、が繰り返される。このように、三次元位置に割り当てる追尾結果の組み合わせを探索することで、実像として確定される三次元位置の実像信頼度を高くすることができるため、三次元位置と追尾結果との照合精度向上の効果が見込まれる。このような繰り返し処理を行うことは、仮に過去時刻における積算対応確度を考慮しない場合であっても、高い信頼性をもって実像を表す三次元位置を選択することができる点で有利である。一方で、三次元位置と追尾結果との照合方法は、実像として確定された三次元位置の実像信頼度が高くなるのであれば特に限定されない。本実施形態ではグリーディな方法で組み合わせを探索したが、他の組み合わせ探索の方法を用いてもよい。また、それぞれの三次元位置の実像信頼度の和が大きくなるように、総当たり又は他の探索方法で三次元位置に割り当てる追尾結果の組み合わせを探索してもよい。
以上のように、ステップS406においては、三次元位置と追尾結果とを照合することにより、これらが同一の物体であることを示す指標である積算対応確度が算出される。さらにステップS407では、この積算対応確度を用いて三次元位置が実像か否かが判定される。これらの処理により、虚像である三次元位置を効果的に削減できるため、三次元位置推定の精度向上を見込むことができる。特に、積算対応確度の算出の際には、着目時刻tのフレーム画像に基づいて得られる局所対応確度に加えて、過去の複数フレームの対応確度も参照される。このため、過去の長期間のフレーム画像に基づく三次元位置と追尾結果との照合が可能となるため、効果的に虚像を削減する効果が見込まれる。
また、本実施形態によれば、三次元位置と追尾結果との組み合わせに結びつけて積算対応確度が記録され、記録された積算対応確度を用いて三次元位置と追尾結果との照合が行われる。このため、過去のカメラ画像自体を参照することは必須ではなく、過去の物体追尾で得られる追尾結果の位置及び2D追尾ラベル等を記憶し、毎フレーム参照することは必須ではない。このような構成によれば、記憶領域サイズを削減する効果及び計算量を削減する効果が見込まれる。
さらに、ステップS406では、カメラ画像上に投影された三次元位置と追尾結果との画像上の距離と、属性の相違度と、の双方を用いて三次元位置と追尾結果との照合が行われた。このような構成によれば、距離と属性の相違度とのどちらかだけでは照合が難しい場合あっても、両方を用いることにより効果的に照合を行うことができる。もっとも、距離と属性の相違度との双方を用いることは必須ではなく、どちらか一方を用いて照合を行ってもよいし、別のさらなる情報を用いてもよい。
また、ステップS407では、実像信頼度Ljが対応確度at i,jの和として計算される。そのため、三次元位置に対応する追尾結果の数が多いほど実像信頼度Ljは大きくなる。このように、一実施形態においては、積算対応確度が取得されたフレーム画像群の数が多いほど実像信頼度が大きくなるように、三次元位置の候補の実像信頼度が求められる。多視点幾何においては、より多くのカメラに物体が映っているほど対応付けの曖昧性が減少するという性質がある。本実施形態の方法では、三次元位置に対応する追尾結果の数が多いほど大きくなるように実像信頼度Ljが計算されるため、より多くのカメラ画像上の追尾結果に対応づけられた三次元位置が実像として確定されやすくなり、精度向上の効果が見込まれる。
ステップS408において位置更新部119は、着目時刻における物体の三次元位置に対応すると判定された三次元位置の候補に対応する物体の各フレーム画像上の位置と、複数の撮像部間の位置関係とに基づいて、物体の三次元位置を求める。例えば、位置更新部119は、ステップS407で求めた三次元位置と追尾結果の対応関係を用いて、三次元位置の座標を求めることができる。位置更新部119はさらに、着目時刻における三次元位置の候補を、対応すると判定された物体の三次元位置で更新することができる。こうして更新された三次元位置の候補は、次のステップS405における併合処理において用いることができる。
例えば座標更新部120は、三次元位置に対応するそれぞれのカメラ画像上の追尾結果を用いて、三次元位置の座標を再度算出することができる。ここでは、着目時刻tにおけるフレーム画像から検出された追尾結果の座標を用いて三次元位置の座標が算出される。具体的には、ステップS502と同様に、カメラ画像上の追尾結果の代表点の座標とカメラ中心の座標とに基づいて、三角測量の原理で座標を求めることができる。3つ以上のカメラ画像上の追尾結果を用いて三次元位置の座標を算出する場合には、カメラ中心の座標とカメラ画像上の追尾結果の代表点の座標とを結ぶ三次元空間中の直線をそれぞれ求め、これらの直線に最も近い座標を求めることができる。具体例としては、これらの直線との距離の二乗和が最も小さくなる座標を、カメラ画像上の追尾結果に対応する三次元位置の座標として求めることができる。
また、属性更新部121は、三次元位置の属性を、追尾結果の属性に基づいて更新することができる。例えば、それぞれのカメラ画像上の追尾結果の画素値に基づいて、三次元位置の属性を求めることができる。具体例としては、それぞれのカメラ画像上の追尾結果の画素値の平均値を三次元位置の属性として求めることができる。
このように、ステップS408の処理によって、位置記憶部123に記録されている三次元位置の候補の座標及び属性が更新される。こうして更新された三次元位置の候補の座標及び属性は、続くステップS405における併合処理において用いることができる。もっとも、位置記憶部123に記録されている三次元位置の候補の座標及び属性を更新することは必ずしも必須ではない。
ステップS409において位置削除部122は、不要な三次元位置を削除する。例えば、位置削除部122は、所定期間以上物体に対応すると判定されておらず、所定期間以上三次元位置の候補と併合されていない、過去の時刻において生成された三次元位置の候補を削除することができる。具体例としては、一定フレーム数以上の期間、ステップS407で実像として確定されなかった三次元位置を削除の対象とすることができる。不要な三次元位置を削除することで、記憶領域の削減、及びステップS405からステップS408での計算量の効果が見込まれる。
ステップS410において表示制御部126は、以上の処理で求められた人物追尾結果及び三次元位置推定結果を表示機器に表示させる。例えば表示制御部126は、ステップS407で実像として確定された三次元位置と、実像として確定された三次元位置に対応する各カメラ画像上の追尾結果の位置を、表示機器に表示させることができる。
図11には、表示機器に表示される画面の構成例を示す。図11に示す画面は、1つ以上のカメラ画像1101と三次元マップ1104とを含む。図11には、4台のカメラを用いた場合の表示例を示し、4つのカメラ画像1101はそれぞれのカメラで撮像された画像である。
カメラ画像1101には、ステップ403での追尾結果を示すシンボル(枠)が重畳表示される。本実施形態においては、ステップS407で実像として確定された三次元位置に対応する各カメラ画像上の追尾結果を示す枠が、それぞれのカメラ画像1101に重畳される。異なるカメラに映っている人物が同一であるか否かをユーザが容易に識別できるように、異なるカメラ画像においても同一の人物を示す枠は同じ色で表示される。
三次元マップ1104には、位置記憶部123から取得された人物の三次元位置を示すシンボル1103と、カメラの位置及び向きを示すシンボル1102とが、床面とともに三次元画像として表示されている。本実施形態においては、ステップS407で実像として確定された三次元位置が、三次元マップ1104に表示される。カメラ画像1101上の人物と三次元マップ1104上の人物が同一であるか否かをユーザが容易に識別できるように、カメラ画像1101上の追尾結果を示す枠と三次元マップ1104上の三次元位置を示すシンボルとは同じ色で表示される。
ステップS405では、併合された三次元位置が同一人物を表すことを示す情報が対応記憶部125に記憶される。このように、いくつかの三次元位置が同一の人物を表すことを示す情報が対応記憶部125に記憶されている場合、これらの三次元位置が同一の人物を表すことがと分かるように三次元マップ1104を表示することができる。例えば、ステップS405においていくつかの三次元位置が併合された場合、ステップ405で併合された後の三次元位置に対応する人物を表すシンボルの近くに、併合前の三次元位置に対応する人物を表すシンボルと同じ色の印を表示することができる。このように、対応記憶部125を設けることで、異なる三次元位置が同じ人物を表すことを示すことが可能となる。このような構成は、単に追跡結果を表示する場合の他に、例えば映像解析処理により人物の長期間の三次元軌跡を算出する場合又は人物を同定する場合等に有効に適用可能である。
図11の例では、人物が同一であるか否かを表現するためにそれぞれの人物を異なる色で表示した。別の例においては、視認性を高めるために、人物固有の番号、文字又は記号等を、カメラ画像1101又は三次元マップ1104に重畳表示してもよい。また、図11の例では、三次元マップ1104を用いて三次元位置を三次元空間中に表示したが、三次元位置を二次元マップ上に表示することもできる。三次元位置を三次元マップ上に表す場合には、三次元マップから人物の床面上の位置に加えて高さ方向の位置を知ることができる。特に、物体追尾を顔認識に基づいて行う場合等、人物の位置が頭部を基準として決定される場合には、三次元マップから人物の身長を知ることができる。一方で、三次元位置を二次元マップ上に表す場合には、人物の床面上での位置が視認しやすくなるという効果がある。
また、三次元マップ1104の視点は固定されていてもよいし、ユーザが視点を変更できる機構が設けられていてもよい。三次元マップ1104に表示できるものは以上で挙げたものには限られない。例えば、家具等の配置を示す見取り図を床面に重畳表示してもよいし、その他の物体を重畳表示してもよい。このようにすることで、人物と、人物の周囲にある物体との位置関係をわかりやすく提示することができる。
ステップS411で、画像取得部101は、処理を継続するか否かを判定する。新たなフレーム画像をカメラから取得可能である場合、処理はステップS402に戻り、新たに取得されたフレーム画像を用いて処理が繰り返される。一方で、新たなフレーム画像をカメラから取得可能ではない場合、又は終了を示すユーザ指示があった場合、図4の処理は終了する。
実像信頼度Ljを求める際には、積算対応確度at i,j以外のパラメータを参照することもできる。例えば、本実施形態においては、長期間実像として確定されなかった三次元位置は削除される。このため、三次元位置の存在時間が長いことは、追尾結果が対応づけられる頻度が高い、すなわち実像である尤もらしさが高いことを意味する。このため、三次元位置jの存在時間が長いほど実像信頼度Ljが増加するように、実像信頼度Ljを求めてもよい。一実施形態においては、より古い時刻に生成された三次元位置の候補と併合されているほど実像信頼度が大きくなるように、三次元位置の候補の実像信頼度が求められる。より古い時刻に生成された三次元位置の候補と併合されていることは、三次元位置jの存在時間が長いことを意味する。例えば、三次元位置jの存在時間をTjとすると、実像信頼度Ljを次式のように求めることができる。
Figure 2017016356
上式において、αは定数である。このような構成によれば、実像を示す三次元位置をより正確に選択し、虚像を削減する効果が見込まれる。
本実施形態においては、積算対応確度を局所対応確度と過去の積算対応確度との和として、実像信頼度を積算対応確度の和として、それぞれ計算している。一方で、積算対応確度を局所対応確度と過去の積算対応確度との積として、実像信頼度を積算対応確度の積として、それぞれ計算してもよい。この場合、積算対応確度及び実像信頼度は尤度ではなく確率として計算できる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101:画像取得部、102:物体追尾部、104:位置生成部、109:確度算出部、115:位置確定部、123:位置記憶部、124:位置併合部

Claims (19)

  1. 連続して撮影されたフレーム画像群を、視野が重複している複数の撮像部のそれぞれから取得する取得手段と、
    前記フレーム画像群上の物体を追尾する追尾手段と、
    前記物体のフレーム画像上の位置と前記複数の撮像部間の位置関係とに基づいて着目時刻における前記物体の三次元位置の候補を生成する生成手段と、
    前記着目時刻における三次元位置の候補と、前記着目時刻より前の過去時刻における前記物体の三次元位置の候補とを対応付ける対応付け手段と、
    前記着目時刻におけるフレーム画像に基づいて求められた前記着目時刻における三次元位置の候補が前記物体に対応する確度を示す局所対応確度と、前記過去時刻における三次元位置の候補が前記物体に対応する確度を示す積算対応確度と、の双方に基づいて、前記着目時刻における三次元位置の候補が前記物体に対応する確度を示す積算対応確度を求める算出手段と、
    前記積算対応確度に基づいて前記着目時刻における前記物体の三次元位置を判定する判定する判定手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記判定手段は、前記着目時刻における三次元位置の候補のそれぞれについて、
    1つのフレーム画像群上で追尾されている物体に対応して記録されている前記積算対応確度を取得し、
    複数のフレーム画像群のそれぞれについて前記取得された積算対応確度に応じて前記三次元位置の候補の実像信頼度を求め、
    前記判定手段はさらに、前記実像信頼度に基づいて前記着目時刻における前記物体の三次元位置を判定する
    ことを特徴とする、請求項1に記載の画像処理装置。
  3. 前記判定手段は、前記フレーム画像群上で追尾されている1以上の物体のうち前記積算対応確度が最も高くなる物体を選択し、当該フレーム画像群についての積算対応確度として、当該選択された物体に対応して記録されている前記積算対応確度を選択することを特徴とする、請求項2に記載の画像処理装置。
  4. 前記算出手段は、前記積算対応確度が所定値未満である場合、当該積算対応確度を記録しないことを特徴とする、請求項2又は3に記載の画像処理装置。
  5. 前記判定手段は、前記積算対応確度が取得された前記フレーム画像群の数が多いほど前記実像信頼度が大きくなるように、前記三次元位置の候補の実像信頼度を求めることを特徴とする、請求項4に記載の画像処理装置。
  6. 前記対応付け手段は、前記物体のフレーム画像上の位置と前記複数の撮像部間の位置関係とに基づいて生成された前記着目時刻における三次元位置の候補と、前記過去時刻における三次元位置の候補と、を併合することにより、前記着目時刻における三次元位置の候補と前記過去時刻における三次元位置の候補とを対応付けることを特徴とする、請求項2乃至5の何れか1項に記載の画像処理装置。
  7. 前記判定手段は、より古い時刻に生成された三次元位置の候補と併合されているほど前記実像信頼度が大きくなるように、前記三次元位置の候補の実像信頼度を求めることを特徴とする、請求項6に記載の画像処理装置。
  8. 前記対応付け手段は、前記着目時刻における三次元位置の候補と前記過去時刻における三次元位置の候補との間の距離と、前記着目時刻における三次元位置の候補に対応する物体の属性と前記過去時刻における三次元位置の候補に対応する物体の属性との相違度と、の少なくとも一方に基づいて、前記着目時刻における三次元位置の候補と前記過去時刻における三次元位置の候補とを併合することを特徴とする、請求項6又は7に記載の画像処理装置。
  9. 前記対応付け手段は、それぞれ異なる物体に対応すると判定された前記過去時刻における2以上の三次元位置の候補を併合した場合、当該2以上の三次元位置が同一物体に対応することを示す情報を記録することを特徴とする、請求項6乃至8の何れか1項に記載の画像処理装置。
  10. 前記対応付け手段は、所定期間以上前記物体に対応すると判定されておらず、所定期間以上前記三次元位置の候補と併合されていない、過去の時刻において生成された前記三次元位置の候補を削除することを特徴とする、請求項6乃至9の何れか1項に記載の画像処理装置。
  11. 前記判定手段は、
    前記実像信頼度が最も高い三次元位置の候補であって、当該三次元位置の候補に対応する物体が所定数以上存在する三次元位置の候補を選択して、前記着目時刻における前記物体の三次元位置に対応すると判定する選択処理と、
    前記選択された三次元位置の候補と、当該三次元位置の候補に対応する物体と、を前記選択処理における考慮の対象から外す除外処理と、
    を繰り返すことを特徴とする、請求項2乃至10の何れか1項に記載の画像処理装置。
  12. 前記算出手段は、前記着目時刻におけるフレーム画像上での前記着目時刻における三次元位置の候補に対応する位置と前記物体の位置との間の距離と、前記着目時刻における三次元位置の候補に対応する物体の属性と前記物体の属性との相違度と、の少なくとも一方に基づいて前記局所対応確度を求めることを特徴とする、請求項1乃至11の何れか1項に記載の画像処理装置。
  13. 前記三次元位置の候補に対応する物体は、前記三次元位置の候補を生成する際に参照された各フレーム画像上の物体と、前記三次元位置の候補に対応する積算対応確度が所定値以上でありかつ当該積算対応確度が最も高い物体としてフレーム画像毎に選択された物体と、のうちの何れかであることを特徴とする、請求項8乃至12の何れか1項に記載の画像処理装置。
  14. 前記着目時刻における前記物体の三次元位置に対応すると判定された前記三次元位置の候補に対応する物体の各フレーム画像上の位置と、前記複数の撮像部間の位置関係とに基づいて、当該物体の三次元位置を求める手段をさらに備えることを特徴とする、請求項1乃至13の何れか1項に記載の画像処理装置。
  15. 前記着目時刻における三次元位置の候補を、対応すると判定された前記物体の三次元位置で更新する手段をさらに備えることを特徴とする、請求項14に記載の画像処理装置。
  16. 前記積算対応確度は、前記三次元位置の候補が示す物体が、前記追尾されている物体と同一である可能性を示す指標であることを特徴とする、請求項1乃至15の何れか1項に記載の画像処理装置。
  17. 連続して撮影されたフレーム画像群を、視野が重複している複数の撮像部のそれぞれから取得する取得手段と、
    前記フレーム画像群上の物体を追尾する追尾手段と、
    前記物体のフレーム画像上の位置と前記複数の撮像部間の位置関係とに基づいて前記物体の三次元位置の候補を生成する生成手段と、
    前記三次元位置の候補が前記物体に対応する対応確度を求める算出手段と、
    前記対応確度が最も高い三次元位置の候補であって、当該三次元位置の候補に対応する物体が所定数以上存在する三次元位置の候補を選択して、前記物体の三次元位置に対応すると判定する選択処理と、
    前記選択された三次元位置の候補と、当該三次元位置の候補に対応する物体と、を前記選択処理における選択の対象から除外する除外処理と、
    を繰り返す判定手段と、
    を備えることを特徴とする画像処理装置。
  18. 画像処理装置が行う画像処理方法であって、
    連続して撮影されたフレーム画像群を、視野が重複している複数の撮像部のそれぞれから取得する取得工程と、
    前記フレーム画像群上の物体を追尾する追尾工程と、
    前記物体のフレーム画像上の位置と前記複数の撮像部間の位置関係とに基づいて着目時刻における前記物体の三次元位置の候補を生成する生成工程と、
    前記着目時刻における三次元位置の候補と、前記着目時刻より前の過去時刻における前記物体の三次元位置の候補とを対応付ける対応付け工程と、
    前記着目時刻におけるフレーム画像に基づいて求められた前記着目時刻における三次元位置の候補が前記物体に対応する確度を示す局所対応確度と、前記過去時刻における三次元位置の候補が前記物体に対応する確度を示す積算対応確度と、の双方に基づいて、前記着目時刻における三次元位置の候補が前記物体に対応する確度を示す積算対応確度を求める算出工程と、
    前記積算対応確度に基づいて前記着目時刻における前記物体の三次元位置を判定する判定工程と、
    を備えることを特徴とする画像処理方法。
  19. コンピュータを、請求項1乃至17の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2015131841A 2015-04-01 2015-06-30 画像処理装置、画像処理方法及びプログラム Active JP6659095B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015131841A JP6659095B2 (ja) 2015-06-30 2015-06-30 画像処理装置、画像処理方法及びプログラム
US15/084,381 US9877012B2 (en) 2015-04-01 2016-03-29 Image processing apparatus for estimating three-dimensional position of object and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015131841A JP6659095B2 (ja) 2015-06-30 2015-06-30 画像処理装置、画像処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2017016356A true JP2017016356A (ja) 2017-01-19
JP2017016356A5 JP2017016356A5 (ja) 2018-08-09
JP6659095B2 JP6659095B2 (ja) 2020-03-04

Family

ID=57829253

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015131841A Active JP6659095B2 (ja) 2015-04-01 2015-06-30 画像処理装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6659095B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019155727A1 (ja) * 2018-02-08 2019-08-15 三菱電機株式会社 情報処理装置、追跡方法、及び追跡プログラム
JP2019204518A (ja) * 2018-07-02 2019-11-28 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 人物追跡方法、装置、機器及び記憶媒体
JP2022057885A (ja) * 2020-09-30 2022-04-11 アースアイズ株式会社 撮影システム、及び、撮影方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007281792A (ja) * 2006-04-05 2007-10-25 Mitsubishi Electric Corp 動態管理装置
JP2009143722A (ja) * 2007-12-18 2009-07-02 Mitsubishi Electric Corp 人物追跡装置、人物追跡方法及び人物追跡プログラム
JP2010063001A (ja) * 2008-09-05 2010-03-18 Mitsubishi Electric Corp 人物追跡装置および人物追跡プログラム
JP2014211846A (ja) * 2013-04-22 2014-11-13 富士通株式会社 目標追尾装置及び目標追尾プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007281792A (ja) * 2006-04-05 2007-10-25 Mitsubishi Electric Corp 動態管理装置
JP2009143722A (ja) * 2007-12-18 2009-07-02 Mitsubishi Electric Corp 人物追跡装置、人物追跡方法及び人物追跡プログラム
JP2010063001A (ja) * 2008-09-05 2010-03-18 Mitsubishi Electric Corp 人物追跡装置および人物追跡プログラム
JP2014211846A (ja) * 2013-04-22 2014-11-13 富士通株式会社 目標追尾装置及び目標追尾プログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019155727A1 (ja) * 2018-02-08 2019-08-15 三菱電機株式会社 情報処理装置、追跡方法、及び追跡プログラム
JPWO2019155727A1 (ja) * 2018-02-08 2020-05-28 三菱電機株式会社 情報処理装置、追跡方法、及び追跡プログラム
CN111670456A (zh) * 2018-02-08 2020-09-15 三菱电机株式会社 信息处理装置、追踪方法和追踪程序
CN111670456B (zh) * 2018-02-08 2023-09-15 三菱电机株式会社 信息处理装置、追踪方法和记录介质
JP2019204518A (ja) * 2018-07-02 2019-11-28 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 人物追跡方法、装置、機器及び記憶媒体
US11348354B2 (en) 2018-07-02 2022-05-31 Baidu Online Network Technology (Beijing) Co., Ltd. Human body tracing method, apparatus and device, and storage medium
JP2022057885A (ja) * 2020-09-30 2022-04-11 アースアイズ株式会社 撮影システム、及び、撮影方法

Also Published As

Publication number Publication date
JP6659095B2 (ja) 2020-03-04

Similar Documents

Publication Publication Date Title
US9877012B2 (en) Image processing apparatus for estimating three-dimensional position of object and method therefor
CN107431786B (zh) 图像处理设备、图像处理系统和图像处理方法
JP6700752B2 (ja) 位置検出装置、位置検出方法及びプログラム
EP2858008B1 (en) Target detecting method and system
JP7282851B2 (ja) 装置、方法及びプログラム
CN104573614B (zh) 用于跟踪人脸的设备和方法
US9672634B2 (en) System and a method for tracking objects
US20110158540A1 (en) Pattern recognition method and pattern recognition apparatus
JP2016099941A (ja) オブジェクト位置推定システム、及びそのプログラム
CN110706258B (zh) 对象追踪方法及装置
JP2010176380A (ja) 情報処理装置および方法、プログラム、並びに記録媒体
KR101380628B1 (ko) 복수의 카메라를 사용한 객체 추적 방법 및 장치
US20110187703A1 (en) Method and system for object tracking using appearance model
JP6454984B2 (ja) 深度画像に基づく手の位置確定方法と装置
JP7379065B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2019114103A (ja) 物体認識処理装置、物体認識処理方法及びプログラム
JP2002024807A (ja) 物体運動追跡手法及び記録媒体
JP2018113021A (ja) 情報処理装置およびその制御方法、プログラム
US9947106B2 (en) Method and electronic device for object tracking in a light-field capture
JP6659095B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP7354767B2 (ja) 物体追跡装置および物体追跡方法
JP6690090B2 (ja) 特徴量比較プログラム、情報処理装置、および特徴量比較方法
JP4836065B2 (ja) エッジトラッキング方法及びそのコンピュータプログラム
US11544926B2 (en) Image processing apparatus, method of processing image, and storage medium
JP2002218449A (ja) 移動物体追跡装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180629

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200204

R151 Written notification of patent or utility model registration

Ref document number: 6659095

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151