JP7030451B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP7030451B2
JP7030451B2 JP2017158128A JP2017158128A JP7030451B2 JP 7030451 B2 JP7030451 B2 JP 7030451B2 JP 2017158128 A JP2017158128 A JP 2017158128A JP 2017158128 A JP2017158128 A JP 2017158128A JP 7030451 B2 JP7030451 B2 JP 7030451B2
Authority
JP
Japan
Prior art keywords
unit
shape information
similarity
area
object area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017158128A
Other languages
English (en)
Other versions
JP2019036213A (ja
Inventor
純 山口
康太郎 鵜殿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2017158128A priority Critical patent/JP7030451B2/ja
Publication of JP2019036213A publication Critical patent/JP2019036213A/ja
Application granted granted Critical
Publication of JP7030451B2 publication Critical patent/JP7030451B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、撮影された画像を解析し、物体の追跡及び当該物体が検出対象であるか否かの判定等を行うための画像処理装置に関する。
従来から、監視空間を撮影した画像を解析し、当該監視空間に存在する不審者等を検出する画像センサが知られている。このような画像センサでは、例えば、順次撮影された各画像に対して、公知の背景差分処理又はフレーム間差分処理等の画像処理が用いられ、各画像に含まれる物体領域が順次検出される。次に、異なる時刻に撮影された画像間で、形状や面積が同一の物体とみなせる物体領域どうしが対応付けられることにより、物体の追跡が行われる。そして、追跡されている物体の移動軌跡や形状の変化等に基づいて、当該物体が検出対象(例えば、不審者)であるか否かが判定される。
例えば、特許文献1には、監視空間内の物体を追跡する監視装置が開示されている。この監視装置は、監視空間を順次撮影した画像から順次検出された物体領域の形状情報(面積又は外接矩形の縦横比等)を求め、前時刻の画像から検出した物体領域と現時刻の画像から検出した物体領域の対応関係に基づいて物体を追跡する。そして、監視装置は、追跡している物体の形状情報の時間的な変化に基づいて、当該物体が不審者か否かを判定する。この監視装置では、監視空間内の死角をなくすために、監視空間を撮影するためのカメラが複数台設置される。
また、例えば、特許文献2には、魚眼レンズ等の広角光学系によって撮影された画像に対して、歪みを補正するための平面展開処理を施し、当該補正された画像を用いて監視を行うテレビカメラが開示されている。
特開平4-273689号公報 特開平6-343133号公報
魚眼レンズ等の広角光学系を用い、広い視野を撮影できる全方位カメラ等のカメラが監視空間の天井等に設置される場合、当該監視空間を監視するためのカメラの台数は、特許文献1に記載のカメラの台数よりも少ない台数でよい。しかしながら、このような全方位カメラ等によって撮影された全方位画像には歪みが生じるため、監視装置は、特許文献2に開示されるような、撮影された画像に対して歪みを補正する平面展開処理等の画像処理を施してから、物体の形状情報を求めていた。
その際、前述したように、全方位カメラ等によって撮影された全方位画像に対して歪みを補正する画像処理を施すと、監視装置の計算負荷が高くなる場合があった。このため、歪みを補正する画像処理を施す必要のある監視装置にて、全方位画像を用いてリアルタイムに追跡及び監視等が行われた場合、高性能な計算能力が必要となるため、監視装置自体のコストが高くなってしまうという問題があった。
また、全方位画像の中心付近は、平面展開処理をする際に重要となる当該中心からの角度方向の情報量が少ないため、精度良く平面展開することが難しかった。このため、全方位画像の中心付近において、物体領域から算出される形状情報の精度に問題が生じる場合あった。
本発明は、このような従来の課題を解決すべくなされたものであり、魚眼レンズ等を用いて撮影された画像の歪みを補正する画像処理を不要とし、リアルタイムな物体の追跡や検出対象の判定を、高精度かつ低コストで実現することを可能にする画像処理装置を提供することを目的とする。
本発明に係る画像処理装置は、魚眼レンズを用いる撮影部によって順次撮影された複数の入力画像のそれぞれから物体領域を検出する検出部と、物体領域毎に、当該物体領域が、入力画像の中心点を含む所定範囲内に位置するか否かを判定する判定部と、物体領域のうちの所定範囲内に位置すると判定された物体領域については直交座標で表された形状情報を用い、物体領域のうちの所定範囲外に位置すると判定された物体領域については中心点を原点とする極座標で表された形状情報を用いて、互いに異なる入力画像から検出された物体領域の類似度を算出し、類似度に基づいて物体領域どうしの対応付けを行う対応付け部と、を備える。
本発明に係る画像処理装置は、魚眼レンズを用いる撮影部によって順次撮影された複数の入力画像のそれぞれから物体領域を検出する検出部と、物体領域毎に、当該物体領域が、入力画像の中心点を含む所定範囲内に位置するか否かを判定する判定部と、互いに異なる入力画像から検出された物体領域のうちの少なくとも一方が所定範囲内に位置すると判定された物体領域どうしについては直交座標で表された形状情報を用いて当該物体領域どうしの類似度を算出し、互いに異なる入力画像から検出された物体領域のうちの両方が所定範囲外に位置すると判定された物体領域どうしについては中心点を原点とする極座標で表された形状情報を用いて当該物体領域どうしの類似度を算出し、類似度に基づいて物体領域どうしの対応付けを行う対応付け部と、を備える。
本発明に係る画像処理装置は、魚眼レンズを用いる撮影部によって順次撮影された複数の入力画像のそれぞれから物体領域を検出する検出部と、物体領域毎に、当該物体領域が、入力画像の中心点を含む所定範囲内に位置するか否かを判定する判定部と、物体領域について、直交座標で表された形状情報及び中心点を原点とする極座標で表された形状情報を算出する算出する算出部と、互いに異なる入力画像から検出された物体領域について、直交座標で表された形状情報どうしの第1の類似度と、極座標で表された形状情報どうしの第2の類似度を算出し、当該第1の類似度、当該第2の類似度、及び当該物体領域のそれぞれと中心点との距離に基づいて、当該物体領域どうしの対応付けを行う対応付け部と、を備える。
本発明に係る画像処理装置は、魚眼レンズを用いる撮影部によって順次撮影された複数の入力画像のそれぞれから物体領域を検出する検出部と、物体領域毎に、当該物体領域が、入力画像の中心点を含む所定範囲内に位置するか否かを判定する判定部と、物体領域について、直交座標で表された形状情報及び中心点を原点とする極座標で表された形状情報を算出する算出する算出部と、互いに異なる入力画像から検出された物体領域について、直交座標で表された形状情報どうしの第1の類似度と、極座標で表された形状情報どうしの第2の類似度を算出し、当該第1の類似度及び当該第2の類似度のうち高い方の類似度に基づいて、当該物体領域どうしの対応付けを行う対応付け部と、を備える。
本発明に係る画像処理装置は、魚眼レンズを用いる撮影部によって順次撮影された複数の入力画像のそれぞれから物体領域を検出する検出部と、物体領域毎に、当該物体領域が、入力画像の中心点を含む所定範囲内に位置するか否かを判定する判定部と、物体領域のうちの所定範囲内に位置すると判定された物体領域については直交座標で表された形状情報を用い、物体領域のうちの所定範囲外に位置すると判定された物体領域については中心点を原点とする極座標で表された形状情報を用いて、物体領域が所定の検出対象であるか否かを判定する検出対象判定部と、を備える。
本発明に係る画像処理装置によって、魚眼レンズ等を用いて撮影された画像に映っている物体の追跡や当該物体が検出対象であるか否かの判定を、当該画像の歪みを補正することなく、高精度かつ低コストで実現することが可能となる。
画像センサ1の概略構成の一例を示す図である。 (a)は、背景画像の一例を示す図であり、(b)は、入力画像の一例を示す図である。 物体領域の検出結果の一例を示す図である。 物体位置判定処理の一例を説明するための模式図である。 形状情報算出処理の一例を説明するための模式図である。 追跡処理の対象となる物体領域の一例を示す図である。 追跡処理の結果の一例を示す図である。 全体処理のフローチャートの一例を示す図である。 追跡処理のフローチャートの一例を示す図である。 追跡処理のフローチャートの一例を示す図である。
以下、図面を参照しつつ、本発明の様々な実施形態について説明する。ただし、本発明の技術的範囲はそれらの実施形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶ点に留意されたい。
(画像処理装置の概要)
本実施形態の画像処理装置は、撮影部によって順次撮影された複数の入力画像から、当該入力画像に映っている物体を追跡し、当該物体が検出対象であるか否かの判定等を行う。なお、検出対象は、画像処理装置が監視する監視空間内において検出される物体であり、人物、動物、移動物体(車両等)等である。
例えば、画像処理装置は、魚眼レンズ等の所定の画角以上の光学系を用いる撮影部によって順次撮影された複数の入力画像のそれぞれから物体領域を検出する。次に、画像処理装置は、物体領域毎に、当該物体領域が、入力画像の中心点を含む所定範囲内に位置するか否かを判定する。次に、画像処理装置は、順次撮影された複数の入力画像のうちの互いに異なる入力画像から検出された物体領域の類似度を算出する。類似度の算出では、物体領域のうちの所定範囲内に位置すると判定された物体領域については直交座標で表された形状情報が用いられ、物体領域のうちの所定範囲外に位置すると判定された物体領域については中心点を原点とする極座標で表された形状情報が用いられる。そして、画像処理装置は、対応付け結果に基づいて、入力画像に映っている物体を追跡し、当該物体が検出対象であるか否かの判定等の処理を実行する。
画像処理装置は、例えば、建物の屋内又は屋外に設置される画像センサ1である。以下、画像センサ1の概略構成について説明する。
(画像センサ1の概略構成)
図1は、画像センサ1の概略構成の一例を示す図である。
本実施の形態における画像センサ1は、監視空間を撮影した入力画像から検出した物体領域に映っている物体を追跡するとともに、当該物体領域に映っている物体が検出対象か否かを判定する機能を備える。なお、画像センサ1は、物体領域に映っている物体が検出対象か否かを判定する機能を備えていなくてもよい。例えば、画像センサ1は、物体領域に映っている物体の追跡のみを行うものであってもよい。
具体的には、本実施の形態における画像センサ1は、後述する全方位カメラ等の撮影部11によって撮影された監視空間の入力画像を順次取得し、入力画像から物体領域を順次検出するとともに当該物体領域を追跡する。そして、画像センサ1は、追跡している物体領域について、検出対象か否かを判定する。
以下、画像センサ1の検出対象が人物であり、かつ、監視空間が屋内である場合において実施される画像センサ1を例にして説明する。なお、画像センサ1の検出対象は、人物に限らず、動物や車両等であってもよい。また、監視空間は、屋外であっても、屋内及び屋外の両方であってもよい。
本実施の形態における画像センサ1は、監視空間において人物を検出すると、外部の監視センタ又は警備装置等にその検出結果を出力する。監視センタ又は警備装置では、受け取った検出結果に応じた対応(例えば、監視者への通報等)が実施される。なお、画像センサ1は、物体領域の追跡結果を外部に出力してもよい。
図1に示すように、本実施の形態における画像センサ1は、少なくとも、撮影部11、記憶部12、処理部13、出力部14から構成され、これら各部は、同一筐体内に収容される。なお、画像センサ1を構成する撮影部11は、記憶部12、処理部13及び出力部14が収容される筐体とは異なる筐体に収容されてもよい。また、記憶部12は、処理部13が収容される筐体から離れた位置に設けられてもよい。この場合、処理部13は、図示しない所定の通信ネットワーク等を介して、記憶部12から各種処理に必要な情報を取得する。
以下、画像センサ1を構成する撮影部11、記憶部12、処理部13及び出力部14について詳細に説明する。
(撮影部11)
撮影部11は、所定の画角以上の光学系を用いる全方位カメラである。所定の画角以上の光学系は、例えば魚眼レンズである。なお、光学系は、魚眼レンズに限らず、所定の画角(例えば140度)以上の光学系であれば、どのようなものでもよい。
撮影部11は、近赤外光又は可視光に感度を有する光電変換器で構成された2次元検出器と、2次元検出器上に監視空間の像を結像する結像光学系と、2次元検出器から出力された電気信号を増幅し、アナログ/デジタル(A/D)変換する電気回路等を有する。2次元検出器は、CCD(Charge-Coupled Device)素子又はCMOS(Complementary Metal Oxide Semiconductor)素子等である。
撮影部11は、監視空間の天井等に設置され、真下の監視空間を一定の時間間隔(例えば1/5秒)ごとに撮影する。例えば、撮影部11が用いる魚眼レンズの光軸が鉛直下方向となるように、天井に設置される。撮影部11は、一定の時間間隔ごとに順次撮影した監視空間の画像データをA/D変換することでデジタル画像を生成し、生成したデジタル画像を入力画像として処理部13に順次出力する。
なお、撮影部11は、処理部13に入力画像を順次出力せずに、後述する記憶部12又は撮影部11に設けられたメモリ装置(図示せず)等に、入力画像を時系列に従って記憶してもよい。この場合、処理部13は、記憶部12又はメモリ装置等から入力画像を順次読み出し、各種処理を実行する。
(記憶部12)
記憶部12は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)等の半導体メモリ装置、又は、ハードディスク、光ディスク等を備える。記憶部12は、処理部13での処理に用いられるプログラム、データ、パラメータ等を記憶する。なお、プログラムは、例えば、コンピュータ読み取り可能な可搬型記録媒体から、公知のセットアッププログラム等を用いて記憶部12にインストールされてもよい。なお、可搬型記録媒体は、CD-ROM(compact disk read only memory)、DVD-ROM(digital versatile disk read only memory)等である。
また、記憶部12は、データとして、背景画像121及び原点座標122を記憶する。
背景画像121は、撮影部11によって撮影された、人物等の検出対象が存在しないと想定される場合における監視空間の画像であり、後述する背景画像更新部136によって記憶部12に記憶され、適宜更新される。
原点座標122は、入力画像における原点の座標であり、後述する物体位置判定部132で用いられる。原点座標122は、例えば、入力画像を撮影した撮影部11が有する光学系の光軸に対応する中心点を示す、入力画像上の座標である。なお、原点座標122は、入力画像の略中央の座標でもよく、また、予め監視者等によって指定された座標であってもよい。
本実施の形態において、原点座標122は、予め記憶部12に記憶されているが、これに限らない。例えば、処理部13によって入力画像が解析され、公知の方法を用いて光学系の光軸に対応する中心点等が特定されて、特定された中心点等の座標が原点座標122として記憶部12に記憶されてもよい。なお、処理部13において背景画像121又は原点座標122が使用されない場合、使用されない背景画像121又は原点座標122は記憶部12に記憶されなくてもよい。
(処理部13)
処理部13は、一又は複数個のプロセッサ及びその周辺回路を備える。処理部13は、画像センサ1の全体的な動作を統括的に制御するものであり、例えば、CPU(Central Processing Unit)である。処理部13は、記憶部12に記憶されているプログラムに基づいて処理を実行する。
処理部13は、少なくとも物体領域検出部131、物体位置判定部132、形状情報算出部133、追跡部134、検出対象判定部135及び背景画像更新部136を備える。これらの各部は、処理部13が備えるプロセッサで実行されるプログラムにより実現される機能モジュールである。あるいは、これらの各部は、ファームウェアとして画像センサ1に実装されてもよい。以下、処理部13が備える各部について説明する。
(物体領域検出部131)
物体領域検出部131は、入力画像から、検出対象が映っている可能性がある領域を物体領域として検出する物体領域検出処理を実行する。本実施の形態における物体領域検出部131は、背景差分処理を用いて入力画像から物体領域を検出する。以下、背景差分処理を用いた物体領域検出処理を、図2及び3を参照して説明する。
まず、物体領域検出部131は、撮影部11から入力画像123を取得すると、記憶部12に記憶されている背景画像121を読み出す。図2(a)は、特定の監視空間を撮影した背景画像121の一例を示す図であり、また、図2(b)は、図2(a)によって示される背景画像121と同じ特定の監視空間を撮影した入力画像123の一例を示す図である。
図2(a)において、背景画像121内の原点座標122の位置は、背景画像121の略中央である。なお、背景画像121内の原点座標122の位置には、マーク等は表示されない。図2(a)に示す背景画像121は、屋内の天井に設置された撮影部11によって撮影された画像であり、撮影部11が有する光学系の光軸方向は、略鉛直方向である。
図2(b)において、入力画像123内の原点座標122の位置は、入力画像123の略中央である。図2(b)に示す入力画像123は、図2(a)に示す背景画像121と同じ屋内の天井に設置された撮影部11によって撮影された画像であり、撮影部11が有する光学系の光軸方向は、略鉛直方向である。入力画像123には、人物1231及び人物1232が映っている。
物体領域検出部131は、取得した入力画像123と読み出した背景画像121の差分の絶対値を算出する。次に、物体領域検出部131は、算出した絶対値について閾値処理を行い、差分があると判定した画素(2値化した差分画像)を検出する。
次に、物体領域検出部131は、公知のラベリング手法などを用いることにより、差分があると判定した画素に対してラベル付けを行う。例えば、物体領域検出部131は、差分があると判定した画像のうち、8連結で隣接する画素をひとまとまりとしてラベル領域とする。
次に、物体領域検出部131は、近接する複数のラベル領域について、所定の面積や位置関係にあるラベル領域の組を抽出し、抽出したラベル領域の組を同一物体であるとして統合し、一つのラベル領域にする。例えば、物体領域検出部131は、検出対象が人物である場合、統合したときの面積や位置関係が、人物相当の大きさに収まるラベル領域の組を1つのラベル領域にする。なお、物体領域検出部131は、原点座標122を原点とする極座標で規定したラベル領域の外形形状に基づいてラベル領域の面積を算出して、上述の処理に使用する。また、物体領域検出部131は、ラベル領域の重心位置を、ラベル領域の位置として算出して、上述の処理に使用する。
なお、人物相当の大きさは、画像上の位置によって異なる。そのため、監視者等は、予め画像の位置毎に対応する人物の面積を記憶部12に記憶しておく。そして、物体領域検出部131は、ラベル領域の組を1つのラベル領域に統合する際に、統合する対象のラベル領域の組の位置に対応する面積を記憶部12から読み出してラベル領域の統合処理に使用する。
そして、物体領域検出部131は、統合処理を終了した後、ラベル領域を物体領域として検出する。図3は、物体領域の検出結果の一例を示す図である。図3に示すように、物体領域検出部131による物体領域検出処理によって、入力画像123内の人物1231及び人物1232に対応する物体領域1233及び1234が検出される。
なお、物体領域検出部131による物体領域の検出方法は、前述した方法に限らない。物体領域検出部131は、入力画像から人物相当の物体領域の検出できる方法であればどのような方法でも使用することができ、例えば、フレーム間差分処理等を用いて、物体領域を検出してもよい。この場合、記憶部12は背景画像121を記憶しなくてもよく、処理部13は、後述する背景画像更新部136を備えなくてもよい。また、物体領域の検出は、これらに限らず、公知の方法を用いればよい。
(物体位置判定部132)
物体位置判定部132は、入力画像123の原点座標122と、物体領域検出部131によって検出された各物体領域との位置関係を判定する。本実施の形態における物体位置判定部132は、物体領域検出部131によって検出された各物体領域の位置が、原点座標122によって示される原点付近か又は原点付近外かを判定する物体位置判定処理を実行する。以下、物体位置判定処理を、図4を参照して説明する。
まず、物体位置判定部132は、記憶部12から原点座標122を読み出し、原点座標122から、物体領域検出部131によって検出された各物体領域までの最短距離が所定範囲内であれば、各物体領域が「原点付近」に位置すると判定する。また、物体位置判定部132は、原点座標122から、物体領域検出部131によって検出された各物体領域までの最短距離が所定範囲外であれば、各物体領域は「原点付近外」に位置すると判定する。
例えば、図4に示すように、物体位置判定部132は、原点座標122から各物体領域までの最短距離が20ピクセル未満(図4(a)の点線の円内)である場合、各物体領域が「原点付近」に位置すると判定する。また、物体位置判定部132は、原点座標122から各物体領域までの最短距離が20ピクセル以上(図4(a)の点線の円外)である場合、各物体領域は「原点付近外」に位置すると判定する。なお、原点から各物体領域までの最短距離が所定範囲内か否かを判定するための所定範囲は、20ピクセル未満に限定されず、25ピクセル未満でも、30ピクセル未満でもよい。
図4(b)に示す例では、物体領域1233は「原点付近」に位置すると判定され、また、物体領域1234は「原点付近外」に位置すると判定される。
なお、物体位置判定部132は、原点座標122から各物体領域の重心座標までの距離を用いて物体位置判定処理を実行してもよい。
また、記憶部12は、予め原点付近領域(例えば、原点座標を中心とする半径20ピクセルの円領域)を記憶してもよい。この場合、物体位置判定部132は、原点座標から各物体領域の距離を算出せずに、各物体領域が記憶部12に記憶された原点付近領域に重畳するか否かを判定することで、各物体領域は原点付近か又は原点付近外かを判定する。また、この場合、物体位置判定部132は、各物体領域が原点付近領域に重畳するか否かを判定せずに、各物体領域に占める原点付近領域の割合に基づいて、各物体領域は原点付近か又は原点付近外かを判定してもよい。
(形状情報算出部133)
形状情報算出部133は、物体領域検出部131によって検出された物体領域から形状情報を算出する形状情報算出処理を実行する。本実施の形態における形状情報算出部133は、形状情報として、物体領域の面積及び縦横比を算出する。また、形状情報算出部133は、直交座標系で表した形状情報と極座標系で表した形状情報とをそれぞれ算出する。
以下、図5(a)を参照して、直交座標系で表した形状情報の算出方法を説明する。形状情報算出部133は、物体領域検出部131によって検出された各物体領域の外接矩形の縦の長さ及び横の長さが、それぞれHピクセル及びTピクセルである場合、次の式(1)及び式(2)によって形状情報(面積及び縦横比)を算出する。
Figure 0007030451000001
Figure 0007030451000002
次に、図5(b)を参照して、極座標系で表した形状情報の算出方法を説明する。形状情報算出部133は、物体領域検出部131によって検出された各物体領域に外接する、原点を通過する2つの線分と原点を中心とした2つの弧とによって構成される形状の形状情報(面積及び縦横比)を算出する。
形状情報算出部133は、各物体領域に外接する形状を構成する2つの孤のうちの原点に近い孤の半径がRピクセルであり、当該2つの孤のうちの原点から遠い孤の半径が(R+H)ピクセルであり、各物体領域に外接する形状を構成する2つの線分によって形成される角の大きさがT(rad)であり、半径Rの円の面積がSC1であり、半径(R+H)の円の面積がSC2である場合、次の式(3)及び式(4)によって形状情報(面積及び縦横比)を算出する。なお、式(4)については、Rに代えて、原点から物体領域の重心までの長さG(ピクセル)を用いてもよい。
Figure 0007030451000003
Figure 0007030451000004
なお、形状情報算出部133は、面積及び縦横比の両方を形状情報として算出したが、面積及び縦横比のいずれか一方を形状情報として算出してもよい。また、形状情報算出部133は、面積及び縦横比以外の指標(例えば、各物体領域に外接する形状の2本の対角線の長さ及び相対角度等)を形状情報として算出してもよい。また、形状情報算出部133は、後述する追跡部134や検出対象判定部135において対応付けに使用することが決定した一方の座標系の形状情報のみを算出してもよい。
(追跡部134)
追跡部134は、形状情報算出部133によって算出された形状情報に基づいて、物体領域を追跡する追跡処理を実行する。本実施の形態における追跡部134は、形状情報算出部133で算出された形状情報に基づいて、今回の入力画像から検出された物体領域と前回の入力画像から検出された物体領域とについて、同一の物体とみなせるものどうしを対応付けることで追跡を行う。
なお、追跡部134は、前回の入力画像から検出されたいずれの物体領域とも対応付けが行われなかった物体領域は、今回の入力画像において新たに検出された物体が映っている物体領域であると判定し、追跡を開始する。また、追跡部134は、前回の入力画像から検出された物体領域のうち、今回の入力画像と対応付けられない物体領域は、監視空間の外に出た(消失した)物体が映っている領域であると判定し、追跡を終了する。
本実施の形態における追跡部134は、形状情報算出部133によって算出された形状情報を用いて、今回の入力画像から検出された物体領域と前回の入力画像から検出された物体領域との組み合せ毎にそれぞれ判定評価値を算出する。そして、追跡部134は、算出した判定評価値を用いて、公知のハンガリアン法等を用いて全体最適化を行い、今回の物体領域と前回の物体領域の組み合わせ毎の判定評価値の和が最大となるように、物体領域どうしの対応付けを再度実施する。なお、追跡部134は、判定評価値が閾値以下である物体領域の組み合せについては対応付けない。
本実施の形態における判定評価値は、以下の式(5)によって求められる。なお、縦横比類似度C及び面積類似度Dの詳細については後述する。
Figure 0007030451000005
なお、追跡部134は、面積及び縦横比のどちらか一方の評価値を判定評価値としてもよい。また、面積及び縦横比以外の形状情報を用いて判定評価値を求めてもよい。
また、判定評価値の算出方法はこれに限らず、例えば、追跡部134は、縦横比類似度C及び面積類似度Dのそれぞれに重みを乗じてから平均値を算出し、当該算出した平均値を判定評価値としてもよい。または、追跡部134は、縦横比類似度C及び面積類似度Dのそれぞれを2乗した値の和のルート値(すなわち、相乗平均)を判定評価値として算出してもよい。
また、追跡部134は、全体最適化を用いた物体領域どうしの対応付けを実施しなくてもよい。例えば、追跡部134は、判定評価値が閾値以上、かつ最大となる物体領域どうしを対応付けるようにしてもよい。
以下、縦横比類似度C及び面積類似度Dの算出方法について説明する。縦横比類似度Cは、前回の物体領域の縦横比をR1、今回の物体領域の縦横比をR2とした場合、以下の式(6)によって算出される。
Figure 0007030451000006
面積類似度Dは、前回の物体領域の面積をS1、今回の物体領域の面積をS2とした場合以下の式(7)によって算出される。
Figure 0007030451000007
追跡部134は、縦横比類似度C及び面積類似度Dを算出する際、物体位置判定部132によって判定された原点と物体領域の位置関係に応じて、極座標系で表した形状情報及び直交座標系で表した形状情報のいずれか一方を用いる。
例えば、追跡部134は、物体位置判定部132によって、今回の物体領域が「原点付近」と判定された場合には、直交座標系の形状情報を用いる。例えば、形状情報として縦横比が用いられる場合、式(6)において、R1及びR2のいずれも直交座標系で算出されたものが使用される。
また、例えば、追跡部134は、物体位置判定部132によって、今回の物体領域が「原点付近外」と判定された場合には、極座標系の形状情報を用いる。例えば、形状情報として縦横比が用いられる場合、式(6)において、R1及びR2のいずれも極座標系で算出されたものが用いられる。
なお、追跡部134は、前回の物体領域の位置関係に応じて、縦横比類似度C及び面積類似度Dを算出する処理において用いられる座標系を決定してもよい。また、追跡部134は、前回の物体領域の位置関係と今回の物体領域の位置関係の両方を用いて、縦横比類似度C及び面積類似度Dを算出する処理において使用する座標系を決定してもよい。この場合、例えば、追跡部134は、前回と今回の物体領域のどちらか一方が「原点付近」であれば直交座標系の形状情報を用い、前回と今回の物体領域の両方とも「原点付近外」であれば極座標系の形状情報を用いる。
以下、図6及び図7を用いて、追跡部134による追跡処理の結果について説明する。
図6及び図7に示す例では、時刻t、時刻t+1、時刻t+2、時刻t+3、時刻t+4、時刻t+5及び時刻t+6のそれぞれにおいて撮影された入力画像から抽出された物体領域をそれぞれ示している。なお、時刻t、時刻t+1、時刻t+2、時刻t+3、時刻t+4、時刻t+5及び時刻t+6は、時系列に従った時刻である。以降、各時刻(t~t+6)において撮影された入力画像から抽出された物体領域を、単に、各時刻(t~t+6)の物体領域と称する場合がある。
図7(a)に示されるように、時刻tの物体領域は、「原点付近外」において新たに検出された物体が映っている領域である。したがって、当該物体領域は、この時刻tの物体領域と対応付けられていない。
図7(b)に示されるように、時刻tの物体領域と時刻t+1の物体領域とが対応付けられている。このとき、時刻t+1の物体領域は「原点付近外」であるため、時刻tの物体領域と時刻t+1の物体領域の対応付けにおいて、時刻tの物体領域と時刻t+1の物体領域の両方とも極座標系の形状情報が用いられる。仮に、時刻tの物体領域と時刻t+1の物体領域の両方とも直交座標系の形状情報が用いられた場合、極座標系の形状情報が用いられた場合に比べて類似度が低くなることが分かる。
図7(c)に示されるように、時刻t+1の物体領域と時刻t+2の物体領域とが対応付けられている。このとき、時刻t+2の物体領域は「原点付近」であるため、時刻t+1の物体領域と時刻t+2の物体領域の対応付けにおいて、時刻t+1の物体領域と時刻t+2の物体領域の両方とも直交座標系の形状情報が用いられる。なお、図7(c)の例では、時刻t+1の物体領域とt+2の物体領域の両方とも極座標系の形状情報が用いられても、類似度は同程度となる。
図7(d)に示されるように、時刻t+2の物体領域と時刻t+3の物体領域とが対応付けられている。このとき、時刻t+3の物体領域は「原点付近」であるため、時刻t+2の物体領域と時刻t+3の物体領域の対応付けにおいて、時刻t+2の物体領域と時刻t+3の物体領域の両方とも直交座標系の形状情報が用いられる。仮に、時刻t+2の物体領域と時刻t+3の物体領域の両方とも極座標系の形状情報が用いられた場合、直交座標系の形状情報が用いられた場合に比べて類似度が低くなることが分かる(例えば、時刻t+3の物体領域におけるTが、時刻t+2の物体領域におけるTよりも大きいことが分かる。)。
図7(e)に示されるように、時刻t+3の物体領域と時刻t+4の物体領域とが対応付けられている。このとき、時刻t+4の物体領域は「原点付近」であるため、時刻t+3の物体領域と時刻t+4の物体領域の対応付けにおいて、時刻t+3の物体領域と時刻t+4の物体領域の両方とも直交座標系の形状情報が用いられる。仮に、時刻t+3の物体領域と時刻t+4の物体領域の両方とも極座標系の形状情報が用いられた場合、直交座標系の形状情報が用いられた場合に比べて類似度が低くなることが分かる。
図7(f)に示されるように、時刻t+4の物体領域と時刻t+5の物体領域とが対応付けられている。このとき、時刻t+5の物体領域は「原点付近外」であるため、時刻t+4の物体領域と時刻t+5の物体領域の対応付けにおいて、時刻t+4の物体領域と時刻t+5の物体領域の両方とも極座標系の形状情報が用いられる。この場合、時刻t+4の物体領域と時刻t+5の物体領域との類似度が低くなってしまう。しかし、前述したように、どちらか一方が原点付近の場合に直交座標系を用いるようにすれば当該対応付けにおいて、時刻t+4の物体領域と時刻t+5の物体領域の一方が「原点付近」であるため、時刻t+4の物体領域と時刻t+5の物体領域の両方とも直交座標系の形状情報が用いられ、類似度が高くなる。
図7(g)に示されるように、時刻t+5の物体領域と時刻t+6の物体領域とが対応付けられている。このとき、時刻t+6の物体領域は「原点付近外」であるため、時刻t+5の物体領域と時刻t+6の物体領域の対応付けにおいて、時刻t+5の物体領域と時刻t+6の物体領域の両方とも極座標系の形状情報が用いられる。仮に、時刻t+5の物体領域と時刻t+6の物体領域の両方とも直交座標系の形状情報が用いられた場合、極座標系の形状情報が用いられた場合に比べて類似度が低くなることが分かる。
(検出対象判定部135)
検出対象判定部135は、物体領域検出部131によって検出された物体領域が検出対象であるか否かを判定する検出対象判定処理を実行する。本実施の形態における検出対象判定部135は、物体領域検出部131によって検出された物体領域が人物であるか否かを判定する。
まず、検出対象判定部135は、追跡している物体領域毎に、人物らしさを表す人属性値を順次算出する。例えば、人属性値は、入力変化領域の大きさによる特徴量a1と、入力変化領域の縦横比による特徴量a2と、入力変化領域の移動量による特徴量a3に重み付けをして、その総和を求めることにより算出される。
特徴量a1、a2、a3に対する重み付けをb1、b2、b3として、判定部35は人属性値を次の式により求める。
人属性値=a1×b1+a2×b2+a3×b3
ただし、b1+b2+b3=1
例えば、入力変化領域の大きさが人らしさに最も寄与すると想定した場合、重み付けb1、b2、b3は、b1=0.5,b2=0.3,b3=0.2等に設定される。
なお、人属性値の算出方法は、上述の算出方法に限らず、例えば、面積が人物らしい大きさであったり背景画像のエッジを隠していたりする場合に人属性値が大きな値になるように算出される算出方法であれば、どのような算出方法でもよい。
なお、検出対象判定部135は、物体領域が人物らしい面積か否かを判定する際に、前述したラベル領域の統合処理と同様に、予め記憶部12に記憶された、画像上の位置に対応付けて人物相当の面積と、物体領域の面積とを比較してもよい。そして、この場合、検出対象判定部135は、追跡している物体領域について、人属性値の時間的な蓄積値や平均値が閾値以上となった場合に、当該物体領域を「人物」と判定する。
また、検出対象判定部135は、人以外らしさ(例えば、影、光、植栽、虫、小動物らしさ)を表す人以外属性値を、公知の算出方法によって算出してもよい。この場合、検出対象判定部135は、人以外属性値の時間的な蓄積値や平均値が閾値以下となった場合に、当該物体領域を「人物」と判定する。なお、検出対象判定部135は、人属性値と人以外属性値を組み合わせて、人属性値の時間的な蓄積値や平均値が閾値以上であり、かつ、人以外属性値の蓄積値や平均値が閾値以下となった場合に、当該物体領域を「人物」と判定してもよい。検出対象の判定方法は、上述した方法に限らず、人物であると判定することができる方法であれば、どのような判定方法でもよい。
(背景画像更新部136)
背景画像更新部136は、記憶部12に背景画像を記憶する背景画像更新処理を実行する。例えば、背景画像更新部136は、物体領域や検出対象が検出されていない入力画像によって背景画像を更新する。
具体的には、背景画像更新部136は、検出対象判定部135によって人物(検出対象)が検出されなかったと判定された場合、及び、物体領域検出部131で物体領域が検出されなかった場合に、背景画像を更新する。なお、背景画像更新部136は、所定の時間間隔で背景画像を更新してもよく、また、照明の変動などを検知した場合に背景画像を更新してもよい。また、所定の時間間隔で背景画像が更新される場合、背景画像更新部136は、人物(検出対象)はいないが、追跡している物体領域があれば、背景画像の更新速度を緩めてもよい。
(出力部14)
出力部14は、処理部13によって実行された各種処理結果を外部の監視センタ又は警備装置等に出力する。本実施の形態における出力部14は、検出対象判定部135による判定結果を外部に出力する。例えば、検出対象判定部135によって監視空間内に人物(検出対象)がいると判定された場合に、出力部14は、その判定結果を外部に出力する。なお、出力部14は、追跡部134による追跡結果を外部に出力してもよい。
図8は、全体処理のフローチャートの一例を示す図である。
まず、物体領域検出部131は、撮影部11によって順次出力された入力画像123を取得する画像取得処理を実行する(ステップS101)。
次に、物体領域検出部131は、取得した入力画像123に対して物体領域検出処理を実行する(ステップS102)。
物体領域検出部131は、物体領域検出処理によって物体領域が検出されなかった場合(ステップS103-No)、背景画像更新部136に背景画像更新処理の実行を指示し、ステップS110に処理を進める。
物体領域検出部131は、物体領域検出処理によって物体領域が検出された場合(ステップS103-Yes)、物体位置判定部132に物体位置判定処理の実行を指示し、ステップS104に処理を進める。
物体位置判定部132は、物体領域検出部131からの指示に応じて、物体領域検出処理によって検出された各物体領域の位置が、原点座標122によって示される原点付近か又は原点付近外かを判定する物体位置判定処理を実行する(ステップS104)。
次に、形状情報算出部133は、物体位置判定処理による判定結果に応じた形状情報を算出する形状情報算出処理を実行する(ステップS105)。
次に、追跡部134は、物体位置判定処理によって算出された形状情報に基づいて、物体領域を追跡する追跡処理を実行する(ステップS106)。追跡処理の詳細は後述する。
次に、検出対象判定部135は、入力画像123から検出された物体領域が検出対象であるか否かを判定する検出対象判定処理を実行する(ステップS107)。
検出対象判定部135は、入力画像123から検出された全ての物体領域のそれぞれが検出対象でないと判定した場合(ステップS108-No)、背景画像更新部136に背景画像更新処理の実行を指示し、ステップS110に処理を進める。
検出対象判定部135は、入力画像123から検出された物体領域の中に検出対象である物体領域があると判定した場合(ステップS108-Yes)、出力部14に出力処理の実行を指示する。
出力部14は、検出対象判定部135の判定結果(入力画像123から検出された物体領域が検出対象であるという結果)を外部に出力し(ステップS109)。ステップS101に処理を戻す。
また、背景画像更新部136は、新たな背景画像を記憶部12に記憶する背景画像更新処理を実行する(ステップS110)。
図9は、追跡処理のフローチャートの一例を示す図である。
追跡部134は、前回の物体領域と今回の物体領域の組合せを抽出する(ステップS201)。例えば、前回の物体領域として物体領域A~Cが抽出され、今回の物体領域として物体領域D~Eが抽出されている場合、組合せとして、AD、BD、CD、AE、BE、CEの6組が抽出される。以下、抽出された組合せ毎に、ステップS202~ステップS205が繰り返し実行される。
次に、追跡部134は、抽出した組合せに含まれる前回の物体領域と今回の物体領域のそれぞれの位置が、原点付近か又は原点付近外かに応じて、処理を変更する(ステップS202)。例えば、本実施の形態では、追跡部134は、今回の物体領域の位置に応じて位置を変更する。なお、追跡部134は、前述したように、前回の物体領域の位置に応じて処理を変更してもよい。
追跡部134は、抽出した組合せに含まれる今回の物体領域の位置が、原点付近であると判定された場合(ステップS202-Yes)、当該組合せに含まれる前回と今回の物体領域について直交座標系の形状情報の使用を決定し(ステップS203)、ステップS205に処理を進める。
追跡部134は、抽出した組合せに含まれる今回の物体領域の位置が、原点付近外であると判定された場合(ステップS202-No)、当該組合せに含まれる前回と今回の物体領域について極座標系の形状情報の使用を決定し(ステップS204)、ステップS205に処理を進める。
ステップS105では、追跡部134は、抽出した組合せ毎に、今回の物体領域について使用が決定された形状情報と前回の物体領域について使用が決定された形状情報とに基づいて判定評価値を算出する(ステップS205)。
次に、追跡部134は、ステップS201で抽出された全ての組合せについて、判定評価値算出処理が実行されたか否かを判定する(ステップS206)。
追跡部134は、ステップS201で抽出された全ての組合せについて、判定評価値算出処理が実行されていないと判定された場合(ステップS206-No)、ステップS202に処理を戻す。
追跡部134は、ステップS201で抽出された全ての組合せについて、判定評価値算出処理が実行されたと判定された場合(ステップS206-Yes)、組合せに含まれる前回の物体領域と今回の物体領域を対応付ける対応付け処理を実行し(ステップS207)、一連のステップを終了する。
図10は、追跡処理のフローチャートの他の一例を示す図である。
追跡部134は、ステップS201と同様に、前回の物体領域と今回の物体領域との組合せを抽出する(ステップS301)。以下、抽出された組合せ毎に、ステップS302~ステップS305が繰り返し実行される。
次に、追跡部134は、抽出した組合せに含まれる前回の物体領域と今回の物体領域の両方が原点付近外であるか否かを判定する(ステップS302)。
追跡部134は、抽出した組合せに含まれる前回の物体領域と今回の物体領域の両方が、原点付近外であると判定された場合(ステップS302-Yes)、当該組合せについて極座標系の形状情報の使用を決定し(ステップS303)、ステップS305に処理を進める。
追跡部134は、抽出した組合せに含まれる前回の物体領域と今回の物体領域のどちらか一方が、原点付近であると判定された場合(ステップS302-No)、当該組合せについて直交座標系の形状情報の使用を決定し(ステップS304)、ステップS305に処理を進める。
ステップS305では、追跡部134は、抽出した組合せについて、今回の物体領域について使用が決定された形状情報と前回の物体領域について使用が決定された形状情報とに基づいて判定評価値を算出する(ステップS305)。
次に、追跡部134は、ステップS301で抽出された全ての組合せについて、判定評価値算出処理が実行されたか否かを判定する(ステップS306)。
追跡部134は、ステップS301で抽出された全ての組合せについて、判定評価値算出処理が実行されていないと判定された場合(ステップS306-No)、ステップS302に処理を戻す。
追跡部134は、ステップS301で抽出された全ての組合せについて、判定評価値算出処理が実行されたと判定された場合(ステップS306-Yes)、組合せに含まれる前回の物体領域と今回の物体領域を対応付ける対応付け処理を実行し(ステップS307)、一連のステップを終了する。
上述のとおり、画像センサ1は、順次撮影された複数の画像のそれぞれから抽出された各物体領域を、当該物体領域の形状情報に基づいて他の画像から抽出された物体領域に対応付ける対応付け処理の計算負荷を抑えつつ、当該処理を高精度に実行することができる。すなわち、本発明に係る画像センサ1によって、全方位画像等を用いた物体領域の追跡を、リアルタイムに高精度かつ低コストで実現することが可能となる。
(変形例1)
なお、本発明は、本実施形態に限定されるものではない。例えば、追跡部134は、以下に詳述する算出方法によって、縦横比類似度C及び面積類似度Dを算出するようにしてもよい。
追跡部134は、前述の式(6)に従って、直交座標系で算出した形状情報に基づく縦横比類似度C1、極座標系で算出した形状情報に基づく縦横比類似度C2をそれぞれ算出する。次に、追跡部134は、以下の式(8)によって、入力画像の原点と物体領域の距離に応じた重みW1及びW2を、直交座標系で算出した形状情報に基づく縦横比類似度C1、極座標系で算出した形状情報に基づく縦横比類似度C2に掛け合わせることで縦横比類似度Cを算出する。
Figure 0007030451000008
例えば、今回の物体領域の位置関係が「原点付近」(例えば、前述の所定範囲が20ピクセル)であれば、追跡部134は、以下の式(9)及び式(10)によって重みW1及びW2を決定する。
Figure 0007030451000009
Figure 0007030451000010
また、今回の物体領域の位置関係が「原点付近外」であれば、追跡部134は、以下の式(11)によって重みW1及びW2を決定する。
Figure 0007030451000011
なお、追跡部134は、今回の物体領域の位置関係に応じて重みを決定したが、当該決定方法に限らない。例えば、追跡部134は、前回の物体領域の位置関係に応じて、重みを決定してもよい。
また、追跡部134は、前回の物体領域の位置関係と今回の物体領域の位置関係の両方を用いて、重みの算出に使用する物体領域を決定してもよい。例えば、追跡部134は、前回と今回の物体領域のうち原点からの距離が短い方の物体領域の位置関係に応じて前述の式(9)~(11)によって重みW1及びW2を決定してもよい。この場合、追跡部134は、物体位置判定部132において算出された原点から物体領域までの距離に関する情報を取得してもよい。
なお、追跡部134は、面積類似度Dについても、上述の縦横比類似度Cと同様の算出方法で算出してもよい。
(変形例2)
また、追跡部134は、直交座標系で算出した形状情報に基づく縦横比類似度C1、極座標系で算出した形状情報に基づく縦横比類似度C2をそれぞれ算出し、類似度が高い方を縦横比類似度Cとして用いられてもよい(式(12))。
Figure 0007030451000012
なお、追跡部134は、面積類似度Dについても、上述の縦横比類似度Cと同様の算出方法で算出してもよい(式(13))。
Figure 0007030451000013
(変形例3)
また、追跡処理において、「直交座標系の形状情報と極座標系の形状情報との切り換え」方法が使用されたが、例えば、検出対象判定処理において、物体領域が検出対象であるか否かを判定する際にも「直交座標系の形状情報と極座標系の形状情報との切り換え」方法が使用されてもよい。
例えば、検出対象判定部135は、前回の物体領域の形状情報と今回の物体領域の形状情報を比較して、変化の有無に基づいて当該物体領域が検出対象であるか否かを判定してもよい。これにより、検出対象(人物)であれば、面積や縦横比などの形状情報が時間的に変化しない(安定している)という撮影画像上の特徴に基づいて、精度良く検出対象を判定することができる。
検出対象判定部135は、形状情報の時間的な変化の有無を判定する際に、追跡処理と同様に、入力画像の原点と物体領域の位置関係に応じて、直交座標系の形状情報と極座標系の形状情報を切り換えて、変化の有無を確認する。この場合、追跡処理については、前述の方法で追跡を行ってもよいし、他の公知の方法によって追跡を行ってもよい。
当業者は、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。
1 画像センサ
11 撮影部
12 記憶部
121 背景画像
122 原点座標
13 処理部
131 物体領域検出部
132 物体位置判定部
133 形状情報算出部
134 追跡部
135 検出対象判定部
136 背景画像更新部
14 出力部

Claims (5)

  1. 魚眼レンズを用いる撮影部によって順次撮影された複数の入力画像のそれぞれから物体領域を検出する検出部と、
    前記物体領域毎に、当該物体領域が、前記入力画像の中心点を含む所定範囲内に位置するか否かを判定する判定部と、
    前記物体領域のうちの前記所定範囲内に位置すると判定された物体領域については直交座標で表された形状情報を用い、前記物体領域のうちの前記所定範囲外に位置すると判定された物体領域については前記中心点を原点とする極座標で表された形状情報を用いて、互いに異なる前記入力画像から検出された前記物体領域の類似度を算出し、前記類似度に基づいて前記物体領域どうしの対応付けを行う追跡部と、
    を備えたことを特徴とする画像処理装置。
  2. 魚眼レンズを用いる撮影部によって順次撮影された複数の入力画像のそれぞれから物体領域を検出する検出部と、
    前記物体領域毎に、当該物体領域が、前記入力画像の中心点を含む所定範囲内に位置するか否かを判定する判定部と、
    互いに異なる前記入力画像から検出された前記物体領域のうちの少なくとも一方が前記所定範囲内に位置すると判定された物体領域どうしについては直交座標で表された形状情報を用いて当該物体領域どうしの類似度を算出し、互いに異なる前記入力画像から検出された前記物体領域のうちの両方が前記所定範囲外に位置すると判定された物体領域どうしについては前記中心点を原点とする極座標で表された形状情報を用いて当該物体領域どうしの類似度を算出し、前記類似度に基づいて前記物体領域どうしの対応付けを行う追跡部と、
    を備えたことを特徴とする画像処理装置。
  3. 魚眼レンズを用いる撮影部によって順次撮影された複数の入力画像のそれぞれから物体領域を検出する検出部と、
    前記物体領域毎に、当該物体領域が、前記入力画像の中心点を含む所定範囲内に位置するか否かを判定する判定部と、
    前記物体領域について、直交座標で表された形状情報及び前記中心点を原点とする極座標で表された形状情報を算出する算出する算出部と、
    互いに異なる前記入力画像から検出された前記物体領域について、前記直交座標で表された形状情報どうしの第1の類似度と、前記極座標で表された形状情報どうしの第2の類似度を算出し、当該第1の類似度、当該第2の類似度、及び当該物体領域のそれぞれと前記中心点との距離に基づいて、当該物体領域どうしの対応付けを行う追跡部と、
    を備えたことを特徴とする画像処理装置。
  4. 魚眼レンズを用いる撮影部によって順次撮影された複数の入力画像のそれぞれから物体領域を検出する検出部と、
    前記物体領域毎に、当該物体領域が、前記入力画像の中心点を含む所定範囲内に位置するか否かを判定する判定部と、
    前記物体領域について、直交座標で表された形状情報及び前記中心点を原点とする極座標で表された形状情報を算出する算出する算出部と、
    互いに異なる前記入力画像から検出された前記物体領域について、前記直交座標で表された形状情報どうしの第1の類似度と、前記極座標で表された形状情報どうしの第2の類似度を算出し、当該第1の類似度及び当該第2の類似度のうち高い方の類似度に基づいて、当該物体領域どうしの対応付けを行う追跡部と、
    を備えたことを特徴とする画像処理装置。
  5. 魚眼レンズを用いる撮影部によって順次撮影された複数の入力画像のそれぞれから物体領域を検出する検出部と、
    前記物体領域毎に、当該物体領域が、前記入力画像の中心点を含む所定範囲内に位置するか否かを判定する判定部と、
    前記物体領域の形状情報を用いて、互いに異なる前記入力画像から検出された前記物体領域の類似度を算出し、前記類似度に基づいて前記物体領域どうしの対応付けを行う追跡部と、
    前記追跡部により対応付けられた前記物体領域のうちの前記所定範囲内に位置すると判定された物体領域については直交座標で表された形状情報を用い、前記追跡部により対応付けられた前記物体領域のうちの前記所定範囲外に位置すると判定された物体領域については前記中心点を原点とする極座標で表された形状情報を用いて、前記物体領域が所定の検出対象であるか否かを判定する検出対象判定部と、
    を備えたことを特徴とする画像処理装置。
JP2017158128A 2017-08-18 2017-08-18 画像処理装置 Active JP7030451B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017158128A JP7030451B2 (ja) 2017-08-18 2017-08-18 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017158128A JP7030451B2 (ja) 2017-08-18 2017-08-18 画像処理装置

Publications (2)

Publication Number Publication Date
JP2019036213A JP2019036213A (ja) 2019-03-07
JP7030451B2 true JP7030451B2 (ja) 2022-03-07

Family

ID=65637693

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017158128A Active JP7030451B2 (ja) 2017-08-18 2017-08-18 画像処理装置

Country Status (1)

Country Link
JP (1) JP7030451B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7192582B2 (ja) * 2019-03-11 2022-12-20 オムロン株式会社 物体追跡装置および物体追跡方法
JP7272024B2 (ja) * 2019-03-15 2023-05-12 オムロン株式会社 物体追跡装置、監視システムおよび物体追跡方法
WO2021157133A1 (ja) * 2020-02-03 2021-08-12 コニカミノルタ株式会社 再同定装置、再同定プログラム、および再同定方法
CN112614178A (zh) * 2020-12-08 2021-04-06 快优智能技术有限公司 一种基于单设备的多摄像头位置定位方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013001941A1 (ja) 2011-06-27 2013-01-03 日本電気株式会社 物体検知装置、物体検知方法および物体検知プログラム
JP2015080107A (ja) 2013-10-17 2015-04-23 株式会社熊平製作所 移動体表示システムおよび移動体表示プログラム
JP2016139975A (ja) 2015-01-28 2016-08-04 オリンパス株式会社 画像取得装置、画像取得方法及び画像取得のためのプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013001941A1 (ja) 2011-06-27 2013-01-03 日本電気株式会社 物体検知装置、物体検知方法および物体検知プログラム
US20140193034A1 (en) 2011-06-27 2014-07-10 Nec Corporation Object detection device, object detection method and object detection program
JP2015080107A (ja) 2013-10-17 2015-04-23 株式会社熊平製作所 移動体表示システムおよび移動体表示プログラム
JP2016139975A (ja) 2015-01-28 2016-08-04 オリンパス株式会社 画像取得装置、画像取得方法及び画像取得のためのプログラム

Also Published As

Publication number Publication date
JP2019036213A (ja) 2019-03-07

Similar Documents

Publication Publication Date Title
JP7030451B2 (ja) 画像処理装置
JP6554169B2 (ja) 物体認識装置及び物体認識システム
US9165190B2 (en) 3D human pose and shape modeling
US20160142680A1 (en) Image processing apparatus, image processing method, and storage medium
JP6036824B2 (ja) 画角変動検知装置、画角変動検知方法および画角変動検知プログラム
JP7272024B2 (ja) 物体追跡装置、監視システムおよび物体追跡方法
JP2009080846A (ja) 画像処理装置および画像処理方法
JP5857269B2 (ja) 画像生成装置、画像生成方法及びプログラム
JPH10227609A (ja) 屋外用距離計測装置
KR20150032630A (ko) 촬상 시스템에 있어서의 제어방법, 제어장치 및 컴퓨터 판독 가능한 기억매체
US9412039B2 (en) Blur detection system for night scene images
CN111445531A (zh) 一种多目相机导航方法、装置、设备及存储介质
JP2020149641A (ja) 物体追跡装置および物体追跡方法
CN111670456B (zh) 信息处理装置、追踪方法和记录介质
JP2020106970A (ja) 人検出装置および人検出方法
Fahn et al. A high-definition human face tracking system using the fusion of omni-directional and PTZ cameras mounted on a mobile robot
JP6331566B2 (ja) 人物頭部検知装置及び姿勢推定装置
JP4740755B2 (ja) 画像を用いた監視装置
JP4737073B2 (ja) 人体検出装置
JP2002027449A (ja) 移動物体識別方法および移動物体識別装置
WO2018110377A1 (ja) 映像監視装置
CN114882003A (zh) 一种检测相机的拍摄位姿变化的方法、介质及计算设备
CN114973075A (zh) 运动状态确定方法、装置、设备及存储介质
JP7338174B2 (ja) 物体検出装置および物体検出方法
JP2013179614A (ja) 撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220222

R150 Certificate of patent or registration of utility model

Ref document number: 7030451

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150