JP6679349B2 - Information processing apparatus, information processing method, and program - Google Patents
Information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP6679349B2 JP6679349B2 JP2016044760A JP2016044760A JP6679349B2 JP 6679349 B2 JP6679349 B2 JP 6679349B2 JP 2016044760 A JP2016044760 A JP 2016044760A JP 2016044760 A JP2016044760 A JP 2016044760A JP 6679349 B2 JP6679349 B2 JP 6679349B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- coordinates
- pedestrian
- area
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、撮像された画像からオブジェクトを検出する情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program that detect an object from a captured image.
複数のカメラ等の撮像装置を用いて、設定された空間内のオブジェクトを検出する技術がある。この技術には、例えば、監視対象の空間内で複数の撮像装置を用いてオブジェクトを監視する技術や、監視対象の空間内で複数の撮像装置を用いてオブジェクトを追尾する技術等があげられる。
複数の撮像装置でオブジェクトを検出して、複数の撮像装置全てで共通する座標(例えば、世界座標)におけるそのオブジェクトの位置等のオブジェクトの属性を推定する手法が提案されている。
非特許文献1は、世界座標が既知のカメラでオブジェクトを撮像し、個々のカメラによる撮像画像上でのオブジェクトの座標を求め、三角測量の原理でオブジェクトの世界座標を求める演算を開示する。更に、例えば特許文献1は、複数のカメラのそれぞれで動体領域を求め、オブジェクトの高さが既知だとして、三次元座標を推定する手法を開示する。
非特許文献2は、あるオブジェクトのカメラによる撮像画像上の座標を求める手法を開示する。非特許文献2は、カメラによる撮像画像のあらゆる部分画像について、その部分画像が人体か否かを識別する手法を開示する。このときカメラによる撮像画像上の人体の座標を求める演算量は、部分画像の数、即ち入力画像の大きさに比例する。特許文献2は、この演算量の削減の為に、画像上から部分画像を選択する領域を制限する手法を開示する。
There is a technique of detecting an object in a set space by using an imaging device such as a plurality of cameras. This technique includes, for example, a technique of monitoring an object using a plurality of image capturing devices in a monitored space, a technique of tracking an object using a plurality of image capturing devices in the monitored space, and the like.
A method has been proposed in which an object is detected by a plurality of imaging devices and the attributes of the object such as the position of the object at coordinates (for example, world coordinates) common to all the imaging devices are estimated.
Non-Patent Document 1 discloses an arithmetic operation in which an object is imaged by a camera whose world coordinates are known, the coordinates of the object on the image captured by each camera are obtained, and the world coordinates of the object are obtained by the principle of triangulation. Further, for example, Patent Document 1 discloses a method of obtaining a moving body region with each of a plurality of cameras, and assuming that the height of an object is known, estimating three-dimensional coordinates.
Non-Patent Document 2 discloses a method of obtaining coordinates of a certain object on a captured image by a camera. Non-Patent Document 2 discloses a method for identifying, with respect to every partial image of an image captured by a camera, whether or not the partial image is a human body. At this time, the amount of calculation for obtaining the coordinates of the human body on the image captured by the camera is proportional to the number of partial images, that is, the size of the input image. Patent Document 2 discloses a method of limiting an area in which a partial image is selected from an image in order to reduce the calculation amount.
従来、複数の撮像装置を用いたオブジェクトの検出では、複数の撮像装置により撮像された画像のそれぞれについて、画像の全範囲を対象にオブジェクトの検出が行われていた。そのため、オブジェクトの検出に要する演算量等の処理負担の大きさは、全てのカメラの撮像画像の画素数の総和に比例することとなる。また、オブジェクトの検出に用いられる撮像装置の台数は、検出対象の空間の大きさにほぼ比例する。よって、オブジェクトの検出の処理は、検出対象の空間が大きくなればなるほど、処理の負担が大きくなるという問題がある。
本発明は、オブジェクト検出処理の負担を軽減することを目的とする。
Conventionally, in the detection of an object using a plurality of image pickup devices, for each of the images picked up by the plurality of image pickup devices, the object detection is performed for the entire range of the image. Therefore, the amount of processing load such as the amount of calculation required to detect an object is proportional to the total number of pixels of the captured images of all cameras. Further, the number of imaging devices used for detecting an object is substantially proportional to the size of the space to be detected. Therefore, the object detection process has a problem that the larger the detection target space, the greater the processing load.
An object of the present invention is to reduce the load of object detection processing.
本発明の情報処理装置は、複数の撮像装置に共通する共通座標系において当該複数の撮像装置の撮像範囲を俯瞰した2次元地図の画像を表示し、該画像に対するユーザーの操作に基づいて、前記2次元地図においてオブジェクトが初めて登場する領域を入力する入力手段と、入力された前記オブジェクトが初めて登場する領域に基づいて、前記複数の撮像装置のうち前記オブジェクトを初めて検出すべき画像を取得する撮像装置と、該画像において前記オブジェクトを初めて検出すべき領域とを決定する初期領域決定手段と、前記初期領域決定手段により決定された撮像装置により撮像された画像において、前記初期領域決定手段により決定されたオブジェクトを初めて検出すべき領域から、前記オブジェクトを検出する第1の検出手段と、前記オブジェクトが検出された撮像画像に基づいて、前記共通座標系における前記オブジェクトの位置を表す座標を取得する取得手段と、前記座標に基づいて、現在の時点から設定された期間が経過した将来の時点における前記共通座標系における前記オブジェクトの位置を表す座標の予測値を予測する予測手段と、前記複数の撮像装置のそれぞれの撮像可能な範囲と、前記予測値とに基づいて、当該複数の撮像装置のうち前記将来の時点において前記オブジェクトを撮像可能な撮像装置を決定し、該決定された撮像装置において前記オブジェクトを撮像し得る領域を推定する推定手段と、前記将来の時点において、前記推定手段により決定された撮像装置により撮像された画像における前記推定された領域から、前記オブジェクトを検出する第2の検出手段と、を有する。 The information processing apparatus of the present invention displays an image of a two-dimensional map in which the imaging ranges of the plurality of image capturing apparatuses are overlooked in a common coordinate system common to the plurality of image capturing apparatuses, and based on user's operation on the images, Input means for inputting an area in which an object first appears in a two-dimensional map, and imaging for acquiring an image in which the object should be detected for the first time among the plurality of imaging devices based on the input area in which the object first appears. A device, an initial region determining means for determining a region in the image where the object should be detected for the first time, and an image captured by the image capturing device determined by the initial region determining means, the image being determined by the initial region determining means. First detecting means for detecting the object from the area where the object should be detected for the first time, Serial based on the object captured image is detected, the acquisition means for acquiring the coordinates representing the position of the object in the common coordinate system, on the basis of the coordinates, the period set by the current point the future course prediction means for predicting a prediction value of the coordinates representing the position of the object in the common coordinate system at the time, and each of the imageable range of said plurality of imaging devices, based on said predicted value, the plurality of imaging Estimating means for deciding an image pickup device capable of picking up the object at the future time point of the apparatus, and estimating an area in which the object can be picked up in the decided image pickup device; and the estimating means at the future time point Detecting the object from the estimated region in the image captured by the imaging device determined by A second detecting means.
本発明によれば、オブジェクト検出処理の負担を軽減することができる。 According to the present invention, the load of object detection processing can be reduced.
以下、本発明の実施形態について図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<実施形態1>
本実施形態では、監視システムが、視野が重複した複数のカメラを用いて、監視空間内を移動する人等のオブジェクトを追尾する処理を説明する。監視システムは、各カメラの撮像画像からオブジェクトを検出し、オブジェクトの世界座標系における座標を取得し、これらを繰り返し、オブジェクトの軌跡を求めることで、オブジェクトを追尾する。世界座標系とは、全カメラに共通する座標系である共通座標系の一例であり、三次元座標系であって、その1軸を底面に垂直、残りの2軸を底面に平行とする座標系である。
本実施形態では、説明の簡略化の為に、監視空間内の底面が平面であると仮定する。また、本実施形態では監視システムによる追尾対象のオブジェクトは、歩行する人(歩行者)であるとするが、歩行者には限定されず、止まって何らかの作業をしている人、走る人、車いす等に乗っている人、犬や猫や牛や豚や鶏等の動物、ドローン等でもよい。
<Embodiment 1>
In the present embodiment, a process will be described in which the monitoring system uses a plurality of cameras having overlapping fields of view to track an object such as a person moving in the monitoring space. The monitoring system tracks an object by detecting the object from the captured image of each camera, acquiring the coordinates of the object in the world coordinate system, and repeating these to obtain the trajectory of the object. The world coordinate system is an example of a common coordinate system that is common to all cameras, and is a three-dimensional coordinate system in which one axis is perpendicular to the bottom surface and the remaining two axes are parallel to the bottom surface. It is a system.
In this embodiment, it is assumed that the bottom surface in the monitoring space is a flat surface for simplification of description. Further, in the present embodiment, the object to be tracked by the monitoring system is assumed to be a pedestrian (pedestrian), but the object is not limited to a pedestrian, and a person who stops and does some work, a person who runs, a wheelchair. People such as dogs, cats, cows, pigs, chickens, and drones.
図1は、監視システムのシステム構成等の一例を示す図である。本実施形態の監視システムは、情報処理装置341、カメラ311〜313等の複数のカメラを含む。情報処理装置341、カメラ311〜313等の複数のカメラは、ネットワーク331を介して、相互に接続されている。情報処理装置341は、ネットワーク331を介して、複数のカメラのそれぞれから撮像画像のデータを取得する。
情報処理装置341は、監視システム内の複数のカメラからの撮像画像を取得し、オブジェクトを検出し、検出したオブジェクトの追尾を行うPCやサーバ装置等の情報処理装置である。
カメラ311〜313等の監視システム内の複数のカメラのそれぞれは、ネットワークに接続可能なカメラであり、撮像画像のデータを、ネットワークを介して、情報処理装置341等の外部の装置等に送信することができるカメラである。本実施形態では、監視システム内の複数のカメラは、共通する時間情報を有しており、撮像画像が撮像された時点の情報を撮像画像の情報と紐付けて、情報処理装置341に送信する。情報処理装置341は、各カメラから送信された撮像画像に紐付けられた時点情報を確認することで、各カメラからの撮像画像が何時撮像された画像なのかを把握できる。また、情報処理装置341は、異なるカメラから送信された撮像画像に紐付けられた時点情報がそれぞれ同じ時点を指す場合、同じ時点の監視空間301を撮像した画像であることを把握できる。
FIG. 1 is a diagram illustrating an example of a system configuration and the like of a monitoring system. The monitoring system of this embodiment includes a plurality of cameras such as the
The
Each of the plurality of cameras in the monitoring system such as the
図1には、監視システム内の複数のカメラの設置状況、監視対象の空間である監視空間301等が示されている。監視空間301は、監視システムが監視する空間であり、図1の例では、点線で囲まれた空間として示されている。監視システム内の複数のカメラは、各カメラの視野を合わせた領域が監視空間301を含むように、かつ、各カメラの視野が重複するように、設置されている。また、監視空間301は、監視システム内の複数のカメラの撮像範囲を全て合わせた領域であるとしてもよい。
監視空間301に出入りする歩行者は、監視空間301に出入り可能な領域を必ず経由することになる。新規オブジェクト登場空間302、新規オブジェクト登場空間303、新規オブジェクト登場空間304は、監視空間301に出入り可能な領域に設定された空間であり、図1の例では監視空間301内の、実線で囲まれた空間として示されている。
監視システム内の複数のカメラは、監視空間301を監視すべく、その視野を重複する様に設置される。カメラ311の視野は、カメラ311を中心とする扇型の領域として表され、図1の例では、破線の扇形の領域321として示されている。同様に、カメラ312、カメラ313の視野は、それぞれ領域322、領域323として示されている。
本実施形態では、監視システムは、監視空間301内を移動する歩行者351の座標の軌跡を求めることで、歩行者351を追尾する。
FIG. 1 shows an installation situation of a plurality of cameras in a surveillance system, a
Pedestrians who come in and out of the
A plurality of cameras in the surveillance system are installed so that their fields of view overlap so as to monitor the
In the present embodiment, the monitoring system tracks the
図2は、情報処理装置341のハードウェア構成等の一例を示す図である。情報処理装置341は、通信部201、CPU202、RAM203、補助記憶装置204、ユーザーインターフェース205を含む。通信部201、CPU202、RAM203、補助記憶装置204、ユーザーインターフェース205は、システムバス206を介して、相互に接続されている。
通信部201は、ネットワーク331を介して、カメラ311〜313等の監視システム内の複数のカメラから撮像画像のデータ等を受信する。また、通信部201は、複数のカメラそれぞれに対して、撮像指示、停止指示等の指示を送信することもできる。
CPU202は、RAM203、補助記憶装置204等に格納されている制御プログラム等のプログラムを実行し、情報処理装置341を制御する中央演算装置である。
RAM203は、CPU202のワークエリアやデータの一時待避領域として機能する記憶装置である。
FIG. 2 is a diagram illustrating an example of the hardware configuration of the
The
The
The
補助記憶装置204は、制御プログラム等のプログラム、各種パラメータデータ、画像や各種の設定情報等を記憶する記憶装置である。
ユーザーインターフェース205は、キーボード、マウス、ディスプレイ、タッチパネル等のユーザーに対する情報の表示やユーザーからの情報の入力を行う入力装置や出力装置との接続に利用されるインターフェースである。ユーザーインターフェース205には、キーボード、マウス、ディスプレイ、タッチパネル等の入力装置や出力装置が接続されている。
本実施形態では、CPU202が、RAM203又は補助記憶装置204に記憶されたプログラムに基づき処理を実行することによって、図3で後述する情報処理装置341の機能及び図4で後述するフローチャートの処理が実現される。
The
The
In the present embodiment, the
図3は、情報処理装置341の機能構成の一例を示す図である。情報処理装置341は、画像取得部101、属性取得部102、属性更新部103、共通属性推定部104、共通属性予測部105、装置決定部106、領域推定部107、空間入力部110、領域決定部111、を含む。
画像取得部101は、カメラ311〜313等の監視システム内の複数のカメラから、撮像された撮像画像を取得する。
属性取得部102は、画像取得部101により取得された撮像画像から、監視空間301内に新規に現れたオブジェクトを検出する。以下では、監視空間301内に新規に現れるオブジェクトを新規オブジェクトとする。そして、属性取得部102は、検出したオブジェクトの撮像画像内の座標系における座標を取得する。撮像画像内の座標系における座標は、監視システム内の各カメラに個別な属性の一例である。
共通属性推定部104は、属性取得部102又は後述する属性更新部103により取得された各カメラの撮像画像内の座標系における追尾対象のオブジェクトの座標に基づいて、そのオブジェクトの世界座標系における座標を推定する。世界座標系における座標は、監視システム内の全てのカメラに共通する属性である共通属性の一例である。共通属性についてのオブジェクトの属性値を共通属性値とする。即ち、世界座標系におけるオブジェクトの座標は、オブジェクトの共通属性値の一例である。
FIG. 3 is a diagram illustrating an example of a functional configuration of the
The
The
The common
共通属性予測部105は、共通属性推定部104により推定された追尾対象のオブジェクトの世界座標系における座標に基づいて、現在の時点から設定された期間が経過した時点におけるオブジェクトの世界座標系における座標を予測する。また、共通属性予測部105は、共通属性推定部104により推定されたオブジェクトの世界座標系における座標と、オブジェクトの世界座標系における過去の座標と、に基づいて、上記の予測処理を行うこととしてもよい。即ち、共通属性予測部105は、オブジェクトの世界座標系における推定された現在の座標と、過去の座標と、に基づいて、現在の時点から設定された期間が経過した時点におけるオブジェクトの世界座標系における座標を予測してもよい。
装置決定部106は、共通属性予測部105により予測された追尾対象のオブジェクトの世界座標系における座標に基づいて、監視システム内の複数のカメラのうち、オブジェクトを撮像し得るカメラを推定する。装置決定部106によりオブジェクトを撮像し得ると推定されたカメラは、改めて撮像を行って、その撮像画像からオブジェクトが検出されることになる。
領域推定部107は、共通属性予測部105により予測された追尾対象のオブジェクトの世界座標系における座標に基づいて、装置決定部106によりオブジェクトを撮像し得ると推定されたカメラのそれぞれについて、以下の処理を行う。即ち、領域推定部107は、そのオブジェクトが撮像画像上で映りうる領域を推定する。以下では、領域推定部107により推定された領域を追尾領域とする。
The common
The
The
属性更新部103は、装置決定部106によりオブジェクトを撮像し得ると推定されたカメラからの撮像画像内の領域推定部107により推定された追尾領域の中から、追尾対象のオブジェクトを検出し、オブジェクトの撮像画像内の座標を取得する。
空間入力部110は、入出力装置、ユーザーインターフェース205を介したユーザーの操作に基づいて、オブジェクトが監視空間に入る為に必ず経由する空間である新規オブジェクト登場空間を決定する。ユーザーは、入出力装置、ユーザーインターフェース205を介して、監視空間内の、壁、カメラの設置座標や関連パラメータ、オブジェクトが新規に登場する空間、等を入力する操作を行う。
領域決定部111は、空間入力部110により決定された新規オブジェクト登場空間に基づいて、監視空間内に新規に登場したオブジェクトを検出し得るカメラ、及び、そのカメラによる撮像画像上で新規オブジェクトが写りうる領域を決定する。
図3の要素群121は、本実施形態においてループして処理を繰り返すことになる機能構成要素群である。
The
The
The
The
図4は、本実施形態におけるオブジェクト追尾処理の一例を示すフローチャートである。歩行者351が外部から監視空間301内に入り、監視空間301内を移動する状況を例に、図4の処理を説明する。
S401において、画像取得部101は、カメラ311〜313等の監視システム内の複数のカメラから、同じ時点に撮像された撮像画像を取得する。また、画像取得部101は、カメラ311〜313等の監視システム内の複数のカメラから、設定された期間内(例えば、ある時点を中心に0.1秒の幅のある期間)に撮像された撮像画像を取得することとしてもよい。
FIG. 4 is a flowchart showing an example of the object tracking process in this embodiment. The process of FIG. 4 will be described by taking as an example a situation where a
In step S401, the
S402において、属性取得部102は、S401で取得された撮像画像から、監視空間301内に新たに現れた歩行者351を検出し、歩行者351の撮像画像内における座標を取得する。
本実施形態では、属性取得部102は、予め設定されたカメラから取得された撮像画像から、新規に監視空間301に表れる新規オブジェクトを検出する処理を行う。属性取得部102は、監視システム内の全てのカメラから取得された撮像画像から、新規に監視空間301に表れる新規オブジェクトを検出する処理を行うこととしてもよい。
また、属性取得部102は、カメラの撮像画像内に予め設定された領域から、新規に監視空間301に表れる新規オブジェクトを検出する処理を行う。この予め設定された領域は、撮像画像内で新たなオブジェクトが登場し得る領域であり、以下では、新規オブジェクト属性取得領域とする。新規オブジェクト属性取得領域は、先述の新規オブジェクト登場空間がカメラの撮像画像上で映る領域に相当する。また、属性取得部102は、カメラの撮像画像内の全領域から、新規に監視空間301に表れるオブジェクトを検出する処理を行うこととしてもよい。
図1の例では、新規オブジェクト登場空間302を映すカメラは、カメラ311及びカメラ312である。カメラ311、カメラ312、カメラ313が映す撮像画像の一例を、図5に示す。
In S402, the
In the present embodiment, the
In addition, the
In the example of FIG. 1, the cameras showing the new
図5は、カメラ311、カメラ312、カメラ313による撮像画像の一例を示す図である。図5の撮像画像411、撮像画像412、撮像画像413は、それぞれ、カメラ311、カメラ312、カメラ313の撮像画像の一例である。新規オブジェクト属性取得領域421、422は、それぞれ、撮像画像411、412上の新規オブジェクト属性取得領域であり、破線で囲まれた領域として示されている。監視空間301に入ってきた歩行者351は、新規オブジェクト登場空間302内に存在するとき、新規オブジェクト属性取得領域421、422の中に映ることになる。
属性取得部102は、新規オブジェクト属性取得領域421から、歩行者351を検出し、歩行者351の撮像画像411内での座標を取得する。また、属性取得部102は、新規オブジェクト属性取得領域422から、歩行者351を検出し、歩行者351の撮像画像412内での座標を取得する。
また、カメラ313は、新規オブジェクト登場空間302〜304の何れも映さないので、撮像画像413に新規なオブジェクトが現れることはない。そのため、属性取得部102は、撮像画像413について、歩行者351を検出する処理を行わない。
属性取得部102がカメラの撮像画像から歩行者351の座標を取得する方法としては、例えば、非特許文献2に記載された、カメラの撮像画像内の部分画像について、その部分画像が人体か否かを識別する手法がある。属性取得部102は、人体(歩行者351)か否かを識別するための部分画像を、新規オブジェクト属性取得領域の範囲内から選択することになる。本実施形態では、歩行者351の撮像画像上の座標を、歩行者351の頭部を円で近似した場合の中心の座標とする。
FIG. 5 is a diagram showing an example of images captured by the
The
In addition, since the
As a method for the
従来技術では、監視空間301内を移動するオブジェクトの軌跡を求める上で、監視空間301に新規に現れるオブジェクトを検出する演算量は、監視空間301の面積に比例することになる。本実施形態では、属性取得部102が新規に監視空間301に現れるオブジェクトを検出するための演算量は、オブジェクトが監視空間301に出入りする際に通過し得る領域の幅の長さに比例する値となり、従来技術に比べて削減されている。
なぜならば、属性取得部102は、新規オブジェクト属性取得領域にのみ検出処理を施し、新規オブジェクト属性取得領域の大きさは、新規オブジェクト登場空間の大きさに比例する。新規オブジェクト登場空間は、監視空間301内に新規に現れるオブジェクトが必ず新規オブジェクト登場空間を経由する様に設定されている。即ち、新規オブジェクト登場空間の大きさは、オブジェクトが監視空間301に出入りする際に通過し得る領域の幅の長さに比例するからである。図1の例では、新規オブジェクト登場空間302、新規オブジェクト登場空間303、新規オブジェクト登場空間304の面積の和は、オブジェクトが監視空間301に出入りする際に通過し得る領域の幅の長さに比例する。
In the conventional technique, the amount of calculation for detecting an object newly appearing in the
This is because the
S403において、共通属性推定部104は、S402又はS408で取得された歩行者351の撮像画像内での座標に基づいて、世界座標系における歩行者351の座標362を推定する。S403で推定された世界座標系における歩行者351の座標は、共通属性についての歩行者351の共通属性値の一例である。
複数のカメラの撮影画像のそれぞれの座標系における歩行者351の座標から、歩行者351の世界座標系における座標を求める方法には、非特許文献1に示されたエピポーラ幾何に基づく三角測量を利用する方法がある。各カメラの世界座標系における座標、光軸の傾き、画角等の情報は、カメラ設置の際等に測量された等の理由により既知であるとする。本実施形態では、歩行者351の世界座標系における座標は、歩行者351の頭部を球で近似した場合のその球の中心の座標であるとする。
S404において、共通属性推定部104は、S403で推定した歩行者351の世界座標系における座標の情報を、歩行者351の軌跡の情報に登録する。共通属性推定部104は、処理がS404に進む度に、S403で推定した歩行者351の世界座標系における座標の情報を時系列順に記憶することで、歩行者351の軌跡の情報を生成する。歩行者351の軌跡の情報のうち、最新のS404の処理で追加された歩行者351の座標の情報以外の情報は、過去においての歩行者351の世界座標系における座標の情報である。即ち、歩行者351の軌跡の情報のうち、最新のS404の処理で追加された歩行者351の座標の情報以外の情報は、共通属性についての歩行者351の過去の属性値の一例である。
In S403, the common
As a method for obtaining the coordinates of the
In step S <b> 404, the common
S405において、共通属性予測部105は、世界座標系における歩行者351の軌跡の情報に基づいて、現在の時点から設定された期間が経過した時点において歩行者351が存在し得る世界座標系における座標の範囲を予測する。この設定された期間は、例えば、監視システム内の複数のカメラによりある撮像画像が撮像された時点から、次の撮像画像が撮像される時点までの期間等である。S405で共通属性予測部105により予測される世界座標系における座標の範囲は、共通属性についての歩行者351の共通属性値の予測される値である予測値の一例である。
共通属性予測部105は、歩行者351の軌跡の情報にS404で登録された座標の情報しか登録されていない場合、以下の処理を行うことになる。即ち、共通属性予測部105は、S403で推定された世界座標系における歩行者351の座標の情報に基づいて、現在の時点から設定された期間が経過した時点での世界座標系における歩行者351が存在し得る座標の範囲を予測することになる。
また、共通属性予測部105は、歩行者351の軌跡の情報にS404で登録された座標の情報の他に歩行者351の過去の座標の情報も登録されている場合、以下の処理を行うことになる。即ち、共通属性予測部105は、S403で推定された歩行者351の座標の情報と、歩行者351の過去の座標の情報と、に基づいて、現在の時点から設定された期間が経過した時点での世界座標系での歩行者351が存在し得る座標の範囲を予測することになる。
In S405, the common
When only the coordinate information registered in S404 is registered in the trajectory information of the
In addition, the common
例えば、共通属性予測部105は、図1の例では、座標362を含む歩行者351の軌跡の情報に基づいて、座標363と予測誤差371とを求める。即ち、共通属性予測部105は、現在の時点から設定された期間が経過した時点における歩行者351が座標363を中心に予測誤差371の半径を有する円形上の領域に存在すると予測する。座標363は、現在の時点から設定された期間が経過した時点における歩行者351の座標として予測される値である。また、予測誤差371は、歩行者351の座標として予測された値からの誤差を示す指標である。歩行者351の軌跡の情報から、現在の時点から設定された期間が経過した時点において歩行者351が存在し得る世界座標系における座標の範囲を求める方法には、歩行者351の軌跡の情報に基づいた線形回帰を利用する方法等がある。
また、歩行者351が新規オブジェクト登場空間内に新たに現れており、歩行者351の過去の座標の情報が存在しない場合、又は、歩行者351の過去の座標の情報の数が線形回帰を利用するために十分な値ではない場合、以下のような方法が利用される。即ち、S403で推定された座標を中心に、歩行者351が設定された期間で移動し得る範囲を、現在の時点から設定された期間が経過した時点において歩行者351が存在し得る世界座標系における座標の範囲として求める方法が利用される。例えば、共通属性予測部105は、予め設定された歩行者351の速度に設定された期間を乗じた距離を算出する。そして、共通属性予測部105は、S403で推定された座標を中心に、算出した距離の半径を有する円形の範囲を、現在の時点から設定された期間が経過した時点において歩行者351が存在し得る世界座標系における座標の範囲とする。
For example, in the example of FIG. 1, the common
In addition, when the
S406において、装置決定部106は、S405で予測された世界座標系における範囲に基づいて、監視システムの複数のカメラからの撮像画像のうちどのカメラからの撮像画像を、歩行者351の検出に利用するかを決定する。また、領域推定部107は、S405で予測された世界座標系における範囲に基づいて、装置決定部106により決定されたカメラからの撮像画像のうちどの領域が、歩行者351の検出に利用されるかを決定する。
例えば、装置決定部106は、監視システム内の複数のカメラのうち、S405で予測された世界座標系における範囲に存在する歩行者351を設定された画素数以上の領域として撮像するカメラを選択する。そして、装置決定部106は、選択したカメラを、歩行者351の検出に利用される撮像画像を撮像するカメラとして決定する。また、装置決定部106は、監視システム内の複数のカメラのうち、S405で予測された世界座標系における範囲を視野に含めるカメラを、撮像画像が歩行者351の検出に利用されるカメラとして決定することとしてもよい。
In step S <b> 406, the
For example, the
補助記憶装置204は、予めカメラ毎に設定された、検出対象のオブジェクトを設定された画素数よりも大きい領域として撮像できる世界座標系における領域の情報を記憶しているとする。以下では、この領域を追尾可能領域とする。即ち、追尾可能領域とは、あるカメラの視野のうち、検出対象のオブジェクトが予め設定された画素数よりも大きく映る領域を、世界座標系の底面へ射影した領域である。本実施形態では、追尾可能領域は、あるカメラの視野のうち検出対象のオブジェクトが写る領域を、世界座標系の底面へ射影した領域、即ち視野の領域と同一であるとする。
装置決定部106は、予めカメラ毎に設定された追尾可能領域の情報を、補助記憶装置204から取得する。監視システム内の複数のカメラのうち、オブジェクトの移動先の世界座標系における座標が、あるカメラの追尾可能領域の内側にある場合、そのカメラでオブジェクトを追尾できる、と判断できる。図1の例では、歩行者351が座標363の近辺に移動すると推定されるので、装置決定部106は、座標363を追尾可能領域に含むカメラ311、カメラ313を、撮像画像が歩行者351の検出に利用されるカメラとして決定する。
It is assumed that the
The
例えば、装置決定部106は、世界座標系における座標が追尾可能領域の内外の何れに存在するかの判定に、even odd rule法を用いる。even odd rule法とは、世界座標系における座標と何らかの無限遠のある点とを結ぶ半直線を想定し、この半直線と追尾可能領域の扇形の円弧及び2つの半径とが交差する回数に基づいて、座標が追尾可能領域の内側か外側かを判定する方法である。想定された半直線と追尾可能領域の扇形の円弧及び2つの半径とが交差する回数が奇数であれば扇形の内側、0又は偶数であれば扇側の外側、として判定される。
図6は、歩行者351の追尾を説明する図である。図7の例では、S405で歩行者351が座標363に移動すると予測されている場合、座標363から伸ばした半直線601とカメラ313の追尾可能領域である領域323とが交差する回数は、1回すなわち奇数である。よって、装置決定部106は、座標363を、追尾可能領域である領域323の内側に存在すると判定し、カメラ313を、歩行者351を追尾できるカメラである、と判断する。半直線601とカメラ611の追尾可能領域621との交差回数は、2回すなわち偶数であるので、装置決定部106は、カメラ611を、歩行者351を追尾できないカメラであると判断する。
For example, the
FIG. 6 is a diagram illustrating tracking of a
領域推定部107は、装置決定部106により歩行者351の検出に利用される撮像画像を撮像するカメラとして決定されたカメラのそれぞれについて、歩行者351が撮像画像上で映りうる領域である追尾領域を推定する。
図7は、撮像画像の一例を示す図である。図7の撮像画像513は、カメラ313が行う次の撮像処理において撮像された画像を示す。領域推定部107は、撮像画像513において歩行者351の追尾領域を、追尾領域531のように推定する。
S405で予測された世界座標系における歩行者351が存在し得る範囲は、半径を予測誤差とする球状となる。しかし、球は、透視投影変換が困難である。そのため、本実施形態では、領域推定部107は、S405で予測された球状の範囲を多面体で近似することとする。本実施形態では、領域推定部107は、直方体でこの球状の範囲を近似し、この直方体の各頂点のカメラによる撮像画像上の点を求め、この点群の凸包を求めて追尾領域とする。本実施形態では、この直方体は、床面に接し、その高さを追尾中の歩行者351の頭部よりも高い値とし、直方体の水平方向の一片の長さを予測誤差の二倍とする図形である。図8は、オブジェクトが存在すると予測された領域を説明する図である。図8の図形は、中心を座標363とするこの直方体を示す。領域推定部107は、この直方体の頂点のそれぞれについて、透視投影変換を施すことで、図7に示す撮像画像513上に頂点群を取得し、その頂点群を凸包することで、追尾領域531を取得する。
ある世界座標系における点に対応するカメラによる撮像画像の座標系における点の座標を求める方法には、非特許文献1に記載のピンホールカメラモデルに従う透視投影変換がある。非特許文献1によれば、世界座標M(x、y、z)のオブジェクトを撮像画像上に透視投影した座標m(u、v)は、以下の式1により求まる。ただし、カメラ毎に、予め、世界座標系を撮像画像上の座標系に透視投影するカメラ内部パラメータ行列A、カメラ外部パラメータ行列[R|t]、スケールsの情報が必要となる。本実施形態では、補助記憶装置204は、これらの情報を予め記憶しているものとする。
The
FIG. 7 is a diagram showing an example of a captured image. The captured
The range in which the
A method of obtaining the coordinates of a point in the coordinate system of an image captured by a camera corresponding to a point in a certain world coordinate system is perspective projection conversion according to the pinhole camera model described in Non-Patent Document 1. According to Non-Patent Document 1, coordinates m (u, v) obtained by perspective projection of an object having world coordinates M (x, y, z) on a captured image are obtained by the following Expression 1. However, information on the camera internal parameter matrix A, the camera external parameter matrix [R | t], and the scale s for perspective projection of the world coordinate system onto the coordinate system on the captured image is required for each camera in advance. In the present embodiment, the
sm = A[R|t]M (式1)
但し
m = [[u][v][1]]
A = [[f_x 0 c_x ][ 0 f_y c_y][c_x c_y 1 ]]
[R|t] = [[r11 r12 r13 t1][r21 r22 r23 t2][r31 r32 r33 t3]]
M = [[x][y][z][1]]
sm = A [R | t] M (Formula 1)
However, m = [[u] [v] [1]]
A = [[f_x 0 c_x] [0 f_y c_y] [c_x c_y 1]]
[R | t] = [[r11 r12 r13 t1] [r21 r22 r23 t2] [r31 r32 r33 t3]]
M = [[x] [y] [z] [1]]
また、装置決定部106は、監視システムの複数のカメラからの撮像画像のうちどのカメラからの撮像画像を、歩行者351の検出に利用されるかを決定しないこととしてもよい。その場合、領域推定部107は、S405で予測された世界座標系における範囲に基づいて、監視システム内の全てのカメラからの撮像画像のうちどの領域が、歩行者351の検出に利用されるかを決定することとしてもよい。この場合、領域推定部107は、S405で予測された範囲を追尾可能領域に含まないカメラについては、撮像画像の全ての領域を、オブジェクトの検出に利用しないことを決定する。
装置決定部106により決定される監視システムの複数のカメラからの撮像画像のうちどのカメラからの撮像画像が歩行者351の検出に利用されるかの情報は、歩行者351等のオブジェクトの検出に利用されるパラメータである検出パラメータの一例である。また、領域推定部107により決定されるカメラからの撮像画像のうちどの領域が、歩行者351の検出に利用されるかを示す情報も、検出パラメータの一例である。検出パラメータには、他には、オブジェクトの検出にどの検出器を利用するかを示す情報やオブジェクトの検出のためにカメラからの撮像画像からどの大きさの部分画像を抽出するかを示す情報等がある。
S406での装置決定部106、領域推定部107の処理は、S405で予測された共通属性の予測値に基づいて、検出パラメータを決定する処理の一例である。特に、S406での領域推定部107の処理は、S405で予測された共通属性の予測値から各カメラの撮像画像毎の属性の予測値を取得し、取得した撮像画像毎の属性の予測値に基づいて、検出パラメータを決定する処理の一例である。また、装置決定部106、領域推定部107は、オブジェクトの共通属性についての予測値に基づいて、オブジェクトの検出に利用される検出パラメータを決定する第1の決定手段の一例である。
Further, the
Information about which camera is used to detect the
The process of the
S407において、画像取得部101は、監視システム内の複数のカメラから、撮像画像群を取得する。本実施形態、画像取得部101は、監視システム内の複数のカメラから、直前のS401又はS407の処理で取得した撮像画像の次に各カメラにより撮像された撮像画像を取得することとする。また、画像取得部101は、監視システム内の複数のカメラから、直前にS401又はS407の処理が行われてから、設定された期間が経過した時点で各カメラにより撮像された撮像画像を取得することとしてもよい。例えば、画像取得部101は、歩行者351が座標363を中心とした半径が予測誤差371の円形の範囲内に移動している場合、カメラ313から図7に示す撮像画像513を取得する。
S408において、属性更新部103は、S406で装置決定部106により歩行者351の検出に利用される撮像画像を撮像するカメラとして決定されたカメラからの撮像画像に基づいて、以下の処理を行う。即ち、属性更新部103は、S406で領域推定部107により決定された追尾領域の中から、歩行者351を検出し、検出した歩行者351の撮像画像の座標系における座標を取得する。例えば、属性更新部103は、撮像画像513が得られた場合、追尾領域531の内部から歩行者351を検出し、検出した歩行者351の座標を求める。歩行者351を検出する方法、及び歩行者351の座標を取得する方法は、S402の処理と同様である。属性更新部103は、S406で決定された検出パラメータに基づいて、オブジェクトを検出する第1の検出手段の一例である。
S409において、属性更新部103は、S408で歩行者351が検出したか否かを判定する。属性更新部103は、S408で歩行者351が検出したと判定した場合、歩行者351の追尾が継続するものとして、S403の処理に進む。また、属性更新部103は、S408で歩行者351が検出していないと判定した場合、歩行者351が監視空間301の外に出たため追尾が終了したとして、図4の処理を終了する。
In step S407, the
In step S <b> 408, the
In S409, the
以上、本実施形態の処理により、監視システムは、複数のカメラの撮像画像毎の歩行者351の座標から、世界座標系における歩行者351の座標を推定する。そして、監視システムは、取得した世界座標系における歩行者351の座標に基づいて、現在の時点から設定された期間が経過した時点における歩行者351の世界座標系における座標を予測する。又は、監視システムは、世界座標系における歩行者351の座標と世界座標系における歩行者351の過去の座標とに基づいて、現在の時点から設定された期間が経過した時点における歩行者351の世界座標系における座標を予測する。監視システムは、予測された座標に基づいて、歩行者351を検出するための撮像画像を撮影するためのカメラ、及び撮像画像内で歩行者351の検出を行うための領域を決定する。そして、監視システムは、決定したカメラの撮像画像に対して、決定した領域について歩行者351の検出を行い、歩行者351の追尾を行う。
これにより、監視システムは、歩行者351を撮像し得るカメラの撮像画像に対して、歩行者351が存在し得る領域についてのみに、歩行者351の検出を行えばよいことになる。即ち、監視システムは、全てのカメラの撮像画像の全領域に対して、歩行者351を検出する処理を行わずに済むことになり、歩行者351の検出の負担を軽減することができる。
As described above, by the processing of this embodiment, the monitoring system estimates the coordinates of the
As a result, the monitoring system only needs to detect the
また、監視システムは、歩行者351の移動が共通属性予測部105により予測される範囲内に収まる限り、歩行者351を追尾できる。また、監視システムは、属性取得部102がS402で新規オブジェクト属性取得領域内に新規に現れたオブジェクトを検出し、S408でそのオブジェクトが再度、検出された場合、以下のようにして、そのオブジェクトの速度を取得できる。即ち、監視システムは、初めに検出された際のそのオブジェクトの世界座標系における座標と、次に検出された際のそのオブジェクトの世界座標系における座標とを求め、座標の差と検出された時点のずれとから速度を求める事ができる。また、共通属性予測部105と領域推定部107との処理によれば、歩行者351の追尾領域は、想定された最大速度に基づき求められる。即ち、歩行者351の速度が想定された最大速度を下回る限り、属性更新部103は、撮像画像上の追尾領域内に歩行者351が存在することとなり、歩行者351を検出できる。
また、共通属性予測部105が、歩行者351の軌跡の情報に基づいて線形回帰を利用して、歩行者351の存在する範囲を予測する場合、監視空間301が広い程、属性更新部103の演算量は、減ることになる。なぜならば、歩行者351の軌跡の情報に歩行者が通過した座標の情報が増える程、線形回帰の信頼性が上がり、共通属性予測部105は、歩行者351が存在すると予測する範囲の推定誤差として、線形回帰の誤差を用いることができる。線形回帰の誤差は、歩行者351の軌跡の情報に含まれる座標の情報が増える程、回帰の信頼性が上がるため、小さくなる。そのため、領域推定部107は、その推定誤差に応じて追尾領域を小さくする。それにより、属性更新部103の処理の対象となる領域が小さくなるため、属性更新部103の処理の負担が低減される。結果として、監視空間301が広い程、属性更新部103の追尾処理の演算量が減ることになる。
Moreover, the monitoring system can track the
In addition, when the common
本実施形態では、CPU202がRAM203又は補助記憶装置204内のプログラムを実行することで、図4のフローチャートの処理が実現されるとした。しかし、図4のフローチャートの処理の一部又は全部を電子回路等のハードウェアで実現するようにしてもよい。
また、本実施形態の図4のフローチャートの処理の一部又は全部を、撮像素子を備える監視システム内のカメラが実行することとしてもよい。その場合、監視システム内のカメラのそれぞれは、CPU、図4のフローチャートの処理の一部又は全部を実行するためのプログラム等を記憶する記憶装置を含むことになる。そして、監視システム内のカメラのCPUが、カメラの記憶装置に記憶されたプログラムを実行することにより、カメラの機能、及び図4のフローチャートの処理の一部又は全部が実現されることになる。
In the present embodiment, it is assumed that the
Further, a part or all of the processing of the flowchart of FIG. 4 of the present embodiment may be executed by the camera in the surveillance system including the image sensor. In that case, each of the cameras in the surveillance system includes a CPU and a storage device that stores a program or the like for executing a part or all of the processing of the flowchart of FIG. The CPU of the camera in the surveillance system executes the program stored in the storage device of the camera, so that the function of the camera and part or all of the processing of the flowchart of FIG. 4 are realized.
<実施形態2>
本実施形態では、空間入力部110、領域決定部111の処理を説明する。空間入力部110は、新規オブジェクト登場空間を入力する。そして、領域決定部111は、空間入力部110により入力された新規オブジェクト登場空間の指定に基づいて、以下の処理を行う。即ち、領域決定部111は、S402で監視空間301に新たに登場したオブジェクトの検出処理を行う撮像画像がどのカメラからの撮像画像であるかを決定する。また、領域決定部111は、S402で撮像画像のうち、オブジェクトの検出処理を行う領域を決定する。即ち、空間入力部110、領域決定部111は、新たに、監視空間に登場し得るオブジェクトを検出する際に利用される検出パラメータを決定する。本実施形態の空間入力部110、領域決定部111の処理は、図4の処理の前に行われる。
本実施形態の監視システムのシステム構成、システム構成要素のハードウェア構成及び機能構成は、実施形態1と同様である。
<Embodiment 2>
In this embodiment, the processing of the
The system configuration of the monitoring system of this embodiment and the hardware configuration and functional configuration of system components are the same as in the first embodiment.
空間入力部110は、オブジェクトが監視空間301に入る為に必ず経由する新規オブジェクト登場空間を入力する。
空間入力部110は、ユーザーインターフェース205を介して、新規オブジェクト登場空間の指定に利用される指定画面を表示部に表示する。そして、空間入力部110は、指定画面、入力装置を介したユーザーの操作に基づいて、新規オブジェクト登場空間の指定を受け付ける。例えば、空間入力部110は、監視空間301を俯瞰した図面を指定画面として、表示部に表示する。ユーザーは、指定画面に表示された監視空間301において新規オブジェクト登場空間を設定したい範囲を、例えばマウスを介したドラッグ処理等で指定する。また、ユーザーは、指定画面に表示された監視空間301において新規オブジェクト登場空間の候補として表示された範囲のうち、新規オブジェクト登場空間として決定したい範囲を、例えばマウスを介したクリック処理等で選択することとしてもよい。空間入力部110は、ユーザーの操作に基づいて、指定された新規オブジェクト登場空間を設定したい範囲の情報を受け付けることで、新規オブジェクト登場空間の情報を入力する。
また、空間入力部110は、ユーザーインターフェース205を介して、新規オブジェクト登場空間だけでなく、壁、カメラの設置座標、関連パラメータ等の指定に利用される指定画面を表示部に表示することとしてもよい。例えば、空間入力部110は、世界座標系を俯瞰した画面や関連パラメータの設定画面を含む指定画面を表示する。ユーザーは、指定画面内に表示された座標系に壁、カメラ等のアイコンを配置することで、これらの座標を指定し、関連パラメータの設定画面に希望のパラメータを指定することで、関連パラメータを指定する。空間入力部110は、指定画面を介して、指定された情報を受け付ける。
The
The
In addition, the
図9は、空間入力部110により表示される指定画面の一例を示す図である。空間入力部110が表示する指定画面を介したユーザーの操作に基づく新規オブジェクト登場空間の指定処理の例について図9を用いて説明する。図9の指定画面では、実線、破線、点線等が描画されている。実線には、相対的に太い線(以下では太実線)、相対的に細い実線(以下では細実線)がある。図9の例では、指定画面には、壁を示す太実線、カメラを示す長方形、新規にオブジェクトが登場し得る空間を示す細実線で囲まれた領域、カメラがオブジェクトを追尾できる空間を示す点線の扇形等が表示される。図9の指定画面は、監視空間301、新規オブジェクト登場空間、カメラ毎のオブジェクトを検出し得る空間、が全て上方から俯瞰し底面上に射影された領域を示す。また、壁、新規オブジェクト登場空間等も、底面に射影された領域とする。即ち、図9の指定画面は、世界座標系における監視空間を、平面の地図である2次元地図として表した画面である。
空間入力部110は、各カメラについて追尾可能領域を推定し、指定画面に表示することで、ユーザーに提示する。例えば、ユーザーが指定画面を介して監視空間301内にカメラ311の設置を指定したときに、追尾可能領域である領域321を推定しユーザーに提示する。追尾可能領域は、扇形である。追尾可能領域の扇形の中心角は、カメラの画角である。扇形の半径は、追尾対象のオブジェクトがある画素数以上で映る距離であって、この画素数は、属性更新部103がオブジェクトを検出できる最小の画素数であるものとする。
本実施形態では、空間入力部110が属性更新部103の特性に基づいて追尾可能領域の扇形の半径を決定する。それにより、装置決定部106は、オブジェクトを単に映すカメラではなく、オブジェクトを追尾できるカメラを、検出処理を行うための撮像画像を撮像するカメラとして決定できる。これにより、空間入力部110は、属性更新部103では検出不可能なオブジェクトを追尾しようとする処理に要する演算量を削減する事ができる。
FIG. 9 is a diagram showing an example of a designation screen displayed by the
The
In the present embodiment, the
領域決定部111は、空間入力部110により入力された新規オブジェクト登場空間に基づき、監視空間301内に新規に登場したオブジェクトを検出し得るカメラ、及びそのカメラ画像上の新規オブジェクト属性取得領域を推定する。例えば、領域決定部111は、図9の指定画面で入力された新規オブジェクト登場空間302を追尾可能領域に含むカメラ311及びカメラ312を求める。更に、領域決定部111は、図5に示す様にカメラ311の撮像画像411上に新規オブジェクト属性取得領域421を、カメラ312の撮像画像412上に新規オブジェクト属性取得領域422を推定する。
領域決定部111は、例えば、新規オブジェクトを検出し得るカメラを求めるために、以下のような処理を行う。補助記憶装置204は、予めカメラ毎にオブジェクトを検出し得る空間の情報を記憶しているものとする。領域決定部111は、補助記憶装置204から、全てのカメラについて、オブジェクトを検出し得る空間の情報を取得する。そして、領域決定部111は、取得した情報に基づいて、オブジェクトを検出し得る空間と、新規オブジェクト登場空間とが重複するカメラを選択する。本実施形態では、カメラがオブジェクトを検出し得る空間、新規オブジェクト登場空間等の空間は、底面に射影した領域として扱われる。また、本実施形態では、属性取得部102と属性更新部103とで非特許文献2記載の同一の方法が適用されるので、あるカメラでオブジェクトを検出し得る領域とカメラの追尾可能領域とは等しい。よって、領域決定部111は、新規オブジェクト登場空間とカメラの追尾可能領域とが重複するカメラを求めればよい。例えば、領域決定部111は、新規オブジェクト登場空間302とカメラの追尾可能領域である領域321や追尾可能領域である領域322とが重複するか否かを判定し、重複すると判定したカメラを選択すればよい。
また、領域決定部111は、新規オブジェクトを検出し得るカメラを選択せずに、全てのカメラについて、追尾領域を決定することとしてもよい。その場合、領域決定部111は、新規オブジェクトを検出し得ないカメラについて、追尾領域として面積が0の領域を決定することになる。
The
The
Further, the
同一平面上の二つの領域が重複するか否かを判定する方法は、任意の方法でよいが、例えば、双方の領域を複数の三角形で近似した上で、一方の領域のある三角形の内部に他方の領域の三角形の頂点が存在するならば、二つの領域は重複するとする方法が利用される。例えば、領域決定部111は、新規オブジェクト登場空間302のある頂点801が追尾可能領域である領域321の内部に含まれるので、カメラ311を、新規オブジェクト登場空間302から新規オブジェクトを検出し得るカメラとして選択する。
次に、領域決定部111は、あるカメラによる撮像画像上の新規オブジェクト属性取得領域を決定する。撮像画像上の新規オブジェクト属性取得領域を決定する方法には、それぞれの新規オブジェクト登場空間の頂点のそれぞれについてカメラによる撮像画像上での座標を算出し、算出した座標を凸包した領域とカメラによる撮像画像との共通部分を求めればよい。ただし、新規オブジェクト登場空間は底面に射影した領域として扱われるので、領域決定部111は、オブジェクトの映りうる高さに応じて適切な高さを想定する頂点を設けてから、そのカメラ画像上での座標を求める必要がある。本実施形態では、補助記憶装置204は、予め、オブジェクトの映りうる高さに応じた適切な高さの情報を記憶しているものとする。領域決定部111は、補助記憶装置204からオブジェクトの映りうる高さに応じた適切な高さの情報を取得する。ある座標のカメラによる撮像画像上での座標を求める方法には、式1を用いる方法がある。例えば、図10に示す様に、領域決定部111は、新規オブジェクト登場空間302の底面上の頂点群に、十分に身長の高い歩行者でも映り得る程度の高さに頂点群を設けて立方体とする。領域決定部111は、この立方体の全ての頂点群について、撮像画像411での座標を求めて、その凸包を求めると、新規オブジェクト属性取得領域421を取得する。領域決定部111は、空間入力部110により入力された領域に基づいて、オブジェクトを初めて検出する際に利用される検出パラメータを決定する第2の決定手段の一例である。ここで、新規オブジェクト属性取得領域421を示す情報が、検出パラメータの一例である。
そして、属性取得部102は、領域決定部111により決定された新規オブジェクトを検出する際に利用される検出パラメータに基づいて、新規オブジェクトを検出する。本実施形態では、S402で、属性取得部102は、領域決定部111により決定された新規オブジェクトを撮像し得るカメラからの撮像画像について、領域決定部111により決定された新規オブジェクト属性取得領域から歩行者351を検出することになる。属性取得部102は、複数のカメラからの撮像画像群のそれぞれに設定された、オブジェクトが初めて登場する領域からオブジェクトを検出する第2の検出手段の一例である。
Any method may be used to determine whether or not two areas on the same plane overlap each other. For example, after approximating both areas with a plurality of triangles, one area may be inside a triangle. If the vertices of the triangle of the other region are present, the method of making the two regions overlap is used. For example, since the apex 801 of the new
Next, the
Then, the
以上、本実施形態の処理によれば、監視システムは、各カメラについて、新規オブジェクト登場空間を設定することができる。また、空間入力部110は、新規オブジェクト登場空間を指定するための指定画面をユーザーに提示することで、ユーザーの希望に沿った、新規オブジェクト登場空間を設定できる。それにより、監視空間301に新たに登場するオブジェクトを検出する際の処理の負担を軽減することができる。
As described above, according to the processing of this embodiment, the monitoring system can set the new object appearance space for each camera. In addition, the
<実施形態3>
実施形態1、2では以下のような処理について説明した。即ち、属性取得部102や属性更新部103がカメラごとのオブジェクトの属性を取得し、共通属性推定部104がそれら属性を統合してカメラ間で共通の属性を推定する処理である。また、共通属性予測部105がカメラによる次の撮像画像におけるオブジェクトの共通属性値を予測し、装置決定部106と領域推定部107とが予測された共通属性の値に基づいて、検出パラメータを決定する処理である。この様な、各カメラで収集し、全体で統合・予測し、予測した属性に基づいて、決定することができる検出パラメータは、検出対象の画像を撮像するカメラの情報や、追尾領域の情報には、限られない。また、オブジェクトから取得することができる属性も座標に限られない。例えば、以下のようなものがある。
<Embodiment 3>
In the first and second embodiments, the following processing has been described. That is, this is a process in which the
例えば、属性取得部102や属性更新部103が検出したオブジェクトから取得できる属性として、歩行者の身長(オブジェクトの高さ)がある。
実施形態1では、歩行者351の世界座標系における座標は、歩行者351の頭部を球で近似した場合のその球の中心の座標であるとした。ここで、歩行者351の世界座標系における座標を、この球の最も床面から遠い点の座標とすると、共通属性推定部104は、歩行者の身長を推定していることになる。ここで、領域推定部107は、歩行者の身長、カメラの画角、カメラの画素数等に基づいて、そのカメラで歩行者が映る垂直方向の画素数を算出できる。そして、領域推定部107は、検出パラメータとして、歩行者が映る垂直方向の画素数を決定する。
そして、属性更新部103は、非特許文献2の方法に基づきオブジェクト検出のための部分画像を選択するときに、検出パラメータとして決定された垂直方向の画素数と近似する垂直方向の画素数を持つ部分画像を選択する。例えば、属性更新部103は、検出パラメータとして決定された垂直方向の画素数に近似する垂直方向の画素数を持つ部分画像を選択し、選択した部分画像からオブジェクトを検出する処理を行う。検出パラメータとして決定された垂直方向の画素数に近似する画素数としては、例えば、その画素数を中心に設定された幅を持つ範囲(例えば、その画素数の0.9倍から1.1倍までの範囲)に属する画素数とすることとしてもよい。これにより、属性更新部103は、検出パラメータとして決定された垂直方向の画素数と近似しない垂直方向の画素数を持つ部分画像について、オブジェクトの検出処理を行う必要がなくなる。これにより、監視システムは、属性更新部103による検出処理の負担を低減させることができる。
For example, the height of the pedestrian (height of the object) is an attribute that can be acquired from the object detected by the
In the first embodiment, the coordinates of the
Then, the
例えば、属性取得部102や属性更新部103が検出したオブジェクトから取得できる属性として、歩行者の胴体の向きや顔向き(オブジェクトの向き、オブジェクトの一部の向き)がある。
歩行者は、撮像方向によってカメラにより撮像される外見が大きく異なるため、非特許文献2の検出方法では、撮影方向が変わると検出性能が低下する。これを克服する為に、属性取得部102や属性更新部103は、非特許文献2に示されているように、検出器を顔向きと胴体向きの組合せごとに用意していることとする。
S402で属性取得部102は、ある歩行者の顔向き及び胴体向きを求める。即ち、属性取得部102は、複数用意した検出器のうち歩行者を最も確からしく真と判定した検出器を求める。そして、属性取得部102は、その検出器が顔向き、胴体向きが何れの方向に対応する検出器であるかを取得することで、歩行者の顔向き、胴体向きを求める。共通属性推定部104は、各カメラからの撮像画像における歩行者の顔向き及び胴体向きを統合し、世界座標上での顔向きと胴体向きを求める。そして、共通属性予測部105は、現在の時点から設定された期間が経過した時点における歩行者の胴体や顔向きを予測する。例えば、共通属性予測部105は、歩行者が監視空間のある一点を凝視しながら歩いている場合、顔向きをその一点を見つめる向きであると予測する。領域推定部107は、予測された世界座標系における歩行者の顔向き、胴体向きに基づいて、カメラによる撮像画像上での歩行者の顔向き及び胴体向きを推定し、推定した顔向き及び胴体向きの情報を検出パラメータとして決定する。そして、属性更新部103は、検出パラメータとして決定された歩行者の顔向き及び胴体向きに応じて、複数の検出器から歩行者を検出する為の検出器を選択し適用する。これにより、属性更新部103は、検出パラメータとして決定された歩行者の顔向き及び胴体向きに対応しない検出器を用いて、歩行者を検出する処理を行う必要がなくなる。それにより、監視システムは、属性更新部103によるオブジェクト検出処理の負担を低減させることができる。
また、属性取得部102は、S402である歩行者の座標と共に顔向き及び胴体向きを取得することとしてもよい。
For example, the attributes that can be acquired from the objects detected by the
Since the appearance of a pedestrian imaged by the camera is significantly different depending on the image capturing direction, the detection method of Non-Patent Document 2 has poor detection performance when the image capturing direction changes. In order to overcome this, it is assumed that the
In S402, the
Further, the
また、空間入力部110及び領域決定部111は、属性取得部102がオブジェクトの検出に利用する検出パラメータを決定するものである。そのため、空間入力部110及び領域決定部111は、検出に利用される撮像画像を撮像するカメラや撮像画像中のオブジェクトの検出に利用される領域以外の検出パラメータを設定することができる。例えば、空間入力部110が歩行者の身長と画素数をオブジェクトの属性として取得する場合、領域決定部111は、歩行者の平均的な身長から、カメラに映る歩行者の垂直方向の画素数を算出し、S402で利用される検出パラメータとして決定する。そして、属性取得部102は、S402で、算出された画素数に基づいた部分画像を撮像画像から抽出し、抽出した部分画像から歩行者の検出を行う。
また、空間入力部110が歩行者の顔や動体の向きをオブジェクトの属性として取得する場合、指定画面を介して、新規オブジェクト登場空間毎に、歩行方向や凝視点の入力を受け付ける。そして、領域決定部111は、入力された歩行方向や凝視点から、歩行者の胴体及び顔向きを推定し、S402で利用される検出パラメータとして決定するする。そして、属性取得部102は、S402で、推定された胴体向き及び顔向きに基づいた検出器を用いて、歩行者を検出することができる。
これにより、監視システムは、S402での属性取得部102によるオブジェクトの検出処理の負担が低減できる。
The
Further, when the
As a result, the monitoring system can reduce the load of the object detection processing by the
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。
例えば、上述した監視システムの機能構成の一部又は全てをハードウェアとして情報処理装置341に実装してもよい。
<Other embodiments>
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
Although the preferred embodiments of the present invention have been described in detail above, the present invention is not limited to the specific embodiments.
For example, part or all of the functional configuration of the above-described monitoring system may be implemented as hardware in the
341 情報処理装置、202 CPU 341 Information processing device, 202 CPU
Claims (6)
入力された前記オブジェクトが初めて登場する領域に基づいて、前記複数の撮像装置のうち前記オブジェクトを初めて検出すべき画像を取得する撮像装置と、該画像において前記オブジェクトを初めて検出すべき領域とを決定する初期領域決定手段と、
前記初期領域決定手段により決定された撮像装置により撮像された画像において、前記初期領域決定手段により決定されたオブジェクトを初めて検出すべき領域から、前記オブジェクトを検出する第1の検出手段と、
前記オブジェクトが検出された撮像画像に基づいて、前記共通座標系における前記オブジェクトの位置を表す座標を取得する取得手段と、
前記座標に基づいて、現在の時点から設定された期間が経過した将来の時点における前記共通座標系における前記オブジェクトの位置を表す座標の予測値を予測する予測手段と、
前記複数の撮像装置のそれぞれの撮像可能な範囲と、前記予測値とに基づいて、当該複数の撮像装置のうち前記将来の時点において前記オブジェクトを撮像可能な撮像装置を決定し、該決定された撮像装置において前記オブジェクトを撮像し得る領域を推定する推定手段と、
前記将来の時点において、前記推定手段により決定された撮像装置により撮像された画像における前記推定された領域から、前記オブジェクトを検出する第2の検出手段と、
を有する情報処理装置。 An image of a two-dimensional map overlooking the imaging ranges of the plurality of image capturing devices is displayed in a common coordinate system common to the plurality of image capturing devices, and an object first appears in the two-dimensional map based on a user operation on the image. Input means for inputting the area to be
An imaging device that acquires an image in which the object should be detected for the first time among the plurality of imaging devices and a region in which the object should be detected for the first time are determined based on the input region where the object first appears. Initial area determining means to
First detection means for detecting the object from the area in which the object determined by the initial area determination means should be detected for the first time in the image captured by the imaging device determined by the initial area determination means,
On the basis of the object captured image detected, an acquisition unit configured to acquire coordinates representing the position of the object in the common coordinate system,
Prediction means for predicting a predicted value of a coordinate representing the position of the object in the common coordinate system at a future time point when a period set from the current time point has elapsed, based on the coordinates ,
Based on the image-capable range of each of the plurality of image-capturing devices and the predicted value, an image-capturing device capable of capturing the object at the future time point is determined from among the plurality of image-capturing devices , and the determination is performed. Estimating means for estimating an area in which the object can be imaged in an image capturing device ;
Second detecting means for detecting the object from the estimated region in the image captured by the image capturing device determined by the estimating means at the future time point;
Information processing device having a.
前記予測手段は、取得された前記共通座標系における前記オブジェクトの座標に基づいて、前記将来の時点における前記共通座標系における前記オブジェクトの座標を、前記予測値として予測する請求項1又は2記載の情報処理装置。 It said acquisition means, field of view based on the captured image in which the object is detected within the captured image group captured by the plurality of imaging devices overlapping, acquires the coordinates of the object in the common coordinate system,
Said predicting means, based on the coordinates of the object in the acquired the common coordinate system, the coordinates of the object in the common coordinate system at a future time, according to claim 1 or 2, wherein the prediction as the prediction value Information processing equipment.
複数の撮像装置に共通する共通座標系において当該複数の撮像装置の撮像範囲を俯瞰した2次元地図の画像を表示し、該画像に対するユーザーの操作に基づいて、前記2次元地図においてオブジェクトが初めて登場する領域を入力する入力ステップと、
入力された前記オブジェクトが初めて登場する領域に基づいて、前記複数の撮像装置のうち前記オブジェクトを初めて検出すべき画像を取得する撮像装置と、該画像において前記オブジェクトを初めて検出すべき領域とを決定する初期領域決定ステップと、
前記初期領域決定ステップで決定された撮像装置により撮像された画像において、前記初期領域決定ステップで決定されたオブジェクトを初めて検出すべき領域から、前記オブジェクトを検出する第1の検出ステップと、
前記オブジェクトが検出された撮像画像に基づいて、前記共通座標系における前記オブジェクトの位置を表す座標を取得する取得ステップと、
前記座標に基づいて、現在の時点から設定された期間が経過した将来の時点における前記共通座標系における前記オブジェクトの位置を表す座標の予測値を予測する予測ステップと、
前記複数の撮像装置のそれぞれの撮像可能な範囲と、前記予測値とに基づいて、当該複数の撮像装置のうち前記将来の時点において前記オブジェクトを撮像可能な撮像装置を決定し、該決定された撮像装置において前記オブジェクトを撮像し得る領域を推定する推定ステップと、
前記将来の時点において、前記推定ステップにおいて決定された撮像装置により撮像された画像における前記推定された領域から、前記オブジェクトを検出する第2の検出ステップと、
を含む情報処理方法。 An information processing method executed by an information processing apparatus,
An image of a two-dimensional map overlooking the imaging ranges of the plurality of image capturing devices is displayed in a common coordinate system common to the plurality of image capturing devices, and an object first appears in the two-dimensional map based on a user operation on the image. Input step to enter the area to be
An imaging device that acquires an image in which the object should be detected for the first time among the plurality of imaging devices and a region in which the object should be detected for the first time are determined based on the input region where the object first appears. An initial area determination step to
A first detection step of detecting the object from the area where the object determined in the initial area determination step is to be detected for the first time in the image captured by the imaging device determined in the initial area determination step,
On the basis of the object captured image detected, an acquisition step of acquiring the coordinates representing the position of the object in the common coordinate system,
Based on the coordinates , a prediction step of predicting a predicted value of coordinates representing the position of the object in the common coordinate system at a future time when a period set from the current time has passed,
Each an imaging possible range of the plurality of imaging devices, based on said predicted value, said object Te said future time odor determines the imaging imaging device capable among the plurality of imaging devices, is the determined An estimating step of estimating a region in which the object can be imaged in the image capturing device ,
A second detection step of detecting the object from the estimated region in the image captured by the imaging device determined in the estimation step at the future time point,
Information processing method including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016044760A JP6679349B2 (en) | 2016-03-08 | 2016-03-08 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016044760A JP6679349B2 (en) | 2016-03-08 | 2016-03-08 | Information processing apparatus, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017163279A JP2017163279A (en) | 2017-09-14 |
JP6679349B2 true JP6679349B2 (en) | 2020-04-15 |
Family
ID=59853210
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016044760A Active JP6679349B2 (en) | 2016-03-08 | 2016-03-08 | Information processing apparatus, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6679349B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019176306A (en) * | 2018-03-28 | 2019-10-10 | キヤノン株式会社 | Monitoring system and control method therefor, and program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06325180A (en) * | 1993-05-14 | 1994-11-25 | Matsushita Electric Ind Co Ltd | Automatic tracking device for moving body |
JP4830696B2 (en) * | 2006-07-31 | 2011-12-07 | オムロン株式会社 | Object recognition device, monitoring system, object recognition method, object recognition program, and recording medium recording the program |
JP2009098774A (en) * | 2007-10-15 | 2009-05-07 | Mitsubishi Electric Corp | Person tracking system, person tracking method and person tracking program |
JP5891061B2 (en) * | 2012-02-15 | 2016-03-22 | 株式会社日立製作所 | Video monitoring apparatus, monitoring system, and monitoring system construction method |
-
2016
- 2016-03-08 JP JP2016044760A patent/JP6679349B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017163279A (en) | 2017-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6159179B2 (en) | Image processing apparatus and image processing method | |
JP2020184795A (en) | Video monitoring system, video monitoring method, and program | |
TWI659398B (en) | Intrusion detection with directional sensing | |
JP6700752B2 (en) | Position detecting device, position detecting method and program | |
CN104103030B (en) | Image analysis method, camera apparatus, control apparatus and control method | |
JP6734940B2 (en) | Three-dimensional measuring device | |
US8854594B2 (en) | System and method for tracking | |
CN108156450B (en) | Method for calibrating a camera, calibration device, calibration system and machine-readable storage medium | |
JP5566281B2 (en) | Apparatus and method for specifying installation condition of swivel camera, and camera control system provided with the apparatus for specifying installation condition | |
JP2019041261A (en) | Image processing system and setting method of image processing system | |
JP2018148422A (en) | Information processing system, information processing device, information processing method, and program causing computer to execute information processing method | |
JP6841608B2 (en) | Behavior detection system | |
KR20210046217A (en) | Method and apparatus for detecting an object using detection of a plurality of regions | |
JP2008226109A (en) | Video image analysis system and method | |
JP4227037B2 (en) | Imaging system and calibration method | |
Braun et al. | Bim-based progress monitoring | |
JP6679349B2 (en) | Information processing apparatus, information processing method, and program | |
Burbano et al. | 3D cameras benchmark for human tracking in hybrid distributed smart camera networks | |
JP2021505264A (en) | Devices, systems and methods for detecting a patient's physical activity | |
JP2002259984A (en) | Motion analyzing device and motion analyzing method | |
JP2020088840A (en) | Monitoring device, monitoring system, monitoring method, and monitoring program | |
JPWO2014102995A1 (en) | Information recording medium storing monitoring system, method and program | |
Runceanu et al. | Indoor point cloud segmentation for automatic object interpretation | |
WO2018134866A1 (en) | Camera calibration device | |
Bagdanov et al. | Acquisition of high-resolution images through on-line saccade sequence planning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190307 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191203 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200218 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200318 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6679349 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |