JP2018011200A - Information processing apparatus and information processing method - Google Patents
Information processing apparatus and information processing method Download PDFInfo
- Publication number
- JP2018011200A JP2018011200A JP2016138904A JP2016138904A JP2018011200A JP 2018011200 A JP2018011200 A JP 2018011200A JP 2016138904 A JP2016138904 A JP 2016138904A JP 2016138904 A JP2016138904 A JP 2016138904A JP 2018011200 A JP2018011200 A JP 2018011200A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- score
- information processing
- processing apparatus
- small
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims description 29
- 238000003672 processing method Methods 0.000 title claims 3
- 230000000694 effects Effects 0.000 claims abstract description 90
- 238000012544 monitoring process Methods 0.000 claims abstract description 73
- 230000001629 suppression Effects 0.000 claims abstract description 24
- 238000000034 method Methods 0.000 claims description 27
- 238000004590 computer program Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 10
- 238000003384 imaging method Methods 0.000 abstract description 4
- 238000005516 engineering process Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 52
- 238000004891 communication Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Alarm Systems (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は、オブジェクトを監視するための技術に関するものである。 The present invention relates to a technique for monitoring an object.
監視エリアに対する監視カメラの配置を決定する場合において、提示されたカメラの配置がどの程度の効果があるのか、またカメラ毎にどの程度の効果があるのかを知ることができなかった。 In determining the arrangement of the monitoring camera with respect to the monitoring area, it has not been possible to know how effective the arrangement of the presented camera is, and how much effect is provided for each camera.
特許文献1には、監視レイアウトを含む顧客要求(動き検知、顔検知、滞留検知など)に基づいてカメラ配置を自動的に生成し、カメラ配置の決定を支援する技術が開示されている。特許文献2には、監視区域と非監視区域の設定がある空間に対してカメラ配置を自動的に生成する技術が開示されている。 Patent Document 1 discloses a technology for automatically generating a camera arrangement based on a customer request including a monitoring layout (motion detection, face detection, stay detection, etc.) and supporting the camera arrangement determination. Patent Document 2 discloses a technique for automatically generating a camera arrangement for a space where a monitoring area and a non-monitoring area are set.
しかし特許文献1に開示されている技術では、カメラ毎の優先順位を決定する構成を有しておらず、提示された配置に対して人手で修正することが困難である。また、特許文献2に開示されている技術では、カメラや人員が配置されることによる犯罪などの抑止効果を考慮していないため、人員を含めた全体での最適な配置を生成できない。 However, the technique disclosed in Patent Document 1 does not have a configuration for determining the priority order of each camera, and it is difficult to manually correct the presented arrangement. Moreover, since the technique disclosed in Patent Document 2 does not consider the effect of suppressing crimes and the like caused by the arrangement of cameras and personnel, it is not possible to generate an optimal arrangement for the entire system including personnel.
本発明はこのような問題に鑑みてなされたものであり、カメラによる監視対象オブジェクトの撮影効果だけでなく、上記の抑止効果も加味したカメラの配置パターンの生成及び出力を行うための技術を提供する。また、本発明は、配置するカメラごとの優先度をも出力する技術を提供する。 The present invention has been made in view of such problems, and provides a technique for generating and outputting a camera arrangement pattern that takes into account not only the effect of capturing a monitored object by the camera but also the above-described suppression effect. To do. The present invention also provides a technique for outputting the priority for each camera to be arranged.
本発明の一様態は、監視エリアを示すマップを構成する複数の小領域のうち、第1の監視効果を表す第1のスコアが規定値未満の小領域、第2の監視効果を表す第2のスコアが規定値未満の小領域、を順次選択する選択手段と、前記選択手段が選択した小領域と、該小領域についてユーザが設定した前記第1のスコアと、に基づく前記マップ上の位置を、該マップ上におけるカメラの配置位置として特定する特定手段と、前記配置位置におけるカメラの視界範囲内に属する各小領域の前記第1のスコアに対して、該配置位置における前記第1の監視効果を表す前記第1のスコアを加算する第1の設定手段と、前記配置位置におけるカメラの視界範囲内に属する各小領域の前記第2のスコアに対して、該配置位置における前記第2の監視効果を表す前記第2のスコアを加算する第2の設定手段と、前記第1のスコアが規定値未満である小領域の選択順ごとに前記特定手段によって特定される前記マップ上におけるカメラの配置レイアウトのうち1以上を、前記第1の設定手段および前記第2の設定手段によって決定した前記マップにおける各小領域の前記第1のスコア及び前記第2のスコアに基づいて選択して出力する出力手段とを備えることを特徴とする。 According to one aspect of the present invention, among a plurality of small regions constituting a map indicating a monitoring area, the first score representing the first monitoring effect is a small region less than the specified value, and the second representing the second monitoring effect. A position on the map based on a selection unit that sequentially selects small regions having a score of less than a predetermined value, a small region selected by the selection unit, and the first score set by the user for the small region And the first monitoring at the arrangement position with respect to the first score of each small region belonging to the camera viewing range at the arrangement position. First setting means for adding the first score representing an effect, and the second score of each small region belonging to the camera view range at the arrangement position, the second score at the arrangement position Monitoring effect A second setting means for adding the second score, and a camera layout layout on the map identified by the identifying means for each selection order of small areas where the first score is less than a specified value. Output means for selecting and outputting one or more of them based on the first score and the second score of each small area in the map determined by the first setting means and the second setting means; It is characterized by providing.
本発明の構成によれば、カメラによる監視対象オブジェクトの撮影効果だけでなく、上記の抑止効果も加味したカメラの配置パターンの生成及び出力を行うことができる。また、本発明の構成によれば、配置するカメラごとの優先度をも出力することができる。 According to the configuration of the present invention, it is possible to generate and output a camera arrangement pattern that takes into account not only the imaging effect of the monitored object by the camera but also the above-described suppression effect. Further, according to the configuration of the present invention, the priority for each camera to be arranged can also be output.
以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。 Embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.
[第1の実施形態]
本実施形態では、次のような構成を有する情報処理装置の一例について説明する。すなわちこの情報処理装置は、監視エリアを示すマップを構成する複数の小領域のうち、第1の監視効果を表す第1のスコアが規定値未満の小領域、第2の監視効果を表す第2のスコアが規定値未満の小領域、を順次選択する。そして、該選択した小領域と、該小領域についてユーザが設定した第1のスコアと、に基づくマップ上の位置を、該マップ上におけるカメラの配置位置として特定する。そして、配置位置におけるカメラの視界範囲内に属する各小領域の第1のスコアに対して、該配置位置における第1の監視効果を表す第1のスコアを加算する(第1の設定)。さらに、配置位置におけるカメラの視界範囲内に属する各小領域の第2のスコアに対して、該配置位置における第2の監視効果を表す第2のスコアを加算する(第2の設定)。そして、第1のスコアが規定値未満である小領域の選択順ごとに特定されるマップ上におけるカメラの配置レイアウトのうち1以上を、第1の設定第2の設定によって決定したマップにおける各小領域の第1のスコア及び第2のスコアに基づいて選択して出力する。先ず、本実施形態に係る情報処理装置の機能構成例について、図1のブロック図を用いて説明する。
[First Embodiment]
In the present embodiment, an example of an information processing apparatus having the following configuration will be described. That is, this information processing apparatus includes a small area in which a first score representing a first monitoring effect is less than a specified value among a plurality of small areas constituting a map indicating a monitoring area, and a second representing a second monitoring effect. A small area having a score of less than a specified value is sequentially selected. Then, the position on the map based on the selected small area and the first score set by the user for the small area is specified as the camera arrangement position on the map. Then, a first score representing the first monitoring effect at the arrangement position is added to the first score of each small area belonging to the camera view range at the arrangement position (first setting). Further, a second score representing the second monitoring effect at the arrangement position is added to the second score of each small region belonging to the camera view range at the arrangement position (second setting). Each small map in the map in which one or more of the camera layouts on the map specified for each selection order of the small areas whose first score is less than the specified value is determined by the first setting second setting. Select and output based on the first and second scores of the region. First, a functional configuration example of the information processing apparatus according to the present embodiment will be described with reference to the block diagram of FIG.
保持部101には、カメラや人員が配置される空間(対象空間)を俯瞰した2次元平面図が格納されている。保持部101に格納されている2次元平面図の一例を図3に示す。図3の2次元平面図は、壁や棚、通路のレイアウトが示されていると共に、人員のレイアウトも示されている。2次元平面図は2次元画像であり、各画素は、該画素が壁に属しているのか、棚に属しているのか、通路に属しているのか、といった属性を有する。なお、2次元平面図の各画素が壁に属しているのか、棚に属しているのか、通路に属しているのか、を区別する方法として他の方法を採用しても構わない。また、この2次元平面図には、該2次元平面図の縮尺を示すデータ(縮尺データ)が添付されており、実空間上の距離と2次元平面図上の距離との対応関係が既知であるものとする。しかし、2次元平面図上における距離が実空間においてどの程度の距離に相当するのか(若しくはその逆)を導出できるのであれば、如何なるデータを設けても構わない。
The
保持部102には、上記の対象空間に既に設置されているカメラ(既存カメラ)の、上記2次元平面図上における位置及び方向を示す配置情報が格納されている。なお、保持部102は上記の対象空間における既存カメラの位置及び方向を格納しておき、上記の縮尺データを用いて2次元平面図上における位置及び方向に変換するようにしても構わない。
The
既にカメラを設置済みの監視領域に対してレイアウト変更などを行う場合においては、既存カメラの配置を生かしたカメラ配置を行う。既存カメラがあっても再配置できる場合には、この情報は用いずに全て新規にカメラを配置する。 In the case of changing the layout or the like for a monitoring area in which cameras are already installed, the camera arrangement is performed by utilizing the arrangement of the existing cameras. If the existing camera can be rearranged, all the cameras are newly arranged without using this information.
保持部103には、対象空間においてカメラや人員が監視対象とするエリアに対応する上記2次元平面図上のエリア(監視エリア)を示す情報が格納されている。監視エリアは、2次元平面図の全体としても良いし、一部のエリアとしても良い。監視エリアは、例えば、ユーザが適宜設定することができる。以下では説明を簡単にするために、2次元平面図の全体エリアを監視エリアとする。
The
保持部104には、2次元平面図における監視エリアを複数の部分領域に分割した場合に、個々の部分領域について、カメラによる撮影の効果を示す値、カメラや人員による事象の抑止効果を示す値、これらの効果に基づく監視効果を示す値、が格納されている。以下に説明する処理では、対象空間にこれから配置するカメラの位置及び方向を、これらの値に基づいて決定する。
In the
DB(データベース)105には、上記の既存カメラや、これから対象空間に配置するカメラの仕様データが格納されている。DB105に格納されている仕様データの一例を図4に示す。
The DB (database) 105 stores specification data of the above-described existing cameras and cameras to be arranged in the target space. An example of the specification data stored in the
保持部106には、カメラや人員による監視により検出したいオブジェクト(監視対象オブジェクト)のサイズが格納されている。
The
生成部107は、DB105に仕様が格納されているカメラについて、該カメラからオブジェクト(保持部106が保持するサイズを有するオブジェクト)までの距離と該カメラによる撮影の効果との関係を表す関数である撮影効果関数を生成する。
The
生成部108は、DB105に仕様が格納されているカメラについて、該カメラからオブジェクト(保持部106が保持するサイズを有するオブジェクト)までの距離と該カメラによる抑止の効果との関係を表す関数である抑止効果関数を生成する。
The
生成部109は、2次元平面図において配置が規定されているそれぞれの人員について、該人員からオブジェクト(保持部106が保持するサイズを有するオブジェクト)までの距離と該人員による抑止の効果との関係を表す関数である抑止効果関数を生成する。
The
生成部110は、対象空間にこれから配置しようとするカメラの配置パターン(配置位置及び方向のパターン)を複数生成する。
The
選択部111は、生成部110が生成した複数の配置パターンから監視効果が高い順に1以上の配置パターンを選択する。提示部112は、選択部111が選択した配置パターンを出力する。制御部199は、上記の各機能部の動作制御を行う。
The
次に、既存カメラが配置された対象空間に新たに1以上のカメラを設置する場合に、どのような配置パターンがあるのかをユーザに提示するために情報処理装置が行う処理について、同処理のフローチャートを示す図6に沿って説明する。 Next, when one or more cameras are newly installed in the target space where the existing cameras are arranged, the processing performed by the information processing apparatus to present to the user what kind of arrangement pattern is present Description will be made with reference to FIG. 6 showing a flowchart.
ステップS601では、制御部199は、保持部101から2次元平面図(管理エリア図面)を読み出す。ステップS602では、制御部199は、保持部103から管理エリアを示す情報を読み出し、該情報に基づいて2次元平面図上に監視エリアを設定する。上記のとおり、本実施形態では、2次元平面図の全体エリアを監視エリアとする。ステップS603では、制御部199は、DB105から各カメラの仕様データを読み出す。
In step S601, the
ステップS604では、制御部199は、図7(b)に例示するような管理効果テーブルを初期化する。具体的には、図7(a)に示す如く、監視エリアを複数の部分領域(メッシュ)に分割し、該部分領域における撮影効果値及び抑止効果値を0に初期化する。監視効果テーブルは、このような各部分領域について、監視エリアにおける該部分領域の座標値(部分領域の中心の座標値)と、該部分領域における撮影効果値及び抑止効果値と、が関連づけて登録されたテーブルである。
In step S604, the
ステップS605では、制御部199は、保持部102から各既存カメラの配置情報を読み出す。ステップS606では、生成部107及び生成部108によって、既存カメラごとに撮影効果関数及び抑止効果関数を生成し、該生成した撮影効果関数及び抑止効果関数を用いて、監視エリアにおいて該当する部分領域における撮影効果値、抑止効果値を求める。
In step S <b> 605, the
先ず、生成部107による撮影効果関数の生成処理について説明する。ここでは、既存カメラAの撮影効果関数を生成する場合について説明する。図5(a)に示す如く、既存カメラAの視界の中心位置にオブジェクトが置かれた場合における該既存カメラAからオブジェクトまでの距離をd(m)、既存カメラAの水平方向画角(DB105に登録されている既存カメラAの仕様)をθ、とする。このとき、既存カメラAの視界の幅w(m)はw=2×d×tan(θ/2)として求めることができる。なお、既存カメラAがズーム機能を有する場合、水平方向画角θには、既存カメラAが有する最大の画角が設定される。
First, shooting effect function generation processing by the
既存カメラAによる撮影映像がフルHDであれば、wは1920画素に相当する。そのため、例えば、保持部106に格納されているオブジェクトのサイズが0.1mであるとすると、既存カメラAによる撮影映像上の該オブジェクトのサイズは(1920×0.1/w)画素として求めることができる。このように、既存カメラAからオブジェクトまでの距離に対応する、該既存カメラAによる撮影映像上の該オブジェクトのサイズが分かるので、既存カメラAの撮影効果関数fA(d)として以下のような性質を有する関数を生成する。
If the video shot by the existing camera A is full HD, w corresponds to 1920 pixels. Therefore, for example, if the size of the object stored in the holding
撮影映像上におけるオブジェクトのサイズが第1のサイズ(例えば20画素)以上となるような距離dの範囲においては、fA(d)=1
撮影映像上におけるオブジェクトのサイズが第2のサイズ(例えば5画素)未満となるような距離dの範囲においては、fA(d)=0
撮影映像上におけるオブジェクトのサイズが第1のサイズ未満及び第2のサイズ以上となるような距離dの範囲においては、fA(d)=距離dが増加すると単調減少する(最大値1,最小値0)
このような撮影効果関数の一例を図5(b)に示す。なお、既存カメラAがHDカメラの場合、既存カメラAによる撮影映像の解像度は変わるため、撮影効果関数は図5(c)のような関数となる。
FA (d) = 1 in the range of the distance d such that the size of the object on the photographed video is not less than the first size (for example, 20 pixels).
In the range of the distance d such that the size of the object on the photographed video is less than the second size (for example, 5 pixels), fA (d) = 0
In the range of the distance d such that the size of the object on the photographed video is less than the first size and greater than or equal to the second size, fA (d) = monotonically decreases as the distance d increases (maximum value 1, minimum value). 0)
An example of such a shooting effect function is shown in FIG. Note that when the existing camera A is an HD camera, the resolution of the captured video by the existing camera A changes, so the shooting effect function is a function as shown in FIG.
次に、既存カメラAの抑止効果関数fB(d)の生成について説明する。既存カメラAの抑止効果関数fB(d)の生成方法については基本的には撮影効果関数と同様であるが、被監視者には既存カメラAの解像度や画角などの正確な仕様は解らないため、撮影効果の及ぶ範囲よりも広くなるようにする。例えば、撮影効果関数を求める際に用いた水平方向画角θをより広くしたり(例えば+3°)、垂直方向画角についてもより広くしたりする。また、抑止効果関数fB(d)を求めるための画角などのパラメータを、仕様データとは別個にDB105に登録しておいてもよい。
Next, generation of the deterrence effect function fB (d) of the existing camera A will be described. The generation method of the deterrence effect function fB (d) of the existing camera A is basically the same as the shooting effect function, but the person to be monitored does not know the exact specifications of the existing camera A such as resolution and angle of view. Therefore, it is made wider than the range where the photographing effect is covered. For example, the horizontal angle of view θ used when obtaining the shooting effect function is made wider (for example, + 3 °), and the vertical direction angle of view is made wider. Further, parameters such as an angle of view for obtaining the suppression effect function fB (d) may be registered in the
以上説明した撮影効果関数fA(d)及び抑止効果関数fB(d)を、DB105に仕様が登録されている既存カメラごとに求める。そして、それぞれの既存カメラの撮影効果関数fA(d)及び抑止効果関数fB(d)を求めると、次に生成部107及び生成部108は既存カメラごとに次のような処理を行う。
The shooting effect function fA (d) and the suppression effect function fB (d) described above are obtained for each existing camera whose specifications are registered in the
生成部107は、監視エリア上における着目既存カメラの位置及び方向(ステップS605で取得済み)と着目既存カメラの画角とを用いて該監視エリアにおける該着目既存カメラの視界を特定する。そして生成部107は、該特定した視界内のそれぞれの部分領域について、該部分領域の撮影効果値に、着目既存カメラからの距離dに応じた撮影効果関数の関数値fA(d)を加算して該撮影効果値を更新する。
The
生成部108は、図8に示す如く、監視エリア上に着目既存カメラの位置を中心とし且つ規定長の半径を有する円領域を設定し、該円領域内で該着目既存カメラから撮影可能な部分領域の数を計数する。つまり、円領域内の全ての部分領域のうち障害物によって着目既存カメラが目視できない部分領域は除外した部分領域の総数を計数する。ある視点から対象部分領域が目視可能か否かの判断については、例えば、監視エリア上の視点の位置と対象部分領域との間を通る線分が、属性が壁や棚といった障害物である画素を通る場合は、視点から対象部分領域は目視不可能と判断する。一方、監視エリア上の視点の位置と対象部分領域との間を通る線分が、属性が壁や棚といった障害物である画素を通らない場合は、視点から対象部分領域は目視可能と判断する。そして生成部108は、この計数した総数に基づいて認知スコアを求める。例えば総数を100で割った結果を認知スコアとする。総数が100以上の場合には、認知スコア=1.0とする。そして生成部108は、着目既存カメラの抑止効果関数の最大値を(最大値×認知スコア)に補正する。そして生成部108は、監視エリア上における着目既存カメラの位置及び方向(ステップS605で取得済み)と着目既存カメラの画角とを用いて該監視エリアにおける該着目既存カメラの視界を特定する。そして生成部107は、該特定した視界内のそれぞれの部分領域について、該部分領域の抑止効果値に、着目既存カメラからの距離dに応じた抑止効果関数(最大値が認知スコアを用いて補正済み)の関数値fB(d)を加算して該抑止効果値を更新する。なお、対象空間に既存カメラが1台も設置されていない場合、全ての部分領域の撮影効果値及び抑止効果値は0となっている。
As shown in FIG. 8, the
ステップS607では、生成部109はそれぞれの人員について抑止効果関数を生成する。人員に対する抑止効果関数は、例えば、距離=0の場合には関数値1.0となり、距離=dth(=規定の値)の場合には関数値0.0となるような単調減少関数である。そして生成部109は、それぞれの人員について、監視エリア内の部分領域のうち該人員が目視可能な部分領域の抑止効果値に、該人員について求めた抑止効果関数において該部分領域に対応する関数値を加算することで該抑止効果値を更新する。
In step S607, the
ステップS608〜S611の処理を、対象空間にこれから配置するカメラの配置パターンごとに行うことで、該カメラの複数の配置パターンを生成する。ステップS608では、ステップS607の終了時点で確定した撮影効果値及び抑止効果値のコピーを作成し、ステップS609〜S611では、このコピーに対して処理を行う。カメラの配置は最初の1台の置き方によって多数の配置パターンが生成できるため、最初の1台の決定方法を複数用意しておき、この数だけステップS608〜S611の処理を繰り返すことで複数の配置パターンを生成する。 By performing the processing of steps S608 to S611 for each arrangement pattern of cameras to be arranged in the target space, a plurality of arrangement patterns of the cameras are generated. In step S608, a copy of the shooting effect value and the suppression effect value determined at the end of step S607 is created. In steps S609 to S611, processing is performed on this copy. Since the arrangement of the camera can generate a large number of arrangement patterns depending on how the first one is placed, a plurality of determination methods for the first one are prepared, and the processing of steps S608 to S611 is repeated for this number. Generate a placement pattern.
ステップS609では、生成部110は、監視エリア内の撮影効果値に基づいて、対象空間にこれから配置するカメラの配置パターンを生成する。ステップS609における処理の詳細について、図9(a)のフローチャートを用いて説明する。
In step S609, the
ステップS901では、生成部110は、監視エリア内のそれぞれの部分領域のうち撮影効果値が規定値未満となる部分領域が存在するか否かを判断する。この判断の結果、存在する場合には、処理はステップS902に進み、存在しない場合には、処理はステップS610に進む。
In step S901, the
ステップS902では、生成部110は、撮影効果値が規定値未満となる部分領域のうち未選択の1つを選択部分領域として選択する(実際には、選択部分領域の座標位置を取得する)。選択部分領域の選択方法には様々な方法がある。例えば、既存カメラがある場合は、規定値との差が最大となる撮影効果値の部分領域を選択しても良い。撮影効果値が規定値未満となる部分領域が複数存在する場合、該複数の部分領域のそれぞれについて、監視エリアの4隅からの距離を求め、求めた距離が最小となる部分領域を選択しても良い。また、撮影効果値が規定値未満となる部分領域が複数存在する場合、該複数の部分領域のそれぞれについて、監視エリアの中心位置からの距離を求め、求めた距離が最大若しくは最小となる部分領域を選択しても良い。このようなステップS902における部分領域の選択方法については予め設定されているものとする。
In step S902, the
ステップS903では、生成部110は、DB105に仕様が格納されているカメラのうち使用可能なカメラとして指定されているカメラを選択カメラとして選択し、該選択カメラの撮影効果関数において所望の撮影効果値となる距離drを取得する。例えば図9(b)に示す如く、所望の撮影効果値=0.8である場合、撮影効果関数において関数値が0.8となる距離drを特定する。そして生成部110は、図9(c)に示す如く、選択部分領域の位置を中心とし、ステップS903で取得した距離drを半径とする円を求め、この円の内側において円周近傍にカメラの配置位置及び方向の候補を設定する。
In step S903, the
ここではカメラの配置位置及び方向に制約を付けることで、候補を設定する。例えば、監視エリアにおけるカメラの向きを水平方向若しくは垂直方向とする、通路であれば中心に置く、最近傍のカメラとの距離を一定値以上とする、などの制約がある。いずれにしても、カメラの視界に選択部分領域が含まれている必要がある。 Here, candidates are set by constraining the camera placement position and direction. For example, there are restrictions such that the direction of the camera in the monitoring area is the horizontal direction or the vertical direction, if it is a passage, it is placed in the center, and the distance from the nearest camera is a certain value or more. In any case, the selected partial area needs to be included in the field of view of the camera.
ステップS904で生成部110は、ステップS903で設定した配置位置及び方向の候補にカメラを配置した場合に、監視エリアにおいて該当する部分領域の、該カメラからの距離に応じた撮影効果値及び抑止効果値を、ステップS606と同様にして求める。
In step S904, when the
ステップS610では、生成部110は、監視エリア内のそれぞれの部分領域のうち抑止効果値が規定値未満となる部分領域が存在すれば、抑止効果値が規定値未満となる部分領域のうち未選択の1つを選択部分領域として選択する。実際には、選択部分領域の座標位置を取得する。選択方法は上記のステップS902と同様である。そして生成部110は、DB105に仕様が格納されているカメラのうち使用可能なカメラとして指定されているカメラを選択カメラとして選択し、該選択カメラの抑止効果関数において所望の撮影効果値となる距離drを取得する。そして生成部110は、選択部分領域の位置を中心とし、取得した距離drを半径とする円を求め、この円内において円周近傍にカメラの配置位置及び方向の候補を設定する。この設定方法については上記のステップS903と同様である。そして生成部110はステップS904と同様の処理を行う。カメラの撮影効果は最小でも良いため、例えばVGA解像度の低下価格で解像度の低いカメラを選択することでカメラのトータルコストを抑えるように配置していくことが可能になる。
In step S610, the
処理がステップS612に進んだ時点で、複数の配置パターンが生成されているので、ステップS612では選択部111は、この複数の配置パターンのうち1つ以上を選択する。選択基準については特定の選択基準に限らない。例えば、配置パターンごとに、該配置パターンに対応する監視エリア上の撮影効果値及び抑止効果値の総和を監視効果として求め、該求めた総和の大きい順(監視効果の高い順)に上位1つ以上の配置パターンを選択するようにしても良い。
Since a plurality of arrangement patterns are generated when the process proceeds to step S612, the
ステップS613では、選択部111は、ステップS612で選択された配置パターンごとに、監視エリア内に配置したそれぞれのカメラの優先順位を求める。例えば、着目配置パターンについて確定した監視エリア内の各部分領域の撮影効果値及び抑止効果値の総和S1を求める。監視エリア内に着目配置パターンに従って設置したカメラのうち未選択の1つを選択カメラとして選択、選択カメラを配置しなかった場合における監視エリア内の全ての撮影効果値及び抑止効果値の総和S2の計算、の一連の処理をそれぞれのカメラについて行う。そして、S1との差がより大きいS2を求めたときに選択カメラとして選択されたカメラがより重要度(優先順位)が高いカメラとなる。
In step S613, the
ステップS614では、提示部112は、ステップS612で選択された配置パターン及び該配置パターンについてステップS613で求めた各カメラの優先順位、を出力する。提示部112による配置パターン及び優先順位の出力先及び出力形態については特定の出力先及び出力形態に限らない。例えば、2次元平面図上にカメラを表すオブジェクトを配置パターンに応じたレイアウトで配置し、且つ各カメラのオブジェクトの表示形態(色、サイズなど)を優先順位に応じて変えたものを、監視効果の高い順に並べて表示装置209に一覧表示する。もちろん、表示順はこれに限らない。なお、優先順位は文字列として表示しても良い。
In step S614, the
このように、本実施形態によれば、監視領域の監視カメラの配置パターンを複数生成でき、かつ各配置パターンにおけるカメラの優先順位を付けることが可能となる。また、優先順位を提示することによって、全体のコストが合わずカメラの台数を減らしたい場合に、優先順位の低いカメラを使用者が知ることができ、手動で削除や別のカメラに置き換えるなどを試す構成を提供できるようになる。 Thus, according to this embodiment, it is possible to generate a plurality of surveillance camera placement patterns in the surveillance area and to assign camera priorities in each placement pattern. Also, by presenting the priority order, if the overall cost does not match and you want to reduce the number of cameras, the user can know the camera with the lower priority order, delete it manually, replace it with another camera, etc. It will be possible to provide a configuration to try.
<変形例>
図1に示した各機能部は何れもハードウェアで構成しても良いが、保持部101〜104、106、DB105をメモリで実装し、それ以外の機能部をコンピュータプログラムで実装するようにしても構わない。このような場合、保持部101〜104、106、DB105として機能するメモリを有し、且つこのコンピュータプログラムを実行可能なコンピュータ装置は、上記の情報処理装置に適用可能である。情報処理装置に適用可能なコンピュータ装置のハードウェア構成例について、図2のブロック図を用いて説明する。
<Modification>
Although each of the functional units shown in FIG. 1 may be configured by hardware, the holding
CPU201は、ROM202やRAM203に格納されているコンピュータプログラムやデータを用いて処理を実行する。これによりCPU201は、コンピュータ装置全体の動作制御を行うと共に、コンピュータ装置を適用する情報処理装置が行うものとして上述した各処理を実行若しくは制御する。
The
ROM202には、コンピュータ装置の書き換え不要の設定データやブートプログラムなどが格納されている。RAM203は、NCU(Network Control Unit)207によって外部から受信したデータ、外部記憶装置206からロードされたコンピュータプログラムやデータを格納するためのエリアを有する。更にRAM203は、CPU201が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM203は各種のエリアを適宜提供することができる。
The
NCU207は、外部の機器との間のデータ通信を制御するためのものである。例えばNCU207は、RS232CやUSB、IEEE1394、P1284、SCSI、モデム、Ethernetなどの有線通信や、Bluetooth(登録商標)、赤外線通信、IEEE802.11b等の無線通信に応じたものである。なお、外部の機器との間のデータ通信を行うための構成であれば、NCU207に変えて若しくは加えて他の構成を採用しても良い。
The
入力装置204は、マウスやキーボードなどのユーザインターフェースにより構成されており、ユーザが操作することで各種の指示をCPU201に対して入力することができる。なお、コンピュータ装置への情報入力や指示入力の方法には様々な方法が採用可能であり、例えば、音声入力やジェスチャー操作入力などにより情報入力や指示入力を行っても良い。
The
外部記憶装置206は、ハードディスクドライブ装置に代表される大容量情報記憶装置であり、例えば、保持部101〜104、106、DB105としても機能する。外部記憶装置206には、OS(オペレーティングシステム)や、情報処理装置が行うものとして上述した各処理をCPU201に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。このコンピュータプログラムには、図1の生成部107〜110、選択部111、提示部112の機能をCPU201に実現させるためのコンピュータプログラムも含まれている。また、外部記憶装置206に保存されているデータには、上記の説明において既知の情報として取り扱った情報も含まれている。外部記憶装置206に保存されているコンピュータプログラムやデータは、CPU201による制御に従って適宜RAM203にロードされ、CPU201による処理対象となる。
The
なお、外部記憶装置206は、フロッピーディスク、光ディスク、磁気ディスク、磁気テープ、不揮発性のメモリカード等の記録媒体に対して情報を読み書き可能な装置であっても良い。
The
なお、外部記憶装置206から取得するものとして説明したコンピュータプログラムやデータの一部若しくは全部をNCU207を介して外部の機器から取得するようにしても構わない。
Note that part or all of the computer program and data described as being acquired from the
GPU208は、バス205を経由して、与えられた表示指示や計算指示に従い、計算を行って表示内容の画像の作成や表示位置などの計算を行い、その計算結果を表示装置209へ送って描画させる。
The
表示装置209は、CRTや液晶画面などにより構成されており、CPU201やGPU208による処理結果を画像や文字などでもって表示することができる。なお、入力装置204と表示装置209とを一致化させてタッチパネル画面を構成しても良い。
The
CPU201、ROM202、RAM203、NCU207、入力装置204、外部記憶装置206、GPU208は何れも、アドレスバス、データバスなどにより構成されているバス205に接続されている。
The
[第2の実施形態]
第1の実施形態では、2次元平面図におけるカメラの配置を前提としていたが、3次元立体図におけるカメラの配置にも第1の実施形態は同様に適用できる。本実施形態の場合、3次元立体図は、カメラや人員による監視対象の空間の各3次元位置の上記属性を保持しており、カメラや人員の視界は水平方向画角及び垂直方向画角を有しているため、第1の実施形態で行った処理を高さ方向について同様に行えばよい。
[Second Embodiment]
In the first embodiment, it is assumed that the camera is arranged in a two-dimensional plan view. However, the first embodiment can be similarly applied to the arrangement of a camera in a three-dimensional stereoscopic view. In the case of the present embodiment, the three-dimensional solid view holds the above-described attributes of the respective three-dimensional positions in the space to be monitored by the camera or personnel, and the field of view of the camera or personnel has a horizontal angle of view and a vertical angle of view. Therefore, the processing performed in the first embodiment may be similarly performed in the height direction.
[第3の実施形態]
第1の実施形態では、認知スコアは、既存カメラが目視可能な部分領域の総数に基づくものであったが、これに加えて、既存カメラの寸法の情報を加味したものであってもよい。例えば、カメラの基準サイズを予め設定しておき、該基準サイズに対する既存カメラのサイズの比率と上記総数との積を認知スコアとしても良い。
[Third Embodiment]
In the first embodiment, the recognition score is based on the total number of partial areas that can be viewed by the existing camera. However, in addition to this, information on the dimensions of the existing camera may be added. For example, a reference size of the camera is set in advance, and the product of the ratio of the size of the existing camera to the reference size and the total number may be used as the recognition score.
[第4の実施形態]
第1の実施形態では、ステップS612においては撮影効果値及び抑止効果値の総和が高い配置パターンを選択したが、各カメラの価格や撮影で必要となるデータストレージのサイズをコストとして計算し、コスト対効果の比が高いものを選んでも良い。
[Fourth Embodiment]
In the first embodiment, an arrangement pattern having a high sum of the shooting effect value and the suppression effect value is selected in step S612. However, the price of each camera and the size of the data storage required for shooting are calculated as costs. You may choose one with a high ratio of effectiveness.
[第5の実施形態]
撮影効果関数や抑止効果関数のような関数の代わりに、距離とスコア(上記の関数値に相当)との関係を登録したテーブルを用いても構わない。また、人員は必ず対象空間に配置することに限らず、適宜省いても良い。また、以上説明した実施形態や変形例は、その一部若しくは全部を組み合わせて使用しても構わない。
[Fifth Embodiment]
Instead of a function such as a shooting effect function or a deterrent effect function, a table in which the relationship between distance and score (corresponding to the above function value) is registered may be used. Further, the personnel are not necessarily arranged in the target space, and may be omitted as appropriate. Moreover, you may use combining embodiment or the modification demonstrated above in part or all.
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
107:生成部 108:生成部 109:生成部 110:生成部 111:選択部 112:提示部 107: Generation unit 108: Generation unit 109: Generation unit 110: Generation unit 111: Selection unit 112: Presentation unit
Claims (10)
前記選択手段が選択した小領域と、該小領域についてユーザが設定した前記第1のスコアと、に基づく前記マップ上の位置を、該マップ上におけるカメラの配置位置として特定する特定手段と、
前記配置位置におけるカメラの視界範囲内に属する各小領域の前記第1のスコアに対して、該配置位置における前記第1の監視効果を表す前記第1のスコアを加算する第1の設定手段と、
前記配置位置におけるカメラの視界範囲内に属する各小領域の前記第2のスコアに対して、該配置位置における前記第2の監視効果を表す前記第2のスコアを加算する第2の設定手段と、
前記第1のスコアが規定値未満である小領域の選択順ごとに前記特定手段によって特定される前記マップ上におけるカメラの配置レイアウトのうち1以上を、前記第1の設定手段および前記第2の設定手段によって決定した前記マップにおける各小領域の前記第1のスコア及び前記第2のスコアに基づいて選択して出力する出力手段と
を備えることを特徴とする情報処理装置。 Of the plurality of small areas constituting the map indicating the monitoring area, the first score representing the first monitoring effect is smaller than the prescribed value, and the second score representing the second monitoring effect is less than the prescribed value. Selection means for sequentially selecting small areas;
A specifying means for specifying a position on the map based on the small area selected by the selection means and the first score set by the user for the small area as an arrangement position of the camera on the map;
First setting means for adding the first score representing the first monitoring effect at the arrangement position to the first score of each small region belonging to the camera view range at the arrangement position; ,
Second setting means for adding the second score representing the second monitoring effect at the arrangement position to the second score of each small region belonging to the camera view range at the arrangement position; ,
One or more of the arrangement layouts of the cameras on the map specified by the specifying unit for each selection order of the small regions whose first score is less than a specified value are the first setting unit and the second setting unit. An information processing apparatus comprising: output means for selecting and outputting based on the first score and the second score of each small area in the map determined by a setting means.
前記出力手段が選択した配置レイアウトで前記マップ上に配置されるそれぞれのカメラについて、該カメラを配置しない場合における前記第1のスコア及び前記第2のスコアの総和を求め、該それぞれのカメラについて求めた総和に基づいて、該それぞれのカメラの優先順位を求める手段を備えることを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。 Furthermore,
For each camera arranged on the map in the arrangement layout selected by the output means, the sum of the first score and the second score when the camera is not arranged is obtained and obtained for each camera. 4. The information processing apparatus according to claim 1, further comprising means for obtaining a priority order of the respective cameras based on the total sum.
前記情報処理装置の選択手段が、監視エリアを示すマップを構成する複数の小領域のうち、第1の監視効果を表す第1のスコアが規定値未満の小領域、第2の監視効果を表す第2のスコアが規定値未満の小領域、を順次選択する選択工程と、
前記情報処理装置の特定手段が、前記選択工程で選択した小領域と、該小領域についてユーザが設定した前記第1のスコアと、に基づく前記マップ上の位置を、該マップ上におけるカメラの配置位置として特定する特定工程と、
前記情報処理装置の第1の設定手段が、前記配置位置におけるカメラの視界範囲内に属する各小領域の前記第1のスコアに対して、該配置位置における前記第1の監視効果を表す前記第1のスコアを加算する第1の設定工程と、
前記情報処理装置の第2の設定手段が、前記配置位置におけるカメラの視界範囲内に属する各小領域の前記第2のスコアに対して、該配置位置における前記第2の監視効果を表す前記第2のスコアを加算する第2の設定工程と、
前記情報処理装置の出力手段が、前記第1のスコアが規定値未満である小領域の選択順ごとに前記特定工程で特定される前記マップ上におけるカメラの配置レイアウトのうち1以上を、前記第1の設定工程および前記第2の設定工程で決定した前記マップにおける各小領域の前記第1のスコア及び前記第2のスコアに基づいて選択して出力する出力工程と
を備えることを特徴とする情報処理方法。 An information processing method performed by an information processing apparatus,
The selection unit of the information processing apparatus represents a small area in which a first score representing a first monitoring effect is less than a specified value among a plurality of small areas constituting a map indicating a monitoring area, and represents a second monitoring effect A selection step of sequentially selecting small areas having a second score less than a specified value;
The position of the camera on the map based on the small area selected in the selection step by the specifying unit of the information processing apparatus and the first score set by the user for the small area A specific process to identify as a position;
The first setting unit of the information processing apparatus represents the first monitoring effect at the arrangement position with respect to the first score of each small region belonging to the camera view range at the arrangement position. A first setting step of adding a score of 1;
The second setting means of the information processing apparatus represents the second monitoring effect at the arrangement position with respect to the second score of each small region belonging to the camera view range at the arrangement position. A second setting step of adding 2 scores;
The output means of the information processing device outputs one or more of the camera layouts on the map specified in the specifying step for each selection order of small regions whose first score is less than a specified value. An output step of selecting and outputting based on the first score and the second score of each small area in the map determined in the setting step of 1 and the second setting step Information processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016138904A JP6768380B2 (en) | 2016-07-13 | 2016-07-13 | Information processing device, information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016138904A JP6768380B2 (en) | 2016-07-13 | 2016-07-13 | Information processing device, information processing method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018011200A true JP2018011200A (en) | 2018-01-18 |
JP2018011200A5 JP2018011200A5 (en) | 2019-08-29 |
JP6768380B2 JP6768380B2 (en) | 2020-10-14 |
Family
ID=60994416
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016138904A Active JP6768380B2 (en) | 2016-07-13 | 2016-07-13 | Information processing device, information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6768380B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112995514A (en) * | 2021-03-03 | 2021-06-18 | 上海悦易网络信息技术有限公司 | Method and device for acquiring photographing object distance of industrial camera |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120307067A1 (en) * | 2011-06-01 | 2012-12-06 | Honeywell International Inc. | System and method for automatic camera placement |
KR20150003470A (en) * | 2013-07-01 | 2015-01-09 | 버츄얼빌더스 주식회사 | System for arranging security camera and providing method thereof |
-
2016
- 2016-07-13 JP JP2016138904A patent/JP6768380B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120307067A1 (en) * | 2011-06-01 | 2012-12-06 | Honeywell International Inc. | System and method for automatic camera placement |
KR20150003470A (en) * | 2013-07-01 | 2015-01-09 | 버츄얼빌더스 주식회사 | System for arranging security camera and providing method thereof |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112995514A (en) * | 2021-03-03 | 2021-06-18 | 上海悦易网络信息技术有限公司 | Method and device for acquiring photographing object distance of industrial camera |
CN112995514B (en) * | 2021-03-03 | 2023-05-30 | 上海万物新生环保科技集团有限公司 | Method and equipment for acquiring photo object distance of industrial camera |
Also Published As
Publication number | Publication date |
---|---|
JP6768380B2 (en) | 2020-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6055823B2 (en) | Surveillance camera control device and video surveillance system | |
JP5347279B2 (en) | Image display device | |
KR101467663B1 (en) | Method and system of providing display in display monitoring system | |
US9875408B2 (en) | Setting apparatus, output method, and non-transitory computer-readable storage medium | |
JP6310149B2 (en) | Image generation apparatus, image generation system, and image generation method | |
JP2011029737A (en) | Surveillance image retrieval apparatus and surveillance system | |
JP2011060058A (en) | Imaging apparatus and monitoring system | |
EP3070681A1 (en) | Display control device, display control method and program | |
JP2019029935A (en) | Image processing system and control method thereof | |
US11062422B2 (en) | Image processing apparatus, image communication system, image processing method, and recording medium | |
JP5768265B2 (en) | Similar image search system | |
KR102056417B1 (en) | Cluster based photo navigation | |
JP2017162432A (en) | Image processing system, information processing apparatus, information terminal, and program | |
JP2005148863A (en) | Number of person counting system | |
JP2019016862A (en) | Information processing device, information processing system, information processing device control method, and program | |
JP6593922B2 (en) | Image surveillance system | |
JP2018011200A (en) | Information processing apparatus and information processing method | |
JPWO2014064878A1 (en) | Information processing apparatus, information processing method, program, and information processing system | |
JP7015130B2 (en) | Data processing equipment | |
JP6099025B1 (en) | MONITORING SYSTEM, MASK PROCESSING SETTING METHOD, AND COMPUTER PROGRAM | |
JP7385416B2 (en) | Image processing device, image processing system, image processing method, and image processing program | |
JP2017058657A (en) | Information processing device, control method, computer program and storage medium | |
CN113836337A (en) | BIM display method, device, equipment and storage medium | |
US11393214B2 (en) | Apparatus and method for congestion visualization | |
JP2017028688A (en) | Image managing device, image managing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190716 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190716 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200708 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200824 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200923 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6768380 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |