JP2018011200A - Information processing apparatus and information processing method - Google Patents

Information processing apparatus and information processing method Download PDF

Info

Publication number
JP2018011200A
JP2018011200A JP2016138904A JP2016138904A JP2018011200A JP 2018011200 A JP2018011200 A JP 2018011200A JP 2016138904 A JP2016138904 A JP 2016138904A JP 2016138904 A JP2016138904 A JP 2016138904A JP 2018011200 A JP2018011200 A JP 2018011200A
Authority
JP
Japan
Prior art keywords
camera
score
information processing
processing apparatus
small
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016138904A
Other languages
Japanese (ja)
Other versions
JP6768380B2 (en
JP2018011200A5 (en
Inventor
茂雄 福岡
Shigeo Fukuoka
茂雄 福岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016138904A priority Critical patent/JP6768380B2/en
Publication of JP2018011200A publication Critical patent/JP2018011200A/en
Publication of JP2018011200A5 publication Critical patent/JP2018011200A5/ja
Application granted granted Critical
Publication of JP6768380B2 publication Critical patent/JP6768380B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology for generating an arrangement pattern of cameras taking not only imaging effects of a monitoring target object obtained by the cameras but also crime suppression effects by arranging the cameras or the personnel into account and for also outputting a priority for each camera to be arranged.SOLUTION: A two-dimensional plane indicating the overview of a space in which the camera or the personnel is arranged is stored in a holding part 101, Arrangement information of a camera that has been already arranged in a monitoring target space is stored in a holding part 102. Information indicating a monitor area corresponding to an area defined as a monitoring target for the camera or the personnel in the target space is stored in a holding part 103. Specification data of the existing camera or a camera to be arranged in the target space is stored in a DB 105. A generation part 110 generates multiple arrangement patterns of the camera to be arranged in the target space. A selection part 111 selects one or more arrangement patterns in the order of starting from a highest monitor effect from among the multiple arrangement patterns generated by the generation part 110.SELECTED DRAWING: Figure 1

Description

本発明は、オブジェクトを監視するための技術に関するものである。   The present invention relates to a technique for monitoring an object.

監視エリアに対する監視カメラの配置を決定する場合において、提示されたカメラの配置がどの程度の効果があるのか、またカメラ毎にどの程度の効果があるのかを知ることができなかった。   In determining the arrangement of the monitoring camera with respect to the monitoring area, it has not been possible to know how effective the arrangement of the presented camera is, and how much effect is provided for each camera.

特許文献1には、監視レイアウトを含む顧客要求(動き検知、顔検知、滞留検知など)に基づいてカメラ配置を自動的に生成し、カメラ配置の決定を支援する技術が開示されている。特許文献2には、監視区域と非監視区域の設定がある空間に対してカメラ配置を自動的に生成する技術が開示されている。   Patent Document 1 discloses a technology for automatically generating a camera arrangement based on a customer request including a monitoring layout (motion detection, face detection, stay detection, etc.) and supporting the camera arrangement determination. Patent Document 2 discloses a technique for automatically generating a camera arrangement for a space where a monitoring area and a non-monitoring area are set.

特許第5269002号Japanese Patent No. 5269002 特開2015−35806号公報Japanese Patent Laying-Open No. 2015-35806

しかし特許文献1に開示されている技術では、カメラ毎の優先順位を決定する構成を有しておらず、提示された配置に対して人手で修正することが困難である。また、特許文献2に開示されている技術では、カメラや人員が配置されることによる犯罪などの抑止効果を考慮していないため、人員を含めた全体での最適な配置を生成できない。   However, the technique disclosed in Patent Document 1 does not have a configuration for determining the priority order of each camera, and it is difficult to manually correct the presented arrangement. Moreover, since the technique disclosed in Patent Document 2 does not consider the effect of suppressing crimes and the like caused by the arrangement of cameras and personnel, it is not possible to generate an optimal arrangement for the entire system including personnel.

本発明はこのような問題に鑑みてなされたものであり、カメラによる監視対象オブジェクトの撮影効果だけでなく、上記の抑止効果も加味したカメラの配置パターンの生成及び出力を行うための技術を提供する。また、本発明は、配置するカメラごとの優先度をも出力する技術を提供する。   The present invention has been made in view of such problems, and provides a technique for generating and outputting a camera arrangement pattern that takes into account not only the effect of capturing a monitored object by the camera but also the above-described suppression effect. To do. The present invention also provides a technique for outputting the priority for each camera to be arranged.

本発明の一様態は、監視エリアを示すマップを構成する複数の小領域のうち、第1の監視効果を表す第1のスコアが規定値未満の小領域、第2の監視効果を表す第2のスコアが規定値未満の小領域、を順次選択する選択手段と、前記選択手段が選択した小領域と、該小領域についてユーザが設定した前記第1のスコアと、に基づく前記マップ上の位置を、該マップ上におけるカメラの配置位置として特定する特定手段と、前記配置位置におけるカメラの視界範囲内に属する各小領域の前記第1のスコアに対して、該配置位置における前記第1の監視効果を表す前記第1のスコアを加算する第1の設定手段と、前記配置位置におけるカメラの視界範囲内に属する各小領域の前記第2のスコアに対して、該配置位置における前記第2の監視効果を表す前記第2のスコアを加算する第2の設定手段と、前記第1のスコアが規定値未満である小領域の選択順ごとに前記特定手段によって特定される前記マップ上におけるカメラの配置レイアウトのうち1以上を、前記第1の設定手段および前記第2の設定手段によって決定した前記マップにおける各小領域の前記第1のスコア及び前記第2のスコアに基づいて選択して出力する出力手段とを備えることを特徴とする。   According to one aspect of the present invention, among a plurality of small regions constituting a map indicating a monitoring area, the first score representing the first monitoring effect is a small region less than the specified value, and the second representing the second monitoring effect. A position on the map based on a selection unit that sequentially selects small regions having a score of less than a predetermined value, a small region selected by the selection unit, and the first score set by the user for the small region And the first monitoring at the arrangement position with respect to the first score of each small region belonging to the camera viewing range at the arrangement position. First setting means for adding the first score representing an effect, and the second score of each small region belonging to the camera view range at the arrangement position, the second score at the arrangement position Monitoring effect A second setting means for adding the second score, and a camera layout layout on the map identified by the identifying means for each selection order of small areas where the first score is less than a specified value. Output means for selecting and outputting one or more of them based on the first score and the second score of each small area in the map determined by the first setting means and the second setting means; It is characterized by providing.

本発明の構成によれば、カメラによる監視対象オブジェクトの撮影効果だけでなく、上記の抑止効果も加味したカメラの配置パターンの生成及び出力を行うことができる。また、本発明の構成によれば、配置するカメラごとの優先度をも出力することができる。   According to the configuration of the present invention, it is possible to generate and output a camera arrangement pattern that takes into account not only the imaging effect of the monitored object by the camera but also the above-described suppression effect. Further, according to the configuration of the present invention, the priority for each camera to be arranged can also be output.

情報処理装置の機能構成例を示すブロック図。The block diagram which shows the function structural example of information processing apparatus. コンピュータ装置のハードウェア構成例を示すブロック図。The block diagram which shows the hardware structural example of a computer apparatus. 2次元平面図の一例を示す図。The figure which shows an example of a two-dimensional top view. 仕様データの一例を示す図。The figure which shows an example of specification data. ステップS606を説明する図。The figure explaining step S606. 情報処理装置が行う処理のフローチャート。The flowchart of the process which information processing apparatus performs. ステップS604を説明する図。The figure explaining step S604. ステップS606を説明する図。The figure explaining step S606. ステップS609を説明する図。The figure explaining step S609.

以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。   Embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

[第1の実施形態]
本実施形態では、次のような構成を有する情報処理装置の一例について説明する。すなわちこの情報処理装置は、監視エリアを示すマップを構成する複数の小領域のうち、第1の監視効果を表す第1のスコアが規定値未満の小領域、第2の監視効果を表す第2のスコアが規定値未満の小領域、を順次選択する。そして、該選択した小領域と、該小領域についてユーザが設定した第1のスコアと、に基づくマップ上の位置を、該マップ上におけるカメラの配置位置として特定する。そして、配置位置におけるカメラの視界範囲内に属する各小領域の第1のスコアに対して、該配置位置における第1の監視効果を表す第1のスコアを加算する(第1の設定)。さらに、配置位置におけるカメラの視界範囲内に属する各小領域の第2のスコアに対して、該配置位置における第2の監視効果を表す第2のスコアを加算する(第2の設定)。そして、第1のスコアが規定値未満である小領域の選択順ごとに特定されるマップ上におけるカメラの配置レイアウトのうち1以上を、第1の設定第2の設定によって決定したマップにおける各小領域の第1のスコア及び第2のスコアに基づいて選択して出力する。先ず、本実施形態に係る情報処理装置の機能構成例について、図1のブロック図を用いて説明する。
[First Embodiment]
In the present embodiment, an example of an information processing apparatus having the following configuration will be described. That is, this information processing apparatus includes a small area in which a first score representing a first monitoring effect is less than a specified value among a plurality of small areas constituting a map indicating a monitoring area, and a second representing a second monitoring effect. A small area having a score of less than a specified value is sequentially selected. Then, the position on the map based on the selected small area and the first score set by the user for the small area is specified as the camera arrangement position on the map. Then, a first score representing the first monitoring effect at the arrangement position is added to the first score of each small area belonging to the camera view range at the arrangement position (first setting). Further, a second score representing the second monitoring effect at the arrangement position is added to the second score of each small region belonging to the camera view range at the arrangement position (second setting). Each small map in the map in which one or more of the camera layouts on the map specified for each selection order of the small areas whose first score is less than the specified value is determined by the first setting second setting. Select and output based on the first and second scores of the region. First, a functional configuration example of the information processing apparatus according to the present embodiment will be described with reference to the block diagram of FIG.

保持部101には、カメラや人員が配置される空間(対象空間)を俯瞰した2次元平面図が格納されている。保持部101に格納されている2次元平面図の一例を図3に示す。図3の2次元平面図は、壁や棚、通路のレイアウトが示されていると共に、人員のレイアウトも示されている。2次元平面図は2次元画像であり、各画素は、該画素が壁に属しているのか、棚に属しているのか、通路に属しているのか、といった属性を有する。なお、2次元平面図の各画素が壁に属しているのか、棚に属しているのか、通路に属しているのか、を区別する方法として他の方法を採用しても構わない。また、この2次元平面図には、該2次元平面図の縮尺を示すデータ(縮尺データ)が添付されており、実空間上の距離と2次元平面図上の距離との対応関係が既知であるものとする。しかし、2次元平面図上における距離が実空間においてどの程度の距離に相当するのか(若しくはその逆)を導出できるのであれば、如何なるデータを設けても構わない。   The holding unit 101 stores a two-dimensional plan view overlooking a space (target space) in which cameras and personnel are arranged. An example of a two-dimensional plan view stored in the holding unit 101 is shown in FIG. The two-dimensional plan view of FIG. 3 shows the layout of walls, shelves, and passages, as well as the layout of personnel. A two-dimensional plan view is a two-dimensional image, and each pixel has an attribute such as whether the pixel belongs to a wall, a shelf, or a passage. In addition, you may employ | adopt another method as a method of distinguishing whether each pixel of a two-dimensional plan view belongs to a wall, it belongs to a shelf, or it belongs to a passage. The two-dimensional plan view is attached with data (scale data) indicating the scale of the two-dimensional plan view, and the correspondence between the distance in the real space and the distance in the two-dimensional plan view is known. It shall be. However, any data may be provided as long as the distance on the two-dimensional plan view corresponds to the distance in real space (or vice versa).

保持部102には、上記の対象空間に既に設置されているカメラ(既存カメラ)の、上記2次元平面図上における位置及び方向を示す配置情報が格納されている。なお、保持部102は上記の対象空間における既存カメラの位置及び方向を格納しておき、上記の縮尺データを用いて2次元平面図上における位置及び方向に変換するようにしても構わない。   The holding unit 102 stores arrangement information indicating the position and direction of the camera (existing camera) already installed in the target space on the two-dimensional plan view. The holding unit 102 may store the position and direction of the existing camera in the target space, and may convert the position and direction into a position and direction on a two-dimensional plan view using the scale data.

既にカメラを設置済みの監視領域に対してレイアウト変更などを行う場合においては、既存カメラの配置を生かしたカメラ配置を行う。既存カメラがあっても再配置できる場合には、この情報は用いずに全て新規にカメラを配置する。   In the case of changing the layout or the like for a monitoring area in which cameras are already installed, the camera arrangement is performed by utilizing the arrangement of the existing cameras. If the existing camera can be rearranged, all the cameras are newly arranged without using this information.

保持部103には、対象空間においてカメラや人員が監視対象とするエリアに対応する上記2次元平面図上のエリア(監視エリア)を示す情報が格納されている。監視エリアは、2次元平面図の全体としても良いし、一部のエリアとしても良い。監視エリアは、例えば、ユーザが適宜設定することができる。以下では説明を簡単にするために、2次元平面図の全体エリアを監視エリアとする。   The holding unit 103 stores information indicating an area (monitoring area) on the two-dimensional plan view corresponding to an area to be monitored by a camera or personnel in the target space. The monitoring area may be the entire two-dimensional plan view or a part of the area. The monitoring area can be appropriately set by the user, for example. Hereinafter, in order to simplify the description, the entire area of the two-dimensional plan view is set as a monitoring area.

保持部104には、2次元平面図における監視エリアを複数の部分領域に分割した場合に、個々の部分領域について、カメラによる撮影の効果を示す値、カメラや人員による事象の抑止効果を示す値、これらの効果に基づく監視効果を示す値、が格納されている。以下に説明する処理では、対象空間にこれから配置するカメラの位置及び方向を、これらの値に基づいて決定する。   In the holding unit 104, when the monitoring area in the two-dimensional plan view is divided into a plurality of partial areas, a value indicating the effect of shooting by the camera and a value indicating the effect of suppressing the event by the camera or personnel for each partial area , Values indicating monitoring effects based on these effects are stored. In the process described below, the position and direction of the camera to be arranged in the target space are determined based on these values.

DB(データベース)105には、上記の既存カメラや、これから対象空間に配置するカメラの仕様データが格納されている。DB105に格納されている仕様データの一例を図4に示す。   The DB (database) 105 stores specification data of the above-described existing cameras and cameras to be arranged in the target space. An example of the specification data stored in the DB 105 is shown in FIG.

保持部106には、カメラや人員による監視により検出したいオブジェクト(監視対象オブジェクト)のサイズが格納されている。   The holding unit 106 stores the size of an object (monitoring target object) to be detected by monitoring by a camera or personnel.

生成部107は、DB105に仕様が格納されているカメラについて、該カメラからオブジェクト(保持部106が保持するサイズを有するオブジェクト)までの距離と該カメラによる撮影の効果との関係を表す関数である撮影効果関数を生成する。   The generation unit 107 is a function that represents the relationship between the distance from the camera to the object (the object having the size held by the holding unit 106) and the effect of shooting by the camera for the camera whose specifications are stored in the DB 105. A shooting effect function is generated.

生成部108は、DB105に仕様が格納されているカメラについて、該カメラからオブジェクト(保持部106が保持するサイズを有するオブジェクト)までの距離と該カメラによる抑止の効果との関係を表す関数である抑止効果関数を生成する。   The generation unit 108 is a function that represents the relationship between the distance from the camera to the object (the object having the size held by the holding unit 106) and the effect of suppression by the camera for the camera whose specifications are stored in the DB 105. Generate a deterrent effect function.

生成部109は、2次元平面図において配置が規定されているそれぞれの人員について、該人員からオブジェクト(保持部106が保持するサイズを有するオブジェクト)までの距離と該人員による抑止の効果との関係を表す関数である抑止効果関数を生成する。   The generation unit 109, for each person whose arrangement is defined in the two-dimensional plan view, the relationship between the distance from the person to the object (the object having the size held by the holding unit 106) and the deterrence effect by the person A deterrence effect function that is a function representing

生成部110は、対象空間にこれから配置しようとするカメラの配置パターン(配置位置及び方向のパターン)を複数生成する。   The generation unit 110 generates a plurality of arrangement patterns (arrangement position and direction patterns) of cameras to be arranged in the target space.

選択部111は、生成部110が生成した複数の配置パターンから監視効果が高い順に1以上の配置パターンを選択する。提示部112は、選択部111が選択した配置パターンを出力する。制御部199は、上記の各機能部の動作制御を行う。   The selection unit 111 selects one or more arrangement patterns in descending order of the monitoring effect from the plurality of arrangement patterns generated by the generation unit 110. The presentation unit 112 outputs the arrangement pattern selected by the selection unit 111. The control unit 199 performs operation control of each functional unit described above.

次に、既存カメラが配置された対象空間に新たに1以上のカメラを設置する場合に、どのような配置パターンがあるのかをユーザに提示するために情報処理装置が行う処理について、同処理のフローチャートを示す図6に沿って説明する。   Next, when one or more cameras are newly installed in the target space where the existing cameras are arranged, the processing performed by the information processing apparatus to present to the user what kind of arrangement pattern is present Description will be made with reference to FIG. 6 showing a flowchart.

ステップS601では、制御部199は、保持部101から2次元平面図(管理エリア図面)を読み出す。ステップS602では、制御部199は、保持部103から管理エリアを示す情報を読み出し、該情報に基づいて2次元平面図上に監視エリアを設定する。上記のとおり、本実施形態では、2次元平面図の全体エリアを監視エリアとする。ステップS603では、制御部199は、DB105から各カメラの仕様データを読み出す。   In step S601, the control unit 199 reads a two-dimensional plan view (management area drawing) from the holding unit 101. In step S602, the control unit 199 reads information indicating the management area from the holding unit 103, and sets a monitoring area on the two-dimensional plan view based on the information. As described above, in this embodiment, the entire area of the two-dimensional plan view is the monitoring area. In step S603, the control unit 199 reads the specification data of each camera from the DB 105.

ステップS604では、制御部199は、図7(b)に例示するような管理効果テーブルを初期化する。具体的には、図7(a)に示す如く、監視エリアを複数の部分領域(メッシュ)に分割し、該部分領域における撮影効果値及び抑止効果値を0に初期化する。監視効果テーブルは、このような各部分領域について、監視エリアにおける該部分領域の座標値(部分領域の中心の座標値)と、該部分領域における撮影効果値及び抑止効果値と、が関連づけて登録されたテーブルである。   In step S604, the control unit 199 initializes a management effect table as illustrated in FIG. Specifically, as shown in FIG. 7A, the monitoring area is divided into a plurality of partial areas (mesh), and the photographing effect value and the suppression effect value in the partial area are initialized to zero. In the monitoring effect table, for each partial area, the coordinate value of the partial area in the monitoring area (the coordinate value of the center of the partial area) and the shooting effect value and the suppression effect value in the partial area are registered in association with each other. It is a table that was made.

ステップS605では、制御部199は、保持部102から各既存カメラの配置情報を読み出す。ステップS606では、生成部107及び生成部108によって、既存カメラごとに撮影効果関数及び抑止効果関数を生成し、該生成した撮影効果関数及び抑止効果関数を用いて、監視エリアにおいて該当する部分領域における撮影効果値、抑止効果値を求める。   In step S <b> 605, the control unit 199 reads the arrangement information of each existing camera from the holding unit 102. In step S606, the generation unit 107 and the generation unit 108 generate a shooting effect function and a suppression effect function for each existing camera, and use the generated shooting effect function and the suppression effect function in the corresponding partial area in the monitoring area. Obtain the shooting effect value and the suppression effect value.

先ず、生成部107による撮影効果関数の生成処理について説明する。ここでは、既存カメラAの撮影効果関数を生成する場合について説明する。図5(a)に示す如く、既存カメラAの視界の中心位置にオブジェクトが置かれた場合における該既存カメラAからオブジェクトまでの距離をd(m)、既存カメラAの水平方向画角(DB105に登録されている既存カメラAの仕様)をθ、とする。このとき、既存カメラAの視界の幅w(m)はw=2×d×tan(θ/2)として求めることができる。なお、既存カメラAがズーム機能を有する場合、水平方向画角θには、既存カメラAが有する最大の画角が設定される。   First, shooting effect function generation processing by the generation unit 107 will be described. Here, the case where the imaging | photography effect function of the existing camera A is produced | generated is demonstrated. As shown in FIG. 5A, the distance from the existing camera A to the object when the object is placed at the center position of the field of view of the existing camera A is d (m), and the horizontal angle of view of the existing camera A (DB105 Is the specification of the existing camera A registered in (1). At this time, the visual field width w (m) of the existing camera A can be obtained as w = 2 × d × tan (θ / 2). When the existing camera A has a zoom function, the maximum field angle of the existing camera A is set as the horizontal field angle θ.

既存カメラAによる撮影映像がフルHDであれば、wは1920画素に相当する。そのため、例えば、保持部106に格納されているオブジェクトのサイズが0.1mであるとすると、既存カメラAによる撮影映像上の該オブジェクトのサイズは(1920×0.1/w)画素として求めることができる。このように、既存カメラAからオブジェクトまでの距離に対応する、該既存カメラAによる撮影映像上の該オブジェクトのサイズが分かるので、既存カメラAの撮影効果関数fA(d)として以下のような性質を有する関数を生成する。   If the video shot by the existing camera A is full HD, w corresponds to 1920 pixels. Therefore, for example, if the size of the object stored in the holding unit 106 is 0.1 m, the size of the object on the captured image by the existing camera A is calculated as (1920 × 0.1 / w) pixels. Can do. As described above, since the size of the object on the video image captured by the existing camera A corresponding to the distance from the existing camera A to the object is known, the following characteristics are obtained as the shooting effect function fA (d) of the existing camera A. Generate a function with

撮影映像上におけるオブジェクトのサイズが第1のサイズ(例えば20画素)以上となるような距離dの範囲においては、fA(d)=1
撮影映像上におけるオブジェクトのサイズが第2のサイズ(例えば5画素)未満となるような距離dの範囲においては、fA(d)=0
撮影映像上におけるオブジェクトのサイズが第1のサイズ未満及び第2のサイズ以上となるような距離dの範囲においては、fA(d)=距離dが増加すると単調減少する(最大値1,最小値0)
このような撮影効果関数の一例を図5(b)に示す。なお、既存カメラAがHDカメラの場合、既存カメラAによる撮影映像の解像度は変わるため、撮影効果関数は図5(c)のような関数となる。
FA (d) = 1 in the range of the distance d such that the size of the object on the photographed video is not less than the first size (for example, 20 pixels).
In the range of the distance d such that the size of the object on the photographed video is less than the second size (for example, 5 pixels), fA (d) = 0
In the range of the distance d such that the size of the object on the photographed video is less than the first size and greater than or equal to the second size, fA (d) = monotonically decreases as the distance d increases (maximum value 1, minimum value). 0)
An example of such a shooting effect function is shown in FIG. Note that when the existing camera A is an HD camera, the resolution of the captured video by the existing camera A changes, so the shooting effect function is a function as shown in FIG.

次に、既存カメラAの抑止効果関数fB(d)の生成について説明する。既存カメラAの抑止効果関数fB(d)の生成方法については基本的には撮影効果関数と同様であるが、被監視者には既存カメラAの解像度や画角などの正確な仕様は解らないため、撮影効果の及ぶ範囲よりも広くなるようにする。例えば、撮影効果関数を求める際に用いた水平方向画角θをより広くしたり(例えば+3°)、垂直方向画角についてもより広くしたりする。また、抑止効果関数fB(d)を求めるための画角などのパラメータを、仕様データとは別個にDB105に登録しておいてもよい。   Next, generation of the deterrence effect function fB (d) of the existing camera A will be described. The generation method of the deterrence effect function fB (d) of the existing camera A is basically the same as the shooting effect function, but the person to be monitored does not know the exact specifications of the existing camera A such as resolution and angle of view. Therefore, it is made wider than the range where the photographing effect is covered. For example, the horizontal angle of view θ used when obtaining the shooting effect function is made wider (for example, + 3 °), and the vertical direction angle of view is made wider. Further, parameters such as an angle of view for obtaining the suppression effect function fB (d) may be registered in the DB 105 separately from the specification data.

以上説明した撮影効果関数fA(d)及び抑止効果関数fB(d)を、DB105に仕様が登録されている既存カメラごとに求める。そして、それぞれの既存カメラの撮影効果関数fA(d)及び抑止効果関数fB(d)を求めると、次に生成部107及び生成部108は既存カメラごとに次のような処理を行う。   The shooting effect function fA (d) and the suppression effect function fB (d) described above are obtained for each existing camera whose specifications are registered in the DB 105. When the shooting effect function fA (d) and the suppression effect function fB (d) of each existing camera are obtained, the generation unit 107 and the generation unit 108 perform the following process for each existing camera.

生成部107は、監視エリア上における着目既存カメラの位置及び方向(ステップS605で取得済み)と着目既存カメラの画角とを用いて該監視エリアにおける該着目既存カメラの視界を特定する。そして生成部107は、該特定した視界内のそれぞれの部分領域について、該部分領域の撮影効果値に、着目既存カメラからの距離dに応じた撮影効果関数の関数値fA(d)を加算して該撮影効果値を更新する。   The generation unit 107 identifies the field of view of the target existing camera in the monitoring area using the position and direction of the target existing camera on the monitoring area (obtained in step S605) and the angle of view of the target existing camera. Then, the generation unit 107 adds a function value fA (d) of the shooting effect function corresponding to the distance d from the existing camera of interest to the shooting effect value of the partial area for each partial area in the identified field of view. To update the photographing effect value.

生成部108は、図8に示す如く、監視エリア上に着目既存カメラの位置を中心とし且つ規定長の半径を有する円領域を設定し、該円領域内で該着目既存カメラから撮影可能な部分領域の数を計数する。つまり、円領域内の全ての部分領域のうち障害物によって着目既存カメラが目視できない部分領域は除外した部分領域の総数を計数する。ある視点から対象部分領域が目視可能か否かの判断については、例えば、監視エリア上の視点の位置と対象部分領域との間を通る線分が、属性が壁や棚といった障害物である画素を通る場合は、視点から対象部分領域は目視不可能と判断する。一方、監視エリア上の視点の位置と対象部分領域との間を通る線分が、属性が壁や棚といった障害物である画素を通らない場合は、視点から対象部分領域は目視可能と判断する。そして生成部108は、この計数した総数に基づいて認知スコアを求める。例えば総数を100で割った結果を認知スコアとする。総数が100以上の場合には、認知スコア=1.0とする。そして生成部108は、着目既存カメラの抑止効果関数の最大値を(最大値×認知スコア)に補正する。そして生成部108は、監視エリア上における着目既存カメラの位置及び方向(ステップS605で取得済み)と着目既存カメラの画角とを用いて該監視エリアにおける該着目既存カメラの視界を特定する。そして生成部107は、該特定した視界内のそれぞれの部分領域について、該部分領域の抑止効果値に、着目既存カメラからの距離dに応じた抑止効果関数(最大値が認知スコアを用いて補正済み)の関数値fB(d)を加算して該抑止効果値を更新する。なお、対象空間に既存カメラが1台も設置されていない場合、全ての部分領域の撮影効果値及び抑止効果値は0となっている。   As shown in FIG. 8, the generation unit 108 sets a circular area centered on the position of the existing camera of interest and having a specified length radius on the monitoring area, and a portion that can be photographed from the existing camera of interest within the circular area Count the number of regions. That is, the total number of partial areas excluding the partial areas that cannot be viewed by the existing camera of interest due to obstacles among all the partial areas in the circular area is counted. For determining whether or not the target partial area is visible from a certain viewpoint, for example, a line segment passing between the position of the viewpoint on the monitoring area and the target partial area is a pixel whose attribute is an obstacle such as a wall or shelf When passing through, it is determined that the target partial area is not visible from the viewpoint. On the other hand, if the line segment that passes between the position of the viewpoint on the monitoring area and the target partial area does not pass through pixels that are obstacles such as walls and shelves, the target partial area is determined to be visible from the viewpoint. . Then, the generation unit 108 obtains a recognition score based on the counted total number. For example, a result obtained by dividing the total number by 100 is defined as a recognition score. When the total number is 100 or more, the recognition score = 1.0. Then, the generation unit 108 corrects the maximum value of the suppression effect function of the existing camera of interest to (maximum value × recognition score). Then, the generation unit 108 identifies the field of view of the target existing camera in the monitoring area using the position and direction of the target existing camera on the monitoring area (acquired in step S605) and the angle of view of the target existing camera. Then, for each partial area in the identified field of view, the generation unit 107 uses a suppression effect function corresponding to the distance d from the existing camera of interest (the maximum value is corrected using the recognition score). The function value fB (d) of (completed) is added to update the suppression effect value. When no existing camera is installed in the target space, the shooting effect value and the suppression effect value of all partial areas are zero.

ステップS607では、生成部109はそれぞれの人員について抑止効果関数を生成する。人員に対する抑止効果関数は、例えば、距離=0の場合には関数値1.0となり、距離=dth(=規定の値)の場合には関数値0.0となるような単調減少関数である。そして生成部109は、それぞれの人員について、監視エリア内の部分領域のうち該人員が目視可能な部分領域の抑止効果値に、該人員について求めた抑止効果関数において該部分領域に対応する関数値を加算することで該抑止効果値を更新する。   In step S607, the generation unit 109 generates a deterrence effect function for each person. The deterrence effect function for personnel is, for example, a monotonically decreasing function that has a function value of 1.0 when distance = 0 and a function value of 0.0 when distance = dth (= specified value). . Then, the generation unit 109 sets, for each personnel, the deterrence effect value of the partial region that is visible to the personnel among the partial regions in the monitoring area, and the function value corresponding to the partial region in the deterrence effect function obtained for the personnel. Is added to update the deterrence effect value.

ステップS608〜S611の処理を、対象空間にこれから配置するカメラの配置パターンごとに行うことで、該カメラの複数の配置パターンを生成する。ステップS608では、ステップS607の終了時点で確定した撮影効果値及び抑止効果値のコピーを作成し、ステップS609〜S611では、このコピーに対して処理を行う。カメラの配置は最初の1台の置き方によって多数の配置パターンが生成できるため、最初の1台の決定方法を複数用意しておき、この数だけステップS608〜S611の処理を繰り返すことで複数の配置パターンを生成する。   By performing the processing of steps S608 to S611 for each arrangement pattern of cameras to be arranged in the target space, a plurality of arrangement patterns of the cameras are generated. In step S608, a copy of the shooting effect value and the suppression effect value determined at the end of step S607 is created. In steps S609 to S611, processing is performed on this copy. Since the arrangement of the camera can generate a large number of arrangement patterns depending on how the first one is placed, a plurality of determination methods for the first one are prepared, and the processing of steps S608 to S611 is repeated for this number. Generate a placement pattern.

ステップS609では、生成部110は、監視エリア内の撮影効果値に基づいて、対象空間にこれから配置するカメラの配置パターンを生成する。ステップS609における処理の詳細について、図9(a)のフローチャートを用いて説明する。   In step S609, the generation unit 110 generates an arrangement pattern of cameras to be arranged in the target space based on the shooting effect value in the monitoring area. Details of the processing in step S609 will be described with reference to the flowchart of FIG.

ステップS901では、生成部110は、監視エリア内のそれぞれの部分領域のうち撮影効果値が規定値未満となる部分領域が存在するか否かを判断する。この判断の結果、存在する場合には、処理はステップS902に進み、存在しない場合には、処理はステップS610に進む。   In step S901, the generation unit 110 determines whether or not there is a partial region in which the shooting effect value is less than the specified value among the partial regions in the monitoring area. As a result of the determination, if it exists, the process proceeds to step S902. If it does not exist, the process proceeds to step S610.

ステップS902では、生成部110は、撮影効果値が規定値未満となる部分領域のうち未選択の1つを選択部分領域として選択する(実際には、選択部分領域の座標位置を取得する)。選択部分領域の選択方法には様々な方法がある。例えば、既存カメラがある場合は、規定値との差が最大となる撮影効果値の部分領域を選択しても良い。撮影効果値が規定値未満となる部分領域が複数存在する場合、該複数の部分領域のそれぞれについて、監視エリアの4隅からの距離を求め、求めた距離が最小となる部分領域を選択しても良い。また、撮影効果値が規定値未満となる部分領域が複数存在する場合、該複数の部分領域のそれぞれについて、監視エリアの中心位置からの距離を求め、求めた距離が最大若しくは最小となる部分領域を選択しても良い。このようなステップS902における部分領域の選択方法については予め設定されているものとする。   In step S902, the generation unit 110 selects an unselected one of the partial areas whose photographing effect value is less than the specified value as the selected partial area (actually, obtains the coordinate position of the selected partial area). There are various methods for selecting the selected partial region. For example, when there is an existing camera, a partial area of the shooting effect value that maximizes the difference from the specified value may be selected. When there are a plurality of partial areas where the shooting effect value is less than the specified value, the distance from the four corners of the monitoring area is obtained for each of the plurality of partial areas, and the partial area where the obtained distance is the minimum is selected. Also good. Further, when there are a plurality of partial areas where the shooting effect value is less than the specified value, the distance from the central position of the monitoring area is obtained for each of the plurality of partial areas, and the partial area where the obtained distance is maximum or minimum May be selected. It is assumed that the partial area selection method in step S902 is set in advance.

ステップS903では、生成部110は、DB105に仕様が格納されているカメラのうち使用可能なカメラとして指定されているカメラを選択カメラとして選択し、該選択カメラの撮影効果関数において所望の撮影効果値となる距離drを取得する。例えば図9(b)に示す如く、所望の撮影効果値=0.8である場合、撮影効果関数において関数値が0.8となる距離drを特定する。そして生成部110は、図9(c)に示す如く、選択部分領域の位置を中心とし、ステップS903で取得した距離drを半径とする円を求め、この円の内側において円周近傍にカメラの配置位置及び方向の候補を設定する。   In step S903, the generation unit 110 selects a camera designated as a usable camera among the cameras whose specifications are stored in the DB 105 as a selected camera, and a desired shooting effect value in the shooting effect function of the selected camera. To obtain the distance dr. For example, as shown in FIG. 9B, when the desired shooting effect value = 0.8, the distance dr with which the function value is 0.8 in the shooting effect function is specified. Then, as shown in FIG. 9C, the generation unit 110 obtains a circle having the radius of the distance dr acquired in step S903 with the position of the selected partial region as the center, and inside the circle near the circumference of the camera. Placement position and direction candidates are set.

ここではカメラの配置位置及び方向に制約を付けることで、候補を設定する。例えば、監視エリアにおけるカメラの向きを水平方向若しくは垂直方向とする、通路であれば中心に置く、最近傍のカメラとの距離を一定値以上とする、などの制約がある。いずれにしても、カメラの視界に選択部分領域が含まれている必要がある。   Here, candidates are set by constraining the camera placement position and direction. For example, there are restrictions such that the direction of the camera in the monitoring area is the horizontal direction or the vertical direction, if it is a passage, it is placed in the center, and the distance from the nearest camera is a certain value or more. In any case, the selected partial area needs to be included in the field of view of the camera.

ステップS904で生成部110は、ステップS903で設定した配置位置及び方向の候補にカメラを配置した場合に、監視エリアにおいて該当する部分領域の、該カメラからの距離に応じた撮影効果値及び抑止効果値を、ステップS606と同様にして求める。   In step S904, when the generation unit 110 arranges the camera at the arrangement position and direction candidates set in step S903, the imaging effect value and the suppression effect corresponding to the distance from the camera of the corresponding partial region in the monitoring area. The value is obtained in the same manner as in step S606.

ステップS610では、生成部110は、監視エリア内のそれぞれの部分領域のうち抑止効果値が規定値未満となる部分領域が存在すれば、抑止効果値が規定値未満となる部分領域のうち未選択の1つを選択部分領域として選択する。実際には、選択部分領域の座標位置を取得する。選択方法は上記のステップS902と同様である。そして生成部110は、DB105に仕様が格納されているカメラのうち使用可能なカメラとして指定されているカメラを選択カメラとして選択し、該選択カメラの抑止効果関数において所望の撮影効果値となる距離drを取得する。そして生成部110は、選択部分領域の位置を中心とし、取得した距離drを半径とする円を求め、この円内において円周近傍にカメラの配置位置及び方向の候補を設定する。この設定方法については上記のステップS903と同様である。そして生成部110はステップS904と同様の処理を行う。カメラの撮影効果は最小でも良いため、例えばVGA解像度の低下価格で解像度の低いカメラを選択することでカメラのトータルコストを抑えるように配置していくことが可能になる。   In step S610, the generation unit 110, if there is a partial region whose deterrence effect value is less than the specified value among the respective partial regions in the monitoring area, is not selected among the partial regions whose deterrence effect value is less than the specified value. Is selected as a selected partial region. Actually, the coordinate position of the selected partial region is acquired. The selection method is the same as in step S902 above. Then, the generation unit 110 selects a camera designated as a usable camera among the cameras whose specifications are stored in the DB 105 as a selected camera, and a distance that provides a desired shooting effect value in the suppression effect function of the selected camera. Get dr. Then, the generation unit 110 obtains a circle centered on the position of the selected partial region and having the acquired distance dr as a radius, and sets a camera placement position and direction candidate in the vicinity of the circumference in this circle. This setting method is the same as step S903 described above. Then, the generation unit 110 performs the same process as in step S904. Since the shooting effect of the camera may be minimal, for example, by selecting a camera with a low resolution at a reduced price of the VGA resolution, the camera can be arranged so as to reduce the total cost of the camera.

処理がステップS612に進んだ時点で、複数の配置パターンが生成されているので、ステップS612では選択部111は、この複数の配置パターンのうち1つ以上を選択する。選択基準については特定の選択基準に限らない。例えば、配置パターンごとに、該配置パターンに対応する監視エリア上の撮影効果値及び抑止効果値の総和を監視効果として求め、該求めた総和の大きい順(監視効果の高い順)に上位1つ以上の配置パターンを選択するようにしても良い。   Since a plurality of arrangement patterns are generated when the process proceeds to step S612, the selection unit 111 selects one or more of the plurality of arrangement patterns in step S612. The selection criteria are not limited to specific selection criteria. For example, for each arrangement pattern, the sum of the shooting effect value and the suppression effect value on the monitoring area corresponding to the arrangement pattern is obtained as the monitoring effect, and the top one is calculated in descending order of the obtained sum (in descending order of the monitoring effect). The above arrangement pattern may be selected.

ステップS613では、選択部111は、ステップS612で選択された配置パターンごとに、監視エリア内に配置したそれぞれのカメラの優先順位を求める。例えば、着目配置パターンについて確定した監視エリア内の各部分領域の撮影効果値及び抑止効果値の総和S1を求める。監視エリア内に着目配置パターンに従って設置したカメラのうち未選択の1つを選択カメラとして選択、選択カメラを配置しなかった場合における監視エリア内の全ての撮影効果値及び抑止効果値の総和S2の計算、の一連の処理をそれぞれのカメラについて行う。そして、S1との差がより大きいS2を求めたときに選択カメラとして選択されたカメラがより重要度(優先順位)が高いカメラとなる。   In step S613, the selection unit 111 obtains the priority order of each camera arranged in the monitoring area for each arrangement pattern selected in step S612. For example, the sum S1 of the photographing effect value and the suppression effect value of each partial area in the monitoring area determined for the target arrangement pattern is obtained. An unselected one of the cameras installed in the monitoring area according to the target arrangement pattern is selected as the selected camera, and the sum S2 of all the shooting effect values and the suppression effect values in the monitoring area when the selected camera is not arranged. A series of calculations is performed for each camera. The camera selected as the selected camera when S2 having a larger difference from S1 is obtained becomes a camera with higher importance (priority order).

ステップS614では、提示部112は、ステップS612で選択された配置パターン及び該配置パターンについてステップS613で求めた各カメラの優先順位、を出力する。提示部112による配置パターン及び優先順位の出力先及び出力形態については特定の出力先及び出力形態に限らない。例えば、2次元平面図上にカメラを表すオブジェクトを配置パターンに応じたレイアウトで配置し、且つ各カメラのオブジェクトの表示形態(色、サイズなど)を優先順位に応じて変えたものを、監視効果の高い順に並べて表示装置209に一覧表示する。もちろん、表示順はこれに限らない。なお、優先順位は文字列として表示しても良い。   In step S614, the presentation unit 112 outputs the arrangement pattern selected in step S612 and the priority order of each camera obtained in step S613 for the arrangement pattern. The output destination and output form of the arrangement pattern and priority by the presentation unit 112 are not limited to a specific output destination and output form. For example, if the object representing the camera is arranged in a layout according to the arrangement pattern on the two-dimensional plan view, and the display form (color, size, etc.) of the object of each camera is changed according to the priority order, the monitoring effect A list is displayed on the display device 209 in descending order. Of course, the display order is not limited to this. The priority order may be displayed as a character string.

このように、本実施形態によれば、監視領域の監視カメラの配置パターンを複数生成でき、かつ各配置パターンにおけるカメラの優先順位を付けることが可能となる。また、優先順位を提示することによって、全体のコストが合わずカメラの台数を減らしたい場合に、優先順位の低いカメラを使用者が知ることができ、手動で削除や別のカメラに置き換えるなどを試す構成を提供できるようになる。   Thus, according to this embodiment, it is possible to generate a plurality of surveillance camera placement patterns in the surveillance area and to assign camera priorities in each placement pattern. Also, by presenting the priority order, if the overall cost does not match and you want to reduce the number of cameras, the user can know the camera with the lower priority order, delete it manually, replace it with another camera, etc. It will be possible to provide a configuration to try.

<変形例>
図1に示した各機能部は何れもハードウェアで構成しても良いが、保持部101〜104、106、DB105をメモリで実装し、それ以外の機能部をコンピュータプログラムで実装するようにしても構わない。このような場合、保持部101〜104、106、DB105として機能するメモリを有し、且つこのコンピュータプログラムを実行可能なコンピュータ装置は、上記の情報処理装置に適用可能である。情報処理装置に適用可能なコンピュータ装置のハードウェア構成例について、図2のブロック図を用いて説明する。
<Modification>
Although each of the functional units shown in FIG. 1 may be configured by hardware, the holding units 101 to 104, 106, and the DB 105 are mounted by a memory, and other functional units are mounted by a computer program. It doesn't matter. In such a case, a computer device having a memory functioning as the holding units 101 to 104, 106 and the DB 105 and capable of executing this computer program is applicable to the information processing device described above. A hardware configuration example of a computer apparatus applicable to the information processing apparatus will be described with reference to the block diagram of FIG.

CPU201は、ROM202やRAM203に格納されているコンピュータプログラムやデータを用いて処理を実行する。これによりCPU201は、コンピュータ装置全体の動作制御を行うと共に、コンピュータ装置を適用する情報処理装置が行うものとして上述した各処理を実行若しくは制御する。   The CPU 201 executes processing using computer programs and data stored in the ROM 202 and RAM 203. As a result, the CPU 201 controls the operation of the entire computer apparatus and executes or controls each process described above as performed by the information processing apparatus to which the computer apparatus is applied.

ROM202には、コンピュータ装置の書き換え不要の設定データやブートプログラムなどが格納されている。RAM203は、NCU(Network Control Unit)207によって外部から受信したデータ、外部記憶装置206からロードされたコンピュータプログラムやデータを格納するためのエリアを有する。更にRAM203は、CPU201が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM203は各種のエリアを適宜提供することができる。   The ROM 202 stores setting data that does not require rewriting of the computer device, a boot program, and the like. The RAM 203 has an area for storing data received from the outside by an NCU (Network Control Unit) 207 and computer programs and data loaded from the external storage device 206. Further, the RAM 203 has a work area used when the CPU 201 executes various processes. Thus, the RAM 203 can provide various areas as appropriate.

NCU207は、外部の機器との間のデータ通信を制御するためのものである。例えばNCU207は、RS232CやUSB、IEEE1394、P1284、SCSI、モデム、Ethernetなどの有線通信や、Bluetooth(登録商標)、赤外線通信、IEEE802.11b等の無線通信に応じたものである。なお、外部の機器との間のデータ通信を行うための構成であれば、NCU207に変えて若しくは加えて他の構成を採用しても良い。   The NCU 207 is for controlling data communication with an external device. For example, the NCU 207 corresponds to wired communication such as RS232C, USB, IEEE1394, P1284, SCSI, modem, Ethernet, or wireless communication such as Bluetooth (registered trademark), infrared communication, IEEE802.11b. Note that other configurations may be employed instead of or in addition to the NCU 207 as long as the configuration is for performing data communication with an external device.

入力装置204は、マウスやキーボードなどのユーザインターフェースにより構成されており、ユーザが操作することで各種の指示をCPU201に対して入力することができる。なお、コンピュータ装置への情報入力や指示入力の方法には様々な方法が採用可能であり、例えば、音声入力やジェスチャー操作入力などにより情報入力や指示入力を行っても良い。   The input device 204 is configured by a user interface such as a mouse or a keyboard, and can input various instructions to the CPU 201 when operated by the user. Note that various methods can be employed for information input and instruction input to the computer device. For example, information input or instruction input may be performed by voice input or gesture operation input.

外部記憶装置206は、ハードディスクドライブ装置に代表される大容量情報記憶装置であり、例えば、保持部101〜104、106、DB105としても機能する。外部記憶装置206には、OS(オペレーティングシステム)や、情報処理装置が行うものとして上述した各処理をCPU201に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。このコンピュータプログラムには、図1の生成部107〜110、選択部111、提示部112の機能をCPU201に実現させるためのコンピュータプログラムも含まれている。また、外部記憶装置206に保存されているデータには、上記の説明において既知の情報として取り扱った情報も含まれている。外部記憶装置206に保存されているコンピュータプログラムやデータは、CPU201による制御に従って適宜RAM203にロードされ、CPU201による処理対象となる。   The external storage device 206 is a large-capacity information storage device represented by a hard disk drive device, and also functions as, for example, the holding units 101 to 104 and 106 and the DB 105. The external storage device 206 stores an OS (Operating System) and computer programs and data for causing the CPU 201 to execute or control the above-described processes performed by the information processing apparatus. This computer program also includes a computer program for causing the CPU 201 to realize the functions of the generation units 107 to 110, the selection unit 111, and the presentation unit 112 in FIG. The data stored in the external storage device 206 includes information handled as known information in the above description. Computer programs and data stored in the external storage device 206 are appropriately loaded into the RAM 203 under the control of the CPU 201 and are processed by the CPU 201.

なお、外部記憶装置206は、フロッピーディスク、光ディスク、磁気ディスク、磁気テープ、不揮発性のメモリカード等の記録媒体に対して情報を読み書き可能な装置であっても良い。   The external storage device 206 may be a device that can read and write information from and to a recording medium such as a floppy disk, an optical disk, a magnetic disk, a magnetic tape, and a nonvolatile memory card.

なお、外部記憶装置206から取得するものとして説明したコンピュータプログラムやデータの一部若しくは全部をNCU207を介して外部の機器から取得するようにしても構わない。   Note that part or all of the computer program and data described as being acquired from the external storage device 206 may be acquired from an external device via the NCU 207.

GPU208は、バス205を経由して、与えられた表示指示や計算指示に従い、計算を行って表示内容の画像の作成や表示位置などの計算を行い、その計算結果を表示装置209へ送って描画させる。   The GPU 208 performs calculation in accordance with a given display instruction or calculation instruction via the bus 205 to generate an image of display contents or a display position, and sends the calculation result to the display device 209 for drawing. Let

表示装置209は、CRTや液晶画面などにより構成されており、CPU201やGPU208による処理結果を画像や文字などでもって表示することができる。なお、入力装置204と表示装置209とを一致化させてタッチパネル画面を構成しても良い。   The display device 209 is configured by a CRT, a liquid crystal screen, and the like, and can display processing results by the CPU 201 and the GPU 208 with images and characters. Note that the touch panel screen may be configured by matching the input device 204 and the display device 209.

CPU201、ROM202、RAM203、NCU207、入力装置204、外部記憶装置206、GPU208は何れも、アドレスバス、データバスなどにより構成されているバス205に接続されている。   The CPU 201, ROM 202, RAM 203, NCU 207, input device 204, external storage device 206, and GPU 208 are all connected to a bus 205 configured by an address bus, a data bus, and the like.

[第2の実施形態]
第1の実施形態では、2次元平面図におけるカメラの配置を前提としていたが、3次元立体図におけるカメラの配置にも第1の実施形態は同様に適用できる。本実施形態の場合、3次元立体図は、カメラや人員による監視対象の空間の各3次元位置の上記属性を保持しており、カメラや人員の視界は水平方向画角及び垂直方向画角を有しているため、第1の実施形態で行った処理を高さ方向について同様に行えばよい。
[Second Embodiment]
In the first embodiment, it is assumed that the camera is arranged in a two-dimensional plan view. However, the first embodiment can be similarly applied to the arrangement of a camera in a three-dimensional stereoscopic view. In the case of the present embodiment, the three-dimensional solid view holds the above-described attributes of the respective three-dimensional positions in the space to be monitored by the camera or personnel, and the field of view of the camera or personnel has a horizontal angle of view and a vertical angle of view. Therefore, the processing performed in the first embodiment may be similarly performed in the height direction.

[第3の実施形態]
第1の実施形態では、認知スコアは、既存カメラが目視可能な部分領域の総数に基づくものであったが、これに加えて、既存カメラの寸法の情報を加味したものであってもよい。例えば、カメラの基準サイズを予め設定しておき、該基準サイズに対する既存カメラのサイズの比率と上記総数との積を認知スコアとしても良い。
[Third Embodiment]
In the first embodiment, the recognition score is based on the total number of partial areas that can be viewed by the existing camera. However, in addition to this, information on the dimensions of the existing camera may be added. For example, a reference size of the camera is set in advance, and the product of the ratio of the size of the existing camera to the reference size and the total number may be used as the recognition score.

[第4の実施形態]
第1の実施形態では、ステップS612においては撮影効果値及び抑止効果値の総和が高い配置パターンを選択したが、各カメラの価格や撮影で必要となるデータストレージのサイズをコストとして計算し、コスト対効果の比が高いものを選んでも良い。
[Fourth Embodiment]
In the first embodiment, an arrangement pattern having a high sum of the shooting effect value and the suppression effect value is selected in step S612. However, the price of each camera and the size of the data storage required for shooting are calculated as costs. You may choose one with a high ratio of effectiveness.

[第5の実施形態]
撮影効果関数や抑止効果関数のような関数の代わりに、距離とスコア(上記の関数値に相当)との関係を登録したテーブルを用いても構わない。また、人員は必ず対象空間に配置することに限らず、適宜省いても良い。また、以上説明した実施形態や変形例は、その一部若しくは全部を組み合わせて使用しても構わない。
[Fifth Embodiment]
Instead of a function such as a shooting effect function or a deterrent effect function, a table in which the relationship between distance and score (corresponding to the above function value) is registered may be used. Further, the personnel are not necessarily arranged in the target space, and may be omitted as appropriate. Moreover, you may use combining embodiment or the modification demonstrated above in part or all.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

107:生成部 108:生成部 109:生成部 110:生成部 111:選択部 112:提示部   107: Generation unit 108: Generation unit 109: Generation unit 110: Generation unit 111: Selection unit 112: Presentation unit

Claims (10)

監視エリアを示すマップを構成する複数の小領域のうち、第1の監視効果を表す第1のスコアが規定値未満の小領域、第2の監視効果を表す第2のスコアが規定値未満の小領域、を順次選択する選択手段と、
前記選択手段が選択した小領域と、該小領域についてユーザが設定した前記第1のスコアと、に基づく前記マップ上の位置を、該マップ上におけるカメラの配置位置として特定する特定手段と、
前記配置位置におけるカメラの視界範囲内に属する各小領域の前記第1のスコアに対して、該配置位置における前記第1の監視効果を表す前記第1のスコアを加算する第1の設定手段と、
前記配置位置におけるカメラの視界範囲内に属する各小領域の前記第2のスコアに対して、該配置位置における前記第2の監視効果を表す前記第2のスコアを加算する第2の設定手段と、
前記第1のスコアが規定値未満である小領域の選択順ごとに前記特定手段によって特定される前記マップ上におけるカメラの配置レイアウトのうち1以上を、前記第1の設定手段および前記第2の設定手段によって決定した前記マップにおける各小領域の前記第1のスコア及び前記第2のスコアに基づいて選択して出力する出力手段と
を備えることを特徴とする情報処理装置。
Of the plurality of small areas constituting the map indicating the monitoring area, the first score representing the first monitoring effect is smaller than the prescribed value, and the second score representing the second monitoring effect is less than the prescribed value. Selection means for sequentially selecting small areas;
A specifying means for specifying a position on the map based on the small area selected by the selection means and the first score set by the user for the small area as an arrangement position of the camera on the map;
First setting means for adding the first score representing the first monitoring effect at the arrangement position to the first score of each small region belonging to the camera view range at the arrangement position; ,
Second setting means for adding the second score representing the second monitoring effect at the arrangement position to the second score of each small region belonging to the camera view range at the arrangement position; ,
One or more of the arrangement layouts of the cameras on the map specified by the specifying unit for each selection order of the small regions whose first score is less than a specified value are the first setting unit and the second setting unit. An information processing apparatus comprising: output means for selecting and outputting based on the first score and the second score of each small area in the map determined by a setting means.
前記特定手段は、カメラと監視対象オブジェクトとの間の距離と、該距離に対応する前記第1のスコアと、の関係を示す情報を用いて、前記ユーザが設定した前記第1のスコアに対応する距離を取得し、前記選択手段が選択した小領域を中心とし、該取得した距離を半径とする円の内側の領域内でカメラの配置位置を特定することを特徴とする請求項1に記載の情報処理装置。   The specifying unit corresponds to the first score set by the user using information indicating a relationship between a distance between the camera and the monitoring target object and the first score corresponding to the distance. The camera disposition position is specified in a region inside a circle centered on the small region selected by the selection unit and having the acquired distance as a radius. Information processing device. 前記出力手段は、前記第1のスコアが規定値未満である小領域の選択順ごとに前記特定手段によって特定される前記マップ上におけるカメラの配置レイアウトのうち、前記第1の設定手段および前記第2の設定手段によって決定した前記マップにおける各小領域の前記第1のスコア及び前記第2のスコアの総和が大きい順に上位から1つ以上を選択して出力することを特徴とする請求項1又は2に記載の情報処理装置。   The output means includes the first setting means and the first of the camera layouts on the map specified by the specifying means for each selection order of small areas whose first score is less than a specified value. 2. The method according to claim 1 or 2, wherein one or more of the first score and the second score of each small area in the map determined by the setting means are selected and output in descending order of the sum of the first score and the second score. 2. The information processing apparatus according to 2. 更に、
前記出力手段が選択した配置レイアウトで前記マップ上に配置されるそれぞれのカメラについて、該カメラを配置しない場合における前記第1のスコア及び前記第2のスコアの総和を求め、該それぞれのカメラについて求めた総和に基づいて、該それぞれのカメラの優先順位を求める手段を備えることを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。
Furthermore,
For each camera arranged on the map in the arrangement layout selected by the output means, the sum of the first score and the second score when the camera is not arranged is obtained and obtained for each camera. 4. The information processing apparatus according to claim 1, further comprising means for obtaining a priority order of the respective cameras based on the total sum.
前記出力手段は更に、前記優先順位を出力することを特徴とする請求項4に記載の情報処理装置。   The information processing apparatus according to claim 4, wherein the output unit further outputs the priority order. 前記選択手段は、前記第1の監視効果を表す第1のスコアが規定値未満の小領域を選択してから前記特定手段、前記第1の設定手段、前記第2の設定手段の処理が終わると、前記第2の監視効果を表す第2のスコアが規定値未満の小領域を選択することを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。   The selecting means finishes the processing of the specifying means, the first setting means, and the second setting means after selecting a small region whose first score representing the first monitoring effect is less than a specified value. The information processing apparatus according to claim 1, wherein a small region having a second score representing the second monitoring effect that is less than a predetermined value is selected. 前記第1の監視効果は、カメラによる撮影映像上の監視対象オブジェクトのサイズであり、前記第2の監視効果は、カメラによる事象の抑止効果であることを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。   The first monitoring effect is a size of an object to be monitored on a video captured by a camera, and the second monitoring effect is an event suppression effect by the camera. The information processing apparatus according to claim 1. カメラによる撮影映像上の監視対象オブジェクトのサイズが第1のサイズ以上となるような該カメラと該オブジェクトとの間の距離に対する前記第1のスコアは、カメラによる撮影映像上の監視対象オブジェクトのサイズが前記第1のサイズよりも小さい第2のサイズとなるような該カメラと該オブジェクトとの間の距離に対する前記第1のスコアよりも大きいことを特徴とする請求項1乃至7の何れか1項に記載の情報処理装置。   The first score for the distance between the camera and the object such that the size of the monitored object on the video captured by the camera is equal to or larger than the first size is the size of the monitored object on the video captured by the camera. 8. The method according to claim 1, wherein the second score is larger than the first score with respect to a distance between the camera and the object such that the second size is smaller than the first size. The information processing apparatus according to item. 情報処理装置が行う情報処理方法であって、
前記情報処理装置の選択手段が、監視エリアを示すマップを構成する複数の小領域のうち、第1の監視効果を表す第1のスコアが規定値未満の小領域、第2の監視効果を表す第2のスコアが規定値未満の小領域、を順次選択する選択工程と、
前記情報処理装置の特定手段が、前記選択工程で選択した小領域と、該小領域についてユーザが設定した前記第1のスコアと、に基づく前記マップ上の位置を、該マップ上におけるカメラの配置位置として特定する特定工程と、
前記情報処理装置の第1の設定手段が、前記配置位置におけるカメラの視界範囲内に属する各小領域の前記第1のスコアに対して、該配置位置における前記第1の監視効果を表す前記第1のスコアを加算する第1の設定工程と、
前記情報処理装置の第2の設定手段が、前記配置位置におけるカメラの視界範囲内に属する各小領域の前記第2のスコアに対して、該配置位置における前記第2の監視効果を表す前記第2のスコアを加算する第2の設定工程と、
前記情報処理装置の出力手段が、前記第1のスコアが規定値未満である小領域の選択順ごとに前記特定工程で特定される前記マップ上におけるカメラの配置レイアウトのうち1以上を、前記第1の設定工程および前記第2の設定工程で決定した前記マップにおける各小領域の前記第1のスコア及び前記第2のスコアに基づいて選択して出力する出力工程と
を備えることを特徴とする情報処理方法。
An information processing method performed by an information processing apparatus,
The selection unit of the information processing apparatus represents a small area in which a first score representing a first monitoring effect is less than a specified value among a plurality of small areas constituting a map indicating a monitoring area, and represents a second monitoring effect A selection step of sequentially selecting small areas having a second score less than a specified value;
The position of the camera on the map based on the small area selected in the selection step by the specifying unit of the information processing apparatus and the first score set by the user for the small area A specific process to identify as a position;
The first setting unit of the information processing apparatus represents the first monitoring effect at the arrangement position with respect to the first score of each small region belonging to the camera view range at the arrangement position. A first setting step of adding a score of 1;
The second setting means of the information processing apparatus represents the second monitoring effect at the arrangement position with respect to the second score of each small region belonging to the camera view range at the arrangement position. A second setting step of adding 2 scores;
The output means of the information processing device outputs one or more of the camera layouts on the map specified in the specifying step for each selection order of small regions whose first score is less than a specified value. An output step of selecting and outputting based on the first score and the second score of each small area in the map determined in the setting step of 1 and the second setting step Information processing method.
コンピュータを、請求項1乃至8の何れか1項に記載の情報処理装置の各手段として機能させるためのコンピュータプログラム。   The computer program for functioning a computer as each means of the information processing apparatus of any one of Claims 1 thru | or 8.
JP2016138904A 2016-07-13 2016-07-13 Information processing device, information processing method Active JP6768380B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016138904A JP6768380B2 (en) 2016-07-13 2016-07-13 Information processing device, information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016138904A JP6768380B2 (en) 2016-07-13 2016-07-13 Information processing device, information processing method

Publications (3)

Publication Number Publication Date
JP2018011200A true JP2018011200A (en) 2018-01-18
JP2018011200A5 JP2018011200A5 (en) 2019-08-29
JP6768380B2 JP6768380B2 (en) 2020-10-14

Family

ID=60994416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016138904A Active JP6768380B2 (en) 2016-07-13 2016-07-13 Information processing device, information processing method

Country Status (1)

Country Link
JP (1) JP6768380B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112995514A (en) * 2021-03-03 2021-06-18 上海悦易网络信息技术有限公司 Method and device for acquiring photographing object distance of industrial camera

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120307067A1 (en) * 2011-06-01 2012-12-06 Honeywell International Inc. System and method for automatic camera placement
KR20150003470A (en) * 2013-07-01 2015-01-09 버츄얼빌더스 주식회사 System for arranging security camera and providing method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120307067A1 (en) * 2011-06-01 2012-12-06 Honeywell International Inc. System and method for automatic camera placement
KR20150003470A (en) * 2013-07-01 2015-01-09 버츄얼빌더스 주식회사 System for arranging security camera and providing method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112995514A (en) * 2021-03-03 2021-06-18 上海悦易网络信息技术有限公司 Method and device for acquiring photographing object distance of industrial camera
CN112995514B (en) * 2021-03-03 2023-05-30 上海万物新生环保科技集团有限公司 Method and equipment for acquiring photo object distance of industrial camera

Also Published As

Publication number Publication date
JP6768380B2 (en) 2020-10-14

Similar Documents

Publication Publication Date Title
JP6055823B2 (en) Surveillance camera control device and video surveillance system
JP5347279B2 (en) Image display device
KR101467663B1 (en) Method and system of providing display in display monitoring system
US9875408B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
JP6310149B2 (en) Image generation apparatus, image generation system, and image generation method
JP2011029737A (en) Surveillance image retrieval apparatus and surveillance system
JP2011060058A (en) Imaging apparatus and monitoring system
EP3070681A1 (en) Display control device, display control method and program
JP2019029935A (en) Image processing system and control method thereof
US11062422B2 (en) Image processing apparatus, image communication system, image processing method, and recording medium
JP5768265B2 (en) Similar image search system
KR102056417B1 (en) Cluster based photo navigation
JP2017162432A (en) Image processing system, information processing apparatus, information terminal, and program
JP2005148863A (en) Number of person counting system
JP2019016862A (en) Information processing device, information processing system, information processing device control method, and program
JP6593922B2 (en) Image surveillance system
JP2018011200A (en) Information processing apparatus and information processing method
JPWO2014064878A1 (en) Information processing apparatus, information processing method, program, and information processing system
JP7015130B2 (en) Data processing equipment
JP6099025B1 (en) MONITORING SYSTEM, MASK PROCESSING SETTING METHOD, AND COMPUTER PROGRAM
JP7385416B2 (en) Image processing device, image processing system, image processing method, and image processing program
JP2017058657A (en) Information processing device, control method, computer program and storage medium
CN113836337A (en) BIM display method, device, equipment and storage medium
US11393214B2 (en) Apparatus and method for congestion visualization
JP2017028688A (en) Image managing device, image managing method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190716

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200923

R151 Written notification of patent or utility model registration

Ref document number: 6768380

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151