JP7332363B2 - Camera placement evaluation device, camera placement evaluation method, and computer program - Google Patents

Camera placement evaluation device, camera placement evaluation method, and computer program Download PDF

Info

Publication number
JP7332363B2
JP7332363B2 JP2019126887A JP2019126887A JP7332363B2 JP 7332363 B2 JP7332363 B2 JP 7332363B2 JP 2019126887 A JP2019126887 A JP 2019126887A JP 2019126887 A JP2019126887 A JP 2019126887A JP 7332363 B2 JP7332363 B2 JP 7332363B2
Authority
JP
Japan
Prior art keywords
evaluation
visible
space
camera
overlapping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019126887A
Other languages
Japanese (ja)
Other versions
JP2021013111A (en
Inventor
一徳 大西
利彦 櫻井
昇平 國松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2019126887A priority Critical patent/JP7332363B2/en
Publication of JP2021013111A publication Critical patent/JP2021013111A/en
Application granted granted Critical
Publication of JP7332363B2 publication Critical patent/JP7332363B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、カメラの配置を評価するカメラ配置評価装置、カメラ配置評価方法、及びコンピュータプログラムに関する。 The present invention relates to a camera placement evaluation device, a camera placement evaluation method, and a computer program for evaluating camera placement.

監視空間に監視カメラを設置する際には、所望の監視目的を達成するための監視カメラの配置条件(位置・姿勢・画角等)を事前に計画(プランニング)する。
従来より複数の監視カメラにより1つの監視空間を監視する場合に、監視カメラによって撮影されない死角領域をできるだけ少なくし、少ない台数の監視カメラでより広い領域を撮影することによって効率的な監視を行うことが提案されている。
When installing a surveillance camera in a surveillance space, the arrangement conditions (position, posture, angle of view, etc.) of the surveillance camera for achieving a desired surveillance purpose are planned in advance.
To perform efficient monitoring by minimizing a blind spot area not photographed by a surveillance camera and photographing a wider area with a small number of surveillance cameras when one surveillance space is monitored by a plurality of surveillance cameras conventionally. is proposed.

複数の監視カメラの視野が無駄に重複すると、これに伴って、撮像されない死角領域が増大すると考えられる。このため例えば、下記特許文献1の複数カメラ監視システムは、各カメラ間のカメラ視野を求め、各カメラ間のカメラ視野の重複量を求め、当該重複量に応じたレベルの音などの喚起出力を行う。これにより、監視員がカメラ視野の重複を容易に把握することを可能にする。 If the fields of view of a plurality of surveillance cameras overlap unnecessarily, it is thought that blind spots that are not imaged will increase accordingly. For this reason, for example, the multiple-camera monitoring system disclosed in Patent Document 1 below obtains the camera field of view between each camera, obtains the overlap amount of the camera field of view between each camera, and outputs an evocative output such as a sound level corresponding to the overlap amount. conduct. This allows the observer to easily ascertain any overlapping camera fields of view.

特開2011-114580号公報JP 2011-114580 A

しかしながら、プランニング要件によっては、例えば監視空間内の特定の空間を異なる方向から監視したい場合など、複数の監視カメラの可視空間が重複していても無駄ではないことがある。
本発明は、上記の問題点を鑑みてなされたものであり、複数の監視カメラの可視空間の重複空間の撮影状態を評価することを目的とする。
However, depending on planning requirements, overlapping visible spaces of multiple surveillance cameras may not be a waste, for example when a particular space within the surveillance space is desired to be monitored from different directions.
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and it is an object of the present invention to evaluate the shooting state of a space overlapping the visible space of a plurality of surveillance cameras.

本発明の一形態によるカメラ配置評価装置は、複数のカメラの位置、画角及び撮影方向を表すカメラ情報を記憶する記憶部と、カメラ情報に基づいて、監視空間における複数のカメラの可視空間をそれぞれ算出する可視空間算出部と、可視空間どうしの重複空間を求め、該重複空間内の所定の評価地点から複数のカメラの位置までのそれぞれの方向に応じて該重複空間の撮影状態の評価値を算出する重複評価部と、を備える。 A camera arrangement evaluation apparatus according to one aspect of the present invention includes a storage unit that stores camera information representing the positions, angles of view, and shooting directions of a plurality of cameras; A visible space calculating unit that calculates each, and an overlapping space between the visible spaces is obtained, and an evaluation value of the photographing state of the overlapping space according to each direction from a predetermined evaluation point in the overlapping space to the positions of the plurality of cameras. and a duplicate evaluator that calculates

本発明の他の形態によるカメラ配置評価方法は、コンピュータに、複数のカメラの位置、画角及び撮影方向を表すカメラ情報を記憶装置から読み出す情報読出ステップと、カメラ情報に基づいて、監視空間における複数のカメラの可視空間をそれぞれ算出する可視空間算出ステップと、可視空間どうしの重複空間を求め、該重複空間内の所定の評価地点から複数のカメラの位置までのそれぞれの方向に応じて該重複空間の撮影状態の評価値を算出する重複評価ステップと、を実行させる。 A camera arrangement evaluation method according to another aspect of the present invention includes an information reading step of reading camera information representing the positions, angles of view, and photographing directions of a plurality of cameras from a storage device in a computer; a visible space calculation step of calculating respective visible spaces of a plurality of cameras; obtaining an overlapping space between the visible spaces; and a redundant evaluation step of calculating an evaluation value of the shooting state of the space.

本発明の更に他の形態によるコンピュータプログラムは、コンピュータに、複数のカメラの位置、画角及び撮影方向を表すカメラ情報を記憶装置から読み出す情報読出ステップと、カメラ情報に基づいて、監視空間における複数のカメラの可視空間をそれぞれ算出する可視空間算出ステップと、可視空間どうしの重複空間を求め、該重複空間内の所定の評価地点から複数のカメラの位置までのそれぞれの方向に応じて該重複空間の撮影状態の評価値を算出する重複評価ステップと、を実行させる。 A computer program according to still another aspect of the present invention provides a computer with an information reading step of reading camera information representing the positions, angles of view, and shooting directions of a plurality of cameras from a storage device; a visible space calculating step of calculating the visible spaces of the respective cameras; and obtaining an overlapping space between the visible spaces, and calculating the overlapping space according to each direction from a predetermined evaluation point in the overlapping space to the positions of the plurality of cameras. and a redundant evaluation step of calculating the evaluation value of the photographing state.

本発明によれば、複数の監視カメラの可視空間の重複空間の撮影状態を評価できる。 ADVANTAGE OF THE INVENTION According to this invention, the imaging|photography state of the overlapping space of the visible space of several surveillance cameras can be evaluated.

本発明の実施形態のカメラ配置評価装置の一例の概略構成図である。1 is a schematic configuration diagram of an example of a camera arrangement evaluation device according to an embodiment of the present invention; FIG. 複数の監視カメラの可視空間の重複空間の撮影状態の評価方法の概略説明図である。FIG. 10 is a schematic explanatory diagram of a method for evaluating the imaging state of the overlapping space of the visible space of a plurality of surveillance cameras; (a)はカメラと監視空間内の構造物の配置例の説明図であり、(b)はカメラ座標系と、背景面と、カメラの視錐体の説明図である。(a) is an explanatory diagram of an arrangement example of a camera and a structure in a surveillance space, and (b) is an explanatory diagram of a camera coordinate system, a background plane, and a viewing cone of the camera. (a)及び(b)は、可視候補領域の算出方法の説明図である。(a) and (b) are explanatory diagrams of a method for calculating a visible candidate region. (a)及び(b)は可視領域の算出方法の説明図であり、(c)はカメラの可視空間を構成する角錐の説明図である。(a) and (b) are explanatory diagrams of a method of calculating a visible region, and (c) is an explanatory diagram of a pyramid forming a visible space of a camera. (a)は一対のカメラの可視空間をそれぞれ構成する角錐同士が重複する例を示す図であり、(b)は重複空間の説明図であり、(c)は重複空間を画定する境界面の説明図である。(a) is a diagram showing an example in which pyramids forming the visible spaces of a pair of cameras overlap each other, (b) is an explanatory diagram of the overlapping space, and (c) is a boundary surface defining the overlapping space. It is an explanatory diagram. (a)及び(b)は、境界面の算出方法の説明図である。(a) and (b) are explanatory diagrams of a method for calculating a boundary surface. (a)及び(b)は、重複空間の撮影状態の評価値の算出方法の第1例及び第2例の説明図である。(a) and (b) are explanatory diagrams of a first example and a second example of a method of calculating an evaluation value of an imaging state of an overlapping space. 重複空間の撮影状態の評価値の算出方法の第3例の説明図である。FIG. 11 is an explanatory diagram of a third example of a method of calculating an evaluation value of an imaging state of an overlapping space; (a)及び(b)は、複数カメラの可視空間の重複空間が表された監視空間の仮想画像の第1例及び第2例の概略説明図である。(a) and (b) are schematic explanatory diagrams of first and second examples of virtual images of a monitored space in which overlapping spaces of visible spaces of a plurality of cameras are represented. 本発明の実施形態のカメラ配置評価方法の一例のフローチャートである。It is a flow chart of an example of a camera arrangement evaluation method of an embodiment of the present invention.

以下において、図面を参照して本発明の実施形態を説明する。なお、以下に示す本発明の実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、構成部品の構造、配置等を下記のものに特定するものではない。本発明の技術的思想は、特許請求の範囲に記載された請求項が規定する技術的範囲内において、種々の変更を加えることができる。 Embodiments of the present invention are described below with reference to the drawings. It should be noted that the embodiments of the present invention shown below are examples of apparatuses and methods for embodying the technical idea of the present invention. are not specific to the following: Various modifications can be made to the technical idea of the present invention within the technical scope defined by the claims.

(構成)
図1を参照する。実施形態のカメラ配置評価装置1は、例えばコンピュータにより構成され、記憶部2と、制御部3とを備える。
記憶部2は、半導体記憶装置、磁気記憶装置及び光学記憶装置のいずれかを備えてよい。記憶部2は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリを含んでよい。
(composition)
Please refer to FIG. A camera arrangement evaluation apparatus 1 according to the embodiment is configured by, for example, a computer, and includes a storage unit 2 and a control unit 3 .
The storage unit 2 may include any one of a semiconductor storage device, a magnetic storage device, and an optical storage device. The storage unit 2 may include memories such as a register, a cache memory, a ROM (Read Only Memory) used as a main storage device, and a RAM (Random Access Memory).

制御部3は、例えば、CPU(Central Processing Unit)やMPU(Micro-Processing Unit)等のプロセッサと、その周辺回路によって構成される。
以下に説明する制御部3の機能は、例えば、記憶部2に格納されたコンピュータプログラムであるカメラ配置評価プログラム20を、制御部3が備えるプロセッサが実行することによって実現される。
The control unit 3 is configured by, for example, a processor such as a CPU (Central Processing Unit) or an MPU (Micro-Processing Unit) and its peripheral circuits.
The functions of the control unit 3 described below are realized, for example, by the processor included in the control unit 3 executing a camera placement evaluation program 20 that is a computer program stored in the storage unit 2 .

入力装置4は、カメラ配置評価装置1の動作を制御するために、カメラプランニングの実施者や、監視従事者、管理者など(以下、「プランニング実施者等」と表記する)が操作するマウスやキーボードなどである。入力装置4は、カメラ配置評価装置1に接続され、入力装置4から各種情報がカメラ配置評価装置1に入力される。 The input device 4 is a mouse or the like operated by a camera planning executor, a monitoring worker, an administrator, etc. keyboard, etc. The input device 4 is connected to the camera layout evaluation device 1 , and various information is input to the camera layout evaluation device 1 from the input device 4 .

カメラ配置評価装置1は、所定の監視空間内を撮像する複数の監視カメラをある配置条件で設置した場合の複数の監視カメラの可視空間をシミュレーションによりそれぞれ算出し、これら可視空間どうしが重複する重複空間を算出する。カメラ配置評価装置1は、重複空間の撮影状態の評価値を算出する。
さらにカメラ配置評価装置1は、監視空間の3次元モデルに基づいて監視空間を表す仮想画像を生成する。カメラ配置評価装置1は、重複空間の撮影状態の評価値に応じて仮想画像上の重複空間の表示を設定する。
出力装置5は、ディスプレイ、プロジェクタ、プリンタなどであり、カメラ配置評価装置1が算出した評価値と、カメラ配置評価装置1が生成した仮想画像を出力する。
The camera arrangement evaluation apparatus 1 calculates through simulation the visible spaces of a plurality of surveillance cameras when a plurality of surveillance cameras that capture images in a predetermined surveillance space are installed under certain arrangement conditions. Calculate space. The camera arrangement evaluation device 1 calculates an evaluation value of the photographing state of the overlapping space.
Furthermore, the camera arrangement evaluation device 1 generates a virtual image representing the monitored space based on the three-dimensional model of the monitored space. The camera arrangement evaluation device 1 sets the display of the overlapping space on the virtual image according to the evaluation value of the photographing state of the overlapping space.
The output device 5 is a display, a projector, a printer, or the like, and outputs the evaluation value calculated by the camera layout evaluation device 1 and the virtual image generated by the camera layout evaluation device 1 .

次に、カメラ配置評価装置1による重複空間の撮影状態の評価方法の概要を説明する。
図2を参照する。いま、屋外空間や、構造物によって形成される屋内空間等である監視空間40を、複数の監視カメラ43a及び43bで撮影する場合を想定する。なお、監視空間40を撮影する監視カメラの個数は2個に限定されず、3個以上の監視カメラで監視空間40を撮影してもよい。
Next, the outline of the evaluation method of the photographing state of the overlapping space by the camera arrangement evaluation device 1 will be described.
Please refer to FIG. Assume now that a surveillance space 40, which is an outdoor space or an indoor space formed by structures, is photographed by a plurality of surveillance cameras 43a and 43b. Note that the number of surveillance cameras that shoot the monitored space 40 is not limited to two, and the surveillance space 40 may be shot by three or more surveillance cameras.

まず、カメラ配置評価装置1は、監視カメラ43a及び43bの位置(例えば焦点位置)、画角及び撮影方向を表すカメラ情報に基づいて、監視空間40における監視カメラ43a及び43bの可視空間Sa及びSbをそれぞれ算出する。2本の破線で挟まれた範囲Saが監視カメラ43aの可視空間を示し、2本の一点鎖線で挟まれた範囲Sbが監視カメラ43bの可視空間を示す。 First, the camera arrangement evaluation apparatus 1 calculates the visible spaces Sa and Sb of the monitoring cameras 43a and 43b in the monitoring space 40 based on the camera information indicating the positions (for example, focal positions), angles of view, and shooting directions of the monitoring cameras 43a and 43b. are calculated respectively. A range Sa sandwiched between two dashed lines indicates the visible space of the monitoring camera 43a, and a range Sb sandwiched between two dashed lines indicates the visible space of the monitoring camera 43b.

次に、カメラ配置評価装置1は、可視空間Sa及びSbの重複空間Sopを算出する。カメラ配置評価装置1は、重複空間Sop内の所定の評価地点Peから監視カメラ43a及び43bそれぞれの位置までの方向Dra及びDrbに応じて重複空間Sopの撮影状態の評価値を算出する。 Next, the camera arrangement evaluation device 1 calculates the overlapping space Sop of the visible spaces Sa and Sb. The camera arrangement evaluation device 1 calculates the evaluation value of the photographing state of the overlapping space Sop according to the directions Dra and Drb from a predetermined evaluation point Pe in the overlapping space Sop to the respective positions of the surveillance cameras 43a and 43b.

このように、重複空間Sopを撮影する複数の監視カメラの各々の撮影方向に応じた評価値を算出することにより、複数の監視カメラによる重複空間Sopの撮影状態を評価することができる。例えば、複数の監視カメラが互いに近い方向から重複空間Sopを撮影しているのか、又は全く異なる方向から撮影しているのかを評価できる。 In this way, by calculating the evaluation value according to the shooting direction of each of the plurality of surveillance cameras shooting the overlapping space Sop, it is possible to evaluate the shooting state of the overlapping space Sop by the plurality of surveillance cameras. For example, it is possible to evaluate whether a plurality of surveillance cameras are photographing the overlapping space Sop from directions close to each other or from completely different directions.

以下、カメラ配置評価装置1の詳細を説明する。図1を参照する。記憶部2には、上述のカメラ配置評価プログラム20のほか、カメラ情報21と、構造物情報22が格納されている。
カメラ情報21は、いわゆるカメラパラメータであり、複数の監視カメラ43a及び43bの各々の配置条件として、3次元的な位置と、撮影方向を表すヨー角、ロール角及びピッチ角と、画角と、アスペクト比と、解像度と、焦点距離などの、監視カメラ43a及び43bの外部パラメータ及び内部パラメータを含む。監視カメラ43a及び43bの位置は典型的には焦点位置である。監視カメラ43a及び43bの位置を近似的にレンズ中心位置としてもよい。或いは、カメラ情報21に監視カメラ43a及び43bの設置位置や監視カメラ43a及び43bのカメラ構造を設定し、これらから焦点位置又はレンズ中心位置を求めるようにしてもよい。
Details of the camera arrangement evaluation apparatus 1 will be described below. Please refer to FIG. The storage unit 2 stores camera information 21 and structure information 22 in addition to the camera placement evaluation program 20 described above.
The camera information 21 is a so-called camera parameter, and includes a three-dimensional position, a yaw angle, a roll angle, and a pitch angle representing a photographing direction, an angle of view, and an arrangement condition for each of the plurality of surveillance cameras 43a and 43b. Includes extrinsic and intrinsic parameters of surveillance cameras 43a and 43b, such as aspect ratio, resolution, and focal length. The positions of the surveillance cameras 43a and 43b are typically focal positions. The positions of the monitoring cameras 43a and 43b may be approximately set to the lens center positions. Alternatively, the installation positions of the monitoring cameras 43a and 43b and the camera structure of the monitoring cameras 43a and 43b may be set in the camera information 21, and the focal position or the lens center position may be obtained from these.

構造物情報22は、監視空間40に存在する現実世界の構造物(什器,樹木等の物体を含む)の位置、形状、構造などを表す3次元の幾何形状データ(すなわち3次元モデル)である。すなわち、構造物情報22は監視空間40の3次元モデルを表す。
カメラ情報21と構造物情報22に基づいて監視空間40内に監視カメラと構造物とを配置した一例を図3の(a)に示す。構造物情報22は、監視空間40内の構造物41及び42の幾何形状データを含む。また、カメラ情報21は、監視空間40における監視カメラ43a及び43bの配置条件を示す。
The structure information 22 is three-dimensional geometric data (that is, a three-dimensional model) representing the position, shape, structure, etc. of real-world structures (including objects such as fixtures and trees) existing in the monitored space 40. . That is, the structure information 22 represents a three-dimensional model of the monitored space 40 .
FIG. 3(a) shows an example in which surveillance cameras and structures are arranged in a surveillance space 40 based on the camera information 21 and the structure information 22. As shown in FIG. Structure information 22 includes geometric shape data of structures 41 and 42 in monitored space 40 . Also, the camera information 21 indicates the arrangement conditions of the surveillance cameras 43 a and 43 b in the surveillance space 40 .

構造物情報22を生成するための幾何形状データは、3次元CADやBIM(Building Information Modeling)で作成されたものでもよいし、3次元レーザースキャナー等により監視空間に存在する構造物の3次元形状を取り込んだデータでもよい。構造物情報22を生成するための幾何形状データは、航空機からステレオ撮影やレーザ測距を行うことによって作成された高さ情報も含む立体形状をポリゴンデータによって表したデータであってもよい。
なお、これらの3次元の幾何形状データは四面体分割されていてもよい。四面体分割された3次元データを取り扱うことにより、後述の演算処理をより高速に実行することができる。
The geometric shape data for generating the structure information 22 may be created by three-dimensional CAD or BIM (Building Information Modeling), or may be a three-dimensional shape of a structure existing in the monitored space using a three-dimensional laser scanner or the like. may be used. The geometric shape data for generating the structure information 22 may be data expressing a three-dimensional shape, including height information, created by performing stereoscopic photography or laser ranging from an aircraft, using polygon data.
Note that these three-dimensional geometric shape data may be tetrahedralized. By handling three-dimensional data divided into tetrahedrons, it is possible to execute arithmetic processing, which will be described later, at a higher speed.

制御部3は、記憶部2に記憶されたカメラ配置評価プログラム20を読み出して実行し、可視空間算出部30と、重複空間算出部31と、重複評価部32と、画像生成部33として機能する。
可視空間算出部30は、監視カメラ43a及び43bの各々の可視空間を算出する。可視空間は、監視カメラの位置から見える3次元的な範囲である。以下、複数の監視カメラ43a及び43bを総称して「監視カメラ43」と表記することがある。
The control unit 3 reads out and executes the camera placement evaluation program 20 stored in the storage unit 2, and functions as a visible space calculation unit 30, an overlap space calculation unit 31, an overlap evaluation unit 32, and an image generation unit 33. .
The visible space calculator 30 calculates the visible space of each of the monitoring cameras 43a and 43b. The visible space is a three-dimensional range that can be seen from the position of the surveillance camera. Hereinafter, the plurality of monitoring cameras 43a and 43b may be collectively referred to as "monitoring camera 43".

まず、可視空間算出部30は、構造物情報22により表された構造物41及び42の座標を、監視カメラ43の位置を原点とするカメラ座標系の座標に変換する。
図3の(b)を参照する。カメラ座標系として様々な座標系を採用できるが、例えばカメラの視軸が負のZ軸方向を向いた右手座標系としてよい。
次に、可視空間算出部30は、最低画素密度の設定入力を受け付ける。最低画素密度は、現実世界における単位長をカメラ画像中において最低何ピクセルで写す必要があるかを規定する下限値である。プランニング実施者は、入力装置4を用いて最低画素密度の設定値を入力する。
First, the visible space calculator 30 converts the coordinates of the structures 41 and 42 represented by the structure information 22 into coordinates of a camera coordinate system having the position of the surveillance camera 43 as an origin.
Please refer to FIG. 3(b). Although various coordinate systems can be adopted as the camera coordinate system, for example, a right-handed coordinate system in which the visual axis of the camera faces the negative Z-axis direction may be used.
Next, the visible space calculation unit 30 receives input for setting the minimum pixel density. The minimum pixel density is a lower limit value that defines the minimum number of pixels that must be used to represent a unit length in the real world in a camera image. The planning person uses the input device 4 to input the set value of the minimum pixel density.

可視空間算出部30は、設定された最低画素密度とカメラ情報21とに基づいて定まる、監視カメラ43の位置からの距離範囲に、監視カメラ43の光軸に対して垂直な背景面44を設定する。例えば当該距離範囲は、背景面44の位置の物体が最低画素密度で撮影できるように設定することができる。また、プランニング実施者が任意に距離範囲を設定してもよい。 The visible space calculation unit 30 sets a background plane 44 perpendicular to the optical axis of the monitoring camera 43 within the distance range from the position of the monitoring camera 43 determined based on the set minimum pixel density and the camera information 21. do. For example, the range of distances can be set so that objects at the background plane 44 can be imaged with the lowest pixel density. Also, the distance range may be arbitrarily set by the planning person.

可視空間算出部30は、背景面44を底面とし、監視カメラ43の撮影範囲の方位角、仰角、俯角を表す側面を有する角錐50を、監視カメラの視錐体50として算出する。視錐体50は、監視カメラ43の画角とアスペクト比で求められた直線50a、50b、50c及び50dと、背景面44とで囲まれた空間である。
なお、視錐体50の底面の4角形を2つの3角形に分割して、2つの四面体の集合を監視カメラ43の視錐体としてもよい。
The visible space calculation unit 30 calculates a pyramid 50 having the background surface 44 as the bottom surface and side surfaces representing the azimuth angle, elevation angle, and depression angle of the imaging range of the surveillance camera 43 as the viewing cone 50 of the surveillance camera. The viewing cone 50 is a space surrounded by straight lines 50 a , 50 b , 50 c and 50 d obtained from the angle of view and aspect ratio of the monitoring camera 43 and the background plane 44 .
Note that the tetragon on the bottom surface of the viewing cone 50 may be divided into two triangles, and a set of the two tetrahedrons may be used as the viewing cone of the monitoring camera 43 .

可視空間算出部30は、構造物41、42の表面及び背景面44の領域のうち監視カメラ43の位置から見える可視領域を算出する。
まず、可視空間算出部30は、構造物情報22に定義されている構造物と視錐体50との接触判定(交差判定)を行う。視錐体50並びに構造物が四面体で構成されている場合には、GPR(Ganovelli,Ponchio,Rocchini)アルゴリズムを用いることにより、四面体の間の接触判定をより高速に行うことができる。それ以外の場合には、バウンディングボックスやSAT(Separating Axis Theorem)アルゴリズムを用いて視錐体50と構造物とが接触(交差)しているか否かを判定できる。
可視空間算出部30は、構造物情報22に定義されている構造物のうち視錐体50に接触(交差)している構造物41、42を選択して以降の処理を行う。
The visible space calculation unit 30 calculates the visible area visible from the position of the surveillance camera 43 among the areas of the surfaces of the structures 41 and 42 and the background surface 44 .
First, the visible space calculation unit 30 performs contact determination (intersection determination) between the structure defined in the structure information 22 and the viewing cone 50 . If the viewing cone 50 and the structure are composed of tetrahedrons, the GPR (Ganovelli, Ponchio, Rocchini) algorithm can be used to determine contact between the tetrahedrons at a higher speed. Otherwise, a bounding box or SAT (Separating Axis Theorem) algorithm can be used to determine whether or not the viewing cone 50 and the structure are in contact (intersect).
The visible space calculation unit 30 selects the structures 41 and 42 that are in contact with (intersects) the viewing cone 50 from among the structures defined in the structure information 22, and performs subsequent processing.

次に、可視空間算出部30は、視錐体50に接触(交差)している構造物41、42の表面領域のうち監視カメラ43に向いている領域を選択する。例えば、構造物41、42の表面領域の法線方向が構造物41、42の外側を向く方向であると定義すると、可視空間算出部30は、監視カメラ43の光軸と表面領域の法線との内積が負になるとき、表面領域が監視カメラ43に向いていると判定できる。 Next, the visible space calculation unit 30 selects an area facing the surveillance camera 43 from among the surface areas of the structures 41 and 42 contacting (intersecting) the viewing cone 50 . For example, if the normal direction of the surface regions of the structures 41 and 42 is defined as the direction facing the outside of the structures 41 and 42, the visible space calculation unit 30 calculates the optical axis of the surveillance camera 43 and the normal of the surface region is negative, it can be determined that the surface area faces the surveillance camera 43 .

可視空間算出部30は、監視カメラ43に向いている構造物41、42の表面領域と視錐体50との交差領域を、可視候補領域として算出する。また、可視空間算出部30は、視錐体50の底面を可視候補領域に設定する。
可視空間算出部30は、これらの可視候補領域を三角形に分割してもよい。
The visible space calculation unit 30 calculates an intersection area between the surface areas of the structures 41 and 42 facing the surveillance camera 43 and the viewing cone 50 as a visible candidate area. The visible space calculation unit 30 also sets the bottom surface of the viewing cone 50 as the visible candidate area.
The visible space calculator 30 may divide these visible candidate regions into triangles.

図4の(a)を参照して、構造物41の表面領域のうち監視カメラ43に向いている領域41aと視錐体50との交差領域を算出する処理を説明する。
可視空間算出部30は、領域41aが存在する平面61と、監視カメラ43の画角とアスペクト比で求められた視錐体50の斜辺50a~50dとの交点61a、61b、61c及び61dを算出する。
Referring to FIG. 4A, the process of calculating the intersection area between the area 41a of the surface area of the structure 41 facing the monitoring camera 43 and the viewing cone 50 will be described.
The visible space calculation unit 30 calculates intersections 61a, 61b, 61c, and 61d between a plane 61 on which the region 41a exists and oblique sides 50a to 50d of the viewing cone 50 obtained from the angle of view of the monitoring camera 43 and the aspect ratio. do.

可視空間算出部30は、交点61a~61dを結んだ凸領域と領域41aとが2次元平面上で重複する領域を、領域41aと視錐体50との交差領域として算出し、可視候補領域とする。
図4の(a)の例では、交点61a~61dを結んだ凸領域内に領域41aが全て含まれるので、領域41a全てが可視候補領域となる。
The visible space calculation unit 30 calculates a region where the convex region connecting the intersection points 61a to 61d and the region 41a overlap on the two-dimensional plane as the intersection region of the region 41a and the viewing cone 50, and calculates the region as the visible candidate region. do.
In the example of FIG. 4A, the entire area 41a is included in the convex area connecting the intersection points 61a to 61d, so the entire area 41a is the visible candidate area.

図4の(b)を参照して、構造物42の表面領域のうち監視カメラ43に向いている領域42aと視錐体50との交差領域を算出する処理を説明する。
可視空間算出部30は、領域42aが存在する平面62と、視錐体50の斜辺50a~50dとの交点62a、62b、62c及び62dを算出する。
可視空間算出部30は、交点62a~62dを結んだ凸領域と領域42aとが2次元平面上で重複する領域42bを、領域42aと視錐体50との交差領域として算出し、可視候補領域とする。
Referring to FIG. 4B, the process of calculating the intersection area between the area 42a of the surface area of the structure 42 facing the monitoring camera 43 and the viewing cone 50 will be described.
The visible space calculator 30 calculates intersections 62a, 62b, 62c, and 62d between the plane 62 on which the region 42a exists and the oblique sides 50a to 50d of the cone 50. FIG.
The visible space calculation unit 30 calculates a region 42b in which the convex region connecting the intersection points 62a to 62d and the region 42a overlap on the two-dimensional plane as the intersection region of the region 42a and the viewing cone 50, and calculates a visible candidate region. and

次に、可視空間算出部30は、これら可視候補領域の各々について、他の可視候補領域により監視カメラ43から遮蔽されるか否かを判断する。監視カメラ43から見て、ある可視候補領域の手前に他の可視候補領域が存在する場合には、全部又は一部が遮蔽されて監視カメラ43から見えなくなるからである。
ある可視候補領域が、監視カメラ43から見て手前の他の可視候補領域によって遮蔽される場合には、遮蔽される部分を除いて可視領域を算出する。
Next, the visible space calculation unit 30 determines whether or not each of these visible candidate areas is shielded from the monitoring camera 43 by another visible candidate area. This is because, when viewed from the monitoring camera 43 , if another visible candidate area exists in front of a certain visible candidate area, all or part of it is blocked and cannot be seen from the monitoring camera 43 .
If a certain visible candidate area is blocked by another visible candidate area in front of the monitoring camera 43, the visible area is calculated by excluding the blocked portion.

複数の他の可視候補領域が監視カメラ43から見て手前に存在している場合には、これら複数の可視候補領域により遮蔽される全ての部分を除いて可視領域を算出する。
図5の(a)を参照して、構造物41の可視候補領域41aから可視領域を算出する処理を説明する。
監視カメラ43から見て可視候補領域41aの手前には、他の可視候補領域が存在しないので他の可視候補領域により遮蔽される部分はない。このため、可視空間算出部30は、可視候補領域41aの全ての領域を可視領域51とする。
If a plurality of other visible candidate areas exist in front of the monitoring camera 43, the visible area is calculated by excluding all portions blocked by these plurality of visible candidate areas.
Processing for calculating a visible region from the visible candidate region 41a of the structure 41 will be described with reference to FIG. 5(a).
Since there is no other visible candidate area in front of the visible candidate area 41a as viewed from the surveillance camera 43, there is no portion blocked by another visible candidate area. Therefore, the visible space calculation unit 30 sets the entire area of the visible candidate area 41 a as the visible area 51 .

図5の(b)を参照して、構造物42の可視候補領域42bから可視領域を算出する処理を説明する。監視カメラ43から見て可視候補領域42bの手前には、他の可視候補領域41aが存在している。このため、可視空間算出部30は、可視候補領域42bから可視候補領域41aにより遮蔽される部分を除いた範囲52を可視領域とする。
可視空間算出部30は、監視カメラ43の位置と他の可視候補領域41aの頂点71a、71b、71c及び71dとを結んだ直線の延長線と可視候補領域42bが存在する平面との交点72a、72b、72c及び72dを算出する(交点72cは不図示)。
Processing for calculating a visible region from the visible candidate region 42b of the structure 42 will be described with reference to FIG. 5(b). Another visible candidate area 41 a exists in front of the visible candidate area 42 b as viewed from the surveillance camera 43 . Therefore, the visible space calculation unit 30 determines the visible area to be a range 52 obtained by excluding the portion blocked by the visible candidate area 41a from the visible candidate area 42b.
The visible space calculation unit 30 calculates an intersection point 72a between a straight extension line connecting the position of the surveillance camera 43 and the vertices 71a, 71b, 71c, and 71d of the other visible candidate area 41a and the plane on which the visible candidate area 42b exists, Calculate 72b, 72c and 72d (intersection 72c not shown).

可視空間算出部30は、交点72a~72dを結んだ凸領域と可視候補領域42bとが2次元平面上で重複する領域を求め、これを可視候補領域42bから除いて可視領域52を算出する。
また、可視空間算出部30は、視錐体50の底面のうち構造物41、42の可視候補領域41a、42bによって遮蔽される領域を除いた範囲を、可視領域として算出する。
The visible space calculation unit 30 obtains an area where the convex area connecting the intersections 72a to 72d overlaps the visible candidate area 42b on the two-dimensional plane, and calculates the visible area 52 by removing this area from the visible candidate area 42b.
In addition, the visible space calculation unit 30 calculates a range of the bottom surface of the viewing cone 50 excluding the areas blocked by the visible candidate areas 41a and 42b of the structures 41 and 42 as the visible area.

図5の(c)を参照する。可視空間算出部30は、算出した可視領域を凸多角形に分割する。図5の(c)の例では、可視領域51を3角形51a及び51bに分割し、可視領域52を3角形52a及び52bに分割する。同様に可視空間算出部30は、背景面44上の可視領域についても3角形等の凸多角形に分割する。 Please refer to (c) of FIG. The visible space calculator 30 divides the calculated visible region into convex polygons. In the example of FIG. 5(c), the visible region 51 is divided into triangles 51a and 51b, and the visible region 52 is divided into triangles 52a and 52b. Similarly, the visible space calculator 30 also divides the visible area on the background surface 44 into convex polygons such as triangles.

可視空間算出部30は、監視カメラ43の位置を頂点とし、分割された可視領域を底面とする角錐を算出する。図5の(c)の例では、監視カメラ43の位置を頂点とし可視領域52aを底面とする角錐56を算出する。可視領域52aが3角形である場合には、角錐56は四面体となる。
可視空間算出部30は、可視領域51a、51b及び52b、並びに背景面44上の可視領域についても同様に角錐を算出する。
可視空間算出部30は、これら算出した角錐が占める空間の集合を監視カメラ43の可視空間として算出する。以上により監視カメラ43の可視空間を求めることができる。
The visible space calculation unit 30 calculates a pyramid whose apex is the position of the surveillance camera 43 and whose bottom is the divided visible region. In the example of FIG. 5(c), a pyramid 56 is calculated with the position of the monitoring camera 43 as the apex and the visible region 52a as the bottom. If the visible region 52a is triangular, the pyramid 56 will be a tetrahedron.
The visible space calculator 30 similarly calculates pyramids for the visible areas 51 a , 51 b and 52 b and the visible area on the background surface 44 .
The visible space calculator 30 calculates a set of spaces occupied by these calculated pyramids as the visible space of the surveillance camera 43 . As described above, the visible space of the monitoring camera 43 can be obtained.

なお、上記の監視カメラ43の可視空間の算出方法はあくまでも一例であり、本発明はこれに限定されるものではない。
可視空間算出部30は、監視カメラ43の可視空間を求めることが可能な様々な算出方法を採用することができる。例えば、可視か否かを判定すべき点やボクセルを監視空間40内に離散的に配置して、これらの点又はボクセルが監視カメラ43から見えるか否かをレイトレーシング法によってそれぞれ判定して可視空間を算出してもよい。
Note that the method for calculating the visible space of the monitoring camera 43 described above is merely an example, and the present invention is not limited to this.
The visible space calculator 30 can employ various calculation methods capable of obtaining the visible space of the surveillance camera 43 . For example, points and voxels for which visibility should be determined are discretely arranged in the monitoring space 40, and whether or not these points or voxels are visible from the monitoring camera 43 is determined by the ray tracing method. Space may be calculated.

図1を参照する。重複空間算出部31は、複数の監視カメラ43の各々の可視空間どうしが重複する重複空間を算出する。
例えば、上述したように可視空間を角錐の集合として算出した場合には、重複空間算出部31は、以下の方法によって重複空間を算出してよい。
この方法では、重複空間算出部31は、複数の監視カメラ43のうちの一対の監視カメラ43の全ての組み合わせについて各々の可視空間どうしの間の重複空間を算出する。重複空間算出部31は、全ての組み合わせについて算出した重複空間の全体が占める空間を、複数の監視カメラ43の可視空間どうしの重複空間として算出する。
Please refer to FIG. The overlapped space calculator 31 calculates an overlapped space in which the visible spaces of the plurality of surveillance cameras 43 overlap each other.
For example, when the visible space is calculated as a set of pyramids as described above, the overlapping space calculator 31 may calculate the overlapping space by the following method.
In this method, the overlapping space calculator 31 calculates overlapping spaces between visible spaces for all combinations of a pair of surveillance cameras 43 among the plurality of surveillance cameras 43 . The overlapping space calculation unit 31 calculates the space occupied by the entire overlapping space calculated for all combinations as the overlapping space between the visible spaces of the plurality of surveillance cameras 43 .

以下、一対の監視カメラ43の各々の可視空間どうしの間の重複空間の算出方法を説明する。上記の通り、可視空間の各々は、監視カメラの位置を頂点とし可視領域を底面とする角錐の集合で構成されている。重複空間算出部31は、一対の監視カメラの一方の可視空間を構成する各々の角錐と、他方の監視カメラの可視空間を構成する各々の角錐とが重複する各々の角錐重複空間を算出する角錐重複空間算出部34を備える。
角錐重複空間算出部34が、一対の監視カメラの可視空間を構成する角錐の各々の角錐重複空間を全て算出すると、重複空間算出部31は、角錐重複空間算出部34が算出した角錐重複空間を合計して、一対の監視カメラの可視空間どうしの重複空間を算出する。
A method of calculating the overlapping space between the visible spaces of the pair of surveillance cameras 43 will be described below. As described above, each of the visible spaces is composed of a set of pyramids whose vertices are the positions of the surveillance cameras and whose bases are the visible regions. The overlapping space calculation unit 31 calculates a pyramid overlapping space in which each pyramid forming the visible space of one of the pair of monitoring cameras overlaps with each pyramid forming the visible space of the other monitoring camera. An overlapping space calculator 34 is provided.
When the pyramid overlapping space calculation unit 34 calculates all the pyramid overlapping spaces of the pyramids forming the visible space of the pair of surveillance cameras, the overlapping space calculating unit 31 calculates the pyramid overlapping space calculated by the pyramid overlapping space calculation unit 34. Summing up, the overlapping space between the visible spaces of the pair of surveillance cameras is calculated.

角錐重複空間算出部34による角錐重複空間の算出方法を説明する。図6の(a)及び図6の(b)を参照する。角錐80は、一方の監視カメラの可視空間を構成する角錐の一つであり、角錐81は、他方の監視カメラの可視空間を構成する角錐の一つである。角錐80及び81が重複する空間82が角錐重複空間である。図示の通り、可視領域が3角形である場合には角錐80及び81は四面体となる。 A method of calculating the pyramid overlapping space by the pyramid overlapping space calculation unit 34 will be described. Please refer to FIG. 6(a) and FIG. 6(b). The pyramid 80 is one of the pyramids forming the visible space of one of the monitoring cameras, and the pyramid 81 is one of the pyramids forming the visible space of the other monitoring camera. The space 82 where the pyramids 80 and 81 overlap is the pyramid overlap space. As shown, pyramids 80 and 81 are tetrahedrons when the visibility region is triangular.

角錐重複空間算出部34は、一方の監視カメラの可視空間を構成する各々の角錐と他方の監視カメラの可視空間を構成する各々の角錐との全ての組合せについて接触判定し、接触する場合には角錐重複空間を算出する。接触判定には、例えば上述のGPRアルゴリズム、バウンディングボックスやSATアルゴリズムを用いることができる。 The pyramid overlapping space calculation unit 34 determines contact for all combinations of each pyramid forming the visible space of one monitoring camera and each pyramid forming the visible space of the other monitoring camera. Compute the pyramid overlap space. For contact determination, for example, the above-described GPR algorithm, bounding box, or SAT algorithm can be used.

図6の(c)を参照する。角錐重複空間算出部34は、角錐重複空間82の表面を画定する境界面82a、82b、82c、82d及び82eを算出し、これらの境界面82a~82eにより囲まれる空間を角錐重複空間82として算出する。
図1を参照する。角錐重複空間算出部34は、境界面82a~82eの各々を算出する境界面算出部35を備える。
Please refer to (c) of FIG. The pyramid overlapping space calculation unit 34 calculates boundary surfaces 82a, 82b, 82c, 82d, and 82e that define the surfaces of the pyramid overlapping space 82, and calculates the space surrounded by these boundary surfaces 82a to 82e as the pyramid overlapping space 82. do.
Please refer to FIG. The pyramid overlapping space calculator 34 includes a boundary surface calculator 35 that calculates each of the boundary surfaces 82a to 82e.

図7の(a)を参照する。接触判定によって互いに接触する(重複する)1対の角錐が検出されると、境界面算出部35は、これら角錐のうち一方を第1角錐80として選択し、他方を第2角錐81として選択する。
境界面算出部35は、第1角錐80を形成する面80A、80B、80C及び80Dのうちいずれか1つの面を選択する。図7の(a)の例では面80Aを選択する。
Refer to FIG. 7(a). When a pair of pyramids in contact with each other (overlapping) is detected by the contact determination, the boundary surface calculation unit 35 selects one of these pyramids as the first pyramid 80 and the other as the second pyramid 81. .
The boundary plane calculator 35 selects one of the planes 80A, 80B, 80C, and 80D forming the first pyramid 80 . In the example of (a) of FIG. 7, the surface 80A is selected.

また境界面算出部35は、第2角錐81の頂点81a、81b、81c及び81dのうちいずれか1つの頂点を選択する。図7の(a)の例では頂点81aを選択する。
図7の(b)を参照する。境界面算出部35は、選択した頂点81aと残りの頂点81b~81dとを各々結ぶ線分83b、83c及び83dの全てが、選択した面80Aが存在する平面82と交差するか否かを判定する。すなわち、頂点81aから見て、頂点81b~81dの全てが面80Aの裏側に存在するか否かを判断する。
Also, the boundary surface calculator 35 selects one of the vertices 81 a , 81 b , 81 c and 81 d of the second pyramid 81 . In the example of (a) of FIG. 7, the vertex 81a is selected.
Refer to FIG. 7(b). The boundary surface calculator 35 determines whether or not all of the line segments 83b, 83c, and 83d connecting the selected vertex 81a and the remaining vertices 81b to 81d intersect the plane 82 on which the selected surface 80A exists. do. That is, it is determined whether or not all of the vertices 81b to 81d exist on the back side of the surface 80A when viewed from the vertex 81a.

線分83b~83dの全てが平面82と交差する場合、境界面算出部35は、線分83b~83dが平面82と交差する交点84b、84c及び84dを算出する。
境界面算出部35は、交点84b~84dを結ぶ多角形84と面80Aとの重複領域(ハッチングされた領域)を境界面82bとして算出する。
一方で、線分83b~83dの全てが平面82と交差しない場合には、交点84b~84dを結ぶ多角形84を算出できないので境界面を算出できない。したがって、この場合には、面80Aと頂点81aとの組み合わせに関して境界面の算出を中止する。
When all of the line segments 83b to 83d intersect the plane 82, the boundary surface calculator 35 calculates intersection points 84b, 84c and 84d where the line segments 83b to 83d intersect the plane 82. FIG.
The boundary surface calculator 35 calculates an overlapping area (hatched area) between the polygon 84 connecting the intersections 84b to 84d and the surface 80A as the boundary surface 82b.
On the other hand, if all of the line segments 83b to 83d do not intersect the plane 82, the polygon 84 connecting the intersections 84b to 84d cannot be calculated, so the boundary surface cannot be calculated. Therefore, in this case, calculation of the boundary surface is stopped for the combination of the surface 80A and the vertex 81a.

上記の処理を、第1角錐80を形成する面80A~80Dと第2角錐81の頂点81a~81dの全ての組合せについて行い、さらに第1角錐80及び第2角錐81として選択される角錐を互いに入れ替えて同じ処理を繰り返すと、角錐重複空間82の表面を画定する境界面82a~82eが全て算出される。 The above processing is performed for all combinations of the faces 80A to 80D forming the first pyramid 80 and the vertices 81a to 81d of the second pyramid 81, and further, the pyramids selected as the first pyramid 80 and the second pyramid 81 are By repeating the same process with the replacement, all of the boundary surfaces 82a to 82e defining the surfaces of the pyramid overlapping space 82 are calculated.

なお、上記の可視空間どうしの重複空間の算出方法はあくまでも一例であり、本発明はこれに限定されるものではない。重複空間算出部31は、複数の監視カメラ43の可視空間どうしの重複空間を求めることが可能な様々な算出方法を採用することができる。
例えば、上記のレイトレーシング法による可視空間の算出方法と同様に、重複空間算出部31は、同時に複数の監視カメラ43から可視な点又はボクセルが占める空間を重複空間として算出してよい。
It should be noted that the method of calculating the overlapping space between the visible spaces described above is merely an example, and the present invention is not limited to this. The overlapped space calculator 31 can employ various calculation methods capable of obtaining the overlapped space between the visible spaces of the plurality of surveillance cameras 43 .
For example, similar to the visible space calculation method using the ray tracing method described above, the overlapping space calculation unit 31 may calculate the space occupied by points or voxels that are simultaneously visible from the plurality of surveillance cameras 43 as the overlapping space.

図1を参照する。重複評価部32は、重複空間の撮影状態の評価値を算出する。まず、重複評価部32は、重複空間内の代表地点として1個又は複数の評価地点を監視空間内に設定する。例えば、重複評価部32は、重複空間の重心に1個の重複空間を配置してもよく、重複空間内に離散的に複数の評価地点を配置してもよい。この場合、重複空間内に均等に評価地点を配置してもよい。また、図6の(c)に示すように重複空間が多面体として算出される場合にはこれらの頂点の各々に評価地点を配置してもよい。 Please refer to FIG. The overlapping evaluation unit 32 calculates an evaluation value of the shooting state of the overlapping space. First, the overlapping evaluation unit 32 sets one or more evaluation points in the monitored space as representative points in the overlapping space. For example, the overlapping evaluation unit 32 may arrange one overlapping space at the center of gravity of the overlapping space, or may discretely arrange a plurality of evaluation points within the overlapping space. In this case, the evaluation points may be arranged evenly within the overlapping space. Also, when the overlapping space is calculated as a polyhedron as shown in FIG. 6(c), evaluation points may be arranged at each of these vertices.

次に、重複評価部32は、評価地点から複数の監視カメラ43の位置までのそれぞれの方向に応じて重複空間の撮影状態の評価値を算出する。
図8の(a)を参照する。例えば重複評価部32は、評価地点に仮想的な単位球90の3次元モデルを配置する。重複評価部32は、単位球90の表面のどの部分が複数の監視カメラ43a及び43bの可視領域になっているのかそれぞれ算出する。図8の(a)の例では、太線の破線91aが監視カメラ43aの可視領域を示し、太線の一点鎖線91bが監視カメラ43aの可視領域を示す。
Next, the overlap evaluation unit 32 calculates an evaluation value of the photographing state of the overlap space according to each direction from the evaluation point to the positions of the plurality of surveillance cameras 43 .
Please refer to FIG. 8(a). For example, the overlap evaluation unit 32 arranges a three-dimensional model of a virtual unit sphere 90 at the evaluation point. The overlap evaluation unit 32 calculates which parts of the surface of the unit sphere 90 are visible areas of the plurality of surveillance cameras 43a and 43b. In the example of FIG. 8A, a thick dashed line 91a indicates the visible area of the monitoring camera 43a, and a thick one-dot chain line 91b indicates the visible area of the monitoring camera 43a.

単位球90の3次元モデルが疑似的にポリゴンによって形成されている場合、重複評価部32は、上述の構造物41及び42の可視領域と同様の方法により、単位球90の可視領域を算出してよい。
また、重複評価部32は、単位球90の表面上に離散的に配置した点の各々において複数の監視カメラ43a及び43bから見えるか否かをレイトレーシング法で判定して可視領域を算出してもよい。
When the three-dimensional model of the unit sphere 90 is pseudo-polygonally formed, the overlap evaluation unit 32 calculates the visible area of the unit sphere 90 in the same manner as the visible areas of the structures 41 and 42 described above. you can
In addition, the overlap evaluation unit 32 determines whether or not each point discretely arranged on the surface of the unit sphere 90 can be seen from the plurality of monitoring cameras 43a and 43b by the ray tracing method, and calculates the visible region. good too.

重複評価部32は、複数の監視カメラ43a及び43bの可視領域91a及び91bに応じて重複空間の撮影状態の評価値を算出する。例えば、重複評価部32は、可視領域91a及び91bの重複度合いを測る評価値として、可視領域91a及び91bの重複領域(論理積領域AND)の面積と、可視領域91a及び91bの論理和領域(OR)の面積との割合を算出する。すなわち重複評価部32は、((重複領域の面積)/(論理和領域の面積))又は((論理和領域の面積)/(重複領域の面積))のいずれかを算出する。いずれを分母とするかは評価値の使用用途に応じて定めることができる。 The overlapping evaluation unit 32 calculates an evaluation value of the shooting state of the overlapping space according to the visible areas 91a and 91b of the plurality of surveillance cameras 43a and 43b. For example, the overlap evaluation unit 32 uses the area of the overlapping area (logical product area AND) of the visible areas 91a and 91b and the logical sum area ( OR) is calculated. That is, the overlap evaluation unit 32 calculates either ((area of overlapping region)/(area of logical sum region)) or ((area of logical sum region)/(area of overlapping region)). Which one to use as the denominator can be determined according to the intended use of the evaluation value.

また例えば、重複評価部32は単位球90に対する可視領域のカバー率を図る指標として、可視領域91a及び91bの論理和領域(OR)の面積と単位球90の表面積との割合を算出してもよい。すなわち重複評価部32は、((論理和領域の面積)/(単位球90の表面積))又は((単位球90の表面積)/(論理和領域の面積))のいずれかを算出する。いずれを分母とするかは評価値の使用用途に応じて定めることができる。 Further, for example, the overlap evaluation unit 32 may calculate the ratio of the area of the logical sum region (OR) of the visible regions 91a and 91b and the surface area of the unit sphere 90 as an index for the coverage of the visible region with respect to the unit sphere 90. good. That is, the overlap evaluation unit 32 calculates either ((area of logical sum region)/(surface area of unit sphere 90)) or ((surface area of unit sphere 90)/(area of logical sum region)). Which one to use as the denominator can be determined according to the intended use of the evaluation value.

図8の(b)を参照する。重複評価部32は、例えば人や車などの凹凸のあるオブジェクト92の3次元モデルを単位球90に代えて配置してもよい。重複評価部32は、オブジェクト92の表面のどの部分が複数の監視カメラ43a及び43bの可視領域になっているのかそれぞれ算出する。図8の(b)の例では、太線の破線93aが監視カメラ43aの可視領域を示し、太線の一点鎖線93bが監視カメラ43aの可視領域を示す。
重複評価部32は、単位球90の場合と同様に、可視領域93a及び93bに応じて重複空間の撮影状態の評価値を算出する。
Refer to FIG. 8(b). The overlap evaluation unit 32 may place a three-dimensional model of an object 92 having unevenness, such as a person or a car, instead of the unit sphere 90 . The overlap evaluation unit 32 calculates which parts of the surface of the object 92 are visible areas of the plurality of monitoring cameras 43a and 43b. In the example of FIG. 8B, the thick dashed line 93a indicates the visible area of the monitoring camera 43a, and the thick dashed line 93b indicates the visible area of the monitoring camera 43a.
Similar to the case of the unit sphere 90, the overlap evaluation unit 32 calculates the evaluation value of the photography state of the overlap space according to the visible regions 93a and 93b.

また、単位球90の表面上に離散的に配置した点の各々において複数の監視カメラ43a及び43bから見えるか否かをレイトレーシング法で判定した場合には、可視領域の面積に代えて監視カメラ43a及び43bから見える点の総数を用いてもよい。
図9を参照する。単位球90の表面上に離散的に点94を配置した場合を想定する。円プロットは監視カメラ43aのみから見える単位球90上の点を示し、四角プロットは監視カメラ43bのみから見える点を示し、三角プロットは監視カメラ43a及び43bから同時に見える点を示す。
Further, when it is determined by the ray tracing method whether or not each point discretely arranged on the surface of the unit sphere 90 can be seen from the plurality of monitoring cameras 43a and 43b, the area of the visible region can be replaced by the monitoring camera The total number of points visible from 43a and 43b may be used.
See FIG. Assume that points 94 are discretely arranged on the surface of a unit sphere 90 . Circle plots indicate points on the unit sphere 90 visible only from the monitoring camera 43a, square plots indicate points visible only from the monitoring camera 43b, and triangular plots indicate points simultaneously visible from the monitoring cameras 43a and 43b.

重複評価部32は、複数の監視カメラ43a及び43bから同時に可視と判定された点94の総数と複数の監視カメラ43a及び43bのいずれかから可視と判定された点94の総数との割合に応じて評価値を算出してよい。
重複評価部32は、複数の監視カメラ43a及び43bのいずれかから可視と判定された点94の総数と単位球90に配置した点94の総数との割合に応じて評価値を算出してよい。
単位球90に代えて、図8の(b)に示すような凹凸のあるオブジェクト92の表面上に離散的に点94を配置し、同様に評価値を算出してもよい。
The overlap evaluation unit 32 determines the total number of points 94 simultaneously determined to be visible from the plurality of monitoring cameras 43a and 43b and the total number of points 94 determined to be visible from either of the plurality of monitoring cameras 43a and 43b. may be used to calculate the evaluation value.
The overlap evaluation unit 32 may calculate an evaluation value according to the ratio between the total number of points 94 determined to be visible from either of the plurality of surveillance cameras 43a and 43b and the total number of points 94 arranged on the unit sphere 90. .
Instead of the unit sphere 90, points 94 may be discretely arranged on the surface of an uneven object 92 as shown in FIG. 8B, and the evaluation value may be similarly calculated.

また、重複評価部32は、評価地点から複数の監視カメラ43の位置までの方向を監視カメラ43毎に求め、これらの方向のなす角度に応じて評価値を算出してもよい。
例えば、複数の監視カメラ43が2台である場合には、評価地点から監視カメラ43の位置までの方向のなす角の正弦関数又は余弦関数の値を評価値として算出してよい。
また、例えば複数の監視カメラ43が3台以上である場合には、これらの監視カメラ43のうち一対の監視カメラ43の全ての組み合わせについて、評価地点から位置までの方向のなす角の正弦関数又は余弦関数をそれぞれ求め、これらの平均値、最小値、最大値、中間値などを評価値として算出してよい。
Further, the overlapping evaluation unit 32 may obtain the direction from the evaluation point to the positions of the plurality of monitoring cameras 43 for each of the monitoring cameras 43 and calculate the evaluation value according to the angle formed by these directions.
For example, when there are two surveillance cameras 43, the value of the sine function or cosine function of the angle formed by the direction from the evaluation point to the position of the surveillance camera 43 may be calculated as the evaluation value.
Further, for example, when the plurality of monitoring cameras 43 is three or more, for all combinations of a pair of monitoring cameras 43 among these monitoring cameras 43, the sine function of the angle formed by the direction from the evaluation point to the position or Each cosine function may be obtained, and the average value, minimum value, maximum value, median value, or the like thereof may be calculated as an evaluation value.

図1を参照する。画像生成部33は、監視空間40の3次元モデルを表す構造物情報22に基づいて監視空間40を表す仮想画像を生成する。画像生成部33は、重複空間算出部31による重複空間の算出結果に基づいて、仮想画像上に重複空間の位置及び形状を表示する。画像生成部33は、可視空間算出部30による可視空間の算出結果に基づいて仮想画像上に可視空間を表示してもよい。
画像生成部33は、重複評価部32が算出した評価値に応じた表示態様で、仮想画像上に重複空間を表示する。
Please refer to FIG. The image generator 33 generates a virtual image representing the monitored space 40 based on the structure information 22 representing the three-dimensional model of the monitored space 40 . The image generator 33 displays the position and shape of the overlapping space on the virtual image based on the calculation result of the overlapping space by the overlapping space calculator 31 . The image generator 33 may display the visible space on the virtual image based on the visible space calculation result by the visible space calculator 30 .
The image generation unit 33 displays the overlapped space on the virtual image in a display mode according to the evaluation value calculated by the overlap evaluation unit 32 .

図10の(a)は、画像生成部33により生成される監視空間40を表す仮想画像100の第1例の概略説明図である。簡単のため構造物41及び42を省略している。図10の(b)においても同様である。図10の(a)の仮想画像100の例では、監視空間40内における監視カメラ43a及び43bの各々の可視空間Sa及びSbと、これらが重複する重複空間Sopの位置及び形状が表示されている。
例えば画像生成部33は、重複空間Sopの表示態様として重複空間Sopの色彩、明度、ハッチングパターンなどを評価値に応じて設定してよい。
(a) of FIG. 10 is a schematic explanatory diagram of a first example of a virtual image 100 representing the monitored space 40 generated by the image generator 33 . The structures 41 and 42 are omitted for simplicity. The same applies to (b) of FIG. In the example of the virtual image 100 in (a) of FIG. 10, the positions and shapes of the visible spaces Sa and Sb of the monitoring cameras 43a and 43b in the monitoring space 40 and the overlap space Sop where these overlap are displayed. .
For example, the image generator 33 may set the color, brightness, hatching pattern, etc. of the overlapping space Sop as the display mode of the overlapping space Sop according to the evaluation value.

重複空間Sop内に評価地点を1個だけ設定した場合には、画像生成部33は、この評価地点における評価値に応じて重複空間Sopの表示態様を設定してよい。
重複空間Sop内に複数の評価地点を設定した場合には、画像生成部33は、この評価地点における評価値の平均値、最大値、最小値、中間値に応じて重複空間Sopの表示態様を設定してよい。
When only one evaluation point is set in the overlapping space Sop, the image generator 33 may set the display mode of the overlapping space Sop according to the evaluation value at this evaluation point.
When a plurality of evaluation points are set in the overlapping space Sop, the image generation unit 33 changes the display mode of the overlapping space Sop according to the average value, maximum value, minimum value, and median value of the evaluation values at the evaluation points. can be set.

また画像生成部33は、図10の(b)の仮想画像100の第2例のように、重複空間Sopに配置した複数の評価地点の各々における評価値に応じて当該評価地点の色彩や明度を設定してよい。
重複評価部32は、評価地点の間の中間の地点の評価値を、例えば、当該地点の周りの評価地点の評価値を補間して求めてよい。画像生成部33は、補間により求めた評価値に応じて、評価地点の中間の地点の色彩や明度を設定してよい。画像生成部33は、当該地点の周りの評価地点の色彩や明度を補間して、評価地点の中間の地点の色彩や明度を設定してもよい。
In addition, the image generation unit 33 calculates the color and brightness of each of the plurality of evaluation points arranged in the overlapping space Sop according to the evaluation value at each of the evaluation points, as in the second example of the virtual image 100 in (b) of FIG. 10 . can be set.
The overlapping evaluation unit 32 may obtain the evaluation value of an intermediate point between the evaluation points by, for example, interpolating the evaluation values of the evaluation points around the point. The image generation unit 33 may set the color and brightness of intermediate points between the evaluation points according to the evaluation values obtained by interpolation. The image generator 33 may interpolate the color and brightness of the evaluation points around the point in question, and set the color and brightness of an intermediate point between the evaluation points.

(動作)
以下、図11を参照して、実施形態のカメラ配置評価方法の一例を説明する。
ステップS1では、監視カメラの可視空間及びその重複空間を算出するのに先だって、監視空間40に存在する構造物の構造物情報22を取得または生成して、カメラ配置評価装置1の記憶部2に設定登録する。
ステップS2では、複数の監視カメラ43a及び43bの位置や、撮影方向、画角、アスペクト比、解像度、焦点距離などといったカメラ情報21を取得して、カメラ配置評価装置1の記憶部2に設定登録する。
(motion)
An example of the camera arrangement evaluation method according to the embodiment will be described below with reference to FIG. 11 .
In step S1, prior to calculating the visible space of the surveillance camera and its overlapping space, the structure information 22 of the structure existing in the surveillance space 40 is acquired or generated, and stored in the storage unit 2 of the camera arrangement evaluation device 1. Register the settings.
In step S2, the camera information 21 such as the positions of the plurality of monitoring cameras 43a and 43b, the shooting direction, the angle of view, the aspect ratio, the resolution, the focal length, etc. is acquired, and the settings are registered in the storage unit 2 of the camera arrangement evaluation device 1. do.

ステップS3において可視空間算出部30は、監視カメラ43a及び43bの各々の可視空間Sa及びSbを算出する。
ステップS4において重複空間算出部31は、監視カメラ43a及び43bの各々の可視空間Sa及びSbどうしが重複する重複空間Sopを算出する。
ステップS5において重複評価部32は、重複空間Sop内の代表地点として1個又は複数の評価地点を監視空間Sop内に設定する。
In step S3, the visible space calculator 30 calculates the visible spaces Sa and Sb of the surveillance cameras 43a and 43b, respectively.
In step S4, the overlapping space calculator 31 calculates an overlapping space Sop in which the visible spaces Sa and Sb of the surveillance cameras 43a and 43b overlap each other.
In step S5, the overlapping evaluation unit 32 sets one or more evaluation points within the monitoring space Sop as representative points within the overlapping space Sop.

ステップS6において重複評価部32は、評価地点から監視カメラ43a及び43bの位置までのそれぞれの方向に応じて重複空間Sopの撮影状態の評価値を算出する。
ステップS7において画像生成部33は、監視空間40の3次元モデルを表す構造物情報22に基づいて監視空間40を表す仮想画像100を生成する。画像生成部33は、重複評価部32が算出した評価値に応じた表示態様で、仮想画像100上に重複空間Sopを表示する。出力装置5は、仮想画像100を出力する。
In step S6, the overlapping evaluation unit 32 calculates the evaluation value of the shooting state of the overlapping space Sop according to each direction from the evaluation point to the positions of the surveillance cameras 43a and 43b.
In step S<b>7 , the image generator 33 generates the virtual image 100 representing the monitored space 40 based on the structure information 22 representing the three-dimensional model of the monitored space 40 . The image generation unit 33 displays the overlap space Sop on the virtual image 100 in a display mode according to the evaluation value calculated by the overlap evaluation unit 32 . The output device 5 outputs the virtual image 100 .

(実施形態の効果)
(1)記憶部2は、複数の監視カメラ43a及び43bの位置、画角及び撮影方向を表すカメラ情報21を記憶する。可視空間算出部30は、カメラ情報21に基づいて、監視空間における複数の監視カメラ43a及び43bの可視空間Sa及びSbをそれぞれ算出する。重複評価部32は、可視空間Sa及びSbどうしの重複空間Sopを求め、重複空間Sop内の所定の評価地点から複数の監視カメラ43a及び43bの位置までのそれぞれの方向Dra及びDrbに応じて重複空間Sopの撮影状態の評価値を算出する。
これにより、複数の監視カメラ43a及び43bによる重複空間Sopの撮影状態を評価することができる。例えば、複数の監視カメラ43a及び43bが互いに近い方向から重複空間Sopを撮影しているのか、又は全く異なる方向から撮影しているのかを評価できる。
(Effect of Embodiment)
(1) The storage unit 2 stores camera information 21 representing the positions, angles of view, and shooting directions of the plurality of surveillance cameras 43a and 43b. Based on the camera information 21, the visible space calculator 30 calculates the visible spaces Sa and Sb of the plurality of surveillance cameras 43a and 43b in the surveillance space. The overlap evaluation unit 32 obtains an overlap space Sop between the visible spaces Sa and Sb, and calculates overlap according to the respective directions Dra and Drb from a predetermined evaluation point in the overlap space Sop to the positions of the plurality of surveillance cameras 43a and 43b. An evaluation value of the photographing state of the space Sop is calculated.
This makes it possible to evaluate the shooting state of the overlapping space Sop by the plurality of surveillance cameras 43a and 43b. For example, it is possible to evaluate whether the plurality of surveillance cameras 43a and 43b are photographing the overlapping space Sop from directions close to each other or from completely different directions.

(2)重複評価部32は、評価地点に所定形状の3次元モデルを配置して、カメラ情報21に基づいて監視カメラ43a及び43bごとに3次元モデルの表面の可視領域を算出し、可視領域の重複領域の面積と可視領域の論理和領域の面積との割合に応じて評価値を算出する。
これにより、重複領域Sop内に存在する監視対象を複数の監視カメラ43a及び43から見た可視領域の重複度合いに応じて評価値を算出できる。
(2) The overlapping evaluation unit 32 arranges a three-dimensional model of a predetermined shape at the evaluation point, calculates the visible area of the surface of the three-dimensional model for each of the surveillance cameras 43a and 43b based on the camera information 21, and calculates the visible area. The evaluation value is calculated according to the ratio of the area of the overlapping area of the visible area and the area of the logical sum area of the visible area.
As a result, the evaluation value can be calculated according to the degree of overlapping of the visible areas of the monitoring target existing within the overlapping area Sop as viewed from the plurality of monitoring cameras 43a and 43a.

(3)重複評価部32は、評価地点に所定形状の3次元モデルを配置して、カメラ情報21に基づいて監視カメラ43a及び43bごとに3次元モデルの表面の可視領域を算出し、可視領域の論理和領域の面積と3次元モデルの表面積の割合に応じて評価値を算出する。
これにより、重複領域Sop内に存在する監視対象を複数の監視カメラ43a及び43から見た可視領域が、どの程度の監視対象をカバーしているかに応じて評価値を算出できる。
(4)重複評価部32は、評価地点から監視カメラ43a及び43bの位置までの方向Dra及びDrbを監視カメラ43a及び43bごとに求め、これらの方向どうしがなす角度に応じて評価値を算出する。
これにより、複数の監視カメラ43a及び43bが互いに近い方向から重複空間Sopを撮影しているのか、又は全く異なる方向から撮影しているのかを評価できる。
(5)重複評価部32は、評価地点に所定形状の3次元モデルを配置して、カメラ情報に基づいて3次元モデルの表面の各位置について可視判定を監視カメラ43a及び43bごとに行い、複数の監視カメラ43a及び43bから同時に可視と判定された位置の総数と複数の監視カメラ43a及び43bのいずれかから可視と判定された位置の総数との割合に応じて評価値を算出する。
これにより、重複領域Sop内に存在する監視対象を複数の監視カメラ43a及び43から見た可視領域の重複度合いに応じて評価値を算出できる。
(6)重複評価部32は、評価地点に所定形状の3次元モデルを配置して、カメラ情報に基づいて3次元モデルの表面の各位置について可視判定を監視カメラ43a及び43bごとに行い、複数の監視カメラ43a及び43bのいずれかから可視と判定された位置の総数と3次元モデルに配置した位置の総数との割合に応じて評価値を算出する。
これにより、重複領域Sop内に存在する監視対象を複数の監視カメラ43a及び43から見た可視領域が、どの程度の監視対象をカバーしているかに応じて評価値を算出できる。
(3) The overlapping evaluation unit 32 arranges a three-dimensional model of a predetermined shape at the evaluation point, calculates the visible area of the surface of the three-dimensional model for each of the surveillance cameras 43a and 43b based on the camera information 21, and calculates the visible area. An evaluation value is calculated according to the ratio of the area of the logical sum region of and the surface area of the three-dimensional model.
As a result, the evaluation value can be calculated according to how much of the monitored object is covered by the visible area of the monitored object existing in the overlapping area Sop viewed from the plurality of monitoring cameras 43a and 43a.
(4) The overlapping evaluation unit 32 obtains the directions Dra and Drb from the evaluation point to the positions of the monitoring cameras 43a and 43b for each of the monitoring cameras 43a and 43b, and calculates the evaluation value according to the angle formed by these directions. .
This makes it possible to evaluate whether the plurality of surveillance cameras 43a and 43b are photographing the overlapping space Sop from directions close to each other or from completely different directions.
(5) The overlap evaluation unit 32 arranges a three-dimensional model of a predetermined shape at an evaluation point, performs visibility determination for each position on the surface of the three-dimensional model for each of the surveillance cameras 43a and 43b based on the camera information, The evaluation value is calculated according to the ratio between the total number of positions simultaneously determined to be visible from the monitoring cameras 43a and 43b and the total number of positions determined to be visible from either of the plurality of monitoring cameras 43a and 43b.
As a result, the evaluation value can be calculated according to the degree of overlapping of the visible areas of the monitoring target existing within the overlapping area Sop as viewed from the plurality of monitoring cameras 43a and 43a.
(6) The overlap evaluation unit 32 arranges a three-dimensional model of a predetermined shape at the evaluation point, performs visibility determination for each position on the surface of the three-dimensional model for each of the surveillance cameras 43a and 43b based on the camera information, An evaluation value is calculated according to the ratio between the total number of positions determined to be visible from either of the surveillance cameras 43a and 43b and the total number of positions arranged in the three-dimensional model.
As a result, the evaluation value can be calculated according to how much of the monitored object is covered by the visible area of the monitored object existing in the overlapping area Sop viewed from the plurality of monitoring cameras 43a and 43a.

(7)記憶部2は、監視空間40の3次元モデルをさらに記憶する。画像生成部33は、3次元モデルに基づいて生成された監視空間40を表す仮想画像100上に、各監視カメラ43a及び43bの重複空間Sopを表した画像を生成し、評価値に応じて重複空間Sopの表示を設定する。
これにより、複数の監視カメラ43a及び43bによる重複空間Sopの撮影状態を提示した仮想画像100を生成できる。
(7) The storage unit 2 further stores a three-dimensional model of the monitored space 40 . The image generation unit 33 generates an image representing the overlapping space Sop of each of the monitoring cameras 43a and 43b on the virtual image 100 representing the monitoring space 40 generated based on the three-dimensional model, and overlaps according to the evaluation value. Sets the display of the Spatial Sop.
As a result, a virtual image 100 presenting the state of photography of the overlapping space Sop by the plurality of surveillance cameras 43a and 43b can be generated.

(8)重複評価部32は、重複空間Sop内の複数の評価地点において評価値をそれぞれ算出し、算出した各評価値を用いて複数の評価地点の間の地点における評価値を算出する。
これにより、離散的な評価地点の間の中間の地点の評価値を算出することができる。
(8) The overlapping evaluation unit 32 calculates evaluation values at a plurality of evaluation points in the overlapping space Sop, and uses the calculated evaluation values to calculate evaluation values at points between the plurality of evaluation points.
This makes it possible to calculate evaluation values at intermediate points between discrete evaluation points.

1…カメラ配置評価装置、2…記憶部、3…制御部、4…入力装置、5…出力装置、20…カメラ配置評価プログラム、21…カメラ情報、22…構造物情報、30…可視空間算出部、31…重複空間算出部、32…重複評価部、33…画像生成部、34…角錐重複空間算出部、35…境界面算出部、40…監視空間、41、42…構造物、43a、43b…監視カメラ、Sa、Sb…範囲、Sop…監視空間 DESCRIPTION OF SYMBOLS 1... Camera arrangement|positioning evaluation apparatus, 2... Storage part, 3... Control part, 4... Input device, 5... Output device, 20... Camera arrangement|positioning evaluation program, 21... Camera information, 22... Structure information, 30... Visible space calculation Section 31 Overlapping space calculation unit 32 Overlap evaluation unit 33 Image generation unit 34 Pyramid overlap space calculation unit 35 Boundary surface calculation unit 40 Monitoring space 41, 42 Structure 43a, 43b... Surveillance camera, Sa, Sb... Range, Sop... Surveillance space

Claims (10)

複数のカメラの位置、画角及び撮影方向を含むカメラ情報を記憶する記憶部と、
前記カメラ情報に基づいて、監視空間における前記複数のカメラの可視空間をそれぞれ算出する可視空間算出部と、
前記可視空間どうしの重複空間を求め、前記複数のカメラから前記重複空間内の評価地点へのそれぞれの方向の近さを評価し、該方向の近さに応じた評価値を該重複空間の撮影状態の評価値として算出する重複評価部と、
を備えることを特徴とするカメラ配置評価装置。
a storage unit that stores camera information including the positions, angles of view, and shooting directions of a plurality of cameras;
a visible space calculation unit that calculates a visible space of each of the plurality of cameras in a monitored space based on the camera information;
An overlapping space between the visible spaces is obtained, the closeness of each direction from the plurality of cameras to an evaluation point in the overlapping space is evaluated, and an evaluation value corresponding to the closeness of the direction is taken from the overlapping space. a duplicate evaluation unit that calculates an evaluation value of the state;
A camera arrangement evaluation device comprising:
前記重複評価部は、前記評価地点に所定形状の3次元モデルを配置して、前記カメラ情報に基づいて前記カメラごとに当該3次元モデルの表面の可視領域を算出し、当該可視領域の重複領域の面積と当該可視領域の論理和領域の面積との割合に応じて前記評価値を算出することを特徴とする請求項1に記載のカメラ配置評価装置。 The overlap evaluation unit arranges a three-dimensional model having a predetermined shape at the evaluation point, calculates a visible area of the surface of the three-dimensional model for each camera based on the camera information, and calculates an overlap area of the visible area. 2. The camera arrangement evaluation apparatus according to claim 1, wherein said evaluation value is calculated according to a ratio of the area of the visible area and the area of the logical sum area of the visible area. 前記重複評価部は、前記評価地点に所定形状の3次元モデルを配置して、前記カメラ情報に基づいて前記カメラごとに当該3次元モデルの表面の可視領域を算出し、当該可視領域の論理和領域の面積と当該3次元モデルの表面積の割合に応じて前記評価値を算出することを特徴とする請求項1に記載のカメラ配置評価装置。 The overlapping evaluation unit arranges a three-dimensional model having a predetermined shape at the evaluation point, calculates a visible area of the surface of the three-dimensional model for each camera based on the camera information, and logically sums the visible areas. 2. The camera arrangement evaluation apparatus according to claim 1, wherein said evaluation value is calculated according to the ratio of the area of the region and the surface area of the three-dimensional model. 前記重複評価部は、前記評価地点から前記カメラの位置までの方向を前記カメラごとに求め、当該方向どうしがなす角度に応じて前記評価値を算出することを特徴とする請求項1に記載のカメラ配置評価装置。 2. The overlap evaluation unit according to claim 1, wherein the overlap evaluation unit obtains a direction from the evaluation point to the position of the camera for each camera, and calculates the evaluation value according to an angle between the directions. Camera placement evaluation device. 前記重複評価部は、前記評価地点に所定形状の3次元モデルを配置して、前記カメラ情報に基づいて当該3次元モデルの表面の各位置について可視判定を前記カメラごとに行い、複数のカメラから同時に可視と判定された前記位置の総数と複数のカメラのいずれかから可視と判定された前記位置の総数との割合に応じて前記評価値を算出することを特徴とする請求項1に記載のカメラ配置評価装置。 The overlap evaluation unit arranges a three-dimensional model of a predetermined shape at the evaluation point, performs visibility determination for each position on the surface of the three-dimensional model based on the camera information, and determines the visibility from the plurality of cameras. 2. The evaluation value according to claim 1, wherein the evaluation value is calculated according to a ratio between the total number of positions determined to be visible at the same time and the total number of positions determined to be visible from any of a plurality of cameras. Camera placement evaluation device. 前記重複評価部は、前記評価地点に所定形状の3次元モデルを配置して、前記カメラ情報に基づいて当該3次元モデルの表面の各位置について可視判定を前記カメラごとに行い、複数のカメラのいずれかから可視と判定された前記位置の総数と前記3次元モデルに配置した前記位置の総数との割合に応じて前記評価値を算出することを特徴とする請求項1に記載のカメラ配置評価装置。 The overlapping evaluation unit arranges a three-dimensional model having a predetermined shape at the evaluation point, performs visibility determination for each position on the surface of the three-dimensional model based on the camera information, and performs visibility determination for each camera. 2. The camera arrangement evaluation according to claim 1, wherein the evaluation value is calculated according to a ratio of the total number of positions determined to be visible from either to the total number of positions arranged in the three-dimensional model. Device. 前記記憶部は、前記監視空間の3次元モデルをさらに記憶し、
前記3次元モデルに基づいて生成された前記監視空間を表す仮想画像上に、前記各カメラの前記重複空間を表した画像を生成し、前記評価値に応じて前記重複空間の表示を設定する画像生成部を更に備えることを特徴とする請求項1~請求項6の何れか一項に記載のカメラ配置評価装置。
The storage unit further stores a three-dimensional model of the monitored space,
An image for generating an image representing the overlapping space of each of the cameras on a virtual image representing the monitored space generated based on the three-dimensional model, and setting display of the overlapping space according to the evaluation value. 7. The camera layout evaluation device according to claim 1, further comprising a generator.
前記重複評価部は、前記重複空間内の複数の前記評価地点において前記評価値をそれぞれ算出し、算出した当該各評価値を用いて前記複数の評価地点の間の地点における評価値を算出することを特徴とする請求項1~請求項7の何れか一項に記載のカメラ配置評価装置。 The overlapping evaluation unit calculates the evaluation values at the plurality of evaluation points in the overlapping space, and calculates evaluation values at points between the plurality of evaluation points using the calculated evaluation values. The camera arrangement evaluation device according to any one of claims 1 to 7, characterized by: コンピュータに、
複数のカメラの位置、画角及び撮影方向を含むカメラ情報を記憶装置から読み出す情報読出ステップと、
前記カメラ情報に基づいて、監視空間における前記複数のカメラの可視空間をそれぞれ算出する可視空間算出ステップと、
前記可視空間どうしの重複空間を求め、前記複数のカメラから前記重複空間内の評価地点へのそれぞれの方向の近さを評価し、該方向の近さに応じた評価値を該重複空間の撮影状態の評価値として算出する重複評価ステップと、
を実行させることを特徴とするカメラ配置評価方法。
to the computer,
an information reading step of reading camera information including the positions, angles of view and shooting directions of a plurality of cameras from a storage device;
a visible space calculation step of calculating respective visible spaces of the plurality of cameras in a monitored space based on the camera information;
An overlapping space between the visible spaces is obtained, the closeness of each direction from the plurality of cameras to an evaluation point in the overlapping space is evaluated, and an evaluation value corresponding to the closeness of the direction is taken from the overlapping space. A redundant evaluation step calculated as an evaluation value of the state;
A camera placement evaluation method characterized by executing
コンピュータに、
複数のカメラの位置、画角及び撮影方向を含むカメラ情報を記憶装置から読み出す情報読出ステップと、
前記カメラ情報に基づいて、監視空間における前記複数のカメラの可視空間をそれぞれ算出する可視空間算出ステップと、
前記可視空間どうしの重複空間を求め、前記複数のカメラから前記重複空間内の評価地点へのそれぞれの方向の近さを評価し、該方向の近さに応じた評価値を該重複空間の撮影状態の評価値として算出する重複評価ステップと、
を実行させることを特徴とするコンピュータプログラム。
to the computer,
an information reading step of reading camera information including the positions, angles of view and shooting directions of a plurality of cameras from a storage device;
a visible space calculation step of calculating respective visible spaces of the plurality of cameras in a monitored space based on the camera information;
An overlapping space between the visible spaces is obtained, the closeness of each direction from the plurality of cameras to an evaluation point in the overlapping space is evaluated, and an evaluation value corresponding to the closeness of the direction is taken from the overlapping space. A redundant evaluation step calculated as an evaluation value of the state;
A computer program characterized by causing the execution of
JP2019126887A 2019-07-08 2019-07-08 Camera placement evaluation device, camera placement evaluation method, and computer program Active JP7332363B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019126887A JP7332363B2 (en) 2019-07-08 2019-07-08 Camera placement evaluation device, camera placement evaluation method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019126887A JP7332363B2 (en) 2019-07-08 2019-07-08 Camera placement evaluation device, camera placement evaluation method, and computer program

Publications (2)

Publication Number Publication Date
JP2021013111A JP2021013111A (en) 2021-02-04
JP7332363B2 true JP7332363B2 (en) 2023-08-23

Family

ID=74226880

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019126887A Active JP7332363B2 (en) 2019-07-08 2019-07-08 Camera placement evaluation device, camera placement evaluation method, and computer program

Country Status (1)

Country Link
JP (1) JP7332363B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007208387A (en) 2006-01-31 2007-08-16 Matsushita Electric Ind Co Ltd Sensor arrangement apparatus, sensor control apparatus and system
WO2014002398A1 (en) 2012-06-28 2014-01-03 日本電気株式会社 Camera position/posture evaluation device, camera position/posture evaluation method, and camera position/posture evaluation program
WO2014087620A1 (en) 2012-12-06 2014-06-12 日本電気株式会社 Visual field display system, visual field display method, and visual field display program
JP2018120283A (en) 2017-01-23 2018-08-02 キヤノン株式会社 Information processing device, information processing method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007208387A (en) 2006-01-31 2007-08-16 Matsushita Electric Ind Co Ltd Sensor arrangement apparatus, sensor control apparatus and system
WO2014002398A1 (en) 2012-06-28 2014-01-03 日本電気株式会社 Camera position/posture evaluation device, camera position/posture evaluation method, and camera position/posture evaluation program
WO2014087620A1 (en) 2012-12-06 2014-06-12 日本電気株式会社 Visual field display system, visual field display method, and visual field display program
JP2018120283A (en) 2017-01-23 2018-08-02 キヤノン株式会社 Information processing device, information processing method and program

Also Published As

Publication number Publication date
JP2021013111A (en) 2021-02-04

Similar Documents

Publication Publication Date Title
EP3080781B1 (en) Image rendering of laser scan data
US8830230B2 (en) Sensor placement and analysis using a virtual environment
US20100328308A1 (en) Three Dimensional Mesh Modeling
KR102164541B1 (en) Apparatus and method for generating acceleration structure in a ray tracing system
KR102042941B1 (en) Simplification of small mesh components with redundant backs
JP2009239821A (en) Camera installation simulator program
JP6429914B2 (en) Optimal placement search device
US11490062B2 (en) Information processing apparatus, information processing method, and storage medium
JP2018206025A (en) Information processing device and information processing method
JP5136703B2 (en) Camera installation position evaluation program, camera installation position evaluation method, and camera installation position evaluation apparatus
JP2007200130A (en) Scenery analysis method, computer program executing the method and medium with the program stored
JP7332363B2 (en) Camera placement evaluation device, camera placement evaluation method, and computer program
JP7311327B2 (en) Shooting simulation device, shooting simulation method and computer program
WO2019171823A1 (en) Photographing evaluation map, photographing evaluation map generation device, photographing evaluation map generation method, and photographing evaluation map generation program
JP3593155B2 (en) Shape design support device
JP2001184526A (en) Plane generating method three-dimensional shape data
JP2020035216A (en) Image processing device, method, and program
CN110942522B (en) Processing method and device for judging overlap between models
JP7285100B2 (en) Installation support device and installation support program
CN113674356A (en) Camera screening method and related device
JPWO2011111095A1 (en) Halation simulation method, apparatus, and program
CN111445574A (en) Video monitoring equipment deployment and control method, device and system
JP7285101B2 (en) Installation support device and installation support program
JP7291013B2 (en) Camera placement evaluation device, camera placement evaluation method, and computer program
US20110074777A1 (en) Method For Displaying Intersections And Expansions of Three Dimensional Volumes

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230810

R150 Certificate of patent or registration of utility model

Ref document number: 7332363

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150