JP7311327B2 - 撮影シミュレーション装置、撮影シミュレーション方法およびコンピュータプログラム - Google Patents

撮影シミュレーション装置、撮影シミュレーション方法およびコンピュータプログラム Download PDF

Info

Publication number
JP7311327B2
JP7311327B2 JP2019121895A JP2019121895A JP7311327B2 JP 7311327 B2 JP7311327 B2 JP 7311327B2 JP 2019121895 A JP2019121895 A JP 2019121895A JP 2019121895 A JP2019121895 A JP 2019121895A JP 7311327 B2 JP7311327 B2 JP 7311327B2
Authority
JP
Japan
Prior art keywords
visible
space
camera
pyramid
overlapping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019121895A
Other languages
English (en)
Other versions
JP2021010069A (ja
Inventor
一徳 大西
利彦 櫻井
昇平 國松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2019121895A priority Critical patent/JP7311327B2/ja
Publication of JP2021010069A publication Critical patent/JP2021010069A/ja
Application granted granted Critical
Publication of JP7311327B2 publication Critical patent/JP7311327B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、カメラにより撮影される空間の範囲を算出する撮影シミュレーション装置、撮影シミュレーション方法およびコンピュータプログラムに関する。
監視空間に監視カメラを設置する際には、所望の監視目的を達成するための監視カメラの配置条件(設置位置・姿勢・画角等)を事前に計画(プランニング)する。計画した配置条件によって監視目的がどの程度満たされるのかを評価するためには、監視カメラにより撮影される3次元の空間範囲(以下、「可視空間」と表記する)をシミュレートすることが有用である。従来、可視空間は、監視空間内の各位置に対してレイトレーシングを行うことにより求めていた。
例えば、下記特許文献1では、監視空間をボクセルで分割し、各ボクセルが監視カメラから可視であるか否かの判定を行い、可視のボクセルの表す空間を可視空間として求めている。
特開2018-128961号公報
しかしながら、上記従来技術では、計算精度を高めるためにボクセル数を増やすと多大な計算コストが発生するという問題があった。反対に、計算コストを下げるためにボクセルサイズを大きくしてボクセル数を減らすと、可視空間の境界位置の計算精度が低下するという問題があった。
本発明は、上記の問題点を鑑みてなされたものであり、監視カメラの可視空間を少ない計算量で高精度に算出することを目的とする。
本発明の一形態による撮影シミュレーション装置は、カメラの位置、画角及び撮影方向を含むカメラ情報、及び監視空間内の構造物の位置及び形状を含む構造物情報を記憶している記憶部と、カメラの位置から所定の距離範囲に背景面を設定する背景面設定部と、構造物の表面及び背景面のうちカメラの位置から見える可視領域を算出する可視領域算出部と、可視領域を多角形に分割する多角形算出部と、カメラの位置を頂点とし多角形を底面とする角錐が占める空間の集合をカメラの可視空間として算出する可視空間算出部と、を備える。
本発明の他の形態による撮影シミュレーション方法は、コンピュータに、カメラの位置、画角及び撮影方向を含むカメラ情報、及び監視空間内の構造物の位置及び形状を含む構造物情報を記憶装置から読み出す情報読出ステップと、カメラの位置から所定の距離範囲に背景面を設定する背景面設定ステップと、構造物の表面及び背景面のうちカメラの位置から見える可視領域を算出する可視領域算出ステップと、可視領域を多角形に分割する多角形算出ステップと、カメラの位置を頂点とし多角形を底面とする角錐が占める空間の集合をカメラの可視空間として算出する可視空間算出ステップと、を実行させる。
本発明の更に他の形態によるコンピュータプログラムは、コンピュータに、カメラの位置、画角及び撮影方向を含むカメラ情報、及び監視空間内の構造物の位置及び形状を含む構造物情報を記憶装置から読み出す情報読出ステップと、カメラの位置から所定の距離範囲に背景面を設定する背景面設定ステップと、構造物の表面及び背景面のうちカメラの位置から見える可視領域を算出する可視領域算出ステップと、可視領域を多角形に分割する多角形算出ステップと、カメラの位置を頂点とし多角形を底面とする角錐が占める空間の集合をカメラの可視空間として算出する可視空間算出ステップと、を実行させる。
本発明によれば、監視カメラの可視空間を少ない計算量で高精度に算出できる。
本発明の実施形態の撮影シミュレーション装置の一例の概略構成図である。 (a)はカメラと監視空間内の構造物の配置例の説明図であり、(b)は可視領域の説明図であり、(c)及び(d)はカメラの可視空間を構成する角錐の説明図である。 カメラ座標系と、背景面と、カメラの視錐体の説明図である。 (a)及び(b)は、可視候補領域の算出方法の説明図である。 (a)及び(b)は可視領域の算出方法の説明図であり、(c)はカメラの可視空間を構成する角錐の説明図である。 可視候補領域の前後判定方法の説明図である。 (a)は一対のカメラの可視空間をそれぞれ構成する角錐同士が重複する例を示す図であり、(b)は重複空間の説明図であり、(c)は重複空間を画定する境界面の説明図である。 (a)及び(b)は、境界面の算出方法の説明図である。 本発明の実施形態の撮影シミュレーション方法の一例のフローチャートである。 重複空間の算出方法の一例のフローチャートである。 図11の境界面算出処理の一例のフローチャートである。
以下において、図面を参照して本発明の実施形態を説明する。なお、以下に示す本発明の実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、構成部品の構造、配置等を下記のものに特定するものではない。本発明の技術的思想は、特許請求の範囲に記載された請求項が規定する技術的範囲内において、種々の変更を加えることができる。
(構成)
図1を参照する。実施形態の撮影シミュレーション装置1は、例えばコンピュータにより構成され、記憶部2と、制御部3とを備える。
記憶部2は、半導体記憶装置、磁気記憶装置及び光学記憶装置のいずれかを備えてよい。記憶部2は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリを含んでよい。
制御部3は、例えば、CPU(Central Processing Unit)やMPU(Micro-Processing Unit)等のプロセッサと、その周辺回路によって構成される。
以下に説明する制御部3の機能は、例えば、記憶部2に格納されたコンピュータプログラムである撮影シミュレーションプログラム20を、制御部3が備えるプロセッサが実行することによって実現される。
なお、入力装置4は、撮影シミュレーション装置1の動作を制御するために、カメラプランニングの実施者や、監視従事者、管理者など(以下、「プランニング実施者等」と表記する)が操作するマウスやキーボードなどである。入力装置4は、撮影シミュレーション装置1に接続され、入力装置4から各種情報が撮影シミュレーション装置1に入力される。
撮影シミュレーション装置1は、所定の監視空間内を撮像する監視カメラをある配置条件で設置した場合の監視カメラの可視空間をシミュレーションにより算出し、可視空間の範囲を表す可視範囲画像を生成する。また、撮影シミュレーション装置1は、監視カメラの配置条件の評価を算出する。
また、出力装置5は、撮影シミュレーション装置1が算出した監視カメラの可視空間のシミュレーション結果や監視カメラの配置条件の評価結果を出力するディスプレイ、プロジェクタ、プリンタなどである。
次に、撮影シミュレーション装置1による可視空間の算出方法の概要を説明する。
図2の(a)を参照する。いま、屋外空間や、構造物によって形成される屋内空間等である監視空間40内に構造物41及び42が存在し、監視カメラ43でこの監視空間40内を撮影する場合を想定する。
説明の簡単のため、図2の(b)は、図2の(a)の監視空間40を上方から見た平面図を示す。
まず、撮影シミュレーション装置1は、監視カメラ43の位置(例えば焦点位置)から所定の距離範囲に背景面44を設定する。監視カメラ43から背景面44までの所定の距離範囲は、プランニング実施者等が任意に設定してもよく、監視空間40内の監視対象の撮影に要する最低画素密度に応じて決定してもよい。
撮影シミュレーション装置1は、予め設計データとして与えられた監視カメラ43の位置、撮影方向及び画角の情報に基づいて監視カメラ43の撮影範囲を示す視錐体50を算出する。視錐体50は、背景面44を底面とし、監視カメラ43の撮影範囲の方位角、仰角、俯角を表す側面を有する角錐(例えば四角錐)である。
次に、撮影シミュレーション装置1は、構造物41及び42の表面、並びに背景面44の領域のうち監視カメラ43の位置から見える可視領域51、52及び54を算出する。図2の(b)の太線で表された範囲が、可視領域51、52及び54である。
図2の(b)の例では、構造物41の監視カメラ43を向いた領域51は全て視錐体50に含まれており、また領域51を監視カメラ43から遮蔽する物体が存在しないことから、領域51の全面が可視領域となる。
一方で、構造物42の監視カメラ43を向いた領域のうち、一部の領域42bのみが視錐体50に含まれ、領域42bの一部の領域42cは構造物41により監視カメラ43から遮蔽されている。このため、領域42bから領域42cを除いた領域52のみが可視領域となる。
同様に、背景面44は一部の領域44bのみが視錐体50に含まれ、領域54以外の範囲は構造物41、42によって監視カメラ43から遮蔽されている。このため、領域54のみが可視領域となる。
次に、撮影シミュレーション装置1は、可視領域51、52及び54の各々を多角形に分割する。
図2の(c)及び図2の(d)を参照する。例えば、撮影シミュレーション装置1は、可視領域51を凸多角形である三角形51a及び51bに分割する。
そして、撮影シミュレーション装置1は、監視カメラ43の位置を頂点とし、分割された可視領域51a及び51bを底面とする角錐55a及び55bを算出する。
可視領域52及び54についても、同様に、多角形に分割された可視領域をそれぞれ底面とし監視カメラ43の位置を頂点とする角錐を算出する。
撮影シミュレーション装置1は、これら算出した角錐が占める空間の集合を監視カメラ43の可視空間として算出する。
このように、複雑な形状になり易い可視空間を監視カメラ43の位置を頂点とした角錐の集合として算出することにより、少ない計算量で高精度の可視空間を求めることができる。
以下、撮影シミュレーション装置1の詳細を説明する。図1を参照する。記憶部2には、上述の撮影シミュレーションプログラム20のほか、カメラ情報21と構造物情報22が格納されている。
カメラ情報21は、いわゆるカメラパラメータであり、監視カメラ43の3次元的な位置と、撮影方向を表すヨー角、ロール角及びピッチ角と、画角と、アスペクト比と、解像度と、焦点距離などの、監視カメラ43の外部パラメータ及び内部パラメータである。監視カメラ43の位置は典型的には焦点位置である。監視カメラ43の位置を近似的にレンズ中心位置としてもよい。或いは、カメラ情報21に監視カメラ43の設置位置や監視カメラ43のカメラ構造を設定し、これらから焦点位置又はレンズ中心位置を求めるようにしてもよい。
構造物情報22は、監視空間40に存在する現実世界の構造物(什器,樹木等の物体を含む)の位置、形状、構造などを含む3次元の幾何形状データ(すなわち3次元モデル)である。図2の例では、構造物情報22は、監視空間40内の構造物41及び42の幾何形状データを含んでよい。
構造物情報22を生成するための幾何形状データは、3次元CADやBIM(Building Information Modeling)で作成されたものでもよいし、3次元レーザースキャナー等により監視空間に存在する構造物の3次元形状を取り込んだデータでもよい。構造物情報22を生成するための幾何形状データは、航空機からステレオ撮影やレーザ測距を行うことによって作成された高さ情報も含む立体形状をポリゴンデータによって表したデータであってもよい。
なお、これらの3次元の幾何形状データは四面体分割されていてもよい。四面体分割された3次元データを取り扱うことにより、後述の演算処理をより高速に事項することができる。
制御部3は、記憶部2に記憶された撮影シミュレーションプログラム20を読み出して実行し、背景面設定部30と、可視領域算出部31と、多角形算出部32と、可視空間算出部33と、重複空間算出部34と、評価部35として機能する。
背景面設定部30は、構造物情報22により表された構造物41及び42の座標を、監視カメラ43の焦点位置を原点とするカメラ座標系の座標に変換する。
カメラ座標系としては様々な座標系を採用できるが、例えば図3のカメラ座標系の一例は、カメラの視軸が負のZ軸方向を向いた右手座標系である。
次に、背景面設定部30は最低画素密度の設定入力を受け付ける。最低画素密度は、現実世界における単位長をカメラ画像中において最低何ピクセルで写す必要があるかを規定する下限値である。プランニング実施者は、入力装置4を用いて最低画素密度の設定値を入力する。
背景面設定部30は、設定された最低画素密度と、カメラ情報21とに基づいて、監視カメラ43の焦点位置から所定の距離範囲に、監視カメラ43の光軸に対して垂直な背景面44を設定する。所定の距離範囲は、背景面44の位置の物体が最低画素密度で撮影できるように設定してよい。また、プランニング実施者が任意に所定の距離範囲を設定してもよい。
背景面設定部30は、背景面44を底面とし、監視カメラ43の撮影範囲の方位角、仰角、俯角を表す側面を有する角錐50を、監視カメラの視錐体50として算出する。視錐体50は、背景面44と、監視カメラ43の画角とアスペクト比で求められた直線50a、50b、50c及び50dとで囲まれた空間である。
なお、視錐体50の底面の4角形を2つの3角形に分割して、2つの四面体の集合を監視カメラ43の視錐体としてもよい。
可視領域算出部31は、構造物41、42の表面及び背景面44の領域のうち監視カメラ43の焦点位置から見える可視領域を算出する。
まず、可視領域算出部31は、構造物情報22に定義されている構造物と視錐体50との接触判定(交差判定)を行う。視錐体50並びに構造物が四面体で構成されている場合には、GPR(Ganovelli,Ponchio,Rocchini)アルゴリズムを用いることにより、四面体の間の接触判定をより高速に行うことができる。それ以外の場合には、バウンディングボックスやSAT(Separating Axis Theorem)アルゴリズムを用いて視錐体50と構造物とが接触(交差)しているか否かを判定できる。
可視領域算出部31は、構造物情報22に定義されている構造物のうち視錐体50に接触(交差)している構造物41、42を選択して以降の処理を行う。
次に、可視領域算出部31は、視錐体50に接触(交差)している構造物41、42の表面領域のうち監視カメラ43に向いている領域を選択する。例えば、構造物41、42の表面領域の法線方向が構造物41、42の外側を向く方向であると定義すると、可視領域算出部31は、監視カメラ43の光軸と表面領域の法線との内積が負になるとき、表面領域が監視カメラ43に向いていると判定できる。
可視領域算出部31は、監視カメラ43に向いている構造物41、42の表面領域と視錐体50との交差領域を、可視候補領域として算出する。また、可視領域算出部31は、視錐体50の底面を可視候補領域に設定する。
可視領域算出部31は、これらの可視候補領域を三角形に分割してもよい。
図4の(a)を参照して、構造物41の表面領域のうち監視カメラ43に向いている領域41aと視錐体50との交差領域を算出する処理を説明する。
可視領域算出部31は、領域41aが存在する平面61と、監視カメラ43の画角とアスペクト比で求められた視錐体50の斜辺50a~50dとの交点61a、61b、61c及び61dを算出する。
可視領域算出部31は、交点61a~61dを結んだ凸領域と領域41aとが2次元平面上で重複する領域を、領域41aと視錐体50との交差領域として算出し、可視候補領域とする。
図4の(a)の例では、交点61a~61dを結んだ凸領域内に領域41aが全て含まれるので、領域41a全てが可視候補領域となる。
図4の(b)を参照して、構造物42の表面領域のうち監視カメラ43に向いている領域42aと視錐体50との交差領域を算出する処理を説明する。
可視領域算出部31は、領域42aが存在する平面62と、視錐体50の斜辺50a~50dとの交点62a、62b、62c及び62dを算出する。
可視領域算出部31は、交点62a~62dを結んだ凸領域と領域42aとが2次元平面上で重複する領域42bを、領域42aと視錐体50との交差領域として算出し、可視候補領域とする。
次に、可視領域算出部31は、これら可視候補領域の各々について、他の可視候補領域により監視カメラ43から遮蔽されるか否かを判断する。監視カメラ43から見て、ある可視候補領域の手前に他の可視候補領域が存在する場合には、全部又は一部が遮蔽されて監視カメラ43から見えなくなるからである。
ある可視候補領域が、監視カメラ43から見て手前の他の可視候補領域によって遮蔽される場合には、遮蔽される部分を除いて可視領域を算出する。
複数の他の可視候補領域が監視カメラ43から見て手前に存在している場合には、これら複数の可視候補領域により遮蔽される全ての部分を除いて可視領域を算出する。
図5の(a)を参照して、構造物41の可視候補領域41aから可視領域を算出する処理を説明する。
監視カメラ43から見て可視候補領域41aの手前には、他の可視候補領域が存在しないので他の可視候補領域により遮蔽される部分はない。このため、可視領域算出部31は、可視候補領域41aの全ての領域を可視領域51とする。
図5の(b)を参照して、構造物42の可視候補領域42bから可視領域を算出する処理を説明する。監視カメラ43から見て可視候補領域42bの手前には、他の可視候補領域41aが存在している。このため、可視領域算出部31は、可視候補領域42bから可視候補領域41aにより遮蔽される部分を除いた範囲52を可視領域とする。
可視領域算出部31は、監視カメラ43の焦点位置と他の可視候補領域41aの頂点71a、71b、71c及び71dとを結んだ直線と可視候補領域42bが存在する平面との交点72a、72b、72c及び72dを算出する(交点72cは不図示)。
可視領域算出部31は、交点72a~72dを結んだ凸領域と可視候補領域42bとが2次元平面上で重複する領域を求め、これを可視候補領域42bから除いて可視領域52を算出する。
また、可視領域算出部31は、視錐体50の底面のうち構造物41、42の可視候補領域41a、42bによって遮蔽される領域を除いた範囲を、可視領域として算出する。
なお、ある可視候補領域(ここでは「可視候補領域R1」と表記する)が、監視カメラ43から見て、他の可視候補領域(ここでは「可視候補領域R2」と表記する)よりも前に存在するのか後ろに存在するのかは、例えば以下のように判定してよい。
(1)可視候補領域R1の頂点のZ座標値の絶対値の最大値が、可視候補領域R2の頂点のZ座標値の絶対値の最小値よりも小さい場合には、可視候補領域R1は、監視カメラ43から見て可視候補領域R2の前に存在する。
(2)可視候補領域R1の頂点のZ座標値の絶対値の最小値が、可視候補領域R2の頂点のZ座標値の絶対値の最大値よりも大きい場合には、可視候補領域R1は、監視カメラ43から見て可視候補領域R2の後ろに存在する。
(3)それ以外の場合には、可視領域算出部31は、可視候補領域R2の頂点のうち3つの頂点A、B及びCの座標値に基づいて、可視候補領域R2が存在する平面PLの平面ax+by+cz+d=0を算出する。
図6を参照する。原点Oから平面までの距離は(-d)となる。一方で、可視候補領域R1のいずれかの頂点の位置ベクトルをベクトルP(px、py、pz)とすると、位置ベクトルPを平面PLの法線nに射影した長さhは、法線nとベクトルPとの内積によりh=a×px+b×py+c×pzとなる。
可視領域算出部31は、h<(-d)のとき、可視候補領域R1は、監視カメラ43から見て可視候補領域R2の前に存在すると判断する。可視領域算出部31は、h>(-d)のとき、可視候補領域R1は、監視カメラ43から見て可視候補領域R2の後ろに存在すると判断する。
図5の(c)を参照する。多角形算出部32は、可視領域算出部31が算出した可視領域を凸多角形に分割する。図5の(c)の例では、可視領域51を3角形51a及び51bに分割し、可視領域52を3角形52a及び52bに分割する。同様に多角形算出部32は、背景面44上の可視領域54(図2の(b)参照)についても、3角形等の凸多角形に分割する。
可視空間算出部33は、監視カメラ43の焦点位置を頂点とし、分割された可視領域を底面とする角錐を算出する。図5の(c)の例では、監視カメラ43の焦点位置を頂点とし可視領域52aを底面とする角錐56を算出する。可視領域52aが3角形である場合には、角錐56は四面体となる。
可視空間算出部33は、可視領域51a、51b及び52b、並びに背景面44上の可視領域についても同様に角錐を算出する。
可視空間算出部33は、これら算出した角錐が占める空間の集合を監視カメラ43の可視空間として算出する。以上により監視カメラ43の可視空間を求めることができる。
図1を参照する。評価部35は、可視空間算出部33が算出した可視空間に基づいて、監視カメラ43の配置条件の評価値を算出する。
例えば、監視空間40を撮影する複数の監視カメラが配置された場合には、複数の監視カメラの可視空間同士の重複が少ない方が、効率的な配置条件と考えられる。したがって評価部35は、複数の監視カメラの可視空間とこれら可視空間の間の重複空間との体積比に基づいて、複数の監視カメラの配置条件の評価値を算出する。例えば、評価部35は、複数の監視カメラの可視空間の体積に対する重複空間の体積の比が小さいほどより高い評価値を算出する。
可視空間どうしの重複空間は、重複空間算出部34によって算出される。重複空間算出部34は、一対の監視カメラの各々の可視空間のデータを入力し、これらの可視空間の間の重複空間を算出する。
上記の通り、可視空間の各々は、監視カメラの焦点位置を頂点とし可視領域を底面とする角錐の集合で構成されている。重複空間算出部34は、一対の監視カメラの一方の可視空間を構成する各々の角錐と、他方の監視カメラの可視空間を構成する各々の角錐とが重複する各々の角錐重複空間を算出する角錐重複空間算出部36を備える。
図7の(a)及び図7の(b)を参照する。角錐80は、一方の監視カメラの可視空間を構成する角錐の一つであり、角錐81は、他方の監視カメラの可視空間を構成する角錐の一つである。角錐80及び81が重複する空間82が角錐重複空間である。図示の通り、可視領域が3角形である場合には角錐80及び81は四面体となる。
角錐重複空間算出部36は、一方の監視カメラの可視空間を構成する各々の角錐と他方の監視カメラの可視空間を構成する各々の角錐との全ての組合せについて接触判定し、接触する場合には角錐重複空間を算出する。接触判定には、例えば上述のGPRアルゴリズム、バウンディングボックスやSATアルゴリズムを用いることができる。
重複空間算出部34は、角錐重複空間算出部36が算出した角錐重複空間を合計して、一対の監視カメラの可視空間の間の重複空間を算出する。
図7の(c)を参照する。角錐重複空間算出部36は、角錐重複空間82の表面を画定する境界面82a、82b、82c、82d及び82eを算出し、これらの境界面82a~82eにより囲まれる空間を角錐重複空間82として算出する。
図1を参照する。角錐重複空間算出部36は、境界面82a~82eの各々を算出する境界面算出部37を備える。
図8の(a)を参照する。接触判定によって互いに接触する(重複する)1対の角錐が検出されると、境界面算出部37は、これら角錐のうち一方を第1角錐80として選択し、他方を第2角錐81として選択する。
境界面算出部37は、第1角錐80を形成する面80A、80B、80C及び80Dのうちいずれか1つの面を選択する。図8の(a)の例では面80Aを選択する。
また境界面算出部37は、第2角錐81の頂点81a、81b、81c及び81dのうちいずれか1つの頂点を選択する。図8の(a)の例では頂点81aを選択する。
図8の(b)を参照する。境界面算出部37は、選択した頂点81aと残りの頂点81b~81dとを各々結ぶ線分83b、83c及び83dの全てが、選択した面80Aが存在する平面85と交差するか否かを判定する。すなわち、頂点81aから見て、頂点81b~81dの全てが面80Aの裏側に存在するか否かを判断する。
線分83b~83dの全てが平面85と交差する場合、境界面算出部37は、線分83b~83dが平面85と交差する交点84b、84c及び84dを算出する。
境界面算出部37は、交点84b~84dを結ぶ多角形84と面80Aとの重複領域(ハッチングされた領域)を境界面82bとして算出する。
一方で、線分83b~83dの全てが平面85と交差しない場合には、交点84b~84dを結ぶ多角形84を算出できないので境界面を算出できない。したがって、この場合には、面80Aと頂点81aとの組み合わせに関して境界面の算出を中止する。
上記の処理を、第1角錐80を形成する面80A~80Dと第2角錐81の頂点81a~81dの全ての組合せについて行い、さらに第1角錐80及び第2角錐81として選択される角錐を互いに入れ替えて同じ処理を繰り返すと、角錐重複空間82の表面を画定する境界面82a~82eが全て算出される。
図1を参照する。監視カメラ43の配置条件の評価値の他の例として、評価部35は、監視空間40内の監視対象の空間範囲である要監視空間と監視カメラ43の可視空間とが重複する空間の体積に応じた評価値を算出してもよい。この場合、重複する空間の体積が大きいほどより高い評価値を算出する。
記憶部2には、要監視空間の位置及び形状の幾何形状データを記憶してもよい。要監視空間を四面体などの錐体に分割して記憶部2に記憶して、重複空間算出部34によって要監視空間と可視空間とが重複する空間を算出してもよい。
さらに、監視カメラ43の配置条件の評価値の他の例として、評価部35は、監視対象物を表す3次元モデルである監視対象オブジェクトを、所定の経路に沿って監視空間40内にて移動させ、監視対象オブジェクトと可視空間の接触を判定して、接触の程度(接触回数、接触時間、接触状態での移動距離)に応じた評価値を算出してもよい。この場合、接触の程度が大きい(接触回数が多い、接触時間や移動距離が長い)ほどより高い評価値を算出する。接触判定には、上述のGPRアルゴリズム、バウンディングボックスやSATアルゴリズムを用いることができる。
記憶部2には、監視対象オブジェクトの3次元モデルを記憶してよい。四面体分割された3次元モデルを記憶することにより、GPRアルゴリズム等を用いて高速な接触判定が可能になる。
さらに、監視カメラ43の配置条件の評価値の他の例として、評価部35は、可視空間内に監視対象オブジェクトを配置して、監視対象オブジェクトの可視領域を算出し、可視領域の面積に応じた評価値を算出してもよい。この場合、可視領域の面積が広いほどより高い評価値を算出する。
(動作)
以下、図9を参照して、実施形態の撮影シミュレーション方法の一例を説明する。
ステップS1では、監視カメラ43の可視空間を算出するのに先だって、監視空間40に存在する構造物の構造物情報22を取得または生成して、撮影シミュレーション装置1の記憶部2に設定登録する。
ステップS2では、監視カメラ43の焦点位置や、撮影方向、画角、アスペクト比、解像度、焦点距離などといったカメラ情報21を取得して、撮影シミュレーション装置1の記憶部2に設定登録する。
ステップS3において背景面設定部30は、構造物情報22により表された構造物41及び42の座標を、監視カメラ43の焦点位置を原点とするカメラ座標系の座標に変換する。
ステップS4において背景面設定部30は、最低画素密度の設定入力を受け付け、最低画素密度とカメラ情報21とに基づいて、監視カメラ43の焦点位置から所定の距離範囲に背景面44を設定する。そして、背景面44を底面とし、監視カメラ43の撮影範囲の方位角、仰角、俯角を表す側面を有する視錐体50を算出する。
ステップS5において可視領域算出部31は、構造物41、42の表面領域のうち監視カメラ43側を向いている領域と視錐体50との交差領域を、可視候補領域として算出する。
ステップS6において可視領域算出部31は、可視候補領域の各々について、他の可視候補領域により監視カメラ43から遮蔽されるか否かを判定する。可視領域算出部31は、遮蔽されている部分を可視候補領域から除いて可視領域を算出する。多角形算出部32は、算出した可視領域を凸多角形に分割する。
ステップS7において可視空間算出部33は、監視カメラ43の焦点位置を頂点とし、分割された可視領域を底面とする角錐を算出する。可視空間算出部33は、算出した角錐が占める空間の集合を監視カメラ43の可視空間として算出する。また、ステップS7では、算出した可視空間及びステップS6にて算出した可視領域を、カメラ座標系の座標から世界座標系の座標に変換する。
ステップS8において評価部35は、可視空間算出部33が算出した可視空間に基づいて、監視カメラ43の配置条件の評価値を算出する。
次に、図10及び図11を参照して、重複空間算出部34によって行われる一対の監視カメラの可視空間の間の重複空間の算出処理を説明する。
ステップS10において重複空間算出部34は、一対の監視カメラのうち一方の監視カメラの可視空間を構成するいずれかの角錐P1と、他方の監視カメラの可視空間を構成するいずれかの角錐P2との組合せを選択する。
ステップS11において角錐重複空間算出部36は、角錐P1と角錐P2とが接触するか否かを判定する。接触しない場合(ステップS11:N)に処理はステップS10に戻り、重複空間算出部34は、角錐P1及びP2の異なる組合せを選択し直してステップS11を繰り返す。接触する場合(ステップS11:Y)に処理はステップS12へ進む。
ステップS12において境界面算出部37は、角錐P1を第1角錐80として選択し、角錐P2を第2角錐81として選択する。
ステップS13において境界面算出部37は、第2角錐81の何れかの頂点を対象頂点として選択する。図8の(a)の例では対象頂点は頂点81aである。
ステップS14において境界面算出部37は、第1角錐80を形成する面のうち何れかを対象面として選択する。図8の(a)の例では対象面は面80Aである。
ステップS15において境界面算出部37は、第1角錐80及び第2角錐81との角錐重複空間の境界面を算出する境界面算出処理を行う。
図11は境界面算出処理の一例のフローチャートである。ステップS30において境界面算出部37は、対象頂点と第2角錐81の残りの頂点を各々結ぶ線分が、対象面を含む平面と交差するか否かを判定する。交差する場合(ステップS30:Y)には処理はステップS31に進む。交差しない場合(ステップS30:N)には境界面を算出せずに境界面算出処理を終了する。
ステップS31において境界面算出部37は、対象頂点と第2角錐81の残りの頂点を各々結ぶ線分と、対象面を含む平面との交点を算出する。
ステップS32において境界面算出部37は、ステップS31で算出した交点を結ぶ多角形と、対象面との重複領域を角錐重複空間の境界面の一つとして算出する。その後に処理は終了する。
図10を参照する。ステップS16において境界面算出部37は、第1角錐80の全ての面を対象面として選択したか否かを判定する。まだ選択していない面が残っている場合(ステップS16:N)に処理はステップS14へ進む。ステップS14において境界面算出部37は、まだ選択していない面のいずれかを対象面として選択し、ステップS15を繰り返す。
ステップS16において全ての面を選択し終えていた場合(ステップS16:Y)に処理はステップS17へ進む。
ステップS17において境界面算出部37は、第2角錐81の全ての頂点を対象頂点として選択したか否かを判定する。まだ選択していない頂点が残っている場合(ステップS17:N)に処理はステップS13へ進む。ステップS13において境界面算出部37は、まだ選択していない頂点のいずれかを対象頂点として選択し、ステップS13~S16を繰り返す。
ステップS17において全ての頂点を選択し終えていた場合(ステップS17:Y)に処理はステップS18へ進む。
ステップS18において境界面算出部37は、角錐P1を第2角錐81として選択し、角錐P2を第1角錐80として選択する。すなわち、第1角錐80及び第2角錐81として選択される角錐を、角錐P1及びP2の間で互いに入れ替える。
ステップS19~S23までの処理は、ステップS13~S17までの処理と同様である。
以上のステップS12~S23までの処理により、1対の角錐P1及びP2の角錐重複空間の境界面が全て算出される。ステップS24において角錐重複空間算出部36は、これらの境界面により囲まれる空間を角錐重複空間として算出する。
ステップS25において重複空間算出部34は、角錐P1と角錐P2の全ての組合せを選択したか否かを判定する。全ての組合せを選択していない場合(ステップS25:N)に処理はステップS10へ進む。
ステップS10において重複空間算出部34は、まだ選択されていない角錐P1と角錐P2の組み合わせを選択し、ステップS11~S24を繰り返す。
ステップS25において全ての組合せを選択し終えていた場合(ステップS25:Y)に処理はステップS26に進む。
ステップS26において重複空間算出部34は、角錐重複空間算出部36が算出した角錐重複空間を合計して、一対の監視カメラの可視空間の間の重複空間を算出する。その後に処理は終了する。
(実施形態の効果)
記憶部2は、監視カメラ43の位置、画角及び撮影方向を含むカメラ情報21、及び監視空間40内の構造物の位置及び形状を含む構造物情報22を記憶する。背景面設定部30は、監視カメラ43の位置から所定の距離範囲に背景面を設定する。可視領域算出部31は、構造物の表面及び背景面のうち監視カメラ43の位置から見える可視領域を算出する。多角形算出部32は、可視領域を多角形に分割する。可視空間算出部33は、
監視カメラ43の位置を頂点とし、多角形に分割された可視領域を底面とする角錐が占める空間の集合を監視カメラ43の可視空間として算出する。
このように、複雑な形状になり易い監視カメラ43の可視空間を、監視カメラ43の位置を頂点とした角錐の集合として算出することにより、少ない計算量で監視カメラ43の可視空間を算出することができる。また、高精度の可視空間を求めることができる。
(2)可視領域算出部31は、カメラ情報21に基づいて監視カメラ43の撮影範囲を示す視錐体を求め、構造物の表面及び背景面のうち視錐体内に存在する領域を可視候補領域として求め、複数の可視候補領域のうちのいずれかの可視候補領域から、他の可視候補領域により監視カメラ43から遮蔽される領域を除くことにより可視領域を算出する。
監視カメラ43から見える可視領域を算出することで、可視領域を底面とする角錐が占める空間の集合を監視カメラ43の可視空間として算出することができる。これにより、少ない計算量で可視空間を求めることができる。
(3)多角形算出部32は、可視領域を3角形に分割する。これにより可視空間を構成する角錐が四面体になる。これにより、角錐同士の接触判定や重複空間の演算が容易になり、計算量を低減することができる。
(4)撮影シミュレーション装置1は、一対の監視カメラ43の可視空間の間の重複空間を算出する重複空間算出部34を、さらに備える。
重複空間算出部34は、一対の監視カメラ43の一方の可視空間を構成する各々の角錐と他方の可視空間を構成する各々の角錐とが重複する各々の角錐重複空間を算出する角錐重複空間算出部36を備える。重複空間算出部34は、これらの角錐重複空間を合計することにより一対の監視カメラ43の可視空間の間の重複空間を算出する。
角錐重複空間算出部36は、角錐重複空間を画定する境界面を各々求める境界面算出部37を備える。角錐重複空間算出部36は、これら境界面により囲まれる空間を角錐重複空間として算出する。
境界面算出部37は、一対の監視カメラ43の一方の可視空間を構成する角錐を第1角錐として選択し、他方の可視空間を構成する角錐を第2角錐として選択し、第1角錐のいずれかの面である対象面と第2角錐のいずれかの頂点である対象頂点とをそれぞれ選択し、対象頂点と第2角錐の残りの頂点とを各々結ぶ線分の全てが、対象面が存在する平面と交差するか否かを判定し、線分の全てがこの平面と交差する場合に線分と平面との交点を各々算出し、これら交点を結ぶ多角形と対象面との重複領域を境界面として算出する。
これにより、複数の監視カメラ43の可視空間の重複空間を少ない計算量で算出することができる。
(5)評価部35は、複数の監視カメラ43の可視空間とこれら可視空間の間の重複空間との体積比に基づいて、複数の監視カメラ43の配置条件の評価値を算出する。これにより、複数の監視カメラ43が、効率のよい配置条件で配置されているか否かを判定できる。
(6)記憶部2は、監視対象の空間範囲である要監視空間の位置及び形状を記憶する。評価部35は、要監視空間と可視空間とが重複する体積に基づいて監視カメラ43の配置条件の評価値を算出する。
これにより、監視カメラ43により要監視空間が十分に撮影されているか否かを判定できる。
(7)記憶部2は、監視対象物を表す3次元モデルが四面体分割された監視対象オブジェクトを記憶する。評価部35は、監視対象オブジェクトが所定の経路に沿って監視空間内を移動した場合の監視対象オブジェクトと可視空間との接触を判定し、接触した回数に応じて監視カメラ43の配置条件の評価値を算出する。
これにより、監視カメラ43により監視対象オブジェクトが十分に撮影されているか否かを判定できる。
1…撮影シミュレーション装置、2…記憶部、3…制御部、4…入力装置、5…出力装置、20…撮影シミュレーションプログラム、21…カメラ情報、22…構造物情報、30…背景面設定部、31…可視領域算出部、32…多角形算出部、33…可視空間算出部、34…重複空間算出部、35…評価部、36…角錐重複空間算出部、37…境界面算出部、40…監視空間、41、42…構造物、43…監視カメラ

Claims (9)

  1. カメラの位置、画角及び撮影方向を含むカメラ情報、及び監視空間内の構造物の位置及び形状を含む構造物情報を記憶している記憶部と、
    前記カメラの位置から所定の距離範囲に背景面を設定する背景面設定部と、
    前記構造物の表面及び前記背景面のうち前記カメラの位置から見える可視領域を算出する可視領域算出部と、
    前記可視領域を多角形に分割する多角形算出部と、
    前記カメラの位置を頂点とし前記多角形を底面とする角錐が占める空間の集合を前記カメラの可視空間として算出する可視空間算出部と、
    を備えることを特徴とする撮影シミュレーション装置。
  2. 前記可視領域算出部は、前記カメラ情報に基づいて前記カメラの撮影範囲を示す視錐体を求め、前記構造物の表面及び前記背景面のうち前記視錐体内に存在する領域を可視候補領域として求め、複数の前記可視候補領域のうちのいずれかの前記可視候補領域から、他の前記可視候補領域により前記カメラから遮蔽される領域を除くことにより前記可視領域を算出することを特徴とする請求項1に記載の撮影シミュレーション装置。
  3. 前記多角形算出部は、前記可視領域を3角形に分割することを特徴とする請求項1又は請求項2に記載の撮影シミュレーション装置。
  4. 一対の前記カメラの前記可視空間どうしが重複する重複空間を算出する重複空間算出部と、
    複数の前記カメラの前記可視空間とこれら可視空間どうしが重複する前記重複空間との体積比に基づいて、前記複数のカメラの配置条件の評価値を算出する評価部と、
    を、さらに備えることを特徴とする請求項1~3のいずれか一項に記載の撮影シミュレーション装置。
  5. 前記重複空間算出部は、前記一対のカメラの一方の前記可視空間を構成する各々の前記角錐と他方の前記可視空間を構成する各々の前記角錐とが重複する各々の角錐重複空間を算出する角錐重複空間算出部を備え、これらの角錐重複空間を合計することにより前記重複空間を算出し、
    前記角錐重複空間算出部は、前記角錐重複空間を画定する境界面を各々求める境界面算出部を備え、これら境界面により囲まれる空間を前記角錐重複空間として算出し、
    前記境界面算出部は、前記一対のカメラの一方の前記可視空間を構成する前記角錐を第1角錐として選択し、他方の前記可視空間を構成する前記角錐を第2角錐として選択し、前記第1角錐のいずれかの面と前記第2角錐のいずれかの頂点とをそれぞれ選択し、前記いずれかの頂点と前記第2角錐の残りの頂点とを各々結ぶ線分の全てが前記いずれかの面が存在する平面と交差するか否かを判定し、前記線分の全てが前記平面と交差する場合に前記線分と前記平面との交点を各々算出し、前記交点を結ぶ多角形と前記いずれかの面との重複領域を前記境界面として算出する、
    ことを特徴とする請求項4に記載の撮影シミュレーション装置。
  6. 前記記憶部は、監視対象の空間範囲である要監視空間の位置及び形状をさらに記憶し、
    前記要監視空間と前記可視空間とが重複する空間の体積に基づいて前記カメラの配置条件の評価値を算出する評価部を備えることを特徴とする請求項1~5のいずれか一項に記載の撮影シミュレーション装置。
  7. 前記記憶部は、監視対象物を表す3次元モデルが四面体分割された監視対象オブジェクトをさらに記憶し、
    前記監視対象オブジェクトが所定の経路に沿って前記監視空間内を移動した場合の前記監視対象オブジェクトと前記可視空間との接触を判定し、接触した回数に応じて前記カメラの配置条件の評価値を算出する評価部を備えることを特徴とする請求項3に記載の撮影シミュレーション装置。
  8. コンピュータに、
    カメラの位置、画角及び撮影方向を含むカメラ情報、及び監視空間内の構造物の位置及び形状を含む構造物情報を記憶装置から読み出す情報読出ステップと、
    前記カメラの位置から所定の距離範囲に背景面を設定する背景面設定ステップと、
    前記構造物の表面及び前記背景面のうち前記カメラの位置から見える可視領域を算出する可視領域算出ステップと、
    前記可視領域を多角形に分割する多角形算出ステップと、
    前記カメラの位置を頂点とし前記多角形を底面とする角錐が占める空間の集合を前記カメラの可視空間として算出する可視空間算出ステップと、
    を実行させることを特徴とする撮影シミュレーション方法。
  9. コンピュータに、
    カメラの位置、画角及び撮影方向を含むカメラ情報、及び監視空間内の構造物の位置及び形状を含む構造物情報を記憶装置から読み出す情報読出ステップと、
    前記カメラの位置から所定の距離範囲に背景面を設定する背景面設定ステップと、
    前記構造物の表面及び前記背景面のうち前記カメラの位置から見える可視領域を算出する可視領域算出ステップと、
    前記可視領域を多角形に分割する多角形算出ステップと、
    前記カメラの位置を頂点とし前記多角形を底面とする角錐が占める空間の集合を前記カメラの可視空間として算出する可視空間算出ステップと、
    を実行させることを特徴とするコンピュータプログラム。
JP2019121895A 2019-06-28 2019-06-28 撮影シミュレーション装置、撮影シミュレーション方法およびコンピュータプログラム Active JP7311327B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019121895A JP7311327B2 (ja) 2019-06-28 2019-06-28 撮影シミュレーション装置、撮影シミュレーション方法およびコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019121895A JP7311327B2 (ja) 2019-06-28 2019-06-28 撮影シミュレーション装置、撮影シミュレーション方法およびコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2021010069A JP2021010069A (ja) 2021-01-28
JP7311327B2 true JP7311327B2 (ja) 2023-07-19

Family

ID=74198559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019121895A Active JP7311327B2 (ja) 2019-06-28 2019-06-28 撮影シミュレーション装置、撮影シミュレーション方法およびコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP7311327B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009239821A (ja) 2008-03-28 2009-10-15 Toa Corp カメラ設置シミュレータプログラム
WO2011096049A1 (ja) 2010-02-02 2011-08-11 富士通株式会社 カメラ設置位置評価プログラム、カメラ設置位置評価方法およびカメラ設置位置評価装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009239821A (ja) 2008-03-28 2009-10-15 Toa Corp カメラ設置シミュレータプログラム
WO2011096049A1 (ja) 2010-02-02 2011-08-11 富士通株式会社 カメラ設置位置評価プログラム、カメラ設置位置評価方法およびカメラ設置位置評価装置

Also Published As

Publication number Publication date
JP2021010069A (ja) 2021-01-28

Similar Documents

Publication Publication Date Title
US10692271B1 (en) Robust ray-triangle intersection
US20100328308A1 (en) Three Dimensional Mesh Modeling
US9805509B2 (en) Method and system for constructing a virtual image anchored onto a real-world object
US8390617B1 (en) Visualizing oblique images
JP7063837B2 (ja) 領域抽出装置及びプログラム
Wang et al. Adaptive image-based intersection volume
KR20150046643A (ko) 레이 트레이싱 시스템에서의 가속 구조 생성 장치 및 그 생성 방법
US11546506B2 (en) Imaging apparatus, imaging method, imaging program, and imaging system
US10719975B2 (en) Information processing apparatus and method of generating three-dimensional model
US20220405878A1 (en) Image processing apparatus, image processing method, and image processing program
CN112465911A (zh) 图像处理方法及装置
US11494889B2 (en) Imaging evaluation map, imaging evaluation map generating device, imaging evaluation map generating method, and imaging evaluation map generating program
KR20200089467A (ko) 3차원 점군데이터의 단면분석을 통한 구조물 변형탐지 알고리즘 및 도구 개발
JP7311327B2 (ja) 撮影シミュレーション装置、撮影シミュレーション方法およびコンピュータプログラム
JP2020512536A (ja) モデルベースのピーク選択を使用した3dプロファイル決定のためのシステム及び方法
US20230162442A1 (en) Image processing apparatus, image processing method, and storage medium
JP7332363B2 (ja) カメラ配置評価装置、カメラ配置評価方法、及びコンピュータプログラム
JP4548228B2 (ja) 画像データ作成方法
JP2001184526A (ja) 3次元形状データにおける面生成方法
CN113674356A (zh) 相机筛选方法及相关装置
JP7195785B2 (ja) 3次元形状データを生成する装置、方法、及びプログラム
JP2011059009A (ja) 位置計測対象物、位置計測システム、位置計測用演算装置およびプログラム
JP6526605B2 (ja) 仮想カメラ画像生成装置
KR102611481B1 (ko) 이미지 내의 좌표들 간의 실제 거리를 계산하는 방법 및 장치
JP2020187626A (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230706

R150 Certificate of patent or registration of utility model

Ref document number: 7311327

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150