JP2020024499A - 撮影状況予測装置、撮影状況予測方法および監視エリア変更方法 - Google Patents

撮影状況予測装置、撮影状況予測方法および監視エリア変更方法 Download PDF

Info

Publication number
JP2020024499A
JP2020024499A JP2018147635A JP2018147635A JP2020024499A JP 2020024499 A JP2020024499 A JP 2020024499A JP 2018147635 A JP2018147635 A JP 2018147635A JP 2018147635 A JP2018147635 A JP 2018147635A JP 2020024499 A JP2020024499 A JP 2020024499A
Authority
JP
Japan
Prior art keywords
photographing
evaluation target
target block
space
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018147635A
Other languages
English (en)
Other versions
JP6876657B2 (ja
Inventor
佐藤 大樹
Daiki Sato
大樹 佐藤
武史 小川
Takeshi Ogawa
武史 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taisei Corp
Original Assignee
Taisei Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taisei Corp filed Critical Taisei Corp
Priority to JP2018147635A priority Critical patent/JP6876657B2/ja
Publication of JP2020024499A publication Critical patent/JP2020024499A/ja
Application granted granted Critical
Publication of JP6876657B2 publication Critical patent/JP6876657B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】撮影装置による空間各所の撮影状況を仮想的な3次元空間を用いて予測することができる撮影状況予測装置および撮影状況予測方法を提供する。
【解決手段】仮想的な3次元空間を用いて、撮影装置による撮影状況を予測する撮影状況予測装置1であって、現実空間を構成する空間構成物の3次元形状モデルと、前記撮影装置の撮影点および撮影方向と、撮影状況を予測する位置に配置される評価対象ブロックと、から解析モデルを生成する解析モデル生成部30と、前記評価対象ブロックを仮想スクリーンに投影した場合における当該評価対象ブロックが投影された第1領域と、前記評価対象ブロックおよび前記空間構成物を前記仮想スクリーンに投影した場合における当該評価対象ブロックが投影された第2領域とから前記評価対象ブロックの可視率を計算する撮影状況予測部40と、を備える。
【選択図】図1

Description

本発明は、撮影状況予測装置、撮影状況予測方法および監視エリア変更方法に関する。
監視カメラを設置する場合、セキュリティ上重要な出入口等(エントランス、エレベータホール、エスカレータ乗降口含む)を撮影対象にするのが一般的であり、そこを通過する人が写るように監視カメラの設置場所を経験的に決定していた。なお、監視カメラの向きや画角は、施工時に手動で調整するのが一般的である。
一方で、事件・事故があった場合に証跡を検証することが重要になっている。そのため、上記の出入口の監視に加えてパブリックエリアを含む空間全体の監視強化が急がれている。
しかし、パブリックエリアの構造は複雑なことも多くあるため、柱やサイン等の障害物、入隅・出隅等により生じる死角を事前に把握することが困難である。そのため、空間全体を漏れなく撮影できるような監視カメラの配置を検討するのは困難である。
その結果、障害物による死角、全ての監視カメラの画角に入らないことによる死角、監視カメラの画角には入っているものの監視カメラからの距離が遠いために有効な解像度で写らない場所等の監視上脆弱なエリアが意図せず生じてしまう。また、それらの脆弱なエリアをなくそうとすると、設置する監視カメラの台数が過剰になる恐れがある。
パブリックエリアに監視カメラを効率的に配置しようとした場合、3DCAD、CG、BIMソフト等の3次元形状モデリングツールを用いてシミュレーションすることが想定される。つまり、3次元形状モデリングツールには、視点を設定することで、そこから見た様子をパース図で表現する機能がある。
従来、これに関連する先行技術として特許文献1がある。特許文献1の技術は、3DCADを用いて監視カメラの撮影範囲を考慮したレイアウト設計を行うものである。
特開2008−146113号公報
しかし、3次元形状モデルとして主に登録されるのは、床、壁、天井、什器等であるので、特許文献1の技術では、それらの物体と監視カメラとの間の空間の状況を正確に把握することができないという問題があった。
例えば、図23に示すようにカメラが設置されている場合、障害物に近い人物A1の顔はカメラに映るが、障害物から遠い人物A2の顔はカメラに映らない。なお、カメラから伸びる太い実線は、カメラの撮影範囲を表している。しかし、3次元形状モデルを用いたパース作成では、具体的にその位置に人型モデルを配置してパースを描かなければ、人型モデルがカメラに写るか否かを把握できない。なお、あらゆる立ち位置に人型モデルを配置してパースを確認することも可能であるが、このようなやり方は合理的ではない。
このような観点から、本発明は、撮影装置による空間各所の撮影状況を仮想的な3次元空間を用いて予測することができる撮影状況予測装置および撮影状況予測方法を提供する。さらに、この撮影状況予測方法を用いて行う監視エリア変更方法を提供する。
前記課題を解決するため、本発明に係る撮影状況予測装置は、仮想的な3次元空間を用いて、撮影装置による撮影状況を予測する撮影状況予測装置であって、解析モデル生成部と、撮影状況予測部とを備える。
解析モデル生成部は、現実空間を構成する空間構成物の3次元形状モデルと、前記撮影装置の撮影点および撮影方向と、撮影状況を予測する位置に配置される評価対象ブロックと、から解析モデルを生成する。
撮影状況予測部は、前記評価対象ブロックを仮想スクリーンに投影した場合における当該評価対象ブロックが投影された第1領域と、前記評価対象ブロックおよび前記空間構成物を前記仮想スクリーンに投影した場合における当該評価対象ブロックが投影された第2領域とから前記評価対象ブロックの可視率を計算する。
また、本発明に係る撮影状況予測方法は、仮想的な3次元空間を用いて、撮影装置による撮影状況を予測する撮影状況予測方法であって、解析モデル生成工程と、撮影状況予測工程とを有する。
解析モデル生成工程は、現実空間を構成する空間構成物の3次元形状モデルと、前記撮影装置の撮影点および撮影方向と、撮影状況を予測する位置に配置される評価対象ブロックと、から解析モデルを生成する。
撮影状況予測工程は、前記評価対象ブロックを仮想スクリーンに投影した場合における当該評価対象ブロックが投影された第1領域と、前記評価対象ブロックおよび前記空間構成物を前記仮想スクリーンに投影した場合における当該評価対象ブロックが投影された第2領域とから前記評価対象ブロックの可視率を計算する。
本発明に係る撮影状況予測装置および撮影状況予測方法においては、評価対象ブロックを用いて3次元空間における特定位置を撮影点から見た場合の可視率を計算する。そのため、現実空間における撮影装置による撮影状況を予測することができる。
前記可視率または前記可視率を加工した情報を予測結果として出力する予測結果出力部をさらに備え、前記評価対象ブロックは、前記3次元空間に複数配置されているのがよい。
前記撮影状況予測部は、前記評価対象ブロックを順次選択して空間各所の前記可視率を計算し、前記予測結果出力部は、前記予測結果を2次元または3次元の分布として出力する。
このようにすると、撮影装置と撮影対象物との位置関係による撮影状況を一目で把握できる。例えば、空間各所の可視率や可視/不可視の状態を示した分布を出力することで、撮影装置の死角を容易に見つけることができる。また、空間各所での評価対象の解像度を示した分布を出力することで、撮影装置と撮影対象物との間の距離に応じた撮影対象物の鮮明さを容易に把握できる。
前記撮影点が前記3次元空間に複数設定されている場合、前記撮影状況予測部は、前記撮影点を順次選択して撮影点毎に全ての空間各所の前記可視率を計算し、前記予測結果出力部は、撮影点毎の前記分布を重ね合わせたものを前記予測結果として出力するのがよい。
このようにすると、各々の撮影装置と撮影対象物との位置関係による撮影状況を一目で把握できる。例えば、空間各所の可視率や可視/不可視の状態を示した分布を重ね合わせることで、撮影範囲の重なりや空間内の死角を把握できる。また、空間各所の解像度を示した分布を重ね合わせることで、空間内における監視の脆弱な箇所を把握できる。
前記撮影状況予測部は、前記評価対象ブロックおよび前記空間構成物を前記仮想スクリーンに等立体角投射するのがよい。
その場合、前記撮影状況予測部は、投影処理部と、変換処理部とを備えるのがよい。
投影処理部は、前記撮影点を中心とするとともに前記撮影方向を天頂方向とした半球の球面を介して半球底面に前記評価対象ブロックおよび前記空間構成物を平面投影する。変換処理部は、前記半球底面に投影された前記評価対象ブロックおよび前記空間構成物を、立体角が等しくなるように等立体角変換する。
このようにすると、画角内の位置による、撮影画像に写る評価対象ブロックまたは空間構成物のサイズのバラつきを低減できる。そのため、撮影状況の予測がより正確になる。
また、本発明に係る監視エリア変更方法は、施設の利用状況の変更に伴って監視エリアを変更する監視エリア変更方法である。
この監視エリア変更方法は、第1監視エリア形成工程と、新監視エリア予測工程と、第2監視エリア形成工程と、を有する。
第1監視エリア形成工程では、撮影装置を用いて、利用状況変更前の状態における第1監視エリアを前記施設内に形成する。
新監視エリア予測工程では、前記撮影装置の画角および撮影方向の少なくとも何れか一方を変更した状態の新たな監視エリアを、前記撮影状況予測方法を用いて予測する。
第2監視エリア形成工程では、前記新監視エリア予測工程に基づいて、前記撮影装置の画角および撮影方向を調整し、利用状況変更後の状態における第2監視エリアを前記施設内に形成する。
本発明に係る監視エリア変更方法においては、撮影装置の位置を変えることなしに、施設内の監視エリアを後から容易に変更できる。例えば、施設内の利用状況の変更(例えば、利用目的の変更や什器の変更等)に応じて監視が必要なエリアに変更が発生した場合に、評価対象ブロックを用いた予測を使いながら撮影装置の向きや画角を後から調整する。これにより、施設の利用状況の変更に応じて、好適な監視エリアを容易に設定できる。
本発明によれば、撮影装置による空間各所の撮影状況を仮想的な3次元空間を用いて予測することができる。
本発明の実施形態に係る撮影状況予測装置のブロック図である。 現実空間の例示である。 図2に示す現実空間に対応する解析モデルである。 本発明の実施形態に係る撮影状況予測装置の処理を示すフローチャートの例示である。 セル分割面の生成処理を説明するための図である。 セル分割面を分割して生成した状態を示す図である。 空間構成モデルの投影処理・セル分割面への面要素の登録処理を示すイメージ図である。 空間構成モデルの投影処理・セル分割面への面要素の登録処理を示すフローチャートの例示である。 半球底面への面要素の投影処理を説明するための図である。 見かけが大きい面要素の分割、再投影処理を説明するための図である。 等立体角投影面に設定したセル分割面への面要素の登録処理を説明するための図である。 空間構成モデル用の分割セルリストの構成図の例示である。 評価対象ブロックの投影処理・セル分割面への面要素の登録処理を示すイメージ図である。 評価対象ブロックの投影処理・セル分割面への面要素の登録処理を示すフローチャートの例示である。 等立体角投影面に設定したセル分割面への面要素の登録処理を説明するための図である。 評価対象ブロック用の分割セルリストの構成図の例示である。 第一のカメラから見た空間各所の可視/不可視を示した3次元空間分布のイメージ図である。 第二のカメラから見た空間各所の可視/不可視を示した3次元空間分布のイメージ図である。 空間各所の可視カメラ台数を示した3次元空間分布のイメージ図である。 空間各所の最大解像度を示した3次元空間分布のイメージ図である。 空間各所の可視カメラ台数を示した3次元空間分布の例示である。 空間各所の可視カメラ台数を示した3次元空間分布の例示である。 空間各所の最大解像度を示した3次元空間分布の例示である。 空間各所の最大解像度を示した3次元空間分布の例示である。 図21A,図21BのXXIIA−XXIIA断面図である。 図21A,図21BのXXIIB−XXIIB断面図である。 従来における3次元形状モデリングツールを用いたシミュレーションのイメージ図である。
以下、本発明の実施をするための形態を、適宜図面を参照しながら詳細に説明する。各図は、本発明を十分に理解できる程度に、概略的に示してあるに過ぎない。よって、本発明は、図示例のみに限定されるものではない。なお、各図において、共通する構成要素や同様な構成要素については、同一の符号を付し、それらの重複する説明を省略する。
≪実施形態に係る撮影状況予測装置の構成≫
図1を参照して、本実施形態に係る撮影状況予測装置1の構成について説明する。図1は、実施形態に係る撮影状況予測装置1のブロック図である。撮影状況予測装置1は、撮影装置による空間各所の撮影状況を仮想的な3次元空間を用いて予測する装置である。ここでの撮影状況とは、撮影装置によって撮影された画像(映像を含む)に写る撮影対象の状況を広く意味し、撮影状況には、撮影対象の「可視率(可視/不可視の状態も含む)」、「解像度」などが含まれる。
「可視率」は、ある視点(本実施形態では「撮影点」)から見た評価対象物が、どの程度見えているかを表す指標である。例えば、撮影点と評価対象物との間に視線を遮る障害物が全くなく、評価対象物が全て見えている場合には、可視率が「100%」になる。また、評価対象物が障害物に完全に隠れて全く見えていない場合には、可視率が「0%」になる。なお、本実施形態では、可視率が予め設定した閾値以上である状態を特に「可視」と呼び、また、可視率が予め設定した閾値よりも小さい状態を特に「不可視」と呼ぶ。
「解像度」は、撮影された画像に評価対象物がどの程度の画質で写っているかを示すものであり、画像に写る評価対象物の画素数を意味する。例えば、撮影装置として監視カメラを想定した場合、撮影した画像は人物の特定や判別に使用される。ここで、人間の顔が「20×20(画素)」程度の解像度で写れば、種々の判別が可能であるとされている。
撮影状況予測装置1を用いて既存の施設の撮影状況を予測することで、現実の空間の撮影状況を検証できる。また、撮影状況予測装置1を用いて設計段階や施工中の施設の撮影状況を予測することで、施設が完成した後の空間の撮影状況を検証することができる。前者の場合、例えば、カメラの向きや画角を変更して撮影状況を予測し、その予測結果に基づいてカメラを調整することで、施設の利用状況に応じて監視エリアを容易に変更できる。後者の場合、さらに撮影装置の位置を変えて撮影状況の予測を繰り返し行うことで、設計段階や施工中の施設における撮影装置の好適な配置を求めることができる。
本実施形態で想定する空間を図2に例示する。図2に示す現実空間Cは、床面C、側壁C2,C3,C4によって形成されており、床面Cには障害物C5(例えば、柱)が立設されている。この現実空間Cには、撮影装置であるカメラDi(符号iは、カメラの識別番号である)が設置されている。ここでは、2台のカメラDiが設置されており、第一のカメラD1は、側壁C2の上部に設置されており、第二のカメラD2は、側壁C4の上部に設置されている。
撮影状況予測装置1(図1参照)は、現実空間Cの任意の場所(被撮影位置B)における撮影状況を仮想的な3次元空間を用いて予測する。具体的には、現実空間Cを構成する空間構成物(例えば、床面C、側壁C2,C3,C4、障害物C5)の形状データ(以下、「空間構成モデル」と称す)、および設置されるカメラDiの情報(以下、「カメラ情報」)を用いて、被撮影位置Bにおける撮影状況をシミュレーションする。
図1に示すように、本実施形態に係る撮影状況予測装置1は、記憶部10と、制御部20とを備える。撮影状況予測装置1は、例えば、ユーザが操作するPC(Personal Computer)やユーザ端末と通信可能に接続されたアプリケーションサーバである。ここでのユーザは、撮影状況の予測を行う者であり、例えば、監視対象である空間を管理する管理者や施工を行う工事関係者である。
記憶部10は、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶媒体から構成される。制御部20は、CPU(Central Processing Unit)によるプログラム実行処理や、専用回路等により実現される。制御部20がプログラム実行処理により実現する場合、記憶部10には、制御部20の機能を実現するためのプログラムが格納される。なお、撮影状況予測装置1が、図示しない外部の記憶手段から記憶部10に記憶される情報を必要に応じて取得してもよい。
記憶部10には、特定の空間(例えば、室内空間)を構成する空間構成物の形状データである空間構成モデルFが記憶されている。空間を構成する空間構成物には、例えば、室内空間を構成する壁、天井および床、並びに室内空間に存在する柱やサイン等の障害物が含まれる。空間構成モデルFは、仮想の3次元空間(例えば、全体座標系(x,y,z))において形状モデリングされたデータである。具体的には、人が見得る表面形状の範囲を複数のポリゴン(例えば、多角形ポリゴン)で示した3次元形状モデルである。なお、これらのデータは、ポリゴンを用いた3次元形状モデルとして表現できるものであればよく、形式は特に限定されない。例えば、3次元形状モデルを表現できる形式として、VRML(Virtual Reality Modeling Language)、OBJ(Wavefront OBJ)、FBX(Filebox)、3DS(3ds Max,3D Studio Max)、STL(Stereo Lithography)などがある。以降では、3次元形状モデルとして、三角形の面要素で形成されるサーフェスモデルを想定して説明を行う。空間構成モデルFは、ユーザによって予め登録される。
また、記憶部10には、撮影状況を予測するカメラの情報であるカメラ情報が記憶されている。カメラ情報は、撮影状況を予測するカメラの台数分だけ登録されている。カメラ情報には、カメラの位置(撮影点)、撮影方向(方位角、仰俯角)、仕様(鉛直方向解像度、水平方向解像度、鉛直方向画角、水平方向画角)などの情報が含まれる。カメラ情報のデータ形式は特に問わない。カメラ情報は、ユーザによって予め登録される。
また、記憶部10には、分割セルリストHが記憶されている。分割セルリストHは、可視率を計算する際に作成されるものであり、予測するカメラの台数の2倍の数だけ作成される。分割セルリストHについては、後記する「撮影状況予測装置の動作」でその詳細を説明する。
制御部20は、解析モデル生成部30と、撮影状況予測部40と、予測結果出力部50とを備える。ここでは、制御部20が備える各機能の概要の説明を行い、後記する「撮影状況予測装置の動作」でその詳細を説明する。
解析モデル生成部30は、記憶部10に記憶される空間構成モデルFから、撮影状況をシミュレーションするための解析モデルを生成する。図3に解析モデルの一例を示す。図3に示す解析モデルEは、図2に示す現実空間Cに対応したものであり、床面C、側壁C2,C3,C4、障害物C5に対応する空間構成モデルFと、カメラDiに対応する撮影点Kおよび撮影方向Tとを有する。また、解析モデルEは、現実空間Cを任意に分割した分割空間に対応する評価対象ブロックGを有する。評価対象ブロックGは、撮影状況を予測する最小単位であり、その形状や大きさは特に限定されない。ここでは、現実空間Cをメッシュ分割することで、直方体状(立方体状を含む)を呈するとともに均一の大きさの評価対象ブロックGが隙間なく並べられている。なお、評価対象ブロックGは、互いの間隔をあけて配置されてもよいし、また、異なる大きさの評価対象ブロックGが配置されてもよい。また、現実空間C内にさらに任意の空間(以下、「評価対象エリア」と称す)を設定し、この評価対象エリアに評価対象ブロックGを配置するようにしてもよい。
図1に示す撮影状況予測部40は、生成された解析モデルE(図3参照)を用いて、カメラ毎の撮影状況をシミュレーションする。このシミュレーションでは、順番に評価対象ブロックGを選択し、空間構成モデルFと選択した評価対象ブロックGとを図示しない仮想スクリーンに平面投影(例えば、等立体角投射)する処理を行う。そして、撮影状況予測部40は、平面投影した結果から評価対象ブロックGの可視率および評価対象ブロックGの解像度を計算する。
本実施形態では、光、熱、可視率解析などで用いられるヘミスフィア法を用いて空間構成モデルFおよび評価対象ブロックGを仮想スクリーンに平面投影する。ヘミスフィア法は、例えば、以下の二つの文献において解説されている。
・土井 章男、「ラジオシティ法における半球底面を用いたフォームファクタ計算方式およびその並列化手法」、画像電子学会誌、1995年6月、第24巻、第3号、p.189-p.195
・山田 昇、外2名、「ヘミスフィア法による形態係数の高速算出性能」、日本機械学会論文集(B編)、2009年、第75巻、第749号
なお、空間構成モデルFおよび評価対象ブロックGを投影する1次投影面は、ヘミスフィア(半球)でなくてもよく、例えば、三角錐、四角錐、六面体等でもよい。また、パース図と同様に、1次投影せずに直接仮想スクリーンへ投影してもよい。
四角錐投影法は、例えば、以下の文献において解説されている。
・加賀 昭和、外5名、「CG技術を用いた形態係数の高速計算法」、空気調和・衛生工学会論文集、No.138、p.1-7、2008年9月
六面体を用いた投影法(ヘミキューブ法)は、例えば、以下の文献において解説されている。
・今野 雅、外2名、「放射熱伝達解析における形態係数の計算法についての研究」、日本建築学会環境系論文集、No.572、p.17-22、2003年10月
予測結果出力部50は、カメラ毎の予測結果を外部(例えば、表示部やユーザが操作する端末)に出力する。予測結果出力部50は、予測結果を様々な態様に加工して外部に出力してもよい。
≪実施形態に係る撮影状況予測装置の動作≫
以下では、図4を参照して(適宜、図1ないし図3参照)、制御部20の処理を具体的に説明する。図4は、実施形態に係る撮影状況予測装置1の処理を示すフローチャートの例示である。
撮影状況予測装置1の処理は、主に、解析モデル生成処理(ステップS10)と、撮影状況の予測処理(ステップS20)と、予測結果の出力処理(ステップS30)とからなる。なお、解析モデル生成処理(ステップS10)は、「解析モデル生成工程」に相当し、また、撮影状況の予測処理(ステップS20)は、「撮影状況の予測工程」に相当する。
<解析モデル生成処理>
図4を参照して、「解析モデル生成処理」について説明する。最初に、解析モデル生成部30は、記憶部10からカメラ情報および3次元形状モデルである空間構成モデルFの読み込みを行う(ステップS11)。また、解析モデル生成部30は、撮影状況の予測を行いたい領域(評価対象エリア)の指定を受け付け、評価対象エリア内に評価対象ブロックGを配置する(ステップS12)。ここでは、評価対象エリアをメッシュ分割することで、直方体状の評価対象ブロックGを隙間なく配置したことにする。なお、解析モデル生成部30は、評価対象ブロックGの位置座標を直接受け付け、その場所に評価対象ブロックGを配置してもよい。また、ユーザが評価対象ブロックGの形状モデルを事前に登録しておき、解析モデル生成部30は、登録された評価対象ブロックGを読み込むことで評価対象ブロックGを配置するようにしてもよい。これにより、図3に示すように、仮想の3次元空間(例えば、全体座標系(x,y,z))に空間構成モデルF、評価対象ブロックG、並びにカメラの撮影点Kおよび撮影方向Tが設定された解析モデルEが生成される。
<撮影状況の予測処理>
図4を参照して、「撮影状況の予測処理」について説明する。撮影状況予測部40は、全てのカメラにおける撮影状況の予測が終わるまでステップS21〜ステップS27の処理を繰り返し行う(ステップS20a)。つまり、ステップS21〜ステップS27の1回のループ処理で一つのカメラにおける全ての評価対象ブロックGの撮影状況の予測が完了し、ステップS21〜ステップS27の処理をカメラの数分だけ繰り返し行うことにより、全てのカメラのシミュレーションが完了する。
最初に、撮影状況予測部40は、撮影点K(図3参照)を原点としたカメラ座標系(X,Y,Z)を生成する(ステップS21)。このカメラ座標系(X,Y,Z)は、図5に示すように、カメラ位置(撮影点K)を原点とし、撮影方向TをZ軸とした場合に、このZ軸およびZ軸を法線とし、撮影点Kを含む平面に設けた直交2軸(X軸,Y軸)により定義される。X軸は、例えばカメラの水平方向(横方向)であり、また、Y軸は、カメラの垂直方向(縦方向)である。
次に、撮影状況予測部40は、カメラの水平方向および垂直方向の画角(水平方向画角αX、鉛直方向画角αY)に基づいて、空間構成モデルFと評価対象ブロックGとを描画する面(セル分割面)を生成する(ステップS22)。セル分割面の生成は、図5に示す半球Rを用いて行われる。半球Rは、撮影点Kを原点として設定されたカメラ座標系において、天頂をZ軸が通過するようにしてXY平面上に設定される。半球Rの半径rは、ここでは「1」である。
具体的には、撮影状況予測部40は、半球Rの球面RA上のカメラ画角範囲SA(カメラで撮影できる立体角範囲)を半球底面RB上に投影し、半球底面RB上に投影したカメラ画角範囲SBを等立体角変換するなど等立体角投射により、等立体角投影面W上に描画面SWを生成する。また、撮影状況予測部40は、カメラの解像度と画角から、撮影画像における1画素に相当する最小立体角β(撮影可能な最小立体角)を求め、描画面SWをセル分割する。以降、描画面SWをセル分割したこの領域を「セル分割面M」と呼ぶ。例えば、フルハイビジョン画質のものであれば「1920×1080」で描画面SWをセル分割し、4K画質のものであれば「3840×2160」で描画面SWをセル分割する。等立体角投影面Wは、「仮想スクリーン」の一例である。
なお、説明した通り等立体角投射により等立体角投影面W(図5参照)上に描画面SWを生成する理由は、同じ形状、同じサイズ、同じ距離の評価対象ブロックGであれば、カメラ画角内のどこに写っていても同じ評価値となるように立体角を等しくするためである。つまり、カメラで撮影した画像は、カメラの画角端部のゆがみを補正するのが通常であるので、本実施形態では実際のカメラに予測結果を近づけるために等立体角投射を行う。これにより、評価対象ブロックGの可視/不可視のみならず、評価対象ブロックGがカメラに写りこむ大きさや写る画素数を評価することが可能になる。
なお、カメラに写りこむ大きさや写る画素数を評価する場合であっても、カメラの撮影方向T(画像の中央)と画角端部との評価の重みを変えるのであれば、半球底面RB上にセル分割面Mを生成する正射影や、等距離射影、極射影等の他の射影法を用いてもよい。また、単に、評価対象ブロックGの可視/不可視の判定だけを行うのであれば、同様に、半球底面RB上にセル分割面Mを生成する正射影や、等距離射影、極射影等の他の射影法を用いてもよい。正射影の場合、半球底面RBが「仮想スクリーン」に相当する。
また、広画撮影のカメラの撮影状況を予測する場合、ある一定以上の広い画角でセル分割面Mを作成すると、上記説明した等立体角投射を行ったとしてもセル分割面Mの端部において描画後の図形のゆがみが大きくなる。そのため、図6に示すように、ゆがみがあまり大きくならない角度(たとえば90度)ごとに描画面SWを分割してセル分割面Mを生成し、空間構成モデルFおよび評価対象ブロックGを投射してもよい。例えば、図5に示すカメラの撮影方向Tを変更し、変更した撮影方向Tごとにセル分割面Mを生成する。これにより、超広角カメラ、魚眼カメラ、360度カメラについても、撮影状況の予測が可能となる。
次に、撮影状況予測部40は、空間構成モデルFの投影処理とセル分割面Mへの面要素の登録処理を行う(ステップS23)。ステップS23における処理は、図7に示すように、空間構成モデルFを構成する面要素P(j)を一つずつ順番に球面RAを介して半球底面RBに投影するとともに、等立体角投射によって等立体角投影面W上のセル分割面Mに登録することにより行われる。ここで、面要素P(j)における符号jは、面番号である。
ステップS23の処理の詳細を図8に示す。撮影状況予測部40は、空間構成モデルFを構成する全ての面要素P(j)の投影処理が終わるまでステップS232〜ステップS236の処理を繰り返し行う(ステップS231)。つまり、ステップS232〜ステップS236の1回のループ処理で一つの面要素P(j)における半球底面RBへの投影処理が完了し、ステップS232〜ステップS236の処理を面要素P(j)の数分だけ繰り返し行うことにより全ての面要素P(j)の投影が完了する。
ステップS231のループ処理において、最初に、撮影状況予測部40は、面要素P(j)を構成する頂点の座標を全体座標系(x,y,z)からステップS21で生成したカメラ座標系(X,Y,Z)に変換する(ステップS232)。
続いて、撮影状況予測部40は、ステップS231で座標変換した後の各面要素P(j)を半球底面RBに投影する(ステップS233)。図9を参照して、ステップS233の処理を説明する。撮影状況予測部40は、ステップS233で以下の処理を各面要素P(j)について行う。
(1)撮影点Kと面要素P(j)の各頂点P(j)kとの距離Lkを求める。ここで、符号kは、面要素P(j)の頂点番号である。
(2)面要素P(j)の頂点P(j)kを球面RA上に投影して点PA(j)kとする。点PA(j)kは、撮影点Kと頂点P(j)kとを結ぶ線分と球面RAとの交点である。
(3)球面RA上の点PA(j)kを半球底面RBに投影して点PB(j)kとする。点PB(j)kは、点PA(j)kから半球底面RBに垂線を下ろしたときの半球底面RB上の交点である。
これにより、半球底面RBには各面要素PB(j)が投影される。なお、距離Lkの算出は、ここでの頂点P(j)kの投影処理に直接関係しないが、後記する他の処理で距離Lkが使用される。その為、撮影状況予測部40は、点PB(j)kと距離Lkとを対応付けて記憶しておく。
なお、撮影状況予測部40の機能のうち、ステップS233の機能は「投影処理部」に相当する。
続いて、撮影状況予測部40は、ステップS233で投影された各面要素P(j)がカメラの画角(水平方向画角αX、鉛直方向画角αY)内に含まれているか否かを判定する(ステップS234)。具体的には、撮影状況予測部40は、半球底面RBに投影された各面要素PB(j)の全ての点PB(j)kが半球底面RBに投影されたカメラ画角範囲SB(図5参照)に含まれているか否かを判定する。
続いて、撮影状況予測部40は、カメラの画角(水平方向画角αX、鉛直方向画角αY)外の頂点P(j)kを含む面要素P(j)を分割し、分割後に再投影を行う(ステップS235)。具体的には、撮影状況予測部40は、半球底面RBに投影された各面要素PB(j)の全ての点PB(j)kが半球底面RBに投影されたカメラ画角範囲SB(図5参照)に含まれるように投影前の面要素P(j)を分割し、分割後に再投影を行う。
続いて、撮影状況予測部40は、ステップS233,S235で半球底面RBに投影された後の各面要素PB(j)の中で見かけの大きさが大きいもの(面要素PB(j)の頂点間の見かけの距離が長いものを含む)を分割し、分割後に再投影を行う(ステップS236)。
面要素PB(j)を半球底面RBに投影すると、投影された面要素PB(j)の辺は曲線(楕円弧)になる。曲線で構成される面要素PB(j)を用いてこれ以降の処理を行った場合、直線で構成される面要素PB(j)を用いて処理を行う場合に比べて処理が複雑になり計算負荷が増加する(特に、ステップS238の処理)。そこで、半球底面RBに投影された頂点PB(j)kから半球底面RBに投影された面要素PB(j)kの辺を直線近似して計算を容易にすることが望ましい。ただし、長い辺を持つ面要素P(j)や視野の端部に位置する面要素P(j)を半球底面RBに投影した場合、投影された面要素PB(j)の辺の曲率が大きくなり、直線近似が成り立たなくなる。そこで、ステップS236の処理を行う。
図10を参照して、ステップS236の処理を説明する。撮影状況予測部40は、例えば、ステップS236で以下の処理を各面要素P(j)について行う。ここでは、半球底面RBに投影された面要素PB(j)の見かけ上の辺「PB(j)1−PB(j)2」の長さが大きい場合を想定する。
(1)半球底面RB上で均等になるように辺「PB(j)1−PB(j)2」を分割し、分割点PB(j)12を求める。
(2)分割点PB(j)12を通る半球底面RBの法線と線分「PA(j)1−PA(j)2」との交点であるPD(j)12を求める。交点PD(j)12は、球面RA上の点ではなく、PA(j)1とPA(j)2とを直線で結んだ半球R内部に位置する点である。
(3)撮影点Kと点PD(j)12とを通る直線と、辺「P(j)1−P(j)2」との交点を分割点P(j)3として求める。
(4)分割点P(j)3を新たな頂点とする面要素P(j1),P(j2)を半球底面RBに再投影する。再投影により、辺「P(j)1−P(j)2」を半球底面RBへ投影した曲線を1本の線分(線分「PB(j)1−PB(j)2」)ではなく、2段階の折れ線(線分「PB(j)1−PB(j)3」および線分「PB(j)2−PB(j)3」)で近似する。その為、再投影後では、本当の曲線により近づくことができる。また、再投影後における撮影点Kと面要素P(j1),P(j2)の各頂点P(j)kとの距離Lkを求める。
(5)半球底面RB上の辺の長さが所定値以下になるまで、(1)〜(5)の再分割・再投影を繰り返す。これによって、半球底面RBに投影される面要素PB(j)は、辺が直線近似できるまで小さく分割される。なお、半球底面RB上の面要素PB(j)が許容される辺長は、計算精度、計算時間、セル分割面Mの分割数などを考慮して決定されればよく、例えば、所定値として「0.1〜0.3」を設定する。
この方法により、事前に解析モデルE(例えば、空間構成モデルFなど)を微小面要素分割(メッシュ分割)することなく可視率計算を行うことが可能になる。つまり、この方法により、解析の過程で必要十分な面要素P(j)の分割が行われるので、精度確保と過剰な解析の削減とが両立される。
なお、ここでは、分割点PB(j)12、交点PD(j)12から分割点P(j)3を算出し、分割点P(j)3を再投影することにより球面RA上の点PA(j)3、半球底面RB上の点PB(j)3を算出していた。しかしながら、これらの点を算出する順番や方法はこれに限定されるものではない。例えば、分割点PB(j)12から交点PD(j)12を算出し、撮影点Kと交点PD(j)12との延長線により球面RA上の点PA(j)3および分割点P(j)3をそれぞれ求める。そして、球面RA上の点PA(j)3から半球底面RBに垂線を下ろすことで半球底面RB上の点PB(j)3を算出し、また、分割点P(j)3までの距離Lkを求めてもよい。
次に、撮影状況予測部40は、半球底面RBに投影された各面要素PB(j)を等立体角変換するなど等立体角投射により、等立体角投影面Wに形成されるセル分割面M上にさらに投影する(ステップS237)。ここで、撮影状況予測部40は、半球底面RBに投影されたカメラ画角範囲SB(図5参照)に含まれている面要素PB(j)のみをセル分割面Mに投影し、カメラ画角範囲SB外の面要素PB(j)についてはセル分割面Mに投影しない。以下では、セル分割面Mを構成する各セルを「分割セルM(s,t)」と呼ぶ。ここでの符号sは、横方向の並び位置(最大値がn)を示し、符号tは、縦方向の並び位置(最大値がm)を示す。また、等立体角投影面W(セル分割面M)に投影された面要素を「面要素PW(j)」と呼ぶ。
なお、撮影状況予測部40の機能のうち、ステップS237の機能は「変換処理部」に相当する。
次に、撮影状況予測部40は、セル分割面Mに投影された面要素PW(j)を分割セルM(s,t)に登録する(ステップS238)。
図11を参照して、ステップS238の処理について説明する。撮影状況予測部40は、ステップS238で以下の処理を各面要素PW(j)について行う。
(1)空間構成モデルFW(面要素PW(j)の集合体)が投影されている分割セルM(s,t)を判定し、空間構成モデルFWの投影があるか否かを分割セルリストHF(図12参照)に登録する。図11では、空間構成モデルFWが投影されている分割セルM(s,t)をドット模様で示している。
具体的には、セル分割面Mに投影された面要素PW(j)の頂点間をセル分割面M上の直線式で表現し、頂点を結ぶ線分が投影された分割セルM(s,t)および線分で囲まれた領域の内部に位置する分割セルM(s,t)であるか否かを判定する。そして、分割セルリストHFのこれらの投影された分割セルM(s,t)等については、投影面の投影結果の欄に投影ありを識別する情報「1」を登録する。一方、投影されていない分割セルM(s,t)等については、投影面の投影結果の欄に投影なしを識別する情報「0」を登録する。この際に、撮影状況予測部40は、面要素PW(j)を識別する情報および撮影点Kとの距離Lについても分割セルリストHFに登録する。距離Lは、例えば、面要素PW(j)を構成する三つの頂点PW(j)kとの距離Lkの線形補完値などでよい。
なお、頂点を結ぶ線分で囲まれた領域の内部に位置する分割セルM(s,t)に対してのみ、投影面の投影結果の欄に投影ありを識別する情報「1」を登録するようにしてもよい。つまり、頂点を結ぶ線分が投影された分割セルM(s,t)については、投影面の投影結果の欄に投影なしを識別する情報「0」を登録するようにしてもよい。
また、頂点を結ぶ線分が分割セルM(s,t)に投影された場合に、前記線分の位置に基づいて当該分割セルM(s,t)の投影あり/なしを判定するようにしてもよい。例えば、線分で囲まれた領域の内部に分割セルM(s,t)の中心点の位置がある場合に、当該分割セルM(s,t)を投影ありと判定してもよい。また、線分で分割された分割セルM(s,t)の面積比により、投影あり/投影なしを判定してもよい。
(2)既に面要素PW(j)の情報が登録された分割セルM(s,t)に別の面要素PW(j)の情報を登録しようとする場合には、距離Lが小さい方を優先する。例えば、二つで一組をなす建造物やコの字状の建造物のように、撮影点Kとの位置関係で前後関係がある空間構成モデルFの場合、手前側(近い側)の面要素PW(j)の情報を登録する。撮影点Kから視認可能なのは、手前側の面要素PW(j)だからである。なお、一つの分割セルM(s,t)に二つの面要素PW(j)がまたがっている場合には、例えば、何れか一方の情報を登録する。
以上で、空間構成モデルFの投影処理とセル分割面Mへの面要素の登録処理が終了する(ステップS23)。
図4に戻って、撮影状況の予測処理(ステップS20)の続きを説明する。ステップS23に続いて、撮影状況予測部40は、全ての評価対象ブロックGの計算が終わるまでステップS25〜ステップS27の処理を繰り返し行う(ステップS24)。つまり、ステップS25〜ステップS27の1回のループ処理で一つの評価対象ブロックGの計算が完了し、ステップS25〜ステップS27の処理を評価対象ブロックGの数分だけ繰り返し行うことにより全ての評価対象ブロックGの計算が完了する。
ステップS24のループ処理において、最初に、撮影状況予測部40は、評価対象ブロックGの投影処理とセル分割面Mへの面要素の登録処理を行う(ステップS25)。
評価対象ブロックGに対する処理(ステップS25)は、空間構成モデルFの処理(ステップS23)と概ね同様の処理である。つまり、図13に示すように、評価対象ブロックGを構成する面要素Q(j)を一つずつ順番に球面RAを介して半球底面RBに投影するとともに、等立体角投射によって等立体角投影面W上のセル分割面Mに登録することにより行われる。ここで、面要素Q(j)の符号jは、面番号である。
ステップS25の処理の詳細を図14に示す。撮影状況予測部40は、評価対象ブロックGを構成する全ての面要素Q(j)の投影処理が終わるまでステップS252〜ステップS256の処理を繰り返し行う(ステップS251)。つまり、ステップS252〜ステップS256の1回のループ処理で一つの面要素Q(j)における半球底面RBへの投影処理が完了し、ステップS252〜ステップS256の処理を面要素Q(j)の数分だけ繰り返し行うことにより全ての面要素Q(j)の投影が完了する。ステップS252〜S256の処理は、空間構成モデルFの処理(ステップS232〜S236)と同様なので、ここでは詳細な説明を省略する。
なお、撮影状況予測部40の機能のうち、ステップS253の機能は「投影処理部」に相当する。
次に、撮影状況予測部40は、半球底面RBに投影された各面要素QB(j)を等立体角変換するなど等立体角投射により、図15に示すように、等立体角投影面Wに形成されるセル分割面M上にさらに投影する(ステップS257)。ここで、撮影状況予測部40は、半球底面RBに投影されたカメラ画角範囲SB(図5参照)に含まれている面要素QB(j)のみをセル分割面Mに投影し、カメラ画角範囲SB外の面要素QB(j)についてはセル分割面Mに投影しない。そして、撮影状況予測部40は、セル分割面Mに投影された面要素QW(j)を分割セルM(s,t)に登録する(ステップS258)。ステップS257,S258の処理は、空間構成モデルFの処理(ステップS237〜S238)と同様なので、ここでは詳細な説明を省略する。
なお、撮影状況予測部40の機能のうち、ステップS257の機能は「変換処理部」に相当する。
以上で、評価対象ブロックGの投影処理とセル分割面Mへの面要素の登録処理が終了する(ステップS25)。
図4に示すように、ステップS25に続いて、撮影状況予測部40は、評価対象ブロックGの可視率を計算する(ステップS26)。具体的には、撮影状況予測部40は、評価対象ブロックGW(図15参照)が登録された分割セルM(s,t)の合計数N1(i)をカウントする。ここで、符号iは、撮影点番号である。撮影状況予測部40は、例えば、評価対象ブロックG用の分割セルリストHGの面要素の投影結果が「1(投影あり)」の分割セルM(s,t)の数を数える。ここでの合計数N1(i)は、空間構成モデルFが無いと仮定した場合における評価対象ブロックGが登録された分割セルM(s,t)の数である。合計数N1(i)に対応する分割セルM(s,t)の領域は、「第1領域」に相当する。
また、撮影状況予測部40は、空間構成モデルF用の分割セルリストHFと、評価対象ブロックG用の分割セルリストHGとを比較し、評価対象ブロックGが投影された分割セルM(s,t)に空間構成モデルFが登録されている場合(共に投影結果「1」の場合)に面要素P(j),Q(j)の距離を比べる。そして、撮影状況予測部40は、空間構成モデルFの面要素P(j)の距離Lが評価対象ブロックGの面要素Q(j)の距離Lよりも近ければ、評価対象ブロックGの分割セルリストHGの当該分割セルM(s,t)に対応する面要素の投影結果を「0(投影なし)」にする。
また、撮影状況予測部40は、投影結果を修正後の評価対象ブロックGWが登録された分割セルM(s,t)の合計数N2(i)をカウントする。撮影状況予測部40は、例えば、投影結果を修正後においても分割セルリストHGの面要素の投影結果が「1(投影あり)」の分割セルM(s,t)の数を数える。ここでの合計数N2(i)は、空間構成モデルFがある場合において評価対象ブロックGが登録された分割セルM(s,t)の数である。合計数N2(i)に対応する分割セルM(s,t)の領域は、「第2領域」に相当する。
そして、撮影状況予測部40は、評価対象ブロックGの可視率V(i)を以下の式で算出する。
・可視率V(i)[%]=N2(i)/N1(i)×100
続いて、撮影状況予測部40は、評価対象ブロックGの位置の分解能を計算し、評価する(ステップS27)。例えば、カメラの画角、解像度、カメラから評価対象ブロックG(面要素Q(j))までの距離によって、撮影画像の1画素に対する評価対象ブロックGの位置における長さが求まる。カメラの水平方向画角αX、X方向のカメラの解像度RXとすると、例えば、距離Dだけ離れた位置での1画素あたりの長さdは、以下の式となる。
・d[m/pixel]=(2×D×sin(αX/2))/RX
そのため、撮影状況予測部40は、この算出した1画素に対する長さを可視率に乗じることで、評価対象ブロックGの位置の分解能を評価する。または、評価対象の長さを分解能で除した解像度で評価する。
以上で、一つの評価対象ブロックGの撮影状況の予測が完了し、ステップS25〜ステップS27の処理を評価対象ブロックGの数分だけ繰り返し行うことにより、全ての評価対象ブロックGの予測が完了する(ステップS24)。そして、次のカメラについて、ステップS21〜ステップS27の処理を行い(ステップS20a)、全てのカメラについての計算が完了したら、「撮影状況の予測処理(ステップS20)」が終了する。
<予測結果の出力処理>
図4を参照して、「予測結果の出力処理(ステップS30)」について説明する。ここでの撮影状況予測部40は、「撮影状況の予測処理(ステップS20)」で計算した評価対象ブロックGの予測結果を重ね合わせることにより、空間全体の評価を行う(ステップS31)。
例えば、可視/不可視を判定する閾値を予め設定しておき、計算した評価対象ブロックGの可視率が予め設定された閾値以上である場合に、撮影状況予測部40は、この評価対象ブロックGを「可視の空間(カメラにより撮影可能な空間)」であると判定する。また、計算した評価対象ブロックGの可視率が予め設定された閾値よりも小さい場合に、撮影状況予測部40は、この評価対象ブロックGを「不可視の空間(カメラの死角となっている空間)」であると判定する。これにより、例えば、図17Aおよび図17Bに示すように、各々のカメラから見た空間各所の可視/不可視を示した3次元空間分布を得られる。また、撮影状況予測部40は、各々のカメラから見た空間各所の可視/不可視の3次元空間分布を重ね合わせることで、図18に示すように、空間各所の可視カメラ台数を示した3次元空間分布を得る。図18では、2つのカメラに写る空間と、1つのカメラに写る空間と、2つのカメラの死角になる空間とを把握することができる。
同様に、解像度を判定する閾値(ここでは、3つの閾値)を予め設定しておき、撮影状況予測部40は、計算した評価対象ブロックGの位置での評価対象の解像度が予め設定されたどのクラスに属するかを判定する。これにより、各々のカメラから見た空間各所の解像度を示した3次元空間分布(図示せず)を得られる。また、撮影状況予測部40は、各々のカメラから見た空間各所の解像度の3次元空間分布(図示せず)を重ね合わせることで、図19に示すように、空間各所の位置での評価対象(人の顔)の最大解像度を示した3次元空間分布を得る。ここでの最大解像度とは、撮影されるカメラのうちで最大の解像度の値を意味する。
続いて、図4に示すように、撮影状況予測部40は、各カメラにおける評価対象ブロックGの予測結果を出力する(ステップS32)。例えば、撮影状況予測部40は、図18に示す空間各所の可視カメラ台数を示した3次元空間分布や図19に示す空間各所の最大解像度を示した3次元空間分布をディスプレイに表示する。なお、予測結果を重ね合わせる前の分布である各々のカメラから見た空間各所の可視/不可視または解像度を示した3次元空間分布を出力してもよい。
図20A,図20B,図21A,図21B,図22A,図22Bに、各々のカメラの予測結果を重ね合わせた3次元空間分布を例示する。
図20A,図20Bは、空間各所の可視カメラ台数を示した3次元空間分布の例示であり、図20Aは、床面から1500mmの高さの位置の分布であり、図20Bは、床面から500mmの高さの位置の分布である。ここでは、可視カメラ台数を色の濃淡で表しており、可視カメラ台数の多い空間を薄い色で表し、可視カメラ台数の少ない空間を濃い色で表している。図20Aを参照することで、空間内に居る人の顔を撮影し易い場所および撮影し難い場所を容易に把握することができる。また、図20Bを参照することで、空間内の床面に置かれた荷物を撮影し易い場所および撮影し難い場所を容易に把握することができる。さらに、カメラの位置を変更してこれらの分布を作成することで、目的に応じたカメラの好適な配置をシミュレーションすることができる。
図21A,図21Bは、空間各所の最大解像度を示した3次元空間分布の例示であり、図21Aは、床面から1500mmの高さの位置の分布であり、図21Bは、床面から500mmの高さの位置の分布である。また、図22Aは、図21A,図21BのXXIIA−XXIIA断面図であり、図22Bは、図21A,図21BのXXIIB−XXIIB断面図である。ここでは、最大解像度を色の濃淡で表しており、最大解像度の高い空間を薄い色で表し、最大解像度の低い空間を濃い色で表している。図21Aを参照することで、空間内に居る人の顔を認証や判別し易い場所および認証や判別し難い場所を容易に把握することができる。また、図21Bを参照することで、空間内の床面に置かれた荷物を認証や判別し易い場所および認証や判別し難い場所を容易に把握することができる。さらに、カメラの位置を変更してこれらの分布を作成することで、目的に応じたカメラの好適な配置をシミュレーションすることができる。
以上のように、本実施形態に係る撮影状況予測装置1は、評価対象ブロックGを用いて3次元空間における特定位置を撮影点Kから見た場合の可視率を計算する。そのため、現実空間における撮影装置による撮影状況を予測することができる。これにより、重要な場所は高解像度で死角なく撮影するが、重要でない場所は低解像度や死角を許容するといったように、コストとセキュリティ性のバランスを考慮した撮影装置の合理的な配置計画を効率的に行うことができる。
また、本実施形態に係る撮影状況予測装置1は、予測結果を2次元または3次元の分布として出力する。そのため、撮影装置と撮影対象物との位置関係による撮影状況を一目で把握できる。例えば、空間各所の可視率や可視/不可視の状態を示した分布を出力することで、撮影装置の死角を容易に見つけることができる(図17A,図17B参照)。また、空間各所での評価対象の解像度を示した分布を出力することで、撮影装置と撮影対象物との間の距離に応じた撮影対象物の鮮明さを容易に把握できる。
また、本実施形態に係る撮影状況予測装置1は、撮影点K毎の分布を重ね合わせたものを前記予測結果として出力する。そのため、各々の撮影装置と撮影対象物との位置関係による撮影状況を一目で把握できる。例えば、空間各所の可視率や可視/不可視の状態を示した分布を重ね合わせることで、撮影範囲の重なりや空間内の死角を把握できる(図18参照)。また、空間各所の解像度を示した分布を重ね合わせることで、空間内における監視の脆弱な箇所を把握できる(図19参照)。
さらに、本実施形態に係る撮影状況予測装置1を用いれば、カメラの位置を変えることなく既存の施設の監視エリアを容易に変更できる。例えば、施設内の利用状況の変更(例えば、利用目的の変更や什器の変更等)に応じて監視が必要なエリアに変更が発生した場合を想定する。ここで、利用状況変更前の状態において、カメラによって施設内に形成する監視エリアを「第1監視エリア」とする。施設の管理者は、撮影状況予測装置1を用いて、仮想の空間でカメラの画角および撮影方向を調整した新たな監視エリアを予測し、その予測結果に基づいて実際のカメラの画角および撮影方向の調整を行う。これにより、利用状況変更後の状態に適した「第2監視エリア」を施設内に形成できる。
[変形例]
以上、本発明の実施形態について説明したが、本発明はこれに限定されるものではなく、特許請求の範囲の趣旨を変えない範囲で実施することができる。実施形態の変形例を以下に示す。
本実施形態では、評価対象ブロックGを3次元配置し、空間各所の可視/不可視または空間各所での評価対象の解像度を示した3次元空間分布を出力していた。しかしながら、評価対象ブロックGを2次元配置し、空間各所の可視/不可視または解像度を示した2次元空間分布を出力してもよい。
1 撮影状況予測装置
10 記憶部
20 制御部
30 解析モデル生成部
40 撮影状況予測部
50 予測結果出力部
E 解析モデル
F 空間構成モデル
G 評価対象ブロック
H 分割セルリスト
K 撮影点
P(j) 面要素
Q(j) 面要素
R 半球
RA 球面
RB 半球底面
W 等立体角投影面(仮想スクリーン)
M(s,t) 半球底面セル
M セル分割面

Claims (7)

  1. 仮想的な3次元空間を用いて、撮影装置による撮影状況を予測する撮影状況予測装置であって、
    現実空間を構成する空間構成物の3次元形状モデルと、前記撮影装置の撮影点および撮影方向と、撮影状況を予測する位置に配置される評価対象ブロックと、から解析モデルを生成する解析モデル生成部と、
    前記評価対象ブロックを仮想スクリーンに投影した場合における当該評価対象ブロックが投影された第1領域と、前記評価対象ブロックおよび前記空間構成物を前記仮想スクリーンに投影した場合における当該評価対象ブロックが投影された第2領域とから前記評価対象ブロックの可視率を計算する撮影状況予測部と、を備える、
    ことを特徴とする撮影状況予測装置。
  2. 前記可視率または前記可視率を加工した情報を予測結果として出力する予測結果出力部をさらに備え、
    前記評価対象ブロックは、前記3次元空間に複数配置されており、
    前記撮影状況予測部は、前記評価対象ブロックを順次選択して空間各所の前記可視率を計算し、
    前記予測結果出力部は、前記予測結果を2次元または3次元の分布として出力する、
    ことを特徴とする請求項1に記載の撮影状況予測装置。
  3. 前記撮影点は、前記3次元空間に複数設定されており、
    前記撮影状況予測部は、前記撮影点を順次選択して撮影点毎に全ての空間各所の前記可視率を計算し、
    前記予測結果出力部は、撮影点毎の前記分布を重ね合わせたものを前記予測結果として出力する、
    ことを特徴とする請求項2に記載の撮影状況予測装置。
  4. 前記撮影状況予測部は、前記評価対象ブロックおよび前記空間構成物を前記仮想スクリーンに等立体角投射する、
    ことを特徴とする請求項1ないし請求項3の何れか1項に記載の撮影状況予測装置。
  5. 前記撮影状況予測部は、
    前記撮影点を中心とするとともに前記撮影方向を天頂方向とした半球の球面を介して半球底面に前記評価対象ブロックおよび前記空間構成物を平面投影する投影処理部と、
    前記半球底面に投影された前記評価対象ブロックおよび前記空間構成物を、立体角が等しくなるように等立体角変換する変換処理部と、を備える、
    ことを特徴とする請求項4に記載の撮影状況予測装置。
  6. 仮想的な3次元空間を用いて、撮影装置による撮影状況を予測する撮影状況予測方法であって、
    現実空間を構成する空間構成物の3次元形状モデルと、前記撮影装置の撮影点および撮影方向と、撮影状況を予測する位置に配置される評価対象ブロックと、から解析モデルを生成する解析モデル生成工程と、
    前記評価対象ブロックを仮想スクリーンに投影した場合における当該評価対象ブロックが投影された第1領域と、前記評価対象ブロックおよび前記空間構成物を前記仮想スクリーンに投影した場合における当該評価対象ブロックが投影された第2領域とから前記評価対象ブロックの可視率を計算する撮影状況予測工程と、を有する、
    ことを特徴とする撮影状況予測方法。
  7. 施設の利用状況の変更に伴って監視エリアを変更する監視エリア変更方法であって、
    撮影装置を用いて、利用状況変更前の状態における第1監視エリアを前記施設内に形成する第1監視エリア形成工程と、
    前記撮影装置の画角および撮影方向の少なくとも何れか一方を変更した状態の新たな監視エリアを、請求項6に記載された撮影状況予測方法を用いて予測する新監視エリア予測工程と、
    前記新監視エリア予測工程に基づいて、前記撮影装置の画角および撮影方向を調整し、利用状況変更後の状態における第2監視エリアを前記施設内に形成する第2監視エリア形成工程と、を有する、
    ことを特徴とする監視エリア変更方法。
JP2018147635A 2018-08-06 2018-08-06 撮影状況予測装置、撮影状況予測方法および監視エリア変更方法 Active JP6876657B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018147635A JP6876657B2 (ja) 2018-08-06 2018-08-06 撮影状況予測装置、撮影状況予測方法および監視エリア変更方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018147635A JP6876657B2 (ja) 2018-08-06 2018-08-06 撮影状況予測装置、撮影状況予測方法および監視エリア変更方法

Publications (2)

Publication Number Publication Date
JP2020024499A true JP2020024499A (ja) 2020-02-13
JP6876657B2 JP6876657B2 (ja) 2021-05-26

Family

ID=69618741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018147635A Active JP6876657B2 (ja) 2018-08-06 2018-08-06 撮影状況予測装置、撮影状況予測方法および監視エリア変更方法

Country Status (1)

Country Link
JP (1) JP6876657B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111414664A (zh) * 2020-02-21 2020-07-14 成都交大光芒科技股份有限公司 一种基于bim的牵引变电所辅助监控图像巡检配准方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015079069A (ja) * 2013-10-15 2015-04-23 株式会社タイトー プロジェクタ
JP2017062831A (ja) * 2016-11-15 2017-03-30 株式会社リコー 方法および画像処理装置
JP2018013832A (ja) * 2016-07-19 2018-01-25 大成建設株式会社 可視率算出装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015079069A (ja) * 2013-10-15 2015-04-23 株式会社タイトー プロジェクタ
JP2018013832A (ja) * 2016-07-19 2018-01-25 大成建設株式会社 可視率算出装置
JP2017062831A (ja) * 2016-11-15 2017-03-30 株式会社リコー 方法および画像処理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111414664A (zh) * 2020-02-21 2020-07-14 成都交大光芒科技股份有限公司 一种基于bim的牵引变电所辅助监控图像巡检配准方法

Also Published As

Publication number Publication date
JP6876657B2 (ja) 2021-05-26

Similar Documents

Publication Publication Date Title
CN110111262B (zh) 一种投影仪投影畸变校正方法、装置和投影仪
US8442306B2 (en) Volume-based coverage analysis for sensor placement in 3D environments
CN107836012B (zh) 投影图像生成方法及其装置、图像像素与深度值之间的映射方法
US9900583B2 (en) System and method for generalized view morphing over a multi-camera mesh
EP3534336B1 (en) Panoramic image generating method and apparatus
WO2018107910A1 (zh) 一种全景视频融合方法及装置
US20140218354A1 (en) View image providing device and method using omnidirectional image and 3-dimensional data
US10580205B2 (en) 3D model generating system, 3D model generating method, and program
CN110520903B (zh) 基于用户移动信息显示图像的方法和装置
US20070065002A1 (en) Adaptive 3D image modelling system and apparatus and method therefor
CA2556896A1 (en) Adaptive 3d image modelling system and apparatus and method therefor
Franz et al. Real-time collaborative reconstruction of digital building models with mobile devices
US20180293805A1 (en) Methods and apparatuses for determining positions of multi-directional image capture apparatuses
JP6782108B2 (ja) 可視率算出装置
JP2008113176A (ja) 映像表示システムの調整システム
CN110807413B (zh) 目标显示方法以及相关装置
US10902674B2 (en) Creating a geometric mesh from depth data using an index indentifying unique vectors
JP6876657B2 (ja) 撮影状況予測装置、撮影状況予測方法および監視エリア変更方法
JP6212398B2 (ja) 景観定量化装置
JP7006810B2 (ja) 3次元計測装置、移動ロボット、手押し車型移動装置および3次元計測処理方法
Malhotra et al. Optimizing camera placements for overlapped coverage with 3D camera projections
KR101629738B1 (ko) 폐쇄 회로 티비 감시 시스템의 성능 평가 방법 및 시스템
Bianco et al. Sensor placement optimization in buildings
JP2020160756A (ja) 画像生成装置、画像生成方法、及びプログラム
KR102620333B1 (ko) 관람 데이터를 이용한 미디어 아트 컨텐츠 통합 제어 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200925

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201013

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210426

R150 Certificate of patent or registration of utility model

Ref document number: 6876657

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE

Ref document number: 6876657

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150