JP6265131B2 - 視界表示システム、視界表示方法および視界表示プログラム - Google Patents
視界表示システム、視界表示方法および視界表示プログラム Download PDFInfo
- Publication number
- JP6265131B2 JP6265131B2 JP2014550912A JP2014550912A JP6265131B2 JP 6265131 B2 JP6265131 B2 JP 6265131B2 JP 2014550912 A JP2014550912 A JP 2014550912A JP 2014550912 A JP2014550912 A JP 2014550912A JP 6265131 B2 JP6265131 B2 JP 6265131B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- view
- monitoring
- field
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000007 visual effect Effects 0.000 title claims description 100
- 238000000034 method Methods 0.000 title claims description 40
- 238000012544 monitoring process Methods 0.000 claims description 377
- 230000010354 integration Effects 0.000 claims description 78
- 238000012545 processing Methods 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 35
- 238000012986 modification Methods 0.000 description 9
- 230000004048 modification Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 4
- 239000007787 solid Substances 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Description
本発明は、監視対象物を良好に撮影できるカメラの視界を特定し、その視界を表示する視界表示システム、視界表示方法および視界表示プログラムに関する。
カメラの撮影範囲を表示する技術が特許文献1に記載されている。特許文献1に記載された技術では、表示装置に表示された所定エリアの上面図上で、カメラの位置等を指定すると、カメラの撮影範囲を投影した水平視野をその上面図内に表示するとともに、カメラの光軸を含み水平面に垂直な面内におけるカメラの視野である垂直視野を立面図内に表示する。図34は、特許文献1に記載の技術によって表示される水平視野および垂直視野を表す模式図である。
特許文献1に記載の技術では、例えば、上面図100においてカメラの位置を指定すると、カメラを表すカメラ表示子101が上面図100上に表示される。また、ユーザは、カメラの高さを、立面図107に表示されるカメラ表示子111をドラッグすることで調整する。カメラの位置が指定されると、計算された水平視野105が上面図100に表示され、垂直視野115が立面図107に表示される。垂直視野115は、カメラの光軸110を含む。また、人物のアイコンを上面図100上にドラッグアンドドロップすると、その位置に人物表示子102が表示され、さらに、立面図107内にも人物表示子112が表示される。同様に、カメラの障害物となる壁の存在位置を指定することで、壁表示子103が上面図に表示される。なお、図34において、上面図100内の人物表示子を符号“102”で表し、立面図107内の人物表示子を符号“112”で表す。
特許文献1に記載の技術では、上記のような表示を行うことで、カメラの視野と、所定エリア内の壁、人物等との関係を提示して、カメラの配置位置の調整に利用される。
しかし、特許文献1に記載された技術では、カメラが監視対象物(本例では、人物とする。)全体を撮影することができる範囲を明示的に表示することができない。例えば、図34に示す上面図100内では、人物表示子102は、水平視野105内に収まっている。しかし、このことは、必ずしもカメラが人物の全身を撮影可能であることを意味しない。図34に示す例では、立面図107内の人物表示子112は、足下に該当する部分しか垂直視野115に収まっていない。従って、人物の足下しか撮影されない。人物の全身がカメラによって撮影される範囲を見つけようとすると、人物表示子102をドラッグして、上面図100と立面図107の両方を確認し、人物表示子が水平視野105および垂直視野115のいずれにも包含される範囲を手作業で特定していかなければならない。また、人物の全身がカメラによって撮影される範囲が最大となるカメラの最適な配置状態を決定することが好ましい。しかし、そのような範囲を特定しようとする場合、特許文献1に記載された技術では、カメラの配置状態を変えつつ、上記のように、人物の全身がカメラによって撮影される範囲を手作業で特定していくことになる。従って、作業負担が大きく、カメラの最適な配置状態を決定することは困難である。特に、カメラが複数台存在する場合には、各カメラを良好な配置状態に調整することはさらに困難になる。
また、特許文献1に記載の技術では、垂直視野115として、光軸110を含む面内における垂直視野115しか表示されない。従って、上面図100内で、光軸以外の方向に壁表示子103等の障害物を配置したとしても、その障害物によって人物が隠れるか否かを明示することができない。
そこで、本発明は、カメラが監視対象物全体または監視対象物のある程度以上の部分を撮影できる範囲を、ユーザにとって理解しやすく提示することができる視界表示システム、視界表示方法および視界表示プログラムを提供することを目的とする。
本発明による視界表示システムは、カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、カメラから得られる画像内の位置を投影し、障害物によって遮られずにカメラが撮影することができる範囲である視界を特定する投影手段と、各監視面分内の視界を統合する統合手段と、視界の統合結果を表示装置に表示させる表示制御手段とを備えることを特徴とする。
また、本発明による視界表示システムは、カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、カメラから得られる画像内の位置を投影し、障害物によって遮られずにカメラが撮影することができる範囲である視界を特定する投影手段と、監視面分毎に、監視面分を何台のカメラの視界に該当しているかに基づいて区分けする区分け手段と、個々の監視面分内の区分けされた領域を、その領域を視界に含むカメラの台数に応じた態様で表すようにして、各監視面分を表示装置に表示させる表示制御手段とを備えることを特徴とする。
また、本発明による視界表示方法は、カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、カメラから得られる画像内の位置を投影し、障害物によって遮られずにカメラが撮影することができる範囲である視界を特定し、各監視面分内の視界を統合し、視界の統合結果を表示装置に表示させることを特徴とする。
また、本発明による視界表示方法は、カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、カメラから得られる画像内の位置を投影し、障害物によって遮られずにカメラが撮影することができる範囲である視界を特定し、監視面分毎に、監視面分を何台のカメラの視界に該当しているかに基づいて区分けし、個々の監視面分内の区分けされた領域を、その領域を視界に含むカメラの台数に応じた態様で表すようにして、各監視面分を表示装置に表示させることを特徴とする。
また、本発明による視界表示プログラムは、コンピュータに、カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、カメラから得られる画像内の位置を投影し、障害物によって遮られずにカメラが撮影することができる範囲である視界を特定する投影処理、各監視面分内の視界を統合する統合処理、および、視界の統合結果を表示装置に表示させる表示制御処理を実行させることを特徴とする。
また、本発明による視界表示プログラムは、コンピュータに、カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、カメラから得られる画像内の位置を投影し、障害物によって遮られずにカメラが撮影することができる範囲である視界を特定する投影処理、監視面分毎に、監視面分を何台のカメラの視界に該当しているかに基づいて区分けする区分け処理、および、個々の監視面分内の区分けされた領域を、その領域を視界に含むカメラの台数に応じた態様で表すようにして、各監視面分を表示装置に表示させる表示制御処理を実行させることを特徴とする。
本発明によれば、カメラが監視対象物全体または監視対象物のある程度以上の部分を撮影できる範囲を、ユーザにとって理解しやすく提示することができる。
以下、本発明の実施形態を図面を参照して説明する。
実施形態1.
図1は、本発明の第1の実施形態の視界表示システムの構成例を示すブロック図である。本発明の視界表示システム1は、情報登録部2と、情報記憶部3と、監視面分決定部4と、投影部5と、統合部6と、表示制御部7とを備える。
図1は、本発明の第1の実施形態の視界表示システムの構成例を示すブロック図である。本発明の視界表示システム1は、情報登録部2と、情報記憶部3と、監視面分決定部4と、投影部5と、統合部6と、表示制御部7とを備える。
情報記憶部3は、カメラの配置位置、姿勢、画角、レンズ歪み等のカメラに関する情報(カメラパラメータ)と、カメラの画面サイズと、監視対象領域を示す情報と、カメラによって撮影される監視対象物の位置、高さ等の監視対象物に関する情報と、監視対象領域に配置される障害物の位置、高さ等の障害物に関する情報とを記憶する記憶装置である。情報登録部2には、例えば、ユーザの操作によってこれらの情報が入力され、情報登録部2は、入力された情報を情報記憶部3に記憶させる。以下の説明では、監視対象物が人物である場合を例にして説明する。また、複数のカメラを想定する場合には、ユーザは、カメラ毎にカメラパラメータを入力し、情報登録部2は、各カメラのカメラパラメータを情報記憶部3に記憶させる。
監視対象領域とは、カメラによる撮影状況の確認対象となる範囲を規定する面分であり、水平面内の面分として定められる。この監視対象領域を垂直方向に平行移動して定められる3次元空間が、カメラによる撮影状況の確認対象となる範囲として規定される。例えば、カメラが設置される部屋の床の面分を監視対象領域として定めてもよい。この例では、その面分を垂直上向きに平行移動して定められる3次元空間が、撮影状況の確認対象となる範囲となる。
監視面分決定部4は、情報記憶部3に記憶された監視対象領域を示す情報、および、監視対象物に関する情報を参照し、監視対象物の高さに基づいて、複数の監視面分を決定する。監視面分とは、監視対象領域を平行移動した面分である。従って、監視面分の大きさは、監視対象領域と同じである。監視面分決定部4は、監視対象物の下端(例えば、人物の足先)近傍から、監視対象物の上端(例えば、人物の頭頂部)近傍までの範囲内で、複数の監視面分を決定する。この複数の監視面分には、監視対象物の下端近傍の監視面分や、上端近傍の監視面分も含まれる。図2は、監視面分の例を示す模式図である。図2に示す例では、情報記憶部3に、監視対象領域11を示す情報、人物13を示す情報、障害物12を示す情報が記憶されているものとする。そして、図2では、監視面分決定部4は、人物13の下端近傍から、上端近傍までの範囲内で3枚の監視面分h0〜h2を決定した場合を例示している。本例では、人物13の下端における監視面分h0は、監視対象領域11と同一の面分である。
次に、投影部5について説明する。まず、カメラによって得られる画像の座標系および画像領域について説明する。カメラのカメラパラメータおよび画面サイズが定まると、そのカメラによって得られる画像(カメラによる撮影画像)の2次元座標系とともに、その座標系において、その画像に該当する領域が定まる。この領域を画像領域と記す。画像領域は、カメラによって得られる画像の画面全体を示す領域である。画像領域は、カメラ毎に定まる。
図3は、カメラによって得られる画像の座標系を示す説明図である。図3に示すように、カメラによって得られる画像内の任意の位置32は、カメラ正面のxy座標系(すなわち2次元座標系)の座標として表される。また、画像領域31は、その画像の画面全体を示す領域であり、そのxy座標系内の領域である。カメラパラメータと画面サイズによって、画像領域31が定まる。
また、カメラ位置と、画像領域31内の位置とを通過する直線から、画像領域31内のその位置に対応する3次元空間内の座標を求めることを投影と言う。例えば、2次元座標で表される画像領域31内の位置32に対応する3次元空間の位置33を求めることは投影に該当する。投影は、カメラの配置位置、姿勢、画角、レンズ歪み等のカメラパラメータを用いて、画像領域31内の位置を表す2次元座標を、実空間の3次元座標に変換することによって実現することができる。
投影部5は、カメラ毎に、画像領域31を各監視面分に投影する。図4は、カメラパラメータによって定まる各カメラの位置と、監視面分との位置関係の例を示す模式図である。例えば、投影部5は、カメラ21の画像領域31(図3参照)を、監視面分h0,h1,h2にそれぞれ投影する。投影部5は、他のカメラ22,23に関しても同様に、画像領域を、監視面分h0,h1,h2にそれぞれ投影する。
さらに、投影部5は、投影を行う際に障害物の位置および大きさの情報を参照し、カメラ位置と、監視面分上の投影点とを結ぶ直線上に、障害物が存在するか否かを判定する。そして、投影部5は、カメラ位置と監視面分上の投影点とを結ぶ直線上に障害物が存在していると判定した場合、その監視面分上の投影点は、障害物に遮られてカメラが撮影できない点であると判定する。一方、投影部5は、カメラ位置と監視面分上の投影点とを結ぶ直線上に障害物が存在しないと判定した場合、その監視面分上の投影点は、障害物に遮られずにカメラが撮影できる点であると判定する。
投影部5は、監視面分上の投影点に対して上記の判定を行うことによって、監視面分内で、障害物に遮られずにカメラが撮影できる範囲である視界を特定する。
また、投影部5は、画像領域を投影した監視面分に、障害物の存在範囲も重畳して示すことが好ましい。障害物の存在範囲は、特定の色(半透明色でもよい。)で表されてもよい。また、障害物の存在範囲の外周が特定の線種で表されていてもよい。
図5は、図4に示す各カメラの画像領域を各監視面分に投影した結果を示す説明図である。図5に示す左側の列から、それぞれ、カメラ21に関する投影結果、カメラ22に関する投影結果、カメラ23に関する投影結果を示している。また、図5に示す1番上の行から、それぞれ、監視面分h2への投影結果、監視面分h1への投影結果、監視面分h0への投影結果を示している。
カメラの画像領域を水平面に投影した結果は台形となる。例えば、カメラ21の画像領域を監視面分h2に投影した結果は、台形ABCD(図5参照)となる。この台形の大きさは、監視面分の高さによって異なり、カメラの高さと監視面分の高さとの差が広がるほど、投影結果を示す台形は大きくなる。ただし、この台形のうち、監視面分からはみ出す部分に関しては、投影部5は、投影結果に含めない。
前述のように、投影部5は、監視面分に障害物を重畳して示すことが好ましい。図5に示す例では、監視面分内で、障害物12が存在する範囲を白色で塗りつぶし、その範囲の外周を実線で示している。
図5に示す各投影結果において、斜線で示した範囲は、障害物12に遮られずにカメラが撮影することができる視界を表している。この視界は、カメラ毎に異なる。さらに、1つのカメラに着目した場合、視界は、監視面分の高さによっても異なる。
また、図5に示す各監視面分h0〜h1において、視界および障害物以外の領域は、障害物に遮られてカメラが撮影できない範囲および画像領域の投影先に該当しない範囲である。すなわち、監視面分内で視界以外の範囲は、カメラが監視対象物を撮影できない範囲である。
統合部6は、各監視面分で特定されたカメラの視界を統合する。
第1の実施形態では、統合部6は、カメラ毎に、いずれの監視面分h0〜h2においても視界に該当している領域を抽出し、その抽出結果を視界の統合結果とする。
図6は、第1の実施形態における視界の統合を模式的に示す説明図である。図6では、カメラ22の視界の統合を例示している。図6に示す視界27は、監視面分h2内の視界である。同様に、視界26は、監視面分h1内の視界であり、視界25は、監視面分h0内の視界である。統合部6は、各監視面分h0〜h2内の視界25,26,27において共通の領域28を抽出し、その領域28を各監視面分内の視界の統合結果として決定する。
視界25,26,27は、その視界に対応する監視面分の高さにおいて、障害物に遮られずにカメラ22が監視対象物を撮影できる範囲を表している。従って、各高さの監視面分h0〜h2内の視界25,26,27の共通の領域28(図6参照)に監視対象物が存在している場合、カメラ22は監視対象物の下端近傍から上端近傍までを撮影できる。すなわち、視界25,26,27の統合結果である領域28は、カメラ22が、監視対象物全体を撮影できる領域であるということができる。
統合部6は、上記のような視界の統合をカメラ毎に行う。従って、第1の実施形態では、視界の統合結果は、カメラ毎に得られる。
表示制御部7は、カメラ毎に得られた視界の統合結果を表示装置(図示略)に表示させる。なお、視界表示システム1が表示装置を備えていてもよい。
情報登録部2、監視面分決定部4、投影部5、統合部6および表示制御部7は、例えば、視界表示プログラムに従って動作するコンピュータのCPUによって実現される。この場合、CPUが視界表示プログラムを読み込み、そのプログラムに従って、情報登録部2、監視面分決定部4、投影部5、統合部6および表示制御部7として動作すればよい。また、視界表示プログラムは、コンピュータが読み取り可能な記録媒体に記録されていてもよい。また、情報登録部2、監視面分決定部4、投影部5、統合部6および表示制御部7がそれぞれ別々のハードウェアで実現されていてもよい。
次に、本実施形態の処理経過について説明する。図7は、本発明の第1の実施形態の処理経過の例を示すフローチャートである。なお、情報記憶部3には、既にカメラパラメータ等の各種情報が記憶されているものとする。まず、監視面分決定部4は、監視対象領域を示す情報、および、監視対象物に関する情報を参照し、監視対象物の下端近傍から上端近傍までの範囲内で、複数の監視面分を決定する(ステップS1)。なお、予め複数の監視面分が定められ、その監視面分の情報が情報記憶部3に記憶されていてもよい。この場合、ステップS1は省略されてもよい。また、この場合、視界表示システム1は、監視面分決定部4を備えていなくてもよい。
ステップS1の後、投影部5は、カメラ毎に、カメラによって得られる画像の画像領域を各監視面分に投影する(ステップS2)。さらに、ステップS2において、投影部5は、各監視面分内で視界に該当する領域を特定する。また、投影部5は、各監視面分に、障害物の存在範囲も重畳することが好ましい。
次に、統合部6は、監視面分内の視界を統合する(ステップS3)。本実施形態では、統合部6は、カメラ毎に、各監視面分に表された各視界の共通の領域を抽出し、その領域を統合結果とする。
表示制御部7は、カメラ毎に得られた視界の統合結果を表示装置(図示略)に表示させる(ステップS4)。図8は、第1の実施形態における視界の統合結果の表示例を示す説明図である。例えば、表示制御部7は、カメラ22に関して、図8に例示するように、視界の統合によって得た領域28を監視対象領域11とともに表示装置に表示させる。また、表示制御部7は、投影部5によって重畳された障害物12の存在範囲も合わせて表示装置に表示させる。表示制御部7は、他のカメラの視界の統合結果も同様に表示装置に表示させる。
第1の実施形態では、カメラ毎に、各高さの監視面分における視界の共通領域を抽出して表示装置に表示させる。従って、監視対象物(例えば、人物)の下端近傍から上端近傍までを撮影できる監視対象領域内の範囲をユーザに提示することができる。従って、ユーザは、監視対象物全体をカメラが撮影できる監視対象領域内の範囲を容易に把握することができる。さらに、カメラパラメータを変更させて、その範囲の変化を確認することで、その範囲が最大となるように、カメラの位置、姿勢、画角等を調整しやすくなる。
なお、第1の実施形態では、カメラの台数が1台であってもよい。
実施形態2.
第2の実施形態の視界表示システムは、監視対象物全体が見える範囲に限らず、監視対象領域内の位置において、監視対象物全体(例えば、人物の全身)のうちどの程度の部分がカメラで撮影可能であるかを可視化して、ユーザに提示する。
第2の実施形態の視界表示システムは、監視対象物全体が見える範囲に限らず、監視対象領域内の位置において、監視対象物全体(例えば、人物の全身)のうちどの程度の部分がカメラで撮影可能であるかを可視化して、ユーザに提示する。
図9は、本発明の第2の実施形態の視界表示システムの構成例を示すブロック図である。第1の実施形態と同様の要素に関しては、図1と同一の符号を付し、説明を省略する。第2の実施形態の視界表示システムは、第1の実施形態における統合部6(図1参照)の代わりに、統合部6a(図9参照)を備える。統合部6aは、視界率算出部61と、カバー率算出部63aとを備える。
視界率算出部61は、監視対象領域11(図2参照)内の、障害物の存在範囲以外の位置毎に視界率を算出する。また、視界率算出部61は、視界率の算出をカメラ毎に行う。
視界率とは、着目している位置が視界に属している監視面分の数の、監視面分の総数に対する割合である。図2に示す例では、監視面分の総数は“3”である。そして、例えば、監視対象領域11内のある位置に着目した場合、その位置が2つの監視面分h2,h1では視界に属しているが、残りの監視面分h0では視界に属していないとする。この場合、視界率算出部61は、その着目している位置の視界率を、“2/3”とする。視界率算出部61は、上記の視界率算出を障害物の存在範囲以外の位置毎に行う。ただし、視界率算出部61は、視界率の算出を、密に連続する位置毎に行う必要はない。例えば、視界率算出部61は、監視対象領域11(障害物の存在範囲は除く。)を一定範囲毎に分割し、分割した各領域からそれぞれ代表位置を定め、その代表位置における視界率を算出してもよい。そして、視界率算出部61は、その視界率を、代表位置が属している分割領域の視界率として定めてもよい。
視界率算出部61は、監視対象領域11(障害物の存在範囲は除く。)の位置毎に視界率を算出すると、監視対象領域11内において、個々の視界率に対応した領域を特定する。このように特定された視界率毎の領域が、第2の実施形態における視界の統合結果となる。
図10は、第2の実施形態における視界の統合を模式的に示す説明図である。図10では、カメラ22の視界の統合を例示している。図10に示す視界25〜27は、図6に示す視界25〜27と同様であり、説明を省略する。視界率算出部61は、監視対象領域11(障害物の存在範囲は除く。)の位置毎に視界率を算出する。本例では、監視面分が3つ存在するので、視界率として“0”,“1/3”,“2/3”,“3/3=1”が算出され得る。視界率算出部61は、監視対象領域11内において、これらの各視界率に対応した領域を特定する。図10に示す例では、領域73は、視界率“3/3=1”の領域である。また、領域72,74は、視界率“2/3”の領域である。また、領域71,75は、視界率“1/3”の領域である。その他の領域は、視界率“0”の領域である。
なお、障害物12の存在範囲は、視界率算出の対象ではない。視界率算出部61は、監視対象領域11に障害物12の存在範囲を重畳させることが好ましい。障害物の存在範囲は、特定の色(半透明色でもよい。)で表されてもよい。また、障害物の存在範囲の外周が特定の線種で表されていてもよい。この点は、第1の実施形態と同様である。また、後述の各実施形態においても同様である。
カバー率算出部63aは、カメラ毎にカバー率を算出する。カバー率は、監視対象領域11内で視界率を算出した位置の数に対する、算出された視界率の和の割合である。すなわち、カバー率算出部63aは、以下に示す式(1)の計算によってカバー率を算出する。
カバー率は、監視対象領域11に対する監視対象物を監視できる領域の割合であるということもできる。
第2の実施形態で式(1)によって計算したカバー率は、「視界率に基づくカバー率」と称することもできるが、説明を簡単にするため、単にカバー率と記す。
また、カバー率算出部63aは、式(1)の計算によってカバー率を算出する際、指定された数値範囲の視界率を式(1)の右辺の分子における加算対象としてもよい。すなわち、カバー率算出部63aは、式(1)の右辺の分子の計算において、指定された数値範囲の視界率のみを加算し、その数値範囲外の視界率は無視し(例えば、0とみなし)、式(1)によってカバー率を算出してもよい。この数値範囲の指定方法は、特に限定されない。例えば、ユーザが視界率の数値範囲を視界表示システム1に入力することで数値範囲を指定してもよい。
また、表示制御部7は、視界の統合結果とともに、カバー率も表示装置に表示させる。
統合部6a(具体的には、視界率算出部61およびカバー率算出部63a)は、例えば、視界表示プログラムに従って動作するCPUによって実現される。
図11は、第2の実施形態の処理経過の例を示すフローチャートである。ステップS1,S2の処理は、第1の実施形態におけるステップS1,S2と同様である。第2の実施形態では、ステップS2の後、視界率算出部61は、監視対象領域11内の、障害物の存在範囲以外の位置毎に視界率を算出する。そして、視界率算出部61は、監視対象領域11内において、算出した各視界率に対応した領域を特定する(ステップS5)。視界率算出部61は、この処理をカメラ毎に行う。ステップS5の結果が、第2の実施形態における視界の統合結果である。
次に、カバー率算出部63aが、式(1)の計算によって、カバー率を算出する(ステップS6)。カバー率算出部63aは、カメラ毎にカバー率を算出する。
次に、表示制御部7は、カメラ毎に得られた視界の統合結果を表示装置(図示略)に表示させる(ステップS4)。図12は、第2の実施形態における視界の統合結果の表示例を示す説明図である。例えば、表示制御部7は、カメラ22に関して、図12に示すように、各視界率に対応した領域として特定された各領域を、その視界率に応じた態様で表示装置に表示させる。視界率に応じた態様で各領域を表示する例として、例えば、視界率に応じた色、模様、輝度等で各領域を区別して表示することが挙げられる。なお、領域を区別して表示する場合、色、模様、輝度以外の事項で区別してもよい。この点は、他の実施形態でも同様である。図12に示す例では、視界率“3/3=1”の領域73と、視界率“2/3”の領域72,74と、視界率“1/3”の領域71,75と、その他の領域(視界率“0”の領域)とで、模様を区別している。また、表示制御部7は、重畳された障害物12の存在範囲も合わせて表示装置に表示させる。
また、表示制御部7は、図12に示すように、カバー率も合わせて表示装置に表示させる。なお、図12では、カバー率を直接表示する例を示しているが、カバー率の表示方法は、特に限定されない。例えば、横軸を各カメラの識別番号とし、縦軸をカバー率として、カメラ毎のカバー率の違いを表すグラフによってカバー率を表示してもよい。
第2の実施形態では、視界率に応じた色、模様、輝度等で各視界率に対応する領域を表示装置に表示させる。そして、視界率が高いほど、監視対象物(例えば、人物)の多くの部分を撮影できることを意味する。従って、カメラが監視対象物全体または監視対象物のある程度以上の部分を撮影できる範囲を、ユーザに理解しやすく提示することができる。従って、ユーザは、監視対象物全体またはその多くの部分をカメラが撮影できる監視対象領域内の範囲を容易に把握することができる。さらに、カメラに関する情報を変更させて、その範囲の変化を確認することで、その範囲が最大となるように、カメラの位置、姿勢、画角等を調整しやすくなる。
また、カバー率も表示することによって、監視対象領域11に対する、カメラが監視対象物を監視できる領域の割合もユーザに提示することができる。
次に、第2の実施形態の変形例について説明する。第2の実施形態において、カバー率の表示を省略してもよい。この場合、第2の実施形態の視界表示システム1は、カバー率算出部63aを備えていなくてもよく、ステップS6(図11参照)を実行しなくてよい。
また、第2の実施形態では、ステップS4において、表示制御部7は、指定された数値範囲に該当する視界率に対応する領域を強調して表示装置に表示させてもよい。この数値範囲の指定方法は、特に限定されず、例えば、ユーザが強調して表示すべき領域に対応する視界率の数値範囲を視界表示システム1に入力し、表示制御部7は、ユーザによって指定された数値範囲に該当する視界率に対応する領域を強調して表示装置に表示させてもよい。
図13は、特定の数値範囲に該当する視界率に対応する領域の強調表示の例を示す説明図である。例えば、表示制御部7が、図12に例示するように、各視界率に対応する各領域を表示装置に表示させているとする。そして、強調して表示すべき領域に対応する視界率の数値範囲として、“2/3以上1以下”という範囲が指定されたとする。この場合、“2/3以上1以下”の範囲の視界率に対応する領域は、視界率“2/3”に対応する領域72,74と、視界率“1”に対応する領域73である。従って、表示制御部7は、図12に示す領域72〜74を合わせた領域を図13に例示するように強調して表示する。図13に示す例で強調表示されている領域77は、領域72〜74を合わせた領域である。このように、本変形例では、表示制御部7が、指定された領域を強調して表示装置に表示させることにより、監視対象物の大部分を確実に撮影することができる有効な視界を、視覚的に明示することができる。また、視界率の数値範囲として“1”のみを指定した場合、強調表示される領域は、第1の実施形態で表示される視界の統合結果と同様になる。
また、強調して表示すべき領域に対応する視界率の数値範囲として“0”のみを指定してもよい。図14は、この場合に強調表示される領域の例を示す説明図である。すなわち、図14に示す例で強調表示されている領域78は、視界率“0”に該当する範囲であり、換言すれば、カメラの死角に該当する範囲である。このように、ユーザは、数値範囲として“0”を指定することで、カメラの死角に該当する範囲を視覚的に明確に確認することができる。
なお、図13および図14では、指定された数値範囲外の視界率に対応する領域(すなわち、強調しない領域)を一律に単色で表示する場合を例示している。また、図13および図14に例示するように、表示制御部7は、強調表示を行う場合にも、障害物12の存在範囲も合わせて表示装置に表示させることが好ましい。
実施形態3.
図15は、本発明の第3の実施形態の視界表示システムの構成例を示すブロック図である。第1の実施形態や第2の実施形態と同様の要素に関しては、図1や図9と同一の符号を付し、説明を省略する。第3の実施形態の視界表示システムは、第1の実施形態における統合部6(図1参照)の代わりに、統合部6b(図15参照)を備える。統合部6bは、視界率算出部61と、平均視界率算出部62と、カバー率算出部63bとを備える。
図15は、本発明の第3の実施形態の視界表示システムの構成例を示すブロック図である。第1の実施形態や第2の実施形態と同様の要素に関しては、図1や図9と同一の符号を付し、説明を省略する。第3の実施形態の視界表示システムは、第1の実施形態における統合部6(図1参照)の代わりに、統合部6b(図15参照)を備える。統合部6bは、視界率算出部61と、平均視界率算出部62と、カバー率算出部63bとを備える。
視界率算出部61は、第2の実施形態における視界率算出部61と同様である。
平均視界率算出部62は、監視対象領域11(図2参照)内の、障害物の存在範囲以外の位置毎に平均視界率を算出する。
既に説明したように、視界率算出部61は、視界率の算出を、密に連続する位置毎に行う必要はない。平均視界率算出部62も、平均視界率の算出を、密に連続する位置毎に行う必要はない。例えば、平均視界率算出部62は、監視対象領域11(障害物の存在範囲は除く。)を一定範囲毎に分割し、分割した各領域からそれぞれ代表位置を定め、その代表位置における平均視界率を算出してもよい。そして、平均視界率算出部62は、その平均視界率を、代表位置が属している分割領域の平均視界率として定めてもよい。そして、平均視界率算出部62は、視界率算出部61が視界率を算出した位置に関して、平均視界率を算出すればよい。すなわち、平均視界率の算出位置は、視界率算出部61による視界率の算出位置と同一である。
ここで、平均視界率とは、監視対象領域11(障害物の存在範囲は除く。)内の着目した位置に関して、視界率算出部61によってカメラ毎に算出された視界率のうち、上位所定順位までの視界率の平均値である。例えば、監視対象領域11(障害物の存在範囲は除く。)内のある位置Pに関して、個々のカメラ毎に視界率が算出されたとする。また、平均視界率の算出対象の順位として1位からn位までの上位n番目までの順位が定められているとする。この場合、その位置Pの視界率のうち、1番高い視界率から、n番目に高い視界率までのn個の視界率の平均値が平均視界率となる。従って、平均視界率算出部62は、位置Pの視界率のうち、1番高い視界率から、n番目に高い視界率までのn個の視界率の平均値を、位置Pにおける平均視界率として算出すればよい。なお、上記の“n”の値は、予め定められている。
図16は、平均視界率の算出例を示す説明図である。以下の説明では、図2に示す場合と同様に、3つの監視面分h0〜h2が定められているものとする。また、上記のnは“2”であるものとする。すなわち、平均視界率算出部62が、1つの位置に対してカメラ毎に算出された視界率のうち、上位2つの視界率の平均値を平均視界率として算出する場合を例にして説明する。図16では、左側から、カメラ21に関して視界率算出部61が定めた視界率毎の領域、カメラ22に関して視界率算出部61が定めた視界率毎の領域、カメラ23に関して視界率算出部61が定めた視界率毎の領域を示している。また、図16において、視界率が“1/3”である領域を符号“81”で示している。また、視界率が“2/3”である領域を符号“82”で示している。また、視界率が“3/3=1”である領域を符号“83”で示している。
図16に示す位置Pに着目すると、カメラ21に関して視界率算出部61が算出した視界率は“1”である。また、カメラ22に関して視界率算出部61が算出した視界率は“2/3”である。また、カメラ23に関して視界率算出部61が算出した視界率は“0”である。従って、平均視界率算出部62は、位置Pに関してカメラ毎に算出された3つの視界率“1”,“2/3”,“0”のうち、上位2つの視界率“1”,“2/3”の平均値を、位置Pにおける平均視界率として算出すればよい。本例では、位置Pの平均視界率は“5/6”となる。
平均視界率算出部62は、監視対象領域11(障害物の存在範囲は除く。)内の他の各位置に関しても、同様に平均視界率を算出する。
そして、平均視界率算出部62は、監視対象領域11内において、個々の平均視界率に対応した領域を特定する。このように特定された平均視界率毎の領域が、第3の実施形態における視界の統合結果となる。
カバー率算出部63bは、カバー率を算出する。ただし、第3の実施形態でのカバー率は、監視対象領域11内で視界率を算出した位置の数に対する、算出された平均視界率の和の割合である。すなわち、カバー率算出部63bは、以下に示す式(2)の計算によってカバー率を算出する。
なお、平均視界率の算出位置は、視界率算出部61による視界率の算出位置と同一であり、式(2)の右辺の分母を「監視対象領域内で平均視界率を算出した位置の数」としてもよく、その場合であっても、カバー率の算出結果は同一である。
第3の実施形態で式(2)によって計算したカバー率は、「平均視界率に基づくカバー率」と称することもできるが、説明を簡単にするため、単にカバー率と記す。
第2の実施形態ではカバー率(視界率に基づくカバー率)は、カメラ毎に算出される。一方、第3の実施形態におけるカバー率(平均視界率に基づくカバー率)は、カメラの数によらず、算出されるカバー率の値は1つである。第3の実施形態におけるカバー率は、複数のカメラを考慮した場合における、監視対象領域11に対する監視対象物を監視できる領域の割合であるということができる。
また、カバー率算出部63bは、式(2)の計算によってカバー率を算出する際、指定された数値範囲の平均視界率を式(2)の右辺の分子における加算対象としてもよい。すなわち、カバー率算出部63bは、式(2)の右辺の分子の計算において、指定された数値範囲の平均視界率のみを加算し、その数値範囲外の平均視界率は無視し(例えば、0とみなし)、式(2)によってカバー率を算出してもよい。第2の実施形態と同様に、この数値範囲の指定方法は、特に限定されない。
表示制御部7は、視界の統合結果とともに、カバー率も表示装置に表示させる。
統合部6b(具体的には、視界率算出部61、平均視界率算出部62およびカバー率算出部63b)は、例えば、視界表示プログラムに従って動作するCPUによって実現される。
図17は、第3の実施形態の処理経過の例を示すフローチャートである。ステップS1,S2,S5は、第2の実施形態におけるステップS1,S2,S5(図11参照)と同様であり、説明を省略する。
ステップS5の後、平均視界率算出部62は、監視対象領域11内の、障害物の存在範囲以外の位置毎に、平均視界率を算出する。そして、平均視界率算出部62は、監視対象領域11内において、算出した各平均視界率に対応した領域を特定する(ステップS11)。ステップS11の結果が、第3の実施形態における視界の統合結果である。
次に、カバー率算出部63bが、式(2)の計算によって、カバー率を算出する(ステップS12)。
次に、表示制御部7は、視界の統合結果を表示装置(図示略)に表示させる(ステップS4)。第3の実施形態では、表示制御部7は、各平均視界率に対応した領域としてステップS11で特定された各領域を、その平均視界率に応じた態様で表示装置に表示させる。平均視界率に応じた態様で各領域を表示する例として、例えば、平均視界率に応じた色、模様、輝度等で各領域を区別して表示することが挙げられる。表示制御部7は、監視対象領域内における各平均視界率に対応する各領域を、平均視界率に応じた態様で表示装置に表示させる。従って、第3の実施形態の統合結果の表示形式は、第2の実施形態の統合結果の表示形式(図12)と同様になる。ただし、第3の実施形態では、平均視界率に基づいて各領域を定めているので、個々の領域は、第2の実施形態で表示される個々の領域よりもさらに細かくなる。また、第2の実施形態では、カメラ毎に統合結果が表示されるが、第3の実施形態では、カメラの台数によらず、1つの統合結果が表示される。なお、表示制御部7は、重畳された障害物の存在範囲も合わせて表示装置に表示させる。
また、表示制御部7は、ステップS12で算出されたカバー率も合わせて表示装置に表示させる。第3の実施形態では、カバー率は、カメラの台数によらず、1つの値が算出される。表示制御部7は、そのカバー率を、視界の統合結果とともに表示させればよい。
第3の実施形態では、平均視界率に応じた色、模様、輝度等で各平均視界率に対応する領域を表示装置に表示させる。そして、平均視界率が高いほど、監視対象物(例えば、人物)の多くの部分を撮影できることを意味する。従って、カメラが監視対象物全体または監視対象物のある程度以上の部分を撮影できる範囲を、ユーザに理解しやすく提示することができる。特に、第3の実施形態では、各カメラに関して算出した視界率のうち、上位所定数の視界率の平均値(平均視界率)を算出し、その平均視界率に基づいて各領域を表示する。従って、複数のカメラを考慮した上で、カメラが監視対象物全体または監視対象物のある程度以上の部分を撮影できる範囲を、ユーザに理解しやすく提示することができる。ユーザは、第2の実施形態と同様に、監視対象物全体またはその多くの部分をカメラが撮影できる監視対象領域内の範囲を容易に把握することができる。さらに、カメラに関する情報を変更させて、その範囲の変化を確認することで、その範囲が最大となるように、カメラの位置、姿勢、画角等を調整しやすくなる。
また、第3の実施形態では、式(2)によって計算したカバー率も表示することによって、複数のカメラを考慮した場合における、監視対象領域11に対するカメラが監視対象物を監視できる領域の割合もユーザに提示することができる。
次に、第3の実施形態の変形例について説明する。第3の実施形態において、カバー率の表示を省略してもよい。この場合、第3の実施形態の視界表示システム1は、カバー率算出部63bを備えていなくてもよく、ステップS12(図17参照)を実行しなくてもよい。
また、第3の実施形態では、ステップS4において、表示制御部7は、指定された数値範囲に該当する平均視界率に対応する領域を強調して表示装置に表示させてもよい。この数値範囲の指定方法は、特に限定されず、例えば、ユーザが強調して表示すべき領域に対応する平均視界率の数値範囲を視界表示システム1に入力し、表示制御部7は、ユーザによって指定された数値範囲に該当する平均視界率に対応する領域を強調して表示装置に表示させてもよい。この表示制御部7の動作は、第2の実施形態の変形例の1つとして説明した動作(指定された数値範囲に該当する視界率に対応する領域を強調して表示装置に表示させる動作)と同様である。本変形例によれば、指定された数値範囲に該当する平均視界率に対応する領域をわかりやすくユーザに提示することができる。
また、第3の実施形態では、ステップS4において、表示制御部7は、ユーザからカメラの指定を受け、そのカメラの画像に収まる範囲を、視界の統合結果内で強調して表示装置に表示させてもよい。本変形例によれば、指定されたカメラの画像に収まる範囲をわかりやすくユーザに提示することができる。
実施形態4.
図18は、本発明の第4の実施形態の視界表示システムの構成例を示すブロック図である。第4の実施形態の視界表示システム40は、情報登録部2と、情報記憶部3と、監視面分決定部4と、投影部5と、区分け部41と、表示制御部42とを備える。情報登録部2、情報記憶部3、監視面分決定部4および投影部5は、第1から第3までの各実施形態におけるそれらの要素と同様であり、説明を省略する。
図18は、本発明の第4の実施形態の視界表示システムの構成例を示すブロック図である。第4の実施形態の視界表示システム40は、情報登録部2と、情報記憶部3と、監視面分決定部4と、投影部5と、区分け部41と、表示制御部42とを備える。情報登録部2、情報記憶部3、監視面分決定部4および投影部5は、第1から第3までの各実施形態におけるそれらの要素と同様であり、説明を省略する。
区分け部41は、監視面分毎に、監視面分を何台のカメラの視界に該当しているかに基づいて区分けする。図2に示すように3つの監視面分h0〜h2が定められ、3台のカメラ21〜23(図4参照)のカメラパラメータがそれぞれ情報記憶部3に記憶されているとする。この場合、区分け部41は、監視面分h0を、3台のカメラの視界に該当している領域、2台のカメラの視界に該当している領域、1台のカメラの視界に該当している領域、いずれのカメラの視界にも該当していない領域に区分けする。区分け部41は、監視面分h1,h2に関しても、同様に区分けする。
表示制御部42は、個々の監視面分内の区分けされた領域を、その領域を視界に含むカメラの台数に応じた態様で表すようにして、各監視面分を表示装置(図示略)に表示させる。例えば、表示制御部42は、3台のカメラの視界に該当している領域、2台のカメラの視界に該当している領域、1台のカメラの視界に該当している領域、いずれのカメラの視界にも該当していない領域をそれぞれ、色、模様、輝度等で区別して、各監視面分を表示装置に表示させる。
なお。視界表示システム40が表示装置を備えていてもよい。
情報登録部2、監視面分決定部4、投影部5、区分け部41および表示制御部42は、例えば、視界表示プログラムに従って動作するコンピュータのCPUによって実現される。この場合、CPUが視界表示プログラムを読み込み、そのプログラムに従って、情報登録部2、監視面分決定部4、投影部5、区分け部41および表示制御部42として動作すればよい。また、視界表示プログラムは、コンピュータが読み取り可能な記録媒体に記録されていてもよい。また、情報登録部2、監視面分決定部4、投影部5、区分け部41および表示制御部42がそれぞれ別々のハードウェアで実現されていてもよい。
次に、動作について説明する。
図19は、本発明の第4の実施形態の処理経過の例を示すフローチャートである。ステップS1,S2は、第1から第3までの各実施形態におけるステップS1,S2(図7、図11、図17参照。)と同様であり、説明を省略する。また、ここでは、図2に示すように3つの監視面分h0〜h2が定められ、3台のカメラ21〜23(図4参照)のカメラパラメータがそれぞれ情報記憶部3に記憶されている場合を例にして説明する。
図19は、本発明の第4の実施形態の処理経過の例を示すフローチャートである。ステップS1,S2は、第1から第3までの各実施形態におけるステップS1,S2(図7、図11、図17参照。)と同様であり、説明を省略する。また、ここでは、図2に示すように3つの監視面分h0〜h2が定められ、3台のカメラ21〜23(図4参照)のカメラパラメータがそれぞれ情報記憶部3に記憶されている場合を例にして説明する。
ステップS2までの処理により、図5に例示するように、各カメラ21〜23の画像領域を各監視面分に投影した結果が得られる。すなわち、監視面分h2に対するカメラ21の画像領域の投影結果、カメラ22の画像領域の投影結果、およびカメラ23の画像領域の投影結果がそれぞれ得られる。同様に、監視面分h1に対するカメラ毎の画像領域の投影結果、および監視面分h0に対するカメラ毎の画像領域の投影結果もそれぞれ得られる。
ステップS2の後、区分け部41は、監視面分毎に、監視面分を何台のカメラの視界に該当しているかに基づいて区分けする(ステップS21)。
例えば、区分け部41は、監視面分h2に対するカメラ21の画像領域の投影結果、カメラ22の画像領域の投影結果、およびカメラ23の画像領域の投影結果(図5の上段を参照。)に基づいて、監視面分h2を、3台のカメラの視界に該当している領域、2台のカメラの視界に該当している領域、1台のカメラの視界に該当している領域、いずれのカメラの視界にも該当していない領域に区分けする。図5の上段に示す監視面分h2への投影結果に基づいて監視面分h2を区分けした結果を図20に示す。
同様に、区分け部41は、監視面分h1に対するカメラ21の画像領域の投影結果、カメラ22の画像領域の投影結果、およびカメラ23の画像領域の投影結果(図5の中段を参照。)に基づいて、監視面分h1を、3台のカメラの視界に該当している領域、2台のカメラの視界に該当している領域、1台のカメラの視界に該当している領域、いずれのカメラの視界にも該当していない領域に区分けする。図5の中段に示す監視面分h1への投影結果に基づいて監視面分h1を区分けした結果を図21に示す。
同様に、区分け部41は、監視面分h0に対するカメラ21の画像領域の投影結果、カメラ22の画像領域の投影結果、およびカメラ23の画像領域の投影結果(図5の下段を参照。)に基づいて、監視面分h0を、3台のカメラの視界に該当している領域、2台のカメラの視界に該当している領域、1台のカメラの視界に該当している領域、いずれのカメラの視界にも該当していない領域に区分けする。図5の下段に示す監視面分h0への投影結果に基づいて監視面分h0を区分けした結果を図22に示す。
ステップS21の結果、図20から図22に示すように、監視面分毎に、監視面分を区分けした結果が得られる。図20から図22において、1台のカメラの視界に該当している領域を符号“91”で示している。また、2台のカメラの視界に該当している領域を符号“92”で示している。また、3台のカメラの視界に該当している領域を符号“93”で示している。いずれのカメラの視界にも該当していない領域を白色で示している。また、区分け部41は、各監視面分h0〜h2において、障害物12の存在範囲を、区分けの対象から除外してもよい。
ステップS21の後、表示制御部42は、区分けされた各監視面分h0〜h2をそれぞれ表示装置(図示略)に表示させる(ステップS22)。ステップS22において、表示制御部42は、個々の監視面分内の区分けされた領域を、その領域を視界に含むカメラの台数に応じた態様で表す。
図23は、ステップS22における表示形式の一例を示す説明図である。表示制御部42は、区分けされた各監視面分h0〜h2をそれぞれ、図23に示すように上面図として並べて表示装置に表示させてもよい。図23に示す表示例では、1台のカメラの視界に該当している領域91、2台のカメラの視界に該当している領域92、3台のカメラの視界に該当している領域93、およびその他の領域で、それぞれ異なる模様を用いている。表示制御部7は、障害物12の存在範囲も合わせて表示装置に表示させる。
また、ステップS22における各監視面分の表示形式として、以下に示す表示形式を採用してもよい。すなわち、表示制御部42は、図20、図21および図23に例示すように区分けされた各監視面分h0〜h2を、それぞれ、3次元空間内の各監視面分h0〜h2に該当する位置に配置した状態の斜視図を表示装置に表示させてもよい。本例では、表示制御部42は、監視面分h0の上層に監視面分h1が存在し、さらにその上層に監視面分h2が存在している状態の斜視図を表示装置に表示させる。この表示形式においても、各監視面分h0〜h1内の領域は、何台のカメラの視界に該当しているかに応じて、例えば、異なる模様等で表示される。
また、表示制御部42は、上記のように各監視面分を3次元空間に配置した上で、さらに、監視面分の区分けされた領域に、その領域を視界に含むカメラの台数が多いほど大きな3次元物体を配置した状態の斜視図を表示装置に表示させてもよい。この3次元物体の形状は特に限定されないが、ここでは、3次元物体が球である場合を例にして説明する。また、ここでは、球の大きさとして、大、中、小の三段階の大きさを用いる。
この場合、表示制御部42は、監視面分h0の上層に監視面分h1が存在し、さらにその上層に監視面分h2が存在している状態を定める。さらに、表示制御部42は、各監視面分h0〜h2において、3台のカメラの視界に該当している領域93(図21、図22参照)には、領域93と交差するように大きな球を配置した状態を定める。同様に、表示制御部42は、各監視面分h0〜h2において、2台のカメラの視界に該当している領域92(図21ないし図22参照)には、領域92と交差するように中程度の大きさの球を配置した状態を定め、1台のカメラの視界に該当している領域91(図21ないし図22参照)には、領域91と交差するように小さな球を配置した状態を定める。表示制御部42は、この状態の斜視図を表示装置に表示させてもよい。
また、表示制御部42は、各監視面分h0〜h2を3次元空間内に配置した状態の斜視図を表示装置に表示させる際、ユーザの操作に応じて、視点を変更して斜視図を更新してもよい。
ユーザは、3次元空間内における3種類の高さに対応する3つの監視面分h0〜h2内において、どの領域がカメラ21〜23の視界に入っているかを、表示された各監視面分によって確認することができる。従って、第4の実施形態においても、前述の各実施形態と同様の効果を得ることができる。
特に、第4の実施形態では、監視面分内の領域を、何台のカメラの視界に該当しているかによって区分けして表示するので、監視対象物(例えば、人物)がより多くのカメラによって撮影されるのかを理解しやすくユーザに提示することができる。従って、ユーザは、より多くのカメラの視界が重なる範囲を容易に把握することができる。
また、前述のように、監視面分の区分けされた領域に、その領域を視界に含むカメラの台数が多いほど大きな3次元物体(例えば、球)を配置した状態の斜視図をユーザに提示する場合には、ユーザは、その3次元物体の大きさによって、監視対象物が何台のカメラによって撮影されるのかを容易に把握することができる。
次に、第4の実施形態の変形例について説明する。第4の実施形態では、ステップS22において、表示制御部42は、指定された台数のカメラの視界に含まれる領域を強調して表示装置に表示させてもよい。カメラの台数の指定方法は特に限定されず、例えば、ユーザがカメラの台数を視界表示システム40に入力し、表示制御部42は、ユーザによって指定された台数のカメラの視界に含まれる領域を強調して表示装置に表示させてもよい。指定されるカメラの台数は、例えば“1台”のような1つの値に限定されず、“1台以上、全台数(本例では3台)以下”のように範囲として指定されてもよい。以下、図23に示すように、監視面分の上面図を提示する場合を例にして説明する。また、ここでは、図23の下段に示す監視面分h0を例にして説明する。
図24は、指定された台数のカメラの視界に含まれる領域の強調表示の例を示す説明図である。図24では、監視面分h0内での強調表示の例を示している。
表示制御部42が、図23に例示するように、各監視面分h0〜h2を表示装置に表示させているとする。そして、ユーザによって、カメラの台数として、“1台以上3台以下”という範囲が指定されたとする。このことは、1台、2台または3台のカメラの視界に含まれる領域を強調して表示するように外部から指示されたことを意味する。表示制御部42は、ユーザからのカメラ台数の指定に応じて、監視面分h0内において、1台のカメラの視界に該当している領域91、2台のカメラの視界に該当している領域92および3台のカメラの視界に該当している領域93を合わせた領域を、図24に例示するように強調して表示する。図24に示す例で強調表示されている領域95は、監視面分h0内の領域91〜93を合わせた領域である。ここでは、監視面分h0を例にして説明したが、表示制御部42は、図23に示す監視面分h1,h2内においても、同様に強調表示を行う。本変形例では、指定された台数のカメラの視界に含まれる範囲を、わかりやすくユーザに提示することができる。
また、カメラの台数として“0台”のみを指定してもよい。図25は、この場合に強調表示される領域の例を示す説明図である。図25では、図24と同様に、監視面分h0内での強調表示の例を示している。図25に示す例で強調表示されている領域96は、いずれのカメラの視界にも含まれない範囲である。換言すれば、領域96は、全てのカメラで死角となる範囲である。表示制御部42は、図23に示す監視面分h1,h2内においても、同様に強調表示を行う。図25に示すように、ユーザは、カメラの台数として“0台”を指定することで、全てのカメラで死角となる範囲を容易に確認することができる。
また、表示制御部42は、強調表示を行う場合にも、障害物12の存在範囲も合わせて表示装置に表示させることが好ましい。
また、表示制御部42は、各監視面分を3次元空間内に配置した状態の斜視図を表示装置に表示させる場合にも、各監視面分内で、指定された台数のカメラの視界に含まれる領域を強調してよい。
また、視界表示システム40は、指定された台数のカメラの視界に含まれる領域の強調表示を実行する場合、監視面分の面積に対する、強調して表示される領域(以下、強調表示領域と記す。)の面積の割合であるカバー率を算出してもよい。このカバー率の定義は、第2の実施形態におけるカバー率の定義や、第3の実施形態におけるカバー率の定義とは異なる。第4の実施形態の変形例において用いるカバー率は、「強調表示領域カバー率」と称することもできるが、説明を簡単にするため、単にカバー率と記す。
図26は、第4の実施形態において、カバー率を算出する場合の構成例を示すブロック図である。図18に示す要素と同様の要素については、図18と同一の符号を付し、説明を省略する。
カバー率算出部43は、表示制御部42が指定された台数のカメラの視界に含まれる領域の強調表示を行う場合に、カバー率を算出する。そして、表示制御部42は、算出されたカバー率を、強調表示する監視面分とともに表示装置に表示させる。
カバー率算出部43は、監視面分毎にカバー率を算出してもよく、あるいは、複数の監視面分全体に関してカバー率を算出してもよい。
カバー率算出部43が監視面分毎にカバー率を算出する場合の計算について説明する。カバー率算出部43は、監視面分毎にカバー率を算出する場合、監視面分毎に、以下に示す式(3)の計算を行うことによってカバー率を算出する。
例えば、図24に示す監視面分h0におけるカバー率を算出する場合、カバー率算出部43は、監視面分h0の面積に対する強調表示領域95(図24参照)の面積の割合をカバー率として算出する。カバー率算出部43は、監視面分h1のカバー率、および監視面分h2のカバー率も同様に算出する。
この場合、表示制御部42は、監視面分毎に算出されたカバー率をそれぞれ表示装置に表示させる。例えば、表示制御部42は、各監視面分h0〜h2内の領域を強調して表示装置に表示させる場合、各監視面分h0〜h2の近傍にそれぞれ対応するカバー率も合わせて表示させればよい。
次に、カバー率算出部43が複数の監視面分全体に関してカバー率を算出する場合の計算について説明する。ここでは、n+1個の監視面分h0〜hnが定められていているものとする。カバー率算出部43は、以下に示す式(4)の計算を行うことによってカバー率を算出する。
すなわち、カバー率算出部43は、各監視面分h0〜hnの面積の総和に対する、各監視面分h0〜hn内の強調表示領域の面積の総和の割合をカバー率として算出する。例えば、3つの監視面分h0〜h2が定められている場合、カバー率算出部43は、監視面分h0内の強調表示領域の面積と、監視面分h1内の強調表示領域の面積と、監視面分h2内の強調表示領域の面積の総和を算出し、監視面分h0〜h2の面積の総和に対する、その強調表示領域の面積の総和の割合をカバー率として算出する。
カバー率算出部43が式(4)によってカバー率を算出する場合、監視面分の数によらず、算出されるカバー率の数は1つである。表示制御部42は、表示装置にカバー率を表示させる。
また、第4の実施形態では、ステップS22において、表示制御部42は、ユーザからカメラの指定を受け、そのカメラの画像に収まる範囲を強調して、表示装置に表示させてもよい。例えば、表示制御部42が、図23に例示するように各監視面分h0〜h2を表示装置に表示させているとする。そして、例えば、カメラ21が指定されると、表示制御部42は、図27に示すように、カメラ21の画像に収まる範囲を強調して表示装置に表示させる。この場合、指定されたカメラの画像に収まる範囲をわかりやすくユーザに提示することができる。なお、図27では、カメラ21の画像に収まる範囲を太線で強調しているが、他の方法で強調してもよい。ここでは、指定されたカメラの画像に収まる範囲の強調表示を、第4の実施形態の変形例として示したが、前述の各実施形態においても、指定されたカメラの画像に収まる範囲を強調して表示してもよい。
なお、上記の各実施形態では、監視面分の数が3であり、カメラの台数が3台である場合を例にして説明したが、監視面分の数およびカメラの台数は、上記の各実施形態に示した数に限定されない。
次に、本発明の主要部について説明する。図28は、本発明の主要部の例を示すブロック図である。
投影部5は、カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、そのカメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、そのカメラから得られる画像内の位置を投影し、障害物によって遮られずにそのカメラが撮影することができる範囲である視界を特定する。
統合部6は、各監視面分内の視界を統合する。
表示制御部7は、視界の統合結果を表示装置に表示させる。
そのような構成により、カメラが監視対象物全体または監視対象物のある程度以上の部分を撮影できる範囲を、ユーザにとって理解しやすく提示することができる。
図29は、本発明の主要部の他の例を示すブロック図である。投影部5は、図28に示す投影部5と同様であり、説明を省略する。
区分け部41は、監視面分毎に、監視面分を何台のカメラの視界に該当しているかに基づいて区分けする。
表示制御部42は、個々の監視面分内の区分けされた領域を、その領域を視界に含むカメラの台数に応じた態様で表すようにして、各監視面分を表示装置に表示させる。
図29に示す構成においても、カメラが監視対象物全体または監視対象物のある程度以上の部分を撮影できる範囲を、ユーザにとって理解しやすく提示することができる。
実施形態5.
本発明の第5の実施形態の視界表示システムの構成を図30に示す。第5の実施形態の視界表示システムは、投影部51と、出力制御部53とを備える。
本発明の第5の実施形態の視界表示システムの構成を図30に示す。第5の実施形態の視界表示システムは、投影部51と、出力制御部53とを備える。
投影部51は、カメラに撮影される監視対象物の高さに基づいて定められた複数の平面に対して、そのカメラから得られる画像内の位置を投影し、そのカメラが撮影することができる範囲である視界を特定する。
出力制御部53は、視界が特定された平面を立体的に出力させる。出力制御部53は、立体化部と称することもできる。出力制御部53は、例えば、視界が特定された平面を積み重ねた状態を、例えば、ホログラムによって空間上に立体的に出力させてもよい。または、出力制御部53は、視界が特定された平面を積み重ねた状態を、例えば、3Dプリンタにオブジェクトとして出力させてもよい。
出力制御部53が、視界が特定された平面を出力させる場合、投影部51は、監視空間に対して細かく設定された複数の平面に対し、カメラから得られる画像内の位置を投影し、そのカメラが撮影することができる範囲である視界を特定してもよい。
第5の実施形態によれば、出力制御部53が、細かく設定された各平面を、例えば3Dプリンタに印刷させて、積木のように積み重ねて出力することで、ユーザが内部を立体的に確認することができる。これにより、例えば、多人数によるカメラ配置の検討を効率的に行うことができる。
また、本発明の視界表示システムは、図31に示すように構成されていてもよい。図31に例示する視界表示システムは、投影部55と、区分け部56と、出力制御部57とを備える。
投影部55は、図30に示す投影部51と同様である。具体的には、投影部55は、カメラに撮影される監視対象物の高さに基づいて定められた複数の平面に対して、カメラから得られる画像内の位置を投影し、そのカメラが撮影することができる範囲である視界を特定する。例えば、投影部55は、障害物によって遮られずにカメラが撮影することができる範囲である視界を特定する。また、この平面は、例えば、カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した平面である。
区分け部56は、平面毎に、平面を何台のカメラの視界に該当しているかに基づいて区分けする。
出力制御部57は、個々の平面内の区分けされた領域を、その領域を視界に含むカメラの台数に応じた態様で表すようにして、各平面を出力させる。
例えば、出力制御部57は、区分けされた領域を視界に含むカメラの台数に応じた立体を平面に重ねて、ホログラムで、空間上に立体的に表示させてもよい。また、例えば、出力制御部57は、区分けされた領域を視界に含むカメラの台数に応じた立体を平面に重ねた形状を、3Dプリンタによりオブジェクトとして出力させてもよい。
また、本発明の視界表示システムは、図32に示すように構成されていてもよい。図32に例示する視界表示システムは、投影部65と、統合部66と、表示制御部67とを備える。投影部65は、図30に示す投影部51や図31に示す投影部55と同様である。
統合部66は、各平面内の視界を統合する。この統合処理は、既に説明した統合処理と同様でよい。
表示制御部67は、視界の統合結果を表示装置に表示させる。
なお、これまでに説明した上記の各実施形態においては、監視対象領域を平行移動した面分である監視面分に対して投影等の処理を行ったが、本発明の処理の対象は監視面分に限定されない。具体的には、投影部51は、カメラが撮影し得る空間上の複数の仮想的な平面に対して、当該カメラから得られる画像内の位置を投影してもよい。その場合、複数の仮想的な平面は、必ずしも監視対象領域に対して平行でなくてもよい。図33は、3つの仮想的な平面のうち、中央の仮想的な平面が監視対象領域に対して平行でない例を示す。図33に示すような仮想的な平面に対して投影する場合も、本発明の範疇である。
上記の実施形態の一部または全部は、以下の付記のようにも記載され得るが、以下に限定されるわけではない。
(付記1)カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、前記カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、前記カメラから得られる画像内の位置を投影し、障害物によって遮られずに前記カメラが撮影することができる範囲である視界を特定する投影手段と、前記各監視面分内の視界を統合する統合手段と、視界の統合結果を表示装置に表示させる表示制御手段とを備えることを特徴とする視界表示システム。
(付記2)統合手段は、カメラ毎に、いずれの監視面分でも視界に該当している領域を視界の統合結果として抽出し、表示制御手段は、カメラ毎に、抽出された前記領域を表示装置に表示させる付記1に記載の視界表示システム。
(付記3)統合手段は、監視対象領域内の障害物の存在範囲以外の位置毎に、監視面分の総数に対する、前記位置が視界に属している監視面分の数の割合である視界率を算出する処理を、カメラ毎に行う視界率算出手段を含み、表示制御手段は、カメラ毎に、監視対象領域内の各視界率に対応する領域を、視界率に応じた態様で表示装置に表示させる付記1に記載の視界表示システム。
(付記4)統合手段は、カメラ毎に、監視対象領域内で視界率を算出した位置の数に対する、算出された視界率の和の割合であるカバー率を算出するカバー率算出手段を含み、表示制御手段は、各カメラのカバー率を表示装置に表示させる付記3に記載の視界表示システム。
(付記5)表示制御手段は、指定された数値範囲に該当する視界率に対応する領域を強調して表示装置に表示させる付記3または付記4に記載の視界表示システム。
(付記6)統合手段は、監視対象領域内の障害物の存在範囲以外の位置毎に、監視面分の総数に対する、前記位置が視界に属している監視面分の数の割合である視界率を算出する処理を、カメラ毎に行う視界率算出手段と、監視対象領域内の障害物の存在範囲以外の位置毎に、当該位置に対してカメラ毎に算出された視界率のうち、上位所定順位までの視界率の平均値である平均視界率を算出する平均視界率算出手段とを含み、表示制御手段は、監視対象領域内の各平均視界率に対応する領域を、平均視界率に応じた態様で表示装置に表示させる付記1に記載の視界表示システム。
(付記7)統合手段は、監視対象領域内で視界率を算出した位置の数に対する、算出された平均視界率の和の割合であるカバー率を算出するカバー率算出手段を含み、表示制御手段は、前記カバー率を表示装置に表示させる付記6に記載の視界表示システム。
(付記8)表示制御手段は、指定された数値範囲に該当する平均視界率に対応する領域を強調して表示装置に表示させる付記6または付記7に記載の視界表示システム。
(付記9)カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、前記カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、前記カメラから得られる画像内の位置を投影し、障害物によって遮られずに前記カメラが撮影することができる範囲である視界を特定する投影手段と、監視面分毎に、監視面分を何台のカメラの視界に該当しているかに基づいて区分けする区分け手段と、個々の監視面分内の区分けされた領域を、その領域を視界に含むカメラの台数に応じた態様で表すようにして、各監視面分を表示装置に表示させる表示制御手段とを備えることを特徴とする視界表示システム。
(付記10)表示制御手段は、各監視面分を上面図として並べて表示装置に表示させる付記9に記載の視界表示システム。
(付記11)表示制御手段は、各監視面分を3次元空間に配置した状態の斜視図を表示装置に表示させる付記9に記載の視界表示システム。
(付記12)表示制御手段は、各監視面分を3次元空間に配置するとともに、監視面分内の区分けされた領域に、その領域を視界に含むカメラの台数が多いほど大きな3次元物体を配置した状態の斜視図を表示装置に表示させる付記9または付記11に記載の視界表示システム。
(付記13)表示制御手段は、指定された台数のカメラの視界に含まれる領域を強調して表示装置に表示させる付記9から付記12のうちのいずれかに記載の視界表示システム。
(付記14)監視面分の面積に対する、強調して表示される領域の面積の割合であるカバー率を算出するカバー率算出手段を備え、表示制御手段は、カバー率を表示装置に表示させる付記13に記載の視界表示システム。
(付記15)カバー率算出手段は、監視面分毎にカバー率を算出し、表示制御手段は、各監視面分のカバー率をそれぞれ表示装置に表示させる付記14に記載の視界表示システム。
(付記16)カバー率算出手段は、各監視面分の面積の総和に対する、前記各監視面分内で強調して表示される領域の面積の総和の割合をカバー率として算出し、表示制御手段は、前記カバー率を表示装置に表示させる付記14に記載の視界表示システム。
(付記17)カメラに撮影される監視対象物の高さに基づいて定められた複数の平面に対して、前記カメラから得られる画像内の位置を投影し、前記カメラが撮影することができる範囲である視界を特定する投影手段と、前記各平面内の視界を統合する統合手段と、視界の統合結果を表示装置に表示させる表示制御手段とを備えることを特徴とする視界表示システム。
(付記18)前記平面は、カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した平面である付記17に記載の視界表示システム。
(付記19)前記投影手段は、障害物によって遮られずに前記カメラが撮影することができる範囲である視界を特定する付記17または付記18に記載の視界表示システム。
(付記20)カメラに撮影される監視対象物の高さに基づいて定められた複数の平面に対して、前記カメラから得られる画像内の位置を投影し、前記カメラが撮影することができる範囲である視界を特定する投影手段と、視界が特定された平面を立体的に出力させる出力制御手段とを備えることを特徴とする視界表示システム。
(付記21)前記出力制御手段は、視界が特定された平面の積み重ねを、空間上に立体的に表示させる付記20に記載の視界表示システム。
(付記22)前記出力制御手段は、視界が特定された平面の積み重ねを、3Dプリンタによりオブジェクトとして出力させる付記20に記載の視界表示システム。
(付記23)カメラに撮影される監視対象物の高さに基づいて定められた複数の平面に対して、前記カメラから得られる画像内の位置を投影し、前記カメラが撮影することができる範囲である視界を特定する投影手段と、平面毎に、平面を何台のカメラの視界に該当しているかに基づいて区分けする区分け手段と、個々の平面内の区分けされた領域を、その領域を視界に含むカメラの台数に応じた態様で表すようにして、各平面を出力させる出力制御手段とを備えることを特徴とする視界表示システム。
(付記24)前記平面は、カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した平面である付記23に記載の視界表示システム。
(付記25)前記投影手段は、障害物によって遮られずに前記カメラが撮影することができる範囲である視界を特定する付記23または付記24に記載の視界表示システム。
(付記26)前記出力制御手段は、区分けされた領域を視界に含むカメラの台数に応じた立体を平面に重ねて、空間上に立体的に表示させる付記23から付記25のうちのいずれかに記載の視界表示システム。
(付記27)前記出力制御手段は、区分けされた領域を視界に含むカメラの台数に応じた立体を平面に重ねた形状を、3Dプリンタによりオブジェクトとして出力させる付記23から付記25のうちのいずれかに記載の視界表示システム。
この出願は、2012年12月6日に出願された日本特許出願2012−267552を基礎とする優先権を主張し、その開示の全てをここに取り込む。
以上、実施形態を参照して本願発明を説明したが、本願発明は上記の実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
本発明は、監視対象物を良好に撮影できるカメラの視界を特定し、その視界を表示する視界表示システムに好適に適用される。
5 投影部
6,6a,6b 統合部
7,42 表示制御部
41 区分け部
61 視界率算出部
62 平均視界率算出部
43,63a,63b カバー率算出部
6,6a,6b 統合部
7,42 表示制御部
41 区分け部
61 視界率算出部
62 平均視界率算出部
43,63a,63b カバー率算出部
Claims (20)
- カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、前記カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、前記カメラから得られる画像内の位置を投影し、障害物によって遮られずに前記カメラが撮影することができる範囲である視界を特定する投影手段と、
前記各監視面分内の視界を統合する統合手段と、
視界の統合結果を表示装置に表示させる表示制御手段とを備える
ことを特徴とする視界表示システム。 - 統合手段は、カメラ毎に、いずれの監視面分でも視界に該当している領域を視界の統合結果として抽出し、
表示制御手段は、カメラ毎に、抽出された前記領域を表示装置に表示させる
請求項1に記載の視界表示システム。 - 統合手段は、
監視対象領域内の障害物の存在範囲以外の位置毎に、監視面分の総数に対する、前記位置が視界に属している監視面分の数の割合である視界率を算出する処理を、カメラ毎に行う視界率算出手段を含み、
表示制御手段は、カメラ毎に、監視対象領域内の各視界率に対応する領域を、視界率に応じた態様で表示装置に表示させる
請求項1に記載の視界表示システム。 - 統合手段は、
カメラ毎に、監視対象領域内で視界率を算出した位置の数に対する、算出された視界率の和の割合であるカバー率を算出するカバー率算出手段を含み、
表示制御手段は、各カメラのカバー率を表示装置に表示させる
請求項3に記載の視界表示システム。 - 表示制御手段は、指定された数値範囲に該当する視界率に対応する領域を強調して表示装置に表示させる
請求項3または請求項4に記載の視界表示システム。 - 統合手段は、
監視対象領域内の障害物の存在範囲以外の位置毎に、監視面分の総数に対する、前記位置が視界に属している監視面分の数の割合である視界率を算出する処理を、カメラ毎に行う視界率算出手段と、
監視対象領域内の障害物の存在範囲以外の位置毎に、当該位置に対してカメラ毎に算出された視界率のうち、上位所定順位までの視界率の平均値である平均視界率を算出する平均視界率算出手段とを含み、
表示制御手段は、監視対象領域内の各平均視界率に対応する領域を、平均視界率に応じた態様で表示装置に表示させる
請求項1に記載の視界表示システム。 - 統合手段は、
監視対象領域内で視界率を算出した位置の数に対する、算出された平均視界率の和の割合であるカバー率を算出するカバー率算出手段を含み、
表示制御手段は、前記カバー率を表示装置に表示させる
請求項6に記載の視界表示システム。 - 表示制御手段は、指定された数値範囲に該当する平均視界率に対応する領域を強調して表示装置に表示させる
請求項6または請求項7に記載の視界表示システム。 - カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、前記カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、前記カメラから得られる画像内の位置を投影し、障害物によって遮られずに前記カメラが撮影することができる範囲である視界を特定する投影手段と、
監視面分毎に、監視面分を何台のカメラの視界に該当しているかに基づいて区分けする区分け手段と、
個々の監視面分内の区分けされた領域を、その領域を視界に含むカメラの台数に応じた態様で表すようにして、各監視面分を表示装置に表示させる表示制御手段とを備える
ことを特徴とする視界表示システム。 - 表示制御手段は、各監視面分を上面図として並べて表示装置に表示させる
請求項9に記載の視界表示システム。 - 表示制御手段は、各監視面分を3次元空間に配置した状態の斜視図を表示装置に表示させる
請求項9に記載の視界表示システム。 - 表示制御手段は、各監視面分を3次元空間に配置するとともに、監視面分内の区分けされた領域に、その領域を視界に含むカメラの台数が多いほど大きな3次元物体を配置した状態の斜視図を表示装置に表示させる
請求項9または請求項11に記載の視界表示システム。 - 表示制御手段は、指定された台数のカメラの視界に含まれる領域を強調して表示装置に表示させる
請求項9から請求項12のうちのいずれか1項に記載の視界表示システム。 - 監視面分の面積に対する、強調して表示される領域の面積の割合であるカバー率を算出するカバー率算出手段を備え、
表示制御手段は、カバー率を表示装置に表示させる
請求項13に記載の視界表示システム。 - カバー率算出手段は、監視面分毎にカバー率を算出し、
表示制御手段は、各監視面分のカバー率をそれぞれ表示装置に表示させる
請求項14に記載の視界表示システム。 - カバー率算出手段は、各監視面分の面積の総和に対する、前記各監視面分内で強調して表示される領域の面積の総和の割合をカバー率として算出し、
表示制御手段は、前記カバー率を表示装置に表示させる
請求項14に記載の視界表示システム。 - カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、前記カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、前記カメラから得られる画像内の位置を投影し、障害物によって遮られずに前記カメラが撮影することができる範囲である視界を特定し、
前記各監視面分内の視界を統合し、
視界の統合結果を表示装置に表示させる
ことを特徴とする視界表示方法。 - カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、前記カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、前記カメラから得られる画像内の位置を投影し、障害物によって遮られずに前記カメラが撮影することができる範囲である視界を特定し、
監視面分毎に、監視面分を何台のカメラの視界に該当しているかに基づいて区分けし、
個々の監視面分内の区分けされた領域を、その領域を視界に含むカメラの台数に応じた態様で表すようにして、各監視面分を表示装置に表示させる
ことを特徴とする視界表示方法。 - コンピュータに、
カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、前記カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、前記カメラから得られる画像内の位置を投影し、障害物によって遮られずに前記カメラが撮影することができる範囲である視界を特定する投影処理、
前記各監視面分内の視界を統合する統合処理、および、
視界の統合結果を表示装置に表示させる表示制御処理
を実行させるための視界表示プログラム。 - コンピュータに、
カメラによる撮影状況の確認対象となる範囲を規定する監視対象領域を平行移動した面分であって、前記カメラに撮影される監視対象物の高さに基づいて定められた面分である複数の監視面分に対して、前記カメラから得られる画像内の位置を投影し、障害物によって遮られずに前記カメラが撮影することができる範囲である視界を特定する投影処理、
監視面分毎に、監視面分を何台のカメラの視界に該当しているかに基づいて区分けする区分け処理、および、
個々の監視面分内の区分けされた領域を、その領域を視界に含むカメラの台数に応じた態様で表すようにして、各監視面分を表示装置に表示させる表示制御処理
を実行させるための視界表示プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012267552 | 2012-12-06 | ||
JP2012267552 | 2012-12-06 | ||
PCT/JP2013/007024 WO2014087620A1 (ja) | 2012-12-06 | 2013-11-29 | 視界表示システム、視界表示方法および視界表示プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2014087620A1 JPWO2014087620A1 (ja) | 2017-01-05 |
JP6265131B2 true JP6265131B2 (ja) | 2018-01-24 |
Family
ID=50883062
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014550912A Active JP6265131B2 (ja) | 2012-12-06 | 2013-11-29 | 視界表示システム、視界表示方法および視界表示プログラム |
Country Status (8)
Country | Link |
---|---|
US (1) | US9807310B2 (ja) |
JP (1) | JP6265131B2 (ja) |
CN (1) | CN104704817B (ja) |
AR (1) | AR093654A1 (ja) |
HK (1) | HK1208980A1 (ja) |
IN (1) | IN2015DN01648A (ja) |
TW (1) | TWI551137B (ja) |
WO (1) | WO2014087620A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102282456B1 (ko) * | 2014-12-05 | 2021-07-28 | 한화테크윈 주식회사 | 평면도에 히트맵을 표시하는 장치 및 방법 |
JP6705102B2 (ja) * | 2014-12-25 | 2020-06-03 | 三菱電機株式会社 | 撮像装置の設置支援装置、撮像装置の設置支援方法および映像記録再生装置 |
CN105806320B (zh) * | 2014-12-29 | 2020-04-21 | 同方威视技术股份有限公司 | 拍摄测量系统以及拍摄测量方法 |
JP6812203B2 (ja) * | 2016-11-02 | 2021-01-13 | キヤノン株式会社 | 情報処理システム、情報処理方法、携帯投影端末 |
US11288733B2 (en) * | 2018-11-14 | 2022-03-29 | Mastercard International Incorporated | Interactive 3D image projection systems and methods |
JP7285101B2 (ja) * | 2019-03-26 | 2023-06-01 | セコム株式会社 | 設置支援装置及び設置支援プログラム |
JP7332363B2 (ja) * | 2019-07-08 | 2023-08-23 | セコム株式会社 | カメラ配置評価装置、カメラ配置評価方法、及びコンピュータプログラム |
CN110536126A (zh) * | 2019-08-22 | 2019-12-03 | 上海晋泷科技有限公司 | 摄像头可视域的判断方法、装置、电子设备与存储介质 |
JP2021002889A (ja) * | 2020-10-09 | 2021-01-07 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1997017797A2 (en) | 1995-10-25 | 1997-05-15 | Sarnoff Corporation | Apparatus and method for quadtree based variable block size motion estimation |
TWI346831B (en) * | 2006-05-12 | 2011-08-11 | Seereal Technologies Gmbh | Projection device and method for holographic reconstructions of scenes |
JP2008146113A (ja) * | 2006-12-06 | 2008-06-26 | Oki Electric Ind Co Ltd | 建物用cadシステム |
AU2007354731A1 (en) * | 2007-06-08 | 2008-12-11 | Tele Atlas B.V. | Method of and apparatus for producing a multi-viewpoint panorama |
JP4933354B2 (ja) | 2007-06-08 | 2012-05-16 | キヤノン株式会社 | 情報処理装置、及び情報処理方法 |
TWI352253B (en) * | 2007-07-24 | 2011-11-11 | Delta Electronics Inc | Projection apparatus |
TWI353179B (en) * | 2007-09-21 | 2011-11-21 | Hon Hai Prec Ind Co Ltd | Wireless projector and projecting method of the sa |
JP4989417B2 (ja) | 2007-10-26 | 2012-08-01 | キヤノン株式会社 | 画像表示システム、画像表示装置及びその制御方法、コンピュータプログラム |
JP4975673B2 (ja) | 2008-03-28 | 2012-07-11 | ティーオーエー株式会社 | カメラ設置シミュレータプログラム |
TW201001125A (en) * | 2008-06-18 | 2010-01-01 | Micro Star Int Co Ltd | Computer with projection device |
JP2010033108A (ja) | 2008-07-24 | 2010-02-12 | Sony Corp | 画像処理システム、撮像装置、画像処理方法及びコンピュータプログラム |
JP5099451B2 (ja) * | 2008-12-01 | 2012-12-19 | アイシン精機株式会社 | 車両周辺確認装置 |
-
2013
- 2013-11-29 US US14/649,304 patent/US9807310B2/en active Active
- 2013-11-29 WO PCT/JP2013/007024 patent/WO2014087620A1/ja active Application Filing
- 2013-11-29 JP JP2014550912A patent/JP6265131B2/ja active Active
- 2013-11-29 CN CN201380052604.4A patent/CN104704817B/zh active Active
- 2013-11-29 AR ARP130104399A patent/AR093654A1/es active IP Right Grant
- 2013-12-03 TW TW102144229A patent/TWI551137B/zh active
-
2015
- 2015-02-27 IN IN1648DEN2015 patent/IN2015DN01648A/en unknown
- 2015-09-30 HK HK15109642.6A patent/HK1208980A1/xx unknown
Also Published As
Publication number | Publication date |
---|---|
CN104704817B (zh) | 2017-12-26 |
US9807310B2 (en) | 2017-10-31 |
CN104704817A (zh) | 2015-06-10 |
HK1208980A1 (en) | 2016-03-18 |
IN2015DN01648A (ja) | 2015-07-03 |
WO2014087620A1 (ja) | 2014-06-12 |
AR093654A1 (es) | 2015-06-17 |
TW201429239A (zh) | 2014-07-16 |
TWI551137B (zh) | 2016-09-21 |
US20150304568A1 (en) | 2015-10-22 |
JPWO2014087620A1 (ja) | 2017-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6265131B2 (ja) | 視界表示システム、視界表示方法および視界表示プログラム | |
CA3016539C (en) | Image processing method, display device, and inspection system | |
JP6265132B2 (ja) | 画像認識処理適性表示システム、方法およびプログラム | |
US10157315B2 (en) | Image capturing apparatus, monitoring system, image processing apparatus, image capturing method, and non-transitory computer readable recording medium | |
JP4774824B2 (ja) | 3次元計測処理の計測対象範囲の確認方法および計測対象範囲の設定方法ならびに各方法を実施する装置 | |
WO2017163955A1 (ja) | 監視システム、画像処理装置、画像処理方法およびプログラム記録媒体 | |
KR20140097844A (ko) | 영상 모니터링 시스템에서 영상 제공 방법 및 시스템 | |
JP6126501B2 (ja) | カメラ設置シミュレータ及びそのコンピュータプログラム | |
JP2010128727A (ja) | 画像処理装置 | |
JP4780455B2 (ja) | 映像監視装置及び方法 | |
JP4207883B2 (ja) | 視線誘導度算出システム | |
KR20180123302A (ko) | 볼의 궤적을 시각화하는 방법 및 장치 | |
US12033406B2 (en) | Method and device for identifying presence of three-dimensional objects using images | |
JP2016092693A (ja) | 撮像装置、撮像装置の制御方法およびプログラム | |
JP5574551B2 (ja) | 画像処理装置および画像処理方法 | |
JP6265133B2 (ja) | 見え方提示システム、方法およびプログラム | |
CN112969963B (zh) | 信息处理设备及其控制方法和存储介质 | |
JP2020088688A (ja) | 監視装置、監視システム、監視方法、監視プログラム | |
JP2006033188A (ja) | 監視装置および監視方法 | |
JP2016017757A (ja) | 情報登録装置及び情報継続登録装置並びに方法及びプログラム | |
WO2020158035A1 (ja) | 物体位置推定装置およびその方法 | |
JP2005157635A (ja) | 混雑度計測装置、設備制御システム、および混雑度計測方法 | |
JP7345355B2 (ja) | 物体識別装置 | |
JPWO2020059064A1 (ja) | 算出装置、情報処理方法およびプログラム | |
JP6670918B2 (ja) | 生成装置、生成方法及び生成プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161004 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171211 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6265131 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |