JP2011151459A - 合成表示装置 - Google Patents
合成表示装置 Download PDFInfo
- Publication number
- JP2011151459A JP2011151459A JP2010008970A JP2010008970A JP2011151459A JP 2011151459 A JP2011151459 A JP 2011151459A JP 2010008970 A JP2010008970 A JP 2010008970A JP 2010008970 A JP2010008970 A JP 2010008970A JP 2011151459 A JP2011151459 A JP 2011151459A
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- area
- moving object
- moving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
【解決手段】床領域の画像を監視対象領域の直交座標系における平面位置に射影して、平面射影画像を生成する平面射影部9と、監視対象領域の直交座標系上で動体が存在している領域に板モデルを設置し、その板モデルの表面に動体領域画像抽出部4により抽出された動体領域画像を貼り付ける動体画像貼付部11とを設け、画像合成部13が、その平面射影画像及び動体領域画像が貼り付けられた板モデルの画像を合成する。
【選択図】図1
Description
即ち、ある監視カメラが屋内領域、道路面や建物周辺敷地を撮影する場合、建物、道路構造物や地面に設置されている物体によって遮蔽された死角が発生する。このような場合、死角となる領域を撮影することが可能な位置に別の監視カメラを設置する。
ただし、2つの監視カメラを設置する場合には、2つの監視カメラの撮影方向が異なるので、2つの監視カメラにより撮影された画像を1つの画像にまとめる合成処理が必要になる。
以下の特許文献1に開示されている情報配信装置(合成表示装置)では、交差点に進入する車両(以下、「対象車両」と称する)から見えない他の車両(例えば、建物等に遮蔽されている交差点の左折方向の車両)の画像を、対象車両に搭載されている画像表示装置に表示することができるようにするために、交差点内に設置されているカメラから、交差点に進入する対象車両から見えない領域(死角領域)の画像を取得し、その死角領域の画像を予め設定された仮想視点から見た画像に変換している。
また、情報配信装置は、他のカメラから交差点に進入する対象車両の前方視界を表す前方画像を取得し、その前方画像についても、上記仮想視点から見た画像に変換し、変換後の死角画像と前方画像を合成して、合成後の画像を対象車両内の画像表示装置に送信している。
ただし、以下の非特許文献1に開示されている方式では、複数のカメラにより撮影された画像間で、同じ対象物の同じ箇所が写っている特徴点の対応付けがなされないと正しく変換できない制約である。
このことは、あるカメラにより撮影された対象物の表面と同じ表面を他のカメラが撮影することができない場合、同じ特徴点が双方の撮影画像に写らないので、画像の視点を変換することができないことを意味する。
また、2つのカメラにより、略同じ方向から同じ領域を撮影した画像内に迷彩服を着ている被写体が含まれている場合や、葉の多い植物が含まれている場合、2つのカメラにより撮影された画像には、濃淡から得られる大量の特徴点が存在し、大量の特徴点を正確に対応付けることは困難であるため、正確に画像の視点を変換することができないことを意味する。
図1はこの発明の実施の形態1による合成表示装置を示す構成図である。
図1において、カメラ1−1〜1−Nは相互に異なる位置に設置されている固定のカメラであり、相互に異なる方向から監視対象領域を撮影して、その監視対象領域の画像を示す画像データを出力する。
ただし、床領域画像抽出部2−1〜2−Nはカメラ1−1〜1−NがNTSC(National Television Standards Committee)出力を行うカメラである場合、カメラ1−1〜1−Nにより撮影された画像をリアルタイムに取り込む画像キャプチャボードを実装している。
一方、カメラ1−1〜1−Nがネットワーク接続型のカメラである場合、カメラ1−1〜1−Nにより撮影された画像をネットワークから取り込むネットワークインタフェースを実装している。
なお、床領域画像抽出部2−1〜2−Nは床領域画像抽出手段を構成している。
床領域画像用メモリ3−1〜3−Nは床領域画像抽出部2−1〜2−Nにより抽出された床領域画像を示す画像データを記憶するRAMやハードディスクなどの記録媒体である。
動体領域画像抽出部4−1〜4−Nについても床領域画像抽出部2−1〜2−Nと同様に、画像キャプチャボード又はネットワークインタフェースを実装している。
なお、動体領域画像抽出部4−1〜4−Nは動体領域画像抽出手段を構成している。
動体領域画像用メモリ5−1〜5−Nは動体領域画像抽出部4−1〜4−Nにより抽出された動体領域画像を示す画像データを記憶するRAMやハードディスクなどの記録媒体である。
カメラデータ用メモリ7はカメラデータ取得部6により取得されたカメラデータを記憶するRAMやハードディスクなどの記録媒体である。
建物構造データ用メモリ8は建物構造データ(例えば、カメラ1−1〜1−Nが設置されている建物の寸法や、監視対象領域内の本棚(遮蔽物)の幅、長さ及び高さを示すデータであって、一定の原点をもつ直交座標で表現されているデータ)を記憶するRAMやハードディスクなどの記録媒体である。
平面射影画像用メモリ10−1〜10−Nは平面射影部9−1〜9−Nにより生成された平面射影画像を示す画像データを記憶するRAMやハードディスクなどの記録媒体である。
板モデル用メモリ12−1〜12−Nは動体画像貼付部11−1〜11−Nにより動体領域画像が貼り付けられた板モデルを示す板データを記憶するRAMやハードディスクなどの記録媒体である。
合成画像用メモリ14は画像合成部13により合成された画像を示す画像データを記憶するRAMやハードディスクなどの記録媒体である。
この実施の形態1では、説明の便宜上、7台(N=7)のカメラ1−1〜1−7(カメラA,B,C,D,E,F,G)が、図2のように設置されているものとする。
図2は監視対象領域である部屋を示す平面図である。
この監視対象領域である部屋は、四方が壁に囲まれており、2つの本棚T1,T2が設置されている。
この部屋の床面から天井までの高さは3メートル、本棚T1,T2の高さは2メートルであるとする。
また、カメラA〜Gのピッチ角は一定角度で下方を向いているものとする。
図2において、矢印A〜Gは、カメラA〜Gの撮影方向を示し、矢印の両側の実線は、それぞれのカメラが撮影可能な範囲を示している。
P,Q,Rは監視対象領域内に存在している人物を示している。
なお、図3は監視対象領域の内部を示す鳥瞰図である。ただし、図3では、部屋の外壁の表示は省略している。
ただし、カメラA〜Gにおける撮影は、ばらばらに行われてもよいし、同期して同時に行われてもよい。一定時間毎にカメラA〜カメラGから最新の画像を示す画像データが出力される。
床領域画像を示す画像データにおいて、床領域内の画素における画素値はカメラにより撮影された画像の画素値であり、床領域以外の画素における画素値は予め設定された一定値である。
以下、床領域画像抽出部2−1〜2−7による床領域画像の抽出処理を具体的に説明する。
床領域画像抽出部2−1〜2−7は、カメラA〜Gにより撮影された監視対象領域の画像の中で、床面が撮影されている床領域と、床面以外が撮影されている領域とを画素単位で区別し、床領域内の画素の画素値については、カメラA〜Gにより撮影された画像の画素値を記録し、床領域以外の画素の画素値については、予め設定された一定値を記録する。
床領域画像抽出部2−1〜2−7は、監視対象領域の画像を構成している画素が、床領域内の画素であると判断すると、その画素の画素値をカメラA〜Gにより撮影された画像の画素値に設定し、その画素値を床領域画像用メモリ3−1〜3−7に格納する。
一方、監視対象領域の画像を構成している画素が、床領域以外の画素であると判断すると、その画素の画素値を予め設定された一定値に設定し、その画素値を床領域画像用メモリ3−1〜3−7に格納する。
床領域画像抽出部2−1〜2−7は、濃淡エッジによって床領域が分断された場合、濃淡エッジによる各閉ループを一つのクラスタとみなし、クラスタ毎に、当該クラスタを構成している各画素の画素値と、予め記録している各画素値とを比較して、画素値の差分が一定値以内の画素が床領域内の画素であると判断することで、当該クラスタが床領域であるか否かを判断する。
床領域の画像は、図4に示すように、カメラA,C,Dにより撮影された監視対象領域の画像から本棚T1,T2と、動体である人物P,Q,Rが除去された画像であることが分かる。
動体領域画像を示す画像データにおいて、動体領域内の画素における画素値はカメラにより撮影された画像の画素値であり、動体領域以外の画素における画素値は予め設定された一定値である。
以下、動体領域画像抽出部4−1〜4−7による動体領域画像の抽出処理を具体的に説明する。
動体領域画像抽出部4−1〜4−7は、実際に監視が開始されてから、カメラA〜Gから画像データを受けると、その画像データが示す監視対象領域の画像を構成している各画素の画素値と、予め記録している各画素値(人間が存在していないときの監視対象領域の画像を構成している各画素の画素値)とを比較し(画像中の同一画素位置の画素値を比較する)、画素値の差分が一定値以上の画素が動体領域内の画素であると判断する。
あるいは、監視対象領域の画像上の一定範囲内において、予め設定された個数以上の画素の画素値に変化がある場合、それらの変化点を動体領域内の画素であると判断するようにする。
即ち、動体領域画像抽出部4−1〜4−7は、1秒前、2秒前、3秒前の画像のすべてにおいて、画素値の差分が一定値以上の画素は動体領域内の画素であると判断する。
一方、1秒前、2秒前、3秒前の画像のいずれかにおいて、画素値の差分が一定値未満であれば、その画素は動体領域以外の画素であると判断する。
一方、監視対象領域の画像を構成している画素が、動体領域以外の画素であると判断すると、その画素の画素値を予め設定された一定値に設定し、その画素値を動体領域画像用メモリ5−1〜5−7に格納する。
動体領域の画像は、図4に示すように、カメラA,B,Cにより撮影された監視対象領域の画像から本棚T1,T2と、床領域が除去された画像であることが分かる。
具体的には、動体領域画像抽出部4−1〜4−7は、監視対象領域の画像の中から、動体領域の画像を抽出すると、例えば、公知のMean−Shift法を用いて、その動体領域を追跡する。
次に、動体領域画像抽出部4−1〜4−7は、例えば、0.5秒後にカメラA〜Gから次の撮影画像を受けると、その撮影画像において、その教師データが示す動体領域の画像と同じ図柄の領域を判別することで、その動体領域の移動先を特定する。
これにより、監視対象領域内で、複数の人物が重なり合って撮影されている場合でも、重なり度合いが一定画素値以下であれば、複数の人物が撮影されている領域を別々の動体領域として抽出することが可能となる。
ただし、この実施の形態1では、カメラA〜Gが固定カメラであるものを想定しており、カメラデータは固定値であるものとする。
以下、平面射影部9−1〜9−7における平面射影画像の生成処理を具体的に説明する。
図5において、“hc”はカメラの設置高(床面からカメラの設置位置までの距離)、“θp”はカメラの光軸方向(カメラが水平面から下方向に向いている角度)、“f”はカメラの焦点距離、“Sh”はカメラの受光面における上下の長さである。
例えば、図5(a)に示すように、カメラにより撮影される画像の上下方向の範囲が点M〜点Jであるとすると、点J、点K、点L、点Mが写る位置までの受光面の距離は、図5(b)に示すように、“yJ”、“yK”、“yL”、“yM”で表される。
例えば、点Pから点Lまでの距離LPは、以下のように求めることができる。
まず、∠LOCは、下記の式(1)で表されるので、LP/hcは、下記の式(2)のようになる。
∠LOC=arctan(yL/f) (1)
LP/hc=tan((π/2)−(θp−arctan(yL/f))) (2)
式(2)より、距離LPは、下記のように求めることができる。
LP=hc×tan((π/2)−(θp−arctan(yL/f))) (3)
ただし、πは円周率を示している。
図6(a)は図2のカメラCの撮影画像を示し、図6(b)はカメラCと本棚T1,T2の位置を上空から見ている平面図である。
図6において、OはカメラCの設置位置であり、カメラCは床面からhcの高さに設置されている。
点Aは本棚T1と床面のなすコーナーの点であり、点Bは本棚T2と床面のなすコーナーの点である。点Cは光軸を床面に射影した線と補助線が交差する点である。図6の補助線は受光面と並行である。
点DはカメラCにより撮影される画像の左端における床面と接する点であり、点EはカメラCにより撮影される画像の右端における床面と接する点である。点Fは光軸を床面に射影した線と点DEを結ぶ線が交差する点である。
画像の左右中心から点A、点B、点D、点Eが写る位置までの受光面の距離は、図6(b)に示すように、“xA”、“xB”、“xD”、“xE”で表される。
床領域画像を監視対象領域の直交座標系における平面位置に射影するには、画像の左右中心(例えば、点C、点Fなど)から床領域内の各点(例えば、点A、点B、点D、点Eなど)までの距離(撮影方向の距離と直交する方向の距離)を求める必要がある。
まず、∠AOCは、下記の式(4)で表されるので、AC/COは、下記の式(5)のようになる。
∠AOC=arctan(xA/f) (4)
AC/CO=tan(∠AOC)=xA/f (5)
ただし、点Cと点Oの距離COは、点Oの高さが既知であるため、上述した図5を解説した方式で求めることができる。
式(5)より、距離ACは、下記のように求めることができる。
AC=CO×xA/f (6)
例えば、図5における点Jと、図6における点Dとが同じ画素の点であるとすると、距離(JP,DF)が示す平面位置に対して、当該画素の画素値を設定することで、当該画素を平面位置に射影する。
例えば、所定の方向がカメラCの撮影方向と一致する方向に設定されているとすると、カメラDの場合、カメラCと撮影方向が逆方向であるため、カメラDにより撮影された画像から生成する平面射影画像については、視点方向を180度回転させることで、カメラCにより撮影された画像から生成する平面射影画像と同じ方向を向くようにする。
他のカメラA,B,E,F,Gにより撮影された画像から生成する平面射影画像についても、カメラCにより撮影された画像から生成する平面射影画像と同じ方向を向くように視点方向を回転させて生成する。
カメラA〜Gの撮影画像から生成された平面射影画像の視点方向を回転させることで、それらの平面射影画像が同じ方向を向いているように生成する処理自体は公知の技術であるため、ここでは詳細な説明を省略する。
以下、動体画像貼付部11−1〜11−7の処理内容を具体的に説明する。
図7は動体が存在している領域の探索処理を示す説明図である。
図7において、(a)はカメラCにより撮影された画像から生成された平面射影画像を示し、(b)はカメラCにより撮影された画像から抽出された動体領域画像を示している。
即ち、動体画像貼付部11−1〜11−7は、図7(a)に示すように、平面射影画像内の画素をカメラ位置Oから放射状に一定角度の差をもたせて探索する。
その探索結果として、一旦、床面の画素になり、再び床面の画素ではなくなった画素位置を、板モデルを設置する候補点として記録する。
図7(a)の例では、点A,点B,点Cが候補点として記録される。
そして、動体に当る画素位置を平面射影部9−1〜9−7と同様の方式で平面上の位置に射影し、この平面上の位置と平面射影画像から求めた候補点(点A,点B,点C)の距離を求める。
動体画像貼付部11−1〜11−7は、一定距離以内の候補点を、板モデルを設置する場所に決定する。
図7の例では、点B,点Cは一定距離以内の候補点であるため、板モデルを設置する場所に決定されるが、点Aは一定距離以内の候補点ではないため、板モデルを設置する場所に決定されない。
なお、動体領域画像抽出部4−1〜4−7により動体が追跡されて複数の動体領域画像が抽出されている場合、それぞれの動体領域画像について、一定画素毎に下から上に探索する処理を行う。
これにより、平面射影画像上の候補点と、それぞれの動体領域画像の対応が図られる。
ただし、この場合、動体画像貼付部11−1〜11−7は、板モデルと動体領域画像抽出部4−1〜4−7により追跡された動体の管理番号を関連付けておくようにする。
具体的には、動体画像貼付部11−1〜11−7は、動体領域画像上に板モデルを設置する場所に決定すると、図7(b)に示すように、その動体領域画像上で、上から下に探索を行って、検出した動体の最上点を求める。
図8は板モデルの高さを決定するための説明図である。図8の例では、点L1が最上点であり、点Kが板モデルを設置する位置である。
図8(a)における記号は、図5(a)における記号と同じ意味である。
ただし、監視対象物である動体の奥行きが薄い物体であるとみなして、求める板モデルの上端の点をL2と仮定する。点L2は、点Kの真上に延びる線と、カメラ位置Oと点L1を結ぶ線との交点である。
即ち、∠POCは、下記の式(7)で表されるので、距離PKは、下記の式(8)のようになる。
∠POC=π/2−θp (7)
PK=OL2×sin(∠POC) (8)
OL2=PK/sin(∠POC) (9)
KL2=hc−OL2×cos(∠POC) (10)
なお、板データは、板モデルの3次元位置を示す座標(VRML(Virtual Reality Modeling Language)形式、あるいは、OpenGLを用いて表現可能な座標データ)と、テクスチャである動体領域画像の貼り付け方を示す値からなるデータである。
図9に示すように、一定方向から見た場合に、床面が他の色で途切れている位置に動体が立って見えるように板モデルが設置され、その板モデルの表面に動体領域画像が貼り付けられる。
なお、動体領域画像抽出部4−1〜4−7による追跡によって複数の動体領域画像が抽出されている場合、それぞれの動体領域画像について板データを生成する。
これにより、複数の人物が写っている場合でも、複数の人物を別々に表示することが可能になる。
以下、画像合成部13における画像の合成処理を具体的に説明する。
カメラCとカメラDの撮影方向は逆方向であるため、上述したように、カメラDにより撮影された画像から生成された平面射影画像については、視点方向を180度回転させることで、カメラCにより撮影された画像から生成された平面射影画像と同じ方向を向くようにされている。
その結果、図10の例では、カメラCにより撮影された画像から生成された平面射影画像及びカメラDにより撮影された画像から生成された平面射影画像の視点方向はどちらも同じであり、カメラCの設置位置が視点とされている。
ただし、画素値に関しては、2つ以上の平面射影画像が重なる点は平均化するものとする。
板データは重なりあってもよい。また、複数の板データの中で、一定の距離以内にある板データについては取り除いてもよい。
また、2つのカメラから同時に観測可能な床領域内の板データがある場合も、それらの板データが示すテクスチャ同士をMean−Shift法を用いて比較し、それらのテクスチャが一致する場合には、一方のテクスチャを消去するようにしてもよい。
即ち、画像表示部15は、例えば、VRMLのビューアソフトウェアを用いることで、画像データが示す合成画像の視点方向を操作員が指示する任意の視点位置に合わせて、その合成画像をディスプレイに表示する。
図11は画像表示部15による合成画像の表示例を示す説明図である。
図11では、床の上に人物P,Q,Rが乗っている画像が表示されており、遮蔽物である本棚T1,T2は表示されていない。図11では、説明の便宜上、建物の外壁の表示は省略している。
この場合、カメラの画面表示の上に、VRML形式のテクスチャ付き板データを読み込んで合成表示する手段を備えるようにする。
VRMLの表示視点位置及び方向をカメラの設置位置及び方向に合わせて、カメラにより撮影された画像上に、テクスチャ付き板データを表示する。
また、板データだけではなく、床データ又はその一部を合成表示するようにしてもよい。床データ及び板データは、半透過で表示するようにしてもよい。
この場合、例えば、カメラAにより撮影された画像に写っていた動体が、カメラAの画角の外に出た時刻から一定時間内にカメラBの画角に入ることで、その動体が新たに検出された場合、同じ動体として同じ管理番号を表示する。
ただし、カメラAにより検出された動体の床面上の板データの位置と、カメラBにより検出された動体の床面上の位置が一定距離以内の場合に、同一の動体であるものと認定する。
あるいは、確認のために、これらの板データのテクスチャをMean−Shift法によって比較するようにしてもよい。これにより、いずれかのカメラが撮影できている人物の動作を追跡して表示することが可能になる。
これにより、何処にいた人物が、何処へ向かったかなどを示す情報の記録が可能になる。
このような場合、動体領域画像抽出部4−1〜4−7は、2つの動体領域に対して、それぞれ管理番号を付与する。
一塊の板データについては、2つの動体が重なっていている動体として、事後に2つの管理データを付与するようにする。
逆に、2つの動体領域が検出された後、2つの動体領域が一塊の動体として抽出された場合、この一塊の板データに対して、2つの動体の管理番号を付与するようにする。
これにより、画像表示部15は、二人の人物が固まっている場合、2つの管理番号を表示することができるため、人物の重なりも表現することができる。
上記実施の形態1では、監視対象領域を撮影しているカメラA〜Gが固定カメラであるものについて示したが、カメラA〜Gの他に、移動カメラを用いて、監視対象領域を撮影するようにしてもよい。
ただし、この場合、移動カメラの設置状況を検出するカメラ検出手段を設けて、移動カメラの設置状況を示すカメラデータをカメラデータ用メモリ7に格納する必要がある。
なお、床領域検出部2が移動カメラにより撮影された画像から床領域を抽出する場合、移動カメラの真下にあたる床面上の点を原点とみなすことで、固定カメラにより撮影された画像から床領域を抽出する場合と同様の処理で抽出することができる。
例えば、移動カメラ又は固定カメラが、パンチルトズームカメラ(以後、「PTZカメラ」と称する)である場合、図12に示すように、2軸(パン軸、チルト軸)による回転と、ズームが可能である。
この場合、操作員がPTZカメラを操作すると、PTZカメラからパン軸及びチルト軸の角度と、ズームによって変更された焦点距離がカメラデータとして出力され、カメラデータ取得部6が当該カメラデータを取得してカメラデータ用メモリ7に格納する。
例えば、移動カメラの筐体に図13に示すような目印用のマークが付けられている場合(図13の例では、▽のマークが付けられており、マークの検出が容易なように、特定の色が塗られている。あるいは、ライトによって点灯している)、カメラデータ取得部6が、内蔵しているカメラ(図示せず)又は移動カメラ監視用のカメラ(図示せず)により撮影された画像から、移動カメラの筐体に付けられているマークを検出することで、移動位置と方向を特定する。
移動カメラの筐体に対するマークの設置高が分かれば、固定カメラであるカメラA〜Gの設置高hc(図5を参照)の代わりに、マークの設置高を用いて、平面射影画像の平面位置を求めることができる。
例えば、移動カメラの車輪として、左右2輪と、支えの一輪があれば、監視対象領域内を移動することができる。
このとき、左右の2輪に対して、車輪の回転数を計測するオドメトリ計測器が設置されていれば、オドメトリ計測器によって、左右の車輪の回転数から移動距離や向きの変化を求めることができる。
カメラデータ取得部6は、内蔵しているカメラ(図示せず)又は移動カメラ監視用のカメラ(図示せず)により撮影された画像から特定した移動カメラの位置と方向を時刻と一緒に記録し、内蔵しているカメラ(図示せず)等によって、移動カメラの筐体に付されているマークを検出することができなくなると、記録している移動カメラの位置と方向を初期値として、移動カメラから送信される位置変位と方向変位を加算することで、移動カメラの位置と方向を更新する。
また、移動カメラにより撮影された画像に対してだけ、床領域以外の画素値を示す部分を動体とみなして抽出するようにすれば、固定カメラが撮影不可能な死角部分の情景を移動カメラにて再現して表示することが可能となる。
図15はカメラのズーム機能と連動して、特定の棚だけを透明にして表示している一例を示している。
Claims (2)
- 相互に異なる方向から監視対象領域を撮影する複数のカメラと、上記カメラにより撮影された監視対象領域の画像の中から、床面が撮影されている床領域の画像を抽出する複数の床領域画像抽出手段と、上記カメラにより撮影された監視対象領域の画像の中から、動体が撮影されている動体領域の画像を抽出する複数の動体領域画像抽出手段と、上記カメラの設置状況を示すカメラデータを用いて、上記床領域画像抽出手段により抽出された床領域の画像を上記監視対象領域の直交座標系における平面位置に射影して、平面射影画像を生成する複数の平面射影手段と、上記監視対象領域の直交座標系上で上記動体が存在している領域に板モデルを設置し、上記板モデルの表面に上記動体領域画像抽出手段により抽出された動体領域画像を貼り付ける複数の動体画像貼付手段と、上記複数の平面射影手段により生成された平面射影画像及び上記複数の動体画像貼付手段により動体領域画像が貼り付けられた板モデルの画像を合成する画像合成手段と、上記画像合成手段により合成された画像を表示する画像表示手段とを備えた合成表示装置。
- 複数のカメラの中に移動カメラが含まれている場合、上記移動カメラの設置状況を検出するカメラ検出手段を設けたことを特徴とする請求項1記載の合成表示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010008970A JP5213883B2 (ja) | 2010-01-19 | 2010-01-19 | 合成表示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010008970A JP5213883B2 (ja) | 2010-01-19 | 2010-01-19 | 合成表示装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011151459A true JP2011151459A (ja) | 2011-08-04 |
JP5213883B2 JP5213883B2 (ja) | 2013-06-19 |
Family
ID=44538084
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010008970A Active JP5213883B2 (ja) | 2010-01-19 | 2010-01-19 | 合成表示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5213883B2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017102824A (ja) * | 2015-12-04 | 2017-06-08 | クラリオン株式会社 | 追跡装置 |
JP2018084924A (ja) * | 2016-11-22 | 2018-05-31 | サン電子株式会社 | 管理装置及び管理システム |
WO2019026985A1 (ja) * | 2017-08-03 | 2019-02-07 | 日本電気株式会社 | 分析装置、分析システム、分析方法およびプログラム記憶媒体 |
US11431255B2 (en) | 2017-09-28 | 2022-08-30 | Nec Corporation | Analysis system, analysis method, and program storage medium |
JP2023016837A (ja) * | 2015-09-01 | 2023-02-02 | 日本電気株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002104117A (ja) * | 2000-10-03 | 2002-04-10 | Denso Corp | 車両用運転支援システム |
JP2003132349A (ja) * | 2001-10-24 | 2003-05-09 | Matsushita Electric Ind Co Ltd | 描画装置 |
JP2005268972A (ja) * | 2004-03-17 | 2005-09-29 | Matsushita Electric Ind Co Ltd | 映像表示システム、及び映像表示方法 |
JP2008066864A (ja) * | 2006-09-05 | 2008-03-21 | Mitsubishi Electric Corp | 監視装置及び監視プログラム |
-
2010
- 2010-01-19 JP JP2010008970A patent/JP5213883B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002104117A (ja) * | 2000-10-03 | 2002-04-10 | Denso Corp | 車両用運転支援システム |
JP2003132349A (ja) * | 2001-10-24 | 2003-05-09 | Matsushita Electric Ind Co Ltd | 描画装置 |
JP2005268972A (ja) * | 2004-03-17 | 2005-09-29 | Matsushita Electric Ind Co Ltd | 映像表示システム、及び映像表示方法 |
JP2008066864A (ja) * | 2006-09-05 | 2008-03-21 | Mitsubishi Electric Corp | 監視装置及び監視プログラム |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023016837A (ja) * | 2015-09-01 | 2023-02-02 | 日本電気株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP7480823B2 (ja) | 2015-09-01 | 2024-05-10 | 日本電気株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US12067784B2 (en) | 2015-09-01 | 2024-08-20 | Nec Corporation | Surveillance information generation apparatus, imaging direction estimation apparatus, surveillance information generation method, imaging direction estimation method, and program |
JP2017102824A (ja) * | 2015-12-04 | 2017-06-08 | クラリオン株式会社 | 追跡装置 |
WO2017094567A1 (ja) * | 2015-12-04 | 2017-06-08 | クラリオン株式会社 | 追跡装置 |
US10755421B2 (en) | 2015-12-04 | 2020-08-25 | Clarion Co., Ltd. | Tracking device |
JP2018084924A (ja) * | 2016-11-22 | 2018-05-31 | サン電子株式会社 | 管理装置及び管理システム |
JP7101331B2 (ja) | 2016-11-22 | 2022-07-15 | サン電子株式会社 | 管理装置及び管理システム |
WO2019026985A1 (ja) * | 2017-08-03 | 2019-02-07 | 日本電気株式会社 | 分析装置、分析システム、分析方法およびプログラム記憶媒体 |
JPWO2019026985A1 (ja) * | 2017-08-03 | 2020-07-02 | 日本電気株式会社 | 分析システム、分析方法およびコンピュータプログラム |
JP7074138B2 (ja) | 2017-08-03 | 2022-05-24 | 日本電気株式会社 | 分析システム、分析方法およびコンピュータプログラム |
US11431255B2 (en) | 2017-09-28 | 2022-08-30 | Nec Corporation | Analysis system, analysis method, and program storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP5213883B2 (ja) | 2013-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105678748B (zh) | 三维监控系统中基于三维重构的交互式标定方法和装置 | |
EP2913796B1 (en) | Method of generating panorama views on a mobile mapping system | |
AU2011202555B2 (en) | Multi-view alignment based on fixed-scale ground plane rectification | |
CN105809701B (zh) | 全景视频姿态标定方法 | |
US7522186B2 (en) | Method and apparatus for providing immersive surveillance | |
US9756277B2 (en) | System for filming a video movie | |
WO2005088971A1 (ja) | 画像生成装置、画像生成方法、および画像生成プログラム | |
US9881377B2 (en) | Apparatus and method for determining the distinct location of an image-recording camera | |
JP2015201850A (ja) | 撮像装置のパラメータ推定方法 | |
JP5213883B2 (ja) | 合成表示装置 | |
KR101342393B1 (ko) | 회전식 라인 카메라로 획득한 실내 전방위 영상의 지오레퍼런싱 방법 | |
US11798233B2 (en) | Generation device, generation method and storage medium for three-dimensional model that remove a portion of the three-dimensional model | |
JP5667846B2 (ja) | 対象物画像判定装置 | |
CN102834848A (zh) | 用于监视场景中的活动重点的可视化的方法 | |
JP2023546739A (ja) | シーンの3次元モデルを生成するための方法、装置、およびシステム | |
JP2008226109A (ja) | 映像解析システムおよび映像解析方法 | |
JP2015038699A (ja) | 拡張現実画像生成システム、3次元形状データ生成装置、拡張現実提示装置、拡張現実画像生成方法、及びプログラム | |
CN112911205B (zh) | 监测系统和方法 | |
Chen et al. | A 3-D surveillance system using multiple integrated cameras | |
CN207530944U (zh) | 人脸识别相机 | |
JP2005258792A (ja) | 画像生成装置、画像生成方法、および画像生成プログラム | |
CN107093193B (zh) | 用于借助摄像机构建深度图的方法 | |
Chen et al. | Integration of multiple views for a 3-d indoor surveillance system | |
JP2007102343A (ja) | 関心度測定装置および方法並びに関心度算出プログラム | |
JP2001145090A (ja) | 監視装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120808 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130117 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130129 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5213883 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160308 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |