JP2017011598A - 監視システム - Google Patents
監視システム Download PDFInfo
- Publication number
- JP2017011598A JP2017011598A JP2015127506A JP2015127506A JP2017011598A JP 2017011598 A JP2017011598 A JP 2017011598A JP 2015127506 A JP2015127506 A JP 2015127506A JP 2015127506 A JP2015127506 A JP 2015127506A JP 2017011598 A JP2017011598 A JP 2017011598A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- video
- coordinates
- video data
- same
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
Abstract
【課題】本発明の目的は、移動物体の正確な追跡を行うことである。【解決手段】本発明の監視システムは、複数のカメラと物体検知装置と統合座標管理装置を有し、物体検知装置はカメラが撮影した映像データから物体を検出し、統合座標管理装置は少なくとも2台のカメラの映像データから視野の重なる領域を特定し、該特定した領域から物体の位置を算出して、各々の映像データの物体が同一と判定した場合には映像データに物体の軌跡を描画することを特徴とする。【選択図】 図1
Description
本発明は、監視システムに関するものである。
監視システムにおいて、カメラ映像に対して画像処理技術を用いて、より多くの情報を引き出す技術が一般的になっている。
例えば、移動物体が画面中を移動した場合に物体が動く軌跡を画面上に描画して追跡する技術がある。映像の時間方向の複数フレームを利用し、映像の時間的変化があった箇所を検知する。その検知した変化を起こした箇所が同じような大きさや画像の特徴、時間的に方向性を持っていれば移動物物体と判断することが出来る。
例えば、移動物体が画面中を移動した場合に物体が動く軌跡を画面上に描画して追跡する技術がある。映像の時間方向の複数フレームを利用し、映像の時間的変化があった箇所を検知する。その検知した変化を起こした箇所が同じような大きさや画像の特徴、時間的に方向性を持っていれば移動物物体と判断することが出来る。
2つの物体を1台のカメラで撮影した場合について、図3を用いて説明する。
図3は光軸上に重なった物体をカメラで撮影した場合の表示画像について説明するための図である。
図3は、カメラ11が視野15内にある物体31と物体32を撮影した場合である。
物体31と物体32は、カメラ11の同一の光軸上にあり、かつ横方向の視野31と同じ幅であるが、カメラ11からの距離が異なる。
カメラ11が物体31と物体32を撮影し、映像を映像表示装置14の画面に表示すると、図3となる。
物体31と物体32は、どちらか1つの物体だけしか存在しない状態で撮影した場合でも、映像表示装置14の画面上では同じ幅の物体141として表示され、見かけ上の区別ができない。
一般的に、遠くの物体は小さく見えるという事象を利用してカメラと物体の距離を把握することも出来るが、画面上の物体141の見かけ上の大きさだけでは正確な距離は分からない。そのため移動物体の追跡で見かけ上の大きさが同じでも距離が異なる別の物体を撮影している場合もある。
図3は光軸上に重なった物体をカメラで撮影した場合の表示画像について説明するための図である。
図3は、カメラ11が視野15内にある物体31と物体32を撮影した場合である。
物体31と物体32は、カメラ11の同一の光軸上にあり、かつ横方向の視野31と同じ幅であるが、カメラ11からの距離が異なる。
カメラ11が物体31と物体32を撮影し、映像を映像表示装置14の画面に表示すると、図3となる。
物体31と物体32は、どちらか1つの物体だけしか存在しない状態で撮影した場合でも、映像表示装置14の画面上では同じ幅の物体141として表示され、見かけ上の区別ができない。
一般的に、遠くの物体は小さく見えるという事象を利用してカメラと物体の距離を把握することも出来るが、画面上の物体141の見かけ上の大きさだけでは正確な距離は分からない。そのため移動物体の追跡で見かけ上の大きさが同じでも距離が異なる別の物体を撮影している場合もある。
次に、2つの物体を2台のカメラで撮影した場合について、図6を用いて説明する。
図6はカメラと物体の位置関係を説明するための図である。
1台のカメラに2つの撮像素子を搭載したカメラは一般的にステレオカメラと呼称されている。この技術は人間の目と同様に2つのカメラ映像の視野角を使って距離を算出する。
図6(A)はカメラ11−1とカメラ11−2の2台のカメラで物体61と物体62を撮影した場合である。
このとき、カメラ11−1の視野15−1とカメラ11−2の視野15−2が重なった領域に位置する物体62は両方のカメラ11−1,11−2に写っているため、図6(C)のカメラ11−1の映像とカメラ11−2の映像の両方に物体62が表示される。
物体61はカメラ11−1の視野15−1にしか写っていないため、図6(B)のカメラ11−1の映像には物体61が表示されるが、カメラ11−2の映像には物体61が表示されない。
このように2台のカメラの視野角により物体が撮影または非撮影を利用する技術がステレオビジョンである。映像中の画面の位置から視野角が求まるため、物体までの正確な距離を算出することができる。但し、正確な距離を算出するには2つの視野の両方に物体が写っている必要がある。
図6はカメラと物体の位置関係を説明するための図である。
1台のカメラに2つの撮像素子を搭載したカメラは一般的にステレオカメラと呼称されている。この技術は人間の目と同様に2つのカメラ映像の視野角を使って距離を算出する。
図6(A)はカメラ11−1とカメラ11−2の2台のカメラで物体61と物体62を撮影した場合である。
このとき、カメラ11−1の視野15−1とカメラ11−2の視野15−2が重なった領域に位置する物体62は両方のカメラ11−1,11−2に写っているため、図6(C)のカメラ11−1の映像とカメラ11−2の映像の両方に物体62が表示される。
物体61はカメラ11−1の視野15−1にしか写っていないため、図6(B)のカメラ11−1の映像には物体61が表示されるが、カメラ11−2の映像には物体61が表示されない。
このように2台のカメラの視野角により物体が撮影または非撮影を利用する技術がステレオビジョンである。映像中の画面の位置から視野角が求まるため、物体までの正確な距離を算出することができる。但し、正確な距離を算出するには2つの視野の両方に物体が写っている必要がある。
さらに、図2に示すような複数カメラ映像を並べて1つの大きな映像を合成するパノラマビジョンという技術もある。
図2は(A)映像(1)と(B)映像(2)は別々のカメラで撮影した映像である。それぞれの映像に飛行機が映っているが、この飛行機は同一のものを同時に撮影しているものであり、この2つを重ね合わせて1つの(C)パノラマ映像に合成する。パノラマ映像を作成する場合、各々のカメラの視野が重なる領域が狭くなるほど、より少ないカメラ台数で広範囲を撮影することができる。
図2は(A)映像(1)と(B)映像(2)は別々のカメラで撮影した映像である。それぞれの映像に飛行機が映っているが、この飛行機は同一のものを同時に撮影しているものであり、この2つを重ね合わせて1つの(C)パノラマ映像に合成する。パノラマ映像を作成する場合、各々のカメラの視野が重なる領域が狭くなるほど、より少ないカメラ台数で広範囲を撮影することができる。
先行技術文献としては、例えば、特許文献1に撮影レンズの画角に比べて大きい被写体に対する複数回の撮影を行うことによって、該被写体全体の撮影画像を得る技術が開示されている。
本発明の目的は、移動物体の正確な追跡を行うことである。
本発明の監視システムは、複数のカメラと物体検知装置と統合座標管理装置を有し、物体検知装置はカメラが撮影した映像データから物体を検出し、統合座標管理装置は少なくとも2台のカメラの映像データから視野の重なる領域を特定し、該特定した領域から物体の位置を算出して、各々の映像データの物体が同一と判定した場合には映像データに物体の軌跡を描画することを特徴とする。
また、本発明の監視システムは、上述の監視システムであって、統合座標管理装置はさらに同一と判定した物体には同じ物体IDを付与することを特徴とする。
また、本発明の監視システムは、上述の監視システムであって、さらに映像表示装置を有し、統合座標管理装置は物体IDを付与した物体が移動している場合には他のカメラが撮影した映像データから物体IDを付与した物体の有無を判定し、物体が同一と判定した場合には映像データに物体IDを付与した物体の軌跡を描画して映像表示装置に表示することを特徴とする。
また、本発明の監視システムは、雲台カメラと物体検知装置と統合座標管理装置を有し、物体検知装置は雲台カメラが撮影した映像フレームから物体を検出し、統合座標管理装置は少なくとも2つの映像フレームから視野の重なる領域を特定し、該特定した領域から物体の位置を算出して、各々の映像フレームの物体が同一と判定した場合には映像データに物体の軌跡を描画することを特徴とする。
さらに、本発明の監視システムは、上述の監視システムであって、さらに映像表示装置を有し、統合座標管理装置はさらに同一と判定した物体には同じ物体IDを付与し、物体IDを付与した物体が移動している場合には他の映像フレームから物体IDを付与した物体の有無を判定し、物体が同一と判定した場合には映像フレームに物体IDを付与した物体の軌跡を描画して映像表示装置に表示することを特徴とする。
本発明によれば、移動物体の正確な追跡を行うことができる。
以下、本発明の実施形態について図面を参照して詳細に説明する。
図1は本発明の一実施例に係る監視システムを説明するためのブロック図である。
図1は滑走路に着陸する飛行機を監視するシステムの一例である。
図1の監視システムは、カメラ11−1〜11−3、物体検知装置12−1〜12−3、統合座標管理装置13、映像表示装置14で構成されている。
カメラ11−1〜11−3の間隔は、それぞれ隣り合ったカメラの視野15−1と視野15−2、視野15−2と視野15−3の一部分が重なるように設置している。各々の視野が重なる範囲は航空機16の見かけの大きさが重なった視野の領域の中に収まり、かつ後述する視野角による距離の検知処理に必要な大きさである。
図1は本発明の一実施例に係る監視システムを説明するためのブロック図である。
図1は滑走路に着陸する飛行機を監視するシステムの一例である。
図1の監視システムは、カメラ11−1〜11−3、物体検知装置12−1〜12−3、統合座標管理装置13、映像表示装置14で構成されている。
カメラ11−1〜11−3の間隔は、それぞれ隣り合ったカメラの視野15−1と視野15−2、視野15−2と視野15−3の一部分が重なるように設置している。各々の視野が重なる範囲は航空機16の見かけの大きさが重なった視野の領域の中に収まり、かつ後述する視野角による距離の検知処理に必要な大きさである。
物体検知装置12−1〜12−3が移動物体(この場合は航空機16)を検知した時の情報は、統合座標管理装置13に出力する。
統合座標管理装置13はカメラ11−1〜11−3の映像を各々の物体検知装置12−1〜12−3を経由して取り込みパノラマ映像を合成する。
統合座標管理装置13は、カメラ11−1〜11−3の映像がパノラマ映像のどの部分に該当するかをパノラマ映像全体の座標である統合座標で管理している。
視野15−1〜15−3の重なり具合はカメラ11−1〜11−3の設置時に決まるので、統合座標は予め知ることができる情報である。
また、統合座標管理装置13は、物体検知装置12−1〜12−3からの追跡情報を統合座標に当てはめる処理も行い、パノラマ映像のどの位置に移動物体が位置するかを把握し、パノラマ映像上に移動物体の軌跡を図示することができる。
統合座標管理装置13はカメラ11−1〜11−3の映像を各々の物体検知装置12−1〜12−3を経由して取り込みパノラマ映像を合成する。
統合座標管理装置13は、カメラ11−1〜11−3の映像がパノラマ映像のどの部分に該当するかをパノラマ映像全体の座標である統合座標で管理している。
視野15−1〜15−3の重なり具合はカメラ11−1〜11−3の設置時に決まるので、統合座標は予め知ることができる情報である。
また、統合座標管理装置13は、物体検知装置12−1〜12−3からの追跡情報を統合座標に当てはめる処理も行い、パノラマ映像のどの位置に移動物体が位置するかを把握し、パノラマ映像上に移動物体の軌跡を図示することができる。
なお、カメラと物体検知装置との組み合わせは、別々の装置でも同じ1台の装置でも構成は問わない。また、カメラと物体検知装置を接続する形態はHDMI(登録商標)(High-Definition Multimedia Interface)やHD−SDI(High Definition Serial Digital Interface)といった映像信号ケーブルでも、カメラで映像を画像圧縮したIP(Internet Protocol)データを伝送するネットワークでも構わない。
統合座標管理装置13で合成したパノラマ映像は、映像表示装置14に出力して表示する。
映像表示装置14はTVモニタであったりコンピュータ画面であったり、映像が表示されればその実現形態を問わない。また、映像表示装置14は移動物体の軌跡も映像に重ね合わせて表示することができる。なお、パノラマ映像と追跡の軌跡を重畳するのは統合座標管理装置13でも映像表示装置14でも構わない。
映像表示装置14はTVモニタであったりコンピュータ画面であったり、映像が表示されればその実現形態を問わない。また、映像表示装置14は移動物体の軌跡も映像に重ね合わせて表示することができる。なお、パノラマ映像と追跡の軌跡を重畳するのは統合座標管理装置13でも映像表示装置14でも構わない。
物体検知装置12−1〜12−3と統合座標管理装置13と映像表示装置14は同じ装置内にあっても構わず、例えば、物体検知装置12−1〜12−3と統合座標管理装置13を1台にまとめる、もしくは統合座標管理装置13と映像表示装置14を1台にまとめる。さらに物体検知装置12−1〜12−3と統合座標管理装置13と映像表示装置14を1台にまとめても構わない。各々を接続する形態は映像データや移動物体の検知・追跡データを伝送できれば専用線でも、データをIPパケット化して伝送するネットワークでも構わない。
次に、航空機16が滑走路17に着陸する際の監視システムの動作を説明する。
滑走路17に対して右側から航空機16が着陸を開始すると、始めにカメラ11−3が撮影する視野15−3に航空機16が入る。移動する航空機16はカメラ11−3に接続された物体検知装置12−3によって移動物体として検知される。
しかし、物体検知装置12−3は、この時点では見かけの大きさしか分からず、移動物体が滑走路17上を滑走しているのか判断ができない。
その後、航空機16はカメラ11−3に隣り合ったカメラ11−2の視野15−2の領域に入り、カメラ11−2に接続された物体検知装置12−2によって移動物体として検知される。
滑走路17に対して右側から航空機16が着陸を開始すると、始めにカメラ11−3が撮影する視野15−3に航空機16が入る。移動する航空機16はカメラ11−3に接続された物体検知装置12−3によって移動物体として検知される。
しかし、物体検知装置12−3は、この時点では見かけの大きさしか分からず、移動物体が滑走路17上を滑走しているのか判断ができない。
その後、航空機16はカメラ11−3に隣り合ったカメラ11−2の視野15−2の領域に入り、カメラ11−2に接続された物体検知装置12−2によって移動物体として検知される。
統合座標管理装置13は、物体検知装置12−3と物体検知装置12−2で移動物体が検知されたことで、視野15−3と視野15−2の両方に写された物体に対して、視野角から物体までの距離を算出する。
統合座標管理装置13は、カメラ11−1〜11−3から滑走路17までの距離は事前に分かっているので、この算出した距離が滑走路17上であれば滑走路17上を移動する物体なので、航空機16であると判断する。
統合座標管理装置13は、移動物体までの距離が分かれば見かけ上の大きさから物体の大きさも算出できるので、航空機か、もしくは鳥や虫などかどうかの判断処理でさらに正確に特定することが可能になる。
統合座標管理装置13は、カメラ11−1〜11−3から滑走路17までの距離は事前に分かっているので、この算出した距離が滑走路17上であれば滑走路17上を移動する物体なので、航空機16であると判断する。
統合座標管理装置13は、移動物体までの距離が分かれば見かけ上の大きさから物体の大きさも算出できるので、航空機か、もしくは鳥や虫などかどうかの判断処理でさらに正確に特定することが可能になる。
統合座標管理装置13は、移動物体までの距離を算出して移動物体が航空機16と特定した場合、航空機16が視野15−3から視野15−2に移動しても物体検知装置12−2が追跡を継続する。
その後、航空機16は視野15−2と視野15−1が重なる領域に入るので、同様に統合座標管理装置13は、視野角から移動物体までの距離を算出して滑走路17上に位置するのかを判断する。統合座標管理装置13は、移動物体が航空機16であると判断すれば視野15−2から視野15−1に移動しても物体検知装置12−1が追跡を継続する。
その後、航空機16は視野15−2と視野15−1が重なる領域に入るので、同様に統合座標管理装置13は、視野角から移動物体までの距離を算出して滑走路17上に位置するのかを判断する。統合座標管理装置13は、移動物体が航空機16であると判断すれば視野15−2から視野15−1に移動しても物体検知装置12−1が追跡を継続する。
[カメラと物体までの距離算出]
次に、カメラと移動物体までの距離と見かけの大きさから物体の大きさを算出する方法を図4と図5で説明する。
図4はカメラと被写体の関係を説明するための図である。
図4において、被写体43がカメラ11の光軸に沿ってあり、直線距離をdとする。
被写体43の端がカメラ11の光軸から垂直にYa(長辺)とYb(短辺)の長さであるときに、被写体43の端からの光がカメラ11に搭載されたレンズ42で焦点を結び、撮像素子41に到達する。この被写体43の端(光軸から垂直にYaの距離)からレンズ42の焦点を通って撮像素子41に到達する光は光軸に対して角度εaの関係にある。また、被写体43の反対端(光軸から垂直にYbの距離)からレンズ42の焦点を通って撮像素子41に到達する光は光軸に対して角度εbの関係にある。
次に、カメラと移動物体までの距離と見かけの大きさから物体の大きさを算出する方法を図4と図5で説明する。
図4はカメラと被写体の関係を説明するための図である。
図4において、被写体43がカメラ11の光軸に沿ってあり、直線距離をdとする。
被写体43の端がカメラ11の光軸から垂直にYa(長辺)とYb(短辺)の長さであるときに、被写体43の端からの光がカメラ11に搭載されたレンズ42で焦点を結び、撮像素子41に到達する。この被写体43の端(光軸から垂直にYaの距離)からレンズ42の焦点を通って撮像素子41に到達する光は光軸に対して角度εaの関係にある。また、被写体43の反対端(光軸から垂直にYbの距離)からレンズ42の焦点を通って撮像素子41に到達する光は光軸に対して角度εbの関係にある。
次に、撮像素子と焦点距離の関係について図5を用いて説明する。
図5は撮像素子と焦点距離の関係を説明するための図である。
図5は被写体43を撮影したものであり、図中のεaとεbは図4で説明した角度と同じである。但し、レンズ42を通った後の光を図示しているため、角度εa、εbは上下が反転している。
レンズ42内の焦点52から撮像素子41までの光軸上の距離は焦点距離(f)54である。被写体43の端からの光は撮像素子41の表面上で光軸から距離Za離れた位置に到達する。同様に被写体43の端からの光は光軸から距離Zb離れた位置に到達する。
図5は撮像素子と焦点距離の関係を説明するための図である。
図5は被写体43を撮影したものであり、図中のεaとεbは図4で説明した角度と同じである。但し、レンズ42を通った後の光を図示しているため、角度εa、εbは上下が反転している。
レンズ42内の焦点52から撮像素子41までの光軸上の距離は焦点距離(f)54である。被写体43の端からの光は撮像素子41の表面上で光軸から距離Za離れた位置に到達する。同様に被写体43の端からの光は光軸から距離Zb離れた位置に到達する。
図4と図5において、Zaは,光軸に対して撮像素子41と被写体43が直角を成すとき、(式1)の関係にある。
Za=撮像素子サイズ/2 ・・・・・ (式1)
図4と図5から被写体43の端(長辺)に対して(式2)と(式3)の関係がある。
tan(εa)=d/Ya ・・・・・ (式2)
tan(εa)=f/Za ・・・・・ (式3)
(式2)と(式3)を組み合わせると(式4)となる。
d/Ya=f/Za ・・・・・ (式4)
Za=撮像素子サイズ/2 ・・・・・ (式1)
図4と図5から被写体43の端(長辺)に対して(式2)と(式3)の関係がある。
tan(εa)=d/Ya ・・・・・ (式2)
tan(εa)=f/Za ・・・・・ (式3)
(式2)と(式3)を組み合わせると(式4)となる。
d/Ya=f/Za ・・・・・ (式4)
ここで、dはカメラ11から被写体43までの距離、Zaは見かけ上の大きさ(撮像素子の中心からの距離で、撮像素子サイズの半分)、fは焦点距離でカメラ固有の値であるため、距離dさえ分かれば光軸から垂直に被写体43の端(長辺)までの距離Zaは(式5)となる。
Za=f×Ya/d ・・・・・ (式5)
同様にして、光軸から垂直に被写体43の端(短辺)までの距離Zbは(式6)となる。
Zb=f×Yb/d ・・・・・ (式6)
Ybは見かけ上の大きさ(撮像素子の中心からの距離)である。よって距離Zbは距離dさえ分かれば一意に求まる。
上述のことから、被写体23の大きさxは、(式7)で求まる。
x=Ya−Yb ・・・・・ (式7)
上述より、距離dさえ分かれば、カメラの焦点距離fや撮像素子サイズが予め分っているので、被写体43の実際大きさは見かけ上の大きさから求めることが出来る。
Za=f×Ya/d ・・・・・ (式5)
同様にして、光軸から垂直に被写体43の端(短辺)までの距離Zbは(式6)となる。
Zb=f×Yb/d ・・・・・ (式6)
Ybは見かけ上の大きさ(撮像素子の中心からの距離)である。よって距離Zbは距離dさえ分かれば一意に求まる。
上述のことから、被写体23の大きさxは、(式7)で求まる。
x=Ya−Yb ・・・・・ (式7)
上述より、距離dさえ分かれば、カメラの焦点距離fや撮像素子サイズが予め分っているので、被写体43の実際大きさは見かけ上の大きさから求めることが出来る。
[2台のカメラで被写体の移動距離算出]
次に、2台のカメラの視野角から被写体が移動する動線までの距離を算出する方法を図9で説明する。
図9はカメラと被写体までの距離を算出するための図である。
カメラ11−1とカメラ11−2の2台の視野が重なった領域に被写体90がある。カメラ11−1の光軸に対して視野角θの方向に被写体90があり、カメラ11−2の光軸に対しては視野角φの方向に被写体90がある。
次に、2台のカメラの視野角から被写体が移動する動線までの距離を算出する方法を図9で説明する。
図9はカメラと被写体までの距離を算出するための図である。
カメラ11−1とカメラ11−2の2台の視野が重なった領域に被写体90がある。カメラ11−1の光軸に対して視野角θの方向に被写体90があり、カメラ11−2の光軸に対しては視野角φの方向に被写体90がある。
直線91はカメラ11−1の焦点とカメラ11−2の焦点を結ぶ線であり、直線92は直線91と並行でかつ被写体90を通る平行線である。
aはカメラ11−1の光軸と直線91が直角に交わった点から被写体90までの距離であり、bはカメラ11−2の光軸と直線91が直角に交わった点から被写体90までの距離である。cは直線91と平行線92の各々に直角に交わる直線の長さであり、求めたいカメラの距離である。
aはカメラ11−1の光軸と直線91が直角に交わった点から被写体90までの距離であり、bはカメラ11−2の光軸と直線91が直角に交わった点から被写体90までの距離である。cは直線91と平行線92の各々に直角に交わる直線の長さであり、求めたいカメラの距離である。
カメラ11−1とカメラ11−2のカメラ間距離wは(式8)で求まる。
w=a+b ・・・・・ (式8)
また、カメラ11−1の視野角θ、距離a、距離cの関係は(式9)になる。
a=c/tan(θ) ・・・・・ (式9)
カメラ11−2の視野角φ、距離b、距離cの関係は(式10)になる。
b=c/tan(φ) ・・・・・ (式10)
w=a+b ・・・・・ (式8)
また、カメラ11−1の視野角θ、距離a、距離cの関係は(式9)になる。
a=c/tan(θ) ・・・・・ (式9)
カメラ11−2の視野角φ、距離b、距離cの関係は(式10)になる。
b=c/tan(φ) ・・・・・ (式10)
(式8)に(式9)と(式10)を代入すると(式11)になる。
w=c×tan(θ)+c×tan(φ)
=c(tan(θ)+tan(φ)) ・・・・・ (式11)
(式11)を変形することにより、cを求める(式12)が得られる。
c=w/(tan(θ)+tan(φ)) ・・・・・ (式12)
wは2台のカメラ間隔なのでカメラ設置時に予め分かる値であり、視野角θと視野角φは見かけ上の大きさとカメラの焦点距離から(式2)と同様に求めることが出来る。
w=c×tan(θ)+c×tan(φ)
=c(tan(θ)+tan(φ)) ・・・・・ (式11)
(式11)を変形することにより、cを求める(式12)が得られる。
c=w/(tan(θ)+tan(φ)) ・・・・・ (式12)
wは2台のカメラ間隔なのでカメラ設置時に予め分かる値であり、視野角θと視野角φは見かけ上の大きさとカメラの焦点距離から(式2)と同様に求めることが出来る。
[統合座標管理装置とその周辺装置の動作]
次に、統合座標管理装置13とその周辺装置の動作について図8を用いて説明する。
図8は本発明の一実施例に係る監視システムの統合座標管理装置と周辺装置を説明するためのブロック図である。
統合座標管理装置13には、n台の物体検知装置12−1,12−2,・・・,12−n(物体検知装置を代表する場合は物体検知装置12と称する)が接続されている。各々の物体検知装置12は映像データ81−1,81−2,・・・,81−n(映像データを代表する場合は映像データ81)と物体座標82−1,82−2,・・・,82−n(物体座標を代表する場合は物体座標82と称する)を出力する。
次に、統合座標管理装置13とその周辺装置の動作について図8を用いて説明する。
図8は本発明の一実施例に係る監視システムの統合座標管理装置と周辺装置を説明するためのブロック図である。
統合座標管理装置13には、n台の物体検知装置12−1,12−2,・・・,12−n(物体検知装置を代表する場合は物体検知装置12と称する)が接続されている。各々の物体検知装置12は映像データ81−1,81−2,・・・,81−n(映像データを代表する場合は映像データ81)と物体座標82−1,82−2,・・・,82−n(物体座標を代表する場合は物体座標82と称する)を出力する。
映像データ81は、カメラ11−1,11−2,・・・,11−n(カメラを代表する場合はカメラ11と称する)で撮影した映像データである。物体座標82は、物体検知装置12が検知した移動物体の座標などの検知情報である。物体座標82は物体の座標データ以外に、物体の動き方向や物体の外形、色などの物体を特定するための情報を付加しても構わない。
映像表示装置14は、統合座標管理装置13が出力したパノラマ映像を表示する装置である。この装置はTVモニタでもコンピュータの画面でも構わない。
映像表示装置14は、統合座標管理装置13が出力したパノラマ映像を表示する装置である。この装置はTVモニタでもコンピュータの画面でも構わない。
統合座標管理装置13は、パノラマ映像合成部131、統合座標変換部132、個別座標記憶部135−1、135−2、・・・、135−n、移動物体判断部133、移動軌跡描画部134、アラーム発生部136で構成されている。
パノラマ映像合成部131は、n台の物体検知装置12が出力する映像データ81を合成して1つのパノラマ映像を合成する。パノラマ映像合成部131は、このときn枚の映像データ81をどのような位置に配置するかは、統合座標変換部132から座標情報「統合座標」を取得し決定する。以後、パノラマ映像上の座標を「統合座標」、各カメラが撮影した映像上の座標を「個別座標」と称する。
パノラマ映像合成部131は、n台の物体検知装置12が出力する映像データ81を合成して1つのパノラマ映像を合成する。パノラマ映像合成部131は、このときn枚の映像データ81をどのような位置に配置するかは、統合座標変換部132から座標情報「統合座標」を取得し決定する。以後、パノラマ映像上の座標を「統合座標」、各カメラが撮影した映像上の座標を「個別座標」と称する。
統合座標変換部132は、入力された物体座標82を統合座標に変換して移動物体判断部133に出力する。また、統合座標変換部132は、個別座標記録部135から各映像データ81が統合座標のどの座標に位置するかの位置情報を取得し、各々の映像データ81の配置すべき座標をパノラマ映像合成部131へ出力する。また、統合座標変換部132は、入力された物体座標82が個別座標なので、パノラマ映像上の統合座標に変換して移動物体判断部133に出力する。
個別座標記録部135は、n個の個別座標記録部135−1,135−2,・・・,135−nからなり、それぞれがn個の映像データ81に対応する。個別座標記録部135に記録された個別座標は各カメラ11を設置したときに映像の四隅が統合座標のどこに位置するかの座標情報である。この座標情報はカメラ11を設置時に決まる値である。個別座標記録部135は、映像データ81ごとの統合座標を統合座標変換部132からの読み出し要求で出力する。
移動物体判断部133は、統合座標に変換された物体座標82を元に、物体が複数の映像データ81上に位置しているか否かを判断する。つまり、移動物体判断部133は移動物体が複数の視野に存在する場合、視野が重なった領域に位置していることを判断する。また、移動物体判断部133は視野が重なった領域に位置している場合に、その物体座標82がカメラ11からどれだけの距離にあるかを算出する。
移動物体判断部133は物体ごとにID(Identification number)を割り当て追跡処理に使う。
移動物体判断部133は物体ごとにID(Identification number)を割り当て追跡処理に使う。
例えば、移動物体判断部133は、移動物体がカメラ11−1とカメラ11−2の2つの視野にまたがる同じ物体であれば、物体座標82−1に位置していた物体に物体IDを付与する。この物体が移動して物体座標82−2にも出現したとする。移動物体判断部133は物体座標82−1と物体座標82−2の統合座標を算出して同じ座標であれば、同一物体であるので物体座標82−2の物体にも同じ物体IDを引き継いで付与する。移動物体判断部133は異なる物体であると判断した場合、物体座標82−2に出現した物体には新たに他の物体IDと重ならない物体IDを付与する。
移動物体判断部133は、各物体に物体IDを付与して移動物体の追跡に使用する。移動物体判断部の動作の詳細は後述する。
移動物体判断部133は、各物体に物体IDを付与して移動物体の追跡に使用する。移動物体判断部の動作の詳細は後述する。
移動軌跡描画部134は、パノラマ映像合成部131からパノラマ映像データを取得する。また、移動軌跡描画部134は移動物体判断部133で付与された物体IDと各物体の統合座標を取得し、パノラマ映像上に物体が移動した軌跡を描画する。映像の前フレームで軌跡を描画した物体IDと同じ物体は軌跡をつながるように描画し、異なる物体IDであれば異なる物体として軌跡をつなげない描画を行う。
アラーム発生部136は、統合座標に変換された各座標情報から、物体を検知したことでアラーム通知をすべきかを判断する。アラーム発生部136の判断は統合座標上の所定のラインを超えた場合にアラームを発報するといった用途に使用するもので、アラーム情報を後段の映像表示14に出力する。
アラーム発生部136は、アラームを発報する、例えば、画面上に存在していなかった物体(移動物体判断部133により新規IDが付与されている)が出現した場合にアラームを発報する。
なお、アラーム発生部136は使用者の利便性に合わせて自由にアラームの発報方法を選択できるようにしてもよい。
アラーム発生部136は、アラームを発報する、例えば、画面上に存在していなかった物体(移動物体判断部133により新規IDが付与されている)が出現した場合にアラームを発報する。
なお、アラーム発生部136は使用者の利便性に合わせて自由にアラームの発報方法を選択できるようにしてもよい。
[移動物体判断部の動作]
次に、移動物体判断部の動作について図7を用いて説明する。
図7は本発明の一実施例に係る監視システムの動作を説明するためのフローチャートである。
本一例の移動物体判断部の動作は、N台目のカメラ(N)と(N+1)台目のカメラ(N+1)の2台のカメラの視野が重なっている場合の処理である。
移動物体判断部133は、S701の処理でカメラ(N)の個別座標(N)を読み込み、カメラ(N)の映像が統合座標のどの場所に位置するかを判断する。
S702の処理では物体座標(N)を読み出す。複数の物体座標があれば全ての物体座標データを読み込む。
S703の処理では物体座標(N)をパノラマ映像上の統合座標である物体統合座標(N)に変換する。この変換はS701の処理で読み込んだ情報を使い統合座標と個別座標(N)の位置関係が判明しているので一意に処理ができる。
次に、移動物体判断部の動作について図7を用いて説明する。
図7は本発明の一実施例に係る監視システムの動作を説明するためのフローチャートである。
本一例の移動物体判断部の動作は、N台目のカメラ(N)と(N+1)台目のカメラ(N+1)の2台のカメラの視野が重なっている場合の処理である。
移動物体判断部133は、S701の処理でカメラ(N)の個別座標(N)を読み込み、カメラ(N)の映像が統合座標のどの場所に位置するかを判断する。
S702の処理では物体座標(N)を読み出す。複数の物体座標があれば全ての物体座標データを読み込む。
S703の処理では物体座標(N)をパノラマ映像上の統合座標である物体統合座標(N)に変換する。この変換はS701の処理で読み込んだ情報を使い統合座標と個別座標(N)の位置関係が判明しているので一意に処理ができる。
S704の処理ではカメラ(N+1)の個別座標(N+1)を読み込み、カメラ(N+1)の映像が統合座標のどの場所に位置するかを判断する。
S705の処理では物体座標(N+1)を読み出す。複数の物体座標があれば全ての物体座標を読み込む。
S706の処理では物体座標(N+1)をパノラマ映像上の統合座標である物体統合座標(N+1)に変換する。この変換はS704の処理で読み込んだ情報を使い統合座標と個別座標(N+1)の位置関係が判明しているので一意に処理ができる。
S705の処理では物体座標(N+1)を読み出す。複数の物体座標があれば全ての物体座標を読み込む。
S706の処理では物体座標(N+1)をパノラマ映像上の統合座標である物体統合座標(N+1)に変換する。この変換はS704の処理で読み込んだ情報を使い統合座標と個別座標(N+1)の位置関係が判明しているので一意に処理ができる。
S707の処理では物体統合座標(N)と物体統合座標(N+1)が同一の座標であるか否かを判定し、同一の座標がある場合(YES)にはS708の処理に進み、同一の座標がない場合(NO)にはS711の処理に進む。なお、物体統合座標(N)と物体統合座標(N+1)のそれぞれに複数の物体統合座標があれば全ての組み合わせで比較する。
S708の処理では物体統合座標(N)と物体統合座標(N+1)の間で同じ座標の物体が存在するので、見かけ上の位置なので個別座標(N)と個別座標(N+1)を利用して視野角を求め、物体までの距離を算出する。
S708の処理では物体統合座標(N)と物体統合座標(N+1)の間で同じ座標の物体が存在するので、見かけ上の位置なので個別座標(N)と個別座標(N+1)を利用して視野角を求め、物体までの距離を算出する。
S709の処理では算出した物体の距離が監視対処すべき距離であるかを判定し、物体が監視対象とすべき距離である場合(YES)にはS710の処理に進み、物体の距離が近すぎたり遠すぎたりした場合(NO)にはS711の処理に進む。例えば、滑走路上を滑走する航空機の監視であれば、算出した距離がカメラから滑走路までの距離か否かで判定する。
S710の処理では物体統合座標(N)と物体統合座標(N+1)が同一座標で、算出した距離が監視対象とすべき距離であったので、同一の物体であると判断し同じ物体IDを付与する。
S711の処理では距離が監視対象とすべき距離ではなかったので、異なる2つの物体であるとして、異なる物体IDを付与する。
このように、移動物体判断部133は、2つのカメラ映像上の物体座標をパノラマ映像上の統合座標に変換した後に、各々の座標を比較することで同一物体か否かを判定する。
S711の処理では距離が監視対象とすべき距離ではなかったので、異なる2つの物体であるとして、異なる物体IDを付与する。
このように、移動物体判断部133は、2つのカメラ映像上の物体座標をパノラマ映像上の統合座標に変換した後に、各々の座標を比較することで同一物体か否かを判定する。
本一実施例では滑走路を滑走する航空機を監視対象とした例で説明したが、滑走路ではなく道路にして、航空機ではなく車両にした道路監視システムに応用しても構わない。さらに道路に限定するものではなく、海上や空中など監視カメラが撮影できる範囲なら撮影対象を限定しない。また、監視対象を航空機や車両に限定するものではなく、動きがある監視対象であれば特に種類を限定するものではない。
また、本一実施例では向きが固定されたカメラで説明したが、雲台カメラにも本発明が適用できる。
雲台カメラの場合は、視野が移動するが、撮影方向を知ることは可能であり、視野の傾き(チルト)とカメラの向き(パン)およびレンズのズーム倍率を鑑みて視野の重なる領域や物体の距離などを算出すれば良く、一般的な三角関数を用いた計算方法で物体の位置を求めることが出来る。
例えば、物体の位置はパン/チルトの回転速度とレンズのズーム倍率から映像フレーム毎に取得し、視野の重なる映像フレームを選択することにより得られる。
雲台カメラは、カメラが1台であるため、カメラが複数の場合に比べて校正(補正率等)が容易であり、ズーム倍率における物体の大きさを校正しておけば、物体の正確な位置を取得することができる。
雲台カメラの場合は、視野が移動するが、撮影方向を知ることは可能であり、視野の傾き(チルト)とカメラの向き(パン)およびレンズのズーム倍率を鑑みて視野の重なる領域や物体の距離などを算出すれば良く、一般的な三角関数を用いた計算方法で物体の位置を求めることが出来る。
例えば、物体の位置はパン/チルトの回転速度とレンズのズーム倍率から映像フレーム毎に取得し、視野の重なる映像フレームを選択することにより得られる。
雲台カメラは、カメラが1台であるため、カメラが複数の場合に比べて校正(補正率等)が容易であり、ズーム倍率における物体の大きさを校正しておけば、物体の正確な位置を取得することができる。
以上のように複数の視野が重なったところでのみ距離を測定し2つの視野に存在する物体が同一物体か否かを判定することで、カメラ1台だけでは移動する物体が監視対象であるか判断が難しかった物体検知処理の精度を向上することができ、より安定したパノラマ映像監視システムを実現することができる。
本発明の実施形態である監視システムは、移動物体の正確な追跡を行うことができる。
以上本発明について詳細に説明したが、本発明は、ここに記載された監視システムに限定されるものではなく、上記以外の監視システムに広く適用することができることは言うまでもない。
被写体の距離を正確に算出することによって、侵入者等を追跡する用途にも適用できる。
11,11−1〜11−n:カメラ、12−1〜12−n:物体検知装置、13:統合座標管理装置、14:映像表示装置、15,15−1〜15−n:視野、16:航空機、17:滑走路、141:画面上の物体、31,32,61,62:物体、41:撮像素子、42:レンズ、43:被写体、52:焦点、53:撮像素子サイズ、54:焦点距離(f)、81−1〜81−n:映像データ、82−1〜82−n:物体座標データ、131:パノラマ映像合成部、132:統合座標変換部、133:移動物体判断部、134:移動軌跡描画部、135−1〜135−n:個別座標記憶部、136:アラーム発生部、90:被写体、91:焦点間を結ぶ直線、92:被写体を通る平行線。
Claims (5)
- 複数のカメラと物体検知装置と統合座標管理装置を有し、
前記物体検知装置は、前記カメラが撮影した映像データから物体を検出し、
前記統合座標管理装置は、少なくとも2台のカメラの映像データから視野の重なる領域を特定し、該特定した領域から物体の位置を算出して、各々の映像データの物体が同一と判定した場合には映像データに物体の軌跡を描画することを特徴とする監視システム。 - 請求項1に記載の監視システムにおいて、
前記統合座標管理装置は、さらに同一と判定した物体には同じ物体IDを付与することを特徴とする監視システム。 - 請求項2に記載の監視システムにおいて、
さらに映像表示装置を有し、
前記統合座標管理装置は、前記物体IDを付与した物体が移動している場合には他のカメラが撮影した映像データから前記物体IDを付与した物体の有無を判定し、物体が同一と判定した場合には映像データに前記物体IDを付与した物体の軌跡を描画して前記映像表示装置に表示することを特徴とする監視システム。 - 雲台カメラと物体検知装置と統合座標管理装置を有し、
前記物体検知装置は、前記雲台カメラが撮影した映像フレームから物体を検出し、
前記統合座標管理装置は、少なくとも2つの映像フレームから視野の重なる領域を特定し、該特定した領域から物体の位置を算出して、各々の映像フレームの物体が同一と判定した場合には映像データに物体の軌跡を描画することを特徴とする監視システム。 - 請求項4に記載の監視システムにおいて、
さらに映像表示装置を有し、
前記統合座標管理装置は、さらに同一と判定した物体には同じ物体IDを付与し、前記物体IDを付与した物体が移動している場合には他の映像フレームから前記物体IDを付与した物体の有無を判定し、物体が同一と判定した場合には映像フレームに前記物体IDを付与した物体の軌跡を描画して前記映像表示装置に表示することを特徴とする監視システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015127506A JP2017011598A (ja) | 2015-06-25 | 2015-06-25 | 監視システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015127506A JP2017011598A (ja) | 2015-06-25 | 2015-06-25 | 監視システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017011598A true JP2017011598A (ja) | 2017-01-12 |
Family
ID=57764133
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015127506A Pending JP2017011598A (ja) | 2015-06-25 | 2015-06-25 | 監視システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017011598A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022074009A (ja) * | 2020-10-30 | 2022-05-17 | 学校法人東京理科大学 | 行動軌跡推定装置、行動軌跡推定プログラムおよび行動軌跡推定方法 |
WO2023131327A1 (zh) * | 2022-01-10 | 2023-07-13 | 华为技术有限公司 | 视频合成方法、装置及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013206140A (ja) * | 2012-03-28 | 2013-10-07 | Secom Co Ltd | 移動物体追跡装置 |
JP2014175706A (ja) * | 2013-03-06 | 2014-09-22 | Sumitomo Electric Ind Ltd | 監視装置、監視方法および撮像部の配置方法 |
-
2015
- 2015-06-25 JP JP2015127506A patent/JP2017011598A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013206140A (ja) * | 2012-03-28 | 2013-10-07 | Secom Co Ltd | 移動物体追跡装置 |
JP2014175706A (ja) * | 2013-03-06 | 2014-09-22 | Sumitomo Electric Ind Ltd | 監視装置、監視方法および撮像部の配置方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022074009A (ja) * | 2020-10-30 | 2022-05-17 | 学校法人東京理科大学 | 行動軌跡推定装置、行動軌跡推定プログラムおよび行動軌跡推定方法 |
JP7211601B2 (ja) | 2020-10-30 | 2023-01-24 | 学校法人東京理科大学 | 行動軌跡推定装置、行動軌跡推定プログラムおよび行動軌跡推定方法 |
WO2023131327A1 (zh) * | 2022-01-10 | 2023-07-13 | 华为技术有限公司 | 视频合成方法、装置及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI764024B (zh) | 結合來自複數個攝影機之視圖的方法及攝影機系統 | |
EP3665506B1 (en) | Apparatus and method for generating a representation of a scene | |
KR102111935B1 (ko) | 표시 제어장치, 표시 제어방법 및 프로그램 | |
EP3306908B1 (en) | Image acquisition system and image acquisition method | |
US20130271579A1 (en) | Mobile Stereo Device: Stereo Imaging, Measurement and 3D Scene Reconstruction with Mobile Devices such as Tablet Computers and Smart Phones | |
CN105674878B (zh) | 在透视图上显示热图的装置和方法 | |
KR20130130544A (ko) | 감시 영상 표시 방법 및 시스템 | |
WO2022257794A1 (zh) | 可见光图像和红外图像的处理方法及装置 | |
JP5183152B2 (ja) | 画像処理装置 | |
KR20110044101A (ko) | 듀얼 카메라를 이용한 실시간 감시장치 | |
US20140168375A1 (en) | Image conversion device, camera, video system, image conversion method and recording medium recording a program | |
KR101452342B1 (ko) | 감시카메라 유닛 및 그 구동방법 | |
JP2010213249A (ja) | ビデオカメラ撮像装置 | |
JP2011109630A (ja) | カメラ装置用雲台 | |
KR20100121086A (ko) | 음원인식을 이용한 촬영영상 추적 ptz 카메라 운용시스템 및 그 방법 | |
JP6032283B2 (ja) | 監視カメラ管理装置、監視カメラ管理方法およびプログラム | |
JP2017011598A (ja) | 監視システム | |
KR101410985B1 (ko) | 감시카메라를 이용한 감시시스템 및 감시장치와 그 감시방법 | |
WO2020111053A1 (ja) | 監視装置、監視システム、監視方法、監視プログラム | |
KR102298047B1 (ko) | 디지털 콘텐츠를 녹화하여 3d 영상을 생성하는 방법 및 장치 | |
RU108136U1 (ru) | Комплекс панорамного видеонаблюдения и контроля территории | |
TWI626603B (zh) | 圖像獲取方法及圖像獲取裝置 | |
KR20160111678A (ko) | 단일 카메라를 이용한 거리 측정 장치 및 방법 | |
CN110726407A (zh) | 一种定位监控方法及装置 | |
JP2021103410A (ja) | 移動体及び撮像システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180403 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190131 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190718 |