以下、本発明の一実施形態について図面に基づき詳細に説明する。
図1は、本発明の一実施形態に係る駅監視システム1の全体構成の一例を示す図である。図1に示すように、本実施形態に係る駅監視システム1には、中央監視装置10、及び、複数の映像送信システム12、が含まれている。
中央監視装置10と、複数の映像送信システム12とは、インターネット等のコンピュータネットワーク14に接続されている。そのため、中央監視装置10と映像送信システム12とはコンピュータネットワーク14を介して互いに通信可能となっている。
中央監視装置10は、例えばパーソナルコンピュータなどのコンピュータである。図1に示すように中央監視装置10には、プロセッサ10a、記憶部10b、通信部10c、全体監視モニタ10d、及び、個別監視モニタ10eが含まれる。
プロセッサ10aは、例えば、中央監視装置10にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。記憶部10bは、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部10bには、プロセッサ10aによって実行されるプログラムなどが記憶される。通信部10cは、例えば映像送信システム12との間でデータを授受するためのネットワークボードなどの通信インタフェースである。中央監視装置10は、通信部10cを経由して映像送信システム12との間で情報の送受信を行う。全体監視モニタ10d、及び、個別監視モニタ10eは、例えば、液晶ディスプレイ等の表示デバイスであって、プロセッサ10aの指示に従って各種の画像を表示する。
図2は、本実施形態に係る映像送信システム12の構成の一例を示す図である。図2に示すように、本実施形態に係る映像送信システム12には、カメラ20と、映像解析装置22と、ダウンコンバータ24と、プラットホームモニタ26と、駅舎モニタ28と、が含まれている。本実施形態に係る映像解析装置22は、カメラ20、ダウンコンバータ24、駅舎モニタ28と接続されている。また本実施形態に係るカメラ20は、プラットホームモニタ26と接続されている。
カメラ20は、例えばデジタルカメラなどの撮影デバイスである。プラットホームモニタ26、及び、駅舎モニタ28は、例えば、液晶ディスプレイ等の表示デバイスである。ダウンコンバータ24は、例えば受け付ける映像を低解像度化して出力する機器である。
映像解析装置22は、例えばパーソナルコンピュータなどのコンピュータである。図2に示すように、本実施形態に係る映像解析装置22には、プロセッサ22a、記憶部22b、通信部22c、が含まれる。プロセッサ22aは、例えば、映像解析装置22にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。記憶部22bは、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部22bには、プロセッサ22aによって実行されるプログラムなどが記憶される。通信部22cは、例えば中央監視装置10との間でデータを授受するためのネットワークボードなどの通信インタフェースである。映像解析装置22は、通信部22cを経由して中央監視装置10との間で情報の送受信を行う。
以下、一例として、駅監視システム1に、9個の映像送信システム12(12a〜12i)が含まれる場合について説明する。なお、駅監視システム1に含まれる映像送信システム12の数はもちろん9個には限定されない。
図3は、本実施形態に係る映像送信システム12eに含まれるカメラ20が生成する、駅のプラットホーム30等の監視対象を撮影した撮影映像に含まれる1つのフレーム画像の一例を示す図である。以下、撮影映像に含まれるフレーム画像を撮影画像32と呼ぶこととする。図4は、当該撮影映像に含まれる別の1つの撮影画像32の一例を示す図である。本実施形態では例えば、カメラ20が所定のフレームレートで撮影画像32を生成する。そしてここでは例えば、図3に示す撮影画像32が生成されたフレームよりも後のフレームにおいて、図4に示す撮影画像32が生成されることとする。
本実施形態では例えば、9個の映像送信システム12(12a〜12i)のそれぞれにおいて、当該映像送信システム12に含まれるカメラ20により撮影映像が生成される。カメラ20により生成される撮影映像は、当該カメラ20が監視するプラットホーム30に設置されたプラットホームモニタ26に表示されてもよい。
以下の説明では、9個の映像送信システム12(12a〜12i)のそれぞれは、互いに異なる駅に配置されており、1つの駅では1つのカメラ20によって当該駅のプラットホーム30が監視されることとする。
そして本実施形態では例えば、映像解析装置22において撮影画像32に対して公知の画像認識技術による画像認識処理が実行され、当該撮影画像32に所与のオブジェクトが表れているか否かが判定される。なお当該画像認識処理が、学習済の機械学習モデルを用いて実行されてもよい。以下、当該所与のオブジェクトをターゲットオブジェクト34と呼ぶこととする。ターゲットオブジェクト34の例としては、白杖を持った人物や、盲導犬や聴導犬等の補助犬など、重点的に注意を向けることが望ましいオブジェクトが挙げられる。なおターゲットオブジェクト34は、1つの種類のオブジェクトである必要はなく、複数の種類のオブジェクトであっても構わない。
ここで図3に示す撮影画像32には、ターゲットオブジェクト34は表れていない。一方、図4に示す撮影画像32には、ターゲットオブジェクト34が表れている。そのため図3に示す撮影画像32についてはターゲットオブジェクト34が表されていないと判定され、図4に示す撮影画像32についてはターゲットオブジェクト34が表れていると判定される。
そして本実施形態では例えば、ターゲットオブジェクト34が表れていると判定された撮影画像32については、ターゲットオブジェクト34が表れている領域が特定される。以下、ターゲットオブジェクト34が表れている領域をターゲット領域と呼ぶこととする。
そして本実施形態では例えば、ターゲット領域を示すターゲット領域情報が生成される。図5は、ターゲット領域情報の一例である領域特定結果画像36の一例を示す図である。図5に示す領域特定結果画像36では、図4に示す撮影画像32にターゲットオブジェクト34を囲む枠状のターゲット領域画像38が重畳されている。
図6は、図4に示す撮影画像32が生成されたフレームよりも後のフレームにおいてカメラ20によって生成される撮影画像32の一例を示す図である。図6に示す撮影画像32についてもターゲットオブジェクト34が表れている。
ここで例えば、映像解析装置22において、図4に示す撮影画像32に対する画像認識処理において特定されたターゲット領域を追尾する公知の追尾処理を実行することによって、図6に示す撮影画像32内におけるターゲット領域が特定されてもよい。そしてこのようにして特定されるターゲット領域を示す、図7に例示する領域特定結果画像36が生成されてもよい。図7に示す領域特定結果画像36では、図6に示す撮影画像32にターゲットオブジェクト34を囲む枠状のターゲット領域画像38が重畳されている。
図8は、16個のフレームに着目した、本実施形態における、撮影画像32の撮影、撮影画像32に対する画像認識、及び、ターゲット領域の追尾の関係の一例を模式的に示す図である。以下、当該16個のフレームを、第1フレーム〜第16フレームと呼ぶこととする。
本実施形態では例えば、上述の画像認識処理が、機械学習モデルを用いて実装されており、その処理の実行には時間がかかることとする。一方、上述の追尾処理は、ターゲット領域内の画素の画素値の分布などといった特徴量を用いたパターンマッチング技術などによって実装されており、上述の画像認識処理よりも1つの画像に対する処理の実行時間が短いこととする。以下の説明では、一例として、1つの撮影画像32に対する画像認識処理には、3フレームに相当する時間がかかることとし、1つの撮影画像32に対する追尾処理には、1フレームに相当する時間よりも短い時間しかかからないこととする。
図8では、第nフレームで撮影される撮影画像32がp(n)と表現されている(nは1以上16以下の整数)。また第nフレームで撮影される撮影画像32(p(n))に対する画像認識の結果は、r(p(n))と表現されている。例えば、図5に例示する領域特定結果画像36が、画像認識の結果r(p(n))の一例に相当する。
図8に示すように、第1フレームの撮影画像32(p(1))の画像認識の結果(r(p(1)))は、第4フレームの撮影画像32(p(4))の撮影タイミングに特定される。
そしてその後、本実施形態では例えば、第4フレームの撮影画像32(p(4))に対して画像認識が実行される。そして当該画像認識の結果(r(p(4)))は、第7フレームの撮影画像32(p(7))の撮影タイミングに特定される。
以下、同様にして、第10フレームの撮影画像32(p(10))に対する画像認識の結果(r(p(10)))は、第13フレームの撮影画像32(p(13))の撮影タイミングに特定される。また第13フレームの撮影画像32(p(13))に対する画像認識の結果(r(p(13)))は、第16フレームの撮影画像32(p(16))の撮影タイミングに特定される。
そして本実施形態では例えば、撮影画像32に対して、当該撮影画像32の撮影タイミングにおいて利用可能な最新の画像認識の結果によって特定されたターゲット領域を追尾する処理が実行されることで当該撮影画像32内におけるターゲット領域が特定される。例えば第4フレーム〜第6フレームの撮影画像32(p(4)〜p(6))については、第1フレームの撮影画像32に対する画像認識の結果(r(p(1)))によって特定されたターゲット領域を追尾する処理が実行される。この追尾処理の結果が、図8では、t(p(4),r(p(1)))、t(p(5),r(p(1)))、t(p(6),r(p(1)))と表現されている。例えば、図7に例示する領域特定結果画像36が、追尾処理の結果tの一例に相当する。
同様にして、例えば第7フレーム〜第9フレームの撮影画像32(p(7)〜p(9))については、第4フレームの撮影画像32に対する画像認識の結果(r(p(4)))によって特定されたターゲット領域を追尾する処理が実行される。この追尾処理の結果が、図8では、t(p(7),r(p(4)))、t(p(8),r(p(4)))、t(p(9),r(p(4)))と表現されている。以下、同様にして、第10フレーム以降の撮影画像32についても、ターゲット領域を追尾する処理が実行される。
本実施形態では以上のようにして、撮影画像32に対して当該撮影画像32の撮影タイミングにおいて利用可能な最新の画像認識の結果によって特定されたターゲット領域を追尾する処理が実行されることで当該撮影画像32内におけるターゲット領域が特定される。そのため本実施形態では、撮影画像32の撮影から短い時間で当該撮影画像32内におけるターゲット領域の特定が可能となる。
そして本実施形態では例えば、撮影映像を低解像度化した低解像度映像と当該撮影映像にターゲットオブジェクト34が表れているか否かの判定の結果とを示す送信データが生成される。
ここで例えば、撮影画像32にターゲット領域画像38が重畳された、図7に示す領域特定結果画像36をダウンコンバータ24によって低解像度化した画像である低解像度画像をフレーム画像として含む映像が送信データとして生成されてもよい。この場合は、当該低解像度画像は、撮影映像を低解像度化した低解像度映像のフレーム画像でもあり、撮影画像32にターゲットオブジェクト34が表れているか否かの判定の結果を示す画像でもあることとなる。
また例えば、撮影映像を低解像度化した低解像度化映像と含むとともに、ヘッダ等に、撮影映像に含まれるそれぞれの撮影画像32についてのターゲットオブジェクト34が表れているか否かの判定の結果を示すフラグを含む送信データが生成されてもよい。この場合、当該低解像度映像は、撮影画像32を低解像度化した低解像度化画像をフレーム画像として含むこととなる。またこの場合は、送信データに含まれるフラグが、撮影映像にターゲットオブジェクト34が表れているか否かの判定の結果を示していることとなる。
また例えば、撮影映像を低解像度化した低解像度化映像、及び、ターゲット領域情報を含む送信データが生成されてもよい。ここでターゲット領域情報は、例えば、低解像度化映像に含まれるフレーム画像である低解像度画像のうち、ターゲットオブジェクト34が表れている低解像度画像について、当該低解像度画像内におけるターゲット領域の位置や形状を示す情報であってもよい。例えばターゲット領域情報が、低解像度画像内におけるターゲット領域に相当する枠の4つの角の位置の座標値を示す情報であってもよい。またターゲット領域情報は、ターゲット領域画像38のような画像の形式の情報であってもよい。この場合は、送信データに含まれるターゲット領域情報が、撮影映像にターゲットオブジェクト34が表れているか否かの判定の結果を示していることとなる。
以下、撮影画像32、又は、当該撮影画像32とターゲット領域画像38とが重畳された領域特定結果画像36を低解像度化した低解像度画像を、当該撮影画像32に対応付けられる低解像度画像と呼ぶこととする。
そして本実施形態ではこのようにして生成される送信データが中央監視装置10に送信される。同様にして、他の映像送信システム12(12a〜12d、及び、12f〜12i)からも、当該映像送信システム12で生成される送信データが中央監視装置10に送信される。
また本実施形態において例えば、撮影映像、又は、低解像度映像が、駅舎に設置された駅舎モニタ28に表示されてもよい。ここで駅舎モニタ28に表示される映像に含まれるフレーム画像にターゲット領域が示されていてもよい。例えば、一連の領域特定結果画像36をフレーム画像として含む映像が駅舎モニタ28に表示されてもよい。
本実施形態では例えば、中央監視装置10が、複数の映像送信システム12(12a〜12i)のそれぞれから送信される上述の送信データを受信する。
そして中央監視装置10において、当該複数の送信データに基づいて、当該複数の送信データのうちの少なくとも1つが示す上述の判定の結果が表された、当該複数の送信データのそれぞれが示す低解像度映像を合成した合成映像が生成される。そして生成された合成映像が全体監視モニタ10dに表示される。図9及び図10は、それぞれ、合成映像に含まれる1つのフレーム画像である合成画像40の一例を示す図である。
図9には、受信するすべての送信データにおいてターゲットオブジェクト34が表れていないことが上述の判定の結果として示されている場合における合成画像40の一例が示されている。図10には、受信する2つの送信データにおいてターゲットオブジェクト34が表れていることが上述の判定の結果として示されている場合における合成画像40の一例が示されている。
合成画像40には、例えばそれぞれ互いに異なる映像送信システム12に対応付けられる複数の個別画像領域42が含まれている。図9及び図10に例示されている合成画像40には、9個の映像送信システム12(12a〜12i)にそれぞれ対応付けられる、9つの個別画像領域42(42a〜42i)が含まれている。ここで例えば、図3、図4、及び、図6に示す撮影画像32を撮影したカメラ20を含む映像送信システム12eは、個別画像領域42eに対応付けられることとなる。
本実施形態では例えば、映像送信システム12から受信した送信データが示す低解像度映像に含まれるフレーム画像である低解像度画像が、当該映像送信システム12に対応付けられる個別画像領域42に配置される。
そして本実施形態では例えば、中央監視装置10が、複数の個別画像領域42のそれぞれについて、当該個別画像領域42に配置される低解像度画像に対応付けられる撮影画像32にターゲットオブジェクト34が表れているか否かの判定の結果を特定する。ここで例えば、送信データに含まれるフラグに基づいて、当該判定の結果が特定されてもよい。また例えば、撮影画像32を低解像度化した低解像度画像内におけるターゲット領域の位置や形状を示すターゲット領域情報が送信データに含まれている場合に、当該撮影画像32にターゲットオブジェクト34が表れていると判定されてもよい。また例えば、送信データが示す低解像度画像からターゲット領域画像38を検出する処理が実行されるようにしてもよい。そしてターゲット領域画像38が検出できた場合に、当該低解像度画像が低解像度化される前の撮影画像32にターゲットオブジェクト34が表れていると判定されてもよい。
そして本実施形態では例えば、上述の判定の結果が表された合成画像40が生成される。ここで例えば、配置される低解像度画像に対応付けられる撮影画像32にターゲットオブジェクト34が表れていると判定された個別画像領域42を囲む枠状の判定識別画像44が重畳された合成画像40が生成されてもよい。図10には、一例として、個別画像領域42eを囲む判定識別画像44a、及び、個別画像領域42gを囲む判定識別画像44bが示されている。
また本実施形態では例えば、図10に示すように、低解像度画像内においてターゲットオブジェクト34が表れているターゲット領域が、当該低解像度画像が配置される個別画像領域42に示される。ここで例えば、図10に示すように、領域特定結果画像46がターゲット領域を表す情報として個別画像領域42に示されるようにしてもよい。ここで領域特定結果画像46は、例えば、領域特定結果画像36を低解像度化した画像であってもよい。あるいは、領域特定結果画像46は、例えば、ターゲット領域情報が示す座標値によって表現される位置を角とする枠状の画像であってもよい。
また本実施形態において例えば、送信データに対応付けられる番線に進入する車両の状況に基づいて、映像の監視の優先度が決定されてもよい。ここで送信データに対応付けられる番線とは、例えば、送信データを送信する映像送信システム12が配置されている駅にある番線や、送信データを送信する映像送信システム12のカメラ20によって監視されるプラットホーム30に隣接する番線などを意味する。なお1つのカメラ20に1つの番線が対応付けられてもよいし、1つのカメラ20に複数の番線が対応付けられてもよい。また、撮影画像32にターゲットオブジェクト34が表れていると判定された個別画像領域42について、映像の監視の優先度が決定されるようにしてもよい。
以下、映像の監視の優先度の決定の一例について説明する。
図11には、9個の映像送信システム12(12a〜12i)のそれぞれが配置されている駅と、これらの駅の間を運行する車両との関係の一例が模式的に示されている。図11には、9個の映像送信システム12(12a〜12i)が配置されている駅にそれぞれ対応付けられる9つの駅オブジェクト50(50a〜50i)と、運行する車両に対応付けられる4つの車両オブジェクト52(52a〜52d)が示されている。また図11には、車両の進行方向が矢印で表現されている。ここでは例えば、図10に例示する合成画像40に対応付けられる撮影画像32の撮影タイミングにおける車両の位置が、車両オブジェクト52の位置として図11に示されていることとする。
ここで例えば、駅オブジェクト50eと車両オブジェクト52cとの間の長さは、駅オブジェクト50gと車両オブジェクト52dとの間の長さよりも短い。このことは、映像送信システム12eが配置されている駅と当該駅に接近する車両との間の距離が、映像送信システム12gが配置されている駅と当該駅に接近する車両との間の距離よりも短いことを意味する。例えばこのような場合に、映像送信システム12eに含まれるカメラ20により撮影される映像の監視の優先度が、映像送信システム12gに含まれるカメラ20により撮影される映像の監視の優先度よりも高いと決定されてもよい。
図10には、以上のようにして決定された映像の監視の優先度に応じた態様の判定識別画像44が合成画像40に配置される。なお本実施形態では、映像の監視の優先度に応じた態様が予め定められていることとする。例えば、最も優先度が高い態様が判定識別画像44aのような塗りつぶされた模様で、次に優先度が高い態様が判定識別画像44bのようなハッチの模様であることとする。そのため図10の例では、判定識別画像44aは、個別画像領域42eを囲むよう配置され、判定識別画像44bは、個別画像領域42gを囲むよう配置されることとなる。
なお、以上の例では、送信データに対応付けられる番線がある駅と車両との間の距離に基づいて、映像の監視の優先度が決定された。ここで例えば、送信データに対応付けられる番線に車両が到着するまでの推定時間に基づいて、映像の監視の優先度が決定されてもよい。例えば当該推定時間が短いものほど優先度が高く決定されてもよい。
また例えば、送信データに対応付けられる番線を通過する際の車両の速度に基づいて、映像の監視の優先度が決定されてもよい。例えば当該速度が速いものほど優先度が高く決定されてもよい。
また例えば、送信データに対応付けられる番線に進入する際の車両の乗客の属性に基づいて、映像の監視の優先度が決定されてもよい。ここで車両の乗客の属性の例としては、車いすを使用している、補助犬を連れている、などの属性が挙げられる。ここで例えば、次に番線に進入する車両に車いすを使用している乗客や補助犬を連れている乗客がいる場合は、そうでない場合よりも優先度が高く決定されてもよい。
また映像の監視の優先度に応じた態様は図10に示すような模様には限定されない。例えば、映像の監視の優先度に応じた色の判定識別画像44が合成画像40に配置されてもよい。また例えば、映像の監視の優先度に応じた大きさの個別画像領域42が合成画像40内に配置されてもよい。この場合例えば、優先度が高いほど大きな個別画像領域42が合成画像40に配置されてもよい。
以上で説明した車両の状況は、例えば、公知の運行管理システムによって管理されていてもよい。そして、中央監視装置10は、運行管理システムから取得する各種のデータに基づいて、上述した距離、推定時間、速度、乗客の属性、などといった車両の状況を特定してもよい。また本実施形態において、距離、推定時間、速度、乗客の属性のうちの複数の組合せに基づいて、映像の監視の優先度が決定されてもよい。
また本実施形態において、中央監視装置10は、映像送信システム12に、撮影映像の送信要求を送信してもよい。例えば、合成画像40を監視している監視者(中央監視装置10のユーザ)による個別画像領域42を指定する操作に応じて、当該個別画像領域42に対応付けられる送信データの送信元である映像送信システム12に、撮影映像の送信要求が送信されてもよい。また例えば、映像の監視の優先度に基づいて決定される映像送信システム12に撮影映像の送信要求が送信されてもよい。例えば監視の優先度が最も高い映像を撮影するカメラ20を含む映像送信システム12に撮影映像の送信要求が送信されてもよい。
そして撮影映像の送信要求を受信した映像送信システム12は、当該送信要求に応じて撮影映像を中央監視装置10に送信してもよい。そして中央監視装置10は、受信した撮影映像を個別監視モニタ10eに表示させてもよい。このようにすれば監視者が高解像度の撮影映像を中央監視装置10において詳細に監視できることとなる。
ここで例えば、映像送信システム12は、送信要求の受信に応じて、撮影映像と上述の判定の結果とを示す代替送信データを中央監視装置10に送信してもよい。そして中央監視装置10は、代替送信データが示す上述の判定の結果が表された、当該代替送信データが示す撮影映像を個別監視モニタ10eに表示させてもよい。ここで例えば、撮影映像に含まれる撮影画像32に基づいて生成される領域特定結果画像36をフレーム画像として含む映像が代替送信データとして映像送信システム12から中央監視装置10に送信されるようにしてもよい。そして当該映像が個別監視モニタ10eに表示されるようにしてもよい。
撮影映像の解像度が高いほど当該撮影映像の解析精度は高くなる。ここで例えば白杖を持った人物や補助犬などがプラットホーム30にいるかどうかの判定や白杖を持った人物や補助犬が撮影映像内において表れている領域の特定などといった精細な解析を行う場合は、解像度が高い映像を解析する必要がある。一方で、解像度が高い撮影映像が映像送信システム12から中央監視装置10に送信されるとコンピュータネットワーク14に負荷がかかる。
本実施形態では、映像の解析は高解像度の撮影映像に対して実行されるので、映像の解析精度は確保される。また送信される映像は低解像度映像なので、コンピュータネットワーク14の負荷は軽減できる。このようにして本実施形態によれば、駅のプラットホーム30を撮影した映像の解析精度を確保しつつ送信によりかかるコンピュータネットワーク14の負荷を低減できることとなる。
以上の説明では、撮影画像32にターゲットオブジェクト34が表れていると判定された個別画像領域42について、映像の監視の優先度が決定されるようにした。ここで例えば、撮影画像32にターゲットオブジェクト34が表れていると判定されたか否かに関係なく、すべての個別画像領域42について、映像の監視の優先度が決定されてもよい。
図12は、合成画像40の別の一例を示す図である。図13は、9個の映像送信システム12(12a〜12i)のそれぞれが配置されている駅と、これらの駅の間を運行する車両との関係の別の一例が模式的に示されている。また図13には、車両の進行方向が矢印で表現されている。図13には、図12に例示する合成画像40に対応付けられる撮影画像32の撮影タイミングにおける車両の位置が、車両オブジェクト52の位置として示されていることとする。
ここで図13に示すように、駅オブジェクト50gと車両オブジェクト52dとの間の長さは、駅オブジェクト50cと車両オブジェクト52bとの間の長さよりも短い。また駅オブジェクト50fと車両オブジェクト52cとの間の長さは、駅オブジェクト50gと車両オブジェクト52dとの間の長さよりも短い。また駅オブジェクト50bと車両オブジェクト52aとの間の長さは、駅オブジェクト50fと車両オブジェクト52cとの間の長さよりも短い。例えばこのような場合に、映像の監視の優先度が高い方から順に、個別画像領域42b、個別画像領域42f、個別画像領域42g、個別画像領域42cと決定されてもよい。
図12には、以上のようにして決定された映像の監視の優先度に応じた態様の判定識別画像44が示されている。なお本実施形態では、映像の監視の優先度に応じた態様が予め定められていることとする。例えば、最も優先度が高い態様が判定識別画像44aのような塗りつぶされた模様で、次に優先度が高い態様が判定識別画像44bのようなハッチの模様で、その次に優先度が高い態様が判定識別画像44cのような白抜きの模様であることとする。また優先度が4番目以降である個別画像領域42には、判定識別画像44が配置されないこととする。そのため図12の例では、判定識別画像44aは、個別画像領域42bを囲むよう配置され、判定識別画像44bは、個別画像領域42fを囲むよう配置され、判定識別画像44cは、個別画像領域42gを囲むよう配置されることとなる。
なお、以上の例では、送信データに対応付けられる番線がある駅と車両との間の距離に基づいて、映像の監視の優先度が決定された。ここで例えば、上述したように、番線に車両が到着するまでの推定時間、番線を通過する際の車両の速度、番線に進入する際の車両の乗客の属性、などに基づいて、映像の監視の優先度が決定されてもよい。また上述したように、映像の監視の優先度に応じた態様は図12に示すような模様には限定されない。
合成映像に表れている個々の映像の監視の優先度は様々であるにも関わらず、優先度が合成映像に表れていないと重点的に監視すべき部分を監視者が容易に認識できない。
本実施形態によれば、以上のようにすることで、表示されている合成映像から重点的に監視すべき部分を監視者が容易に認識できることとなる。
以下、本実施形態に係る駅監視システム1の機能、並びに、本実施形態に係る駅監視システム1で実行される処理についてさらに説明する。
図14は、駅のプラットホーム30を監視する本実施形態に係る駅監視システム1に含まれる、中央監視装置10、及び、映像送信システム12で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係る中央監視装置10、及び、映像送信システム12で、図14に示す機能のすべてが実装される必要はなく、また、図14に示す機能以外の機能が実装されていても構わない。
図14に示すように、本実施形態に係る中央監視装置10には、機能的には例えば、送信データ受信部60、映像取得部62、車両状況データ取得部64、監視優先度決定部66、合成映像生成部68、撮影映像送信要求部70、撮影映像受信部72、表示制御部74、が含まれる。送信データ受信部60、撮影映像送信要求部70、撮影映像受信部72は、通信部10cを主として実装される。映像取得部62、車両状況データ取得部64、監視優先度決定部66、合成映像生成部68は、プロセッサ10aを主として実装される。表示制御部74は、プロセッサ10a、全体監視モニタ10d、及び、個別監視モニタ10eを主として実装される。中央監視装置10は、本実施形態における、駅のプラットホーム30を監視する駅監視装置としての役割を担うこととなる。
以上の機能は、コンピュータである中央監視装置10にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ10aで実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介して中央監視装置10に供給されてもよい。
図14に示すように、本実施形態に係る映像送信システム12には、機能的には例えば、撮影映像取得部80、判定部82、送信データ生成部84、送信データ送信部86、送信要求受信部88、撮影映像送信部90、が含まれる。また判定部82には、画像認識部82aと、追尾部82bと、が含まれる。撮影映像取得部80は、カメラ20、及び、映像解析装置22のプロセッサ22aを主として実装される。判定部82は、映像解析装置22のプロセッサ22aを主として実装される。送信データ生成部84は、映像解析装置22のプロセッサ22a、通信部22c、及び、ダウンコンバータ24を主として実装される。送信データ送信部86、送信要求受信部88、撮影映像送信部90は、映像解析装置22の通信部22cを主として実装される。本実施形態に係る映像解析装置22は、送信データを中央監視装置10に送信する送信装置としての役割を担うこととなる。
以上の機能は、コンピュータである映像解析装置22にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ22aで実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介して映像解析装置22に供給されてもよい。
また、送信データ生成部84が、ダウンコンバータ24等のハードウェア及び映像解析装置22で動作するソフトウェアで実装されてもよい。また、送信データ生成部84が、ダウンコンバータ24等のハードウェアのみ、あるいは、映像解析装置22で動作するソフトウェアのみにより実装されてもよい。
送信データ受信部60は、本実施形態では例えば、それぞれ互いに異なる映像送信システム12から送信される複数の上述の送信データを受信する。ここで上述のように、送信データには、撮影映像を低解像度化した低解像度映像と当該撮影映像にターゲットオブジェクト34が表れているか否かの判定の結果とが示されている。
映像取得部62は、本実施形態では例えば、それぞれ互いに異なる監視対象の様子を表す複数の映像を取得する。ここで映像取得部62は、送信データ受信部60が受信する複数の送信データのそれぞれが示す低解像度映像を取得してもよい。
以上の説明では、1つのプラットホーム30は1つのカメラ20によって撮影されていた。ここで例えば1つのプラットホーム30の互いに異なる部分がそれぞれ別のカメラ20によって撮影されてもよい。この場合、1つのカメラ20によって撮影されるプラットホーム30の一部と、別のカメラ20によって撮影される当該プラットホーム30の別の一部とは、互いに異なる監視対象であることとなる。また1つのカメラ20によって複数のプラットホーム30が撮影されてもよい。この場合、当該複数のプラットホーム30が1つの監視対象に相当することとなる。
車両状況データ取得部64は、本実施形態では例えば、監視対象の様子を表す映像に対応付けられる番線に進入する車両の状況を示す車両状況データを取得する。ここで上述のように、車両状況データ取得部64は、公知の運行管理システムから車両状況データを取得してもよい。
監視優先度決定部66は、本実施形態では例えば、監視対象の様子を表す映像に対応付けられる番線に進入する車両の状況に基づいて、当該映像の監視の優先度を決定する。ここで例えば、車両状況データ取得部64が取得する車両状況データに基づいて、映像の監視の優先度が決定されてもよい。
上述のように、監視優先度決定部66は、監視対象の様子を表す映像に対応付けられる番線がある駅と車両との間の距離に基づいて、当該番線に対応付けられる映像の監視の優先度を決定してもよい。
また、監視優先度決定部66は、監視対象の様子を表す映像に対応付けられる番線に車両が到着するまでの推定時間に基づいて、当該番線に対応付けられる映像の監視の優先度を決定してもよい。
また、監視優先度決定部66は、監視対象の様子を表す映像に対応付けられる番線を通過する際の車両の速度に基づいて、当該番線に対応付けられる映像の監視の優先度を決定してもよい。
また、監視優先度決定部66は、監視対象の様子を表す映像に対応付けられる番線に進入する車両の乗客の属性に基づいて、当該番線に対応付けられる映像の監視の優先度を決定してもよい。
また、監視優先度決定部66は、上述の距離、推定時間、速度、乗客の属性のうちの複数の組合せに基づいて、映像の監視の優先度を決定してもよい。
合成映像生成部68は、本実施形態では例えば、それぞれ互いに異なる監視対象の様子を表す複数の映像を合成した合成映像を生成する。ここで合成映像生成部68は、映像の監視の優先度が表された合成映像を生成してもよい。
また合成映像生成部68は、複数の送信データのそれぞれが示す低解像度映像を合成した合成映像を生成してもよい。ここで合成映像生成部68は、映像取得部62が取得する映像を合成した合成映像を生成してもよい。また合成映像生成部68は、複数の送信データのうちの少なくとも1つが示す上述の判定の結果が表された合成映像を生成してもよい。また合成映像生成部68は、複数の送信データのそれぞれが示す上述の判定の結果が当該送信データを送信する映像送信システム12に対応付けられる番線に進入する車両の状況に応じた態様で表された合成映像を生成してもよい。
撮影映像送信要求部70は、本実施形態では例えば、映像送信システム12に当該映像送信システム12が設置されているプラットホーム30を撮影した撮影映像の送信要求を送信する。ここで例えば監視者等のユーザによって指定された映像送信システム12に撮影映像の送信要求が送信されてもよい。また例えば、映像の監視の優先度に基づいて決定される映像送信システム12に撮影映像の送信要求が送信されてもよい。ここで例えば監視の優先度が最も高い映像を撮影するカメラ20を含む映像送信システム12に撮影映像の送信要求が送信されてもよい。
撮影映像受信部72は、本実施形態では例えば、撮影映像の送信要求の受信に応じて映像送信システム12が送信する撮影映像を受信する。
表示制御部74は、本実施形態では例えば、合成映像生成部68が生成する合成映像を表示させる。また表示制御部74は、本実施形態では例えば、撮影映像受信部72が受信する撮影映像を表示させる。上述の例では表示制御部74は、合成映像を全体監視モニタ10dに表示させ、撮影映像を個別監視モニタ10eに表示させる。
また表示制御部74は、複数の撮影映像を切替表示させてもよい。例えば監視の優先度の高い複数の撮影映像が、自動的に所定の時間ずつ繰り返し切替表示されるようにしてもよい。また撮影映像送信要求部70が、表示の切替タイミングに応じて、撮影映像の送信要求の送信先である映像送信システム12を変更するようにしてもよい。
撮影映像取得部80は、本実施形態では例えば、監視対象を撮影した撮影映像を取得する。ここで例えば、映像送信システム12が設置されているプラットホーム30を撮影した撮影映像が取得されてもよい。
判定部82は、本実施形態では例えば、撮影映像取得部80が取得する撮影映像に基づいて、当該撮影映像に所与のオブジェクトが表れているか否かを判定する。ここで例えば上述のターゲットオブジェクト34が当該所与のオブジェクトに相当する。
画像認識部82aは、本実施形態では例えば、撮影画像32に対する画像認識処理を実行することによって当該撮影画像32内においてターゲットオブジェクト34が表れている領域を特定する。
追尾部82bは、本実施形態では例えば、撮影画像32内においてターゲットオブジェクト34が表れている領域を、当該撮影画像32よりも前に撮影された撮影画像32について画像認識部82aが特定した領域を追尾することにより特定する。
送信データ生成部84は、本実施形態では例えば、撮影映像と上述の判定の結果とに基づいて、当該撮影映像を低解像度化した低解像度映像と当該判定の結果とを示す送信データを生成する。
送信データ送信部86は、本実施形態では例えば、送信データ生成部84が生成する送信データを中央監視装置10に送信する。
送信要求受信部88は、本実施形態では例えば、中央監視装置10の撮影映像送信要求部70が送信する撮影映像の送信要求を受信する。
撮影映像送信部90は、本実施形態では例えば、送信要求受信部88による撮影映像の送信要求の受信に応じて、撮影映像を中央監視装置10に送信する。ここで撮影映像送信部90は、撮影映像取得部80が取得する撮影映像を中央監視装置10に送信してもよい。
また撮影映像送信部90は、送信要求受信部88による撮影映像の送信要求の受信に応じて、撮影映像と上述の判定の結果とを示す代替送信データを中央監視装置10に送信してもよい。ここで上述のように、例えば撮影映像に含まれる撮影画像32に基づいて生成される領域特定結果画像36をフレーム画像として含む映像が代替送信データとして送信されてもよい。
この場合、中央監視装置10の表示制御部74は、代替送信データの受信に応じて、当該代替送信データが示す上述の判定の結果が表された、当該代替送信データが示す撮影映像を表示させてもよい。例えば中央監視装置10の表示制御部74は、領域特定結果画像36をフレーム画像として含む映像を表示させてもよい。
以下、本実施形態に係る映像送信システム12において所定のフレームレートで繰り返し行われる処理の流れの一例を、図15に例示するフロー図を参照しながら説明する。
まず、撮影映像取得部80が、撮影画像32を取得する(S101)。ここで取得される撮影画像32は、撮影映像における当該フレームのフレーム画像である。
そして、撮影映像取得部80が、画像認識部82aによる画像認識が可能であるか否かを判定する(S102)。ここで例えば当該フレームよりも前のフレームで取得された撮影画像32に対する画像認識を画像認識部82aが実行中である場合は、画像認識が可能でないことが判定される。一方、撮影画像32に対する画像認識を画像認識部82aが実行していない場合は、画像認識が可能であることが判定される。
画像認識部82aによる画像認識が可能であると判定された場合は(S102:Y)、画像認識部82aは、S101に示す処理で取得された撮影画像32に対して、画像認識処理の実行を開始する(S103)。当該画像認識処理によって、当該撮影画像32内においてターゲットオブジェクト34が表れているターゲット領域が特定されることとなる。ここで上述の領域特定結果画像36が生成されてもよい。また例えばターゲット領域の位置や形状を示すターゲット領域情報が生成されてもよい。
画像認識部82aによる画像認識が可能でないと判定された場合は(S102:N)、追尾部82bは、S103に示す処理での画像認識処理の結果である、利用可能なターゲット領域の特定結果があるか否かを確認する(S104)。S103に示す処理が実行された後も同様に、追尾部82bは、S103に示す処理での画像認識処理の結果である、利用可能なターゲット領域の特定結果があるか否かを確認する(S104)。
ここで特定結果があることが確認された場合は(S104:Y)、追尾部82bは、追尾処理を実行する(S105)。ここでは図8を参照して説明したように、例えばS103に示す処理での画像認識処理における最新の利用可能な特定結果が特定される。そして当該特定結果が示す撮影画像32内におけるターゲット領域を追尾することにより、S101に示す処理で取得された撮影画像32内においてターゲットオブジェクト34が表れているターゲット領域が特定される。ここで上述の領域特定結果画像36が生成されてもよい。また例えばターゲット領域の位置や形状を示すターゲット領域情報が生成されてもよい。
利用可能なターゲット領域の特定結果がないことが確認された場合は(S104:N)、追尾部82bが、S101に示す処理で取得された撮影画像32にターゲットオブジェクト34が表れているか否かを判定する(S106)。S105に示す処理が終了した場合も同様に、追尾部82bが、S101に示す処理で取得された撮影画像32にターゲットオブジェクト34が表れているか否かを判定する(S106)。ここでは例えば、S105に示す処理でターゲット領域が特定された場合は、撮影画像32にターゲットオブジェクト34が表れていると判定される。また、S105に示す処理で追尾できず、ターゲット領域が特定されなかった場合は、撮影画像32にターゲットオブジェクト34が表れていないと判定される。また、S104に示す処理で利用可能なターゲット領域の特定結果がないことが確認された場合も、撮影画像32に所与のオブジェクトが表れていないと判定される。
そして送信データ生成部84は、S101に示す処理で取得された撮影画像32を低解像度化することにより、低解像度画像を生成する(S107)。ここで上述のように、領域特定結果画像36を低解像度化することにより低解像度画像が生成されてもよい。
そして送信データ生成部84は、S106に示す処理での判定の結果とS107に示す処理で生成された低解像度画像とに基づいて、送信データを生成する(S108)。ここでは例えばS107に示す処理で生成された、低解像度化された領域特定結果画像36を含む送信データが生成されてもよい。また例えば、ヘッダ等に、S106に示す処理での判定の結果を示すフラグを含む送信データが生成されてもよい。また例えば、撮影画像32を低解像度化した低解像度画像と、当該低解像度画像内におけるターゲット領域の位置や形状を示すターゲット領域情報と、を含む送信データが生成されてもよい。
そして送信データ送信部86は、S108に示す処理で生成された送信データを中央監視装置10に送信して(S109)、S101に示す処理に戻る。
本処理例では、S101〜S109に示す処理が所定のフレームレートで繰り返し実行される。なお上述の処理例に示す処理では、送信データの送信が毎フレーム行われるが、例えば、S101〜S108に示す処理が複数回繰り返し実行された後に、生成された複数の送信データがまとめて中央監視装置10に送信されてもよい。
以下、本実施形態に係る中央監視装置10において所定のフレームレートで繰り返し行われる処理の流れの一例を、図16に例示するフロー図を参照しながら説明する。なお本処理例に示す処理では、送信データ受信部60は、複数の映像送信システム12のそれぞれから受信する送信データをバッファすることとする。
まず、映像取得部62が、当該フレームにおける複数の送信データを送信データ受信部60のバッファから取得する(S201)。当該複数の送信データは、複数の映像送信システム12のそれぞれから送信されたものである。なお本処理例では、送信データにはフレーム番号が含まれており、当該フレームにおける複数の送信データは映像取得部62が特定できることとする。
そして、合成映像生成部68が、S201に示す処理で取得した複数の送信データのそれぞれについて、当該送信データに対応付けられる撮影画像32にターゲットオブジェクト34が表れているか否かの判定の結果を特定する(S202)。上述したように例えば、送信データが示す低解像度画像からのターゲット領域画像38の検出結果、送信データに含まれるフラグが示す判定の結果、送信データに含まれるターゲット領域情報、などに基づいて、判定の結果は特定される。
そして車両状況データ取得部64が、当該フレームにおける車両の状況を示す車両状況データを取得する(S203)。
そして監視優先度決定部66が、S203に示す処理で取得した車両状況データに基づいて、S201に示す処理で取得された複数の送信データのそれぞれについて、映像の監視の優先度を決定する(S204)。ここでS202において撮影画像32にターゲットオブジェクト34が表れていると判定された送信データについてのみ、映像の監視の優先度が決定されてもよい。
そして合成映像生成部68が、当該フレームにおける合成画像40を生成する(S205)。ここでは例えば、S201に示す処理で取得された送信データに含まれる低解像度映像、S202に示す処理で特定された判定の結果、及び、S204に示す処理で決定された優先度に基づいて、合成画像40が生成される。
そして表示制御部74が、S205に示す処理で生成された合成画像40を表示させて(S206)、S201に示す処理に戻る。
本処理例では、S201〜S206に示す処理が所定のフレームレートで繰り返し実行される。
なお、本発明は上述の実施形態に限定されるものではない。
例えば、図17及び図18に示すように、改札口などの特定の場所におけるターゲットオブジェクト34の検出に応じて当該特定の場所の画像が撮影されてもよい。以下、このようにして撮影される、ターゲットオブジェクト34の検出に応じて撮影される当該ターゲットオブジェクト34が検出された場所の画像を参照撮影画像92と呼ぶこととする。ここで参照撮影画像92は、例えば、駅のプラットホーム30等の監視対象を撮影するカメラ20とは異なるカメラ20により撮影される。
図17には、ターゲットオブジェクト34を改札口において前方から撮影した参照撮影画像92aの一例が示されている。図18には、ターゲットオブジェクト34を改札口において後方から撮影した参照撮影画像92bの一例が示されている。このように、ICタグの検出に応じて互いに異なる方向から複数の参照撮影画像92が撮影されるようにしてもよい。
ここで例えば白杖に埋め込まれたICタグ、白杖を持った人物が持参しているICカード、補助犬にぶらさげられているICカード、などを検出するセンサが、改札口などの特定の場所に設置されていてもよい。そして当該センサによるICタグやICカードの検出に応じて、1または複数の参照撮影画像92が撮影されるようにしてもよい。なおターゲットオブジェクト34がICタグやICカードの検出とは異なる方法で検出されてもよい。
なおターゲットオブジェクト34の検出が行われる場所は、改札口には限定されない。例えば、ホームドアなどに上述のセンサが設置されていてもよい。そして当該センサによるターゲットオブジェクト34の検出に応じて、ホームドア及びその周辺の場所の参照撮影画像92が撮影されるようにしてもよい。
そして撮影映像取得部80が、このようにして撮影される参照撮影画像92を取得してもよい。ここで撮影映像取得部80が、互いに異なる方向から撮影される複数の参照撮影画像92を取得してもよい。
そして画像認識部82aが、上述の参照撮影画像92に対して公知の画像認識技術による画像認識処理を実行し、当該参照撮影画像92においてターゲットオブジェクト34が表れているターゲット領域を特定してもよい。そして画像認識部82aが、当該ターゲット領域を示す上述のターゲット領域情報を生成してもよい。
図19は、図17に示す参照撮影画像92aに基づいて生成されるターゲット領域情報の一例である領域特定結果画像94aの一例を示す図である。図20は、図18に示す参照撮影画像92bに基づいて生成されるターゲット領域情報の一例である領域特定結果画像94bの一例を示す図である。
図19に示す領域特定結果画像94aでは、図17に示す参照撮影画像92aにターゲットオブジェクト34を囲む枠状のターゲット領域画像96aが重畳されている。図20に示す領域特定結果画像94bでは、図18に示す参照撮影画像92bにターゲットオブジェクト34を囲む枠状のターゲット領域画像96bが重畳されている。
そして判定部82が、参照撮影画像92と、駅のプラットホーム30等の監視対象を撮影した撮影映像とに基づいて、当該撮影映像にターゲットオブジェクト34が表れているか否かを判定してもよい。ここで互いに異なる方向から撮影される複数の参照撮影画像92と、撮影映像とに基づいて、当該撮影映像にターゲットオブジェクト34が表れているか否かが判定されてもよい。
例えば画像認識部82aが、参照撮影画像92に基づいて特定されるターゲット領域を用いて撮影画像32に対する画像認識処理を実行することによって、当該撮影画像32内においてターゲットオブジェクト34が表れている領域を特定してもよい。
あるいは、追尾部82bが、撮影画像32内においてターゲットオブジェクト34が表れている領域を、上述の参照撮影画像92について画像認識部82aが特定したターゲット領域を追尾することにより特定してもよい。
ターゲットオブジェクト34の検出に応じて撮影される参照撮影画像92には、ターゲットオブジェクト34が鮮明に表れている可能性が高い。そのため以上のようにすることで、駅のプラットホーム30等の監視対象を撮影した撮影画像32からより的確にターゲットオブジェクト34が検出できることとなる。
またここで互いに異なる方向から複数の参照撮影画像92が撮影されるようにすることで、より多くの情報を用いて駅のプラットホーム30等の監視対象を撮影した撮影画像32に対する画像認識処理や追尾処理が実行できる。そのため、駅のプラットホーム30等の監視対象を撮影した撮影画像32からより的確にターゲットオブジェクト34が検出できることとなる。
また例えば中央監視装置10と映像送信システム12との役割分担は上述のものには限定されない。例えば、監視対象の様子を表す映像に対応付けられる番線に進入する車両の状況は、映像送信システム12において特定されてもよい。そして当該車両の状況を示す車両状況データが映像送信システム12から中央監視装置10に送信されてもよい。そして中央監視装置10が、映像送信システム12から受信した車両状況データに基づいて、映像の監視の優先度を決定してもよい。
また例えば、1つの映像送信システム12で複数の駅の監視対象を監視してもよい。この場合は、1つの映像送信システム12は、互いに異なる複数の駅に設置される複数のカメラ20を含むこととなる。そして1つの映像送信システム12が、当該複数のカメラ20のそれぞれが撮影する映像に基づいて、当該映像に対応付けられる送信データを生成してもよい。
また中央監視装置10の機能の一部又は全部が、1つの映像送信システム12に実装されてもよい。また例えば1つの映像送信システム12が、複数の駅のプラットホーム30を監視してもよい。また例えば1つの映像送信システム12が、当該映像送信システム12が配置されている駅に設置されている複数のプラットホーム30を監視してもよい。このように本発明は、中央監視装置10における複数の駅の監視のみならず、1つの駅における複数のプラットホーム30の監視にも適用可能である。
また、上述の具体的な文字列や数値、並びに、図面中の具体的な文字列は例示であり、これらの文字列や数値には限定されない。