JPWO2020039898A1 - 駅監視装置、駅監視方法及びプログラム - Google Patents

駅監視装置、駅監視方法及びプログラム Download PDF

Info

Publication number
JPWO2020039898A1
JPWO2020039898A1 JP2020538276A JP2020538276A JPWO2020039898A1 JP WO2020039898 A1 JPWO2020039898 A1 JP WO2020039898A1 JP 2020538276 A JP2020538276 A JP 2020538276A JP 2020538276 A JP2020538276 A JP 2020538276A JP WO2020039898 A1 JPWO2020039898 A1 JP WO2020039898A1
Authority
JP
Japan
Prior art keywords
image
video
monitoring
priority
station
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020538276A
Other languages
English (en)
Other versions
JP7107597B2 (ja
Inventor
実 向谷
実 向谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ongakukan Co Ltd
Original Assignee
Ongakukan Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ongakukan Co Ltd filed Critical Ongakukan Co Ltd
Publication of JPWO2020039898A1 publication Critical patent/JPWO2020039898A1/ja
Application granted granted Critical
Publication of JP7107597B2 publication Critical patent/JP7107597B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L23/00Control, warning or like safety means along the route or between vehicles or trains
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Train Traffic Observation, Control, And Security (AREA)

Abstract

表示されている合成映像から重点的に監視すべき部分を監視者が容易に認識できる駅監視装置、駅監視方法及びプログラムを提供する。映像取得部(62)は、それぞれ互いに異なる監視対象の様子を表す複数の映像を取得する。監視優先度決定部(66)は、映像に対応付けられる番線に進入する車両の状況に基づいて、当該映像の監視の優先度を決定する。合成映像生成部(68)は、監視の優先度が表された、複数の映像を合成した合成映像を生成する。表示制御部(74)は、合成映像を表示させる。

Description

本発明は、駅監視装置、駅監視方法及びプログラムに関する。
特許文献1には、監視装置が複数の映像配信装置のそれぞれから駅のプラットホームを撮影した映像を受信して、受信した複数の映像を合成した合成映像を表示させる技術が記載されている。
特開2014−192844号公報
合成映像に表れている個々の映像の監視の優先度は様々である。例えば近くまで車両が来ている番線、まもなく車両が進入する番線、通過する際の車両の速度が速い番線、車いすの乗客が乗車している車両が進入する番線などに対応付けられる映像の監視の優先度は高いものと思われる。
ここで特許文献1に記載の技術において、個々の映像の監視の優先度が合成映像に表れるようにすると、監視者は表示されている合成映像を見るとどの部分を重点的に監視すべきであるかを容易に認識できるため、監視の負担が軽減される。
本発明は上記課題に鑑みてなされたものであって、その目的の1つは、表示されている合成映像から重点的に監視すべき部分を監視者が容易に認識できる駅監視装置、駅監視方法及びプログラムを提供することにある。
本発明に係る駅監視装置は、駅のプラットホームを監視する駅監視装置であって、それぞれ互いに異なる監視対象の様子を表す複数の映像を取得する映像取得手段と、前記映像に対応付けられる番線に進入する車両の状況に基づいて、当該映像の監視の優先度を決定する監視優先度決定手段と、前記監視の優先度が表された、前記複数の映像を合成した合成映像を生成する合成映像生成手段と、前記合成映像を表示させる表示制御手段と、を含む。
本発明の一態様では、前記監視優先度決定手段は、前記番線がある駅と前記車両との間の距離に基づいて、当該番線に対応付けられる映像の監視の優先度を決定する。
また、本発明の一態様では、前記監視優先度決定手段は、前記番線に前記車両が到着するまでの推定時間に基づいて、当該番線に対応付けられる映像の監視の優先度を決定する。
また、本発明の一態様では、前記監視優先度決定手段は、前記番線を通過する際の前記車両の速度に基づいて、当該番線に対応付けられる映像の監視の優先度を決定する。
また、本発明の一態様では、前記監視優先度決定手段は、前記番線に進入する車両の乗客の属性に基づいて、当該番線に対応付けられる映像の監視の優先度を決定する。
また、本発明に係る駅監視方法は、駅のプラットホームを監視する駅監視方法であって、それぞれ互いに異なる監視対象の様子を表す複数の映像を取得するステップと、前記映像に対応付けられる番線に進入する車両の状況に基づいて、当該映像の監視の優先度を決定するステップと、前記監視の優先度が表された、前記複数の映像を合成した合成映像を生成するステップと、前記合成映像を表示させるステップと、を含む。
また、本発明に係るプログラムは、駅のプラットホームを監視するコンピュータに、それぞれ互いに異なる監視対象の様子を表す複数の映像を取得する手順、前記映像に対応付けられる番線に進入する車両の状況に基づいて、当該映像の監視の優先度を決定する手順、前記監視の優先度が表された、前記複数の映像を合成した合成映像を生成する手順、前記合成映像を表示させる手順、を実行させる。
本発明の一実施形態に係る駅監視システムの全体構成の一例を示す図である。 本発明の一実施形態に係る映像送信システムの構成の一例を示す図である。 撮影画像の一例を示す図である。 撮影画像の一例を示す図である。 領域特定結果画像の一例を示す図である。 撮影画像の一例を示す図である。 領域特定結果画像の一例を示す図である。 撮影画像の撮影、撮影画像に対する画像認識、及び、ターゲット領域の追尾の関係の一例を模式的に示す図である。 合成画像の一例を示す図である。 合成画像の一例を示す図である。 駅と車両との関係の一例を模式的に示す図である。 合成画像の一例を示す図である。 駅と車両との関係の一例を模式的に示す図である。 本発明の一実施形態に係る駅監視システムの機能の一例を示す機能ブロック図である。 本発明の一実施形態に係る映像送信システムで行われる処理の流れの一例を示すフロー図である。 本発明の一実施形態に係る中央監視装置で行われる処理の流れの一例を示すフロー図である。 参照撮影画像の一例を示す図である。 参照撮影画像の一例を示す図である。 領域特定結果画像の一例を示す図である。 領域特定結果画像の一例を示す図である。
以下、本発明の一実施形態について図面に基づき詳細に説明する。
図1は、本発明の一実施形態に係る駅監視システム1の全体構成の一例を示す図である。図1に示すように、本実施形態に係る駅監視システム1には、中央監視装置10、及び、複数の映像送信システム12、が含まれている。
中央監視装置10と、複数の映像送信システム12とは、インターネット等のコンピュータネットワーク14に接続されている。そのため、中央監視装置10と映像送信システム12とはコンピュータネットワーク14を介して互いに通信可能となっている。
中央監視装置10は、例えばパーソナルコンピュータなどのコンピュータである。図1に示すように中央監視装置10には、プロセッサ10a、記憶部10b、通信部10c、全体監視モニタ10d、及び、個別監視モニタ10eが含まれる。
プロセッサ10aは、例えば、中央監視装置10にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。記憶部10bは、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部10bには、プロセッサ10aによって実行されるプログラムなどが記憶される。通信部10cは、例えば映像送信システム12との間でデータを授受するためのネットワークボードなどの通信インタフェースである。中央監視装置10は、通信部10cを経由して映像送信システム12との間で情報の送受信を行う。全体監視モニタ10d、及び、個別監視モニタ10eは、例えば、液晶ディスプレイ等の表示デバイスであって、プロセッサ10aの指示に従って各種の画像を表示する。
図2は、本実施形態に係る映像送信システム12の構成の一例を示す図である。図2に示すように、本実施形態に係る映像送信システム12には、カメラ20と、映像解析装置22と、ダウンコンバータ24と、プラットホームモニタ26と、駅舎モニタ28と、が含まれている。本実施形態に係る映像解析装置22は、カメラ20、ダウンコンバータ24、駅舎モニタ28と接続されている。また本実施形態に係るカメラ20は、プラットホームモニタ26と接続されている。
カメラ20は、例えばデジタルカメラなどの撮影デバイスである。プラットホームモニタ26、及び、駅舎モニタ28は、例えば、液晶ディスプレイ等の表示デバイスである。ダウンコンバータ24は、例えば受け付ける映像を低解像度化して出力する機器である。
映像解析装置22は、例えばパーソナルコンピュータなどのコンピュータである。図2に示すように、本実施形態に係る映像解析装置22には、プロセッサ22a、記憶部22b、通信部22c、が含まれる。プロセッサ22aは、例えば、映像解析装置22にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。記憶部22bは、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部22bには、プロセッサ22aによって実行されるプログラムなどが記憶される。通信部22cは、例えば中央監視装置10との間でデータを授受するためのネットワークボードなどの通信インタフェースである。映像解析装置22は、通信部22cを経由して中央監視装置10との間で情報の送受信を行う。
以下、一例として、駅監視システム1に、9個の映像送信システム12(12a〜12i)が含まれる場合について説明する。なお、駅監視システム1に含まれる映像送信システム12の数はもちろん9個には限定されない。
図3は、本実施形態に係る映像送信システム12eに含まれるカメラ20が生成する、駅のプラットホーム30等の監視対象を撮影した撮影映像に含まれる1つのフレーム画像の一例を示す図である。以下、撮影映像に含まれるフレーム画像を撮影画像32と呼ぶこととする。図4は、当該撮影映像に含まれる別の1つの撮影画像32の一例を示す図である。本実施形態では例えば、カメラ20が所定のフレームレートで撮影画像32を生成する。そしてここでは例えば、図3に示す撮影画像32が生成されたフレームよりも後のフレームにおいて、図4に示す撮影画像32が生成されることとする。
本実施形態では例えば、9個の映像送信システム12(12a〜12i)のそれぞれにおいて、当該映像送信システム12に含まれるカメラ20により撮影映像が生成される。カメラ20により生成される撮影映像は、当該カメラ20が監視するプラットホーム30に設置されたプラットホームモニタ26に表示されてもよい。
以下の説明では、9個の映像送信システム12(12a〜12i)のそれぞれは、互いに異なる駅に配置されており、1つの駅では1つのカメラ20によって当該駅のプラットホーム30が監視されることとする。
そして本実施形態では例えば、映像解析装置22において撮影画像32に対して公知の画像認識技術による画像認識処理が実行され、当該撮影画像32に所与のオブジェクトが表れているか否かが判定される。なお当該画像認識処理が、学習済の機械学習モデルを用いて実行されてもよい。以下、当該所与のオブジェクトをターゲットオブジェクト34と呼ぶこととする。ターゲットオブジェクト34の例としては、白杖を持った人物や、盲導犬や聴導犬等の補助犬など、重点的に注意を向けることが望ましいオブジェクトが挙げられる。なおターゲットオブジェクト34は、1つの種類のオブジェクトである必要はなく、複数の種類のオブジェクトであっても構わない。
ここで図3に示す撮影画像32には、ターゲットオブジェクト34は表れていない。一方、図4に示す撮影画像32には、ターゲットオブジェクト34が表れている。そのため図3に示す撮影画像32についてはターゲットオブジェクト34が表されていないと判定され、図4に示す撮影画像32についてはターゲットオブジェクト34が表れていると判定される。
そして本実施形態では例えば、ターゲットオブジェクト34が表れていると判定された撮影画像32については、ターゲットオブジェクト34が表れている領域が特定される。以下、ターゲットオブジェクト34が表れている領域をターゲット領域と呼ぶこととする。
そして本実施形態では例えば、ターゲット領域を示すターゲット領域情報が生成される。図5は、ターゲット領域情報の一例である領域特定結果画像36の一例を示す図である。図5に示す領域特定結果画像36では、図4に示す撮影画像32にターゲットオブジェクト34を囲む枠状のターゲット領域画像38が重畳されている。
図6は、図4に示す撮影画像32が生成されたフレームよりも後のフレームにおいてカメラ20によって生成される撮影画像32の一例を示す図である。図6に示す撮影画像32についてもターゲットオブジェクト34が表れている。
ここで例えば、映像解析装置22において、図4に示す撮影画像32に対する画像認識処理において特定されたターゲット領域を追尾する公知の追尾処理を実行することによって、図6に示す撮影画像32内におけるターゲット領域が特定されてもよい。そしてこのようにして特定されるターゲット領域を示す、図7に例示する領域特定結果画像36が生成されてもよい。図7に示す領域特定結果画像36では、図6に示す撮影画像32にターゲットオブジェクト34を囲む枠状のターゲット領域画像38が重畳されている。
図8は、16個のフレームに着目した、本実施形態における、撮影画像32の撮影、撮影画像32に対する画像認識、及び、ターゲット領域の追尾の関係の一例を模式的に示す図である。以下、当該16個のフレームを、第1フレーム〜第16フレームと呼ぶこととする。
本実施形態では例えば、上述の画像認識処理が、機械学習モデルを用いて実装されており、その処理の実行には時間がかかることとする。一方、上述の追尾処理は、ターゲット領域内の画素の画素値の分布などといった特徴量を用いたパターンマッチング技術などによって実装されており、上述の画像認識処理よりも1つの画像に対する処理の実行時間が短いこととする。以下の説明では、一例として、1つの撮影画像32に対する画像認識処理には、3フレームに相当する時間がかかることとし、1つの撮影画像32に対する追尾処理には、1フレームに相当する時間よりも短い時間しかかからないこととする。
図8では、第nフレームで撮影される撮影画像32がp(n)と表現されている(nは1以上16以下の整数)。また第nフレームで撮影される撮影画像32(p(n))に対する画像認識の結果は、r(p(n))と表現されている。例えば、図5に例示する領域特定結果画像36が、画像認識の結果r(p(n))の一例に相当する。
図8に示すように、第1フレームの撮影画像32(p(1))の画像認識の結果(r(p(1)))は、第4フレームの撮影画像32(p(4))の撮影タイミングに特定される。
そしてその後、本実施形態では例えば、第4フレームの撮影画像32(p(4))に対して画像認識が実行される。そして当該画像認識の結果(r(p(4)))は、第7フレームの撮影画像32(p(7))の撮影タイミングに特定される。
以下、同様にして、第10フレームの撮影画像32(p(10))に対する画像認識の結果(r(p(10)))は、第13フレームの撮影画像32(p(13))の撮影タイミングに特定される。また第13フレームの撮影画像32(p(13))に対する画像認識の結果(r(p(13)))は、第16フレームの撮影画像32(p(16))の撮影タイミングに特定される。
そして本実施形態では例えば、撮影画像32に対して、当該撮影画像32の撮影タイミングにおいて利用可能な最新の画像認識の結果によって特定されたターゲット領域を追尾する処理が実行されることで当該撮影画像32内におけるターゲット領域が特定される。例えば第4フレーム〜第6フレームの撮影画像32(p(4)〜p(6))については、第1フレームの撮影画像32に対する画像認識の結果(r(p(1)))によって特定されたターゲット領域を追尾する処理が実行される。この追尾処理の結果が、図8では、t(p(4),r(p(1)))、t(p(5),r(p(1)))、t(p(6),r(p(1)))と表現されている。例えば、図7に例示する領域特定結果画像36が、追尾処理の結果tの一例に相当する。
同様にして、例えば第7フレーム〜第9フレームの撮影画像32(p(7)〜p(9))については、第4フレームの撮影画像32に対する画像認識の結果(r(p(4)))によって特定されたターゲット領域を追尾する処理が実行される。この追尾処理の結果が、図8では、t(p(7),r(p(4)))、t(p(8),r(p(4)))、t(p(9),r(p(4)))と表現されている。以下、同様にして、第10フレーム以降の撮影画像32についても、ターゲット領域を追尾する処理が実行される。
本実施形態では以上のようにして、撮影画像32に対して当該撮影画像32の撮影タイミングにおいて利用可能な最新の画像認識の結果によって特定されたターゲット領域を追尾する処理が実行されることで当該撮影画像32内におけるターゲット領域が特定される。そのため本実施形態では、撮影画像32の撮影から短い時間で当該撮影画像32内におけるターゲット領域の特定が可能となる。
そして本実施形態では例えば、撮影映像を低解像度化した低解像度映像と当該撮影映像にターゲットオブジェクト34が表れているか否かの判定の結果とを示す送信データが生成される。
ここで例えば、撮影画像32にターゲット領域画像38が重畳された、図7に示す領域特定結果画像36をダウンコンバータ24によって低解像度化した画像である低解像度画像をフレーム画像として含む映像が送信データとして生成されてもよい。この場合は、当該低解像度画像は、撮影映像を低解像度化した低解像度映像のフレーム画像でもあり、撮影画像32にターゲットオブジェクト34が表れているか否かの判定の結果を示す画像でもあることとなる。
また例えば、撮影映像を低解像度化した低解像度化映像と含むとともに、ヘッダ等に、撮影映像に含まれるそれぞれの撮影画像32についてのターゲットオブジェクト34が表れているか否かの判定の結果を示すフラグを含む送信データが生成されてもよい。この場合、当該低解像度映像は、撮影画像32を低解像度化した低解像度化画像をフレーム画像として含むこととなる。またこの場合は、送信データに含まれるフラグが、撮影映像にターゲットオブジェクト34が表れているか否かの判定の結果を示していることとなる。
また例えば、撮影映像を低解像度化した低解像度化映像、及び、ターゲット領域情報を含む送信データが生成されてもよい。ここでターゲット領域情報は、例えば、低解像度化映像に含まれるフレーム画像である低解像度画像のうち、ターゲットオブジェクト34が表れている低解像度画像について、当該低解像度画像内におけるターゲット領域の位置や形状を示す情報であってもよい。例えばターゲット領域情報が、低解像度画像内におけるターゲット領域に相当する枠の4つの角の位置の座標値を示す情報であってもよい。またターゲット領域情報は、ターゲット領域画像38のような画像の形式の情報であってもよい。この場合は、送信データに含まれるターゲット領域情報が、撮影映像にターゲットオブジェクト34が表れているか否かの判定の結果を示していることとなる。
以下、撮影画像32、又は、当該撮影画像32とターゲット領域画像38とが重畳された領域特定結果画像36を低解像度化した低解像度画像を、当該撮影画像32に対応付けられる低解像度画像と呼ぶこととする。
そして本実施形態ではこのようにして生成される送信データが中央監視装置10に送信される。同様にして、他の映像送信システム12(12a〜12d、及び、12f〜12i)からも、当該映像送信システム12で生成される送信データが中央監視装置10に送信される。
また本実施形態において例えば、撮影映像、又は、低解像度映像が、駅舎に設置された駅舎モニタ28に表示されてもよい。ここで駅舎モニタ28に表示される映像に含まれるフレーム画像にターゲット領域が示されていてもよい。例えば、一連の領域特定結果画像36をフレーム画像として含む映像が駅舎モニタ28に表示されてもよい。
本実施形態では例えば、中央監視装置10が、複数の映像送信システム12(12a〜12i)のそれぞれから送信される上述の送信データを受信する。
そして中央監視装置10において、当該複数の送信データに基づいて、当該複数の送信データのうちの少なくとも1つが示す上述の判定の結果が表された、当該複数の送信データのそれぞれが示す低解像度映像を合成した合成映像が生成される。そして生成された合成映像が全体監視モニタ10dに表示される。図9及び図10は、それぞれ、合成映像に含まれる1つのフレーム画像である合成画像40の一例を示す図である。
図9には、受信するすべての送信データにおいてターゲットオブジェクト34が表れていないことが上述の判定の結果として示されている場合における合成画像40の一例が示されている。図10には、受信する2つの送信データにおいてターゲットオブジェクト34が表れていることが上述の判定の結果として示されている場合における合成画像40の一例が示されている。
合成画像40には、例えばそれぞれ互いに異なる映像送信システム12に対応付けられる複数の個別画像領域42が含まれている。図9及び図10に例示されている合成画像40には、9個の映像送信システム12(12a〜12i)にそれぞれ対応付けられる、9つの個別画像領域42(42a〜42i)が含まれている。ここで例えば、図3、図4、及び、図6に示す撮影画像32を撮影したカメラ20を含む映像送信システム12eは、個別画像領域42eに対応付けられることとなる。
本実施形態では例えば、映像送信システム12から受信した送信データが示す低解像度映像に含まれるフレーム画像である低解像度画像が、当該映像送信システム12に対応付けられる個別画像領域42に配置される。
そして本実施形態では例えば、中央監視装置10が、複数の個別画像領域42のそれぞれについて、当該個別画像領域42に配置される低解像度画像に対応付けられる撮影画像32にターゲットオブジェクト34が表れているか否かの判定の結果を特定する。ここで例えば、送信データに含まれるフラグに基づいて、当該判定の結果が特定されてもよい。また例えば、撮影画像32を低解像度化した低解像度画像内におけるターゲット領域の位置や形状を示すターゲット領域情報が送信データに含まれている場合に、当該撮影画像32にターゲットオブジェクト34が表れていると判定されてもよい。また例えば、送信データが示す低解像度画像からターゲット領域画像38を検出する処理が実行されるようにしてもよい。そしてターゲット領域画像38が検出できた場合に、当該低解像度画像が低解像度化される前の撮影画像32にターゲットオブジェクト34が表れていると判定されてもよい。
そして本実施形態では例えば、上述の判定の結果が表された合成画像40が生成される。ここで例えば、配置される低解像度画像に対応付けられる撮影画像32にターゲットオブジェクト34が表れていると判定された個別画像領域42を囲む枠状の判定識別画像44が重畳された合成画像40が生成されてもよい。図10には、一例として、個別画像領域42eを囲む判定識別画像44a、及び、個別画像領域42gを囲む判定識別画像44bが示されている。
また本実施形態では例えば、図10に示すように、低解像度画像内においてターゲットオブジェクト34が表れているターゲット領域が、当該低解像度画像が配置される個別画像領域42に示される。ここで例えば、図10に示すように、領域特定結果画像46がターゲット領域を表す情報として個別画像領域42に示されるようにしてもよい。ここで領域特定結果画像46は、例えば、領域特定結果画像36を低解像度化した画像であってもよい。あるいは、領域特定結果画像46は、例えば、ターゲット領域情報が示す座標値によって表現される位置を角とする枠状の画像であってもよい。
また本実施形態において例えば、送信データに対応付けられる番線に進入する車両の状況に基づいて、映像の監視の優先度が決定されてもよい。ここで送信データに対応付けられる番線とは、例えば、送信データを送信する映像送信システム12が配置されている駅にある番線や、送信データを送信する映像送信システム12のカメラ20によって監視されるプラットホーム30に隣接する番線などを意味する。なお1つのカメラ20に1つの番線が対応付けられてもよいし、1つのカメラ20に複数の番線が対応付けられてもよい。また、撮影画像32にターゲットオブジェクト34が表れていると判定された個別画像領域42について、映像の監視の優先度が決定されるようにしてもよい。
以下、映像の監視の優先度の決定の一例について説明する。
図11には、9個の映像送信システム12(12a〜12i)のそれぞれが配置されている駅と、これらの駅の間を運行する車両との関係の一例が模式的に示されている。図11には、9個の映像送信システム12(12a〜12i)が配置されている駅にそれぞれ対応付けられる9つの駅オブジェクト50(50a〜50i)と、運行する車両に対応付けられる4つの車両オブジェクト52(52a〜52d)が示されている。また図11には、車両の進行方向が矢印で表現されている。ここでは例えば、図10に例示する合成画像40に対応付けられる撮影画像32の撮影タイミングにおける車両の位置が、車両オブジェクト52の位置として図11に示されていることとする。
ここで例えば、駅オブジェクト50eと車両オブジェクト52cとの間の長さは、駅オブジェクト50gと車両オブジェクト52dとの間の長さよりも短い。このことは、映像送信システム12eが配置されている駅と当該駅に接近する車両との間の距離が、映像送信システム12gが配置されている駅と当該駅に接近する車両との間の距離よりも短いことを意味する。例えばこのような場合に、映像送信システム12eに含まれるカメラ20により撮影される映像の監視の優先度が、映像送信システム12gに含まれるカメラ20により撮影される映像の監視の優先度よりも高いと決定されてもよい。
図10には、以上のようにして決定された映像の監視の優先度に応じた態様の判定識別画像44が合成画像40に配置される。なお本実施形態では、映像の監視の優先度に応じた態様が予め定められていることとする。例えば、最も優先度が高い態様が判定識別画像44aのような塗りつぶされた模様で、次に優先度が高い態様が判定識別画像44bのようなハッチの模様であることとする。そのため図10の例では、判定識別画像44aは、個別画像領域42eを囲むよう配置され、判定識別画像44bは、個別画像領域42gを囲むよう配置されることとなる。
なお、以上の例では、送信データに対応付けられる番線がある駅と車両との間の距離に基づいて、映像の監視の優先度が決定された。ここで例えば、送信データに対応付けられる番線に車両が到着するまでの推定時間に基づいて、映像の監視の優先度が決定されてもよい。例えば当該推定時間が短いものほど優先度が高く決定されてもよい。
また例えば、送信データに対応付けられる番線を通過する際の車両の速度に基づいて、映像の監視の優先度が決定されてもよい。例えば当該速度が速いものほど優先度が高く決定されてもよい。
また例えば、送信データに対応付けられる番線に進入する際の車両の乗客の属性に基づいて、映像の監視の優先度が決定されてもよい。ここで車両の乗客の属性の例としては、車いすを使用している、補助犬を連れている、などの属性が挙げられる。ここで例えば、次に番線に進入する車両に車いすを使用している乗客や補助犬を連れている乗客がいる場合は、そうでない場合よりも優先度が高く決定されてもよい。
また映像の監視の優先度に応じた態様は図10に示すような模様には限定されない。例えば、映像の監視の優先度に応じた色の判定識別画像44が合成画像40に配置されてもよい。また例えば、映像の監視の優先度に応じた大きさの個別画像領域42が合成画像40内に配置されてもよい。この場合例えば、優先度が高いほど大きな個別画像領域42が合成画像40に配置されてもよい。
以上で説明した車両の状況は、例えば、公知の運行管理システムによって管理されていてもよい。そして、中央監視装置10は、運行管理システムから取得する各種のデータに基づいて、上述した距離、推定時間、速度、乗客の属性、などといった車両の状況を特定してもよい。また本実施形態において、距離、推定時間、速度、乗客の属性のうちの複数の組合せに基づいて、映像の監視の優先度が決定されてもよい。
また本実施形態において、中央監視装置10は、映像送信システム12に、撮影映像の送信要求を送信してもよい。例えば、合成画像40を監視している監視者(中央監視装置10のユーザ)による個別画像領域42を指定する操作に応じて、当該個別画像領域42に対応付けられる送信データの送信元である映像送信システム12に、撮影映像の送信要求が送信されてもよい。また例えば、映像の監視の優先度に基づいて決定される映像送信システム12に撮影映像の送信要求が送信されてもよい。例えば監視の優先度が最も高い映像を撮影するカメラ20を含む映像送信システム12に撮影映像の送信要求が送信されてもよい。
そして撮影映像の送信要求を受信した映像送信システム12は、当該送信要求に応じて撮影映像を中央監視装置10に送信してもよい。そして中央監視装置10は、受信した撮影映像を個別監視モニタ10eに表示させてもよい。このようにすれば監視者が高解像度の撮影映像を中央監視装置10において詳細に監視できることとなる。
ここで例えば、映像送信システム12は、送信要求の受信に応じて、撮影映像と上述の判定の結果とを示す代替送信データを中央監視装置10に送信してもよい。そして中央監視装置10は、代替送信データが示す上述の判定の結果が表された、当該代替送信データが示す撮影映像を個別監視モニタ10eに表示させてもよい。ここで例えば、撮影映像に含まれる撮影画像32に基づいて生成される領域特定結果画像36をフレーム画像として含む映像が代替送信データとして映像送信システム12から中央監視装置10に送信されるようにしてもよい。そして当該映像が個別監視モニタ10eに表示されるようにしてもよい。
撮影映像の解像度が高いほど当該撮影映像の解析精度は高くなる。ここで例えば白杖を持った人物や補助犬などがプラットホーム30にいるかどうかの判定や白杖を持った人物や補助犬が撮影映像内において表れている領域の特定などといった精細な解析を行う場合は、解像度が高い映像を解析する必要がある。一方で、解像度が高い撮影映像が映像送信システム12から中央監視装置10に送信されるとコンピュータネットワーク14に負荷がかかる。
本実施形態では、映像の解析は高解像度の撮影映像に対して実行されるので、映像の解析精度は確保される。また送信される映像は低解像度映像なので、コンピュータネットワーク14の負荷は軽減できる。このようにして本実施形態によれば、駅のプラットホーム30を撮影した映像の解析精度を確保しつつ送信によりかかるコンピュータネットワーク14の負荷を低減できることとなる。
以上の説明では、撮影画像32にターゲットオブジェクト34が表れていると判定された個別画像領域42について、映像の監視の優先度が決定されるようにした。ここで例えば、撮影画像32にターゲットオブジェクト34が表れていると判定されたか否かに関係なく、すべての個別画像領域42について、映像の監視の優先度が決定されてもよい。
図12は、合成画像40の別の一例を示す図である。図13は、9個の映像送信システム12(12a〜12i)のそれぞれが配置されている駅と、これらの駅の間を運行する車両との関係の別の一例が模式的に示されている。また図13には、車両の進行方向が矢印で表現されている。図13には、図12に例示する合成画像40に対応付けられる撮影画像32の撮影タイミングにおける車両の位置が、車両オブジェクト52の位置として示されていることとする。
ここで図13に示すように、駅オブジェクト50gと車両オブジェクト52dとの間の長さは、駅オブジェクト50cと車両オブジェクト52bとの間の長さよりも短い。また駅オブジェクト50fと車両オブジェクト52cとの間の長さは、駅オブジェクト50gと車両オブジェクト52dとの間の長さよりも短い。また駅オブジェクト50bと車両オブジェクト52aとの間の長さは、駅オブジェクト50fと車両オブジェクト52cとの間の長さよりも短い。例えばこのような場合に、映像の監視の優先度が高い方から順に、個別画像領域42b、個別画像領域42f、個別画像領域42g、個別画像領域42cと決定されてもよい。
図12には、以上のようにして決定された映像の監視の優先度に応じた態様の判定識別画像44が示されている。なお本実施形態では、映像の監視の優先度に応じた態様が予め定められていることとする。例えば、最も優先度が高い態様が判定識別画像44aのような塗りつぶされた模様で、次に優先度が高い態様が判定識別画像44bのようなハッチの模様で、その次に優先度が高い態様が判定識別画像44cのような白抜きの模様であることとする。また優先度が4番目以降である個別画像領域42には、判定識別画像44が配置されないこととする。そのため図12の例では、判定識別画像44aは、個別画像領域42bを囲むよう配置され、判定識別画像44bは、個別画像領域42fを囲むよう配置され、判定識別画像44cは、個別画像領域42gを囲むよう配置されることとなる。
なお、以上の例では、送信データに対応付けられる番線がある駅と車両との間の距離に基づいて、映像の監視の優先度が決定された。ここで例えば、上述したように、番線に車両が到着するまでの推定時間、番線を通過する際の車両の速度、番線に進入する際の車両の乗客の属性、などに基づいて、映像の監視の優先度が決定されてもよい。また上述したように、映像の監視の優先度に応じた態様は図12に示すような模様には限定されない。
合成映像に表れている個々の映像の監視の優先度は様々であるにも関わらず、優先度が合成映像に表れていないと重点的に監視すべき部分を監視者が容易に認識できない。
本実施形態によれば、以上のようにすることで、表示されている合成映像から重点的に監視すべき部分を監視者が容易に認識できることとなる。
以下、本実施形態に係る駅監視システム1の機能、並びに、本実施形態に係る駅監視システム1で実行される処理についてさらに説明する。
図14は、駅のプラットホーム30を監視する本実施形態に係る駅監視システム1に含まれる、中央監視装置10、及び、映像送信システム12で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係る中央監視装置10、及び、映像送信システム12で、図14に示す機能のすべてが実装される必要はなく、また、図14に示す機能以外の機能が実装されていても構わない。
図14に示すように、本実施形態に係る中央監視装置10には、機能的には例えば、送信データ受信部60、映像取得部62、車両状況データ取得部64、監視優先度決定部66、合成映像生成部68、撮影映像送信要求部70、撮影映像受信部72、表示制御部74、が含まれる。送信データ受信部60、撮影映像送信要求部70、撮影映像受信部72は、通信部10cを主として実装される。映像取得部62、車両状況データ取得部64、監視優先度決定部66、合成映像生成部68は、プロセッサ10aを主として実装される。表示制御部74は、プロセッサ10a、全体監視モニタ10d、及び、個別監視モニタ10eを主として実装される。中央監視装置10は、本実施形態における、駅のプラットホーム30を監視する駅監視装置としての役割を担うこととなる。
以上の機能は、コンピュータである中央監視装置10にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ10aで実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介して中央監視装置10に供給されてもよい。
図14に示すように、本実施形態に係る映像送信システム12には、機能的には例えば、撮影映像取得部80、判定部82、送信データ生成部84、送信データ送信部86、送信要求受信部88、撮影映像送信部90、が含まれる。また判定部82には、画像認識部82aと、追尾部82bと、が含まれる。撮影映像取得部80は、カメラ20、及び、映像解析装置22のプロセッサ22aを主として実装される。判定部82は、映像解析装置22のプロセッサ22aを主として実装される。送信データ生成部84は、映像解析装置22のプロセッサ22a、通信部22c、及び、ダウンコンバータ24を主として実装される。送信データ送信部86、送信要求受信部88、撮影映像送信部90は、映像解析装置22の通信部22cを主として実装される。本実施形態に係る映像解析装置22は、送信データを中央監視装置10に送信する送信装置としての役割を担うこととなる。
以上の機能は、コンピュータである映像解析装置22にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ22aで実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介して映像解析装置22に供給されてもよい。
また、送信データ生成部84が、ダウンコンバータ24等のハードウェア及び映像解析装置22で動作するソフトウェアで実装されてもよい。また、送信データ生成部84が、ダウンコンバータ24等のハードウェアのみ、あるいは、映像解析装置22で動作するソフトウェアのみにより実装されてもよい。
送信データ受信部60は、本実施形態では例えば、それぞれ互いに異なる映像送信システム12から送信される複数の上述の送信データを受信する。ここで上述のように、送信データには、撮影映像を低解像度化した低解像度映像と当該撮影映像にターゲットオブジェクト34が表れているか否かの判定の結果とが示されている。
映像取得部62は、本実施形態では例えば、それぞれ互いに異なる監視対象の様子を表す複数の映像を取得する。ここで映像取得部62は、送信データ受信部60が受信する複数の送信データのそれぞれが示す低解像度映像を取得してもよい。
以上の説明では、1つのプラットホーム30は1つのカメラ20によって撮影されていた。ここで例えば1つのプラットホーム30の互いに異なる部分がそれぞれ別のカメラ20によって撮影されてもよい。この場合、1つのカメラ20によって撮影されるプラットホーム30の一部と、別のカメラ20によって撮影される当該プラットホーム30の別の一部とは、互いに異なる監視対象であることとなる。また1つのカメラ20によって複数のプラットホーム30が撮影されてもよい。この場合、当該複数のプラットホーム30が1つの監視対象に相当することとなる。
車両状況データ取得部64は、本実施形態では例えば、監視対象の様子を表す映像に対応付けられる番線に進入する車両の状況を示す車両状況データを取得する。ここで上述のように、車両状況データ取得部64は、公知の運行管理システムから車両状況データを取得してもよい。
監視優先度決定部66は、本実施形態では例えば、監視対象の様子を表す映像に対応付けられる番線に進入する車両の状況に基づいて、当該映像の監視の優先度を決定する。ここで例えば、車両状況データ取得部64が取得する車両状況データに基づいて、映像の監視の優先度が決定されてもよい。
上述のように、監視優先度決定部66は、監視対象の様子を表す映像に対応付けられる番線がある駅と車両との間の距離に基づいて、当該番線に対応付けられる映像の監視の優先度を決定してもよい。
また、監視優先度決定部66は、監視対象の様子を表す映像に対応付けられる番線に車両が到着するまでの推定時間に基づいて、当該番線に対応付けられる映像の監視の優先度を決定してもよい。
また、監視優先度決定部66は、監視対象の様子を表す映像に対応付けられる番線を通過する際の車両の速度に基づいて、当該番線に対応付けられる映像の監視の優先度を決定してもよい。
また、監視優先度決定部66は、監視対象の様子を表す映像に対応付けられる番線に進入する車両の乗客の属性に基づいて、当該番線に対応付けられる映像の監視の優先度を決定してもよい。
また、監視優先度決定部66は、上述の距離、推定時間、速度、乗客の属性のうちの複数の組合せに基づいて、映像の監視の優先度を決定してもよい。
合成映像生成部68は、本実施形態では例えば、それぞれ互いに異なる監視対象の様子を表す複数の映像を合成した合成映像を生成する。ここで合成映像生成部68は、映像の監視の優先度が表された合成映像を生成してもよい。
また合成映像生成部68は、複数の送信データのそれぞれが示す低解像度映像を合成した合成映像を生成してもよい。ここで合成映像生成部68は、映像取得部62が取得する映像を合成した合成映像を生成してもよい。また合成映像生成部68は、複数の送信データのうちの少なくとも1つが示す上述の判定の結果が表された合成映像を生成してもよい。また合成映像生成部68は、複数の送信データのそれぞれが示す上述の判定の結果が当該送信データを送信する映像送信システム12に対応付けられる番線に進入する車両の状況に応じた態様で表された合成映像を生成してもよい。
撮影映像送信要求部70は、本実施形態では例えば、映像送信システム12に当該映像送信システム12が設置されているプラットホーム30を撮影した撮影映像の送信要求を送信する。ここで例えば監視者等のユーザによって指定された映像送信システム12に撮影映像の送信要求が送信されてもよい。また例えば、映像の監視の優先度に基づいて決定される映像送信システム12に撮影映像の送信要求が送信されてもよい。ここで例えば監視の優先度が最も高い映像を撮影するカメラ20を含む映像送信システム12に撮影映像の送信要求が送信されてもよい。
撮影映像受信部72は、本実施形態では例えば、撮影映像の送信要求の受信に応じて映像送信システム12が送信する撮影映像を受信する。
表示制御部74は、本実施形態では例えば、合成映像生成部68が生成する合成映像を表示させる。また表示制御部74は、本実施形態では例えば、撮影映像受信部72が受信する撮影映像を表示させる。上述の例では表示制御部74は、合成映像を全体監視モニタ10dに表示させ、撮影映像を個別監視モニタ10eに表示させる。
また表示制御部74は、複数の撮影映像を切替表示させてもよい。例えば監視の優先度の高い複数の撮影映像が、自動的に所定の時間ずつ繰り返し切替表示されるようにしてもよい。また撮影映像送信要求部70が、表示の切替タイミングに応じて、撮影映像の送信要求の送信先である映像送信システム12を変更するようにしてもよい。
撮影映像取得部80は、本実施形態では例えば、監視対象を撮影した撮影映像を取得する。ここで例えば、映像送信システム12が設置されているプラットホーム30を撮影した撮影映像が取得されてもよい。
判定部82は、本実施形態では例えば、撮影映像取得部80が取得する撮影映像に基づいて、当該撮影映像に所与のオブジェクトが表れているか否かを判定する。ここで例えば上述のターゲットオブジェクト34が当該所与のオブジェクトに相当する。
画像認識部82aは、本実施形態では例えば、撮影画像32に対する画像認識処理を実行することによって当該撮影画像32内においてターゲットオブジェクト34が表れている領域を特定する。
追尾部82bは、本実施形態では例えば、撮影画像32内においてターゲットオブジェクト34が表れている領域を、当該撮影画像32よりも前に撮影された撮影画像32について画像認識部82aが特定した領域を追尾することにより特定する。
送信データ生成部84は、本実施形態では例えば、撮影映像と上述の判定の結果とに基づいて、当該撮影映像を低解像度化した低解像度映像と当該判定の結果とを示す送信データを生成する。
送信データ送信部86は、本実施形態では例えば、送信データ生成部84が生成する送信データを中央監視装置10に送信する。
送信要求受信部88は、本実施形態では例えば、中央監視装置10の撮影映像送信要求部70が送信する撮影映像の送信要求を受信する。
撮影映像送信部90は、本実施形態では例えば、送信要求受信部88による撮影映像の送信要求の受信に応じて、撮影映像を中央監視装置10に送信する。ここで撮影映像送信部90は、撮影映像取得部80が取得する撮影映像を中央監視装置10に送信してもよい。
また撮影映像送信部90は、送信要求受信部88による撮影映像の送信要求の受信に応じて、撮影映像と上述の判定の結果とを示す代替送信データを中央監視装置10に送信してもよい。ここで上述のように、例えば撮影映像に含まれる撮影画像32に基づいて生成される領域特定結果画像36をフレーム画像として含む映像が代替送信データとして送信されてもよい。
この場合、中央監視装置10の表示制御部74は、代替送信データの受信に応じて、当該代替送信データが示す上述の判定の結果が表された、当該代替送信データが示す撮影映像を表示させてもよい。例えば中央監視装置10の表示制御部74は、領域特定結果画像36をフレーム画像として含む映像を表示させてもよい。
以下、本実施形態に係る映像送信システム12において所定のフレームレートで繰り返し行われる処理の流れの一例を、図15に例示するフロー図を参照しながら説明する。
まず、撮影映像取得部80が、撮影画像32を取得する(S101)。ここで取得される撮影画像32は、撮影映像における当該フレームのフレーム画像である。
そして、撮影映像取得部80が、画像認識部82aによる画像認識が可能であるか否かを判定する(S102)。ここで例えば当該フレームよりも前のフレームで取得された撮影画像32に対する画像認識を画像認識部82aが実行中である場合は、画像認識が可能でないことが判定される。一方、撮影画像32に対する画像認識を画像認識部82aが実行していない場合は、画像認識が可能であることが判定される。
画像認識部82aによる画像認識が可能であると判定された場合は(S102:Y)、画像認識部82aは、S101に示す処理で取得された撮影画像32に対して、画像認識処理の実行を開始する(S103)。当該画像認識処理によって、当該撮影画像32内においてターゲットオブジェクト34が表れているターゲット領域が特定されることとなる。ここで上述の領域特定結果画像36が生成されてもよい。また例えばターゲット領域の位置や形状を示すターゲット領域情報が生成されてもよい。
画像認識部82aによる画像認識が可能でないと判定された場合は(S102:N)、追尾部82bは、S103に示す処理での画像認識処理の結果である、利用可能なターゲット領域の特定結果があるか否かを確認する(S104)。S103に示す処理が実行された後も同様に、追尾部82bは、S103に示す処理での画像認識処理の結果である、利用可能なターゲット領域の特定結果があるか否かを確認する(S104)。
ここで特定結果があることが確認された場合は(S104:Y)、追尾部82bは、追尾処理を実行する(S105)。ここでは図8を参照して説明したように、例えばS103に示す処理での画像認識処理における最新の利用可能な特定結果が特定される。そして当該特定結果が示す撮影画像32内におけるターゲット領域を追尾することにより、S101に示す処理で取得された撮影画像32内においてターゲットオブジェクト34が表れているターゲット領域が特定される。ここで上述の領域特定結果画像36が生成されてもよい。また例えばターゲット領域の位置や形状を示すターゲット領域情報が生成されてもよい。
利用可能なターゲット領域の特定結果がないことが確認された場合は(S104:N)、追尾部82bが、S101に示す処理で取得された撮影画像32にターゲットオブジェクト34が表れているか否かを判定する(S106)。S105に示す処理が終了した場合も同様に、追尾部82bが、S101に示す処理で取得された撮影画像32にターゲットオブジェクト34が表れているか否かを判定する(S106)。ここでは例えば、S105に示す処理でターゲット領域が特定された場合は、撮影画像32にターゲットオブジェクト34が表れていると判定される。また、S105に示す処理で追尾できず、ターゲット領域が特定されなかった場合は、撮影画像32にターゲットオブジェクト34が表れていないと判定される。また、S104に示す処理で利用可能なターゲット領域の特定結果がないことが確認された場合も、撮影画像32に所与のオブジェクトが表れていないと判定される。
そして送信データ生成部84は、S101に示す処理で取得された撮影画像32を低解像度化することにより、低解像度画像を生成する(S107)。ここで上述のように、領域特定結果画像36を低解像度化することにより低解像度画像が生成されてもよい。
そして送信データ生成部84は、S106に示す処理での判定の結果とS107に示す処理で生成された低解像度画像とに基づいて、送信データを生成する(S108)。ここでは例えばS107に示す処理で生成された、低解像度化された領域特定結果画像36を含む送信データが生成されてもよい。また例えば、ヘッダ等に、S106に示す処理での判定の結果を示すフラグを含む送信データが生成されてもよい。また例えば、撮影画像32を低解像度化した低解像度画像と、当該低解像度画像内におけるターゲット領域の位置や形状を示すターゲット領域情報と、を含む送信データが生成されてもよい。
そして送信データ送信部86は、S108に示す処理で生成された送信データを中央監視装置10に送信して(S109)、S101に示す処理に戻る。
本処理例では、S101〜S109に示す処理が所定のフレームレートで繰り返し実行される。なお上述の処理例に示す処理では、送信データの送信が毎フレーム行われるが、例えば、S101〜S108に示す処理が複数回繰り返し実行された後に、生成された複数の送信データがまとめて中央監視装置10に送信されてもよい。
以下、本実施形態に係る中央監視装置10において所定のフレームレートで繰り返し行われる処理の流れの一例を、図16に例示するフロー図を参照しながら説明する。なお本処理例に示す処理では、送信データ受信部60は、複数の映像送信システム12のそれぞれから受信する送信データをバッファすることとする。
まず、映像取得部62が、当該フレームにおける複数の送信データを送信データ受信部60のバッファから取得する(S201)。当該複数の送信データは、複数の映像送信システム12のそれぞれから送信されたものである。なお本処理例では、送信データにはフレーム番号が含まれており、当該フレームにおける複数の送信データは映像取得部62が特定できることとする。
そして、合成映像生成部68が、S201に示す処理で取得した複数の送信データのそれぞれについて、当該送信データに対応付けられる撮影画像32にターゲットオブジェクト34が表れているか否かの判定の結果を特定する(S202)。上述したように例えば、送信データが示す低解像度画像からのターゲット領域画像38の検出結果、送信データに含まれるフラグが示す判定の結果、送信データに含まれるターゲット領域情報、などに基づいて、判定の結果は特定される。
そして車両状況データ取得部64が、当該フレームにおける車両の状況を示す車両状況データを取得する(S203)。
そして監視優先度決定部66が、S203に示す処理で取得した車両状況データに基づいて、S201に示す処理で取得された複数の送信データのそれぞれについて、映像の監視の優先度を決定する(S204)。ここでS202において撮影画像32にターゲットオブジェクト34が表れていると判定された送信データについてのみ、映像の監視の優先度が決定されてもよい。
そして合成映像生成部68が、当該フレームにおける合成画像40を生成する(S205)。ここでは例えば、S201に示す処理で取得された送信データに含まれる低解像度映像、S202に示す処理で特定された判定の結果、及び、S204に示す処理で決定された優先度に基づいて、合成画像40が生成される。
そして表示制御部74が、S205に示す処理で生成された合成画像40を表示させて(S206)、S201に示す処理に戻る。
本処理例では、S201〜S206に示す処理が所定のフレームレートで繰り返し実行される。
なお、本発明は上述の実施形態に限定されるものではない。
例えば、図17及び図18に示すように、改札口などの特定の場所におけるターゲットオブジェクト34の検出に応じて当該特定の場所の画像が撮影されてもよい。以下、このようにして撮影される、ターゲットオブジェクト34の検出に応じて撮影される当該ターゲットオブジェクト34が検出された場所の画像を参照撮影画像92と呼ぶこととする。ここで参照撮影画像92は、例えば、駅のプラットホーム30等の監視対象を撮影するカメラ20とは異なるカメラ20により撮影される。
図17には、ターゲットオブジェクト34を改札口において前方から撮影した参照撮影画像92aの一例が示されている。図18には、ターゲットオブジェクト34を改札口において後方から撮影した参照撮影画像92bの一例が示されている。このように、ICタグの検出に応じて互いに異なる方向から複数の参照撮影画像92が撮影されるようにしてもよい。
ここで例えば白杖に埋め込まれたICタグ、白杖を持った人物が持参しているICカード、補助犬にぶらさげられているICカード、などを検出するセンサが、改札口などの特定の場所に設置されていてもよい。そして当該センサによるICタグやICカードの検出に応じて、1または複数の参照撮影画像92が撮影されるようにしてもよい。なおターゲットオブジェクト34がICタグやICカードの検出とは異なる方法で検出されてもよい。
なおターゲットオブジェクト34の検出が行われる場所は、改札口には限定されない。例えば、ホームドアなどに上述のセンサが設置されていてもよい。そして当該センサによるターゲットオブジェクト34の検出に応じて、ホームドア及びその周辺の場所の参照撮影画像92が撮影されるようにしてもよい。
そして撮影映像取得部80が、このようにして撮影される参照撮影画像92を取得してもよい。ここで撮影映像取得部80が、互いに異なる方向から撮影される複数の参照撮影画像92を取得してもよい。
そして画像認識部82aが、上述の参照撮影画像92に対して公知の画像認識技術による画像認識処理を実行し、当該参照撮影画像92においてターゲットオブジェクト34が表れているターゲット領域を特定してもよい。そして画像認識部82aが、当該ターゲット領域を示す上述のターゲット領域情報を生成してもよい。
図19は、図17に示す参照撮影画像92aに基づいて生成されるターゲット領域情報の一例である領域特定結果画像94aの一例を示す図である。図20は、図18に示す参照撮影画像92bに基づいて生成されるターゲット領域情報の一例である領域特定結果画像94bの一例を示す図である。
図19に示す領域特定結果画像94aでは、図17に示す参照撮影画像92aにターゲットオブジェクト34を囲む枠状のターゲット領域画像96aが重畳されている。図20に示す領域特定結果画像94bでは、図18に示す参照撮影画像92bにターゲットオブジェクト34を囲む枠状のターゲット領域画像96bが重畳されている。
そして判定部82が、参照撮影画像92と、駅のプラットホーム30等の監視対象を撮影した撮影映像とに基づいて、当該撮影映像にターゲットオブジェクト34が表れているか否かを判定してもよい。ここで互いに異なる方向から撮影される複数の参照撮影画像92と、撮影映像とに基づいて、当該撮影映像にターゲットオブジェクト34が表れているか否かが判定されてもよい。
例えば画像認識部82aが、参照撮影画像92に基づいて特定されるターゲット領域を用いて撮影画像32に対する画像認識処理を実行することによって、当該撮影画像32内においてターゲットオブジェクト34が表れている領域を特定してもよい。
あるいは、追尾部82bが、撮影画像32内においてターゲットオブジェクト34が表れている領域を、上述の参照撮影画像92について画像認識部82aが特定したターゲット領域を追尾することにより特定してもよい。
ターゲットオブジェクト34の検出に応じて撮影される参照撮影画像92には、ターゲットオブジェクト34が鮮明に表れている可能性が高い。そのため以上のようにすることで、駅のプラットホーム30等の監視対象を撮影した撮影画像32からより的確にターゲットオブジェクト34が検出できることとなる。
またここで互いに異なる方向から複数の参照撮影画像92が撮影されるようにすることで、より多くの情報を用いて駅のプラットホーム30等の監視対象を撮影した撮影画像32に対する画像認識処理や追尾処理が実行できる。そのため、駅のプラットホーム30等の監視対象を撮影した撮影画像32からより的確にターゲットオブジェクト34が検出できることとなる。
また例えば中央監視装置10と映像送信システム12との役割分担は上述のものには限定されない。例えば、監視対象の様子を表す映像に対応付けられる番線に進入する車両の状況は、映像送信システム12において特定されてもよい。そして当該車両の状況を示す車両状況データが映像送信システム12から中央監視装置10に送信されてもよい。そして中央監視装置10が、映像送信システム12から受信した車両状況データに基づいて、映像の監視の優先度を決定してもよい。
また例えば、1つの映像送信システム12で複数の駅の監視対象を監視してもよい。この場合は、1つの映像送信システム12は、互いに異なる複数の駅に設置される複数のカメラ20を含むこととなる。そして1つの映像送信システム12が、当該複数のカメラ20のそれぞれが撮影する映像に基づいて、当該映像に対応付けられる送信データを生成してもよい。
また中央監視装置10の機能の一部又は全部が、1つの映像送信システム12に実装されてもよい。また例えば1つの映像送信システム12が、複数の駅のプラットホーム30を監視してもよい。また例えば1つの映像送信システム12が、当該映像送信システム12が配置されている駅に設置されている複数のプラットホーム30を監視してもよい。このように本発明は、中央監視装置10における複数の駅の監視のみならず、1つの駅における複数のプラットホーム30の監視にも適用可能である。
また、上述の具体的な文字列や数値、並びに、図面中の具体的な文字列は例示であり、これらの文字列や数値には限定されない。

Claims (7)

  1. 駅のプラットホームを監視する駅監視装置であって、
    それぞれ互いに異なる監視対象の様子を表す複数の映像を取得する映像取得手段と、
    前記映像に対応付けられる番線に進入する車両の状況に基づいて、当該映像の監視の優先度を決定する監視優先度決定手段と、
    前記監視の優先度が表された、前記複数の映像を合成した合成映像を生成する合成映像生成手段と、
    前記合成映像を表示させる表示制御手段と、
    を含むことを特徴とする駅監視装置。
  2. 前記監視優先度決定手段は、前記番線がある駅と前記車両との間の距離に基づいて、当該番線に対応付けられる映像の監視の優先度を決定する、
    ことを特徴とする請求項1に記載の駅監視装置。
  3. 前記監視優先度決定手段は、前記番線に前記車両が到着するまでの推定時間に基づいて、当該番線に対応付けられる映像の監視の優先度を決定する、
    ことを特徴とする請求項1又は2に記載の駅監視装置。
  4. 前記監視優先度決定手段は、前記番線を通過する際の前記車両の速度に基づいて、当該番線に対応付けられる映像の監視の優先度を決定する、
    ことを特徴とする請求項1から3のいずれか一項に記載の駅監視装置。
  5. 前記監視優先度決定手段は、前記番線に進入する車両の乗客の属性に基づいて、当該番線に対応付けられる映像の監視の優先度を決定する、
    ことを特徴とする請求項1から4のいずれか一項に記載の駅監視装置。
  6. 駅のプラットホームを監視する駅監視方法であって、
    それぞれ互いに異なる監視対象の様子を表す複数の映像を取得するステップと、
    前記映像に対応付けられる番線に進入する車両の状況に基づいて、当該映像の監視の優先度を決定するステップと、
    前記監視の優先度が表された、前記複数の映像を合成した合成映像を生成するステップと、
    前記合成映像を表示させるステップと、
    を含むことを特徴とする駅監視方法。
  7. 駅のプラットホームを監視するコンピュータに、
    それぞれ互いに異なる監視対象の様子を表す複数の映像を取得する手順、
    前記映像に対応付けられる番線に進入する車両の状況に基づいて、当該映像の監視の優先度を決定する手順、
    前記監視の優先度が表された、前記複数の映像を合成した合成映像を生成する手順、
    前記合成映像を表示させる手順、
    を実行させることを特徴とするプログラム。
JP2020538276A 2018-08-20 2019-08-02 駅監視装置、駅監視方法及びプログラム Active JP7107597B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018153983 2018-08-20
JP2018153983 2018-08-20
PCT/JP2019/030536 WO2020039898A1 (ja) 2018-08-20 2019-08-02 駅監視装置、駅監視方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2020039898A1 true JPWO2020039898A1 (ja) 2021-05-13
JP7107597B2 JP7107597B2 (ja) 2022-07-27

Family

ID=69593032

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020538276A Active JP7107597B2 (ja) 2018-08-20 2019-08-02 駅監視装置、駅監視方法及びプログラム

Country Status (3)

Country Link
JP (1) JP7107597B2 (ja)
CN (1) CN112640444A (ja)
WO (1) WO2020039898A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023148889A (ja) * 2022-03-30 2023-10-13 株式会社日立製作所 列車走行支援装置及び列車走行支援方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002104189A (ja) * 2000-09-28 2002-04-10 Matsushita Electric Ind Co Ltd 列車運転支援システム及び列車運転支援用地上側装置並びに列車運転支援用車両側装置
JP2005292879A (ja) * 2004-03-31 2005-10-20 Fujitsu Ltd 撮影情報サーバおよび撮影情報送信システム
JP2007081553A (ja) * 2005-09-12 2007-03-29 Hitachi Kokusai Electric Inc カメラシステムの表示方法及びカメラシステム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5774506B2 (ja) * 2012-01-17 2015-09-09 株式会社日立ビルシステム 映像監視システム
JP5789230B2 (ja) * 2012-08-23 2015-10-07 株式会社日立ビルシステム 映像監視システム
JP2015032995A (ja) * 2013-08-02 2015-02-16 株式会社日立ビルシステム 映像監視システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002104189A (ja) * 2000-09-28 2002-04-10 Matsushita Electric Ind Co Ltd 列車運転支援システム及び列車運転支援用地上側装置並びに列車運転支援用車両側装置
JP2005292879A (ja) * 2004-03-31 2005-10-20 Fujitsu Ltd 撮影情報サーバおよび撮影情報送信システム
JP2007081553A (ja) * 2005-09-12 2007-03-29 Hitachi Kokusai Electric Inc カメラシステムの表示方法及びカメラシステム

Also Published As

Publication number Publication date
WO2020039898A1 (ja) 2020-02-27
CN112640444A (zh) 2021-04-09
JP7107597B2 (ja) 2022-07-27

Similar Documents

Publication Publication Date Title
US8073206B2 (en) Face feature collator, face feature collating method, and program
JP7107596B2 (ja) 駅監視システム及び駅監視方法
JP2005348157A (ja) カメラシステム、カメラ、及びカメラの制御方法
JP2012185540A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
EP3525469A1 (en) Time slice image provision server, method and user terminal
JP2016187162A (ja) 情報処理装置、情報処理方法、及びプログラム
KR20220027739A (ko) 목표 검출 방법 및 장치, 컴퓨터 시스템 및 판독 가능 저장 매체
EP3975133A1 (en) Processing of images captured by vehicle mounted cameras
US11599974B2 (en) Joint rolling shutter correction and image deblurring
US11537814B2 (en) Data providing system and data collection system
CN110008771A (zh) 一种扫码系统及扫码方法
US10462448B2 (en) Image generation system and image generation method
JP7107597B2 (ja) 駅監視装置、駅監視方法及びプログラム
CN109903308B (zh) 用于获取信息的方法及装置
JP4882577B2 (ja) 物体追跡装置およびその制御方法、物体追跡システム、物体追跡プログラム、ならびに該プログラムを記録した記録媒体
JP2023100805A (ja) 撮像装置、撮像方法及び撮像プログラム
KR102168110B1 (ko) 카메라 시스템
JP2005157134A (ja) 情報出力方法及び装置及びプログラム及び情報出力プログラムを格納したコンピュータ読み取り可能な記憶媒体
CN113079342A (zh) 基于高分辨率影像装置的目标追踪方法及系统
JP5769468B2 (ja) 物体検出システム及び物体検出方法
CN115835035A (zh) 图像插帧方法、装置、设备及计算机可读存储介质
CN115633147A (zh) 一种基于5g多视角的多人远程协作指导系统
JP2005268972A (ja) 映像表示システム、及び映像表示方法
CN113411543A (zh) 一种多路监控视频融合显示方法及系统
CN112313944A (zh) 图像处理方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220707

R150 Certificate of patent or registration of utility model

Ref document number: 7107597

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350