JP2023116345A - 監視システム、監視方法及び監視プログラム - Google Patents
監視システム、監視方法及び監視プログラム Download PDFInfo
- Publication number
- JP2023116345A JP2023116345A JP2022019092A JP2022019092A JP2023116345A JP 2023116345 A JP2023116345 A JP 2023116345A JP 2022019092 A JP2022019092 A JP 2022019092A JP 2022019092 A JP2022019092 A JP 2022019092A JP 2023116345 A JP2023116345 A JP 2023116345A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- abnormality
- image
- detection
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012544 monitoring process Methods 0.000 title claims description 31
- 238000000034 method Methods 0.000 title claims description 16
- 238000001514 detection method Methods 0.000 claims abstract description 81
- 230000005856 abnormality Effects 0.000 claims abstract description 64
- 238000003384 imaging method Methods 0.000 claims abstract description 18
- 238000010586 diagram Methods 0.000 description 18
- 230000002159 abnormal effect Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 230000010365 information processing Effects 0.000 description 4
- 208000001836 Firesetting Behavior Diseases 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 239000004020 conductor Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 238000004080 punching Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000010454 slate Substances 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Abstract
【課題】鉄道車両内の異常を精度良く検知すること。【解決手段】実施形態の車載装置10は、列車2に含まれる車両20のそれぞれに備えられる。撮影装置30は、車両20のそれぞれに備えられ、車両20の内部を撮影する。車載装置10は、撮影装置によって撮影された画像を収集する。また、車載装置10は、画像から異常を検知する。車載装置10は、検知結果をサーバ又は乗務員が利用する端末装置に通知する。【選択図】図1
Description
特許法第30条第2項適用申請有り A社本社 1F会議室 開催日 令和3年12月17日
本発明は、監視システム、監視方法及び監視プログラムに関する。
昨今、鉄道車両内における犯罪の発生が社会問題になっている。鉄道車両内においては、放火、暴行、痴漢、危険物の置き逃げといった犯罪が発生する場合がある。
そのような犯罪の発生を検知するための技術として、車両内に備えられたカメラを用いた監視システムが提案されている(例えば、特許文献1を参照)。
しかしながら、従来の技術では、鉄道車両内の異常を精度良く検知できない場合があるという問題がある。
ここでは、監視システムは、鉄道車両内における犯罪行為に伴って発生する様々な事象を異常として検知するものとする。
例えば、特許文献1には、人が倒れている場合のパターンを監視カメラに記憶させておく方法が記載されている。一方で、犯罪行為に伴って発生する事象は多様であり、あらゆるパターンを監視カメラに記憶させておき、異常を検知することは困難である。
例えば、人が倒れている画像のパターンには、人がうつ伏せで倒れているパターン、人が横向きに倒れているパターン、人が仰向けに倒れているパターンといった様々なバリエーションがあると考えられる。
上述した課題を解決し、目的を達成するために、監視システムは、列車に含まれる車両のそれぞれに備えられた車載装置と、前記車両のそれぞれに備えられ、前記車両の内部を撮影する撮影装置と、を有し、前記車載装置は、前記撮影装置によって撮影された画像を収集する収集部と、前記画像から異常を検知する検知部と、前記検知部による検知結果を通知する通知部と、を有することを特徴とする。
本発明によれば、鉄道車両内の異常を精度良く検知することができる。
以下に、本願に係る監視システム、監視方法及び監視プログラムの実施形態を図面に基づいて詳細に説明する。なお、本発明は、以下に説明する実施形態により限定されるものではない。
[第1の実施形態の構成]
まず、図1を用いて、第1の実施形態の監視システムの構成を説明する。図1は、監視システムの構成例を示す図である。
まず、図1を用いて、第1の実施形態の監視システムの構成を説明する。図1は、監視システムの構成例を示す図である。
図1に示すように、車載装置10、撮影装置30、端末装置40及びサーバ50を有する。また、車載装置10及び撮影装置30は、列車2の車両20のそれぞれに備えられる。車載装置10は、監視装置の一例である。
車両20は、列車2を構成する鉄道車両である。また、例えば、列車2は、鉄道を走行する電車である。
図1に示すように、車載装置10は、同一の車両20内の撮影装置30と有線又は無線で接続されている。例えば、車載装置10及び撮影装置30は、列車2に設けられたLAN(Local Area Network)にWi-Fiにより接続される。
これにより、車載装置10は、撮影装置30からデータを受信することができる。
また、車載装置10、端末装置40及びサーバ50は、ネットワークNに接続されている。例えば、ネットワークNはインターネットである。
これにより、車載装置10、端末装置40及びサーバ50は、ネットワークNを介して互いにデータの送信及び受信を行うことができる。
ここで、車載装置10は、画像認識処理を実行するためのモジュールを搭載し、撮影装置30に対するエッジコンピュータとして機能する。例えば、車載装置10に搭載されたモジュールには、GPU(Graphics Processing Unit)が備えられる。
車載装置10は、GPUを利用してニューラルネットワークを用いた画像認識処理を実行することができる。
また、車載装置10は、車両内、又は車両間の連結部の壁面の裏側に設けられた点検用スペースに設定されてもよい。
撮影装置30は、照明装置とカメラが一体化された装置である(参考文献:浜井電球工業株式会社、「カメラ付きLED照明(RLioT-Camera)」(URL:http://www.hamai.co.jp/dk/website/products/)(ただし、「RLioT」は登録商標))。なお、撮影装置30は、照明装置と一体化されていないカメラであってもよい。
撮影装置30は、常時又は所定のタイミングで車両20内の画像を撮影する。また、撮影装置30は、車両20内の画像を同一の車両20内の車載装置10へ送信する。
撮影装置30は、一定時間(例えば1秒)おきに静止画像を撮影してもよいし、常に動画像を撮影してもよい。
また、撮影装置30は、図2のように配置される。図2は、撮影装置の配置例を示す図である。図2は、車両20を上部から鉛直下向きに見た図である。
例えば、図2のように配置された既存の照明装置を、撮影装置30に交換することで、撮影装置30を容易に設置することができる。
また、図2のように撮影装置30を分散した位置に配置することで、車両20の内部を撮影する際に死角が生じにくくなる。
端末装置40は、列車2の乗務員(例えば車掌及び運転士)によって利用される。端末装置40は、パーソナルコンピュータ、スマートフォン及びタブレット型端末等である。
図1を用いて、監視システム1の処理の流れを説明する。まず、図1に示すように、車載装置10は、撮影装置30が撮影した車両20内の画像を収集する(ステップS11)。
車載装置10は、収集した画像から異常を検知する(ステップS12)。車載装置10は、画像から抽出した特徴量を訓練済みのニューラルネットワークに入力して得られた出力結果を基に異常検知を行う。
次に、車載装置10は、検知結果をサーバ50に送信する(ステップS13)。車載装置10は、全ての検知結果をサーバ50に送信してもよいし、異常が検知された場合の検知結果のみをサーバ50に送信してもよい。
また、車載装置10は、撮影装置30から収集した画像を検知結果とともにサーバ50に送信してもよい。
ここで、サーバ50は、検知結果を基に監視情報を生成する(ステップS14)。監視情報は、列車2の乗務員が検知結果を確認するための情報である。
例えば、サーバ50は、視認性を考慮してデザインされたWebページであって、異常検知結果を示す情報が掲載されたWebページを、監視情報として生成する。
サーバ50は、生成した監視情報を端末装置40に送信する(ステップS15)。端末装置40は、提供する乗務員に監視情報を提供する。
なお、監視情報は、監視システム1の管理者、監視システム1と連携する他のシステムに送信されてもよい。
なお、ここで説明した車載装置10による処理は、図1に示す複数の車載装置10によって行われる。
つまり、複数の車載装置10が、それぞれ同一の車両20に備えられた撮影装置30から画像を収集する。そして、複数の車載装置10が検知結果をサーバ50に送信する。
図3を用いて、車載装置10の構成を説明する。図3は、車載装置の構成例を示す図である。
図3に示すように、車載装置10は、通信部11、記憶部12及び制御部13を有する。
通信部11は、車載装置10が他の装置との間でデータの送受信を行うためのインタフェースである。
例えば、通信部11は、Wi-Fiモジュールを含む。これにより、車載装置10は列車2内のLANに接続し、撮影装置30との間でデータの送受信を行うことができる。
また、例えば、通信部11は、モバイルデータ通信(例えば、LTE(Long Term Evolution)又は5G)用の通信モジュールを含む。これにより、車載装置10はネットワークNに接続し、サーバ50との間でデータの送受信を行うことができる。
記憶部12は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置である。なお、記憶部12は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等のデータを書き換え可能な半導体メモリであってもよい。記憶部12は、車載装置10で実行されるOS(Operating System)や各種プログラムを記憶する。
記憶部12は、モデル情報121を記憶する。モデル情報121は、画像認識のためのモデルに関する情報である。例えば、モデル情報121は、画像認識を行うニューラルネットワークのパラメータである。
制御部13は、車載装置10全体を制御する。制御部13は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU等の電子回路、及びASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路である。また、制御部13は、画像認識処理を実行するためのGPUを含む。
制御部13は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、内部メモリを用いて各処理を実行する。また、制御部13は、各種のプログラムが動作することにより各種の処理部として機能する。例えば、制御部13は、収集部131、検知部132及び通知部133を有する。
収集部131は、撮影装置によって撮影された画像を収集する。収集部131は、車載装置10と同じ車両20に備えられた撮影装置30の全て又は一部から画像を収集する。
収集部131は、複数の撮影装置30のそれぞれから収集した画像を連結した画像を収集してもよい。
検知部132は、収集部131によって収集された画像から異常を検知する。検知部132は、モデル情報121から構築したモデルを用いて画像認識を行うことで、異常を検知する。
例えば、モデルはYOLOによる画像認識を行う。この場合、モデルは、画像内の所定の位置に配置されるバウンディングボックスに特定のオブジェクトが含まれている確率に基づくスコアを出力する。
モデルは、鉄道車両内において発生することが想定される犯罪行為に関するオブジェクトを認識するようにあらかじめ訓練される。例えば、犯罪行為には、喧嘩、暴行、痴漢、放火等がある。
また、検知部132は、モデルによって出力されたスコアが閾値以上であるオブジェクトがあった場合、当該オブジェクトを検出する。そして、検知部132は、オブジェクトを検出した場合、異常を検知する。
例えば、検知部132は、放火に関するオブジェクトである「炎」を検出した場合、異常を検知する。
また、検知部132は、暴行に関するオブジェクトである「暴行を行っている人」、「凶器を所持している人」、又は「物を振り回している人」が検出された場合、異常を検知する。
オブジェクト「暴行を行っている人」は、実際に殴る、蹴るといった直接的な暴行の動作を行っている人に対応する。
オブジェクト「凶器を所持している人」は、暴行に利用される恐れがあるナイフ及び拳銃といった道具を手に持っている人に対応する。
オブジェクト「物を振り回している人」は、ナイフ及び棒等を振り回し、暴行につながる恐れのある動作を行っている人に対応する。
このように、暴行という1つの種類の犯罪行為に対し、複数のオブジェトが対応付けられていてもよい。
また、各オブジェクトには、優先度が設けられていてもよい。例えば、優先度は「暴行を行っている人」が最も高く、「凶器を所持している人」、「物を振り回している人」の順で低くなるものとする。
このとき、検知部132は、モデルの出力から「暴行を行っている人」が検出されなかった場合、さらにモデルの出力から「凶器を所持している人」が検出できるか否かを確認する。そして、検知部132は、モデルの出力から「凶器を所持している人」が検出されなかった場合、さらにモデルの出力から「物を振り回している人」が検出できるか否かを確認する。
このように、各オブジェクトに優先度を設けておくことにより、検知部132は、検出のための処理を効率良く行うことができる。
また、検知部132は、画像から検出した複数の人の移動方向を基に異常を検知することができる。
検知部132は、車両20のドアが開いている場合は、人の移動方向を基にした異常の検知を行わない。
これは、車両20のドアが開いている場合、乗客の乗り降り、座席又はスペース間の移動が発生し、人の移動方向が一定でないと考えられるためである。
なお、車両20のドアが開いている場合には、ドアが開く動作の途中及びドアが閉じる動作の途中が含まれる。
また、検知部132は、車両20のドアが閉じている場合は、人の移動方向を基にした異常の検知を行う。
車両20のドアが閉じている場合、単一又は少数の乗客が座席の変更及び降車の準備等により移動することは考えられる。一方で、多数の乗客が一斉に移動することは、犯罪行為に起因している可能性がある。
例えば、図4に示すように、検知部132は、画像301の領域301aにおいて閉じた状態のドアを検出した場合、人の移動方向を基にした異常の検知を行う。図4は、ドアが閉まっている場合の画像の例を示す図である。
例えば、暴行等により倒れた人の元、痴漢の発生場所等に多数の人が駆け寄ることが考えられる。また、例えば、炎が発生した場所から離れる方向、通り魔から離れる方向等に、多数の人が逃げることが考えられる。
例えば、図5に示すように、検知部132は、画像301の領域301aにおいて開いた状態のドアを検出した場合、人の移動方向を基にした異常の検知を行わない。図5は、ドアが開いている場合の画像の例を示す図である。
図5の矢印は、車両20に乗り降りする人(乗客)の移動の流れを表している。
検知部132による人の移動方向を基にした異常の検知について説明する。まず、検知部132は、撮影された時刻が異なる複数の画像から人を検出する。このとき、検知部132は、検出した人のそれぞれに、互いを区別するための識別子を付与する。
なお、ここでの画像は、静止画像であってもよいし、動画像に含まれるフレーム画像であってもよい。
例えば、検知部132は、時刻t1に撮影された画像において検出した3人のそれぞれに、「P011」、「P012」、「P013」のように識別子を付与する。そして、検知部132は、時刻t2(ただしt2>t1)に撮影された画像において検出した人と、既に識別子を付与したが同一であるか否かを判定する。
例えば、検知部132は、人を検出した領域の画像の特徴量が類似しているか否かにより、人の同一性を判定する。
そして、同じ識別子が付与された人の、画像間での位置を結んだベクトルを生成し、当該ベクトルの方向を当該人の移動方向とみなす。
例えば、識別子「P011」が付与された人の時刻t1における位置から時刻t2における位置へ向かうベクトルが示す方向を、識別子「P011」が付与された人の移動方向とする。
ここで、検知部132は、人のそれぞれについて生成したベクトルを移動方向に延長した直線を算出する。そして、算出した直線のうち、閾値を超える数の直線が特定の点又は領域(以下、対象位置)を通る場合、多数の人が対象位置に近付いているとみなし、異常を検知する。
このように、検知部132は、車両のドアが閉じていて、かつ特定の位置に向かうように複数の人が移動していることが検出された場合、異常を検知する。
また、検知部132は、人のそれぞれについて生成したベクトルを移動方向と反対側に延長した直線を算出する。そして、算出した直線のうち、閾値を超える数の直線が対象位置を通る場合、多数の人が対象位置から離れているとみなし、異常を検知する。
このように、検知部132は、車両のドアが閉じていて、かつ特定の位置から離れるように複数の人が移動していることが検出された場合、異常を検知する。
通知部133は、検知部132による検知結果を通知する。通知部133は、サーバ50を経由して、端末装置40を利用する乗務員に検知結果を通知する。
サーバ50は、車載装置10から取得した画像及び検知結果を基に、画像一覧画面及び異常画像表示画面を生成し、端末装置40に提供する。端末装置40は、提供された画像一覧画面及び異常画像表示画面を表示する。
図6は、画像一覧画面の例を示す図である。図6に示すように、画像一覧画面401には、撮影装置30によって撮影された画像が表示される。
図6に示す「A03_1」、「A03_2」、「A03_3」、「A03_4」は、画像が撮影された列車及び車両を識別するための情報である。例えば、「A03」は列車を識別する情報である。また、「_1」等は、車両を識別する情報である。
図7は、異常画像表示画面の例を示す図である。異常画像表示画面302は、異常が検知された際の画像(静止画像又は動画像)を表示する画面である。
画像表示領域302aに表示される画像は、画像リスト302bの中から選択された画像であってもよい。画像リスト302bには、画像ごとの、列車及び車両を識別する情報、異常が検知された日時及び検知された異常に関する説明が表示される。
異常画像表示画面302によれば、乗務員は、犯罪行為が発生した場所と離れた場所にいる場合であっても、犯罪行為の詳細を確認することができる。
ここで、監視システム1は、ネットワークNを利用しない構成であってもよい。図8は、監視システムの構成例を示す図である。
図8に示すように、車載装置10は、インターネットではなく、列車2内のLANを介して、端末装置40に検知結果を送信してもよい。
図8の例では、まず、車載装置10は、撮影装置30が撮影した車両20内の画像を収集する(ステップS21)。
次に、車載装置10は、収集した画像から異常を検知する(ステップS22)。そして、車載装置10は、検知結果を端末装置40に送信する(ステップS23)。
例えば、車載装置10は、画像一覧画面401及び異常画像表示画面302を生成し、端末装置40に提供する。
[第1の実施形態の処理]
図9を用いて、車載装置10の処理の流れを説明する。図9は、車載装置の処理の流れを示すフローチャートである。
図9を用いて、車載装置10の処理の流れを説明する。図9は、車載装置の処理の流れを示すフローチャートである。
まず、図9に示すように、車載装置10は、カメラから画像を収集する(ステップS101)。カメラは、撮影装置30である。
次に、車載装置10は、人の状態及び動きに関する異常検知を行う(ステップS102)。例えば、車載装置10は、暴行の発生を検出した場合に異常を検知する。
そして、車載装置10は、火災に関する異常検知を行う(ステップS103)。例えば、車載装置10は、炎及び煙を検出した場合に異常を検知する。
車載装置10は、人の移動に関する異常検知(ステップS104)。例えば、車載装置10は、対象位置に多数の人が近付いていること、又は対象位置から多数の人が離れていることを検出した場合に異常を検知する。
車載装置10は、検知結果を画像とともに送信(ステップS105)。車載装置10は、検知結果をサーバ50又は端末装置40に送信する。
図10を用いて、人の状態及び動きに関する異常検知処理(図9のステップS102に相当)の流れを説明する。図10は、人の状態及び動きに関する異常検知処理の流れを示すフローチャートである。ここでは、車載装置10は、暴行の発生を検出した場合に異常を検知するものとする。
図10に示すように、まず、車載装置10は、画像認識の結果から暴行の動作が発生しているか否かを確認する(ステップS201)。
車載装置10は、暴行の動作が発生していることが確認できた場合(ステップS201、Yes)、異常ありと判断(異常を検知)する(ステップS205)。
車載装置10は、暴行の動作が発生していることが確認できなかった場合(ステップS201、No)、画像認識の結果から凶器を所持した人がいるか否かを確認する(ステップS202)。
車載装置10は、凶器を所持した人がいることが確認できた場合(ステップS202、Yes)、異常ありと判断(異常を検知)する(ステップS205)。
車載装置10は、凶器を所持した人がいることが確認できなかった場合(ステップS202、No)、画像認識の結果から物を振り回している人がいるか否かを確認する(ステップS203)。
車載装置10は、物を振り回している人がいることが確認できた場合(ステップS203、Yes)、異常ありと判断(異常を検知)する(ステップS205)。
車載装置10は、凶器を所持した人がいることが確認できなかった場合(ステップS203、No)、異常なしと判断する(ステップS204)。
図11を用いて、人の状態及び動きに関する異常検知処理(図9のステップS104に相当)の流れを説明する。図11は、人の移動に関する異常検知処理の流れを示すフローチャートである。
図11に示すように、まず、車載装置10は、車両のドアが開いているか閉じているかを確認する(ステップS301)。
車載装置10は、車両のドアが開いている場合(ステップS301、開)、異常なしと判断する(ステップS304)。
車載装置10は、車両のドアが閉じている場合(ステップS301、閉)、複数の人が1つの地点(対象位置)に移動しているか否かを確認する(ステップS302)。
車載装置10は、複数の人が1つの地点(対象位置)に移動していることが確認できた場合(ステップS302、Yes)、異常ありと判断(異常を検知)する(ステップS305)。
車載装置10は、複数の人が1つの地点(対象位置)に移動していることが確認できなかった場合(ステップS302、No)、複数の人が1つの地点(対象位置)から移動しているか否かを確認する(ステップS303)。
車載装置10は、複数の人が1つの地点(対象位置)から移動していることが確認できた場合(ステップS303、Yes)、異常ありと判断(異常を検知)する(ステップS305)。
車載装置10は、複数の人が1つの地点(対象位置)から移動していることが確認できなかった場合(ステップS303、No)、異常なしと判断する(ステップS304)。
[第1の実施形態の効果]
これまで説明してきたように、車載装置10は、列車2に含まれる車両20のそれぞれに備えられる。撮影装置30は、車両20のそれぞれに備えられ、車両20の内部を撮影する。車載装置10の収集部131は、撮影装置によって撮影された画像を収集する。また、検知部132は、画像から異常を検知する。通知部133は、検知部132による検知結果を通知する。
これまで説明してきたように、車載装置10は、列車2に含まれる車両20のそれぞれに備えられる。撮影装置30は、車両20のそれぞれに備えられ、車両20の内部を撮影する。車載装置10の収集部131は、撮影装置によって撮影された画像を収集する。また、検知部132は、画像から異常を検知する。通知部133は、検知部132による検知結果を通知する。
このように、車両20のそれぞれに備えられた車載装置10が異常検知を行うことにより、鉄道車両内の異常を精度良く検知することができる。
また、検知部132は、画像認識により画像から暴行を行っている人、凶器を所持している人、又は物を振り回している人が検出された場合、異常が発生していることを検知する。
このように、例えば暴行という犯罪行為に対して複数の検出対象のオブジェクトを対応付けたおくことにより、より確実に検知を行うことが可能になる。
また、検知部132は、画像から検出した複数の人の移動方向を基に異常を検知する。
例えば、検知部132は、車両のドアが閉じていて、かつ特定の位置に向かうように複数の人が移動していることが検出された場合、異常を検知する。また、例えば、検知部132は、車両のドアが閉じていて、かつ特定の位置から離れるように複数の人が移動していることが検出された場合、異常を検知する。
このように、複数の人の移動に着目することにより、1人の人の状態及び動作だけでは検知が難しい異常を検知することができるようになる。
[その他の実施形態]
車載装置10は、位置を測定するための機能が備えられていてもよい。例えば、車載装置10は、GPS(Global Positioning System)受信機により自身の位置を測定する。
車載装置10は、位置を測定するための機能が備えられていてもよい。例えば、車載装置10は、GPS(Global Positioning System)受信機により自身の位置を測定する。
車載装置10は、検知結果を位置情報とともに通知する。これにより、例えば検知結果を見た乗務員は、列車がどの駅に停車中であるか、又はどの区間を走行中であるかを把握することができる。
また、位置情報は、車載装置10が備えられた車両及び列車を識別する情報と、各列車の運行スケジュールを示すダイヤ情報から推定されたものであってもよい。例えば、ダイヤ情報には、各時間帯における列車の停車駅又は走行区間が記載されている。
また、車載装置10は、列車を制御するシステムと連携してもよい。この場合、例えば車載装置10は、異常が検知された場合、列車2の走行を停止させ、各車両のドアを開くように指示を出すことができる。
[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、各装置の分散及び統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散又は統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU(Central Processing Unit)及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。なお、プログラムは、CPUだけでなく、GPU等の他のプロセッサによって実行されてもよい。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、各装置の分散及び統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散又は統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU(Central Processing Unit)及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。なお、プログラムは、CPUだけでなく、GPU等の他のプロセッサによって実行されてもよい。
また、本実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[プログラム]
一実施形態として、車載装置10は、パッケージソフトウェアやオンラインソフトウェアとして上記の監視処理を実行する監視プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の監視プログラムを情報処理装置に実行させることにより、情報処理装置を車載装置10として機能させることができる。ここで言う情報処理装置には、デスクトップ型又はノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等のスレート端末等がその範疇に含まれる。
一実施形態として、車載装置10は、パッケージソフトウェアやオンラインソフトウェアとして上記の監視処理を実行する監視プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の監視プログラムを情報処理装置に実行させることにより、情報処理装置を車載装置10として機能させることができる。ここで言う情報処理装置には、デスクトップ型又はノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等のスレート端末等がその範疇に含まれる。
図12は、監視プログラムを実行するコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011及びRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。
ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、車載装置10の各処理を規定するプログラムは、コンピュータにより実行可能なコードが記述されたプログラムモジュール1093として実装される。プログラムモジュール1093は、例えばハードディスクドライブ1090に記憶される。例えば、車載装置10における機能構成と同様の処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1090に記憶される。なお、ハードディスクドライブ1090は、SSD(Solid State Drive)により代替されてもよい。
また、上述した実施形態の処理で用いられる設定データは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020は、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した実施形態の処理を実行する。
なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限らず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093及びプログラムデータ1094は、ネットワーク(LAN、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶されてもよい。そして、プログラムモジュール1093及びプログラムデータ1094は、他のコンピュータから、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
N ネットワーク
1 監視システム
2 列車
10 車載装置
11 通信部
12 記憶部
13 制御部
20 車両
30 撮影装置
40 端末装置
50 サーバ
121 モデル情報
131 収集部
132 検知部
133 通知部
1 監視システム
2 列車
10 車載装置
11 通信部
12 記憶部
13 制御部
20 車両
30 撮影装置
40 端末装置
50 サーバ
121 モデル情報
131 収集部
132 検知部
133 通知部
Claims (7)
- 列車に含まれる車両のそれぞれに備えられた車載装置と、
前記車両のそれぞれに備えられ、前記車両の内部を撮影する撮影装置と、
を有し、
前記車載装置は、
前記撮影装置によって撮影された画像を収集する収集部と、
前記画像から異常を検知する検知部と、
前記検知部による検知結果を通知する通知部と、
を有することを特徴とする監視システム。 - 前記検知部は、画像認識により前記画像から暴行を行っている人、凶器を所持している人、又は物を振り回している人が検出された場合、異常を検知することを特徴とする請求項1に記載の監視システム。
- 前記検知部は、前記画像から検出した複数の人の移動方向を基に異常を検知することを特徴とする請求項1又は2に記載の監視システム。
- 前記検知部は、前記車両のドアが閉じていて、かつ1つの地点に向かうように複数の人が移動していることが検出された場合、異常を検知することを特徴とする請求項3に記載の監視システム。
- 前記検知部は、前記車両のドアが閉じていて、かつ1つの地点から離れるように複数の人が移動していることが検出された場合、異常を検知することを特徴とする請求項3又は4に記載の監視システム。
- 列車に含まれる車両に備えられた車載装置によって実行される監視方法であって、
前記車両に備えられ、前記車両の内部を撮影する撮影装置によって撮影された画像を収集する収集工程と、
前記画像から異常を検知する検知工程と、
前記検知工程による検知結果を通知する通知工程と、
を含むことを特徴とする監視方法。 - 列車に含まれる車両に備えられた車載装置に、
前記車両に備えられ、前記車両の内部を撮影する撮影装置によって撮影された画像を収集する収集ステップと、
前記画像から異常を検知する検知ステップと、
前記検知ステップによる検知結果を通知する通知ステップと、
を実行させることを特徴とする監視プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022019092A JP2023116345A (ja) | 2022-02-09 | 2022-02-09 | 監視システム、監視方法及び監視プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022019092A JP2023116345A (ja) | 2022-02-09 | 2022-02-09 | 監視システム、監視方法及び監視プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023116345A true JP2023116345A (ja) | 2023-08-22 |
Family
ID=87579394
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022019092A Pending JP2023116345A (ja) | 2022-02-09 | 2022-02-09 | 監視システム、監視方法及び監視プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023116345A (ja) |
-
2022
- 2022-02-09 JP JP2022019092A patent/JP2023116345A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2017436901B2 (en) | Methods and apparatus for automated surveillance systems | |
US10331943B2 (en) | Automated scenario recognition and reporting using neural networks | |
CN111115400B (zh) | 检测电梯井道中的电梯维护行为的系统和方法 | |
US10621860B2 (en) | Systems and methods for characterizing and managing driving behavior in the context of a network of moving things, including for use in autonomous vehicles | |
EP3370416B1 (en) | Cctv automatic selection monitoring system, and cctv automatic selection monitoring management server and management method | |
JP2018173914A (ja) | 画像処理システム、撮像装置、学習モデル作成方法、情報処理装置 | |
WO2018116488A1 (ja) | 解析サーバ、監視システム、監視方法及びプログラム | |
US20100231714A1 (en) | Video pattern recognition for automating emergency service incident awareness and response | |
CN111680535B (zh) | 在视频监控中实时预测一个或多个潜在威胁的方法和系统 | |
Iqbal et al. | Automatic incident detection in smart city using multiple traffic flow parameters via V2X communication | |
CN108230669B (zh) | 基于大数据和云分析的道路车辆违法检测方法及系统 | |
KR102219809B1 (ko) | 영상 분석을 통한 안전작업관리 시스템 | |
Garibotto et al. | White paper on industrial applications of computer vision and pattern recognition | |
CN111581436B (zh) | 目标识别方法、装置、计算机设备和存储介质 | |
RU2746652C1 (ru) | Модульный комплекс контроля производственной безопасности и технологических процессов | |
JP2023116345A (ja) | 監視システム、監視方法及び監視プログラム | |
US20180018682A1 (en) | Devices, Frameworks and Methodologies Configured to Enable Automated Monitoring and Analysis of Dwell Time | |
KR20200067654A (ko) | 실종사고 초동대응 시스템 및 그 동작 방법 | |
JP4990222B2 (ja) | 列車運行計画作成システム | |
CN105635653A (zh) | 一种视频监控系统 | |
RU2731032C1 (ru) | Сетевая система видеонаблюдения с возможностью контроля поведенческих факторов и биометрических параметров объектов наблюдения | |
WO2023209782A1 (ja) | 監視装置、監視方法、および記録媒体 | |
JP6351526B2 (ja) | 車載装置及び情報処理方法及び情報処理プログラム | |
US20230230379A1 (en) | Safety compliance system and method | |
KR102639250B1 (ko) | 공사 현장에 관한 안전 관리 모니터링 서비스를 제공하는서버, 방법 및 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20220217 |